JP5406182B2 - 3次元ビデオ信号をエンコードするための方法及びシステム、含まれる3次元ビデオ信号、並びに3次元ビデオ信号のためのデコーダのための方法及び信号 - Google Patents

3次元ビデオ信号をエンコードするための方法及びシステム、含まれる3次元ビデオ信号、並びに3次元ビデオ信号のためのデコーダのための方法及び信号 Download PDF

Info

Publication number
JP5406182B2
JP5406182B2 JP2010514199A JP2010514199A JP5406182B2 JP 5406182 B2 JP5406182 B2 JP 5406182B2 JP 2010514199 A JP2010514199 A JP 2010514199A JP 2010514199 A JP2010514199 A JP 2010514199A JP 5406182 B2 JP5406182 B2 JP 5406182B2
Authority
JP
Japan
Prior art keywords
data
frame
occlusion
encoded
video signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010514199A
Other languages
English (en)
Other versions
JP2010531604A (ja
JP2010531604A5 (ja
Inventor
フンネウィーク レイニール ビー エム クレイン
クリティアーン ファレカンプ
ウィルヘルムス エイチ エイ ブルールス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2010531604A publication Critical patent/JP2010531604A/ja
Publication of JP2010531604A5 publication Critical patent/JP2010531604A5/ja
Application granted granted Critical
Publication of JP5406182B2 publication Critical patent/JP5406182B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、ビデオエンコード及びデコードの分野に関する。本発明は、3次元ビデオ信号をエンコードするための方法及びシステムを提示する。本発明はまた、3次元ビデオ信号をデコードするための方法及びシステムに関する。本発明はまた、エンコードされた3次元ビデオ信号に関する。
近年、3次元(3D)画像ディスプレイに3D画像を供給する関心が高い。3D画像は、カラー画像に続く、画像における次代の大きな改革となると考えられている。我々は現在、消費者市場向けの自動立体(auto-stereoscopic)ディスプレイの導入の到来を迎えている。
3Dディスプレイ装置は通常、画像が表示される表示画面を持つ。
基本的に、3次元の印象は、ステレオ対、即ち観測者の2つの目に向けられた2つの僅かに異なる画像を用いて、生成されることができる。
ステレオ画像を生成するための、幾つかの方法がある。画像は2次元(2D)ディスプレイにおいて時間多重化されても良いが、このことは例えばLCDシャッタを備えた眼鏡を観測者が装着することを要求する。ステレオ画像が同時に表示される場合には、これら画像は、頭部装着型ディスプレイを用いることにより、又は偏光眼鏡(この場合には画像は直交する偏光で生成される)を用いることにより、適切な目へと向けられることができる。観測者により装着された眼鏡が、それぞれの目へとビューを効果的にルーティングする。眼鏡におけるシャッタ又は偏光子は、該ルーティングを制御するためフレームレートに同期される。ちらつきを防ぐため、該フレームレートは、2次元の等価な画像に対して倍にされるか、又は解像度が半分にされる必要がある。斯かるシステムの欠点は、いずれの効果を生成するためにも、眼鏡が装着される必要がある点である。このことは、眼鏡を装着することに慣れていない観測者には不快なものであり、既に眼鏡を装着している観測者にとっても、更なる眼鏡が常にフィットするものとは限らないため、潜在的な問題となる。
観測者の目の近くではなく、例えば米国特許US5,969,850に示されるような視差バリア(parallax barrier)といった分割画面により、表示画面においても2つのステレオ画像が分離されることができる。斯かる装置は、眼鏡の使用なく自身で(自動の)立体効果を提供するため、自動立体ディスプレイと呼ばれる。幾つかの異なるタイプの自動立体ディスプレイが知られている。
どのタイプのディスプレイが利用される場合であっても、ディスプレイ装置に3D画像情報が供給される必要がある。このことは通常、ディジタルデータを有するビデオ信号の形で行われる。
ディジタル画像に本質的なデータの巨大な量のため、ディジタル画像信号の処理及び/又は伝送は著しい問題を引き起こす。多くの状況において、利用可能な処理能力及び/又は伝送容量は、高画質のビデオ信号を処理及び/又は伝送するために十分なものではない。より詳細には、各ディジタル画像フレームは、画素のアレイから形成された静止画である。
生のディジタル情報の量は通常は大量であり、常に利用可能というわけではない高い処理能力及び/又は大きな伝送レートを必要とする。伝送されるデータの量を低減するため、例えばMPEG−2、MPEG−4及びH.263を含む種々の圧縮方法が提案されてきた。
これらの圧縮方法は元々、標準的な2D画像のために設定されてきたものである。
3D画像の生成は従来、入力されるエンコードされた2Dビデオ信号を3Dビデオ信号へとディスプレイ側で変換することにより実行される。入力される2Dデータシーケンスは、ビデオシーケンスを表示する直前に3Dシーケンスへと変換される。しばしば、ディスプレイ側において、2D画像中の画素に奥行きマップ(depth map)が追加され、該奥行きマップが画像内の画素の奥行きに対する情報を供給し、斯くして3D情報を供給する。画像についての奥行きマップを利用することにより、左及び右画像が構築され3D画像を提供することができる。2D画像内のオブジェクトの相対的な奥行きは、例えばフォーカス(フォーカスが合っている、フォーカスが合っていない)から、又はオブジェクトが互いをどのように見えなくしているかから、推量され得る。
ディスプレイ側で生成される3D情報は不完全さを持つこととなるため、改善された3D情報を生成するニーズが存在する。撮像側で生成される3D情報は、以下の理由により、改善された3D画像描画を提供し得る:
−撮像側における強力な計算の可能性
−オフライン処理の可能性
−手動操作の可能性
3D情報が撮像側で生成される場合には、該情報は伝送される必要があり、ビットレートの点で低い追加のオーバヘッドを持つためには、3D情報の圧縮が必要とされる。好適には、3D情報の該圧縮(又はエンコード)は、3D情報の圧縮が、比較的少ない調節のみによって、既存の圧縮規格を用いて実装されるように実行される。
しばしば、3D情報は、奥行きマップ(zマップ)を伴う画像の形で与えられる。
優れた奥行きマップは、3Dディスプレイが、更なる奥行きを生成することを可能とする。しかしながら、奥行きの再現を増大させることは、奥行きの不連続の周りの可視の不完全さに帰着する。これら可視の不完全さは、改善された奥行きマップの正の効果を大きく低減させる。更に、伝送能力は限られており、符号化効率が非常に重要である。
斯くして、本発明の目的は、エンコードされたデータ内のデータの量を制限内に保ちつつ、表示される画像についての奥行きの不連続の周りの可視の不完全さが低減される、送信側において3D画像データをエンコードするための方法を提供することにある。好適にも、符号化効率が大きい。また、好適にも、本方法は既存のエンコード規格に準拠する。
別の目的は、3Dビデオ信号をエンコードするための改善されたエンコーダ、3Dビデオ信号をデコードするためのデコーダ、及び3Dビデオ信号を提供することにある。
この目的のため、本発明による符号化のための方法は、3次元ビデオ信号がエンコードされ、前記3次元ビデオ信号は、中心ビュービデオフレームと、前記中心ビュービデオフレームについての奥行きマップと、前記中心ビュービデオフレームについてのオクルージョン(occlusion)データフレームと、を有し、中心ビューについての奥行きマップにおけるデータの制御の下、前記オクルージョンデータフレームのデータについて、前記オクルージョンデータフレームにおける有効(functional)データを無効(non-functional)データから区別するための示唆手段が生成され、その後に前記オクルージョンデータフレームがエンコードされることを特徴とする。
実際には、このことは、オクルージョンデータフレームにおいて、関連するオクルージョンデータが生成されない(即ち無効)領域が存在することを意味する。本方法は、スイッチが少なくとも2つの設定、即ちデータが無効なもの(即ち実際のビデオコンテンツと独立したもの及び/又は関連のないもの)として認識される設定と、有効データ(即ちビデオコンテンツに依存し関連しているデータ)として認識される設定と、を持つ、「スイッチ機能」を包含する。有効データから無効データを区別することが可能であることは、後続するエンコードの符号化効率を増大させ、及び/又は伝送されるビットの数を減少させることを可能とする。
好適な実施例においては、オクルージョンデータフレームは、奥行きマップがエンコードされた後にエンコードされる。原則的に、元の奥行きマップが利用されても良い。しかしながら、デコーダ側において逆の手順が利用されることとなり、デコーダ側においては「オリジナル」はもはや利用可能ではなく、エンコードされたバージョンのみが利用可能である。エンコード側においてエンコード/デコードされたものではなく、オリジナルを利用することは、不確実性に導く。なぜなら、デコーダ側での処理が正確に同じとはならない場合があるからである。
一実施例においては、奥行きマップにおけるデータの制御の下、無効データを区別するための示唆手段として、一定値又は一定範囲内の値が、オクルージョンデータフレームにおいて生成される。
斯かる一定値(例えば完全な黒又は完全な白)は次いでデコーダによって、(オクルージョンデータフレームの画素が或る値、即ち前記一定値又は一定範囲内の値を持ち得るが)該値が現実のオクルージョンデータとして取り扱われるべきではないと、即ち関連するビデオ情報に関するものではないと解釈される。このことは、ビットの大きな低減及び増大させられる符号化効率を可能とする。該一定範囲が、画像にエラーが存在する場合に典型的に生成される値(例えば完全な黒)として選択される場合には、更なる利点が得られる。好適には、該一定値又は一定範囲内のいずれの有効データもが、該一定値とは異なる値又は該一定範囲外の値によって置き換えられ、それによって有効データに対して該一定値又は値範囲を除外する。このことは例えば、入力されるオクルージョンデータをクリッピングすることにより容易に実行され得る。クリッピングは、値の「自由範囲」(即ちクリッピングされた値)を提供し、これら値の1つ又は全てが次いで、無効データのための示唆手段として利用されることができる。
斯かる実施例においては、該示唆は次いで、オクルージョンデータフレーム内のデータに明示的に含まれる。即ち、特定の値が、無効データを表す。
好適には、一定値又は一定の値範囲が、ビデオ信号にメタデータとして組み込まれる。
該示唆手段はまた、データストリームに挿入されたパラメータの形をとっても良く、このことは、デコーダが、オクルージョンデータフレームのデータ内で、有効データから無効データを区別することを可能とする。
本発明は、以下の洞察に基づく。
奥行きマップが撮像側で生成され、より詳細な情報が撮像側では利用可能であるため、より優れた奥行きマップが生成されることを可能とする。
中心のビューフレームについてのオクルージョンデータフレームの提供は、受信側においてオクルージョンデータを生成することに比べて、3D画質における著しい改善を実現する。
例えば好適にはオクルージョンデータフレームにおける一定値の利用によって、無効データから有効データを区別することができることは、伝送されるべきデータの量を著しく低減させ、符号化効率を増大させる。
奥行きマップのデータは、無効データからの有効データの区別のための非常に優れた基礎を提供する。
本発明はまた、3次元ビデオ信号をエンコードするためのエンコーダであって、前記エンコードされた3次元ビデオ信号は、中心ビュービデオフレームと、前記中心ビュービデオフレームについての奥行きマップと、前記中心ビュービデオフレームについてのオクルージョンデータフレームと、を有し、前記エンコーダは、エンコードされるべき中心ビューデータフレームと、中心ビューデータフレームについての奥行きマップと、オクルージョンデータフレームと、のための入力部を有し、前記エンコーダは、前記奥行きマップについてのデータに基づいてスイッチを制御するコントローラを有し、前記スイッチは、前記オクルージョンデータフレームのデータについて、有効データか又は無効データを生成する、エンコーダにおいて実施化され得る。
好適には、該制御において奥行き不連続さ閾値が適用され、閾値よりも小さな奥行きマップにおける奥行きの不連続さが、決定因子である。好適には、オクルージョンデータは、奥行きマップがエンコードされた後に生成される。このことは、奥行きの不連続さが十分に大きく(特定の閾値を超えている)且つ奥行きの不連続さが元のものと圧縮による符号化された奥行きマップとの間で変化する場合に、オクルージョンデータが生成されるという事実による。従って、オクルージョンデータがデコードされた奥行きマップに応じて決定されない場合には、利用される閾値は、実際の定義される閾値よりも低くなり得る。このことは、厳密に必要とされるよりも多いオクルージョンデータに帰着し、より高いビットレートに導く。
奥行きの不連続さは、隣接する画素の奥行き値が、大きく異なる場合に生じる。或るオブジェクトが他のオブジェクトの背後に隠されているかも知れないという事実は、奥行き値におけるジャンプにより推量される。急激な変化は、画像における前景オブジェクトから背景オブジェクトへの変化、又はより一般的に言えば、或るオブジェクトから別のオブジェクトへの変化の示唆である。滑らかに変化する値は、オブジェクト内での変化を示唆する。オクルージョンデータは、奥行きの不連続さ(即ち隣接する画素間の奥行き値の変化)が閾値よりも大きい場合、即ち十分に大きい場合にのみ、生成される。
オクルージョンデータは、「前景オブジェクトの背後」の領域、即ち奥行き値の変化が閾値よりも大きい線又は点に隣接する領域に対して、生成される。斯かる領域は、閾値を超える画像中の奥行きの不連続さにより、容易に識別されることができる。好適には、該閾値は、奥行きマップにおけるデータから算出される。該算出はコントローラにおいて実行される。該閾値は、代替として一定値に設定されても良いが、好適には動的に算出される。なぜなら、種々の画像が、最適な閾値に影響を与える種々の内容を持ち得るからである。コントローラは好適には、エンコードされた3D画像データにおいて利用される閾値を挿入するための出力部を持つ。該閾値は次いでデコーダにおいて利用されることができ、斯くして、デコーダにおいて利用される閾値を確立する必要性を取り除く。
オクルージョンデータフレームのデータをダウンスケーリングすることにより、更なるビットの低減が得られることが分かっている。
オクルージョンデータは、前景オブジェクトの周囲のエッジを埋める。オクルージョンデータフレームにおけるデータのダウンスケーリングは、品質に対しては限られた影響しか及ぼさないものの、エンコードされた3D信号におけるビットの数を低減させることが示されている。
好適な実施例においては、コントローラは、エンコードされたオクルージョンデータフレームのビットレートについての入力部を持つ。
該コントローラはこれにより、「有効なもの」と「無効なもの」とを区別するためのパラメータを調節することができ、従ってオクルージョンデータフレームにおける無効データに対する有効データの量を調節することができる。このことは、手動操作の可能性を提供する。実際には、このことは例えば、ビットレートがオクルージョンデータフレームのために割り当てられたビットレートを超えるほどに高くなり過ぎた場合に、有効データを持つフレームの領域が減少させられるように閾値が引き上げられるように、ビットレートに依存して閾値が調節されることを意味する。
更なる実施例においては、ビデオ奥行きマップ及びオクルージョンデータフレームがエンコードされ、ここでオクルージョンデータフレームは、エンコードにおける基準フレームとして1つ以上の中心ビューフレームを用いてエンコードされる。
好適な実施例については、オクルージョンデータフレームについて中心ビューから基準フレームが利用される場合に、オクルージョンデータフレームの符号化効率が著しく改善されることが分かった。オクルージョンデータは中心ビューにおいて可視でないデータ即ち中心ビューフレームにおいて利用可能ではないデータを有するため、このことは最初は驚くべきことに思われるかも知れない。しかしながら、中心ビューにおける前景オブジェクトに近い中心ビューデータとのオクルージョンデータの相関は、前景オブジェクトの動きにより、高くなり得る。オクルージョンデータフレームをエンコードするための中心ビューからの基準フレームの利用は、オクルージョンデータの符号化効率を著しく改善することが分かっている。
オクルージョンデータの量は、ビデオ奥行きマップにより制限される。本発明の枠組内では、オクルージョンデータフレームの生成も好適には、観測角の最大範囲に制限される。オクルージョンデータの量は斯くして、ビデオ奥行きマップによって、及び(好適な実施例においては)観測の最大範囲即ち最大観測角によって制限される。斯かる実施例においては、オクルージョンデータは、奥行きマップ及び左及び右への最大変位(即ち観測角)に見られるデータに制限される。斯くして、中心ビューデータ及び該中心ビューデータについての奥行きマップに加わる付加的なデータの量は制限され、限られた量の付加ビットしか必要としない。デコーダにおけるコントローラは好適には、観測角の最大範囲のための入力部を持つ。
本発明においては、オクルージョンデータは、ビデオデータ収集側で生成される。
受信側で或る種のオクルージョンデータを生成することは知られていることに留意されたい。しかしながら、中心ビュー及び該中心ビューについての奥行きマップに基づいて受信側で行われるものであり、オクルージョンデータを真に再構築すること、即ち前景オブジェクトの背後にあるものを再構築することは不可能である。なぜなら、中心ビューにおいて前景オブジェクトの背後に何が隠れているかは、本質的に未知であるからである。この場合、オクルージョンデータは通常、「経験に基づく推測」型のアルゴリズムにより、中心ビューから生成される。失われた部分は推測され埋められる。
更に、完全な3D手法は、現在のエンコード手法と全く又は少なくとも容易には両立しないことに留意されたい。本発明においては、全てのエンコードされたデータは1つの視点及び1つの座標系にのみ関連し、既存の手法とより容易に両立可能なものとする。
ビデオ信号処理において、フレーム内符号化及びフレーム間符号化されたフレーム、例えばIフレーム、Pフレーム及びBフレームに信号が含められる。Iフレームはフレーム内符号化される。P及びBフレームは、フレーム間符号化されたフレームと呼ばれる。フレーム内符号化されたフレームは、他のフレームを参照することなく再構築されることができ、フレーム間符号化されたフレームは、他のフレームのデータを用いて再構築される(前方又は後方予測)。
本発明は、符号化のための方法において実施化されるが、本方法の種々のステップを実行するための手段を持つ対応するエンコーダにおいても等しく実施化される。斯かる手段は、ハードウェアで提供されても良いし、ソフトウェアで提供されても良いし、又はハードウェア及びソフトウェアのいずれかの組み合わせ若しくはシェアウェアによって提供されても良い。
本発明はまた、エンコード方法により生成される信号において、並びに斯かる信号をデコードするためのいずれかのデコード方法及びデコーダにおいて実施化される。
とりわけ、本発明はまた、エンコードされたビデオ信号をデコードするための方法であって、3次元ビデオ信号がデコードされ、前記3Dビデオ信号はエンコードされた中心ビューのビデオフレームと、前記中心ビューのビデオフレームについての奥行きマップと、前記中心ビューのビデオフレームについてのオクルージョンデータフレームとを有し、前記エンコードされたビデオ信号は、有効オクルージョンデータから無効オクルージョンデータを区別するための示唆を有し、前記デコードにおいて、有効オクルージョンデータと中心ビューのデータとを有する、結合されたデータストリームが生成される方法において実施化される。
本発明はまた、エンコードされたビデオ信号をデコードするためのデコーダであって、3次元ビデオ信号がデコードされ、前記3Dビデオ信号はエンコードされた中心ビューのビデオフレームと、前記中心ビューのビデオフレームについての奥行きマップと、前記中心ビューのビデオフレームについてのオクルージョンデータフレームとを有し、前記エンコードされたビデオ信号は、有効オクルージョンデータから無効オクルージョンデータを区別するための示唆を有し、前記デコーダは、有効オクルージョンデータと中心ビューのデータとを有する、結合されたデータストリームを生成するための結合器を有するデコーダにおいて実施化される。
本発明のこれらの及び更なる態様は、添付図面を参照しながら、例として以下に詳細に説明される。
図面は定縮尺で描かれたものではない。全般的に、図面において、同一の構成要素は同じ参照番号により示される。
自動立体表示装置の例を示す。 オクルージョンの問題を示す。 オクルージョンの問題を示す。 コンピュータにより生成された場面の左及び右のビューを示す。 3つのデータマップ、即ち中心ビュー、中心ビューについての奥行きマップ、及び中心ビューについてのオクルージョンデータによる、図4の表現を示す。 本発明による符号化方式及びエンコーダを示す。 本発明によるデコード方式及びデコーダの実施例を示す。 本発明によるデコード方式及びデコーダの別の実施例を示す。 オクルージョンデータのブロックグリッド配列が可視である、中心ビューデータ及びオクルージョンデータに対するズームインを示す。 エンコード/デコード方式を示す。 エンコード/デコード方式を示す。 更なるエンコード/デコード方式を示す。 エンコード/デコード方式を示す。 オクルージョンフレームを符号化する際の基準フレームとして中心ビューフレームを用いる符号化方法を示す。 オクルージョンフレームについての奥行きマップを符号化する際の基準フレームとして中心ビューについての奥行きマップ用いる符号化方法を示す。 オクルージョンフレームをデコードする際に中心ビュー基準フレームが利用される、デコードステップを示す。 本発明の更なる実施例を示す。
図1は、一種の自動立体表示装置の基本原理を示す。該表示装置は、2つのステレオ画像5及び6を形成するためのレンチキュラ画面スプリッタ3を有する。2つのステレオ画像の垂直線は、例えばバックライト1を伴う空間光変調器2(例えばLCD)上に(空間的に)交互に表示される。バックライトと空間光変調器とが合わせて、画素アレイを形成する。レンチキュラ画面3のレンズ構造は、ステレオ画像を、観測者の適切な目へと導く。
図2及び3において、オクルージョンの問題が示されている。本図において、「背景」と示されている線が背景であり、「前景」と示されている線が該背景の前に位置するオブジェクトを表す。「左」及び「右」は、該場面の2つのビューを表す。これら2つのビューは例えば、ステレオ設定については左及び右のビューであっても良いし、又はn個のビューのディスプレイを利用する場合については最も外側の2つのビューであっても良い。n個のビューのディスプレイのために必要とされる残りのn−2個のビューは、この場合にはディスプレイ側で生成されるべきである。「L+R」と示される線は、両方の目によって観測されることができるが、Lの部分は左のビューのみから観測されることができ、Rの部分は右のビューのみから観測されることができる。それ故、Rの部分は左のビューからは観測されることができず、同様にLの部分は右のビューからは観測されることができない。図3において、「中心」は中心ビューを示す。本図から分かるように、図3において示される背景のL及びRの部分の一部(それぞれL1又はR1)は、中心ビューから観測されることができる。しかしながら、L及びR部分の一部は、前景オブジェクトの背後に隠されているため、中心ビューから観測されることができない。Ocにより示されたこれらの領域は、中心ビューに対しては遮蔽されているが、他のビューからは可視であり得る。本図から分かるように、これらオクルージョン領域は典型的に、前景オブジェクトのエッジにおいて生じる。中心ビュー及び奥行きマップのみから3Dデータを生成することは、遮蔽された領域についての問題を引き起こす。前景オブジェクトの背後に隠された画像の部分のデータは、未知である。
優れた奥行きマップは、3Dディスプレイが、更なる奥行きを表示することを可能とする。奥行き再生の増大は、オクルージョンデータの欠如のため、奥行きの不連続点の周囲で可視の不完全さに帰着する。それ故、高品質の奥行きマップに対して、本発明者はオクルージョンデータの必要性を認識した。
図4は、コンピュータにより生成された場面の左及び右のビューを示す。黄色のタイル状の床と2つの壁とを持つ仮想的な部屋に、携帯電話が浮かんでいる。左のビューにおいては農婦がはっきりと見えるが、右のビューでは見えない。右のビューにおける褐色の牛については、反対のことが成り立つ。
図5において、以上に議論したものと同じ場面が示されている。本場面はここでは、本発明によって、3つのデータマップ、即ち中心ビューについての画像データ、中心ビューについての奥行きマップ、及び中心ビューについてのオクルージョンマップにより表され、ここでオクルージョンデータはビデオ奥行きマップにより決定される。有効オクルージョンデータの大きさは、奥行きマップにより決定される。基本的に、中心ビューにおける奥行きのステップの線を辿る。本例においては、オクルージョンデータに含まれる領域が、携帯電話の輪郭に沿った帯により形成される。この帯は(斯くしてオクルージョン領域の大きさを決定する)、種々の方法で決定され得る:
−ビュー及び奥行きのステップの最大範囲から導かれる幅として
−標準的な幅として
−設定されるべき幅として
−携帯電話の輪郭の近隣(外側及び/又は内側)におけるいずれかのものとして
奥行きマップは密なマップである。奥行きマップにおいて、明るい部分は近いオブジェクトを表し、奥行きマップが暗いほどオブジェクトは観測者から遠い。
有効オクルージョンデータは、図5に示された本発明の例においては、所与の奥行きマップ並びに左及び右への最大変位で観測されるものに対するデータの限定に対応する幅の帯である。オクルージョンデータの残りは、無効である。
殆どのディジタルビデオ符号化規格は、ビデオレベル又はシステムレベルであり得る付加的なデータチャネルをサポートしている。これらの利用可能なチャネルを用いて、オクルージョンデータの伝送が単純なものとなり得る。
図6は、本発明によるエンコード方法及びエンコーダの実施例を示す。該エンコーダは、3つのデータストリーム、即ち中心ビューについてのデータを供給するデータ61、中心ビューについての奥行きマップを供給するデータ62、及びオクルージョンデータを供給するデータ63を受信する。これらデータストリームのそれぞれについてエンコーダがあり、中心ビューデータのエンコーダとしてエンコーダCV、中心ビューデータの奥行きマップに対してエンコーダCV(z)、オクルージョンデータに対してエンコーダOccl、最後にオクルージョンデータについての任意の奥行きマップに対してエンコーダOccl(z)がある。オクルージョンデータフレームは、データの大量のセットであり得る。
該データはまた、図6の最下部に模式的に示されたようなオクルージョンデータのための奥行きマップを有する。
中心ビューの奥行きマップデータはコントローラ65に供給され、コントローラ65は決定器又はスイッチ66を調節する。コントローラ65の出力に依存して、オクルージョンデータフレーム中のデータは、有効データ(即ち、エンコード方法の残り及び後のデコードにおいて真のオクルージョンデータとして扱われるべきデータ)と無効データ、即ち機能的に無視されるべきデータとで区別される。図5において、無効データは灰色である。無効データは、図6においてOccl=「0」により模式的に示される。これに対処するための直接的な方法は、無効領域についてのデータに固定値(例えば完全な黒)を割り当てることである。エンコーダの残り及びデコーダを通して、これら無効データは次いで、無効なものとして認識されることとなる。コントローラ内において、閾値THが好適に設定又は算出される。好適には、無効データのために固定値又は固定範囲内の値が確保され、固定値の又は固定の値範囲内のいずれの有効データもが、該確保された値以外の値又は確保された範囲外の値によって置き換えられる。
完全な黒(0のY値)が無効データを示す場合には、いずれの無効データもがデコーダによって無効データとして識別されることとなるが、単なる偶然として完全な黒であり得る有効領域におけるいずれのデータもが「無効データ」とみなされ、その結果、有効領域に小さな穴が形成されてしまい得る。完全な黒を無効データのために確保しておくことにより、この負の影響は回避され得る。このことは、入力されるオクルージョンデータ(例えば0と255との間の輝度値に亘る)を、例えば4の輝度値へとクリッピングすることにより、容易に実行され得る。入力されるオクルージョンデータ中の、全ての完全な黒の信号(又は0、1、2又は3のY値を持ついずれかの信号)が、僅かに黒くなくされ、即ち斯かる画素の「完全な黒」の値が、確保された値以外の値又は確保された値の範囲外の値により(本例においてはクリッピングによって)置き換えられる。このとき、「完全な黒」は、無効データのために確保されることとなる。本例においては、無効データのためにY=0、1、2又は3の範囲を確保することも可能である。結果の3Dビデオ信号は、本発明の実施例による方法により作成されるものと比較的容易に認識される。なぜなら、多くのオクルージョンデータフレームは、全て「完全な黒」である比較的大きな領域を持ち、「完全な黒」である画素がない残りの領域が一定範囲の値を示すからである。
ビデオ奥行きマップに基づいて有効オクルージョン領域を制限することにより、付加的なデータの数は制限内に保たれる。奥行きマップは好適には最初にエンコードされ、その後にオクルージョンデータが符号化される。ここで奥行きマップについてのデータは、有効データと無効データとを区別するために利用される。奥行きの不連続は、隣接する画素の奥行き値が大きい量だけ異なる場合に生じる。或るオブジェクトが他のオブジェクトの背後に隠されている可能性があるという事実は、奥行き値のジャンプにより推量され得る。急激な変化は、前景オブジェクトから背景オブジェクトへの、又はより一般的には或るオブジェクトから他のオブジェクトへの、画像における変化の示唆である。滑らかに変化する値は、オブジェクト内での変化を示唆する。オクルージョンデータは、奥行きの不連続さ(即ち隣接する画素間の奥行き値の変化)が閾値よりも大きい即ち十分に高い場合にのみ生成される。特定の実施例においては、最大の符号化誤りが決定され(閾値THについての下限を設定する。符号化誤りを生じるよりも低い閾値THを設定しても意味はない)、閾値THが算出される。THの制御において、閾値は画素間の奥行きの差と比較され、このことは減算ブロック67により模式的に示される。該ブロックには、デコーダの奥行きマップデータと隣接する奥行きマップデータとが供給される(図6においてシフトτ1により模式的に示される)。隣接する画素間の奥行きのステップが閾値THよりも大きい場合には、該ステップはデータにおける「真のエッジ」を示唆する。一方で奥行きにおける測定されたステップ即ち奥行きの不連続さと他方で算出された閾値THとの比較は斯くして為され、決定因子が制御される。真のエッジから、前景オブジェクトの位置が決定されることができ、それにより有効オクルージョンデータ領域の境界が決定されることができる。コントローラ65は、それに従ってスイッチ66を制御する。オクルージョンデータフレームの画素が該フレームの無効部分に属する場合には、該データは無効なものとして識別される。
このことは、有効オクルージョンデータが生成され、有効オクルージョンデータであるオクルージョンデータフレームの一部に対してのみオクルージョンエンコーダにおいて対処されるという利点を持つ。下限閾値よりも小さな奥行きの不連続さについてオクルージョン領域(通常は小さい)を埋めることは、例えばストレッチングのような他の手法によって解決され得る。
好適には、オクルージョン領域は、最小の奥行きの不連続さと共に、ディスプレイ側で生成されることとなる最大のビューの範囲即ち最大ビュー角によって、決定される。図6において、このことは「最大ビュー角」なる語と「制御」ボックスとの間の線により示される。後者の制約は、オクルージョンマップにおけるオクルージョン領域の帯域幅、即ち前景画像の背後のどれだけ深く見ることが可能である必要があるかを決定する。最大ビュー角に加え、帯域幅もまた実際の奥行き値に依存しても良く、このことは該線がデコーダから制御まで伸びている理由である。
図6はまた、以下のことを示す。コントローラは、エンコード/デコードされた奥行きマップデータを入力として得る。元のデータが利用されても良く、即ちコントローラ及び他の部分に元のデータを直接供給しても良い。しかしながら、デコーダ側においては、元のデータはもはや利用可能ではなく、エンコードされた、通常は大きく圧縮されたデータのみが利用可能である。該データはデコードされ、従ってデコーダ側において、エンコードされた信号が利用される必要がある。例えば、奥行きの不連続さが十分に(特定の閾値を超えて)大きく且つ奥行きの不連続さが圧縮により模式的に元のものと符号化された奥行きマップとの間で変化する場合に、有効オクルージョンデータが生成される。従って、オクルージョンデータがデコードされた奥行きマップに基づいて決定されない場合には、利用される閾値は、有効データを逃さないように、実際の定義された閾値よりも低いべきである。このことは、厳密に必要とされるよりも多いオクルージョンデータに帰着し、高いビットレートへと導くこととなる。
有用なオクルージョンデータを有さないオクルージョンデータフレームにおける領域(図5における灰色の領域)は無効なものと識別され、それ自体はエンコードにおいて役割を果たさない。これを実現するための単純な方法は、以上に説明したように、完全な黒又は完全な白のような固定値を、斯かる画素に割り当てることである。無効オクルージョンデータに対しては、画質の必然的な損失を伴う情報の起こり得る損失のために有効オクルージョンデータに対して必要とされない、極端な値及び圧縮の方法が利用されても良く、このことは、最終的な画質の低下を伴うことなく、エンコードされたオクルージョンフレーム信号及び伝送におけるビットの量の著しい低減と、符号化及びデコード効率の増大とを可能とする。無効なものと識別されたデータに対しては、最小限の数のビットをもたらす、いずれの形態の(可変長)符号化が利用されても良い。最大の奥行きは奥行きマップから既知であり、最大ビュー角も既知であるから、最大オクルージョン領域が算出されることができる。更なる好適な実施例においては、符号化効率を改善するための方法がとられる。更なる好適な実施例は例えば、エンコーダOcclと「制御」との間の線により示される。符号化されたオクルージョンフレームのビットレートの入力は、スイッチ66を制御するために利用され得る。ビットレートが設定された値を超える虞がある場合には、スイッチ66の制御はより厳密に実行されても良く、このことは例えば、閾値THが増加させられ、及び/又はビューの最大範囲が減少されることを意味する。このことは勿論、有効領域のサイズの減少と、オクルージョンフレームにおける無効データの割合の増加に導くこととなる。このことは、ディスプレイにおいて画像に対して不利な影響を与え得るが、有利な結果は、符号化されたオクルージョンフレームのビットレートが制限内に保たれる点である。全体として、最終結果は有利なものとなる。オクルージョン奥行きフレームが利用可能である場合には、画像におけるエッジを見つけ出すことを「微調整」するために、該オクルージョン奥行きフレームの情報もがコントローラ65において利用されても良い。代替の方法は、オクルージョンデータが自動的にダウンスケールされない実施例においては、ビットレートが設定された値を超える虞がある場合に、ダウンスケールが起動されることである。
更なる実施例は、コントローラにおいて、中心ビューデータの付加的な入力を含めることである。中心ビューにおけるエッジの周囲において中心ビュー画像が非常に滑らかである場合、即ち細部を殆ど示さない場合、特に前景オブジェクトの周囲で全て滑らかな背景(例えばテクスチャのない単純な色)が存在する場合、ストレッチングが優れた結果を与える見込みが高い。ストレッチングは、デコーダ側で実行される動作であり、ビットが送信される必要がない。斯かる状況においては、オクルージョンデータを有効なものと宣言する代わりに、オクルージョンデータが(ステップ高さが十分に高いにも
かかわらず)無効なものと識別されても良い。このことはビットを節約する一方で、不利な影響が最小限になる見込みが高い。
閾値TH、無効データのための固定値(又は固定範囲)、シフトτ1及びτ2及び最大ビュー角のようなパラメータ、並びにコントローラにおいて利用される符号化されたオクルージョンデータのビットレートのような、エンコードの方法において利用される全てのパラメータデータは、エンコードされたデータストリームと共にメタデータとして送信されても良い。デコーダ側において、これらパラメータは次いで同様な方法で利用される。
図6はまた、更なる好適な実施例を示す。エンコーダは、中心ビューフレームをエンコードするためのエンコーダ(エンコーダCV)と、エンコードされた中心ビューフレームをデコードするためのデコーダ(デコーダCV)と、オクルージョンデータフレームをエンコードし、基準フレームとしてデコードされた中心ビューフレームを挿入するためにオクルージョンデータフレームをエンコードするための該エンコーダにおける入力をエンコードするためのエンコーダ(エンコーダOccl)と、を有する。このことは、デコーダCVからエンコーダOcclへと延びる線により模式的に示される。好適には、同じ時点からの中心ビューフレームが基準フレームとして利用されるのみならず、時間(又はフレーム)シフトが利用される。即ち、1つ以上の前又は将来の中心ビューフレームが、オクルージョンデータフレームのためのエンコーダにおいて基準フレームとして利用される。オクルージョンデータの符号化効率は、オクルージョンデータ基準フレームが中心ビューから利用される場合に、著しく改善されることが観測されている。オクルージョンデータは現在の時間において中心ビューにおいて可視でないデータ即ち中心ビューフレームにおいて利用可能ではないデータを有するため、このことは最初は驚くべきことに思われるかも知れない。しかしながら、前景オブジェクトに近い背景データとのオクルージョンデータの相関は高い。オクルージョンデータフレームをエンコードするために中心ビューからの基準フレームを利用することは、オクルージョンデータの符号化効率を著しく改善することが分かっている。このことは、部分67において模式的に示されている。
オクルージョンフレームの奥行きマップについてのデータを示す線における、「制御」からスイッチ66'へと延びる線は、幾分かのオクルージョンデータ自体が無効なものと識別された場合に、対応するオクルージョンフレームについての奥行きマップに対して同じ動作が適用されても良いことを示唆している。このことは、オクルージョンデータについての奥行きマップにおけるビットの低減を可能とする。原則として、スイッチ66'のみを利用することも可能であるが、最も重要なビットの低減は、オクルージョンフレームについての奥行きマップにおけるよりも、オクルージョンフレームにおいて得られる。オクルージョンデータフレームの奥行きマップにおけるデータを、オクルージョンデータフレーム自体における無効領域を識別するための手段として利用することも可能である。このことは例えば、オクルージョンデータフレームについての奥行きマップの内容によって、オクルージョンデータフレームにおける無効領域を識別することを可能とする。斯かる無効領域はこのとき、もはや値を制限されることはなく、他の情報の保存のために利用されることができる。「無効」とは、画素値に対して重要な値を有さないことを意味することに留意されたい。オクルージョンデータフレームにおける無効領域を示唆するための示唆手段が次いで、オクルージョンデータフレームについてのエンコードされた奥行きマップに含められる。
図7は、本発明によるデコード方法及びデコーダを示す。エンコーダの一部に概ね対応するデコーダの一部は、図6における数字よりも10だけ大きな数字により示されている。
図7及び8における最も右側の部分は、画面Scにおける種々のビューを示している。中心ビューは画面に垂直なビューであり、他のビューはビュー角を変化させることにより作られ、+2乃至−2に亘るビュー角インデクスにより模式的に及び例示的に示される。
ここでは、中心の奥行き不連続が、歪んだブロック(基本的に画素のシフトを実行する)を制御する。歪みの量は、所望の視点位置Nに依存し、各視点位置にビュー角が対応する。基本的な歪は、結果の画素フレームに「穴」を残す。
オクルージョン奥行きデータが利用可能である場合には、現在位置aにあるスイッチSを介して、オクルージョン奥行き不連続を利用して、デコードオクルージョンもが歪ませられる。
ここで歪ませられたオクルージョン情報が利用可能である場合(「0」に等しくないことを意味し、小さな間隔として定義され得る)には、該オクルージョン情報は、中心ビューにおける「穴」を埋めるために利用されることができる(位置aにあるスイッチ76)。そうでなければ、例えばストレッチングにより、「穴」のエッジからのコピーによって該「穴」が埋められる(位置bにあるスイッチ76)。
「0」の範囲はエンコードENCにより送信され、デコーダDECにより受信されるため、その値は既知であり、スイッチ76を適切に制御することができる。
オクルージョン奥行き情報が利用可能でない場合には、スイッチSは通常は位置cにあり、代わりに中心奥行きが利用されることを意味する。中心ビュー不連続がジャンプを引き起こす場合には(閾値THよりも大きい)、奥行きの不連続が繰り返され、b位置にあるスイッチSにより示される。
閾値THはまた、全体のストリームにおいてメタデータとしてエンコーダENCによって送信され(図6も参照されたい)、歪んだ中心画像の「穴」を埋めるためどこのデータをとるかについて、スイッチ76を制御する。中心の奥行き不連続がTHよりも小さい場合には、スイッチ76が位置bにある。信号78は、有効オクルージョンデータと中心ビューデータとの両方を有する結合された信号であり、スイッチ76の位置が該結合を決定する。
図8は、本発明による符号化の方法及びデコーダの更なる実施例を示す。
中心ビューは、中心ビューのためのデコーダDecCVにおいてデコードされる。デコーダCVは、歪2において、歪(変形動作)が実行される種々の角度で画像を生成するように、中心ビュー画像を供給する。このことは、画像に「穴」をもたらすこととなる。中心ビューにおけるオブジェクトは、ここでは「可視」であるべきである背景の特定の部分を遮る。しかしながら、中心ビュー画像についてのデータは、これら「穴」の部分についてのデータを有さない。これらの穴は、穴埋め動作において埋められる必要がある。従来の方法においては、このことは例えばストレッチングにより実行され、即ち該「穴」の周囲の画素の値が、該穴における画素の内容の経験に基づく推測を為すために利用される。しかしながら、このことは、前景画像の背後にあったものを実際に描くものではなく、単に推測するに過ぎない。本発明においては、符号化された遮蔽されたデータフレームが利用される。位置88において、結合されたデータストリームが生成される。該結合されたデータストリームは、一方では有効なオクルージョンデータと、中心ビューからのデータとを有する。スイッチは、有効オクルージョンデータを通過させる第1の位置(有効オクルージョンデータについては、図においてOccl≠「0」により模式的に示される)を持つ。スイッチ86は、図7におけるスイッチ76と同じ機能を提供する。データが無効であると識別された場合には、スイッチ86は、中心ビューデータが通過させられる位置とされる。その結果は、中心ビューデータとオクルージョンデータフレームから導出された部分とを有する結合されたデータストリーム88であり、該部分は有効オクルージョンデータを有する。スイッチ76及び86は斯くして、有効データと無効データとの、ことによると更なるパラメータの区別により起動されて、有効オクルージョンデータと中心ビューデータとの組み合わせを有する結合された信号78、88を生成する結合器である。該結合された信号は、穴を埋めるために利用される。
該信号88はここでは、歪器1により「歪ませられる」。オクルージョン奥行きストリームが利用可能である場合には、歪器1により利用される奥行き情報は、デコードされた奥行きストリームからとられる。そうでなければ、歪器1により利用される奥行き情報は、中心ビュー奥行き信号から導出される。「穴」でない位置については、デコードされた中心ビュー奥行き信号は、スイッチsw3及びスイッチsw2を介して、歪器1へと送られる。
「穴」の位置において、スイッチswは「穴」位置にあり、cv奥行き信号は、次の「穴」でない位置まで繰り返される(又は代替としては、侵食されたcv奥行き信号が利用される)。
デコーダが「穴」の直前まで最後の既知の奥行き値を繰り返すことも選択肢のひとつであるが、該位置は通常は大きな奥行きジャンプに非常に近いため、一定の符号化アーティファクトを含み得、「穴」に対して不正確な奥行き値に導き得る。エンコーダは、例えば繰り返されるべき値の奥行き誤りを測定することによって斯かる場所における斯かる状況を検出し、これら誤りをより高い精度でエンコードすることによって低減しても良い(例えばQsc値を減少させることによって)。一方、デコーダは、単に最後の奥行き値を繰り返すことによってではなく、「穴」のすぐ外側にある奥行き値の短い列から中央値又は平均値を繰り返すことによって、測定を実行しても良い。
歪器1において、複合データストリームに対して歪が加えられる。該歪ませられた複合画像は、種々の角度からの種々のビューを合成するために、穴埋め動作において利用される。複合データストリームは、オクルージョンデータフレームからの有効データを有するため、かなり正確な穴埋めが可能であり、改善された画質に帰着する。歪ませられた中心ビュー画像内の特定の「穴」は、ストレッチングによって依然として埋められることとなる点に留意されたい。例えば実施例においては、閾値を下回る小さなステップ高さについては、オクルージョンデータは無効であり、斯くして複合データストリームは中心ビューデータを有する。なぜなら、スイッチが、中心データが通過させられるように設定されているからである。明確さのため、本説明においてはスイッチについて記載されているが、スイッチはハードウェア、ソフトウェア又は機能を実行するためのコンピュータコードのいずれから構成されるものであっても良いことは、留意されたい。利点は、一方では、斯かる状況に対しては穴埋めが非常に好適且つ効率的な手順であり、他方では、有効オクルージョンデータを制限することにより、無効オクルージョンデータが極端な手段で圧縮されることを可能とし、符号化効率が増大させられる点である。図7の実施例と図8の実施例との主な相違は、図7においては歪導入が結合された信号を生成する前に実行されるのに対し、図8においては結合された信号88が歪導入の前に生成される点である。更に、図8においては、結合された奥行き信号88zも生成される。
好適には、オクルージョンデータは、ブロックグリッドで整列されている。このことは、改善された符号化効率を実現する。図9は、オクルージョンデータのブロックグリッド配列が可視である、中心ビューデータ及びオクルージョンデータに対するズームインを示す。
オクルージョンデータは、既知の手法を用いて好適にエンコードされるべきである。
本発明においては、オクルージョンデータは、中心ビューからの基準フレームを利用してエンコードされても良い。本発明の枠組内では、オクルージョンデータの空間及び時間相関は、例えば中心ビューにおける相関よりもかなり低いことが分かっている。オクルージョンデータの符号化効率は、中心ビューから基準フレームが利用される場合に、著しく改善されることが分かっている。オクルージョンデータは中心ビューにおいて利用可能ではないため、このことは最初は驚くべきことに思われるかも知れない。しかしながら、前景オブジェクトに近いが時間的にシフトされている背景データとのオクルージョンデータの相関は、高い。従って、オクルージョンデータを符号化するために、中心ビューからことによると時間的にシフトされた基準フレームを利用することは、オクルージョンデータの符号化効率を改善することとなる。
図9において、携帯電話の場面の拡大された一部が示されている。オクルージョンデータと中心ビューにおける背景データとの間の相関が高いことが、明らかに分かる。一方では中心ビューデータとオクルージョンデータとの間の当該空間的相関を利用することは、ビットレートを著しく低減する。MPEG標準化団体では、例えばH.264MVC(マルチビュー符号化)が、優れた性能を持つ基準フレームのクロスビューの利用を可能とするための幾つかの基本的な原理を持つ。MVCの手法は、一般化されたBフレームを利用するツールに基づくものであり、複数のカメラにより捕捉されたビューの間の相関を利用する。これらツールは、オクルージョンデータを符号化するために中心ビューから基準フレームを利用する目的のために適用され得る。
更なる実施例においては、1つのビューを得ても良いし、又はオクルージョンデータを含む中心ビュー及び第2のビューを含む、1つより多いビューを得ても良く、一般化されたBフレームによりH.264MVCを用いて当該ストリームを符号化しても良い。このことは、新たな符号化規格を設計する必要がないことを意味し、この場合においては、MVC規格が異なった態様で(該規格においてフラグ付けされるべきである)利用されても良い。
図10は、MVC符号化方式を模式的に示し、図10Aに示されるように、時間T0、T1等について、種々のビューs1、s2等が送信される。図10Bは、中心ビューフレーム(CV)及びオクルージョンデータフレーム(Occl)をエンコードする際に、同様の方式がどのように利用され得るかを、模式的に示す。
しかしながら、1つのエンコーダ及び/又はMVCにおいて一般化されたBフレームを利用することは、3つの重要な制約を持つ。フレームレートと解像度とが合致する必要がある点、及び既存の規格/ハードウェアの利用である。
AVC圧縮規格のような幾つかの更に複雑なビデオ圧縮規格が、多くの複数の予測の可能性を持つ。比較的多い時間的(即ち前方又は後方)予測が為される。予測を為すために時間的に最も近いフレームのみならず、時間的に離れたフレームも考慮される。バッファにおいて、時間的な予測のために利用されるように、幾つかのフレームがメモリに保存される。この原理は、本発明の実施例の第1の態様の枠組内で適用される。
図11は、複数の参照を模式的に示す。矢印は、フレーム間の参照を示し、矢印の数は利用されるフレーム数である。時間T0、T1等は、表示順序を表す。本図において例えば、時間T4におけるフレームP、T0におけるフレームI、T2におけるフレームP、及び更に前のフレームが、エンコードにおいて(同様にデコードにおいても)基準フレームとして利用されることが分かる。このことは、T4におけるフレームPへ向かう矢印により示される。T4におけるフレームP自体が、T3におけるフレームB(前方)及びT6におけるフレームPについての基準フレームである。図11において、I及びPはフレーム内(Intra)符号化及び予測(Predictive)符号化されたフレームを示し、Bは双方向(Bi-directional)符号化されたフレームを示す。矢印は予測を示す。図11に示された例においては、例えば時間T5において、時間T2、T4、T6及びT8におけるフレームからの予測が利用される。
図12は、本発明の好適な実施例の模式的な図を示す。
2つのタイプのフレーム、即ち中心ビューフレーム及びオクルージョンデータフレームがあることが分かる。図11におけるように、中心フレームは中心フレームについての基準フレームとして利用され、同様にオクルージョンデータフレームは、オクルージョンデータフレームを前方及び後方予測するための基準フレームとして利用される。
各時間T0、T1等において、同じ位置における且つミューティングの場合における、オクルージョンデータフレームと中心ビューフレームとの間の相関は限られていることに留意されたい。なぜなら、オクルージョンデータフレームは、中心ビューにないデータを有するからである。しかしながら、オクルージョンデータフレームについての基準フレームとして中心ビューフレームが利用されると、符号化効率にかなりの増大をもたらすことが分かっており、このことは図12において、中心ビューフレーム(上側のブロック)からオクルージョンデータフレーム(下側のブロック)へ向かう矢印により示される。本図12において、Iはフレーム内符号化を示し、Pは予測フレームを示し、Bは双方向予測されたフレームを示す。インデクスは、フレームが存在するレイヤに関連する。画像は下位のレイヤからのみ予測される。従って、時間T0におけるオクルージョンデータは、中心ビューにおける画像からのみ予測されることができ、時間T2におけるオクルージョンデータは、中心ビューに加えて時間T0及びT8におけるオクルージョンデータの画像を全て利用することができる。利用されることとなる基準フレームの数は、特定されても良い。この制限は、実装の観点からもたらされるものであり、概念的な観点からもたらされるものではない。
より高い符号化効率を得るためオクルージョンデータを符号化するために中心ビュー基準フレームを利用することは、本発明の実施例における基本原理である。
このことは、既に図6において、デコーダCVとエンコーダOcclとの間の線により示されている。
本発明の枠組内において、オクルージョンの予測のためにエンコードにおいて保存されるフレームは、前の又は後続する中心ビューフレームに加えて、前のオクルージョンフレームを含んでも良い。中心ビューフレームの利用は、オクルージョンデータをも利用することの可能性を除外するものではない。
しかしながら、1つのエンコーダ及び/又はMVCにおいて一般化されたBフレームを利用することは、3つの重要な制約を持つ。フレームレートと解像度とが合致する必要がある点、及び既存の規格/ハードウェアの利用である。
図13は、中心ビュー画像とオクルージョンデータ画像との結合された符号化のために、これらの原理がどのように適用されるかについての図を示し、図6においてボックス67により模式的に示された好適な実施例に対応する。オクルージョンデータ画像はここでは、非常に低いオーバヘッドの設定で動作することを可能とするために、低減された空間(更には時間)解像度で圧縮されても良い。低減された空間解像度の場合には、最適なアップフィルタ(upfilter)係数が決定され、エンコードされたオクルージョンデータのビットストリームと共に送信されても良い。時間解像度(フレームレート)低減の場合には、3D描画処理のために、既知の時間的アップコンバージョン手法(自然な動きのような)が利用されても良い。
本図の下部には、中心ビューデータをエンコードするためのとり得る方式が示されている。
図13における略語は、以下を表す:
DCT:離散コサイン変換
Q:量子化
DCT−1:逆離散コサイン変換
−1:逆量子化
VLC:可変長符号化
ME/MC:動き推定/動き補償
R0、R1等:エンコードにおいて利用されるメモリ中のフレーム
PTSi:表示時間スタンプi
このスキーマの実装は、特定の時点において、メモリポインタを変更することであると言うことができる。勿論、中心ビューデータレイヤから利用されるフレームの数はいずれの数であっても良いが、幾分かの制約を持つことが現実的であると思われる(例えばMVCの実施例にも当てはまるようなメモリ制約)。
適切な選択は、現在のフレーム(PTSi)及びa個(例えばa=5)のフレームの値のオフセットとなると考えられ、従ってフレームPTSi−a、即ち前の中心ビューフレームである。例えばPTSi+aのような将来を考慮すること、即ちオクルージョンフレームの内容の予測のために将来の中心ビューフレームを利用することすら、考えられる。例えばa=−5、−2、0、2、5のような、更なるオフセットもあり得る。また、オフセット中心ビュービューフレームの重みが、変動を示しても良い。オフセット数は、図6におけるシフトτ2に対応する。該シフトτ2は時間におけるシフトを示すシフトであるが、タイムスタンプオフセットはフレームにおける(従ってまた時間における)シフトである。図6においては、単一のシフトτ2が模式的に示されている。1つよりも多いシフトτ2(基準フレームとして利用される1つよりも多い前の又は将来の中心ビューフレームがあり得るため)が利用されても良いことは、明らかであろう。本発明の概念内で、基準フレームは、中心ビューフレームと共に、前のオクルージョンデータフレームを有しても良い。オフセット数a、及びことによると対応する参照される中心ビューフレームの重みは、前のビデオコンテンツに基づいて決定されても良く、例えば背景に対する前景オブジェクトの動き及びその方向に依存しても決定されても良く、ここで該オフセット数は、水平方向において高速な動きが決定された場合には小さくなり、該方向において低速な動きが決定された場合には大きくなり、幾つかの前のフレームが利用され、フレームが古くなる毎に重みが減少する。
シフト又はオフセット及び/又は重みが算出される一実施例においては、斯かる情報は好適には、例えばメタデータとしてビデオ信号に含められる。このことは、デコーダ側における対応する計算ステップの必要性を取り除く。
シフト又はオフセット及びことによると重みの算出は、画像中の元のデータに基づいて実行されても良いが、好適にはエンコード/デコードされたフレームに対して実行される。デコーダ側においては、元の信号はもはや利用可能ではない。また、図に示されるように、エンコード/デコードされたフレームは基準フレームを形成し、従って、該算出に利用されるいずれのパラメータもがこれらフレームに関連する。
決定された動き及びその方向に依存して、オクルージョンフレームもが基準フレームを形成しても良く、このことは図13において、エンコードされたオクルージョンフレームの線からメモリR−1、R−2への線により模式的に示される。
図13は、エンコードに先立ち、オクルージョンデータがダウンスケールされる(図6も参照されたい)好適な実施例を示す。エンコードの後、結果のデータは再びアップスケールされる必要がある。これを実行するため、ダウンスケール/アップスケールによる起こり得るアーティファクトを可能な限り低減するために、例えばダウンスケールされ次いでアップスケールされたフレームを元のフレームと比較することによって、最良のアップスケールのためのアップフィルタ係数が算出される。これら係数は、メタデータとしてデータビットストリームに組み入れられる。このことは、デコーダ側で同様のことを実行することを可能とする。
本実施例においては、オクルージョンデータのエンコードに利用される基準フレームは、中心ビューフレーム及びオクルージョンデータフレームである。
オクルージョンフレームについての奥行きマップのエンコードに対しても、同様の原理が適用されることができる。オクルージョンフレームについての奥行きマップの符号化において、中心ビューデータについての奥行きマップが基準フレームとして利用されても良い。一例として、斯かるエンコードを実行するための方式が、図14に示されている。同様に、オクルージョンフレームについての奥行きマップのために、オクルージョンデータフレームについての無効データの原理が利用されても良く、図6も参照されたい。
オクルージョンフレーム(実際の画像データを有するものであっても奥行きデータを有するものであっても)をエンコードするために基準フレームとして中心ビューフレームを用いる原理は、オクルージョンフレーム(又はオクルージョンフレームについての奥行きマップ)における有効データと無効データとを区別する原理とは独立して適用可能である点に、留意されたい。しかしながら、以上の原理は、無効データを識別する原理と組み合わせられた場合に、特に有利となる。
中心ビュー及びオクルージョンデータフレームがインタリーブされた画像シーケンスとしての符号化である、一般化されたBエンコードを用いる1つのエンコーダを用いることは、有用な実施例を提供するが、既存の2Dエンコード方式と後方互換性がないという欠点がある。
オクルージョンデータと中心ビューデータとをインタリーブさせることが可能である。通常のデコーダは、斯かるストリームに対処できない。全てのフレームがデコードされ表示され得、不快な画像をもたらし得る。MVCツールを用いることは、このようにする支援となり得る。
図15は、オクルージョンフレームをデコードする際に中心ビュー基準フレームが利用される、デコードステップを示す。
これらステップは基本的に、図13に示されたエンコード方法と逆の手順である。IQは逆量子化を示し(図13においてはQ−1と示された)、IDCTは逆DCT(DCT−1)を表す。奥行きデータをエンコードするための図14のエンコード方式については、同様のデコード方式が利用され得る。
本発明は、例として以上に説明された、エンコードのための方法及びシステム、並びにデコードのための方法及びシステムに関する。
本発明はまた、エンコードされたビデオ信号と、例えばデコードの方法における使用のための機能パラメータを有する制御情報とを有する、ビデオ信号において実施化される。該制御情報は、以上に説明されたいずれかの実施例又はこれら実施例のいずれかの組み合わせによるデータを有しても良い。
本発明によるビデオ信号に含まれる制御情報は、以下の情報のうちの1つ以上を有しても良い:
A:一般的な情報、即ちビデオ信号の全体に適用可能なもの:
1.本方法がビデオ信号をエンコードするために利用される。このことは、将来、1つの標準的な方法のみが利用される場合に有用である。
2.本方法の特定の実施例が、ビデオ信号又は閾値THのような実施例におけるパラメータをエンコードするために利用される。
3.本方法においてパラメータが利用される。斯かるパラメータは例えば、
−利用されるタイムスタンプ
−フィルタについてのパラメータ、アップスケール若しくはダウンスケールのアルゴリズム、又はどの予測が利用されるかを決定するためのアルゴリズムのような、ビデオ信号のエンコードを通して利用されるパラメータ
B:特定の、動的な情報
ビデオ信号が動的に生成される場合、即ちエンコードの間に為される特定の選択がビデオコンテンツに依存する場合には、エンコーダにおいて為される選択は、エンコードされたビデオ信号に含められる。例えば、エンコード方法がタイムスタンプのうちどれが利用されるべきか(例えばa又はτ2の値)についての決定を為すためのアルゴリズムを有する場合には、ビデオ信号に該選択アルゴリズムの詳細を含める選択となる(従って、一般的な情報をビデオ信号に含める)。しかしながら、このことは、デコーダが該アルゴリズムを有する場合にのみ可能である。デコーダが該アルゴリズムを有さない場合には、特定の動的な情報が送信されても良く、即ち、特定のタイムスタンプ値が利用されるビデオ信号の特定の部分(例えばフラグ)について規定される。
ビデオ信号は、一般的な情報と共に動的な情報を有しても良い。以上のタイプの情報は全て、本発明による方法の利用に関連する他のいずれのタイプの情報とも合わせて、本願の枠組内で、パラメータと呼ばれる。
本発明はまた、本発明による方法又は装置のためのいずれのコンピュータプログラムにおいても実施化される。コンピュータプログラムとは、プロセッサ(汎用であっても特殊用途向けであっても)に、一連のロードステップ(中間言語及び最終的なプロセッサ言語への変換のような中間の変換ステップを含んでいても良い)の後に、プロセッサへのコマンドを取得し、本発明の特徴的な機能のいずれかを実行することを可能とする、コマンドの集合の物理的な具現化として理解されるべきである。特に、コンピュータプログラムは、例えばディスク又はテープのような媒体上のデータ、メモリに存在するデータ、ネットワーク接続(有線であっても無線であっても良い)を通して伝送されるデータ、又は紙上のプログラムコードとして実現されても良い。プログラムコードの他に、プログラムのために必要とされる特徴的なデータも、コンピュータプログラムとして実施化されても良い。
要約すると、本発明は以下のように説明される:
3Dビデオ信号のためのエンコードのための方法及びエンコーダにおいて、中心ビューフレーム、中心ビューフレームについての奥行きマップ、及びオクルージョンデータフレームがエンコードされる。該中心ビューフレームについての奥行きマップに基づいて、オクルージョンデータフレームにおける有効データと無効データとが区別される。このことは、エンコードされたオクルージョンデータフレームのために必要とされるビットの大きな低減を可能とする。デコーダにおいて、エンコードされたオクルージョンデータフレームにおける有効データと、中心ビューフレームとから、結合されたデータストリームが作成される。好適には、中心ビューフレームは、オクルージョンデータフレームをエンコードする際の基準フレームとして利用される。
上述の実施例は本発明を限定するものではなく説明するものであって、当業者は添付する請求項の範囲から逸脱することなく多くの代替実施例を設計することが可能であろうことは留意されるべきである。
例えば、図16は、本発明の更なる実施例を示す。
本図16は、中心ビュー画素位置xの関数として、典型的な視差プロファイルDを示す。該視差プロファイルは基本的に、奥行きΔ (1)、Δ (2)、Δ (1),Δ (2)におけるステップにより分離された種々の位置における中心ビューにおける幾つかのオブジェクトを示し、ここでLは左目ビューに関連する視差(即ち左からのビュー角)を表し、Rは右目ビューに関連する視差を表す。該視差プロファイルを用いて新たなビューが描画される場合には、視差のステップにより新たなビューにおいて穴が生じることとなる。新たなビューが左目に対して描画される場合には、ステップΔ (1)及びΔ (2)が、穴(hL1及びhL2)を生じさせる。新たなビューが右目に対して描画される場合には、ステップΔ (1)及びΔ (2)が、穴(hR1及びhR2)を生じさせる。左目ビューについて、所与の閾値を超えるΔLは、オクルージョンフレームからの対応するデータによって穴が埋められるべきであることを示唆する。しかしながら、このことは、対応する「有効データ」(例1乃至4における領域L1、L2、R1、R2)が見出される場合にのみ実行される。有効データのこれらの領域は、本例においては無効データを持つ領域から区別可能である。なぜなら、例えば閾値を超える有効データの輝度値に対して、該閾値を下回る輝度データ(例えば3の輝度値)は無効データであるからである。対応する穴の位置において「無効」データが存在する場合には、該穴は、例えばテクスチャの繰り返しにより、中心ビューのテクスチャからのデータを用いて埋められる必要がある。「無効」データのない2つの連続するステップΔ (k)及びΔ (k+1)が出現した場合には、「有効」データはΔ (k)による穴に属し、Δ (k+1)による穴(例2)を埋めるために利用されることができない。同様のことは、Δ (k)及びΔ (k+1)にも成り立つ。2つの連続するΔ (k)及びΔ (m)の間でオクルージョンデータフレーム中に「無効」データが出現しない場合には、それぞれ左目ビュー及び右目ビューを生成するため、Δ (k)及びΔ (m)の両方による穴を埋めるために、同一の「有効」データが利用されることとなる(例3)。「有効データ」は、所与の穴に存在しても良いし、存在していなくても良い(例4)。
エンコーダ側において全ての「3D」データが利用可能である場合(例えば中心ビューが「ブルースクリーン」手法により構築され、全ての中間レイヤが依然として利用可能である場合)には、エンコーダは、どの部分が他の部分よりも重要であるかを、オクルージョンデータフレームのビットレートをも考慮に入れて、該データをオクルージョンフレームに結合する前に、選択する必要がある。例1乃至4は、エンコーダが為すことができる種々の選択のうちの幾つかを示している。これら部分(L1、L2、…、R1、R2)の間に無効ギャップ(Occl=「0」)を挿入することにより、これら部分は互いから分離され、デコーダ側で適切に解釈されることができる(それにより、これら部分は描画の間に適切な穴に出現する)。エンコーダにより為された該選択により、Occl=「0」であるか又は誤ったタイプのものであるために(例えば右ビューの描画については、Lx部分は穴埋めには用いられ得ない)、斯かる穴埋めデータが利用可能ではない場合には、該穴は例えば繰り返しデータによって中心ビューからのデータを用いて埋められるべきである。前述したように、また例3により示されるように、無効データがLiとRjとの間で現われない場合には、斯かる部分は、左目方向及び右目方向のいずれについての描画の間にも、対応する穴を埋めるために利用されることができる。
オクルージョンデータフレームのための候補部分におけるテクスチャな豊富度の量は、どの部分が他の部分よりも優先されるかを決定するための、エンコーダのための基準となり得る(例2においては、明らかにL1がL2よりも重要であり、L2は省略される)。
斯かる実施例においては、複数のオクルージョン部分が1つのオクルージョンデータフレームへと結合され、異なるオクルージョン部分を互いから区別するために示唆手段(ギャップ)が生成される。
本実施例においては、有効(Occl≠「0」)から無効(Occl=「0」)への遷移の出現、即ち少なくとも1つの画素についてのオクルージョン信号のギャップの挿入又は非挿入は、オクルージョンデータフレーム内の異なるオクルージョン部分を区別するための示唆として利用される。以上に説明したように、実施例においては、無効データについての値は確保された値又は確保された範囲内の値であり得る。確保された範囲(例えば0、1、2及び3)が利用される場合には、実際の値は、隣接する有効領域に関する情報をデコーダに伝送するために利用され得る。該情報は例えば、右領域であるか左領域であるか、例えば後続する有効領域が左領域であることを示唆する0の値、後続領域が右領域であることを示唆する1の値である。該情報は、デコーダにおいて適切な使用のために設定されることができる。なぜなら、種々のオクルージョン部分の特性はデコーダに既知であるからである。
図6に関連して前述したように、「無効」とは、該画素値に対してデータが利用可能ではないことを意味する。該データは従って、画素データとしては取り扱われない。しかしながら、「無効」データは他の情報を有しても良く、このことは単純な例である。要約すれば、値の範囲が利用される場合には、「無効」データによって、画素値ではない情報をデコーダに伝送できる実現性がある。無効データがこれらデータの値とは異なる手段により(例えば奥行きマップの内容(図6の説明を参照されたい)により)区別され得る場合には、オクルージョンデータフレームの無効領域に、比較的大量の情報が保存され得る。勿論、このことはオクルージョンデータフレームのために必要とされるビットの数を増大させ得るが、斯かる情報が価値がある場合には符号化効率も増大させ得、これを用いなければ斯かる情報は効率的に伝送されることができない。
デコーダ側において、エンコードされた信号をデコードするためのデコーダは、複数のオクルージョン部分が1つのオクルージョンデータフレームへと結合され且つ異なるオクルージョン部分を互いから区別するための示唆(挿入されたギャップ及び/又は該ギャップ内の実際の値)が存在するビデオ信号を受信し、デコーダは該示唆を識別するための手段を持ち、即ち示唆を挿入するためにエンコーダにおいて利用されたアルゴリズムと逆のアルゴリズムを利用する。
請求項において、括弧に挟まれたいずれの参照記号も、請求の範囲を限定するものとして解釈されるべきではない。
「有する(comprising)」なる語は、請求項に記載されたもの以外の要素又はステップの存在を除外するものではない。本発明は、以上に説明された種々の好適な実施例の特徴のいずれの組み合わせによっても実装され得る。

Claims (42)

  1. 3次元ビデオ信号をエンコードするためにエンコーダ実行る方法であって、3次元ビデオ信号がエンコードされ、前記3次元ビデオ信号は、中心ビュービデオフレームと、前記中心ビュービデオフレームについての奥行きマップと、前記中心ビュービデオフレームについてのオクルージョンデータフレームと、を有し、中心ビューについての奥行きマップにおけるデータの制御の下、前記オクルージョンデータフレームのデータについて、前記オクルージョンデータフレームをエンコードする前に、前記オクルージョンデータフレームにおける有効データを無効データから区別するための示唆手段が生成される方法。
  2. 前記オクルージョンデータフレームは、前記奥行きマップがエンコードされた後にエンコードされる、請求項1に記載のエンコードする方法。
  3. オクルージョンデータフレームについての奥行きマップもがエンコードされる、請求項1に記載のエンコードする方法。
  4. 前記オクルージョンデータフレームにおける有効データを無効データから区別するための示唆手段の生成のために、前記オクルージョンデータフレームについての奥行きマップのデータが利用される、請求項3に記載のエンコードする方法。
  5. 前記中心ビュービデオフレームについての奥行きマップにおけるデータの制御の下、無効データを識別するための示唆手段として固定値又は固定範囲内の値がオクルージョンデータフレームにおいて生成される、請求項1又は2に記載のエンコードする方法。
  6. 前記固定値又は固定範囲内の値が無効データのために確保され、前記固定値の又は前記固定範囲内のいずれの有効データもが、前記確保された値とは異なる又は前記確保された範囲外の値により置き換えられる、請求項5に記載のエンコードする方法。
  7. 前記制御において奥行き不連続さ閾値が適用され、前記奥行きマップにおける閾値よりも大きい奥行きの不連続さが決定因子である、請求項1又は2に記載のエンコードする方法。
  8. 前記閾値は前記奥行きマップにおけるデータから算出される、請求項7に記載のエンコードする方法。
  9. 前記閾値及び/又は固定値又は固定範囲は、前記エンコードされたビデオ信号に組み入れられる、請求項5乃至8のいずれか一項に記載のエンコードする方法。
  10. 前記閾値及び/又は固定値又は固定範囲は、メタデータとして前記ビデオ信号に組み入れられる、請求項9に記載のエンコードする方法。
  11. 複数のオクルージョン部分が1つのオクルージョンデータフレームに結合され、異なるオクルージョン部分を互いから区別するための示唆手段が生成される、請求項1に記載のエンコードする方法。
  12. 少なくとも1つの画素についてのオクルージョン信号における有効から無効への及び/又は無効から有効への遷移の出現が、前記オクルージョンデータフレーム内の異なるオクルージョン部分を区別するための示唆として利用される、請求項11に記載のエンコードする方法。
  13. 前記制御における更なる決定因子が最大ビュー角である、請求項1乃至12のいずれか一項に記載のエンコードする方法。
  14. 前記制御における更なる決定因子が、符号化された前記オクルージョンデータフレームのビットレートにより形成される、請求項1乃至13のいずれか一項に記載のエンコードする方法。
  15. 前記オクルージョンデータフレームのエンコードにおいて、中心ビュービデオフレームが基準フレームとして利用される、請求項1乃至14のいずれか一項に記載のエンコードする方法。
  16. 前記オクルージョンデータフレームのエンコードにおいて時間シフトされた中心ビューデータが利用され、前記時間シフトは画像データから算出される、請求項15に記載のエンコードする方法。
  17. 前記算出された時間シフトは、前記ビデオ信号に組み入れられる、請求項16に記載のエンコードする方法。
  18. 前記算出された時間シフトは、メタデータとして前記ビデオ信号に組み入れられる、請求項17に記載のエンコードする方法。
  19. 3次元ビデオ信号をエンコードするためのエンコーダであって、前記エンコードされた3次元ビデオ信号は、中心ビュービデオフレームと、前記中心ビュービデオフレームについての奥行きマップと、前記中心ビュービデオフレームについてのオクルージョンデータフレームと、を有し、前記エンコーダは、エンコードされるべき中心ビュービデオフレームと、中心ビュービデオフレームについての奥行きマップと、オクルージョンデータフレームと、のための入力部を有し、前記エンコーダは、前記奥行きマップについてのデータに基づいてスイッチを制御するコントローラを有し、前記スイッチは、前記オクルージョンデータフレームのデータについて、有効データか又は無効データを生成する、エンコーダ。
  20. 前記エンコーダは整列器を有し、前記有効データと無効データとの整列はブロックグリッド状に整列される、請求項19に記載のエンコーダ。
  21. 前記整列器は、前記ブロックグリッドを、4×4、8×8、16×16及び/又は他のいずれかの整数の組み合わせで整列させるように構成された、請求項20に記載のエンコーダ。
  22. 前記エンコーダは、前記中心ビューフレームについての奥行きマップをエンコードするためのエンコーダと、前記エンコードされた奥行きマップをデコードするための内部デコーダと、を有し、前記内部デコーダによりデコードされた奥行きマップが前記コントローラにおいて利用される、請求項19に記載のエンコーダ。
  23. 前記エンコーダは、前記奥行きマップにおける奥行きの不連続さについての閾値を算出するための算出器を有し、前記スイッチの制御は、前記閾値に対する測定された奥行きの不連続さの比較に依存する、請求項19乃至22のいずれか一項に記載のエンコーダ。
  24. 前記エンコーダは、前記算出された閾値を前記エンコードされたデータストリームに組み入れるための出力部を有する、請求項23に記載のエンコーダ。
  25. 前記エンコーダは、中心ビューフレームをエンコードするためのエンコーダと、エンコードされた中心ビューフレームをデコードするためのデコーダと、前記オクルージョンデータフレームをエンコードし、入力部において前記デコードされた中心ビューフレームを基準フレームとして挿入するために前記オクルージョンデータフレームをエンコードするためのエンコーダと、を有する、請求項19乃至24のいずれか一項に記載のエンコーダ。
  26. シフトパラメータが算出され前記ビデオ信号に組み入れられる、請求項23に記載のエンコーダ。
  27. エンコードされたビデオ信号をデコードするためにデコーダ実行る方法であって、3次元ビデオ信号がデコードされ、前記3次元ビデオ信号はエンコードされた中心ビュービデオフレームと、前記中心ビュービデオフレームについての奥行きマップと、前記中心ビュービデオフレームについてのオクルージョンデータフレームとを有し、前記エンコードされたビデオ信号は、有効オクルージョンデータから無効オクルージョンデータを区別するための示唆を有し、前記デコードにおいて、有効オクルージョンデータと中心ビューデータとを有する、結合されたデータストリームが生成される方法。
  28. 前記オクルージョンデータフレームのデコードにおいて、基準フレームとして中心ビュービデオフレームが利用される、請求項27に記載のエンコードされたビデオ信号をデコードするための方法。
  29. 前記結合された信号は、生成の後に歪ませられる、請求項27又は28に記載のエンコードされたビデオ信号をデコードするための方法。
  30. 前記結合された信号の生成の前に歪ませるステップが実行される、請求項27又は28に記載のエンコードされたビデオ信号をデコードするための方法。
  31. 前記デコードにおいて、有効奥行きオクルージョンデータと奥行き中心ビューデータとを有する、結合された奥行きデータストリームが生成される、請求項27乃至30のいずれか一項に記載のエンコードされたビデオ信号をデコードするための方法。
  32. エンコードされたビデオ信号をデコードするためのデコーダであって、3次元ビデオ信号がデコードされ、前記3次元ビデオ信号はエンコードされた中心ビュービデオフレームと、前記中心ビュービデオフレームについての奥行きマップと、前記中心ビュービデオフレームについてのオクルージョンデータフレームとを有し、前記エンコードされたビデオ信号は、有効オクルージョンデータから無効オクルージョンデータを区別するための示唆を有し、前記デコーダは、有効オクルージョンデータと中心ビューデータとを有する、結合されたデータストリームを生成するための結合器を有するデコーダ。
  33. 前記オクルージョンデータフレームのためのデコーダは、前記オクルージョンデータフレームのデコードにおいて、基準フレームとして中心ビュービデオフレームを利用するように構成された、請求項32に記載のエンコードされたビデオ信号をデコードするためのデコーダ。
  34. 前記デコーダは、前記結合された信号を歪ませるための歪器を有する、請求項32又は33に記載のエンコードされたビデオ信号をデコードするためのデコーダ。
  35. 前記デコーダは、前記結合された信号の生成の前に歪ませるステップを実行するための歪器を有する、請求項32又は33に記載のエンコードされたビデオ信号をデコードするためのデコーダ。
  36. 前記デコーダは、有効奥行きオクルージョンデータと奥行き中心ビューデータとを有する、結合された奥行きデータストリームを生成するための結合器を有する、請求項32乃至35のいずれか一項に記載のエンコードされたビデオ信号をデコードするためのデコーダ。
  37. 前記エンコードされた信号は、1つのオクルージョンデータフレームへと結合された複数のオクルージョン部分を有し、前記エンコードされた信号は、異なるオクルージョン部分を互いから区別するための示唆を有し、前記デコーダは、前記示唆を識別し、種々のオクルージョン部分を識別するために前記示唆を利用するための手段を持つ、請求項32乃至36のいずれか一項に記載のエンコードされたビデオ信号をデコードするためのデコーダ。
  38. 前記示唆は、オクルージョン信号における有効から無効への及び/又は無効から有効への遷移の出現により形成される、請求項37に記載のエンコードされたビデオ信号をデコードするためのデコーダ。
  39. コンピュータ上で実行されるときに、請求項1乃至18のいずれか一項に記載のエンコードする方法を前記コンピュータに実行させるコンピュータプログラム。
  40. コンピュータ上で実行されるときに、請求項27乃至31のいずれか一項に記載のデコードする方法を前記コンピュータに実行させるコンピュータプログラム。
  41. 請求項1乃至18のいずれか一項に記載のエンコードする方法を実行するための、コンピュータ読み取り可能な記録媒体に保存されたコンピュータプログラム。
  42. 請求項27乃至31のいずれか一項に記載のデコードする方法を実行するための、コンピュータ読み取り可能な記録媒体に保存されたコンピュータプログラム。
JP2010514199A 2007-06-26 2008-06-19 3次元ビデオ信号をエンコードするための方法及びシステム、含まれる3次元ビデオ信号、並びに3次元ビデオ信号のためのデコーダのための方法及び信号 Active JP5406182B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP07111074 2007-06-26
EP07111074.6 2007-06-26
PCT/IB2008/052425 WO2009001255A1 (en) 2007-06-26 2008-06-19 Method and system for encoding a 3d video signal, enclosed 3d video signal, method and system for decoder for a 3d video signal

Publications (3)

Publication Number Publication Date
JP2010531604A JP2010531604A (ja) 2010-09-24
JP2010531604A5 JP2010531604A5 (ja) 2011-08-04
JP5406182B2 true JP5406182B2 (ja) 2014-02-05

Family

ID=39846938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010514199A Active JP5406182B2 (ja) 2007-06-26 2008-06-19 3次元ビデオ信号をエンコードするための方法及びシステム、含まれる3次元ビデオ信号、並びに3次元ビデオ信号のためのデコーダのための方法及び信号

Country Status (7)

Country Link
US (1) US8345751B2 (ja)
EP (1) EP2163103B1 (ja)
JP (1) JP5406182B2 (ja)
KR (1) KR101545008B1 (ja)
CN (1) CN101690249B (ja)
RU (1) RU2487488C2 (ja)
WO (1) WO2009001255A1 (ja)

Families Citing this family (128)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI0911672A2 (pt) 2008-04-25 2018-03-13 Thomson Licensing modos de pulo intervisualizações com profundidade
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
KR101843994B1 (ko) 2008-05-20 2018-03-30 포토네이션 케이맨 리미티드 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리
TW201004361A (en) * 2008-07-03 2010-01-16 Univ Nat Cheng Kung Encoding device and method thereof for stereoscopic video
CN102113015B (zh) 2008-07-28 2017-04-26 皇家飞利浦电子股份有限公司 使用修补技术进行图像校正
US8831101B2 (en) * 2008-08-02 2014-09-09 Ecole De Technologie Superieure Method and system for determining a metric for comparing image blocks in motion compensated video coding
EP2329653B1 (en) 2008-08-20 2014-10-29 Thomson Licensing Refined depth map
EP2180449A1 (en) * 2008-10-21 2010-04-28 Koninklijke Philips Electronics N.V. Method and device for providing a layered depth model of a scene
WO2010049850A1 (en) * 2008-10-28 2010-05-06 Koninklijke Philips Electronics N.V. Generation of occlusion data for image properties
TWI542190B (zh) * 2008-11-04 2016-07-11 皇家飛利浦電子股份有限公司 編碼三維影像信號的方法及系統、經編碼之三維影像信號、解碼三維影像信號的方法及系統
CN102272778B (zh) 2009-01-07 2015-05-20 汤姆森特许公司 联合深度估计
US8780172B2 (en) * 2009-01-27 2014-07-15 Telefonaktiebolaget L M Ericsson (Publ) Depth and video co-processing
US20120044322A1 (en) * 2009-05-01 2012-02-23 Dong Tian 3d video coding formats
US9100656B2 (en) 2009-05-21 2015-08-04 Ecole De Technologie Superieure Method and system for efficient video transcoding using coding modes, motion vectors and residual information
US9648346B2 (en) * 2009-06-25 2017-05-09 Microsoft Technology Licensing, Llc Multi-view video compression and streaming based on viewpoints of remote viewer
EP2275990B1 (de) * 2009-07-06 2012-09-26 Sick Ag 3D-Sensor
KR101807886B1 (ko) 2009-10-14 2017-12-11 돌비 인터네셔널 에이비 깊이 맵 처리를 위한 방법 및 디바이스
JP5731525B2 (ja) 2009-11-13 2015-06-10 コーニンクレッカ フィリップス エヌ ヴェ 3dビデオにおける深さ遷移の効率的な符号化
US8514491B2 (en) 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8446492B2 (en) * 2009-12-10 2013-05-21 Honda Motor Co., Ltd. Image capturing device, method of searching for occlusion region, and program
TWI459796B (zh) * 2009-12-29 2014-11-01 Ind Tech Res Inst 產生多視角三維立體影像的方法及其裝置
US20110176616A1 (en) * 2010-01-21 2011-07-21 General Instrument Corporation Full resolution 3d video with 2d backward compatible signal
US20120307006A1 (en) * 2010-01-22 2012-12-06 Sony Corporation Receiving apparatus, transmitting apparatus, communication system, receiving apparatus control method, and program
US9426441B2 (en) 2010-03-08 2016-08-23 Dolby Laboratories Licensing Corporation Methods for carrying and transmitting 3D z-norm attributes in digital TV closed captioning
JP5660361B2 (ja) * 2010-03-26 2015-01-28 ソニー株式会社 画像処理装置および方法、並びにプログラム
EP2569935B1 (en) 2010-05-12 2016-12-28 Pelican Imaging Corporation Architectures for imager arrays and array cameras
JP2011244025A (ja) * 2010-05-13 2011-12-01 Sony Corp 画像処理装置および画像処理方法
KR20110135786A (ko) * 2010-06-11 2011-12-19 삼성전자주식회사 깊이 전이 데이터를 이용한 3d 비디오 인코딩/디코딩 장치 및 방법
JP5392199B2 (ja) * 2010-07-09 2014-01-22 ソニー株式会社 画像処理装置および方法
KR101676830B1 (ko) * 2010-08-16 2016-11-17 삼성전자주식회사 영상 처리 장치 및 방법
US20130162774A1 (en) * 2010-09-14 2013-06-27 Dong Tian Compression methods and apparatus for occlusion data
JP5263355B2 (ja) * 2010-09-22 2013-08-14 株式会社ニコン 画像表示装置及び撮像装置
EP2451164B1 (en) 2010-11-08 2017-05-03 Telefonaktiebolaget LM Ericsson (publ) Improved view synthesis
US8755438B2 (en) * 2010-11-29 2014-06-17 Ecole De Technologie Superieure Method and system for selectively performing multiple video transcoding operations
US8878950B2 (en) * 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
CN102131058B (zh) * 2011-04-12 2013-04-17 上海理滋芯片设计有限公司 高清数字视频帧速率变换处理模块及其方法
WO2012145191A1 (en) 2011-04-15 2012-10-26 Dolby Laboratories Licensing Corporation Systems and methods for rendering 3d images independent of display size and viewing distance
US20120262545A1 (en) * 2011-04-18 2012-10-18 Paul Kerbiriou Method for coding and decoding a 3d video signal and corresponding devices
JP2014519741A (ja) 2011-05-11 2014-08-14 ペリカン イメージング コーポレイション アレイカメラ画像データを伝送および受信するためのシステムおよび方法
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
WO2013003276A1 (en) 2011-06-28 2013-01-03 Pelican Imaging Corporation Optical arrangements for use with an array camera
EP2742487A1 (en) 2011-08-09 2014-06-18 Telefonaktiebolaget L M Ericsson (PUBL) Device, method and computer program for generating a synthesized image
EP2742695A4 (en) * 2011-08-10 2016-08-31 Ericsson Telefon Ab L M METHOD AND APPARATUS FOR CREATING A DISOCLEMENT CARD USED FOR 3D VIDEO CODING
US9497435B2 (en) 2011-08-15 2016-11-15 Telefonaktiebolaget Lm Ericsson (Publ) Encoder, method in an encoder, decoder and method in a decoder for providing information concerning a spatial validity range
US20130070060A1 (en) 2011-09-19 2013-03-21 Pelican Imaging Corporation Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion
US8542933B2 (en) 2011-09-28 2013-09-24 Pelican Imaging Corporation Systems and methods for decoding light field image files
EP2761876A1 (fr) 2011-09-29 2014-08-06 Thomson Licensing Méthode et dispositif de filtrage d'une carte de disparité
US9401041B2 (en) * 2011-10-26 2016-07-26 The Regents Of The University Of California Multi view synthesis method and display devices with spatial and inter-view consistency
US9041819B2 (en) 2011-11-17 2015-05-26 Apple Inc. Method for stabilizing a digital video
US8611642B2 (en) * 2011-11-17 2013-12-17 Apple Inc. Forming a steroscopic image using range map
CN104081780A (zh) * 2012-01-31 2014-10-01 索尼公司 图像处理装置和图像处理方法
US9412206B2 (en) 2012-02-21 2016-08-09 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
US9565450B2 (en) 2012-03-07 2017-02-07 Lg Electronics Inc. Method and device for processing video signal
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
ITTO20120413A1 (it) 2012-05-08 2013-11-09 Sisvel Technology Srl Metodo per la generazione e ricostruzione di un flusso video tridimensionale, basato sull'utilizzo della mappa delle occlusioni, e corrispondente dispositivo di generazione e ricostruzione.
KR101893771B1 (ko) * 2012-05-10 2018-08-31 삼성전자주식회사 3d 정보 처리 장치 및 방법
JP2015534734A (ja) 2012-06-28 2015-12-03 ペリカン イメージング コーポレイション 欠陥のあるカメラアレイ、光学アレイ、およびセンサを検出するためのシステムおよび方法
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
CN104662589B (zh) 2012-08-21 2017-08-04 派力肯影像公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法
US20140055632A1 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
KR20140034400A (ko) * 2012-09-11 2014-03-20 삼성전자주식회사 시점간 상관성을 이용한 영상 처리 방법 및 장치
WO2014043641A1 (en) 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
EP2901671A4 (en) 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
BR112014027678A2 (pt) * 2013-02-06 2017-06-27 Koninklijke Philips Nv método para a codificação de um sinal dos dados de vídeo para uso em um dispositivo estereoscópico de display multivisão, método para a decodificação de um sinal dos dados de vídeo para uso em um dispositivo estereoscópico de display multivisão, sinal dos dados de vídeo para uso em um dispositivo estereoscópico de display multivisão, portador de dados, codificador para a codificação de um sinal dos dados de vídeo para uso em um dispositivo estereoscópico de display multivisão, decodificador para a decodificação de um sinal dos dados de vídeo para uso em um dispositivo estereoscópico de display multivisão e produto de programa de computador
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
WO2014133974A1 (en) 2013-02-24 2014-09-04 Pelican Imaging Corporation Thin form computational and modular array cameras
US9638883B1 (en) 2013-03-04 2017-05-02 Fotonation Cayman Limited Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
WO2014164909A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Array camera architecture implementing quantum film sensors
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
US9497370B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Array camera architecture implementing quantum dot color filters
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
JP2016524125A (ja) 2013-03-15 2016-08-12 ペリカン イメージング コーポレイション カメラアレイを用いた立体撮像のためのシステムおよび方法
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
CN105075268A (zh) * 2013-04-11 2015-11-18 日本电信电话株式会社 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序、图像解码程序以及记录介质
US20140375663A1 (en) * 2013-06-24 2014-12-25 Alexander Pfaffe Interleaved tiled rendering of stereoscopic scenes
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
US9264592B2 (en) 2013-11-07 2016-02-16 Pelican Imaging Corporation Array camera modules incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US20160295200A1 (en) * 2013-11-20 2016-10-06 Koninklijke Philips N.V. Generaton of images for an autostereoscopic multi-view display
US9456134B2 (en) 2013-11-26 2016-09-27 Pelican Imaging Corporation Array camera configurations incorporating constituent array cameras and constituent cameras
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
US20170280133A1 (en) * 2014-09-09 2017-09-28 Nokia Technologies Oy Stereo image recording and playback
EP3201877B1 (en) 2014-09-29 2018-12-19 Fotonation Cayman Limited Systems and methods for dynamic calibration of array cameras
KR20170097745A (ko) * 2014-12-22 2017-08-28 톰슨 라이센싱 재귀적 계층적 프로세스를 사용하여 외삽된 이미지를 생성하기 위한 장치 및 방법
US11218682B2 (en) * 2015-01-21 2022-01-04 Nevermind Capital Llc Methods and apparatus for processing and or encoding images with negative parallax
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
RU2721678C2 (ru) * 2015-11-11 2020-05-21 Сони Корпорейшн Устройство кодирования и способ кодирования, устройство декодирования и способ декодирования
EP3496386A4 (en) * 2016-11-24 2019-07-03 Huawei Technologies Co., Ltd. METHOD AND GUIDE DEVICE FOR PHOTOGRAPHY COMPOSITION
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10194114B1 (en) * 2018-06-22 2019-01-29 Polycom, Inc. Split screen display without distortion
US10922832B2 (en) * 2018-07-31 2021-02-16 Intel Corporation Removal of projection noise and point-based rendering
US11178373B2 (en) 2018-07-31 2021-11-16 Intel Corporation Adaptive resolution of point cloud and viewpoint prediction for video streaming in computing environments
US10887574B2 (en) 2018-07-31 2021-01-05 Intel Corporation Selective packing of patches for immersive video
US10762394B2 (en) 2018-07-31 2020-09-01 Intel Corporation System and method for 3D blob classification and transmission
US10893299B2 (en) 2018-07-31 2021-01-12 Intel Corporation Surface normal vector processing mechanism
US11212506B2 (en) 2018-07-31 2021-12-28 Intel Corporation Reduced rendering of six-degree of freedom video
DE102019127349A1 (de) 2018-10-10 2020-04-16 Intel Corporation Punktwolkencodierungsstandard-konformitätsdefintion in computerumgebungen
US11057631B2 (en) 2018-10-10 2021-07-06 Intel Corporation Point cloud coding standard conformance definition in computing environments
EP3691277A1 (en) * 2019-01-30 2020-08-05 Ubimax GmbH Computer-implemented method and system of augmenting a video stream of an environment
EP3709651A1 (en) * 2019-03-14 2020-09-16 InterDigital VC Holdings, Inc. A method and apparatus for encoding an rendering a 3d scene with inpainting patches
MX2022003020A (es) 2019-09-17 2022-06-14 Boston Polarimetrics Inc Sistemas y metodos para modelado de superficie usando se?ales de polarizacion.
MX2022004162A (es) 2019-10-07 2022-07-12 Boston Polarimetrics Inc Sistemas y metodos para el aumento de sistemas de sensores y sistemas de formacion de imagenes con polarizacion.
KR102558903B1 (ko) 2019-11-30 2023-07-24 보스턴 폴라리메트릭스, 인크. 편광 신호를 이용한 투명 물체 분할을 위한 시스템 및 방법
US12081719B2 (en) 2019-12-20 2024-09-03 Interdigital Ce Patent Holdings, Sas Method and apparatus for coding and decoding volumetric video with view-driven specularity
EP4081933A4 (en) 2020-01-29 2024-03-20 Intrinsic Innovation LLC SYSTEMS AND METHODS FOR CHARACTERIZING OBJECT POSE DETECTION AND MEASUREMENT SYSTEMS
WO2021154459A1 (en) 2020-01-30 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11957974B2 (en) 2020-02-10 2024-04-16 Intel Corporation System architecture for cloud gaming
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
JP7320146B2 (ja) * 2020-06-16 2023-08-02 ドルビー ラボラトリーズ ライセンシング コーポレイション ディスオクルージョンアトラスを用いたマルチビュービデオ動作のサポート
US12069227B2 (en) 2021-03-10 2024-08-20 Intrinsic Innovation Llc Multi-modal and multi-spectral stereo camera arrays
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US12067746B2 (en) 2021-05-07 2024-08-20 Intrinsic Innovation Llc Systems and methods for using computer vision to pick up small objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5706417A (en) * 1992-05-27 1998-01-06 Massachusetts Institute Of Technology Layered representation for image coding
US5768404A (en) * 1994-04-13 1998-06-16 Matsushita Electric Industrial Co., Ltd. Motion and disparity estimation method, image synthesis method, and apparatus for implementing same methods
AU6726596A (en) * 1995-03-22 1996-10-08 Idt International Digital Technologies Deutschland Gmbh Method and apparatus for depth modelling and providing depth information of moving objects
US6075905A (en) * 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
GB2317710A (en) * 1996-09-27 1998-04-01 Sharp Kk Spatial light modulator and directional display
US6320978B1 (en) * 1998-03-20 2001-11-20 Microsoft Corporation Stereo reconstruction employing a layered approach and layer refinement techniques
US6348918B1 (en) * 1998-03-20 2002-02-19 Microsoft Corporation Stereo reconstruction employing a layered approach
US6487304B1 (en) * 1999-06-16 2002-11-26 Microsoft Corporation Multi-view approach to motion and stereo
RU2237283C2 (ru) * 2001-11-27 2004-09-27 Самсунг Электроникс Ко., Лтд. Устройство и способ представления трехмерного объекта на основе изображений с глубиной
KR20050065557A (ko) * 2002-09-25 2005-06-29 코닌클리케 필립스 일렉트로닉스 엔.브이. 디지털 비디오 신호 처리를 위한 방법 및 시스템
WO2006074310A2 (en) * 2005-01-07 2006-07-13 Gesturetek, Inc. Creating 3d images of objects by illuminating with infrared patterns
CA2553473A1 (en) * 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
US7596243B2 (en) * 2005-09-16 2009-09-29 Sony Corporation Extracting a moving object boundary
EP1958149B1 (en) * 2005-12-02 2012-01-18 Koninklijke Philips Electronics N.V. Stereoscopic image display method and apparatus, method for generating 3d image data from a 2d image data input and an apparatus for generating 3d image data from a 2d image data input
JP4940706B2 (ja) * 2006-03-01 2012-05-30 トヨタ自動車株式会社 物体検出装置
US7573475B2 (en) * 2006-06-01 2009-08-11 Industrial Light & Magic 2D to 3D image conversion

Also Published As

Publication number Publication date
RU2010102255A (ru) 2011-08-10
CN101690249A (zh) 2010-03-31
JP2010531604A (ja) 2010-09-24
US20100195716A1 (en) 2010-08-05
US8345751B2 (en) 2013-01-01
RU2487488C2 (ru) 2013-07-10
WO2009001255A1 (en) 2008-12-31
CN101690249B (zh) 2012-06-20
EP2163103A1 (en) 2010-03-17
KR20100039356A (ko) 2010-04-15
EP2163103B1 (en) 2017-05-03
KR101545008B1 (ko) 2015-08-18

Similar Documents

Publication Publication Date Title
JP5406182B2 (ja) 3次元ビデオ信号をエンコードするための方法及びシステム、含まれる3次元ビデオ信号、並びに3次元ビデオ信号のためのデコーダのための方法及び信号
JP5763184B2 (ja) 3次元画像に対する視差の算出
US8537200B2 (en) Depth map generation techniques for conversion of 2D video data to 3D video data
JP6100833B2 (ja) 多視点信号コーデック
KR100667830B1 (ko) 다시점 동영상을 부호화하는 방법 및 장치
JP5970609B2 (ja) 3dビデオ符号化における統一された視差ベクトル導出の方法と装置
US20090190662A1 (en) Method and apparatus for encoding and decoding multiview video
US20090015662A1 (en) Method and apparatus for encoding and decoding stereoscopic image format including both information of base view image and information of additional view image
US9105076B2 (en) Image processing apparatus, image processing method, and program
KR100738867B1 (ko) 다시점 동영상 부호화/복호화 시스템의 부호화 방법 및시점간 보정 변이 추정 방법
KR20070092566A (ko) 균일한 화질을 제공하는 다시점 영상 부호화 및 복호화방법 및 장치
CN101888566A (zh) 立体视频编码率失真性能估计方法
KR20080114481A (ko) 다시점 비디오 코딩에서 휘도 보상 방법 및 장치
KR20080114482A (ko) 다시점 비디오 코딩에서 휘도 보상 방법 및 장치
KR101386651B1 (ko) 다시점 비디오 인코딩 및 디코딩 방법 및 이를 이용한 인코딩 및 디코딩 장치
KR20070098429A (ko) 비디오 신호의 디코딩 방법
KR20110139882A (ko) 다시점 깊이 영상 부호화 장치 및 그 방법, 그리고, 다시점 깊이 영상 복호화 장치 및 그 방법
WO2006110007A1 (en) Method for coding in multiview video coding/decoding system
WO2011129164A1 (ja) 多視点画像符号化装置
WO2013108307A1 (ja) 映像処理装置および映像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110615

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120911

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121204

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131031

R150 Certificate of patent or registration of utility model

Ref document number: 5406182

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250