JP2023085341A - 深度マップの推定および更新を用いる効率的なマルチビュー符号化 - Google Patents

深度マップの推定および更新を用いる効率的なマルチビュー符号化 Download PDF

Info

Publication number
JP2023085341A
JP2023085341A JP2023041766A JP2023041766A JP2023085341A JP 2023085341 A JP2023085341 A JP 2023085341A JP 2023041766 A JP2023041766 A JP 2023041766A JP 2023041766 A JP2023041766 A JP 2023041766A JP 2023085341 A JP2023085341 A JP 2023085341A
Authority
JP
Japan
Prior art keywords
view
motion
current picture
dependent
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023041766A
Other languages
English (en)
Inventor
ハイコ シュヴァルツ
Heiko Schwarz
トーマス ウィーガント
Thomas Wiegand
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GE Video Compression LLC
Original Assignee
GE Video Compression LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GE Video Compression LLC filed Critical GE Video Compression LLC
Publication of JP2023085341A publication Critical patent/JP2023085341A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • H04N19/194Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive involving only two passes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】より効率的なマルチビュー符号化概念を実現する装置、方法及びプログラムを提供する。【解決手段】マルチビュー信号の再構成のための装置10において、インタービュー予測についてのマルチビューデータストリーム14内に信号で送られる視差データ60は、ディペンデントビュー22についての深度マップ推定を初期化するために利用され、さらに、この主要な深度マップ推定64は、マルチビューデータストリーム内にシグナリングされる動きデータおよび/または視差データを用いてマルチビュー符号化のさらなる経過の間に連続的に更新される。【効果】このように得られた連続的に更新される深度マップ推定は、ビュー間冗長性低減の従属したさまざまな方法がこの深度マップ推定にアクセスせずにより効率的な方法で実行されることを可能にする。【選択図】図1

Description

本願発明は、マルチビューコーデックによるマルチビュー符号化に関する。
マルチビュービデオ符号化において、ビデオシーンの2つ以上のビュー(それらは、複数のカメラによって同時にキャプチャされる)は、単一のビットストリームに符号化される。マルチビュービデオ符号化の主な目的は、3Dビューイングインプレッションを提供することによってエンドユーザに高度なマルチメディア体験を提供することにある。2つのビューが符号化される場合、2つの再構成されたビデオシーケンスを、従来のステレオディスプレイに(眼鏡をかけて)表示することができる。しかしながら、従来のステレオディスプレイのために眼鏡の使用は必須であり、ユーザにとってしばしば厄介である。眼鏡なしで高品質のステレオビューイングインプレッションを可能にすることは、現在、研究開発において重要な課題である。そのようなオートステレオスコピックディスプレイのための有望な技術は、レンチキュラーレンズシステムに基づく。原理的には、円柱レンズのアレイが、ビデオシーンの複数のビューが同時に表示されるように、従来のディスプレイに取り付けられる。それぞれのビューは、小さい円錐状に表示され、その結果、ユーザのそれぞれの目は、異なるイメージを見ることになり、この効果は、特別な眼鏡なしでステレオインプレションを形成することになる。しかしながら、そのようなオートステレオスコピックディスプレイは、典型的に、同じビデオシーンの10~30のビューを必要とする(技術がより進歩した場合、より多くのビューが必要とされ得る)。2つを超えるビューを、ユーザにビデオシーンのためのビューポイントをインタラクティブに選択する可能性を提供するためにも用いることができる。しかし、ビデオシーンの複数のビューの符号化によれば、従来の単一のビュー(2D)ビデオと比較して必要なビットレートが大幅に増加する。典型的に、必要なビットレートは、近似的に、符号化されたビューの数に比例して直線的に増加する。オートステレオスコピックディスプレイのための送信されたデータ量を低減するための概念は、少数のビュー(おそらく2~5のビュー)だけを送信することに加えて、いわゆる深度マップを送信することからなり、それは、1つ以上のビューのためのイメージサンプルの深度(現実世界のオブジェクトからカメラまでの距離)を表す。対応する深度マップを有する少数の符号化されたビューを考えると、高品質の中間ビュー(符号化されたビュー間にある仮想ビュー)、および、カメラアレイの一端または両端にいくらか拡張する付加的なビューも、適切なレンダリング技術によってレシーバ側で形成することができる。
ステレオビデオ符号化および汎用マルチビュービデオ符号化の両方のために(深度マップの有無にかかわらず)、異なるビュー間の相互依存性を利用することが重要である。すべてのビューが(わずかに異なる視点から)同じビデオシーンを表すので、複数のビュー間にかなりの相互依存性がある。非常に効率的なマルチビュービデオ符号化システムを設計するための目標は、これらの相互依存性を効率的に利用することである。マルチビュービデオ符号化のための従来のアプローチにおいて、例えばITU-T Rec. H.264 | ISO/IEC 14496-10のマルチビュービデオ符号化(MVC)拡張に関して、ビュー相互依存性を利用する唯一の技術は、すでに符号化されたビューからのイメージサンプルの視差補償予測であり、それは、従来の2Dビデオ符号化において用いられる動き補償予測と概念的に類似している。しかしながら、典型的にイメージサンプルの小さいサブセットだけがすでに符号化されたビューから予測され、その理由は、時間的な動き補償予測がしばしばより効果的である(2つの時間的に連続したイメージ間の類似性が同じ時刻に隣接したビュー間の類似性よりも大きい)からである。マルチビュービデオ符号化の効果をさらに改善するために、効率的な動き補償予測とビュー間予測技術を結合することが必要とされる。1つの可能性は、他のビューの動きデータを予測するために1つのビューにおいて符号化される動きデータを再利用することである。すべてのビューが同じビデオシーンを表すので、1つのビューにおける動きは、深度マップおよびいくつかのカメラパラメータによって表すことができる現実世界のシーンのジオメトリに基づいて他のビューにおける動きに接続される。
先端技術のイメージおよびビデオ符号化において、ピクチャまたはピクチャのためのサンプルアレイの特定のセットは、通常、ブロックに分解され、それらは、特定の符号化パラメータと関連している。ピクチャは、通常、複数のサンプルアレイ(輝度およびクロミナンス)からなる。加えて、ピクチャは、付加的な補助サンプルアレイと関連してもよく、それは、例えば、透明度情報または深度マップを特定することができる。それぞれのピクチャまたはサンプルアレイは、通常、ブロックに分解される。ブロック(またはサンプルアレイの対応するブロック)は、インターピクチャ予測またはイントラピクチャ予測によって予測される。ブロックを、異なるサイズにすることができ、さらに、正方形または矩形にすることができる。ピクチャのブロックへの分割を、シンタックスによって固定することができ、または、それを、ビットストリーム内に(少なくとも部分的に)シグナリングできる。しばしば、所定のサイズのブロックのための再分割をシグナリングできるシンタックスエレメントが送信される。そのようなシンタックスエレメントは、例えば予測の目的のために、ブロックがより小さいブロックに再分割されさらに関連した符号化パラメータであるべきかどうかとどのような方法かを特定することができる。ブロック(またはサンプルアレイの対応するブロック)のすべてのサンプルのために、関連した符号化パラメータの復号化が、特定の方法で特定される。例において、ブロックにおけるすべてのサンプルは、例えば、(すでに符号化されたピクチャのセットにおいて参照ピクチャを確認する)参照インデックス、(参照ピクチャおよび現在のピクチャ間のブロックの動きについての尺度を特定する)動きパラメータ、内挿フィルタを特定するためのパラメータ、イントラ予測モードなどの予測パラメータの同じセットを用いて予測される。動きパラメータを、水平および垂直の成分を有する変位ベクトルによって、または、例えば6つの成分からなるアフィン動きパラメータなどのより高次の動きパラメータによって表すことができる。(例えば参照インデックスおよび動きパラメータなどの)複数の特定の予測パラメータのセットを単一のブロックと関連していることも可能である。その場合、これらの特定の予測パラメータのセットごとに、ブロック(またはサンプルアレイの対応するブロック)についての単一の中間予測信号が生成され、さらに、最終的な予測信号が中間予測信号の重ね合わせを含む結合によって構築される。対応する重み付けパラメータおよび潜在的に一定のオフセット(それは、重み付けられた合計に加えられる)も、ピクチャまたは参照ピクチャまたは参照ピクチャのセットのために固定することができ、または、それらを、対応するブロックについての予測パラメータのセットに含むことができる。残差信号とも呼ばれる、元のブロック(またはサンプルアレイの対応するブロック)およびそれらの予測信号間の差は、通常、変換されさらに量子化される。しばしば、2次元変換が、残差信号(または残差ブロックに関する対応するサンプルアレイ)に適用される。変換符号化のために、予測パラメータの特定のセットが用いられているブロック(またはサンプルアレイの対応するブロック)を、変換を適用する前にさらに分割することができる。変換ブロックを、予測のために用いられるブロックに等しくまたはそれよりも小さくすることができる。変換ブロックが予測のために用いられるブロックの1つを超えるブロックを含むことも可能である。異なる変換ブロックを、異なるサイズにすることができ、さらに、変換ブロックは、正方形または矩形のブロックを表すことができる。変換後に、結果として得られる変換係数が量子化され、さらに、いわゆる変換係数レベルが得られる。変換係数レベルおよび予測パラメータと、存在する場合、再分割情報とが、エントロピー符号化される。
マルチビュービデオ符号化における先端技術は、直接的な方法で2Dビデオ符号化技術を拡張する。概念的に、異なるビューに対応する2つ以上のビデオシーケンスが、並行して符号化(または復号化)される。より具体的には、アクセス単位(または時刻)ごとに、異なるビューに対応するピクチャが、所定のビュー順序で符号化される。MVCビットストリームは、常に、他のビューに関係なく復号化することができるベースビューを含む。これは、基礎となる2Dビデオ符号化規格/スキームとの後方互換性を確保する。ビットストリームは、通常、ベースビューに対応するサブビットストリーム(さらに、加えて、符号化されたビューの特定のサブセットに対応するサブビットストリーム)を、すべてのビットストリームのいくつかのパケットを廃棄することによる単純な方法で抽出することができる方法で構成される。ビュー間の依存性を利用するために、現在のアクセスユニットのすでに符号化されたビューのピクチャを、現在のビューのブロックの予測のために用いることができる。この予測は、しばしば視差補償予測またはビュー間予測と呼ばれる。それは、基本的に従来の2Dビデオ符号化において動き補償予測と同一であり、唯一の違いは、参照ピクチャが、現在のアクセスユニット内で(すなわち、同じ時刻に)異なるビューのピクチャを表し、さらに、異なる時刻に同じビューのピクチャを表さないということである。基礎となる2Dビデオ符号化スキームの設計においてビュー間予測を組み込むために、ピクチャごとに、1つ以上の参照ピクチャリストが構成される。ベースビュー(独立して復号化可能なビュー)のために、従来の時間的な参照ピクチャだけが、参照ピクチャリストに挿入される。しかしながら、すべての他のビューのために、ビュー間参照ピクチャを、時間的な参照ピクチャに加えて(またはその代わりに)参照ピクチャリストに挿入することができる。いずれかのピクチャが、ビデオ符号化規格/スキームによって決定される参照ピクチャリストに挿入されおよび/またはビットストリーム内に(例えば、パラメータセットおよび/またはスライスヘッダ内に)シグナリングされる。そして、時間的なまたはビュー間参照ピクチャが、現在のビューの特定のブロックのために選択されるかどうかが、参照ピクチャインデックスを符号化すること(または推測すること)によってシグナリングされる。すなわち、ビュー間参照ピクチャは、わずかに拡張されたものの参照ピクチャリストの構成だけ、従来の時間的な参照ピクチャと同じ方法で正確に用いられる。
Figure 2023085341000002
概念的に、SVCに関して類似した概念を、マルチビュービデオ符号化においても用いることができる。複数のカメラは、異なる視点から同じビデオシーンをキャプチャする。しかしながら、現実世界のオブジェクトがシーンにおいて移動する場合、異なるキャプチャされたビューにおける動きパラメータは、独立していない。しかし、スケーラブル符号化とは対照的に、オブジェクトの位置は、すべてのレイヤ(レイヤは、ちょうど同じキャプチャされたビデオの異なる解像度または異なる品質を表す)において同じであり、投影された動きの相互関係は、より複雑であり、さらに、いくつかのカメラパラメータおよび現実世界のシーンにおいて3D関係に依存する。しかし、すべての関連したカメラパラメータ(例えば焦点距離、カメラの距離およびカメラの光軸の方向など)および投影されたオブジェクトポイントの距離(深度マップ)が与えられる場合、特定のビュー内の動きは、別のビューの動きに基づいて導出され得る。一般に、ビデオシーケンスまたはビューを符号化するために、オブジェクトポイントの正確な動きを知る必要はなく、代わりに例えばサンプルのブロックについての動きベクトルなどの単純なパラメータで十分である。この趣旨において、異なるビュー間の動きパラメータの関係も、ある程度単純化することができる。
しかしながら、好意的に、マルチビュー信号を符号化する際の符号化順序は、それぞれのビューのテクスチャを伝えるピクチャが深度マップを符号化/復号化する際にピクチャを符号化/復号化することから知られる特徴を効率的に利用することができるようにするために対応する深度マップの前に符号化されるように、選択される。さらに言い換えれば、深度マップおよび関連したピクチャ間の冗長性の除去は、その逆よりはむしろピクチャから深度マップに通じる符号化順序の場合に、より効率的なことがわかる。しかしながら、この符号化順序に従うことは、デコーダがディペンデントビューのピクチャを復号化する時に、復号化側で利用できる深度マップ情報の欠如をもたらし、その理由は、その深度マップがまだ再構成されていないからである。不都合なことに、参照ビューの符号化パラメータは、効率的に利用できない場合がある。その状況は、ビューの深度マップが存在しないマルチビューデータストリームの場合に、さらに深刻である。
本願発明の目的は、より効率的なマルチビュー符号化概念を提供することである。
この目的は、係属中の独立した請求項の主題によって達成される。
本願発明の第1の態様によれば、アイデアが利用され、それによれば、とにかく予期されないそれの伝送による、または、テクスチャ/ピクチャおよびその深度マップ間の好適な符号化順序による、または、伝送または復号化の間のビットストリームからの深度データの予期された廃棄による、参照ビューの現在のピクチャについての深度マップの欠如を、参照およびディペンデントビューのピクチャについての深度マップを推定し、さらに、それをマルチビューデータストリーム内にシグナリングする動きおよび/または視差データを用いて更新することによって、ビュー間冗長性を低減するために、適切に対処することができる。特に、仮想的にすべてのマルチビューデータストリームは、そこに定義されるランダムアクセスポイントを有し、すなわち、時刻が、前に符号化されたピクチャに時間的予測および他の依存性なしで符号化されるマルチビュー信号のビューのピクチャに対応するが、参照ビューに関する限り単にイントラ予測を用い、さらに、ディペンデントビューに関する限りイントラ予測および視差に基づいた予測を用いる。従って、ビュー間予測についてのマルチビューデータストリーム内にシグナリングされる視差データを、ディペンデントビューについての深度マップ推定を初期化するために利用することができ、さらに、この主要な深度マップ推定を、マルチビューデータストリーム内にシグナリングされる動きデータおよび/または視差データを用いてマルチビュー符号化のさらなる経過の間に連続的に更新することができる。このように得られた連続的に更新される深度マップ推定は、ビュー間冗長性低減の従属したさまざまな方法がこの深度マップ推定にアクセスしないよりもより効率的な方法で実行されることを可能にする。
別の態様によれば、以下の発見が利用され、ディペンデントビューのピクチャのブロックについての動き予測因子候補の拡大したリストと関連するオーバーヘッドは、視差補償の意味において、参照ビューの同じ位置に配置されたブロックから決定される動きベクトル候補の加算から生じる動きベクトル予測品質における利得と比較して比較的少ない。両方のブロック間の視差は、第1の態様を用いて決定されてもよく決定されなくてもよい。
本願発明の好適な実施態様は、従属した請求項の主題である。
本願発明の好適な実施形態が、図に関して以下にさらに詳細に記載される。
図1は、実施形態によるマルチビュー信号の再構成のための装置のブロック図を示す。 図2は、実施形態による図1の装置に適合するマルチビュー信号を符号化するための装置のブロック図を示す。 図3は、異なるビューおよび時刻のピクチャにおける投影されたオブジェクトポイント、時間的動きベクトルおよび視差ベクトル間の一般的な関係を示す。 図4は、(現在のブロック内の特定のサンプル位置を用いて)参照ビューにおいて動きが与えられる現在のブロックについての動きベクトルおよび現在のピクチャについての深度マップ推定を導出するための基本的なプロセスを示す。 図5は、1つのビューのために与えられる深度マップを別のビューにマッピングするための基本的なプロセスを示し、(左は)ビューについての所定の深度マップ であり、灰色領域は、バックグラウンドを表し、さらに、白色領域は、フォアグラウンドオブジェクトを表し、(中央は)サンプルを深度値に対応する視差ベクトルで変位し、さらに、1つを超えるサンプルが投影される場所のためのフォアグラウンドオブジェクトを保つことによって、得られる変換された深度マップであり、黒色領域は、サンプルが投影されていない非閉塞領域に表し、(右は)バックグラウンドのための深度値によって非閉塞領域を満たした後の変換された深度マップである。 図6は、ランダムアクセスユニットのための(視差ベクトルを用いて)深度マップの生成を示す。 図7は、ベースビューにおいて符号化される動きパラメータを用いて推定された深度マップの時間的な予測を示す。 図8は、実際に符号化された動きおよび視差ベクトルを用いる深度マップの更新を示す。
図1は、マルチビューデータストリーム14に符号化されるマルチビュー信号12を再構成するための装置10のための実施形態を示す。装置10は、マルチビューデータストリーム14のための入力16と、それぞれ、参照ビュー信号20およびディペンデントビュー信号22のための2つの出力18aおよび18bとを含む。
さらに、装置10は、入力16および出力18a間に接続される参照ビュー再構成器24と、入力16および出力18b間に接続されるディペンデントビュー再構成器26とを含む。装置10の深度マップ推定器28は、参照ビュー再構成器24のパラメータ出力およびディペンデントビュー再構成器26の参照入力間に接続され、さらに、ディペンデントビュー再構成器26のパラメータ出力に接続される。
以下にさらに詳細に概説されるように、図1の装置またはデコーダ10は、それによれば参照信号20がディペンデントビュー22の前に処理される符号化/復号化順序に従うことによってマルチビューデータストリーム14からマルチビュー信号12を再構成する。マルチビュー信号12は、図1に示されるように、それぞれのビュー20および22と関連する異なるビュー方向またはビューポイントから1つの共通のシーンの空間サンプリングを表すだけでなく、時間軸30に沿って3つの時刻T-1、TおよびT+1を示すことによって図1に例示的に示されるように、このシーンの時間的なサンプリングも表すことができる。時刻ごとに、それぞれのビュー20および22は、ピクチャ32t1および32t2を含み、それぞれのピクチャ32t1,2は、それぞれのテクスチャマップを表す。
図1は両方のビュー20および21が時間的にアライメントされるそれらのピクチャ32t1,2を有することを仮定することに留意されたい。しかしながら、ビュー20および22間の時間分解能は、異なることができる。当然、同じことが、ピクチャおよび深度マップの空間分解能にあてはまる。
さらに、デコーダ10は、時間において連続してマルチビュー信号12を処理するように構成される。より正確には、デコーダ10は、次の時刻Tのピクチャおよび深度マップを処理することを続ける前に、例えばT-1などの特定の時刻のピクチャ32t1,2を再構成するように構成される。この点に関しては、マルチビュー信号12の時刻中の時間的な符号化順序が、それぞれ、ピクチャおよび深度マップの表示時間順序に等しくてもよくまたはそれから異なってもよいことに留意されたい。
参照ビュー再構成器24は、マルチビューデータストリーム14の参照ビュー部分36から参照ビュー20を再構成するように構成され、その一方で、ディペンデントビュー再構成器26は、マルチビューデータストリーム14のディペンデントビュー部分38に基づいてディペンデントビュー22を再構成するように構成される。実際に、参照ビュー再構成器24およびディペンデントビュー再構成器26は、同様の方法で作動するように構成され得る。例えば、参照再構成器24およびディペンデントビュー再構成器26は、ブロックごとのベースで作動することができる。両方とも、それぞれ、例えば、ハイブリッドビデオデコーダとして構成され得る。参照ビュー再構成器24は、例えば、利用できる符号化モードのそれぞれの1つをピクチャが再分割されるブロック40に割り当てることによって、現在の時刻Tのピクチャ32t1を再構成する。ピクチャ32t1のブロックへの再分割は、デフォルトによって事前に定義され得てまたはマルチビューデータストリーム14内にシグナリングされる。再分割は、ピクチャ32t1を規則的な方法で同じサイズのブロックまたは異なるサイズのブロックに再分割することができる。さらに、マルチツリー再分割も、ブロック40のブロックサイズがピクチャコンテンツに局所的に適応され得るように可能である。利用できる符号化モードは、それによれば参照ビュー再構成器24がピクチャ32t1のブロック中で定義される復号化順序で現在のブロックの前にすでに再構成されたブロックのすでに再構成されたサンプルから予測によってそれぞれのブロック40を満たす1つ以上のイントラ予測モードや、それによれば参照ビュー再構成器24が例えば動きベクトル、参照ピクチャインデックスなどのような動きデータを用いて動き補償および/または予測によってそれぞれのブロックを再構成する1つ以上のインター予測モードを含むことができる。例えば、説明のために、2つのブロックは、インター予測によって再構成されることが例示的に示される。これらのインター予測されたブロックについての動きデータ42は、動き参照インデックスによってインデックスが付けられさらに動きデータ42で構成される参照ピクチャ32t1の再構成されたバージョンのそれぞれの部分をコピーするために、参照ビュー再構成器24によって用いられる動きベクトルを含むことができる。動きデータ42は、マルチビューデータストリーム14の参照ビュー部分36で構成される。
ディペンデントビュー再構成器26は、参照ビュー再構成器24と全く同じに作動するが、ディペンデントビュー再構成器26では、ディペンデントビュー部分38からディペンデントビュー22を再構成するように構成される。したがって、現在の時刻Tの現在のピクチャ32t2を再構成する際に、ディペンデントビュー再構成器26は、マルチビューデータストリーム14内に固定されまたはシグナリングされ得るブロック50への再分割を用いてブロックごとの処理を用いることもできる。代わりに、以下にさらに詳細に概説されるようにブロック50への再分割の深度マップに基づいたビュー間予測が、ビュー20のブロック40への再分割からビュー22についてのブロック50への再分割を導出するために、ディペンデントビュー再構成器26によって用いられ得る。符号化モードに関する限り、ディペンデントビュー再構成器26は、それらが参照ビュー再構成器24に関して記載されているように符号化モードをサポートすることができる。したがって、例示的に、2つのブロック50は、それぞれ、前に再構成されたピクチャ32t2の再構成されたバージョンのそれぞれの部分から適切にコピーされるように、それぞれ、動きデータ54を用いてインター予測を受けることが例示的に示される。全体で、この動きデータ58は、ビュー22の現在のピクチャまたは現在の時刻についての動きデータを表す。しかしながら、これらの符号化モードに加えて、ディペンデントビュー再構成器26は、いくつかの視差データによって定義されるように、同じ時刻であるが空間的に変位されるビュー20の部分からそれぞれのブロックをコピーするために視差補償予測を用いるための1つ以上のビュー間予測モードをサポートする能力を有する。図1において、ピクチャ32t2における1つの視差予測されたブロックは、対応する視差データ60とともに例示的に示される。視差データ60は、例えば、ビュー20および22間のビューオフセット方向に沿った視差ベクトルまたは少なくとも視差成分と、任意に、インデックスが図1に例示的に示されるように2つを超えるビューの共存の場合に有利であり得るディペンデントビュー22のそれぞれのブロック50が従属する参照ビューを示すビューインデックスとを含むことができる。
すなわち、参照ビュー再構成器24およびディペンデントビュー再構成器26は、できるだけ、時間軸30に沿いさらにビュー20および22間のビュー間方向における冗長性を低減するような方法で作動する。これは、例えば動きデータおよび視差データなどのサイド情報並びに符号化モードおよび上述の再分割情報の予測にとって真実でもある。この情報のすべては、時間方向における互いの間およびビュー間の冗長性を示す。
しかしながら、ディペンデントビュー再構成器26は、ディペンデントビュー再構成器26が現在復号化されたピクチャ32t2についての深度マップにアクセスする場合、ビュー20および22間の冗長性をより効率的に利用することができる。したがって、深度推定器28は、以下にさらに詳細に記載される方法で現在の時刻Tの現在のピクチャ32t2の深度マップについての推定として深度マップ推定64を提供するように構成され、さらに、ディペンデントビュー再構成器26は、この深度マップ推定64を用いてマルチビューデータストリーム14のディペンデントビュー部分38からディペンデントビュー22の現在の時刻の現在のピクチャ32t2を再構成するように構成される。例えば、近くに深度マップ推定64を有すると、ディペンデントビュー再構成器26は、現在のビュー22の深度マップ推定64に基づいてディペンデントビュー22の現在のピクチャの動きデータ54および参照ビュー20の現在のピクチャについての動きデータ42を予測し、さらに、予測された動きデータに基づいて動き補償予測を用いてディペンデントビュー22の現在のピクチャを再構成することができる。例えば、現在のビュー再構成器24は、動きデータ54を予測する際に、参照ビュー20の現在のピクチャにおいて対応する位置を決めるためにディペンデントビュー22の深度データ推定64を用い、さらに、ディペンデントビュー22の現在のピクチャの動きデータ54を予測するために対応する位置で参照ビュー20の現在のピクチャについての動きデータ42を用いるように構成され得る。以下の説明において、深度データ推定64を用いる空間ルックアップが行われる可能な方法が、以下にさらに詳細に記載される。特に、以下の説明において、動きデータ42が動きデータ54についての良好な予測因子を形成する事実が、さらに詳細に動機付けられる。当然、リファインメントデータは、動きデータ54についての予測残差をシグナリングするために、ディペンデントビュー部分38で構成され得る。特に、以下にさらに詳細に述べられるように、ディペンデントビュー再構成器26は、ディペンデントビュー22の現在の時刻のピクチャ32t2の現在のブロック50内の1つ以上の所定のサンプル位置のために深度データ推定64から導出される視差ベクトルを適用し、さらに、現在のブロック50の動きデータ54についての予測因子として1つ以上のワープされた位置を含む1つ以上のブロック40の動きデータ42を用いてビュー20の同じ時刻のピクチャ32t1において対応しまたはワープされた位置を決めるためにこれらの視差ベクトルを用いるように構成され得る。現在のブロック50内の1つを超えるそのような参照サンプル位置の場合において、目標とされたブロックまたはブロック40の結果として生じる1つ以上の参照動きデータの平均またはメジアン値が、予測因子として用いられ得る。
さらに、ディペンデントビュー再構成器26は、ディペンデントビュー22の深度データ推定64に基づいてディペンデントビュー22の現在のピクチャについての視差データ60を予測し、さらに、予測された現在の視差データに基づいて視差補償予測を用いてディペンデントビュー22の現在のピクチャを再構成するように構成され得る。また、リファインメントは、マルチビューデータストリーム14のディペンデントビュー部分38内にシグナリングされ、さらに、予測された現在の視差データをリファインするためにディペンデントビュー再構成器26によって用いられ得る。さらに、上で概説されるように、理論的に、ブロック50の視差データ60も、同様に予測され得る。以下にさらに詳細に概説されるように、ディペンデントビュー再構成器26は、深度データを視差ベクトルに変換し、さらに、それぞれ、直接的に、視差データ60および62内の視差ベクトルについての予測因子としてこれらの視差ベクトルを用いることによって、現在のビューの深度データ推定64に基づいて視差データ60および62を予測するように構成され得る。
当然、ディペンデントビュー再構成器26は、ビュー20および22間のビュー間冗長性を低減するために深度データ推定を用いるように、今述べた可能性のいかなる結合もサポートできる。
今述べた深度データ推定64を導出するために、深度推定器28は、以下のように働く。
特に、図1の実施形態によれば、深度推定器28は、それぞれのピクチャ32t1,2がそれに関連する深度マップ推定64を有することを確かにし、それらは、一連の更新において互いに連続的に導出される。以下にさらに詳細に概説されるように、深度推定器28は、上で概略された改善されたビュー間冗長性低減のための基礎として働くために、主にディペンデントビュー22のそれぞれのピクチャ32t2にそのような深度マップ推定64を提供することを目的として、ビュー20および22間にピンポンのように深度マップ推定64を連続的に更新するように構成される。
事前に、深度推定器28は例えば時刻T-1などの参照ビュー20の1つ以上の前のピクチャ32t1についてのそのような深度推定にすでにアクセスしていると仮定される。深度推定器28が参照ビュー20の前に復号化されたピクチャ32t1についてのこの深度マップ推定74にアクセスすることができる方法が、さらに以下に記載される。しかしながら、そのような深度マップデータが、明確にいわゆるランダムアクセスユニット内の参照ビュー20の最初のピクチャ32t1、すなわち信号12のいかなる前の部分に関係なく復号化可能であるピクチャ32t1のグループについてのマルチビューデータストリーム14内に断続的にシグナリングされ得ることに留意されるべきである。この可能性を示すために、点線は、深度推定器28と入力16を接続する。以下の説明において、そのような開始深度マップの余分の伝送が必要でない可能性が示される。むしろ、ランダムアクセスユニット内の符号化順序でディペンデントビュー22の最初のピクチャ32t2についてのデータストリーム部分38内の視差データは、ランダムアクセスユニット内の符号化順序で参照ビュー20の最初のピクチャ32t1の開始深度マップを構成するために利用される。
特に、深度推定器28は、例えば、現在の時刻Tで参照ビュー20の現在のピクチャ32t1についての動きデータ42を時刻T-1で参照ビュー20のいかなる前のピクチャ32t1の深度マップ推定74に適用することによってディペンデントビュー22の現在のピクチャ32t2の深度マップ64を生成するように構成される。すでに上述のように、参照ビュー再構成器24は、参照ビュー20についてのマルチビューデータストリーム14内にシグナリングされる動きデータ42に基づいて動き補償予測を用いて参照ビュー20の現在のピクチャ32t1を再構成する。深度推定器28は、この動きデータ42にアクセスし、さらに、一連の更新の述べられた更新の1つについてこの動きデータ42を用い、すなわち、前の時刻T-1での参照ピクチャ32t1の深度マップ推定74から現在の時刻Tでの現在のピクチャ32t1の深度マップ推定64への遷移71を用いる。これが実行され得る方法が、以下にさらに詳細に概説される。事前に、動きデータ42を前の時刻T-1についての深度マップ74に適用すること71は、同じ位置に配置されたブロック72、すなわちこの動きデータ42がストリーム部分36においてシグナリングされるブロック40と同じ位置に配置される現在のピクチャ32t1の深度マップ推定64内の部分が、参照された深度マップ推定、すなわち動きデータ42に等しい動きデータ42´によって示される参照された深度マップ推定74内の部分で前の時刻T-1のピクチャ32t1についての深度マップ推定74のコンテンツで更新されすなわちそれからコピーされることを、意味することに十分に留意すべきである。残りのホールは、現在のピクチャ32t1のブロック40中のイントラ符号化されたブロックによって提供される付加的な情報を利用する内挿および/または外挿によって満たされ得る。その結果、深度マップ推定64は、更新されている(またはT-1からTへ遷移することによって生成されている)。
また、深度推定器28は、単に同じ時刻Tのディペンデントビュー22の現在のピクチャ32t2の深度マップ推定64を導出するための基礎として働くように以下にさらに記載される一連の更新をさらに行うために、この更新/遷移71を実行する。導出を終了するために、深度推定器28は、ディペンデントビュー22の現在のピクチャ32t2の深度マップ推定64を得るために参照ビュー20の現在のピクチャ32t1の更新された深度マップ推定64をディペンデントビュー22にワープする。すなわち、動きデータ42が単にブロック粒度で定義されるので、更新/遷移71およびワーピング78から生じるようなビュー22の結果として生じる深度マップ推定64は、深度の全く粗い推定を表すが、以下に示されるように、そのような粗い推定は、ビュー間冗長性低減を実行する際に効率を著しく増加ために十分である。
ワーピング76に関する可能な詳細が、以下にさらに記載されるにもかかわらず、簡潔に述べると、ディペンデントビュー再構成器26は、現在のピクチャ32t1の深度マップ推定64から視差ベクトルを導出し、さらに、ディペンデントビュー22の現在のピクチャ32t2のワープされた深度マップ推定64を得るために、導出された視差ベクトルを深度マップ推定64自体に適用することによって、ワーピング78を実行するように構成され得る。
このように、深度推定器28がディペンデントビュー再構成器26にワーピング76の結果、すなわちビュー22について現在の時刻Tの深度マップ推定64を提供するとすぐに、ディペンデントビュー再構成器26は、可能な実施が以下により詳細に述べられる上で概説されたビュー間冗長低減を実行するためのこの深度マップ推定64を用いることができる。
しかしながら、深度推定器28は、参照ビュー22の現在のピクチャ32t2について更新された深度マップ推定74を得るために、この深度マップ推定64を更新し77続け、それによって、次の時刻T+1についての推定をもたらす一連の更新を維持している。したがって、ディペンデントビュー再構成器26は、更新ステップ71に関して上述のように、少なくとも動きデータ54のために、同様の方法でディペンデントビュー22についての視差および/または動きデータ54および60を用いて、現在の時刻Tのディペンデントビュー22の現在のピクチャ32t2の深度マップ推定64を更新する77ように構成される。すなわち、ディペンデントビュー再構成器26は、時刻Tに関するピクチャ32t2についての視差/動作データをこのピクチャ32t2を再構成するためのストリーム部分38内に用いる。視差データ60に関する限り、深度推定器28は、容易に、視差データ54内に含まれる視差ベクトルを深度値に変換することができ、さらに、これらの深度値に基づいて、更新された深度値をピクチャ32t2においてそれぞれの視差予測されたブロック50と同じ位置に配置されるディペンデントビュー22の現在のピクチャ32t2の更新された深度マップ推定79bのサンプルに割り当てることができる。動きデータ54は、ディペンデントビュー22の参照された前の時刻T-1のピクチャ32t2の深度マップ推定74のコンテンツを、動きデータ54に等しい動きデータによって示されるそれの部分で、この動きデータ42がストリーム部分36においてシグナリングされているブロック50と同じ位置に配置される現在のピクチャ32t2の更新された深度マップ推定74内の部分にコピーするために用いられ得る。残りのホールは、現在のピクチャ32t1のブロック40中のイントラ符号化されたブロックによって提供される付加的な情報を利用する内挿および/または外挿によって満たされ得る。その結果、現在のピクチャ32t2の更新された深度マップ推定74が、更新されている(またはT-1からTへ遷移することによって生成されている)。ディペンデントビュー22の参照された前の時刻T-1のピクチャ32t2の深度マップ推定74がランダムアクセスユニットの開始で導出され得る方法に関する可能性が、以下にさらに記載される。しかしながら、そのようなランダムアクセスユニットの開始でビュー20についての上述のおそらく明確に送信された深度マップは、ビュー22にワープされ得て、代わりに、ディペンデントビュー22の参照された前の時刻T-1のピクチャ32t2の深度マップ推定74を得る。
ブロッキングアーチファクトを低減するために、更新71および77は、ブロック境界で個々のブロックの更新の影響を低減する重み関数を用いることによって実行され得る。
すなわち、ワープ76によって得られるような深度マップ推定64に基づいて、ディペンデントビュー再構成器26は、マルチビューデータストリーム14のディペンデントビュー部分38で構成されるディペンデントビュー22についての視差および/または動きデータ54および60に基づいて視差および/または動き補償予測を用いてディペンデントビュー22の現在のピクチャ32t2を再構成し、さらに、この際に、ディペンデントビュー再構成器26は、深度推定器28に視差および/または動きデータ54、60を提供し、そして、深度推定器68によって使用されて、更新77を実行する。
この更新77の後に、深度推定器28は、次の時刻T+1などへのトランジション/更新79についての基礎/参照として働くことができる時刻Tについての参照ビュー20の現在のピクチャ32t1の更新された深度マップ推定74を得るために、ディペンデントビュー22の現在のピクチャ32t2の更新された深度マップ推定74を参照ビュー20にワープバックする78ことができる。
それ以後、深度推定器28は、深度マップ推定64でディペンデントビュー再構成器26を連続的にサポートするために時間軸30に沿って深度マップ推定をモデル化するように、単にプロセス71、76、77および78(ステップ79は、ステップ71に対応する)を反復的に繰り返す。
これらのステップ71、76、77、78、および79のすべてに関するさらなる詳細が、以下にさらに詳細に記載される。これらのさらなる詳細のすべては、図1に関して提案される説明に個々に適用できる。
上に概説される概念に関するさらなる詳細を記載する前に、図1の復号化器(以下、デコーダと称す)に適合する符号化器(以下、エンコーダと称す)のための実施形態が、図2に関して記載される。図2は、マルチビュー信号12をマルチビューデータストリーム14に符号化するための装置を示し、このために、参照符号90で一般に示されるエンコーダを有する参照ビューエンコーダ80、ディペンデントビューエンコーダ82および深度推定器84を含む。参照ビューエンコーダ80は、マルチビュー信号12の参照ビュー20をデータストリーム14の参照ビュー部分36に符号化するように構成され、その一方で、ディペンデントビューエンコーダ82は、マルチビュー信号12のディペンデントビュー22をマルチビューデータストリーム14のディペンデントビュー部分38に符号化することに関与している。参照ビューエンコーダ80およびディペンデントビューエンコーダ82は、後方予測の態様で作動することができ、さらに、深度推定器84は、参照ビューエンコーダ80およびディペンデントビューエンコーダ82から利用できる同じ情報を用いることによってデコーダ10に関して上述の方法で深度マップ推定およびその連続的な更新を実行するように構成され得る。すなわち、深度推定器84は、参照ビューの現在のピクチャを動き補償予測するために用いられている参照ビューについての動きデータ42を、参照ビュー20の前のピクチャ32t1の深度マップ推定に適用し、さらに、ディペンデントビュー22の現在のピクチャ32t2の深度マップ推定64を得るために参照ビュー20の現在のピクチャ32t1のこのようにして得られた深度マップ推定64をディペンデントビュー22にワープすること76によって、ディペンデントビュー22の現在のピクチャ32t2の深度マップ推定64を生成する71ように構成される。同様に、深度推定器84は、次の更新ステップ77および以下のバックワープステップ78も実行する。この目的で、参照ビューエンコーダ80およびディペンデントビューエンコーダ82は、エンコーダ90の入力および出力間に並行に接続され得て、その一方で、深度推定器84は、参照ビューエンコーダ80のパラメータ出力およびディペンデントビューエンコーダ82の参照入力間に接続され、さらに、ディペンデントビューエンコーダ82のパラメータ出力に接続され得る。参照ビューエンコーダ80の再構成出力は、例えば内部予測ブロックの出力などの参照ビューエンコーダ80の予測パラメータ出力に接続され得る。
ディペンデントビューエンコーダ82は、図1に関して上で概説される態様で深度マップ推定64を用いてディペンデントビュー22の現在のピクチャまたは現在の時刻を符号化することができ、すなわち、ディペンデントビュー部38の部分を形成するために、それぞれの動きまたは視差データについての予測残差データを生成することの有無にかかわらず、動きデータ58または少なくとも54を予測し、または、視差データ60および62または少なくとも60、または、少なくともこれらのオプションの部分を予測するために、符号化することができる。
以下において、より詳細な実施形態が示され、それは、例えばHEVCなどにおいて規則的に配置されたツリールートブロックのブロック結合、マルチツリーブロック分割を用いてハイブリッド符号化タイプと結合されるときに、特に有利である。
さらなるビューを効率的に符号化するための参照ビューの動きデータを使用するための先端技術の概念は、すべて、ITU-T Rec. H.264 | ISO/IEC 14496-10のMVC拡張に基づいて開発されている。HEVCとも呼ばれるITU-T および ISO/IEC JTC 1/WG 11の新しいビデオ符号化標準化プロジェクトは、従来の2Dビデオ符号化技術の非常に有望な改善を示す。HEVCの現在のワーキングドラフトは、ITU-T Rec. H.264 | ISO/IEC 14496-10と比較して相当な符号化利得を提供する。これらの利得を達成するために、いくつかの概念が、ITU-T Rec. H.264 | ISO/IEC 14496-10と比較して拡張されている。動きパラメータ符号化および動き補償予測の分野における主要な改善は、以下を含む。
・ITU-T Rec. H.264 | ISO/IEC 14496-10において動き補償予測のために用いられるブロックサイズは、4x4から16x16の輝度(luma)サンプルの範囲にわたると同時に、より多くの種類のブロックサイズが、HEVCにおいてサポートされ、それは、4x4から64x64の輝度(luma)サンプルの範囲にわたる。加えて、基本的な符号化ユニットは、一定のマクロブロックおよびサブマクロブロックによって与えられないが、適応的に選択される。最大の符号化ユニットは、典型的に、64x64の輝度(luma)サンプルのブロックであるが、最大のブロックサイズは、実際に、ビットストリーム内にシグナリングされる。ブロックをサブブロックに分割することは、4以上のレベルの再分割階層を確立することができる。
・動きベクトルは、一定の動きベクトル予測因子を用いることによって符号化されない。その代わりに、動きベクトル予測因子候補のリストが存在し、さらに、これらの予測因子の1つは、ブロックベースで適応的に選択される。選択された予測因子は、ビットストリーム内にシグナリングされる。
・ITU-T Rec. H.264 | ISO/IEC 14496-10は、動きパラメータ(仮説の数、参照インデックス、動きベクトル)が(残差情報を除いて)いかなる付加的なパラメータも符号化せずに、すでに符号化された情報から完全に導出されるSKIPおよびDIRECTを提供する。HEVCは、いわゆるマージモードを提供する。このモードのために、空間的におよび時間的に隣接したブロックの動きパラメータによって与えられる動きパラメータ候補のリストが確立される。マージモードにおいて符号化されるブロックのために選択される動きパラメータ(仮説の数、参照インデックスおよび動きベクトルを含む)は、インデックスを候補リストに送信することによってシグナリングされる。
以下の説明は、上述の実施形態の可能な実施を表すこの概念を用いて、すでに符号化されたビューの動きデータおよびマルチビュービデオ符号化において現在のビューの現在のピクチャを符号化するための現在のビューのすでに符号化されたピクチャについての視差データを使用するための概念を記載する。さらに、上述のおよび以下の実施形態から生じる利点が、さらに詳細に説明される。現在のビューの時間的な動き(または視差)を予測するためのすでに符号化された動きおよび視差情報を使用することによって、現在のビューについての動きデータレートが著しく低減され得て、それは、マルチビュービデオシーケンスの符号化のために全体のビットレートの節約をもたらす。記載された概念は、ブロック(またはサンプルの一般のセット)についてのすべての動きデータを直接的に導出する可能性を提供し、その場合さらなる動き情報がブロックのために送信されない。そして、それは、候補動きベクトル予測因子のリストに加えられる動きベクトル予測因子を導出する可能性も提供する。後の可能性のために、動きベクトル予測因子のリストへのインデックスおよび動きベクトル差分は、動き補償予測のために用いられる最終的な動きベクトルを特定するブロックのために送信される。本願発明の特定の実施形態において、ブロックについての動きパラメータだけでなく、ブロックについての分割情報も(それは、ブロックをより小さいブロックに分割することができ、さらに、別々の動きパラメータをそれぞれのサブブロックに割り当てることができる)、すでに符号化された動きおよび視差情報に基づいて導出され得る。その概念は、いかなる特定のマクロブロックまたはサブマクロブロック構造を仮定せずに一般のブロックに基づいたハイブリッド符号化アプローチに適用できる。一般のブロックに基づいた動き補償は、修正されないが、動きパラメータを符号化するだけであり、その結果、その概念は、非常に小さい複雑さの増加で一般のブロックに基づいたハイブリッドビデオ符号化スキームに統合され得る。それは、より一般の概念まで直接的に拡張されることもでき、そこにおいて、矩形のブロックでないがサンプルの他のセットが、固有の動きパラメータのために関連している。その概念は、付加的な深度マップの有無の場合のマルチビュー符号化に適用できる。動きパラメータを計算するための視差情報は、符号化された視差ベクトルに基づく符号化された深度マップに基づいて導出され得る。
以下の説明は、上述の実施形態の可能な実施を表すこの概念を用いて、すでに符号化されたビューの動きデータおよびマルチビュービデオ符号化において現在のビューの現在のピクチャを符号化するための現在のビューのすでに符号化されたピクチャについての視差データを使用するための概念を記載する。さらに、上述のおよび以下の実施形態から生じる利点が、さらに詳細に説明される。現在のビューの時間的な動き(または視差)を予測するためのすでに符号化された動きおよび視差情報を使用することによって、現在のビューについての動きデータレートが著しく低減され得て、それは、マルチビュービデオシーケンスの符号化のために全体のビットレートの節約をもたらす。本願発明は、ブロック(またはサンプルの一般のセット)についてのすべての動きデータを直接的に導出する可能性を提供し、その場合さらなる動き情報がブロックのために送信されない。そして、それは、候補動きベクトル予測因子のリストに加えられる動きベクトル予測因子を導出する可能性も提供する。後の可能性のために、動きベクトル予測因子のリストへのインデックスおよび動きベクトル差分は、動き補償予測のために用いられる最終的な動きベクトルを特定するブロックのために送信される。本願発明の特定の実施形態において、ブロックについての動きパラメータだけでなく、ブロックについての分割情報も(それは、ブロックをより小さいブロックに分割することができ、さらに、別々の動きパラメータをそれぞれのサブブロックに割り当てることができる)、すでに符号化された動きおよび視差情報に基づいて導出され得る。その概念は、いかなる特定のマクロブロックまたはサブマクロブロック構造を仮定せずに一般のブロックに基づいたハイブリッド符号化アプローチに適用できる。一般のブロックに基づいた動き補償は、修正されないが、動きパラメータを符号化するだけであり、その結果、その概念は、非常に小さい複雑さの増加で一般のブロックに基づいたハイブリッドビデオ符号化スキームに統合され得る。それは、より一般の概念まで直接的に拡張されることもでき、そこにおいて、矩形のブロックでないがサンプルの他のセットは、固有の動きパラメータのために関連している。その概念は、付加的な深度マップでマルチビュー符号化に適用できる。動きパラメータを計算するための視差情報は、符号化された深度マップに基づいて導出され得る。
すでに符号化されたビューの動きデータを使用するための従来の技術と比較してこれから示される概念の1つの利点は、視差フィールドのいかなる特定の構造も仮定せずに、動き/視差予測因子が、符号化された動きおよび視差/深度情報に基づいて完全に導出されるということである。いつでも、視差フィールドがイメージについての一定の並進またはアフィンパラメータによってよく近似され得ると仮定されず、その代わりに、実際に符号化された視差情報が、すでに符号化されたビューの動きにアクセスするために用いられる。さらに、マクロブロックの視差は、仮定が安全でない隣接したブロックの視差と類似しているとは仮定されない。実際に符号化された深度/視差情報を用いることによって、その概念は、オブジェクト境界でブロックのために適切な視差推定を提供する。さらに、現在のブロックの動きが隣接したブロックのものと類似していると仮定されないので、オブジェクト境界で改善された動きパラメータ予測因子が提供される。さらに、その概念は、視差補正のいかなる伝送も必要としない。さらに、その概念は、それに組み込まれるためのハイブリッドビデオ符号化設計の実際の動き/視差補償プロセスを修正することを必要としない。動きパラメータおよび/または動きパラメータ予測因子の導出だけが変更され、その結果、それは、いかなる大きい修正なしで従来のビデオ符号化設計に含まれ得て、さらに、複雑さが小さい。加えて、その概念が深度マップの有無で符号化に適用できることに留意されるべきである。深度マップは、ビットストリームの部分として符号化される必要はない。むしろ、符号化された視差ベクトルは、視差を導出するために用いられ得る。
以下に記載される概念は、以下のステップに分解され得る。
・現在のビューの現在のピクチャについての深度/視差データの導出。
・導出された深度/視差データに基づく現在のブロックについての候補動きまたは視差データの導出。
・現在のブロックについての動きまたは視差データの符号化。
以下において、好適な実施形態を含むこれらのステップが、さらに詳細に記載される。すべてのステップは、並進動きベクトルを有するブロックに基づいた動き補償のために記載される。しかしながら、その概念は、サンプルの一般化されたセット(例えばブロックの非矩形の部分または他のいかなる形状)が動きパラメータの固有のセットと関連しているより一般のスキームにも適用でき、さらに、それは、動き補償がより高次の動きモデル(例えばアフィン動きモデルまたは他のN-パラメータ動きモデル)を用いることによって行われる符号化スキームのためにも適用できる。
その概念の詳細を記載する前に、上述のより一般的な実施形態のためにも有効なその利点および基礎となる考えを簡潔に記載する。異なるビューおよび異なる時刻において現実世界のオブジェクトポイントの投影間の基本的な関係が、図3に示される。ビュー内の現実の動きおよびビュー間の現実の視差を知っていると仮定すると、対応する動きおよび視差ベクトルは、以下のように与えられる。
Figure 2023085341000003
Figure 2023085341000004
Figure 2023085341000005
Figure 2023085341000006
候補動きまたは視差データの導出
Figure 2023085341000007
Figure 2023085341000008
・カメラアレイのすべてのカメラは、同じタイプであり、さらに、同じ焦点距離を有する
・すべてのカメラの光学軸は、平行であり、さらに、同じ平面内にある
・イメージセンサのスキャンラインは、光学軸を含む平面と平行である
Figure 2023085341000009
Figure 2023085341000010
所定の深度値および実際の視差間の記載された基本的な関係を用いることによって、1つ以上の参照ビューにおいてすでに符号化された動き情報に基づいて導出される動き情報および所定の推定された深度値を用いるための好適な実施形態を記載する。
方法1:切替えられた動き/視差ベクトル予測
本願発明の好適な実施形態において、例えばモジュール24、26、80および82などのために基礎となるマルチビュービデオ符号化スキームは、以下のパラメータがビットストリーム21の部分として送信されるモードを含む。
・参照ピクチャの所定のリストの特定の(時間的なまたはビュー間)参照ピクチャを特定する参照ピクチャインデックス。参照ピクチャの所定のリストが単一の要素を含む場合、このインデックスは、送信されないがデコーダ側で推測される。参照ピクチャは、時間的なおよび/またはビュー間参照ピクチャを含む。
・動き/視差ベクトル予測因子候補の所定のリストの動き/視差ベクトル予測因子を特定する動き/視差ベクトル予測因子インデックス。動き/視差ベクトル予測因子候補のリストが単一の要素からなる場合、このインデックスは、送信されないがデコーダ側で推測される。ピクチャの少なくとも1つのブロックのために、動き/視差ベクトル予測因子候補のリストは、すでに符号化されたビューにおいて所定の深度/視差情報および動き情報に基づいて導出される動き/視差ベクトルを含む。
加えて、動き/視差補償予測のために用いられる動き/視差ベクトルおよび選択された予測因子(動き/視差ベクトル予測因子候補リストに、送信されたインデックスによって示される)間の差を特定する動き/視差ベクトル差は、ビットストリームの部分として送信され得る。1つの実施形態において、この動き/視差ベクトル差は、参照インデックスおよび選択された予測因子とは無関係に符号化され得る。本願発明の別の実施形態において、動き/視差ベクトル差は、送信された参照インデックスおよび/または選択された予測因子に応じて符号化される。例えば、動き/視差ベクトル差は、特定の動き/視差予測因子が選択される場合、符号化され得るだけである。
参照ピクチャリストおよび動き/視差ベクトル予測因子候補リストは、エンコーダおよびデコーダ側で同様に導出される。特定の構成において、1つ以上のパラメータは、参照ピクチャリストおよび/または動き/視差ベクトル予測因子候補リストが導出される方法を特定するために、ビットストリームにおいて送信される。本願発明の好適な実施形態について、例えば22などのディペンデントビューにおいてピクチャのブロックの少なくとも1つのために、動き/視差ベクトル予測因子候補のリストは、所定の(推定された)深度値に基づいて、または、所定の(推定された)深度値およびすでに符号化されたビューの動きパラメータに基づいて、導出される動きまたは視差ベクトル予測因子候補を含む。所定の深度値およびすでに符号化されたビューの動きパラメータに基づいて導出される動き/視差ベクトル予測因子のほかに、動き/視差ベクトル予測因子の候補リストは、空間的に予測された動きベクトル(例えば、直接的に隣接したブロック(左または上のブロック)の動き/視差ベクトル、直接的に隣接したブロックの動き/視差ベクトルに基づいて導出される動き/視差ベクトル)および/または時間的に予測された動き/視差ベクトル(例えば、同じビューのすでに符号化されたピクチャにおいて同じ位置に配置されたブロックの動き/視差ベクトルに基づいて導出される動き/視差ベクトル)を含むことができる。所定の深度データ64を用いることによって得られる動き/視差ベクトル候補および例えば20などの他のビューの例えば42などのすでに符号化された動きパラメータの導出は、以下において記載されるように実行され得る。
現在のブロックのための代表深度の導出に基づく導出
Figure 2023085341000011
Figure 2023085341000012
Figure 2023085341000013
Figure 2023085341000014
Figure 2023085341000015
所定のブロックについての複数の深度値に基づく導出
Figure 2023085341000016
Figure 2023085341000017
方法2:すべての関連した動きパラメータが導出されるモード
本願発明の別の好適な実施形態において、マルチビュービデオ符号化スキームは、符号化モードを含み、そこにおいて、(仮説の数、参照インデックスおよび動きベクトルを含む)すべての動きパラメータは、所定の深度マップ64およびすでに符号化されたビュー20の動きパラメータ42に基づいて導出される。本願発明の特定の実施形態において、このモードは、(それが現在のHEVCのワーキングドラフトにおいてマージシンタックスに用いられるように)候補動きパラメータのリストの候補として符号化され得る。要するに、エンコーダおよびデコーダが、同様にブロックについての動きパラメータ候補のリストを導出し、そこにおいて、動きパラメータ候補の1つは、すでに符号化されたビュー20の動きに基づいて導出される動きパラメータである。そして、これらの動きパラメータ候補のどれが用いられるかをデコータにシグナリングされるインデックスが符号化される。マージシンタックスとの関連で、現在のブロックが参照ビューにおいて(類似したコンテンツを表す精神で)「同じ位置に配置された」ブロックとマージされることが論じられ得る。別の実施形態において、特定のシンタックスエレメントは、新しい符号化モードの使用をシグナリングする。わずかに修正されたバージョンにおいて、予測信号を生成するために用いられる動き仮説の数がビットストリーム内に明確にシグナリングされ得て、さらに、参照インデックスおよび関連した動きベクトルだけが導出される。別の修正されたバージョンにおいて、動きベクトル差は、加えて、導出された動きパラメータをリファインするために送信され得る。
複数の潜在的な参照インデックスに基づく導出
本願発明の第1の好適な実施形態において、現在のブロック50Cについての動きパラメータの導出は、上の方法1のために記載される概念のいずれかを用い、さらに、1つを超える潜在的な参照インデックスを考慮する。以下において、最初に、特定の動き仮説(および参照リスト)についての参照インデックスおよび関連した動きベクトルが導出され得る方法を記載する。最初のステップとして、所定の参照リストについての参照インデックスの順序付けられたセットが決定される。これは、例えばちょうど単一の参照インデックス(例えば、参照リストについての最初のインデックスまたは時間的な参照ピクチャを表す最初のインデックス)であり得て、または、それは、参照リストの最初の2つのインデックスからなることができ、または、それは、参照リストのすべての参照インデックスからなることができ、または、それは、時間的な参照ピクチャを表す最初の参照インデックスおよび時間的な参照ピクチャ(すなわち、リストにおける第2の時間的な参照ピクチャまたは第1のビュー間参照ピクチャ)を表す最初の参照インデックスに等しくない最初の参照インデックスからなることができる。参照インデックスの他のいかなる定義されたセットも可能である。参照インデックスの順序付けられたセットを考えると、最初の参照インデックスが考慮され、さらに、この参照インデックスについての動きベクトルが上の方法1のために記載される実施形態のいずれかによって導出される。導出された動きベクトルが利用できないようにマークされる場合、次の参照インデックスが考慮され、さらに、対応する動きベクトルが導出される。このプロセスは、利用できる動きベクトルがリターンされまたはリストのすべての参照インデックスがテストされているまで続けられる。利用できる動きベクトルが見つからない場合、最終的な動きパラメータが利用できないようにマークされる。1つの構成において、利用できない動きパラメータは、動きパラメータの候補リストに挿入されない。第2の構成において、利用できない動きパラメータは、(ロバスト性を構文解析するために)動きパラメータの候補リストに挿入されるが、エンコーダは、利用できない動きパラメータを選択することが許されない。第3の構成において、利用できない動きパラメータは、特定の動きパラメータに置き換えられ、それは、例えば、ゼロ参照インデックスおよびゼロ動きベクトル、または、現在のブロックの空間的な隣接において動きパラメータに基づいて導出される参照インデックスおよび動きベクトルであってもよい。新しい符号化モードが特定のシンタックスエレメントによってシグナリングされ、さらに、導出された動きパラメータが利用できない場合、対応するシンタックスエレメントは送信されず(さらに、符号化モードが用いられず)、または、エンコーダは新しい符号化モードの使用を特定するシンタックスエレメントについての値を選択することが許されず、または、利用できない動きパラメータは特定の動きパラメータに置き換えられる(上記を参照)。
動き仮説の数または用いられた参照リストの数が明確に符号化される場合、参照インデックスおよび動きベクトルからなる動きパラメータのセットは、上に特定されるように、動き仮説または参照リストごとに決定される。
動き仮説の数または用いられた参照リストの数が明確に符号化されない場合、動き仮説の数または使用された参照リストも、参照ビュー(複数)において実際に符号化された動きパラメータに基づいて導出される。動き仮説の最大数または用いられ得る参照リストの最大のセットを考えると、動き仮説(参照リスト)のそれぞれのために、動きパラメータのセットが上述のように導出される。そして、動き仮説の数(用いられた参照ピクチャリストのセット)は、導出された動きパラメータが利用できるようにマークされる仮説(参照リスト)によって与えられる。例えば、2つの潜在的な動き仮説を有し、さらに、両方の動き仮説のために動きパラメータ(参照インデックスおよび動きベクトル)の有効なセットが導出される場合、新しい符号化モードは、導出された動きパラメータを有する双方向予測を特定する。しかしながら、仮説(参照リスト)の1つのためだけに、動きパラメータの有効なセットが導出される場合、新しい符号化モードは、有効な動きパラメータのセットを有する一方向予測(1つの仮説)を特定する。動き仮説(参照リスト)のいずれについても、動きパラメータの有効なセットが導出されない場合、動きパラメータの完全なセットが、利用できないようにマークされる。この場合、動きパラメータのセットは、候補動きパラメータのリストに加えられず、または、それは、(ロバスト性を構文解析するために)加えられるが、エンコーダによって用いられず、または、それは、動きパラメータの特定の定義されたセット(例えば、1つの動き仮説、0に等しい参照インデックスおよび0に等しい動きベクトル)に置き換えられる。潜在的な動き仮説の1つ以上についての参照インデックスの別のセットをチェックすることも可能である。
単一の代表深度値に基づく導出
Figure 2023085341000018
・参照ビューについての参照ピクチャリストが現在のビューについての参照ピクチャリストより異なる方法で構成される(すなわち、特定の参照インデックスが両方のリストのための同じアクセスユニットを常に参照しない)場合、現在のブロックについての参照インデックスは、それが参照ビューにおいて対応する参照ピクチャと同じ時刻にピクチャ(または同じピクチャ順序カウントを有するピクチャ)を参照する方法で修正され得る。
・参照ビューにおいて参照インデックスがビュー間参照ピクチャを参照する場合、現在のビューについての参照インデックスは、それが選択されたビュー間参照ピクチャ(例えば、現在のビューと同じビュー間参照ピクチャまたは参照ビューによって表される参照ピクチャ)も参照する方法で修正され得る。この場合、動きベクトルも、視差ベクトルに置き換えられなければならず、それは、代表深度dを視差ベクトルに変換することによって得られ得る。
・参照ブロックにおいて用いられるすべての参照ピクチャのために対応するピクチャ(同じ時刻またはピクチャ順序カウントまたは参照インデックス)が現在のブロックについての参照リストにおいて利用できない場合、現在のブロックに利用できない参照ピクチャを参照する動き仮説が存在しないよう考慮され得る。
・参照ブロックがイントラ符号化される場合、動きパラメータは、視差補償予測についての動きパラメータに置き換えられ得る。例えば、参照インデックスは、それが参照ビューピクチャを参照する方法で設定され得て、さらに、動きベクトルは、代表深度を視差ベクトルに変換することによって得られる視差ベクトルに等しく設定され得る。代案として、動きパラメータは、利用できないようにマークされ得る。
方法1との結合
実施形態において、方法1(参照インデックスの符号化、動きベクトルまたは動きベクトル予測因子の導出)のための実施形態によって記載される符号化モードは、方法2(動き仮説の数、参照インデックスおよび動きベクトルまたは動きベクトル予測因子を含むすべての動きパラメータの導出)の実施形態によって記載される符号化モードに加えてサポートされ得る。
方法3:すべての関連した動きパラメータおよびブロック分割が導出されるモード
本願発明の別の好適な実施形態において、マルチビュービデオ符号化スキームは、符号化モードを含み、そこにおいて、所定のブロックのサブブロックについての異なる動きパラメータは、例えば20などのすでに符号化された参照ビューおよび推定された深度マップ64において動きパラメータに基づいて導出される。または、換言すれば、マルチビュービデオ符号化スキームは、ブロックについての符号化モードを含み、そこにおいて、より小さいサブブロックへのブロック50Cの分割およびサブブロックと関連する動きパラメータは、すでに参照ビューおよび推定された深度マップにおいて動きパラメータに基づいて導出される。
この符号化モードのために、最小のブロックサイズが定義され、それは、動き/視差補償予測のためにサポートされる最小のブロックサイズに等しくてもよくまたは動き/視差補償予測のためにサポートされる最小のブロックサイズの倍数であってもよい。所定の現在のブロック50Cが、定義された最小のブロックサイズより小さいかそれに等しい場合、現在のブロック50Cは、動き/視差補償の目的のためにより小さいブロックに分割されず、さらに、関連した動きパラメータは、上の方法2のための実施形態のいずれかのために記載されるように導出される。所定の現在のブロックが定義された最小のブロックサイズよりも大きい場合、それは、定義された最小のブロックサイズに等しいサイズを有するサブブロックに分割される。これらのサブブロックのそれぞれのために、動きパラメータのセットは、上述の方法2のための実施形態のいずれかを用いて導出される。
サブブロックのいずれかについての動きパラメータが利用できないようにマークされる場合(例えば、対応する参照ブロック40Rがイントラモードで符号化され、または、それがインタービュー予測を用いるだけであるので)、それらは、動きパラメータが利用できる隣接したサブブロックのいずれかの動きパラメータに置き換えられ得る。そのようなアルゴリズムは、隣接したブロックが特定の定義された順序(それは、置き換えられるサブブロックの位置に依存することができる)でテストされる方法で作動することができ、さらに、置き換えられるサブブロックの動きパラメータは、有効な動きパラメータを有する特定された順序で最初のサブブロックの動きパラメータに等しく設定される。
本願発明の特定の実施形態において、所定の最小のブロックサイズを有する得られたサブブロックは、所定の現在のブロック50Cの分割を特定する。本願発明の別の実施形態において、得られたサブブロックは、動き/視差補償予測のために用いられるより大きいブロックを形成するために、関連した動きパラメータに基づいて結合され得る。サブブロックの結合は、階層的に進行することができる。したがって、最初の階層ステージにおいて、4つの隣接したブロックのセットが、考慮され得る。動き仮説の数および関連した参照ピクチャおよび動きベクトルが全4つのサブブロックのために同じである場合、4つのサブブロックは、(元のサブブロックの動きパラメータと同一である動きパラメータで)より大きいブロックに要約される。次の階層ステージにおいて、(4つの元のサブブロックからなる)次の階層レベルの4つのブロックが考慮される。全4つのブロックが前の階層ステージにおいてより大きいブロックに要約され、さらに、動き仮説の数および関連した参照ピクチャおよび動きベクトルが全4つのブロックのために同じである場合、これらの4つのブロックは、(元のサブブロックの動きパラメータと同一である動きパラメータで)より大きいブロックに再度要約される。このアルゴリズムは、所定の現在のブロックについての最高の可能な階層レベルまで続けられる。極端な場合において(すべてのサブブロックの動きパラメータが同じである場合)、すべての現在のブロックは、分割されないが、動きパラメータの固有のセットと関連している。わずかに修正されたバージョンにおいて、4つのブロックは、動きベクトルが正確に同じでない場合に、より大きいブロックに要約されるが、動きベクトル間の差(それは、最大の成分差またはベクトル差の絶対値として定義され得る)は、定義された閾値よりも小さいかそれに等しい(動き仮説の数および使用された参照ピクチャは、まだ同じでなければならない)。この場合、より大きいブロックと関連している動きベクトルは、4つのサブブロックの動きパラメータの関数として決定される。可能な関数は、動きベクトルの平均、動きベクトルのメジアン(または成分ごとのメジアン)、いかなる特定のサブブロックの動きベクトルまたは4つのサブブロックにおいてほとんどの場合に発生する動きベクトル)である。
本願発明の実施形態において、方法1(参照インデックスの符号化、動きベクトルまたは動きベクトル予測因子の導出)についての実施形態によって記載される符号化モードは、方法3(ブロック分割並びに動き仮説の数、参照インデックスおよび動きベクトルまたは動きベクトル予測因子を含むすべての動きパラメータの導出)の実施形態によって記載される符号化モードに加えてサポートされ得る。加えて、方法2のいかなる実施形態による符号化モードも、サポートされ得る。
動きおよび視差データの符号化
すでに上述のように、本願発明の実施形態を表す符号化モードの使用は、デコーダにシグナリングすることを必要とする。これは、異なる方法で実現され得る。1つのバージョンにおいて、特定のシンタックスエレメント(それは、フラグであってもよい)は、シンタックスに挿入され得て、それは、従来に導出された動きベクトル予測因子(または動きベクトルまたは動きパラメータセット)が用いられるかどうか、または、すでに符号化されたビューの深度マップ推定および動きパラメータを用いて導出されている動きベクトル予測因子(または動きベクトルまたは動きパラメータセット)が用いられるかどうかをシグナリングする。別のバージョンにおいて、すでに符号化されたビューの深度マップ推定および動きパラメータを用いて導出されている動きベクトル予測因子(または動きベクトルまたは動きパラメータセット)は、従来導出された動きベクトル予測因子(または動きベクトルまたは動きパラメータセット)の候補リストに挿入され得て、さらに、どの動きベクトル予測因子(または動きベクトルまたは動きパラメータセット)が用いられるかをシグナリングするインデックスが送信される。特定のシンタックスエレメントまたは候補リストへのインデックスは、固定長の符号化、可変長の符号化、算術符号化(コンテキスト適応バイナリ算術符号化を含む)またはPIPE符号化を用いて送信され得る。コンテキスト適応符号化が用いられる場合、コンテキストは、隣接したブロックのパラメータ(例えば、特定のシンタックスエレメントまたは候補リストへのインデックス)に基づいて導出され得る。
本願発明の好適な実施形態において、マルチビュービデオ符号化スキームは、1つ以上の動き仮説が参照ピクチャインデックス、動きベクトル予測因子インデックスおよび動き仮説ごとの動きベクトル差を送信することによってシグナリングされる符号化モードを含む。この符号化モードのために、候補動きベクトル予測因子のリストは、送信された参照ピクチャインデックスに基づいて導出され、さらに、送信されたインデックスは、動きベクトル候補のどの1つが用いられるかをシグナリングする。実施形態を用いることによって、(少なくとも1つのブロックについての)動きベクトル候補の1つが、すでに符号化されたビューの深度マップ推定および動きパラメータに基づいて導出される(上の方法1を参照)。わずかに修正されたバージョンにおいて、動きベクトル差は、送信されないが、(すべての動きベクトル候補のために、または、すでに符号化されたビューの深度マップ推定および動きパラメータに基づいて導出されている動きベクトル候補のためだけに)0に等しいと推測される。
本願発明の別の好適な実施形態において、マルチビュービデオ符号化スキームは、1つ以上の動き仮説が動きパラメータインデックス(またはマージインデックス)を送信することによってシグナリングされる符号化モードを含む。この符号化モードのために、(動き仮説の数、参照インデックスおよび動きベクトルを含む)動きパラメータの候補セットのリストが、導出される。実施形態を用いることによって、(少なくとも1つのブロックについての)動きパラメータの候補セットの1つは、すでに符号化されたビューの深度マップ推定および動きパラメータに基づいて導出される(上の方法2および3を参照)。この実施形態の特定のバージョンにおいて、すでに符号化されたビューの深度マップ推定および動きパラメータに基づいて導出される(少なくとも1つのブロックについての)動きパラメータの候補セットは、現在のブロックについての分割情報を含む(上の方法3を参照)。この実施形態のわずかに修正されたバージョンにおいて、動きベクトル差は、加えて、(潜在的に動きパラメータの選択されたセットに応じて)送信され得る。
本願発明の別の実施形態において、マルチビュービデオ符号化スキームは、方法2または3に対応する符号化モードを含み、さらに、シンタックスは、この符号化モードが用いられるかどうかを特定するフラグを含む。
現在のピクチャについての深度マップ推定の導出
例えば20などのすでに符号化されたビューの動きパラメータに基づく現在のピクチャ50Cのブロックについての動きパラメータの導出は、今までに記載されるように、現在のピクチャについての深度マップの推定64が利用できることを必要とする。上述のように、この深度マップ推定64は、サンプルごとの深度マップ(深度値が、現在のピクチャのサンプルごとに特定される)またはブロックごとの深度マップ(深度値が、サンプルのブロックのために特定される)を特定することができる。深度マップ推定64は、すでに符号化されたパラメータ、例えば深度マップまたは視差ベクトルおよび動きパラメータなどに基づいて導出され得る。原理的には、現在のピクチャについての深度マップ推定64を導出するための可能性は、2つのクラスに分類され得る。1つのクラスのために、深度マップ推定は、実際に符号化された深度マップに基づいて導出される。以下に記載される対応する可能性は、符号化された深度マップが(それらが用いられる前に)ビットストリームに存在することを含む。第2のクラスの概念は、深度マップがビットストリームの部分として符号化されることを必要としない。その代わりに、深度マップ推定は、符号化された視差ベクトルに基づいて導出される。手順の第2のクラスは、深度マップがビットストリームの部分として符号化されるかどうかとは無関係に適用され得る。これは、以下の説明がこれまでに個々の態様に関する転送可能な詳細を個々に提供する図1および図2に関して上述される場合である。深度マップが符号化されるときに、方法の両方のクラスが適用され得ることにも留意されるべきである。異なるフレームについての異なる方法を選択することも可能である。
以下において、(符号化された深度マップの有無で)深度マップ推定を導出するための基本的な概念および好適な実施形態が記載される。
クラス1:符号化された深度マップに基づく導出
現在のピクチャ32t2(T)と関連している深度マップが現在のピクチャの前に符号化される場合、再構成された深度マップは、現在のピクチャについての現実の深度マップの推定として直接的に用いられ得る。符号化された深度マップを(例えば、それのフィルタリングを適用することによって)前処理し、さらに、動きパラメータを導出するために用いられる深度マップの推定として前置フィルタリングの結果を用いることも、可能である。
大部分の構成において、特定のピクチャと関連している深度マップは、ピクチャ32t2(T)の後に(しばしば関連したピクチャの直接的に後に)符号化される。そのような構成は、従来のビデオピクチャを符号化するために送信される符号化パラメータ(例えば動きパラメータなど)が、全体の符号化効率を改善する深度マップを符号化のために用いられる符号化パラメータを予測するために用いられ得ることを可能にする。しかし、そのような構成において、ピクチャと関連している深度マップは、動きパラメータ54を導出する際に深度マップについての推定として用いられることができない。しかしながら、例えば20などの(同じアクセスユニットの)すでに符号化されたビューについての深度マップは、通常利用でき、さらに、現在のピクチャの深度マップの推定を導出するために用いられ得る。少なくとも、ベースビュー(インディペンデントビュー)20の深度マップは、いかなるディペンデントビュー22を符号化する前に利用できる。いかなるビューの深度マップも、(例えば焦点距離およびカメラ間の距離などのカメラパラメータと結合して)、ある程度、投影されたビデオシーンのジオメトリを表すので、それは、別のビューにマッピングされ得る。したがって、現在のピクチャ32t2(T)についての深度マップが利用できない場合、同じアクセスユニット20のすでに符号化されたビューについての符号化された深度マップが、現在のビューにマッピングされ、さらに、このマッピングの結果が、深度マップ推定として用いられる。
Figure 2023085341000019
・1つを超える深度値が特定のサンプル位置に割り当てられる場合、それは、フォアグラウンドオブジェクトがバックグラウンドオブジェクトの前に変位されることを意味する。したがって、カメラまでの最も小さい距離を表す(潜在的な深度値の)深度値は、そのようなサンプル位置に割り当てられる。
・深度値が特定のサンプル位置にさらに割り当てられない場合、それは、フォアグラウンドオブジェクトが移動し、さらに、前にカバーされたバックグラウンドが見えることを意味する。そのような領域のために行われ得る最高のものは、非閉塞バックグラウンドが隣接したバックグラウンドサンプルと比べて同じ深度を有すると仮定することである。そのため、深度値が割り当てられていない領域は、カメラまでの最も大きい距離を表す周囲のサンプルの深度値で満たされる。
このアルゴリズムは、以下においてさらに詳細に特定される。以下の説明を単純化するために、より大きい深度値がより小さい深度値よりもカメラまでのより小さい距離を表すと仮定した(しかし、そのアルゴリズムは、逆の仮定のために容易に修正され得る)。
Figure 2023085341000020
所定のビューの深度マップを異なるビューにマッピングするためのアルゴリズムは、非常に単純な例に基づいて図5にさらに示される。図5は、1つのビュー20のために与えられる例えば32t1(T)などの深度マップを別のビュー22にマッピングするための可能なプロセスを示す。左側に、参照ビューについての所定の深度マップが示され、そこにおいて、斜線領域は、バックグラウンドを表し、さらに、白色領域は、フォアグラウンドオブジェクトを表し、図5の中央において、中央に、深度値に対応する視差ベクトルを有する所定のマップのサンプルを置換し、さらに、1つを超えるサンプルが投影される位置についてのフォアグラウンドオブジェクトを保つことによって得られる変換された深度マップが示される。黒色領域は、サンプルが投影されていない非閉塞領域を表す。図5は、右側に、バックグラウンドのための深度値によって非閉塞領域を満たしたすなわちbaバックグラウンドフィリングの後の変換された深度マップを示す。
本願発明の特定の実施形態において、ホールフィリングは、変換された深度マップの線を別々に処理する特に単純なアルゴリズムによって実現され得る。連続した未定義深度値からなる線分ごとに、2つの周囲の値が考慮され、さらに、線分のすべての深度サンプルは、これらの2つの深度値(バックグラウンド深度)のより小さいものに置き換えられる。線分は、(それがイメージ境界に配置されるので)1つの周囲の深度値だけを有する場合、線分の深度サンプルは、この値に置き換えられる。完全な線がこのプロセスの後に未定義値を有する場合、同じプロセスは、深度マップの列に対し適用される。
上のアルゴリズムがサンプルごとの深度マップのために記載されているにもかかわらず、それは、(より少ない複雑さをもたらす)ブロックごとの深度マップに適用され得て、または、参照ビューについての所定のサンプルごとの深度マップは、最初に、(ダウンサンプリングによって)ブロックごとの深度マップに変換され得て、そして、そのアルゴリズムは、ブロックごとの深度マップのために適用され得る。
クラス2:符号化された視差および動きベクトルに基づく導出
Figure 2023085341000021
深度マップ推定を生成するという考えは、(それらが深度推定器28によって実行されるように、2つのビューでマルチビュー符号化するための処理ステップを示す)いくつかの図によってさらに示される。符号化/復号化は、ランダムアクセスユニットから始まり、それのために、ベースビューピクチャ32t1(0)がイントラ符号化され、さらに、非ベースビューピクチャ32t2(0)がイントラおよびインタービュー予測(しかし、動き補償予測でない)だけを用いて符号化される。ランダムアクセスユニット「0」において第2のビュー22を符号化した後に、この第2のビュー22のためのブロックに基づいた深度マップ推定は、図6に示されるように、このビュー22についての符号化された視差ベクトル122を用いて生成される120。そして、第2のビュー22についてのこの深度マップ推定642(0)が第1のビュー(ベースビュー)20にマッピングされ124、さらに、第1のビュー20についての深度マップ推定641(0)が得られる。ランダムアクセスユニットの第2のビュー22のために、ベースビューの動きパラメータおよび視差推定に基づく動き/視差パラメータの導出が用いられることができないことに留意されるべきであり、その理由は、ランダムアクセスユニットの第2のビュー22が符号化されるときに、深度マップの推定が利用できないからである。
第3のビューが符号化される場合、最初の2つのビューのいずれか(好ましくは第2のビュー)の深度マップ推定は、第3のビューについての深度マップ推定をもたらす第3のビューにマッピングされ得て、それは、第3のビューについての動きパラメータを導出するために用いられ得る。そして、第3のビューを符号化した後に、ブロックに基づいた深度マップは、第3のビュー(それは、より後で、以下のいかなるビューについての深度マップ推定を生成するために用いられ得る)についての符号化された視差ベクトルを用いて生成され得る。いかなる以下のビューのためにも、基本的に、第3のビューに関して同じプロセスが用いられ得る。
非ランダムアクセスユニットにおいてベースビューのピクチャは、主に動き補償予測によって典型的に符号化され、その理由は、動き補償予測が、通常、イントラ符号化よりも良好な符号化効率を与えるからである。ベースビューのピクチャが符号化された後に、このピクチャについての深度マップの推定は、図7に示されるように、ピクチャ32t1(1)についての動きパラメータ42(1)を用いて生成される140(図1において71に匹敵)。したがって、新しい深度マップ推定641(1)のそれぞれのブロックは、対応する参照ピクチャまたはピクチャについての深度マップ推定641(0)(図1において74に匹敵)を動き補償することによってつくられる140。用いられる参照ピクチャおよび対応する動きベクトル42(1)は、関連したピクチャについてのデータストリームにおいて符号化される参照ピクチャおよび動きベクトルである。イントラ符号化されたブロックについての深度サンプルは、空間予測によって得られ得る。ベースビューについてのこの深度マップ推定は、動きパラメータを導出するために用いられ得る第2のビューについての深度マップ推定642(1)を得るために、すなわちインタービュー冗長性低減を実行するために、第2のビューのための座標系にマッピングされる142(図1において76に匹敵)。
いかなるさらなる符号化されたビューのためにも、深度マップ推定は、いかなるすでに符号化されたビュー(ベースビュー、第2のビュー、その他)についての深度マップ推定も対応するビューにマッピングすることによって生成され得る。
第2のビュー(またはいかなる以下のビュー)のピクチャを実際に符号化した後に、関連した深度マップ推定は、図8に示されるように、実際に符号化された動きおよび視差ベクトルを用いて更新され得る160(図1における77に匹敵)。視差補償を用いて符号化されるブロックのために、深度マップサンプルは、上述のように符号化された視差ベクトル60を深度値に変換すること162によって得られ得る。動き補償モードを用いて符号化されるブロックのために、深度サンプルは、参照フレーム32t2(0)についての深度マップ推定を動き補償することによって得られ得る。または、代わりに、現在の深度マップ推定642(1)に加えられる深度補正値が、現在のおよび参照ビューについての符号化された動きパラメータ42(1)および54(1)に基づいて導出され得る。イントラ符号化されたブロックの深度サンプルは、空間予測を用いてまたは隣接したブロックの動きパラメータを用いて予測され得る。第2のビューについての更新された深度マップ推定74が生成された後に、この深度マップ推定74は、ベースビュー20についての深度マップ更新64´1(1)(図1における74に匹敵)を得るためのベースビュー20にマッピングされる164(図1における78に匹敵)。
2つを超えるビューが符号化される場合、これらのビューのための深度マップ更新プロセスは、第2のビューに関して同じである。しかしながら、ベースビュー深度マップは、第2のビューが符号化された後に、更新されるだけである。
深度マップのための動き補償動作は、符号化されたサブサンプルの正確な動きベクトルを用いて実行され得る。しかしながら、それは、深度マップのための動き補償動作がサンプル(またはブロック)精度で実行される場合、(複雑さおよび符号化効率の観点から)しばしば好ましい。したがって、実際に符号化された動きベクトルは、サンプルまたはブロック精度に丸められ、さらに、これらの丸められたベクトルは、動き補償を実行するために用いられる。さらに、記載された概念は、サンプルごとおよびブロックごとの深度マップ推定のために適用され得る。ブロックに基づいた深度マップを用いる利点は、すべての処理ステップのためのより少ない複雑さおよび必要メモリである。ブロックに基づいた深度マップについて、それぞれの深度サンプルは、関連したピクチャ(例えば4x4ブロックまたは8x8ブロック)のサンプルのブロックについての深度を表す。すべての記載された動作は、直接的な方法で(すなわち、1つの深度サンプルがちょうど1つのテクスチャサンプルの代わりに倍数を表す、単に深度マップの低い解像度を考慮することによって)ブロックに基づいた深度マップのために実行され得る。
所定の深度マップの1つのビューから別のビューへのマッピング(それは、上述されている)の他に、そのアルゴリズムは、以下の基本的なステップを含む。
・ランダムアクセスユニットのピクチャについての視差ベクトルに基づいて深度マップをつくること。
・関連したピクチャの動きパラメータを用いたベースビュー深度マップの時間的な予測。
・関連したピクチャについての実際に符号化された動きおよび視差ベクトルを用いた深度マップ推定の更新。
これらのアルゴリズムのステップについての特定の実施形態が、以下に記載される。
ランダムアクセスユニットにおけるピクチャについての深度マップの作成
本願発明の特定の実施形態において、ランダムアクセスユニットにおいてディペンデントビューのピクチャについての深度マップの作成は、以下のように進行する。一般に、そのようなピクチャは、視差補償予測を用いて符号化されるブロックおよびイントラ符号化されるブロックを含む。最初に、視差補償予測を用いて符号化されるすべてのブロックが考慮される。視差ベクトルは、深度値に変換され、さらに、これらの深度値は、深度マップの対応するサンプルに割り当てられる。2つ以上の動き仮説が用いられる場合、1つの仮説が選択され、または、最終的な深度値が個々の動き仮説についての深度値の関数に等しく設定される(例えば、平均、メジアン、最大または最小)。すべての視差補償ブロックのための深度値を割り当てた後に、イントラ符号化されたブロックのための深度値は、空間イントラ予測によって得られる。1つのバージョンにおいて、これらのサンプルは、関連したテクスチャピクチャのために用いられる同じイントラ予測モードを用いることによって得られ得る。別のバージョンにおいて、イントラブロックの深度は、周囲のサンプル(またはブロック)の重み付けられた平均によって得られる深度値に等しく設定され得て、そこにおいて、重み付け係数は、用いられたイントラ予測モードに基づいて決定され得る。さらなるバージョンにおいて、イントラブロックのための深度は、深度サンプルを周囲のイントラサンプルの特定の関数によって与えられる値に等しく設定することによって得られ得る(例えば、平均、メジアン、最大、最小)。他の空間予測アルゴリズムも可能である。イントラ符号化されたブロックのための深度割り当ては、イメージにおいてブロックをわたる単一のループ内で行われ得る。要するに、ブロックは、特定の順序(例えば、符号化順序)で処理され、さらに、視差補償およびイントラブロックの両方のために、深度値は、この順序で生成される(すなわち、イントラ符号化されたブロックのための深度割り当ては、すべての視差補償ブロックが処理されるまで待つ必要はない)。
ベースビュー深度マップの時間的な予測
一般に、ベースビューのピクチャは、動き補償ブロックおよびイントラ符号化されたブロックを含む。動き補償ブロックのための深度値は、対応する参照ピクチャについての深度マップ推定の動き補償予測によって導出される。テクスチャピクチャのブロックが単一の動き仮説を用いて符号化される場合、このブロックのための深度サンプルは、送信された(または推測された)動きベクトルによって(シグナリングされた参照インデックスによって与えられる)参照ピクチャについての深度マップ推定の深度サンプルを置換することによって得られ得る。この動き補償動作は、送信された動きベクトルの正確さ(それは、通常、サブサンプル精度である)で、または、サンプルまたはブロックの正確な動きベクトルで実行され得る。動き補償がサブサンプル精度で実行される場合、内挿フィルタが、サブサンプル位置でサンプルを生成するために適用される。動き補償がサンプルまたはブロック精度で実行される場合、送信された動きベクトルは、それらが用いられる前に丸められる。関連したピクチャのブロックが2つを超える動き仮説で符号化される場合、仮説の1つは、深度マップの動き補償のために選択され得て、または、すべての動き仮説は、個々の動き仮説についての深度予測信号の重み付けられた合計としてブロックのための最終的な深度マップ推定を生成することによって用いられる。さらに、所定のサイズのブロックのための深度サンプルは、代表深度に等しく設定され得る。この代表深度は、ブロック内の特定の位置を選択し、さらに、動き補償を用いてこの位置についての深度値を導出することによって得られ得て、または、それは、このブロックのための動き補償深度値の関数を定義することによって得られ得る。そのような関数は、深度サンプルの平均、深度サンプルメジアン、深度サンプルの最小若しくは最大、または、ブロックにおいてほとんどの場合に発生する深度サンプル値であり得る。
符号化された動きおよび視差パラメータを用いる深度マップの更新
上述のように、ピクチャについての深度マップ推定は、ピクチャを符号化した後に更新され得る。以下において、そのような更新アルゴリズムのいくつかの実施形態を記載する。ピクチャのブロックは、特定の順序(例えば、符号化順序)で処理され、さらに、ブロックごとに、以下のことが適用される。
・ブロックが(関連したテクスチャピクチャにおいて)イントラ符号化されている場合、このブロックのための深度サンプル値は、隣接したブロックのサンプルを用いて空間予測によって導出され得る。そのような空間予測技術のためのいくつかの例が上述されている。深度サンプル値は、隣接したブロックの動きパラメータを用いて動き補償によっても得られ得る(以下の動き補償ブロックのための説明を参照)。それは、すべての動きおよび視差補償ブロックが処理された後にイントラブロックが処理される場合、時に好ましく、その理由は、その後により隣接したものが利用でき、さらに、深度サンプルまたは動きパラメータの空間予測のために用いられ得るからである。
・さもなければ、ブロックが1つ以上の視差ベクトル(視差仮説)を用いて符号化される場合、深度サンプルは、視差ベクトルを深度値に変換することによって導出される。1つの視差ベクトル(視差仮説)だけがブロックのために用いられる場合、深度値は、対応する視差ベクトルによって与えられる。2つ以上の視差ベクトルがブロックのために用いられる場合、視差ベクトルの1つは、深度値を導出するために選択され得て、または、視差ベクトルごとに、深度値は、導出され得て、さらに、最後に割り当てられた深度値は、個々に導出された深度値の関数を適用することによって得られる。可能な関数は、その中で、個々の深度値の最小または最大、深度値のメジアン、深度値の平均、または、ほとんどの場合に発生する深度値である。
視差ベクトルを用いて符号化されるブロックが加えて時間的な動きベクトルと関連していてもよいことに留意されたい。この場合、時間的な動きベクトルは、無視され得る。または、導出された深度値は、(例えば、これらの2つの信号を平均することによって)いかなる特定の方法で時間的な動き仮説(下を参照)のために導出される深度値と結合され得る。
・さもなければ、ブロックは、時間的な動き仮説だけを用いて符号化され、さらに、時間的な動き仮説は、ブロックのための深度サンプルを更新するために用いられる。
本願発明の第1の実施形態において、深度マップサンプルは、現在のビューについての参照ピクチャと関連する深度マップ推定を用いて直接的な動き補償予測によって導出される。この動き補償動作は、上述のベースビュー深度マップの時間的な予測のための実施形態のいずれかによって実現され得る。
本願発明の第2の実施形態において、深度マップサンプルは、単に動き補償されないが、その代わりに、深度補正値は、現在のビューのために符号化される動きベクトルおよび参照ビューにおいて対応するブロックのための符号化される動きベクトルに基づいて導出され、さらに、この深度補正値は、更新された深度マップ推定を得るために推定される深度マップに加えられる。そのようなアプローチの利点は、2つのインスタンス間の深度変化が考慮され得るということである。
Figure 2023085341000022
Figure 2023085341000023
現在のおよび参照ブロックの動きベクトルを用いて更新された深度値を得るための基本的な概念を示した。この基本的な概念は、さまざまな実際の実施において用いられ得る。例えば、1つを超える動きベクトルが現在のブロックおよび/または参照ブロックのために用いられる場合、単一の動きベクトルが選択され得て、または、異なる深度値が異なる動きベクトルのために導出され得て、さらに、最終的な深度が個々に導出された深度値の平均(または他のいかなる関数)を用いることによって得られる。さらに、現在のおよび参照ブロックにおいてそれらの動き仮説だけが考慮されなければならず、それは、同じ参照アクセスユニット(または参照時刻または参照ピクチャ順序カウントまたは参照インデックス)を用いる。そのような動き仮説が存在しない場合、上述の従来の動き補償プロセスが用いられ得て、または、深度サンプルが利用できないようにマークされ得て、さらに、適切な後処理ステップによって後に交換される。さらに、新しい深度値は、ブロックについての単一のサンプルに基づいて、またはブロックのすべてのサンプルのために、またはブロックのサンプルの選択されたサブセットのために導出され得る。異なるサンプルについての異なる深度値が導出されるときに、別々の深度値は、現在のブロックの異なる領域のために(例えば、現在のブロック内のすべての4x4のブロックのために)割り当てられ得て、または、異なる深度値は、例えば、平均、メジアン、最小、最大値、またはほとんどの場合に発生する深度値を用いることによって、すべてのブロックのための代表深度を導出するために用いられる。深度マップ更新プロセスは、いくつかの前処理ステップと結合され得る。例えば、利用できない深度値は、隣接したサンプルまたはブロックの深度値に置き換えられ得る。
方法1-3の上に概説された説明に関して、参照ビューのそれぞれのブロック40Rを確認するために用いられる視差ベクトルを決定する他のタイプで用いられる場合、参照ビューにおいて例えばブロック40Rなどの、ブロックから得られるそれぞれの情報を加えることによって動きまたは動き/視差ベクトル/パラメータ候補リストを洗練するこれらの異なる代案が有利でもあることに留意されるべきである。この実施形態によれば、図1のデコーダにおいて深度推定器28は、図2のエンコーダにおいて深度推定器84と全く同じように任意である。
特に、後の態様によれば、方法1-3の上の説明は、マルチビュー信号をマルチビューデータストリームに再構成するための装置を明らかにし、その装置は、ディペンデントビュー22を再構成するために以下のことを行うように構成されるディペンデントビュー再構成器26を含む。機能性を記載するために、図1および図4のマルチビュー信号の概略図を参照する。特に、ディペンデントビュー再構成器26は、現在のピクチャ32t2(T)の現在のブロック50cおよびディペンデントビュー22のために、最初に、ディペンデントビュー22の現在のピクチャ32t2(T)およびブロック50cでマルチビュー信号の参照ビュー20の現在のピクチャ32t1(T)間の視差を表す現在のブロック50cのための視差ベクトル102を決定することによって、動きベクトル予測因子候補のリストを導出する。そうするために、ディペンデントビュー再構成器26は、ピクチャ32t1(T)および32t2(T-1)の例えば動き/視差ベクトルなどのマルチビュー信号の前に復号化された部分と関連する動きおよび視差ベクトルを用いる。上に概説される他の実施形態において、参照ビューの現在のピクチャ32t1(T)と関連する推定された深度マップは、推定および上に記載されている参照ビューと同様にディペンデントビューの前に符号化されたピクチャの動きおよび視差ベクトルを用いて深度マップ推定を更新することと共に、視差ベクトル102を決定するための基礎として用いられ、さらに、この点に関して、上の説明は、同様に現在の実施形態のために組み込まれるが、原理的には、他の可能性が同様に存在する。例えば、ディペンデントビュー再構成器26は、現在のブロック50cのための視差ベクトルを空間的に/時間的に予測することができ、さらに、視差ベクトル102としてこの予測された視差ベクトルを用いることができる。
そして、ディペンデントビュー再構成器26は、決定された視差ベクトル102を用いて参照ビューの現在のピクチャ内でブロック40Rを決定し、さらに、動きベクトルを動きベクトル予測因子候補のリストに加え、それは、決定されたブロック40R、すなわち動きベクトル42Rと関連する動きベクトルに依存する。
上述のように、動きベクトル予測因子候補のリストを導出する際に、ディペンデントビュー再構成器は、ディペンデントビュー22の空間的におよび/または時間的に隣接したブロック、すなわち、ブロック、空間的におよび/または時間的に隣接した現在のブロック50Cから1つ以上のさらなる動きベクトルを空間的におよび/または時間的に予測するように構成され得る。そして、1つ以上のさらなる動きベクトルまたはそれから導出されるバージョンは、ディペンデントビュー再構成器26によって、動きベクトル予測因子候補のリストに加えられる。
ディペンデントビュー再構成器は、ブロック50Cのために、マルチビューデータストリームから、さらに、より具体的にするために、それのディペンデントビュー部22から、動きベクトル予測因子候補のリストの1つを特定するインデックス情報を抽出する。現在のブロック50Cが動き補償予測を受けすなわち時間的な予測モードと関連していると仮定されるので、ディペンデントビュー再構成器26は、特定された動きベクトル候補、すなわち、インデックス情報によってインデックスが付けられまたは特定されるもの、に等しいまたは少なくとも依存する動きベクトルを用いてブロック50Cの動き補償予測を実行することによってブロック50Cを再構成する。動き予測因子候補の拡大したリストと関連するオーバーヘッドは、参照ビューから決定される動きベクトル候補42Rの加算から生じている動きベクトル予測品質における利得と比較して、比較的少ない。
上に記載されているように、現在のブロック50cのためのディペンデントビュー再構成器26によって抽出される動き情報は、インデックス情報に制限される必要はない。むしろ、ディペンデントビュー再構成器26は、ブロック50Cのために、特定された動きベクトル候補に関して動きベクトル差を抽出し、さらに、用いられた動きベクトルがさらに動きベクトル差および特定された動きベクトル候補すなわち動きベクトル予測因子候補のリストからインデックス情報によって特定される1つの合計に依存するように、ブロック50Cの再構成を実行するようにさらに構成され得る。
上記において、動きおよび視差補償予測が、厳格に区別されている。しかしながら、両方の間の差は、例えば、同じモードが両方をシグナリングするために用いられる場合、動き/補償予測が実行されるものと比べてピクチャにインデックスを付けるインデックスから単に導出されることができる両方の間の差について、消滅することができる。そして、デコーダディペンデントビュー再構成器の前述の機能性は、差がないように、「動き」を「動き/視差」に置き換えることによって書き換えられ得る。当然、尺度は、実際に特定されるベクトル候補が前に符号化されたピクチャの同じタイプを参照するように、すなわち時間的に前にまたはビュー方向の前に参照するように、または、リストへの加算でさえ、条件つきで制限されそれに従って実行されるように、とられなければならない。
上述の方法1によれば、ディペンデントビュー再構成器26は、ブロック50Cのために、参照ビュー20の現在のピクチャ32t1(T)およびディペンデントビュー22のすでに復号化されたピクチャ32t2(t<T)を含む、参照ピクチャのリストの参照ピクチャを特定する参照ピクチャインデックスをさらに抽出するように構成され、さらに、ディペンデントビュー再構成器26は、ディペンデントビュー22のすでに復号化されたピクチャの1つとしての参照ピクチャについて、参照として参照ピクチャインデックスによって特定されるようなディペンデントビューの1つのすでに復号化されたピクチャを用いて動き補償予測を実行するように構成され得て、さらに、参照ピクチャが参照ビューの現在のピクチャ32t1(T)である場合、決定された視差ベクトル102または決定された視差ベクトル102から導出される修正された視差ベクトルを視差ベクトル予測候補のリストに加え、マルチビューデータストリームから視差ベクトル予測因子候補のリストの1つを特定するインデックス情報を抽出し、さらに、参照として参照ビュー20の現在のピクチャ32t1(T)を用いて指定された視差ベクトル候補に依存する視差ベクトルを用いて、ブロック50Cの視差補償予測を実行することによって、ブロック50Cを再構成するように構成される。また、動き補償および視差補償予測間の差が、解消され得る。同じ予測モードが、ブロック50Cについてシグナリングされ得る。動き補償または視差補償予測がディペンデントビュー再構成器26によって実際に実行されるかどうかに関して、時間的な前にあったもの、すなわちディペンデントビューの前に復号化されたピクチャと、ビューの前にあったもの、すなわち他のビューの前に復号化されたピクチャとの両方を含む参照ピクチャのバッファまたはリストにインデックスが付けられる参照ピクチャインデックスによって定義される。
方法2から明白になるように、ディペンデントビュー再構成器26は、それぞれが、多数の仮説と、仮説ごとに、動き/視差動きベクトルおよびちょうど概説される参照ピクチャのそのような共通のリストから参照ピクチャを特定する参照インデックスとを含む、動き/視差パラメータ候補のリストである、動き/視差ベクトル予測因子候補のリストを介して、動きベクトル予測因子候補のリストの導出を実行するように構成され得る。そして、ディペンデントビュー再構成器は、動き/視差パラメータを決定されたブロック40Rと関連する動き/視差パラメータに依存する動き/視差パラメータ候補のリストに加え、さらに、インデックス情報によって特定される動き/視差パラメータ候補に依存する動き/視差パラメータを用いてブロック50Cに動き/視差補償予測を実行することによってブロック50Cを再構成するように構成され得る。動きパラメータは、上述のように、多数の仮説と、仮説ごとに参照インデックスおよび動き/視差ベクトル差とを同時に決定することができる。上述されているように、多数の仮説は、例えばピクチャのタイプなどを経由して事前に決定され得る。
そして、方法3において説明されるように、ディペンデントビュー再構成器は、動き/視差予測に関する限り、ブロック50Rからブロック50Cのための分割をさらに採用するように、さらに構成され得る。
図2のエンコーダは、後の態様によれば、マルチビュー信号をマルチビューデータストリームに符号化する際にそれに従って働くように構成される。特に、ディペンデントビュー再構成器26は、ブロック50Cのために、同様に動きベクトル予測因子候補のリストを導出する。すなわち、ディペンデントビュー22の現在のピクチャおよびディペンデントビュー22の現在のピクチャでマルチビュー信号の参照ビュー20の現在のピクチャ間の視差を表すブロック50Cのための視差ベクトルは、マルチビュー信号の前に符号化された部分と関連する動きおよび視差ベクトルを介して決定される。そして、参照ビューの現在のピクチャ内のブロック50Rは、決定された視差ベクトルを用いて決定され、さらに、動きベクトルは、動きベクトル予測因子候補のリストに加えられ、それは、参照ビューのピクチャの決定されたブロックと関連する動きベクトルに依存する。ディペンデントビュー再構成器は、ブロック50Cのために、動きベクトル予測因子候補のリストの1つを特定するインデックス情報をマルチビューデータストリームに挿入し、さらに、特定された動きベクトル候補に依存する動きベクトルを用いてブロック50Cの動き補償予測を実行することによってブロック50Cを符号化する。
いくつかの態様が装置との関連で記載されているにもかかわらず、これらの態様は、対応する方法の説明も表すことが明らかであり、ブロックまたは装置は、方法ステップまたは方法ステップの特徴に対応する。同様に、方法ステップとの関連で記載されている態様は、対応するブロック若しくはアイテムまたは対応する装置の特徴の説明も表す。方法ステップのいくつかまたはすべては、例えば、マイクロプロセッサ、プログラム可能なコンピュータまたは電子回路のようなハードウェア装置によって(またはそれを用いて)実行されてもよい。いくつかの実施形態において、最も重要な方法ステップのいずれかの1つ以上は、そのような装置によって実行されてもよい。
特定の実施要件に応じて、本願発明の実施形態は、ハードウェアにおいてまたはソフトウェアにおいて実施することができる。実施は、それぞれの方法が実行されるように、プログラム可能なコンピュータシステムと協働する(または協働することができる)電子的に可読の制御信号が格納される、デジタル記憶媒体、例えばフロッピー(登録商標)ディスク、DVD、ブルーレイ(登録商標)、CD、ROM、PROM、EPROM、EEPROMまたはFLASHメモリを用いて実行することができる。したがって、デジタル記憶媒体は、コンピュータ可読であってもよい。
本願発明によるいくつかの実施形態は、ここに記載される方法のうちの1つが実行されるように、プログラム可能なコンピュータシステムと協働することができる電子的に可読の制御信号を有するデータキャリアを含む。
一般に、本願発明の実施形態は、プログラムコードを有するコンピュータプログラム製品として実施することができ、そのプログラムコードは、コンピュータプログラム製品がコンピュータ上で実行されるときに、それらの方法のうちの1つを実行するために働く。プログラムコードは、例えば、機械可読のキャリアに格納されてもよい。
他の実施形態は、機械可読のキャリアに格納される、ここに記載される方法のうちの1つを実行するためのコンピュータプログラムを含む。
したがって、換言すれば、本願発明の方法の実施形態は、コンピュータプログラムがコンピュータ上で実行されるときに、ここに記載される方法のうちの1つを実行するためのプログラムコードを有するコンピュータプログラムである。
したがって、本願発明の方法のさらなる実施形態は、それに記録される、ここに記載される方法のうちの1つを実行するためのコンピュータプログラムを含むデータキャリア(またはデジタル記憶媒体またはコンピュータ可読媒体)である。データキャリア、デジタル記憶媒体または記録媒体は、典型的に有形でありおよび/または非一時的である。
したがって、本願発明の方法のさらなる実施形態は、ここに記載される方法のうちの1つを実行するためのコンピュータプログラムを表すデータストリームまたは一連の信号である。データストリームまたは一連の信号は、例えば、データ通信接続を介して、例えばインターネットを介して、転送されるように構成されてもよい。
さらなる実施形態は、ここに記載される方法のうちの1つを実行するように構成されまたは適合している処理手段、例えばコンピュータまたはプログラム可能な論理デバイスを含む。
さらなる実施形態は、ここに記載される方法のうちの1つを実行するためのコンピュータプログラムがインストールされているコンピュータを含む。
本願発明によるさらなる実施形態は、ここに記載される方法のうちの1つを実行するためのコンピュータプログラムをレシーバに(例えば、電子的にまたは光学的に)転送するように構成される装置またはシステムを含む。レシーバは、例えば、コンピュータ、モバイルデバイス、メモリデバイスなどであってもよい。装置またはシステムは、例えば、コンピュータプログラムをレシーバに転送するためのファイルサーバを含んでもよい。
いくつかの実施形態において、プログラム可能な論理デバイス(例えばフィールドプログラム可能なゲートアレイ)は、ここに記載される方法の機能のいくらかまたはすべてを実行するために用いられてもよい。いくつかの実施形態において、フィールドプログラマブルゲートアレイは、ここに記載される方法のうちの1つを実行するために、マイクロプロセッサと協働してもよい。一般に、その方法は、好ましくは、いかなるハードウェア装置によっても実行される。
上述の実施形態は、本願発明の原理のために単に例示するだけである。ここに記載される構成および詳細の修正および変更が他の当業者にとって明らかであるものと理解される。したがって、本願発明は、差し迫った特許請求の範囲によってだけ制限され、ここに実施形態の記述および説明として示される具体的な詳細によって制限されないことが意図される。
文献
[1] ITU-T and ISO/IEC JTC 1, "Advanced video coding for generic audiovisual s
ervices," ITU-T Recommendation H.264 and ISO/IEC 14496-10 (MPEG-4 AVC), 2010
[2] A. Vetro, T. Wiegand, G. J. Sullivan, "Overview of the Stereo and Multivi
ew Video Coding Extension of the H.264/MPEG-4 AVC Standard", Proceedings of IEEE
, vol. 99, no. 4, pp. 626-642, Apr. 2011
[3] H. Schwarz, D. Marpe, T. Wiegand, "Overview of the Scalable Video Coding Extension of the H.264/AVC Standard", IEEE Transactions on Circuits and Systems for Video Technology, vol. 17, no. 9, pp. 1103-1120, Sep. 2007

Claims (22)

  1. マルチビューデータストリームに符号化されるマルチビュー信号を再構成するための装置であって、
    前記マルチビュー信号の前に復号化された部分と関連する動きおよび視差ベクトルを介して、ディペンデントビュー(22)の現在のピクチャおよび前記ディペンデントビュー(22)の前記現在のピクチャの少なくとも1つのブロックで前記マルチビュー信号の参照ビューの現在のピクチャ間の視差を表す、前記少なくとも1つのブロックのための視差ベクトルを決定し、
    決定された視差ベクトルを用いて前記参照ビューの前記現在のピクチャ内のブロックを決定し、
    動きベクトルを前記参照ビューの前記ピクチャの決定されたブロックと関連する動きベクトルに依存する動きベクトル予測因子候補のリストに加える
    ことによって、前記マルチビュー信号のディペンデントビュー(22)において現在のピクチャのブロックの少なくとも1つのために、動きベクトル予測因子候補のリストを導出し、
    前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックのために、前記マルチビューデータストリームから、動きベクトル予測因子候補の前記リストの1つの動きベクトル予測因子候補を特定するインデックス情報を抽出し、さらに
    特定された動きベクトル候補に依存する動きベクトルを用いて前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックの動き補償予測を実行することによって前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックを再構成する
    ように構成されるディペンデントビュー再構成器(26)を含む、装置。
  2. 前記参照ビュー(20)についての前記マルチビューデータストリーム(14)内に送信される動きデータ(42)に基づいて動き補償予測を用いて前記マルチビュー信号(12)の前記参照ビュー(20)の前記現在のピクチャ(32t1)を再構成するように構成される参照ビュー再構成器(24)、および
    前記参照ビュー(20)についての前記動きデータ(42)を前記参照ビュー(20)の前のピクチャの深度マップ推定(74)に適用することによって前記参照ビュー(20)の前記現在のピクチャ(32t1)の深度マップ推定(64)を生成し(71)、さらに
    前記ディペンデントビュー(22)の前記現在のピクチャ(32t2)の深度マップ推定(64)を得るために前記参照ビュー(20)の前記現在のピクチャ(32t1)の前記更新された深度マップ推定(74)を前記ディペンデントビュー(22)にワープする(76)
    ことによって前記ディペンデントビュー(22)の前記現在のピクチャ(32t2)の深度マップを推定するように構成される深度推定器(28)をさらに含み、
    前記ディペンデントビュー再構成器(26)は、前記少なくとも1つのブロックのための前記視差ベクトルを決定する際に、前記決定された視差ベクトルを得るために前記少なくとも1つのブロックで前記深度データ推定を深度対視差変換にさらすように構成される、請求項1に記載の装置。
  3. 前記ディペンデントビュー再構成器(26)は、前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックのために、前記特定された動きベクトル候補に関する動きベクトル差をさらに抽出し、さらに、用いられた動きベクトルが前記動きベクトル差および前記特定された動きベクトル候補の合計にさらに依存するように前記現在のピクチャの前記少なくとも1つのブロックの再構成を実行するように構成される、請求項1または請求項2に記載の装置。
  4. 前記ディペンデントビュー再構成器は、前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックのために、前記参照ビューの前記現在のピクチャおよび前記ディペンデントビュー(22)のすでに復号化されたピクチャを含む参照ピクチャのリストの参照ピクチャを特定する参照ピクチャインデックスをさらに抽出するように構成され、前記ディペンデントビュー再構成器は、前記参照ピクチャが前記ディペンデントビュー(22)の前記すでに復号化されたピクチャの1つである場合、参照として前記ディペンデントビュー(22)の1つのすでに復号化されたピクチャを用いて前記動き補償予測を実行し、さらに、前記参照ピクチャが前記参照ビューの前記現在のピクチャである場合、前記決定された視差ベクトルまたは前記決定された視差ベクトルから導出される修正された視差ベクトルを視差ベクトル予測候補のリストに加え、前記マルチビューデータストリームから視差ベクトル予測因子候補の前記リストの1つの視差ベクトル予測因子候補を特定するインデックス情報を抽出し、さらに、参照として前記参照ビューの前記現在のピクチャを用いて特定された視差ベクトル候補に依存する視差ベクトルを用いて前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックの視差補償予測を実行することによって前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックを再構成するように構成される、先行する請求項のいずれかに記載の装置。
  5. 前記ディペンデントビュー再構成器は、動きベクトル予測因子候補の前記リストを導出する際に、前記ディペンデントビュー(22)の空間的におよび/または時間的に隣接したブロックからさらなる動きベクトルを空間的におよび/または時間的に予測し、さらに、前記さらなる動きベクトルまたは前記さらなる動きベクトルから導出されるバージョンを動きベクトル予測可能な候補の前記リストに加えるようにさらに構成される、先行する請求項のいずれかに記載の装置。
  6. 前記ディペンデントビュー再構成器は、それぞれが、多数の仮説と、仮説ごとに、動き/視差動きベクトルと、参照ビューの前記現在のピクチャおよび前記ディペンデントビュー(22)の前に復号化されたピクチャを含む参照ピクチャのリストから参照ピクチャを特定する参照インデックスとを含む、動き/視差パラメータ候補のリストである動き/視差ベクトル予測因子候補のリストを介して動きベクトル予測因子候補の前記リストの導出を実行するように構成され、前記ディペンデントビュー再構成器は、動き/視差パラメータを前記参照ビューの前記現在のピクチャの前記決定されたブロックと関連する動き/視差パラメータに依存する動き/視差パラメータ候補の前記リストに加え、さらに、前記インデックス情報によって特定される動き/視差パラメータ候補に依存する動き/視差パラメータを用いて動き/視差補償予測を前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックに実行することによって前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックを再構成するように構成される、先行する請求項のいずれかに記載の装置。
  7. マルチビューデータストリームにマルチビュー信号を符号化するための装置であって、
    前記マルチビュー信号の前に符号化された部分と関連する動きおよび視差ベクトルを介して、ディペンデントビュー(22)の現在のピクチャおよび前記ディペンデントビュー(22)の現在のブロックで前記マルチビュー信号の参照ビューの現在のピクチャ間の視差を表す、少なくとも1つのブロックのための視差ベクトルを決定し、
    決定された視差ベクトルを用いて前記参照ビューの前記現在のピクチャ内のブロックを決定し、
    動きベクトルを前記参照ビューの前記ピクチャの決定されたブロックと関連する動きベクトルに依存する動きベクトル予測因子候補のリストに加える
    ことによって、前記マルチビュー信号のディペンデントビュー(22)において現在のピクチャのブロックの少なくとも1つのために、動きベクトル予測因子候補のリストを導出し、
    前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックのために、動きベクトル予測因子候補の前記リストの1つの動きベクトル予測因子候補を特定するインデックス情報を、前記マルチビューデータストリームに挿入し、さらに
    特定された動きベクトル候補に依存する動きベクトルを用いて前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックの動き補償予測を実行することによって前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックを符号化する
    ように構成されるディペンデントビューエンコーダを含む、装置。
  8. マルチビューデータストリームに符号化されるマルチビュー信号を再構成するための装置であって、
    参照ビュー(20)についての前記マルチビューデータストリーム(14)内に送信される動きデータ(42)に基づいて動き補償予測を用いて前記マルチビュー信号(12)の参照ビュー(20)の現在のピクチャ(32t1)を再構成するように構成される参照ビュー再構成器(24)、
    前記参照ビュー(20)についての前記動きデータ(42)を前記参照ビュー(20)の前のピクチャの深度マップ推定(74)に適用することによって前記参照ビュー(20)の前記現在のピクチャ(32t1)の深度マップ推定(64)を生成し(71)、さらに
    ディペンデントビュー(22)の現在のピクチャ(32t2)の深度マップ推定(64)を得るために前記参照ビュー(20)の前記現在のピクチャ(32t1)の前記更新された深度マップ推定(74)を前記ディペンデントビュー(22)にワープする(76)
    ことによって前記ディペンデントビュー(22)の前記現在のピクチャ(32t2)の深度マップを推定するように構成される深度推定器(28)、および
    前記深度マップ推定を用いて前記マルチビューデータストリームのディペンデントビュー部分から前記ディペンデントビューの前記現在のピクチャを再構成するように構成されるディペンデントビュー再構成器(26)を含む、装置。
  9. 前記動きデータ(42)は、ブロック粒度で定義される、請求項8に記載の装置。
  10. 前記ディペンデントビュー再構成器(26)は、前記マルチビューデータストリーム(14)の前記ディペンデントビュー部分(38)で構成される前記ディペンデントビュー(22)についての視差および/または動きデータ(54、60)に基づいて視差および/または動き補償予測を用いて前記ディペンデントビュー(22)の前記現在のピクチャ(32t2)を再構成するように構成され、
    前記深度推定器は、前記ディペンデントビュー(22)についての前記視差および/または動きデータ(54、60)を用いて前記ディペンデントビュー(22)の前記現在のピクチャの前記深度マップ推定(64)を更新する(77)ように構成される、請求項8または請求項9に記載の装置。
  11. 前記深度推定器は、前記参照ビュー(20)の前記現在のピクチャ(32t1)の更新された深度マップ推定(74)を得るために前記ディペンデントビュー(22)の前記現在のピクチャ(32t2)の前記更新された深度マップ推定(74)を前記参照ビュー(20)にワープする(78)ように構成され、前記深度推定器(28)は、
    前記参照ビュー(20)の次のピクチャ(32t1)の動きデータ(42)を前記参照ビュー(20)の前記現在のピクチャの前記更新された深度マップ推定(74)に適用することによって前記参照ビュー(20)の前記次のピクチャ(32t1)の深度マップ推定(64)を生成し(79)、さらに
    前記ディペンデントビュー(22)の次の現在のピクチャ(32t2)の前記深度マップ推定(64)を得るために前記参照ビュー(20)の前記次のピクチャ(32t1)の前記更新された深度マップ推定(74)を前記ディペンデントビュー(22)にワープする
    ことによって前記ディペンデントビュー(22)の次のピクチャ(32t2)の前記深度マップを推定するように構成される、請求項10に記載の装置。
  12. 前記ディペンデントビュー再構成器は、前記ディペンデントビューの前記現在のピクチャの前記深度データ推定に基づく前記ディペンデントビューの前記現在のピクチャの動きデータおよび前記参照ビューの前記現在のピクチャについての動きデータを予測し、さらに、予測された動きデータに基づいて動き補償予測を用いて前記ディペンデントビューの前記現在のピクチャを再構成するように構成される、請求項8ないし請求項11のいずれかに記載の装置。
  13. 前記現在のビュー再構成器は、前記ディペンデントビューの前記現在のピクチャの前記動きデータを予測する際に、前記参照ビューの前記現在のピクチャにおいて対応する位置を決めるために前記ディペンデントビューの前記現在のビューの前記深度データ推定を用い、さらに、前記ディペンデントビューの前記現在のピクチャの前記動きデータを予測するために前記対応する位置で前記参照ビューの前記現在のピクチャについての前記動きデータを用いるように構成される、請求項12のいずれかに記載の装置。
  14. 前記ディペンデントビュー再構成器は、前記ディペンデントビューの前記現在のピクチャの前記深度データ推定に基づいて前記ディペンデントビューの前記現在のピクチャについての視差データを予測し、さらに、予測された視差データに基づいて視差補償予測を用いて前記ディペンデントビューの前記現在のピクチャを再構成するように構成される、請求項8ないし請求項13のいずれかに記載の装置。
  15. 前記ディペンデントビュー再構成器は、前記深度データを視差ベクトルに変換することによって前記ディペンデントビューの前記現在のピクチャの前記深度データ推定に基づいて前記ディペンデントビューの前記現在のピクチャについての前記視差データを予測するように構成される、請求項14に記載の装置。
  16. 前記ディペンデントビュー再構成器は、予測参照として前記深度マップ推定を用いて前記マルチビューデータストリームの前記ディペンデントビュー部分のディペンデントビュー深度マップ部分から前記ディペンデントビューの前記現在のピクチャの深度マップを再構成するように構成される、請求項15に記載の装置。
  17. マルチビューデータストリームにマルチビュー信号を符号化するための装置であって、
    前記マルチビューデータストリームを介して参照ビューのための動きデータを送信することによって前記参照ビューについての動きデータに基づいて動き補償予測を用いて前記マルチビュー信号の参照ビューの現在のピクチャを符号化するように構成される参照ビューエンコーダ、
    前記参照ビュー(20)についての前記動きデータ(42)を前記参照ビュー(20)の前のピクチャの深度マップ推定(74)に適用することによって前記参照ビュー(20)の前記現在のピクチャ(32t1)の深度マップ推定(64)を生成し(71)、さらに
    前記ディペンデントビュー(22)の前記現在のピクチャ(32t2)の前記深度マップ推定(64)を得るために前記参照ビュー(20)の前記現在のピクチャ(32t1)の前記更新された深度マップ推定(74)を前記ディペンデントビュー(22)にワープする(76)
    ことによって前記ディペンデントビュー(22)の前記現在のピクチャ(32t2)の深度マップを推定するように構成される深度推定器、および
    前記深度マップ推定を用いて前記ディペンデントビューの前記現在のピクチャを前記マルチビューデータストリームのディペンデントビュー部分に符号化するように構成されるディペンデントビューエンコーダを含む、装置。
  18. マルチビューデータストリームに符号化されるマルチビュー信号を再構成するための方法であって、
    前記マルチビュー信号の前に復号化された部分と関連する動きおよび視差ベクトルを介して、ディペンデントビュー(22)の現在のピクチャおよび前記ディペンデントビュー(22)の前記現在のピクチャのブロックの少なくとも1つのブロックで前記マルチビュー信号の参照ビューの現在のピクチャ間の視差を表す、前記少なくとも1つのブロックについての視差ベクトルを決定し、
    決定された視差ベクトルを用いて前記参照ビューの前記現在のピクチャ内のブロックを決定し、
    動きベクトルを前記参照ビューの前記ピクチャの決定されたブロックと関連する動きベクトルに依存する動きベクトル予測因子候補のリストに加える
    ことによって、前記マルチビュー信号のディペンデントビュー(22)において現在のピクチャのブロックの少なくとも1つのために、動きベクトル予測因子候補のリストを導出するステップ、
    前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックのために、前記マルチビューデータストリームから、動きベクトル予測因子候補の前記リストの1つの動きベクトル予測因子候補を特定するインデックス情報を抽出するステップ、および
    特定された動きベクトル候補に依存する動きベクトルを用いて前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックの動き補償予測を実行することによって前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックを再構成するステップを含む、方法。
  19. マルチビューデータストリームにマルチビュー信号を符号化するための方法であって、
    前記マルチビュー信号の前に符号化された部分と関連する動きおよび視差ベクトルを介して、ディペンデントビュー(22)の現在のピクチャおよび前記ディペンデントビュー(22)の現在のブロックで前記マルチビュー信号の参照ビューの現在のピクチャ間の視差を表す、少なくとも1つのブロックのための視差ベクトルを決定し、
    決定された視差ベクトルを用いて前記参照ビューの前記現在のピクチャ内のブロックを決定し、
    動きベクトルを前記参照ビューの前記ピクチャの決定されたブロックと関連する動きベクトルに依存する動きベクトル予測因子候補のリストに加える
    ことによって、前記マルチビュー信号のディペンデントビュー(22)において現在のピクチャのブロックの少なくとも1つのために、動きベクトル予測因子候補のリストを導出するステップ、
    前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックのために、動きベクトル予測因子候補の前記リストの1つの動きベクトル予測因子候補を特定するインデックス情報を、前記マルチビューデータストリームに挿入するステップ、および
    特定された動きベクトル候補に依存する動きベクトルを用いて前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックの動き補償予測を実行することによって前記ディペンデントビュー(22)の前記現在のピクチャの前記少なくとも1つのブロックを符号化するステップを含む、方法。
  20. マルチビューデータストリームに符号化されるマルチビュー信号を再構成するための方法であって、
    参照ビュー(20)についての前記マルチビューデータストリーム(14)内に送信される動きデータ(42)に基づいて動き補償予測を用いて前記マルチビュー信号(12)の参照ビュー(20)の現在のピクチャ(32t1)を再構成するステップ、
    前記参照ビュー(20)についての前記動きデータ(42)を前記参照ビュー(20)の前のピクチャの深度マップ推定(74)に適用することによって前記参照ビュー(20)の前記現在のピクチャ(32t1)の深度マップ推定(64)を生成し(71)、さらに
    ディペンデントビュー(22)の現在のピクチャ(32t2)の深度マップ推定(64)を得るために前記参照ビュー(20)の前記現在のピクチャ(32t1)の前記更新された深度マップ推定(74)を前記ディペンデントビュー(22)にワープする(76)
    ことによって前記ディペンデントビュー(22)の前記現在のピクチャ(32t2)の深度マップを推定するステップ、および
    前記深度マップ推定を用いて前記マルチビューデータストリームのディペンデントビュー部分から前記ディペンデントビューの前記現在のピクチャを再構成するステップを含む、方法。
  21. マルチビューデータストリームにマルチビュー信号を符号化するための方法であって、
    前記マルチビューデータストリームを介して参照ビューについての動きデータを送信することによって前記参照ビューについての動きデータに基づいて動き補償予測を用いて前記マルチビュー信号の参照ビューの現在のピクチャを符号化するステップ、
    前記参照ビュー(20)についての前記動きデータ(42)を前記参照ビュー(20)の前のピクチャの深度マップ推定(74)に適用することによって前記参照ビュー(20)の前記現在のピクチャ(32t1)の深度マップ推定(64)を生成し(71)、さらに
    前記ディペンデントビュー(22)の前記現在のピクチャ(32t2)の前記深度マップ推定(64)を得るために前記参照ビュー(20)の前記現在のピクチャ(32t1)の前記更新された深度マップ推定(74)を前記ディペンデントビュー(22)にワープする(76)
    ことによって前記ディペンデントビュー(22)の前記現在のピクチャ(32t2)の深度マップを推定するステップ、および
    前記深度マップ推定を用いて前記ディペンデントビューの前記現在のピクチャを前記マルチビューデータストリームのディペンデントビュー部分に符号化するステップを含む、方法。
  22. コンピュータ上で実行されるときに、請求項18または請求項21に記載の方法を実行するためのプログラムコードを有するコンピュータプログラム。
JP2023041766A 2011-11-11 2023-03-16 深度マップの推定および更新を用いる効率的なマルチビュー符号化 Pending JP2023085341A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201161558651P 2011-11-11 2011-11-11
US61/558,651 2011-11-11
JP2019105062A JP7210381B2 (ja) 2011-11-11 2019-06-05 デプスマップの推定および更新を用いる効率的なマルチビュー符号化
JP2021100230A JP7248741B2 (ja) 2011-11-11 2021-06-16 デプスマップの推定および更新を用いる効率的なマルチビュー符号化

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021100230A Division JP7248741B2 (ja) 2011-11-11 2021-06-16 デプスマップの推定および更新を用いる効率的なマルチビュー符号化

Publications (1)

Publication Number Publication Date
JP2023085341A true JP2023085341A (ja) 2023-06-20

Family

ID=47257762

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2014540483A Active JP6178326B2 (ja) 2011-11-11 2012-11-09 デプスマップの推定および更新を用いる効率的なマルチビュー符号化
JP2017137033A Active JP6659628B2 (ja) 2011-11-11 2017-07-13 デプスマップの推定および更新を用いる効率的なマルチビュー符号化
JP2019105062A Active JP7210381B2 (ja) 2011-11-11 2019-06-05 デプスマップの推定および更新を用いる効率的なマルチビュー符号化
JP2021100230A Active JP7248741B2 (ja) 2011-11-11 2021-06-16 デプスマップの推定および更新を用いる効率的なマルチビュー符号化
JP2023041766A Pending JP2023085341A (ja) 2011-11-11 2023-03-16 深度マップの推定および更新を用いる効率的なマルチビュー符号化

Family Applications Before (4)

Application Number Title Priority Date Filing Date
JP2014540483A Active JP6178326B2 (ja) 2011-11-11 2012-11-09 デプスマップの推定および更新を用いる効率的なマルチビュー符号化
JP2017137033A Active JP6659628B2 (ja) 2011-11-11 2017-07-13 デプスマップの推定および更新を用いる効率的なマルチビュー符号化
JP2019105062A Active JP7210381B2 (ja) 2011-11-11 2019-06-05 デプスマップの推定および更新を用いる効率的なマルチビュー符号化
JP2021100230A Active JP7248741B2 (ja) 2011-11-11 2021-06-16 デプスマップの推定および更新を用いる効率的なマルチビュー符号化

Country Status (9)

Country Link
US (5) US10097810B2 (ja)
EP (2) EP2777267B1 (ja)
JP (5) JP6178326B2 (ja)
KR (8) KR102029401B1 (ja)
CN (2) CN110139108B (ja)
BR (1) BR112014011425B1 (ja)
HK (1) HK1202208A1 (ja)
IN (1) IN2014KN00990A (ja)
WO (1) WO2013068547A2 (ja)

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8867854B2 (en) * 2008-10-01 2014-10-21 Electronics And Telecommunications Research Institute Image encoder and decoder using undirectional prediction
KR101356448B1 (ko) 2008-10-01 2014-02-06 한국전자통신연구원 예측 모드를 이용한 복호화 장치
TWI580264B (zh) * 2011-11-10 2017-04-21 Sony Corp Image processing apparatus and method
EP2777273B1 (en) 2011-11-11 2019-09-04 GE Video Compression, LLC Efficient multi-view coding using depth-map estimate for a dependent view
KR102029401B1 (ko) 2011-11-11 2019-11-08 지이 비디오 컴프레션, 엘엘씨 깊이-맵 추정 및 업데이트를 사용한 효율적인 멀티-뷰 코딩
EP2781091B1 (en) 2011-11-18 2020-04-08 GE Video Compression, LLC Multi-view coding with efficient residual handling
US20130176390A1 (en) * 2012-01-06 2013-07-11 Qualcomm Incorporated Multi-hypothesis disparity vector construction in 3d video coding with depth
JPWO2013111551A1 (ja) 2012-01-27 2015-05-11 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 動画像符号化方法、動画像符号化装置、動画像復号方法、および、動画像復号装置
WO2013128832A1 (ja) * 2012-03-02 2013-09-06 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
US20150036753A1 (en) * 2012-03-30 2015-02-05 Sony Corporation Image processing device and method, and recording medium
US9729849B2 (en) * 2012-04-19 2017-08-08 Intel Corporation 3D video coding including depth based disparity vector calibration
CN104396251A (zh) * 2012-04-23 2015-03-04 三星电子株式会社 使用用于多视点视频预测的参考列表对多视点视频进行编码的方法及其装置以及使用用于多视点视频预测的参考列表对多视点视频进行解码的方法及其装置
KR102106536B1 (ko) * 2012-04-25 2020-05-06 삼성전자주식회사 다시점 비디오 예측을 위한 참조픽처세트를 이용하는 다시점 비디오 부호화 방법 및 그 장치, 다시점 비디오 예측을 위한 참조픽처세트를 이용하는 다시점 비디오 복호화 방법 및 그 장치
PL2847996T3 (pl) 2012-05-09 2021-04-19 Sun Patent Trust Sposoby wykonywania predykcji wektora ruchu, sposoby kodowania i dekodowania oraz służące do tego urządzenia
CN104662910B (zh) * 2012-09-21 2018-04-10 寰发股份有限公司 3d视频编码中的虚拟深度值的方法和装置
EP2904803A1 (en) 2012-10-01 2015-08-12 GE Video Compression, LLC Scalable video coding using derivation of subblock subdivision for prediction from base layer
US10075728B2 (en) * 2012-10-01 2018-09-11 Inria Institut National De Recherche En Informatique Et En Automatique Method and device for motion information prediction refinement
KR101421411B1 (ko) 2012-11-14 2014-07-22 에스케이플래닛 주식회사 지도정보 제공 방법, 이를 위한 시스템, 이를 위한 단말기 및 이를 위한 서비스장치
US10334259B2 (en) 2012-12-07 2019-06-25 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
US9635357B2 (en) * 2013-02-26 2017-04-25 Qualcomm Incorporated Neighboring block disparity vector derivation in 3D video coding
US9596448B2 (en) * 2013-03-18 2017-03-14 Qualcomm Incorporated Simplifications on disparity vector derivation and motion vector prediction in 3D video coding
JP6154643B2 (ja) * 2013-03-29 2017-06-28 Kddi株式会社 動画像符号化装置、動画像符号化装置のデプスイントラ予測方法およびプログラム、ならびに動画像復号装置、動画像復号装置のデプスイントラ予測方法およびプログラム
WO2014166349A1 (en) 2013-04-10 2014-10-16 Mediatek Inc. Method and apparatus of disparity vector derivation for three-dimensional and multi-view video coding
KR101854003B1 (ko) 2013-07-02 2018-06-14 경희대학교 산학협력단 복수의 레이어를 포함하는 영상의 부호화 및 복호화 방법
JP2016526853A (ja) 2013-07-12 2016-09-05 サムスン エレクトロニクス カンパニー リミテッド 深さ基盤ディスパリティベクトルを利用するインターレイヤビデオ復号化方法及びその装置、並びに深さ基盤ディスパリティベクトルを利用するインターレイヤビデオ符号化方法及びその装置
CA2909550C (en) * 2013-07-15 2018-04-24 Mediatek Singapore Pte. Ltd. Method of disparity derived depth coding in 3d video coding
JP6545672B2 (ja) 2013-10-18 2019-07-17 エルジー エレクトロニクス インコーポレイティド マルチビュービデオコーディングにおいて、ビュー合成予測方法及びこれを利用したマージ候補リスト構成方法
WO2015093919A1 (ko) 2013-12-20 2015-06-25 삼성전자 주식회사 인터 뷰 예측을 이용한 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
CN103763557B (zh) * 2014-01-03 2017-06-27 华为技术有限公司 一种Do‑NBDV获取方法及视频解码装置
KR20160140622A (ko) * 2014-03-20 2016-12-07 니폰 덴신 덴와 가부시끼가이샤 동화상 부호화 장치 및 방법, 및 동화상 복호 장치 및 방법
KR102260146B1 (ko) * 2014-03-31 2021-06-03 인텔렉추얼디스커버리 주식회사 시점 간 움직임 병합 후보 유도 방법 및 장치
KR102240570B1 (ko) * 2014-05-13 2021-04-15 삼성전자주식회사 신장 트리 생성 방법 및 장치,스테레오 매칭 방법 및 장치,업 샘플링 방법 및 장치,및 기준 픽셀 생성 방법 및 장치
US9939253B2 (en) * 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
WO2015184605A1 (en) * 2014-06-04 2015-12-10 Mediatek Singapore Pte. Ltd. Depth coding compatible with arbitrary bit-depth
CN104079944B (zh) 2014-06-30 2017-12-01 华为技术有限公司 视频编码的运动矢量列表构建方法和系统
WO2016008157A1 (en) * 2014-07-18 2016-01-21 Mediatek Singapore Pte. Ltd. Methods for motion compensation using high order motion model
CN112511837A (zh) * 2014-08-20 2021-03-16 弗劳恩霍夫应用研究促进协会 视频合成系统、视频合成方法及计算机可读存储介质
WO2017020807A1 (en) * 2015-07-31 2017-02-09 Versitech Limited Method and system for global motion estimation and compensation
CN108965871B (zh) 2015-09-29 2023-11-10 华为技术有限公司 图像预测的方法及装置
WO2017120776A1 (en) * 2016-01-12 2017-07-20 Shanghaitech University Calibration method and apparatus for panoramic stereo video system
CN107094260A (zh) * 2016-02-17 2017-08-25 浙江大学 导出视差矢量和运动矢量的方法和装置
CN116708783A (zh) * 2016-07-12 2023-09-05 韩国电子通信研究院 图像编码/解码方法以及用于该方法的记录介质
KR102004247B1 (ko) * 2016-11-25 2019-07-29 경희대학교 산학협력단 영상 병렬 처리 방법 및 장치
US10666937B2 (en) * 2016-12-21 2020-05-26 Qualcomm Incorporated Low-complexity sign prediction for video coding
FR3068558A1 (fr) * 2017-07-05 2019-01-04 Orange Procede de codage et decodage d'images,dispositif de codage et decodage et programmes d'ordinateur correspondants
DE102017117859A1 (de) * 2017-08-07 2019-02-07 Osram Opto Semiconductors Gmbh Verfahren zum Betreiben einer autostereoskopischen Anzeigevorrichtung und autostereoskopische Anzeigevorrichtung
JP2019050451A (ja) * 2017-09-07 2019-03-28 キヤノン株式会社 画像処理装置及びその制御方法及びプログラム及び画像処理システム
US10244164B1 (en) 2017-09-11 2019-03-26 Qualcomm Incorporated Systems and methods for image stitching
US10931963B2 (en) * 2017-12-07 2021-02-23 Tencent America LLC Method and apparatus for video coding
TWI728390B (zh) 2018-06-29 2021-05-21 大陸商北京字節跳動網絡技術有限公司 查找表尺寸
CN110662043B (zh) 2018-06-29 2021-12-21 北京字节跳动网络技术有限公司 一种用于处理视频数据的方法、装置和计算机可读介质
TWI731360B (zh) 2018-06-29 2021-06-21 大陸商北京字節跳動網絡技術有限公司 查找表的使用條件
EP3791585A1 (en) 2018-06-29 2021-03-17 Beijing Bytedance Network Technology Co. Ltd. Partial/full pruning when adding a hmvp candidate to merge/amvp
EP3791586A1 (en) 2018-06-29 2021-03-17 Beijing Bytedance Network Technology Co. Ltd. Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks
CN110662052B (zh) 2018-06-29 2022-07-08 北京字节跳动网络技术有限公司 更新查找表(lut)的条件
EP4322533A3 (en) 2018-06-29 2024-03-06 Beijing Bytedance Network Technology Co., Ltd. Checking order of motion candidates in lut
SG11202012293RA (en) 2018-06-29 2021-01-28 Beijing Bytedance Network Technology Co Ltd Update of look up table: fifo, constrained fifo
WO2020008349A1 (en) 2018-07-02 2020-01-09 Beijing Bytedance Network Technology Co., Ltd. Merge index coding
US11677922B2 (en) 2018-08-12 2023-06-13 Lg Electronics Inc. Apparatus for transmitting a video, a method for transmitting a video, an apparatus for receiving a video, and a method for receiving a video
CN110876058B (zh) * 2018-08-30 2021-09-21 华为技术有限公司 一种历史候选列表更新方法与装置
WO2020053800A1 (en) 2018-09-12 2020-03-19 Beijing Bytedance Network Technology Co., Ltd. How many hmvp candidates to be checked
EP3644604A1 (en) * 2018-10-23 2020-04-29 Koninklijke Philips N.V. Image generating apparatus and method therefor
WO2020143774A1 (en) * 2019-01-10 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Merge with mvd based on geometry partition
JP7275286B2 (ja) 2019-01-10 2023-05-17 北京字節跳動網絡技術有限公司 Lut更新の起動
WO2020143824A1 (en) 2019-01-13 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and shared merge list
WO2020147772A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Motion candidates derivation
WO2020192611A1 (en) 2019-03-22 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Interaction between merge list construction and other tools
CN112040245B (zh) * 2019-06-04 2023-07-21 万维数码有限公司 用于帧内编码深度图多层表示的系统和方法
EP3979649A4 (en) * 2019-06-14 2023-06-07 Hyundai Motor Company METHOD AND DEVICE FOR VIDEO CODING AND DECODING USING INTER PREDICTION
EP3993422A4 (en) * 2019-06-27 2023-07-19 Samsung Electronics Co., Ltd. VIDEO DECODING METHOD AND APPARATUS AND VIDEO CODING METHOD AND APPARATUS
US11356698B2 (en) * 2019-12-30 2022-06-07 Tencent America LLC Method for parameter set reference constraints in coded video stream
US11503266B2 (en) * 2020-03-06 2022-11-15 Samsung Electronics Co., Ltd. Super-resolution depth map generation for multi-camera or other environments
US11615544B2 (en) 2020-09-15 2023-03-28 Toyota Research Institute, Inc. Systems and methods for end-to-end map building from a video sequence using neural camera models
US11494927B2 (en) * 2020-09-15 2022-11-08 Toyota Research Institute, Inc. Systems and methods for self-supervised depth estimation
FR3114716A1 (fr) * 2020-09-29 2022-04-01 Orange Codage et décodage d’une vidéo multi-vues
EP4131960A1 (en) * 2021-08-06 2023-02-08 Koninklijke Philips N.V. Coding hybrid multi-view sensor configurations
WO2023150488A1 (en) * 2022-02-01 2023-08-10 Dolby Laboratories Licensing Corporation Depth differences in place of motion vectors
US20240031596A1 (en) * 2022-07-19 2024-01-25 Tencent America LLC Adaptive motion vector for warped motion mode of video coding
US20240171767A1 (en) * 2022-11-22 2024-05-23 Tencent America LLC Systems and methods for improving warp extend and warp delta signaling with backup candidates

Family Cites Families (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101448162B (zh) 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
EP1558039A1 (en) 2004-01-21 2005-07-27 Deutsche Thomson-Brandt Gmbh Method and apparatus for generating/evaluating prediction information in picture signal encoding/decoding
JP2006202911A (ja) 2005-01-19 2006-08-03 Matsushita Electric Ind Co Ltd 保持具識別装置、部品供給方法、部品実装機
JP5065051B2 (ja) 2005-02-18 2012-10-31 トムソン ライセンシング 低解像度画像から高解像度画像の符号化情報を導出する方法、並びに、係る方法を実現する符号化及び復号化装置
US7876833B2 (en) 2005-04-11 2011-01-25 Sharp Laboratories Of America, Inc. Method and apparatus for adaptive up-scaling for spatially scalable coding
EP1911290A4 (en) 2005-07-08 2010-04-28 Lg Electronics Inc METHOD FOR MODELING A VIDEO SIGNAL CODE INFORMATION FOR COMPRESSING / DECOMPRIMING CODING INFORMATION
RU2411689C2 (ru) 2005-07-11 2011-02-10 Томсон Лайсенсинг Способ и устройство для адаптивного к макроблоку межслойного предсказания внутренней текстуры
WO2007011147A1 (en) 2005-07-18 2007-01-25 Electronics And Telecommunications Research Institute Apparatus of predictive coding/decoding using view-temporal reference picture buffers and method using the same
US8289370B2 (en) 2005-07-20 2012-10-16 Vidyo, Inc. System and method for scalable and low-delay videoconferencing using scalable video coding
KR100678911B1 (ko) 2005-07-21 2007-02-05 삼성전자주식회사 방향적 인트라 예측의 적용을 확장하여 비디오 신호를인코딩하고 디코딩하는 방법 및 장치
EP1927249B1 (en) * 2005-09-21 2018-07-18 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding multi-view video
EP1929783B1 (en) * 2005-09-29 2017-06-21 Samsung Electronics Co., Ltd. Method and apparatus for encoding a multi-view picture using disparity vectors, and computer readable recording medium storing a program for executing the method
KR20080067637A (ko) 2005-10-03 2008-07-21 노키아 코포레이션 독립 변수들에 대한 적응적 가변 길이 코드들
GB0600141D0 (en) 2006-01-05 2006-02-15 British Broadcasting Corp Scalable coding of video signals
ZA200805337B (en) 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
US20070230567A1 (en) 2006-03-28 2007-10-04 Nokia Corporation Slice groups and data partitioning in scalable video coding
CA2655970A1 (en) 2006-07-07 2008-01-10 Telefonaktiebolaget L M Ericsson (Publ) Video data management
US7885471B2 (en) 2006-07-10 2011-02-08 Sharp Laboratories Of America, Inc. Methods and systems for maintenance and use of coded block pattern information
KR101370919B1 (ko) * 2006-07-12 2014-03-11 엘지전자 주식회사 신호처리방법 및 장치
JP5013993B2 (ja) * 2006-07-12 2012-08-29 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 或るシーンの複数のマルチビュービデオを処理する方法及びシステム
US9001899B2 (en) 2006-09-15 2015-04-07 Freescale Semiconductor, Inc. Video information processing system with selective chroma deblock filtering
US9014280B2 (en) 2006-10-13 2015-04-21 Qualcomm Incorporated Video coding with adaptive filtering for motion compensated prediction
JP4999864B2 (ja) 2006-12-28 2012-08-15 日本電信電話株式会社 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記憶媒体
US8199812B2 (en) 2007-01-09 2012-06-12 Qualcomm Incorporated Adaptive upsampling for scalable video coding
KR20080066522A (ko) 2007-01-11 2008-07-16 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
DE102007006663A1 (de) 2007-02-10 2008-08-21 Lts Lohmann Therapie-Systeme Ag Transport von Arzneistoffen über die Blut-Hirn-Schranke mittels Apolipoproteinen
US20080205508A1 (en) 2007-02-22 2008-08-28 Streaming Networks (Pvt.) Ltd. Method and apparatus for low complexity video encoding and decoding
US20100266042A1 (en) * 2007-03-02 2010-10-21 Han Suh Koo Method and an apparatus for decoding/encoding a video signal
US8204129B2 (en) 2007-03-27 2012-06-19 Freescale Semiconductor, Inc. Simplified deblock filtering for reduced memory access and computational complexity
EP2149262A4 (en) * 2007-04-25 2010-09-01 Lg Electronics Inc METHOD AND DEVICE FOR DECODING / CODING A VIDEO SIGNAL
BRPI0811469A8 (pt) 2007-06-28 2019-01-22 Thomson Licensing métodos e dispositivo em um codificador e decodificador para suportar decodificação de ciclo simples de vídeo codificado em imagem multivista
DE602007009730D1 (de) 2007-06-29 2010-11-18 Fraunhofer Ges Forschung Skalierbare videocodierung, die pixelwert-verfeinerungsskalierbarkeit unterstützt
WO2009011492A1 (en) 2007-07-13 2009-01-22 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding stereoscopic image format including both information of base view image and information of additional view image
BRPI0815108A2 (pt) 2007-08-15 2015-01-27 Thomson Licensing Métodos e aparelho para modo de avanço de movimento em vídeo codificado de multi-visitas com o uso de vetores de disparidade regional
US8938009B2 (en) 2007-10-12 2015-01-20 Qualcomm Incorporated Layered encoded bitstream structure
CN101415115B (zh) * 2007-10-15 2011-02-02 华为技术有限公司 基于运动跳跃模式的视频编解码方法及其编解码器
JP5411147B2 (ja) 2007-10-16 2014-02-12 トムソン ライセンシング ビット深さスケーラビリティのためのアーチファクト除去のための方法および装置
US7777654B2 (en) 2007-10-16 2010-08-17 Industrial Technology Research Institute System and method for context-based adaptive binary arithematic encoding and decoding
KR100918862B1 (ko) 2007-10-19 2009-09-28 광주과학기술원 참조영상을 이용한 깊이영상 생성방법 및 그 장치, 생성된깊이영상을 부호화/복호화하는 방법 및 이를 위한인코더/디코더, 그리고 상기 방법에 따라 생성되는 영상을기록하는 기록매체
CN101170702B (zh) * 2007-11-23 2010-08-11 四川虹微技术有限公司 多视角视频编码方法
KR20090055803A (ko) 2007-11-29 2009-06-03 광주과학기술원 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법
CN101911700A (zh) * 2008-01-11 2010-12-08 汤姆逊许可证公司 视频和深度编码
ES2602100T3 (es) 2008-04-16 2017-02-17 Ge Video Compression, Llc Escalabilidad de profundidad de bits
KR20110003549A (ko) 2008-04-25 2011-01-12 톰슨 라이센싱 깊이 신호의 코딩
WO2009131688A2 (en) 2008-04-25 2009-10-29 Thomson Licensing Inter-view skip modes with depth
CN102077246A (zh) * 2008-06-24 2011-05-25 汤姆森特许公司 利用运动补偿进行图像的深度提取的系统和方法
US8166220B2 (en) 2008-08-04 2012-04-24 Sandisk Il Ltd. Device for connection with a storage device and a host
WO2010021666A1 (en) 2008-08-20 2010-02-25 Thomson Licensing Refined depth map
EP2338281A4 (en) * 2008-10-17 2012-08-15 Nokia Corp SHARING THE MOTION VECTOR IN 3D VIDEO CODING
KR101697598B1 (ko) 2008-10-27 2017-02-01 엘지전자 주식회사 가상 뷰 이미지 합성 방법 및 장치
EP2348732A4 (en) * 2008-11-10 2012-05-09 Lg Electronics Inc METHOD AND DEVICE FOR PROCESSING VIDEO SIGNAL BY INTER-VIEW PREDICTION
KR101590511B1 (ko) 2009-01-23 2016-02-02 에스케이텔레콤 주식회사 움직임 벡터 부호화/복호화 장치 및 방법과 그를 이용한 영상 부호화/복호화 장치 및 방법
US9288494B2 (en) 2009-02-06 2016-03-15 Thomson Licensing Methods and apparatus for implicit and semi-implicit intra mode signaling for video encoders and decoders
JP2012523804A (ja) 2009-04-13 2012-10-04 リアルディー インコーポレイテッド 向上した解像度の立体ビデオのエンコード、デコード、および配信
JP4851564B2 (ja) * 2009-06-15 2012-01-11 日本電信電話株式会社 映像符号化方法、映像復号方法、映像符号化プログラム、映像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
EP2265026A1 (en) 2009-06-16 2010-12-22 Canon Kabushiki Kaisha Method and device for deblocking filtering of SVC type video streams during decoding
CN101600108B (zh) * 2009-06-26 2011-02-02 北京工业大学 一种多视点视频编码中的运动和视差联合估计方法
US8665964B2 (en) 2009-06-30 2014-03-04 Qualcomm Incorporated Video coding based on first order prediction and pre-defined second order prediction mode
CN101867813B (zh) * 2010-04-23 2012-05-09 南京邮电大学 面向交互式应用的多视点视频编码方法
US8930562B2 (en) 2010-07-20 2015-01-06 Qualcomm Incorporated Arranging sub-track fragments for streaming video data
CN101917619B (zh) * 2010-08-20 2012-05-09 浙江大学 一种多视点视频编码快速运动估计方法
US20120075436A1 (en) 2010-09-24 2012-03-29 Qualcomm Incorporated Coding stereo video data
US8923395B2 (en) 2010-10-01 2014-12-30 Qualcomm Incorporated Video coding using intra-prediction
CN101986716B (zh) * 2010-11-05 2012-07-04 宁波大学 一种快速深度视频编码方法
US20120114036A1 (en) 2010-11-10 2012-05-10 Hong Kong Applied Science and Technology Research Institute Company Limited Method and Apparatus for Multiview Video Coding
JP6004271B2 (ja) * 2011-01-12 2016-10-05 サン パテント トラスト 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
US20120236115A1 (en) 2011-03-14 2012-09-20 Qualcomm Incorporated Post-filtering in full resolution frame-compatible stereoscopic video coding
US9485517B2 (en) 2011-04-20 2016-11-01 Qualcomm Incorporated Motion vector prediction with motion vectors from multiple views in multi-view video coding
KR20170005464A (ko) 2011-08-30 2017-01-13 노키아 테크놀로지스 오와이 비디오 코딩 및 디코딩을 위한 장치, 방법 및 컴퓨터 프로그램
KR102029401B1 (ko) 2011-11-11 2019-11-08 지이 비디오 컴프레션, 엘엘씨 깊이-맵 추정 및 업데이트를 사용한 효율적인 멀티-뷰 코딩
EP2781091B1 (en) 2011-11-18 2020-04-08 GE Video Compression, LLC Multi-view coding with efficient residual handling

Also Published As

Publication number Publication date
JP7248741B2 (ja) 2023-03-29
US10097810B2 (en) 2018-10-09
KR102641723B1 (ko) 2024-02-29
EP2777267B1 (en) 2019-09-04
BR112014011425A2 (pt) 2017-05-16
CN110139108A (zh) 2019-08-16
JP2014533056A (ja) 2014-12-08
US20210112231A1 (en) 2021-04-15
JP6178326B2 (ja) 2017-08-09
EP2777267A2 (en) 2014-09-17
CN104247432A (zh) 2014-12-24
US20230188694A1 (en) 2023-06-15
KR102090106B1 (ko) 2020-03-17
KR20210132215A (ko) 2021-11-03
BR112014011425B1 (pt) 2022-08-23
HK1202208A1 (en) 2015-09-18
IN2014KN00990A (ja) 2015-10-09
CN110139108B (zh) 2023-07-18
US10477182B2 (en) 2019-11-12
WO2013068547A3 (en) 2013-07-11
KR20190114027A (ko) 2019-10-08
KR102029401B1 (ko) 2019-11-08
KR102318349B1 (ko) 2021-10-27
KR20140092902A (ko) 2014-07-24
US20140341289A1 (en) 2014-11-20
JP2019169972A (ja) 2019-10-03
EP3657795A1 (en) 2020-05-27
KR20200029632A (ko) 2020-03-18
KR101894886B1 (ko) 2018-09-05
KR20230016715A (ko) 2023-02-02
US20180376127A1 (en) 2018-12-27
KR20240027889A (ko) 2024-03-04
KR101662918B1 (ko) 2016-10-05
JP7210381B2 (ja) 2023-01-23
JP2021168479A (ja) 2021-10-21
KR20160117635A (ko) 2016-10-10
WO2013068547A2 (en) 2013-05-16
US11523098B2 (en) 2022-12-06
JP2017216706A (ja) 2017-12-07
US10887575B2 (en) 2021-01-05
JP6659628B2 (ja) 2020-03-04
US20200036956A1 (en) 2020-01-30
KR102492490B1 (ko) 2023-01-30
CN104247432B (zh) 2019-06-11
KR20180100258A (ko) 2018-09-07

Similar Documents

Publication Publication Date Title
JP7248741B2 (ja) デプスマップの推定および更新を用いる効率的なマルチビュー符号化
US11240478B2 (en) Efficient multi-view coding using depth-map estimate for a dependent view
EP3739886A1 (en) Multi-view coding with efficient residual handling
KR20140057373A (ko) 비디오 코딩 및 디코딩을 위한 장치, 방법 및 컴퓨터 프로그램

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230417

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240430