JP2023543048A - マルチビュー映像を符号化及び復号する方法 - Google Patents

マルチビュー映像を符号化及び復号する方法 Download PDF

Info

Publication number
JP2023543048A
JP2023543048A JP2023519376A JP2023519376A JP2023543048A JP 2023543048 A JP2023543048 A JP 2023543048A JP 2023519376 A JP2023519376 A JP 2023519376A JP 2023519376 A JP2023519376 A JP 2023519376A JP 2023543048 A JP2023543048 A JP 2023543048A
Authority
JP
Japan
Prior art keywords
depth
block
view
depth estimation
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023519376A
Other languages
English (en)
Inventor
フェリックス・アンリ
パトリック・ガルス
ゴルドン・クレール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Publication of JP2023543048A publication Critical patent/JP2023543048A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本発明は、符号化デバイスによって実装される、異なる位置又は異なる視野角からの3Dシーンを同時に表すビューを符号化する方法であって、少なくとも1つのビューの奥行き成分について、奥行き成分を少なくとも1つのブロックに分割すること(C2)、ビューの少なくとも1つのテクスチャ成分のテクスチャデータから、少なくとも1つのブロックに関する奥行き情報を得ること(C4)、この情報から少なくとも1つの奥行き推定パラメータを得ること(C5)、少なくとも1つのブロックの奥行き情報が符号化されないため、少なくとも1つの奥行き推定パラメータを符号化すること(C6)を含む方法に関する。

Description

本発明は、概して、特にマルチビュー映像など、没入型映像の分野に関する。より詳細には、本発明は、捕捉される複数のビューを符号化及び復号して、そのような没入型映像を生成すること並びに捕捉されない中間視点を合成することに関する。本発明は、特に、但し排他的ではなく、現在のAVC及びHEVC映像コーダ並びにそれらの拡張(MVC、3D-AVC、MV-HEVC、3D-HEVC等)において実装される映像符号化及び対応する映像復号に適用され得る。
全方位映像、例えば360°映像などを生成するために、360°カメラを使用することは、日常的なことである。このような360°カメラは、球形プラットフォームに設置された数個の2D(二次元)カメラで構成される。各2Dカメラは、同じ視点から見た特定の角度の3D(三次元)シーンを捕捉し、カメラによって捕捉されたビューのセットにより、1つの視点からの360°×180°視野に従って3Dシーンを表す映像を生成することが可能になる。単一の360°カメラを使用して、360°×180°視野に従って3Dシーンを捕捉することも可能である。当然のことながら、このような視野は、小さく、例えば270°×135°になる可能性がある。
次いで、このような360°映像により、ユーザは、あたかもユーザがその中心に位置しているかのようにシーンを見て、周囲全体を360°見渡すことができ、これにより新たな映像の見方が提供される。このような映像は、概して、「頭部装着型デバイス」の略語であるHMDとしても知られるバーチャルリアリティヘッドセットで再生される。しかし、それらの映像は、適切なユーザ対話手段が装備された2Dスクリーン上に表示することも可能である。360°シーンを捕捉するための2Dカメラの数は、使用されるプラットフォームに従って変わる。
しかしながら、見る人は、単一の視点のみからシーンを見ることができるため、上述の360°の手法は、制限される。
見る人が視点を変更できるようにするために、マルチビュー捕捉システムがあり、このシステムでは、各カメラが特定の角度のシーンを捕捉する2Dタイプのカメラのセットによって3Dシーンが捕捉される。シーンにおける没入感覚を強化するために、1つ又は複数の欠落ビュー、すなわちカメラによって捕捉されない視点を表すビューが既存のビューから合成される。
これらの欠落ビュー又は中間ビューの演算処理は、いわゆる「ビュー合成」アルゴリズムによって実行される。例えば、VSRS(「ビュー合成参照」)ソフトウェアは、ビュー合成アルゴリズムとして使用することが可能である。
従来、このような合成アルゴリズムは、各カメラによって異なる時点で捕捉されたビューのテクスチャ成分に基づくだけでなく、「奥行きマップ」と呼ばれるこれらのビューの奥行き成分にも基づく。奥行きマップは、ビューの各画素と、このビューを捕捉したカメラとの間の距離を表す。したがって、各カメラは、それぞれの視点から見て、テクスチャ成分の形態で3Dシーンのビューを捕捉するが、テクスチャ成分には、カメラのそれぞれの視点から見たような3Dシーンの奥行きマップが関連付けられる。奥行きマップを構築するためのいくつかの手段があり、それらは、レーダ、レーザ、現在のビュー及び隣接するビューの画素を使用する演算処理方法である。
テクスチャ成分のセットから奥行きを推定するための既知の技法がある。したがって、文献「(非特許文献1)」に記載されているDERS方法は、少なくとも2つのテクスチャ成分を使用して、2つのビュー間の視差、すなわちピクセルの数において測定される、2つのビュー間の1つの画素の変位を最初に推定する。これを行うために、現在のビューで現在の画素を取り囲むブロックに対して、DERSは、「ブロックマッチング」ステップを連続的に適用して、別のビューにおいて、現在のビューのブロックに対する誤差を最小化するブロックを識別するようにする。この検索は、ビューが較正済みと見なされるため、水平方向に実行される。検索は、所定の視差間隔内で実行される。すなわち、最小視差Dminと最大視差Dmaxとの間にあるすべてのブロックに対してブロックマッチングが行われることになる。シーンの視差「d」と奥行き「Z」との間は、直接リンクしており、視差「d」の画素の奥行き「Z」は、
Z=(b*f)/d
に等しく、式中、「b」は、ビューを捕らえたカメラの光学的中心間の距離であり、「f」は、カメラの焦点距離である。したがって、最小視差Dminは、シーンで想定される最大奥行きZmaxに対応し、最大視差Dmaxは、シーンで想定される最小奥行きZminに対応する。具体的な事例では、シーンの捕捉は、所定の値、例えば0.3mのZmin及び例えば5mのZmaxを特定することによって行われる。これにより、評価される視差仮説の数を決定する値Dmin及びDmaxが直接生成される。例えば、Dmin=2画素及びDmax=192画素であると判定された場合、これは、ブロックマッチング技法がすべての視差仮説D=2,3,4,...,191,192画素のブロックマッチングコストを評価すること、すなわち191個の計算が格納され、互いに比較されることを意味する。このように、DERSアルゴリズムは、各視差と関連付けられたコストの関数として、可能な191個の中から選択する視差と、パラメータSc(「平滑化係数」の略語)を含む1つ又は複数の正則化パラメータとを決める。この係数は、生成された奥行きマップの規則性を決める。したがって、この係数が低ければ、奥行きマップは、より正確になるが、雑音を含むリスクがある一方、この係数が高ければ、奥行きマップは、均一な奥行きのゾーンを有する非常に規則的なものになるが、小さい局所的変動を不十分にのみ表すリスクを伴う。
例えば、IVDE(「没入型映像の奥行き推定」の略語)方法などの他の奥行き推定方法は、「(非特許文献2)」に提示されており、これは、一連のビューの奥行きマップを並行して共同で決定するものである。
従来の没入型映像コーダでは、テクスチャ成分及びそのそれぞれの奥行きマップは、符号化され、例えばユーザのディスプレイデバイスに設置されたデコーダに送られる。デコーダ側では、各ビューが復号され、そのビューのテクスチャ成分の復号を含むビューを復号し、そのビューのテクスチャ成分と関連付けられた奥行きマップを復号する。次いで、合成アルゴリズムは、1つ又は複数の復号済みの奥行きマップから及び1つ又は複数の復号済みのテクスチャ成分から、ユーザによって要求された視点に対応する中間ビューを構築する。
「(非特許文献3)」は、奥行きマップが符号化されない没入型映像コーダについて記載している。ビューのテクスチャ成分のみが符号化され、デコーダに送信される。デコーダ側では、テクスチャ成分が復号され、次いで例えばDERSなどの奥行き推定方法が復号済みのテクスチャ成分に適用されて、推定済みの奥行きマップを生成する。次いで、VSRS(「ビュー合成参照ソフトウェア」の略語)合成アルゴリズムは、これらの推定済みの奥行きマップを使用してビュー合成を実行する。
この技法により、奥行きマップを符号化し、送信する必要がないため、全方位映像の符号化ビットレートが短縮される。さらに、合成されたビューを得るために復号される画素の数は、従来の没入型映像デコーダで使用される数よりも少なくなる。
しかしながら、この技法で使用される復号方法は、デコーダで奥行き推定ステップの実装が必要であるため、計算の点で負荷が高い。さらに、デコーダで推定された奥行きは、オリジナルのテクスチャ成分に比べて品質が劣った復号済みのテクスチャ成分に基づくため、推定された奥行き自体は、それほど品質が良好でない。したがって、この技法で実装されるビュー合成は、ユーザにレンダリングされる画像の品質の点でも、演算処理リソースの消費の点でも最適でないという結果になる。
O.Stankiewicz,K.Wegner,M.Tanimoto and M.Domanski,"Enhanced Depth Estimation Reference Software(DERS)for Free-viewpoint Television",ISO/IEC JTC1/SC29/WG11 Doc.MPEG M31518,Geneva,2013 Dawid Mieloch,Adrian Dziembowski,Jakub Stankowski,Olgierd Stankiewicz,Marek Domanski,Gwangsoon Lee,Yun Young Jeong[MPEG-I Visual]Immersive video depth estimation,ISO/IEC JTC1/SC29/WG11 MPEG2020 m53407 Patrick Garus,Jung Joel,Thomas Maugey,Christine Guillemot.Bypassing Depth Maps Transmission For Immersive Video Coding.PCS 2019-Picture Coding Symposium,Nov 2019,Ningbo,China.pp.1-5.hal-02397800
本発明の目的の1つは、上述の従来技術の欠点を改善することである。
この目的のために、本発明の1つの目的は、符号化デバイスによって実装される、異なる位置又は異なる視野角からの3Dシーンを同時に表すビューを符号化する方法であって、少なくとも1つのビューの奥行き成分について、
- 前記奥行き成分を少なくとも1つのブロックに分割すること、
- 前記ビューの少なくとも1つのテクスチャ成分のテクスチャデータから、前記少なくとも1つのブロックの奥行き情報を得ること、
- この奥行き情報から少なくとも1つの奥行き推定パラメータを得ること、
- 前記少なくとも1つの奥行き推定パラメータを符号化することであって、前記少なくとも1つのブロックの奥行き情報は、符号化されない、符号化すること
を含む方法に関する。
本発明によるこのような符号化方法により、ビューを符号化するとき、このビューと関連付けられた成分又は奥行きマップの奥行きブロックを符号化することを回避し、これによりコーダによって実装される計算を軽減する一方、メモリリソース上に保存することが可能になり、奥行きブロックの符号化されたデータを格納する必要がなくなる。この奥行きブロックは、符号化されないため、この奥行きブロックに関する符号化されたデータは、デコーダに送信されず、これによりコーダとデコーダとの間で送信される情報の信号伝達のコストが低減される。奥行きブロックに関する符号化されたデータの欠如を補い、奥行きブロックの復号を可能にするために、本発明による符号化方法は、奥行きブロックと関連付けられた少なくとも1つの奥行き推定パラメータの符号化を実装し、これにより奥行き推定パラメータをデコーダで使用して、先にこの奥行きブロックを復号することを必要とすることなく、奥行きブロックを再構築することになる。
特定の実施形態によれば、前記少なくとも1つの奥行き推定パラメータは、前記少なくとも1つのブロックの奥行き値のそれぞれよりも大きい、前記少なくとも1つのブロックの奥行き値又は前記少なくとも1つのブロックの奥行き値のそれぞれよりも小さい、前記少なくとも1つのブロックの奥行き値のいずれかである。
この特定の実施形態によれば、デコーダの奥行き推定器は、奥行きブロックを再構築するために、1つ又は複数のビューの再構築されたテクスチャブロックの各画素を用いて、このブロックのそれぞれの可能な対応する奥行きの尤度を評価する必要がなくなる。実際、この実施形態によれば、奥行き推定器は、単に、再構築される奥行きブロックに対して、このブロックの最小奥行き値と最大奥行き値との間にある間隔内でのみ、このブロックの奥行きを推定する。このような奥行き推定は、従来技術の複雑な側面である奥行き推定ステップを大幅に高速化する。
別の特定の実施形態によれば、前記少なくとも1つの奥行き推定パラメータは、奥行き推定方法によって使用されるパラメータである。
この特定の実施形態によれば、既知の奥行き推定方法によって使用される前記奥行き推定パラメータは、オリジナルの奥行きブロックに可能な限り最も近い推定済みの奥行きブロックをもたらすように有利に最適化される。このようなパラメータは、例えば、奥行き推定アルゴリズムに、雑音がほとんどない奥行きマップを見つけさせることを可能にする正則化パラメータであるか、又はそうでなければその信頼度が低すぎる場合、奥行き推定アルゴリズムが奥行き値を改良し続けることを可能にする信頼度パラメータである。
別の特定の実施形態によれば、奥行き推定方法を表す情報は、符号化される。
この特定の実施形態によれば、コーダは、それぞれ所与の内容又はブロックに多かれ少なかれ良好な結果をもたらす可能性のある異なる利用可能な奥行き推定方法を試験すること、現在のブロックで最良の奥行き推定をもたらす奥行き推定方法を選択すること、及びそれをデコーダに送信して、選択された奥行き推定を現在のブロックに適用するために、この選択を符号化することが可能である。
様々な上述の実施形態又は特徴は、個々に又は互いに組み合わせて、上記で定義された符号化方法に追加することができる。
本発明は、異なる位置又は異なる視野角からの3Dシーンを同時に表すビューを符号化するためのデバイスであって、少なくとも1つのビューの奥行き成分について、
- 奥行き成分を少なくとも1つのブロックに分割すること、
- 前記ビューの少なくとも1つのテクスチャ成分のテクスチャデータから、前記少なくとも1つのブロックの奥行き情報を得ること、
- この奥行き情報から少なくとも1つの奥行き推定パラメータを得ること、
- 前記少なくとも1つの奥行き推定パラメータを符号化することであって、前記少なくとも1つのブロックの奥行き情報は、符号化されない、符号化すること
を実装するように構成されるプロセッサを含むデバイスにも関する。
このような符号化デバイスは、特に、上述の符号化方法を実装することができる。
本発明は、復号デバイスによって実装される、異なる位置又は異なる視野角からの3Dシーンを同時に表すビューを復号する方法であって、少なくとも1つのブロックに分割される、少なくとも1つのビューの奥行き成分について、
- データ信号において、前記少なくとも1つのブロックと関連付けられた少なくとも1つの奥行き推定パラメータを読み取ること、
- 前記少なくとも1つの奥行き推定パラメータを復号すること、
- 前記少なくとも1つの奥行き推定パラメータから及び前記ビューの少なくとも1つの再構築されたテクスチャ成分のテクスチャデータから、前記少なくとも1つのブロックの奥行き情報を得ること
を含む方法にも関する。
本発明によるこのような復号方法は、演算処理複雑度が低く、有利にはメモリリソース上に保存することが可能になる。実際に、ブロックの奥行き情報が符号化されず、したがってデコーダに送信されないため、デコーダは、この情報を復号する必要もそれを格納する必要もない。復号時、デコーダが受信したデータ信号において送信された少なくとも1つの奥行き推定パラメータを復号して、ブロックの奥行き情報を再構築しさえすればよく、前記少なくとも1つの奥行き推定パラメータは、奥行き情報よりも送信にコストがかからない。
特定の実施形態によれば、前記少なくとも1つの奥行き推定パラメータは、前記少なくとも1つのブロックの奥行き値のそれぞれよりも大きい、前記少なくとも1つのブロックの奥行き値又は前記少なくとも1つのブロックの奥行き値のそれぞれよりも小さい、前記少なくとも1つのブロックの奥行き値のいずれかである。
特定の実施形態によれば、前記少なくとも1つの奥行き推定パラメータは、奥行き推定方法によって使用されるパラメータである。
別の特定の実施形態によれば、奥行き推定方法を表す情報は、復号される。
様々な上述の実施形態又は特徴は、個々に又は互いに組み合わせて、上記で定義された復号方法に追加することができる。
本発明は、異なる位置又は異なる視野角からの3Dシーンを同時に表すビューを復号するためのデバイスであって、少なくとも1つのブロックに分割される、少なくとも1つのビューの奥行き成分について、
- データ信号において、前記少なくとも1つのブロックと関連付けられた少なくとも1つの奥行き推定パラメータを読み取ること、
- 前記少なくとも1つの奥行き推定パラメータを復号すること、
- 前記少なくとも1つの奥行き推定パラメータから及び前記ビューの少なくとも1つの再構築されたテクスチャ成分のテクスチャデータから、前記少なくとも1つのブロックの奥行き情報を得ること
を実装するように構成されるプロセッサを含むデバイスにも関する。
このような復号デバイスは、特に、上述の復号方法を実装することができる。
本発明は、復号デバイス又はビュー合成デバイスによって実装されるビュー合成方法であって、
- 上記で言及した本発明による復号方法に従ってビューを再構築すること、
- 再構築されたビューから及び前記少なくとも1つのブロックの奥行きを表す、得られた情報から、ビューの少なくとも一部を合成すること
を含むビュー合成方法にも関する。
本発明は、コンピュータプログラムであって、前記プログラムがプロセッサによって実行されると、先に説明した特定の実施形態のいずれか1つに従い、本発明による符号化方法、復号方法又は合成方法を実装するための命令を含むコンピュータプログラムにも関する。
このような命令は、上述の符号化方法を実装する符号化デバイス、上述の復号方法を実装する復号デバイス又は上述の合成方法を実装する合成デバイスの非一時的メモリ媒体に永続的に格納することができる。
このプログラムは、任意のプログラミング言語を使用することができ、ソースコード、オブジェクトコード又はソースコードとオブジェクトコードとの間の中間コードの形態、部分的にコンパイルされた形態若しくは任意の他の望ましい形態などであり得る。
本発明は、上記で言及したようなコンピュータプログラムの命令を含むコンピュータ可読記憶媒体又は情報媒体も対象とする。
記憶媒体は、プログラムを格納することが可能な任意のエンティティ又はデバイスであり得る。例えば、媒体は、ROMなどの記憶手段、例えばCD ROM若しくは超小型電子回路ROM又はさらに磁気記憶手段、例えばUSBキー若しくはハードディスクを含むことができる。
同様に、記憶媒体は、電気ケーブル又は光ケーブルを介して伝達することが可能な電気信号又は光信号など、ワイヤレスで又は他の手段によって伝送可能な媒体であり得る。本発明によるプログラムは、特にインターネットタイプのネットワーク上にダウンロードすることができる。
代わりに、記憶媒体は、プログラムが組み込まれた集積回路であって、上述の符号化方法、上述の復号方法又はさらに上述の合成方法を実行するように適合された集積回路又はそれらの実行時に使用される集積回路であり得る。
他の特徴及び利点は、例示的及び非限定的な例並びに添付の図面として提供される本発明の特定の実施形態を読むことで明らかになるであろう。
本発明の特定の実施形態における、ビューを符号化する方法の進行を表す。 図1の符号化方法で実装される奥行き推定パラメータを得るステップの第1の実施形態を表す。 図1の符号化方法で実装される奥行き推定パラメータを得るステップの第2の実施形態を表す。 図1の符号化方法によって符号化された情報の信号伝達の第1の実施形態を表す。 図1の符号化方法によって符号化された情報の信号伝達の第2の実施形態を表す。 図1の符号化方法を実装する映像符号化デバイスを表す。 本発明の特定の実施形態における、ビューを復号する方法の進行を表す。 図5の復号方法を実装する映像復号デバイスを表す。 本発明の特定の実施形態における、欠落ビュー合成方法の進行を表す。 本発明の特定の実施形態における、図7の合成方法を実装する合成デバイスを表す。 本発明の別の特定の実施形態における、図7の合成方法を実装する合成デバイスを表す。
マルチビュー映像符号化方法の実装形態の例
マルチビュー映像を符号化する方法を以下で説明し、これは、任意のタイプのマルチビュー映像コーダ、例えば、3D-HEVC若しくはMV-HEVC規格又は他の規格に準拠するものを使用することができる。
図1を参照すると、このような符号化方法は、複数のビューV,...,Vの一部を形成する現在のビューに適用され、この複数のビューは、それぞれシーンを捕捉するカメラの複数の視野角又は複数の位置/向きからの3Dシーンを表す。
本発明による符号化方法は、現在の時点において、
- ビューV
- ビューV
- ...、
- ビューV
- ...、
- ビューV
を符号化するものである。
N個の中から考慮した1つのビューは、等しくテクスチャ成分若しくは奥行き成分又はこのビューと関連付けられたマップであり得る。例えば、現在のビューV(1≦i≦N)は、従来、Q(Q≧1)個の画素のテクスチャ成分T及び例えばテクスチャ成分Tのような少なくとも1つのテクスチャ成分のQ個の画素と関連付けられたQ個の奥行き値を有する奥行き成分Pと関連付けられるか、又はN個のうち、ビューV以外のビューのテクスチャ成分と関連付けられる。知られているように、奥行き成分Pは、テクスチャ画像Tから又はそうでなければ例えばLIDAR(「光検知測距」の略語)などのデバイスを使用して3Dシーンの容積測定データを捕捉することによって直接生成することができる。
C1において、現在のビューVが現在の時点において選択され、N個のビューのそれぞれが所定の順序で次々に選択される。
C2において、前記少なくとも1つのビューVの奥行き成分Pが複数のブロックB,B,...,B,...,B(1≦j≦M)に分割される。可能な一実施形態では、単一の奥行きブロックが分割されていない奥行き成分Pに対応すると見なされる。奥行き成分のブロックは、事前定義されたサイズ(例えば、64×64画素)であり、パラメータ化可能な(そして、その後、使用されるサイズが符号化された形態で送信される)もの又はそうでなければHEVC規格で実装さるものと類似した、使用されるサイズの信号伝達を用いる適応可能なものであり得る。後者の場合、奥行き成分Pはまず、最大サイズ(例えば、64×64画素)のブロックに分けられて、次いで、ブロックをより小さいブロックに細分化しなければならないかどうかを表示する2値情報が、事前定義された最小ブロックサイズ(例えば、4×4画素)に達するまで、ブロックごとに繰り返して送信され、この最小ブロックサイズに対して情報は送信されない。これにより、奥行き成分Pのブロックへの細分化を定義することが可能になる。
C3において、奥行き成分Pの現在のブロックBが選択され、奥行き成分Pのブロックがそれぞれ、所定の順序で次々に選択される。
C4において、前記少なくとも1つの現在のブロックBに対して、奥行き情報IPが得られる。それ自体知られているように、テクスチャ成分Tの画素のブロックBTの画素の全部又は一部及び/又はN個のうち、ビューV以外のビューのテクスチャ成分の全部又は一部に対して、これらの画素に対応する奥行き値Z~Zが得られ、画素のブロックBTに対応する奥行きブロックBPを形成する。
C5において、少なくとも1つの奥行き推定パラメータPEが前記奥行き情報IPから得られる。
図2Aに表されている第1の取得実施形態によれば、C51aにおいて、R個の奥行き値Z~Zの中から最大奥行き値Zmax及び/又は最小奥行き値Zminが決定される。
C52aにおいて、Zmin若しくはZmax又は間隔[Zmin,Zmax]が奥行き推定パラメータPEに割り当てられる。
図2Bに表されている第2の取得実施形態によれば、C51bにおいて、奥行き推定方法の少なくとも1つの奥行き推定パラメータPMEが選択される。これは、例えば、上記で言及した奥行き推定アルゴリズムDERSのパラメータである。別の例によれば、例えば、IVDEアルゴリズムなど、別の奥行き推定アルゴリズムのパラメータとすることも可能であろう。DERSアルゴリズムに関して、選択されるパラメータは、例えば、奥行き推定アルゴリズムDERSに、画素のブロックBTに対応する雑音のない奥行きブロックを見つけさせることを可能にする正則化パラメータ又は「平滑化係数」Scである。奥行き推定アルゴリズムのパラメータの他の例、例えば、
- その信頼度が低すぎる場合、DERSアルゴリズムが奥行き値を改良し続けることを可能にするDERSアルゴリズムのパラメータλなどの信頼度パラメータ、
- 例えば、IVDEアルゴリズムにおいて使用され、また、上述の文献「Dawid Mieloch,Adrian Dziembowski,Jakub Stankowski,Olgierd Stankiewicz,Marek Domanski,Gwangsoon Lee,Yun Young Jeong[MPEG-I Visual]Immersive video depth estimation,ISO/IEC JTC1/SC29/WG11 MPEG2020 m53407」に記載されている初期平滑化パラメータβのような平滑化パラメータ
などを使用することも可能であろう。
C52bにおいて、選択された奥行き推定方法の奥行き推定パラメータPMEのX(X≧1)個の可能な値Val,...,Val,...,Val(1≦k≦X)からなる有限集合に対して、X個の推定済みの奥行きブロックBPE,...,BPE,...,BPEがそれぞれ得られる。パラメータScに対して、可能な値の有限集合は、例えば、{0.01,0.02,0.04,0.08,0.16}である。言うまでもなく、現在の映像コンテキストに従って他の値も可能である。
C53bにおいて、奥行きが推定されたX個のブロックBPE,...,BPE,...,BPEの中から、画素のブロックBTから得られた推定済みの奥行きがオリジナルの奥行きブロックBPに最も近いブロックが選択される。このような選択は、例えば、PSNR(「ピーク信号対雑音比」の略語)、平均2乗誤差、差の絶対値合計又は任意の他の同様の測定などの歪み測定を使用して実装される。表されている例では、それは、例えば、選択されている推定済みの奥行きブロックBPEである。
C54bにおいて、C53bにおいて選択された推定済みの奥行きブロックBPEに対して選択された奥行き推定方法の奥行き推定パラメータPMEの値Valは、次いで、奥行き推定パラメータPEの値として選択される。
図1をもう一度参照すると、C6において、奥行き推定パラメータPEは、例えば、CABAC(「コンテキスト適応型2値算術符号化」の略語)などのようなロスレス符号化方法を使用して又はさらにハフマン符号化(Huffman coding)若しくはラムペル-ジフ符号化(Lempel-Ziv coding)によって符号化される。図2Aの例では、それは、値Zmin若しくはZmax又はさらに間隔[Zmin,Zmax]でもあり、それらは、C6において符号化される。図2Bの例では、それは、C6において符号化される正則化パラメータScの値Valであるか、又はさらに他の実施形態では、上述の信頼度パラメータ若しくは平滑化パラメータでもある。この値Valに加えて、別のパラメータの値、例えばステップC54bの終了時に取得することができた上述の信頼度パラメータ又は平滑化パラメータなどを符号化することができる。ステップC6の終了時、符号化された奥行き推定パラメータPEが得られる。
任意選択的に且つこの理由のために図1で点線によって表されているように、C5において使用される奥行き推定方法を表す情報IMEP、例えばDERS又はIVDEは、例えば、CABACなどのロスレス符号化方法を使用してC7において符号化される。このようなIMEP情報は、ビューV又は異なる時点に位置するビューVのシーケンスにおいて符号化することができる。ステップC7の終了時、符号化された情報IMEPが得られる。
C8において、テクスチャ成分Tは、例えば、HEVCなどの従来の映像コーダを使用して符号化される。ステップC8の終了時、符号化されたテクスチャ成分T が得られる。
図3Aに表されている第1の実施形態によれば、符号化された奥行き推定パラメータPE、符号化された情報IMEP及び符号化されたテクスチャ成分T のデータは、本明細書で後述するデコーダに送信されることが意図された同じデータ信号Fに含まれている。
図3Bに表されている第2の実施形態によれば、符号化された奥行き推定パラメータPE及び符号化された情報IMEPは、同じデータ信号Fに含まれる一方、符号化されたテクスチャ成分T のデータは、別のデータ信号F’に含まれ、信号F及びF’は、上述のデコーダに送信されることが意図される。
有利には、本発明に従い、符号化方法は、符号化された奥行きブロックBP を生成しない。その結果、図3A及び図3Bの例では、信号Fは、符号化された奥行きブロックBP を含んでいない。
たった今上記で説明した符号化方法は、次いで、奥行き成分PのそれぞれのブロックB~Bごとに、次いで、ビューV~Vのそれぞれに対して実装することができる。
映像符号化デバイスの実装形態の例
図4は、本発明の特定の実施形態のいずれか1つによる符号化方法を実装するのに適した符号化デバイスCODの単純化された構造を提示する。
本発明の特定の実施形態によれば、符号化方法によって実行されるアクションは、コンピュータプログラム命令によって実装される。そのために、符号化デバイスCODは、従来のコンピュータのアーキテクチャを有し、特にメモリMEM_Cと、例えばプロセッサPROC_Cが装備された処理ユニットUT_Cとを含み、メモリMEM_Cに格納されたコンピュータプログラムPG_Cによって駆動される。コンピュータプログラムPG_Cは、プログラムがプロセッサPROC_Cによって実行されると、上記で説明したような符号化方法のアクションを実装するための命令を含む。
初期化に際して、コンピュータプログラムPG_Cのコード命令は、プロセッサPROC_Cによって実行される前に、例えば、RAMメモリ(表示せず)にロードされる。処理ユニットUT_CのプロセッサPROC_Cは、特に、コンピュータプログラムPG_Cの命令に従い、上記で説明した符号化方法のアクションを実装する。
マルチビュー映像復号方法の実装形態の例
任意のタイプの、例えば、3D-HEVC若しくはMV-HEVC規格又は他の規格に準拠するマルチビュー映像デコーダを使用することが可能なマルチビュー映像を復号する方法について以下で説明する。
図5を参照すると、このような復号方法は、上述の符号化方法に従って符号化された現在のビューを表すデータ信号に適用され、前記現在のビューは、複数のビューV,...,Vの一部を形成している。
本発明による復号方法は、
- 符号化されたビューVを表すデータ信号、
- 符号化されたビューVを表すデータ信号、
- ...,
- 符号化されたビューVを表すデータ信号、
- ...,
- 符号化されたビューVを表すデータ信号
を復号するものである。
復号方法は、再構築される符号化された現在のビューVを表すデータ信号F(図3A)又はデータ信号F及びF’(図3B)に対して以下を含む。
D1において、符号化された現在のビューVが現在の時点で選択され、N個のビューのそれぞれが所定の順序で次々に選択される。
D2において、前記少なくとも1つのビューVの再構築される奥行き成分Pが複数のブロックB,B,...,B,...,B(1≦j≦M)に分割される。可能な一実施形態では、単一の奥行きブロックが分割されていない奥行き成分Pに対応すると見なされる。奥行きブロックは、事前定義されたサイズ(例えば、64×64画素)であり、パラメータ化可能な(そして、その後、符号化された形態で送信された、使用されるサイズが復号される)もの又はそうでなければHEVC規格で実装され、信号Fにおいて読み取られるものと類似した、使用されるサイズの信号伝達を用いる適応可能なものであり得る。後者の場合、奥行き成分Pはまず、最大サイズ(例えば、64×64画素)のブロックに分けられて、次いで、例えば、信号F又は別の信号において、ブロックをより小さいブロックに細分化しなければならないかどうかを表示する2値情報が、事前定義された最小ブロックサイズ(例えば、4×4画素)に達するまで、ブロックごとに繰り返して読み取られ、この最小ブロックサイズに対して情報は読み取られない。これにより、奥行き成分Pのブロックへの細分化を定義することが可能になる。
D3において、奥行き成分Pの現在のブロックBが選択され、奥行き成分Pのブロックがそれぞれ、所定の順序で次々に選択される。
D4において、任意選択的に且つこの理由のために図5で点線によって表されているように、C5(図1)において使用された奥行き推定方法を表す符号化された情報IMEPがデータ信号Fにおいて読み取られる(図3A又は図3B)。
D5において、符号化された情報IMEPは、例えば、CABACなどのロスレス復号方法を使用して又はさらにハフマン復号若しくはラムペル-ジフ復号によっても復号される。このような符号化された情報IMEPは、現在のビューV又は異なる時点に位置するビューVのシーケンスにおいて復号することができる。ステップD5の終了時、情報IMEPが得られる。
任意選択的なステップD4及びD5に代えて、C5において使用された奥行き推定方法をデコーダで事前定義することも可能である。この場合、奥行き推定方法を表すIMEP情報が直接利用可能である。
D6において、奥行き成分Pの、再構築される現在のブロックBと関連付けられた少なくとも1つの符号化された奥行き推定パラメータPEが図3A又は図3Bのデータ信号Fにおいて読み取られる。
D7において、前記少なくとも1つの符号化された奥行き推定パラメータPEは、例えば、CABACなどのロスレス復号方法を使用して又はそうでなければハフマン復号若しくはラムペル-ジフ復号によっても復号される。C6において符号化されたのが奥行き値Zmin又はZmaxであった場合又はそうでなければ間隔[Zmin,Zmax]であった場合、
- 奥行き値ZminがD7において復号され、奥行き推定パラメータPEに割り当てられるか、
- 若しくは奥行き値ZmaxがD7において復号され、奥行き推定パラメータPEに割り当てられるか、又は
- 奥行き値の間隔[Zmin,Zmax]がD7において復号され、奥行き推定パラメータPEに割り当てられるか
のいずれかである。
C6において符号化されたものが正則化パラメータScの値Valである場合及び/又は他の実施形態による上述の信頼度パラメータ又は平滑化パラメータの値Valである場合にも、D7において復号され、奥行き推定パラメータPEに割り当てられるのは、値Valである。この値Valに加えて、別のパラメータの値、例えば、ステップC54bの終了時に得られた上述の信頼度パラメータ又は平滑化パラメータなどを復号することができる。
D8において、前記少なくとも1つのビューVのテクスチャ成分Tは、例えば、従来の映像デコーダ、例えば、HEVCなどを用いて再構築される。再構築されたテクスチャ成分T は、ステップD8の終了時に得られる。言うまでもなく、ステップD8は、データ信号F(図3A)又はF’(図3B)を受信すると、ステップD1~D7前又は任意の時点で実装することができる。この目的のために、符号化されたテクスチャ成分T のデータは、信号F(図3A)又はF’(図3B)において読み取られ、次いで、再構築され、再構築されたテクスチャ成分T を生成する。
D9において、前記現在のブロックBの奥行き情報IPは、D7において復号された前記少なくとも1つの奥行き推定パラメータPE及び前記再構築されたテクスチャ成分T 又はN個のうち、ビューV以外のビューの再構築されたテクスチャ成分のテクスチャデータ(画素)から得られる。
ステップD9の第1の実施形態によれば、事前定義された奥行き推定方法又はD5において得られたIMEPパラメータに対応するものを使用することにより、奥行き検索は、再構築される奥行き成分Pの現在のブロックBに関する奥行き値Zmin若しくは奥行き値Zmax又はさらに奥行き値の間隔[Zmin,Zmax]を使用して、再構築されたテクスチャ成分T のブロックのそれぞれの画素ごとに実装される。このような動作の利点は、理論上可能な最大奥行きと、最小の奥行きとの間(概して、0メートル~無限大)ではなく、最大でも[Zmin,Zmax]との間で現在のブロックBの奥行きを決定する際にある。これにより、試験される奥行きの数を大幅に減らすことで、奥行き推定アルゴリズムの複雑性を低減することが可能になる。ステップD9の第1の実施形態の終了時、現在のブロックBに対応する再構築された奥行きブロックBP が得られる。
ステップD9の第2の実施形態によれば、事前定義された奥行き推定方法又はD5において得られたIMEPパラメータに対応するものを、D7において復号された正則化パラメータScの値(又は例えば信頼度パラメータ若しくは平滑化パラメータの値)Valを使用することにより、現在のブロックBに適用させて、再構築されたテクスチャ成分T のブロックのそれぞれの画素ごとに奥行き捜索を行う。ステップD9の第2の実施形態の終了時、現在のブロックBに対応する再構築された奥行きブロックBP が得られる。この第2の実施形態により、再構築された奥行きブロックBP は、図1の符号化方法中にC4で得られた奥行きブロックBPに限りなく近づき、有利には、本発明によれば、この奥行きブロックBPは、信号F又はF’において符号化も送信もされていない。
D10において、再構築された奥行きブロックBP は、次いで、再構築されたテクスチャ成分T に対応する、現在は再構築されたP である奥行き成分に含まれる。
たった今上記で説明した復号方法は、次いで、再構築されるそれぞれの画素のブロックB~Bごとに、次いで、再構築されるそれぞれのビューV~Vごとに実装される。
映像復号デバイスの実装形態の例
図6は、本発明の特定の実施形態のいずれか1つによる復号方法を実装するのに適した復号デバイスDECの単純化された構造を提示する。
本発明の特定の実施形態によれば、上述の復号方法によって実行されるアクションは、コンピュータプログラム命令によって実装される。そのために、復号デバイスDECは、コンピュータの従来のアーキテクチャを有し、特にメモリMEM_Dと、処理ユニットUT_Dとを含み、処理ユニットUT_Dは、例えば、プロセッサPROC_Dが装備され、メモリMEM_Dに格納されたコンピュータプログラムPG_Dによって駆動される。コンピュータプログラムPG_Dは、プログラムがプロセッサPROC_Dによって実行されると、上記で説明したような復号方法のアクションを実装するための命令を含む。
初期化に際して、コンピュータプログラムPG_Dのコード命令は、プロセッサPROC_Dによって実行される前に、例えば、RAMメモリ(表示せず)にロードされる。処理ユニットUT_DのプロセッサPROC_Dは、コンピュータプログラムPG_Dの命令に従い、特に上記で説明した復号方法のアクションを実装する。
ビュー合成方法の実装形態の例
図5の復号方法に従って再構築されたビューを使用するビュー合成方法について、ここで、図7を参照しながら説明する。
図7に図示されているように、本発明による合成方法は、図5の復号方法の終了時に得られたN個の再構築されたビューV ,...,V の中から、少なくとも1つの再構築されたビューを使用する。
S1において、少なくとも1つの再構築されたビューV (1≦q≦N)がN個の再構築されたビューの中から選択される。再構築されたビューV は、再構築されたテクスチャ成分T と、それに関連付けられた再構築された奥行き成分P とを含む。
S2において、ユーザが例えばユーザのコンピュータ又はユーザの電話のスクリーン上に表示することを要求したビューなど、欠落ビュー又は中間ビューの少なくとも1つの合成された部分PVsyは、再構築されたテクスチャ成分T から、及びこの再構築されたテクスチャ成分T の画素の再構築されたブロックB と関連付けられた少なくとも1つの再構築された奥行きブロックBP から計算される。なお、1≦y≦Mであるとする。欠落ビュー又は中間ビューの合成された部分PVsyは、例えば、VSRSアルゴリズム、RVS(「参照ビューシンセサイザ」)アルゴリズム、VVS(「汎用的ビューシンセサイザ」)アルゴリズム等、従来の合成アルゴリズムを使用して計算される。
合成デバイスの実装形態の例
図8A又は図8Bは、本発明の特定の実施形態のいずれか1つによる、図7の合成方法を実装するのに適した合成デバイスSYNTの単純化された構造を提示する。
本発明の特定の実施形態によれば、図7の合成方法によって実行されるアクションは、コンピュータプログラム命令によって実装される。そのために、合成デバイスSYNTは、コンピュータの従来のアーキテクチャを有し、特にメモリMEM_Sと、処理ユニットUT_Sとを含み、処理ユニットUT_Sは、例えば、プロセッサPROC_Sが装備され、メモリMEM_Sに格納されたコンピュータプログラムPG_Sによって駆動される。コンピュータプログラムPG_Sは、プログラムがプロセッサPROC_Sによって実行されると、上記で説明したような合成方法のアクションを実装するための命令を含む。
初期化に際して、コンピュータプログラムPG_Sのコード命令は、プロセッサPROC_Sによって実行される前に、例えば、RAMメモリ(表示せず)にロードされる。処理ユニットUT_SのプロセッサPROC_Sは、コンピュータプログラムPG_Sの命令に従い、特に上記で説明した合成方法のアクションを実装する。
図8Aに表されている実施形態によれば、合成デバイスSYNTは、図8Aに図示されているように、デコーダDECの出力に配置されている。
図8Bに表されている実施形態によれば、合成デバイスSYNTは、図8Bに図示されているように、デコーダDECの不可分の部分を形成している。
C1 ステップ
C2 ステップ
C3 ステップ
C4 ステップ
C5 ステップ
C6 ステップ
C7 ステップ
C8 ステップ

Claims (15)

  1. 符号化デバイスによって実装される、異なる位置又は異なる視野角からの3Dシーンを同時に表すビューを符号化する方法であって、少なくとも1つのビューの奥行き成分について、
    - 前記奥行き成分を少なくとも1つのブロックに分割すること(C2)、
    - 前記ビューの少なくとも1つのテクスチャ成分のテクスチャデータから、前記少なくとも1つのブロックの奥行き情報を得ること(C4)、
    - 前記情報から少なくとも1つの奥行き推定パラメータを得ること(C5)、
    - 前記少なくとも1つの奥行き推定パラメータを符号化すること(C6)であって、前記少なくとも1つのブロックの前記奥行き情報は、符号化されない、符号化すること(C6)
    を含む方法。
  2. 前記少なくとも1つの奥行き推定パラメータは、前記少なくとも1つのブロックの奥行き値のそれぞれよりも大きい、前記少なくとも1つのブロックの奥行き値(Zmax)又は前記少なくとも1つのブロックの前記奥行き値のそれぞれよりも小さい、前記少なくとも1つのブロックの奥行き値(Zmin)のいずれかである、請求項1に記載の符号化方法。
  3. 前記少なくとも1つの奥行き推定パラメータは、奥行き推定方法によって使用されるパラメータ(Sc;λ;β)である、請求項1に記載の符号化方法。
  4. 奥行き推定方法を表す情報は、符号化される、請求項1~3のいずれか一項に記載の符号化方法。
  5. 異なる位置又は異なる視野角に従って3Dシーンを同時に表すビューを符号化するためのデバイスであって、少なくとも1つのビューの奥行き成分について、
    - 前記奥行き成分を少なくとも1つのブロックに分割すること、
    - 前記ビューの少なくとも1つのテクスチャ成分のテクスチャデータから、前記少なくとも1つのブロックの奥行き情報を得ること、
    - 前記情報から少なくとも1つの奥行き推定パラメータを得ること、
    - 前記少なくとも1つの奥行き推定パラメータを符号化することであって、前記少なくとも1つのブロックの前記奥行き情報は、符号化されない、符号化すること
    を実装するように構成されるプロセッサ(UT_C)を含むデバイス。
  6. コンピュータプログラムであって、それがコンピュータ上で実行されると、請求項1~4のいずれか一項に記載の符号化方法を実装するためのプログラムコード命令を含むコンピュータプログラム。
  7. 請求項6に記載のコンピュータプログラムの命令を含むコンピュータ可読情報媒体。
  8. 復号デバイスによって実装される、異なる位置又は異なる視野角からの3Dシーンを同時に表すビューを復号する方法であって、少なくとも1つのブロックに分割される、少なくとも1つのビューの奥行き成分について、
    - データ信号において、前記少なくとも1つのブロックと関連付けられた少なくとも1つの奥行き推定パラメータを読み取ること(D6)、
    - 前記少なくとも1つの奥行き推定パラメータを復号すること(D7)、
    - 前記少なくとも1つの奥行き推定パラメータから及び前記ビューの少なくとも1つの再構築されたテクスチャ成分のテクスチャデータから、前記少なくとも1つのブロックの奥行き情報を得ること(D9)
    を含む方法。
  9. 前記少なくとも1つの奥行き推定パラメータは、前記少なくとも1つのブロックの奥行き値のそれぞれよりも大きい、前記少なくとも1つのブロックの奥行き値(Zmax)又は前記少なくとも1つのブロックの前記奥行き値のそれぞれよりも小さい、前記少なくとも1つのブロックの奥行き値(Zmin)のいずれかである、請求項8に記載の復号方法。
  10. 前記少なくとも1つの奥行き推定パラメータは、奥行き推定方法によって使用されるパラメータ(Sc)である、請求項8に記載の復号方法。
  11. 奥行き推定方法を表す情報は、復号される、請求項8~10のいずれか一項に記載の復号方法。
  12. 異なる位置又は異なる視野角からの3Dシーンを同時に表すビューを復号するためのデバイスであって、少なくとも1つのブロックに分割される、少なくとも1つのビューの奥行き成分について、
    - データ信号において、前記少なくとも1つのブロックと関連付けられた少なくとも1つの奥行き推定パラメータを読み取ること、
    - 前記少なくとも1つの奥行き推定パラメータを復号すること、
    - 前記少なくとも1つの奥行き推定パラメータから及び前記ビューの少なくとも1つの再構築されたテクスチャ成分のテクスチャデータから、前記少なくとも1つのブロックの奥行き情報を得ること
    を実装するように構成されるプロセッサ(UT_D)を含むデバイス。
  13. 復号デバイス又はビュー合成デバイスによって実装されるビュー合成方法であって、
    - 請求項8~11のいずれか一項に記載の復号方法に従ってビューを再構築すること、
    - 前記再構築されたビューから及び前記少なくとも1つのブロックの奥行きを表す、得られた前記情報から、ビューの少なくとも一部を合成すること
    を含むビュー合成方法。
  14. コンピュータプログラムであって、それがコンピュータ上で実行されると、請求項8~11のいずれか一項に記載の復号方法又は請求項13に記載の合成方法を実装するためのプログラムコード命令を含むコンピュータプログラム。
  15. 請求項14に記載のコンピュータプログラムの命令を含むコンピュータ可読情報媒体。
JP2023519376A 2020-09-29 2021-09-08 マルチビュー映像を符号化及び復号する方法 Pending JP2023543048A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR2009913A FR3114716A1 (fr) 2020-09-29 2020-09-29 Codage et décodage d’une vidéo multi-vues
FR2009913 2020-09-29
PCT/FR2021/051540 WO2022069809A1 (fr) 2020-09-29 2021-09-08 Codage et decodage d'une video multi-vues

Publications (1)

Publication Number Publication Date
JP2023543048A true JP2023543048A (ja) 2023-10-12

Family

ID=74553905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023519376A Pending JP2023543048A (ja) 2020-09-29 2021-09-08 マルチビュー映像を符号化及び復号する方法

Country Status (8)

Country Link
US (1) US20230412831A1 (ja)
EP (1) EP4222950A1 (ja)
JP (1) JP2023543048A (ja)
KR (1) KR20230078669A (ja)
CN (1) CN116325721A (ja)
BR (1) BR112023005339A2 (ja)
FR (1) FR3114716A1 (ja)
WO (1) WO2022069809A1 (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101628383B1 (ko) * 2010-02-26 2016-06-21 연세대학교 산학협력단 영상 처리 장치 및 방법
WO2013068547A2 (en) * 2011-11-11 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Efficient multi-view coding using depth-map estimate and update

Also Published As

Publication number Publication date
FR3114716A1 (fr) 2022-04-01
US20230412831A1 (en) 2023-12-21
EP4222950A1 (fr) 2023-08-09
WO2022069809A1 (fr) 2022-04-07
BR112023005339A2 (pt) 2023-04-25
KR20230078669A (ko) 2023-06-02
CN116325721A (zh) 2023-06-23

Similar Documents

Publication Publication Date Title
CN113615204B (zh) 点云数据发送装置、点云数据发送方法、点云数据接收装置和点云数据接收方法
US11412233B2 (en) Methods for MR-DIBR disparity map merging and disparity threshold determination
US20190222821A1 (en) Methods for Full Parallax Compressed Light Field 3D Imaging Systems
US10389994B2 (en) Decoder-centric UV codec for free-viewpoint video streaming
US11159824B1 (en) Methods for full parallax light field compression
US20210352323A1 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
KR101340911B1 (ko) 다중 뷰들의 효율적인 인코딩 방법
Mieloch et al. Overview and efficiency of decoder-side depth estimation in MPEG immersive video
Graziosi et al. Depth assisted compression of full parallax light fields
US20230290006A1 (en) Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
WO2019211541A2 (fr) Procédé et dispositif de décodage d'une vidéo multi-vue, et procédé et dispositif de traitement d'images
WO2018127629A1 (en) Method and apparatus for video depth map coding and decoding
WO2015056712A1 (ja) 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、動画像符号化プログラム、及び動画像復号プログラム
JP2024525583A (ja) ポイントクラウドデータ送信装置、ポイントクラウドデータ送信方法、ポイントクラウドデータ受信装置、及びポイントクラウドデータ受信方法
JP2023543048A (ja) マルチビュー映像を符号化及び復号する方法
KR20210135322A (ko) 멀티-뷰 비디오 시퀀스를 코딩 및 디코딩하기 위한 방법들 및 디바이스들
WO2011122168A1 (ja) 画像符号化装置、画像復号装置、画像符号化装置の制御方法、画像復号装置の制御方法、制御プログラムおよび記録媒体
WO2019185983A1 (en) A method, an apparatus and a computer program product for encoding and decoding digital volumetric video
US20230419519A1 (en) Depth estimation method in an immersive video context
US20230065861A1 (en) Method and device for processing multi-view video data
Müller et al. 3D video compression
JP2024510315A (ja) ポイントクラウドデータ送信装置、ポイントクラウドデータ送信方法、ポイントクラウドデータ受信装置及びポイントクラウドデータ受信方法
JP2013126006A (ja) 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム及び映像復号プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240722