JP2023543048A - マルチビュー映像を符号化及び復号する方法 - Google Patents
マルチビュー映像を符号化及び復号する方法 Download PDFInfo
- Publication number
- JP2023543048A JP2023543048A JP2023519376A JP2023519376A JP2023543048A JP 2023543048 A JP2023543048 A JP 2023543048A JP 2023519376 A JP2023519376 A JP 2023519376A JP 2023519376 A JP2023519376 A JP 2023519376A JP 2023543048 A JP2023543048 A JP 2023543048A
- Authority
- JP
- Japan
- Prior art keywords
- depth
- block
- view
- depth estimation
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 96
- 238000004590 computer program Methods 0.000 claims description 23
- 230000015572 biosynthetic process Effects 0.000 claims description 18
- 238000003786 synthesis reaction Methods 0.000 claims description 18
- 238000001308 synthesis method Methods 0.000 claims description 16
- 238000004422 calculation algorithm Methods 0.000 description 19
- 238000009499 grossing Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 230000011664 signaling Effects 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000000205 computational method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004377 microelectronic Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Library & Information Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本発明は、符号化デバイスによって実装される、異なる位置又は異なる視野角からの3Dシーンを同時に表すビューを符号化する方法であって、少なくとも1つのビューの奥行き成分について、奥行き成分を少なくとも1つのブロックに分割すること(C2)、ビューの少なくとも1つのテクスチャ成分のテクスチャデータから、少なくとも1つのブロックに関する奥行き情報を得ること(C4)、この情報から少なくとも1つの奥行き推定パラメータを得ること(C5)、少なくとも1つのブロックの奥行き情報が符号化されないため、少なくとも1つの奥行き推定パラメータを符号化すること(C6)を含む方法に関する。
Description
本発明は、概して、特にマルチビュー映像など、没入型映像の分野に関する。より詳細には、本発明は、捕捉される複数のビューを符号化及び復号して、そのような没入型映像を生成すること並びに捕捉されない中間視点を合成することに関する。本発明は、特に、但し排他的ではなく、現在のAVC及びHEVC映像コーダ並びにそれらの拡張(MVC、3D-AVC、MV-HEVC、3D-HEVC等)において実装される映像符号化及び対応する映像復号に適用され得る。
全方位映像、例えば360°映像などを生成するために、360°カメラを使用することは、日常的なことである。このような360°カメラは、球形プラットフォームに設置された数個の2D(二次元)カメラで構成される。各2Dカメラは、同じ視点から見た特定の角度の3D(三次元)シーンを捕捉し、カメラによって捕捉されたビューのセットにより、1つの視点からの360°×180°視野に従って3Dシーンを表す映像を生成することが可能になる。単一の360°カメラを使用して、360°×180°視野に従って3Dシーンを捕捉することも可能である。当然のことながら、このような視野は、小さく、例えば270°×135°になる可能性がある。
次いで、このような360°映像により、ユーザは、あたかもユーザがその中心に位置しているかのようにシーンを見て、周囲全体を360°見渡すことができ、これにより新たな映像の見方が提供される。このような映像は、概して、「頭部装着型デバイス」の略語であるHMDとしても知られるバーチャルリアリティヘッドセットで再生される。しかし、それらの映像は、適切なユーザ対話手段が装備された2Dスクリーン上に表示することも可能である。360°シーンを捕捉するための2Dカメラの数は、使用されるプラットフォームに従って変わる。
しかしながら、見る人は、単一の視点のみからシーンを見ることができるため、上述の360°の手法は、制限される。
見る人が視点を変更できるようにするために、マルチビュー捕捉システムがあり、このシステムでは、各カメラが特定の角度のシーンを捕捉する2Dタイプのカメラのセットによって3Dシーンが捕捉される。シーンにおける没入感覚を強化するために、1つ又は複数の欠落ビュー、すなわちカメラによって捕捉されない視点を表すビューが既存のビューから合成される。
これらの欠落ビュー又は中間ビューの演算処理は、いわゆる「ビュー合成」アルゴリズムによって実行される。例えば、VSRS(「ビュー合成参照」)ソフトウェアは、ビュー合成アルゴリズムとして使用することが可能である。
従来、このような合成アルゴリズムは、各カメラによって異なる時点で捕捉されたビューのテクスチャ成分に基づくだけでなく、「奥行きマップ」と呼ばれるこれらのビューの奥行き成分にも基づく。奥行きマップは、ビューの各画素と、このビューを捕捉したカメラとの間の距離を表す。したがって、各カメラは、それぞれの視点から見て、テクスチャ成分の形態で3Dシーンのビューを捕捉するが、テクスチャ成分には、カメラのそれぞれの視点から見たような3Dシーンの奥行きマップが関連付けられる。奥行きマップを構築するためのいくつかの手段があり、それらは、レーダ、レーザ、現在のビュー及び隣接するビューの画素を使用する演算処理方法である。
テクスチャ成分のセットから奥行きを推定するための既知の技法がある。したがって、文献「(非特許文献1)」に記載されているDERS方法は、少なくとも2つのテクスチャ成分を使用して、2つのビュー間の視差、すなわちピクセルの数において測定される、2つのビュー間の1つの画素の変位を最初に推定する。これを行うために、現在のビューで現在の画素を取り囲むブロックに対して、DERSは、「ブロックマッチング」ステップを連続的に適用して、別のビューにおいて、現在のビューのブロックに対する誤差を最小化するブロックを識別するようにする。この検索は、ビューが較正済みと見なされるため、水平方向に実行される。検索は、所定の視差間隔内で実行される。すなわち、最小視差Dminと最大視差Dmaxとの間にあるすべてのブロックに対してブロックマッチングが行われることになる。シーンの視差「d」と奥行き「Z」との間は、直接リンクしており、視差「d」の画素の奥行き「Z」は、
Z=(b*f)/d
に等しく、式中、「b」は、ビューを捕らえたカメラの光学的中心間の距離であり、「f」は、カメラの焦点距離である。したがって、最小視差Dminは、シーンで想定される最大奥行きZmaxに対応し、最大視差Dmaxは、シーンで想定される最小奥行きZminに対応する。具体的な事例では、シーンの捕捉は、所定の値、例えば0.3mのZmin及び例えば5mのZmaxを特定することによって行われる。これにより、評価される視差仮説の数を決定する値Dmin及びDmaxが直接生成される。例えば、Dmin=2画素及びDmax=192画素であると判定された場合、これは、ブロックマッチング技法がすべての視差仮説D=2,3,4,...,191,192画素のブロックマッチングコストを評価すること、すなわち191個の計算が格納され、互いに比較されることを意味する。このように、DERSアルゴリズムは、各視差と関連付けられたコストの関数として、可能な191個の中から選択する視差と、パラメータSc(「平滑化係数」の略語)を含む1つ又は複数の正則化パラメータとを決める。この係数は、生成された奥行きマップの規則性を決める。したがって、この係数が低ければ、奥行きマップは、より正確になるが、雑音を含むリスクがある一方、この係数が高ければ、奥行きマップは、均一な奥行きのゾーンを有する非常に規則的なものになるが、小さい局所的変動を不十分にのみ表すリスクを伴う。
Z=(b*f)/d
に等しく、式中、「b」は、ビューを捕らえたカメラの光学的中心間の距離であり、「f」は、カメラの焦点距離である。したがって、最小視差Dminは、シーンで想定される最大奥行きZmaxに対応し、最大視差Dmaxは、シーンで想定される最小奥行きZminに対応する。具体的な事例では、シーンの捕捉は、所定の値、例えば0.3mのZmin及び例えば5mのZmaxを特定することによって行われる。これにより、評価される視差仮説の数を決定する値Dmin及びDmaxが直接生成される。例えば、Dmin=2画素及びDmax=192画素であると判定された場合、これは、ブロックマッチング技法がすべての視差仮説D=2,3,4,...,191,192画素のブロックマッチングコストを評価すること、すなわち191個の計算が格納され、互いに比較されることを意味する。このように、DERSアルゴリズムは、各視差と関連付けられたコストの関数として、可能な191個の中から選択する視差と、パラメータSc(「平滑化係数」の略語)を含む1つ又は複数の正則化パラメータとを決める。この係数は、生成された奥行きマップの規則性を決める。したがって、この係数が低ければ、奥行きマップは、より正確になるが、雑音を含むリスクがある一方、この係数が高ければ、奥行きマップは、均一な奥行きのゾーンを有する非常に規則的なものになるが、小さい局所的変動を不十分にのみ表すリスクを伴う。
例えば、IVDE(「没入型映像の奥行き推定」の略語)方法などの他の奥行き推定方法は、「(非特許文献2)」に提示されており、これは、一連のビューの奥行きマップを並行して共同で決定するものである。
従来の没入型映像コーダでは、テクスチャ成分及びそのそれぞれの奥行きマップは、符号化され、例えばユーザのディスプレイデバイスに設置されたデコーダに送られる。デコーダ側では、各ビューが復号され、そのビューのテクスチャ成分の復号を含むビューを復号し、そのビューのテクスチャ成分と関連付けられた奥行きマップを復号する。次いで、合成アルゴリズムは、1つ又は複数の復号済みの奥行きマップから及び1つ又は複数の復号済みのテクスチャ成分から、ユーザによって要求された視点に対応する中間ビューを構築する。
「(非特許文献3)」は、奥行きマップが符号化されない没入型映像コーダについて記載している。ビューのテクスチャ成分のみが符号化され、デコーダに送信される。デコーダ側では、テクスチャ成分が復号され、次いで例えばDERSなどの奥行き推定方法が復号済みのテクスチャ成分に適用されて、推定済みの奥行きマップを生成する。次いで、VSRS(「ビュー合成参照ソフトウェア」の略語)合成アルゴリズムは、これらの推定済みの奥行きマップを使用してビュー合成を実行する。
この技法により、奥行きマップを符号化し、送信する必要がないため、全方位映像の符号化ビットレートが短縮される。さらに、合成されたビューを得るために復号される画素の数は、従来の没入型映像デコーダで使用される数よりも少なくなる。
しかしながら、この技法で使用される復号方法は、デコーダで奥行き推定ステップの実装が必要であるため、計算の点で負荷が高い。さらに、デコーダで推定された奥行きは、オリジナルのテクスチャ成分に比べて品質が劣った復号済みのテクスチャ成分に基づくため、推定された奥行き自体は、それほど品質が良好でない。したがって、この技法で実装されるビュー合成は、ユーザにレンダリングされる画像の品質の点でも、演算処理リソースの消費の点でも最適でないという結果になる。
O.Stankiewicz,K.Wegner,M.Tanimoto and M.Domanski,"Enhanced Depth Estimation Reference Software(DERS)for Free-viewpoint Television",ISO/IEC JTC1/SC29/WG11 Doc.MPEG M31518,Geneva,2013
Dawid Mieloch,Adrian Dziembowski,Jakub Stankowski,Olgierd Stankiewicz,Marek Domanski,Gwangsoon Lee,Yun Young Jeong[MPEG-I Visual]Immersive video depth estimation,ISO/IEC JTC1/SC29/WG11 MPEG2020 m53407
Patrick Garus,Jung Joel,Thomas Maugey,Christine Guillemot.Bypassing Depth Maps Transmission For Immersive Video Coding.PCS 2019-Picture Coding Symposium,Nov 2019,Ningbo,China.pp.1-5.hal-02397800
本発明の目的の1つは、上述の従来技術の欠点を改善することである。
この目的のために、本発明の1つの目的は、符号化デバイスによって実装される、異なる位置又は異なる視野角からの3Dシーンを同時に表すビューを符号化する方法であって、少なくとも1つのビューの奥行き成分について、
- 前記奥行き成分を少なくとも1つのブロックに分割すること、
- 前記ビューの少なくとも1つのテクスチャ成分のテクスチャデータから、前記少なくとも1つのブロックの奥行き情報を得ること、
- この奥行き情報から少なくとも1つの奥行き推定パラメータを得ること、
- 前記少なくとも1つの奥行き推定パラメータを符号化することであって、前記少なくとも1つのブロックの奥行き情報は、符号化されない、符号化すること
を含む方法に関する。
- 前記奥行き成分を少なくとも1つのブロックに分割すること、
- 前記ビューの少なくとも1つのテクスチャ成分のテクスチャデータから、前記少なくとも1つのブロックの奥行き情報を得ること、
- この奥行き情報から少なくとも1つの奥行き推定パラメータを得ること、
- 前記少なくとも1つの奥行き推定パラメータを符号化することであって、前記少なくとも1つのブロックの奥行き情報は、符号化されない、符号化すること
を含む方法に関する。
本発明によるこのような符号化方法により、ビューを符号化するとき、このビューと関連付けられた成分又は奥行きマップの奥行きブロックを符号化することを回避し、これによりコーダによって実装される計算を軽減する一方、メモリリソース上に保存することが可能になり、奥行きブロックの符号化されたデータを格納する必要がなくなる。この奥行きブロックは、符号化されないため、この奥行きブロックに関する符号化されたデータは、デコーダに送信されず、これによりコーダとデコーダとの間で送信される情報の信号伝達のコストが低減される。奥行きブロックに関する符号化されたデータの欠如を補い、奥行きブロックの復号を可能にするために、本発明による符号化方法は、奥行きブロックと関連付けられた少なくとも1つの奥行き推定パラメータの符号化を実装し、これにより奥行き推定パラメータをデコーダで使用して、先にこの奥行きブロックを復号することを必要とすることなく、奥行きブロックを再構築することになる。
特定の実施形態によれば、前記少なくとも1つの奥行き推定パラメータは、前記少なくとも1つのブロックの奥行き値のそれぞれよりも大きい、前記少なくとも1つのブロックの奥行き値又は前記少なくとも1つのブロックの奥行き値のそれぞれよりも小さい、前記少なくとも1つのブロックの奥行き値のいずれかである。
この特定の実施形態によれば、デコーダの奥行き推定器は、奥行きブロックを再構築するために、1つ又は複数のビューの再構築されたテクスチャブロックの各画素を用いて、このブロックのそれぞれの可能な対応する奥行きの尤度を評価する必要がなくなる。実際、この実施形態によれば、奥行き推定器は、単に、再構築される奥行きブロックに対して、このブロックの最小奥行き値と最大奥行き値との間にある間隔内でのみ、このブロックの奥行きを推定する。このような奥行き推定は、従来技術の複雑な側面である奥行き推定ステップを大幅に高速化する。
別の特定の実施形態によれば、前記少なくとも1つの奥行き推定パラメータは、奥行き推定方法によって使用されるパラメータである。
この特定の実施形態によれば、既知の奥行き推定方法によって使用される前記奥行き推定パラメータは、オリジナルの奥行きブロックに可能な限り最も近い推定済みの奥行きブロックをもたらすように有利に最適化される。このようなパラメータは、例えば、奥行き推定アルゴリズムに、雑音がほとんどない奥行きマップを見つけさせることを可能にする正則化パラメータであるか、又はそうでなければその信頼度が低すぎる場合、奥行き推定アルゴリズムが奥行き値を改良し続けることを可能にする信頼度パラメータである。
別の特定の実施形態によれば、奥行き推定方法を表す情報は、符号化される。
この特定の実施形態によれば、コーダは、それぞれ所与の内容又はブロックに多かれ少なかれ良好な結果をもたらす可能性のある異なる利用可能な奥行き推定方法を試験すること、現在のブロックで最良の奥行き推定をもたらす奥行き推定方法を選択すること、及びそれをデコーダに送信して、選択された奥行き推定を現在のブロックに適用するために、この選択を符号化することが可能である。
様々な上述の実施形態又は特徴は、個々に又は互いに組み合わせて、上記で定義された符号化方法に追加することができる。
本発明は、異なる位置又は異なる視野角からの3Dシーンを同時に表すビューを符号化するためのデバイスであって、少なくとも1つのビューの奥行き成分について、
- 奥行き成分を少なくとも1つのブロックに分割すること、
- 前記ビューの少なくとも1つのテクスチャ成分のテクスチャデータから、前記少なくとも1つのブロックの奥行き情報を得ること、
- この奥行き情報から少なくとも1つの奥行き推定パラメータを得ること、
- 前記少なくとも1つの奥行き推定パラメータを符号化することであって、前記少なくとも1つのブロックの奥行き情報は、符号化されない、符号化すること
を実装するように構成されるプロセッサを含むデバイスにも関する。
- 奥行き成分を少なくとも1つのブロックに分割すること、
- 前記ビューの少なくとも1つのテクスチャ成分のテクスチャデータから、前記少なくとも1つのブロックの奥行き情報を得ること、
- この奥行き情報から少なくとも1つの奥行き推定パラメータを得ること、
- 前記少なくとも1つの奥行き推定パラメータを符号化することであって、前記少なくとも1つのブロックの奥行き情報は、符号化されない、符号化すること
を実装するように構成されるプロセッサを含むデバイスにも関する。
このような符号化デバイスは、特に、上述の符号化方法を実装することができる。
本発明は、復号デバイスによって実装される、異なる位置又は異なる視野角からの3Dシーンを同時に表すビューを復号する方法であって、少なくとも1つのブロックに分割される、少なくとも1つのビューの奥行き成分について、
- データ信号において、前記少なくとも1つのブロックと関連付けられた少なくとも1つの奥行き推定パラメータを読み取ること、
- 前記少なくとも1つの奥行き推定パラメータを復号すること、
- 前記少なくとも1つの奥行き推定パラメータから及び前記ビューの少なくとも1つの再構築されたテクスチャ成分のテクスチャデータから、前記少なくとも1つのブロックの奥行き情報を得ること
を含む方法にも関する。
- データ信号において、前記少なくとも1つのブロックと関連付けられた少なくとも1つの奥行き推定パラメータを読み取ること、
- 前記少なくとも1つの奥行き推定パラメータを復号すること、
- 前記少なくとも1つの奥行き推定パラメータから及び前記ビューの少なくとも1つの再構築されたテクスチャ成分のテクスチャデータから、前記少なくとも1つのブロックの奥行き情報を得ること
を含む方法にも関する。
本発明によるこのような復号方法は、演算処理複雑度が低く、有利にはメモリリソース上に保存することが可能になる。実際に、ブロックの奥行き情報が符号化されず、したがってデコーダに送信されないため、デコーダは、この情報を復号する必要もそれを格納する必要もない。復号時、デコーダが受信したデータ信号において送信された少なくとも1つの奥行き推定パラメータを復号して、ブロックの奥行き情報を再構築しさえすればよく、前記少なくとも1つの奥行き推定パラメータは、奥行き情報よりも送信にコストがかからない。
特定の実施形態によれば、前記少なくとも1つの奥行き推定パラメータは、前記少なくとも1つのブロックの奥行き値のそれぞれよりも大きい、前記少なくとも1つのブロックの奥行き値又は前記少なくとも1つのブロックの奥行き値のそれぞれよりも小さい、前記少なくとも1つのブロックの奥行き値のいずれかである。
特定の実施形態によれば、前記少なくとも1つの奥行き推定パラメータは、奥行き推定方法によって使用されるパラメータである。
別の特定の実施形態によれば、奥行き推定方法を表す情報は、復号される。
様々な上述の実施形態又は特徴は、個々に又は互いに組み合わせて、上記で定義された復号方法に追加することができる。
本発明は、異なる位置又は異なる視野角からの3Dシーンを同時に表すビューを復号するためのデバイスであって、少なくとも1つのブロックに分割される、少なくとも1つのビューの奥行き成分について、
- データ信号において、前記少なくとも1つのブロックと関連付けられた少なくとも1つの奥行き推定パラメータを読み取ること、
- 前記少なくとも1つの奥行き推定パラメータを復号すること、
- 前記少なくとも1つの奥行き推定パラメータから及び前記ビューの少なくとも1つの再構築されたテクスチャ成分のテクスチャデータから、前記少なくとも1つのブロックの奥行き情報を得ること
を実装するように構成されるプロセッサを含むデバイスにも関する。
- データ信号において、前記少なくとも1つのブロックと関連付けられた少なくとも1つの奥行き推定パラメータを読み取ること、
- 前記少なくとも1つの奥行き推定パラメータを復号すること、
- 前記少なくとも1つの奥行き推定パラメータから及び前記ビューの少なくとも1つの再構築されたテクスチャ成分のテクスチャデータから、前記少なくとも1つのブロックの奥行き情報を得ること
を実装するように構成されるプロセッサを含むデバイスにも関する。
このような復号デバイスは、特に、上述の復号方法を実装することができる。
本発明は、復号デバイス又はビュー合成デバイスによって実装されるビュー合成方法であって、
- 上記で言及した本発明による復号方法に従ってビューを再構築すること、
- 再構築されたビューから及び前記少なくとも1つのブロックの奥行きを表す、得られた情報から、ビューの少なくとも一部を合成すること
を含むビュー合成方法にも関する。
- 上記で言及した本発明による復号方法に従ってビューを再構築すること、
- 再構築されたビューから及び前記少なくとも1つのブロックの奥行きを表す、得られた情報から、ビューの少なくとも一部を合成すること
を含むビュー合成方法にも関する。
本発明は、コンピュータプログラムであって、前記プログラムがプロセッサによって実行されると、先に説明した特定の実施形態のいずれか1つに従い、本発明による符号化方法、復号方法又は合成方法を実装するための命令を含むコンピュータプログラムにも関する。
このような命令は、上述の符号化方法を実装する符号化デバイス、上述の復号方法を実装する復号デバイス又は上述の合成方法を実装する合成デバイスの非一時的メモリ媒体に永続的に格納することができる。
このプログラムは、任意のプログラミング言語を使用することができ、ソースコード、オブジェクトコード又はソースコードとオブジェクトコードとの間の中間コードの形態、部分的にコンパイルされた形態若しくは任意の他の望ましい形態などであり得る。
本発明は、上記で言及したようなコンピュータプログラムの命令を含むコンピュータ可読記憶媒体又は情報媒体も対象とする。
記憶媒体は、プログラムを格納することが可能な任意のエンティティ又はデバイスであり得る。例えば、媒体は、ROMなどの記憶手段、例えばCD ROM若しくは超小型電子回路ROM又はさらに磁気記憶手段、例えばUSBキー若しくはハードディスクを含むことができる。
同様に、記憶媒体は、電気ケーブル又は光ケーブルを介して伝達することが可能な電気信号又は光信号など、ワイヤレスで又は他の手段によって伝送可能な媒体であり得る。本発明によるプログラムは、特にインターネットタイプのネットワーク上にダウンロードすることができる。
代わりに、記憶媒体は、プログラムが組み込まれた集積回路であって、上述の符号化方法、上述の復号方法又はさらに上述の合成方法を実行するように適合された集積回路又はそれらの実行時に使用される集積回路であり得る。
他の特徴及び利点は、例示的及び非限定的な例並びに添付の図面として提供される本発明の特定の実施形態を読むことで明らかになるであろう。
マルチビュー映像符号化方法の実装形態の例
マルチビュー映像を符号化する方法を以下で説明し、これは、任意のタイプのマルチビュー映像コーダ、例えば、3D-HEVC若しくはMV-HEVC規格又は他の規格に準拠するものを使用することができる。
マルチビュー映像を符号化する方法を以下で説明し、これは、任意のタイプのマルチビュー映像コーダ、例えば、3D-HEVC若しくはMV-HEVC規格又は他の規格に準拠するものを使用することができる。
図1を参照すると、このような符号化方法は、複数のビューV1,...,VNの一部を形成する現在のビューに適用され、この複数のビューは、それぞれシーンを捕捉するカメラの複数の視野角又は複数の位置/向きからの3Dシーンを表す。
本発明による符号化方法は、現在の時点において、
- ビューV1、
- ビューV2、
- ...、
- ビューVi、
- ...、
- ビューVN
を符号化するものである。
- ビューV1、
- ビューV2、
- ...、
- ビューVi、
- ...、
- ビューVN
を符号化するものである。
N個の中から考慮した1つのビューは、等しくテクスチャ成分若しくは奥行き成分又はこのビューと関連付けられたマップであり得る。例えば、現在のビューVi(1≦i≦N)は、従来、Q(Q≧1)個の画素のテクスチャ成分Ti及び例えばテクスチャ成分Tiのような少なくとも1つのテクスチャ成分のQ個の画素と関連付けられたQ個の奥行き値を有する奥行き成分Piと関連付けられるか、又はN個のうち、ビューVi以外のビューのテクスチャ成分と関連付けられる。知られているように、奥行き成分Piは、テクスチャ画像Tiから又はそうでなければ例えばLIDAR(「光検知測距」の略語)などのデバイスを使用して3Dシーンの容積測定データを捕捉することによって直接生成することができる。
C1において、現在のビューViが現在の時点において選択され、N個のビューのそれぞれが所定の順序で次々に選択される。
C2において、前記少なくとも1つのビューViの奥行き成分Piが複数のブロックB1,B2,...,Bj,...,BM(1≦j≦M)に分割される。可能な一実施形態では、単一の奥行きブロックが分割されていない奥行き成分Piに対応すると見なされる。奥行き成分のブロックは、事前定義されたサイズ(例えば、64×64画素)であり、パラメータ化可能な(そして、その後、使用されるサイズが符号化された形態で送信される)もの又はそうでなければHEVC規格で実装さるものと類似した、使用されるサイズの信号伝達を用いる適応可能なものであり得る。後者の場合、奥行き成分Piはまず、最大サイズ(例えば、64×64画素)のブロックに分けられて、次いで、ブロックをより小さいブロックに細分化しなければならないかどうかを表示する2値情報が、事前定義された最小ブロックサイズ(例えば、4×4画素)に達するまで、ブロックごとに繰り返して送信され、この最小ブロックサイズに対して情報は送信されない。これにより、奥行き成分Piのブロックへの細分化を定義することが可能になる。
C3において、奥行き成分Piの現在のブロックBjが選択され、奥行き成分Piのブロックがそれぞれ、所定の順序で次々に選択される。
C4において、前記少なくとも1つの現在のブロックBjに対して、奥行き情報IPjが得られる。それ自体知られているように、テクスチャ成分Tiの画素のブロックBTの画素の全部又は一部及び/又はN個のうち、ビューVi以外のビューのテクスチャ成分の全部又は一部に対して、これらの画素に対応する奥行き値Z1~ZRが得られ、画素のブロックBTに対応する奥行きブロックBPjを形成する。
C5において、少なくとも1つの奥行き推定パラメータPEが前記奥行き情報IPiから得られる。
図2Aに表されている第1の取得実施形態によれば、C51aにおいて、R個の奥行き値Z1~ZRの中から最大奥行き値Zmax及び/又は最小奥行き値Zminが決定される。
C52aにおいて、Zmin若しくはZmax又は間隔[Zmin,Zmax]が奥行き推定パラメータPEに割り当てられる。
図2Bに表されている第2の取得実施形態によれば、C51bにおいて、奥行き推定方法の少なくとも1つの奥行き推定パラメータPMEが選択される。これは、例えば、上記で言及した奥行き推定アルゴリズムDERSのパラメータである。別の例によれば、例えば、IVDEアルゴリズムなど、別の奥行き推定アルゴリズムのパラメータとすることも可能であろう。DERSアルゴリズムに関して、選択されるパラメータは、例えば、奥行き推定アルゴリズムDERSに、画素のブロックBTに対応する雑音のない奥行きブロックを見つけさせることを可能にする正則化パラメータ又は「平滑化係数」Scである。奥行き推定アルゴリズムのパラメータの他の例、例えば、
- その信頼度が低すぎる場合、DERSアルゴリズムが奥行き値を改良し続けることを可能にするDERSアルゴリズムのパラメータλなどの信頼度パラメータ、
- 例えば、IVDEアルゴリズムにおいて使用され、また、上述の文献「Dawid Mieloch,Adrian Dziembowski,Jakub Stankowski,Olgierd Stankiewicz,Marek Domanski,Gwangsoon Lee,Yun Young Jeong[MPEG-I Visual]Immersive video depth estimation,ISO/IEC JTC1/SC29/WG11 MPEG2020 m53407」に記載されている初期平滑化パラメータβ0のような平滑化パラメータ
などを使用することも可能であろう。
- その信頼度が低すぎる場合、DERSアルゴリズムが奥行き値を改良し続けることを可能にするDERSアルゴリズムのパラメータλなどの信頼度パラメータ、
- 例えば、IVDEアルゴリズムにおいて使用され、また、上述の文献「Dawid Mieloch,Adrian Dziembowski,Jakub Stankowski,Olgierd Stankiewicz,Marek Domanski,Gwangsoon Lee,Yun Young Jeong[MPEG-I Visual]Immersive video depth estimation,ISO/IEC JTC1/SC29/WG11 MPEG2020 m53407」に記載されている初期平滑化パラメータβ0のような平滑化パラメータ
などを使用することも可能であろう。
C52bにおいて、選択された奥行き推定方法の奥行き推定パラメータPMEのX(X≧1)個の可能な値Val1,...,Valk,...,ValX(1≦k≦X)からなる有限集合に対して、X個の推定済みの奥行きブロックBPE1,...,BPEk,...,BPEXがそれぞれ得られる。パラメータScに対して、可能な値の有限集合は、例えば、{0.01,0.02,0.04,0.08,0.16}である。言うまでもなく、現在の映像コンテキストに従って他の値も可能である。
C53bにおいて、奥行きが推定されたX個のブロックBPE1,...,BPEk,...,BPEXの中から、画素のブロックBTから得られた推定済みの奥行きがオリジナルの奥行きブロックBPjに最も近いブロックが選択される。このような選択は、例えば、PSNR(「ピーク信号対雑音比」の略語)、平均2乗誤差、差の絶対値合計又は任意の他の同様の測定などの歪み測定を使用して実装される。表されている例では、それは、例えば、選択されている推定済みの奥行きブロックBPEkである。
C54bにおいて、C53bにおいて選択された推定済みの奥行きブロックBPEkに対して選択された奥行き推定方法の奥行き推定パラメータPMEの値Valkは、次いで、奥行き推定パラメータPEの値として選択される。
図1をもう一度参照すると、C6において、奥行き推定パラメータPEは、例えば、CABAC(「コンテキスト適応型2値算術符号化」の略語)などのようなロスレス符号化方法を使用して又はさらにハフマン符号化(Huffman coding)若しくはラムペル-ジフ符号化(Lempel-Ziv coding)によって符号化される。図2Aの例では、それは、値Zmin若しくはZmax又はさらに間隔[Zmin,Zmax]でもあり、それらは、C6において符号化される。図2Bの例では、それは、C6において符号化される正則化パラメータScの値Valkであるか、又はさらに他の実施形態では、上述の信頼度パラメータ若しくは平滑化パラメータでもある。この値Valkに加えて、別のパラメータの値、例えばステップC54bの終了時に取得することができた上述の信頼度パラメータ又は平滑化パラメータなどを符号化することができる。ステップC6の終了時、符号化された奥行き推定パラメータPECが得られる。
任意選択的に且つこの理由のために図1で点線によって表されているように、C5において使用される奥行き推定方法を表す情報IMEP、例えばDERS又はIVDEは、例えば、CABACなどのロスレス符号化方法を使用してC7において符号化される。このようなIMEP情報は、ビューVi又は異なる時点に位置するビューViのシーケンスにおいて符号化することができる。ステップC7の終了時、符号化された情報IMEPCが得られる。
C8において、テクスチャ成分Tiは、例えば、HEVCなどの従来の映像コーダを使用して符号化される。ステップC8の終了時、符号化されたテクスチャ成分Ti
Cが得られる。
図3Aに表されている第1の実施形態によれば、符号化された奥行き推定パラメータPEC、符号化された情報IMEPC及び符号化されたテクスチャ成分Ti
Cのデータは、本明細書で後述するデコーダに送信されることが意図された同じデータ信号Fに含まれている。
図3Bに表されている第2の実施形態によれば、符号化された奥行き推定パラメータPEC及び符号化された情報IMEPCは、同じデータ信号Fに含まれる一方、符号化されたテクスチャ成分Ti
Cのデータは、別のデータ信号F’に含まれ、信号F及びF’は、上述のデコーダに送信されることが意図される。
有利には、本発明に従い、符号化方法は、符号化された奥行きブロックBPj
Cを生成しない。その結果、図3A及び図3Bの例では、信号Fは、符号化された奥行きブロックBPj
Cを含んでいない。
たった今上記で説明した符号化方法は、次いで、奥行き成分PiのそれぞれのブロックB1~BMごとに、次いで、ビューV1~VNのそれぞれに対して実装することができる。
映像符号化デバイスの実装形態の例
図4は、本発明の特定の実施形態のいずれか1つによる符号化方法を実装するのに適した符号化デバイスCODの単純化された構造を提示する。
図4は、本発明の特定の実施形態のいずれか1つによる符号化方法を実装するのに適した符号化デバイスCODの単純化された構造を提示する。
本発明の特定の実施形態によれば、符号化方法によって実行されるアクションは、コンピュータプログラム命令によって実装される。そのために、符号化デバイスCODは、従来のコンピュータのアーキテクチャを有し、特にメモリMEM_Cと、例えばプロセッサPROC_Cが装備された処理ユニットUT_Cとを含み、メモリMEM_Cに格納されたコンピュータプログラムPG_Cによって駆動される。コンピュータプログラムPG_Cは、プログラムがプロセッサPROC_Cによって実行されると、上記で説明したような符号化方法のアクションを実装するための命令を含む。
初期化に際して、コンピュータプログラムPG_Cのコード命令は、プロセッサPROC_Cによって実行される前に、例えば、RAMメモリ(表示せず)にロードされる。処理ユニットUT_CのプロセッサPROC_Cは、特に、コンピュータプログラムPG_Cの命令に従い、上記で説明した符号化方法のアクションを実装する。
マルチビュー映像復号方法の実装形態の例
任意のタイプの、例えば、3D-HEVC若しくはMV-HEVC規格又は他の規格に準拠するマルチビュー映像デコーダを使用することが可能なマルチビュー映像を復号する方法について以下で説明する。
任意のタイプの、例えば、3D-HEVC若しくはMV-HEVC規格又は他の規格に準拠するマルチビュー映像デコーダを使用することが可能なマルチビュー映像を復号する方法について以下で説明する。
図5を参照すると、このような復号方法は、上述の符号化方法に従って符号化された現在のビューを表すデータ信号に適用され、前記現在のビューは、複数のビューV1,...,VNの一部を形成している。
本発明による復号方法は、
- 符号化されたビューV1を表すデータ信号、
- 符号化されたビューV2を表すデータ信号、
- ...,
- 符号化されたビューViを表すデータ信号、
- ...,
- 符号化されたビューVNを表すデータ信号
を復号するものである。
- 符号化されたビューV1を表すデータ信号、
- 符号化されたビューV2を表すデータ信号、
- ...,
- 符号化されたビューViを表すデータ信号、
- ...,
- 符号化されたビューVNを表すデータ信号
を復号するものである。
復号方法は、再構築される符号化された現在のビューViを表すデータ信号F(図3A)又はデータ信号F及びF’(図3B)に対して以下を含む。
D1において、符号化された現在のビューViが現在の時点で選択され、N個のビューのそれぞれが所定の順序で次々に選択される。
D2において、前記少なくとも1つのビューViの再構築される奥行き成分Piが複数のブロックB1,B2,...,Bj,...,BM(1≦j≦M)に分割される。可能な一実施形態では、単一の奥行きブロックが分割されていない奥行き成分Piに対応すると見なされる。奥行きブロックは、事前定義されたサイズ(例えば、64×64画素)であり、パラメータ化可能な(そして、その後、符号化された形態で送信された、使用されるサイズが復号される)もの又はそうでなければHEVC規格で実装され、信号Fにおいて読み取られるものと類似した、使用されるサイズの信号伝達を用いる適応可能なものであり得る。後者の場合、奥行き成分Piはまず、最大サイズ(例えば、64×64画素)のブロックに分けられて、次いで、例えば、信号F又は別の信号において、ブロックをより小さいブロックに細分化しなければならないかどうかを表示する2値情報が、事前定義された最小ブロックサイズ(例えば、4×4画素)に達するまで、ブロックごとに繰り返して読み取られ、この最小ブロックサイズに対して情報は読み取られない。これにより、奥行き成分Piのブロックへの細分化を定義することが可能になる。
D3において、奥行き成分Piの現在のブロックBjが選択され、奥行き成分Piのブロックがそれぞれ、所定の順序で次々に選択される。
D4において、任意選択的に且つこの理由のために図5で点線によって表されているように、C5(図1)において使用された奥行き推定方法を表す符号化された情報IMEPCがデータ信号Fにおいて読み取られる(図3A又は図3B)。
D5において、符号化された情報IMEPCは、例えば、CABACなどのロスレス復号方法を使用して又はさらにハフマン復号若しくはラムペル-ジフ復号によっても復号される。このような符号化された情報IMEPCは、現在のビューVi又は異なる時点に位置するビューViのシーケンスにおいて復号することができる。ステップD5の終了時、情報IMEPが得られる。
任意選択的なステップD4及びD5に代えて、C5において使用された奥行き推定方法をデコーダで事前定義することも可能である。この場合、奥行き推定方法を表すIMEP情報が直接利用可能である。
D6において、奥行き成分Piの、再構築される現在のブロックBjと関連付けられた少なくとも1つの符号化された奥行き推定パラメータPECが図3A又は図3Bのデータ信号Fにおいて読み取られる。
D7において、前記少なくとも1つの符号化された奥行き推定パラメータPECは、例えば、CABACなどのロスレス復号方法を使用して又はそうでなければハフマン復号若しくはラムペル-ジフ復号によっても復号される。C6において符号化されたのが奥行き値Zmin又はZmaxであった場合又はそうでなければ間隔[Zmin,Zmax]であった場合、
- 奥行き値ZminがD7において復号され、奥行き推定パラメータPEに割り当てられるか、
- 若しくは奥行き値ZmaxがD7において復号され、奥行き推定パラメータPEに割り当てられるか、又は
- 奥行き値の間隔[Zmin,Zmax]がD7において復号され、奥行き推定パラメータPEに割り当てられるか
のいずれかである。
- 奥行き値ZminがD7において復号され、奥行き推定パラメータPEに割り当てられるか、
- 若しくは奥行き値ZmaxがD7において復号され、奥行き推定パラメータPEに割り当てられるか、又は
- 奥行き値の間隔[Zmin,Zmax]がD7において復号され、奥行き推定パラメータPEに割り当てられるか
のいずれかである。
C6において符号化されたものが正則化パラメータScの値Valkである場合及び/又は他の実施形態による上述の信頼度パラメータ又は平滑化パラメータの値Valkである場合にも、D7において復号され、奥行き推定パラメータPEに割り当てられるのは、値Valkである。この値Valkに加えて、別のパラメータの値、例えば、ステップC54bの終了時に得られた上述の信頼度パラメータ又は平滑化パラメータなどを復号することができる。
D8において、前記少なくとも1つのビューViのテクスチャ成分Tiは、例えば、従来の映像デコーダ、例えば、HEVCなどを用いて再構築される。再構築されたテクスチャ成分Ti
Rは、ステップD8の終了時に得られる。言うまでもなく、ステップD8は、データ信号F(図3A)又はF’(図3B)を受信すると、ステップD1~D7前又は任意の時点で実装することができる。この目的のために、符号化されたテクスチャ成分Ti
Cのデータは、信号F(図3A)又はF’(図3B)において読み取られ、次いで、再構築され、再構築されたテクスチャ成分Ti
Rを生成する。
D9において、前記現在のブロックBjの奥行き情報IPjは、D7において復号された前記少なくとも1つの奥行き推定パラメータPE及び前記再構築されたテクスチャ成分Ti
R又はN個のうち、ビューVi以外のビューの再構築されたテクスチャ成分のテクスチャデータ(画素)から得られる。
ステップD9の第1の実施形態によれば、事前定義された奥行き推定方法又はD5において得られたIMEPパラメータに対応するものを使用することにより、奥行き検索は、再構築される奥行き成分Piの現在のブロックBjに関する奥行き値Zmin若しくは奥行き値Zmax又はさらに奥行き値の間隔[Zmin,Zmax]を使用して、再構築されたテクスチャ成分Ti
Rのブロックのそれぞれの画素ごとに実装される。このような動作の利点は、理論上可能な最大奥行きと、最小の奥行きとの間(概して、0メートル~無限大)ではなく、最大でも[Zmin,Zmax]との間で現在のブロックBjの奥行きを決定する際にある。これにより、試験される奥行きの数を大幅に減らすことで、奥行き推定アルゴリズムの複雑性を低減することが可能になる。ステップD9の第1の実施形態の終了時、現在のブロックBjに対応する再構築された奥行きブロックBPj
Rが得られる。
ステップD9の第2の実施形態によれば、事前定義された奥行き推定方法又はD5において得られたIMEPパラメータに対応するものを、D7において復号された正則化パラメータScの値(又は例えば信頼度パラメータ若しくは平滑化パラメータの値)Valkを使用することにより、現在のブロックBjに適用させて、再構築されたテクスチャ成分Ti
Rのブロックのそれぞれの画素ごとに奥行き捜索を行う。ステップD9の第2の実施形態の終了時、現在のブロックBjに対応する再構築された奥行きブロックBPj
Rが得られる。この第2の実施形態により、再構築された奥行きブロックBPj
Rは、図1の符号化方法中にC4で得られた奥行きブロックBPjに限りなく近づき、有利には、本発明によれば、この奥行きブロックBPjは、信号F又はF’において符号化も送信もされていない。
D10において、再構築された奥行きブロックBPj
Rは、次いで、再構築されたテクスチャ成分Ti
Rに対応する、現在は再構築されたPi
Rである奥行き成分に含まれる。
たった今上記で説明した復号方法は、次いで、再構築されるそれぞれの画素のブロックB1~BMごとに、次いで、再構築されるそれぞれのビューV1~VNごとに実装される。
映像復号デバイスの実装形態の例
図6は、本発明の特定の実施形態のいずれか1つによる復号方法を実装するのに適した復号デバイスDECの単純化された構造を提示する。
図6は、本発明の特定の実施形態のいずれか1つによる復号方法を実装するのに適した復号デバイスDECの単純化された構造を提示する。
本発明の特定の実施形態によれば、上述の復号方法によって実行されるアクションは、コンピュータプログラム命令によって実装される。そのために、復号デバイスDECは、コンピュータの従来のアーキテクチャを有し、特にメモリMEM_Dと、処理ユニットUT_Dとを含み、処理ユニットUT_Dは、例えば、プロセッサPROC_Dが装備され、メモリMEM_Dに格納されたコンピュータプログラムPG_Dによって駆動される。コンピュータプログラムPG_Dは、プログラムがプロセッサPROC_Dによって実行されると、上記で説明したような復号方法のアクションを実装するための命令を含む。
初期化に際して、コンピュータプログラムPG_Dのコード命令は、プロセッサPROC_Dによって実行される前に、例えば、RAMメモリ(表示せず)にロードされる。処理ユニットUT_DのプロセッサPROC_Dは、コンピュータプログラムPG_Dの命令に従い、特に上記で説明した復号方法のアクションを実装する。
ビュー合成方法の実装形態の例
図5の復号方法に従って再構築されたビューを使用するビュー合成方法について、ここで、図7を参照しながら説明する。
図5の復号方法に従って再構築されたビューを使用するビュー合成方法について、ここで、図7を参照しながら説明する。
図7に図示されているように、本発明による合成方法は、図5の復号方法の終了時に得られたN個の再構築されたビューV1
R,...,VN
Rの中から、少なくとも1つの再構築されたビューを使用する。
S1において、少なくとも1つの再構築されたビューVq
R(1≦q≦N)がN個の再構築されたビューの中から選択される。再構築されたビューVq
Rは、再構築されたテクスチャ成分Tq
Rと、それに関連付けられた再構築された奥行き成分Pq
Rとを含む。
S2において、ユーザが例えばユーザのコンピュータ又はユーザの電話のスクリーン上に表示することを要求したビューなど、欠落ビュー又は中間ビューの少なくとも1つの合成された部分PVsyは、再構築されたテクスチャ成分Tq
Rから、及びこの再構築されたテクスチャ成分Tq
Rの画素の再構築されたブロックBy
Rと関連付けられた少なくとも1つの再構築された奥行きブロックBPy
Rから計算される。なお、1≦y≦Mであるとする。欠落ビュー又は中間ビューの合成された部分PVsyは、例えば、VSRSアルゴリズム、RVS(「参照ビューシンセサイザ」)アルゴリズム、VVS(「汎用的ビューシンセサイザ」)アルゴリズム等、従来の合成アルゴリズムを使用して計算される。
合成デバイスの実装形態の例
図8A又は図8Bは、本発明の特定の実施形態のいずれか1つによる、図7の合成方法を実装するのに適した合成デバイスSYNTの単純化された構造を提示する。
図8A又は図8Bは、本発明の特定の実施形態のいずれか1つによる、図7の合成方法を実装するのに適した合成デバイスSYNTの単純化された構造を提示する。
本発明の特定の実施形態によれば、図7の合成方法によって実行されるアクションは、コンピュータプログラム命令によって実装される。そのために、合成デバイスSYNTは、コンピュータの従来のアーキテクチャを有し、特にメモリMEM_Sと、処理ユニットUT_Sとを含み、処理ユニットUT_Sは、例えば、プロセッサPROC_Sが装備され、メモリMEM_Sに格納されたコンピュータプログラムPG_Sによって駆動される。コンピュータプログラムPG_Sは、プログラムがプロセッサPROC_Sによって実行されると、上記で説明したような合成方法のアクションを実装するための命令を含む。
初期化に際して、コンピュータプログラムPG_Sのコード命令は、プロセッサPROC_Sによって実行される前に、例えば、RAMメモリ(表示せず)にロードされる。処理ユニットUT_SのプロセッサPROC_Sは、コンピュータプログラムPG_Sの命令に従い、特に上記で説明した合成方法のアクションを実装する。
図8Aに表されている実施形態によれば、合成デバイスSYNTは、図8Aに図示されているように、デコーダDECの出力に配置されている。
図8Bに表されている実施形態によれば、合成デバイスSYNTは、図8Bに図示されているように、デコーダDECの不可分の部分を形成している。
C1 ステップ
C2 ステップ
C3 ステップ
C4 ステップ
C5 ステップ
C6 ステップ
C7 ステップ
C8 ステップ
C2 ステップ
C3 ステップ
C4 ステップ
C5 ステップ
C6 ステップ
C7 ステップ
C8 ステップ
Claims (15)
- 符号化デバイスによって実装される、異なる位置又は異なる視野角からの3Dシーンを同時に表すビューを符号化する方法であって、少なくとも1つのビューの奥行き成分について、
- 前記奥行き成分を少なくとも1つのブロックに分割すること(C2)、
- 前記ビューの少なくとも1つのテクスチャ成分のテクスチャデータから、前記少なくとも1つのブロックの奥行き情報を得ること(C4)、
- 前記情報から少なくとも1つの奥行き推定パラメータを得ること(C5)、
- 前記少なくとも1つの奥行き推定パラメータを符号化すること(C6)であって、前記少なくとも1つのブロックの前記奥行き情報は、符号化されない、符号化すること(C6)
を含む方法。 - 前記少なくとも1つの奥行き推定パラメータは、前記少なくとも1つのブロックの奥行き値のそれぞれよりも大きい、前記少なくとも1つのブロックの奥行き値(Zmax)又は前記少なくとも1つのブロックの前記奥行き値のそれぞれよりも小さい、前記少なくとも1つのブロックの奥行き値(Zmin)のいずれかである、請求項1に記載の符号化方法。
- 前記少なくとも1つの奥行き推定パラメータは、奥行き推定方法によって使用されるパラメータ(Sc;λ;β0)である、請求項1に記載の符号化方法。
- 奥行き推定方法を表す情報は、符号化される、請求項1~3のいずれか一項に記載の符号化方法。
- 異なる位置又は異なる視野角に従って3Dシーンを同時に表すビューを符号化するためのデバイスであって、少なくとも1つのビューの奥行き成分について、
- 前記奥行き成分を少なくとも1つのブロックに分割すること、
- 前記ビューの少なくとも1つのテクスチャ成分のテクスチャデータから、前記少なくとも1つのブロックの奥行き情報を得ること、
- 前記情報から少なくとも1つの奥行き推定パラメータを得ること、
- 前記少なくとも1つの奥行き推定パラメータを符号化することであって、前記少なくとも1つのブロックの前記奥行き情報は、符号化されない、符号化すること
を実装するように構成されるプロセッサ(UT_C)を含むデバイス。 - コンピュータプログラムであって、それがコンピュータ上で実行されると、請求項1~4のいずれか一項に記載の符号化方法を実装するためのプログラムコード命令を含むコンピュータプログラム。
- 請求項6に記載のコンピュータプログラムの命令を含むコンピュータ可読情報媒体。
- 復号デバイスによって実装される、異なる位置又は異なる視野角からの3Dシーンを同時に表すビューを復号する方法であって、少なくとも1つのブロックに分割される、少なくとも1つのビューの奥行き成分について、
- データ信号において、前記少なくとも1つのブロックと関連付けられた少なくとも1つの奥行き推定パラメータを読み取ること(D6)、
- 前記少なくとも1つの奥行き推定パラメータを復号すること(D7)、
- 前記少なくとも1つの奥行き推定パラメータから及び前記ビューの少なくとも1つの再構築されたテクスチャ成分のテクスチャデータから、前記少なくとも1つのブロックの奥行き情報を得ること(D9)
を含む方法。 - 前記少なくとも1つの奥行き推定パラメータは、前記少なくとも1つのブロックの奥行き値のそれぞれよりも大きい、前記少なくとも1つのブロックの奥行き値(Zmax)又は前記少なくとも1つのブロックの前記奥行き値のそれぞれよりも小さい、前記少なくとも1つのブロックの奥行き値(Zmin)のいずれかである、請求項8に記載の復号方法。
- 前記少なくとも1つの奥行き推定パラメータは、奥行き推定方法によって使用されるパラメータ(Sc)である、請求項8に記載の復号方法。
- 奥行き推定方法を表す情報は、復号される、請求項8~10のいずれか一項に記載の復号方法。
- 異なる位置又は異なる視野角からの3Dシーンを同時に表すビューを復号するためのデバイスであって、少なくとも1つのブロックに分割される、少なくとも1つのビューの奥行き成分について、
- データ信号において、前記少なくとも1つのブロックと関連付けられた少なくとも1つの奥行き推定パラメータを読み取ること、
- 前記少なくとも1つの奥行き推定パラメータを復号すること、
- 前記少なくとも1つの奥行き推定パラメータから及び前記ビューの少なくとも1つの再構築されたテクスチャ成分のテクスチャデータから、前記少なくとも1つのブロックの奥行き情報を得ること
を実装するように構成されるプロセッサ(UT_D)を含むデバイス。 - 復号デバイス又はビュー合成デバイスによって実装されるビュー合成方法であって、
- 請求項8~11のいずれか一項に記載の復号方法に従ってビューを再構築すること、
- 前記再構築されたビューから及び前記少なくとも1つのブロックの奥行きを表す、得られた前記情報から、ビューの少なくとも一部を合成すること
を含むビュー合成方法。 - コンピュータプログラムであって、それがコンピュータ上で実行されると、請求項8~11のいずれか一項に記載の復号方法又は請求項13に記載の合成方法を実装するためのプログラムコード命令を含むコンピュータプログラム。
- 請求項14に記載のコンピュータプログラムの命令を含むコンピュータ可読情報媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2009913A FR3114716A1 (fr) | 2020-09-29 | 2020-09-29 | Codage et décodage d’une vidéo multi-vues |
FR2009913 | 2020-09-29 | ||
PCT/FR2021/051540 WO2022069809A1 (fr) | 2020-09-29 | 2021-09-08 | Codage et decodage d'une video multi-vues |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023543048A true JP2023543048A (ja) | 2023-10-12 |
Family
ID=74553905
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023519376A Pending JP2023543048A (ja) | 2020-09-29 | 2021-09-08 | マルチビュー映像を符号化及び復号する方法 |
Country Status (8)
Country | Link |
---|---|
US (1) | US20230412831A1 (ja) |
EP (1) | EP4222950A1 (ja) |
JP (1) | JP2023543048A (ja) |
KR (1) | KR20230078669A (ja) |
CN (1) | CN116325721A (ja) |
BR (1) | BR112023005339A2 (ja) |
FR (1) | FR3114716A1 (ja) |
WO (1) | WO2022069809A1 (ja) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101628383B1 (ko) * | 2010-02-26 | 2016-06-21 | 연세대학교 산학협력단 | 영상 처리 장치 및 방법 |
WO2013068547A2 (en) * | 2011-11-11 | 2013-05-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Efficient multi-view coding using depth-map estimate and update |
-
2020
- 2020-09-29 FR FR2009913A patent/FR3114716A1/fr not_active Withdrawn
-
2021
- 2021-09-08 KR KR1020237010458A patent/KR20230078669A/ko active Search and Examination
- 2021-09-08 WO PCT/FR2021/051540 patent/WO2022069809A1/fr active Application Filing
- 2021-09-08 CN CN202180065991.XA patent/CN116325721A/zh active Pending
- 2021-09-08 BR BR112023005339A patent/BR112023005339A2/pt unknown
- 2021-09-08 JP JP2023519376A patent/JP2023543048A/ja active Pending
- 2021-09-08 EP EP21782786.4A patent/EP4222950A1/fr active Pending
- 2021-09-08 US US18/246,749 patent/US20230412831A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
FR3114716A1 (fr) | 2022-04-01 |
US20230412831A1 (en) | 2023-12-21 |
EP4222950A1 (fr) | 2023-08-09 |
WO2022069809A1 (fr) | 2022-04-07 |
BR112023005339A2 (pt) | 2023-04-25 |
KR20230078669A (ko) | 2023-06-02 |
CN116325721A (zh) | 2023-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113615204B (zh) | 点云数据发送装置、点云数据发送方法、点云数据接收装置和点云数据接收方法 | |
US11412233B2 (en) | Methods for MR-DIBR disparity map merging and disparity threshold determination | |
US20190222821A1 (en) | Methods for Full Parallax Compressed Light Field 3D Imaging Systems | |
US10389994B2 (en) | Decoder-centric UV codec for free-viewpoint video streaming | |
US11159824B1 (en) | Methods for full parallax light field compression | |
US20210352323A1 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
KR101340911B1 (ko) | 다중 뷰들의 효율적인 인코딩 방법 | |
Mieloch et al. | Overview and efficiency of decoder-side depth estimation in MPEG immersive video | |
Graziosi et al. | Depth assisted compression of full parallax light fields | |
US20230290006A1 (en) | Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method | |
WO2019211541A2 (fr) | Procédé et dispositif de décodage d'une vidéo multi-vue, et procédé et dispositif de traitement d'images | |
WO2018127629A1 (en) | Method and apparatus for video depth map coding and decoding | |
WO2015056712A1 (ja) | 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、動画像符号化プログラム、及び動画像復号プログラム | |
JP2024525583A (ja) | ポイントクラウドデータ送信装置、ポイントクラウドデータ送信方法、ポイントクラウドデータ受信装置、及びポイントクラウドデータ受信方法 | |
JP2023543048A (ja) | マルチビュー映像を符号化及び復号する方法 | |
KR20210135322A (ko) | 멀티-뷰 비디오 시퀀스를 코딩 및 디코딩하기 위한 방법들 및 디바이스들 | |
WO2011122168A1 (ja) | 画像符号化装置、画像復号装置、画像符号化装置の制御方法、画像復号装置の制御方法、制御プログラムおよび記録媒体 | |
WO2019185983A1 (en) | A method, an apparatus and a computer program product for encoding and decoding digital volumetric video | |
US20230419519A1 (en) | Depth estimation method in an immersive video context | |
US20230065861A1 (en) | Method and device for processing multi-view video data | |
Müller et al. | 3D video compression | |
JP2024510315A (ja) | ポイントクラウドデータ送信装置、ポイントクラウドデータ送信方法、ポイントクラウドデータ受信装置及びポイントクラウドデータ受信方法 | |
JP2013126006A (ja) | 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム及び映像復号プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240722 |