JP2022503963A - 全方位映像の符号化及び復号 - Google Patents

全方位映像の符号化及び復号 Download PDF

Info

Publication number
JP2022503963A
JP2022503963A JP2021517806A JP2021517806A JP2022503963A JP 2022503963 A JP2022503963 A JP 2022503963A JP 2021517806 A JP2021517806 A JP 2021517806A JP 2021517806 A JP2021517806 A JP 2021517806A JP 2022503963 A JP2022503963 A JP 2022503963A
Authority
JP
Japan
Prior art keywords
image
view
data
processed
encoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021517806A
Other languages
English (en)
Inventor
ジョエル・ジュン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Publication of JP2022503963A publication Critical patent/JP2022503963A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Figure 2022503963000001
本発明は、多数のビューのうちのビューの画像(IV)を符号化するためのプロセスであって、次のステップ、すなわち、上記画像からの画像データを符号化するために第1の符号化方法又は第2の符号化方法を選択すること(C1)と、選択されたものが第1の符号化方法か又は第2の符号化方法かを示す情報(flag_proc)を含むデータ信号を生成すること(C10、C12a;C10、C12b;C10、C12c)と、第1の符号化方法である場合は、符号化済みのオリジナルデータを提供するために、オリジナル画像データを符号化すること(C11a)と、第2の符号化方法である場合は、処理済み且つ符号化済みのデータを提供するために、オリジナル画像データの画像処理によって得られた上記画像からの処理済みの画像データを符号化すること(C11b)と、適用された画像処理について説明する情報を符号化すること(C11b)とを含む、プロセスに関する。

Description

本発明は、概して、全方位映像の分野に関し、具体的には、360°、180°などの映像に関する。より具体的には、本発明は、そのような映像を生成するために捕捉された360°、180°などのビューの符号化及び復号と、非捕捉中間視点の合成とに関する。
本発明は、特に(ただし、排他的ではない)、現在のAVC及びHEVC映像コーダ並びにそれらの拡張(MVC、3D-AVC、MV-HEVC、3D-HEVCなど)において実施される映像符号化並びに対応する映像復号に適用することができる。
全方位映像(例えば、360°映像など)を生成するため、360°カメラを使用することは一般的なことである。そのような360°カメラは、球形プラットフォームに設置された多数の2D(二次元)カメラで形成されている。各2Dカメラは、3D(三次元)シーンの特定の角度を捕捉し、カメラによって捕捉されたビューのセットにより、360°×180°視野の3Dシーンを表す映像の生成が可能になる。また、単一の360°カメラを使用して360°×180°視野の3Dシーンを捕捉することも可能である。当然ながら、そのような視野は、より小さなもの(例えば、270°×135°)であり得る。
次いで、そのような360°映像により、ユーザは、まるでユーザがその中心に位置付けられているかのようにシーンを見たり、ユーザの周囲全体を(360°にわたって)見渡したりすることができ、それにより、新しい映像鑑賞方法が提供される。そのような映像は、一般に、「頭部装着型デバイス」に相当するHMDとしても知られているバーチャルリアリティヘッドセットにおいて再生される。しかし、それらの映像は、適切なユーザ対話手段が装備された2Dスクリーン上に表示することもできる。360°シーンを捕捉するための2Dカメラの数は、使用されるプラットフォームによって異なる。
360°映像を生成するため、様々な2Dカメラによって捕捉された多様なビューは、パノラマ2D画像を作成するために、ビュー間の重複を考慮した上で、端と端をつなげて並べられる。このステップは、「スティッチング」としても知られている。例えば、正距円筒投影(ERP)は、そのようなパノラマ画像を得るための考えられる投影の1つである。この投影によれば、2Dカメラの各々によって捕捉されたビューは、球面に投影される。キューブマッピングタイプの投影(立方体の面への投影)など、他のタイプの投影も可能である。次いで、表面に投影されたビューは、2Dパノラマ画像を得るために2D平面に投影され、2Dパノラマ画像は、所定の時刻における捕捉されたシーンのビューのすべてを含むものである。
没入感を増大させるため、前述のタイプの多数の360°カメラを同時に使用してシーンを捕捉することができ、これらのカメラは、任意の方法でシーンに位置付けられる。360°カメラは、実際のカメラ(すなわち、物理的物体)でも、バーチャルカメラでもよく、バーチャルカメラの場合は、ビューは、ビュー生成ソフトウェアによって得られる。具体的には、そのようなバーチャルカメラは、実際のカメラによって捕捉されなかった3Dシーンの視点を表すビューの生成を可能にする。
次いで、単一の360°カメラを使用して得られた360°ビューの画像又は多数の360°カメラ(実際のカメラ及びバーチャルカメラ)を使用して得られた360°ビューの画像は、例えば、
- 従来の2D映像コーダ(例えば、HEVC(「高効率映像符号化」の略語)規格に適合するコーダ)
- 従来の3D映像コーダ(例えば、MV-HEVC及び3D-HEVC規格に適合するコーダ)
を使用して符号化される。
そのようなコーダは、多数の360°ビューの画像及びそのような360°ビューを使用した3Dシーンの360°表現の特定の幾何学が符号化されることは言うまでもなく、1つの360°ビューにおいて非常に大量のデータの画像が符号化されることを考慮すると、圧縮の観点から十分に効率的とは言えない。その上、360°カメラの2Dカメラによって捕捉されたビューは多様であるため、これらのコーダによってインター画像予測はほとんど又は全く使用されないことを理由に、前述のコーダは、360°ビューの異なる画像の符号化には適さない。特に、2つの2Dカメラによってそれぞれ捕捉された2つのビューの間では、予測できる同様のコンテンツはほとんどない。従って、360°ビューの画像はすべて、同じ方法で圧縮される。具体的には、これらのコーダでは、符号化予定の現在の360°ビューの画像に関して、符号化に次いで復号されるビューのこの画像を使用することになる非捕捉中間ビュー画像の合成の一環として、この画像のデータのすべてを符号化することが理にかなっているか又はこの画像のデータのほんの一部を符号化することが理にかなっているかを判断するための分析は実行されない。
本発明の目的の1つは、前述の先行技術の欠点を修正することである。
その目的のため、本発明の一対象は、符号化デバイスによって実施される、多数のビューのビュー形成部分の画像を符号化するための方法であって、多数のビューが、異なる視野角又は位置からの3Dシーンを同時に表す、方法であり、
- ビューの画像を符号化するために第1の符号化方法又は第2の符号化方法を選択することと、
- 選択されたものが第1の符号化方法か又は第2の符号化方法かを示す情報を含むデータ信号を生成することと、
- 第1の符号化方法が選択された場合は、ビューの画像のオリジナルデータを符号化することであって、第1の符号化方法が、符号化済みのオリジナルデータを提供する、符号化することと、
- 第2の符号化方法が選択された場合は、
- ビューの画像の処理済みのデータを符号化することであって、これらのデータが、ビューの画像のオリジナルデータに適用された画像処理によって得られ、符号化が、処理済み且つ符号化済みのデータを提供する、符号化することと、
- 適用された画像処理の説明情報を符号化することと
を含む、方法であり、
- 生成されたデータ信号が、
- 第1の符号化方法が選択された場合は、ビューの画像の符号化済みのオリジナルデータ、
- 第2の符号化方法が選択された場合は、ビューの画像の処理済み且つ符号化済みのデータ及び画像処理の符号化済みの説明情報
をさらに含む、方法に関する。
本発明により、前述のタイプの符号化予定の現在のビューからの多数の画像の中から(上記画像は、符号化予定の延いては信号伝達予定の非常に大量のデータを表す)、符号化予定の各ビューの各画像に対して、2つの符号化技法、すなわち、
- 第1の符号化技法(それにより、1つ又は複数のビューの画像が従来方式(例えば、HEVC、MVC-HEVC、3D-HEVC)で符号化され、非常に優れた品質のビューを形成する再構築済みの画像がそれぞれ得られる)
- 第2の革新的な符号化技法(それにより、1つ又は複数の他のビューの画像の処理済みのデータが符号化され、処理済みの画像データが復号側で得られる。従って、処理済みの画像データは、これらの画像のオリジナルデータとは一致しないが、これらの画像の処理済み且つ符号化済みのデータの信号伝達コストがかなり減少するという利益が得られる)
を組み合わせることが可能である。
その結果、他の各ビューの各画像に対して復号側で得られるもの(第2の符号化方法に従って符号化された処理済みのデータ)は、ビューの画像の対応する処理済みのデータと、符号化側でビューの画像のオリジナルデータに適用された画像処理の説明情報である。次いで、そのような処理済みのデータは、ビューの画像を形成するために対応する画像処理説明情報を使用して処理することができ、そのビューにより、従来の第1の復号方法に従って再構築されたビューの画像の少なくとも1つと共に使用して、特に効率的且つ効果的な方法での非捕捉中間ビューの画像の合成が可能になる。
また、本発明は、復号デバイスによって実施される、多数のビューのビュー形成部分の画像を表すデータ信号を復号するための方法であって、多数のビューが、異なる視野角又は位置からの3Dシーンを同時に表す、方法であり、
- データ信号に基づいて、ビューの画像を第1の復号方法に従って復号すべきか又は第2の復号方法に従って復号すべきかを示す情報のアイテムを読み取ることと、
- 第1の復号方法である場合は、
- データ信号において、ビューの画像と関連付けられた符号化済みのデータを読み取ることと、
- 読み取られた符号化済みのデータに基づいて、ビューの画像を再構築することであって、再構築済みのビューの画像が、ビューの画像のオリジナルデータを含む、再構築することと、
- 第2の復号方法である場合は、
- データ信号において、ビューの画像と関連付けられた符号化済みのデータを読み取ることと、
- 読み取られた符号化済みのデータに基づいて、ビューの画像を再構築することであって、ビューの再構築済みの画像が、処理済みのデータを得るために使用された画像処理の説明情報と関連付けられたビューの画像の処理済みのデータを含む、再構築することと、
を含む、方法にも関する。
特定の一実施形態によれば、
- ビューの画像の処理済みのデータは、ビューの画像のクロッピングの適用後の削除されなかったビューの画像のデータである。
- 画像処理の説明情報は、ビューの画像における1つ又は複数のクロッピング済みの領域の場所についての情報である。
上記ビューの画像に適用されるそのようなクロッピング処理により、そのオリジナルデータの一部分の符号化を回避することができ、クロッピングされた1つ又は複数の領域に属するデータは符号化もデコーダへの信号伝達も行われないという理由で、上記ビューの画像と関連付けられた符号化済みのデータの伝送レートがかなり減少するという利益が得られる。レートの減少は、クロッピングされる1つ又は複数の領域のサイズに依存する。従って、復号後に再構築され、次いで、潜在的には、対応する画像処理説明情報を使用してその処理済みのデータが処理されることになるビューの画像は、そのオリジナルデータのすべてを含むものではないか、又は、少なくともビューのオリジナル画像とは異なるものである。しかし、このようにクロッピングされたビューのそのような画像を得ることにより、再構築された時点で、上記クロッピング済みのビューのそのような画像を使用することになる中間画像の合成の効果が害されることはない。現に、従来のデコーダ(例えば、HEVC、MVC-HEVC、3D-HEVC)を使用して再構築された1つ又は複数の画像を使用するそのような合成、上記ビューの画像及び従来方式で再構築された画像によって、中間ビューのオリジナル領域を回収することができる。
別の特定の実施形態によれば、
- ビューの画像の処理済みのデータは、所定のサンプリングファクタに従って及び少なくとも1つの所定の方向においてサンプリングが行われたビューの画像の少なくとも1つの領域のデータである。
- 画像処理の説明情報は、ビューの画像における少なくとも1つのサンプリング済みの領域の場所についての情報の少なくとも1つのアイテムを含む。
そのような処理は、この場合も、サンプリングの適用に次いで符号化されることから生じるデータのレートの減少を最適化することを目的として、上記ビューの画像の均一デグラデーションに助力する。このようにサンプリングされたビューのそのような画像の後続の再構築により、それがビューのオリジナル画像からデグラデーションした/オリジナル画像とは異なるビューの再構築済みの画像を提供するとしても(オリジナルデータはサンプリングに次いで符号化されている)、上記サンプリング済み且つ再構築済みのビューのそのような画像を使用することになる中間画像の合成の効果が害されることはない。現に、従来のデコーダ(例えば、HEVC、MVC-HEVC、3D-HEVC)を使用して再構築された1つ又は複数の画像を使用するそのような合成、これらの1つ又は複数の従来方式で再構築された画像において、上記ビューの画像のフィルタリング済みの領域に対応するオリジナル領域を回収することができる。
別の特定の実施形態によれば、
- ビューの画像の処理済みのデータは、フィルタリングが行われたビューの画像の少なくとも1つの領域のデータである。
- 画像処理の説明情報は、ビューの画像における少なくとも1つのフィルタリング済みの領域の場所についての情報の少なくとも1つのアイテムを含む。
そのような処理は、符号化済みのデータのレートの減少を最適化することを目的として、符号化に不要と考えられる上記ビューの画像のデータの削除に助力し、符号化済みのデータは、有利には、画像のフィルタリング済みのデータのみで形成される。
このようにフィルタリングされたビューのそのような画像の後続の再構築により、それがビューのオリジナル画像からデグラデーションした/オリジナル画像とは異なるビューの再構築済みの画像を提供するとしても(オリジナルデータはフィルタリングに次いで符号化されている)、上記フィルタリング済み且つ再構築済みのビューのそのような画像を使用することになる中間画像の合成の効果が害されることはない。現に、従来のデコーダ(例えば、HEVC、MVC-HEVC、3D-HEVC)を使用して再構築された1つ又は複数の画像を使用するそのような合成、上記ビューの画像のフィルタリング済みの領域及び従来方式で再構築された画像によって、中間ビューのオリジナル領域を回収することができる。
別の特定の実施形態によれば、
- ビューの画像の処理済みのデータは、多数のビューのうちの別のビューの画像を使用して検出されたオクルージョンに対応するビューの画像の画素である。
- 画像処理の説明情報は、別のビューの画像に見られるビューの画像の画素のインジケータを含む。
先行する実施形態と同様に、そのような処理は、符号化済みのデータのレートの減少を最適化することを目的として、符号化に不要と考えられる上記ビューの画像のデータの削除に助力し、符号化済みのデータは、有利には、上記ビューの画像の画素のみで形成され、その欠如は、上記多数のビューのうちの現在のビューの別の画像において検出されている。
ビューのそのような画像の後続の再構築により、それがビューのオリジナル画像からデグラデーションした/オリジナル画像とは異なるビューの再構築済みの画像を提供するとしても(オクルージョン領域のみが符号化されている)、上記ビューのそのような再構築済みの画像を使用することになる中間画像の合成の効果が害されることはない。現に、従来のデコーダ(例えば、HEVC、MVC-HEVC、3D-HEVC)を使用して再構築された1つ又は複数の画像を使用するそのような合成、現在のビューの画像及び従来方式で再構築された画像によって、中間ビューのオリジナル領域を回収することができる。
別の特定の実施形態によれば、
- 符号化/復号されたビューの画像の処理済みのデータは、
- ビューの画像のオリジナルデータに基づいて、
- 第1の符号化/復号方法を使用して符号化/復号された少なくとも1つの他のビューの画像のオリジナルデータに基づいて、
- 潜在的には、処理済みのデータが第2の符号化/復号方法を使用して符号化/復号された少なくとも1つの他のビューの画像のオリジナルデータに基づいて、
計算された画素である。
- 上記画像処理の説明情報は、
- 計算されたビューの画像の画素のインジケータ、
- 第1の符号化/復号方法を使用して符号化/復号された少なくとも1つの他のビューの画像における、ビューの画像の画素を計算するために使用されたオリジナルデータの場所についての情報、
- 潜在的には、処理済みのデータが符号化/復号された少なくとも1つの他のビューの画像における、ビューの画像の画素を計算するために使用されたオリジナルデータの場所についての情報
を含む。
別の特定の実施形態によれば、第1のビューの画像の処理済みのデータ及び少なくとも1つの第2のビューの画像の処理済みのデータは、単一の画像に組み合わされる。
上記の実施形態に応じて、第2の復号方法に従って得られるビューの画像の処理済みのデータは、第1のビューの画像の処理済みのデータ及び少なくとも1つの第2のビューの画像の処理済みのデータを含む。
特定の一実施形態によれば、
- ビューの画像の処理済み且つ符号化/復号済みのデータは、画像タイプのデータである。
- 画像処理の符号化/復号済みの説明情報は、画像タイプ及び/又はテキストタイプのデータである。
また、本発明は、多数のビューのビュー形成部分の画像を符号化するためのデバイスであって、多数のビューが、異なる視野角又は位置からの3Dシーンを同時に表す、符号化デバイスであり、現在の時刻において、
- ビューの画像を符号化するために第1の符号化方法又は第2の符号化方法を選択することと、
- 選択されたものが第1の符号化方法か又は第2の符号化方法かを示す情報を含むデータ信号を生成することと、
- 第1の符号化方法が選択された場合は、ビューの画像のオリジナルデータを符号化することであって、第1の符号化方法が、符号化済みのオリジナルデータを提供する、符号化することと、
- 第2の符号化方法が選択された場合は、
- ビューの画像の処理済みのデータを符号化することであって、処理済みのデータが、ビューの画像のオリジナルデータに適用された画像処理によって得られ、符号化が、処理済み且つ符号化済みのデータを提供する、符号化することと、
- 適用された画像処理の説明情報を符号化することと
を実施するように構成されたプロセッサを含む、符号化デバイスであり、
- 生成されたデータ信号が、
- 第1の符号化方法が選択された場合は、ビューの画像の符号化済みのオリジナルデータ、
- 第2の符号化方法が選択された場合は、ビューの画像の処理済み且つ符号化済みのデータ及び画像処理の符号化済みの説明情報
をさらに含む、符号化デバイスにも関する。
そのような符号化デバイスは、具体的には、前述の符号化方法を実施することができる。
また、本発明は、多数のビューのビュー形成部分の画像を表すデータ信号を復号するためのデバイスであって、多数のビューが、異なる視野角又は位置からの3Dシーンを同時に表す、復号デバイスであり、現在の時刻において、
- データ信号において、ビューの画像を第1の復号方法に従って復号すべきか又は第2の復号方法に従って復号すべきかを示す情報のアイテムを読み取ることと、
- 第1の復号方法である場合は、
- データ信号において、ビューの画像と関連付けられた符号化済みのデータを読み取ることと、
- 読み取られた符号化済みのデータに基づいて、ビューの画像を再構築することであって、再構築済みのビューの画像が、ビューの画像のオリジナルデータを含む、再構築することと、
- 第2の復号方法である場合は、
- データ信号において、ビューの画像と関連付けられた符号化済みのデータを読み取ることと、
- 読み取られた符号化済みのデータに基づいて、ビューの画像を再構築することであって、ビューの再構築済みの画像が、処理済みのデータを得るために使用された画像処理の説明情報と関連付けられたビューの画像の処理済みのデータを含む、再構築することと、
を実施するように構成されたプロセッサを含む、復号デバイスにも関する。
そのような復号デバイスは、具体的には、前述の復号方法を実施することができる。
また、本発明は、前述の符号化方法に従って符号化されたデータを含むデータ信号にも関する。
また、本発明は、コンピュータプログラムがプロセッサによって実行されると、上記で説明される特定の実施形態のいずれか1つに従って、本発明による復号方法又は符号化方法を実施するための命令を含む上記プログラムにも関する。
このプログラムは、いかなるプログラミング言語も使用することができ、部分的にコンパイルされた形態又は他の任意の望ましい形態など、ソースコード、オブジェクトコード、又は、ソースコードとオブジェクトコードとの間の中間コードの形態であり得る。
また、本発明は、上記で言及したものなどのコンピュータプログラム命令を含むコンピュータ可読記録媒体又は情報媒体も対象とする。
記録媒体は、プログラムの格納が可能ないかなるエンティティ又はデバイスでもあり得る。例えば、媒体は、ROMなどの記憶手段(例えば、CD-ROM若しくは超小型電子回路ROM)又は磁気記録手段(例えば、USBキー若しくはハードディスク)を含み得る。
その上、記録媒体は、無線又は他の手段によって、電気又は光ケーブルを介して伝達することができる電気又は光信号など、伝送可能媒体でもあり得る。本発明によるプログラムは、具体的には、インターネットタイプのネットワークからダウンロードすることができる。
或いは、記録媒体は、プログラムが組み込まれた集積回路であり得、回路は、前述の符号化又は復号方法を実行するか又は実行する際に使用するように適応させる。
他の特徴及び利点は、添付の図面を参照して以下で説明されている、純粋に説明に役立つ及び非限定的な例として提供されるいくつかの好ましい実施形態を読み進めることで、より明確に明らかになるであろう。
本発明の一実施形態による符号化方法によって実行される主要なアクションを示す。 図1の符号化方法の実施に続いて生成することができるデータ信号の第1のタイプを示す。 図1の符号化方法の実施に続いて生成することができるデータ信号の第2のタイプを示す。 図1の符号化方法の実施に続いて生成することができるデータ信号の第3のタイプを示す。 現在の時刻において利用可能なビューの画像のすべてを符号化するための方法の第1の実施形態を示す。 現在の時刻において利用可能なビューの画像のすべてを符号化するための方法の第2の実施形態を示す。 第1の実施形態による、ビューの画像に適用される処理の例の各々を示す。 第1の実施形態による、ビューの画像に適用される処理の例の各々を示す。 第1の実施形態による、ビューの画像に適用される処理の例の各々を示す。 第1の実施形態による、ビューの画像に適用される処理の例の各々を示す。 第1の実施形態による、ビューの画像に適用される処理の例の各々を示す。 第2の実施形態による、ビューの画像に適用される処理の例の各々を示す。 第2の実施形態による、ビューの画像に適用される処理の例の各々を示す。 第2の実施形態による、ビューの画像に適用される処理の例の各々を示す。 第2の実施形態による、ビューの画像に適用される処理の例の各々を示す。 第3の実施形態による、ビューの画像に適用される処理の例を示す。 第4の実施形態による、ビューの画像に適用される処理の例を示す。 第5の実施形態による、ビューの画像に適用される処理の例を示す。 第6の実施形態による、ビューの画像に適用される処理の例を示す。 図1の符号化方法を実施する符号化デバイスを示す。 本発明の一実施形態による復号方法によって実行される主要なアクションを示す。 現在の時刻において利用可能なビューの画像のすべてを復号するための方法の第1の実施形態を示す。 現在の時刻において利用可能なビューの画像のすべてを復号するための方法の第2の実施形態を示す。 図11の復号方法を実施する復号デバイスを示す。 ビューの画像の合成の一実施形態を示し、図11の復号方法に従って再構築されたビューの画像が使用される。 第1の実施形態による、その再構築の後にビューの画像に適用される処理の例の各々を示す。 第1の実施形態による、その再構築の後にビューの画像に適用される処理の例の各々を示す。 第1の実施形態による、その再構築の後にビューの画像に適用される処理の例の各々を示す。 第1の実施形態による、その再構築の後にビューの画像に適用される処理の例の各々を示す。 第2の実施形態による、その再構築の後にビューの画像に適用される処理の例を示す。 第3の実施形態による、その再構築の後にビューの画像に適用される処理の例を示す。 第4の実施形態による、その再構築の後にビューの画像に適用される処理の例を示す。
本発明は、主に、多数のビューの多数の現在の画像をそれぞれ符号化するためのスキームを提案し、多数のビューは、現在の時刻における、所定の位置又は所定の視野角による3Dシーンを表し、2つの符号化技法、すなわち、
- 第1の符号化技法(それにより、ビューの少なくとも1つの現在の画像が従来の符号化モード(例えば、HEVC、MV-HEVC、3D-HEVCなど)を使用して符号化される)
- 第2の革新的な符号化技法(それにより、前述のタイプの従来の符号化モード及び/又は他の任意の適切な符号化モードを使用して、ビューの少なくとも1つの現在の画像の処理データ(特定の画像処理を使用してこの画像のオリジナルデータの処理の適用から得られたもの)が符号化され、それにより、符号化ステップの前に実施された処理から得られるこの画像の符号化済みのデータの信号伝達コストがかなり減少する)
が利用可能である。
それに応じて、本発明は、2つの復号技法、すなわち、
- 第1の復号技法(それにより、符号化の際に使用され且つデコーダに信号伝達された従来の符号化モードに対応する従来の復号モード(例えば、HEVC、MV-HEVC、3D-HEVCなど)を使用して、符号化済みのビューの少なくとも1つの現在の画像が再構築され、それにより、非常に優れた品質のビューの少なくとも1つの再構築済みの画像が得られる)
- 第2の革新的な復号技法(それにより、デコーダに信号伝達された符号化モード(すなわち、従来の符号化モード及び/又は他の適切な符号化モード)に対応する復号モードを使用して、ビューの少なくとも1つの画像の符号化済みの処理データが復号され、それにより、処理済みの画像データ及び得られた処理済みのデータの発生源である画像処理の説明情報が得られる。従って、この画像に対して復号側で得られた処理済みのデータは、第1の復号技法に従って復号された画像データとは異なり、そのオリジナルデータとは一致しない)
を組み合わせられるようにする復号スキームを提案する。
そのような処理済み且つ復号済みの画像データ及び画像処理説明情報に基づいてその後に再構築されるビューの画像は、ビューのオリジナル画像(すなわち、そのオリジナルデータの処理に次いで符号化される前のもの)とは異なるものとなる。しかし、ビューのそのような再構築済みの画像は、第1の従来の復号技法に従って再構築された他のビューの画像と共に使用して、特に効率的且つ効果的な方法での中間ビューの画像の合成を可能にするビューの画像を構成する。
6.例示的な符号化スキームの実装
以下では、例えば、3D-HEVC若しくはMV-HEVC規格又は同様のものに適合するいかなるタイプのマルチビュー映像コーダも使用することができる360°、180°又は他の全方位映像を符号化するための方法について説明する。
図1を参照すると、そのような符号化方法は、多数のビューV、…、Vの一部を形成するビューの現在の画像に適用され、多数のビューは、多数の視野角又は多数の位置/向きによる3Dシーンをそれぞれ表す。
共通の例によれば、映像(例えば、360°映像)を生成するために3つの全方位カメラが使用される事例では、
- 第1の全方位カメラは、例えば、360°×180°視野角で3Dシーンの中心に置くことができ、
- 第2の全方位カメラは、例えば、360°×180°視野角で3Dシーンの左側に置くことができ、
- 第3の全方位カメラは、例えば、360°×180°視野角で3Dシーンの右側に置くことができる。
別のより非定型的な例によれば、α°映像(0°<α≦360°)を生成するために3つの全方位カメラが使用される事例では、
- 第1の全方位カメラは、例えば、360°×180°視野角で3Dシーンの中心に置くことができ、
- 第2の全方位カメラは、例えば、270°×135°視野角で3Dシーンの左側に置くことができ、
- 第3の全方位カメラは、例えば、180°×90°視野角で3Dシーンの右側に置くことができる。
当然ながら、他の構成も可能である。
上記多数のビューの少なくとも2つのビューは、同じ視野角からの3Dシーンを表すものでも、そうではないものでもよい。
本発明による符号化方法は、現在の時刻において、
- ビューVの画像IV
- ビューVの画像IV
-…、
- ビューVの画像IV
-…、
- ビューVの画像IV
を符号化するものである。
対象のビューの画像は、同様に、テクスチャ画像又は深度画像であり得る。対象のビューの画像(例えば、画像IV)は、例えば、Q個の画素など、数量Q(Q≧1)のオリジナルデータ(d1…、dQ)を含む。
次いで、符号化方法は、符号化予定のビューVの少なくとも1つの画像IVに対して、以下を含む。
C1では、画像IVに対して、第1の符号化方法MC1又は第2の符号化方法MC2が選択される。
第1の符号化方法MC1が選択された場合は、C10において、符号化方法MC1が選択されたことを示すために、例えば、ビットを0に設定して、flag_procという情報が符号化される。
C11aでは、例えば、HEVC、MV-HEVC、3D-HEVCなどの規格に適合するものなどの従来のコーダを使用して、画像IVのQ個のオリジナルデータ(画素)d1、…、dQが符号化される。符号化C11aが完了すると、ビューVの符号化済みの画像IVCが得られる。次いで、符号化済みの画像IVCは、Q個の符号化済みのオリジナルデータdc1、dc2、…、dcQを含む。
C12aでは、データ信号F1が生成される。図2Aに示されるように、データ信号F1は、第1の符号化方法MC1の選択に関連するflag_proc=0という情報と、符号化済みのオリジナルデータdc1、dc2、…、dcQとを含む。
第2の符号化方法MC2が選択された場合は、C10において、符号化方法MC2が選択されたことを示すために、例えば、ビットを1に設定して、flag_procという情報が符号化される。
C11bでは、符号化ステップの前に行われた画像IVの処理から生じたデータDTに符号化方法MC2が適用される。
そのようなデータDTは、
- 符号化ステップの前に特定の画像処理を使用して処理された画像IVのオリジナルデータのすべて又は一部に相当する画像タイプ(画素)のデータ(その様々な詳細な例については、説明においてさらに記載する)、
- 符号化ステップC11bの前に画像IVに適用された画像処理の説明情報(そのような説明情報は、例えば、テキスト及び/又は画像タイプである)
を含む。
符号化C11bが完了すると、処理済み且つ符号化済みのデータDTCが得られる。それらの処理済み且つ符号化済みのデータDTCは、処理済み且つ符号化済みの画像IVTCを表す。
従って、処理済みのデータDTは、画像IVのオリジナルデータとは一致しない。
例えば、これらの処理済みのデータDTは、その解像度が処理前の画像IVの解像度より高いか又は低い画像に相当する。従って、処理済みの画像IVは、例えば、他のビューの画像に基づいて得られることを理由に、より大きなものでも、逆に、画像IVから1つ又は複数のオリジナル画素を削除して得られることを理由に、より小さなものでもあり得る。
別の例によれば、これらの処理済みのデータDTは、処理済みの画像IVの表現(YUV、RGBなど)のフォーマットが処理前の画像IVのオリジナルフォーマットとは異なる画像や、画素を表すためのビット数(16ビット、10ビット、8ビットなど)が異なる画像に相当する。
さらなる別の例によれば、これらの処理済みのデータDTは、処理前の画像IVのオリジナルテクスチャ又は色成分に対してデグラデーションした色又はテクスチャ成分に相当する。
さらなる別の例によれば、これらの処理済みのデータDTは、処理前の画像IVのオリジナルコンテンツの特定の表現(例えば、画像IVのフィルタリング済みのオリジナルコンテンツの表現)に相当する。
処理済みのデータDTが単なる画像データである(すなわち、例えば、画素のグリッドの形態である)事例では、符号化方法MC2は、第1の符号化方法MC1を実施するコーダと同様のコーダによって実施することができる。それは、ロッシー又はロスレスコーダであり得る。処理済みのデータDTが画像データとは異なる(例えば、テキストタイプのデータなど)か、又は、画像データと画像データ以外のタイプのデータの両方を含む事例では、符号化方法MC2は、
- 特にテキストタイプのデータを符号化するために、ロスレスコーダによって、
- 特に画像データを符号化するために、ロッシー又はロスレスコーダによって(そのようなコーダは、第1の符号化方法MC1を実施するコーダと同一である可能性も、異なる可能性もある)
実施することができる。
C12bでは、データ信号F2が生成される。図2Bに示されるように、データ信号F2は、これらのデータがすべて画像データである事例では、第2の符号化方法MC2の選択に関連するflag_proc=1という情報と、処理済み且つ符号化済みのデータDTCとを含む。
代替として、C12cでは、処理済み且つ符号化済みのデータDTCが画像データとテキストタイプのデータの両方を含む事例では、2つの信号F3、F’3が生成される。
図2Cに示されるように、
- データ信号F’3は、第2の符号化方法MC2の選択に関連するflag_proc=1という情報と、画像タイプの処理済み且つ符号化済みのデータDTCとを含み、
- データ信号F’3は、テキストタイプの処理済み且つ符号化済みのデータDTCを含む。
たった今上記で説明した符号化方法は、次いで、利用可能な符号化予定のN個のビューの各画像IV、IV、…、IVに対して、それらのいくつかのみに対して、又は、画像IV(例えば、k=1)に限定して、実施することができる。
図3A及び3Bに示される2つの例示的な実施形態によれば、例えば、符号化予定のN個の画像IV、…、IVの中で、以下のように想定される。
- n個の最初の画像IV、…、IVは、第1の符号化技法MC1を使用して符号化される。n個の最初のビューV~Vは、マスタビューと呼ばれるが、その理由は、再構築された時点で、n個のマスタビューの画像は、それらのオリジナルデータのすべてを含み、ユーザに必要な任意のビューの画像を合成するためにN-n個の他のビューのうちの1つ又は複数と共に使用するのに適しているためである。
- N-n個の他の画像IVn+1、…、IVは、第2の符号化方法MC2を使用して符号化する前に処理される。これらの処理されたN-n個の他の画像は、追加のビューと呼ばれるものに属する。
n=0の場合は、すべてのビューのすべての画像IV、…、IVが処理される。n=N-1の場合は、N個の中の単一のビューの画像(例えば、第1のビューの画像)が処理される。
N-n個の他の画像IVn+1、…、IVの処理が完了すると、M-n個の処理済みのデータが得られる。M=Nの場合は、処理すべきビューの数だけ処理済みのデータが存在する。M<Nの場合は、処理の間に、N-n個のビューの少なくとも1つが削除されている。この事例では、第2の符号化方法MC2による符号化C11bが完了すると、削除されたビューのこの画像に関連する処理済みのデータは、ロスレスコーダを使用して符号化されるものであり、この画像及びこのビューの欠如を示す情報のみを含む。次いで、処理によって削除されたこの画像に対しては、どの画素も、HEVC、MVC-HEVC、3D-HEVCなどのタイプのコーダを使用した第2の符号化方法MC2を使用して符号化されることはない。
図3Aの例では、C11aにおいて、HEVCタイプの従来のコーダを使用して、n個の最初の画像IV、…、IVが互いに独立して符号化される。符号化C11aが完了すると、n個の符号化済みの画像IVC、…、IVCがそれぞれ得られる。C12aでは、n個のデータ信号F1、…、F1がそれぞれ生成される。C13aでは、これらのn個のデータ信号F1、…、F1が連結され、データ信号F1が生成される。
破線矢印によって表されるように、画像IV、…、IVは、N-n個の他の画像IVn+1、…、IVの処理の間に使用することができる。
依然として図3Aを参照すると、C11bにおいて、HEVCタイプの従来のコーダを使用して、M-n個の処理済みのデータDTn+1、…、DTが互いに独立して符号化されるか(これらのM-n個の処理済みのデータがすべて画像タイプである場合)、或いは、画像タイプの処理済みのデータに対しては、HEVCタイプの従来のコーダを使用して互いに独立して符号化され、テキストタイプの処理済みのデータに対しては、ロスレスコーダによって符号化される(それらのデータが画像タイプとテキストタイプの両方である場合)。符号化C11bが完了すると、N-n個の処理済み且つ符号化済みのデータDTCn+1、…、DTCが、N-n個の画像IVn+1、…、IVのそれぞれと関連付けられたN-n個の符号化済みのデータとしてそれぞれ得られる。C12bでは、M-n個の処理済みのデータがすべて画像タイプである事例では、N-n個の処理済み且つ符号化済みのデータDTCn+1、…、DTCをそれぞれ含むN-n個のデータ信号F2n+1、…、F2がそれぞれ生成される。C12cでは、M-n個の処理済みのデータが画像タイプとテキストタイプの両方である事例では、
- 画像タイプのN-n個の処理済み且つ符号化済みのデータをそれぞれ含むN-n個のデータ信号F3n+1、…、F3が生成され、
- テキストタイプのN-n個の処理済み且つ符号化済みのデータをそれぞれ含むN-n個のデータ信号F’3n+1…、F’3が生成される。
C13cでは、データ信号F3n+1、…F3及びF’3n+1、…、F’3が連結され、データ信号F3が生成される。
C14では、信号F1とF2が連結されるか、又は、信号F1とF3が連結され、復号方法によって復号することができるデータ信号Fが提供される。復号方法については、説明においてさらに記載する。
図3Bの例では、C11aにおいて、MV-HEVC又は3D-HEVCタイプの従来のコーダを使用して、n個の最初の画像IV、…、IVが同時に符号化される。符号化C11aが完了すると、n個の符号化済みの画像IVC、…、IVCがそれぞれ得られる。C12aでは、単一の信号F1が生成され、単一の信号F1は、これらのn個の符号化済みの画像の各々と関連付けられた符号化済みのオリジナルデータを含む。
破線矢印によって表されるように、最初の画像IV、…、IVは、N-n個の他の画像IVn+1、…、IVの処理の間に使用することができる。
依然として図3Bを参照すると、C11bにおいて、MV-HEVC又は3D-HEVCタイプの従来のコーダを使用して、画像タイプのM-n個の処理済みのデータDTn+1、…、DTが同時に符号化されるか(これらのM-n個の処理済みのデータがすべて画像タイプである場合)、或いは、画像タイプの処理済みのデータに対しては、MV-HEVC又は3D-HEVCタイプの従来のコーダを使用して同時に符号化され、テキストタイプの処理済みのデータに対しては、ロスレスコーダによって符号化される(それらのデータが画像タイプとテキストタイプの両方である場合)。符号化C11bが完了すると、N-n個の処理済み且つ符号化済みのデータDTCn+1、…、DTCが、処理されたN-n個の画像IVn+1、…、IVのそれぞれと関連付けられたN-n個の処理済み且つ符号化済みのデータとしてそれぞれ得られる。C12bでは、M-n個の処理済みのデータがすべて画像タイプである事例では、画像タイプのN-n個の処理済み且つ符号化済みのデータDTCn+1、…、DTCを含む単一の信号F2が生成される。C12cでは、M-n個の処理済みのデータが画像タイプとテキストタイプの両方である事例では、
- 画像タイプの処理済み且つ符号化済みのデータを含む信号F3が生成され、
- テキストタイプの処理済み且つ符号化済みのデータを含む信号F’3が生成される。
C14では、信号F1とF2が連結されるか、又は、信号F1とF3とF’3が連結され、復号方法によって復号することができるデータ信号Fが提供される。復号方法については、説明においてさらに説明する。
当然ながら、符号化方法の他の組合せも可能である。
図3Aの1つの可能な変形形態によれば、符号化方法MC1を実施するコーダがHEVCタイプのコーダであり、符号化方法MC2を実施するコーダがMV-HEVC若しくは3D-HEVCタイプのコーダであるか又はMV-HEVC若しくは3D-HEVCタイプのコーダ及びロッシーコーダを含むことも可能である。
図3Bの1つの可能な変形形態によれば、符号化方法MC1を実施するコーダがMV-HEVC又は3D-HEVCタイプのコーダであり、符号化方法MC2を実施するコーダがHEVCタイプのコーダであるか又はHEVCタイプのコーダ及びロスレスコーダを含むことも可能である。
ここでは、図4A~4Eを参照して、第2の符号化方法MC2による符号化ステップC11b(図1)の前に画像IVのオリジナルデータに適用される処理の第1の実施形態についての説明を提供する。
これらの図に示される例では、画像IVのオリジナルデータに適用される処理は、この画像の1つ又は複数の領域の水平方向若しくは垂直方向の又は両方向同時のクロッピングである。
図4Aの例では、画像IVの左側の境界B1及び右側の境界B2がクロッピングされている。そのクロッピングは、境界B1及びB2の各々によって形成された画像IVの長方形領域の画素の削除を意味する。
図4Bの例では、画像IVの上側の境界B3及び下側の境界B4がクロッピングされている。そのクロッピングは、境界B3及びB4の各々によって形成された画像IVの長方形領域の画素の削除を意味する。
図4Cの例では、クロッピングは、画像IVに位置する長方形領域Z1に垂直方向に適用されている。
図4Dの例では、クロッピングは、画像IVに位置する長方形領域Z2に水平方向に適用されている。
図4Eの例では、クロッピングは、画像IVに位置する領域Z3に水平方向と垂直方向の両方に適用されている。
次いで、符号化予定の処理済みのデータDTは、
- クロッピング(図4A、4B、4E)後の削除されなかった画像IVの残りの領域Zの画素、又は、クロッピング後の削除されなかった画像IVの残りの領域Z1及びZ2(図4C、4D)の画素と、
- 適用されたクロッピングについて説明する情報と
を含む。
例えば、図4A、4B、4Eの事例では、適用されたクロッピングについて説明する情報は、テキストタイプのものであり、
- 画像IVの残りの領域Zの一番左上に位置する画素の座標と、
- 画像IVの残りの領域Zの一番右下に位置する画素の座標と
を含む。
例えば、図4C及び4Dの事例では、適用されたクロッピングについて説明する情報は、
- 画像IVの残りの領域Z1の一番左上に位置する画素の座標と、
- 画像IVの残りの領域Z1の一番右下に位置する画素の座標と、
- 画像IVの残りの領域Z2の一番左上に位置する画素の座標と、
- 画像IVの残りの領域Z2の一番右下に位置する画素の座標と
を含む。
次いで、C11b(図1)において、HEVC、3D-HEVC、MV-HEVCなどのタイプのコーダによって、残りの領域Z(Z1とZ2のそれぞれ)の一番左上に位置する画素の座標と、残りの領域Z(Z1とZ2のそれぞれ)の一番右下に位置する画素の座標とによって定義される長方形領域のオリジナルデータ(画素)が符号化される。適用されたクロッピングの説明情報は、その部分に対して、C11b(図1)において、ロスレスコーダによって符号化される。
変形形態として、適用されたクロッピングについて説明する情報は、削除される画素の行及び/又は列の数と、画像IVにおけるこれらの行及び/又は列の位置を含む。
一実施形態によれば、クロッピングによって削除されるデータ量は固定される。例えば、その量は、対象のビューの画像からX行及び/又はY列を体系的に削除するように決定することができる。この事例では、説明情報は、クロッピングについての情報のみ(又は各ビューに対するものではない)を含む。
別の実施形態によれば、クロッピングによって削除されるデータ量は、ビューVの画像IVと利用可能な別のビューの画像との間で変更することができる。
また、クロッピングによって削除されるデータ量は、例えば、画像IVを捕捉したカメラの3Dシーンの位置にも依存し得る。従って、例えば、上記N個のビューの中の別のビューの画像が、画像IVを捕捉したカメラの位置/向きとは異なる3Dシーンにおける位置/向きを有するカメラによって捕捉されている場合は、例えば、画像IVに対して削除されたデータ量とは異なる削除されるデータ量が使用される。
クロッピングの適用は、画像IVが符号化される時刻にさらに依存し得る。例えば、現在の時刻では、画像IVにクロッピングを適用することを決定する一方で、現在の時刻の前後の時刻では、画像IVにそのようなクロッピング又はその件に関する任意の処理を適用しないことを決定することができる。
最後に、クロッピングは、現在の時刻において1つ又は複数のビューの画像に適用することができる。ビューVの画像IVのクロッピング済みの領域は、現在の時刻において符号化予定の別のビューの画像のクロッピング済みの領域と同じであっても、同じでなくともよい。
ここでは、図5A~5Dを参照して、第2の符号化方法MC2による符号化ステップC11b(図1)の前に画像IVのオリジナルデータに適用される処理の第2の実施形態についての説明を提供する。
これらの図に示される例では、画像IVのオリジナルデータに適用される処理は、この画像の1つ又は複数の領域の水平方向又は垂直方向のダウンサンプリングである。
図5Aの例では、ダウンサンプリングは、画像IVの領域Z4に垂直方向に適用されている。
図5Bの例では、ダウンサンプリングは、画像IVの領域Z5に水平方向に適用されている。
図5Cの例では、ダウンサンプリングは、画像IV全体に適用されている。
図5Dの例では、ダウンサンプリングは、画像IVの領域Z6に水平方向と垂直方向の両方に適用されている。
次いで、符号化予定の処理済みのデータDTは、
- ダウンサンプリング済みの画像データ(画素)と、
- 適用されたダウンサンプリングについて説明する情報と
を含み、適用されたダウンサンプリングについて説明する情報は、例えば、
- 使用されたダウンサンプリングファクタ、
- 使用されたダウンサンプリング方向、
- 図5A、5B、5Dの事例では、画像IVのフィルタリング済みの領域Z4、Z5、Z6の場所、又は、
- 図5Cの事例では、画像IVの一番左上に位置する画素の座標、及び、画像IVの一番右下に位置する画素の座標(従って、この画像の完全なエリアを定義する)
などである。
次いで、C11b(図1)において、HEVC、3D-HEVC、MV-HEVCなどのタイプのコーダによって、ダウンサンプリング済みの画像データ(画素)が符号化される。適用されたダウンサンプリングの説明情報は、その部分に対して、C11b(図1)において、ロスレスコーダによって符号化される。
ダウンサンプリングファクタの値は、固定することも、画像IVを捕捉したカメラの3Dシーンの位置に依存することも可能である。従って、例えば、上記N個のビューの中の別のビューの画像が、画像IVを捕捉したカメラの位置/向きとは異なる3Dシーンにおける位置/向きを有するカメラによって捕捉されている場合は、例えば、別のダウンサンプリングファクタが使用される。
ダウンサンプリングの適用は、ビューVの画像が符号化される時刻にさらに依存し得る。例えば、現在の時刻では、画像IVにダウンサンプリングを適用することを決定する一方で、現在の時刻の前後の時刻では、ビューVの画像にそのようなダウンサンプリング又はその件に関する任意の処理を適用しないことを決定することができる。
最後に、ダウンサンプリングは、現在の時刻において1つ又は複数のビューの画像に適用することができる。画像IVのダウンサンプリング済みの領域は、現在の時刻において符号化予定の別のビューの画像のダウンサンプリング済みの領域と同じであっても、同じでなくともよい。
ここでは、図6を参照して、第2の符号化方法MC2による符号化ステップC11b(図1)の前に画像IVのオリジナルデータに適用される処理の第3の実施形態についての説明を提供する。
図6に示される例では、画像IVのオリジナルデータに適用された処理は、この画像のフィルタリングによる輪郭の検出である。例えば、2つの輪郭ED1及びED2が画像IVに存在する。それ自体周知の方法では、そのようなフィルタリングは、例えば、
- 輪郭ED1及びED2に輪郭検出フィルタを適用することと、
- 輪郭ED1及びED2の各々を取り囲む領域(図6のハッチングによって表されている領域など)を増大するために輪郭ED1及びED2の拡大を適用することと、
- 斜線の入った領域の部分を形成しない(従って、符号化は不要であると考えられる)オリジナルデータのすべてを画像IVから削除することと
を含む。
次いで、符号化予定の処理済みのデータDTは、そのようなフィルタリングの事例では、
- 斜線の入った領域に含まれるオリジナル画素と、
- 適用されたフィルタリングについて説明する情報(例えば、斜線の入った領域に含まれない各画素に対して事前に定義された値など、例えば、事前に定義された値YUV=000によって表される)と
を含む。
次いで、C11b(図1)において、HEVC、3D-HEVC、MV-HEVCなどのタイプのコーダによって、斜線の入った領域に対応する画像データ(画素)が符号化される。適用されたフィルタリングの説明情報は、その部分に対して、C11b(図1)において、ロスレスコーダによって符号化される。
画像IVに関連してたった今説明したフィルタリングは、上記N個のビューの中の他のビューの1つ又は複数の画像(ビューの画像によって異なり得るこれらの1つ又は複数の画像の領域)に適用することができる。
ここでは、図7を参照して、第2の符号化方法MC2による符号化ステップC11b(図1)の前に画像IVのオリジナルデータに適用される処理の第4の実施形態についての説明を提供する。
図7に示される例では、画像IVのオリジナルデータに適用された処理は、N個のビューの中の別のビューVの少なくとも1つの画像IVを使用した画像IVの少なくとも1つの領域ZOCのオクルージョンの検出である(1≦p≦N)。
それ自体周知の方法では、そのようなオクルージョン検出は、例えば、視差推定を使用して、画像IVに基づいて画像IVの領域ZOCを探すものである。次いで、オクルージョン領域ZOCは、例えば、数理形態学アルゴリズムを使用して拡大される。こうして拡大された領域ZOCは、図7では、ハッチングによって表されている。斜線の入った領域ZOCの部分を形成しない(従って、符号化は不要であると考えられる)画像IVのオリジナルデータはすべて削除される。
次いで、符号化予定の処理済みのデータDTは、そのようなオクルージョン検出の事例では、
- 斜線の入った領域に含まれるオリジナル画素と、
- 適用されたオクルージョン検出について説明する情報(例えば、斜線の入った領域に含まれない各画素に対して事前に定義された値など、例えば、事前に定義された値YUV=000によって表される)と
を含む。
次いで、C11b(図1)において、HEVC、3D-HEVC、MV-HEVCなどのタイプのコーダによって、斜線の入った領域に対応する画像データ(画素)が符号化される。適用されたオクルージョン検出の説明情報は、その部分に対して、C11b(図1)において、ロスレスコーダによって符号化される。
ここでは、図8を参照して、第2の符号化方法MC2による符号化ステップC11b(図1)の前に画像IVのオリジナルデータに適用される処理の第5の実施形態についての説明を提供する。
図8に示される例では、画像IVのオリジナルデータに適用された処理は、
- 画像IVのオリジナル画素に基づいて、
- C11a(図1)において第1の符号化方法MC1を使用して符号化される1つ又は複数の他のビューの画像IV(1≦j≦n)のオリジナル画素に基づいて、
- 潜在的には、C11b(図1)において処理済みの画素が第2の符号化方法MC2を使用して符号化される少なくとも1つの他のビューの画像IV(n+1≦l≦N)のオリジナル画素に基づいて、
画素を計算するものである。
次いで、符号化予定の処理済みのデータDTは、そのような計算の事例では、
- 計算された上記ビューの画像IVの画素のインジケータ、
- 画像IVにおける、画像IVの画素を計算するために使用されたオリジナル画素の場所についての情報、
- 潜在的には、画像IVにおける、画像IVの画素を計算するために使用されたオリジナル画素の場所についての情報
を含む。
前述の計算は、例えば、画像IVのオリジナル画素からビューの画像IVのオリジナル画素及び潜在的には画像IVのオリジナル画素を差し引くものである。
ここでは、図9を参照して、第2の符号化方法MC2による符号化ステップC11b(図1)の前に画像IVのオリジナルデータに適用される処理の第6の実施形態についての説明を提供する。
図9に示される例では、画像IVのオリジナルデータに適用された処理は、
- 画像IVのオリジナル画素を処理して、処理済みのデータDT’を提供し、
- ビューVs(1≦s≦N)の画像IVsのオリジナル画素を処理して、処理済みのデータDTsを提供し、
- 画像IVの処理済みのデータDT’と画像IVsの処理済みのデータDTsをまとめて単一の画像IVoneにするもの(得られたオリジナルの処理済みのデータDTは、C11b(図1)において第2の符号化方法MC2を使用して符号化される)
である。
図10は、本発明の特定の実施形態のいずれか1つによる符号化方法を実施するように設計された符号化デバイスCODの簡単な構造を示す。
本発明の特定の一実施形態によれば、符号化方法によって実行されるアクションは、コンピュータプログラム命令によって実施される。その目的のため、符号化デバイスCODは、コンピュータの従来のアーキテクチャを有し、具体的には、メモリMEM_Cと、処理ユニットUT_Cとを含み、処理ユニットUT_Cは、例えば、プロセッサPROC_Cが装備され、メモリMEM_Cに格納されたコンピュータプログラムPG_Cによって駆動される。コンピュータプログラムPG_Cは、プログラムがプロセッサPROC_Cによって実行されると、上記で説明されるものなどの符号化方法のアクションを実施するための命令を含む。
初期化において、コンピュータプログラムPG_Cのコード命令は、プロセッサPROC_Cによって実行される前に、例えば、RAMメモリ(図示せず)にロードされる。処理ユニットUT_CのプロセッサPROC_Cは、具体的には、コンピュータプログラムPG_Cの命令に従って、上記で説明される符号化方法のアクションを実施する。
7.例示的な復号スキームの実装
以下では、例えば、3D-HEVC若しくはMV-HEVC規格又は同様のものに適合するいかなるタイプのマルチビュー映像デコーダも使用することができる360°、180°又は他の全方位映像を復号するための方法について説明する。
図11を参照すると、そのような復号方法は、上記多数のビューV、…、Vの一部を形成するビューの現在の画像を表すデータ信号に適用される。
本発明による復号方法は、
- ビューVの画像IVと関連付けられた符号化済みのデータを表すデータ信号、
- ビューVの画像IVと関連付けられた符号化済みのデータを表すデータ信号、
-…、
- ビューVの画像IVと関連付けられた符号化済みのデータを表すデータ信号、
-…、
- ビューVの画像IVと関連付けられた符号化済みのデータを表すデータ信号
を復号するものである。
前述の復号方法を使用して再構築予定の対象のビューの画像は、同様に、テクスチャ画像又は深度画像であり得る。
復号方法は、再構築予定のビューVの少なくとも1つの画像IVを表すデータ信号F1、F2又はF3及びF’3に対して、以下を含む。
D1では、図2A、2B、2Cにそれぞれ示されるような、データ信号F1、F2又はF3及びF’3において、画像IVが第1の符号化方法MC1を使用して符号化されているか、又は、第2の符号化方法MC2を使用して符号化されているかを示すflag_procという情報が読み取られる。
信号F1の場合は、flag_procという情報は、0である。
D11aでは、データ信号F1において、符号化済みの画像IVCと関連付けられた符号化済みのデータdc1、dc2、…、dcQが読み取られる。
D12aでは、D11aにおいて読み取られた符号化済みのデータdc1、dc2、…、dcQに基づいて、図1のC11aにおいて符号化に適用された符号化方法MC1に対応する復号方法MD1を使用して、画像IVDが再構築される。その目的のため、画像IVは、例えば、HEVC、MVC-HEVC、3D-HEVCなどの規格に適合するものなど、従来のデコーダを使用して再構築される。
復号D12aが完了すると、こうして再構築された画像IVDは、図1のC11aにおいて符号化された画像IVのオリジナルデータd1、d2、…、dQを含む。
画像IVDはオリジナル画像IVと一致するため、例えば、中間ビューの合成の文脈において、使用に適したマスタ画像を構成する。
D1では、信号F2又はF3の場合は、決定されたflag_procという情報は、1である。
信号F2の場合は、D11bでは、データ信号F2において、図1のC11bにおいて得られるような処理済み且つ符号化済みの画像IVTCと関連付けられた処理済み且つ符号化済みのデータDTCが読み取られる。
読み取られたこれらの処理済み且つ符号化済みのデータDTCは、画像タイプのデータのみである。
D12bでは、D11bにおいて読み取られた符号化済みのデータDTCに基づいて、図1のC11bにおいて符号化に適用された符号化方法MC2に対応する復号方法MD2を使用して、処理済みの画像IVTDが再構築される。その目的のため、符号化済みのデータDTCは、例えば、HEVC、MVC-HEVC、3D-HEVCなどの規格に適合するものなど、従来のデコーダを使用して復号される。
復号D12bが完了すると、こうして再構築された処理済みの画像IVTDは、復号済みのデータDTCに相当するものであり、図1のC11bにおけるそれらの符号化前の画像IVの処理済みのデータDTを含む。
処理済み且つ再構築済みの画像IVTDは、特定の画像処理を使用して処理された画像IVのオリジナルデータのすべて又は一部に相当する画像データ(画素)を含み、その様々な詳細な例については、図4~9を参照して説明している。
信号F3の場合は、D11cにおいて、処理済み且つ符号化済みの画像IVTCと関連付けられた処理済み且つ符号化済みのデータDTCが読み取られる。
その目的のため、
- 信号F3において、画像タイプの処理済み且つ符号化済みのデータDTCが読み取られ、
- 信号F’3において、例えば、テキストタイプのデータ、又は、画像データと画像データ以外のタイプのデータの両方を含むものなど、画像データとは異なる処理済み且つ符号化済みのデータDTCが読み取られる。
処理済み且つ符号化済みのデータDTCは、D12bにおいて復号方法MD2を使用して復号され、復号方法MD2は、
- 特に画像データを復号するために、ロッシー又はロスレスデコーダによって(そのようなデコーダは、第1の復号方法MD1を実施するデコーダと同一である可能性も、異なる可能性もある)、
- 特にテキストタイプのデータを復号するために、ロスレスデコーダによって
実施することができる。
復号D12bが完了すると、
- 復号された画像タイプのデータDTCに相当する、こうして再構築された処理済みの画像IVTD
- 符号化C11b(図1)の前に画像IVに適用された処理の説明情報に相当するテキストタイプの処理済みのデータ
が得られる。
第2の復号方法MD2によるそのような処理済み且つ再構築済みの画像IVTDは、処理に次いでC11bで符号化される前の画像IVのオリジナルデータのすべてを含むわけではない。しかし、第2の復号方法MD2によるビューのそのような再構築済みの画像は、優れた品質のビューの合成画像を得るために、例えば、中間画像の合成の文脈において、第1の復号方法MD1を使用して再構築されるマスタビューの画像に加えて使用することができる。
たった今上記で説明した復号方法は、次いで、現在の時刻において、利用可能な再構築予定の符号化済みの画像IVC、IVC、…、IVCの各々に対して、それらのいくつかのみに対して、又は、画像IV(例えば、k=1)に限定して、実施することができる。
図12A及び12Bに示される2つの例示的な実施形態によれば、例えば、再構築予定のN個の符号化済みの画像IVC、…、IVCの中で、以下のように想定される。
- n個の最初の符号化済みの画像IVC、…、IVCは、n個のマスタビューの各々の画像をそれぞれ得るために、第1の復号技法MD1を使用して再構築される。
- N-n個の他の符号化済みの画像IVCn+1、…、IVCは、N-n個の追加のビューの各々の画像をそれぞれ得るために、第2の復号方法MD2を使用して再構築される。
n=0の場合は、第2の復号方法MD2を使用して、1~N個のビューの画像IVC、…、IVCが再構築される。n=N-1の場合は、第2の復号方法MD2を使用して、単一のビューの画像が再構築される。
図12Aの例では、D100において、図3AのC14において生成されるようなデータ信号Fは、
- 2つのデータ信号(図3AのC13aにおいて生成されるようなデータ信号F1、図3AのC13bにおいて生成されるようなデータ信号F2)に、又は、
- 3つのデータ信号(図3AのC13aにおいて生成されるようなデータ信号F1、図3AのC13cにおいて生成されるようなデータ信号F3とF’3)に
分離される。
信号F1及びF2の事例では、D110aにおいて、データ信号F1は、次に、ビューのn個の符号化済みの画像IVC、…、IVCをそれぞれ表すn個のデータ信号F1、…、F1に分離される。
D11aでは、n個のデータ信号F1、…、F1の各々において、これらのn個の符号化済みの画像の各々と関連付けられた符号化済みのオリジナルデータdc1、…、dcQ、…、dc1、…、dcQがそれぞれ決定される。
D12aでは、D11aにおいて読み取られたそれらのそれぞれの符号化済みのオリジナルデータに基づいて、HEVCタイプの従来のデコーダを使用して、画像IVD、…、IVDが互いに独立して再構築される。
依然として図12Aを参照すると、D110bにおいて、データ信号F2は、次に、N-n個の処理済み且つ符号化済みのデータDTCn+1、…、DTCをそれぞれ表すN-n個のデータ信号F2n+1、…、F2に分離される。
D11bでは、N-n個のデータ信号F2n+1、…、F2の各々において、再構築予定のN-n個の画像IVn+1、…、IVの各々にそれぞれ相当するN-n個の処理済み且つ符号化済みのデータDTCn+1、…、DTCがそれぞれ読み取られる。
D12bでは、D11bにおいて読み取られたN-n個の処理済み且つ符号化済みのデータDTCn+1、…、DTCに基づいて、HEVCタイプの従来のデコーダを使用して、処理済みの画像がそれぞれ互いに独立して再構築される。次いで、処理済み且つ再構築済みの画像IVTDn+1、…、IVTDが得られる。
信号F1、F3及びF’3の事例では、D110aにおいて、データ信号F1は、次に、n個の符号化済みの画像IVC、…、IVCをそれぞれ表すn個のデータ信号F1、…、F1に分離される。
D11aでは、n個のデータ信号F1、…、F1の各々において、これらのn個の符号化済みの画像の各々と関連付けられた符号化済みのオリジナルデータdc1、…、dcQ、…、dc1、…、dcQがそれぞれ読み取られる。
D12aでは、D11aにおいて読み取られたそれらのそれぞれの符号化済みのオリジナルデータに基づいて、HEVCタイプの従来のデコーダを使用して、画像IVD、…、IVDが互いに独立して再構築される。
D110cでは、
- データ信号F3は、次に、画像タイプのN-n個の処理済み且つ符号化済みのデータDTCn+1、…、DTCをそれぞれ表すN-n個のデータ信号F3n+1、…、F3に分離され、
- データ信号F’3は、次に、テキスト又は別のタイプのN-n個の処理済み且つ符号化済みのデータDTCn+1、…、DTCをそれぞれ表すN-n個のデータ信号F’3n+1、…、F’3に分離される。
D11cでは、
- N-n個のデータ信号F3n+1、…、F3の各々において、再構築予定のN-n個の画像IVn+1、…、IVの各々にそれぞれ相当する画像タイプのN-n個の処理済み且つ符号化済みのデータDTCn+1、…、DTCがそれぞれ読み取られ、
- N-n個のデータ信号F’3n+1、…、F’3の各々において、再構築予定のN-n個の画像IVn+1、…、IVの各々に対する処理の説明情報にそれぞれ相当するテキスト又は別のタイプのN-n個の処理済み且つ符号化済みのデータDTCn+1、…、DTCがそれぞれ読み取られる。
D12bでは、D11bにおいて読み取られたN-n個の処理済み且つ符号化済みのデータDTCn+1、…、DTCに基づいて、HEVCタイプの従来のデコーダを使用して、N-n個の処理済みの画像がそれぞれ互いに独立して再構築される。次いで、処理済み且つ再構築済みの画像IVTDn+1、…、IVTDが得られる。
また、D12bでは、D11cにおいて読み取られたテキスト又は他のタイプのN-n個の処理済み且つ符号化済みのデータDTCn+1、…、DTCに基づいて、符号化において使用されたロスレスコーダに対応するデコーダを使用して、C11b(図3A)におけるそれらの符号化前の画像IVn+1、…、IVの各々に適用された処理の再構築済みの説明情報も存在する。
図12Bの例では、D100において、図3BのC14において生成されるようなデータ信号Fは、
- 2つのデータ信号(図3BのC12aにおいて生成されるようなデータ信号F1、図3BのC12bにおいて生成されるようなデータ信号F2)に、又は、
- 3つのデータ信号(図3BのC12aにおいて生成されるようなデータ信号F1、図3BのC12cにおいて生成されるようなデータ信号F3とF’3)に
分離される。
信号F1及びF2の事例では、D11aでは、データ信号F1において、n個の符号化済みのビューの画像IVC1,i、…、IVCn,iの各々とそれぞれ関連付けられた符号化済みのオリジナルデータdc1、…、dcQ、…、dc1、…、dcQが読み取られる。
D12aでは、D11aにおいて読み取られたそれらのそれぞれの符号化済みのオリジナルデータに基づいて、MV-HEVC又は3D-HEVCタイプの従来のデコーダを使用して、同時に、画像IVD1,i、…、IVDn,iが再構築される。
図12BのD11bでは、データ信号F2において、再構築予定のN-n個のビューの画像IVn+1、…、IVの各々とそれぞれ関連付けられたN-n個の処理済み且つ符号化済みのデータDTCn+1、…、DTCが読み取られる。
D12bでは、D11bにおいて読み取られたN-n個の処理済み且つ符号化済みのデータDTCn+1、…、DTCに基づいて、MV-HEVC又は3D-HEVCタイプの従来のデコーダを使用して、同時に、N-n個の処理済みの画像がそれぞれ再構築される。次いで、処理済み且つ再構築済みの画像IVTDn+1、…、IVTDが得られる。
信号F1、F3及びF’3の事例では、D11aでは、データ信号F1において、n個の符号化済みのビューの画像IVC、…、IVCの各々とそれぞれ関連付けられた符号化済みのオリジナルデータdc1、…、dcQ、…、dc1、…、dcQが読み取られる。
D12aでは、D11aにおいて読み取られたそれらのそれぞれの符号化済みのオリジナルデータに基づいて、MV-HEVC又は3D-HEVCタイプの従来のデコーダを使用して、同時に、画像IVD、…、IVDが再構築される。
図12BのD11cでは、データ信号F3において、再構築予定のN-n個の画像IVn+1、…、IVの各々とそれぞれ関連付けられた画像タイプのN-n個の処理済み且つ符号化済みのデータDTCn+1、…、DTCが読み取られる。
D12bでは、D11cにおいて読み取られたN-n個の処理済み且つ符号化済みのデータDTCn+1、…、DTCに基づいて、MV-HEVC又は3D-HEVCタイプの従来のデコーダを使用して、同時に、処理済みの画像がそれぞれ再構築される。次いで、ビューIVTDn+1、…、IVTDの処理済み且つ再構築済みの画像が得られる。
また、図12BのD12bでは、D11cにおいて読み取られたテキスト又は他のタイプのN-n個の処理済み且つ符号化済みのデータDTCn+1、…、DTCに基づいて、符号化において使用されたロスレスコーダに対応するデコーダを使用して復号された、C11b(図3B)におけるそれらの符号化前の画像IVn+1、…、IVの各々に適用された処理の再構築済みの説明情報も存在する。
当然ながら、復号方法の他の組合せも可能である。
図12Aの1つの可能な変形形態によれば、復号方法MD1を実施するデコーダがHEVCタイプのデコーダであり、復号方法MD2を実施するデコーダがMV-HEVC若しくは3D-HEVCタイプのデコーダであることも可能である。
図12Bの1つの可能な変形形態によれば、復号方法MD1を実施するデコーダがMV-HEVC又は3D-HEVCタイプのデコーダであり、復号方法MD2を実施するデコーダがHEVCタイプのコーダであることも可能である。
図13は、本発明の特定の実施形態のいずれか1つによる復号方法を実施するように設計された復号デバイスDECの簡単な構造を示す。
本発明の特定の一実施形態によれば、復号方法によって実行されるアクションは、コンピュータプログラム命令によって実施される。その目的のため、復号デバイスDECは、コンピュータの従来のアーキテクチャを有し、具体的には、メモリMEM_Dと、処理ユニットUT_Dとを含み、処理ユニットUT_Dは、例えば、プロセッサPROC_Dが装備され、メモリMEM_Dに格納されたコンピュータプログラムPG_Dによって駆動される。コンピュータプログラムPG_Dは、プログラムがプロセッサPROC_Dによって実行されると、上記で説明されるものなどの復号方法のアクションを実施するための命令を含む。
初期化において、コンピュータプログラムPG_Dのコード命令は、プロセッサPROC_Dによって実行される前に、例えば、RAMメモリ(図示せず)にロードされる。処理ユニットUT_DのプロセッサPROC_Dは、具体的には、コンピュータプログラムPG_Dの命令に従って、上記で説明される復号方法のアクションを実施する。
一実施形態によれば、復号デバイスDECは、例えば、端末に含まれる。
8.画像処理への本発明の例示的な適用
上記で既に説明したように、N個の再構築済みの画像IVD、…、IVD及びIVTDn+1、…、IVTDは、ユーザに必要な中間ビューの画像を合成するために使用することができる。
図14に示されるように、ユーザが任意のビューの画像の合成を必要とする事例では、マスタビューと見なされるビューIVD、…、IVDのn個の最初の再構築済みの画像は、S1において、画像合成モジュールに送信される。
ビューのN-n個の処理済み且つ再構築済みの画像IVTDn+1、…、IVTDは、ビューの追加の画像として、画像の合成において使用できるようにするため、S2において、それらの画像とそれぞれ関連付けられた復号済みの画像処理説明情報を使用して、処理する必要があり得る。
処理S2が完了すると、ビューのN-n個の再構築済みの画像IVDn+1、…、IVDが得られる。
次いで、N-n個の再構築済みの画像IVDn+1、…、IVDは、S3において、画像合成モジュールに送信される。
S4では、n個の最初の再構築済みのビューの画像IVD、…、IVDの少なくとも1つ及び潜在的にはN-n個の再構築済みのビューのN-n個の画像IVDn+1、…、IVDの少なくとも1つを使用して、ビューの画像が合成される。
次いで、合成S4が完了すると、合成ビューの画像IVSYが得られる。
n個の再構築済みの画像IVD、…、IVDもまた処理S2を行えることに留意すべきである。そのような処理S2は、表される視野角がn個の再構築済みの画像IVD、…、IVDの1つ又は複数の視野角と一致しないビューの画像をユーザUTが必要とする事例において必要であることが分かる。例えば、ユーザUTが120×90の視野を表すビューの画像を要求する一方で、n個の再構築済みの画像IVD、…、IVDの各々は360×180の視野角を表す場合がある。再構築済みの画像IVD、…、IVDに対する処理のそのような可能性は、図14の破線矢印によって表されている。それに加えて、図8及び9を参照して説明される処理のタイプに関連して、再構築済みの画像IVD、…、IVDは、N-n個の他の画像IVn+1、…、IVの処理の間に使用することができる。
ここでは、図15A~15Cを参照して、処理済み且つ再構築済みの画像IVTDのデータに適用された処理の第1の実施形態について説明する。そのような処理は、図1のC11bにおける符号化前にサンプリングされた対応するビューの画像IVの初期の解像度を得るものである。
図15Aの例では、符号化前に適用された処理は、図5Aに示されるような画像IVの領域Z4の垂直方向のダウンサンプリングであると想定される。
処理済み且つ再構築済みの画像IVTDに適用された処理は、画像IVの初期の解像度に戻すために、適用されたダウンサンプリングについて説明する情報を使用して、具体的には、
- 使用されたダウンサンプリングファクタ(それにより、対応するアップサンプリングファクタを決定することができる)、
- 使用されたダウンサンプリング方向(それにより、対応するアップサンプリング方向を決定することができる)、
- 画像IVのダウンサンプリング済みの領域Z4の場所
などを使用して、図5Aにおいて適用されたダウンサンプリングに対応するアップサンプリングを領域Z4に適用するものである。
図15Bの例では、符号化前に適用された処理は、図5Bに示されるような画像IVの領域Z5の水平方向のダウンサンプリングであると想定される。
処理済み且つ再構築済みの画像IVTDに適用された処理は、画像IVの初期の解像度に戻すために、適用されたダウンサンプリングについて説明する情報を使用して、具体的には、
- 使用されたダウンサンプリングファクタ(それにより、対応するアップサンプリングファクタを決定することができる)、
- 使用されたダウンサンプリング方向(それにより、対応するアップサンプリング方向を決定することができる)、
- 画像IVのダウンサンプリング済みの領域Z5の場所
などを使用して、図5Bにおいて適用されたダウンサンプリングに対応するアップサンプリングを領域Z5に適用するものである。
図15Cの例では、符号化前に適用された処理は、図5Cに示されるような画像IV全体のダウンサンプリングであると想定される。
処理済み且つ再構築済みの画像IVTDに適用された処理は、画像IVの初期の解像度に戻すために、適用されたダウンサンプリングについて説明する情報を使用して、具体的には、
- 使用されたダウンサンプリングファクタ(それにより、対応するアップサンプリングファクタを決定することができる)、
- 使用されたダウンサンプリング方向(それにより、対応するアップサンプリング方向を決定することができる)
などを使用して、図5Cにおいて適用されたダウンサンプリングに対応するアップサンプリングを画像IVTDの画像データのすべてに適用するものである。
図15Dの例では、符号化前に適用された処理は、図5Dに示されるような画像IVの領域Z6の水平方向と垂直方向の両方のダウンサンプリングであると想定される。
処理済み且つ再構築済みの画像IVTDに適用された処理は、画像IVの初期の解像度に戻すために、適用されたダウンサンプリングについて説明する情報を使用して、具体的には、
- 使用されたダウンサンプリングファクタ(それにより、対応するアップサンプリングファクタを決定することができる)、
- 使用されたダウンサンプリング方向(それにより、対応するアップサンプリング方向を決定することができる)、
- 画像IVのダウンサンプリング済みの領域Z6の場所
などを使用して、図5Dにおいて適用されたダウンサンプリングに対応するアップサンプリングを領域Z6に適用するものである。
ここでは、図16を参照して、処理済み且つ再構築済みの画像IVTDのデータに適用された処理の第2の実施形態について説明する。そのような処理は、画像IVの符号化前にフィルタリングされているビューの画像IVの1つ又は複数の輪郭を復元するものである。
図16の例では、符号化前に適用された処理は、図6に示されるような画像IVの輪郭ED1及びED2のフィルタリングであると想定される。
次いで、処理済み且つ再構築済みのビューの画像IVTDに適用された処理は、適用されたフィルタリングについて説明する情報を使用して、具体的には、フィルタリングされなかった各画素に対する事前に定義された値(具体的には、事前に定義された値YUV=000)などを使用して、画像IVの輪郭ED1及びED2を復元するものである。
ここでは、図17を参照して、処理済み且つ再構築済みの画像IVTDのデータに適用された処理の第3の実施形態について説明する。そのような処理は、図8の処理の実施形態に従って符号化前に計算されたビューの画像IVの画素を再構築するものである。
次いで、処理済み且つ再構築済みの画像IVTDに適用された処理は、
- データ信号において読み取られたインジケータなど、計算されたビューの画像IVの画素のインジケータを使用して、符号化において計算された上記ビューの画像IVの画素を回収するもの、
- 画像IVの画素を計算するために使用された画像IVにおける画素の場所についての情報を使用して、第1の復号方法MD1を使用して再構築された少なくとも1つの他のビューの画像IV(1≦j≦n)の画素を回収するもの、
- 潜在的には、処理済みの画素が第2の復号方法MD2を使用して復号された少なくとも1つの他のビューの画像IV(n+1≦l≦N)の画素を回収するもの
である。
次いで、処理済みのデータDTの復号は、
- 少なくとも1つの他のビューの画像IV(1≦j≦n)の画素に基づいて、
- 潜在的には、少なくとも1つの他のビューの画像IV(n+1≦l≦N)の画素に基づいて、
画像IVの画素を計算するものである。
前述の計算は、例えば、画像IVの画素を、再構築済みの画像IVの画素と、そして潜在的には再構築済みの画像IVの画素と組み合わせるものである。
ここでは、図18を参照して、処理済み且つ再構築済みの画像IVTDのデータに適用された処理の第4の実施形態について説明する。そのような処理は、図9の処理の実施形態に従って符号化前に計算されたビューの画像IVの画素を再構築するものである。
処理は、最初に、第2の復号方法MD2による再構築済みの画像IVDoneに適用される。次いで、その処理は、画像IVDoneに基づいて、
- 第2の復号方法MD2に従って復号された画像IVの処理済みのデータDT’に基づいて、
- 復号されたビューVs(1≦s≦N)の画像IVDsの処理済みのデータDTsに基づいて、
画像IVの画素を再構築するものである。
9.本発明の例示的な具体的な応用
第1の例によれば、4096×2048の画素の解像度を有するビューの6つの画像が360°タイプの6つのカメラによってそれぞれ捕捉されることが考慮される。6つの対応する360°深度マップを提供するため、深度推定方法が適用される。
ビューV0の画像IV0は、従来方式で、第1の符号化方法MC1を使用して符号化され、ビューV1、V2、V3、V4、V5の5つの他の画像IV1、IV2、IV3、IV4、IV5は、符号化前にクロッピングが行われる。画像IV1、IV2、IV3、IV4、IV5の各々に適用された処理は、これらの画像の各々の右側及び左側の定数(例えば、200)の列を除去するものである。除去される列の数は、視野角が360°から120°に低減されるように選択されている。同様に、画像IV1、IV2、IV3、IV4、IV5の各々に適用された処理は、これらの画像の各々の上部及び下部からそれぞれ定数(例えば、100)の行を削除するものである。削除される行の数は、視野角が180°から120°に低減されるように選択されている。
flag_procという情報のアイテムは、画像IV0に関連しては、0に設定され、flag_procという情報のアイテムは、画像IV1、IV2、IV3、IV4、IV5に関連しては、1に設定される。
ビューの画像IV0は、HEVCコーダを使用して符号化される。単一のデータ信号F1が生成され、上記データ信号は、画像IV0の符号化済みのオリジナルデータ及びflag_proc=0という情報を含む。
画像IV1、IV2、IV3、IV4、IV5の各々のクロッピング後の残りの領域のデータは、HEVCコーダを使用して符号化される。5つのデータ信号F2、F2、F2、F2、F2が生成され、データ信号はそれぞれ、flag_proc=1という情報と関連付けられた画像IV1、IV2、IV3、IV4、IV5の各々のクロッピング後の残りの領域の符号化済みのデータを含む。データ信号F1、F2、F2、F2、F2、F2は、連結され、次いで、デコーダに送信される。
5つのデータ信号F2、F2、F2、F2、F2は、以下の方法で、クロッピング済みの領域の座標をさらに含み得る。
IV1、IV2、IV3、IV4、IV5:flag_proc=1、左上のポイント(h,v)=(0+200,0+100)、右下のポイント(h,v)=(4096-200,2048-100)、「h」は水平方向、「v」は垂直方向。
デコーダ側では、flag_procという情報が読み取られる。
flag_proc=0の場合は、ビューの画像IV0は、HEVCデコーダを使用して再構築される。
flag_proc=1の場合は、処理済み且つ符号化済みのデータに相当する画像IV1、IV2、IV3、IV4、IV5は、HEVCデコーダを使用して再構築される。クロッピングによって削除されたこれらの画像のデータの再構築は不可能であるため、再構築された画像IV1、IV2、IV3、IV4、IV5には、処理は適用されない。しかし、合成アルゴリズムは、ユーザに必要な任意のビューの画像を生成するために、再構築された6つの画像IV0、IV1、IV2、IV3、IV4、IV5を使用する。
5つのデータ信号F2、F2、F2、F2、F2がクロッピング済みの領域の座標をさらに含む事例では、これらの座標は、ユーザに必要なビューの画像を生成するために、合成アルゴリズムによって使用される。
第2の例によれば、360°タイプの10個のカメラをシミュレーションするためにコンピュータによって生成された4096×2048のそれぞれの画素の解像度を有する10個の画像IV0、…、IV9が考慮される。画像IV0とIV9は処理しないことが決定されている。画像IV1~IV8のテクスチャ成分は、その部分に対して、水平方向に2倍及び垂直方向に2倍のダウンサンプリングが行われ、対応する深度成分は、その部分に対して、水平方向に4倍及び垂直方向に4倍のダウンサンプリングが行われる。その結果、画像IV1~IV8のテクスチャ成分の解像度は2048×1024になり、画像IV1~IV8の深度成分の解像度は1024×512になる。
画像IV1~IV8に関連する画像データなどの処理データは、画像IV1~IV8の解像度2048×1024の8つのダウンサンプリング済みのテクスチャ成分と、画像IV1~IV8の解像度1025×512の8つのダウンサンプリング済みの深度成分とを含む。
それに加えて、前述の処理データは、ビュー1~8の各画像IV1~IV8に対するダウンサンプリングファクタを示すテキストタイプのデータを含む。それらのデータは、
- IV1~IV8のテクスチャ:se_h=2、se_v=2(「se」はダウンサンプリング、「h」は水平方向、「v」は垂直方向)
- IV1~IV8の深度:se_h=4、ss_v=4
のように記載される。
flag_procという情報のアイテムは、画像IV0及びIV9に関連しては、0に設定され、flag_procという情報のアイテムは、画像IV1~IV8に関連しては、1に設定される。
画像IV0及びIV9は、MV-HEVCタイプのコーダを使用して同時に符号化され、それにより、flag_proc=0という情報及び画像IV0及びIV9の符号化済みのオリジナルデータを含む単一のデータ信号F1が生成される。
また、画像IV1~IV8の2048×1024の解像度の8つのダウンサンプリング済みのテクスチャ成分及び画像IV1~IV8の1025×512の解像度の8つのダウンサンプリング済みの深度成分を含む画像IV1~IV8に関連する画像データなどの処理データも、MV-HEVCタイプのコーダを使用して同時に符号化され、それにより、ダウンサンプリング済み且つ符号化済みのテクスチャ及び深度データと関連付けられたflag_proc=1という情報を含む単一のデータ信号F2が生成される。ビュー1~8の各画像IV1~IV8に対するダウンサンプリングファクタを示すテキストタイプのデータは、その部分に対して、ロスレス符号化される。データ信号F1とF2は、連結され、次いで、デコーダに送信される。
デコーダ側では、flag_procという情報が読み取られる。
flag_proc=0の場合は、画像IV0及びIV9は、MV-HEVCデコーダを使用して、同時に再構築される。次いで、それらの初期の解像度である再構築済みの画像IVD0及びIVD9が得られる。
flag_proc=1の場合は、それらのそれぞれのダウンサンプリング済み且つ符号化済みのテクスチャ及び深度データに相当する画像IV1~IV8は、MV-HEVCデコーダを使用して、同時に再構築される。次いで、ダウンサンプリング済み且つ再構築済みの画像IVDT1~IVDT8が得られる。8つの画像IV1~IV8の各々に相当するテキストタイプのデータも復号され、各画像IV1~IV8に対して使用されたダウンサンプリングファクタが提供される。
次いで、ダウンサンプリング済み且つ再構築済みの画像IVDT1~IVDT8は、それらの対応するダウンサンプリングファクタを使用して処理される。処理が完了すると、再構築済みの画像IVD1~IVD8が得られ、それらの8つのそれぞれのテクスチャ成分は、4096×2048のそれらの初期の解像度であり、それらの8つのそれぞれの深度成分は、4096×2048のそれらの初期の解像度である。
合成アルゴリズムは、ユーザに必要なビューの画像を生成するために、それらの初期の解像度のこうして構築された10個のビューの画像を使用する。
第3の例によれば、360°タイプの4つのカメラをシミュレーションするためにコンピュータによって生成された4096×2048のそれぞれの画素の解像度を有する3つの画像IV0~IV2が考慮される。次いで、3つのテクスチャ成分及び3つの対応する深度成分が得られる。画像IV0は処理せず、画像IV1及びIV2のそれぞれに対するオクルージョンマップを抽出することが決定されている。その目的のため、画像IV1と画像IV0との間の視差推定が行われ、画像IV1のオクルージョンマスク(すなわち、画像IV0には見られない画像IV1の画素)が生成される。また、画像IV2と画像IV0との間でも視差推定が行われ、画像IV2のオクルージョンマスクが生成される。
画像IV1及びIV2に関連する画像データなどの処理データは、画像IV1及びIV2のオクルージョンマスクの2つのテクスチャ成分と、画像IV1及びIV2のオクルージョンマスクの2つの深度成分とを含む。
flag_procという情報のアイテムは、画像IV0に関連しては、0に設定され、flag_procという情報のアイテムは、画像IV1及びIV2に関連しては、1に設定される。
画像IV0は、HEVCコーダを使用して符号化される。単一のデータ信号F1が生成され、上記データ信号は、画像IV0の符号化済みのオリジナルデータ及びflag_proc=0という情報を含む。
画像IV1、IV2の各々のオクルージョンマスクの画像データ(テクスチャと深度)は、HEVCコーダを使用して符号化される。2つのデータ信号F2、F2が生成され、データ信号はそれぞれ、flag_proc=1という情報と関連付けられた画像IV1、IV2の各々のオクルージョンマスクの符号化済みの画像データを含む。データ信号F1、F2、F2は、連結され、次いで、デコーダに送信される。
デコーダ側では、flag_procという情報が読み取られる。
flag_proc=0の場合は、画像IV0は、HEVCデコーダを使用して再構築される。
flag_proc=1の場合は、画像IV1、IV2の各々のオクルージョンマスクの符号化済みの画像データ(テクスチャと深度)に相当する画像IV1、IV2は、HEVCデコーダを使用して再構築される。オクルージョン検出の完了において削除されたこれらの画像のデータの再構築は不可能であるため、再構築された画像IV1、IV2には、処理は適用されない。しかし、合成アルゴリズムは、ユーザに必要なビューの画像を生成するために、再構築された画像IV0、IV1、IV2を使用することができる。
第4の例によれば、4096×2048の画素の解像度を有する2つの画像IV0及びIV1が360°タイプの2つのカメラによってそれぞれ捕捉されることが考慮される。第1のビューの画像IV0は、従来方式で、第1の符号化方法MC1を使用して符号化され、第2のビューの画像IV1は、第2の符号化方法MC2による符号化前に処理される。そのような処理は、
- フィルタ(例えば、ソーベルフィルタなど)を使用して画像IV1の輪郭を抽出することと、
- 輪郭の周りの領域を増大するために、例えば、数理形態学作用素を使用して、輪郭の拡大を適用することと
を含む。
画像IV1に関連する画像データなどの処理データは、輪郭の周りの領域内の画素と、輪郭の周りの領域外に位置する画素のそれぞれに相当する0に設定された画素とを含む。
それに加えて、例えば、輪郭の周りの領域外に位置する画素が0に設定されることを示すマーキング情報(例えば、YUV=000)の形態で、テキストタイプのデータが生成される。0に設定された画素は、符号化も、デコーダへの信号伝達も行われない。
画像IV0は、HEVCコーダを使用して符号化され、それにより、flag_proc=0という情報及び画像IV0の符号化済みのオリジナルデータを含むデータ信号F1が生成される。
画像IV1の輪郭の周りの領域の画像データは、HEVCコーダを使用して符号化され、マーキング情報は、ロスレスコーダを使用して符号化される。次いで、データ信号F2が生成され、上記信号は、flag_proc=1という情報と、画像IV1の輪郭の周りの領域の符号化済みの画素と、符号化済みのマーキング情報のアイテムとを含む。
デコーダ側では、flag_procという情報が読み取られる。
flag_proc=0の場合は、画像IV0は、HEVCデコーダを使用して、そのオリジナル解像度で再構築される。
flag_proc=1の場合は、画像IV1の輪郭の周りの領域の画像データに相当する画像IV1は、HEVCデコーダによって、0に設定された値の上記領域を取り囲む画素の復元を可能にするマーキング情報を使用して、再構築される。
合成アルゴリズムは、ユーザに必要なビューの画像を生成するために、再構築された2つの画像IV0及びIV1を使用することができる。
第5の例によれば、4096×2048の画素の解像度を有する4つの画像IV0~IV3が360°タイプの4つのカメラによってそれぞれ捕捉されることが考慮される。画像IV0は、従来方式で、第1の符号化方法MC1を使用して符号化され、画像IV1~IV3は、第2の符号化方法MC2による符号化前に処理される。そのような処理は、画像IV1~IV3のフィルタリングであり、その間、関心領域ROIが計算される。関心領域は、例えば、それらが多くの詳細を含むことを理由に最も関連性があると考えられる各画像IV1~IV3の1つ又は複数の領域を含む。
そのようなフィルタリングは、例えば、以下の2つの方法のうちの1つに従って実行される。
- フィルタリングによって各画像IV1~IV3の顕著性マップを計算する。
- 各画像IV1~IV3の深度マップをフィルタリングする。深度マップは、各テクスチャ画素に対して、3Dシーンにおいて近距離深度値であるか又は遠距離深度値であるかによって特徴付けられる。閾値が定義され、この閾値を下回って位置する画像IV1、IV2、IV3の各画素は、カメラに近いシーンの物体と関連付けられる。次いで、この閾値を下回って位置する画素はすべて、関心領域であると考えられる。
画像IV1~IV3に関連する画像データなどの処理データは、それらのそれぞれの関心領域内の画素を含み、これらの関心領域外に位置する画素にそれぞれ相当する画素は、0に設定される。
それに加えて、例えば、関心領域外に位置する画素が0に設定されることを示すマーキング情報の形態で、テキストタイプのデータが生成される。0に設定された画素は、符号化も、デコーダへの信号伝達も行われない。
画像IV0は、HEVCコーダを使用して符号化され、それにより、flag_proc=0という情報及び画像IV0の符号化済みのオリジナルデータを含むデータ信号F1が生成される。
各画像IV1、IV2、IV3の関心領域の画像データは、HEVCコーダを使用して符号化され、マーキング情報は、ロスレスコーダを使用して符号化される。3つのデータ信号F2、F2、F2が生成され、これらの信号はそれぞれ、flag_proc=1という情報と関連付けられた画像IV1、IV2、IV3の各々の関心領域の符号化済みの画像データと、符号化済みのマーキング情報の対応するアイテムとを含む。データ信号F1、F2、F2、F2は、連結され、次いで、デコーダに送信される。
デコーダ側では、flag_procという情報が読み取られる。
flag_proc=0の場合は、画像IV0は、HEVCデコーダを使用して、そのオリジナル解像度で再構築される。
flag_proc=1の場合は、そのそれぞれの関心領域の画像データに相当する各画像IV1~IV3は、HEVCデコーダによって、0に設定された値の上記領域を取り囲む画素の復元を可能にするマーキング情報を使用して、再構築される。
合成アルゴリズムは、ユーザに必要なビューの画像を生成するために、再構築された4つの画像IV0、IV1、IV2、IV3を直接使用することができる。
言うまでもなく、上記で説明される実施形態は、完全に非限定的な指摘として純粋に提供され、当業者によって、本発明の範囲から逸脱することなく、多くの変更を容易に行うことができる。

Claims (15)

  1. 符号化デバイスによって実施される、多数のビューのビュー形成部分の画像を符号化するための方法であって、前記多数のビューが、異なる視野角又は位置からの3Dシーンを同時に表す、方法であり、
    - 前記ビューの前記画像を符号化するために第1の符号化方法又は第2の符号化方法を選択すること(C1)と、
    - 選択されたものが前記第1の符号化方法か又は前記第2の符号化方法かを示す情報(flag_proc)を含むデータ信号を生成すること(C10、C12a;C10、C12b;C10、C12c)と、
    - 前記第1の符号化方法が選択された場合は、前記ビューの前記画像のオリジナルデータを符号化すること(C11a)であって、前記第1の符号化方法が、符号化済みのオリジナルデータを提供する、符号化すること(C11a)と、
    - 前記第2の符号化方法が選択された場合は、
    - 前記ビューの前記画像の処理済みのデータを符号化すること(C11b)であって、前記データが、前記ビューの前記画像の前記オリジナルデータに適用された画像処理によって得られ、前記符号化が、処理済み且つ符号化済みのデータを提供する、符号化すること(C11b)と、
    - 適用された前記画像処理の説明情報を符号化すること(C11b)と
    を含む、方法であり、
    - 前記生成されたデータ信号が、
    - 前記第1の符号化方法が選択された場合は、前記ビューの前記画像の前記符号化済みのオリジナルデータ、
    - 前記第2の符号化方法が選択された場合は、前記ビューの前記画像の前記処理済み且つ符号化済みのデータ及び前記画像処理の前記符号化済みの説明情報
    をさらに含む、方法。
  2. 復号デバイスによって実施される、多数のビューのビュー形成部分の画像を表すデータ信号を復号するための方法であって、前記多数のビューが、異なる視野角又は位置からの3Dシーンを同時に表す、方法であり、
    - 前記データ信号において、前記ビューの前記画像を第1の復号方法に従って復号すべきか又は第2の復号方法に従って復号すべきかを示す情報(flag_proc)のアイテムを読み取ること(D1)と、
    - 前記第1の復号方法である場合は、
    - 前記データ信号において、前記ビューの前記画像と関連付けられた符号化済みのデータを読み取ること(D11a)と、
    - 前記符号化済みのデータに基づいて、前記ビューの画像を再構築すること(D12a)であって、前記再構築済みのビューの前記画像が、前記ビューの前記画像の前記オリジナルデータを含む、再構築すること(D12a)と、
    - 前記第2の復号方法である場合は、
    - 前記データ信号において、前記ビューの前記画像と関連付けられた符号化済みのデータを読み取ること(D11b;D11c)と、
    - 読み取られた前記符号化済みのデータに基づいて、前記ビューの前記画像の処理済みのデータ及び前記ビューの前記画像の前記オリジナルデータに適用された画像処理の説明情報を再構築すること(D12b)と、
    を含む、方法。
  3. - 前記ビューの前記画像の前記処理済みのデータが、前記ビューの前記画像のクロッピングの適用後の削除されなかった前記ビューの前記画像のデータであり、
    - 前記画像処理の前記説明情報が、前記ビューの前記画像における1つ又は複数のクロッピング済みの領域の場所についての情報である、請求項1又は2に記載の方法。
  4. - 前記ビューの前記画像の前記処理済みのデータが、所定のサンプリングファクタに従って及び少なくとも1つの所定の方向においてサンプリングが行われた前記ビューの前記画像の少なくとも1つの領域の前記データであり、
    - 前記画像処理の前記説明情報が、前記ビューの前記画像における前記少なくとも1つのサンプリング済みの領域の場所についての情報の少なくとも1つのアイテムを含む、請求項1又は2に記載の方法。
  5. - 前記ビューの前記画像の前記処理済みのデータが、フィルタリングが行われた前記ビューの前記画像の少なくとも1つの領域の前記データであり、
    - 前記画像処理の前記説明情報が、前記ビューの前記画像における前記少なくとも1つのフィルタリング済みの領域の場所についての情報の少なくとも1つのアイテムを含む、請求項1又は2に記載の方法。
  6. - 前記ビューの前記画像の前記処理済みのデータが、前記多数のビューのうちの別のビューの画像を使用して検出されたオクルージョンに対応する前記ビューの前記画像の画素であり、
    - 前記画像処理の前記説明情報が、別のビューの前記画像に見られる前記ビューの前記画像の前記画素のインジケータを含む、請求項1又は2に記載の方法。
  7. 多数のビューのビュー形成部分の画像を符号化するためのデバイスであって、前記多数のビューが、異なる視野角又は位置からの3Dシーンを同時に表す、符号化デバイスであり、
    - 前記ビューの前記画像のデータを符号化するために第1の符号化方法又は第2の符号化方法を選択することと、
    - 選択されたものが前記第1の符号化方法か又は前記第2の符号化方法かを示す情報を含むデータ信号を生成することと、
    - 前記第1の符号化方法が選択された場合は、前記ビューの前記画像のオリジナルデータを符号化することであって、前記第1の符号化方法が、符号化済みのオリジナルデータを提供する、符号化することと、
    - 前記第2の符号化方法が選択された場合は、
    - 前記ビューの前記画像の処理済みのデータを符号化することであって、前記データが、前記ビューの前記画像の前記オリジナルデータに適用された画像処理によって得られ、前記符号化が、処理済み且つ符号化済みのデータを提供する、符号化することと、
    - 適用された前記画像処理の説明情報を符号化することと
    を実施するように構成されたプロセッサを含む、符号化デバイスであり、
    - 前記生成されたデータ信号が、
    - 前記第1の符号化方法が選択された場合は、前記ビューの前記画像の前記符号化済みのオリジナルデータ、
    - 前記第2の符号化方法が選択された場合は、前記ビューの前記画像の前記処理済み且つ符号化済みのデータ及び前記画像処理の前記符号化済みの説明情報
    をさらに含む、符号化デバイス。
  8. 多数のビューのビュー形成部分の画像を表すデータ信号を復号するためのデバイスであって、前記多数のビューが、異なる視野角又は位置からの3Dシーンを同時に表す、復号デバイスであり、
    - 前記データ信号において、前記ビューの前記画像を第1の復号方法に従って復号すべきか又は第2の復号方法に従って復号すべきかを示す情報(flag_proc)のアイテムを読み取ることと、
    - 前記第1の復号方法である場合は、
    - 前記データ信号において、前記ビューの前記画像と関連付けられた符号化済みのデータを読み取ることと、
    - 読み取られた前記符号化済みのデータに基づいて、前記ビューの画像を再構築することであって、前記再構築済みのビューの前記画像が、前記ビューの前記画像の前記オリジナルデータを含む、再構築することと、
    - 前記第2の復号方法である場合は、
    - 前記データ信号において、前記ビューの前記画像と関連付けられた符号化済みのデータを読み取ることと、
    - 読み取られた前記符号化済みのデータに基づいて、前記ビューの画像を再構築することであって、前記ビューの前記再構築済みの画像が、前記処理済みのデータを得るために使用された画像処理の説明情報と関連付けられた前記ビューの前記画像の処理済みのデータを含む、再構築することと、
    を実施するように構成されたプロセッサを含む、復号デバイス。
  9. コンピュータ上で実行されると、請求項1及び3~6のいずれか一項に記載の符号化方法又は請求項2及び3~6のいずれか一項に記載の復号方法のステップを実行するためのプログラムコード命令を含む命令を含むコンピュータプログラム。
  10. コンピュータによって読み取ることができ、請求項9に記載のコンピュータプログラムの命令を含む情報媒体。
  11. 多数のビューのビュー形成部分の画像を表す符号化済みのデータ信号であって、前記多数のビューが、異なる視野角又は位置からの3Dシーンを同時に表す、データ信号であり、
    - 前記ビューの前記画像を第1の復号方法に従って復号すべきか又は第2の復号方法に従って復号すべきかを示す情報のアイテムと、
    - 前記第1の復号方法である場合は、前記ビューの画像を再構築するための前記ビューの前記画像と関連付けられた符号化済みのデータであって、前記再構築済みのビューの前記画像が、前記ビューの前記画像のオリジナルデータを含む、符号化済みのデータと、
    - 前記第2の復号方法である場合は、前記ビューの画像を再構築するための前記ビューの前記画像と関連付けられた符号化済みのデータであって、前記再構築済みのビューの前記画像が、前記処理済みのデータを得るために使用された画像処理の説明情報と関連付けられた前記ビューの前記画像の処理済みのデータを含む、符号化済みのデータと
    を含む、データ信号。
  12. - 前記ビューの前記画像の前記処理済みのデータが、前記ビューの前記画像のクロッピングの適用後の削除されなかった前記ビューの前記画像のデータであり、
    - 前記画像処理の前記説明情報が、前記ビューの前記画像における1つ又は複数のクロッピング済みの領域の場所についての情報である、請求項11に記載のデータ信号。
  13. - 前記ビューの前記画像の前記処理済みのデータが、所定のサンプリングファクタに従って及び少なくとも1つの所定の方向においてサンプリングが行われた前記ビューの前記画像の少なくとも1つの領域の前記データであり、
    - 前記画像処理の前記説明情報が、前記ビューの前記画像における前記少なくとも1つのサンプリング済みの領域の場所についての情報の少なくとも1つのアイテムを含む、請求項11に記載のデータ信号。
  14. - 前記ビューの前記画像の前記処理済みのデータが、フィルタリングが行われた前記ビューの前記画像の少なくとも1つの領域の前記データであり、
    - 前記画像処理の前記説明情報が、前記ビューの前記画像における前記少なくとも1つのフィルタリング済みの領域の場所についての情報の少なくとも1つのアイテムを含む、請求項11に記載のデータ信号。
  15. - 前記ビューの前記画像の前記処理済みのデータが、前記多数のビューのうちの別のビューの画像を使用して検出されたオクルージョンに対応する前記ビューの前記画像の画素であり、
    - 前記画像処理の前記説明情報が、別のビューの前記画像に見られる前記ビューの前記画像の前記画素のインジケータを含む、請求項11に記載のデータ信号。
JP2021517806A 2018-10-01 2019-09-25 全方位映像の符号化及び復号 Pending JP2022503963A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1859067 2018-10-01
FR1859067A FR3086831A1 (fr) 2018-10-01 2018-10-01 Codage et decodage d'une video omnidirectionnelle
PCT/FR2019/052254 WO2020070409A1 (fr) 2018-10-01 2019-09-25 Codage et décodage d'une vidéo omnidirectionnelle

Publications (1)

Publication Number Publication Date
JP2022503963A true JP2022503963A (ja) 2022-01-12

Family

ID=65244050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021517806A Pending JP2022503963A (ja) 2018-10-01 2019-09-25 全方位映像の符号化及び復号

Country Status (8)

Country Link
US (2) US11653025B2 (ja)
EP (1) EP3861751A1 (ja)
JP (1) JP2022503963A (ja)
KR (1) KR20210066825A (ja)
CN (1) CN112806015B (ja)
BR (1) BR112021005927A2 (ja)
FR (1) FR3086831A1 (ja)
WO (1) WO2020070409A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102065632B1 (ko) * 2018-10-22 2020-02-11 전자부품연구원 복수의 가상 카메라를 이용한 게임 내 360 vr 영상 획득 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014132721A (ja) * 2013-01-07 2014-07-17 National Institute Of Information & Communication Technology 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
JP2014524707A (ja) * 2011-08-11 2014-09-22 クゥアルコム・インコーポレイテッド 非対称な空間解像度を持つ3次元ビデオ
JP2017152905A (ja) * 2016-02-24 2017-08-31 沖電気工業株式会社 符号化装置及びプログラム、復号装置及びプログラム、並びに、配信システム
WO2018150933A1 (ja) * 2017-02-20 2018-08-23 ソニー株式会社 画像処理装置および画像処理方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100739686B1 (ko) * 2004-08-13 2007-07-13 경희대학교 산학협력단 영상 코딩 방법, 코딩 장치, 영상 디코딩 방법 및 디코딩장치
KR101385884B1 (ko) * 2008-01-30 2014-04-16 고려대학교 산학협력단 다시점 동영상의 부호화 및 복호화 방법 및 장치
EP2521366B1 (en) * 2009-02-19 2014-09-17 Panasonic Corporation Playback device
WO2010095440A1 (ja) * 2009-02-20 2010-08-26 パナソニック株式会社 記録媒体、再生装置、及び集積回路
US20100259595A1 (en) * 2009-04-10 2010-10-14 Nokia Corporation Methods and Apparatuses for Efficient Streaming of Free View Point Video
WO2010123909A1 (en) * 2009-04-20 2010-10-28 Dolby Laboratories Licensing Corporation Directed interpolation and data post-processing
US8743178B2 (en) * 2010-01-05 2014-06-03 Dolby Laboratories Licensing Corporation Multi-view video format control
CN102783151A (zh) * 2010-01-08 2012-11-14 诺基亚公司 用于视频编码的装置、方法和计算机程序
EP2670139A1 (en) * 2012-06-01 2013-12-04 Alcatel Lucent Method and apparatus for encoding a video stream having a transparency information channel
GB2503875B (en) * 2012-06-29 2015-06-10 Canon Kk Method and device for encoding or decoding an image
EP2873241B1 (en) * 2012-07-10 2016-01-06 Telefonaktiebolaget LM Ericsson (PUBL) Methods and arrangements for supporting view synthesis
RU2667605C2 (ru) * 2013-05-10 2018-09-21 Конинклейке Филипс Н.В. Способ кодирования сигнала видеоданных для использования с многовидовым устройством визуализации
WO2015015058A1 (en) * 2013-07-31 2015-02-05 Nokia Corporation Method and apparatus for video coding and decoding
US9906804B2 (en) * 2014-01-16 2018-02-27 Qualcomm Incorporated Reference layer sample position derivation for scalable video coding
US9716884B2 (en) * 2014-03-20 2017-07-25 Hfi Innovation Inc. Method of signaling for mode selection in 3D and multi-view video coding
FR3019384B1 (fr) * 2014-03-25 2018-01-12 Universite Grenoble Alpes Reacteur implantable biocompatible
EP3140989A4 (en) * 2014-05-22 2017-07-05 MediaTek Inc. Method of intra block copy with flipping for image and video coding
US10075640B2 (en) * 2015-12-31 2018-09-11 Sony Corporation Motion compensation for image sensor with a block based analog-to-digital converter
FR3058019A1 (fr) * 2016-10-21 2018-04-27 Orange Procede de codage et de decodage de parametres d'image, dispositif de codage et de decodage de parametres d'image et programmes d'ordinateur correspondants
CN107371032B (zh) * 2017-07-10 2019-11-22 上海国茂数字技术有限公司 一种多视点立体视频分层编码方法和解码方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014524707A (ja) * 2011-08-11 2014-09-22 クゥアルコム・インコーポレイテッド 非対称な空間解像度を持つ3次元ビデオ
JP2014132721A (ja) * 2013-01-07 2014-07-17 National Institute Of Information & Communication Technology 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
JP2017152905A (ja) * 2016-02-24 2017-08-31 沖電気工業株式会社 符号化装置及びプログラム、復号装置及びプログラム、並びに、配信システム
WO2018150933A1 (ja) * 2017-02-20 2018-08-23 ソニー株式会社 画像処理装置および画像処理方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DOMANSKI, MAREK ET AL.: "3D Video Compression by Coding of Disoccluded Regions", PROC. 19TH IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING 2012, JPN6023045326, 21 February 2013 (2013-02-21), US, pages 1317 - 1320, ISSN: 0005189372 *
FEHN, CHRISTOPH ET AL.: "Asymmetric Coding of Stereoscopic Video for Transmission over T-DMB", PROC. 3DTV CONFERENCE 2007, JPN6023045325, 12 November 2007 (2007-11-12), GR, pages 1 - 4, ISSN: 0005189373 *
JEONG, JONGBEOM ET AL.: "3DoF+ 360 Video Location-Based Asymmetric Down-Sampling for View Synthesis to Immersive VR Video Str", SENSORS 2018, vol. 18, no. 9, JPN6023045327, 18 September 2018 (2018-09-18), pages 1 - 20, ISSN: 0005189371 *

Also Published As

Publication number Publication date
FR3086831A1 (fr) 2020-04-03
US20210409766A1 (en) 2021-12-30
US11973981B2 (en) 2024-04-30
EP3861751A1 (fr) 2021-08-11
CN112806015B (zh) 2024-03-26
US20230239503A1 (en) 2023-07-27
KR20210066825A (ko) 2021-06-07
CN112806015A (zh) 2021-05-14
BR112021005927A2 (pt) 2021-06-29
WO2020070409A1 (fr) 2020-04-09
US11653025B2 (en) 2023-05-16

Similar Documents

Publication Publication Date Title
JP6630891B2 (ja) 明視野画像ファイルを符号化および復号するためのシステムおよび方法
KR100732958B1 (ko) 20면체 파노라마 영상의 부호화 및 복호화를 위한 방법 및장치
US20180098090A1 (en) Method and Apparatus for Rearranging VR Video Format and Constrained Encoding Parameters
US20090103616A1 (en) Method and device for generating depth image using reference image, method for encoding/decoding depth image, encoder or decoder for the same, and recording medium recording image generated using the method
TW201531745A (zh) 用於全視差壓縮光場三維成像系統之方法
CN110612553A (zh) 对球面视频数据进行编码
HUE026534T2 (en) Hybrid video encoding to support intermediate view synthesis
EP1917642A2 (en) Video processing method and device for depth extraction
US11812066B2 (en) Methods, devices and stream to encode global rotation motion compensated images
JP6154643B2 (ja) 動画像符号化装置、動画像符号化装置のデプスイントラ予測方法およびプログラム、ならびに動画像復号装置、動画像復号装置のデプスイントラ予測方法およびプログラム
JP7371090B2 (ja) マルチビュービデオのデコードの方法及び装置、並びに画像処理の方法及び装置
RU2729966C1 (ru) Способы, устройства и машиносчитываемый носитель для кодирования и декодирования видеосигнала
JP7344988B2 (ja) ボリュメトリック映像の符号化および復号化のための方法、装置、およびコンピュータプログラム製品
JP2020005202A (ja) 映像処理装置
US11973981B2 (en) Coding and decoding of an omnidirectional video
US20130229487A1 (en) Method and device for multiplexing and demultiplexing composite images relating to a three-dimensional content
JP2022506823A (ja) ビュー合成
US11659203B2 (en) Methods and devices for coding and decoding a multi-view video sequence
CN111630862B (zh) 用于对表示全向视频的多视图视频序列进行编码和解码的方法和设备
CN114208151B (zh) 用于处理多视图视频数据的方法及设备
CN111034202A (zh) 图像编码和解码方法、编码和解码设备及对应计算机程序
US20230065861A1 (en) Method and device for processing multi-view video data
TW202406340A (zh) 沉浸式視訊編解碼中之冗餘資料減少
CN105376548A (zh) 用于3维视频的舒适噪声和胶片颗粒处理

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240206