JPWO2020026846A1 - 画像処理装置および方法 - Google Patents

画像処理装置および方法 Download PDF

Info

Publication number
JPWO2020026846A1
JPWO2020026846A1 JP2020533425A JP2020533425A JPWO2020026846A1 JP WO2020026846 A1 JPWO2020026846 A1 JP WO2020026846A1 JP 2020533425 A JP2020533425 A JP 2020533425A JP 2020533425 A JP2020533425 A JP 2020533425A JP WO2020026846 A1 JPWO2020026846 A1 JP WO2020026846A1
Authority
JP
Japan
Prior art keywords
data
image
dimensional
unit
video frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020533425A
Other languages
English (en)
Other versions
JP7331852B2 (ja
Inventor
央二 中神
央二 中神
幸司 矢野
幸司 矢野
加藤 毅
毅 加藤
智 隈
智 隈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020026846A1 publication Critical patent/JPWO2020026846A1/ja
Application granted granted Critical
Publication of JP7331852B2 publication Critical patent/JP7331852B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Generation (AREA)

Abstract

本開示は、より容易に2次元画像を再生することができるようにする画像処理装置および方法に関する。3次元形状のオブジェクトを点群として表現するポイントクラウドを2次元平面上に投影したパッチと、そのパッチと異なる2次元画像とを含むビデオフレームを生成し、その生成されたビデオフレームを符号化して、ビットストリームを生成する。本開示は、例えば、画像処理装置、電子機器、画像処理方法、またはプログラム等に適用することができる。

Description

本開示は、画像処理装置および方法に関し、特に、より容易に2次元画像を再生することができるようにした画像処理装置および方法に関する。
従来、例えばポイントクラウド(Point cloud)のような、3次元形状のオブジェクトを表す3Dデータの符号化方法として、例えばOctree等のような、ボクセル(Voxel)を用いた符号化があった(例えば非特許文献1参照)。
近年、その他の符号化方法として、例えば、ポイントクラウドの位置と色情報それぞれを、小領域毎に2次元平面に投影し、2次元画像用の符号化方法で符号化するアプローチ(以下、ビデオベースドアプローチ(Video-based approach)とも称する)が提案されている(例えば、非特許文献2乃至非特許文献4参照)。
このように符号化される3Dデータは、例えば、ビットストリームとして伝送され、復号後、その3次元形状のオブジェクトを任意の位置および向きのカメラで撮像した撮像画像のような2次元画像として再生された。
R. Mekuria, Student Member IEEE, K. Blom, P. Cesar., Member, IEEE, "Design, Implementation and Evaluation of a Point Cloud Codec for Tele-Immersive Video",tcsvt_paper_submitted_february.pdf Tim Golla and Reinhard Klein, "Real-time Point Cloud Compression ," IEEE, 2015 K. Mammou,"Video-based and Hierarchical Approaches Point Cloud Compression", MPEG m41649, Oct. 2017 K. Mammou,"PCC Test Model Category 2 v0,"N17248 MPEG output document, October 2017
しかしながら、このような再生方法の場合、復号して再構築した3Dデータが示す3次元形状のオブジェクトを、任意の位置および向きのカメラで撮像するようにレンダリングする必要があり、処理の負荷が増大するおそれがあった。
本開示は、このような状況に鑑みてなされたものであり、より容易に2次元画像を再生することができるようにするものである。
本技術の一側面の画像処理装置は、3次元形状のオブジェクトを点群として表現するポイントクラウドを2次元平面上に投影したパッチと、前記パッチと異なる2次元画像とを含むビデオフレームを生成する生成部と、前記生成部により生成された前記ビデオフレームを符号化して、ビットストリームを生成する符号化部とを備える画像処理装置である。
本技術の一側面の画像処理方法は、3次元形状のオブジェクトを点群として表現するポイントクラウドを2次元平面上に投影したパッチと、前記パッチと異なる2次元画像とを含むビデオフレームを生成し、生成された前記ビデオフレームを符号化して、ビットストリームを生成する画像処理方法である。
本技術の他の側面の画像処理装置は、3次元形状のオブジェクトを点群として表現するポイントクラウドを2次元平面上に投影したパッチと、前記パッチと異なる2次元画像とを含むビデオフレームの符号化データを含むビットストリームより、前記符号化データを抽出する抽出部と、前記抽出部により前記ビットストリームから抽出された前記符号化データを復号して、前記2次元画像を復元する2次元復号部とを備える画像処理装置である。
本技術の他の側面の画像処理方法は、3次元形状のオブジェクトを点群として表現するポイントクラウドを2次元平面上に投影したパッチと、前記パッチと異なる2次元画像とを含むビデオフレームの符号化データを含むビットストリームより、前記符号化データを抽出し、前記ビットストリームから抽出された前記符号化データを復号して、前記2次元画像を復元する画像処理方法である。
本技術の一側面の画像処理装置および方法においては、3次元形状のオブジェクトを点群として表現するポイントクラウドを2次元平面上に投影したパッチと、そのパッチと異なる2次元画像とを含むビデオフレームが生成され、その生成されたビデオフレームが符号化されて、ビットストリームが生成される。
本技術の他の側面の画像処理装置および方法においては、3次元形状のオブジェクトを点群として表現するポイントクラウドを2次元平面上に投影したパッチと、そのパッチと異なる2次元画像とを含むビデオフレームの符号化データを含むビットストリームより、その符号化データが抽出され、そのビットストリームから抽出された符号化データが復号されて、その2次元画像が復元される。
本開示によれば、画像を処理することができる。特に、より容易に2次元画像を再生することができる。
ビットストリームへの2Dデータの付加について説明する図である。 システムの概要を説明する図である。 カメラパラメータの例を説明する図である。 シンタックスの例を説明する図である。 シンタックスの例を説明する図である。 シンタックスの例を説明する図である。 2Dデータの付加の例を説明する図である。 符号化装置の主な構成例を示すブロック図である。 2Dデータ生成部の主な構成例を示すブロック図である。 符号化処理の流れの例を説明するフローチャートである。 2Dデータ生成処理の流れの例を説明するフローチャートである。 復号装置の主な構成例を示すブロック図である。 復号処理の流れの例を説明するフローチャートである。 復号装置の主な構成例を示すブロック図である。 コンピュータの主な構成例を示すブロック図である。
以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.2Dデータの付加
2.第1の実施の形態(符号化装置)
3.第2の実施の形態(復号装置)
4.第3の実施の形態(復号装置)
5.付記
<1.2Dデータの付加>
<技術内容・技術用語をサポートする文献等>
本技術で開示される範囲は、実施の形態に記載されている内容だけではなく、出願当時において公知となっている以下の非特許文献に記載されている内容も含まれる。
非特許文献1:(上述)
非特許文献2:(上述)
非特許文献3:(上述)
非特許文献4:(上述)
非特許文献5:TELECOMMUNICATION STANDARDIZATION SECTOR OF ITU(International Telecommunication Union), "Advanced video coding for generic audiovisual services", H.264, 04/2017
非特許文献6:TELECOMMUNICATION STANDARDIZATION SECTOR OF ITU(International Telecommunication Union), "High efficiency video coding", H.265, 12/2016
非特許文献7:Jianle Chen, Elena Alshina, Gary J. Sullivan, Jens-Rainer, Jill Boyce, "Algorithm Description of Joint Exploration Test Model 4", JVET-G1001_v1, Joint Video Exploration Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 7th Meeting: Torino, IT, 13-21 July 2017
つまり、上述の非特許文献に記載されている内容もサポート要件を判断する際の根拠となる。例えば、非特許文献6に記載されているQuad-Tree Block Structure、非特許文献7に記載されているQTBT(Quad Tree Plus Binary Tree) Block Structureが実施の形態において直接的な記載がない場合でも、本技術の開示範囲内であり、請求の範囲のサポート要件を満たすものとする。また、例えば、パース(Parsing)、シンタックス(Syntax)、セマンティクス(Semantics)等の技術用語についても同様に、実施の形態において直接的な記載がない場合でも、本技術の開示範囲内であり、請求の範囲のサポート要件を満たすものとする。
<ポイントクラウド>
従来、点群の位置情報や属性情報等により3次元形状のオブジェクトを表すポイントクラウドや、頂点、エッジ、面で構成され、多角形表現を使用して3次元形状のオブジェクトを定義するメッシュ等の3Dデータが存在した。
例えばポイントクラウドの場合、立体構造物(3次元形状のオブジェクト)を多数の点の集合(点群)として表現する。つまり、ポイントクラウドのデータは、この点群の各点の位置情報や属性情報(例えば色等)により構成される。したがってデータ構造が比較的単純であるとともに、十分に多くの点を用いることにより任意の立体構造物を十分な精度で表現することができる。
<ビデオベースドアプローチの概要>
このようなポイントクラウドの位置と色情報それぞれを、小領域毎に2次元平面に投影して2次元画像化し、その2次元画像を2次元画像用の符号化方法で符号化するビデオベースドアプローチ(Video-based approach)が提案されている。
このビデオベースドアプローチでは、入力されたポイントクラウド(Point cloud)が複数のセグメンテーション(領域とも称する)に分割され、領域毎に2次元平面に投影される。なお、ポイントクラウドの位置毎のデータ(すなわち、各ポイントのデータ)は、上述のように位置情報(Geometry(Depthとも称する))と属性情報(Texture)とにより構成され、それぞれ、領域毎に2次元平面に投影される。
そして、この2次元平面に投影された各セグメンテーション(パッチとも称する)は、2次元画像に配置され、例えば、AVC(Advanced Video Coding)やHEVC(High Efficiency Video Coding)等といった、2次元平面画像用の符号化方式により符号化される。
<レンダリング>
このように符号化される3Dデータは、例えば、符号化されてビットストリームとして伝送され、伝送先において、復号後、再生される。例えば、2次元画像を表示する2Dディスプレイを有するデバイスの場合、復号されて再構築された3Dデータが示す3次元形状のオブジェクトは、任意の位置および向きのカメラで撮像するようにレンダリングして、2次元画像(レンダリング画像とも称する)として2Dディスプレイに表示される。
なお、このようにオブジェクトがレンダリングされた2次元画像(レンダリング画像)は、符号化の際の2次元画像(パッチを配置した2次元画像)とは異なる画像である。パッチを配置した2次元画像は、3Dデータを伝送するためのフォーマットであり、表示することを目的とした画像ではない。つまり、仮にこのパッチを配置した2次元画像を表示しても、その表示画像は、それを視聴するユーザには理解することができない画像(コンテンツとして成立していない画像)となる。これに対してレンダリング画像は、3次元形状のオブジェクトを2次元表現した画像である。したがって、その表示画像は、それを視聴するユーザにとって理解可能な画像(コンテンツとして成立している画像)となる。
しかしながら、この再生方法の場合、3次元形状のオブジェクトのレンダリングが必要であるが、このレンダリングの負荷が大きく、処理時間が増大するおそれがあった。例えば、ビットストリームがどのようなコンテンツのデータであるかを確認する場合であっても、そのビットストリームを復号して3Dデータを再構築し、その3Dデータが示すオブジェクトをさらにレンダリングして2次元画像として再生する必要があった。そのため、ビットストリームの内容確認に要する時間が増大するおそれがあった。また、例えば、符号化側においてお勧めのカメラワーク(レンダリングするカメラの位置や方向等)を指定し、復号側において、オブジェクトがそのお勧めのカメラワークでレンダリングされたレンダリング画像を表示する場合も、復号側によるオブジェクトのレンダリングが必要であるため、レンダリング画像の表示に要する時間が増大するおそれがあった。
また、レンダリングの負荷が大きいため、より高性能なデバイスにしか、ビットストリームの復号・再生機能を搭載することができなくなるおそれがあった。すなわち、ビットストリームの復号・再生機能を搭載不可能なデバイスが増大するおそれがあった(ビットストリームの復号・再生機能を搭載可能なデバイスが低減するおそれがあった)。
<2Dデータの付加>
そこで、図1の表10の上から1番目の行に示されるように、符号化側において、3Dデータのビデオベースドアプローチにおいて、ビットストリームに、3Dデータとは別の2Dデータを付加するようにする。つまり、レンダリングを必要とせずに表示可能なデータを、3Dデータのビットストリームに含めるようにする。
このようにすることにより、復号側において、3次元形状のオブジェクトのレンダリングを行わずに、2次元画像を表示する(ビットストリームに含まれる2Dデータを再生する)ことができる。
例えば、図2の復号側において、3Dデータを3次元コンテンツとして3Dディスプレイ35に表示する場合は、3Dデータデコーダ32がその3Dデータのビットストリームを復号して3Dデータ(例えばPoint Cloud)を再構築し、3Dディスプレイ35がその3Dデータを表示する。
これに対して、例えば、図2の復号側において、3Dデータを2次元画像として2Dディスプレイ36に表示する場合、3Dデータデコーダ32がその3Dデータのビットストリームを復号して3Dデータを再構築し、レンダラ34がその3Dデータをレンダリングしてレンダリング画像(2次元画像)を生成し、2Dディスプレイ36がそのレンダリング画像を表示する。つまり、この場合、レンダリング処理が必要であり、負荷が増大するおそれがあった。
これに対して、ビットストリームに2Dデータ(例えばレンダリング画像)が付加されている場合、デマルチプレクサ31がそのビットストリームから2Dデータの符号化データを抽出し、2Dビデオデコーダ33がその符号化データを復号して2次元画像を生成し、2Dディスプレイ36がその2次元画像を表示することができる。つまり、復号側のレンダリング処理をスキップ(省略)することができる。
つまり、より容易に2次元画像を表示することができる。したがって、例えば、ビットストリームの内容を示す2次元画像をビットストリームに含めることにより、復号側において、3次元形状のオブジェクトのレンダリングを行わずに、その2次元画像を表示することができる。したがって、より高速にビットストリームの内容確認を行うことができる。また、例えば、お勧めのカメラワークのレンダリング画像を2Dデータとしてビットストリームに付加することにより、復号側において、3次元形状のオブジェクトのレンダリングを行わずに、そのレンダリング画像を表示することができる。したがって、より高速にお勧めのカメラワークを確認することができる。
また、処理の負荷が大きい3次元形状のオブジェクトのレンダリングを行わずに2次元画像を表示することができるので、より低性能のデバイスにおいても、ビットストリームに含まれる2Dデータを再生することができる。したがって、ビットストリームの復号・再生機能を搭載不可能なデバイスの低減を抑制する(ビットストリームの復号・再生機能を搭載可能なデバイスを増大させる)ことができる。
<2Dデータの内容>
なお、この3Dデータのビットストリームに付加する2Dデータの内容は、3Dデータのパッチと異なるものであれば任意である。例えば、図1の表10の上から2行目に示されるように、3Dデータが示す3次元形状のオブジェクトのレンダリング画像であってもよい。
例えば、3Dデータが示す3次元形状のオブジェクトを所定のカメラワーク(レンダリング用カメラの位置や方向等)で撮像するように3Dデータをレンダリングしたレンダリング画像であってもよい。例えば、図2の符号化側において、3Dデータエンコーダ21が、3Dデータ(Point Cloud)を符号化する際に、符号化対象の3Dデータのレンダリング画像も符号化して符号化データを生成し、そのレンダリング画像の符号化データを、3Dデータの符号化データを含むビットストリームに付加するようにしてもよい。つまり、レンダリング画像を3Dデータのビットストリームに付加するようにしてもよい。
このようにすることにより、復号側において、レンダリングを行わずに(つまり、より容易に)、レンダリング画像を表示することができる。例えば、図2の復号側において、デマルチプレクサ31がビットストリームからレンダリング画像の符号化データを抽出し、2Dビデオデコーダが符号化データを復号することにより、レンダリング画像を得ることができる。つまり、レンダリング処理をスキップ(省略)することができる。
また、例えば、図1の表10の上から3行目に示されるように、このレンダリング画像は、推奨するカメラ位置および方向より、3Dデータが示す3次元形状のオブジェクトを撮像したようにレンダリングした画像であるようにしてもよい。つまり、このレンダリング画像は、お勧めのカメラワークでレンダリングした画像であるようにしてもよい。
例えば、図2の符号化側において、3Dデータエンコーダ21が、3Dデータ(Point Cloud)を符号化する際に、符号化対象の3Dデータのオブジェクトをお勧めのカメラワークでレンダリングしたレンダリング画像も符号化して符号化データを生成し、そのレンダリング画像の符号化データを、3Dデータの符号化データを含むビットストリームに付加するようにしてもよい。つまり、お勧めのカメラワークでレンダリングしたレンダリング画像を3Dデータのビットストリームに付加するようにしてもよい。
このようにすることにより、復号側において、符号化側により指定されるお勧めのカメラワークのレンダリング画像を、レンダリングを行わずに(つまり、より容易に)、表示することができる。例えば、図2の復号側において、デマルチプレクサ31がビットストリームからレンダリング画像の符号化データを抽出し、2Dビデオデコーダが符号化データを復号することにより、符号化側により指定されるお勧めのカメラワークのレンダリング画像を得ることができる。つまり、レンダリング処理をスキップ(省略)することができる。
なお、例えば、図1の表10の上から4行目に示されるように、このレンダリング画像は、符号化側において生成されるようにしてもよい。例えば、図2の符号化側において、レンダラ22が、符号化対象の3Dデータのオブジェクトをレンダリングしてレンダリング画像を生成し、3Dデータエンコーダ21が、そのレンダリング画像を符号化して、3Dデータのビットストリームに付加するようにしてもよい。
このようにすることにより、復号側において、符号化側において生成されたレンダリング画像を、レンダリングを行わずに(つまり、より容易に)、表示することができる。例えば、図2の復号側において、デマルチプレクサ31がビットストリームからレンダリング画像の符号化データを抽出し、2Dビデオデコーダが符号化データを復号することにより、レンダラ22が生成したレンダリング画像を得ることができる。つまり、復号側のレンダリング処理をスキップ(省略)することができる。
なお、この2Dデータは、上述の例に限定されない。この2Dデータは、レンダリング画像でなくてもよい。例えば、2Dデータは、ビットストリームに含まれる3Dデータの内容に関する情報(文字、数字、記号、図形、絵柄等)を含む画像であってもよい。このような2Dデータをビットストリームに付加することにより、復号側において、より容易に、3Dデータの内容に関する情報を表示することができる。つまり、復号側のユーザは、より高速にビットストリームの内容を把握することができる。また、ユーザは、より多様なデバイスにおいて、ビットストリームの内容を把握することができる。
また、2Dデータは、ビットストリームに含まれる3Dデータとは独立した内容の画像(無関係の画像)であってもよい。例えば、2Dデータは、ビットストリームに含まれる3Dデータが示すオブジェクトと異なるオブジェクトのレンダリング画像であってもよいし、ビットストリームに含まれる3Dデータの内容とは無関係の情報(文字、数字、記号、図形、絵柄等)を含む画像であってもよい。このような2Dデータをビットストリームに付加することにより、復号側において、より容易に、より多様な情報を表示することができる。つまり、復号側のユーザは、より高速により多様な情報を得ることができる。また、ユーザは、より多様なデバイスにおいて、より多様な情報を得ることができる。
また、2Dデータおよび3Dデータは、それぞれ、動画像であってもよいし、静止画像であってもよい。さらに、この2Dデータおよび3Dデータの再生時間の長さは、互いに同一であってもよいし、互いに異なっていてもよい。このような2Dデータをビットストリームに付加することにより、復号側において、動画像であっても静止画像であっても、より容易に2Dデータを表示することができる。つまり、復号側のユーザは、動画像であっても静止画像であっても、より高速に、その2Dデータの視聴を開始することができる。また、ユーザは、動画像であっても静止画像であっても、より多様なデバイスにおいて、その2Dデータを視聴することができる。
また、複数の2Dデータを、3Dデータのビットストリームに付加するようにしてもよい。さらに、この複数の2Dデータの再生時間の長さは、互いに同一であってもよいし、互いに異なっていてもよい。また、この複数の2Dデータが、それぞれが順次再生されるような状態で、ビットストリームに付加されるようにしてもよい。
例えば、複数の2Dデータを、それぞれが順次再生されるような状態で、ビットストリームに付加することにより、復号側において、より容易に、その複数の2Dデータを順次再生することができる。つまり、復号側のユーザは、より高速に、その複数の2Dデータの視聴を開始することができる。また、ユーザは、より多様なデバイスにおいて、この複数の2Dデータを視聴することができる。
例えば、図1の表10の上から5行目に示されるように、この複数の2Dデータとして、例えば、同一の動画像を複数回ビットストリームに付加するようにしてもよい。このようにすることにより、復号側において、より容易に、動画像を複数回再生することができる。つまり、復号側のユーザは、より高速に、その複数回の動画像視聴を開始することができる。また、ユーザは、より多様なデバイスにおいて、この複数回の動画像視聴を行うことができる。
また、例えば、図1の表10の上から5行目に示されるように、この複数の2Dデータとして、例えば、互いに異なる内容の動画像を、それぞれが順次再生されるような状態で、ビットストリームに付加するようにしてもよい。例えば、この互いに異なる内容の動画像として、互いに異なるカメラワーク(カメラの位置や方向等)によりレンダリングされた複数のレンダリング画像(動画像)をビットストリームに付加するようにしてもよい。このようにすることにより、復号側において、より容易に、複数の視点の(複数のカメラワークの)レンダリング画像を表示する(各視点の(各カメラワークの)レンダリング画像を順次表示する)ことができる。つまり、復号側のユーザは、より高速に、その複数の視点のレンダリング画像の視聴を開始することができる。また、ユーザは、より多様なデバイスにおいて、この複数の視点のレンダリング画像の視聴を行うことができる。
<2Dデータの場所>
なお、2Dデータは、ビットストリームの任意の場所に付加するようにしてもよい。例えば、ビデオフレームに2Dデータが付加されるようにしてもよい。上述したように、ポイントクラウド(3Dデータ)は、点群の位置情報および属性情報により構成される。また、ビデオベースドアプローチの場合、ポイントクラウドの位置情報と属性情報とは、それぞれセグメンテーションごとに2次元平面に投影され、パッチとしてビデオフレームにパッキングされる。このようなビデオフレームに上述の2Dデータを付加するようにしてもよい。
このようにビデオフレームに2Dデータを付加することにより、3Dデータとともに2Dデータを符号化することができる。例えば、図2の場合、3Dデータエンコーダ21は、パッキングされたビデオフレームを、例えば、AVCやHEVC等のような2次元平面画像用の符号化方式により符号化することにより、3Dデータおよび2Dデータを符号化することができる。つまり、2Dデータの符号化をより容易に行うことができる。
また、復号側においても2Dデータの復号をより容易に行うことができる。例えば、図2の場合、2Dビデオデコーダ33は、例えば、AVCやHEVC等のような2次元平面画像用の復号方式により符号化データを復号することにより、2Dデータを生成することができる。
なお、例えば、図1の表10の上から6行目に示されるように、ポイントクラウドの属性情報のパッチがパッキングされるカラービデオフレームに2Dデータが付加されるようにしてもよい。図3に示されるように、3Dデータのビットストリーム40は、ストリームヘッダ(Stream header)41、並びに、GOFストリーム(GOF(Group of Frames) stream)42−1、GOFストリーム42−2、・・・、GOFストリーム42−n−1、およびGOFストリーム42−n(nは任意の自然数)を有する。
ストリームヘッダ41は、このビットストリーム40のヘッダ情報であり、このビットストリーム40に関する各種情報が格納される。
GOFストリーム42−1乃至GOFストリーム42−nは、それぞれ、時間方向の相関をランダムアクセス内でパッキングしたものである。つまり、これらは、所定の時間分のビットストリームである。GOFストリーム42−1乃至GOFストリーム42−nを互いに区別して説明する必要がない場合、GOFストリーム42と称する。
GOFストリーム42は、GOFヘッダ(GOF header)51、GOFジオメトリビデオストリーム(GOF geometry video stream)52、GOFオグジリアリインフォメーションアンドオキュパンシーマップス(GOF auxiliary info & occupancy maps)53、およびGOFテクスチャビデオストリーム(GOF texture video stream)54を有する。
GOFヘッダ51は、当該GOFストリーム42に対応するパラメータ61を含む。パラメータ61には、例えば、フレームの高さに関する情報(frameWidth)、フレームの横幅に関する情報(frameHeight)、オキュパンシーマップのレゾリューションに関する情報(occupancyResolution)等のパラメータが含まれる。
GOFジオメトリビデオストリーム52は、ポイントクラウドの位置情報のパッチがパッキングされるジオメトリビデオフレーム(geometry video frame)62を、例えば、AVCやHEVC等のような2次元平面画像用の符号化方式により符号化した符号化データ(ビットストリーム)である。
GOFオグジリアリインフォメーションアンドオキュパンシーマップス53は、オグジリアリインフォメーション(auxiliary info)とオキュパンシーマップ(occupancy map)64を所定の符号化方式により符号化した符号化データ(ビットストリーム)である。オキュパンシーマップ64は、2次元平面の各位置における、位置情報および属性情報の有無を示すマップ情報である。
GOFテクスチャビデオストリーム54は、カラービデオフレーム(color video frame)65を、例えば、AVCやHEVC等のような2次元平面画像用の符号化方式により符号化した符号化データ(ビットストリーム)である。このカラービデオフレーム65に、2Dデータ72を付加するようにしてもよい。
このような構成とすることにより、3Dデータとともに2Dデータを符号化することができる。例えば、図2の場合、3Dデータエンコーダ21は、パッキングされたカラービデオフレームを、例えば、AVCやHEVC等のような2次元平面画像用の符号化方式により符号化することにより、ポイントクラウドの属性情報だけでなく2Dデータも符号化することができる。つまり、2Dデータの符号化をより容易に行うことができる。
また、復号側においても2Dデータの復号をより容易に行うことができる。例えば、図2の場合、デマルチプレクサ31が、ビットストリームからカラービデオフレームの符号化データ(図3の例の場合、GOFテクスチャビデオストリーム54)を抽出し、2Dビデオデコーダ33が、例えば、AVCやHEVC等のような2次元平面画像用の復号方式によりその抽出された符号化データ(GOFテクスチャビデオストリーム54)を復号することにより、2Dデータ(図3の例の場合、2Dデータ72)を生成することができる。
なお、この場合、2Dデータ72は、ポイントクラウドとは異なる情報であるので、オキュパンシーマップ64には、この2Dデータ72は反映されていない。したがって、例えば3Dデータデコーダ32(図2)が3Dデータのビットストリーム40を復号する場合、この2Dデータ72は無視される。つまり、3Dデータデコーダ32は、2Dデータが付加されていない3Dデータのビットストリームを復号する場合と同様に、このビットストリーム40を復号することができる。つまり、容易に、3Dデータを復号することができる。
また、2Dデータは、全てのカラービデオフレームに付加するようにしてもよいし、一部のビデオフレームに付加するようにしてもよい。例えば、図1の表10の上から7行目に示されるように、カラービデオフレームが時間方向に階層符号化される場合、全部の符号化階層のビデオフレームに2Dデータが付加されるようにしてもよいし、一部の符号化階層のビデオフレームに2Dデータが付加されるようにしてもよい。
ビデオベースドアプローチの場合、1つのポイントクラウドフレームから所定数の2次元画像を生成することによりパッチの奥行を表現することができる。換言するに、1つのポイントクラウドフレームに対して、奥行方向に複数のパッチを生成することができる。その場合、パッキングされたビデオフレームを時間方向に階層符号化して、パッチの奥行方向の位置毎に符号化階層を割り当てることができる(各パッチをその奥行方向に応じた階層のビデオフレームに配置することができる)。
このような階層構造の場合、例えば3Dデータの全てのカラービデオフレームに対して先頭から順に2Dデータを付加するようにすると、符号化・復号順において後方のカラービデオフレームに2Dデータが付加されない可能性がある。つまり、3Dデータの全カラービデオフレームから2Dデータを抽出して表示すると、符号化・復号順が後方のビデオフレームがノイズ画像(2Dデータでない画像)となってしまうおそれがある。
そこで、2Dデータを、上述の階層構造の内の一部の符号化階層のカラービデオフレームにのみ付加し、全符号化階層のカラービデオフレームをその階層構造に従って符号化するようにし、2Dデータを再生する場合は、その2Dデータが付加された符号化階層のカラービデオフレームの符号化データのみを復号するようにしてもよい。例えば、1つの符号化階層のカラービデオフレームに2Dデータを付加し、全符号化階層のカラービデオフレームをその階層構造に従って符号化するようにし、2Dデータを再生する場合は、その2Dデータが付加された符号化階層のカラービデオフレームの符号化データのみを復号するようにしてもよい。このようにすることにより、復号した全てのカラービデオフレームから2Dデータを抽出することができるので、上述したノイズ画像の表示を抑制することができる。
また、2Dデータを、上述の階層構造の内の全部の符号化階層のカラービデオフレームに付加するようにしてもよい。例えば、符号化階層構造の全てのカラービデオフレームに対して先頭から順に2Dデータを付加するようにしてもよい。その場合、同一の2Dデータを繰り返し付加するようにしてもよい。例えば、あるカラービデオフレームに対して2次元動画像の最後のフレームの画像が付加されると、その次以降のカラービデオフレームに対して、再び、その2Dデータの画像が最初のフレームから付加されるようにしてもよい。このようにすることにより、復号した全てのカラービデオフレームから2Dデータを抽出することができるので、上述したノイズ画像の表示を抑制することができる。
例えば、2Dデータを3Dデータのレンダリング画像とする場合、所定のカメラワークでレンダリングされた各レンダリング画像を、全階層のカラービデオフレームに対して先頭から順に付加し、最後のレンダリング画像を付加後、残りのカラービデオフレームに対して、一度付加したレンダリング画像を、再度、最初のレンダリング画像から順に付加するようにしてもよい。このようにすることにより、復号側において、1本のレンダリング画像の動画像を繰り返し表示するようにすることができる。
また、新たな2Dデータを付加するようにしてもよい。例えば、あるカラービデオフレームに対して2次元が動画像の最後のフレームの画像が付加されると、その次以降のカラービデオフレームに対して、新たな2Dデータの画像が最初のフレームから付加されるようにしてもよい。このようにすることにより、復号した全てのカラービデオフレームから2Dデータを抽出することができるので、上述したノイズ画像の表示を抑制することができる。
例えば、2Dデータを3Dデータのレンダリング画像とする場合、所定のカメラワークでレンダリングされた各レンダリング画像を、全階層のカラービデオフレームに対して先頭から順に付加し、最後のレンダリング画像を付加後、新たなカメラワークでレンダリングされた各レンダリング画像を、残りのカラービデオフレームに対して順に付加するようにしてもよい。このようにすることにより、復号側において、複数本のレンダリング画像の動画像を順次表示するようにすることができる。
なお、カラービデオフレームをスケーラブルに階層符号化する場合も、同様に、全部の階層のビデオフレームに2Dデータが付加されるようにしてもよいし、一部の階層のビデオフレームに2Dデータが付加されるようにしてもよい。
なお、2Dデータは、カラービデオフレーム以外に付加されるようにしてもよい。例えば、ジオメトリビデオフレームに2Dデータを付加するようにしてもよい。
<2Dデータ用シンタックス>
以上のような3Dデータのビットストリームに付加する2Dデータに関する情報を、さらにビットストリームに含めるようにしてもよい。この2Dデータに関する情報は、どのような情報であってもよい。
また、この2Dデータに関する情報は、ビットストリームの任意の位置に付加するようにしてもよい。例えば、2Dデータに関する情報をメタデータとして、ビットストリームのヘッダに付加するようにしてもよい。例えば、図3に示されるように、ビットストリーム40のストリームヘッダ41に、2D制御シンタックス(2D Control Syntax)71として付加するようにしてもよい。
例えば、図1の表10の上から8行目に示されるように、2次元画像に関する情報が、ビットストリームに2次元画像のデータが含まれているか否かを示す2次元画像有無識別情報を含むようにしてもよい。
2D制御シンタックス71の例を図4に示す。図4に示されるように、2D制御シンタックス71として、thumbnail_available_flagが伝送されるようにしてもよい。thumbnail_available_flagは、そのビットストリーム内に2Dデータが存在するか否か(2Dデータが付加されたか否か)を示すフラグ情報(すなわち、2次元画像有無識別情報)である。このフラグ情報が真(例えば「1」)の場合、そのビットストリーム内に2Dデータが存在することを示す。また、このフラグ情報が偽(例えば「0」)の場合、そのビットストリーム内に2Dデータが存在しないことを示す。
また、例えば図1の表10の上から11行目に示されるように、2次元画像に関する情報が、2次元画像の再生を補助する2次元画像再生補助情報を含むようにしてもよい。例えば、thumbnail_available_flagが真の場合(if(thumbnail_available_flag){)、2D制御シンタックス71として、num_rendering_view、InsertionMethod、SeparationID、およびIndependentDecodeflagが伝送されるようにしてもよい。これらのシンタックスは、2次元画像の再生を補助する2次元画像再生補助情報である。
num_rendering_viewは、レンダリング済みの視点数(カメラワークの数)を示す情報である。InsertionMethodは、LayerIDやTemporalIDでレイヤを分けて2Dデータを付加しているか、または、リピート等によって2Dデータを付加しているか(全レイヤに2Dデータを付加しているか)を示す情報である。なお、LayerIDやTemporalIDでレイヤを分けて2Dデータを付加している場合、AVCやHEVCのデコーダの動作変更が必要になる。つまり、この情報に基づいてそのデコーダの動作変更を行うことができる。SeparationIDは、LayerIDまたはTemporalIDの切れ目を示す情報である。この情報をAVCやHEVCのデコーダに渡すことにより、特定のレイヤのみを表示させることができる。
IndependentDecodeflagは、2Dデータ部分がタイル(Tile)等によって独立に復号可能であるか否かを示すフラグ情報である。このフラグ情報が真(例えば「1」)の場合、2Dデータを独立に復号することができることを示す。また、このフラグ情報が偽(例えば「0」)の場合、2Dデータを独立に復号することができないことを示す。
また、IndependentDecodeflagが真の場合(if(IndependentDecodeflag){)、2D制御シンタックス71としてMCTS_IDが伝送されるようにしてもよい。MCTS_IDは、別途MCTS SEI(Motion-Constrained Tile Sets Suplemental Enhancement Information)において定義されている特定のタイル部分を復号するために指定するタイルの識別情報である。
もちろん、図4に示されるシンタックスは一例であり、2D制御シンタックス71にどのようなシンタックスが含まれるようにしてもよい。
また、例えば図1の表10の上から9行目に示されるように、2次元画像に関する情報が、2次元画像が付加された空間方向の位置を管理する2次元画像空間位置管理情報を含むようにしてもよい。例えば図5に示されるように、def_disp_win_left_offset、def_disp_win_right_offset、def_disp_win_top_offset、およびdef_disp_win_bottom_offsetが伝送されるようにしてもよい。これらのシンタックスは、2次元画像が付加された空間方向の位置を管理する2次元画像空間位置管理情報である。
def_disp_win_left_offsetは、カラービデオフレーム65の左端を基準とする2Dデータ72の左端のオフセットを示す情報である。def_disp_win_right_offsetは、カラービデオフレーム65の左端を基準とする2Dデータ72の右端のオフセットを示す情報である。def_disp_win_top_offsetは、カラービデオフレーム65の上端を基準とする2Dデータ72の上端のオフセットを示す情報である。def_disp_win_bottom_offsetは、カラービデオフレーム65の上端を基準とする2Dデータ72の下端のオフセットを示す情報である。つまり、これらの情報により、付加された2Dデータの位置を特定することができる。つまり、デコーダは、これらの情報に基づいて、より容易に、カラービデオフレームに付加された2Dデータを抽出することができる。つまり、より容易に2Dデータを再生することができる。
なお、これらの情報(def_disp_win_offset)はHEVCにおいて規定される情報である。例えば、図6のAに示されるようなシンタックスとしてこれらの情報が伝送される。つまり、HEVCのデコーダを用いてより容易に2Dデータを再生することができる。
なお、ビデオフレームの符号化・復号にAVCを用いる場合、これらの情報の代わりに、AVCにおいて規定されるCropping_offsetを用いるようにしてもよい。例えば、図6のBに示されるようなシンタックスとして、Cropping_offsetを伝送するようにしてもよい。このようにすることにより、AVCのデコーダを用いてより容易に2Dデータを再生することができる。
また、例えば図1の表10の上から10行目に示されるように、2次元画像に関する情報が、2次元画像が付加された時間方向の位置を管理する2次元画像時間位置管理情報を含むようにしてもよい。例えば図7に示されるように、カラービデオフレームを時間方向に階層符号化するとする。この場合に、TemporalIDを用いて一部の階層のカラービデオフレームにのみ2Dデータを付加するようにしてもよい。つまり、このTemporalIDが、2次元画像が付加された時間方向の位置を管理する2次元画像時間位置管理情報である。
例えば、図7のように、カラービデオフレームが2階層に階層化されているとする。この場合に、下側のVideo0の階層のビデオフレームに2Dデータを付加してTemporalID=0とし、上側のVideo1の階層のビデオフレームには2Dデータを付加しないようにしてTemporalID=1とする。このようにすることにより、デコーダは、TemporalIDに基づいて2Dデータが付加された階層のビデオフレーム(図7の例の場合、Video0の階層のビデオフレーム)のみを復号することができる。したがって、より容易にノイズ画像の再生を抑制することができる。なお、TemporalIDの代わりにLayerIDを用いるようにしてもよい。
なお、上述した2次元画像空間位置管理情報や2次元画像時間位置管理情報は、例えば、GOFテクスチャビデオストリームに含めるようにしてもよい。このようにすることにより、デコーダは、GOFテクスチャビデオストリームを復号することにより、容易に2Dデータを再生することができる。
例えば、図2において、デマルチプレクサ31は、メタデータ(例えば2D制御シンタックス71)に基づいてカラービデオフレームの符号化データ(GOFテクスチャビデオストリーム)をビットストリームから抽出し、2Dビデオデコーダ33に供給する。2Dビデオデコーダ33は、そのGOFテクスチャビデオストリームを復号し、2Dデータを抽出することにより、レンダリング画像を得ることができる。
<2Dデータの符号化>
例えば図1の表10の上から12行目に示されるように、カラービデオフレームに付加された2Dデータを、その部分だけ独立に(パッチ等とは独立に)符号化するようにしてもよい。つまり、カラービデオフレームに付加された2Dデータを、その部分だけ独立に(パッチ等とは独立に)復号することができるようにしてもよい。換言するに、2Dデータを、例えばタイル(Tile)、スライス(Slice)、またはピクチャ(Picture)のような、独立に符号化・復号可能なデータ単位としてビデオフレームに付加するようにしてもよい。
このようにすることにより、デコーダ(例えば2Dビデオデコーダ33)は、GOFテクスチャビデオストリームの、その2Dデータの部分のみを復号することにより、2Dデータを得ることができる。したがって、復号の負荷の増大を抑制する(復号の負荷を低減させる)ことができる。
また、このように2Dデータを独立に符号化・復号する場合、例えば図1の表10の上から13行目に示されるように、その2Dデータ用の符号化パラメータ(他の領域とは独立に設定された符号化パラメータ)を用いて、その2Dデータを符号化・復号するようにしてもよい。このようにすることにより、2Dデータにより適した符号化パラメータを用いることができるので、符号化効率の低減を抑制する(符号化効率を向上させる)ことができる。また、2Dデータの主観的画質の低減を抑制する(主観的画質を向上させる)ことができる。
なお、1つのビデオフレーム内に付加することができる2Dデータの数は、任意である。例えば図1の表10の上から14行目に示されるように、1つのビデオフレーム内に複数の2Dデータを付加するようにしてもよい。
<2.第1の実施の形態>
<符号化装置>
次に、以上のような2Dデータの付加を実現する構成について説明する。図8は、本技術を適用した画像処理装置の一態様である符号化装置の構成の一例を示すブロック図である。図8に示される符号化装置100は、ポイントクラウドのような3Dデータを2次元平面に投影して2次元画像用の符号化方法により符号化を行う装置(ビデオベースドアプローチを適用した符号化装置)である。
なお、図8においては、処理部やデータの流れ等の主なものを示しており、図8に示されるものが全てとは限らない。つまり、符号化装置100において、図8においてブロックとして示されていない処理部が存在したり、図8において矢印等として示されていない処理やデータの流れが存在したりしてもよい。これは、符号化装置100内の処理部等を説明する他の図においても同様である。
図8に示されるように符号化装置100は、パッチ分解部111、パッキング部112、補助パッチ情報圧縮部113、ビデオ符号化部114、ビデオ符号化部115、OMap符号化部116、2Dデータ生成部117、およびマルチプレクサ118を有する。
パッチ分解部111は、3Dデータの分解に関する処理を行う。例えば、パッチ分解部111は、符号化装置100に入力される、3次元構造を表す3Dデータ(例えばポイントクラウド(Point Cloud))を取得する。また、パッチ分解部111は、取得したそのポイントクラウドを複数のセグメンテーションに分解し、そのセグメンテーション毎にポイントクラウドを2次元平面に投影し、位置情報のパッチや属性情報のパッチを生成する。パッチ分解部111は、生成した各パッチに関する情報をパッキング部112に供給する。また、パッチ分解部111は、その分解に関する情報である補助パッチ情報を、補助パッチ情報圧縮部113に供給する。
パッキング部112は、データのパッキングに関する処理を行う。例えば、パッキング部112は、パッチ分解部111からポイントの位置を示す位置情報(Geometry)のパッチに関する情報や、その位置情報に付加される色情報等の属性情報(Texture)のパッチに関する情報を取得する。
また、パッキング部112は、取得した各パッチを2次元画像に配置してビデオフレームとしてパッキングする。例えば、パッキング部112は、位置情報のパッチを2次元画像に配置して、位置情報のビデオフレーム(ジオメトリビデオフレームとも称する)としてパッキングする。また、例えば、パッキング部112は、属性情報のパッチを2次元画像に配置して、属性情報のビデオフレーム(カラービデオフレームとも称する)としてパッキングする。
なお、パッキング部112は、2Dデータ生成部117に制御され、<1.2Dデータの付加>において上述したような方法で、2Dデータ生成部117から供給される2Dデータ(例えば、符号化装置100に入力されたポイントクラウドが表現する3次元形状のオブジェクトのレンダリング画像)を、カラービデオフレームの所定の位置に付加する。
また、パッキング部112は、これらのビデオフレームに対応するオキュパンシーマップを生成する。さらに、パッキング部112は、カラービデオフレームに対してDilation処理を行う。
パッキング部112は、このように生成したジオメトリビデオフレームをビデオ符号化部114に供給する。また、パッキング部112は、このように生成したカラービデオフレオームをビデオ符号化部115に供給する。さらに、パッキング部112は、このように生成したオキュパンシーマップをOMap符号化部116に供給する。また、パッキング部112は、このようなパッキングに関する制御情報をマルチプレクサ118に供給する。
補助パッチ情報圧縮部113は、補助パッチ情報の圧縮に関する処理を行う。例えば、補助パッチ情報圧縮部113は、パッチ分解部111から供給されるデータを取得する。補助パッチ情報圧縮部113は、取得したデータに含まれる補助パッチ情報を符号化(圧縮)する。補助パッチ情報圧縮部113は、得られた補助パッチ情報の符号化データをマルチプレクサ118に供給する。
ビデオ符号化部114は、位置情報(Geometry)のビデオフレームの符号化に関する処理を行う。例えば、ビデオ符号化部114は、パッキング部112から供給されるジオメトリビデオフレームを取得する。また、ビデオ符号化部114は、その取得したジオメトリビデオフレームを、例えばAVCやHEVC等の任意の2次元画像用の符号化方法により符号化する。ビデオ符号化部114は、その符号化により得られた符号化データ(ジオメトリビデオフレームの符号化データ)をマルチプレクサ118に供給する。
ビデオ符号化部115は、属性情報(Texture)のビデオフレームの符号化に関する処理を行う。例えば、ビデオ符号化部115は、パッキング部112から供給されるカラービデオフレームを取得する。また、ビデオ符号化部115は、その取得したカラービデオフレーム(例えば2Dデータが付加されたカラービデオフレーム)を、例えばAVCやHEVC等の任意の2次元画像用の符号化方法により符号化する。
その際、ビデオ符号化部115は、<1.2Dデータの付加>において上述したような方法で、2Dデータ生成部117の制御にしたがって、カラービデオフレームの符号化を行う。また、ビデオ符号化部115は、<1.2Dデータの付加>において上述したような、2Dデータ生成部117から供給されるシンタックス等のメタデータを、カラービデオフレームの符号化データ(ビットストリーム)に付加する。ビデオ符号化部115は、その符号化により得られた符号化データ(カラービデオフレームの符号化データ)をマルチプレクサ118に供給する。
OMap符号化部116は、オキュパンシーマップの符号化に関する処理を行う。例えば、OMap符号化部116は、パッキング部112から供給されるオキュパンシーマップを取得する。また、OMap符号化部116は、その取得したオキュパンシーマップを、例えば算術符号化等の任意の符号化方法により符号化する。OMap符号化部116は、その符号化により得られた符号化データ(オキュパンシーマップの符号化データ)をマルチプレクサ118に供給する。
2Dデータ生成部117は、<1.2Dデータの付加>において上述したような、2Dデータの生成に関する処理を行う。例えば、2Dデータ生成部117は、符号化装置100に入力されるポイントクラウド(3Dデータ)を取得する。2Dデータ生成部117は、そのポイントクラウドが表現する3次元形状のオブジェクトをレンダリングし、レンダリング画像(2Dデータ)を生成する。また、2Dデータ生成部117は、その2Dデータに関する情報も生成する。
2Dデータ生成部117は、生成した2Dデータをパッキング部112に供給し、その2Dデータの配置を制御する。また、2Dデータ生成部117は、生成した2Dデータに関する情報(シンタックス等)をビデオ符号化部115に供給し、カラービデオフレームの符号化を制御する。さらに、2Dデータ生成部117は、生成した2Dデータに関する情報をメタデータとして、マルチプレクサ118に供給する。
マルチプレクサ118は、ビットストリームの生成(情報の多重化)に関する処理を行う。例えば、マルチプレクサ118は、補助パッチ情報圧縮部113から供給される補助パッチ情報の符号化データを取得する。また、マルチプレクサ118は、パッキング部112から供給されるパッキングに関する制御情報を取得する。さらに、マルチプレクサ118は、ビデオ符号化部114から供給されるジオメトリビデオフレームの符号化データを取得する。また、マルチプレクサ118は、ビデオ符号化部115から供給されるカラービデオフレームの符号化データを取得する。さらに、マルチプレクサ118は、OMap符号化部116から供給されるオキュパンシーマップの符号化データを取得する。また、マルチプレクサ118は、2Dデータ生成部117から供給されるメタデータを取得する。
マルチプレクサ118は、取得したそれらの情報を多重化して、ビットストリーム(Bitstream)を生成する。つまり、マルチプレクサ118は、3Dデータおよび2Dデータの符号化データと、その2Dデータに関する情報とを含むビットストリームを生成する。マルチプレクサ118は、そのビットストリームを符号化装置100の外部に出力する(復号側に伝送する)。
以上のように符号化装置100は、3Dデータのビデオベースドアプローチにおいて、ビットストリームに、3Dデータとは別の2Dデータを付加するので、<1.2Dデータの付加>において上述したように、復号側において、3次元形状のオブジェクトのレンダリングを行わずに、2次元画像を表示する(ビットストリームに含まれる2Dデータを再生する)ことができる。つまり、より容易に2次元画像を再生することができる。
<2Dデータ生成部>
図9は、図8の2Dデータ生成部117の主な構成例を示すブロック図である。図9に示される世に、2Dデータ生成部117は、制御部131、レンダリング部132、配置制御部133、シンタックス生成部134、符号化制御部135、およびメタデータ生成部136を有する。
制御部131は、レンダリングの制御に関する処理を行う。例えば、制御部131は、ユーザ等の外部から入力されるレンダリングの制御に関する情報(例えば、制御命令等)を受け付け、その情報に従ってレンダリング部132を制御する。
レンダリング部132は、レンダリングに関する処理を行う。例えば、レンダリング部132は、符号化装置100に入力されるポイントクラウド(3Dデータ)を取得する。また、レンダリング部132は、制御部131の制御に従って、そのポイントクラウドが表現する3次元形状のオブジェクトをレンダリングし、レンダリング画像(2Dデータ)を生成する。レンダリング部132は、生成したレンダリング画像を配置制御部133に供給する。
配置制御部133は、レンダリング画像の配置の制御に関する処理を行う。例えば、配置制御部133は、レンダリング部132より供給されるレンダリング画像を取得する。また、配置制御部133は、そのレンダリング画像をパッキング部112に供給する。さらに、配置制御部133は、パッキング部112を制御し、そのレンダリング画像をカラービデオフレームの所定の位置に配置させる。配置制御部133は、そのレンダリング画像(2Dデータ)の空間的・時間的な配置位置を示す配置情報をシンタックス生成部134およびメタデータ生成部136に供給する。
シンタックス生成部134は、シンタックスの生成に関する処理を行う。例えば、シンタックス生成部134は、配置制御部133から供給される配置情報に基づいてシンタックスを生成する。例えば、シンタックス生成部134は、2次元画像空間位置管理情報や2次元画像時間位置管理情報等を含むシンタックスを生成する。シンタックス生成部134は、生成したシンタックスを符号化制御部135に供給する。
符号化制御部135は、カラービデオフレームの符号化の制御に関する処理を行う。例えば、符号化制御部135は、シンタックス生成部134から供給されるシンタックスを取得する。また、符号化制御部135は、ビデオ符号化部115を制御し、カラービデオフレームを所望の仕様で符号化させる。例えば、符号化制御部135は、ビデオ符号化部115を制御し、カラービデオフレームに付加した2Dデータを、独立して復号可能な符号化単位(例えばタイル、スライス、ピクチャ等)として符号化させる。また、符号化制御部135は、取得したシンタックス(2次元画像空間位置管理情報や2次元画像時間位置管理情報等)をビデオ符号化部115に供給し、それをカラービデオフレームのビットストリームに付加させる。
メタデータ生成部136は、メタデータの生成に関する処理を行う。例えばメタデータ生成部136は、配置制御部133から供給される配置情報に基づいてメタデータを生成する。例えば、メタデータ生成部136は、2次元画像有無識別情報や2次元画像再生補助情報等を含むメタデータを生成する。メタデータ生成部136は、その生成したメタデータをマルチプレクサ118に供給する。
<符号化処理の流れ>
次に、符号化装置100により実行される符号化処理の流れの例を、図10のフローチャートを参照して説明する。
符号化処理が開始されると、符号化装置100の2Dデータ生成部117は、ステップS101において、2Dデータ生成処理を実行し、2Dデータを生成する。
ステップS102において、パッチ分解部111は、入力されたポイントクラウドを2次元平面に投影し、パッチに分解する。また、パッチ分解部111は、その分解についての補助パッチ情報を生成する。
ステップS103において、補助パッチ情報圧縮部113は、ステップS102において生成された補助パッチ情報を圧縮(符号化)する。
ステップS104において、パッキング部112は、ステップS102において生成された位置情報や属性情報の各パッチを2次元画像に配置してビデオフレームとしてパッキングする。また、パッキング部112は、オキュパンシーマップを生成する。さらに、パッキング部112は、カラービデオフレームに対してDilation処理を行う。また、パッキング部112は、このようなパッキングに関する制御情報を生成する。
ステップS105において、パッキング部112は、2Dデータ生成部117により制御されて、ステップS101において生成された2Dデータを、ステップS104において生成されたカラービデオフレームに埋め込む(付加する)。
ステップS106において、ビデオ符号化部114は、ステップS104において生成されたジオメトリビデオフレームを、2次元画像用の符号化方法により符号化する。
ステップS107において、ビデオ符号化部115は、ステップS104において生成されたカラービデオフレーム(ステップS105において2Dデータが付加されたカラービデオフレームを含む)を、2次元画像用の符号化方法により符号化する。
ステップS108において、OMap符号化部116は、ステップS104において生成されたオキュパンシーマップ(やオジリアリインフォメーション)を、所定の符号化方法により符号化する。
ステップS109において、マルチプレクサ118は、ステップS106乃至ステップS108のそれぞれにおいて生成された符号化データを多重化し、それらを含むビットストリーム(2Dデータが付加された3Dデータのビットストリーム)を生成する。
ステップS110において、マルチプレクサ118は、ステップS109において生成されたビットストリームに、ステップS101において生成された、2Dデータに関する情報を含むメタデータを付加する。
ステップS111において、マルチプレクサ118は、ステップS110において生成したビットストリームを符号化装置100の外部に出力する。
ステップS111の処理が終了すると、ポイントクラウド符号化処理が終了する。
<2Dデータ生成処理の流れ>
次に、図10のステップS101において実行される2Dデータ生成処理の流れの例を、図11のフローチャートを参照して説明する。
2Dデータ生成処理が開始されると、2Dデータ生成部117の制御部131は、ステップS131において、レンダリングの制御に関する情報であるレンダリング制御情報を受け付ける。
ステップS132において、レンダリング部132は、ステップS131において受け付けたレンダリング制御情報に基づいて、符号化装置100に入力されるポイントクラウドが表現する3次元形状のオブジェクトをレンダリングし、レンダリング画像を生成する。
ステップS133において、配置制御部133は、ステップS132において生成されたレンダリング画像をパッキング部112に供給し、パッキング部112を制御して、そのレンダリング画像をカラービデオフレームの所望の位置に配置させる。この処理は、図10のステップS104の処理に対応して実行される。
ステップS134において、シンタックス生成部134は、ステップS133において行われたレンダリング画像の配置位置を示す配置情報に基づいて、所望のシンタックスを生成する。
ステップS135において、符号化制御部135は、その配置情報に基づいて、ビデオ符号化部115を制御し、カラービデオフレームの符号化を制御する。つまり、符号化制御部135は、カラービデオフレームを所望の仕様で符号化させ、ビットストリームを生成させる。
ステップS136において、符号化制御部135は、ビデオ符号化部115を制御し、ステップS134において生成されたシンタックスを、ステップS135において生成させたカラービデオフレームのビットストリームに付加させる。
なお、ステップS135およびステップS136の各処理は、図10のステップS107の処理に対応して実行される。
ステップS137において、メタデータ生成部136は、ステップS133において行われたレンダリング画像の配置位置を示す配置情報に基づいて、所望のメタデータを生成する。
ステップS138において、メタデータ生成部136は、ステップS137において生成されたメタデータをマルチプレクサ118に供給し、それをステップS109において生成されたビットストリームに付加させる。なお、この処理は、図10のステップS110の処理に対応して実行される。
ステップS138の処理が終了すると2Dデータ生成処理が終了し、処理は図10に戻る。
以上のように各処理を実行することにより、符号化装置100は、2Dデータが付加された3Dデータのビットストリームを生成することができる。したがって、符号化装置100は、<1.2Dデータの付加>において上述したように、復号側において、3次元形状のオブジェクトのレンダリングを行わずに、2次元画像を表示する(ビットストリームに含まれる2Dデータを再生する)ことができる。つまり、より容易に2次元画像を再生することができる。
<3.第2の実施の形態>
<復号装置>
図12は、本技術を適用した画像処理装置の一態様である復号装置の構成の一例を示すブロック図である。図12に示される復号装置200は、ポイントクラウドのような3Dデータが2次元平面に投影されて符号化された符号化データを2次元画像用の復号方法により復号し、3Dデータを再構築する装置(ビデオベースドアプローチを適用した復号装置)である。例えば、復号装置200は、符号化装置100(図8)が3Dデータを符号化して生成したビットストリーム(2Dデータが付加された3Dデータのビットストリーム)を復号し、その3Dデータを再構築する。また、復号装置200は、そのビットストリームに含まれる2Dデータの符号化データを復号し、レンダリングを行わずに、2Dデータを生成する。
なお、図12においては、処理部やデータの流れ等の主なものを示しており、図12に示されるものが全てとは限らない。つまり、復号装置200において、図12においてブロックとして示されていない処理部が存在したり、図12において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
図12に示されるように、復号装置200は、デマルチプレクサ211、補助パッチ情報復号部212、ビデオ復号部213、ビデオ復号部214、OMap復号部215、アンパッキング部216、3D再構築部217、およびビデオ復号部218を有する。
デマルチプレクサ211は、データの逆多重化に関する処理を行う。例えば、デマルチプレクサ211は、復号装置200に入力されるビットストリームを取得する。このビットストリームは、例えば、符号化装置100より供給される。デマルチプレクサ211は、このビットストリームを逆多重化し、補助パッチ情報の符号化データを抽出し、それを補助パッチ情報復号部212に供給する。また、デマルチプレクサ211は、逆多重化により、ビットストリームから、ジオメトリビデオフレームの符号化データ(例えばGOFジオメトリビデオストリーム52)を抽出し、それをビデオ復号部213に供給する。
さらに、デマルチプレクサ211は、逆多重化により、ビットストリームから、カラービデオフレームの符号化データ(例えばGOFテクスチャビデオストリーム54)を抽出し、それをビデオ復号部214に供給する。また、デマルチプレクサ211は、逆多重化により、ビットストリームから、オキュパンシーマップ等の符号化データ(例えばGOFオグジリアリインフォメーションアンドオキュパンシーマップス53)を抽出し、それをOMap復号部215に供給する。
さらに、デマルチプレクサ211は、逆多重化により、ビットストリームから、パッキングに関する制御情報を抽出し、それをアンパッキング部216に供給する(図示せず)。
また、デマルチプレクサ211は、ビットストリームに含まれるメタデータ(例えば2D制御シンタックス71)に基づいて、ビットストリームから、2Dデータを含むカラービデオフレームのビットストリーム(例えばGOFテクスチャビデオストリーム54)を抽出し、それをビデオ復号部218に供給する。
補助パッチ情報復号部212は、補助パッチ情報の符号化データの復号に関する処理を行う。例えば、補助パッチ情報復号部212は、デマルチプレクサ211から供給される補助パッチ情報の符号化データを取得する。また、補助パッチ情報復号部212は、その取得したデータに含まれる補助パッチ情報の符号化データを復号(伸長)する。補助パッチ情報復号部212は、復号して得られた補助パッチ情報を3D再構築部217に供給する。
ビデオ復号部213は、ジオメトリビデオフレームの符号化データの復号に関する処理を行う。例えば、ビデオ復号部213は、デマルチプレクサ211から供給されるジオメトリビデオフレームの符号化データを取得する。ビデオ復号部213は、そのジオメトリビデオフレームの符号化データを、例えばAVCやHEVC等の任意の2次元画像用の復号方法により復号する。ビデオ復号部213は、その復号して得られたジオメトリビデオフレームを、アンパッキング部216に供給する。
ビデオ復号部214は、カラービデオフレームの符号化データの復号に関する処理を行う。例えば、ビデオ復号部214は、デマルチプレクサ211から供給されるカラービデオフレームの符号化データを取得する。ビデオ復号部214は、そのカラービデオフレームの符号化データを、例えばAVCやHEVC等の任意の2次元画像用の復号方法により復号する。ビデオ復号部214は、その復号して得られたカラービデオフレームを、アンパッキング部216に供給する。
OMap復号部215は、オキュパンシーマップ等の符号化データの復号に関する処理を行う。例えば、OMap復号部215は、デマルチプレクサ211から供給されるオキュパンシーマップ等の符号化データを取得する。OMap復号部215は、そのオキュパンシーマップ等の符号化データを、その符号化方式に対応する任意の復号方法により復号する。OMap復号部215は、その復号して得られたオキュパンシーマップ等の情報を、アンパッキング部216に供給する。
アンパッキング部216は、アンパッキングに関する処理を行う。例えば、アンパッキング部216は、ビデオ復号部213からジオメトリビデオフレームを取得し、ビデオ復号部214からカラービデオフレームを取得し、OMap復号部215からオキュパンシーマップ等の情報を取得する。また、アンパッキング部216は、パッキングに関する制御情報やオキュパンシーマップ等の情報に基づいて、ジオメトリビデオフレームやカラービデオフレームをアンパッキングし、ビデオフレームから位置情報(Geometry)のパッチ(ジオメトリパッチ)や属性情報(Texture)のパッチ(テクスチャパッチ)等を抽出する。
ここで、オキュパンシーマップには2Dデータについての情報が含まれないので、アンパッキング部216は、カラービデオフレームに含まれる2Dデータを無視し、テクスチャパッチのみをカラービデオフレームから抽出することができる。つまり、アンパッキング部216は、2Dデータが付加されていないビットストリームの場合と同様に、容易に、アンパッキングを行うことができる。
アンパッキング部216は、以上のようにアンパッキングして得られたジオメトリパッチ、テクスチャパッチ、およびオキュパンシーマップ等を、3D再構築部217に供給する。
3D再構築部217は、ポイントクラウドの再構築に関する処理を行う。例えば、3D再構築部217は、補助パッチ情報復号部212から供給される補助パッチ情報、並びに、アンパッキング部216から供給されるジオメトリパッチ、テクスチャパッチ、オキュパンシーマップ等の情報に基づいて、ポイントクラウドを再構築する。3D再構築部217は、再構築したポイントクラウドを復号装置200の外部(例えば3Dディスプレイ35等)に出力する。
ビデオ復号部218は、カラービデオフレームの符号化データに含まれる2Dデータの符号化データの復号に関する処理を行う。例えば、ビデオ復号部218は、デマルチプレクサ211から供給されるカラービデオフレームの符号化データを取得する。ビデオ復号部218は、そのカラービデオフレームの符号化データ(例えばGOFテクスチャビデオストリーム54)に含まれる2Dデータの符号化データを、例えばAVCやHEVC等の任意の2次元画像用の復号方法により復号する。ビデオ復号部218は、その復号して得られた2Dデータ(例えばレンダリング画像)を、復号装置200の外部(例えば2Dディスプレイ36等)に出力する。
このような構成とすることにより、復号装置200は、<1.2Dデータの付加>において上述したように、3次元形状のオブジェクトのレンダリングを行わずに、2次元画像を表示する(ビットストリームに含まれる2Dデータを再生する)ことができる。つまり、より容易に2次元画像を再生することができる。
<ポイントクラウド復号処理の流れ>
次に、復号装置200により実行される復号処理の流れの例を、図13のフローチャートを参照して説明する。
復号処理が開始されると、デマルチプレクサ211は、ステップS201において、復号装置200に入力されたビットストリームを逆多重化する。
ステップS202において、デマルチプレクサ211は、2D制御シンタックスに基づいて、そのビットストリーム内に2Dデータが存在するか否かを判定する。例えば、2D制御シンタックスのthumbnail_available_flagが真であり、2Dデータが付加されていると判定された場合、処理はステップS203に進む。
ステップS203において、デマルチプレクサ211は、カラービデオフレームの符号化データ(GOFテクスチャビデオストリーム)を復号装置200に入力されたビットストリームから抽出する。
ステップS204において、ビデオ復号部218は、ステップS203において抽出されたカラービデオフレームの符号化データ(GOFテクスチャビデオストリーム)に含まれる2Dデータの符号化データ(2D符号化データ)を復号する。なお、カラービデオフレームの符号化データを部分復号することができる場合、ビデオ復号部218は、2Dデータを含む部分のみを復号する。例えば、2Dデータが例えばタイル、スライス、またはピクチャ等のように独立して復号可能な符号化単位で符号化されている場合、ビデオ復号部218は、その符号化単位の部分のみを復号する。
ステップS205において、ビデオ復号部218は、以上のような復号により生成した2Dデータを復号装置200の外部に出力する。
ステップS205の処理が終了すると、処理はステップS206に進む。また、ステップS202において、2Dデータが付加されていないと判定された場合、処理はステップS206に進む。
ステップS206において、補助パッチ情報復号部212は、ステップS201においてビットストリームから抽出された補助パッチ情報を復号する。
ステップS207において、ビデオ復号部213は、ステップS201においてビットストリームから抽出されたジオメトリビデオフレーム(位置情報のビデオフレーム)の符号化データを復号する。
ステップS208において、ビデオ復号部214は、ステップS201においてビットストリームから抽出されたカラービデオフレーム(属性情報のビデオフレーム)の符号化データを復号する。
ステップS209において、OMap復号部215は、ステップS201においてビットストリームから抽出されたオキュパンシーマップ等の符号化データを復号する。
ステップS210において、アンパッキング部216は、アンパッキングする。例えば、アンパッキング部216は、ステップS207において符号化データが復号されて得られたジオメトリビデオフレームを、ステップS209において符号化データが復号されて得られたオキュパンシーマップ等の情報に基づいてアンパッキングし、ジオメトリパッチを生成する。また、アンパッキング部216は、ステップS208において符号化データが復号されて得られたカラービデオフレームを、ステップS209において符号化データが復号されて得られたオキュパンシーマップ等の情報に基づいてアンパッキングし、テクスチャパッチを生成する。
ステップS211において、3D再構築部217は、ステップS206において得られた補助パッチ情報、並びに、ステップS210において得られたジオメトリパッチ、テクスチャパッチ、およびオキュパンシーマップ等に基づいて、ポイントクラウド(3次元形状のオブジェクト)を再構築する。
ステップS212において、3D再構築部217は、再構築したポイントクラウドを、復号装置200の外部に出力する。
ステップS212の処理が終了すると復号処理が終了する。
以上のように各処理を実行することにより、復号装置200は、<1.2Dデータの付加>において上述したように、3次元形状のオブジェクトのレンダリングを行わずに、2次元画像を表示する(ビットストリームに含まれる2Dデータを再生する)ことができる。つまり、より容易に2次元画像を再生することができる。
<4.第3の実施の形態>
<復号装置>
図12においては、復号装置200が、ビデオ復号部214とは別にビデオ復号部218を有するように説明したが、ビデオ復号部214およびビデオ復号部218は、ともにカラービデオフレームの符号化データを復号する処理部である。つまり、これらは互いに同様の機能を有する復号部である。したがって、ビデオ復号部214が行う処理と、ビデオ復号部218が行う処理とを1つのビデオ復号部において行うようにしてもよい。
図14は、その場合の復号装置200の主な構成例を示すブロック図である。図14の例の場合、復号装置200は、基本的に図12の場合と同様の構成を有するが、図12の場合と異なり、ビデオ復号部214およびビデオ復号部218の代わりに、ビデオ復号部221を有する。
ビデオ復号部221は、ビデオ復号部214が行う処理とビデオ復号部218が行う処理の両方を行う。例えば、ビデオ復号部221は、デマルチプレクサ211から供給されるカラービデオフレームの符号化データを取得し、そのカラービデオフレームの符号化データを、例えばAVCやHEVC等の任意の2次元画像用の復号方法により復号し、その復号して得られたカラービデオフレームを、アンパッキング部216に供給する。
また、例えば、ビデオ復号部221は、取得したカラービデオフレームの符号化データに含まれる2Dデータの符号化データを、例えばAVCやHEVC等の任意の2次元画像用の復号方法により復号し、その復号して得られた2Dデータ(例えばレンダリング画像)を、復号装置200の外部(例えば2Dディスプレイ36等)に出力する。
このようにすることにより、復号装置200の構成を、図12の場合よりも簡略化することができる。つまり、復号装置200の回路規模の増大を抑制することができる。
なお、復号処理の流れは、図13のフローチャートを参照して説明した場合と同様であるので、その説明は省略する。
<5.付記>
<コンピュータ>
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
図15は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
図15に示されるコンピュータ900において、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903は、バス904を介して相互に接続されている。
バス904にはまた、入出力インタフェース910も接続されている。入出力インタフェース910には、入力部911、出力部912、記憶部913、通信部914、およびドライブ915が接続されている。
入力部911は、例えば、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部912は、例えば、ディスプレイ、スピーカ、出力端子などよりなる。記憶部913は、例えば、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部914は、例えば、ネットワークインタフェースよりなる。ドライブ915は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア921を駆動する。
以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部913に記憶されているプログラムを、入出力インタフェース910およびバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。RAM903にはまた、CPU901が各種の処理を実行する上において必要なデータなども適宜記憶される。
コンピュータ(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア921に記録して適用することができる。その場合、プログラムは、リムーバブルメディア921をドライブ915に装着することにより、入出力インタフェース910を介して、記憶部913にインストールすることができる。
また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、プログラムは、通信部914で受信し、記憶部913にインストールすることができる。
その他、このプログラムは、ROM902や記憶部913に、あらかじめインストールしておくこともできる。
<本技術の適用対象>
以上においては、ポイントクラウドデータの符号化・復号に本技術を適用する場合について説明したが、本技術は、これらの例に限らず、任意の規格の3Dデータの符号化・復号に対して適用することができる。つまり、上述した本技術と矛盾しない限り、符号化・復号方式等の各種処理、並びに、3Dデータやメタデータ等の各種データの仕様は任意である。また、本技術と矛盾しない限り、上述した一部の処理や仕様を省略してもよい。
本技術は、任意の構成に適用することができる。例えば、本技術は、衛星放送、ケーブルTVなどの有線放送、インターネット上での配信、およびセルラー通信による端末への配信などにおける送信機や受信機(例えばテレビジョン受像機や携帯電話機)、または、光ディスク、磁気ディスクおよびフラッシュメモリなどの媒体に画像を記録したり、これら記憶媒体から画像を再生したりする装置(例えばハードディスクレコーダやカメラ)などの、様々な電子機器に適用され得る。
また、例えば、本技術は、システムLSI(Large Scale Integration)等としてのプロセッサ(例えばビデオプロセッサ)、複数のプロセッサ等を用いるモジュール(例えばビデオモジュール)、複数のモジュール等を用いるユニット(例えばビデオユニット)、または、ユニットにさらにその他の機能を付加したセット(例えばビデオセット)等、装置の一部の構成として実施することもできる。
また、例えば、本技術は、複数の装置により構成されるネットワークシステムにも適用することもできる。例えば、本技術を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングとして実施するようにしてもよい。例えば、コンピュータ、AV(Audio Visual)機器、携帯型情報処理端末、IoT(Internet of Things)デバイス等の任意の端末に対して、画像(動画像)に関するサービスを提供するクラウドサービスにおいて本技術を実施するようにしてもよい。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、および、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
<本技術を適用可能な分野・用途>
本技術を適用したシステム、装置、処理部等は、例えば、交通、医療、防犯、農業、畜産業、鉱業、美容、工場、家電、気象、自然監視等、任意の分野に利用することができる。また、その用途も任意である。
<その他>
なお、本明細書において「フラグ」とは、複数の状態を識別するための情報であり、真(1)または偽(0)の2状態を識別する際に用いる情報だけでなく、3以上の状態を識別することが可能な情報も含まれる。したがって、この「フラグ」が取り得る値は、例えば1/0の2値であってもよいし、3値以上であってもよい。すなわち、この「フラグ」を構成するbit数は任意であり、1bitでも複数bitでもよい。また、識別情報(フラグも含む)は、その識別情報をビットストリームに含める形だけでなく、ある基準となる情報に対する識別情報の差分情報をビットストリームに含める形も想定されるため、本明細書においては、「フラグ」や「識別情報」は、その情報だけではなく、基準となる情報に対する差分情報も包含する。
また、符号化データ(ビットストリーム)に関する各種情報(メタデータ等)は、符号化データに関連づけられていれば、どのような形態で伝送または記録されるようにしてもよい。ここで、「関連付ける」という用語は、例えば、一方のデータを処理する際に他方のデータを利用し得る(リンクさせ得る)ようにすることを意味する。つまり、互いに関連付けられたデータは、1つのデータとしてまとめられてもよいし、それぞれ個別のデータとしてもよい。例えば、符号化データ(画像)に関連付けられた情報は、その符号化データ(画像)とは別の伝送路上で伝送されるようにしてもよい。また、例えば、符号化データ(画像)に関連付けられた情報は、その符号化データ(画像)とは別の記録媒体(または同一の記録媒体の別の記録エリア)に記録されるようにしてもよい。なお、この「関連付け」は、データ全体でなく、データの一部であってもよい。例えば、画像とその画像に対応する情報とが、複数フレーム、1フレーム、またはフレーム内の一部分などの任意の単位で互いに関連付けられるようにしてもよい。
なお、本明細書において、「合成する」、「多重化する」、「付加する」、「一体化する」、「含める」、「格納する」、「入れ込む」、「差し込む」、「挿入する」等の用語は、例えば符号化データとメタデータとを1つのデータにまとめるといった、複数の物を1つにまとめることを意味し、上述の「関連付ける」の1つの方法を意味する。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
また、例えば、上述したプログラムは、任意の装置において実行されるようにしてもよい。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。
また、例えば、1つのフローチャートの各ステップを、1つの装置が実行するようにしてもよいし、複数の装置が分担して実行するようにしてもよい。さらに、1つのステップに複数の処理が含まれる場合、その複数の処理を、1つの装置が実行するようにしてもよいし、複数の装置が分担して実行するようにしてもよい。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。
また、例えば、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。
また、例えば、本技術に関する複数の技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。
21 3Dデータエンコーダ, 22 レンダラ, 31 デマルチプレクサ, 32 3Dデータデコーダ, 33 2Dビデオデコーダ, 34 レンダラ, 35 3Dディスプレイ, 36 2Dディスプレイ, 40 ビットストリーム, 41 ストリームヘッダ, 42 GOFストリーム, 100 符号化装置, 111 パッチ分解部, 112 パッキング部, 113 補助パッチ情報圧縮部, 114 ビデオ符号化部, 115 ビデオ符号化部, 116 OMap符号化部, 117 2Dデータ生成部, 118 マルチプレクサ, 131 制御部, 132 レンダリング部, 133 配置制御部, 134 シンタックス生成部, 135 符号化制御部, 136 メタデータ生成部, 200 復号装置, 211 デマルチプレクサ, 212 補助パッチ情報復号部, 213 ビデオ復号部, 214 ビデオ復号部, 215 OMap復号部, 216 アンパッキング部, 217 3D再構築部, 218 ビデオ復号部, 221 ビデオ復号部

Claims (20)

  1. 3次元形状のオブジェクトを点群として表現するポイントクラウドを2次元平面上に投影したパッチと、前記パッチと異なる2次元画像とを含むビデオフレームを生成する生成部と、
    前記生成部により生成された前記ビデオフレームを符号化して、ビットストリームを生成する符号化部と
    を備える画像処理装置。
  2. 前記2次元画像は、前記オブジェクトをレンダリングしたレンダリング画像である
    請求項1に記載の画像処理装置。
  3. 前記レンダリング画像は、推奨するカメラ位置および方向より前記オブジェクトを撮像したようにレンダリングした画像である
    請求項2に記載の画像処理装置。
  4. 前記生成部は、前記レンダリング画像の動画像を複数含む、前記ビデオフレームからなる動画像を生成し、
    前記符号化部は、前記生成部により生成された前記動画像を符号化して前記ビットストリームを生成する
    請求項3に記載の画像処理装置。
  5. 複数の前記レンダリング画像の動画像は、互いに同一のカメラワークで前記オブジェクトをレンダリングしたレンダリング画像である
    請求項4に記載の画像処理装置。
  6. 前記オブジェクトをレンダリングしてレンダリング画像を生成するレンダリング部をさらに備え、
    前記生成部は、前記パッチと前記レンダリング部により生成された前記レンダリング画像とを含む前記ビデオフレームを生成する
    請求項2に記載の画像処理装置。
  7. 前記生成部は、前記ポイントクラウドの属性情報を2次元平面上に投影したパッチと、前記パッチと異なる2次元画像とを含むカラービデオフレームを生成する
    請求項1に記載の画像処理装置。
  8. 前記符号化部は、複数階層構造で前記ビデオフレームを符号化し、
    前記生成部は、前記複数階層構造の一部の階層の前記ビデオフレームに前記2次元画像を含む動画像を生成する
    請求項1に記載の画像処理装置。
  9. 前記符号化部は、複数階層構造で前記ビデオフレームを符号化し、
    前記生成部は、前記複数階層構造の全ての階層の前記ビデオフレームに前記2次元画像を含む動画像を生成する
    請求項1に記載の画像処理装置。
  10. 前記符号化部は、前記2次元画像に関する情報をさらに含む前記ビットストリームを生成する
    請求項1に記載の画像処理装置。
  11. 前記2次元画像に関する情報は、前記ビットストリームに前記2次元画像のデータが含まれているか否かを示す2次元画像有無識別情報を含む
    請求項10に記載の画像処理装置。
  12. 前記2次元画像に関する情報は、前記2次元画像の空間方向の位置を管理する2次元画像空間位置管理情報を含む
    請求項10に記載の画像処理装置。
  13. 前記2次元画像に関する情報は、前記2次元画像の時間方向の位置を管理する2次元画像時間位置管理情報を含む
    請求項10に記載の画像処理装置。
  14. 前記2次元画像に関する情報は、前記2次元画像の再生を補助する2次元画像再生補助情報を含む
    請求項10に記載の画像処理装置。
  15. 前記符号化部は、前記2次元画像を、前記パッチとは独立に符号化する
    請求項1に記載の画像処理装置。
  16. 前記符号化部は、前記2次元画像を、前記2次元画像用の符号化パラメータを用いて符号化する
    請求項15に記載の画像処理装置。
  17. 3次元形状のオブジェクトを点群として表現するポイントクラウドを2次元平面上に投影したパッチと、前記パッチと異なる2次元画像とを含むビデオフレームを生成し、
    生成された前記ビデオフレームを符号化して、ビットストリームを生成する
    画像処理方法。
  18. 3次元形状のオブジェクトを点群として表現するポイントクラウドを2次元平面上に投影したパッチと、前記パッチと異なる2次元画像とを含むビデオフレームの符号化データを含むビットストリームより、前記符号化データを抽出する抽出部と、
    前記抽出部により前記ビットストリームから抽出された前記符号化データを復号して、前記2次元画像を復元する2次元復号部と
    を備える画像処理装置。
  19. 前記ビットストリームを復号して、前記ポイントクラウドを再構築する3次元復号部をさらに備える
    請求項18に記載の画像処理装置。
  20. 3次元形状のオブジェクトを点群として表現するポイントクラウドを2次元平面上に投影したパッチと、前記パッチと異なる2次元画像とを含むビデオフレームの符号化データを含むビットストリームより、前記符号化データを抽出し、
    前記ビットストリームから抽出された前記符号化データを復号して、前記2次元画像を復元する
    画像処理方法。
JP2020533425A 2018-08-02 2019-07-19 画像処理装置および方法 Active JP7331852B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018145658 2018-08-02
JP2018145658 2018-08-02
PCT/JP2019/028420 WO2020026846A1 (ja) 2018-08-02 2019-07-19 画像処理装置および方法

Publications (2)

Publication Number Publication Date
JPWO2020026846A1 true JPWO2020026846A1 (ja) 2021-08-26
JP7331852B2 JP7331852B2 (ja) 2023-08-23

Family

ID=69231745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020533425A Active JP7331852B2 (ja) 2018-08-02 2019-07-19 画像処理装置および方法

Country Status (5)

Country Link
US (1) US11405644B2 (ja)
EP (1) EP3833029A4 (ja)
JP (1) JP7331852B2 (ja)
CN (1) CN112514396A (ja)
WO (1) WO2020026846A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX2021001377A (es) * 2018-08-08 2021-04-19 Panasonic Ip Corp America Metodo de codificacion de datos tridimensionales, metodo de decodificacion de datos tridimensionales, dispositivo de codificacion de datos tridimensionales y dispositivo de decodificacion de datos tridimensionales.
US11107249B2 (en) * 2019-03-18 2021-08-31 Sony Group Corporation Point cloud global tetris packing
EP3942821A4 (en) * 2019-03-19 2023-01-18 Nokia Technologies Oy APPARATUS, METHOD AND COMPUTER PROGRAM FOR VOLUMETRIC VIDEO
CN114915794B (zh) * 2021-02-08 2023-11-14 荣耀终端有限公司 基于二维规则化平面投影的点云编解码方法及装置
US11606556B2 (en) 2021-07-20 2023-03-14 Tencent America LLC Fast patch generation for video based point cloud coding
CN113852829A (zh) * 2021-09-01 2021-12-28 腾讯科技(深圳)有限公司 点云媒体文件的封装与解封装方法、装置及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018034253A1 (en) * 2016-08-19 2018-02-22 Mitsubishi Electric Corporation Method, encoder system and non-transitory computer readable recording medium storing thereon program for encoding point cloud of representing scene
WO2018130491A1 (en) * 2017-01-13 2018-07-19 Thomson Licensing Method, apparatus and stream for immersive video format
WO2019055963A1 (en) * 2017-09-18 2019-03-21 Apple Inc. COMPRESSION OF CLOUD OF POINTS
WO2019142667A1 (ja) * 2018-01-17 2019-07-25 ソニー株式会社 画像処理装置および方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8896664B2 (en) * 2010-09-19 2014-11-25 Lg Electronics Inc. Method and apparatus for processing a broadcast signal for 3D broadcast service
CN102724520A (zh) * 2011-03-29 2012-10-10 青岛海信电器股份有限公司 视频处理方法和系统
US9351028B2 (en) * 2011-07-14 2016-05-24 Qualcomm Incorporated Wireless 3D streaming server
US9984504B2 (en) * 2012-10-01 2018-05-29 Nvidia Corporation System and method for improving video encoding using content information
US10318543B1 (en) * 2014-03-20 2019-06-11 Google Llc Obtaining and enhancing metadata for content items
US10334221B2 (en) * 2014-09-15 2019-06-25 Mantisvision Ltd. Methods circuits devices systems and associated computer executable code for rendering a hybrid image frame
CN105187841B (zh) * 2015-10-16 2017-12-15 中国工程物理研究院机械制造工艺研究所 一种带误差反馈的三维数据编解码方法
CN106131535B (zh) * 2016-07-29 2018-03-02 传线网络科技(上海)有限公司 视频采集方法及装置、视频生成方法及装置
WO2019197708A1 (en) * 2018-04-09 2019-10-17 Nokia Technologies Oy An apparatus, a method and a computer program for volumetric video
EP3806474A1 (en) * 2018-07-12 2021-04-14 Samsung Electronics Co., Ltd. Method and device for encoding three-dimensional image, and method and device for decoding three-dimensional image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018034253A1 (en) * 2016-08-19 2018-02-22 Mitsubishi Electric Corporation Method, encoder system and non-transitory computer readable recording medium storing thereon program for encoding point cloud of representing scene
WO2018130491A1 (en) * 2017-01-13 2018-07-19 Thomson Licensing Method, apparatus and stream for immersive video format
JP2020515937A (ja) * 2017-01-13 2020-05-28 インターデジタル ヴイシー ホールディングス, インコーポレイテッド 没入型ビデオフォーマットのための方法、装置、及びストリーム
WO2019055963A1 (en) * 2017-09-18 2019-03-21 Apple Inc. COMPRESSION OF CLOUD OF POINTS
WO2019142667A1 (ja) * 2018-01-17 2019-07-25 ソニー株式会社 画像処理装置および方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
EUEE S. JANG, ET AL.: "Video-Based Point-Cloud-Compression Standard in MPEG: From Evidence Collection to Committee Draft", [ONLINE], JPN6019039190, May 2019 (2019-05-01), pages 118 - 123, XP011721894, ISSN: 0005058610, DOI: 10.1109/MSP.2019.2900721 *
TIM GOLLA AND REINHARD KLEIN: "Real-time Point Cloud Compression", [ONLINE], JPN6019039188, 17 December 2015 (2015-12-17), pages 5087 - 5092, ISSN: 0005058609 *

Also Published As

Publication number Publication date
EP3833029A1 (en) 2021-06-09
US11405644B2 (en) 2022-08-02
CN112514396A (zh) 2021-03-16
US20210297696A1 (en) 2021-09-23
EP3833029A4 (en) 2021-09-01
JP7331852B2 (ja) 2023-08-23
WO2020026846A1 (ja) 2020-02-06

Similar Documents

Publication Publication Date Title
US11611774B2 (en) Image processing apparatus and image processing method for 3D data compression
EP3926959A1 (en) Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
US11721048B2 (en) Image processing apparatus and method
US11699248B2 (en) Image processing apparatus and method
JP7331852B2 (ja) 画像処理装置および方法
US20210027505A1 (en) Image processing apparatus and method
EP3926960A1 (en) Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
US11399189B2 (en) Image processing apparatus and method
KR20200140256A (ko) 화상 처리 장치 및 방법
US11356690B2 (en) Image processing apparatus and method
EP4044603A1 (en) Point cloud data transmission device, point cloud data transmission method, point cloud data reception device and point cloud data reception method
US11606547B2 (en) Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
US11915390B2 (en) Image processing device and method
US20230370636A1 (en) Image processing device and method
US20230370637A1 (en) Image processing device and method
WO2021193428A1 (ja) 情報処理装置及び情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230724

R151 Written notification of patent or utility model registration

Ref document number: 7331852

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151