JP2022172413A - Three-dimensional expression conversion device and three-dimensional expression inverse conversion device - Google Patents

Three-dimensional expression conversion device and three-dimensional expression inverse conversion device Download PDF

Info

Publication number
JP2022172413A
JP2022172413A JP2019175249A JP2019175249A JP2022172413A JP 2022172413 A JP2022172413 A JP 2022172413A JP 2019175249 A JP2019175249 A JP 2019175249A JP 2019175249 A JP2019175249 A JP 2019175249A JP 2022172413 A JP2022172413 A JP 2022172413A
Authority
JP
Japan
Prior art keywords
patch
information
unit
conversion
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019175249A
Other languages
Japanese (ja)
Inventor
智幸 山本
Tomoyuki Yamamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2019175249A priority Critical patent/JP2022172413A/en
Priority to PCT/JP2020/035662 priority patent/WO2021060229A1/en
Publication of JP2022172413A publication Critical patent/JP2022172413A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Abstract

To convert three-dimensional expression of desired characteristics into three-dimensional expression capable of being processed by an assumed processing device regardless of properties of the input three-dimensional expression.SOLUTION: A three-dimensional expression conversion device (500) generates a second three-dimensional expression representing a three-dimensional object with first three-dimensional expression representing the three-dimensional object as input. The three-dimensional expression conversion device comprises an expression conversion unit (501) that converts the first three-dimensional expression into the second three-dimensional expression based on directly or indirectly specified post-conversion characteristics.SELECTED DRAWING: Figure 1

Description

本発明の一態様は、三次元点群に代表される三次元表現で表現された三次元対象に係り、
第一の三次元表現から第二の三次元表現に変換する変換装置に関する。
One aspect of the present invention relates to a three-dimensional object represented by a three-dimensional expression represented by a three-dimensional point cloud,
It relates to a conversion device for converting from a first three-dimensional representation to a second three-dimensional representation.

三次元対象の全体や一部を表現するデジタルデータ(3Dデータ)を伝送や処理することで、三次元対象の記録再生や、テレイグジスタンスに代表される様々なアプリケーションが実現できる。三次元対象の表現形式(三次元表現)の一つに三次元点群(点群)がある。点群では、三次元対象を点の集合として表現する。点群を構成する各点は、点の位置および属性情報(例えば色)により定義される。その他、三次元対象の表現形式には、メッシュ形式、ボリューム形式、画像形式がある。 By transmitting and processing digital data (3D data) representing the whole or part of a three-dimensional object, various applications such as recording and playback of three-dimensional objects and telexistence can be realized. A three-dimensional point group (point group) is one of the representation formats (three-dimensional representation) of a three-dimensional object. A point cloud represents a three-dimensional object as a set of points. Each point that constitutes the point cloud is defined by the point's position and attribute information (for example, color). In addition, representation formats for three-dimensional objects include mesh formats, volume formats, and image formats.

一般に三次元表現のデータはデータ量が多い。そのため、特定の三次元表現の形式のまま伝送や処理するには多量のストレージおよび計算リソースが要求される。 In general, three-dimensional representation data has a large amount of data. As such, transmission and processing in the form of a particular three-dimensional representation requires a large amount of storage and computational resources.

三次元表現の一つである点群を画像により表現し伝送することで帯域および再生時の計算リソースを抑制する従来技術として、国際標準として策定中のV-PCC(Video-based Point Cloud Compression)方式が挙げられる(非特許文献1)。V-PCCでは、入力された点
群をクラスタリングして所定の単位(点群クラスタ)に分割する。続いて、点群クラスタを規定の投影面の何れかに投影することで点群クラスタに相当する二次元画像(パッチ)を生成する。全ての点群クラスタに対応するパッチを集めてパッキングして二次元画像(統合画像)を生成する。最後に統合画像をビデオ符号化方式で圧縮して伝送する。なお、V-PCCにおいて、1個の点群クラスタから2種類のパッチが生成される。具体的には、点群
クラスタの三次元形状を表すジオメトリパッチと点群クラスタの属性(例えば色)を表す属性パッチが生成される。そのため、統合画像も、ジオメトリパッチを集めたジオメトリ統合画像と属性パッチを集めた属性統合画像の2種類がある。なお、以下では統合画像と
記載した場合、特に注釈がなければ、ジオメトリ統合画像と属性統合画像のいずれも意味する。
V-PCC (Video-based Point Cloud Compression), which is being formulated as an international standard, is a conventional technology that reduces bandwidth and computational resources during playback by expressing and transmitting point clouds, one of the three-dimensional representations, as images. method (Non-Patent Document 1). In V-PCC, the input point cloud is clustered and divided into predetermined units (point cloud clusters). Subsequently, a two-dimensional image (patch) corresponding to the point cloud cluster is generated by projecting the point cloud cluster onto one of the prescribed projection planes. Patches corresponding to all point cloud clusters are collected and packed to generate a two-dimensional image (integrated image). Finally, the integrated image is compressed by a video coding method and transmitted. In V-PCC, two types of patches are generated from one point cloud cluster. Specifically, a geometry patch representing the three-dimensional shape of the point cloud cluster and an attribute patch representing the attribute (for example, color) of the point cloud cluster are generated. Therefore, there are two types of integrated images: a geometry integrated image that collects geometry patches and an attribute integrated image that collects attribute patches. In the following description, the term "integrated image" means both a geometry integrated image and an attribute integrated image unless otherwise specified.

Euee et al., “Video-Based Point-Cloud-Compression Standard in MPEG: From Evidence Collection to Committee Draft [Standards in a Nutshell]”, IEEE Signal Processing Magazine Volume:36, Issue: 3, pp: 118-123, May 2019Euee et al., “Video-Based Point-Cloud-Compression Standard in MPEG: From Evidence Collection to Committee Draft [Standards in a Nutshell]”, IEEE Signal Processing Magazine Volume:36, Issue: 3, pp: 118-123, May 2019

しかしながら、従来技術では、特定の特性の三次元表現を処理するよう設計された処理装置により処理可能な三次元表現によるデータが必ずしも生成できないという課題があった。例えば、従来技術のV-PCCでは、点群の性質に応じて、当該点群を表現する統合画像
の解像度が変化するという問題があった。そのため、統合画像の解像度が高くなる状況が生じ、計算リソースが不足して伝送や処理が困難な場合が生じる問題があった。
However, the prior art suffers from the problem that it is not always possible to generate 3D representation data that can be processed by a processing device designed to process 3D representations of specific properties. For example, the conventional V-PCC has a problem that the resolution of the integrated image representing the point group varies depending on the properties of the point group. As a result, a situation arises in which the resolution of the integrated image becomes high, and there is a problem that transmission and processing become difficult due to lack of computational resources.

例えば、V-PCCにおいて、高密度の点群を入力とした場合、ビデオ符号化の対象となる
統合画像の解像度が高くなりすぎる場合があるとの問題が生じる。一般にビデオ復号処理は特定以下の解像度の画像を対象とするよう設計されており、当該解像度を超える画像は
復号できず、結果として点群も復元できないという問題が生じる。
For example, in V-PCC, when a high-density point cloud is input, there is a problem that the resolution of an integrated image to be video-encoded may become too high. In general, video decoding processing is designed for images with resolutions below a certain level, and images with resolutions higher than that resolution cannot be decoded, resulting in the problem that point clouds cannot be restored.

また、例えば、V-PCCにおいて、入力点群が表現する三次元対象の表面積が広い場合、
クラスタリングの結果得られるパッチの総面積が増加する。その結果、統合画像の解像度も高くなり、点群が復元できない問題が生じる。
Also, for example, in V-PCC, if the surface area of the three-dimensional object represented by the input point cloud is large,
The total area of patches resulting from clustering is increased. As a result, the resolution of the integrated image also increases, and a problem arises that the point cloud cannot be restored.

以上、三次元対象の表現形式の一つである点群を挙げて課題を説明したが、他の表現形式であるメッシュ形式やボリューム形式に対してもV-PCC類似のアプローチを採用する場
合には同様の問題がある。
In the above, the point cloud, which is one of the three-dimensional object representation formats, was used to explain the problem. has a similar problem.

本発明の一態様は、上記の問題に鑑みてなされたものであり、入力の三次元表現(入力点群)の種別や性質によらず、想定する後段の処理装置で処理可能な出力の三次元表現を生成する三次元表現変換装置を実現する。また、そのような三次元表現変換装置で変換された三次元表現から元の三次元表現を復元する三次元表現逆変換装置を実現する。 One aspect of the present invention has been made in view of the above problems, and is capable of processing output cubic data that can be processed by an assumed subsequent processing device, regardless of the type or property of the 3D representation of the input (input point group). A three-dimensional expression conversion device that generates original expressions is realized. Also, a three-dimensional expression inverse conversion device is realized that restores the original three-dimensional expression from the three-dimensional expression converted by such a three-dimensional expression conversion device.

上記の課題を解決するために、本発明の一態様に係る三次元対象に関する三次元表現変換装置、三次元表現逆変換装置、符号化装置、復号装置、および、処理装置は以下の手段を提供する。
(第1の手段)
三次元対象を表す第一の三次元表現を入力として、上記三次元対象を表す第二の三次元表現を生成する三次元表現変換手段であって、
上記第一の三次元表現を上記第二の三次元表現に変換する表現変換手段を備え、
上記表現変換部は、直接または間接的に指定される変換後特性に基づいて変換を行う三次元表現変換手段を提供する。
In order to solve the above problems, a 3D expression conversion device, a 3D expression inverse conversion device, an encoding device, a decoding device, and a processing device relating to a 3D object according to one aspect of the present invention provide the following means. do.
(First means)
Three-dimensional representation conversion means for generating a second three-dimensional representation representing the three-dimensional object from a first three-dimensional representation representing the three-dimensional object,
A representation conversion means for transforming the first three-dimensional representation into the second three-dimensional representation,
The expression conversion unit provides three-dimensional expression conversion means for performing conversion based on the post-conversion characteristics that are directly or indirectly specified.

この三次元表現変換手段によれば、想定する処理装置で処理可能な変換後特性を指定することで、当該処理装置では処理が不可能な第一の三次元表現を、当該処理装置で処理が可能な第二の三次元表現に変換できる。
(第2の手段)
三次元対象を表す第二の三次元表現を入力として、上記三次元対象を表す第三の三次元表現を生成する三次元表現逆変換手段であって、
上記第二の三次元表現を上記第三の三次元表現に変換する表現逆変換手段と、
入力される表現変換情報を解釈する表現変換情報解釈手段を備え、
上記表現逆変換手段は、表現変換情報に基づいて第二の三次元表現に変換を適用する三次元表現逆変換手段を提供する。
According to this three-dimensional expression conversion means, by specifying post-conversion characteristics that can be processed by an assumed processing device, the first three-dimensional expression that cannot be processed by the processing device can be processed by the processing device. It can be transformed into a second possible three-dimensional representation.
(Second means)
Three-dimensional representation inverse transformation means for generating a third three-dimensional representation representing the three-dimensional object from a second three-dimensional representation representing the three-dimensional object as input,
a representation inverse transformation means for transforming the second three-dimensional representation into the third three-dimensional representation;
An expression conversion information interpretation means for interpreting input expression conversion information,
The representation inverse transformation means provides three-dimensional representation inverse transformation means for applying a transformation to the second three-dimensional representation based on representation transformation information.

この三次元表現逆変換手段によれば、前記三次元表現変換手段により変換しえ生成された第二の三次元表現から、変換前の第一の三次元表現に近い第三の三次元表現を復元できる。特に、表現変換情報を用いることで、変換の内容を考慮して逆変換の方法を決定できるため、より第一の三次元表現に近い第三の三次元表現を復元できる。
(第3の手段)
三次元対象を入力として、上記三次元対象に対応する3Dデータを生成する三次元対象符号化手段であって、
解像度指定を決定する処理解像度設定手段と、
上記三次元対象をクラスタに分割するクラスタ分割手段と、
上記クラスタからパッチを生成し、投影に係る投影情報を生成するパッチ投影手段と、
上記解像度指定に基づいて上記パッチに変換を適用し、変換に係る調整情報を生成するパッチ変換手段と、
上記変換を適用したパッチを結合して統合画像を生成し、統合に係る統合情報を生成す
るパッチ統合手段と、
上記投影情報、上記調整情報、および、上記統合情報を含むパッチ情報を生成するパッチ情報符号化手段と、
上記統合画像にビデオ符号化を適用し2Dデータを生成するビデオ符号化手段と、
上記2Dデータと上記パッチ情報を多重化して3Dデータを構成する3Dデータ多重化手段を備える三次元対象符号化手段を提供する。
According to this three-dimensional representation inverse conversion means, a third three-dimensional representation close to the first three-dimensional representation before conversion is obtained from the second three-dimensional representation generated by the conversion by the three-dimensional representation conversion means. can be restored. In particular, by using the expression conversion information, it is possible to determine the method of inverse conversion in consideration of the content of the conversion, so that the third three-dimensional expression that is closer to the first three-dimensional expression can be restored.
(Third means)
3D object encoding means for generating 3D data corresponding to the 3D object with a 3D object as input,
processing resolution setting means for determining resolution designation;
cluster dividing means for dividing the three-dimensional object into clusters;
patch projection means for generating patches from the clusters and generating projection information related to projection;
patch conversion means for applying conversion to the patch based on the specified resolution and generating adjustment information related to the conversion;
patch integration means for generating an integrated image by combining the patches to which the transformation is applied, and generating integration information related to the integration;
patch information encoding means for generating patch information including the projection information, the adjustment information, and the integration information;
video encoding means for applying video encoding to the integrated image to generate 2D data;
A three-dimensional object encoding means is provided, comprising a 3D data multiplexing means for multiplexing the 2D data and the patch information to form 3D data.

この三次元対象符号化手段によれば、解像度指定を満たすようパッチを変換し、変換したパッチを含んで構成された統合画像を符号化して3Dデータを生成できる。そのため、入力の三次元対象の性質によらず、所望の計算リソースで復号可能な解像度を有する統合画像に相当する2Dデータを含んだ3Dデータを生成できる。
(第4の手段)
三次元対象を符号化して生成された3Dデータを入力として上記三次元対象を復元する三次元対象復号手段であって、
上記3Dデータからパッチ情報と2Dデータを抽出する3Dデータ逆多重化部と、
上記パッチ情報から統合情報、調整情報、および、投影情報を導出するパッチ情報復号手段と、
上記2Dデータから統合画像を復号するビデオ復号手段と、
上記統合画像を上記統合情報に基づいて複数のパッチに分割するパッチ分割手段と、
分割された各パッチを上記調整情報に基づいて変換するパッチ復元手段と、
上記パッチから上記投影情報に基づいてクラスタを生成するパッチ逆投影手段と、
複数のクラスタを結合する三次元対象復元手段を備える三次元対象復号手段を提供する。
According to this 3D object encoding means, 3D data can be generated by converting patches so as to satisfy the specified resolution, and encoding an integrated image including the converted patches. Therefore, regardless of the properties of the input three-dimensional object, 3D data including 2D data corresponding to an integrated image having a resolution that can be decoded with desired computational resources can be generated.
(Fourth means)
Three-dimensional object decoding means for reconstructing the three-dimensional object with input of 3D data generated by encoding the three-dimensional object,
a 3D data demultiplexer that extracts patch information and 2D data from the 3D data;
patch information decoding means for deriving integration information, adjustment information, and projection information from the patch information;
video decoding means for decoding a composite image from the 2D data;
patch dividing means for dividing the integrated image into a plurality of patches based on the integrated information;
patch restoration means for converting each divided patch based on the adjustment information;
patch backprojection means for generating clusters from the patches based on the projection information;
A 3D object decoding means is provided comprising a 3D object reconstruction means for combining a plurality of clusters.

この三次元対象復号手段によれば、解像度指定を満たすようパッチを変換し、変換したパッチを含んで構成された統合画像を符号化した3Dデータを復号して三次元対象を復元できる。そのため、入力の三次元対象の性質によらず、所望の計算リソースで復号可能な解像度を有する統合画像に相当する2Dデータを含んだ3Dデータを復号できる。
(第5の手段)
入力された三次元対象を変換して出力する三次元対象処理手段であって、
解像度指定を決定する処理解像度設定手段と、
上記解像度指定と上記三次元対象に基づいて統合画像とパッチ情報を生成する画像生成手段と、
上記統合画像に変換処理を適用して変換後の統合画像を出力する統合画像処理手段と、
上記変換後の統合画像と上記パッチ情報を入力として三次元対象を生成する三次元対象再生手段とを備える三次元対象処理手段を提供する。
According to this three-dimensional object decoding means, a three-dimensional object can be restored by decoding 3D data obtained by converting a patch so as to satisfy a specified resolution and decoding the 3D data obtained by encoding an integrated image including the converted patch. Therefore, 3D data including 2D data corresponding to an integrated image having a resolution that can be decoded with desired computational resources can be decoded regardless of the properties of the input 3D object.
(Fifth means)
Three-dimensional object processing means for transforming and outputting an input three-dimensional object,
processing resolution setting means for determining resolution designation;
image generation means for generating an integrated image and patch information based on the resolution designation and the three-dimensional object;
Integrated image processing means for applying conversion processing to the integrated image and outputting the integrated image after conversion;
A three-dimensional object processing means is provided, comprising a three-dimensional object reproduction means for generating a three-dimensional object with the converted integrated image and the patch information as inputs.

この三次元対象処理手段によれば、解像度指定を満たすようパッチを変換し、変換したパッチを含んで構成された統合画像を処理して三次元対象を変換できる。そのため、入力の三次元対象の性質によらず、所望の計算リソースで三次元対象に所望の処理を適用できる。 According to this three-dimensional object processing means, the three-dimensional object can be transformed by converting the patches so as to satisfy the specified resolution and processing the integrated image composed of the converted patches. Therefore, desired processing can be applied to the three-dimensional object with desired computational resources, regardless of the properties of the input three-dimensional object.

本発明の一態様によれば、入力三次元対象の性質によらず、目標とする計算リソースで処理可能な統合画像を生成する画像生成装置を実現できる。 ADVANTAGE OF THE INVENTION According to one aspect of the present invention, it is possible to realize an image generating apparatus that generates an integrated image that can be processed with target computational resources regardless of the properties of an input three-dimensional object.

また、本発明の一態様によれば、入力点群の性質によらず、目標とする計算リソースで処理可能なよう生成された統合画像に基づいて三次元対象を再生する三次元対象再生装置を実現できる。 Further, according to one aspect of the present invention, there is provided a three-dimensional object reproducing apparatus that reproduces a three-dimensional object based on an integrated image generated so as to be processable by target computational resources, regardless of the properties of the input point cloud. realizable.

実施形態7に係る三次元表現変換装置と三次元表現逆変換装置の機能ブロック図である。FIG. 13 is a functional block diagram of a 3D expression conversion device and a 3D expression inverse conversion device according to Embodiment 7; 実施形態1に係る画像生成装置の機能ブロック図である。1 is a functional block diagram of an image generation device according to Embodiment 1. FIG. 三次元対象とパッチと統合画像の関係を説明する図である。FIG. 4 is a diagram for explaining the relationship between a three-dimensional object, patches, and an integrated image; 異なる解像度を対象とするパッチと統合画像の関係を例示した図である。FIG. 4 is a diagram illustrating the relationship between patches targeting different resolutions and an integrated image; 実施形態2に係る点群再生装置の機能ブロック図である。FIG. 10 is a functional block diagram of a point cloud reproduction device according to Embodiment 2; 実施形態2に係るパッチ復元部203の処理フロー図である。FIG. 10 is a processing flow diagram of a patch restoration unit 203 according to Embodiment 2; 実施形態3に係る画像生成装置の機能ブロック図である。FIG. 10 is a functional block diagram of an image generation device according to Embodiment 3; 実施形態3に係る三次元対象の分割とパッチの関係を説明する図である。FIG. 10 is a diagram for explaining the relationship between division of a three-dimensional object and patches according to Embodiment 3; 実施形態3に係る異なる解像度を対象とするパッチと統合画像の関係を例示した図である。FIG. 10 is a diagram illustrating the relationship between patches targeting different resolutions and an integrated image according to the third embodiment; 実施形態4に係る点群再生装置の機能ブロック図である。FIG. 10 is a functional block diagram of a point group reproducing device according to Embodiment 4; 実施形態4に係る視点依存の再生対象選択を説明する図である。FIG. 10 is a diagram for explaining viewpoint-dependent reproduction target selection according to Embodiment 4; 実施形態5に係る点群符号化装置と点群復号装置の機能ブロック図である。FIG. 10 is a functional block diagram of a point cloud encoding device and a point cloud decoding device according to Embodiment 5; 実施形態6に係る点群処理装置の機能ブロック図である。FIG. 10 is a functional block diagram of a point cloud processing device according to Embodiment 6; 実施形態1に係るパッチ変換部103の処理フロー図である。4 is a processing flow diagram of a patch conversion unit 103 according to Embodiment 1. FIG.

〔実施形態1〕
以下、本発明の一実施形態について、図2~図4と図14に基づいて説明する。
[Embodiment 1]
An embodiment of the present invention will be described below with reference to FIGS. 2 to 4 and 14. FIG.

<画像生成装置1の構成>
図2に基づいて本実施形態に係る画像生成装置100の構成を説明する。画像生成装置100
は、クラスタ分割部101、パッチ投影部102、パッチ変換部103、パッチ統合部104、および、パッチ情報符号化部105を備えている。
<Configuration of image generation device 1>
The configuration of the image generation device 100 according to this embodiment will be described based on FIG. Image generation device 100
has a cluster division unit 101, a patch projection unit 102, a patch conversion unit 103, a patch integration unit 104, and a patch information encoding unit 105.

画像生成装置100は、入力される点群から当該点群を表現する統合画像を生成して出力
する。出力の統合画像は、入力される解像度指定に従った解像度となる。また、画像生成装置100は、統合画像から点群を再生するために利用するパッチ情報を生成して出力する
The image generation device 100 generates and outputs an integrated image representing the point group from the input point group. The output integrated image has a resolution according to the input resolution specification. In addition, the image generation device 100 generates and outputs patch information used to reproduce the point cloud from the integrated image.

クラスタ分割部101は、入力の点群を複数の点群クラスタに分割して出力する。点群の
点群クラスタへの分割は、点群にクラスタリングを適用することで実行される。クラスタリングは、点群クラスタが連続した面を形成し、かつ、その面上の各点の法線が類似の方向となるよう実行される。例えば、点の空間位置に基づき近傍点群を集めた初期クラスタを構成し、各点の法線推定結果に基づいて各初期クラスタを分割・統合することで所望の点群クラスタが得られる。図3(a)を参照して、点群と点群クラスタの関係の例を説明する。図3(a)では、直方体の対象に相当する点群と、当該点群をクラスタリングにより分割して得られる点群クラスタの関係を例示している。直方体は法線方向により6個の面に
相当する点群クラスタに分割される。すなわち、上面に対応する点群クラスタ(FT)、下面に対応する点群クラスタ(FB)、各側面に対応する点群クラスタ(FS1、FS2、FS3、FS4)に分解される。
The cluster division unit 101 divides an input point cloud into a plurality of point cloud clusters and outputs the clusters. The division of the point cloud into point cloud clusters is performed by applying clustering to the point cloud. Clustering is performed so that the point cloud clusters form a continuous surface, and the normals of each point on the surface have similar directions. For example, a desired point cloud cluster can be obtained by forming an initial cluster by collecting neighboring point clouds based on the spatial positions of the points, and dividing and integrating each initial cluster based on the normal line estimation result of each point. An example of the relationship between point clouds and point cloud clusters will be described with reference to FIG. FIG. 3(a) illustrates the relationship between a point cloud corresponding to a rectangular parallelepiped object and a point cloud cluster obtained by dividing the point cloud by clustering. The cuboid is divided into point cloud clusters corresponding to 6 faces according to the normal direction. That is, it is decomposed into a point cloud cluster (FT) corresponding to the top surface, a point cloud cluster (FB) corresponding to the bottom surface, and a point cloud cluster (FS1, FS2, FS3, FS4) corresponding to each side surface.

パッチ投影部102は、入力される各点群クラスタから対応するパッチを生成して出力す
る。パッチ投影部102は、加えて、パッチの生成方法を表す投影情報を出力する。パッチ
の生成は、点群クラスタを所定の投影方法により所定の投影面に投影することで生成される。例えば、既定の投影面のセットから1つの投影面を選択し、当該投影面に対して点群
クラスタを正投影して得られる画像をパッチとする。規定の投影面のセットとして、例え
ば、3D空間に設定した座標系(XYZ座標系)を使って、XY平面、YZ平面、ZX平面にそれぞ
れ平行な面を規定の投影面のセットとして用いる。
The patch projection unit 102 generates and outputs a corresponding patch from each input point cloud cluster. The patch projection unit 102 additionally outputs projection information representing the patch generation method. A patch is generated by projecting a point group cluster onto a predetermined projection plane using a predetermined projection method. For example, one projection plane is selected from a predetermined set of projection planes, and an image obtained by orthographically projecting the point group cluster onto the selected projection plane is used as a patch. As a set of specified projection planes, for example, a coordinate system (XYZ coordinate system) set in a 3D space is used, and planes parallel to the XY, YZ, and ZX planes are used as a set of specified projection planes.

図3(a)で例示した直方体を分割した点群クラスタに対応するパッチを図3(b)に例示する。各点群クラスタの法線方向と直交する投影面に正投影で投影した場合、図3(b)に示すようなパッチが得られる。なお、直方体のサイズを高さ2U、幅1U、奥行き1Uとする場合、一つの側面に対応する点群クラスタから得られるパッチ(FS1、FS2、FS3、FS4)は1U×2Uの解像度となる。同様に上面と下面に対応するパッチ(FT、FB)は1U×1Uの解像度となる。なお、画像の解像度の表記で「A×B」とした場合、幅A、高さBの解像度を表す。以降の説明でも同様の表記を用いる。 FIG. 3(b) shows patches corresponding to point cloud clusters obtained by dividing the rectangular parallelepiped shown in FIG. 3(a). When orthographic projection is performed on a projection plane perpendicular to the normal direction of each point cloud cluster, patches as shown in Fig. 3(b) are obtained. If the size of the rectangular parallelepiped is 2U in height, 1U in width, and 1U in depth, the patches (FS1, FS2, FS3, FS4) obtained from the point cloud cluster corresponding to one side have a resolution of 1U×2U. Similarly, the patches (FT, FB) corresponding to the top and bottom surfaces have a resolution of 1U x 1U. Note that when the notation of image resolution is “A×B”, it represents the resolution of width A and height B. FIG. The same notation will be used in the following description as well.

投影情報は各パッチの投影に使用される投影面と投影方法を識別する情報を含む。前述の例の場合、投影方法は正投影であり投影方法の識別情報を省略できる。投影面の識別情報はXY平面、YZ平面、または、ZX平面を選択する情報となる。投影方法と投影面を決定できれば別の情報を用いてもよい。例えば、投影は仮想カメラによる撮影と言い換えることができる。そのため、仮想カメラのカメラパラメータ(焦点距離、焦点位置、撮影解像度、歪パラメータ等)を投影情報とすることもできる。 The projection information includes information identifying the projection plane and projection method used to project each patch. In the case of the above example, the projection method is orthographic projection, and identification information for the projection method can be omitted. The projection plane identification information is information for selecting the XY plane, YZ plane, or ZX plane. Other information may be used as long as the projection method and projection plane can be determined. For example, projection can be rephrased as shooting with a virtual camera. Therefore, camera parameters (focal length, focal position, shooting resolution, distortion parameter, etc.) of the virtual camera can be used as projection information.

パッチ変換部103は、入力される複数のパッチを入力される解像度指定の示す解像度(
指定解像度)の画像に収まるよう変換により調整し、結果のパッチを出力する。例えば、一部のパッチを選択し縮小したパッチを出力する。また、パッチ変換部103は、パッチに
適用された変換を識別する情報を調整情報として出力する。例えば、前述の縮小変換の適用有無を示す情報が調整情報となる。パッチ変換部103におけるパッチ変換処理の詳細は
後述する。
The patch conversion unit 103 converts a plurality of input patches to the resolution indicated by the input resolution specification (
(specified resolution)), and output the resulting patch. For example, some patches are selected and reduced patches are output. The patch conversion unit 103 also outputs information identifying the conversion applied to the patch as adjustment information. For example, the adjustment information is information indicating whether or not the contraction conversion described above is applied. Details of the patch conversion processing in the patch conversion unit 103 will be described later.

パッチ統合部104は、入力されるパッチをパッキングして画像を構成することで統合画
像を生成して出力する。パッチ統合部104は、加えて、統合情報を出力する。統合情報は
、パッチの統合画像内での位置と、当該パッチに相当する点群クラスタの3D空間内での位置の対応関係を示す情報である。例えば、統合情報は、パッチに対応する統合画像上の領域の左上座標とサイズを含む。また、例えば、統合情報は、パッチに対応する点群クラスタの3D空間内での相対位置を含む。
The patch integration unit 104 packs input patches to form an image, thereby generating and outputting an integrated image. The patch integration unit 104 additionally outputs integration information. The integrated information is information indicating the correspondence between the position of the patch in the integrated image and the position of the point cloud cluster corresponding to the patch in the 3D space. For example, the integrated information includes the upper left coordinate and size of the area on the integrated image corresponding to the patch. Also, for example, the integrated information includes the relative positions in 3D space of the point cloud clusters corresponding to the patches.

図3(b)に示したパッチセットをパッキングして得られる統合画像の例を図3(c)に示す。6枚のパッチ(FS1、FS2、FS3、FS4、FT、FB)を含んで1枚の統合画像が構成されている。この例の場合、統合画像の解像度は4U×3Uであり、統合画像に含まれる何れのパッチにも変換は適用されていない。 An example of an integrated image obtained by packing the patch set shown in FIG. 3(b) is shown in FIG. 3(c). One integrated image is composed of six patches (FS1, FS2, FS3, FS4, FT, FB). In this example, the resolution of the integrated image is 4U×3U, and no transformation has been applied to any of the patches contained in the integrated image.

パッチ情報符号化部105は、前述の投影情報、調整情報、および、統合情報をまとめて
パッチ情報として出力する。各情報は、必要に応じて可逆または非可逆の可変長符号化を用いて圧縮した形式としてもよい。
The patch information encoding unit 105 collectively outputs the above-described projection information, adjustment information, and integration information as patch information. Each piece of information may be compressed using lossless or lossy variable length coding as needed.

<パッチ変換処理>
パッチ変換部103におけるパッチ変換処理について図14を参照して説明する。パッチ変
換処理では図14に示したS100~S105の手順で入力される複数のパッチ(パッチセット)から出力パッチセットを生成する。
<Patch conversion processing>
Patch conversion processing in patch conversion section 103 will be described with reference to FIG. In the patch conversion process, an output patch set is generated from a plurality of patches (patch sets) input in the steps S100-S105 shown in FIG.

(S100)パッチセットに未処理のパッチが含まれるか判定し、未処理パッチが存在する場合(S100でYES)はS101を実行する。未処理パッチが存在しない場合(S100でNO)はS105を実行する。 (S100) It is determined whether an unprocessed patch is included in the patch set, and if an unprocessed patch exists (YES in S100), S101 is executed. If there is no unprocessed patch (NO in S100), execute S105.

(S101)パッチセットの中から未処理のパッチを選択し対象パッチとする。続いてS102を実行する。なお、対象パッチの選択順は任意順でも所望の動作を実現可能である。しかしながら、選択順を解像度が高い(サイズが大きい)パッチから順に選択する方がより好ましい。これにより指定解像度内に統合画像の解像度を収めるために必要なパッチ変換の回数が抑制できるため処理量の観点で有効である。 (S101) An unprocessed patch is selected from the patch set as a target patch. Then S102 is executed. Note that the desired operation can be realized even if the target patch is selected in any order. However, it is more preferable to select patches in descending order of resolution (larger size). This is effective in terms of processing amount because the number of times of patch conversion required to keep the resolution of the integrated image within the specified resolution can be reduced.

(S102)パッチセットをパッキングして統合画像を生成する。ここでパッキングにはパッチ統合部104が提供する機能を利用できる。続いてS103を実行する。 (S102) Pack the patch set to generate an integrated image. Here, the function provided by the patch integration unit 104 can be used for packing. Then S103 is executed.

(S103)S102で生成された統合画像の解像度が指定解像度内か否かを判定する。指定解像度以内(S103でYES)の場合S105を実行する。それ以外(S103でNO)の場合S104を実行
する。
(S103) It is determined whether the resolution of the integrated image generated in S102 is within the designated resolution. If the resolution is within the designated resolution (YES in S103), S105 is executed. Otherwise (NO in S103), S104 is executed.

(S104)対象パッチを縮小してパッチセットを更新する。続いてS100を実行する。対象パッチの縮小は、例えば、対象パッチの解像度を縦横それぞれ半分にする縮小を用いる。もしくは、縦または横何れかの解像度を半分にする縮小を用いてもよい。 (S104) Reduce the target patch and update the patch set. Then execute S100. For the reduction of the target patch, for example, a reduction in which the resolution of the target patch is halved vertically and horizontally is used. Alternatively, downscaling that halves the resolution, either vertically or horizontally, may be used.

(S105)パッチセットを出力して処理を終了する。 (S105) Output the patch set and end the process.

以上の手順により、パッチ変換部103は入力されるパッチセットを指定解像度に基づい
て変換したパッチセットを出力する。ここで、出力されるパッチセットは、S103でパッチを縮小することで、パッキングして得られる統合画像の解像度が指定解像度以内となるようなパッチセットとなっている。
According to the above procedure, the patch conversion unit 103 converts the input patch set based on the specified resolution and outputs the patch set. Here, the output patch set is a patch set such that the resolution of the integrated image obtained by packing is within the designated resolution by reducing the patches in S103.

なお、パッチ変換処理の手順は図14を参照して説明した上記手順に限定されず、出力されるパッチセットから生成される統合画像が指定解像度の条件を満たす別の手順を用いてもよい。例えば、パッチセット中の異なるパッチの組み合わせについて、それぞれ縮小した場合の統合画像を生成する。続いて生成した全ての統合画像のうち、解像度が指定解像度以下であり、かつ、解像度が最大となるようなパッチセットを選択する手順でも前記条件を満たしたパッチセットを出力できる。 Note that the patch conversion process procedure is not limited to the procedure described above with reference to FIG. 14, and another procedure that satisfies the designated resolution condition for the integrated image generated from the output patch set may be used. For example, for different combinations of patches in the patch set, an integrated image is generated for each reduced size. A patch set that satisfies the above conditions can also be output by a procedure of selecting a patch set whose resolution is equal to or less than the specified resolution and has the maximum resolution among all the integrated images that are subsequently generated.

また、上記の例では変換の例として縮小を挙げたが、それ以外の変換を用いてもよい。例えば、パッチの回転、パッチの分割再結合を変換として用いることができる。パッチの分割再結合では、一つのパッチを複数のサブパッチに分割し、画像上の別の領域に配置する。パッチの復元時には分割されたサブパッチを再結合してパッチを復元する。また、各変換の組み合わせ、すなわち、縮小と回転、縮小と分割再結合、回転と分割再結合、および、縮小と回転と分割再結合の組み合わせを変換として適用してもよい。 In the above example, reduction was given as an example of conversion, but other conversions may be used. For example, patch rotation, patch division and recombination can be used as transforms. In patch division and recombination, one patch is divided into a plurality of subpatches and placed in different regions on the image. When restoring a patch, the divided subpatches are recombined to restore the patch. Also, combinations of transformations, ie, reduction and rotation, reduction and split-recombination, rotation and division-recombination, and reduction-rotation-divide-recombination, may be applied as transformations.

続いて、図4を参照して、異なる解像度指定に対して決定されるパッチセットおよび統
合画像の例を説明する。なお、この例の前提として図3に示した直方体の対象に対するパ
ッチセットがパッチ変換部103に入力されることを想定している。
Next, with reference to FIG. 4, examples of patch sets and integrated images determined for different resolution specifications will be described. As a premise of this example, it is assumed that the patch set for the rectangular parallelepiped target shown in FIG.

図4(a)は、指定解像度が2U×3Uの場合のパッチセットと統合画像の関係を例示している。この場合、図3(b)に示した元のパッチサイズでは統合画像を指定解像度以下にできない。そのため、一部のパッチ(FS1、FS2、FS3、FS4)の幅を元の1Uから0.5Uに縮小することで統合画像の解像度を指定解像度以内に収めている。 FIG. 4(a) exemplifies the relationship between the patch set and the integrated image when the designated resolution is 2U×3U. In this case, the original patch size shown in FIG. 3(b) cannot make the integrated image smaller than the designated resolution. Therefore, by reducing the width of some patches (FS1, FS2, FS3, FS4) from the original 1U to 0.5U, the resolution of the integrated image is kept within the specified resolution.

図4(b)は、指定解像度が4U×2Uの場合のパッチセットと統合画像の関係を例示している。この場合、一部の側面に相当するパッチ(FS1、FS2)の高さを縮小(元の2Uから1.5Uに縮小)している。加えて、上面と下面に相当するパッチ(FT、FB)の高さおよび幅を縮
小(元の1Uから0.5Uに縮小)している。変換されたパッチセットを使用することで統合画像の解像度を指定解像度以内に収めている。
FIG. 4(b) exemplifies the relationship between the patch set and the integrated image when the specified resolution is 4U×2U. In this case, the height of patches (FS1, FS2) corresponding to some sides is reduced (from the original 2U to 1.5U). In addition, the height and width of the patches (FT, FB) corresponding to the top and bottom surfaces are reduced (from the original 1U to 0.5U). By using the converted patch set, the resolution of the integrated image is kept within the specified resolution.

図4(c)は、指定解像度が5U×1Uの場合のパッチセットと統合画像の関係を例示している。この場合、側面に相当するパッチ(FS1、FS2、FS3、FS4)に回転した上で縮小している。すなわち、2U×1Uのパッチを90度回転して1U×2Uのパッチに変換し、さらに縦方向に半分に縮小することで0.5U×2Uのパッチに変換している。上面と下面のパッチ(FT、FB)については縦方向に半分に縮小して1U×1Uのパッチから0.5U×1Uのパッチに変換している。変換されたパッチセットを使用することで統合画像の解像度を指定解像度以内に収めている。 FIG. 4(c) illustrates the relationship between the patch set and the integrated image when the designated resolution is 5U×1U. In this case, the patches corresponding to the sides (FS1, FS2, FS3, FS4) are rotated and then reduced. That is, the 2U×1U patch is rotated by 90 degrees and converted into a 1U×2U patch, and further reduced in half in the vertical direction to be converted into a 0.5U×2U patch. The top and bottom patches (FT, FB) are vertically halved and converted from 1U x 1U patches to 0.5U x 1U patches. By using the converted patch set, the resolution of the integrated image is kept within the specified resolution.

<画像生成装置100の動作>
以上説明した画像生成装置100に含まれる構成機能要素を連携することで、画像生成処
理は入力点群から解像度指定に基づいて統合画像とパッチ情報を生成して出力する画像生成処理を実行できる。画像生成装置100における画像生成処理は以下の手順で実行される
<Operation of image generation device 100>
By linking the constituent functional elements included in the image generating apparatus 100 described above, the image generating process can execute an image generating process of generating and outputting an integrated image and patch information from the input point group based on the specified resolution. Image generation processing in the image generation device 100 is executed in the following procedure.

(S11)クラスタ分割部101は、入力された点群にクラスタリングを適用して複数の点群クラスタを生成してパッチ投影部102に出力する。 (S11) The cluster division unit 101 applies clustering to the input point cloud to generate a plurality of point cloud clusters and outputs them to the patch projection unit .

(S12)パッチ投影部102は、入力された複数の点群クラスタをそれぞれ投影することでパッチセットを生成してパッチ変換部103に出力する。パッチ投影部102は、加えて、投影情報を生成してパッチ情報符号化部105に出力する。 (S12) The patch projection unit 102 generates a patch set by projecting each of the input point cloud clusters, and outputs the patch set to the patch conversion unit 103. FIG. The patch projection unit 102 additionally generates projection information and outputs it to the patch information encoding unit 105 .

(S13)パッチ変換部103は、入力されたパッチセットを、入力された解像度指定に基づいて変換し、変換後のパッチセットをパッチ統合部104に出力する。パッチ変換部103は、加えて、調整情報を生成してパッチ情報符号化部105に出力する。 (S 13 ) Patch conversion section 103 converts the input patch set based on the input resolution specification, and outputs the converted patch set to patch integration section 104 . Patch conversion section 103 also generates adjustment information and outputs it to patch information encoding section 105 .

(S14)パッチ統合部104は、入力されたパッチセットをパッキングして統合画像を生成して画像生成装置100の出力として外部に出力する。 (S14) The patch integration unit 104 packs the input patch set to generate an integrated image, and outputs the integrated image as an output of the image generating apparatus 100 to the outside.

(S15)パッチ情報符号化部105は、入力された投影情報、調整情報、および、統合情報に基づいてパッチ情報を生成して画像生成装置100の出力として外部に出力する。 (S15) The patch information encoding unit 105 generates patch information based on the input projection information, adjustment information, and integration information, and outputs the generated patch information to the outside as an output of the image generating apparatus 100. FIG.

以上説明した画像生成装置100によれば、入力点群から解像度指定に基づいて統合画像
とパッチ情報を生成して出力できる。画像生成装置100では、パッチ変換部103により解像度指定の制約を満たすよう変換されたパッチセットをパッチ統合部104により統合するこ
とで統合画像が生成される。従って、画像生成装置100を用いることで、入力される点群
の性質によらず所望のメモリ消費や画像処理の制約を満たす解像度で点群を表現する統合画像を生成して出力できる。また、画像生成装置100で生成した統合画像は、同じく生成
されるパッチ情報を併用することで、元の点群を再生することができる。再生の例については、点群再生装置200として別途記載する。
According to the image generation device 100 described above, it is possible to generate and output an integrated image and patch information from an input point group based on a specified resolution. In the image generation device 100, the patch integration unit 104 integrates the patch sets converted by the patch conversion unit 103 so as to satisfy the constraint of the resolution designation, thereby generating an integrated image. Therefore, by using the image generating apparatus 100, it is possible to generate and output an integrated image that expresses the point cloud at a resolution that satisfies desired memory consumption and image processing constraints regardless of the properties of the input point cloud. Also, the integrated image generated by the image generating apparatus 100 can reproduce the original point cloud by using the patch information that is also generated. An example of reproduction will be described separately as the point cloud reproduction device 200. FIG.

<実施形態1に関する付記事項1>
上記の実施形態1における画像生成装置100の説明では、図3を参照して直方体の点群を
入力とする例を説明したが、画像生成装置100の処理は入力が任意の点群の場合にも適用
できる。例えば、対象の点群を内包する直方体(バウンディングボックス)を設定した上で、直方体の各面の法線方向に近い点群を点群クラスタとすることにより実施形態1で説明した方法と類似の方法によりパッチセットの変換と統合画像の生成が実行できる。
<Additional remarks 1 regarding Embodiment 1>
In the description of the image generation device 100 in the first embodiment above, an example in which a rectangular parallelepiped point group is input with reference to FIG. 3 has been described. can also be applied. For example, after setting a rectangular parallelepiped (bounding box) that encloses the target point cloud, a point cloud that is close to the normal direction of each surface of the rectangular parallelepiped is set as a point cloud cluster, which is similar to the method described in the first embodiment. The method can perform patch set transformation and integrated image generation.

<実施形態1に関する付記事項2>
上記の実施形態1における画像生成装置100の説明では、入力される解像度指定に基づ
いて統合画像を生成する方法を説明した。説明において、統合画像の種別、すなわち、統合画像がジオメトリ統合画像であるか、属性統合画像であるかは区別せず、いずれにも同じ方法を適用できる前提で説明した。アプリケーションによってはジオメトリ統合画像と属性統合画像それぞれに対する解像度要求が異なる場合がある。そのため、画像生成装置1を対象とする統合画像の種別に応じて異なる解像度指定を入力するよう構成してもよい
。そのような構成により、より柔軟なアプリケーション要求を満たす統合画像の組み合わせを出力できる。
<Additional remarks 2 regarding Embodiment 1>
In the description of the image generation device 100 in the above first embodiment, the method of generating the integrated image based on the input resolution designation has been described. In the description, it is assumed that the type of integrated image, that is, whether the integrated image is a geometry integrated image or an attribute integrated image is not distinguished, and the same method can be applied to any of them. Some applications may have different resolution requirements for geometry-integrated images and attribute-integrated images. Therefore, the image generation device 1 may be configured to input different resolution designations according to the type of integrated image targeted. Such a configuration can output a combination of integrated images that meet more flexible application requirements.

〔実施形態2〕
以下、本発明の一実施形態について、図5と図6に基づいて説明する。
[Embodiment 2]
An embodiment of the present invention will be described below with reference to FIGS. 5 and 6. FIG.

<点群再生装置200の構成>
図5に基づいて本実施形態に係る点群再生装置200の構成を説明する。点群再生装置200
は、パッチ情報復号部201、パッチ分割部202、パッチ復元部203、パッチ逆投影部204、および、点群復元部205を備えている。点群再生装置200は、入力される統合画像とパッチ情報に基づいて、統合画像に対応する点群を復元して出力する。例えば、点群再生装置200
は、実施形態1で説明した画像生成装置100から出力された統合画像とパッチ情報を入力
として、元の点群を復元して出力する。
<Structure of Point Group Reproduction Device 200>
The configuration of the point cloud reproduction device 200 according to this embodiment will be described based on FIG. Point cloud playback device 200
has a patch information decoding unit 201, a patch dividing unit 202, a patch restoring unit 203, a patch backprojecting unit 204, and a point group restoring unit 205. The point cloud reproduction device 200 restores and outputs a point cloud corresponding to the integrated image based on the input integrated image and patch information. For example, the point cloud reproduction device 200
receives the integrated image and patch information output from the image generating apparatus 100 described in the first embodiment, restores the original point cloud, and outputs it.

パッチ情報復号部201は、入力されるパッチ情報を処理して統合情報、調整情報、およ
び、投影情報を抽出してそれぞれ出力する。ここで、パッチ情報、統合情報、調整情報、および、投影情報は画像生成装置100において説明したものと同一であるため、詳細説明
は省略する。
The patch information decoding unit 201 processes input patch information, extracts integration information, adjustment information, and projection information, and outputs them. Here, the patch information, integration information, adjustment information, and projection information are the same as those described for the image generating apparatus 100, so detailed description thereof will be omitted.

パッチ分割部202は、入力される統合画像と入力される統合情報に基づいてパッチセッ
トを生成して出力する。統合情報には各パッチの統合画像上の位置とサイズに相当する情報が含まれる。その情報を利用して統合画像から切り出した各パッチの集合をパッチセットとする。
The patch division unit 202 generates and outputs patch sets based on the input integrated image and the input integrated information. The integrated information includes information corresponding to the position and size of each patch on the integrated image. A set of patches extracted from the integrated image using the information is defined as a patch set.

パッチ復元部203は、入力されるパッチセットと入力される調整情報に基づいてパッチ
セットを復元し、復元後のパッチセットを出力する。なお、パッチ復元部203は、画像生
成装置100が備えるパッチ変換部103に対応する構成要素である。すなわち、パッチ変換部103により変換されたパッチセットと調整情報を入力として、元のパッチセットを復元す
る機能を有する。パッチセット復元処理の詳細は後述する。
The patch restoration unit 203 restores the patch set based on the input patch set and the input adjustment information, and outputs the restored patch set. Note that the patch restoration unit 203 is a component corresponding to the patch conversion unit 103 included in the image generation apparatus 100. FIG. That is, it has a function of inputting the patch set converted by the patch conversion unit 103 and the adjustment information and restoring the original patch set. Details of the patch set restoration process will be described later.

パッチ逆投影部204は、入力されるパッチセットと入力される投影情報に基づいてパッ
チセットに対応する点群クラスタの集合を生成して出力する。なお、パッチ逆投影部204
は、画像生成装置100が備えるパッチ投影部102に対応する構成要素である。すなわち、パッチ投影部102によりパッチに投影された点群クラスタを、投影情報に基づいてパッチを
逆投影することで復元する。例えば、xy平面を投影面として正投影が適用されていることを投影情報が場合について説明する。統合画像上の画素位置(x0、y0)の画素にデプス値z0が記録されているとする。この場合、当該画素を逆投影した点の三次元位置は(x0、y0、z0)となる。なお、属性統合画像の場合は画素にデプス値に相当する情報が記録されていない場合がある。その場合は、属性統合画像に対応するジオメトリ統合画像を参照して得られるデプス値を使用する。
The patch backprojection unit 204 generates and outputs a set of point cloud clusters corresponding to the patch set based on the input patch set and the input projection information. Note that the patch backprojection unit 204
is a component corresponding to the patch projection unit 102 included in the image generating apparatus 100. FIG. That is, the point cloud cluster projected onto the patch by the patch projection unit 102 is restored by back-projecting the patch based on the projection information. For example, a case where the projection information indicates that orthographic projection is applied with the xy plane as the projection plane will be described. Assume that the depth value z0 is recorded in the pixel at the pixel position (x0, y0) on the integrated image. In this case, the three-dimensional position of the back-projected point of the pixel is (x0, y0, z0). In the case of an attribute-integrated image, information corresponding to a depth value may not be recorded in pixels. In that case, the depth value obtained by referring to the geometry-integrated image corresponding to the attribute-integrated image is used.

点群復元部205は、入力される点群クラスタの集合に基づいて点群を復元して出力する
。点群クラスタの座標系が共通である場合には、出力点群は点群クラスタの集合の単純な
結合により生成できる。一方、点群クラスタの座標が異なる場合には、各点群クラスタを共通の座標系の点群に変換した上で結合することで出力点群を生成できる。
The point cloud restoration unit 205 restores and outputs a point cloud based on the set of input point cloud clusters. If the point cloud clusters have a common coordinate system, the output point cloud can be generated by a simple union of the set of point cloud clusters. On the other hand, when the coordinates of the point cloud clusters are different, the output point cloud can be generated by converting each point cloud cluster into a point cloud of a common coordinate system and combining them.

<パッチ復元処理>
パッチ復元部203におけるパッチ復元処理について図6を参照して説明する。パッチ復元処理では図6に示したS201~S204の手順で入力されるパッチセットを変換して出力パッチ
セットを生成する。
<Patch restoration processing>
Patch restoration processing in the patch restoration unit 203 will be described with reference to FIG. In the patch restoration process, an output patch set is generated by converting the patch set input in the steps S201 to S204 shown in FIG.

(S201)パッチセットの中から未処理のパッチを選択し対象パッチとする。続いてS202を実行する。 (S201) An unprocessed patch is selected from the patch set as a target patch. Then S202 is executed.

(S202)調整情報を参照して対象パッチが調整対象パッチ(変換が適用されたパッチ)か否かを判定する。調整対象パッチである(S202でYES)の場合、続いてS203を実行する
。調整対象バッチではない(S202でNO)の場合、S205を実行する。
(S202) By referring to the adjustment information, it is determined whether or not the target patch is an adjustment target patch (a patch to which conversion has been applied). If it is a patch to be adjusted (YES in S202), then S203 is executed. If the batch is not an adjustment target (NO in S202), S205 is executed.

(S203)調整情報に基づき対象パッチを復元する。すなわち、調整情報が示す対象パッチに適用された変換の逆変換に相当する処理を適用することで対象パッチを復元する。例えば、調整情報が対象パッチに対し縦横半分の縮小変換が適用されていることを示す場合、対象パッチを縦横2倍の拡大変換を適用することで対象パッチを復元する。また、例え
ば、調整情報が対象パッチに対し時計周りに90度回転の変換が適用されていることを示す場合、対象パッチに対し反時計周りの90度回転の変換を適用することで対象パッチを復元する。
(S203) Restore the target patch based on the adjustment information. That is, the target patch is restored by applying a process corresponding to the inverse transformation of the conversion applied to the target patch indicated by the adjustment information. For example, if the adjustment information indicates that the target patch has been subjected to shrinking transformation by half vertically and horizontally, the target patch is restored by applying enlargement transformation by doubling the height and width of the target patch. Also, for example, if the adjustment information indicates that the target patch has been rotated 90 degrees clockwise, the target patch is rotated 90 degrees counterclockwise. Restore.

(S204)パッチセットに未処理のパッチが存在するかを判定し、未処理パッチが存在する場合(S204でYES)はS201を実行する。未処理パッチが存在しない場合(S204でNO)は
現在のパッチセットを出力して処理を終了する。
(S204) It is determined whether an unprocessed patch exists in the patch set, and if an unprocessed patch exists (YES in S204), S201 is executed. If there are no unprocessed patches (NO in S204), output the current patch set and terminate the process.

以上の手順により、パッチ復元部203は入力されるパッチセットと入力される調整情報
に基づいてパッチセットに変換を適用して復元する。
According to the above procedure, the patch restoration unit 203 restores the patch set by applying conversion based on the input patch set and the input adjustment information.

<点群再生装置200の動作>
以上説明した点群再生装置200に含まれる構成機能要素を連携することで、入力統合画
像と入力パッチ情報から点群を復元して出力する点群再生処理を実行できる。点群再生装置200における点群再生処理は以下の手順で実行される。
<Operation of Point Group Reproduction Device 200>
By linking the constituent functional elements included in the point cloud reproduction apparatus 200 described above, it is possible to execute point cloud reproduction processing for restoring and outputting a point cloud from an input integrated image and input patch information. The point cloud reproduction process in the point cloud reproduction device 200 is executed in the following procedure.

(S21)パッチ情報復号部201は、入力されるパッチ情報を復号して統合情報、調整情報、および、投影情報を抽出する。統合情報はパッチ分割部202へ、調整情報はパッチ復元
部203へ、投影情報はパッチ逆投影部204へそれぞれ出力される。
(S21) The patch information decoding unit 201 decodes the input patch information to extract integration information, adjustment information, and projection information. The integration information is output to the patch division unit 202, the adjustment information is output to the patch restoration unit 203, and the projection information is output to the patch backprojection unit 204, respectively.

(S22)パッチ分割部202は、入力される統合画像と入力される統合情報に基づいてパッチセットを導出してパッチ復元部203へ出力する。 (S22) The patch dividing unit 202 derives a patch set based on the input integrated image and the input integrated information, and outputs the patch set to the patch restoring unit 203. FIG.

(S23)パッチ復元部203は、入力されるパッチセットと、入力される調整情報に基づいてパッチセットを変換し、変換後のパッチセットをパッチ逆投影部204へ出力する。 (S23) The patch restoration unit 203 converts the patch set based on the input patch set and the input adjustment information, and outputs the converted patch set to the patch backprojection unit 204. FIG.

(S24)パッチ逆投影部204は、入力されるパッチセットに基づいて点群クラスタの集合を生成して点群復元部205へ出力する。 (S24) The patch backprojection unit 204 generates a set of point cloud clusters based on the input patch set, and outputs the set to the point cloud reconstruction unit 205. FIG.

(S25)点群復元部205は、入力される点群クラスタの集合に基づいて導出した点群を点群再生装置200の出力として外部へ出力する。 (S25) The point cloud reconstruction unit 205 outputs the point cloud derived based on the set of input point cloud clusters to the outside as the output of the point cloud reproduction device 200. FIG.

以上説明した点群再生装置200によれば、所望の解像度指定に適合するよう生成された
統合画像とパッチ情報から点群を再生できる。特に、点群再生装置200は、パッチ情報に
含まれる調整情報に基づいてパッチセットを変換するパッチ復元部203を備えている。パ
ッチ復元部203により、画像生成装置100の備えるパッチ変換部103において、所望の解像
度指定に適合するよう変換されたパッチに逆変換を適用し、変換前に相当する状態に戻すことができる。したがって、当該逆変換を適用しない場合に較べて、再生される点群の品質を高く維持できる。例えば、縦横半分に縮小したパッチをそのまま逆投影して点群クラスタを導出した場合、点群クラスタに含まれる点の数は、元の点群クラスタに含まれる点の数の四分の一になる。一方、縮小したパッチに逆変換の拡大を適用して得られるパッチを逆投影して得られる点群クラスタではそのような点の数の減少は発生しない。
According to the point cloud reproducing apparatus 200 described above, a point cloud can be reproduced from patch information and an integrated image generated so as to conform to desired resolution designation. In particular, the point cloud reproduction device 200 includes a patch restoration unit 203 that converts patch sets based on adjustment information included in patch information. The patch restoration unit 203 can apply inverse transformation to the patches that have been converted so as to meet the desired resolution specification in the patch conversion unit 103 provided in the image generating apparatus 100, and restore the state before the conversion. Therefore, the quality of the reproduced point cloud can be maintained higher than when the inverse transform is not applied. For example, if a point cloud cluster is derived by back-projecting a patch that has been reduced in half vertically and horizontally, the number of points included in the point cloud cluster will be a quarter of the number of points included in the original point cloud cluster. Become. On the other hand, such a reduction in the number of points does not occur in the point cloud cluster obtained by back-projecting the patch obtained by applying the expansion of the inverse transformation to the reduced patch.

〔実施形態3〕
以下、本発明の一実施形態について、図7~図9に基づいて説明する。
[Embodiment 3]
An embodiment of the present invention will be described below with reference to FIGS. 7 to 9. FIG.

<画像生成装置300の構成>
図7に基づいて本実施形態に係る画像生成装置300の構成を説明する。画像生成装置300
は、一次分割部301、クラスタ分割部101、パッチ投影部102、パッチ変換部103、パッチ統合部104、および、パッチ情報符号化部105を備えている。画像生成装置300は、概略的に
は、画像生成装置100に一次分割部301を追加した構成である。画像生成装置100と共通の
構成要素には同一の符号を付与して説明を省略する。
<Configuration of image generation device 300>
The configuration of the image generation device 300 according to this embodiment will be described based on FIG. Image generation device 300
includes a primary division unit 301, a cluster division unit 101, a patch projection unit 102, a patch conversion unit 103, a patch integration unit 104, and a patch information encoding unit 105. Schematically, the image generating device 300 has a configuration obtained by adding a primary dividing unit 301 to the image generating device 100. FIG. Components common to the image generating apparatus 100 are denoted by the same reference numerals, and descriptions thereof are omitted.

画像生成装置300は、入力される点群から当該点群を表現する1または複数の統合画像を生成して出力する。出力の各統合画像は、入力される解像度指定に従った解像度となる。 The image generation device 300 generates and outputs one or more integrated images representing the point group from the input point group. Each output integrated image has a resolution according to the input resolution specification.

一次分割部301は、入力される点群と解像度指定に基づいて点群分割方法を決定し、当
該分割方法に基づいて分割した点群を順次出力する。一次分割部301は、加えて点群分割
方法に関する情報を一次分割情報として出力する。
The primary division unit 301 determines the point group division method based on the input point group and the specified resolution, and sequentially outputs the point groups divided based on the division method. The primary division unit 301 additionally outputs information on the point group division method as primary division information.

パッチ情報符号化部105は、基本的には実施形態1で説明したパッチ情報符号化105と同
等の機能を有する。本実施形態においては、追加で、一次分割情報を入力として出力のパッチ情報に含める機能を提供する。
The patch information encoding unit 105 basically has functions equivalent to those of the patch information encoding 105 described in the first embodiment. This embodiment additionally provides a function of including primary division information as an input in the output patch information.

一次分割部301における点群分割例について図8を参照して説明する。図8(a)は直方体形状の点群OBJを2個のサブ点群OBJaとOBJbに分割する様子を例示している。一次分割部301は、点群OBJを構成する点の数と解像度指定を参照した上で、解像度指定を満たす解像度の統合画像となるような点群となるよう入力点群を分割する。入力点群を構成する点の数と統合画像の解像度には相関関係があるため、事前に設定した記述に基づき分割数を決定できる。例えば、100万点の点群から1920×1080の統合画像が生成されるという観測に基
づくとする。その場合、入力点群が200万点、解像度指定が1920×1080の場合は入力点群
を2個のサブ点群に分割すると決定する。解像度指定が1920×540の場合は入力点群を4個
のサブ点群に分割すると決定する。点群の分割方法には表面積が増加しない限りにおいて任意の方法を適用できる。例えば、点群の重心と分布を調べ、重心を通過する平面で点群を分割する。図8(a)の例では、直方体の重心を通り直方体の上面と下面に平行な面で点群を分割することでサブ点群を導出している。
An example of point group division in the primary division unit 301 will be described with reference to FIG. FIG. 8(a) illustrates how the cuboidal point group OBJ is divided into two sub-point groups OBJa and OBJb. The primary dividing unit 301 refers to the number of points forming the point cloud OBJ and the specified resolution, and then divides the input point cloud so as to form a point cloud that becomes an integrated image with a resolution that satisfies the specified resolution. Since there is a correlation between the number of points forming the input point cloud and the resolution of the integrated image, the number of divisions can be determined based on a description set in advance. For example, based on the observation that a point cloud of 1 million points produces a 1920×1080 integrated image. In that case, if the input point cloud is 2 million points and the specified resolution is 1920×1080, it is decided to divide the input point cloud into two sub-point clouds. When the specified resolution is 1920×540, it is decided to divide the input point cloud into four sub-point clouds. Any method can be applied to the method of dividing the point group as long as the surface area does not increase. For example, examine the centroid and distribution of the point cloud, and divide the point cloud by planes passing through the centroid. In the example of FIG. 8(a), sub-point groups are derived by dividing the point group along planes parallel to the upper and lower surfaces of the rectangular parallelepiped that pass through the center of gravity of the rectangular parallelepiped.

一次分割情報は、少なくとも分割数の情報を含む。図8(a)の例の場合は、一次分割情報は分割数2を情報として含む。 The primary division information includes at least division number information. In the example of FIG. 8(a), the primary division information includes the division number 2 as information.

分割された各サブ点群はクラスタ分割部101とパッチ投影部102で順に処理され、既に記
載した方法でパッチセットに変換される。図8(b)は、図8(a)に示す通り分割された
サブ点群OBJaとOBJbから生成されるパッチセットを図示している。サブ点群OBJaからパッチFS1a、FS2a、FS3a、FS4a、FTを含むパッチセットが導出される。サブ点群OBJbからパッチFS1b、FS2b、FS3b、FS4b、FBを含むパッチセットが導出される。
Each divided sub-point cloud is sequentially processed by the cluster division unit 101 and the patch projection unit 102, and converted into a patch set by the method already described. FIG. 8(b) illustrates patch sets generated from the sub-point clouds OBJa and OBJb divided as shown in FIG. 8(a). A patch set containing patches FS1a, FS2a, FS3a, FS4a, FT is derived from the sub-point cloud OBJa. A patch set containing patches FS1b, FS2b, FS3b, FS4b, FB is derived from the sub-point cloud OBJb.

解像度指定が3U×2Uの場合にサブ点群OBJaに対応するパッチセットから構成される統合画像の例を図9(a)に示す。パッチセットに含まれるパッチFS1a、FS2a、FS3a、FS4a、FTをそのまま含んで統合画像が構成される。解像度指定を考慮して一次分割部301において
点群を分割しているため、各パッチは縮小等の変換を適用することなくそのまま統合画像に収めることができる。したがって、変換の適用による点群の精度低下を抑制できる。同様に、解像度指定が3U×2Uの場合にサブ点群OBJbに対応するパッチセットから構成される統合画像の例を図9(b)に図示する。また、比較のため、解像度指定3U×2Uの場合に点群OBJ全体に対応するパッチセットから構成される統合画像の例を図9(c)に示す。図9(c)のパッチFS1は図9(a)のパッチFS1aと図9(b)のパッチFS1bを結合したものに相当す
る。FS1の幅はFS1aとFS1bの結合した場合の半分に縮小されていることが確認できる。
FIG. 9(a) shows an example of an integrated image composed of patch sets corresponding to the sub-point cloud OBJa when the resolution is specified as 3U×2U. An integrated image is constructed by directly including patches FS1a, FS2a, FS3a, FS4a, and FT included in the patch set. Since the point cloud is divided by the primary division unit 301 in consideration of the resolution designation, each patch can be stored in the integrated image as it is without applying conversion such as reduction. Therefore, it is possible to suppress the decrease in accuracy of the point cloud due to the application of the transform. Similarly, FIG. 9(b) shows an example of an integrated image composed of patch sets corresponding to the sub-point cloud OBJb when the specified resolution is 3U×2U. For comparison, FIG. 9C shows an example of an integrated image composed of patch sets corresponding to the entire point cloud OBJ when the resolution is specified as 3U×2U. Patch FS1 in FIG. 9(c) corresponds to a combination of patch FS1a in FIG. 9(a) and patch FS1b in FIG. 9(b). It can be seen that the width of FS1 is reduced to half of the width of FS1a and FS1b combined.

点群全体を再生するためには全ての統合画像を処理する必要があり、トータルの処理量の観点では削減はできない。しかしながら、一度に処理すべき統合画像の解像度は解像度指定以下に抑制されているため、処理に必要なフレームメモリ等の計算リソース要求を低減できる。 In order to reproduce the entire point cloud, it is necessary to process all integrated images, and the total amount of processing cannot be reduced. However, since the resolution of the integrated image to be processed at one time is suppressed to the specified resolution or less, the demand for computational resources such as frame memory required for processing can be reduced.

<画像生成装置300の動作>
以上説明した画像生成装置300に含まれる構成機能要素を連携することで、画像生成処
理は入力点群から解像度指定に基づいて統合画像とパッチ情報を生成して出力する画像生成処理を実行できる。画像生成装置100における画像生成処理は以下の手順で実行される
<Operation of Image Generation Device 300>
By linking the constituent functional elements included in the image generating apparatus 300 described above, the image generating process can execute the image generating process of generating and outputting the integrated image and patch information from the input point cloud based on the specified resolution. Image generation processing in the image generation device 100 is executed in the following procedure.

(S31)一次分割部301は、入力された点群を入力の解像度指定に基づき分割し、分割結果の点群を順にクラスタ分割部101に出力する。加えて一次分割情報をパッチ情報符号化
部105へ出力する。続いてS32を実行する。
(S31) The primary division unit 301 divides the input point cloud based on the input resolution designation, and outputs the resulting point clouds to the cluster division unit 101 in order. In addition, primary division information is output to patch information encoding section 105 . Then S32 is executed.

(S32)クラスタ分割部101は、入力された点群にクラスタリングを適用して複数の点群クラスタを生成してパッチ投影部102に出力する。続いてS33を実行する。 (S32) The cluster division unit 101 applies clustering to the input point cloud to generate a plurality of point cloud clusters and outputs them to the patch projection unit . Then S33 is executed.

(S33)パッチ投影部102は、入力された複数の点群クラスタをそれぞれ投影することでパッチセットを生成してパッチ変換部103に出力する。パッチ投影部102は、加えて、投影情報を生成してパッチ情報符号化部105に出力する。続いてS34を実行する。 (S33) The patch projection unit 102 generates a patch set by projecting each of the input point cloud clusters, and outputs the patch set to the patch conversion unit 103. FIG. The patch projection unit 102 additionally generates projection information and outputs it to the patch information encoding unit 105 . Then S34 is executed.

(S34)パッチ変換部103は、入力されたパッチセットを、入力された解像度指定に基づいて変換し、変換後のパッチセットをパッチ統合部104に出力する。パッチ変換部103は、加えて、調整情報を生成してパッチ情報符号化部105に出力する。続いてS35を実行する。 (S34) Patch conversion section 103 converts the input patch set based on the input resolution specification, and outputs the converted patch set to patch integration section 104. FIG. Patch conversion section 103 also generates adjustment information and outputs it to patch information encoding section 105 . Then S35 is executed.

(S34)パッチ統合部104は、入力されたパッチセットをパッキングして統合画像を生成して画像生成装置100の出力として外部に出力する。S31で分割された全ての点群の処理が完了していればS35へ進み、そうでなければ未処理の点群を対象としてS32へ進む。 (S34) The patch integration unit 104 packs the input patch set to generate an integrated image, and outputs the integrated image as an output of the image generating apparatus 100 to the outside. If the processing of all the point groups divided in S31 has been completed, proceed to S35, otherwise proceed to S32 for the unprocessed point groups.

(S35)パッチ情報符号化部105は、入力された一次分割情報、投影情報、調整情報、および、統合情報に基づいてパッチ情報を生成して画像生成装置300の出力として外部に出
力する。
(S35) The patch information encoding unit 105 generates patch information based on the input primary division information, projection information, adjustment information, and integration information, and outputs the patch information to the outside as an output of the image generation device 300. FIG.

以上説明した画像生成装置300によれば、入力点群から解像度指定に基づいて統合画像
とパッチ情報を生成して出力できる。画像生成装置300では、一次分割部301を備えることで解像度指定の制約を満たす統合画像を生成できる。従って、画像生成装置300を用いる
ことで、入力される点群の性質によらず所望のメモリ消費や画像処理の制約を満たす解像度で点群を表現する統合画像を生成して出力できる。また、画像生成装置300で生成した
統合画像は、同じく生成されるパッチ情報を併用することで、元の点群を再生することができる。再生の例については、点群再生装置400として別途記載する。
According to the image generation device 300 described above, an integrated image and patch information can be generated and output from an input point cloud based on a specified resolution. The image generation device 300 is provided with the primary division unit 301, so that an integrated image that satisfies the restriction of specifying the resolution can be generated. Therefore, by using the image generation device 300, it is possible to generate and output an integrated image that expresses the point cloud at a resolution that satisfies desired memory consumption and image processing constraints regardless of the properties of the input point cloud. In addition, the integrated image generated by the image generation device 300 can reproduce the original point cloud by using the patch information that is also generated. An example of reproduction will be described separately as a point group reproduction device 400. FIG.

<実施形態3の変形例1>
上記の実施形態3における図7に示した画像生成装置300の構成はパッチ変換部103を含んでいたが、パッチ変換部103を省略した構成でもよい。一次分割部301において統合画像が解像度指定以下であることを担保する場合には、パッチ変化部103を省略しても目的を達
成でき、かつ画像生成装置の処理量および回路規模を低減できる。
<Modification 1 of Embodiment 3>
Although the configuration of the image generation device 300 shown in FIG. 7 in the third embodiment includes the patch conversion unit 103, the configuration without the patch conversion unit 103 may be used. If the primary division unit 301 guarantees that the integrated image has a resolution equal to or less than the designated resolution, the object can be achieved even if the patch change unit 103 is omitted, and the processing amount and circuit scale of the image generation device can be reduced.

なお、パッチ変換部103を含んだ構成の場合は、一次分割部301における分割の自由度が増す利点がある。例えば入力点群の点の数が極端に多い場合、一次分割部301だけで対応
すると多数のサブ点群に分割する必要が生じ、分割によるオーバヘッドが問題となる場合がある。そのような場合でもパッチ変換部103を併用することで、分割数を抑えつつ所望
の解像度の統合画像により入力点群を表現できる。
Note that the configuration including the patch conversion unit 103 has the advantage that the degree of freedom of division in the primary division unit 301 increases. For example, when the number of points in the input point cloud is extremely large, if only the primary dividing unit 301 is used, it will be necessary to divide it into a large number of sub-point clouds, and overhead due to division may become a problem. Even in such a case, by using the patch conversion unit 103 together, the input point group can be represented by an integrated image with a desired resolution while suppressing the number of divisions.

<実施形態3の変形例2>
上記の実施形態3における画像生成装置300の説明では、一次分割部301で決定した一つ
の分割方法で入力点群を分割し、各分割点群に対応する統合画像を出力する手順を説明した。それに限らず、画像生成装置300は複数の分割方法について対応する統合画像を出力
するよう構成してもよい。例えば、図8の直方体を入力とする場合、直方体を二分割した
場合の各サブ点群に対応する2枚の統合画像、および、直方体を分割しない場合の点群に
対応する1枚の統合画像を出力するよう構成する。加えて、一次分割情報として、出力す
る分割方法の数と、各分割方法に対応する統合画像のマップ情報を含める。これにより、統合画像を処理する側で計算リソースを考慮して適切な分割方法に対応する統合画像を選択して処理する機能が実現できる。
<Modification 2 of Embodiment 3>
In the description of the image generation device 300 in the above third embodiment, the procedure for dividing the input point group by one dividing method determined by the primary dividing unit 301 and outputting the integrated image corresponding to each divided point group has been described. The image generation device 300 is not limited to this, and may be configured to output integrated images corresponding to a plurality of division methods. For example, when the cuboid in Fig. 8 is input, two integrated images corresponding to each sub-point cloud when the cuboid is divided into two, and one integrated image corresponding to the point cloud when the cuboid is not divided configured to output In addition, the primary division information includes the number of division methods to be output and the map information of the integrated image corresponding to each division method. This makes it possible to implement a function of selecting and processing an integrated image corresponding to an appropriate division method in consideration of computational resources on the integrated image processing side.

<実施形態3の変形例3>
上記の実施形態3における一次分割部301の説明で入力点群の分割方法を紹介したが、他の分割方法を適用してもよい。例えば、既定の視点セットを定義し、解像度指定と当該視点セットの両方に基づいて対象を分割してもよい。具体的には、視点セットに含まれる視点の近傍から観察される点を含んでサブ点群を構成する。得られたサブ点群が解像度指定の要件を考慮して大きすぎる場合には、当該サブ点群をさらに分割することで最終的なサブ点群を得る。加えて、いずれの視点に対応するサブ点群にも含まれない点から別のサブ点群を構成する。このような構成により、統合画像から再生される点群の観察時の視点が、上記視点セットに含まれる視点の近傍である場合に、全てのサブ点群を処理せず、当該視点に対応するサブ点群のみを処理すればよいため処理量を低減できる。
<Modification 3 of Embodiment 3>
Although the method of dividing the input point group has been introduced in the description of the primary division unit 301 in the third embodiment, other division methods may be applied. For example, a default set of viewpoints may be defined and the object split based on both the resolution specification and the set of viewpoints. Specifically, a sub-point group is configured including points observed from the vicinity of the viewpoints included in the viewpoint set. If the resulting sub-point cloud is too large considering the requirements of specifying the resolution, the sub-point cloud is further divided to obtain the final sub-point cloud. In addition, another sub-point cloud is constructed from points that are not included in the sub-point cloud corresponding to any viewpoint. With such a configuration, when the viewpoint at the time of observation of the point group reproduced from the integrated image is in the vicinity of the viewpoint included in the viewpoint set, all the sub-point groups are not processed, and the corresponding viewpoint is processed. The amount of processing can be reduced because only sub-point clouds need to be processed.

なお、既定の視点セットではなく、画像生成装置に視点セットを追加の入力とした上で、一次分割部301に視点セットが入力されるような構成としてもよい。その場合、画像生
成装置の利用者が所望の視点を設定した上で統合画像を生成できる。例えば、点群観察時のユーザの視点の統計を用いて確立が高い視点を入力視点セットに含めることで、平均的な処理量を低減できる。
Note that the viewpoint set may be input to the primary dividing unit 301 after the viewpoint set is additionally input to the image generation device instead of the default viewpoint set. In this case, the user of the image generation device can generate the integrated image after setting the desired viewpoint. For example, the average amount of processing can be reduced by including viewpoints with a high probability in the input viewpoint set using the statistics of the viewpoints of the user when observing the point cloud.

〔実施形態4〕
以下、本発明の一実施形態について、図10~図11に基づいて説明する。
[Embodiment 4]
An embodiment of the present invention will be described below with reference to FIGS. 10 and 11. FIG.

<点群再生装置400の構成>
図10に基づいて本実施形態に係る点群再生装置400の構成を説明する。点群再生装置400は、統合画像選択部401、パッチ情報復号部201、パッチ分割部202、パッチ復元部203、パッチ逆投影部204、および、点群復元部205を備えている。点群再生装置400は、概略的に
は、点群再生装置200に統合画像選択部401を追加した構成である。点群再生装置200と共
通の構成要素については同一の符号を付与して説明を省略する。
<Structure of Point Group Reproduction Device 400>
The configuration of the point cloud reproduction device 400 according to this embodiment will be described based on FIG. The point cloud reconstruction device 400 includes an integrated image selection unit 401 , a patch information decoding unit 201 , a patch division unit 202 , a patch reconstruction unit 203 , a patch backprojection unit 204 and a point cloud reconstruction unit 205 . The point cloud reproduction device 400 is roughly configured by adding an integrated image selection unit 401 to the point cloud reproduction device 200 . Constituent elements common to the point group reproduction device 200 are given the same reference numerals and explanations thereof are omitted.

点群再生装置400は、入力される統合画像、パッチ情報、および、視点情報に基づいて
、統合画像に対応する点群を復元して出力する。例えば、点群再生装置400は、実施形態
3の変形例3で説明した画像生成装置400から出力された複数の統合画像とパッチ情報を
入力として、元の点群を復元して出力する。
The point cloud reproduction device 400 restores and outputs a point cloud corresponding to the integrated image based on the input integrated image, patch information, and viewpoint information. For example, the point cloud reproduction device 400 receives as input a plurality of integrated images and patch information output from the image generation device 400 described in Modification 3 of Embodiment 3, and restores and outputs the original point cloud.

統合画像選択部401は、入力されるパッチ情報と視点情報に基づいて複数の入力統合画
像から処理対象の統合画像を選択して出力する。加えて、パッチ情報を出力する。
The integrated image selection unit 401 selects and outputs an integrated image to be processed from a plurality of input integrated images based on input patch information and viewpoint information. In addition, output patch information.

統合画像選択部401における選択の例について図11を参照して説明する。図11は直方体
の対象OBJと視点VP1、VP2、VP3の関係を表した図である。なお、直方体OBJとその分割OBJa、OBJbは図8で説明したものと同じである。統合画像としては、実施形態3の変形例3で説明した方法により生成された3枚の統合画像が入力されると仮定して説明する。すなわ
ち、入力統合画像は図9に示す3枚の統合画像を含む。入力統合画像に含まれる統合画像の枚数は入力されるパッチ情報に含まれる。
An example of selection in integrated image selection section 401 will be described with reference to FIG. FIG. 11 is a diagram showing the relationship between a cuboid target OBJ and viewpoints VP1, VP2, and VP3. The cuboid OBJ and its divisions OBJa and OBJb are the same as those explained in FIG. Description will be made on the assumption that three integrated images generated by the method described in Modification 3 of Embodiment 3 are input as integrated images. That is, the input integrated image includes the three integrated images shown in FIG. The number of integrated images included in the input integrated image is included in the input patch information.

統合画像選択部401の動作例として、視点情報として視点VP1が指定された場合、OBJaに対応する統合画像、すなわち図9(a)の統合画像を選択する。視点VP1は直方体の上方に
位置するため、視点VP1からは直方体の上側が主に観察される。そのため、直方体の上半
分に相当するOBJaに対応する統合画像から点群を再生することで、復元の処理量を抑制しつつ視点VP1からの観察に十分な点群を再生できる。同様に、視点情報として視点VP2が指定された場合、OBJbに対応する統合画像、すなわち図9(b)の統合画像を選択する。また、視点情報として視点VP3が指定された場合、OBJ全体に対応する統合画像、すなわち図9
(c)の統合画像を選択する。視点VP3からは直方体OBJの全体が観察されるため、直方体
全体の点群を表現する統合画像の方が、直方体の一部を表現する統合画像よりも好ましい。いずれの統合画像を選択した場合でも、解像度は一定以下に抑制されているため制限された計算リソースでも処理が可能となる。
As an operation example of the integrated image selection unit 401, when the viewpoint VP1 is specified as the viewpoint information, the integrated image corresponding to OBJa, that is, the integrated image shown in FIG. 9A is selected. Since the viewpoint VP1 is located above the rectangular parallelepiped, the upper side of the rectangular parallelepiped is mainly observed from the viewpoint VP1. Therefore, by reproducing the point cloud from the integrated image corresponding to OBJa corresponding to the upper half of the rectangular parallelepiped, it is possible to reproduce the point cloud sufficient for observation from the viewpoint VP1 while suppressing the amount of restoration processing. Similarly, when the viewpoint VP2 is specified as the viewpoint information, the integrated image corresponding to OBJb, that is, the integrated image shown in FIG. 9B is selected. In addition, when the viewpoint VP3 is specified as the viewpoint information, the integrated image corresponding to the entire OBJ, that is, Fig. 9
(c) Select the merged image. Since the entire rectangular parallelepiped OBJ can be observed from the viewpoint VP3, an integrated image representing the point group of the entire rectangular parallelepiped is preferable to an integrated image representing a part of the rectangular parallelepiped. Regardless of which integrated image is selected, the resolution is suppressed to a certain level or less, so processing is possible even with limited computational resources.

上記の内容を言い換えると、統合画像選択部401は、視点情報が示す視点から観察可能
な点群を多数含み、かつ、視点から観察不可能な点群を少数含む基準で統合画像を選択する。
In other words, the integrated image selection unit 401 selects an integrated image based on the criteria of including a large number of point groups observable from the viewpoint indicated by the viewpoint information and a small number of point groups not observable from the viewpoint.

<点群再生装置400の動作>
以上説明した点群再生装置400に含まれる構成機能要素を連携することで、入力視点情
報に基づき選択された統合画像と入力パッチ情報から点群を復元して出力する点群再生処理を実行できる。点群再生装置400における点群再生処理は以下の手順で実行される。
<Operation of Point Group Reproduction Device 400>
By linking the constituent functional elements included in the point cloud reproduction device 400 described above, it is possible to execute point cloud reproduction processing for restoring and outputting a point cloud from an integrated image selected based on input viewpoint information and input patch information. . The point cloud reproduction process in the point cloud reproduction device 400 is executed in the following procedure.

(S41)統合画像選択部401は、入力されるパッチ情報と入力される視点情報に基づいて選択した統合画像をパッチ分割部202へ出力する。加えて、パッチ情報をパッチ情報復号
部201へ出力する。
(S41) The integrated image selection unit 401 outputs to the patch division unit 202 the integrated image selected based on the input patch information and the input viewpoint information. In addition, patch information is output to patch information decoding section 201 .

(S42)パッチ情報復号部201は、入力されるパッチ情報を復号して統合情報、調整情報、および、投影情報を抽出する。統合情報はパッチ分割部202へ、調整情報はパッチ復元
部203へ、投影情報はパッチ逆投影部204へそれぞれ出力される。
(S42) The patch information decoding unit 201 decodes the input patch information to extract integration information, adjustment information, and projection information. The integration information is output to the patch division unit 202, the adjustment information is output to the patch restoration unit 203, and the projection information is output to the patch backprojection unit 204, respectively.

(S43)パッチ分割部202は、入力される統合画像と入力される統合情報に基づいてパッチセットを導出してパッチ復元部203へ出力する。 (S43) The patch dividing unit 202 derives a patch set based on the input integrated image and the input integrated information, and outputs the patch set to the patch restoring unit 203. FIG.

(S44)パッチ復元部203は、入力されるパッチセットと、入力される調整情報に基づいてパッチセットを変換し、変換後のパッチセットをパッチ逆投影部204へ出力する。 (S44) The patch restoration unit 203 converts the patch set based on the input patch set and the input adjustment information, and outputs the converted patch set to the patch backprojection unit 204. FIG.

(S45)パッチ逆投影部204は、入力されるパッチセットに基づいて点群クラスタの集合を生成して点群復元部205へ出力する。 (S45) The patch backprojection unit 204 generates a set of point cloud clusters based on the input patch set, and outputs the set to the point cloud reconstruction unit 205. FIG.

(S46)点群復元部205は、入力される点群クラスタの集合に基づいて導出した点群を点群再生置400の出力として外部へ出力する。 (S46) The point cloud reconstruction unit 205 outputs the point cloud derived based on the set of input point cloud clusters to the outside as the output of the point cloud reconstruction unit 400. FIG.

以上説明した点群再生装置400によれば、所望の解像度指定に適合するよう生成された
統合画像とパッチ情報から点群を再生できる。特に、点群再生装置400は、統合画像選択
部401を備えており、視点情報に応じて統合画像を選択することで、点群復元に必要な計
算リソースを一定以下に抑制しつつ、視点近傍から観察した点群の品質をより良い状態で復元できる。
According to the point cloud reproduction device 400 described above, a point cloud can be reproduced from the integrated image and patch information generated so as to meet the desired resolution specification. In particular, the point cloud reproduction device 400 includes an integrated image selection unit 401, which selects an integrated image according to viewpoint information. It can restore the quality of the point cloud observed from .

〔実施形態5〕
以下、本発明の一実施形態について、図12に基づいて説明する。
[Embodiment 5]
An embodiment of the present invention will be described below with reference to FIG.

<点群符号化装置1000の構成>
図12(a)に基づいて本実施形態に係る点群符号化装置1000の構成を説明する。点群符
号化装置1000は、画像生成部100、ビデオ符号化部1001、3Dデータ多重化部1002、および
、処理解像度設定部1003を備えている。点群符号化装置1000は、入力された点群を圧縮および符号化して3Dデータを生成して出力する。
<Configuration of point group encoding device 1000>
The configuration of the point group encoding device 1000 according to this embodiment will be described based on FIG. 12(a). The point cloud encoding device 1000 includes an image generation unit 100, a video encoding unit 1001, a 3D data multiplexing unit 1002, and a processing resolution setting unit 1003. The point cloud encoding device 1000 compresses and encodes the input point cloud to generate and output 3D data.

画像生成部100は、実施形態1で説明した画像生成装置100と同一の機能を有する機能ブ
ロックである。
The image generator 100 is a functional block having the same functions as the image generator 100 described in the first embodiment.

ビデオ符号化部1001は、時系列の画像を入力として圧縮・符号化して対応する2Dデータを生成して出力する。ビデオ符号化部1001としては、一般的に普及したビデオ符号化方式を用いることができる。例えば、AVC(Advanced Video Coding)やHEVC(High Efficiency Video Coding)の方式を適用可能である。なお、画像生成部100の出力は統合画像であ
るが、統合画像であっても通常の画像として処理することが可能である。
A video encoding unit 1001 receives time-series images as input, compresses and encodes them, and generates and outputs corresponding 2D data. As the video encoding unit 1001, a popular video encoding method can be used. For example, AVC (Advanced Video Coding) and HEVC (High Efficiency Video Coding) schemes are applicable. Note that the output of the image generation unit 100 is an integrated image, but even an integrated image can be processed as a normal image.

3Dデータ多重化部1002は、少なくとも2Dデータとパッチ情報を多重化することで生成した3Dデータを出力する。 A 3D data multiplexing unit 1002 outputs 3D data generated by multiplexing at least 2D data and patch information.

処理解像度設定部1003は、点群復号装置が備えるビデオ復号部に想定される処理性能に基づいて処理解像度を決定して出力する。例えば、多くのビデオ符号化方式では、プロファイルやレベルによりビデオ復号に要求される処理性能を記述することができる。例えば、HEVCにおけるレベル4.1はビデオ復号が1920×1080程度の画像に相当するデータが処理
できることを示す。したがって、HEVCレベル4.1に対応したビデオ復号部で処理されるこ
とを意図した3Dデータを生成する場合、処理解像度設定部1003は1920×1080の解像度を処理解像度に設定して出力する。なお、ビデオ復号部の処理性能を何らかの通信手段により受信し、受信した処理性能に基づいて処理解像度を設定する構成としてもよい。
The processing resolution setting unit 1003 determines and outputs the processing resolution based on the processing performance assumed for the video decoding unit provided in the point cloud decoding device. For example, in many video coding schemes, profiles and levels can describe the processing performance required for video decoding. For example, level 4.1 in HEVC indicates that video decoding can process data equivalent to an image of about 1920×1080. Therefore, when generating 3D data intended to be processed by a video decoding unit compatible with HEVC level 4.1, the processing resolution setting unit 1003 sets the processing resolution to 1920×1080 and outputs it. The processing performance of the video decoding unit may be received by some communication means, and the processing resolution may be set based on the received processing performance.

<点群符号化装置1000の動作>
以上説明した点群符号化装置1000に含まれる構成機能要素を連携することで、入力点群を圧縮符号化した3Dデータを生成して出力できる。点群符号化装置1000における点群再生処理は以下の手順で実行される。
<Operation of Point Group Encoding Device 1000>
By linking the constituent functional elements included in the point cloud encoding device 1000 described above, it is possible to generate and output 3D data obtained by compressing and encoding the input point cloud. Point cloud reproduction processing in the point cloud encoding device 1000 is executed in the following procedure.

(S51)処理解像度設定部1003は、3Dデータの復号処理を行う装置の処理性能に基づい
て処理解像度を決定し画像生成部100へ解像度指定として出力する。
(S51) The processing resolution setting unit 1003 determines the processing resolution based on the processing performance of the device that decodes the 3D data, and outputs the processing resolution to the image generation unit 100 as a specified resolution.

(S52)画像生成部100は、入力される点群と解像度指定に基づいて統合画像とパッチ情報を生成する。統合画像はビデオ符号化部1001へ出力され、パッチ情報は3Dデータ多重化部1002へ出力される。 (S52) The image generation unit 100 generates an integrated image and patch information based on the input point cloud and the specified resolution. The integrated image is output to the video encoding unit 1001, and the patch information is output to the 3D data multiplexing unit 1002.

(S53)ビデオ符号化部1001は、入力される統合画像を圧縮および符号化して生成され
た2Dデータを3Dデータ多重化装置1002へ出力する。
(S53) The video encoding unit 1001 outputs 2D data generated by compressing and encoding the input integrated image to the 3D data multiplexing device 1002.

(S54)3Dデータ多重化部1002は、入力される2Dデータとパッチ情報を多重化して生成
された3Dデータを点群符号化装置1000の出力とする。
(S54) The 3D data multiplexing unit 1002 outputs the 3D data generated by multiplexing the input 2D data and patch information to the point group encoding device 1000. FIG.

以上説明した点群符号化装置1000によれば、入力される3Dデータの点の数や性質によらず、所定の計算リソースを想定したビデオ復号部を備える点群復号装置をターゲットとした3Dデータを生成できる。特に、点群符号化装置1000は、画像生成部100を備えているた
め、ビデオ復号部の計算リソースで処理可能な解像度を指定して3Dデータから統合画像を生成し、当該統合画像を符号化した2Dデータを含んで3Dデータを構成できる。
According to the point cloud encoding device 1000 described above, regardless of the number and properties of points in the input 3D data, 3D data targeted for a point cloud decoding device equipped with a video decoding unit assuming predetermined computational resources. can generate In particular, since the point cloud encoding device 1000 includes the image generation unit 100, it designates a resolution that can be processed by the computational resources of the video decoding unit, generates an integrated image from 3D data, and encodes the integrated image. 3D data can be constructed by including 2D data that has been processed.

<点群復号装置2000の構成>
図12(b)に基づいて本実施形態に係る点群復号装置2000の構成を説明する。点群復号
装置2000は、点群再生部200、ビデオ復号部2001、および、3Dデータ逆多重化部2002を備
えている。点群復号装置2000は、点群符号化装置1000で生成された3Dデータを入力として、元の点群を復元して出力する。
<Configuration of Point Group Decoding Device 2000>
The configuration of the point group decoding device 2000 according to this embodiment will be described based on FIG. 12(b). The point cloud decoding device 2000 includes a point cloud reproducing unit 200, a video decoding unit 2001, and a 3D data demultiplexing unit 2002. The point cloud decoding device 2000 receives the 3D data generated by the point cloud encoding device 1000, restores the original point cloud, and outputs it.

点群再生部200は、実施形態2で説明した点群再生装置200と同一の機能を有する機能ブ
ロックである。
The point cloud reproduction unit 200 is a functional block having the same functions as the point cloud reproduction device 200 described in the second embodiment.

ビデオ復号部2001は、特定の方式で圧縮符号化された2Dデータから元の画像を復元して出力する。圧縮符号化の方式としては、ビデオ符号化部1001と同様の方式を用いる。例えばAVCやHEVCを用いる。なお、2Dデータの生成に用いられた方式と同一の方式を用いる必
要がある。
A video decoding unit 2001 restores and outputs an original image from 2D data that has been compression-encoded by a specific method. As a compression encoding method, the same method as that of the video encoding unit 1001 is used. For example, use AVC or HEVC. Note that the same method used to generate the 2D data should be used.

3Dデータ逆多重化部2002は、入力される3Dデータを逆多重化して2Dデータとパッチ情報に分割してそれぞれ出力する。 The 3D data demultiplexing unit 2002 demultiplexes the input 3D data, divides it into 2D data and patch information, and outputs them.

<点群復号装置2000の動作>
以上説明した点群復号装置2000に含まれる構成機能要素を連携することで、入力点群を圧縮符号化した3Dデータから元の点群を復元して出力できる。点群復号装置2000における点群再生処理は以下の手順で実行される。
<Operation of Point Group Decoding Device 2000>
By linking the constituent functional elements included in the point cloud decoding device 2000 described above, the original point cloud can be restored from the 3D data obtained by compression-encoding the input point cloud and output. The point cloud reproduction process in the point cloud decoding device 2000 is executed in the following procedure.

(S61)処理解像度設定部1003は、3Dデータの復号処理を行う装置の処理性能に基づい
て処理解像度を決定し画像生成部100へ解像度指定として出力する。
(S61) The processing resolution setting unit 1003 determines the processing resolution based on the processing performance of the device that decodes the 3D data, and outputs the processing resolution to the image generation unit 100 as a specified resolution.

(S62)画像生成部100は、入力される点群と解像度指定に基づいて統合画像とパッチ情
報を生成する。統合画像はビデオ符号化部1001へ出力され、パッチ情報は3Dデータ多重化部へ出力される。
(S62) The image generator 100 generates an integrated image and patch information based on the input point cloud and the specified resolution. The integrated image is output to the video encoding unit 1001, and the patch information is output to the 3D data multiplexing unit.

(S63)ビデオ符号化部1001は、入力される統合画像を圧縮および符号化して生成され
た2Dデータを3Dデータ多重化装置1002へ出力する。
(S63) The video encoding unit 1001 outputs 2D data generated by compressing and encoding the input integrated image to the 3D data multiplexing device 1002.

(S64)3Dデータ多重化部1002は、入力される2Dデータとパッチ情報を多重化して生成
された3Dデータを点群符号化装置1000の出力とする。
(S64) The 3D data multiplexing unit 1002 outputs the 3D data generated by multiplexing the input 2D data and the patch information to the point group encoding device 1000.

以上説明した点群復号装置2000によれば、入力される3Dデータの点の数や性質によらず、所定の計算リソースを想定して生成された3Dデータを復号して元の点群を再生できる。特に、点群復号装置2000は、点群再生部200を備えているため、指定解像度の制約下で生
成された統合画像から元の点群を再生できる。
According to the point cloud decoding device 2000 described above, the original point cloud is reproduced by decoding the 3D data generated assuming predetermined computational resources, regardless of the number and properties of points in the input 3D data. can. In particular, since the point cloud decoding device 2000 includes the point cloud reproducing unit 200, it is possible to reproduce the original point cloud from the integrated image generated under the restriction of the designated resolution.

〔実施形態6〕
以下、本発明の一実施形態について、図13に基づいて説明する。
[Embodiment 6]
An embodiment of the present invention will be described below with reference to FIG.

<点群処理装置3000の構成>
図13に基づいて本実施形態に係る点群処理装置3000の構成を説明する。点群処理装置3000は、画像生成部100、点群再生部200、統合画像処理部3001、および、処理解像度設定部3002を備えている。点群処理装置3000は、入力された点群に所定の画像処理を適用して修正し、修正結果の点群を出力する。
<Configuration of point cloud processing device 3000>
The configuration of a point cloud processing device 3000 according to this embodiment will be described based on FIG. The point cloud processing device 3000 includes an image generation unit 100, a point cloud reproduction unit 200, an integrated image processing unit 3001, and a processing resolution setting unit 3002. The point cloud processing device 3000 corrects the input point cloud by applying predetermined image processing, and outputs the corrected point cloud.

画像生成部100は、実施形態1で説明した画像生成装置100と同一の機能を有する機能ブ
ロックである。
The image generator 100 is a functional block having the same functions as the image generator 100 described in the first embodiment.

点群再生部200は、実施形態2で説明した点群再生装置200と同一の機能を有する機能ブ
ロックである。
The point cloud reproduction unit 200 is a functional block having the same functions as the point cloud reproduction device 200 described in the second embodiment.

統合画像処理部3001は、入力される画像に処理の二次元画像処理を適用し、適用結果の画像を出力する。なお、二次元画像処理として、ノイズ除去フィルタ、平滑化フィルタ、高域強調フィルタ、カラー調整フィルタ等が適用できる。また、二次元画像処理としてニューラルネットワークを用いる画像変換処理が適用できる。そのような画像変換処理の例として学習した画像のスタイルを反映するスタイルトランスファーがある。 The integrated image processing unit 3001 applies two-dimensional image processing of processing to an input image and outputs an image of the application result. A noise removal filter, a smoothing filter, a high frequency enhancement filter, a color adjustment filter, etc. can be applied as the two-dimensional image processing. Also, image conversion processing using a neural network can be applied as the two-dimensional image processing. As an example of such image conversion processing, there is a style transfer that reflects a learned image style.

処理解像度設定部3002は、統合画像処理部3001で想定される処理性能に基づいて処理解像度を決定して出力する。 A processing resolution setting unit 3002 determines and outputs a processing resolution based on the processing performance expected in the integrated image processing unit 3001 .

<点群処理装置3000の動作>
以上説明した点群処理装置3000に含まれる構成機能要素を連携することで、入力点群に特定の効果の処理を適用して得られる点群を生成して出力できる。点群処理装置3000における点群変換処理は以下の手順で実行される。
<Operation of Point Cloud Processing Device 3000>
By linking the constituent functional elements included in the point cloud processing apparatus 3000 described above, it is possible to generate and output a point cloud obtained by applying specific effect processing to an input point cloud. The point cloud conversion process in the point cloud processing device 3000 is executed in the following procedure.

(S61)処理解像度設定部3002は、統合画像処理部3001において適用する画像処理の性
能要求に基づいて処理解像度を決定し画像生成部100へ解像度指定として出力する。
(S61) The processing resolution setting unit 3002 determines the processing resolution based on the performance requirements of the image processing applied in the integrated image processing unit 3001, and outputs the processing resolution to the image generation unit 100 as the specified resolution.

(S62)画像生成部100は、入力される点群と解像度指定に基づいて統合画像とパッチ情報を生成する。統合画像は統合画像処理部3001へ出力され、パッチ情報は点群再生部200
へ出力される。
(S62) The image generator 100 generates an integrated image and patch information based on the input point cloud and the specified resolution. The integrated image is output to the integrated image processing unit 3001, and the patch information is output to the point cloud reproducing unit 200.
output to

(S63)統合画像処理部3001は、入力される統合画像に所定の二次元画像処理を適用し
、変換結果の画像を点群再生部200へ統合画像として出力する。
(S63) The integrated image processing unit 3001 applies predetermined two-dimensional image processing to the input integrated image, and outputs the converted image to the point cloud reproducing unit 200 as an integrated image.

(S64)点群再生部200は、入力される統合画像とパッチ情報に基づいて点群を再生し、再生結果の点群を点群処理装置3000の出力とする。 (S64) The point cloud reproduction unit 200 reproduces the point cloud based on the input integrated image and patch information, and outputs the point cloud of the reproduction result to the point cloud processing device 3000. FIG.

以上説明した点群処理装置3000によれば、入力される点群の点の数や性質によらず、所定の計算リソースで実行可能な画像処理を利用して点群を変換できる。例えば統合画像処理部3001でノイズ除去フィルタを適用することで、入力点群から点群を除去した点群に変換できる。特に、点群処理装置3000は、画像生成部100と点群再生部200を備えているため、指定解像度の制約下で二次元画像処理の対象となる統合画像を生成し、変換された統合画像から点群を復元できる。 According to the point cloud processing apparatus 3000 described above, regardless of the number and properties of points in an input point cloud, it is possible to convert the point cloud using image processing that can be executed with predetermined computational resources. For example, by applying a noise removal filter in the integrated image processing unit 3001, the input point group can be converted into a point group by removing the point group. In particular, since the point cloud processing device 3000 includes the image generation unit 100 and the point cloud reproduction unit 200, it generates an integrated image to be subjected to two-dimensional image processing under the constraint of the designated resolution, and converts the integrated image into You can restore the point cloud from

<実施形態6の変形例1>
実施形態6で説明した点群処理装置3000において、統合画像処理部3001が複数種類の画
像処理を選択して適用可能な構成としてもよい。一般的に画像処理の種類が異なる場合、要求される計算リソースが異なり、処理可能な画像の解像度が異なる。そこで、そのような構成の場合、処理解像度設定部3002は、統合画像処理部3001で適用される画像処理の種類に応じて異なる解像度を指定解像度として設定して画像生成部100へ入力する構成とす
る。以上の構成により、点群処理装置3000は、点群に対して多様な効果の変換を用途に応じて切り替えて実行できる。
<Modification 1 of Embodiment 6>
In the point cloud processing device 3000 described in the sixth embodiment, the integrated image processing unit 3001 may select and apply a plurality of types of image processing. Generally, different types of image processing require different computational resources and different image resolutions that can be processed. Therefore, in such a configuration, the processing resolution setting unit 3002 is configured to set different resolutions as designated resolutions according to the type of image processing applied by the integrated image processing unit 3001 and input the specified resolutions to the image generation unit 100 . do. With the above configuration, the point cloud processing device 3000 can switch and execute conversion of various effects on the point cloud according to the application.

<実施形態6の変形例2>
実施形態6で説明した点群処理装置3000において、統合画像処理部3001で処理可能な画
像の解像度は画像処理の方式だけではなくメモリやCPU等の計算リソースにも依存する。
実装によっては点群処理装置3000がメモリやCPU等の計算リソースを他の装置と共有する
場合がある。そのような場合、処理解像度設定部3002は、メモリやCPU等の計算リソース
の利用状況を取得し、利用状況に応じて指定解像度を設定するような構成とすることが好ましい。すなわち、計算リソースの利用率が高い場合により低い解像度を設定し、逆に計算リソースの利用率が低い場合により高い解像度を設定する。以上の構成により、点群処理装置3000は、利用可能な計算リソースが変化する場合であっても、点群に対して変換を適用することができる。
<Modification 2 of Embodiment 6>
In the point cloud processing device 3000 described in Embodiment 6, the resolution of an image that can be processed by the integrated image processing unit 3001 depends not only on the image processing method but also on calculation resources such as memory and CPU.
Depending on the implementation, the point cloud processing device 3000 may share computational resources such as memory and CPU with other devices. In such a case, it is preferable that the processing resolution setting unit 3002 acquires the usage status of computational resources such as memory and CPU, and sets the designated resolution according to the usage status. That is, a lower resolution is set when the utilization rate of computational resources is high, and a higher resolution is set when the utilization rate of computational resources is low. With the above configuration, the point cloud processing device 3000 can apply transformations to the point cloud even when available computational resources change.

<実施形態1~実施形態6共通の付記事項1>
実施形態1から実施形態6の各説明では点群を入力または出力とする構成について説明した。しかしながら、本発明は点群以外の三次元対象の表現形式にも適用可能である。例えば、三次元対象をメッシュとテクスチャで表現した形式(メッシュ形式)に対しても適用できる。その場合、例えばクラスタ分割部101では、点群クラスタではなく、メッシュ形
式で表現されたクラスタを出力する。また、パッチ投影部102の機能を、点群を投影して
パッチを導出する機能から、メッシュ形式のクラスタを投影してパッチを導出する機能に変更すればよい。また、例えば点群再生装置200では、パッチ逆投影部204の機能を、パッチから点群を導出する機能から、パッチを逆投影してメッシュ形式のクラスタを導出する機能に変更する。加えて、点群復元部205は、メッシュ形式のクラスタを出力するメッシ
ュ復元部とする。点群クラスタとメッシュ形式のクラスタを総称して、単にクラスタと呼称する。また、点群復元部とメッシュ復元部を総称して三次元対象復元部と呼称する。
<Appendix 1 common to Embodiments 1 to 6>
In each of the descriptions of Embodiments 1 to 6, a configuration in which a point group is used as input or output has been described. However, the present invention is also applicable to representation forms of three-dimensional objects other than point clouds. For example, it can also be applied to a format (mesh format) in which a three-dimensional object is represented by meshes and textures. In that case, for example, the cluster division unit 101 outputs clusters expressed in a mesh format instead of point cloud clusters. Also, the function of the patch projection unit 102 may be changed from a function of projecting a point group to derive a patch to a function of projecting a mesh format cluster to derive a patch. Further, for example, in the point cloud reproduction device 200, the function of the patch backprojection unit 204 is changed from the function of deriving the point cloud from the patch to the function of back projecting the patch and deriving the cluster in the mesh format. In addition, the point group restoration unit 205 is a mesh restoration unit that outputs clusters in mesh format. Point cloud clusters and mesh-type clusters are collectively referred to simply as clusters. Also, the point group restoration section and the mesh restoration section are collectively referred to as a three-dimensional object restoration section.

他の表現形式として、例えば、三次元対象をボリューム表現の形式で表現した場合にも本発明を適用できる。ボリューム表現では、空間を格子状に分割し、分割により得られるボクセルに対して、オブジェクトの内外を示す情報、表面への距離、カラー等の属性情報を記述することで三次元対象を表現する。ボクセルを、ボクセル中心を位置とした点とみ
なすことで、各実施形態にて説明した方法が適用できる。
As another representation format, for example, the present invention can be applied to a case where a three-dimensional object is represented in a volume representation format. In volume representation, space is divided into grids, and three-dimensional objects are expressed by describing information indicating the inside and outside of the object, distance to the surface, color, and other attribute information for the voxels obtained by the division. By regarding a voxel as a point whose position is the voxel center, the method described in each embodiment can be applied.

以上の事実から、画像生成装置100と画像生成装置300は各種の形式で表現された三次元対象に基づき統合画像を生成するといえる。また、点群再生装置200と点群再生装置400は三次元対象再生装置、点群符号化装置1000は三次元対象符号化装置、点群復号装置2000は三次元対象復号装置、点群処理装置3000は、三次元対象処理装置とも呼べる。 From the above facts, it can be said that the image generation device 100 and the image generation device 300 generate integrated images based on three-dimensional objects expressed in various formats. Also, the point cloud reproduction device 200 and the point cloud reproduction device 400 are three-dimensional object reproduction devices, the point cloud encoding device 1000 is a three-dimensional object encoding device, and the point cloud decoding device 2000 is a three-dimensional object decoding device and a point group processing device. 3000 can also be called a three-dimensional object processing device.

〔実施形態7〕
実施形態1~実施形態6の説明では、主に指定解像度で処理可能な統合画像を扱う装置や処理について説明した。しかしながら指定解像度や統合画像を扱うことは本発明において必須の要素ではなく、より全ての実施形態を包含する一般化した装置を定義できる。以下では、そのような装置として、図1に示す三次元表現変換装置500および三次元表現逆変換装置を説明する。
[Embodiment 7]
In the descriptions of the first to sixth embodiments, the apparatus and processing that handle integrated images that can be processed at a specified resolution have been mainly described. However, handling specified resolutions and integrated images is not an essential element in the present invention, and a generalized device that encompasses all embodiments can be defined. As such devices, the 3D expression conversion device 500 and the 3D expression inverse conversion device shown in FIG. 1 will be described below.

図1(a)は、本発明に基づき実現される三次元表現変換装置500を示すブロック図であ
る。三次元表現変換装置500は、表現変換部501および表現変換情報生成部502を含んで構
成される。三次元変換装置500は、入力三次元表現と変換指示情報に基づいて出力三次元
表現と表現変換情報を生成して出力する。
FIG. 1(a) is a block diagram showing a three-dimensional representation conversion device 500 implemented based on the present invention. The three-dimensional representation conversion device 500 includes a representation conversion section 501 and a representation conversion information generation section 502 . The 3D conversion device 500 generates and outputs an output 3D representation and representation conversion information based on the input 3D representation and conversion instruction information.

<三次元表現の定義>
ここで、三次元表現とは、三次元対象を表現する様々な表現形式の総称である。具体的には、三次元表現には少なくとも以下の表現形式が含まれ得る。
<Definition of 3D expression>
Here, three-dimensional expression is a general term for various forms of expression that express three-dimensional objects. Specifically, the three-dimensional representation can include at least the following representation formats.

(形式1)点群形式:三次元対象を三次元空間中の点の集合で表現する形式。格子上に
点の位置を制限する密点群形式、空間中の任意の位置に点を配置する疎点群形式にさらなに分類される。
(Format 1) Point cloud format: A format that expresses a three-dimensional object as a set of points in a three-dimensional space. It is further classified into a dense point cloud format that restricts the positions of points on a grid and a sparse point cloud format that places points at arbitrary positions in space.

(形式2)メッシュ形式:三次元対象を三次元空間中の面の集合であるメッシュで表現
する形式。メッシュを構成する各面は、頂点の点の位置と頂点の接続情報により定義される。
(Format 2) Mesh format: A format in which a three-dimensional object is represented by a mesh, which is a set of faces in a three-dimensional space. Each face that constitutes a mesh is defined by vertex point positions and vertex connection information.

(形式3)ボリューム形式:三次元対象を三次元空間の格子状分割により得られるボク
セルの集合として表現する形式。ボクセルが三次元対象内の空間か否かを示す属性情報を用いるボクセル占有表現形式、ボクセルと三次元対象表面との距離を属性情報とするTSDF(Truncated Signed Distance)形式などにさらに分類される。
(Format 3) Volume format: A format that expresses a three-dimensional object as a set of voxels obtained by dividing a three-dimensional space into a grid. It is further classified into a voxel occupancy expression format that uses attribute information indicating whether or not a voxel is in a space within a 3D object, and a TSDF (Truncated Signed Distance) format that uses attribute information to indicate the distance between a voxel and a 3D object surface.

(形式4)画像形式:三次元対象を1枚または複数枚の画像に変換して表現する形式。
画像への変換は一般的には所定のカメラまたは視点に基づく投影が用いられるが、他の変換を用いることもできる。実施形態1から実施形態6における統合画像は画像形式による三次元表現の一つといえる。
(Format 4) Image format: A format in which a three-dimensional object is converted into one or more images and expressed.
The transformation to image is typically using projection based on a given camera or viewpoint, but other transformations can also be used. The integrated image in Embodiments 1 to 6 can be said to be one of three-dimensional representations in image format.

(形式5)圧縮形式:上記の各形式を圧縮した形式。実施形態5で説明した3Dデータは画像形式を圧縮した表現であり圧縮形式の一例である。 (Format 5) Compressed format: A compressed format of each of the above formats. The 3D data described in the fifth embodiment is an expression obtained by compressing the image format, and is an example of the compression format.

(形式6)暗号形式:上記の各形式を暗号化した形式。 (Form 6) Encrypted form: Encrypted form of each of the above forms.

(形式7)複合形式:上記の各形式の組み合わせによる表現。例えば上の分類で別形式
の組み合わせによる表現を含む。三次元対象の全体をメッシュ形式、一部を点群形式で表現する場合はこの一例となる。また、上の分類で同形式の組み合わせによる表現を含む。例えば、実施形態3で説明したような三次元対象を複数の部分に分けて、各部分を点群形
式で表現する場合はこの一例となる。
(Form 7) Composite form: Expression by combining each of the above forms. For example, the above classification includes expressions by combining different forms. An example of this is when the entire three-dimensional object is expressed in a mesh format and a part thereof is expressed in a point cloud format. In addition, expressions by combining the same forms in the above classification are included. For example, dividing a three-dimensional object as described in the third embodiment into a plurality of parts and representing each part in a point cloud format is an example of this.

<表現変換部501>
表現変換部501は、入力の三次元表現(第一の三次元表現)と指定される変換後特性に
基づいて三次元表現を変換し、変換後の三次元表現(第二の三次元表現)を出力する。なお、変換後特性を三次元表現変換装置500への入力としているが、既定の変換特性の利用
や三次元表現変換装置500の内部で導出する構成でもよい。また、表現変換情報生成部502は必須の構成要素ではない。しかしながら、表現変換情報生成部502を通じて表現変換情
報を生成することで、変換後の三次元表現から変換前の三次元表現を復元する場合に正確な復元が実現できる。
<Expression conversion unit 501>
The expression conversion unit 501 converts the three-dimensional expression based on the input three-dimensional expression (first three-dimensional expression) and the designated post-conversion characteristics, and converts the three-dimensional expression after conversion (second three-dimensional expression). to output Although post-conversion characteristics are input to the three-dimensional representation conversion device 500, it is also possible to use predetermined conversion characteristics or derive them inside the three-dimensional representation conversion device 500. FIG. Also, the representation conversion information generation unit 502 is not an essential component. However, by generating expression conversion information through the expression conversion information generation unit 502, accurate restoration can be realized when restoring the three-dimensional expression before conversion from the three-dimensional expression after conversion.

表現変換部501において適用される変換には以下に示す各種変換が含まれる。 Conversions applied in the expression conversion unit 501 include various conversions shown below.

三次元表現のデータ量削減:空間または時間方向のリサンプリング、特定種別のデータ破棄によりデータ量を削減する。例えば、三次元表現が点群形式である場合、空間次元で元データより疎な間隔でリサンプリングすることでデータ量を削減する。また、例えば、三次元表現が画像形式である場合、画像の全体または一部領域を縮小することでデータ量を削減する。また、三次元表現が点群形式、メッシュ形式、ボリューム形式、画像形式である場合、点、頂点、ボクセル、または、画素に関連付けられた属性情報の種類や精度を削減することでデータ量を削減する。 Data volume reduction of 3D representation: Data volume is reduced by spatial or temporal resampling and specific types of data discarding. For example, when the three-dimensional representation is in point cloud format, the data amount is reduced by resampling at a sparser interval than the original data in the spatial dimension. Also, for example, when the three-dimensional representation is in image format, the data amount is reduced by reducing the entire image or a partial area of the image. Also, if the 3D representation is in point cloud format, mesh format, volume format, or image format, reduce the amount of data by reducing the types and precision of attribute information associated with points, vertices, voxels, or pixels. do.

三次元表現の分割:空間または時間方向に分割する。例えば、三次元表現が点群形式である場合、三次元空間を複数の空間に分割することで、一つの点群を複数の点群に分割する。また、例えば、三次元表現が画像形式である場合、一つの画像を複数の画像に分割する。 Segmentation of 3D representation: Segmentation in space or time direction. For example, if the three-dimensional representation is in point cloud format, one point cloud is divided into multiple point clouds by dividing the three-dimensional space into multiple spaces. Also, for example, when the three-dimensional representation is in image format, one image is divided into a plurality of images.

三次元表現の形式変換:一つの三次元表現の形式から別の三次元表現の形式へ変換する。例えば、実施形態1で説明したように、点群形式から投影を用いて画像形式へ変換する
。また、例えば、画像形式の三次元表現に符号化処理を適用して圧縮形式へ変換する。
3D Representation Format Conversion: Converting from one 3D representation format to another 3D representation format. For example, as described in the first embodiment, the point cloud format is converted into an image format using projection. Also, for example, an encoding process is applied to the three-dimensional expression in the image format to convert it into a compressed format.

<変換後特性の定義と具体例>
変換後特性は、出力される三次元表現の特性を指定する情報である。一つの例として、変換後特性は計算リソース指定情報である。計算リソース指定情報は、少なくとも、変換後の三次元表現の処理に要する各種計算リソースを明示的または間接的に示す情報である。計算リソースには、三次元表現のデータ量を直接または間接的に表す量が含まれる。例えば、三次元表現が画像形式である場合、画像の解像度、画像を構成する画素数の総和、画像の各画素に関連付けられた情報の種類と量が挙げられる。また、例えば、三次元表現が点群形式である場合、点の数、点の密度、点群の占有する体積、点群を内包するバウンディングボックスの体積、各点に関連付けられた情報の種類や量が挙げられる。また、例えば、三次元表現がメッシュ形式である場合、メッシュを構成する頂点の数、面の数、テクスチャの解像度、各頂点に関連付けられた情報の種類や量が挙げられる。また、例えば、三次元表現がボリューム形式である場合、有効なボクセル数、ボクセル間隔、ボリュームの占有体積、各ボクセルに関連付けられた情報の種類や量が挙げられる。また、例えば、三次元表現が圧縮形式または暗号形式の場合、データ総量、時間やフレーム単位のデータ量が挙げられる。
<Definition and example of post-conversion characteristics>
Post-conversion properties are information specifying properties of the output three-dimensional representation. As one example, the post-conversion property is computational resource designation information. The computational resource specification information is at least information that explicitly or indirectly indicates various computational resources required for processing the three-dimensional representation after conversion. Computational resources include quantities that directly or indirectly represent the amount of data in the three-dimensional representation. For example, if the three-dimensional representation is in the form of an image, the resolution of the image, the total number of pixels that make up the image, and the type and amount of information associated with each pixel of the image. Also, for example, when the three-dimensional representation is a point cloud format, the number of points, the density of the points, the volume occupied by the point cloud, the volume of the bounding box containing the point cloud, the type of information associated with each point, quantity. Also, for example, when the three-dimensional representation is in the form of a mesh, the number of vertices and faces forming the mesh, the resolution of the texture, and the type and amount of information associated with each vertex can be mentioned. Also, for example, if the three-dimensional representation is in volume format, the number of valid voxels, voxel spacing, volume occupied by the volume, and the type and amount of information associated with each voxel can be mentioned. Further, for example, when the three-dimensional expression is in compressed format or encrypted format, the total amount of data, and the amount of data in units of time and frames can be mentioned.

また、計算リソースには、三次元表現の処理に必要な計算量やメモリを直接または間接的に示す情報が含まれる。例えば、三次元表現が圧縮形式または暗号形式の場合、適用されるアルゴリズムの種類やアルゴリズムのパラメータが挙げられる。 Computational resources also include information that directly or indirectly indicates the amount of computation and memory required to process the three-dimensional representation. For example, if the three-dimensional representation is in compressed or encrypted form, the algorithm types and algorithm parameters to be applied.

別の例として、変換後特性は三次元情報の想定用途を直接または間接的に示す情報(想定用途情報)である。想定用途情報として、例えば、観察視点位置、観察距離、表示解像度、表示フレームレートが挙げられる。 As another example, the post-conversion characteristics are information (expected use information) that directly or indirectly indicates the intended use of the three-dimensional information. The assumed application information includes, for example, observation viewpoint position, observation distance, display resolution, and display frame rate.

<表現変換情報生成部502>
表現変換情報生成部502は、表現変換部501において適用された変換に関する情報を表現変換情報として出力する。表現変換情報として、変換が削減である場合、削減の方法、削減の程度、削減の適用範囲等が挙げられる。また、表現変換情報として、変換が分割である場合、分割の方法、分割数、分割前と分割後の対応関係を示す情報が挙げられる。また、表現変換情報として、変換が形式変換である場合、変換前後の形式を示す情報が挙げられる。
<Expression Conversion Information Generation Unit 502>
Expression conversion information generation section 502 outputs information about the conversion applied in expression conversion section 501 as expression conversion information. When the conversion is reduction, the expression conversion information includes the method of reduction, the degree of reduction, the scope of application of reduction, and the like. In addition, when the conversion is division, the expression conversion information includes information indicating the method of division, the number of divisions, and the correspondence between before and after division. In addition, when the conversion is format conversion, the expression conversion information includes information indicating formats before and after conversion.

<三次元表現逆変換装置600の構成>
図1(b)は、本発明に基づき実現される三次元表現逆変換装置600を示すブロック図で
ある。三次元表現逆変換装置600は、表現逆変換部601および表現変換情報解釈部602を含
んで構成される。三次元逆変換装置600は、前述の三次元変換装置600で生成された三次元表現を入力三次元表現とし、入力の表現変換情報を合わせて参照して出力三次元表現を生成して出力する。
<Configuration of 3D expression inverse conversion device 600>
FIG. 1(b) is a block diagram showing a 3D representation inverse transform apparatus 600 implemented according to the present invention. 3D expression inverse conversion device 600 includes expression inverse conversion section 601 and expression conversion information interpretation section 602 . The three-dimensional inverse transformation device 600 uses the three-dimensional representation generated by the three-dimensional transformation device 600 as an input three-dimensional representation, and also refers to the input representation transformation information to generate and output an output three-dimensional representation. .

表現変換情報解釈部602は、入力される表現変換情報を解釈して出力する。なお、表現
変換情報を入力として用いない構成も可能である。表現変換情報を入力として用いる場合、三次元表現の再現をより正確に実行できる利点がある。表現変換情報を入力として用いない場合、表現変換情報解釈部602は不要となるため、省略した構成としてもよい。
Expression conversion information interpretation section 602 interprets and outputs input expression conversion information. A configuration that does not use expression conversion information as input is also possible. Using representation conversion information as input has the advantage of being able to reproduce the three-dimensional representation more accurately. If the expression conversion information is not used as input, the expression conversion information interpreting unit 602 becomes unnecessary, and may be omitted.

表現逆変換部601は、入力の三次元表現(第二の三次元表現)を表現変換情報に基づい
て復元して出力の三次元表現(第三の三次元表現)を生成して出力する。概略的には表現逆変換部601は、表現変換部600で適用された変換の逆変換に相当する処理を適用する。例えば、変換がデータ量削減である場合には、逆変換は削減したデータ量の推定による復元となる。データ量削減として点群や画像のダウンサンプリングが適用された場合、逆変換には点群のアップサンプリングを適用できる。また、例えば、変換が分割である場合、逆変換には分割された三次元表現の結合が適用できる。
The representation inverse transformation unit 601 restores the input 3D representation (second 3D representation) based on the representation transformation information to generate and output the output 3D representation (third 3D representation). Schematically, the representation inverse transform unit 601 applies a process that corresponds to the inverse transform of the transform applied in the representation transform unit 600 . For example, if the transformation is data reduction, then the inverse transformation is restoration by estimation of the reduced data volume. If point cloud or image downsampling is applied for data reduction, point cloud upsampling can be applied for the inverse transform. Also, for example, if the transform is a split, then the inverse transform can apply a combination of the split three-dimensional representations.

<実施形態7と実施形態1の対応関係>
図2を参照して説明した実施形態1の画像生成装置100は、三次元表現変換装置500の具体的な実施例に相当する。以下、対応関係を説明する。入力の第一の三次元表現は点群であり、出力の第二の三次元表現は統合画像が対応する。変換後特性には解像度指定が対応し、表現変換情報にはパッチ情報が対応する。表現変換部501には、クラスタ分割部101、パッチ投影部102、パッチ変換部103、および、パッチ統合部104の組み合わせが対応する。
画像生成装置100では、変換により点群形式から画像形式(パッチセット)に変換し、さ
らに一部のパッチを縮小、統合して出力の三次元表現形式である画像形式(統合画像)を生成する。表現変換情報変換部502には、パッチ情報符号化部105が対応する。
<Correspondence between Embodiment 7 and Embodiment 1>
The image generation device 100 of Embodiment 1 described with reference to FIG. 2 corresponds to a specific example of the three-dimensional representation conversion device 500. FIG. The correspondence will be described below. The first 3D representation of the input is the point cloud and the second 3D representation of the output corresponds to the integrated image. Resolution specification corresponds to post-conversion characteristics, and patch information corresponds to expression conversion information. A combination of the cluster division unit 101, the patch projection unit 102, the patch conversion unit 103, and the patch integration unit 104 corresponds to the expression conversion unit 501. FIG.
The image generating device 100 converts the point cloud format into an image format (patch set) by conversion, and further reduces and integrates some of the patches to generate an image format (integrated image) that is a three-dimensional expression format for output. . The expression conversion information conversion section 502 corresponds to the patch information encoding section 105 .

<実施形態7と実施形態2の対応関係>
図5を参照して説明した実施形態2の点群再生装置200は、三次元表現逆変換装置600の具体的な実施例に相当する。以下、対応関係を説明する。入力の第二の三次元表現は統合画像に対応し、出力の第三の三次元表現には点群が対応する。表現変換情報にはパッチ情報が対応する。表現逆変換部602には、パッチ分割部202、パッチ復元部203、パッチ逆投影
部204、パッチ逆投影部204、および、点群復元部205の組み合わせが対応する。点群再生
装置200では、逆変換により画像形式(統合画像)から画像形式(パッチセット)に変換
し、さらに一部のパッチを拡大し、パッチを逆投影することで点群形式の三次元表現形を
生成する。表現変換情報解釈部602には、パッチ情報復号部201が対応する。
<Correspondence between Embodiment 7 and Embodiment 2>
The point group reproduction device 200 of the second embodiment described with reference to FIG. 5 corresponds to a specific example of the three-dimensional expression inverse conversion device 600. The correspondence will be described below. A second 3D representation of the input corresponds to the integrated image and a third 3D representation of the output corresponds to the point cloud. Patch information corresponds to expression conversion information. A combination of the patch dividing unit 202, the patch restoring unit 203, the patch back projecting unit 204, the patch back projecting unit 204, and the point group restoring unit 205 corresponds to the expression inverse transforming unit 602. In the point cloud reproduction device 200, the image format (integrated image) is converted into an image format (patch set) by inverse transformation, and a part of the patches are enlarged and the patches are back projected to obtain a three-dimensional representation of the point cloud format. generate a shape. The patch information decoding unit 201 corresponds to the representation conversion information interpretation unit 602 .

<実施形態7と実施形態3の対応関係>
図7を参照して説明した実施形態3の画像生成装置300は、三次元表現変換装置500の具体的な実施例に相当する。以下、対応関係を説明する。入力の第一の三次元表現は点群であり、出力の第二の三次元表現は統合画像が対応する。変換後特性には解像度指定が対応し、表現変換情報にはパッチ情報が対応する。表現変換部501には、一次分割部301、クラスタ分割部101、パッチ投影部102、パッチ変換部103、および、パッチ統合部104の組み合わせが対応する。画像生成装置300では、変換の過程でまず点群形式の三次元表現を複数に
分割し、続いて各点群を画像形式(パッチセット)に変換し、さらに一部のパッチを縮小、統合して出力の三次元表現形式である画像形式(統合画像)を生成する。表現変換情報変換部502には、パッチ情報符号化部105が対応する。
<Correspondence between Embodiment 7 and Embodiment 3>
The image generation device 300 of the third embodiment described with reference to FIG. 7 corresponds to a specific example of the 3D representation conversion device 500. FIG. The correspondence will be described below. The first 3D representation of the input is the point cloud and the second 3D representation of the output corresponds to the integrated image. Resolution specification corresponds to post-conversion characteristics, and patch information corresponds to expression conversion information. A combination of the primary division unit 301, the cluster division unit 101, the patch projection unit 102, the patch conversion unit 103, and the patch integration unit 104 corresponds to the expression conversion unit 501. FIG. In the conversion process, the image generation device 300 first divides the three-dimensional expression in the point cloud format into a plurality of pieces, then converts each point cloud into an image format (patch set), and further reduces and integrates some of the patches. to generate an image format (integrated image) that is a three-dimensional representation format of the output. The expression conversion information conversion section 502 corresponds to the patch information encoding section 105 .

<実施形態7と実施形態4の対応関係>
図10を参照して説明した実施形態4の点群再生装置400は、三次元表現逆変換装置600の
具体的な実施例に相当する。以下、対応関係を説明する。入力の第二の三次元表現は統合画像に対応し、出力の第三の三次元表現には点群が対応する。表現変換情報にはパッチ情報が対応する。表現逆変換部602には、パッチ分割部202、パッチ復元部203、パッチ逆投
影部204、パッチ逆投影部204、および、点群復元部205の組み合わせが対応する。点群再
生装置400では、一つの三次元表現から変換により生成された複数の三次元表現の中から
、指定された視点情報に適した三次元表現を選択し、逆変換により画像形式(統合画像)から画像形式(パッチセット)に変換し、さらに一部のパッチを拡大し、パッチを逆投影することで指定した視点浄法に適した点群形式の三次元表現形を生成する。表現変換情報解釈部602には、パッチ情報復号部201が対応する。
<Correspondence between Embodiment 7 and Embodiment 4>
The point cloud reproduction device 400 of the fourth embodiment described with reference to FIG. 10 corresponds to a specific example of the 3D expression inverse conversion device 600. The correspondence will be described below. A second 3D representation of the input corresponds to the integrated image and a third 3D representation of the output corresponds to the point cloud. Patch information corresponds to expression conversion information. A combination of the patch dividing unit 202, the patch restoring unit 203, the patch back projecting unit 204, the patch back projecting unit 204, and the point group restoring unit 205 corresponds to the expression inverse transforming unit 602. The point cloud reproduction device 400 selects a 3D representation suitable for the specified viewpoint information from among a plurality of 3D representations generated by transforming one 3D representation, and converts it into an image format (integrated image ) to an image format (patch set), further enlarge some patches, and back project the patches to generate a point cloud format 3D representation suitable for the specified viewpoint purification method. The patch information decoding unit 201 corresponds to the representation conversion information interpretation unit 602 .

<実施形態7と実施形態5の対応関係>
図12(a)を参照して説明した実施形態5の画像符号化装置1000は、三次元表現変換装置500の具体的な実施例に相当する。以下、対応関係を説明する。入力の第一の三次元表現
は点群であり、出力の第二の三次元表現は3Dデータが対応する。変換後特性には処理解像度設定部1003で導出される解像度指定が対応し、表現変換情報には3Dデータに含まれるパッチ情報が対応する。表現変換部501には、画像生成部100およびビデオ符号化部1001が対応する。画像符号化装置500では、変換の過程でまず点群形式の三次元表現から画像形式
(統合画像)に変換し、さらに統合画像を圧縮して圧縮形式の三次元表現を生成する。
<Correspondence between Embodiment 7 and Embodiment 5>
The image encoding device 1000 of Embodiment 5 described with reference to FIG. 12(a) corresponds to a specific example of the three-dimensional representation conversion device 500. The correspondence will be described below. A first three-dimensional representation of the input is a point cloud and a second three-dimensional representation of the output corresponds to 3D data. The post-conversion characteristics correspond to the resolution specification derived by the processing resolution setting unit 1003, and the expression conversion information corresponds to the patch information included in the 3D data. The image generation unit 100 and the video encoding unit 1001 correspond to the representation conversion unit 501 . In the image encoding device 500, in the process of conversion, the point cloud format three-dimensional representation is first converted into an image format (integrated image), and the integrated image is further compressed to generate a compressed three-dimensional representation.

図12(b)を参照して説明した実施形態5の点群復号装置2000は、三次元表現逆変換装置600の具体的な実施例に相当する。以下、対応関係を説明する。入力の第二の三次元表現
は3Dデータに対応し、出力の第三の三次元表現には点群が対応する。表現変換情報にはパッチ情報が対応する。表現逆変換部602には、ビデオ復号部2001および点群再生部200の組み合わせが対応する。点群復号装置600では、圧縮形式の三次元表現から画像形式(統合
画像)に変換し、統合画像から点群に変換する。
The point cloud decoding device 2000 of Embodiment 5 described with reference to FIG. The correspondence will be described below. A second three-dimensional representation of the input corresponds to the 3D data and a third three-dimensional representation of the output corresponds to the point cloud. Patch information corresponds to expression conversion information. A combination of the video decoding unit 2001 and the point group reproducing unit 200 corresponds to the expression inverse transforming unit 602 . The point cloud decoding device 600 converts the compressed three-dimensional expression into an image format (integrated image), and converts the integrated image into a point cloud.

<実施形態7と実施形態6の対応関係>
図13を参照して説明した実施形態6の画像処理装置3000は、三次元表現変換装置500の具体的な実施例に相当する。以下、対応関係を説明する。入力の第一の三次元表現は点群であり、出力の第二の三次元表現にも点群が対応する。表現変換部501には、画像生成部100、統合画像処理部3001、および、点群再生部200が対応する。点群処理装置3000では、変
換の過程でまず点群形式の三次元表現から画像形式(統合画像)に変換する。続いて統合画像を処理して変換し、最後に統合画像を逆変換して点群形式の三次元表現を生成する。
<Correspondence between Embodiment 7 and Embodiment 6>
The image processing device 3000 of the sixth embodiment described with reference to FIG. 13 corresponds to a specific example of the 3D expression conversion device 500. The correspondence will be described below. The first 3D representation of the input is a point cloud, and the second 3D representation of the output also corresponds to the point cloud. The representation conversion unit 501 corresponds to the image generation unit 100, integrated image processing unit 3001, and point group reproduction unit 200. FIG. In the point cloud processing device 3000, in the process of conversion, the three-dimensional expression in the point cloud format is first converted into an image format (integrated image). The integrated image is then processed and transformed, and finally the integrated image is inverse transformed to produce a 3D representation in point cloud format.

<三次元表現変換装置500の効果>
以上説明した三次元表現変換装置500は、指定された変換後特性に基づいて第一の三次
元表現を変換し、変換により得られる第二の三次元表現を出力する。出力される第二の三次元表現は指定した変換後特性を満たす。したがって、入力される第一の三次元表現が、所定の特性の三次元表現を処理するよう設計された装置で処理できない場合であっても、三次元表現変換装置500を用いて当該特性に相当する変換後特性を指定して第二の三次元
表現に変換することで処理が可能となる効果を奏する。
<Effects of 3D Expression Conversion Device 500>
The three-dimensional representation conversion device 500 described above transforms the first three-dimensional representation based on the designated post-transformation characteristics, and outputs the second three-dimensional representation obtained by the conversion. The output second three-dimensional representation satisfies the specified post-transformation properties. Therefore, even if the input first three-dimensional representation cannot be processed by a device designed to process a three-dimensional representation of a given property, the three-dimensional representation conversion device 500 can be used to correspond to that property. By specifying the post-conversion characteristics to be converted into the second three-dimensional representation, processing becomes possible.

以上説明した三次元表現逆変換装置600は、上記三次元表現変換装置500で変換して得られた第二の三次元表現から、変換前の第一の三次元表現に近い性質の第三の三次元表現を復元できる。加えて、表現変換情報解釈部602を備えることで、前記第三の三次元表現の
復元がより正確にできるという効果を奏する。
The three-dimensional expression inverse conversion device 600 described above converts the second three-dimensional expression obtained by the conversion by the three-dimensional expression conversion device 500 into a third three-dimensional expression having a property close to the first three-dimensional expression before conversion. A three-dimensional representation can be reconstructed. In addition, by providing the expression conversion information interpretation unit 602, there is an effect that the third three-dimensional expression can be restored more accurately.

〔ソフトウェアによる実現例〕
本明細書で開示した装置群(画像生成装置100、点群再生装置200、画像生成装置300、
点群再生装置400、点群符号化装置1000、点群復号装置2000、点群処理装置3000、三次元
表現変換装置500、及び、三次元表現逆変換装置600)の制御ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of realization by software]
The device group disclosed in this specification (image generation device 100, point cloud reproduction device 200, image generation device 300,
The control blocks of the point cloud reproduction device 400, the point cloud encoding device 1000, the point cloud decoding device 2000, the point cloud processing device 3000, the three-dimensional expression conversion device 500, and the three-dimensional expression inverse conversion device 600) are integrated circuits ( It may be implemented by a logic circuit (hardware) formed in an IC chip or the like, or may be implemented by software.

後者の場合、本明細書で開示した装置群は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば少なくとも1つのプロセッサ(制御装置)を備えていると共に、上記プログラムを記憶したコン
ピュータ読み取り可能な少なくとも1つの記録媒体を備えている。そして、上記コンピュ
ータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central
Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導
体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プ
ログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
In the latter case, the devices disclosed herein comprise a computer that executes program instructions, which are software that implements each function. This computer includes, for example, at least one processor (control device) and at least one computer-readable recording medium storing the program. In the computer, the processor reads the program from the recording medium and executes it, thereby achieving the object of the present invention. As the above processor, for example, a CPU (Central
Processing Unit) can be used. As the recording medium, a "non-temporary tangible medium" such as a ROM (Read Only Memory), a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. In addition, a RAM (Random Access Memory) for developing the above program may be further provided. Also, the program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. Note that one aspect of the present invention can also be implemented in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

本発明で開示した装置群はコンピュータによって実現してもよく、この場合には、コンピュータを本発明で開示した装置群に含まれる各装置が備える各部(ソフトウェア要素)として動作させることにより上記各装置をコンピュータにて実現させる上記各装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The device group disclosed in the present invention may be realized by a computer. In this case, the computer is operated as each unit (software element) included in each device included in the device group disclosed in the present invention, thereby A control program for each of the devices described above and a computer-readable recording medium recording it are also included in the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention. Furthermore, new technical features can be formed by combining the technical means disclosed in each embodiment.

100、300 画像生成装置、画像生成部
101 クラスタ分割部
102 パッチ投影部
103 パッチ変換部
104 パッチ統合部
105 パッチ情報符号化部
200、400 点群再生装置、点群再生部
201 パッチ情報復号部
202 パッチ分割部
203 パッチ復元部
204 パッチ逆投影部
205 点群復元部
301 一次分割部
401 統合画像選択部
500 三次元表現変換装置
501 表現変換部
502 表現変換情報生成部
600 三次元表現逆変換装置
601 表現逆変換部
602 表現変換情報解釈部
1000 点群符号化装置
1001 ビデオ符号化部
1002 3Dデータ多重化部
2000 点群復号装置
2001 ビデオ復号部
2002 3Dデータ逆多重化部
2003、3002 処理解像度設定部
3000 点群処理装置
3001 統合画像処理部
100, 300 image generation device, image generation unit 101 cluster division unit 102 patch projection unit 103 patch conversion unit 104 patch integration unit 105 patch information encoding unit 200, 400 point group reproduction device, point group reproduction unit 201 patch information decoding unit 202 Patch division unit 203 Patch restoration unit 204 Patch back projection unit 205 Point group restoration unit 301 Primary division unit 401 Integrated image selection unit 500 3D expression conversion unit 501 Expression conversion unit 502 Expression conversion information generation unit 600 3D expression inverse conversion unit 601 Expression inverse transformation unit 602 Expression transformation information interpretation unit 1000 Point group encoding device 1001 Video encoding unit 1002 3D data multiplexing unit 2000 Point group decoding device 2001 Video decoding unit 2002 3D data demultiplexing units 2003, 3002 Processing resolution setting unit 3000 point cloud processing device 3001 integrated image processing unit

Claims (18)

三次元対象を表す第一の三次元表現を入力として、上記三次元対象を表す第二の三次元表現を生成する三次元表現変換装置であって、
上記第一の三次元表現を上記第二の三次元表現に変換する表現変換部を備え、
上記表現変換部は、直接または間接的に指定される変換後特性に基づいて変換を行うことを特徴とする三次元表現変換装置。
A three-dimensional representation conversion device that takes as input a first three-dimensional representation representing a three-dimensional object and generates a second three-dimensional representation representing the three-dimensional object,
A representation conversion unit that transforms the first three-dimensional representation into the second three-dimensional representation,
The three-dimensional expression conversion device, wherein the expression conversion unit performs conversion based on post-conversion characteristics that are directly or indirectly designated.
上記表現変換部における変換は、三次元情報のデータ量削減、三次元情報の分割、または、三次元情報の形式変換のいずれかを含む変換であることを特徴とする請求項1に記載の三次元表現変換装置。 3. The cubic according to claim 1, wherein the conversion in the representation conversion unit is conversion including any of data amount reduction of three-dimensional information, division of three-dimensional information, and format conversion of three-dimensional information. An original representation converter. 上記変換後特性は、計算リソース指定情報、および、想定用途情報の少なくとも何れかを含むことを特徴とする請求項1または請求項2に記載の三次元表現変換装置。 3. The three-dimensional expression conversion apparatus according to claim 1, wherein the post-conversion characteristics include at least one of calculation resource specification information and assumed use information. 上記表現変換部で適用された変換に関する表現変換情報を生成して出力する表現変換情報生成部を備えることを特徴とする請求項1から請求項3に記載の三次元表現変換装置。 4. The three-dimensional expression conversion apparatus according to claim 1, further comprising an expression conversion information generating section for generating and outputting expression conversion information relating to the conversion applied by said expression conversion section. 上記第一の三次元表現は点群形式、メッシュ形式、および、ボリューム形式の何れかであり、
上記第二の三次元表現は画像形式であり、
上記変換後特性は、計算リソース指定情報の一形態である解像度指定であり、
上記表現変換部は、
上記第一の三次元表現をクラスタに分割するクラスタ分割部と、
上記クラスタからパッチを生成し、投影に係る投影情報を生成するパッチ投影部と、
上記解像度指定に基づいて上記パッチに変換を適用し、変換に係る調整情報を生成するパッチ変換部と、
上記変換を適用したパッチを結合して統合画像を生成し、統合に係る統合情報を生成するパッチ統合部を備え、
上記表現変換情報生成部は、投影情報、上記調整情報、および、上記統合情報を含むパッチ情報を生成するパッチ情報符号化部であることを特徴とする請求項4に記載の三次元表現変換装置。
The first three-dimensional representation is either point cloud format, mesh format, or volume format,
The second three-dimensional representation is in image format,
The post-conversion characteristics are resolution designation, which is a form of computational resource designation information,
The expression conversion unit is
a cluster dividing unit that divides the first three-dimensional representation into clusters;
a patch projection unit that generates patches from the clusters and generates projection information related to projection;
a patch conversion unit that applies conversion to the patch based on the specified resolution and generates adjustment information related to the conversion;
A patch integration unit that combines the patches to which the transformation is applied to generate an integrated image, and generates integration information related to the integration,
5. The three-dimensional expression conversion apparatus according to claim 4, wherein the expression conversion information generation unit is a patch information encoding unit that generates patch information including projection information, adjustment information, and integration information. .
上記第一の三次元表現は点群であり、上記クラスタは点群クラスタであることを特徴とする請求項5に記載の三次元表現変換装置。 6. The three-dimensional representation conversion apparatus according to claim 5, wherein said first three-dimensional representation is a point group and said cluster is a point group cluster. 上記解像度指定に基づいて上記点群をサブ点群に分割する一次分割部を追加で備えることを特徴とする請求項5に記載の三次元表現変換装置。 6. The three-dimensional representation conversion apparatus according to claim 5, further comprising a primary division unit that divides the point group into sub-point groups based on the specified resolution. 上記一次分割部は複数の分割方法により上記点群をサブ点群に分割し、
上記複数の分割方法に対応する複数の統合画像を生成することを特徴とする請求項7に記載の画像生成装置。
The primary division unit divides the point group into sub-point groups by a plurality of division methods,
8. The image generating apparatus according to claim 7, wherein a plurality of integrated images corresponding to said plurality of division methods are generated.
上記変換後特性は、想定用途情報の一形態である視点情報を含み、
上記一次分割部は上記視点情報に含まれる視点に基づいて上記点群をサブ点群に分割することを特徴とする請求項8に記載の画像生成装置。
The post-conversion characteristics include viewpoint information, which is a form of assumed usage information,
9. The image generating apparatus according to claim 8, wherein the primary division unit divides the point group into sub-point groups based on the viewpoint included in the viewpoint information.
上記統合画像はジオメトリ統合画像および属性統合画像を含み、
上記解像度指定はジオメトリ統合画像と属性統合画像それぞれに対して異なる解像度を指定可能であることを特徴とする請求項5から請求項9に記載の画像生成装置。
the integrated image includes a geometry integrated image and an attribute integrated image;
10. The image generation apparatus according to claim 5, wherein said resolution specification can specify different resolutions for each of the geometry integrated image and the attribute integrated image.
上記パッチ変換部における変換は、パッチの縮小、パッチの回転、および、パッチの分割再結合の何れかの変換、および、前記変換の組み合わせの何れかであることを特徴とする請求項5から請求項10に記載の画像生成装置。 5. The transformation in the patch transformation unit is any one of patch reduction, patch rotation, patch division and recombination, and a combination of the transformations. Item 11. The image generation device according to Item 10. 三次元対象を表す第二の三次元表現を入力として、上記三次元対象を表す第三の三次元表現を生成する三次元表現逆変換装置であって、
上記第二の三次元表現を上記第三の三次元表現に変換する表現逆変換部と、
入力される表現変換情報を解釈する表現変換情報解釈部を備え、
上記表現逆変換部は、表現変換情報に基づいて第二の三次元表現に変換を適用することを特徴とする三次元表現変換装置。
A three-dimensional representation inverse transformation device for generating a third three-dimensional representation representing the three-dimensional object from a second three-dimensional representation representing the three-dimensional object as input,
a representation inverse transformation unit that transforms the second three-dimensional representation into the third three-dimensional representation;
an expression conversion information interpretation unit that interprets input expression conversion information;
The three-dimensional expression conversion device, wherein the expression inverse conversion unit applies conversion to the second three-dimensional expression based on the expression conversion information.
上記第二の三次元表現は画像形式である統合画像であり、
上記第三の三次元表現は点群形式、メッシュ形式、および、ボリューム形式の何れかであり、
上記表現変換情報はパッチ情報であって、
上記パッチ情報から統合情報、調整情報、および、投影情報を導出するパッチ情報復号部と、
上記統合画像を上記統合情報に基づいて複数のパッチに分割するパッチ分割部と、
分割された各パッチを上記調整情報に基づいて変換するパッチ復元部と、
上記パッチから上記投影情報に基づいてクラスタを生成するパッチ逆投影部と、
複数のクラスタを結合する三次元対象復元部を備えることを特徴とする請求項12に記載の三次元逆変換装置。
the second three-dimensional representation is an integrated image in the form of an image;
The third three-dimensional representation is either a point cloud format, a mesh format, or a volume format,
The representation conversion information is patch information,
a patch information decoding unit that derives integration information, adjustment information, and projection information from the patch information;
a patch dividing unit that divides the integrated image into a plurality of patches based on the integrated information;
a patch restoration unit that converts each divided patch based on the adjustment information;
a patch backprojection unit that generates clusters from the patches based on the projection information;
13. The 3D inverse transformation device according to claim 12, further comprising a 3D object reconstruction unit that combines a plurality of clusters.
追加の入力として視点情報を受け取り、
上記パッチ情報および上記視点情報に基づいて複数の上記統合画像の一部を対象の統合画像として選択して出力する統合画像選択部を備えることを特徴とする請求項13に記載の三次元逆変換装置。
Takes viewpoint information as an additional input,
14. The three-dimensional inverse transform according to claim 13, further comprising an integrated image selection unit that selects and outputs a part of the plurality of integrated images as a target integrated image based on the patch information and the viewpoint information. Device.
三次元対象を入力として、上記三次元対象に対応する3Dデータを生成する三次元対象符号化装置であって、
解像度指定を決定する処理解像度設定部と、
上記三次元対象をクラスタに分割するクラスタ分割部と、
上記クラスタからパッチを生成し、投影に係る投影情報を生成するパッチ投影部と、
上記解像度指定に基づいて上記パッチに変換を適用し、変換に係る調整情報を生成するパッチ変換部と、
上記変換を適用したパッチを結合して統合画像を生成し、統合に係る統合情報を生成するパッチ統合部と、
上記投影情報、上記調整情報、および、上記統合情報を含むパッチ情報を生成するパッチ情報符号化部と、
上記統合画像にビデオ符号化を適用し2Dデータを生成するビデオ符号化部と、
上記2Dデータと上記パッチ情報を多重化して3Dデータを構成する3Dデータ多重化部を備えることを特徴とする三次元対象符号化装置。
A three-dimensional object encoding device that receives a three-dimensional object as input and generates 3D data corresponding to the three-dimensional object,
a processing resolution setting unit that determines resolution designation;
a cluster dividing unit that divides the three-dimensional object into clusters;
a patch projection unit that generates patches from the clusters and generates projection information related to projection;
a patch conversion unit that applies conversion to the patch based on the specified resolution and generates adjustment information related to the conversion;
a patch integration unit that combines the patches to which the transformation is applied to generate an integrated image, and generates integration information related to the integration;
a patch information encoding unit that generates patch information including the projection information, the adjustment information, and the integration information;
a video encoding unit that applies video encoding to the integrated image to generate 2D data;
A three-dimensional target encoding apparatus, comprising: a 3D data multiplexing unit that multiplexes the 2D data and the patch information to form 3D data.
三次元対象を符号化して生成された3Dデータを入力として上記三次元対象を復元する三次元対象復号装置であって、
上記3Dデータからパッチ情報と2Dデータを抽出する3Dデータ逆多重化部と、
上記パッチ情報から統合情報、調整情報、および、投影情報を導出するパッチ情報復号部と、
上記2Dデータから統合画像を復号するビデオ復号部と、
上記統合画像を上記統合情報に基づいて複数のパッチに分割するパッチ分割部と、
分割された各パッチを上記調整情報に基づいて変換するパッチ復元部と、
上記パッチから上記投影情報に基づいてクラスタを生成するパッチ逆投影部と、
複数のクラスタを結合する三次元対象復元部を備えることを特徴とする三次元対象復号装置。
A three-dimensional object decoding device for reconstructing the three-dimensional object with input of 3D data generated by encoding the three-dimensional object,
a 3D data demultiplexer that extracts patch information and 2D data from the 3D data;
a patch information decoding unit that derives integration information, adjustment information, and projection information from the patch information;
a video decoding unit that decodes an integrated image from the 2D data;
a patch dividing unit that divides the integrated image into a plurality of patches based on the integrated information;
a patch restoration unit that converts each divided patch based on the adjustment information;
a patch backprojection unit that generates clusters from the patches based on the projection information;
A three-dimensional object decoding device comprising a three-dimensional object reconstruction unit that combines a plurality of clusters.
入力された三次元対象を変換して出力する三次元対象処理装置であって、
解像度指定を決定する処理解像度設定部と、
上記解像度指定と上記三次元対象に基づいて統合画像とパッチ情報を生成する画像生成部と、
上記統合画像に変換処理を適用して変換後の統合画像を出力する統合画像処理部と、
上記変換後の統合画像と上記パッチ情報を入力として三次元対象を生成する三次元対象再生部とを備えることを特徴とする三次元対象処理装置。
A three-dimensional object processing device that converts and outputs an input three-dimensional object,
a processing resolution setting unit that determines resolution designation;
an image generation unit that generates an integrated image and patch information based on the resolution designation and the three-dimensional object;
an integrated image processing unit that applies conversion processing to the integrated image and outputs an integrated image after conversion;
A three-dimensional object processing apparatus, comprising: a three-dimensional object reproduction unit for generating a three-dimensional object by inputting the integrated image after conversion and the patch information.
上記統合画像処理部は、複数の変換処理から選択した変換処理を適用して上記統合画像を変換し、
上記処理解像度設定部は、上記統合画像処理部で適用される変換処理の種類に応じて異なる解像度を上記解像度指定とすることを特徴とする請求項17に記載の三次元対象処理装置。
The integrated image processing unit converts the integrated image by applying conversion processing selected from a plurality of conversion processing,
18. The three-dimensional object processing apparatus according to claim 17, wherein the processing resolution setting section designates different resolutions according to the type of conversion processing applied in the integrated image processing section.
JP2019175249A 2019-09-26 2019-09-26 Three-dimensional expression conversion device and three-dimensional expression inverse conversion device Pending JP2022172413A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019175249A JP2022172413A (en) 2019-09-26 2019-09-26 Three-dimensional expression conversion device and three-dimensional expression inverse conversion device
PCT/JP2020/035662 WO2021060229A1 (en) 2019-09-26 2020-09-23 Three-dimensional rendering conversion device and three-dimensional rendering reverse conversion device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019175249A JP2022172413A (en) 2019-09-26 2019-09-26 Three-dimensional expression conversion device and three-dimensional expression inverse conversion device

Publications (1)

Publication Number Publication Date
JP2022172413A true JP2022172413A (en) 2022-11-16

Family

ID=75165967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019175249A Pending JP2022172413A (en) 2019-09-26 2019-09-26 Three-dimensional expression conversion device and three-dimensional expression inverse conversion device

Country Status (2)

Country Link
JP (1) JP2022172413A (en)
WO (1) WO2021060229A1 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140089834A1 (en) * 2012-03-07 2014-03-27 Willow Garage Inc. Point cloud data hierarchy
JP6637855B2 (en) * 2016-08-22 2020-01-29 株式会社ソニー・インタラクティブエンタテインメント Data processing device, data processing method, and computer program
EP3407607A1 (en) * 2017-05-24 2018-11-28 Thomson Licensing Method and device for encoding and reconstructing a point cloud
WO2019078000A1 (en) * 2017-10-16 2019-04-25 ソニー株式会社 Information processing device and method
US11611774B2 (en) * 2018-01-17 2023-03-21 Sony Corporation Image processing apparatus and image processing method for 3D data compression
FI3514968T3 (en) * 2018-01-18 2023-05-25 Blackberry Ltd Methods and devices for entropy coding point clouds
JP7448760B2 (en) * 2018-01-19 2024-03-13 インターデジタル ヴイシー ホールディングス, インコーポレイテッド Point cloud processing

Also Published As

Publication number Publication date
WO2021060229A1 (en) 2021-04-01

Similar Documents

Publication Publication Date Title
JP7384159B2 (en) Image processing device and method
CN108810571B (en) Method and apparatus for encoding and decoding two-dimensional point clouds
EP3751857A1 (en) A method, an apparatus and a computer program product for volumetric video encoding and decoding
TWI724626B (en) Methods for full parallax compressed light field 3d imaging systems
JP7327166B2 (en) Image processing device and method
TWI696378B (en) Methods and apparatus for full parallax light field display systems
US20230068178A1 (en) A method, an apparatus and a computer program product for volumetric video encoding and decoding
US20210233278A1 (en) Image processing apparatus and method
He et al. Best-effort projection based attribute compression for 3D point cloud
JP2023513564A (en) Using Tiered Hierarchical Coding for Point Cloud Compression
RU2767771C1 (en) Method and equipment for encoding/decoding point cloud representing three-dimensional object
WO2020012187A1 (en) Method and system for compressing and decompressing digital three-dimensional point cloud data
JP2022531110A (en) Methods and devices for point cloud coding
US20220217400A1 (en) Method, an apparatus and a computer program product for volumetric video encoding and decoding
CN116569217A (en) Method and apparatus for adaptive sampling of trellis compression by an encoder
WO2021060229A1 (en) Three-dimensional rendering conversion device and three-dimensional rendering reverse conversion device
WO2022230941A1 (en) Information processing device and information processing method
WO2020175176A1 (en) Information processing device and method, and reproduction device and method
JP2004289284A (en) Image processing method, image processing apparatus, and image processing program
WO2024057903A1 (en) Information processing device and method
WO2023179705A1 (en) Encoding and decoding methods and apparatuses, and devices
WO2023095625A1 (en) Information processing device and method
WO2023181875A1 (en) Information processing device and method
WO2023127513A1 (en) Information processing device and method
Tohidi et al. Video-Based Point Cloud Compression Using Density-Based Variable Size Hexahedrons