JP7402976B2 - 点群データのためのファイルフォーマット - Google Patents
点群データのためのファイルフォーマット Download PDFInfo
- Publication number
- JP7402976B2 JP7402976B2 JP2022519702A JP2022519702A JP7402976B2 JP 7402976 B2 JP7402976 B2 JP 7402976B2 JP 2022519702 A JP2022519702 A JP 2022519702A JP 2022519702 A JP2022519702 A JP 2022519702A JP 7402976 B2 JP7402976 B2 JP 7402976B2
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- track
- region
- data
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 100
- 238000012545 processing Methods 0.000 claims description 28
- 238000013507 mapping Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 description 13
- 238000004590 computer program Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 7
- 108050005509 3D domains Proteins 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- AWSBQWZZLBPUQH-UHFFFAOYSA-N mdat Chemical compound C1=C2CC(N)CCC2=CC2=C1OCO2 AWSBQWZZLBPUQH-UHFFFAOYSA-N 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本発明は、例えば、以下を提供する。
(項目1)
点群データ処理の方法であって、前記方法は、
点群データの3D領域と、前記3D領域の1つ以上の点が投影される点群トラックパッチフレームの2D領域とを決定することと、
前記2D領域に含まれるパッチフレームデータと、対応する点群コンポーネントトラックのビデオフレームデータとから、前記点群データの前記3D領域を再構築することと
を含む、方法。
(項目2)
前記点群データの前記3D領域と、前記3D領域の1つ以上の点が投影される前記点群トラックパッチフレームの前記2D領域とは、点群トラックサンプルエントリまたはサンプル内の要素に基づいて決定される、項目1に記載の方法。
(項目3)
特定のボックスタイプに従って前記点群トラック内のパッチデータボックスを識別することを含み、前記パッチデータボックスは、前記2D領域が前記点群データの前記3D領域を再構築するためのパッチデータを含むことを示す、項目1または項目2に記載の方法。
(項目4)
特定のボックスタイプに従って前記点群トラック内の2Dタイルデータボックスを識別することを含み、前記2Dタイルデータボックスは、前記2D領域が前記点群データの前記3D領域の2Dタイルデータを含むことを示す、項目1または項目2に記載の方法。
(項目5)
特定のボックスタイプに従って前記点群トラック内のタイルグループデータボックスを識別することを含み、前記タイルグループデータボックスは、前記2D領域が前記点群データの前記3D領域を再構築するためのタイルグループデータを含むことを示す、項目1または項目2に記載の方法。
(項目6)
前記決定することは、時間指定メタデータトラック内の要素に基づいて、前記点群データの前記3D領域を決定することを含み、前記時間指定メタデータトラックは、前記点群トラックへの特定のトラック参照を含む、項目1に記載の方法。
(項目7)
特定のサンプルエントリタイプに従って前記時間指定メタデータトラックを識別することを含み、
前記時間指定メタデータトラックは、前記2D領域が前記点群データの前記3D領域を再構築するための以下の情報:パッチデータ、2Dタイルデータ、タイルグループデータのうちの1つを含むことを示す、項目1または項目6に記載の方法。
(項目8)
点群データ処理の方法であって、前記方法は、
点群データの3D領域と、前記3D領域に対応する点群コンポーネントトラックグループとを決定することと、
前記点群コンポーネントトラックグループ内の点群コンポーネントトラックからのビデオフレームデータと、対応する点群トラックパッチフレームデータとに基づいて、前記点群データの前記3D領域を再構築することと
を含む、方法。
(項目9)
前記3D領域を決定することは、点群コンポーネントトラックのトラックグループデータボックス内の要素に基づいて、前記点群データの前記3D領域と、前記3D領域に対応する点群コンポーネントトラックグループとを決定することを含み、
前記点群コンポーネントトラックグループは、占有マップトラック、幾何学形状トラック、または属性トラックを含む、項目8に記載の方法。
(項目10)
特定のトラックグループタイプに従って前記点群コンポーネントトラック内のトラックグループデータボックスを識別することを含み、
前記トラックグループデータボックスは、前記点群コンポーネントトラックグループに対応する前記点群データの前記3D領域を示し、点群データの同じ3D領域に対応する点群データコンポーネントトラックの前記トラックグループデータボックスは、同じトラックグループ識別を有する、項目8または9に記載の方法。
(項目11)
前記特定のトラックグループタイプに従って前記点群コンポーネント2Dタイルトラック内のトラックグループデータボックスを識別することを含み、
前記トラックグループデータボックスは、前記点群コンポーネント2Dタイルトラックグループに対応する前記点群データの前記3D領域を示し、前記点群データの同じ3D領域に対応する点群コンポーネント2Dタイルトラックの前記トラックグループデータボックスは、同じトラックグループ識別を有する、項目8または9に記載の方法。
(項目12)
前記特定のトラックグループタイプに従って前記点群コンポーネントタイルグループトラック内のトラックグループデータボックスを識別することを含み、
前記トラックグループデータボックスは、前記点群コンポーネントタイルグループトラックグループに対応する前記点群データの前記3D領域を示し、前記点群データの同じ3D領域に対応する点群コンポーネントタイルグループトラックの前記トラックグループデータボックスは、同じトラックグループ識別を有する、項目8または9に記載の方法。
(項目13)
前記決定することは、
時間指定メタデータトラック内の要素に基づいて、前記点群データの前記3D領域と、前記3D領域に対応する点群コンポーネントトラックグループとを決定することを含み、
前記時間指定メタデータトラックは、前記点群コンポーネントトラックグループへの特定のトラック参照を含む、項目8に記載の方法。
(項目14)
特定のサンプルエントリタイプに従って前記時間指定メタデータトラックを識別することを含み、
前記時間指定メタデータトラックは、前記点群コンポーネントトラックグループに対応する前記点群データの前記3D領域を示す、項目8または項目13に記載の方法。
(項目15)
前記3D領域は、前記点群トラックパッチフレームの2つ以上の2D領域上に投影される点を含む、項目1-14のいずれかに記載の方法。
(項目16)
点群データの3D領域に関する情報は、3D境界ボックスパラメータを含み、前記3D境界ボックスパラメータは、前記3D領域のx、y、z座標オフセットおよび/または前記3D領域の幅、高さ、および奥行を含む、項目1-15のいずれか1項に記載の方法。
(項目17)
点群データの3D領域は、以下の情報:
点群データの標識と、
点群データの点の数と、
点群の属性の数およびタイプと
のうちの1つをさらに含む、項目1-16のいずれかに記載の方法。
(項目18)
前記点群トラックパッチフレームの前記2D領域に関する情報は、2D境界ボックスパラメータを含み、前記2D境界ボックスパラメータは、前記2D領域のx、y座標オフセットおよび/または前記2D領域の幅および高さを含む、項目1-17のいずれか1項に記載の方法。
(項目19)
点群トラックパッチフレームの2D領域は、以下の情報:
レイヤ情報と、
説明情報と、
パッチの数と、
2Dタイル情報と、
タイルグループ情報と
のうちの1つをさらに含む、項目1-18のいずれか1項に記載の方法。
(項目20)
項目1-19のうちのいずれかに規定される方法を実装するように構成されたプロセッサを備えているビデオ処理装置。
(項目21)
コンピュータ読み取り可能な媒体であって、前記コンピュータ読み取り可能な媒体は、上で説明される方法をプロセッサによって実行するためのコードを記憶している、コンピュータ読み取り可能な媒体。
または、
aligned(8) SpatialRegionInfoStruct() {
unsigned int(16) num_points;
string label;
unsigned int(4) num_attributes;
for (i = 0; i < num_attributes; i++) {
unsigned int(4) attribute_type[i];
}
unsigned int(1) 3d_bounding_box_present_flag;
if(3d_bounding_box_present_flag){
3DRegionStruct();
unsigned int(1) 2d_bounding_box_update_flag;
if(2d_bounding_box_update_flag)
2DRegionStruct();
}
}
aligned(8) class 3DRegionStruct(delta_included_flag) {
unsigned int(16) region_id;
unsigned int(16) 3d_bounding_box_x;
unsigned int(16) 3d_bounding_box_y;
unsigned int(16) 3d_bounding_box_z;
if (delta_included_flag) {
unsigned int(16) 3d_bounding_box_delta_x;
unsigned int(16) 3d_bounding_box_delta_y;
unsigned int(16) 3d_bounding_box_delta_z;
}
else {
unsigned int(16) 3d_bounding_box_width;
unsigned int(16) 3d_bounding_box_height;
unsigned int(16) 3d_bounding_box_depth;
}
}
aligned(8) class 2DRegionStruct() {
unsigned int(16) bounding_box_top;
unsigned int(16) bounding_box_left;
unsigned int(16) bounding_box_width;
unsigned int(16) bounding_box_height;
}
サンプルエントリタイプ:‘vpc1’、’vpcg’
コンテナ:SampleDescriptionBox (‘stsd’)
必須:‘vpc1’または‘vpcg’サンプルエントリが、必須である。
数量:1つ以上のサンプルエントリが、存在し得る。
aligned(8) class VPCCDecoderConfigurationRecord {
unsigned int(8) configurationVersion = 1;
sample_stream_vpcc_header header;
unsigned int(8) numOfSetupUnits;
for (i=0; i<numOfSetupUnits; i++) {
sample_stream_vpcc_unit setupUnit;
}
}
class VPCCConfigurationBox extends Box(’vpcc’) {
VPCCDecoderConfigurationRecord() VPCCConfig;
}
aligned(8) class VPCCSampleEntry() extends VolumetricVisualSampleEntry (’vpc1’) {
VPCCConfigurationBox config;
VPCCUnitHeaderHeaderBox unit;
VolumetricTileInfoBox();
}
aligned(8) class VolumetricTileInfoBox extends FullBox(’voti’,0,0) {
unsigned int(16) num_regions;
for (i = 0; i < num_regions; i++) {
SpatialRegionInfoStruct();
string region_intent[i];
unsigned int(4) layer_index[i];
unsigned int(4) mapping_type[i];
if(mapping_type[i] == 0) {
unsigned int(8) num_patches[i];
if(mapping_type[i] == 1) {
unsigned int(8) num_tiles[i];
for (j=0; j<num_tiles[i]; j++) {
unsigned int(32) tile_track_group_id[i][j];
if(mapping_type[i] == 2) {
unsigned int(8) num_tile_groups[i];
for (j=0; j<num_tile_groups[i]; j++) {
unsigned int(16) tile_group_id[i][j];
}
}
}
aligned(8) class VPCCSampleEntry() extends VolumetricVisualSampleEntry (’vpc1’) {
VPCCConfigurationBox config;
VPCCUnitHeaderHeaderBox unit;
3DRegionToPatchBox();
}
aligned(8) class 3DRegionToPatchBox extends FullBox(’r2pa’,0,0) {
unsigned int(16) num_regions;
for (i = 0; i < num_regions; i++) {
SpatialRegionInfoStruct();
string region_intent[i];
unsigned int(4) layer_index[i];
unsigned int(8) num_patches[i];
}
}
aligned(8) class VPCCSampleEntry() extends VolumetricVisualSampleEntry (’vpc1’) {
VPCCConfigurationBox config;
VPCCUnitHeaderHeaderBox unit;
3DRegionTo2DTileBox();
}
aligned(8) class 3DRegionTo2DTileBox extends FullBox(’r2ti’,0,0) {
unsigned int(16) num_regions;
for (i = 0; i < num_regions; i++) {
SpatialRegionInfoStruct();
string region_intent[i];
unsigned int(4) layer_index[i];
unsigned int(8) num_tiles[i];
for (j=0; j<num_tiles[i]; j++) {
unsigned int(16) tile_track_group_id[i][j];
}
}
}
aligned(8) class VPCCSampleEntry() extends VolumetricVisualSampleEntry (’vpc1’) {
VPCCConfigurationBox config;
VPCCUnitHeaderHeaderBox unit;
3DRegionToPatchTileGroupBox ();
}
aligned(8) class 3DRegionToPatchTileGroupBox extends FullBox(’rptg’,0,0) {
unsigned int(16) num_regions;
for (i = 0; i < num_regions; i++) {
SpatialRegionInfoStruct();
string region_intent[i];
unsigned int(4) layer_index[i];
unsigned int(8) num_tile_groups[i];
for (j=0; j<num_tile_groups[i]; j++) {
unsigned int(16) tile_group_id[i][j];
}
}
}
aligned(8) class VPCCSample
{
unsigned int VPCCLength = sample_size;
for (i=0; i< VPCCLength; ) {
sample_stream_vpcc_unit unit;
i += (ssvh_unit_size_precision_bytes_minus1 + 1) +
unit.ssvu_vpcc_unit_size;
}
VolumetricTileInfoBox();
}
vpcc_unit_payload_sizeは、vpcc_unit_payload()に関するバイト数を提供する。
vpcc_unit_payload()は、タイプVPCC_PDGのV-PCCユニットのペイロードであり、1つのpatch_data_group()事例を含むものとする。
aligned(8) class VPCCSample
{
unsigned int VPCCLength = sample_size;
for (i=0; i< VPCCLength; ) {
sample_stream_vpcc_unit unit;
i += (ssvh_unit_size_precision_bytes_minus1 + 1) +
unit.ssvu_vpcc_unit_size;
}
3DRegionToPatchBox();
}
aligned(8) class VPCCSample
{
unsigned int VPCCLength = sample_size;
for (i=0; i< VPCCLength; ) {
sample_stream_vpcc_unit unit;
i += (ssvh_unit_size_precision_bytes_minus1 + 1) +
unit.ssvu_vpcc_unit_size;
}
3DRegionTo2DTileBox();
}
aligned(8) class VPCCSample
{
unsigned int VPCCLength = sample_size;
for (i=0; i< VPCCLength; ) {
sample_stream_vpcc_unit unit;
i += (ssvh_unit_size_precision_bytes_minus1 + 1) +
unit.ssvu_vpcc_unit_size;
}
3DRegionToPatchTileGroupBox();
}
class VPCCSpatialRegionSampleEntry extends MetaDataSampleEntry(’pcsr’) {
VolumetricTileInfoBox();
}
aligned(8) VPCCSpatialRegionSample() {
VolumetricTileInfoBox();
}
VPCCTrackGroupBox
ボックスタイプ: ’pctg’
コンテナ: TrackBox
必須: いいえ
数量: ゼロまたは1
aligned(8) class VPCCTrackGroupBox extends TrackGroupTypeBox(’pctg’) {
SpatialRegionInfoStruct();
}
VPCC2DTileGroupBox
ボックスタイプ: ’pcti’
コンテナ: TrackBox
必須: いいえ
数量: ゼロまたは1
aligned(8) class VPCC2DTileGroupBox extends TrackGroupTypeBox(’pcti’) {
SpatialRegionInfoStruct();
}
VPCCTileGroupBox
ボックスタイプ: ’ptgg’
コンテナ: TrackBox
必須: いいえ
数量: ゼロまたは1
aligned(8) class PCCTileGroupBox extends TrackGroupTypeBox(’ptgg’) {
SpatialRegionInfoStruct();
unsigned int(16) tile_group_id;
}
class VPCCSpatialRegionSampleEntry extends MetaDataSampleEntry(’pcsr’) {
SpatialRegionInfoStruct();
}
aligned(8) VPCCSpatialRegionSample() {
SpatialRegionStruct();
}
Claims (12)
- 点群データ処理の方法であって、前記方法は、
点群データの3D領域を決定することと、
点群トラックパッチフレームの2D領域を決定することであって、前記3D領域の前記点群データ内の1つ以上の点が前記2D領域に投影される、ことと、
(a)特定のボックスタイプに従って前記点群トラック内のパッチデータボックスを識別すること、または、(b)前記特定のボックスタイプに従って前記点群トラック内の2Dタイルデータボックスを識別することであって、前記パッチデータボックスは、前記2D領域が前記点群データの前記3D領域を再構築するためのパッチデータを含むことを示し、前記2Dタイルデータボックスは、前記2D領域が前記点群データの前記3D領域の2Dタイルデータを含むことを示す、ことと、
前記2D領域に含まれているパッチフレームデータと、対応する点群コンポーネントトラックのビデオフレームデータとから、前記点群データの前記3D領域を再構築することと
を含む、方法。 - 前記点群データの前記3D領域と、前記3D領域の1つ以上の点が投影される前記点群トラックパッチフレームの前記2D領域とは、点群トラックサンプルエントリまたはサンプル内の要素に基づいて決定される、請求項1に記載の方法。
- 点群データ処理の方法であって、前記方法は、
点群データの3D領域と、前記3D領域の1つ以上の点が投影される点群トラックパッチフレームの2D領域とを決定することと、
前記2D領域に含まれているパッチフレームデータと、対応する点群コンポーネントトラックのビデオフレームデータとから、前記点群データの前記3D領域を再構築することと
を含み、
前記決定することは、時間指定メタデータトラック内の要素に基づいて、前記点群データの前記3D領域を決定することを含み、前記時間指定メタデータトラックは、前記点群トラックへの特定のトラック参照を含む、方法。 - 前記方法は、特定のサンプルエントリタイプに従って前記時間指定メタデータトラックを識別することを含み、
前記時間指定メタデータトラックは、前記点群データの前記3D領域を再構築するための情報として、パッチデータ、2Dタイルデータ、タイルグループデータのうちの1つを前記2D領域が含むことを示す、請求項3に記載の方法。 - 点群データ処理の方法であって、前記方法は、
点群データの3D領域を決定することと、
前記3D領域に対応する点群コンポーネントトラックグループを決定することと、
特定のトラックグループタイプに従って前記点群コンポーネントトラック内の第1のボックスを識別することであって、前記第1のボックスは、前記点群コンポーネントトラックグループに対応する前記点群データの前記3D領域を示し、前記点群データの同一のD領域に対応する点群データコンポーネントトラックの前記第1のボックスは、同一のトラックグループ識別を有する、ことと、
前記点群コンポーネントトラックグループ内の点群コンポーネントトラックからのビデオフレームデータと、対応する点群トラックパッチフレームデータとに基づいて、前記点群データの前記3D領域を再構築することであって、前記ビデオフレームデータは、1)デコード幾何学形状ビデオフレーム、2)デコード属性ビデオフレーム、3)デコード占有マップビデオフレーム、4)ブロックからパッチへのマッピング情報、または、5)出力順序における、フレームインデックスのうちの少なくとも1つを含む、ことと
を含む、方法。 - 前記3D領域を決定することは、点群コンポーネントトラックのトラックグループデータボックス内の要素に基づいて、前記点群データの前記3D領域と、前記3D領域に対応する前記点群コンポーネントトラックグループとを決定することを含み、
前記点群コンポーネントトラックグループは、占有マップトラック、幾何学形状トラック、または、属性トラックを含む、請求項5に記載の方法。 - 点群データ処理の方法であって、前記方法は、
点群データの3D領域と、前記3D領域に対応する点群コンポーネントトラックグループとを決定することと、
前記点群コンポーネントトラックグループ内の点群コンポーネントトラックからのビデオフレームデータと、対応する点群トラックパッチフレームデータとに基づいて、前記点群データの前記3D領域を再構築することと
を含み、
前記決定することは、時間指定メタデータトラック内の要素に基づいて、前記点群データの前記3D領域と、前記3D領域に対応する前記点群コンポーネントトラックグループとを決定することを含み、
前記時間指定メタデータトラックは、前記点群コンポーネントトラックグループへの特定のトラック参照を含む、方法。 - 前記方法は、特定のサンプルエントリタイプに従って前記時間指定メタデータトラックを識別することを含み、
前記時間指定メタデータトラックは、前記点群コンポーネントトラックグループに対応する前記点群データの前記3D領域を示す、請求項7に記載の方法。 - 前記点群データの前記3D領域に関する情報は、3D境界ボックスパラメータを含み、前記3D境界ボックスパラメータは、前記3D領域のx、y、z座標オフセット、および/または、前記3D領域の幅および高さおよび奥行を含む、請求項1に記載の方法。
- 前記点群トラックパッチフレームの前記2D領域に関する情報は、2D境界ボックスパラメータを含み、前記2D境界ボックスパラメータは、前記2D領域のx、y座標オフセット、および/または、前記2D領域の幅および高さ、パッチの説明情報、または、2Dタイル情報を含む、請求項9に記載の方法。
- 請求項1~10のうちのいずれか一項に記載の方法を実装するように構成されているプロセッサを備えているビデオ処理装置。
- 請求項1~10のいずれか一項に記載の方法をプロセッサによって実装するためのコードが記憶されているコンピュータ読み取り可能な媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2019/109490 WO2021062645A1 (en) | 2019-09-30 | 2019-09-30 | File format for point cloud data |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022550150A JP2022550150A (ja) | 2022-11-30 |
JP7402976B2 true JP7402976B2 (ja) | 2023-12-21 |
Family
ID=75337604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022519702A Active JP7402976B2 (ja) | 2019-09-30 | 2019-09-30 | 点群データのためのファイルフォーマット |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220215616A1 (ja) |
EP (1) | EP4042381A4 (ja) |
JP (1) | JP7402976B2 (ja) |
KR (1) | KR102624994B1 (ja) |
CN (1) | CN114365194A (ja) |
WO (1) | WO2021062645A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11875539B2 (en) * | 2020-03-16 | 2024-01-16 | Samsung Electronics Co., Ltd. | Partial access metadata for video-based point cloud compression data |
CN115618027A (zh) * | 2021-07-12 | 2023-01-17 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置、计算机及可读存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019082958A1 (ja) | 2017-10-27 | 2019-05-02 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 三次元モデル符号化装置、三次元モデル復号装置、三次元モデル符号化方法、および、三次元モデル復号方法 |
WO2019142666A1 (ja) | 2018-01-16 | 2019-07-25 | ソニー株式会社 | 画像処理装置および方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080310757A1 (en) * | 2007-06-15 | 2008-12-18 | George Wolberg | System and related methods for automatically aligning 2D images of a scene to a 3D model of the scene |
CN107067462A (zh) * | 2017-03-10 | 2017-08-18 | 东华大学 | 基于视频流的织物三维悬垂形态重建方法 |
US10198858B2 (en) * | 2017-03-27 | 2019-02-05 | 3Dflow Srl | Method for 3D modelling based on structure from motion processing of sparse 2D images |
AU2019342612B2 (en) * | 2018-09-18 | 2024-05-16 | Vid Scale, Inc. | Methods and apparatus for point cloud compression bitstream format |
CN110009743B (zh) * | 2019-02-22 | 2023-04-04 | 南京航空航天大学 | 一种场景理解的网格曲面重建方法 |
US11245926B2 (en) * | 2019-03-19 | 2022-02-08 | Mediatek Singapore Pte. Ltd. | Methods and apparatus for track derivation for immersive media data tracks |
WO2020189903A1 (ko) * | 2019-03-20 | 2020-09-24 | 엘지전자 주식회사 | 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법 |
CN110189412B (zh) * | 2019-05-13 | 2023-01-03 | 武汉大学 | 基于激光点云的多楼层室内结构化三维建模方法及系统 |
-
2019
- 2019-09-30 JP JP2022519702A patent/JP7402976B2/ja active Active
- 2019-09-30 EP EP19948013.8A patent/EP4042381A4/en active Pending
- 2019-09-30 CN CN201980100291.2A patent/CN114365194A/zh active Pending
- 2019-09-30 KR KR1020227014438A patent/KR102624994B1/ko active IP Right Grant
- 2019-09-30 WO PCT/CN2019/109490 patent/WO2021062645A1/en unknown
-
2022
- 2022-03-25 US US17/704,781 patent/US20220215616A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019082958A1 (ja) | 2017-10-27 | 2019-05-02 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 三次元モデル符号化装置、三次元モデル復号装置、三次元モデル符号化方法、および、三次元モデル復号方法 |
WO2019142666A1 (ja) | 2018-01-16 | 2019-07-25 | ソニー株式会社 | 画像処理装置および方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2022550150A (ja) | 2022-11-30 |
US20220215616A1 (en) | 2022-07-07 |
EP4042381A1 (en) | 2022-08-17 |
KR102624994B1 (ko) | 2024-01-12 |
CN114365194A (zh) | 2022-04-15 |
EP4042381A4 (en) | 2022-11-02 |
WO2021062645A1 (en) | 2021-04-08 |
KR20220071256A (ko) | 2022-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112019857B (zh) | 用于压缩点云的存储和信号发送的方法和装置 | |
CN111869201B (zh) | 处理和发送三维内容的方法 | |
KR102559862B1 (ko) | 미디어 콘텐츠 전송을 위한 방법, 디바이스, 및 컴퓨터 프로그램 | |
US12058379B2 (en) | Point cloud data processing | |
US11412267B2 (en) | Storage of multiple atlases from one V-PCC elementary stream in ISOBMFF | |
CN114697668B (zh) | 点云媒体的编解码方法及相关产品 | |
US20220215616A1 (en) | File format for point cloud data | |
CN113852829A (zh) | 点云媒体文件的封装与解封装方法、装置及存储介质 | |
US12101508B2 (en) | Volumetric media process methods and apparatus | |
WO2024183506A1 (zh) | 沉浸媒体的数据处理方法、装置、计算机设备、存储介质及程序产品 | |
WO2021058814A1 (en) | Merging friendly file format | |
CN115086635B (zh) | 多视角视频的处理方法、装置、设备及存储介质 | |
KR102715954B1 (ko) | 다중-트랙 기반 몰입형 미디어 플레이아웃 | |
KR102721361B1 (ko) | 포인트 클라우드 데이터 프로세싱 | |
WO2023169003A1 (zh) | 点云媒体的解码方法、点云媒体的编码方法及装置 | |
KR20230113781A (ko) | 몰입형 미디어의 다중 아틀라스 캡슐화 | |
KR20230121856A (ko) | 다중-트랙 기반 몰입형 미디어 플레이아웃 | |
CN115426502A (zh) | 点云媒体的数据处理方法、装置、设备及存储介质 | |
CN116939290A (zh) | 媒体数据处理方法、装置、设备及存储介质 | |
CN115061984A (zh) | 点云媒体的数据处理方法、装置、设备、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220527 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230704 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231211 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7402976 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |