WO2022145357A1 - 情報処理装置および方法 - Google Patents
情報処理装置および方法 Download PDFInfo
- Publication number
- WO2022145357A1 WO2022145357A1 PCT/JP2021/048117 JP2021048117W WO2022145357A1 WO 2022145357 A1 WO2022145357 A1 WO 2022145357A1 JP 2021048117 W JP2021048117 W JP 2021048117W WO 2022145357 A1 WO2022145357 A1 WO 2022145357A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- information
- file
- data
- tracks
- track
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 196
- 230000010365 information processing Effects 0.000 title claims abstract description 76
- 238000003672 processing method Methods 0.000 claims abstract description 15
- 238000012545 processing Methods 0.000 claims description 171
- 230000006978 adaptation Effects 0.000 claims description 21
- 238000007906 compression Methods 0.000 claims description 13
- 230000005540 biological transmission Effects 0.000 claims description 12
- 230000006835 compression Effects 0.000 claims description 8
- 230000003044 adaptive effect Effects 0.000 claims description 7
- 238000012546 transfer Methods 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 7
- 230000008520 organization Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 description 64
- 230000006870 function Effects 0.000 description 37
- 238000005516 engineering process Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 23
- 238000004458 analytical method Methods 0.000 description 14
- 238000007781 pre-processing Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 10
- 238000009877 rendering Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 5
- 241000509579 Draco Species 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- VBRBNWWNRIMAII-WYMLVPIESA-N 3-[(e)-5-(4-ethylphenoxy)-3-methylpent-3-enyl]-2,2-dimethyloxirane Chemical compound C1=CC(CC)=CC=C1OC\C=C(/C)CCC1C(C)(C)O1 VBRBNWWNRIMAII-WYMLVPIESA-N 0.000 description 3
- 230000001629 suppression Effects 0.000 description 3
- 241000272525 Anas platyrhynchos Species 0.000 description 2
- 230000003796 beauty Effects 0.000 description 2
- 244000144972 livestock Species 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/85406—Content authoring involving a specific file format, e.g. MP4 format
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/23439—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/262—Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
- H04N21/26258—Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for generating a list of items to be played back in a given order, e.g. playlist, or scheduling item distribution according to such list
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
Definitions
- glTF The GL Transmission Format
- glTF2.0 for example, as shown in FIG. 1, it is composed of a JSON format file (.glTF), a binary file (.bin), and an image file (.png, .jpg, etc.).
- Binary files store binary data such as geometry and animation.
- the image file stores data such as textures.
- step S22 the glTF analysis unit 63 confirms the media associated with the 3D object (texture), the buffer that stores the media after processing, and the accessor.
- step S23 the glTF analysis unit 63 notifies the media access function 52 of the information as a file acquisition request.
- the multitrack structure is a method of storing geometry video subbitstreams, attribute video subbitstreams, occupancy video subbitstreams, and atlas subbitstreams in separate tracks. Since each video sub-bitstream is a conventional 2D video stream, it can be stored (managed) in the same manner as in the case of 2D.
- FIG. 22 shows an example of file configuration when a multi-track structure is applied. As shown in FIG. 22, in the case of a multi-track structure, one track (V3C track) is information for accessing another track (also referred to as a component track) that stores a V3C bit stream. Stores track references. In other words, each component track is associated with a V3C track by this track reference.
- the specification of the reference destination for some tracks among the plurality of tracks constituting the file container is omitted.
- the reference relationship between tracks can be obtained in a file container such as ISOBMFF or a control file such as MPD. Therefore, the acquisition unit may omit the specification of the reference destination for some tracks in the track information. You can get the data of 3D object contents. Therefore, by doing so, it is possible to suppress an increase in the redundancy of the track information and suppress an increase in the amount of data in the scene description.
- the data of the 3D object content may be a V3C (Visual Volumetric Video-based Coding) bitstream in which the point cloud is encoded by a method conforming to V-PCC (Video-based Point Cloud Compression).
- V-PCC Video-based Point Cloud Compression
- the file generation unit 114 applies the method 1 described above, and among a plurality of tracks of the file container that manages information about the data of the 3D object content, some tracks having information for accessing other tracks. You may generate a scene description file that contains track information that you specify as a reference.
- the input unit 111 of the file generation device 100 acquires the data (3D data) of the 3D object in step S101.
- the input unit 111 acquires point cloud data as this 3D data.
- the 3D object content may be delivered by a method compliant with MPEG-DASH.
- the control file may be an MPD.
- step S205 the decoding unit 213 decodes the 3D object content data (bitstream of encoded data) acquired in step S204.
- the file processing unit 212 is ⁇ 2.
- various methods of this technique are applied to acquire a control file based on the track information, and the control file is specified by the track information. It refers to the tracks stored in the adaptation set and acquires the data of the 3D object content managed in all the tracks based on the reference relationship between the tracks. Therefore, by executing the client processing in this way, the client device 200 can suppress an increase in the redundancy of the track information of the scene description, and can suppress an increase in the amount of data in the scene description. can. Further, the client device 200 is described in ⁇ 2. It is possible to obtain the same effect as described in Suppressing redundancy of track information>.
- the "POSITION" and “COLOR” properties of MPEG_vpcc can be omitted. It may be provided only when necessary.
- FIG. 44 is a diagram showing an example of the configuration of the object in this case.
- a new extension MPEG_vpcc
- An attribute object (attribute) is provided in the MPEG_vpcc.
- General-purpose objects (vpccattributes) that store information of arbitrary attributes are specified in the attribute object.
- vpccattributes there are a property (acceId) that indicates the data to be stored, a property (attrId) that indicates the buffer that stores the data, and a property (attrType) that indicates the type of the data.
- the data to be stored can be specified by using arbitrary information.
- the above-mentioned method 2 (including method 2-1 to method 2-4) can be applied to any device.
- it may be applied to a file generator that generates information for distribution of 3D object contents.
- the configuration of the file generation device is the same as that described with reference to FIG. 28.
- the file generation unit 114 may specify an object in mesh.primitives for storing information on the position, color, and attributes of the 3D object content. ..
- step S402 the preprocessing unit 112 uses the information used to generate the scene description, which is the spatial arrangement information for arranging one or more 3D objects in the 3D space, from the data of the 3D objects acquired in step S401. To get. Then, the file generation unit 114 uses the information to generate a scene description file.
- the scene description which is the spatial arrangement information for arranging one or more 3D objects in the 3D space
- the file processing unit 212 applies the above method 2 and is based on information about attributes other than the color of the 3D object content stored in the object specified in the scene description file that describes the scene of the 3D object content. , You may get the data of that attribute.
- the file processing unit 212 realizes such processing by controlling the file acquisition unit 211. That is, the file processing unit 212 can be said to be an acquisition unit.
- the 3D object content may be a point cloud.
- the scene description file may be described by a method conforming to glTF2.0.
- the object may also be specified in mesh.primitives of the scene description file.
- step S504 the decoding unit 213 decodes the coded data (V3C bit stream) acquired in step S503 and generates video data and the like. That is, the decoding unit 213 obtains atlas information, geometry frames, attribute frames, occupancy maps, and the like. The decoding unit 213 further reconstructs the point cloud using these obtained data, and generates the data (geometry, attributes, etc.) of the point cloud. Then, the decoding unit 213 stores the obtained point cloud data in a buffer designated by the scene description file.
- step S505 the display information generation unit 214 acquires point cloud data (geometry, attributes, etc.) from the buffer based on the scene description. That is, the display information generation unit 214 acquires the position information, the color information, and other attribute information of the point cloud.
- the display information generation unit 214 arranges the point cloud (3D object) in the three-dimensional space according to the scene description, renders the point cloud, and generates a display image.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
1.MPEG-I Scene Description
2.トラック情報の冗長性の抑制
3.アトリビュートの指定
4.付記
<技術内容・技術用語をサポートする文献等>
本技術で開示される範囲は、実施の形態に記載されている内容だけではなく、出願当時において公知となっている以下の非特許文献等に記載されている内容や以下の非特許文献において参照されている他の文献の内容等も含まれる。
非特許文献2:(上述)
非特許文献3:(上述)
非特許文献4:(上述)
従来、例えば、非特許文献1に記載のように、3D(3次元)オブジェクトを3次元空間内に配置するためのフォーマットであるglTF(The GL Transmission Format)(登録商標)2.0があった。glTF2.0では、例えば図1に示されるように、JSONフォーマットファイル(.glTF)と、バイナリファイル(.bin)と、イメージファイル(.pngや.jpg等)とにより構成される。バイナリファイルは、ジオメトリやアニメーション等のバイナリデータを格納する。イメージファイルは、テクスチャ等のデータを格納する。
“KEY”:”VALUE”
“user”:{"id":1, "name":"tanaka”}
test":["hoge", "fuga", "bar"]
"users":[{"id":1, "name":"tanaka"},{"id":2,"name":"yamada"},{"id":3, "name":"sato"}]
次に、MPEG-I Scene Descriptionにおけるクライアント装置の処理について説明する。クライアント装置は、シーンディスクリプションを取得し、そのシーンディスクリプションに基づいて3Dオブジェクトのデータを取得し、そのシーンディスクリプションや3Dオブジェクトのデータを用いて表示画像を生成する。
近年、例えば、非特許文献2に示されるように、MPEG-I Scene Descriptionにおいて、glTF2.0を拡張し、3Dオブジェクトコンテンツとしてタイムドメディア(Timed media)を適用することが検討されている。タイムドメディアとは、2次元画像における動画像のように、時間軸方向に変化するメディアデータである。
"media":[
{"name":"source_1", "renderingRate":30.0, "startTime":9.0, "timeOffset":0.0,
"loop":"true", "controls":"false",
"alternatives":[{"mimeType":"video/mp4;codecs=\"avc1.42E01E\"", "uri":"video1.mp4",
"tracks":[{"track":""#track_ID=1"}]
}]
}
]
}
シーンディスクリプションは、1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報である。このシーンディスクリプションは、時間軸に沿ってその内容を更新することができる。つまり、時間の経過とともに、3Dオブジェクトの配置を更新することができる。その際のクライアント装置において行われるクライアント処理について説明する。
ところで、例えば非特許文献3に記載のように、3次元空間上に位置情報と属性情報(色や反射等)を同時に持つ点の集合であるポイントクラウド(point cloud)の符号化方式として、ポイントクラウドをセグメンテーションして領域を形成し、その領域毎に平面投影して動画コーデックにより符号化するV-PCC(Video based Point Cloud Compression)が提案された。
また、例えば非特許文献4に記載のように、このV-PCCで符号化されたポイントクラウドの符号化データにより構成されるV3CビットストリームをISOBMFFに格納する方法が検討された。非特許文献4には、V3CビットストリームをISOBMFFに格納する方法として、シングルトラックストラクチャ(single track structure)とマルチトラックストラクチャ(multi-track structure)との2種類が規定されている。
シーンディスクリプションのMPEGメディアオブジェクト(MPEG_media)には、3Dオブジェクトコンテンツのデータ(V3Cビットストリーム)を取得するための情報が格納される。例えば、V3Cビットストリームを格納するファイル(例えば、MP4ファイル)、または、そのV3Cビットストリームの配信を制御するための制御ファイル(例えば、MPD)を、uriによって指定する情報が格納される。また、V3Cビットストリームを格納するトラックを参照先として指定するトラック情報(tracks配列)が格納される。このトラック情報は、トラックプロパティ(track property)において、トラックの識別情報(track ID)(MPDの場合はAdaptationSet ID)を用いて参照先とするトラックを指定する。
"codecs":"v3e1"
{“track”:“#track=1”
“codecs”: “v3c1”},
{“track”:“#track=2”
“codecs”: “resv.vvvc.hvc1”},
{“track”:“#track=3”
“codecs”: “resv.vvvc.hvc1”},
{“track”:“#track=4”
“codecs”: “resv.vvvc.hvc1”}
]
しかしながら、ISOBMFFがマルチトラックストラクチャの場合、V3Cトラックに紐づく他のコンポーネントトラックの情報は、DASHレイヤやISOBMFFレイヤの情報に格納されており、デコーダはそこからその情報を取得することができる。したがって、上述のようなシーンディスクリプション(のトラック情報)において、全てのトラックを参照先として指定することは冗長であり、シーンディスクリプションのデータ量が不要に増大するおそれがあった。
そこで、図26の表の最上段に示されるように、シーンディスクリプションにおいて、マルチトラックストラクチャのファイルコンテナの他のトラックの情報を持つ一部のトラックが参照先として指定されるようにしてもよい(方法1)。
上述した方法1が適用される場合において、図26の表の上から2段目に示されるように、ファイルコンテナのトラックリファレンスを格納するトラックが参照先として指定されてもよい(方法1-1)。
上述した方法1が適用される場合において、図26の表の最下段に示されるように、MPD(Media Presentation Description)の、ファイルコンテナのトラックリファレンスを格納するトラックを管理するアダプテーションセットが参照先として指定されてもよい(方法1-2)。MPDは、MPEG-DASH(Moving Picture Experts Group Dynamic Adaptive Streaming over Hypertext Transfer Protocol)に準拠する方式で配信される3Dオブジェクトコンテンツのデータの配信を制御するための制御ファイルである。
以上のような方法1が適用される場合のシーンディスクリプション(MPEGメディアオブジェクト(MPEG_media))の記述例を、図27に示す。図27においては、方法1-2が適用される場合の記述例、すなわち、参照先としてMPDのアダプテーションセットが指定される場合の記述例を、一例として示す。例えば、この記述例の下から8行目においては、V3Cビットストリームを取得するための情報として、V3Cビットストリームの配信を制御するためのMPDが、uriによって下記のように指定されている。
“tracks”:“#track=1”
“codecs”: “v3c1”
}]
上述した方法1(方法1-1および方法1-2を含む)は、任意の装置に適用し得る。図28は、本技術を適用した情報処理装置の一態様であるファイル生成装置の構成の一例を示すブロック図である。図28に示されるファイル生成装置100は、3Dオブジェクトコンテンツの配信用の情報を生成する装置である。例えば、ファイル生成装置100は、配信する3Dオブジェクトコンテンツファイルを生成したり、その3Dオブジェクトコンテンツのシーン記述ファイル(シーンディスクリプション)を生成したりする。
このような構成のファイル生成装置100が実行するファイル生成処理の流れの例を、図29のフローチャートを参照して説明する。
図30は、本技術を適用した情報処理装置の一態様であるクライアント装置の構成の一例を示すブロック図である。図30に示されるクライアント装置200は、シーン記述ファイル(シーンディスクリプション)に基づいて、3Dオブジェクトコンテンツの再生処理を行う再生装置である。例えば、クライアント装置200は、ファイル生成装置100により生成された3Dオブジェクトファイルに格納される3Dオブジェクトのデータを再生する。その際、クライアント装置200は、シーンディスクリプションに基づいて、その再生に関する処理を行う。
以上のような構成のクライアント装置200において、ファイル処理部212は、本技術を適用してシーンディスクリプションファイルや、(MPDや、)3Dオブジェクトコンテンツのデータ等を取得する。
このような構成のクライアント装置200が実行するクライアント処理の流れの例を、図31のフローチャートを参照して説明する。図31のフローチャートは、方法1-1が適用される場合のクライアント処理の流れの例である。
次に、方法1-2が適用される場合のクライアント処理の流れの例を、図32のフローチャートを参照して説明する。
<バッファに格納されるデータ>
ところで、例えば、glTF2.0でポイントクラウドの3Dオブジェクトコンテンツを提供するシステムにおいて、MPEG-I Part 14 Scene Description for MPEG Mediaの規定を適用してV3Cビットストリームを管理する場合について考える。
ケース2:V-PCC decode後のdata(すなわちdecoded component video data)
ケース1の場合の、シーンディスクリプションにおけるオブジェクトの構成例を図34に示す。このケース1の場合、バッファには再構成されたポイントクラウドデータ(ジオメトリとアトリビュート)が格納されるので、mesh.primitives内のアトリビュートオブジェクト(attribute)においては、位置情報(POSITION)と色情報(COLOR_0)のプロパティが設定され、それぞれのプロパティにおいて、それぞれの情報が格納されるバッファへのアクセサ(accessor)が指定される。
ケース2の場合の、シーンディスクリプションにおけるオブジェクトの構成例を図36に示す。このケース2の場合、バッファには復号されたビデオデータ(decoded component video data)等が格納される。つまり、ジオメトリビデオフレーム、アトリビュートビデオフレーム、オキュパンシーマップ、アトラス情報等がバッファに格納される。ただし、既存のglTF2.0でそのようなデータをシグナルする方法が無い。そのため、シーンディスクリプションにおいては、図36に示されるように、mesh.primitives内において、extension(MPEG_vpcc)が規定され、それぞれのビデオデータ(decoded component video data)にアクセスするためのアクセサの識別情報が格納される。すなわち、MPEG_vpcc内においてオブジェクト(vpccattr)が規定され、そのvpccattrにおいて、アトラス(atras)、ジオメトリ(geometry)、アトリビュート(attributre)、オキュパンシー(occupancy)等のプロパティが設定され、それぞれのプロパティにおいて、それぞれのビットストリームが格納されるバッファへのアクセサ(accessor)が指定される。
図38に示されるように、ポイントクラウドのアトリビュートには、色情報以外の情報も含まれ得る。しかしながら、glTF2.0のprimitives.attributesのプロパティにおいては、位置情報(POSITION)と色情報(COLOR)しか取り扱うことができなかった。そのため、V3Cビットストリームを復号して得られたデータに色情報以外のアトリビュートのデータ(glTF2.0のprimitives.attributesのpropertyでは表せない種類のデータ)が含まれる場合、ポイントクラウドを正しく再構成することが困難であった。これは、上述したケース1およびケース2の両方において起こり得る。
上述したケース1の場合、すなわち、V3Cビットストリームが復号され、ポイントクラウドが再構成され、得られたポイントクラウドデータがバッファに格納される場合について説明する。このケース1において上述した方法1を適用する場合において、図39の上から2番目の段に示されるように、extensionを用いて色情報以外のアトリビュート情報を格納するオブジェクトを規定してもよい(方法2-1)。
上述したケース2の場合、すなわち、V3Cビットストリームが復号され、得られたビデオデータ等がバッファに格納される場合について説明する。このケース2において上述した方法1を適用する場合において、図39の上から4番目の段に示されるように、extensionを用いてアトラス情報、ジオメトリ情報、ポイントクラウドの色以外のアトリビュートを含むアトリビュート情報、オキュパンシー情報を格納するオブジェクトを規定してもよい(方法2-3)。
上述したケース1において上述した方法1を適用する場合において、図39の最下段に示されるように、extensionを用いて汎用のアトリビュート情報を格納するオブジェクトを規定してもよい(方法2-4)。
上述した方法2(方法2-1乃至方法2-4を含む)は、任意の装置に適用し得る。例えば、3Dオブジェクトコンテンツの配信用の情報を生成するファイル生成装置に適用してもよい。その場合、ファイル生成装置の構成は、図28を参照して説明した場合と同様である。
このような構成のファイル生成装置100が実行するファイル生成処理の流れの例を、図46のフローチャートを参照して説明する。
また、本技術は、3シーン記述ファイル(シーンディスクリプション)に基づいて、3Dオブジェクトコンテンツの再生処理を行う再生装置であるクライアント装置に適用してもよい。その場合、クライアント装置の構成は、図30を参照して説明した場合と同様である。
このような構成のクライアント装置200が実行するクライアント処理の流れの例を、図47のフローチャートを参照して説明する。図47のフローチャートは、ケース1の場合のクライアント処理の流れの例である。
次に、ケース2の場合のクライアント処理の流れの例を、図48のフローチャートを参照して説明する。
<組み合わせ>
矛盾が生じない限り、上述した各種方法の任意の複数の方法を組み合わせて適用してもよい。例えば、方法1と方法2を組み合わせて適用してもよい。また、上述した各種方法を、上述していない他の任意の方法と組み合わせて適用してもよい。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
本技術は、任意の符号化・復号方式に適用することができる。
本技術を適用したシステム、装置、処理部等は、例えば、交通、医療、防犯、農業、畜産業、鉱業、美容、工場、家電、気象、自然監視等、任意の分野に利用することができる。また、その用途も任意である。
なお、本明細書において「フラグ」とは、複数の状態を識別するための情報であり、真(1)または偽(0)の2状態を識別する際に用いる情報だけでなく、3以上の状態を識別することが可能な情報も含まれる。したがって、この「フラグ」が取り得る値は、例えば1/0の2値であってもよいし、3値以上であってもよい。すなわち、この「フラグ」を構成するbit数は任意であり、1bitでも複数bitでもよい。また、識別情報(フラグも含む)は、その識別情報をビットストリームに含める形だけでなく、ある基準となる情報に対する識別情報の差分情報をビットストリームに含める形も想定されるため、本明細書においては、「フラグ」や「識別情報」は、その情報だけではなく、基準となる情報に対する差分情報も包含する。
(1) 3Dオブジェクトコンテンツのデータに関する情報を管理するファイルコンテナの複数のトラックの内、他のトラックにアクセスするための情報を持つ一部のトラックを参照先として指定するトラック情報を含む、前記3Dオブジェクトコンテンツのシーンを記述するシーン記述ファイルを生成するファイル生成部
を備える情報処理装置。
(2) 前記トラック情報は、全ての前記他のトラックにアクセスするための情報を持つ単数のトラックを前記参照先として指定する情報である
(1)に記載の情報処理装置。
(3) 前記トラック情報は、前記ファイルコンテナの前記複数のトラックの内、全ての前記他のトラックにアクセスするためのトラックリファレンスを持つ前記単数のトラックを前記参照先として指定する情報である
(2)に記載の情報処理装置。
(4) 前記トラック情報は、前記3Dオブジェクトコンテンツのデータの配信を制御するための制御ファイルにおける、前記単数のトラックの情報を格納するアダプテーションセットを前記参照先として指定する情報である
(2)に記載の情報処理装置。
(5) 前記3Dオブジェクトコンテンツは、MPEG-DASH(Moving Picture Experts Group Dynamic Adaptive Streaming over Hypertext Transfer Protocol)に準拠する方式で配信され、
前記制御ファイルは、MPD(Media Presentation Description)である
(4)に記載の情報処理装置。
(6) 前記ファイルコンテナは、マルチトラックストラクチャを適用するISOBMFF(International Organization for Standardization Base Media File Format)である
(1)乃至(5)のいずれかに記載の情報処理装置。
(7) 前記3Dオブジェクトコンテンツのデータは、ポイントクラウドがV-PCC(Video-based Point Cloud Compression)に準拠する方式で符号化されたV3C(Visual Volumetric Video-based Coding)ビットストリームである
(1)乃至(6)のいずれかに記載の情報処理装置。
(8) 前記シーン記述ファイルは、glTF(The GL Transmission Format)2.0に準拠する方式で記述される
(1)乃至(7)のいずれかに記載の情報処理装置。
(9) 3Dオブジェクトコンテンツのデータに関する情報を管理するファイルコンテナの複数のトラックの内、他のトラックにアクセスするための情報を持つ一部のトラックを参照先として指定するトラック情報を含む、前記3Dオブジェクトコンテンツのシーンを記述するシーン記述ファイルを生成する
情報処理方法。
を備える情報処理装置。
(12) 前記トラック情報は、全ての前記他のトラックにアクセスするための情報を持つ単数のトラックを前記参照先として指定する情報である
(11)に記載の情報処理装置。
(13) 前記トラック情報は、前記ファイルコンテナの前記複数のトラックの内、全ての前記他のトラックにアクセスするためのトラックリファレンスを持つ前記単数のトラックを前記参照先として指定する情報であり、
前記取得部は、前記トラック情報に基づいて前記単数のトラックを参照し、前記トラックリファレンスに基づいて全ての前記トラックにおいて管理される前記3Dオブジェクトコンテンツのデータを取得する
(12)に記載の情報処理装置。
(14) 前記トラック情報は、前記3Dオブジェクトコンテンツのデータの配信を制御するための制御ファイルにおける、前記単数のトラックの情報を格納するアダプテーションセットを前記参照先として指定する情報であり、
前記取得部は、前記制御ファイルを取得し、前記制御ファイルの、前記トラック情報により指定された前記アダプテーションセットの情報に基づいて前記単数のトラックを参照し、前記トラック間の参照関係に基づいて、全ての前記トラックにおいて管理される前記3Dオブジェクトコンテンツのデータを取得する
(12)に記載の情報処理装置。
(15) 前記3Dオブジェクトコンテンツは、MPEG-DASH(Moving Picture Experts Group Dynamic Adaptive Streaming over Hypertext Transfer Protocol)に準拠する方式で配信され、
前記制御ファイルは、MPD(Media Presentation Description)である
(14)に記載の情報処理装置。
(16) 前記ファイルコンテナは、マルチトラックストラクチャを適用するISOBMFF(International Organization for Standardization Base Media File Format)である
(11)乃至(15)のいずれかに記載の情報処理装置。
(17) 前記3Dオブジェクトコンテンツのデータは、ポイントクラウドがV-PCC(Video-based Point Cloud Compression)に準拠する方式で符号化されたV3C(Visual Volumetric Video-based Coding)ビットストリームである
(11)乃至(16)のいずれかに記載の情報処理装置。
(18) 前記シーン記述ファイルは、glTF(The GL Transmission Format)2.0に準拠する方式で記述される
(11)乃至(17)のいずれかに記載の情報処理装置。
(19) 3Dオブジェクトコンテンツのデータに関する情報を管理するファイルコンテナの複数のトラックの内、他のトラックにアクセスするための情報を持つ一部のトラックを参照先として指定するトラック情報を含む、前記3Dオブジェクトコンテンツのシーンを記述するシーン記述ファイル、および、前記トラック間の参照関係に基づいて、全ての前記トラックにおいて管理される前記3Dオブジェクトコンテンツのデータを取得する
情報処理方法。
を備える情報処理装置。
(22) 前記3Dオブジェクトコンテンツはポイントクラウドであり、
前記ファイル生成部は、
glTF(The GL Transmission Format)2.0に準拠する方式で記述される前記シーン記述ファイルを生成し、
前記オブジェクトを前記シーン記述ファイルのmesh.primitives内に規定する
(21)に記載の情報処理装置。
(23) 前記ファイル生成部は、前記mesh.primitives内にextensionを規定し、前記extension内に前記オブジェクトを規定する
(22)に記載の情報処理装置。
(24) 前記オブジェクトは、前記3Dオブジェクトコンテンツのデータにおける前記アトリビュートのデータの識別情報と、前記アトリビュートのデータが格納されるバッファに紐づくaccessorの識別情報とを格納する
(23)に記載の情報処理装置。
(25) 前記オブジェクトは、前記アトリビュートのタイプを示す情報をさらに格納する
(24)に記載の情報処理装置。
(26) 前記オブジェクトは、前記3Dオブジェクトコンテンツのアトラス情報が格納されるバッファに紐づくaccessorの識別情報、前記3Dオブジェクトコンテンツのジオメトリが格納されるバッファに紐づくaccessorの識別情報、前記3Dオブジェクトコンテンツの全てのアトリビュートが格納されるバッファに紐づくaccessorの識別情報、および、前記3Dオブジェクトコンテンツのオキュパンシー情報が格納されるバッファに紐づくaccessorの識別情報を格納する
(23)に記載の情報処理装置。
(27) 前記ファイル生成部は、前記mesh.primitives内に、前記3Dオブジェクトコンテンツの位置に関する情報、色に関する情報、および前記アトリビュートに関する情報を格納する前記オブジェクトを規定する
(22)に記載の情報処理装置。
(28) 3Dオブジェクトコンテンツの色以外のアトリビュートに関する情報を格納するオブジェクトを有する、前記3Dオブジェクトコンテンツのシーンを記述するシーン記述ファイルを生成する
情報処理方法。
を備える情報処理装置。
(32) 前記3Dオブジェクトコンテンツはポイントクラウドであり、
前記シーン記述ファイルは、glTF(The GL Transmission Format)2.0に準拠する方式で記述され、
前記オブジェクトは、前記シーン記述ファイルのmesh.primitives内に規定される
(31)に記載の情報処理装置。
(33) 前記オブジェクトは、前記mesh.primitives内に規定されたextension内に規定される
(32)に記載の情報処理装置。
(34) 前記取得部は、前記オブジェクトに格納される、前記3Dオブジェクトコンテンツのデータにおける前記アトリビュートのデータの識別情報と、前記アトリビュートのデータが格納されるバッファに紐づくaccessorの識別情報とに基づいて、前記バッファから前記アトリビュートのデータを取得する
(33)に記載の情報処理装置。
(35) 前記取得部は、さらに、前記オブジェクトに格納される、前記アトリビュートのタイプを示す情報に基づいて、前記バッファから前記アトリビュートのデータを取得する
(34)に記載の情報処理装置。
(36) 前記取得部は、前記3Dオブジェクトコンテンツのアトラス情報が格納されるバッファに紐づくaccessorの識別情報、前記3Dオブジェクトコンテンツのジオメトリが格納されるバッファに紐づくaccessorの識別情報、および、前記3Dオブジェクトコンテンツのオキュパンシー情報が格納されるバッファに紐づくaccessorの識別情報とともに前記オブジェクトに格納される、前記3Dオブジェクトコンテンツの全てのアトリビュートが格納されるバッファに紐づくaccessorの識別情報に基づいて、前記バッファからデータを取得する
(33)に記載の情報処理装置。
(37) 前記オブジェクトは、さらに、前記3Dオブジェクトコンテンツの位置に関する情報、および、前記3Dオブジェクトコンテンツの色に関する情報を格納する
(32)に記載の情報処理装置。
(38) 3Dオブジェクトコンテンツのシーンを記述するシーン記述ファイルに規定されるオブジェクトに格納される、前記3Dオブジェクトコンテンツの色以外のアトリビュートに関する情報に基づいて、前記アトリビュートのデータを取得する
情報処理方法。
Claims (18)
- 3Dオブジェクトコンテンツのデータに関する情報を管理するファイルコンテナの複数のトラックの内、他のトラックにアクセスするための情報を持つ一部のトラックを参照先として指定するトラック情報を含む、前記3Dオブジェクトコンテンツのシーンを記述するシーン記述ファイルを生成するファイル生成部
を備える情報処理装置。 - 前記トラック情報は、全ての前記他のトラックにアクセスするための情報を持つ単数のトラックを前記参照先として指定する情報である
請求項1に記載の情報処理装置。 - 前記トラック情報は、前記ファイルコンテナの前記複数のトラックの内、全ての前記他のトラックにアクセスするためのトラックリファレンスを持つ前記単数のトラックを前記参照先として指定する情報である
請求項2に記載の情報処理装置。 - 前記トラック情報は、前記3Dオブジェクトコンテンツのデータの配信を制御するための制御ファイルにおける、前記単数のトラックの情報を格納するアダプテーションセットを前記参照先として指定する情報である
請求項2に記載の情報処理装置。 - 前記3Dオブジェクトコンテンツは、MPEG-DASH(Moving Picture Experts Group Dynamic Adaptive Streaming over Hypertext Transfer Protocol)に準拠する方式で配信され、
前記制御ファイルは、MPD(Media Presentation Description)である
請求項4に記載の情報処理装置。 - 前記ファイルコンテナは、マルチトラックストラクチャを適用するISOBMFF(International Organization for Standardization Base Media File Format)である
請求項1に記載の情報処理装置。 - 前記3Dオブジェクトコンテンツのデータは、ポイントクラウドがV-PCC(Video-based Point Cloud Compression)に準拠する方式で符号化されたV3C(Visual Volumetric Video-based Coding)ビットストリームである
請求項1に記載の情報処理装置。 - 前記シーン記述ファイルは、glTF(The GL Transmission Format)2.0に準拠する方式で記述される
請求項1に記載の情報処理装置。 - 3Dオブジェクトコンテンツのデータに関する情報を管理するファイルコンテナの複数のトラックの内、他のトラックにアクセスするための情報を持つ一部のトラックを参照先として指定するトラック情報を含む、前記3Dオブジェクトコンテンツのシーンを記述するシーン記述ファイルを生成する
情報処理方法。 - 3Dオブジェクトコンテンツのデータに関する情報を管理するファイルコンテナの複数のトラックの内、他のトラックにアクセスするための情報を持つ一部のトラックを参照先として指定するトラック情報を含む、前記3Dオブジェクトコンテンツのシーンを記述するシーン記述ファイル、および、前記トラック間の参照関係に基づいて、全ての前記トラックにおいて管理される前記3Dオブジェクトコンテンツのデータを取得する取得部
を備える情報処理装置。 - 前記トラック情報は、全ての前記他のトラックにアクセスするための情報を持つ単数のトラックを前記参照先として指定する情報である
請求項10に記載の情報処理装置。 - 前記トラック情報は、前記ファイルコンテナの前記複数のトラックの内、全ての前記他のトラックにアクセスするためのトラックリファレンスを持つ前記単数のトラックを前記参照先として指定する情報であり、
前記取得部は、前記トラック情報に基づいて前記単数のトラックを参照し、前記トラックリファレンスに基づいて全ての前記トラックにおいて管理される前記3Dオブジェクトコンテンツのデータを取得する
請求項11に記載の情報処理装置。 - 前記トラック情報は、前記3Dオブジェクトコンテンツのデータの配信を制御するための制御ファイルにおける、前記単数のトラックの情報を格納するアダプテーションセットを前記参照先として指定する情報であり、
前記取得部は、前記制御ファイルを取得し、前記制御ファイルの、前記トラック情報により指定された前記アダプテーションセットの情報に基づいて前記単数のトラックを参照し、前記トラック間の参照関係に基づいて、全ての前記トラックにおいて管理される前記3Dオブジェクトコンテンツのデータを取得する
請求項11に記載の情報処理装置。 - 前記3Dオブジェクトコンテンツは、MPEG-DASH(Moving Picture Experts Group Dynamic Adaptive Streaming over Hypertext Transfer Protocol)に準拠する方式で配信され、
前記制御ファイルは、MPD(Media Presentation Description)である
請求項13に記載の情報処理装置。 - 前記ファイルコンテナは、マルチトラックストラクチャを適用するISOBMFF(International Organization for Standardization Base Media File Format)である
請求項10に記載の情報処理装置。 - 前記3Dオブジェクトコンテンツのデータは、ポイントクラウドがV-PCC(Video-based Point Cloud Compression)に準拠する方式で符号化されたV3C(Visual Volumetric Video-based Coding)ビットストリームである
請求項10に記載の情報処理装置。 - 前記シーン記述ファイルは、glTF(The GL Transmission Format)2.0に準拠する方式で記述される
請求項10に記載の情報処理装置。 - 3Dオブジェクトコンテンツのデータに関する情報を管理するファイルコンテナの複数のトラックの内、他のトラックにアクセスするための情報を持つ一部のトラックを参照先として指定するトラック情報を含む、前記3Dオブジェクトコンテンツのシーンを記述するシーン記述ファイル、および、前記トラック間の参照関係に基づいて、全ての前記トラックにおいて管理される前記3Dオブジェクトコンテンツのデータを取得する
情報処理方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022573052A JPWO2022145357A1 (ja) | 2020-12-28 | 2021-12-24 | |
EP21915217.0A EP4270962A4 (en) | 2020-12-28 | 2021-12-24 | INFORMATION PROCESSING DEVICE AND METHOD |
CN202180086825.8A CN116636225A (zh) | 2020-12-28 | 2021-12-24 | 信息处理装置和方法 |
US18/268,620 US20240046562A1 (en) | 2020-12-28 | 2021-12-24 | Information processing device and method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063131003P | 2020-12-28 | 2020-12-28 | |
US63/131,003 | 2020-12-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022145357A1 true WO2022145357A1 (ja) | 2022-07-07 |
Family
ID=82259428
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/048117 WO2022145357A1 (ja) | 2020-12-28 | 2021-12-24 | 情報処理装置および方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240046562A1 (ja) |
EP (1) | EP4270962A4 (ja) |
JP (1) | JPWO2022145357A1 (ja) |
CN (1) | CN116636225A (ja) |
WO (1) | WO2022145357A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024014526A1 (ja) * | 2022-07-15 | 2024-01-18 | ソニーグループ株式会社 | 情報処理装置および方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017145757A1 (ja) * | 2016-02-22 | 2017-08-31 | ソニー株式会社 | ファイル生成装置およびファイル生成方法、並びに、再生装置および再生方法 |
US20200302632A1 (en) * | 2019-03-21 | 2020-09-24 | Lg Electronics Inc. | Point cloud data transmission apparatus, point cloud data transmission method, point cloud data reception apparatus, and point cloud data reception method |
WO2021251173A1 (ja) * | 2020-06-12 | 2021-12-16 | ソニーグループ株式会社 | 情報処理装置および方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7035401B2 (ja) * | 2017-09-15 | 2022-03-15 | ソニーグループ株式会社 | 画像処理装置およびファイル生成装置 |
US11218715B2 (en) * | 2019-06-14 | 2022-01-04 | Mediatek Singapore Pte. Ltd. | Methods and apparatus for spatial grouping and coordinate signaling for immersive media data tracks |
-
2021
- 2021-12-24 US US18/268,620 patent/US20240046562A1/en active Pending
- 2021-12-24 JP JP2022573052A patent/JPWO2022145357A1/ja active Pending
- 2021-12-24 EP EP21915217.0A patent/EP4270962A4/en active Pending
- 2021-12-24 CN CN202180086825.8A patent/CN116636225A/zh active Pending
- 2021-12-24 WO PCT/JP2021/048117 patent/WO2022145357A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017145757A1 (ja) * | 2016-02-22 | 2017-08-31 | ソニー株式会社 | ファイル生成装置およびファイル生成方法、並びに、再生装置および再生方法 |
US20200302632A1 (en) * | 2019-03-21 | 2020-09-24 | Lg Electronics Inc. | Point cloud data transmission apparatus, point cloud data transmission method, point cloud data reception apparatus, and point cloud data reception method |
WO2021251173A1 (ja) * | 2020-06-12 | 2021-12-16 | ソニーグループ株式会社 | 情報処理装置および方法 |
Non-Patent Citations (5)
Title |
---|
"ISO/IEC FDIS 23090-5 Visual Volumetric Video-based Coding and Video-based Point Cloud Compression", ISO/IEC JTC 1/SC 29/ WG 11 N19579, 21 September 2020 (2020-09-21) |
"Text of ISO/IEC CD 23090-14 Scene Description for MPEG Media", ISO/IEC JTC 1/SC 29/WG 3 N00026, 7 December 2020 (2020-12-07) |
"Text of ISO/IEC DIS 23090-10 Carriage of Visual Volumetric Video-based Coding Data", ISO/IEC JTC 1/SC 29/WG 11 N19285, 1 June 2020 (2020-06-01) |
SAURABH BHATIAPATRICK COZZIALEXEY KNYAZEVTONY PARISI, KHRONOS GLTF2.0, 9 June 2017 (2017-06-09), Retrieved from the Internet <URL:https://github.com/KhronosGroup/glTF/tree/master/specification/2.0> |
See also references of EP4270962A4 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024014526A1 (ja) * | 2022-07-15 | 2024-01-18 | ソニーグループ株式会社 | 情報処理装置および方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116636225A (zh) | 2023-08-22 |
EP4270962A4 (en) | 2024-05-01 |
EP4270962A1 (en) | 2023-11-01 |
US20240046562A1 (en) | 2024-02-08 |
JPWO2022145357A1 (ja) | 2022-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11532103B2 (en) | Information processing apparatus and information processing method | |
KR102655630B1 (ko) | 3차원 비디오 컨텐츠를 포함하는 미디어 파일을 생성하는 방법 및 장치 및 3차원 비디오 컨텐츠를 재생하는 방법 및 장치 | |
WO2021251185A1 (ja) | 情報処理装置および方法 | |
WO2021251173A1 (ja) | 情報処理装置および方法 | |
US11825135B2 (en) | Information processing apparatus, information processing method, reproduction processing apparatus, and reproduction processing method | |
EP4013042A1 (en) | Information processing device, reproduction processing device, and information processing method | |
WO2022145357A1 (ja) | 情報処理装置および方法 | |
WO2022070903A1 (ja) | 情報処理装置および方法 | |
WO2022075342A1 (ja) | 情報処理装置および方法 | |
WO2022054744A1 (ja) | 情報処理装置および方法 | |
WO2022220291A1 (ja) | 情報処理装置および方法 | |
WO2022220255A1 (ja) | 情報処理装置および方法 | |
WO2021002142A1 (ja) | 情報処理装置、情報処理方法、再生処理装置及び再生処理方法 | |
WO2023054156A1 (ja) | 情報処理装置および方法 | |
WO2022220278A1 (ja) | 情報処理装置および方法 | |
CN114026875A (zh) | 信息处理装置、信息处理方法、再现处理装置和再现处理方法 | |
WO2023176928A1 (ja) | 情報処理装置および方法 | |
WO2023204289A1 (ja) | 情報処理装置および方法 | |
WO2022138231A1 (ja) | 画像処理装置および方法 | |
WO2022075079A1 (ja) | 情報処理装置および方法 | |
WO2023277062A1 (ja) | 情報処理装置および方法 | |
WO2021251141A1 (ja) | 情報処理装置および方法 | |
CN114598895B (zh) | 音视频处理方法、装置、设备及计算机可读存储介质 | |
JP2024503059A (ja) | マルチトラックベースの没入型メディアプレイアウト | |
CN118118694A (zh) | 点云封装与解封装方法、装置、介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21915217 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2022573052 Country of ref document: JP Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 202180086825.8 Country of ref document: CN Ref document number: 18268620 Country of ref document: US |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2021915217 Country of ref document: EP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2021915217 Country of ref document: EP Effective date: 20230728 |