WO2022075342A1 - 情報処理装置および方法 - Google Patents

情報処理装置および方法 Download PDF

Info

Publication number
WO2022075342A1
WO2022075342A1 PCT/JP2021/036905 JP2021036905W WO2022075342A1 WO 2022075342 A1 WO2022075342 A1 WO 2022075342A1 JP 2021036905 W JP2021036905 W JP 2021036905W WO 2022075342 A1 WO2022075342 A1 WO 2022075342A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
reference difference
initial value
value reference
update
Prior art date
Application number
PCT/JP2021/036905
Other languages
English (en)
French (fr)
Inventor
由佳 木山
光浩 平林
遼平 高橋
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to JP2022555520A priority Critical patent/JPWO2022075342A1/ja
Priority to CN202180067544.8A priority patent/CN116250013A/zh
Priority to US18/024,976 priority patent/US20230334804A1/en
Priority to EP21877641.7A priority patent/EP4227906A4/en
Publication of WO2022075342A1 publication Critical patent/WO2022075342A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4431OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB characterized by the use of Application Program Interface [API] libraries
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/25Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with scene description coding, e.g. binary format for scenes [BIFS] compression

Definitions

  • the present disclosure relates to an information processing device and a method, and more particularly to an information processing device and a method capable of suppressing an increase in a processing load when randomly accessing a scene description.
  • glTF The GL Transmission Format
  • 3D three-dimensional objects in a three-dimensional space
  • This disclosure is made in view of such a situation, and makes it possible to suppress an increase in the processing load when randomly accessing the scene description.
  • the information processing device of one aspect of the present technology is the difference information based on the initial value of the spatial arrangement information as the update information for updating the spatial arrangement information for arranging one or more 3D objects in the 3D space.
  • the update information generation unit that generates the updated information in which the update of the initial value reference difference information is reflected in the initial value of the initial value reference difference information or the spatial arrangement information, and the update that stores the update information. It is an information processing apparatus including a file generation unit that generates a file and stores the initial value reference difference information or the updated information in the update file as a random access point.
  • the information processing method of one aspect of the present technology is the difference information based on the initial value of the spatial arrangement information as the update information for updating the spatial arrangement information for arranging one or more 3D objects in the 3D space.
  • the initial value reference difference information, or the updated information in which the update of the initial value reference difference information is reflected in the initial value of the spatial arrangement information is generated, and an update file for storing the update information is generated.
  • This is an information processing method for storing the initial value reference difference information or the updated information in the update file as a random access point.
  • the information processing device of another aspect of the present technology is stored as a random access point in an update file that stores update information for updating spatial arrangement information for arranging one or more 3D objects in 3D space.
  • the initial value reference difference information which is the difference information based on the initial value of the spatial arrangement information, or the updated information in which the update of the initial value reference difference information is reflected in the initial value of the spatial arrangement information is described above.
  • the initial value reference difference is obtained by reflecting the update of the initial value reference difference information in the update information acquisition unit acquired as update information and the initial value of the spatial arrangement information, or by applying the updated information. It is a spatial arrangement information generation unit and an information processing apparatus that generate the spatial arrangement information of the information update application time.
  • the information processing method of another aspect of the present technology is stored as a random access point in an update file that stores update information for updating spatial arrangement information for arranging one or more 3D objects in 3D space.
  • the initial value reference difference information which is the difference information based on the initial value of the spatial arrangement information, or the updated information in which the update of the initial value reference difference information is reflected in the initial value of the spatial arrangement information is described above. It is acquired as update information, and the update of the initial value reference difference information is reflected in the initial value of the spatial arrangement information, or the update application time of the initial value reference difference information is applied by applying the updated information.
  • This is an information processing method for generating the spatial arrangement information of the above.
  • the initial value of the spatial arrangement information is used as a reference.
  • Initial value reference difference information that is the difference information to be processed, or updated information that reflects the update of the initial value reference difference information in the initial value of the spatial arrangement information is generated, and an update file that stores the update information is generated.
  • Initial value reference difference information or updated information is stored in the update file as a random access point.
  • the initial value reference difference information which is the difference information based on the initial value of the spatial arrangement information, or the updated information in which the update of the initial value reference difference information is reflected in the initial value of the spatial arrangement information, It is acquired as update information, and the update of the initial value reference difference information is reflected in the initial value of the spatial arrangement information, or the updated information is applied, so that the space of the update application time of the initial value reference difference information. Placement information is generated.
  • Non-Patent Document 1 (above)
  • Non-Patent Document 2 (above)
  • Non-Patent Document 3 (above)
  • Non-Patent Document 4 (above)
  • Non-Patent Document 5 (above)
  • Non-Patent Document 6 (above)
  • Non-Patent Documents 1 to 3 are not directly defined in the present disclosure, they are within the scope of the present disclosure and are claimed.
  • Shall meet the support requirements of the scope of.
  • technical terms such as Parsing, Syntax, and Semantics are also within the scope of the present disclosure and are claimed, even if they are not directly defined in the present disclosure.
  • Shall meet the support requirements in the range of.
  • glTF The GL Transmission Format
  • glTF2.0 for example, as shown in FIG. 1, it is composed of a JSON format file (.glTF), a binary file (.bin), and an image file (.png, .jpg, etc.).
  • Binary files store binary data such as geometry and animation.
  • the image file stores data such as textures.
  • the JSON format file is a scene description file described in JSON (JavaScript (registered trademark) Object Notation).
  • a scene description is metadata that describes a scene (description) of 3D content. The description of this scene description defines what kind of scene it is.
  • a scene description file is a file that stores such a scene description. In the present disclosure, the scene description file is also referred to as a scene description file.
  • the JSON format file description consists of a list of KEY and VALUE pairs. An example of the format is shown below. “KEY”: ”VALUE”
  • the key is composed of a character string.
  • a value is composed of a numerical value, a character string, a boolean value, an array, an object, or null.
  • key / value pairs (“KEY”: ”VALUE”) can be grouped together using ⁇ (curly braces).
  • curly braces
  • JSON objects An example of the format is shown below. “User”: ⁇ "id”: 1, "name”: “tanaka” ⁇
  • JSON object that combines a pair of "id”: 1 and a pair of "name”: “tanaka” is defined as the value corresponding to the key (user).
  • 0 or more values can be arranged using [] (square brackets).
  • This array is also called a JSON array.
  • a JSON object can be applied as an element of this JSON array.
  • An example of the format is shown below. test “: ["hoge “,” fuga “,” bar “] "users”: [ ⁇ "id”: 1, "name”: “tanaka” ⁇ , ⁇ "id”: 2, "name”: “yamada” ⁇ , ⁇ "id”: 3, "name”: "sato”” ⁇ ]
  • Figure 2 shows the glTF objects that can be described at the top level of the JSON format file and the reference relationships that they can have.
  • the long circles in the tree structure shown in FIG. 2 indicate objects, and the arrows between the objects indicate reference relationships.
  • objects such as "scene”, “node”, “mesh”, “camera”, “skin”, “material”, “texture” are described at the top level of the JSON format file.
  • FIG. 3 shows a description example of such a JSON format file (scene description).
  • the JSON format file 20 of FIG. 3 shows a description example of a part of the uppermost level.
  • the top-level object 21 is a glTF object shown in FIG.
  • reference relationships between objects are shown as shown by arrows 22. More specifically, the reference relationship is shown by specifying the index of the element of the array of the referenced object in the property of the superordinate object.
  • FIG. 4 is a diagram illustrating a method of accessing binary data.
  • the binary data is stored in a buffer object. That is, information for accessing binary data in the buffer object (for example, URI (Uniform Resource Identifier), etc.) is shown.
  • URI Uniform Resource Identifier
  • FIG. 4 from an object such as a mesh (mesh), a camera (camera), a skin (skin), etc., an accessor object (accessor object) and a buffer view are given to the buffer object. It can be accessed via an object (bufferView object).
  • FIG. 5 shows a description example of a mesh object (mesh) in a JSON format file.
  • an attribute (attribute) of a vertex such as NORMAL, POSITION, TANGENT, TEXCORD_0 is defined as a key
  • an accessor object to be referenced is specified as a value for each attribute. Has been done.
  • FIG. 6 shows the relationship between the buffer object, buffer view object, and accessor object. Further, FIG. 7 shows a description example of those objects in the JSON format file.
  • the buffer object 41 is an object that stores information (URI, etc.) for accessing binary data that is actual data, and information indicating the data length (for example, byte length) of the binary data.
  • FIG. 7A shows a description example of the buffer object 41.
  • the "" bytelength “: 102040" shown in A of FIG. 7 indicates that the byte length of the buffer object 41 is 102040 bytes (bytes) as shown in FIG.
  • "" uri “:” duck.bin “” shown in A of FIG. 7 indicates that the URI of the buffer object 41 is "duck.bin” as shown in FIG.
  • the buffer view object 42 is an object that stores information about a subset area of binary data specified in the buffer object 41 (that is, information about a part of the area of the buffer object 41).
  • FIG. 7B shows a description example of the buffer view object 42.
  • the buffer view object 42 indicates, for example, the identification information of the buffer object 41 to which the buffer view object 42 belongs, and the position of the buffer view object 42 in the buffer object 41.
  • Information such as an offset (for example, byte offset) and a length (for example, byte length) indicating the data length (for example, byte length) of the buffer view object 42 is stored.
  • each buffer view object that is, for each subset area.
  • information such as “" buffer “: 0”, “" bytelength “: 25272", and “" byteOffset “: 0" shown on the upper side in B of FIG. 7 is shown in the buffer object 41 in FIG. This is the information of the first buffer view object 42 (bufferView [0]).
  • information such as "" buffer “: 0”, “" bytelength ": 76768", and "" byteOffset ": 25272" shown at the lower side in B of FIG. 7 is shown in the buffer object 41 in FIG. This is the information of the second buffer view object 42 (bufferView [1]).
  • the "" buffer “: 0" of the first buffer view object 42 (bufferView [0]) shown in B of FIG. 7 is the buffer view object 42 (bufferView [0]) as shown in FIG. Indicates that the identification information of the buffer object 41 to which the is belonging is "0" (Buffer [0]). Further, “" bytelength ": 25272” indicates that the byte length of the buffer view object 42 (bufferView [0]) is 25272 bytes. Further, “" byteOffset “: 0" indicates that the byte offset of the buffer view object 42 (bufferView [0]) is 0 bytes.
  • the "" buffer “: 0" of the second buffer view object 42 (bufferView [1]) shown in B of FIG. 7 is the buffer view object 42 (bufferView [0]) as shown in FIG. Indicates that the identification information of the buffer object 41 to which the is belonging is "0" (Buffer [0]). Further, “" bytelength “: 76768” indicates that the byte length of the buffer view object 42 (bufferView [0]) is 76768 bytes. Further, “" byteOffset ": 25272” indicates that the byte offset of the buffer view object 42 (bufferView [0]) is 25272 bytes.
  • the accessor object 43 is an object that stores information regarding a method of interpreting data of the buffer view object 42.
  • FIG. 7C shows a description example of the accessor object 43.
  • the accessor object 43 has, for example, identification information of the buffer view object 42 to which the accessor object 43 belongs, and an offset indicating the position of the buffer view object 42 in the buffer object 41. (For example, byte offset), the component type of the buffer view object 42, the number of data stored in the buffer view object 42, the type of data stored in the buffer view object 42, and the like are stored. This information is described for each buffer view object.
  • the client device acquires the scene description, acquires the data of the 3D object based on the scene description, and generates the display image using the scene description and the data of the 3D object.
  • a presentation engine, a media access function, or the like performs processing.
  • the presentation engine 51 of the client device 50 acquires the initial value of the scene description and the information for updating the scene description (hereinafter, also referred to as update information). And generate a scene description of the processing target time. Then, the presentation engine 51 analyzes the scene description and identifies the medium (video, audio, etc.) to be reproduced. Then, the presentation engine 51 requests the media access function (MediaAccessFuncition) 52 to acquire the media via the media access API (MediaAccessAPI (ApplicationProgramInterface)). The presentation engine 51 also sets pipeline processing, specifies a buffer, and the like.
  • the media access function 52 acquires various media data requested by the presentation engine 51 from the cloud (Cloud), local storage (Local Strage), or the like.
  • the media access function 52 supplies various data (encoded data) of the acquired media to the pipeline 53.
  • the pipeline 53 decodes various data (encoded data) of the supplied media by pipeline processing, and supplies the decoding result to the buffer 54.
  • the buffer 54 holds various data of the supplied media.
  • the presentation engine 51 performs rendering and the like using various data of the media held in the buffer 54.
  • the scene description is spatial arrangement information for arranging one or more 3D objects in 3D space.
  • the contents of this scene description can be updated along the time axis. That is, the placement of 3D objects can be updated over time.
  • Non-Patent Document 2 and Non-Patent Document 3 in MPEG-I Scene Description, such a scene description is updated by using a JSON patch. That is, as shown in FIG. 9, the update information 61 of the scene description at each time is described as a JSON patch and provided to the client device. For example, the hash value of the scene description to be updated, the timing information when the update is executed, and the like are described in this JSON patch.
  • the JSON patch is transmitted using the Web Resources in ISOBMFF (International Organization for Standardization Base Media File Format) described in Non-Patent Document 3 and Non-Patent Document 6.
  • the SD (glTF) file 62 in which the initial value of the scene description is stored stores the link information to such update information 61.
  • a URL Uniform Resource Locator
  • ISOBMFF including update information 61 JSON patch
  • the glTF analysis unit 63 of the presentation engine 51 acquires the update information 61 corresponding to the processing target time via the link information of the SD (glTF file) 62. Then, the glTF analysis unit 63 updates the scene description using the update information 61, and generates the scene description corresponding to the processing target time.
  • the glTF analysis unit 63 analyzes the scene description corresponding to the generated processing target time, and requests the media access function 52 to acquire the necessary file. Then, as described above, the media access function 52 acquires the file, the pipeline 53 decodes the file, and the buffer 54 holds the decoding result.
  • the rendering processing unit 64 of the presentation engine 51 also renders using the media data held in the buffer 54 to generate a display image. In this way, the client device 50 can generate a display image based on the scene description corresponding to the processing target time.
  • the JSON patch expresses operations such as addition, update, and deletion to the JSON document, and the JSON patch itself is expressed as a JSON document.
  • the JSON patch 72 when the JSON patch 72 is applied to the original JSON document 71, the applied JSON document becomes the JSON document 73.
  • Non-Patent Document 2 and Non-Patent Document 3 in MPEG-I Scene Description, the difference information from the original SD file (Original SD file), which is the initial scene description before the update, and the difference information from the previous update are displayed.
  • ISOBMFF including the JSON patch to be stored as a sample is distributed.
  • the client device calculates a unique value (also referred to as a transaction ID) such as a hash code from the scene description currently expanded in the memory.
  • the JSON patch document provides the client device with the transaction ID of the scene description to which the update is applied and the difference information from that scene description. If the transaction ID calculated from the currently deployed scene description and the transaction ID of the JSON patch match, the client device applies the JSON patch update.
  • the scene description 81 may change over time.
  • the scene description 81-0 shown in FIG. 11 is an initial value of the scene description 81. Further, it is assumed that the transaction ID of the scene description 81-0 is V.1. Then, the scene description 81-0 arranges the 3D objects a, b, and c in the 3D space.
  • the update information for this scene description 81 is supplied to the client device as a JSON patch sample (sample) like JSON patch 82-1 to JSON patch 82-9.
  • Update information for the scene description 81 such as JSON patch 82-1 to JSON patch 82-9, is referred to as JSON patch 82.
  • JSON patch 82-1 to JSON patch 82-9 are each one of the samples of JSON patch 82.
  • the sample of JSON patch 82 is stored in the track (for example, Track # 1) that stores the update information of ISOBMFF, and is supplied to the client device.
  • JSON patch 82-1 is update information (Add A) that adds object A to the scene description whose transaction ID is V.1. Therefore, the scene description 81-1 is obtained by the client device applying the sample of JSON patch 82-1 to the scene description 81-0. That is, the scene description 81-1 arranges the objects a, b, c, and A in 3D space. Further, it is assumed that the transaction ID of the scene description 81-1 is V.11.
  • JSON patch 82-2 is update information (Add B) that adds object B to the scene description whose transaction ID is V.11. Therefore, when the client device applies the sample of JSON patch 82-2 to the scene description 81-1, the scene description 81-2 is obtained. That is, the scene description 81-2 arranges the objects a, b, c, A, and B in 3D space. Further, it is assumed that the transaction ID of the scene description 81-2 is V.12.
  • JSON patch 82-3 is update information (Add C) that adds object C to the scene description with transaction ID V.12. Therefore, when the client device applies the sample of JSON patch 82-3 to the scene description 81-2, the scene description 81-3 is obtained. That is, the scene description 81-3 arranges the objects a, b, c, A, B, and C in 3D space. Further, it is assumed that the transaction ID of the scene description 81-3 is V.1.
  • JSON patch 82-4 is update information (Del B) that deletes object B for a scene description with transaction ID V.13. Therefore, when the client device applies the sample of JSON patch 82-4 to the scene description 81-3, the scene description 81-4 is obtained. That is, the scene description 81-4 arranges the objects a, b, c, A, and C in 3D space. Further, it is assumed that the transaction ID of the scene description 81-4 is V.1.
  • JSON patch 82-5 is update information (Del a) that deletes the object a for the scene description whose transaction ID is V.14. Therefore, when the client device applies the sample of JSON patch 82-5 to the scene description 81-4, the scene description 81-5 is obtained. That is, the scene description 81-5 arranges the objects b, c, A, and C in 3D space. Further, it is assumed that the transaction ID of the scene description 81-5 is V.1.
  • JSON patch 82-6 is update information (Del b) that deletes the object b for the scene description whose transaction ID is V.15. Therefore, when the client device applies the sample of JSON patch 82-6 to the scene description 81-5, the scene description 81-6 is obtained. That is, the scene description 81-6 arranges the objects c, A, and C in 3D space. Further, it is assumed that the transaction ID of the scene description 81-6 is V.16.
  • the samples of JSON patch 82-7 to JSON patch 82-9 are sequentially applied, and the scene description 81 is updated.
  • the sample of each JSON patch 82 of track # 1 is applied in order from the sample of JSON patch 82-1 at each timing. That is, the scene description 81 is updated at each timing, and the contents thereof are, along the time axis, the scene description 81-0, the scene description 81-1, the scene description 81-2, ... It will change like this.
  • this update of the scene description 81 can be accessed randomly. That is, the client device may start from updating the timing in the middle without updating the scene description 81 in chronological order. Therefore, a random access point that can be accessed without chronological order is provided, and an updated scene description (also referred to as updated information in the present specification) is prepared as the data of the random access point. As shown in FIG. 12, this updated information is stored in a track (Track # 2) different from the track (Track # 1) in which the JSON patch 82 described above is stored.
  • the scene description 83-1 and the scene description 83-2 are updated information prepared as random access points.
  • the updated information prepared as a random access point, such as the scene description 83-1 and the scene description 83-2, is referred to as a scene description 83. That is, the scene description 83-1 and the scene description 83-2 are one of the samples of the scene description 83.
  • the sample of the scene description 83-1 corresponds to the sample of JSON patch 82-6. That is, the content of the scene description 83-1 is the result of applying the update of the JSON patch 82-1 to the JSON patch 82-6 to the scene description 81-0 (scene description 81-6 in FIG. 11). Is equivalent to. That is, when the client device randomly accesses the sample of the scene description 83-1, the scene description 81-6 of FIG. 11 can be obtained without updating the JSON patch 82-1 to the JSON patch 82-6. That is, random access is possible. For subsequent normal playback, the JSON patch 82-7 sample is applied to the scene description 83-1.
  • the sample of scene description 83-2 corresponds to the sample of JSON patch 82-9. That is, the content of the scene description 83-2 is equivalent to the result of applying the update of the JSON patch 82-1 to the JSON patch 82-9 to the scene description 81-0. That is, when the client device randomly accesses the sample of the scene description 83-2, the update results are obtained without updating the JSON patch 82-1 to the JSON patch 82-9. That is, random access is possible. When performing normal playback after that, the sample of the next JSON patch 82 is applied to the scene description 83-2.
  • initial value reference difference information (also referred to as initial value reference difference information) showing the difference from the initial value of the scene description to the timing is prepared, and when the client device randomly accesses, the initial value reference difference is prepared. Try to provide information. That is, as shown at the top of the table shown in FIG. 13, the initial value reference difference information is stored in the file as a random access point (method 1).
  • update information for updating spatial arrangement information (that is, scene description) for arranging one or more 3D objects in 3D space.
  • an initial value reference which is the difference information based on the initial value of the spatial arrangement information
  • an update information generator that generates the difference information and an update file that stores the update information are generated, and the initial value reference is used as a random access point. It is provided with a file generator that stores the difference information in the update file.
  • an information processing method for generating a file for storing update information of a scene description for updating the spatial arrangement information (that is, the scene description) for arranging one or more 3D objects in the 3D space.
  • the update information the initial value reference difference information which is the difference information based on the initial value of the spatial arrangement information is generated, the update file for storing the update information is generated, and the initial value reference difference information is used as a random access point. Try to store it in the update file.
  • spatial arrangement information (that is, a scene description) for arranging one or more 3D objects in 3D space.
  • the difference information acquisition unit that acquires the initial value reference difference information, which is the difference information based on the initial value of the spatial arrangement information, which is stored as a random access point in the update file that stores the update information for updating.
  • the spatial arrangement information generation unit for generating the spatial arrangement information of the update application time of the initial value reference difference information is provided.
  • the spatial arrangement information for arranging one or more 3D objects in the 3D space (that is, the scene disk).
  • the initial value reference difference information which is the difference information based on the initial value of the spatial arrangement information, which is stored as a random access point in the update file that stores the update information for updating the information processing, is acquired, and the spatial arrangement is obtained.
  • the spatial arrangement information of the update application time of the initial value reference difference information is generated.
  • the initial value reference difference information shows the difference between the initial value of the spatial arrangement information (scene description) and the spatial arrangement information (updated information) at the timing of the random access point. That is, the initial value reference difference information can be provided as a JSON patch.
  • the initial value reference difference information includes the scene description 81-. The difference between 0 and the scene description 83-1 (Del a, Del b, Add A, Add C) is shown.
  • the amount of data provided to the client device can be reduced as compared with the case of providing the sample of the scene description 83-1. Further, if the client device applies the sample of the initial value reference difference information to the scene description 81-0, that is, by one update, the scene description 83 (that is, the scene disk) at the timing of the sample You can get the application 83-1). Therefore, it is possible to suppress an increase in the processing amount, processing time, buffer amount, and the like of the client device at the time of random access. That is, it is possible to suppress an increase in the processing load of the client device that randomly accesses the scene description.
  • a sample of all JSON patches 82 up to the random access point is provided to the client device, and the client device updates the scene description 81 using those JSON patches 82 to perform the random access.
  • the scene description 83 (updated information) at the timing of the access point can be obtained.
  • each sample of JSON patch 82-1 to JSON patch 82-6 is provided to a randomly accessed client device, and the client device uses them to update the scene description 81-0.
  • Scene description 83-1 (equivalent to scene description 81-6) is obtained.
  • the initial value reference difference information may be stored in a track different from the immediately preceding value reference difference information, as shown in the second row from the top of the table shown in FIG. (Method 1-1).
  • the immediately preceding value reference difference information is the difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information. That is, the immediately preceding value reference difference information is update information (JSON patch) indicating the difference from the scene description in which the update up to the immediately preceding JSON patch is reflected.
  • the JSON patch 82 corresponds to the immediately preceding value reference difference information.
  • the sample of the immediately preceding value reference difference information (JSON patch 82) is applied in the normal reproduction of the scene description 81.
  • the file generation unit may store the initial value reference difference information in a track different from the immediately preceding value reference difference information of the update file.
  • the difference information acquisition unit may acquire the initial value reference difference information stored in a track different from the immediately preceding value reference difference information of the update file.
  • FIG. 14 shows an example in that case.
  • initial value reference difference information is prepared as random access point data.
  • JSON patch 101-1 and JSON patch 101-2 are initial value reference difference information prepared as random access points.
  • the initial value reference difference information prepared as a random access point, such as JSON patch 101-1 and JSON patch 101-2, is referred to as JSON patch 101. That is, JSON patch 101-1 and JSON patch 101-2 are each one of the samples of JSON patch 101.
  • the sample of JSON patch 101 (initial value reference difference information) is a track different from the track (Track # 1) in which the above-mentioned JSON patch 82 is stored (Track # 1). Stored in Track # 2). Therefore, the client device can more easily acquire the sample of JSON patch 101 (initial value reference difference information) independently of the sample of JSON patch 82 by designating the track.
  • the sample of JSON patch 101 is the difference information based on the scene description other than the scene description 81-0 (that is, the initial value of the scene description 81). May be.
  • the scene description at the timing of the sample can be obtained by updating using the JSON patch 101, and the scene disk as the reference of the difference is obtained.
  • the patch is optional.
  • a scene description for random access may be prepared separately from the scene description 81-0 and stored in track # 2, for example.
  • each JSON patch 101 (initial value reference difference information) may indicate the difference from the scene description for random access.
  • the scene description 81-5 (FIG. 11) may be used as the scene description for random access.
  • the content of JSON patch 101-1 (FIG. 14) is equivalent to JSON patch 82-6. That is, by doing so, the amount of data of JSON patch 101-1 can be reduced.
  • the total amount of data depends on the number of random access points, updated contents, etc., but for example, after considering them, set the scene description for random access points so that the total amount of data is reduced. You may.
  • Method 1-1-1 When such method 1-1 is applied, as shown in the third row from the top of the table shown in FIG. 13, the link information to the track that stores the sample of the initial value reference difference information is for random access. As the link information of, it may be stored in the initial value of the scene description (SD) (method 1-1-1).
  • SD scene description
  • the file generation unit generates an initial value file that stores the initial value of the spatial arrangement information, and uses the link information indicating the link to the track that stores the initial value reference difference information as the initial value link information for random access. It may be stored in a value file.
  • the difference information acquisition unit uses the link information indicating the link to the track that stores the initial value reference difference information, which is stored as the link information for random access in the initial value file that stores the initial value of the spatial arrangement information. Then, the initial value reference difference information may be acquired.
  • FIG. 15 shows a part of the description example of the scene description 81-0 in that case.
  • the link information (“uri”: scen_updata.json-patch) to the track that stores the sample of the immediately preceding value reference difference information?
  • the link information (“uri_for_randomaccess”: scene_updata_type2.json-patch ⁇ ) to the track that stores the sample of the initial value reference difference information is described.
  • the link information to the track that stores the sample of the immediately preceding value reference difference information is the link information used at the time of normal reproduction.
  • the link information to the track that stores the sample of the initial value reference difference information is the link information used at the time of random access. That is, in the example of FIG. 15, the link information is described in a state in which both of them can be distinguished. That is, the link information to the track that stores the sample of the initial value reference difference information is stored in the SD initial value as the link information for random access.
  • the client device can more easily identify the track in which the appropriate update information is stored. For example, the client device can more easily select the link information for obtaining a sample of the immediately preceding value reference difference information during normal reproduction. Further, the client device can more easily select the link information for obtaining the sample of the initial value reference difference information at the time of random access.
  • the initial value reference difference information may be stored in the same sample on the same track as the immediately preceding value reference difference information, as shown in the fourth row from the top of the table shown in FIG. (Method 1-2).
  • the immediately preceding value reference difference information is the difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the file generation unit may store the initial value reference difference information in the same sample of the same track as the immediately preceding value reference difference information of the update file.
  • the difference information acquisition unit may acquire the initial value reference difference information stored in the same sample of the same track as the immediately preceding value reference difference information of the update file.
  • FIG. 16 shows an example in that case.
  • initial value reference difference information JSON patch 101-1 and JSON patch 101-2 are prepared as random access point data.
  • the JSON patch 101 (initial value reference difference information) is stored in the same sample of the same track (Track # 1) as the above-mentioned JSON patch 82.
  • JSON patch 101-1 is stored in the same sample 111-1 as JSON patch 82-6.
  • the timing of applying the update is the same as each other, and the update result applied to each is also the same as each other.
  • the JSON patch 101-2 is stored in the same sample 111-2 as the JSON patch 82-9.
  • the timing of applying the update is the same as each other, and the update result applied to each is also the same as each other.
  • the client device can obtain the update information (immediate value reference difference information or initial value reference difference information) by using the same link information both in the normal reproduction and in the random access.
  • the random access point sample is combined with the immediately preceding value reference difference information and the initial value reference difference information as one sample. Therefore, the immediately preceding value reference difference information and the initial value reference difference information may be stored so that the client apparatus can use these information separately. That is, as shown in the fifth row from the top of the table shown in FIG. 13, it may be stored as a list having each of the immediately preceding value reference difference information and the initial value reference difference information as elements (method 1-2-2). 1).
  • the file generation unit may store the immediately preceding value reference difference information and the initial value reference difference information as a list having each as an element. Further, the immediately preceding value reference difference information and the initial value reference difference information may be stored in the sample as a list having each as an element.
  • the immediately preceding value reference difference information and the initial value reference difference information are each separated by [] and described as an element of the list. That is, the first element ([ ⁇ "op”: “remove”, “path”: “”, “value”: “” “ ⁇ ]) described in the third line from the top is the immediately preceding value reference difference information. (In the case of sample 111-1 in FIG. 16, JSON patch 82-6). On the other hand, the second element (described below) described in the 4th to 7th lines from the top is the initial value reference difference information (in the case of sample 111-1 in FIG. 16, JSON patch 101- 1).
  • the client device gets a sample (entire list), uses the first element of the list as update information (previous value reference difference information) in the case of normal playback, and the second element in the list in the case of random access. Use the element as update information (initial value reference difference information). In this way, the client device can more easily acquire the immediately preceding value reference difference information and the initial value reference difference information.
  • Method 1-2 when the method 1-2 is applied, as shown in the sixth row from the top of the table shown in FIG. 13, the immediately preceding value reference difference information and the initial value reference difference information are subordinated in the file management area, respectively. It may be managed as a sample (method 1-2-2).
  • the file generation unit may store management information for managing each of the immediately preceding value reference difference information and the initial value reference difference information as subsamples in the management area of the update file.
  • the difference information acquisition unit acquires the initial value reference difference information based on the management information stored in the management area of the update file, which manages each of the immediately preceding value reference difference information and the initial value reference difference information as subsamples. You may.
  • the data in the sample is divided into subsamples, and the data size of each subsample (subsample_size). ) Can be stored.
  • the client device can acquire the data of the subsample which is the data in the middle without interpreting the data in the sample from the beginning.
  • the management information that manages each of the immediately preceding value reference difference information and the initial value reference difference information as subsamples is stored in the management area of the update file, so that the client device sets the inside of the sample based on the management information.
  • Immediate value reference difference information or initial value reference difference information can be obtained from the sample without parsing. That is, the client device can more easily acquire the immediately preceding value reference difference information and the initial value reference difference information.
  • Method 1-2-2-1 When this method 1-2-2 is applied, as shown in the seventh row from the top of the table shown in FIG. 13, the subsample in which the immediately preceding value reference difference information is stored and the initial value reference difference information are stored.
  • the identification information that identifies the subsamples may be stored in the management area of the file (method 1-2-2-1).
  • the management information that manages each of the immediately preceding value reference difference information and the initial value reference difference information as a subsample includes a subsample in which the immediately preceding value reference difference information is stored and a subsample in which the initial value reference difference information is stored. It may include identification information for identification.
  • codec-specific parameters can be stored in the ISOBMFF subsample information box.
  • the codec spiritual parameter may be used as identification information for distinguishing a subsample in which the immediately preceding value reference difference information is stored and a subsample in which the initial value reference difference information is stored.
  • Figure 19 shows an example of the semantics of the codec spiritual parameters in that case.
  • the client device can easily determine whether it is a subsample in which the immediately preceding value reference difference information is stored or a subsample in which the initial value reference difference information is stored. Can be identified (without parsing the inside of the sample).
  • Method 1-2-3 when the method 1-2 is applied, as shown in the eighth row from the top of the table shown in FIG. 13, in the file management area, the sample in which the initial value reference difference information is stored can be randomly accessed. It may be managed as a sample (method 1-2-3).
  • the file generation unit may store management information in the management area of the update file, which manages the sample in which the initial value reference difference information is stored as a randomly accessible sample.
  • the difference information acquisition unit acquires the initial value reference difference information based on the management information that manages the sample in which the initial value reference difference information is stored as a randomly accessible sample stored in the management area of the update file. You may.
  • FIG. 18 is a diagram showing a description example of the sink sample box in that case.
  • the client device can easily (parse the inside of the sample) by referring to the sync sample box. Randomly accessible samples can be identified (without). That is, the client device can more easily identify the sample in which the initial value reference difference information is stored based on this information.
  • the initial value reference difference information may be stored in a different sample on the same track as the immediately preceding value reference difference information, as shown in the ninth row from the top of the table shown in FIG. (Method 1-3).
  • the immediately preceding value reference difference information is the difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the file generation unit may store the initial value reference difference information in a different sample of the same track as the immediately preceding value reference difference information of the update file.
  • the difference information acquisition unit may acquire the initial value reference difference information stored in different samples of the same track as the immediately preceding value reference difference information of the update file.
  • FIG. 20 shows an example in that case.
  • initial value reference difference information JSON patch 101-1 and JSON patch 101-2 are prepared as random access point data.
  • the JSON patch 101 (initial value reference difference information) is stored in a different sample of the same track (Track # 1) as the JSON patch 82 whose update application timing is the same as that of the JSON patch 101. Will be done.
  • JSON patch 101-1 is stored in the same track (Track # 1) as JSON patch 82-6, in the sample next to the sample in which JSON patch 82-6 is stored.
  • the timing of applying the update is the same as each other, and the update result applied to each is also the same as each other.
  • JSON patch 101-2 is stored in the same track (Track # 1) as the JSON patch 82-9, in the sample next to the sample in which the JSON patch 82-9 is stored.
  • the timing of applying the update is the same as each other, and the update result applied to each is also the same as each other.
  • the client device can obtain the update information (immediate value reference difference information or initial value reference difference information) by using the same link information both in the normal reproduction and in the random access.
  • the client device since the previous value reference difference information or the initial value reference difference information is stored in the sample (since the previous value reference difference information and the initial value reference difference information are not stored in the same sample), the client device selects the sample. By doing so, it is possible to select the immediately preceding value reference difference information or the initial value reference difference information.
  • Method 1-3-1 When such method 1-3 is applied, as shown in the tenth row from the top of the table shown in FIG. 13, the same update application time information as the sample in which the immediately preceding value reference difference information is stored is the same. It may be stored in the sample in which the initial value reference difference information to which the update is applied at the same timing as the immediately preceding value reference difference information is stored (method 1-3-1).
  • the file generation unit may store the same update application time information as the sample in which the immediately preceding value reference difference information is stored in the sample in which the initial value reference difference information is stored. Further, the sample in which the initial value reference difference information is stored may store the same update application time information as the sample in which the immediately preceding value reference difference information is stored.
  • the JSON patch can be extended and the time other than the presentation time included in the JSON patch sample can be stored as the time information that specifies the time when the update is executed.
  • the JSON patch stores version ID (version_id), event ID (event_id), Coordinated Universal Time (absolute_time_UTC (Coordinated Universal Time)), International Atomic Time (absolute_time_TAI (International Atomic Time)), etc. as this time information. can do.
  • version ID version_id
  • event ID event_id
  • Coordinated Universal Time absolute Time
  • absolute_time_TAI International Atomic Time
  • the time information is arbitrary and may be time information other than these examples.
  • the time information that specifies the time when such an update is executed is stored in the sample, and the timing of applying the update is the same as the initial value reference difference information in the sample in which the initial value reference difference information is stored.
  • the same time information as the previous sample is stored in the sample in which the initial value reference difference information is stored.
  • the same time information is stored in the JSON patch 82-6 sample and the JSON patch 101-1 sample. Further, the same time information is stored in the sample of JSON patch 82-9 and the sample of JSON patch 101-2.
  • the client device can easily correspond to the initial value reference difference information (update application timing is the same as the initial value reference difference information) without parsing the inside of the sample. Can be identified.
  • Method 1-3 When Method 1-3 is applied, as shown in the 11th row from the top of the table shown in FIG. 13, a sample in which the initial value reference difference information is stored is used in the normal playback in the file management area. It may be managed as a sample that is not used (Method 1-3-2).
  • the file generation unit may store management information in the management area of the update file, which manages the sample in which the initial value reference difference information is stored as a sample that is not used during normal playback.
  • the difference information acquisition unit uses the initial value reference difference information based on the management information that manages the sample that stores the initial value reference difference information stored in the management area of the update file as a sample that is not used during normal playback. You may get it.
  • the client device parses the inside of the sample during normal playback. It is possible to easily omit the acquisition of the sample in which the initial value reference difference information is stored. That is, when sequentially acquiring the sample of the update file as normal playback, the client device does not easily acquire the sample in which the initial value reference difference information is stored based on this management information, and the immediately preceding value reference difference information is obtained. You can only get the stored samples.
  • the client device can easily acquire the sample in which the initial value reference difference information is stored without parsing the inside of the sample at the time of random access. That is, when performing random access, the client device can easily acquire a sample in which the initial value reference difference information is stored based on this management information.
  • Method 1-3-2-1 When such a method 1-3-2 is applied, as shown in the twelfth row from the top of the table shown in FIG. 13, the identification information indicating whether or not the sample is used during normal reproduction is a sample. It may be stored in the management area of the file for each (method 1-3-2-1).
  • the management information that manages the sample in which the initial value reference difference information is stored as a sample that is not used during normal playback may include identification information indicating whether or not the sample is used during normal playback.
  • a sample redundancy flag (sample_has_redundancy flag) indicating sample redundancy can be stored in the sample dependency type box (SampleDependencyTypeBox) defined in ISOBMFF.
  • SampleDependencyTypeBox sample dependency type box
  • FIG. 21 shows a description example of the sample dependency type box (SampleDependencyTypeBox). As shown in FIG. 21, in this sample dependency type box, a sample loss redundancy flag can be stored for each sample.
  • the client device omits the acquisition of the sample whose sample loss redundancy flag value is "1" during normal reproduction. By doing so, the client device can easily omit the acquisition of the sample in which the initial value reference difference information is stored without parsing the inside of the sample during normal reproduction.
  • the client device when sequentially acquiring the sample of the update file as normal playback, the client device does not easily acquire the sample in which the initial value reference difference information is stored based on this sample redundancy degree flag, and the immediately preceding value reference difference is obtained. Only the sample that stores the information can be obtained.
  • Method 1-3-3 when Method 1-3 is applied, as shown in the 13th row from the top of the table shown in FIG. 13, in the file management area, the sample in which the initial value reference difference information is stored can be randomly accessed. It may be managed as a sample (method 1-3-3).
  • the file generation unit may store management information in the management area of the update file, which manages the sample in which the initial value reference difference information is stored as a randomly accessible sample.
  • the difference information acquisition unit acquires the initial value reference difference information based on the management information that manages the sample in which the initial value reference difference information is stored as a randomly accessible sample stored in the management area of the update file. You may.
  • a sample in which the initial value reference difference information is stored is described as a sync sample in the sync sample box (SyncSampleBox).
  • the client device can easily identify a randomly accessible sample (without parsing the inside of the sample) by referring to the sink sample box. That is, the client device can more easily identify the sample in which the initial value reference difference information is stored based on this information.
  • the initial value reference difference information may be replaced with the immediately preceding value reference difference information as shown in the 14th column from the top of the table shown in FIG. 13 (method 1-4). ..
  • the immediately preceding value reference difference information is the difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the file generation unit may replace the immediately preceding value reference difference information stored in the update file with the same update application time as the initial value reference difference information with the initial value reference difference information.
  • the difference information acquisition unit may acquire the initial value reference difference information stored in the update file and replaced with the immediately preceding value reference difference information whose update application time is the same as the initial value reference difference information.
  • FIG. 22 shows an example in that case.
  • JSON patch 101 JSON patch 101-1 and JSON patch 101-2
  • JSON patch 101 is initial value reference difference information and is random access point data.
  • the JSON patch 101 is placed on the same track (Track # 1) as the sample of the JSON patch 82, which is the immediately preceding value reference difference information, as in the case of the method 1-2 and the method 1-3.
  • Track # 1 the sample of the JSON patch 82
  • the update application timing is the same.
  • JSON patch 101-1 has the same update application timing as JSON patch 82-6 in the example of FIG.
  • the sample of JSON patch 101-1 is replaced with the sample of JSON patch 82-6. That is, the sample of JSON patch 82-6 is deleted, and the sample of JSON patch 101-1 is placed in its place.
  • JSON patch 101-2 has the same update application timing as JSON patch 82-9 in the example of FIG. In the example of FIG. 22, the sample of JSON patch 101-2 is replaced with the sample of JSON patch 82-9. That is, the sample of JSON patch 82-9 is deleted, and the sample of JSON patch 101-2 is placed instead.
  • the scene description of the update application timing of the sample other than the random access point sample uses the immediately preceding value reference difference information (JSON patch 82) and the scene description of the timing immediately before it. Is generated.
  • the scene description of the update application timing of the sample of the random access point is the initial value reference difference information (JSON patch 101) and the initial value of the scene description in both normal playback and random access. Generated using (Scene Description 81-0).
  • the sample loss redundancy flag is unnecessary because there is no immediately preceding value reference difference information having the same initial value reference difference information and update application timing as in the case of method 1-3. Can be omitted).
  • Method 1-4-1 when Method 1-4 is applied, as shown at the bottom of the table shown in FIG. 13, the sample in which the initial value reference difference information is stored in the file management area is a sample that can be randomly accessed. It may be managed (method 1-3-3).
  • the file generation unit may store management information in the management area of the update file, which manages the sample in which the initial value reference difference information is stored as a randomly accessible sample. Further, the difference information acquisition unit obtains the initial value reference difference information based on the management information stored in the management area of the update file and managing the sample in which the initial value reference difference information is stored as the sample that can be randomly accessed. You may get it.
  • a sample in which the initial value reference difference information is stored is described as a sync sample in the sync sample box (SyncSampleBox).
  • the client device can easily identify a randomly accessible sample (without parsing the inside of the sample) by referring to the sink sample box. That is, the client device can more easily identify the sample in which the initial value reference difference information is stored based on this information.
  • initial value reference difference information or updated information is prepared as the random access point, and the initial value reference difference information or the updated information is provided when the client device randomly accesses. That is, as shown at the top of the table shown in FIG. 23, the initial value reference difference information or the updated information is stored in the file as a random access point (method 2).
  • the initial value standard difference information is ⁇ 2.
  • Initial value reference Difference information transmission> As described above, the difference information is based on the initial value of the scene description.
  • the updated information is a scene description that reflects the update of each immediately preceding value reference difference information from the initial value to the sample to be processed.
  • the updated information is a scene description that reflects the update of the initial value reference difference information with respect to the initial value of the scene description.
  • update information for updating spatial arrangement information (that is, scene description) for arranging one or more 3D objects in 3D space.
  • the initial value reference difference information which is the difference information based on the initial value of the spatial arrangement information, or the updated information in which the update of the initial value reference difference information is reflected in the initial value of the spatial arrangement information is generated. It is provided with an update information generation unit for generating an update information and an update file for storing the update information, and as a random access point, a file generation unit for storing the initial value reference difference information or the updated information in the update file.
  • an information processing method for generating a file for storing update information of a scene description for updating the spatial arrangement information (that is, the scene description) for arranging one or more 3D objects in the 3D space.
  • the update information the initial value reference difference information which is the difference information based on the initial value of the spatial arrangement information, or the updated information in which the update of the initial value reference difference information is reflected in the initial value of the spatial arrangement information.
  • an update file that stores the update information is generated, and the initial value reference difference information or the updated information is stored in the update file as a random access point.
  • spatial arrangement information for arranging one or more 3D objects in 3D space.
  • Initial value reference difference information that is stored as a random access point in the update file that stores the update information for updating, and is the difference information based on the initial value of the spatial allocation information, or the initial of the spatial allocation information.
  • the update information acquisition unit that acquires the updated information in which the update of the initial value reference difference information is reflected in the value as update information.
  • a spatial arrangement information generation unit that generates spatial arrangement information at the update application time of the initial value reference difference information is provided.
  • the spatial arrangement information for arranging one or more 3D objects in the 3D space (that is, the scene disk).
  • Initial value reference difference information which is the difference information based on the initial value of the spatial allocation information, which is stored as a random access point in the update file that stores the update information for updating the information processing, or the spatial allocation information.
  • the updated information in which the update of the initial value reference difference information is reflected in the initial value of is acquired as the update information, and the update of the initial value reference difference information is reflected in the initial value of the spatial arrangement information, or its By applying the updated information, the spatial arrangement information of the update application time of the initial value reference difference information is generated.
  • the initial value reference difference information is stored in the file as a random access point, it is the same as in the case of method 1. That is, it is possible to suppress an increase in the processing load of the client device that randomly accesses the scene description.
  • the amount of information of the initial value reference difference information is almost the same as that of the scene description. That is, in this case, as compared with the example of FIG. 12, the amount of information transmitted to the client device at the time of random access remains almost the same, and the update process performed in the client device increases.
  • the update process performed in the client device can be reduced.
  • the initial value reference difference information or the updated information in a file as a random access point, it is possible to suppress an increase in the processing load when randomly accessing the scene description in a wider variety of cases. be able to. For example, if the amount of updated information in the scene description is large as described above, the updated information is stored in a file as a random access point, and if the amount of updated information in the scene description is small, the random access point.
  • the initial value reference difference information By storing the initial value reference difference information in a file, it is possible to suppress an increase in the processing load of the client device that randomly accesses the scene description regardless of the amount of information to be updated in the scene description.
  • the method of selecting whether to store the initial value reference difference information or the updated information as a random access point is arbitrary. Which one to store may be selected based on arbitrary information, or may be selected in response to an external request or instruction such as a user instruction or an application request.
  • the initial value reference difference information or the updated information is stored in a track different from the immediately preceding value reference difference information. It may be done (method 2-1).
  • the immediately preceding value reference difference information is the difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the file generation unit may store the initial value reference difference information or the update information in a track different from the immediately preceding value reference difference information of the update file.
  • the update information acquisition unit may acquire the initial value reference difference information or the updated information stored in a track different from the immediately preceding value reference difference information of the update file.
  • the client device can more easily obtain the sample of the initial value reference difference information (JSON patch 101) and the immediately preceding value reference difference information (JSON patch 82) by designating the track. ) Can be obtained independently of the sample.
  • the updated information is stored in a track different from the immediately preceding value reference difference information
  • the updated information is stored as in the example of FIG. That is, the client device can obtain the latest scene description without updating the scene description at the time of random access.
  • the selection of whether to store the initial value reference difference information or the updated information as a random access point may be performed in any data unit. For example, as in the examples of FIGS. 12 and 14, this selection may be made on a sequence-by-sequence basis. That is, in this case, the initial value reference difference information and the updated information are not mixed in the same track (only one of them is stored).
  • FIG. 24 shows an example in that case.
  • JSON patch 101-1 and scene description 83-2 are stored in the same track (Track # 2) as random access point data.
  • JSON patch 101-1 is initial value reference difference information
  • scene description 83-2 is updated information. That is, in this case, the initial value reference difference information and the updated information may be mixed in the same track.
  • the difference information stored as a random access point may be based on a value other than the initial value.
  • Method 2-1-1 When such method 2-1 is applied, as shown in the third row from the top of the table shown in FIG. 23, the link information to the track that stores the initial value reference difference information or the updated information is random. As the link information for access, it may be stored in the initial value of the scene description (SD) (method 2-1-1).
  • SD scene description
  • the file generation unit generates an initial value file that stores the initial value of the spatial arrangement information, and provides link information indicating a link to a track that stores the initial value reference difference information or the updated information, as a link for random access. It may be stored as information.
  • the update information acquisition unit shows a link to a track that stores the initial value reference difference information or the updated information stored as link information for random access in the initial value file that stores the initial value of the spatial arrangement information.
  • the link information may be used to acquire the initial value reference difference information or the updated information.
  • FIG. 25 shows a part of the description example of the scene description 81-0 in that case.
  • the link information (“uri”: scen_updata.json-patch) to the track that stores the sample of the immediately preceding value reference difference information?
  • the link information (“uri_for_random_access”: random_access.json) to the track that stores the sample of the initial value reference difference information or the updated information is described.
  • the link information to the track that stores the sample of the immediately preceding value reference difference information is the link information used at the time of normal reproduction.
  • the link information to the track that stores the sample of the initial value reference difference information or the updated information is the link information used at the time of random access. That is, in the example of FIG. 15, the link information is described in a state in which both of them can be distinguished. That is, the link information to the track that stores the sample of the initial value reference difference information or the updated information is stored in the initial value of the scene description as the link information for random access.
  • the client device can more easily identify the track in which the appropriate update information is stored. For example, the client device can more easily select the link information for obtaining a sample of the immediately preceding value reference difference information during normal reproduction. Further, the client device can more easily select the link information for obtaining the initial value reference difference information or the sample of the updated information at the time of random access.
  • the initial value reference difference information or the updated information is stored in the same sample of the same track as the immediately preceding value reference difference information, as shown in the fourth row from the top of the table shown in FIG. It may be done (method 2-2).
  • the immediately preceding value reference difference information is the difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the file generation unit may store the initial value reference difference information or the updated information in the same sample of the same track as the immediately preceding value reference difference information of the update file.
  • the update information acquisition unit may acquire the initial value reference difference information or the updated information stored in the same sample of the same track as the immediately preceding value reference difference information of the update file.
  • the client device can make one track of the update file. Therefore, the client device can obtain the update information (immediate value reference difference information or initial value reference difference information) by using the same link information both in the normal reproduction and in the random access.
  • the updated information is stored as in the example of FIG. 26, for example. That is, the scene description 83-1 (updated information) is stored in the same sample 131-1 as the JSON patch 82-6. The update result to which JSON patch 82-6 is applied is equivalent to the scene description 83-1. Further, the scene description 83-2 (updated information) is stored in the same sample 131-2 as the JSON patch 82-9. The update result to which JSON patch 82-9 is applied is equivalent to the scene description 83-2. By doing so, the update file can have one track. Therefore, the client device can obtain the update information (immediately preceding value reference difference information or the updated information) by using the same link information both in the normal reproduction and in the random access.
  • the selection of whether to store the initial value reference difference information or the updated information as a random access point may be performed in any data unit. For example, as in the examples of FIGS. 16 and 26, this selection may be made on a sequence-by-sequence basis. That is, in this case, the initial value reference difference information and the updated information are not mixed in the same track (only one of them is stored).
  • FIG. 27 shows an example in that case.
  • the JSON patch 101-1 is stored as random access point data in the same sample 132-1 on the same track as the JSON patch 82-6.
  • the scene description 83-2 is stored as random access point data in the same sample 132-2 on the same track as the JSON patch 82-9. That is, the JSON patch 101-1 and the scene description 83-2 are stored in the same track (Track # 1).
  • JSON patch 101-1 is initial value reference difference information
  • scene description 83-2 is updated information. That is, in this case, the initial value reference difference information and the updated information may be mixed in the same track.
  • Method 2-2-1 When such method 2-2 is applied, the random access point sample is combined with the immediately preceding value reference difference information and the initial value reference difference information or the updated information as one sample. Therefore, the immediately preceding value reference difference information and the initial value reference difference information or the updated information may be stored so that the client device can use these information separately. That is, as shown in the fifth row from the top of the table shown in FIG. 23, it may be stored as a list having each of the immediately preceding value reference difference information and the initial value reference difference information or the updated information as elements (method). 2-2-1).
  • the file generation unit may store the immediately preceding value reference difference information and the initial value reference difference information or the updated information as a list having each as an element. Further, the immediately preceding value reference difference information and the initial value reference difference information or the updated information may be stored in the sample as a list having each as an element.
  • the client device can more easily acquire the immediately preceding value reference difference information and the initial value reference difference information or the updated information.
  • Method 2-2-2 when the method 2-2 is applied, as shown in the sixth row from the top of the table shown in FIG. 23, in the file management area, the immediately preceding value reference difference information and the initial value reference difference information or the updated information However, each may be managed as a subsample (method 2-2-2).
  • the file generation unit may store the management information that manages each of the immediately preceding value reference difference information and the initial value reference difference information or the updated information as a subsample in the management area of the update file.
  • the update information acquisition unit is based on the management information that manages each of the immediately preceding value reference difference information and the initial value reference difference information or the updated information as subsamples stored in the management area of the update file. Difference information or updated information may be acquired.
  • the client device can acquire the data of the subsample which is the data in the middle without interpreting the data in the sample from the beginning.
  • the management information for managing each of the immediately preceding value reference difference information and the initial value reference difference information as subsamples is stored in the management area of the update file, so that the client device Can acquire the immediately preceding value reference difference information or the initial value reference difference information from the sample based on the management information without parsing the inside of the sample.
  • the management information that manages each of the immediately preceding value reference difference information and the updated information as a subsample is stored in the management area of the update file, so that the client device parses the inside of the sample based on the management information. It is possible to obtain the last-minute reference difference information or the updated information from the sample without doing so. That is, the client device can more easily acquire the immediately preceding value reference difference information, the initial value reference difference information, and the updated information.
  • Method 2-2-2 When this method 2-2-2 is applied, as shown in the seventh row from the top of the table shown in FIG. 23, the subsample in which the immediately preceding value reference difference information is stored and the initial value reference difference information or after updating. Identification information that identifies the subsample in which the information is stored may be stored in the management area of the file (method 2-2-2-1).
  • the management information that manages each of the immediately preceding value reference difference information and the initial value reference difference information or the updated information as a subsample is the subsample in which the immediately preceding value reference difference information is stored and the initial value reference difference information or the updated information. May include identification information that identifies the subsample in which it is stored.
  • codec-specific parameters (codec_specific_parameters) stored in the ISOBMFF subsample information box are stored in the subsample in which the immediately preceding value reference difference information is stored and the initial value reference difference information or update information. It may be used as identification information for distinguishing from the subsample.
  • codec_specific_parameters 0
  • codec_specific_parameters 1
  • codec_specific_parameters 1
  • codec_specific_parameters 1
  • the sub-picture is the initial value.
  • Value Criteria Indicates that the information is difference information or updated information. Whether the client device is a subsample in which the immediately preceding value reference difference information is stored, or is a subsample in which the initial value reference difference information or the updated information is stored by referring to the value of this codec spiritual parameter. Can be easily identified (without parsing the inside of the sample).
  • Method 2-2-3 ⁇ Method 2-2-3> Further, when the method 2-2 is applied, as shown in the eighth row from the top of the table shown in FIG. 23, in the file management area, a sample in which the initial value reference difference information or the updated information is stored is , May be managed as a randomly accessible sample (Method 2-2-3).
  • the file generation unit may store management information for managing the sample in which the initial value reference difference information or the updated information is stored as a randomly accessible sample in the management area of the update file.
  • the update information acquisition unit is based on the management information that manages the sample that stores the initial value reference difference information or the updated information stored in the management area of the update file as a randomly accessible sample. Difference information or updated information may be acquired.
  • a sample in which the initial value reference difference information is stored is described as a sync sample (SyncSample).
  • This sink sample is a randomly accessible sample.
  • the client device can easily (parse the inside of the sample) by referring to the sync sample box. Randomly accessible samples can be identified (without). That is, the client device can more easily identify the sample in which the initial value reference difference information or the updated information is stored based on this information.
  • the initial value reference difference information or the updated information is stored in a different sample of the same track as the immediately preceding value reference difference information, as shown in the ninth row from the top of the table shown in FIG. It may be done (method 2-3).
  • the immediately preceding value reference difference information is the difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the file generation unit may store the initial value reference difference information or the updated information in a different sample of the same track as the immediately preceding value reference difference information of the update file.
  • the update information acquisition unit may acquire the initial value reference difference information or the post-update information stored in different samples of the same track as the immediately preceding value reference difference information of the update file.
  • the client device can obtain the update information (immediate value reference difference information or initial value reference difference information) by using the same link information both in the normal reproduction and in the random access.
  • the client device selects the sample. By doing so, it is possible to select the immediately preceding value reference difference information or the initial value reference difference information.
  • the updated information is stored as in the example of FIG. 28, for example.
  • the scene description 83-1 (updated information) is the next sample of the sample in which the JSON patch 82-6 is stored in the same track (Track # 1) as the JSON patch 82-6. Stored.
  • the update result to which JSON patch 82-6 is applied is equivalent to the scene description 83-1.
  • the scene description 83-2 (updated information) is stored in the same track (Track # 1) as the JSON patch 82-9, in the sample next to the sample in which the JSON patch 82-9 is stored.
  • the update result to which JSON patch 82-9 is applied is equivalent to the scene description 83-2.
  • the client device can obtain the update information (immediately preceding value reference difference information or the updated information) by using the same link information both in the normal reproduction and in the random access.
  • the client device can select the sample. Last minute reference difference information or updated information can be selected.
  • the selection of whether to store the initial value reference difference information or the updated information as a random access point may be performed in any data unit. For example, as in the examples of FIGS. 20 and 28, this selection may be made on a sequence-by-sequence basis. That is, in this case, the initial value reference difference information and the updated information are not mixed in the same track (only one of them is stored).
  • FIG. 29 shows an example in that case.
  • JSON patch 101-1 is stored as random access point data in the next sample of JSON patch 82-6.
  • the scene description 83-2 is stored in the next sample of JSON patch 82-9 as the data of the random access point. That is, the JSON patch 101-1 and the scene description 83-2 are stored in the same track (Track # 1).
  • JSON patch 101-1 is initial value reference difference information
  • scene description 83-2 is updated information. That is, in this case, the initial value reference difference information and the updated information may be mixed in the same track.
  • Method 2-3-1 When such method 2-3 is applied, as shown in the tenth row from the top of the table shown in FIG. 23, the same update application time information as the sample in which the immediately preceding value reference difference information is stored is the same. It may be stored in the sample in which the initial value reference difference information or the updated information to which the update is applied at the same timing as the immediately preceding value reference difference information is stored (method 2-3-1).
  • the file generation unit may store the same update application time information as the sample in which the immediately preceding value reference difference information is stored in the sample in which the initial value reference difference information or the updated information is stored. Further, in the sample in which the initial value reference difference information or the updated information is stored, the same update application time information as the sample in which the immediately preceding value reference difference information is stored may be stored.
  • the time information that specifies the time when the update is executed is stored in the sample, and the sample in which the initial value reference difference information or the updated information is stored is updated.
  • the same time information is stored in the sample of JSON patch 82-6 and the sample of JSON patch 101-1 immediately after that. Further, the same time information is stored in the sample of JSON patch 82-9 and the sample of JSON patch 101-2 one after that. Further, in the case of the example of FIG.
  • the same time information is stored in the sample of JSON patch 82-6 and the sample of the scene description 83-1 immediately after that. Further, the same time information is stored in the sample of JSON patch 82-9 and the sample of the scene description 83-2 immediately after that. Further, in the case of the example of FIG. 29, the same time information is stored in the sample of JSON patch 82-6 and the sample of JSON patch 101-1 immediately after that. Further, the same time information is stored in the sample of JSON patch 82-9 and the sample of the scene description 83-2 immediately after that.
  • Last-minute reference difference information can be specified.
  • Method 2-3-2 when the method 2-3 is applied, as shown in the eleventh column from the top of the table shown in FIG. 23, in the file management area, a sample in which the initial value reference difference information or the updated information is stored is set. It may be managed as a sample that is not used during normal playback (method 2-3-2).
  • the file generation unit may store management information in the management area of the update file, which manages the sample in which the initial value reference difference information or the updated information is stored as a sample that is not used during normal playback.
  • the update information acquisition unit is based on the management information that manages the sample that stores the initial value reference difference information or the updated information stored in the management area of the update file as a sample that is not used during normal playback. Reference difference information or updated information may be acquired.
  • the client device can perform normal playback. It is possible to easily omit the acquisition of the sample in which the initial value reference difference information or the updated information is stored without parsing the inside of the sample. That is, when sequentially acquiring the sample of the update file for normal playback, the client device does not easily acquire the sample in which the initial value reference difference information or the updated information is stored based on this management information, and the immediately preceding value. Only the sample in which the reference difference information is stored can be acquired.
  • the client device can easily acquire the sample in which the initial value reference difference information or the updated information is stored without parsing the inside of the sample at the time of random access. That is, when performing random access, the client device can easily acquire a sample in which the initial value reference difference information or the updated information is stored based on this management information.
  • Method 2-3-2 When such a method 2-3-2 is applied, as shown in the twelfth row from the top of the table shown in FIG. 23, the identification information indicating whether or not the sample is used during normal reproduction is a sample. It may be stored in the management area of the file for each (method 2-3-2-1).
  • the management information that manages the sample in which the initial value reference difference information or the updated information is stored as a sample that is not used during normal playback includes identification information indicating whether or not the sample is used during normal playback. good.
  • sample_has_redundancy flag 1
  • the client device omits the acquisition of the sample in which the value of the sample redundancy flag is "1" at the time of normal reproduction.
  • the client device can easily omit the acquisition of the sample in which the initial value reference difference information or the updated information is stored without parsing the inside of the sample during normal playback. .. That is, when sequentially acquiring the sample of the update file for normal playback, the client device does not easily acquire the sample in which the initial value reference difference information or the updated information is stored based on this sample redundancy dance flag. Only the sample in which the last-minute reference difference information is stored can be acquired.
  • Method 2-3-3 ⁇ Method 2-3-3> Further, when the method 2-3 is applied, as shown in the 13th row from the top of the table shown in FIG. 23, in the file management area, a sample in which the initial value reference difference information or the updated information is stored is , May be managed as a randomly accessible sample (Method 2-3-3).
  • the file generation unit may store management information for managing the sample in which the initial value reference difference information or the updated information is stored as a randomly accessible sample in the management area of the update file.
  • the update information acquisition unit is based on the management information that manages the sample that stores the initial value reference difference information or the updated information stored in the management area of the update file as a randomly accessible sample. Difference information or updated information may be acquired.
  • a sample in which the initial value reference difference information or the updated information is stored is described as a sync sample in the sync sample box (SyncSampleBox).
  • the client device can easily identify a randomly accessible sample (without parsing the inside of the sample) by referring to the sink sample box. That is, the client device can more easily identify the sample in which the initial value reference difference information or the updated information is stored based on this information.
  • the initial value reference difference information or the updated information may be replaced with the immediately preceding value reference difference information as shown in the 14th column from the top of the table shown in FIG. 23 (method). 2-4).
  • the immediately preceding value reference difference information is the difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the file generator replaces the immediately preceding value reference difference information stored in the update file with the same update application time as the initial value reference difference information or the updated information with the initial value reference difference information or the updated information. May be good.
  • the update information acquisition unit stores the initial value reference difference information or the update information stored in the update file, in which the update application time is replaced with the immediately preceding value reference difference information having the same as the initial value reference difference information or the update information. You may get it.
  • the initial value reference difference information is replaced with the immediately preceding value reference difference information as a random access point, the initial value reference difference information is stored as in the example of FIG. 22. Therefore, as in the case of Method 1-4, the amount of data in the update file can be reduced as compared with the cases of Method 2-2 and Method 2-3.
  • the updated information is stored as in the example of FIG. 30, for example.
  • the sample of the scene description 83-1 (updated information) is replaced with the sample of JSON patch 82-6.
  • the sample in Scene Description 83-2 (updated information) has been replaced with the sample in JSON patch 82-9.
  • the scene description of the update application timing of the sample other than the random access point sample uses the immediately preceding value reference difference information (JSON patch 82) and the scene description of the timing immediately before it. Is generated.
  • the updated information (scene description 83) is applied in both the normal playback and the random access.
  • the selection of whether to store the initial value reference difference information or the updated information as a random access point may be performed in any data unit. For example, as in the examples of FIGS. 22 and 30, this selection may be made on a sequence-by-sequence basis. That is, in this case, the initial value reference difference information and the updated information are not mixed in the same track (only one of them is stored).
  • FIG. 31 shows an example in that case.
  • the sample of JSON patch 101-1 is replaced with the sample of JSON patch 82-6 as the data of the random access point.
  • the sample of the scene description 83-2 is replaced with the sample of JSON patch 82-9 as the data of the random access point. That is, the JSON patch 101-1 and the scene description 83-2 are stored in the same track (Track # 1).
  • JSON patch 101-1 is initial value reference difference information
  • scene description 83-2 is updated information. That is, in this case, the initial value reference difference information and the updated information may be mixed in the same track.
  • the sample loss redundancy flag is set because there is no initial value reference difference information or the immediately preceding value reference difference information whose update application timing is the same as that of the post-update information as in the case of method 2-3. Not required (may be omitted).
  • Method 2-4-1 when the method 2-4 is applied, as shown at the bottom of the table shown in FIG. 23, in the file management area, the sample in which the initial value reference difference information or the updated information is stored is randomly accessed. It may be managed as a possible sample (method 2-3-3).
  • the file generation unit may store management information for managing the sample in which the initial value reference difference information or the updated information is stored as a randomly accessible sample in the management area of the update file.
  • the update information acquisition unit is based on the management information that manages the sample that stores the initial value reference difference information or the updated information stored in the management area of the update file as a randomly accessible sample. Difference information or updated information may be acquired.
  • a sample in which the initial value reference difference information or the updated information is stored is described as a sync sample in the sync sample box (SyncSampleBox).
  • the client device can easily identify a randomly accessible sample (without parsing the inside of the sample) by referring to the sink sample box. That is, the client device can more easily identify the sample in which the initial value reference difference information or the updated information is stored based on this information.
  • FIG. 32 is a block diagram showing an example of the configuration of a file generation device, which is an aspect of an information processing device to which the present technology is applied.
  • the file generation device 300 shown in FIG. 28 is a device that generates information for distribution of 3D object contents.
  • the file generation device 300 generates a 3D object content file to be distributed, or generates a scene description file (scene description) of the 3D object content.
  • FIG. 32 shows the main things such as the processing unit and the data flow, and not all of them are shown in FIG. 32. That is, in the file generation device 300, there may be a processing unit that is not shown as a block in FIG. 32, or there may be a processing or data flow that is not shown as an arrow or the like in FIG. 32.
  • the file generation device 300 has a control unit 301 and a file generation processing unit 302.
  • the control unit 301 controls the file generation processing unit 302.
  • the file generation processing unit 302 is controlled by the control unit 301 to perform processing related to file generation.
  • the file generation processing unit 302 generates a 3D object file, which is a content file for storing data of a 3D object to be distributed.
  • the file generation processing unit 302 generates a scene description file for storing the scene description corresponding to the 3D object and an update file thereof.
  • the file generation processing unit 302 outputs the generated file to the outside of the file generation device 300.
  • the file generation processing unit 302 uploads the generated file to a distribution server or the like.
  • the file generation processing unit 302 has an input unit 311, a preprocessing unit 312, an encoding unit 313, a file generation unit 314, a recording unit 315, and an output unit 316.
  • the input unit 311 acquires the data of the 3D object and supplies it to the preprocessing unit 312.
  • the preprocessing unit 312 uses the data of the 3D object to generate a scene description and its update information.
  • the preprocessing unit 312 supplies the generated information to the file generation unit 314. Further, the preprocessing unit 312 supplies the data of the 3D object to the coding unit 313.
  • the coding unit 313 encodes the data of the 3D object supplied from the preprocessing unit 312 and generates the coded data (bit stream).
  • the coding unit 313 supplies the coded data of the generated 3D object to the file generation unit 314.
  • the file generation unit 314 acquires the coded data of the 3D object supplied from the coding unit 313. Further, the file generation unit 314 acquires the information supplied from the preprocessing unit 312 (for example, the scene description and its update information).
  • the file generation unit 314 generates a 3D object file that stores the coded data of the 3D object supplied from the coding unit 313. Further, the file generation unit 314 generates a scene description file for storing the scene description supplied from the preprocessing unit 312. Further, the file generation unit 314 generates an update file for storing the update information supplied from the preprocessing unit 312.
  • the file generation unit 314 supplies the generated file to the recording unit 315.
  • the recording unit 315 has an arbitrary recording medium such as a hard disk or a semiconductor memory, and records a file supplied from the file generation unit 314 on the recording medium. Further, the recording unit 315 reads out the file recorded on the recording medium according to the request of the control unit 301 or the output unit 316, or at a predetermined timing, and supplies the file to the output unit 316.
  • the output unit 316 acquires a file supplied from the recording unit 315, and outputs the file to the outside of the file generation device 300 (for example, a distribution server, a playback device, etc.).
  • the file generation device 300 for example, a distribution server, a playback device, etc.
  • the file generation device 300 is, for example, ⁇ 2.
  • the file can be generated by applying the above-mentioned disclosure in Transmission of initial value reference difference information>.
  • the file generation device 300 can generate a file by applying the method 1 described above.
  • An example of the flow of the file generation process executed by the file generation device 300 in that case will be described with reference to the flowchart of FIG. 33.
  • the input unit 311 of the file generation device 300 acquires the data of the 3D object in step S301.
  • step S302 the preprocessing unit 312 uses the data of the 3D object acquired in step S301 to generate a scene description which is spatial arrangement information for arranging one or more 3D objects in the 3D space. Further, the file generation unit 314 generates a scene description file for storing the scene description.
  • step S303 the preprocessing unit 312 updates the scene description generated in step S302 along the time axis, and generates the immediately preceding value reference difference information as the update information applied during normal playback.
  • step S304 the file generation unit 314 generates an update file for storing the update information, and stores the update information (previous value reference difference information) generated in step S303 in the update file. At that time, the file generation unit 314 stores the immediately preceding value reference difference information in the sample of the track for storing the immediately preceding value reference difference information.
  • step S305 the preprocessing unit 312 applies the method 1 described above in ⁇ method 1>, and generates initial value reference difference information as update information of the scene description generated in step S302.
  • step S306 the file generation unit 314 applies the method 1 described above in ⁇ method 1>, and stores the initial value reference difference information generated in step S303 in the update file as a sample of the random access point.
  • step S307 the coding unit 313 encodes the data of the 3D object acquired in step S301 and generates the coded data (bit stream) of the 3D object.
  • step S308 the file generation unit 314 generates a 3D object file which is a content file, and stores the coded data of the 3D object generated in step S307 in the 3D object file.
  • step S309 the recording unit 315 records the scene description file generated in step S302 on the recording medium. Further, the recording unit 315 records the update file generated in step S304 and storing the update information in steps S304 and S306 on the recording medium. Further, the recording unit 315 records the 3D object file generated in step S308 on the recording medium.
  • the output unit 316 reads various files recorded in step S309 from the recording medium, and outputs the read files to the outside of the file generation device 300 at a predetermined timing.
  • the output unit 316 may transmit (upload) a file read from the recording medium to another device such as a distribution server or a playback device via a communication medium such as a network.
  • the output unit 316 may record the file read from the recording medium on an external recording medium such as a removable medium. In that case, the output file may be supplied to another device (distribution server, playback device, etc.) via the external recording medium, for example.
  • step S310 When the process of step S310 is completed, the file generation process is completed.
  • the file generation device 300 can suppress an increase in the processing load of the client device that randomly accesses the scene description as described above in ⁇ Method 1>.
  • the file generation unit 314 may apply the method 1-1 described above in ⁇ method 1-1>. That is, the file generation unit 314 may store the initial value reference difference information in a track different from the immediately preceding value reference difference information of the update file. By doing so, the client device can more easily acquire the sample of the initial value reference difference information independently of the sample of the immediately preceding value reference difference information by designating the track.
  • the file generation unit 314 may apply the method 1-1-1 described above in the ⁇ method 1-1-1>. That is, the file generation unit 314 generates an initial value file that stores the initial value of the spatial arrangement information, and uses the link information indicating the link to the track that stores the initial value reference difference information as the link information for random access. It may be stored in the initial value file. By doing so, the client device can more easily identify the track in which the appropriate update information is stored.
  • the file generation unit 314 may apply the method 1-2 described above in ⁇ method 1-2>. That is, the file generation unit 314 may store the initial value reference difference information in the same sample of the same track as the immediately preceding value reference difference information of the update file. By doing so, the client device can obtain update information (immediate value reference difference information or initial value reference difference information) using the same link information both during normal playback and random access. ..
  • the file generation unit 314 may apply the method 1-2-1 described above in the ⁇ method 1-2-1>. That is, the file generation unit 314 may store the immediately preceding value reference difference information and the initial value reference difference information in the same sample as a list having each as an element. By doing so, the client device can more easily acquire the immediately preceding value reference difference information and the initial value reference difference information.
  • the file generation unit 314 may apply the method 1-2-2 described above in the ⁇ method 1-2-2>. That is, the file generation unit 314 may store management information (for example, SubSampleInformationBox) that manages each of the immediately preceding value reference difference information and the initial value reference difference information as subsamples in the management area of the update file. By doing so, the client device can more easily acquire the immediately preceding value reference difference information and the initial value reference difference information.
  • management information for example, SubSampleInformationBox
  • the file generation unit 314 may apply the method 1-2-2-1 described above in the ⁇ method 1-2-2-1>. .. That is, the above-mentioned management information may include identification information (for example, codec_specific_parameters) that distinguishes a subsample in which the immediately preceding value reference difference information is stored and a subsample in which the initial value reference difference information is stored.
  • identification information for example, codec_specific_parameters
  • the client device can easily determine whether it is a subsample in which the immediately preceding value reference difference information is stored or a subsample in which the initial value reference difference information is stored (inside the sample). Can be identified (without parsing).
  • the file generation unit 314 may apply the method 1-2-3 described above in the ⁇ method 1-2-3>. That is, the file generation unit 314 may store the management information (SyncSampleBox) that manages the sample in which the initial value reference difference information is stored as a randomly accessible sample in the management area of the update file. Based on this management information, the client device can more easily identify the sample in which the initial value reference difference information is stored.
  • the management information SynchronizationBox
  • the file generation unit 314 may apply the method 1-3 described above in ⁇ method 1-3>. That is, the file generation unit 314 may store the initial value reference difference information in a different sample of the same track as the immediately preceding value reference difference information of the update file. By doing so, the client apparatus can select the immediately preceding value reference difference information or the initial value reference difference information by selecting the sample.
  • the file generation unit 314 may apply the method 1-3-1 described above in the ⁇ method 1-3-1>. That is, the file generation unit 314 may store the same update application time information as the sample in which the immediately preceding value reference difference information is stored in the sample in which the initial value reference difference information is stored. By doing so, the client device can easily specify the immediately preceding value reference difference information corresponding to the initial value reference difference information without parsing the inside of the sample.
  • the file generation unit 314 may apply the method 1-3-2 described above in the ⁇ method 1-3-2>. That is, the file generation unit 314 may store the management information for managing the sample in which the initial value reference difference information is stored as a sample that is not used during normal reproduction in the management area of the update file. By doing so, the client device can easily omit the acquisition of the sample in which the initial value reference difference information is stored at the time of normal reproduction based on this management information (without parsing the inside of the sample). be able to. In other words, when performing random access, the client device can easily obtain a sample in which the initial value reference difference information is stored based on this management information (without parsing the inside of the sample).
  • the file generation unit 314 may apply the method 1-3-2-1 described above in the ⁇ method 1-3-2-1>. .. That is, the above-mentioned management information may include identification information (for example, sample_has_redundancy_flag) indicating whether or not the sample is used during normal reproduction.
  • identification information for example, sample_has_redundancy_flag
  • the client device can easily omit the acquisition of the sample in which the initial value reference difference information is stored based on this identification information (without parsing the inside of the sample) during normal playback. be able to.
  • the file generation unit 314 may apply the method 1-3-3 described above in the ⁇ method 1-3-3>. That is, the file generation unit 314 may store management information (for example, SyncSampleBox) that manages the sample in which the initial value reference difference information is stored as a randomly accessible sample in the management area of the update file. By doing so, the client device can more easily identify the sample in which the initial value reference difference information is stored based on this management information.
  • management information for example, SyncSampleBox
  • the file generation unit 314 may apply the method 1-4 described above in ⁇ method 1-4>. That is, the file generation unit 314 may replace the immediately preceding value reference difference information whose update application time is the same as the initial value reference difference information stored in the update file with the initial value reference difference information. By doing so, the amount of data in the update file can be reduced as compared with the cases of Method 1-2 and Method 1-3.
  • the file generation unit 314 may apply the method 1-4-1 described above in the ⁇ method 1-4-1>. That is, the file generation unit 314 may store management information (for example, SyncSampleBox) that manages the sample in which the initial value reference difference information is stored as a randomly accessible sample in the management area of the update file. By doing so, the client device can more easily identify the sample in which the initial value reference difference information is stored based on this management information.
  • management information for example, SyncSampleBox
  • any plurality of methods described above may be combined and applied. Further, the various methods described above may be applied in combination with any other method not described above.
  • the file generation device 300 is, for example, ⁇ 3.
  • the file can be generated by applying the above disclosure in Transmission of initial value reference difference information or updated information>.
  • the file generation device 300 can generate a file by applying the method 2 described above. An example of the flow of the file generation process executed by the file generation device 300 in that case will be described with reference to the flowchart of FIG. 34.
  • the input unit 311 of the file generation device 300 acquires the data of the 3D object in step S351.
  • step S352 the preprocessing unit 312 uses the data of the 3D object acquired in step S351 to generate a scene description which is spatial arrangement information for arranging one or more 3D objects in the 3D space. Further, the file generation unit 314 generates a scene description file for storing the scene description.
  • step S353 the preprocessing unit 312 updates the scene description generated in step S352 along the time axis, and generates the immediately preceding value reference difference information as the update information applied during normal playback.
  • step S354 the file generation unit 314 generates an update file for storing the update information, and stores the update information (previous value reference difference information) generated in step S353 in the update file. At that time, the file generation unit 314 stores the immediately preceding value reference difference information in the sample of the track for storing the immediately preceding value reference difference information.
  • step S355 the preprocessing unit 312 applies the method 2 described above in ⁇ method 2>, selects initial value reference difference information or post-update information as the update information of the scene description generated in step S352. Generate.
  • step S356 the file generation unit 314 applies the method 2 described above in ⁇ method 2>, and stores the initial value reference difference information or the updated information generated in step S353 in the update file as a sample of the random access point. do.
  • step S357 the coding unit 313 encodes the data of the 3D object acquired in step S351 and generates the coded data (bit stream) of the 3D object.
  • step S358 the file generation unit 314 generates a 3D object file which is a content file, and stores the coded data of the 3D object generated in step S357 in the 3D object file.
  • step S359 the recording unit 315 records the scene description file generated in step S352 on the recording medium. Further, the recording unit 315 records the update file generated in step S354 and storing the update information in step S354 and step S356 on the recording medium. Further, the recording unit 315 records the 3D object file generated in step S358 on the recording medium.
  • step S360 the output unit 316 reads various files recorded in step S359 from the recording medium, and outputs the read files to the outside of the file generation device 300 at a predetermined timing.
  • the output unit 316 may transmit (upload) a file read from the recording medium to another device such as a distribution server or a playback device via a communication medium such as a network.
  • the output unit 316 may record the file read from the recording medium on an external recording medium such as a removable medium. In that case, the output file may be supplied to another device (distribution server, playback device, etc.) via the external recording medium, for example.
  • step S360 When the process of step S360 is completed, the file generation process is completed.
  • the file generation device 300 increases the processing load of the client device that randomly accesses the scene description in more various cases as described above in ⁇ Method 2>. It can be suppressed.
  • the file generation unit 314 may apply the method 2-1 described above in ⁇ method 2-1>. That is, the file generation unit 314 may store the initial value reference difference information or the update information in a track different from the immediately preceding value reference difference information of the update file. By doing so, the client device can more easily acquire the sample of the initial value reference difference information or the scene description independently of the sample of the immediately preceding value reference difference information by designating the track.
  • the file generation unit 314 may apply the method 1-1-1 described above in the ⁇ method 2-1-1>. That is, the file generation unit 314 generates an initial value file that stores the initial value of the spatial arrangement information, and randomly accesses the link information indicating the link to the track that stores the initial value reference difference information or the updated information. It may be stored in the initial value file as link information. By doing so, the client device can more easily identify the track in which the appropriate update information is stored.
  • the file generation unit 314 may apply the method 2-2 described above in the ⁇ method 2-2>. That is, the file generation unit 314 may store the initial value reference difference information or the update information in the same sample of the same track as the immediately preceding value reference difference information of the update file. By doing so, the client device can obtain the update information by using the same link information at the time of normal reproduction and random access.
  • the file generation unit 314 may apply the method 2-2-1 described above in the ⁇ method 2-2-1>. That is, the file generation unit 314 may store the immediately preceding value reference difference information and the initial value reference difference information or the updated information in the same sample as a list having each as an element. By doing so, the client device can more easily acquire the immediately preceding value reference difference information and the initial value reference difference information or the updated information.
  • the file generation unit 314 may apply the method 2-2-2 described above in the ⁇ method 2-2-2>. That is, the file generation unit 314 may store the management information (for example, SubSampleInformationBox) that manages each of the immediately preceding value reference difference information and the initial value reference difference information or the updated information as a subsample in the management area of the update file. By doing so, the client device can more easily acquire the immediately preceding value reference difference information, the initial value reference difference information, and the updated information.
  • the management information for example, SubSampleInformationBox
  • the file generation unit 314 may apply the method 2-2-2-1 described above in ⁇ Method 2-2-1>. .. That is, the above-mentioned management information may include identification information (for example, codec_specific_parameters) that distinguishes a subsample in which the immediately preceding value reference difference information is stored and a subsample in which the initial value reference difference information or the updated information is stored. .. By referring to the value of this identification information, the client device can easily determine whether it is a subsample in which the immediately preceding value reference difference information is stored, or a subsample in which the initial value reference difference information or the updated information is stored. Can be identified (without parsing the inside of the sample).
  • identification information for example, codec_specific_parameters
  • the file generation unit 314 may apply the method 2-2-3 described above in the ⁇ method 2-2-3>. That is, the file generation unit 314 may store the management information (SyncSampleBox) that manages the sample in which the initial value reference difference information or the updated information is stored as a randomly accessible sample in the management area of the update file. Based on this management information, the client device can more easily identify the sample in which the initial value reference difference information or the updated information is stored.
  • the management information SynchromeBox
  • the file generation unit 314 may apply the method 2-3 described above in the ⁇ method 2-3>. That is, the file generation unit 314 may store the initial value reference difference information or the update information in a different sample of the same track as the immediately preceding value reference difference information of the update file. By doing so, the client device can select the immediately preceding value reference difference information and the initial value reference difference information or the updated information by selecting the sample.
  • the file generation unit 314 may apply the method 2-3-1 described above in the ⁇ method 2-3-1>. That is, the file generation unit 314 may store the same update application time information as the sample in which the immediately preceding value reference difference information is stored in the sample in which the initial value reference difference information or the updated information is stored. By doing so, the client device can easily specify the immediately preceding value reference difference information corresponding to the initial value reference difference information or the updated information without parsing the inside of the sample.
  • the file generation unit 314 may apply the method 2-3-2 described above in the ⁇ method 2-3-2>. That is, the file generation unit 314 may store management information in the management area of the update file, which manages the sample in which the initial value reference difference information or the updated information is stored as a sample that is not used during normal reproduction. By doing so, the client device can easily omit the acquisition of the sample in which the initial value reference difference information is stored at the time of normal reproduction based on this management information (without parsing the inside of the sample). be able to. In other words, when performing random access, the client appliance can easily obtain a sample that stores the initial value reference difference information or the updated information based on this management information (without parsing the inside of the sample). Can be done.
  • the file generation unit 314 may apply the method 2-3-2-1 described above in the ⁇ method 2-3-2-1>. .. That is, the above-mentioned management information may include identification information (for example, sample_has_redundancy_flag) indicating whether or not the sample is used during normal reproduction.
  • identification information for example, sample_has_redundancy_flag
  • the client device can easily store the initial value reference difference information or the updated information based on this identification information (without parsing the inside of the sample) during normal playback. Acquisition can be omitted.
  • the file generation unit 314 may apply the method 2-3-3 described above in the ⁇ method 2-3-3>. That is, the file generation unit 314 may store management information (for example, SyncSampleBox) that manages the sample in which the initial value reference difference information or the updated information is stored as a randomly accessible sample in the management area of the update file. By doing so, the client apparatus can more easily identify the sample in which the initial value reference difference information or the updated information is stored based on this management information.
  • management information for example, SyncSampleBox
  • the file generation unit 314 may apply the method 2-4 described above in the ⁇ method 2-4>. That is, the file generation unit 314 replaces the immediately preceding value reference difference information whose update application time is the same as the initial value reference difference information or the updated information stored in the update file with the initial value reference difference information or the updated information. You may. By doing so, the amount of data in the update file can be reduced as compared with the cases of Method 2-2 and Method 2-3.
  • the file generation unit 314 may apply the method 2-4-1 described above in the ⁇ method 2-4-1>. That is, the file generation unit 314 may store management information (for example, SyncSampleBox) that manages the sample in which the initial value reference difference information or the updated information is stored as a randomly accessible sample in the management area of the update file. By doing so, the client apparatus can more easily identify the sample in which the initial value reference difference information or the updated information is stored based on this management information.
  • management information for example, SyncSampleBox
  • any plurality of methods described above may be combined and applied. Further, the various methods described above may be applied in combination with any other method not described above.
  • FIG. 35 is a block diagram showing an example of a configuration of a client device, which is an aspect of an information processing device to which the present technology is applied.
  • the client device 400 shown in FIG. 35 is a playback device that performs playback processing of 3D object content based on a scene description file (scene description). For example, the client device 400 reproduces the data of the 3D object stored in the 3D object file generated by the file generation device 300. At that time, the client device 400 performs a process related to the reproduction based on the scene description.
  • scene description file scene description
  • FIG. 35 shows the main things such as the processing unit and the data flow, and not all of them are shown in FIG. 35. That is, in the client device 400, there may be a processing unit that is not shown as a block in FIG. 35, or there may be a processing or data flow that is not shown as an arrow or the like in FIG. 35.
  • the client device 400 has a control unit 401 and a reproduction processing unit 402.
  • the control unit 401 performs processing related to the control of the reproduction processing unit 402.
  • the reproduction processing unit 402 performs processing related to reproduction of the data of the 3D object.
  • the reproduction processing unit 402 includes a file acquisition unit 411, a file processing unit 412, a decoding unit 413, a display information generation unit 414, a display unit 415, and a display control unit 416.
  • the file acquisition unit 411 acquires a file from the outside of the client device 400, such as a distribution server or a file generation device 300. For example, the file acquisition unit 411 acquires a scene description file and its update file from the outside of the client device 400, and supplies them to the file processing unit 412. Further, the file acquisition unit 411 acquires the 3D content file requested from the file processing unit 412 from the outside of the client device 400, and supplies it to the file processing unit 412.
  • the file processing unit 412 acquires various files supplied from the file acquisition unit 411 and processes the acquired files. For example, the file processing unit 412 acquires a scene description file supplied from the file acquisition unit 411 and an update file thereof. Further, the file processing unit 412 extracts the scene description from the scene description file. Further, the file processing unit 412 extracts update information (immediate value reference difference information, initial value reference difference information, post-update information, etc.) from the update file. Further, the file processing unit 412 updates the scene description using the update information as necessary, and generates the latest scene description (of the processing target timing).
  • update information immediate value reference difference information, initial value reference difference information, post-update information, etc.
  • the file processing unit 412 analyzes the scene description and identifies the data of the 3D object at the processing target timing required for playback. Then, the file processing unit 412 requests the file acquisition unit 411 to acquire the data of the specified 3D object. Further, the file processing unit 412 acquires the 3D object file supplied from the file acquisition unit 411 based on the request, and extracts the data (encoded data) of the 3D object stored in the file. The file processing unit 412 supplies the extracted 3D object data (encoded data) to the decoding unit 413. Further, the file processing unit 412 supplies information useful for generating display information included in the scene description or the like to the display control unit 416.
  • the decoding unit 413 decodes the coded data of the 3D object supplied from the file processing unit 412.
  • the decoding unit 413 supplies the data of the 3D object obtained by the decoding to the display information generation unit 414.
  • the display information generation unit 414 acquires the data of the 3D object supplied from the decoding unit 413. Further, the display information generation unit 414 renders the data of the 3D object under the control of the display control unit 416, and generates a display image or the like. The display information generation unit 414 supplies the generated display image or the like to the display unit 415.
  • the display unit 415 has a display device, and displays the display image supplied from the display information generation unit 414 using the display device.
  • the display control unit 416 acquires information such as a scene description supplied from the file processing unit 412.
  • the display control unit 416 controls the display information generation unit 414 based on the information.
  • the client device 400 is, for example, ⁇ 2.
  • the client device 400 can perform processing by applying the above-mentioned method 1.
  • An example of the flow of client processing executed by the client device 400 in that case will be described with reference to the flowcharts of FIGS. 36 and 37.
  • the file acquisition unit 411 of the client device 400 acquires the scene description file in step S401 of FIG.
  • This scene description file contains the initial value of the scene description.
  • the file acquisition unit 411 supplies the acquired scene description file to the file processing unit 412.
  • the file acquisition unit 411 extracts the scene description (initial value) from the scene description file.
  • step S402 the control unit 401 determines whether or not to perform random access to the scene description. For example, if it is determined that random access is performed based on an instruction from a user, an application, or the like, the process proceeds to step S403.
  • step S403 the file processing unit 412 analyzes the scene description and specifies a random access point to be processed. That is, the file processing unit 412 specifies a sample for random access from the prepared random access points.
  • step S404 the file processing unit 412 requests the file acquisition unit 411 to acquire the initial value reference difference information of the random access point specified in step S403.
  • the file acquisition unit 411 acquires an update file including the requested initial value reference difference information from the outside of the client device 400 such as a distribution server or a file generation device 300. That is, the file acquisition unit 411 requests the distribution server or the like to supply the update file including the initial value reference difference information requested by the file processing unit 412. Then, the file acquisition unit 411 acquires the update file (initial value reference difference information) supplied in response to the request.
  • the file processing unit 412 applies the above-mentioned method 1 in ⁇ method 1>, extracts the initial value reference difference information from the acquired update file, and acquires it.
  • step S405 the file processing unit 412 applies the above-mentioned method 1 in ⁇ method 1>, updates the scene description using the acquired initial value reference difference information, and generates a scene description of the processing target timing. .. That is, the file processing unit 412 reflects, for example, the update of the initial value reference difference information in the initial value of the scene description, so that the scene description of the update application time of the initial value reference difference information (that is, the processing target timing) Generate (spatial layout information).
  • step S405 When the process of step S405 is completed, the process proceeds to step S406. If it is determined in step S402 that the access is not random access (that is, normal reproduction), the process proceeds to step S406.
  • the file processing unit 412 requests the file acquisition unit 411 to acquire the coded data of the 3D object at the processing target timing based on the scene description of the processing target timing.
  • the file acquisition unit 411 acquires a 3D object file for storing the coded data of the 3D object at the requested processing target timing from the outside of the client device 400.
  • the file acquisition unit 411 requests the distribution server or the like to supply the 3D object file including the coded data of the 3D object requested by the file processing unit 412.
  • the file acquisition unit 411 acquires the 3D object file supplied in response to the request, and supplies it to the file processing unit 412.
  • the file processing unit 412 extracts the coded data of the 3D object at the processing target timing from the 3D object file.
  • step S407 the decoding unit 413 decodes the coded data of the 3D object of the processing target timing obtained in step S406.
  • step S408 the display information generation unit 414 performs a process related to the generation of the display image according to the control of the display control unit 416. For example, the display information generation unit 414 arranges the 3D object of the processing target timing obtained in step S407 in the 3D space based on the scene description of the processing target timing obtained in step S405, renders it, and displays it. Generate an image.
  • step S409 the display unit 415 displays the display image generated in step S408.
  • step S421 of FIG. 37 the process proceeds to step S421 of FIG. 37.
  • step S421 of FIG. 37 the control unit 401 determines whether or not to perform random access. If it is determined that random access is to be performed, the process proceeds to step S403 in FIG. If it is determined in step S421 of FIG. 37 that random access is not performed (that is, normal reproduction is performed), the process proceeds to step S422.
  • step S422 the control unit 401 determines whether or not to terminate the client process. If it is determined that the client process is not terminated, the process proceeds to step S423.
  • step S423 the control unit 401 switches the processing target timing to the next timing. That is, the control unit 401 switches the sample to be processed to the next sample.
  • the file acquisition unit 411 acquires the immediately preceding value reference difference information of the sample of the processing target timing from the outside of the client device 400.
  • the file acquisition unit 411 requests the distribution server or the like to supply the immediately preceding value reference difference information of the sample of the processing target timing.
  • the file acquisition unit 411 acquires an update file including the immediately preceding value reference difference information of the processing target timing supplied in response to the request, and supplies it to the file processing unit 412.
  • the file processing unit 412 acquires the immediately preceding value reference difference information of the sample of the processing target timing from the update file.
  • step S425 the file processing unit 412 updates the scene description using the immediately preceding value reference difference information of the sample of the processing target timing acquired by the processing of step S424, and generates the scene description of the processing target timing.
  • step S425 When the process of step S425 is completed, the process returns to step S406 of FIG. Further, in step S422 of FIG. 37, when it is determined that the client processing is terminated, the client processing is terminated.
  • the client device 400 can suppress an increase in the processing load of the client device 400 that randomly accesses the scene description as described above in ⁇ Method 1>.
  • the file processing unit 412 may apply the method 1-1 described above in ⁇ method 1-1>. That is, the file processing unit 412, which is the difference information acquisition unit, may acquire the initial value reference difference information stored in a track different from the immediately preceding value reference difference information of the update file. By doing so, the client device 400 can more easily acquire the sample of the initial value reference difference information independently of the sample of the immediately preceding value reference difference information by designating the track.
  • the file processing unit 412 may apply the method 1-1-1 described above in the ⁇ method 1-1-1>. That is, the file processing unit 412, which is the difference information acquisition unit, stores the initial value reference difference information stored as link information for random access in the initial value file that stores the initial value of the spatial arrangement information (scene description). The initial value reference difference information may be acquired by using the link information indicating the link to the track to be used. By doing so, the client device 400 can more easily identify the track in which the appropriate update information is stored.
  • the file processing unit 412 may apply the method 1-2 described above in the ⁇ method 1-2>. That is, the file processing unit 412, which is the difference information acquisition unit, may acquire the initial value reference difference information stored in the same sample of the same track as the immediately preceding value reference difference information of the update file. By doing so, the client device 400 can obtain update information (immediate value reference difference information or initial value reference difference information) using the same link information both during normal playback and random access. can.
  • the file processing unit 412 may apply the method 1-2-1 described above in the ⁇ method 1-2-1>. That is, the immediately preceding value reference difference information and the initial value reference difference information may be stored in the sample as a list having each as an element. By doing so, the client device 400 can more easily acquire the immediately preceding value reference difference information and the initial value reference difference information.
  • the file processing unit 412 may apply the method 1-2-2 described above in the ⁇ method 1-2-2>. That is, the file processing unit 412, which is the difference information acquisition unit, is used as management information (for example, SubSampleInformationBox) that manages each of the immediately preceding value reference difference information and the initial value reference difference information as subsamples stored in the management area of the update file. Based on this, the initial value reference difference information may be acquired. By doing so, the client device 400 can more easily acquire the immediately preceding value reference difference information and the initial value reference difference information.
  • management information for example, SubSampleInformationBox
  • the file processing unit 412 may apply the method 1-2-2-1 described above in the ⁇ method 1-2-2-1>. .. That is, the above-mentioned management information may include identification information (for example, codec_specific_parameters) that distinguishes a subsample in which the immediately preceding value reference difference information is stored and a subsample in which the initial value reference difference information is stored.
  • identification information for example, codec_specific_parameters
  • the client device 400 can easily determine whether it is a subsample in which the immediately preceding value reference difference information is stored or a subsample in which the initial value reference difference information is stored (sample). Can be identified (without parsing the interior).
  • the file processing unit 412 may apply the method 1-2-3 described above in the ⁇ method 1-2-3>. That is, the file processing unit 412, which is the difference information acquisition unit, uses the management information (for example, SyncSampleBox) that manages the sample in which the initial value reference difference information is stored as a randomly accessible sample stored in the management area of the update file. Based on this, the initial value reference difference information may be acquired. Based on this management information, the client device 400 can more easily identify the sample in which the initial value reference difference information is stored.
  • the management information for example, SyncSampleBox
  • the file processing unit 412 may apply the method 1-3 described above in ⁇ method 1-3>. That is, the file processing unit 412, which is the difference information acquisition unit, may acquire the initial value reference difference information stored in different samples of the same track as the immediately preceding value reference difference information of the update file. By doing so, the client device 400 can select the immediately preceding value reference difference information or the initial value reference difference information by selecting the sample.
  • the file processing unit 412 may apply the method 1-3-1 described above in the ⁇ method 1-3-1>. That is, the same update application time information as the sample in which the immediately preceding value reference difference information is stored may be stored in the sample in which the initial value reference difference information is stored. By doing so, the client device 400 can easily specify the immediately preceding value reference difference information corresponding to the initial value reference difference information without parsing the inside of the sample.
  • the file processing unit 412 may apply the method 1-3-2 described above in the ⁇ method 1-3-2>. That is, the file processing unit 412, which is the difference information acquisition unit, manages the sample in which the initial value reference difference information is stored, which is stored in the management area of the update file, as a sample that is not used during normal playback, based on the management information. Initial value reference difference information may be acquired. By doing so, the client device 400 can easily (without parsing the inside of the sample) acquire the sample in which the initial value reference difference information is stored at the time of normal reproduction. can do. In other words, when performing random access, the client device 400 can easily obtain a sample in which the initial value reference difference information is stored based on this management information (without parsing the inside of the sample).
  • the file processing unit 412 may apply the method 1-3-2-1 described above in the ⁇ method 1-3-2-1>. .. That is, the above-mentioned management information may include identification information (for example, sample_has_redundancy_flag) indicating whether or not the sample is used during normal reproduction.
  • identification information for example, sample_has_redundancy_flag
  • the client device 400 easily omits the acquisition of the sample in which the initial value reference difference information is stored based on this identification information (without parsing the inside of the sample) during normal playback. can do.
  • the file processing unit 412 may apply the method 1-3-3 described above in the ⁇ method 1-3-3>. That is, the file processing unit 412, which is the difference information acquisition unit, uses the management information (for example, SyncSampleBox) that manages the sample in which the initial value reference difference information is stored as a randomly accessible sample stored in the management area of the update file. Based on this, the initial value reference difference information may be acquired. By doing so, the client device 400 can more easily specify the sample in which the initial value reference difference information is stored based on this management information.
  • the management information for example, SyncSampleBox
  • the file processing unit 412 may apply the method 1-4 described above in ⁇ method 1-4>. That is, the file processing unit 412, which is the difference information acquisition unit, acquires the initial value reference difference information stored in the update file and replaced with the immediately preceding value reference difference information whose update application time is the same as the initial value reference difference information. You may. By doing so, the amount of data in the update file can be reduced as compared with the cases of Method 1-2 and Method 1-3.
  • the file processing unit 412 may apply the method 1-4-1 described above in the ⁇ method 1-4-1>. That is, the file processing unit 412, which is the difference information acquisition unit, is based on the management information (for example, SyncSampleBox) that manages the sample in which the initial value reference difference information stored in the management area of the update file is stored as a randomly accessible sample. Then, the initial value reference difference information may be acquired. By doing so, the client device 400 can more easily specify the sample in which the initial value reference difference information is stored based on this management information.
  • the management information for example, SyncSampleBox
  • any plurality of methods described above may be combined and applied. Further, the various methods described above may be applied in combination with any other method not described above.
  • the client device 400 is, for example, ⁇ 3.
  • processing related to analysis of scene description, reproduction of 3D object data, and the like can be performed.
  • the client device 400 can perform processing by applying the above-mentioned method 2.
  • An example of the flow of client processing executed by the client device 400 in that case will be described with reference to the flowcharts of FIGS. 38 and 39.
  • the file acquisition unit 411 of the client device 400 acquires the scene description file in step S451 of FIG. 38.
  • This scene description file contains the initial value of the scene description.
  • the file acquisition unit 411 supplies the acquired scene description file to the file processing unit 412.
  • the file acquisition unit 411 extracts the scene description (initial value) from the scene description file.
  • step S452 the control unit 401 determines whether or not to perform random access to the scene description. For example, if it is determined that random access is performed based on an instruction from a user, an application, or the like, the process proceeds to step S453.
  • step S453 the file processing unit 412 analyzes the scene description and specifies a random access point to be processed. That is, the file processing unit 412 specifies a sample for random access from the prepared random access points.
  • step S454 the file processing unit 412 requests the file acquisition unit 411 to acquire the initial value reference difference information or the updated information of the random access point specified in step S453.
  • the file acquisition unit 411 acquires an update file including the requested initial value reference difference information or update information from the outside of the client device 400 such as a distribution server or a file generation device 300. That is, the file acquisition unit 411 requests the distribution server or the like to supply the update file including the initial value reference difference information or the updated information requested by the file processing unit 412. Then, the file acquisition unit 411 acquires the update file (initial value reference difference information or updated information) supplied in response to the request.
  • the file processing unit 412 applies the above-mentioned method 2 in ⁇ method 2>, extracts the initial value reference difference information or the updated information from the acquired update file, and acquires it.
  • step S455 the file processing unit 412 applies the method 2 described above in ⁇ method 2>, updates the scene description using the acquired initial value reference difference information or the updated information, and updates the scene description at the processing target timing. Generate a statement. That is, the file processing unit 412 reflects the update of the initial value reference difference information in the initial value of the scene description, or applies the updated information to the initial value reference difference information or the updated information. Generates a scene description (spatial layout information) of the update application time (that is, the processing target timing).
  • step S455 When the process of step S455 is completed, the process proceeds to step S456. If it is determined in step S452 that the access is not random access (that is, normal reproduction), the process proceeds to step S456.
  • the file processing unit 412 requests the file acquisition unit 411 to acquire the coded data of the 3D object at the processing target timing based on the scene description of the processing target timing.
  • the file acquisition unit 411 acquires a 3D object file for storing the coded data of the 3D object at the requested processing target timing from the outside of the client device 400.
  • the file acquisition unit 411 requests the distribution server or the like to supply the 3D object file including the coded data of the 3D object requested by the file processing unit 412. Then, the file acquisition unit 411 acquires the 3D object file supplied in response to the request, and supplies it to the file processing unit 412.
  • the file processing unit 412 extracts the coded data of the 3D object at the processing target timing from the 3D object file.
  • step S457 the decoding unit 413 decodes the coded data of the 3D object of the processing target timing obtained in step S456.
  • step S458 the display information generation unit 414 performs a process related to the generation of the display image according to the control of the display control unit 416. For example, the display information generation unit 414 arranges the 3D object of the processing target timing obtained in step S457 in the 3D space based on the scene description of the processing target timing obtained in step S455, renders it, and displays it. Generate an image.
  • step S459 the display unit 415 displays the display image generated in step S458.
  • the process of step S459 proceeds to step S471 of FIG. 39.
  • step S471 of FIG. 39 the control unit 401 determines whether or not to perform random access. If it is determined that random access is to be performed, the process proceeds to step S453 in FIG. 38. If it is determined in step S471 of FIG. 39 that random access is not performed (that is, normal reproduction is performed), the process proceeds to step S472.
  • step S472 the control unit 401 determines whether or not to terminate the client process. If it is determined that the client process is not terminated, the process proceeds to step S473.
  • step S473 the control unit 401 switches the processing target timing to the next timing. That is, the control unit 401 switches the sample to be processed to the next sample.
  • the file acquisition unit 411 acquires the immediately preceding value reference difference information of the sample of the processing target timing from the outside of the client device 400.
  • the file acquisition unit 411 requests the distribution server or the like to supply the immediately preceding value reference difference information of the sample of the processing target timing.
  • the file acquisition unit 411 acquires an update file including the immediately preceding value reference difference information of the processing target timing supplied in response to the request, and supplies it to the file processing unit 412.
  • the file processing unit 412 acquires the immediately preceding value reference difference information of the sample of the processing target timing from the update file.
  • step S475 the file processing unit 412 updates the scene description using the immediately preceding value reference difference information of the sample of the processing target timing acquired by the processing of step S474, and generates the scene description of the processing target timing.
  • step S475 When the process of step S475 is completed, the process returns to step S456 of FIG. 38. Further, in step S472 of FIG. 39, when it is determined that the client processing is terminated, the client processing is terminated.
  • the client device 400 can suppress an increase in the processing load of the client device 400 that randomly accesses the scene description as described above in ⁇ Method 2>.
  • the file processing unit 412 may apply the method 2-1 described above in ⁇ method 2-1>. That is, the file processing unit 412, which is the difference information acquisition unit, may acquire the initial value reference difference information or the updated information stored in a track different from the immediately preceding value reference difference information of the update file. By doing so, the client device 400 can more easily acquire the sample of the initial value reference difference information or the updated information independently of the sample of the immediately preceding value reference difference information by designating the track. ..
  • the file processing unit 412 may apply the method 2-1-1 described above in the ⁇ method 2-1-1>. That is, the file processing unit 412, which is the difference information acquisition unit, stores the initial value reference difference information or update stored as link information for random access in the initial value file that stores the initial value of the spatial arrangement information (scene description). The initial value reference difference information or the updated information may be acquired by using the link information indicating the link to the track that stores the post-information. By doing so, the client device 400 can more easily identify the track in which the appropriate update information is stored.
  • the file processing unit 412 may apply the method 2-2 described above in ⁇ method 2-2>. That is, the file processing unit 412, which is the difference information acquisition unit, may acquire the initial value reference difference information or the updated information stored in the same sample of the same track as the immediately preceding value reference difference information of the update file. By doing so, the client device 400 uses the same link information for both normal playback and random access, and updates information (immediate value reference difference information, initial value reference difference information, or updated information). Can be obtained.
  • the file processing unit 412 may apply the method 2-2-1 described above in the ⁇ method 2-2-1>. That is, the immediately preceding value reference difference information and the initial value reference difference information or the updated information may be stored in the sample as a list having each as an element. By doing so, the client device 400 can more easily acquire the immediately preceding value reference difference information and the initial value reference difference information or the updated information.
  • the file processing unit 412 may apply the method 2-2-2 described above in the ⁇ method 2-2-2>. That is, the file processing unit 412, which is the difference information acquisition unit, manages the immediately preceding value reference difference information and the initial value reference difference information or the updated information stored in the management area of the update file as subsamples (management information). For example, the initial value reference difference information may be acquired based on (SubSampleInformationBox). By doing so, the client device 400 can more easily acquire the immediately preceding value reference difference information, the initial value reference difference information, and the updated information.
  • the file processing unit 412 may apply the method 2-2-2-1 described above in the ⁇ method 2-2-2-1>. .. That is, the above-mentioned management information may include identification information (for example, codec_specific_parameters) that distinguishes a subsample in which the immediately preceding value reference difference information is stored and a subsample in which the initial value reference difference information or the updated information is stored. .. By referring to the value of this identification information, the client device 400 determines whether it is a subsample in which the immediately preceding value reference difference information is stored, or a subsample in which the initial value reference difference information or the updated information is stored. It can be easily identified (without parsing the inside of the sample).
  • identification information for example, codec_specific_parameters
  • the file processing unit 412 may apply the method 2-2-3 described above in the ⁇ method 2-2-3>. That is, the file processing unit 412, which is the difference information acquisition unit, manages the sample in which the initial value reference difference information or the updated information stored in the management area of the update file is stored as a randomly accessible sample (management information). For example, based on SyncSampleBox), the initial value reference difference information or the updated information may be acquired. Based on this management information, the client device 400 can more easily identify a sample in which the initial value reference difference information or the updated information is stored.
  • the file processing unit 412 may apply the method 2-3 described above in ⁇ method 2-3>. That is, the file processing unit 412, which is the difference information acquisition unit, may acquire the initial value reference difference information or the updated information stored in different samples of the same track as the immediately preceding value reference difference information of the update file. By doing so, the client device 400 can select the immediately preceding value reference difference information, the initial value reference difference information, or the updated information by selecting the sample.
  • the file processing unit 412 may apply the method 2-3-1 described above in the ⁇ method 2-3-1>. That is, the same update application time information as the sample in which the immediately preceding value reference difference information is stored may be stored in the sample in which the initial value reference difference information or the updated information is stored. By doing so, the client device 400 can easily specify the immediately preceding value reference difference information corresponding to the initial value reference difference information or the updated information without parsing the inside of the sample.
  • the file processing unit 412 may apply the method 2-3-2 described above in the ⁇ method 2-3-2>. That is, the file processing unit 412, which is the difference information acquisition unit, manages the sample in which the initial value reference difference information or the updated information stored in the management area of the update file is stored as a sample that is not used during normal playback. The initial value reference difference information or the updated information may be acquired based on. By doing so, the client device 400 can easily store the initial value reference difference information or the updated information based on this management information (without parsing the inside of the sample) during normal playback. Can be omitted. In other words, when performing random access, the client device 400 easily obtains a sample in which the initial value reference difference information or the updated information is stored based on this management information (without parsing the inside of the sample). be able to.
  • the file processing unit 412 may apply the method 2-3-2-1 described above in the ⁇ method 2-3-2-1>. .. That is, the above-mentioned management information may include identification information (for example, sample_has_redundancy_flag) indicating whether or not the sample is used during normal reproduction. By doing so, the client device 400 can easily store the initial value reference difference information or the updated information based on this identification information (without parsing the inside of the sample) during normal playback. Can be omitted.
  • identification information for example, sample_has_redundancy_flag
  • the file processing unit 412 may apply the method 2-3-3 described above in the ⁇ method 2-3-3>. That is, the file processing unit 412, which is the difference information acquisition unit, manages the sample in which the initial value reference difference information or the updated information stored in the management area of the update file is stored as a randomly accessible sample (management information). For example, based on SyncSampleBox), the initial value reference difference information or the updated information may be acquired. By doing so, the client device 400 can more easily identify the sample in which the initial value reference difference information or the updated information is stored based on this management information.
  • the file processing unit 412 may apply the method 2-4 described above in ⁇ method 2-4>. That is, the file processing unit 412, which is the difference information acquisition unit, has the initial value reference difference stored in the update file and replaced with the immediately preceding value reference difference information whose update application time is the same as the initial value reference difference information or the updated information. Information or updated information may be obtained. By doing so, the amount of data in the update file can be reduced as compared with the cases of Method 2-2 and Method 2-3.
  • the file processing unit 412 may apply the method 2-4-1 described above in the ⁇ method 2-4-1>. That is, the file processing unit 412, which is the difference information acquisition unit, manages the initial value reference difference information stored in the management area of the update file or the sample in which the updated information is stored as a randomly accessible sample (for example, management information). Initial value reference difference information or updated information may be acquired based on SyncSampleBox). By doing so, the client device 400 can more easily identify the sample in which the initial value reference difference information or the updated information is stored based on this management information.
  • any plurality of methods described above may be combined and applied. Further, the various methods described above may be applied in combination with any other method not described above.
  • the series of processes described above can be executed by hardware or software.
  • the programs constituting the software are installed in the computer.
  • the computer includes a computer embedded in dedicated hardware and, for example, a general-purpose personal computer capable of executing various functions by installing various programs.
  • FIG. 40 is a block diagram showing a configuration example of computer hardware that executes the above-mentioned series of processes by a program.
  • the CPU Central Processing Unit
  • ROM ReadOnly Memory
  • RAM RandomAccessMemory
  • the input / output interface 910 is also connected to the bus 904.
  • An input unit 911, an output unit 912, a storage unit 913, a communication unit 914, and a drive 915 are connected to the input / output interface 910.
  • the input unit 911 includes, for example, a keyboard, a mouse, a microphone, a touch panel, an input terminal, and the like.
  • the output unit 912 includes, for example, a display, a speaker, an output terminal, and the like.
  • the storage unit 913 is composed of, for example, a hard disk, a RAM disk, a non-volatile memory, or the like.
  • the communication unit 914 is composed of, for example, a network interface.
  • the drive 915 drives a removable medium 921 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 901 loads the program stored in the storage unit 913 into the RAM 903 via the input / output interface 910 and the bus 904 and executes the above-mentioned series. Is processed.
  • the RAM 903 also appropriately stores data and the like necessary for the CPU 901 to execute various processes.
  • the program executed by the computer can be recorded and applied to the removable media 921 as a package media or the like, for example.
  • the program can be installed in the storage unit 913 via the input / output interface 910 by mounting the removable media 921 in the drive 915.
  • the program can also be provided via wired or wireless transmission media such as local area networks, the Internet, and digital satellite broadcasting.
  • the program can be received by the communication unit 914 and installed in the storage unit 913.
  • this program can also be installed in advance in ROM 902 or storage unit 913.
  • this technology can be applied to any configuration.
  • this technique can be applied to various electronic devices.
  • the present technology includes a processor as a system LSI (Large Scale Integration) (for example, a video processor), a module using a plurality of processors (for example, a video module), and a unit using a plurality of modules (for example, a video unit).
  • a processor as a system LSI (Large Scale Integration) (for example, a video processor), a module using a plurality of processors (for example, a video module), and a unit using a plurality of modules (for example, a video unit).
  • a processor as a system LSI (Large Scale Integration) (for example, a video processor), a module using a plurality of processors (for example, a video module), and a unit using a plurality of modules (for example, a video unit).
  • a processor as a system LSI (Large Scale Integration) (for example, a video processor), a module using a plurality of processors (for example,
  • this technology can be applied to a network system composed of a plurality of devices.
  • the present technology may be implemented as cloud computing that is shared and jointly processed by a plurality of devices via a network.
  • this technology is implemented in a cloud service that provides services related to images (moving images) to any terminal such as computers, AV (AudioVisual) devices, portable information processing terminals, and IoT (Internet of Things) devices. You may try to do it.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a device in which a plurality of modules are housed in one housing are both systems. ..
  • Systems, devices, processing units, etc. to which this technology is applied can be used in any field such as transportation, medical care, crime prevention, agriculture, livestock industry, mining, beauty, factories, home appliances, weather, nature monitoring, etc. .. The use is also arbitrary.
  • this technology can be applied to systems and devices used for providing ornamental contents and the like.
  • the present technology can be applied to systems and devices used for traffic such as traffic condition supervision and automatic driving control.
  • the present technology can be applied to systems and devices used for security purposes.
  • the present technology can be applied to a system or device used for automatic control of a machine or the like.
  • the present technology can be applied to systems and devices used for agriculture and livestock industry.
  • the present technology can also be applied to systems and devices for monitoring natural conditions such as volcanoes, forests and oceans, and wildlife. Further, for example, the present technology can be applied to systems and devices used for sports.
  • the "flag” is information for identifying a plurality of states, and is not only information used for identifying two states of true (1) or false (0), but also three or more states. It also contains information that can identify the state. Therefore, the value that this "flag” can take may be, for example, a binary value of 1/0 or a value of 3 or more. That is, the number of bits constituting this "flag” is arbitrary, and may be 1 bit or a plurality of bits. Further, the identification information (including the flag) is assumed to include not only the identification information in the bit stream but also the difference information of the identification information with respect to a certain reference information in the bit stream. In, the "flag” and “identification information” include not only the information but also the difference information with respect to the reference information.
  • various information (metadata, etc.) regarding the coded data may be transmitted or recorded in any form as long as it is associated with the coded data.
  • the term "associate" means, for example, to make the other data available (linkable) when processing one data. That is, the data associated with each other may be combined as one data or may be individual data.
  • the information associated with the coded data (image) may be transmitted on a transmission path different from the coded data (image).
  • the information associated with the coded data (image) may be recorded on a recording medium (or another recording area of the same recording medium) different from the coded data (image). good.
  • this "association" may be a part of the data, not the entire data.
  • the image and the information corresponding to the image may be associated with each other in any unit such as a plurality of frames, one frame, or a part within the frame.
  • the embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.
  • the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units).
  • the configurations described above as a plurality of devices (or processing units) may be collectively configured as one device (or processing unit).
  • a configuration other than the above may be added to the configuration of each device (or each processing unit).
  • a part of the configuration of one device (or processing unit) may be included in the configuration of another device (or other processing unit). ..
  • the above-mentioned program may be executed in any device.
  • the device may have necessary functions (functional blocks, etc.) so that necessary information can be obtained.
  • each step of one flowchart may be executed by one device, or may be shared and executed by a plurality of devices.
  • one device may execute the plurality of processes, or the plurality of devices may share and execute the plurality of processes.
  • a plurality of processes included in one step can be executed as processes of a plurality of steps.
  • the processes described as a plurality of steps can be collectively executed as one step.
  • the processing of the steps for writing the program may be executed in chronological order in the order described in the present specification, and may be executed in parallel or in a row. It may be executed individually at the required timing such as when it is broken. That is, as long as there is no contradiction, the processes of each step may be executed in an order different from the above-mentioned order. Further, the processing of the step for describing this program may be executed in parallel with the processing of another program, or may be executed in combination with the processing of another program.
  • a plurality of technologies related to this technology can be independently implemented independently as long as there is no contradiction.
  • any plurality of the present technologies can be used in combination.
  • some or all of the techniques described in any of the embodiments may be combined with some or all of the techniques described in other embodiments.
  • a part or all of any of the above-mentioned techniques may be carried out in combination with other techniques not described above.
  • the present technology can also have the following configurations.
  • (1) As the update information for updating the spatial arrangement information for arranging one or more 3D objects in the 3D space, the initial value reference difference information which is the difference information based on the initial value of the spatial arrangement information is used.
  • the update information generator to be generated and An information processing device including a file generation unit that generates an update file for storing the update information and stores the initial value reference difference information in the update file as a random access point.
  • the file generation unit stores the initial value reference difference information in a track different from the immediately preceding value reference difference information of the update file.
  • the information processing apparatus according to (1), wherein the immediately preceding value reference difference information is difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the file generation unit generates an initial value file that stores the initial value of the spatial arrangement information, and randomly accesses link information indicating a link to the track that stores the initial value reference difference information.
  • the information processing apparatus according to (2) which is stored as the link information of the above.
  • the file generation unit stores the initial value reference difference information in the same sample of the same track as the immediately preceding value reference difference information of the update file.
  • the information processing apparatus according to (1) wherein the immediately preceding value reference difference information is difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the information processing apparatus according to (4), wherein the file generation unit stores the immediately preceding value reference difference information and the initial value reference difference information as a list having each as an element.
  • the file generation unit stores management information for managing each of the immediately preceding value reference difference information and the initial value reference difference information as subsamples in the management area of the update file (4) or (5).
  • the file generation unit stores management information for managing the sample in which the initial value reference difference information is stored as the sample that can be randomly accessed in the management area of the update file (4) to (7).
  • the file generation unit stores the initial value reference difference information in a different sample of the same track as the immediately preceding value reference difference information of the update file.
  • the information processing apparatus according to (1), wherein the immediately preceding value reference difference information is difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the file generation unit stores the same update application time information as the sample in which the immediately preceding value reference difference information is stored in the sample in which the initial value reference difference information is stored (9).
  • Information processing equipment (11)
  • the file generation unit stores management information for managing the sample in which the initial value reference difference information is stored as the sample that is not used during normal playback in the management area of the update file (9) or ( The information processing apparatus according to 10).
  • the information processing apparatus (12) The information processing apparatus according to (11), wherein the management information includes identification information indicating whether or not the sample is used during normal reproduction. (13)
  • the file generation unit stores management information for managing the sample in which the initial value reference difference information is stored as the sample that can be randomly accessed in the management area of the update file (9) to (12).
  • the file generation unit replaces the immediately preceding value reference difference information whose update application time is the same as the initial value reference difference information stored in the update file with the initial value reference difference information.
  • the information processing apparatus according to (1), wherein the immediately preceding value reference difference information is difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the file generation unit stores management information for managing the sample in which the initial value reference difference information is stored as the sample that can be randomly accessed in the management area of the update file.
  • the update information for updating the spatial arrangement information for arranging one or more 3D objects in the 3D space the initial value reference difference information which is the difference information based on the initial value of the spatial arrangement information is used.
  • Generate and An information processing method that generates an update file for storing the update information and stores the initial value reference difference information in the update file as a random access point.
  • the difference information acquisition unit that acquires the initial value reference difference information, which is the difference information, Information provided with a spatial arrangement information generation unit that generates the spatial arrangement information at the update application time of the initial value reference difference information by reflecting the update of the initial value reference difference information in the initial value of the spatial arrangement information. Processing equipment.
  • the difference information acquisition unit acquires the initial value reference difference information stored in a track different from the immediately preceding value reference difference information of the update file.
  • the information processing apparatus wherein the immediately preceding value reference difference information is difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the difference information acquisition unit links to the track that stores the initial value reference difference information stored as link information for random access in the initial value file that stores the initial value of the spatial arrangement information.
  • the information processing apparatus according to (22), wherein the initial value reference difference information is acquired by using the link information indicating the above.
  • the difference information acquisition unit acquires the initial value reference difference information stored in the same sample of the same track as the immediately preceding value reference difference information of the update file.
  • the information processing apparatus according to (21), wherein the immediately preceding value reference difference information is difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the information processing apparatus according to (24), wherein the immediately preceding value reference difference information and the initial value reference difference information are stored in the sample as a list having each as an element.
  • the difference information acquisition unit is based on the management information stored in the management area of the update file, which manages each of the immediately preceding value reference difference information and the initial value reference difference information as subsamples.
  • the information processing apparatus according to (24) or (25) for acquiring value-based difference information.
  • the difference information acquisition unit is based on the management information stored in the management area of the update file, which manages the sample in which the initial value reference difference information is stored as the sample that can be randomly accessed.
  • the information processing apparatus according to any one of (24) to (27) for acquiring initial value reference difference information.
  • the difference information acquisition unit acquires the initial value reference difference information stored in different samples of the same track as the immediately preceding value reference difference information of the update file.
  • the information processing apparatus according to (21), wherein the immediately preceding value reference difference information is difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the information processing apparatus stores the same update application time information as the sample in which the immediately preceding value reference difference information is stored. .. (31)
  • the difference information acquisition unit is based on management information that manages the sample stored in the management area of the update file, in which the initial value reference difference information is stored, as the sample that is not used during normal reproduction.
  • the information processing apparatus according to (29) or (30), which acquires the initial value reference difference information.
  • the information processing apparatus includes identification information indicating whether or not the sample is used during normal reproduction.
  • the difference information acquisition unit is based on the management information stored in the management area of the update file, which manages the sample in which the initial value reference difference information is stored as the sample that can be randomly accessed.
  • the information processing apparatus according to any one of (29) to (32), which acquires initial value reference difference information.
  • the difference information acquisition unit acquires the initial value reference difference information stored in the update file, in which the update application time is replaced with the immediately preceding value reference difference information having the same as the initial value reference difference information.
  • the information processing apparatus according to (21), wherein the immediately preceding value reference difference information is difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the difference information acquisition unit is based on the management information that manages the sample in which the initial value reference difference information is stored, which is stored in the management area of the update file, as the sample that can be randomly accessed.
  • the information processing apparatus according to (34) for acquiring value-based difference information.
  • (36) Based on the initial value of the spatial arrangement information stored as a random access point in the update file that stores the update information for updating the spatial arrangement information for arranging one or more 3D objects in the 3D space.
  • the initial value reference difference information which is the difference information to be used, is acquired.
  • An information processing method for generating the spatial arrangement information at the update application time of the initial value reference difference information by reflecting the update of the initial value reference difference information in the initial value of the spatial arrangement information.
  • the initial value reference difference information which is the difference information based on the initial value of the spatial arrangement information
  • an update information generation unit that generates updated information in which the update of the initial value reference difference information is reflected in the initial value of the spatial arrangement information
  • An information processing device including an update file that generates an update file for storing the update information and stores the initial value reference difference information or the updated information in the update file as a random access point.
  • the file generation unit stores the initial value reference difference information or the update information in a track different from the immediately preceding value reference difference information of the update file.
  • the information processing apparatus wherein the immediately preceding value reference difference information is difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the file generation unit generates an initial value file for storing the initial value of the spatial arrangement information, and link information indicating a link to the track for storing the initial value reference difference information or the updated information.
  • the information processing apparatus which stores the information as the link information for random access.
  • the file generation unit stores the initial value reference difference information or the updated information in the same sample of the same track as the immediately preceding value reference difference information of the update file.
  • the information processing apparatus according to (41), wherein the immediately preceding value reference difference information is difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the information processing apparatus wherein the file generation unit stores the immediately preceding value reference difference information, the initial value reference difference information, or the updated information as a list having each as an element.
  • the file generation unit stores management information for managing each of the immediately preceding value reference difference information and the initial value reference difference information or the updated information as a subsample in the management area of the update file (44). Or the information processing apparatus according to (45).
  • the management information includes identification information that identifies the subsample in which the immediately preceding value reference difference information is stored and the subsample in which the initial value reference difference information or the updated information is stored (46). ).
  • the information processing device wherein the file generation unit stores the immediately preceding value reference difference information, the initial value reference difference information, or the updated information as a list having each as an element.
  • the file generation unit stores management information for managing the sample in which the initial value reference difference information or the updated information is stored as the sample that can be randomly accessed is stored in the management area of the update file (44). ) To (47). (49) The file generation unit stores the initial value reference difference information or the update information in a different sample of the same track as the immediately preceding value reference difference information of the update file.
  • the information processing apparatus according to (41), wherein the immediately preceding value reference difference information is difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the file generation unit stores the same update application time information as the sample in which the immediately preceding value reference difference information is stored in the sample in which the initial value reference difference information or the updated information is stored.
  • the information processing apparatus stores management information for managing the sample in which the initial value reference difference information or the updated information is stored as the sample that is not used during normal playback in the management area of the update file.
  • the information processing apparatus according to (49) or (50).
  • the information processing apparatus according to (42)
  • the information processing apparatus wherein the management information includes identification information indicating whether or not the sample is used during normal reproduction.
  • the file generation unit stores management information for managing the sample in which the initial value reference difference information or the updated information is stored as the sample that can be randomly accessed is stored in the management area of the update file (49). ) To (52).
  • the file generation unit replaces the immediately preceding value reference difference information stored in the update file with the same initial value reference difference information as the initial value reference difference information with the initial value reference difference information or the updated information.
  • the information processing apparatus according to (41), wherein the immediately preceding value reference difference information is difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the file generation unit stores management information for managing the initial value reference difference information or the sample in which the updated information is stored as the sample that can be randomly accessed in the management area of the update file (54). The information processing device described in.
  • the initial value reference difference information which is the difference information based on the initial value of the spatial arrangement information
  • the updated information in which the update of the initial value reference difference information is reflected in the initial value of the spatial arrangement information is generated.
  • the update information acquisition unit that acquires the initial value reference difference information, which is the difference information, or the updated information in which the update of the initial value reference difference information is reflected in the initial value of the spatial arrangement information, as the update information.
  • the spatial arrangement information of the update application time of the initial value reference difference information can be obtained.
  • An information processing device equipped with a spatial arrangement information generator to be generated.
  • the update information acquisition unit acquires the initial value reference difference information or the post-update information stored in a track different from the immediately preceding value reference difference information of the update file.
  • the information processing apparatus according to (61), wherein the immediately preceding value reference difference information is difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the update information acquisition unit stores the initial value reference difference information or the updated information stored as link information for random access in the initial value file that stores the initial value of the spatial arrangement information.
  • the information processing apparatus according to (62) wherein the initial value reference difference information or the updated information is acquired by using the link information indicating a link to the track.
  • the update information acquisition unit acquires the initial value reference difference information or the post-update information stored in the same sample of the same track as the immediately preceding value reference difference information of the update file.
  • the information processing apparatus according to (61), wherein the immediately preceding value reference difference information is difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the information processing apparatus according to (64), wherein the immediately preceding value reference difference information and the initial value reference difference information or the updated information are stored in the sample as a list having each as an element.
  • the update information acquisition unit serves as management information stored in the management area of the update file, which manages each of the immediately preceding value reference difference information, the initial value reference difference information, or the post-update information as a subsample.
  • the information processing apparatus according to (64) or (65), which acquires the initial value reference difference information or the updated information based on the above.
  • the management information includes identification information that identifies the subsample in which the immediately preceding value reference difference information is stored and the subsample in which the initial value reference difference information or the updated information is stored (66). ).
  • the information processing device (68)
  • the update information acquisition unit manages the sample stored in the management area of the update file, in which the initial value reference difference information or the updated information is stored, as the sample that can be randomly accessed.
  • the information processing apparatus according to any one of (64) to (67), which acquires the initial value reference difference information or the updated information based on the above.
  • the update information acquisition unit acquires the initial value reference difference information or the post-update information stored in different samples of the same track as the immediately preceding value reference difference information of the update file.
  • the information processing apparatus according to (61), wherein the immediately preceding value reference difference information is difference information based on the spatial arrangement information reflecting the update up to the immediately preceding update information.
  • the same update application time information as that of the sample in which the immediately preceding value reference difference information is stored is stored in the sample in which the initial value reference difference information or the updated information is stored (69).
  • the update information acquisition unit manages the sample stored in the management area of the update file, in which the initial value reference difference information or the updated information is stored, as the sample that is not used during normal playback.
  • the information processing apparatus which acquires the initial value reference difference information or the updated information based on the information.
  • the information processing apparatus which acquires the initial value reference difference information or the updated information based on the information.
  • the information processing apparatus wherein the management information includes identification information indicating whether or not the sample is used during normal reproduction.
  • the update information acquisition unit manages the sample stored in the management area of the update file, in which the initial value reference difference information or the updated information is stored, as the sample that can be randomly accessed.
  • the information processing apparatus according to any one of (69) to (72), which acquires the initial value reference difference information or the updated information based on the above.
  • the update information acquisition unit stores the initial value reference difference information or the update after the update application time is replaced with the immediately preceding value reference difference information having the same update application time as the initial value reference difference information.
  • the update information acquisition unit uses the management information that manages the sample in which the initial value reference difference information or the post-update information stored in the management area of the update file is randomly accessible as the sample.
  • the information processing apparatus according to (74), which acquires the initial value reference difference information or the updated information based on the above.
  • (76) Based on the initial value of the spatial arrangement information stored as a random access point in the update file that stores the update information for updating the spatial arrangement information for arranging one or more 3D objects in the 3D space.
  • the initial value reference difference information which is the difference information, or the updated information in which the update of the initial value reference difference information is reflected in the initial value of the spatial arrangement information is acquired as the update information.
  • the spatial arrangement information of the update application time of the initial value reference difference information can be obtained.
  • 300 file generation device 301 control unit, 302 file generation processing unit, 311 input unit, 312 preprocessing unit, 313 coding unit, 314 file generation unit, 315 recording unit, 316 output unit, 400 client device, 401 control unit, 402 Client processing unit, 411 file acquisition unit, 412 file processing unit, 413 decoding unit, 414 display information generation unit, 415 display unit, 416 display control unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Architecture (AREA)
  • Library & Information Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本開示は、シーンディスクリプションにランダムアクセスする際の処理負荷の増大を抑制することができるようにする情報処理装置および方法に関する。 1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報を更新するための更新情報として、その空間配置情報の初期値を基準とする差分情報である初期値基準差分情報、または、その空間配置情報の初期値に初期値基準差分情報の更新が反映された更新後情報を生成し、更新情報を格納する更新ファイルを生成し、ランダムアクセスポイントとして初期値基準差分情報または更新後情報を更新ファイルに格納する。本開示は、例えば、情報処理装置、または情報処理方法等に適用することができる。

Description

情報処理装置および方法
 本開示は、情報処理装置および方法に関し、特に、シーンディスクリプションにランダムアクセスする際の処理負荷の増大を抑制することができるようにした情報処理装置および方法に関する。
 従来、3D(3次元)オブジェクトを3次元空間内に配置するためのフォーマットであるglTF(The GL Transmission Format)(登録商標)2.0があった(例えば非特許文献1参照)。
 近年、MPEG(Moving Picture Experts Group)-I Scene Descriptionにおいて、glTF2.0を拡張し、シーンディスクリプション(Scene Description)を更新するために、前の状態からの差分情報をJSONパッチ(JSON patch)で送出することが検討された(例えば非特許文献2乃至非特許文献4参照)。
 また、MPEG-I Scene Descriptionにおいては、シーンディスクリプションの更新情報であるJSONパッチをISOBMFF(International Organization for Standardization Base Media File Format)に格納することが検討され、その方法として、Web Resource in ISOBMFF規格をベースに拡張したものを利用する検討が進められた(例えば、非特許文献3、非特許文献5、および非特許文献6)。
 さらに、更新されたシーンディスクリプションの送出も検討されており、そのシーンディスクリプションをランダムアクセス(random access)に利用することが考えられた(例えば、非特許文献2および非特許文献3参照)。
Saurabh Bhatia, Patrick Cozzi, Alexey Knyazev, Tony Parisi, "Khronos glTF2.0", https://github.com/KhronosGroup/glTF/tree/master/specification/2.0, June 9, 2017 Lukasz Kondrad, Imed Bouazizi, "Technologies under Considerations on Scene Description for MPEG Media ", ISO/IEC JTC1/SC29/WG11 MPEG2020/N19446, 2020-07-03 Ozgur Oyman, Robert Watts, "Further Support for Dynamic Scene Updates", ISO/IEC JTC1/SC29/WG11 MPEG2020/M54841, October 2020, Virtual Meeting P. Bryan, M. Nottingham, "JavaScript(登録商標) Object Notation (JSON) Patch", Internet Engineering Task Force (IETF), RFC6902, https://datatracker.ietf.org/doc/html/rfc6902, April 2013 "Information technology - Coding of audio-visual objects - Part 12:ISO base media file format", ISO/IEC 14496-12, 2015-02-20 "Information technology - MPEG Systems Technologies  - Part 15: Carriage of Web Resources in ISOBMFF", ISO/IEC JTC 1/SC 29/WG 11 N18639, ISO/IEC 23001-15, 2019-08-12
 しかしながら、従来の方法では、シーンディスクリプションにランダムアクセスするクライアント装置の処理負荷が増大するおそれがあった。
 本開示は、このような状況に鑑みてなされたものであり、シーンディスクリプションにランダムアクセスする際の処理負荷の増大を抑制することができるようにするものである。
 本技術の一側面の情報処理装置は、1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報を更新するための更新情報として、前記空間配置情報の初期値を基準とする差分情報である初期値基準差分情報、または、前記空間配置情報の前記初期値に前記初期値基準差分情報の更新が反映された更新後情報を生成する更新情報生成部と、前記更新情報を格納する更新ファイルを生成し、ランダムアクセスポイントとして前記初期値基準差分情報または前記更新後情報を前記更新ファイルに格納するファイル生成部とを備える情報処理装置である。
 本技術の一側面の情報処理方法は、1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報を更新するための更新情報として、前記空間配置情報の初期値を基準とする差分情報である初期値基準差分情報、または、前記空間配置情報の前記初期値に前記初期値基準差分情報の更新が反映された更新後情報を生成し、前記更新情報を格納する更新ファイルを生成し、ランダムアクセスポイントとして前記初期値基準差分情報または前記更新後情報を前記更新ファイルに格納する情報処理方法である。
 本技術の他の側面の情報処理装置は、1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報を更新するための更新情報を格納する更新ファイルにランダムアクセスポイントとして格納される、前記空間配置情報の初期値を基準とする差分情報である初期値基準差分情報、または、前記空間配置情報の前記初期値に前記初期値基準差分情報の更新が反映された更新後情報を、前記更新情報として取得する更新情報取得部と、前記空間配置情報の前記初期値に前記初期値基準差分情報の更新を反映するか、または、前記更新後情報を適用することにより、前記初期値基準差分情報の更新適用時刻の前記空間配置情報を生成する空間配置情報生成部と情報処理装置である。
 本技術の他の側面の情報処理方法は、1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報を更新するための更新情報を格納する更新ファイルにランダムアクセスポイントとして格納される、前記空間配置情報の初期値を基準とする差分情報である初期値基準差分情報、または、前記空間配置情報の前記初期値に前記初期値基準差分情報の更新が反映された更新後情報を、前記更新情報として取得し、前記空間配置情報の前記初期値に前記初期値基準差分情報の更新を反映するか、または、前記更新後情報を適用することにより、前記初期値基準差分情報の更新適用時刻の前記空間配置情報を生成する情報処理方法である。
 本技術の一側面の情報処理装置および方法においては、1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報を更新するための更新情報として、その空間配置情報の初期値を基準とする差分情報である初期値基準差分情報、または、その空間配置情報の初期値に初期値基準差分情報の更新が反映された更新後情報が生成され、その更新情報を格納する更新ファイルが生成され、ランダムアクセスポイントとして初期値基準差分情報または更新後情報が更新ファイルに格納される。
 本技術の他の側面の情報処理装置および方法においては、1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報を更新するための更新情報を格納する更新ファイルにランダムアクセスポイントとして格納される、その空間配置情報の初期値を基準とする差分情報である初期値基準差分情報、または、その空間配置情報の初期値に初期値基準差分情報の更新が反映された更新後情報が、更新情報として取得され、その空間配置情報の初期値に初期値基準差分情報の更新が反映されるか、または、更新後情報が適用されることにより、初期値基準差分情報の更新適用時刻の空間配置情報が生成される。
glTF2.0の主な構成例を示す図である。 glTFオブジェクトと参照関係の例を示す図である。 JSONフォーマットファイルの記述例を示す図である。 バイナリデータへのアクセス方法について説明する図である。 JSONフォーマットファイルの記述例を示す図である。 buffer object、buffer view object、accessor objectの関係を説明する図である。 buffer object、buffer view object、accessor objectの記述例を示す図である。 MPEG-I Scene Descrioption のクライアント処理について説明する図である。 JSONパッチを用いたシーンディスクリプションの更新について説明する図である。 JSONパッチについて説明する図である。 通常再生によるシーンディスクリプションの更新について説明する図である。 ランダムアクセスによるシーンディスクリプションの更新について説明する図である。 ランダムアクセスポイントの更新情報について説明する図である。 更新情報の格納例を示す図である。 リンク情報の例を示す図である。 更新情報の格納例を示す図である。 更新情報の格納例を示す図である。 SyncSampleBoxの例を示す図である。 codec_specific_parametersのセマンティクスの例を示す図である。 更新情報の格納例を示す図である。 SampleDependencyTypeBoxの例を説明する図である。 更新情報の格納例を示す図である。 ランダムアクセスポイントの更新情報について説明する図である。 更新情報の格納例を示す図である。 リンク情報の例を示す図である。 更新情報の格納例を示す図である。 更新情報の格納例を示す図である。 更新情報の格納例を示す図である。 更新情報の格納例を示す図である。 更新情報の格納例を示す図である。 更新情報の格納例を示す図である。 ファイル生成装置の主な構成例を示すブロック図である。 ファイル生成処理の流れの例を示すフローチャートである。 ファイル生成処理の流れの例を示すフローチャートである。 クライアント装置の主な構成例を示すブロック図である。 クライアント処理の流れの例を示すフローチャートである。 クライアント処理の流れの例を示す、図36に続くフローチャートである。 クライアント処理の流れの例を示すフローチャートである。 クライアント処理の流れの例を示す、図38に続くフローチャートである。 コンピュータの主な構成例を示すブロック図である。
 以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
 1.MPEG-I Scene Description
 2.初期値基準差分情報の伝送
 3.初期値基準差分情報または更新後情報の伝送
 4.第1の実施の形態(ファイル生成装置)
 5.第2の実施の形態(クライアント装置)
 6.付記
 <1.MPEG-I Scene Description>
  <技術内容・技術用語をサポートする文献等>
 本技術で開示される範囲は、実施の形態に記載されている内容だけではなく、出願当時において公知となっている以下の非特許文献等に記載されている内容や以下の非特許文献において参照されている他の文献の内容等も含まれる。
 非特許文献1:(上述)
 非特許文献2:(上述)
 非特許文献3:(上述)
 非特許文献4:(上述)
 非特許文献5:(上述)
 非特許文献6:(上述)
 つまり、上述の非特許文献に記載されている内容や、上述の非特許文献において参照されている他の文献の内容等も、サポート要件を判断する際の根拠となる。例えば、非特許文献1乃至非特許文献3に記載されるglTF2.0やそのextensionなどのシンタックスや用語が本開示において直接的に定義されていない場合でも、本開示の範囲内であり、請求の範囲のサポート要件を満たすものとする。また、例えば、パース(Parsing)、シンタックス(Syntax)、セマンティクス(Semantics)等の技術用語についても同様に、本開示において直接的に定義されていない場合でも、本開示の範囲内であり、請求の範囲のサポート要件を満たすものとする。
  <gltf2.0>
 従来、例えば、非特許文献1に記載のように、3D(3次元)オブジェクトを3次元空間内に配置するためのフォーマットであるglTF(The GL Transmission Format)(登録商標)2.0があった。glTF2.0では、例えば図1に示されるように、JSONフォーマットファイル(.glTF)と、バイナリファイル(.bin)と、イメージファイル(.pngや.jpg等)とにより構成される。バイナリファイルは、ジオメトリやアニメーション等のバイナリデータを格納する。イメージファイルは、テクスチャ等のデータを格納する。
 JSONフォーマットファイルは、JSON(JavaScript(登録商標) Object Notation)で記述されたシーンディスクリプションファイル(scene description file)である。シーンディスクリプションとは、3Dコンテンツのシーン(の説明)を記述するメタデータである。このシーンディスクリプションの記述により、どのようなシーンであるかが定義される。シーンディスクリプションファイルは、そのようなシーンディスクリプションを格納するファイルである。本開示においては、シーンディスクリプションファイルのことをシーン記述ファイルとも称する。
 JSONフォーマットファイルの記述は、キー(KEY)とバリュー(VALUE)のペアの羅列により構成される。以下にその書式の例を示す。
 “KEY”:”VALUE”
 キーは文字列により構成される。バリューは数値、文字列、真偽値、配列、オブジェクト、またはnull等により構成される。
 また、複数のキーとバリューのペア(“KEY”:”VALUE”)を、{}(中かっこ)を用いてまとめることができる。この中かっこでまとめたものをJSONオブジェクトとも称する。以下にその書式の例を示す。
 “user”:{"id":1, "name":"tanaka”}
 この例の場合、キー(user)に対応するバリューとして、"id":1のペアと"name":"tanaka”のペアをまとめたJSONオブジェクトが定義されている。
 また、0個以上のバリューを、[](大かっこ)を用いて配列化することもできる。この配列をJSON配列とも称する。このJSON配列の要素として、例えば、JSONオブジェクトを適用することもできる。以下にその書式の例を示す。
 test":["hoge", "fuga", "bar"]
 "users":[{"id":1, "name":"tanaka"},{"id":2,"name":"yamada"},{"id":3, "name":"sato"}]
 JSONフォーマットファイルの最上位に記載できるglTFオブジェクト(glTF object)と、それらが持てる参照関係を図2に示す。図2に示されるツリー構造の長丸がオブジェクトを示し、そのオブジェクト間の矢印が参照関係を示している。図2に示されるように、"scene"、"node"、"mesh"、"camera"、"skin"、"material"、"texture"等のオブジェクトがJSONフォーマットファイルの最上位に記述される。
 このようなJSONフォーマットファイル(シーンディスクリプション)の記述例を図3に示す。図3のJSONフォーマットファイル20は、最上位の一部の記述例を示している。このJSONフォーマットファイル20において、使用されるトップレベルオブジェクト(top-level object)21は、全て最上位に記述される。このトップレベルオブジェクト21は、図2に示されるglTFオブジェクトである。また、JSONフォーマットファイル20においては、矢印22として示されるように、オブジェクト(object)間の参照関係が示される。より具体的には、上位オブジェクトのプロパティ(property)で、参照するオブジェクトの配列の要素のインデックス(index)を指定することによりその参照関係が示される。
 図4は、バイナリデータへのアクセス方法について説明する図である。図4に示されるように、バイナリデータは、バッファオブジェクト(buffer object)に格納される。つまり、バッファオブジェクトにおいてバイナリデータにアクセスするための情報(例えばURI(Uniform Resource Identifier)等)が示される。JSONフォーマットファイルにおいては、図4に示されるように、例えばメッシュ(mesh)、カメラ(camera)、スキン(skin)等のオブジェクトから、そのバッファオブジェクトに対して、アクセサオブジェクト(accessor object)とバッファビューオブジェクト(bufferView object)を介してアクセスすることができる。
 つまり、メッシュ(mesh)、カメラ(camera)、スキン(skin)等のオブジェクトにおいては、参照するアクセサオブジェクトが指定される。JSONフォーマットファイルにおけるメッシュオブジェクト(mesh)の記述例を図5に示す。例えば、図5のように、メッシュオブジェクトにおいては、NORMAL、POSITION、TANGENT、TEXCORD_0等の頂点の属性(アトリビュート(attribute))がキーとして定義され、その属性毎に、参照するアクセサオブジェクトがバリューとして指定されている。
 バッファオブジェクト、バッファビューオブジェクト、アクセサオブジェクトの関係を図6に示す。また、JSONフォーマットファイルにおけるそれらのオブジェクトの記述例を図7に示す。
 図6において、バッファオブジェクト41は、実データであるバイナリデータにアクセスするための情報(URI等)と、そのバイナリデータのデータ長(例えばバイト長)を示す情報とを格納するオブジェクトである。図7のAは、そのバッファオブジェクト41の記述例を示している。図7のAに示される「"bytelength":102040」は、図6に示されるように、バッファオブジェクト41のバイト長が102040バイト(bytes)であることを示している。また、図7のAに示される「"uri":"duck.bin"」は、図6に示されるように、バッファオブジェクト41のURIが"duck.bin"であることを示している。
 図6において、バッファビューオブジェクト42は、バッファオブジェクト41において指定されたバイナリデータのサブセット(subset)領域に関する情報(つまりバッファオブジェクト41の一部の領域に関する情報)を格納するオブジェクトである。図7のBは、そのバッファビューオブジェクト42の記述例を示している。図6や図7のBに示されるように、バッファビューオブジェクト42は、例えば、そのバッファビューオブジェクト42が属するバッファオブジェクト41の識別情報、そのバッファオブジェクト41内におけるそのバッファビューオブジェクト42の位置を示すオフセット(例えばバイトオフセット)、そのバッファビューオブジェクト42のデータ長(例えばバイト長)を示すレングス(例えばバイトレングス)等の情報を格納する。
 図7のBに示されるように、バッファビューオブジェクトが複数存在する場合、そのバッファビューオブジェクト毎(つまりサブセット領域毎)に情報が記述される。例えば、図7のBにおいて上側に示される、「"buffer":0」、「"bytelength":25272」、「"byteOffset":0」等の情報は、図6においてバッファオブジェクト41内に示される1つ目のバッファビューオブジェクト42(bufferView[0])の情報である。また、図7のBにおいて下側に示される、「"buffer":0」、「"bytelength":76768」、「"byteOffset":25272」等の情報は、図6においてバッファオブジェクト41内に示される2つ目のバッファビューオブジェクト42(bufferView[1])の情報である。
 図7のBに示される1つ目のバッファビューオブジェクト42(bufferView[0])の「"buffer":0」は、図6に示されるように、そのバッファビューオブジェクト42(bufferView[0])が属するバッファオブジェクト41の識別情報が「0」(Buffer[0])であることを示している。また、「"bytelength":25272」は、そのバッファビューオブジェクト42(bufferView[0])のバイト長が25272バイトであることを示している。さらに、「"byteOffset":0」は、そのバッファビューオブジェクト42(bufferView[0])のバイトオフセットが0バイトであることを示している。
 図7のBに示される2つ目のバッファビューオブジェクト42(bufferView[1])の「"buffer":0」は、図6に示されるように、そのバッファビューオブジェクト42(bufferView[0])が属するバッファオブジェクト41の識別情報が「0」(Buffer[0])であることを示している。また、「"bytelength":76768」は、そのバッファビューオブジェクト42(bufferView[0])のバイト長が76768バイトであることを示している。さらに、「"byteOffset":25272」は、そのバッファビューオブジェクト42(bufferView[0])のバイトオフセットが25272バイトであることを示している。
 図6において、アクセサオブジェクト43は、バッファビューオブジェクト42のデータの解釈方法に関する情報を格納するオブジェクトである。図7のCは、そのアクセサオブジェクト43の記述例を示している。図6や図7のCに示されるように、アクセサオブジェクト43は、例えば、そのアクセサオブジェクト43が属するバッファビューオブジェクト42の識別情報、そのバッファビューオブジェクト42の、バッファオブジェクト41内における位置を示すオフセット(例えばバイトオフセット)、そのバッファビューオブジェクト42のコンポーネントタイプ、そのバッファビューオブジェクト42に格納されるデータ数、そのバッファビューオブジェクト42に格納されるデータのタイプ等の情報を格納する。これらの情報は、バッファビューオブジェクト毎に記述される。
 図7のCの例では、「"bufferView":0」、「"byteOffset":0」、「"componentType":5126」、「"count":2106」、「"type":"VEC3"」等の情報が示されている。「"bufferView":0」は、図6に示されるように、そのアクセサオブジェクト43が属するバッファビューオブジェクト42の識別情報が「0」(bufferView[0])であることを示している。また、「"byteOffset":0」は、そのバッファビューオブジェクト42(bufferView[0])のバイトオフセットが0バイトであることを示している。さらに、「"componentType":5126」は、コンポーネントタイプが、FLOAT型(OpenGLマクロ定数)であることを示している。また、「"count":2106」は、そのバッファビューオブジェクト42(bufferView[0])に格納されるデータが2106個であることを示している。さらに、「"type":"VEC3"」は、そのバッファビューオブジェクト42(bufferView[0])に格納されるデータ(のタイプ)が3次元ベクトルであることを示している。
 イメージ(image)以外のデータへのアクセスは、全てこのアクセサオブジェクト43への参照により(アクセサのインデックスを指定することにより)定義される。
  <クライアント処理>
 次に、MPEG-I Scene Descriptionにおけるクライアント装置の処理について説明する。クライアント装置は、シーンディスクリプションを取得し、そのシーンディスクリプションに基づいて3Dオブジェクトのデータを取得し、そのシーンディスクリプションや3Dオブジェクトのデータを用いて表示画像を生成する。
 非特許文献2に記載のように、クライアント装置では、プレゼンテーションエンジンやメディアアクセスファンクション等が処理を行う。例えば、図8に示されるように、クライアント装置50のプレゼンテーションエンジン(Presentation Engine)51が、シーンディスクリプションの初期値やそのシーンディスクリプションを更新するための情報(以下、更新情報とも称する)を取得し、処理対象時刻のシーンディスクリプションを生成する。そして、プレゼンテーションエンジン51は、そのシーンディスクリプションを解析し、再生するメディア(動画や音声等)を特定する。そして、プレゼンテーションエンジン51は、メディアアクセスAPI(Media Access API(Application Program Interface))経由で、メディアアクセスファンクション(Media Access Funcition)52に対してそのメディアの取得を要求する。また、プレゼンテーションエンジン51は、パイプライン処理の設定やバッファの指定等も行う。
 メディアアクセスファンクション52は、プレゼンテーションエンジン51から要求されたメディアの各種データをクラウド(Cloud)やローカルストレージ(Local Strage)等から取得する。メディアアクセスファンクション52は、取得したメディアの各種データ(符号化データ)をパイプライン(Pipeline)53に供給する。
 パイプライン53は、供給されたメディアの各種データ(符号化データ)を、パイプライン処理により復号し、その復号結果をバッファ(Buffer)54に供給する。バッファ54は、供給されたメディアの各種データを保持する。
 プレゼンテーションエンジン51は、バッファ54に保持されているメディアの各種データを用いてレンダリング(Rendering)等を行う。
  <シーンディスクリプションの更新>
 シーンディスクリプションは、1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報である。このシーンディスクリプションは、時間軸に沿ってその内容を更新することができる。つまり、時間の経過とともに、3Dオブジェクトの配置を更新することができる。
 非特許文献2や非特許文献3に記載のように、MPEG-I Scene Descriptionでは、このようなシーンディスクリプションの更新は、JSONパッチ(JSON patch)を用いて行われる。つまり、図9に示されるように、各時刻のシーンディスクリプションの更新情報61が、JSONパッチとして記述され、クライアント装置に提供される。例えば、更新対象となるシーンディスクリプションのハッシュ(hash)値や、更新が実行されるタイミング情報等は、このJSONパッチ内に記述される。JSONパッチは、非特許文献3や非特許文献6に記載のWeb Resouce in ISOBMFF(International Organization for Standardization Base Media File Format)を用いて送出される。
 シーンディスクリプションの初期値が格納されるSD(glTF)ファイル62には、このような更新情報61へのリンク情報が格納される。例えば、glTF内のMPEG_dynamic_scene extensionにて、更新情報61(JSONパッチ)を含むISOBMFFが配信されるURL(Uniform Resource Locator)が記述される。
 図9において、プレゼンテーションエンジン51のglTF解析部63は、このSD(glTFファイル)62のリンク情報を介して、処理対象時刻に対応する更新情報61を取得する。そして、glTF解析部63は、その更新情報61を用いてシーンディスクリプションを更新し、処理対象時刻に対応するシーンディスクリプションを生成する。
 glTF解析部63は、生成した処理対象時刻に対応するシーンディスクリプションを解析し、メディアアクセスファンクション52に対して、必要なファイルの取得を要求する。そして、上述したようにメディアアクセスファンクション52がそのファイルを取得し、パイプライン53が復号し、バッファ54が復号結果を保持する。
 プレゼンテーションエンジン51のレンダリング(Rendering)処理部64は、バッファ54に保持されているメディアのデータをも用いてレンダリングを行い表示画像を生成する。このように、クライアント装置50は、処理対象時刻に対応するシーンディスクリプションに基づく表示画像を生成することができる。
 非特許文献5に記載のように、JSONパッチは、JSONドキュメントに対する追加、更新、削除といったオペレーションを表現するものであり、JSONパッチはそれ自体もJSONドキュメントとして表現される。例えば、図10に示されるように、オリジナルのJSONドキュメント71に対してJSONパッチ72を適用すると、適用後のJSONドキュメントは、JSONドキュメント73のようになる。
 非特許文献2や非特許文献3に記載のように、MPEG-I Scene Descriptionでは、更新前の初期のシーンディスクリプションであるオリジナルSDファイル(Original SD file)と、前の更新からの差分情報を格納するJSONパッチをサンプル(sample)として含むISOBMFFが配信される。クライアント装置は、現在メモリ上に展開されているシーンディスクリプションからハッシュコード(hash code)のようなユニークな値(トランザクションID(transaction ID)とも称する)を算出する。JSONパッチドキュメントにより、更新が適用されるシーンディスクリプションのトランザクションIDと、そのシーンディスクリプションからの差分情報がクライアント装置に供給される。クライアント装置は、現在展開されているシーンディスクリプションから算出されるトランザクションIDとJSONパッチのトランザクションIDが一致した場合、そのJSONパッチの更新を適用する。
 例えば、シーンディスクリプション81を再生するとする。このシーンディスクリプション81は、時間方向に変化し得る。図11に示されるシーンディスクリプション81-0は、シーンディスクリプション81の初期値である。また、シーンディスクリプション81-0のトランザクションIDはV.1であるとする。そして、シーンディスクリプション81-0は、3Dオブジェクトa、b、およびcを3D空間に配置する。
 このシーンディスクリプション81に対する更新情報は、JSONパッチ82-1乃至JSONパッチ82-9のように、JSONパッチのサンプル(sample)としてクライアント装置に供給される。JSONパッチ82-1乃至JSONパッチ82-9のような、シーンディスクリプション81に対する更新情報をJSONパッチ82と称する。JSONパッチ82-1乃至JSONパッチ82-9は、それぞれ、JSONパッチ82のサンプルの1つである。JSONパッチ82のサンプルは、ISOBMFFの更新情報を格納するトラック(例えばTrack #1)に格納され、クライアント装置に供給される。
 JSONパッチ82-1は、トランザクションIDがV.1のシーンディスクリプションに対して、オブジェクトAを追加する更新情報(Add A)である。したがって、クライアント装置がシーンディスクリプション81-0に対してJSONパッチ82-1のサンプルを適用することにより、シーンディスクリプション81-1が得られる。つまり、シーンディスクリプション81-1は、オブジェクトa、b、c、およびAを3D空間に配置する。また、シーンディスクリプション81-1のトランザクションIDはV.11であるとする。
 JSONパッチ82-2は、トランザクションIDがV.11のシーンディスクリプションに対して、オブジェクトBを追加する更新情報(Add B)である。したがって、クライアント装置がシーンディスクリプション81-1に対してJSONパッチ82-2のサンプルを適用することにより、シーンディスクリプション81-2が得られる。つまり、シーンディスクリプション81-2は、オブジェクトa、b、c、A、およびBを3D空間に配置する。また、シーンディスクリプション81-2のトランザクションIDはV.12であるとする。
 JSONパッチ82-3は、トランザクションIDがV.12のシーンディスクリプションに対して、オブジェクトCを追加する更新情報(Add C)である。したがって、クライアント装置がシーンディスクリプション81-2に対してJSONパッチ82-3のサンプルを適用することにより、シーンディスクリプション81-3が得られる。つまり、シーンディスクリプション81-3は、オブジェクトa、b、c、A、B、およびCを3D空間に配置する。また、シーンディスクリプション81-3のトランザクションIDはV.13であるとする。
 JSONパッチ82-4は、トランザクションIDがV.13のシーンディスクリプションに対して、オブジェクトBを削除する更新情報(Del B)である。したがって、クライアント装置がシーンディスクリプション81-3に対してJSONパッチ82-4のサンプルを適用することにより、シーンディスクリプション81-4が得られる。つまり、シーンディスクリプション81-4は、オブジェクトa、b、c、A、およびCを3D空間に配置する。また、シーンディスクリプション81-4のトランザクションIDはV.14であるとする。
 JSONパッチ82-5は、トランザクションIDがV.14のシーンディスクリプションに対して、オブジェクトaを削除する更新情報(Del a)である。したがって、クライアント装置がシーンディスクリプション81-4に対してJSONパッチ82-5のサンプルを適用することにより、シーンディスクリプション81-5が得られる。つまり、シーンディスクリプション81-5は、オブジェクトb、c、A、およびCを3D空間に配置する。また、シーンディスクリプション81-5のトランザクションIDはV.15であるとする。
 JSONパッチ82-6は、トランザクションIDがV.15のシーンディスクリプションに対して、オブジェクトbを削除する更新情報(Del b)である。したがって、クライアント装置がシーンディスクリプション81-5に対してJSONパッチ82-6のサンプルを適用することにより、シーンディスクリプション81-6が得られる。つまり、シーンディスクリプション81-6は、オブジェクトc、A、およびCを3D空間に配置する。また、シーンディスクリプション81-6のトランザクションIDはV.16であるとする。
 同様に、JSONパッチ82-7乃至JSONパッチ82-9のサンプルが順次適用され、シーンディスクリプション81が更新される。シーケンスを先頭から時間軸に沿って順次再生する通常再生の場合、トラック#1の各JSONパッチ82のサンプルは、JSONパッチ82-1のサンプルから順に、それぞれのタイミングにおいて適用される。つまり、シーンディスクリプション81は、そのタイミング毎に更新され、その内容は、時間軸に沿って、シーンディスクリプション81-0、シーンディスクリプション81-1、シーンディスクリプション81-2、・・・のように変化していく。
 また、このシーンディスクリプション81の更新は、所謂ランダムアクセスすることができる。つまり、クライアント装置は、シーンディスクリプション81の更新を時系列に沿って行わずに、途中のタイミングの更新から開始することもできる。そのために、時系列に沿わずにアクセス可能なランダムアクセスポイントが設けられ、そのランダムアクセスポイントのデータとして、更新済みのシーンディスクリプション(本明細書において、更新後情報とも称する)が用意される。図12に示されるように、この更新後情報は、上述のJSONパッチ82が格納されるトラック(Track #1)とは異なるトラック(Track #2)に格納される。
 図12において、シーンディスクリプション83-1およびシーンディスクリプション83-2は、ランダムアクセスポイントとして用意された更新後情報である。シーンディスクリプション83-1およびシーンディスクリプション83-2のように、ランダムアクセスポイントとして用意された更新後情報をシーンディスクリプション83と称する。つまり、シーンディスクリプション83-1およびシーンディスクリプション83-2は、シーンディスクリプション83のサンプルの1つである。
 シーンディスクリプション83-1のサンプルは、JSONパッチ82-6のサンプルに対応する。つまり、シーンディスクリプション83-1の内容は、シーンディスクリプション81-0に対して、JSONパッチ82-1乃至JSONパッチ82-6の更新を適用した結果(図11のシーンディスクリプション81-6)と等価である。つまり、クライアント装置がシーンディスクリプション83-1のサンプルにランダムアクセスした場合、JSONパッチ82-1乃至JSONパッチ82-6の更新を行わずに、図11のシーンディスクリプション81-6が得られる。つまり、ランダムアクセスが可能になる。それ以降の通常再生を行う場合、JSONパッチ82-7のサンプルがシーンディスクリプション83-1に対して適用される。
 シーンディスクリプション83-2のサンプルは、JSONパッチ82-9のサンプルに対応する。つまり、シーンディスクリプション83-2の内容は、シーンディスクリプション81-0に対して、JSONパッチ82-1乃至JSONパッチ82-9の更新を適用した結果と等価である。つまり、クライアント装置がシーンディスクリプション83-2のサンプルにランダムアクセスした場合、JSONパッチ82-1乃至JSONパッチ82-9の更新を行わずに、それらの更新結果が得られる。つまり、ランダムアクセスが可能になる。それ以降の通常再生を行う場合、その次のJSONパッチ82のサンプルがシーンディスクリプション83-2に対して適用される。
 しかしながら、このような方法では、シーンディスクリプションにランダムアクセスするクライアント装置の処理負荷が増大するおそれがあった。つまり、上述したシーンディスクリプション83(更新後情報)は、シーンディスクリプションそのもの(シーンディスクリプション全体)であるので、データ量が多い。また、シーンディスクリプション83の内容の内、シーンディスクリプション81-0から更新されていない情報は冗長となる。したがって、ランダムアクセスの際のクライアント装置の処理量、処理時間、およびバッファ量等が増大するおそれがあった。
 <2.初期値基準差分情報の伝送>
  <方法1>
 そこで、ランダムアクセスポイントとして、シーンディスクリプションの初期値からそのタイミングまでの差分を示す更新情報(初期値基準差分情報とも称する)を用意し、クライアント装置がランダムアクセスする際に、その初期値基準差分情報を提供するようにする。つまり、図13に示される表の最上段に示されるように、ランダムアクセスポイントとして初期値基準差分情報がファイルに格納されるようにする(方法1)。
 例えば、シーンディスクリプションの更新情報を格納するファイルを生成する情報処理装置において、1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報(すなわちシーンディスクリプション)を更新するための更新情報として、その空間配置情報の初期値を基準とする差分情報である初期値基準差分情報を生成する更新情報生成部と、その更新情報を格納する更新ファイルを生成し、ランダムアクセスポイントとして初期値基準差分情報をその更新ファイルに格納するファイル生成部とを備えるようにする。
 また、例えば、シーンディスクリプションの更新情報を格納するファイルを生成する情報処理方法において、1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報(すなわちシーンディスクリプション)を更新するための更新情報として、その空間配置情報の初期値を基準とする差分情報である初期値基準差分情報を生成し、その更新情報を格納する更新ファイルを生成し、ランダムアクセスポイントとして初期値基準差分情報をその更新ファイルに格納するようにする。
 例えば、シーンディスクリプションの更新情報を格納するファイルを取得し、シーンディスクリプションを更新する情報処理装置において、1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報(すなわちシーンディスクリプション)を更新するための更新情報を格納する更新ファイルにランダムアクセスポイントとして格納される、その空間配置情報の初期値を基準とする差分情報である初期値基準差分情報を取得する差分情報取得部と、その空間配置情報の初期値に初期値基準差分情報の更新を反映することにより、その初期値基準差分情報の更新適用時刻の空間配置情報を生成する空間配置情報生成部とを備えるようにする。
 また、例えば、シーンディスクリプションの更新情報を格納するファイルを取得し、シーンディスクリプションを更新する情報処理方法において、1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報(すなわちシーンディスクリプション)を更新するための更新情報を格納する更新ファイルにランダムアクセスポイントとして格納される、その空間配置情報の初期値を基準とする差分情報である初期値基準差分情報を取得し、その空間配置情報の初期値に初期値基準差分情報の更新を反映することにより、その初期値基準差分情報の更新適用時刻の空間配置情報を生成するようにする。
 初期値基準差分情報には、空間配置情報(シーンディスクリプション)の初期値と、そのランダムアクセスポイントのタイミングにおける空間配置情報(更新後情報)との差分が示されている。つまり、初期値基準差分情報は、JSONパッチとして提供し得る。例えば図12において、シーンディスクリプション83-1のサンプルをランダムアクセスポイントとし、そのランダムアクセスポイントのデータとして初期値基準差分情報を格納する場合、その初期値基準差分情報には、シーンディスクリプション81-0とシーンディスクリプション83-1との差分(Del a、Del b、Add A、Add C)が示される。
 したがって、シーンディスクリプション83-1のサンプルを提供する場合よりも、クライアント装置に提供するデータ量を低減させることができる。また、クライアント装置は、その初期値基準差分情報のサンプルをシーンディスクリプション81-0に対して適用すれば、すなわち、1回の更新により、そのサンプルのタイミングにおけるシーンディスクリプション83(つまり、シーンディスクリプション83-1)を得ることができる。したがって、ランダムアクセスの際のクライアント装置の処理量、処理時間、およびバッファ量等の増大を抑制することができる。つまり、シーンディスクリプションにランダムアクセスするクライアント装置の処理負荷の増大を抑制することができる。
 なお、ランダムアクセスの際、そのランダムアクセスポイントまでの全てのJSONパッチ82のサンプルをクライアント装置に提供し、クライアント装置がそれらのJSONパッチ82を用いてシーンディスクリプション81を更新することにより、そのランダムアクセスポイントのタイミングにおけるシーンディスクリプション83(更新後情報)を得ることができる。例えば図12の場合、JSONパッチ82-1乃至JSONパッチ82-6の各サンプルをランダムアクセスしたクライアント装置に提供し、そのクライアント装置が、それらを用いてシーンディスクリプション81-0を更新することにより、シーンディスクリプション83-1(と等価のシーンディスクリプション81-6)が得られる。
 しかしながら、この方法の場合、複数のJSONパッチ82を取得し、シーンディスクリプション81の更新を複数回行わなければならず、処理が煩雑になり、クライアント装置の処理負荷が増大するおそれがあった。また、その複数回の更新において冗長な処理が含まれる場合、クライアント装置の処理負荷が不要に増大するおそれがあった。例えば図12の場合、JSONパッチ82-2(Add B)やJSONパッチ82-4(Del B)を用いた更新は不要である。上述のように、初期値基準差分情報を用いてシーンディスクリプション81-0を更新する方が、クライアント装置は、ランダムアクセスポイントのタイミングにおけるシーンディスクリプションをより効率よく得ることができる。
  <方法1-1>
 このような方法1を適用する場合、図13に示される表の上から2段目に示されるように、初期値基準差分情報が、直前値基準差分情報とは異なるトラックに格納されてもよい(方法1-1)。なお、直前値基準差分情報は、直前の更新情報までの更新が反映された空間配置情報を基準とする差分情報である。つまり、直前値基準差分情報は、直前のJSONパッチまでの更新が反映されたシーンディスクリプションからの差分を示す更新情報(JSONパッチ)である。図12の例の場合、JSONパッチ82が直前値基準差分情報に相当する。この直前値基準差分情報(JSONパッチ82)のサンプルは、上述したように、シーンディスクリプション81の通常再生において適用される。
 例えば、ファイル生成部は、更新ファイルの直前値基準差分情報とは異なるトラックに初期値基準差分情報を格納してもよい。また、差分情報取得部は、更新ファイルの直前値基準差分情報とは異なるトラックに格納された初期値基準差分情報を取得してもよい。
 図14にその場合の例を示す。図14の例においては、ランダムアクセスポイントのデータとして、初期値基準差分情報が用意される。図14において、JSONパッチ101-1およびJSONパッチ101-2は、ランダムアクセスポイントとして用意された初期値基準差分情報である。JSONパッチ101-1およびJSONパッチ101-2のように、ランダムアクセスポイントとして用意された初期値基準差分情報をJSONパッチ101と称する。つまり、JSONパッチ101-1およびJSONパッチ101-2は、それぞれ、JSONパッチ101のサンプルの1つである。
 この方法1-1の場合、図14に示されるように、JSONパッチ101(初期値基準差分情報)のサンプルは、上述のJSONパッチ82が格納されるトラック(Track #1)とは異なるトラック(Track #2)に格納される。したがって、クライアント装置は、トラックを指定することにより、より容易に、JSONパッチ101(初期値基準差分情報)のサンプルを、JSONパッチ82のサンプルとは独立に取得し得る。
 なお、図14の例において、JSONパッチ101(初期値基準差分情報)のサンプルは、シーンディスクリプション81-0(すなわち、シーンディスクリプション81の初期値)以外のシーンディスクリプションを基準とする差分情報としてもよい。換言するに、JSONパッチ101(初期値基準差分情報)のサンプルは、そのJSONパッチ101を用いた更新により、そのサンプルのタイミングにおけるシーンディスクリプションが得られればよく、その差分の基準とするシーンディスクリプションは任意である。
 例えば、シーンディスクリプション81-0とは別に、ランダムアクセス用のシーンディスクリプションを用意し、例えばトラック#2に格納してもよい。そして、各JSONパッチ101(初期値基準差分情報)が、そのランダムアクセス用のシーンディスクリプションからの差分を示すようにしてもよい。例えば、シーンディスクリプション81-5(図11)をそのランダムアクセス用のシーンディスクリプションとしてもよい。この場合、JSONパッチ101-1(図14)の内容は、JSONパッチ82-6と等価である。つまり、このようにすることにより、JSONパッチ101-1のデータ量を低減させることができる。全体のデータ量は、ランダムアクセスポイントの数や更新内容等に依存するが、例えば、それらを考慮した上で、全体のデータ量が低減するように、ランダムアクセスポイント用のシーンディスクリプションを設定してもよい。
  <方法1-1-1>
 このような方法1-1を適用する場合、図13に示される表の上から3段目に示されるように、初期値基準差分情報のサンプルを格納するトラックへのリンク情報が、ランダムアクセス用のリンク情報として、シーンディスクリプション(SD)の初期値に格納されるようにしてもよい(方法1-1-1)。
 例えば、ファイル生成部は、空間配置情報の初期値を格納する初期値ファイルを生成し、初期値基準差分情報を格納するトラックへのリンクを示すリンク情報を、ランダムアクセス用のリンク情報としてその初期値ファイルに格納してもよい。また、差分情報取得部は、空間配置情報の初期値を格納する初期値ファイルにランダムアクセス用のリンク情報として格納された、初期値基準差分情報を格納するトラックへのリンクを示すリンク情報を用いて、初期値基準差分情報を取得してもよい。
 図15にその場合のシーンディスクリプション81-0の記述例の一部を示す。図15に示されるように、シーンディスクリプション81-0(Scene.gltf)には、直前値基準差分情報のサンプルを格納するトラックへのリンク情報("uri":scen_updata.json-patch)とは別に、初期値基準差分情報のサンプルを格納するトラックへのリンク情報("uri_for_randomaccess":scene_updata_type2.json-patch})が記述されている。直前値基準差分情報のサンプルを格納するトラックへのリンク情報は、通常再生の際に利用されるリンク情報である。これに対して、初期値基準差分情報のサンプルを格納するトラックへのリンク情報は、ランダムアクセスの際に利用されるリンク情報である。つまり、図15の例においては、これらの両者を識別可能な状態でリンク情報が記述されている。すなわち、初期値基準差分情報のサンプルを格納するトラックへのリンク情報が、ランダムアクセス用のリンク情報として、SD初期値に格納されている。このようにすることにより、クライアント装置は、適切な更新情報が格納されているトラックをより容易に識別することができる。例えば、クライアント装置は、通常再生の際に、直前値基準差分情報のサンプルを得るためのリンク情報をより容易に選択することができる。また、クライアント装置は、ランダムアクセスの際に、初期値基準差分情報のサンプルを得るためのリンク情報をより容易に選択することができる。
  <方法1-2>
 また方法1を適用する場合、図13に示される表の上から4段目に示されるように、初期値基準差分情報が、直前値基準差分情報と同一トラックの同一サンプルに格納されてもよい(方法1-2)。なお、直前値基準差分情報は、<方法1-1>において上述したように、直前の更新情報までの更新が反映された空間配置情報を基準とする差分情報である。
 例えば、ファイル生成部は、更新ファイルの直前値基準差分情報と同一のトラックの同一のサンプルに初期値基準差分情報を格納してもよい。また、差分情報取得部は、更新ファイルの直前値基準差分情報と同一のトラックの同一のサンプルに格納された初期値基準差分情報を取得してもよい。
 図16にその場合の例を示す。図16の例においては、図14の場合と同様に、ランダムアクセスポイントのデータとして、初期値基準差分情報(JSONパッチ101-1およびJSONパッチ101-2)が用意される。
 ただし、この方法1-2の場合、JSONパッチ101(初期値基準差分情報)は、上述のJSONパッチ82と同一のトラック(Track #1)の同一のサンプルに格納される。例えば、JSONパッチ101-1は、JSONパッチ82-6と同一のサンプル111-1に格納される。JSONパッチ101-1およびJSONパッチ82-6は、更新を適用するタイミングが互いに同一であり、それぞれが適用された更新結果も、互いに同一である。また、JSONパッチ101-2は、JSONパッチ82-9と同一のサンプル111-2に格納される。JSONパッチ101-2およびJSONパッチ82-9は、更新を適用するタイミングが互いに同一であり、それぞれが適用された更新結果も、互いに同一である。
 このようにすることにより、更新ファイルのトラックを1つにすることができる。したがって、クライアント装置は、通常再生の際も、ランダムアクセスの際も、同一のリンク情報を用いて更新情報(直前値基準差分情報または初期値基準差分情報)を得ることができる。
  <方法1-2-1>
 このような方法1-2を適用する場合、ランダムアクセスポイントのサンプルは、直前値基準差分情報および初期値基準差分情報が1つのサンプルとしてまとめられる。そこで、これらの情報をクライアント装置が区別して利用することができるように直前値基準差分情報および初期値基準差分情報が格納されてもよい。つまり、図13に示される表の上から5段目に示されるように、直前値基準差分情報と初期値基準差分情報のそれぞれを要素とするリストとして格納されてもよい(方法1-2-1)。
 例えば、ファイル生成部は、直前値基準差分情報および初期値基準差分情報を、それぞれを要素とするリストとして格納してもよい。また、直前値基準差分情報および初期値基準差分情報は、それぞれを要素とするリストとしてサンプルに格納されてもよい。
 例えば、図17の場合、直前値基準差分情報および初期値基準差分情報が、それぞれ[]で区切られ、リストの要素として記述されている。つまり、上から3行目に記述されている1番目の要素([{"op": “remove", "path": "”, "value": ””}])が、直前値基準差分情報(図16のサンプル111-1の場合、JSONパッチ82-6)である。これに対して、上から4行目乃至7行目に記述されている2番目の要素(下記の記述)が、初期値基準差分情報(図16のサンプル111-1の場合、JSONパッチ101-1)である。
[{"op": “remove", "path": "”, "value": ””},
 {"op": “remove", "path": "”, "value": ””},
 {"op": “add", "path": "”, "value": ””},
 {"op": “add", "path": "”, "value": ””}]
 例えば、クライアント装置は、サンプル(リスト全体)を取得し、通常再生の場合、リストの1番目の要素を更新情報(直前値基準差分情報)として使用し、ランダムアクセスの場合、リストの2番目の要素を更新情報(初期値基準差分情報)として使用する。このように、クライアント装置は、より容易に、直前値基準差分情報および初期値基準差分情報を取得することができる。
  <方法1-2-2>
 また、方法1-2を適用する場合、図13に示される表の上から6段目に示されるように、ファイルの管理領域において、直前値基準差分情報および初期値基準差分情報が、それぞれサブサンプルとして管理されてもよい(方法1-2-2)。
 例えば、ファイル生成部は、直前値基準差分情報および初期値基準差分情報のそれぞれをサブサンプルとして管理する管理情報を更新ファイルの管理領域に格納してもよい。また、差分情報取得部は、更新ファイルの管理領域に格納される、直前値基準差分情報および初期値基準差分情報のそれぞれをサブサンプルとして管理する管理情報に基づいて、初期値基準差分情報を取得してもよい。
 例えば、非特許文献5に記載のように、ISOBMFFのサブサンプルインフォメーションボックス(Sub sample information box)では、サンプル内のデータをサブサンプル(sub sample)として分割し、それぞれのサブサンプルのデータサイズ(subsample_size)を格納することができる。これにより、クライアント装置は、サンプル内のデータを先頭から解釈することなく、途中のデータであるサブサンプルのデータを取得することができる。
 つまり、直前値基準差分情報および初期値基準差分情報のそれぞれをサブサンプルとして管理する管理情報が更新ファイルの管理領域に格納されることにより、クライアント装置は、その管理情報に基づいて、サンプル内部をパースせずに、サンプルから直前値基準差分情報または初期値基準差分情報を取得することができる。すなわち、クライアント装置は、より容易に直前値基準差分情報や初期値基準差分情報を取得することができる。
  <方法1-2-2-1>
 この方法1-2-2を適用する場合、図13に示される表の上から7段目に示されるように、直前値基準差分情報が格納されるサブサンプルと初期値基準差分情報が格納されるサブサンプルとを識別する識別情報が、ファイルの管理領域に格納されてもよい(方法1-2-2-1)。
 例えば、直前値基準差分情報および初期値基準差分情報のそれぞれをサブサンプルとして管理する管理情報が、直前値基準差分情報が格納されるサブサンプルと初期値基準差分情報が格納されるサブサンプルとを識別する識別情報を含むようにしてもよい。
 例えば、非特許文献5に記載のように、ISOBMFFのサブサンプルインフォメーションボックス(Sub sample information box)には、コーデックスピシフィックパラメータ(codec_specific_parameters)を格納することができる。そのコーデックスピシフィックパラメータを直前値基準差分情報が格納されるサブサンプルと初期値基準差分情報が格納されるサブサンプルとを識別する識別情報として用いてもよい。
 その場合のコーデックスピシフィックパラメータのセマンティクスの例を図19に示す。図19の例の場合、コーデックスピシフィックパラメータが偽(codec_specific_parameters = 0)の場合、そのサブピクチャが直前値基準差分情報であることを示し、コーデックスピシフィックパラメータが真(codec_specific_parameters = 1)の場合、そのサブピクチャが初期値基準差分情報であることを示す。クライアント装置は、このコーデックスピシフィックパラメータの値を参照することにより、直前値基準差分情報が格納されるサブサンプルであるか、初期値基準差分情報が格納されるサブサンプルであるかを容易に(サンプル内部をパースせずに)識別することができる。
  <方法1-2-3>
 また、方法1-2を適用する場合、図13に示される表の上から8段目に示されるように、ファイルの管理領域において、初期値基準差分情報が格納されるサンプルが、ランダムアクセス可能なサンプルとして管理されてもよい(方法1-2-3)。
 例えば、ファイル生成部は、初期値基準差分情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報を更新ファイルの管理領域に格納してもよい。また、差分情報取得部は、更新ファイルの管理領域に格納される、初期値基準差分情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報に基づいて、初期値基準差分情報を取得してもよい。
 例えば、ISOBMFFのシンクサンプルボックス(SyncSampleBox)内において、初期値基準差分情報が格納されるサンプルを、シンクサンプル(SyncSample)として記述する。このシンクサンプルは、ランダムアクセス可能なサンプルである。図18は、その場合の、シンクサンプルボックスの記述例を示す図である。このように、初期値基準差分情報が格納されるサンプルを、シンクサンプルボックス(SyncSampleBox)内に記述することにより、クライアント装置は、そのシンクサンプルボックスを参照することにより、容易に(サンプル内部をパースせずに)、ランダムアクセス可能なサンプルを特定することができる。すなわち、クライアント装置は、この情報に基づいて、初期値基準差分情報が格納されるサンプルをより容易に特定することができる。
  <方法1-3>
 また方法1を適用する場合、図13に示される表の上から9段目に示されるように、初期値基準差分情報が、直前値基準差分情報と同一トラックの異なるサンプルに格納されてもよい(方法1-3)。なお、直前値基準差分情報は、<方法1-1>において上述したように、直前の更新情報までの更新が反映された空間配置情報を基準とする差分情報である。
 例えば、ファイル生成部は、更新ファイルの直前値基準差分情報と同一のトラックの異なるサンプルに初期値基準差分情報を格納してもよい。また、差分情報取得部は、更新ファイルの直前値基準差分情報と同一のトラックの異なるサンプルに格納された初期値基準差分情報を取得してもよい。
 図20にその場合の例を示す。図20の例においては、図14の場合と同様に、ランダムアクセスポイントのデータとして、初期値基準差分情報(JSONパッチ101-1およびJSONパッチ101-2)が用意される。
 ただし、この方法1-3の場合、JSONパッチ101(初期値基準差分情報)は、更新適用タイミングがそのJSONパッチ101と同一のJSONパッチ82と同一のトラック(Track #1)の異なるサンプルに格納される。例えば、JSONパッチ101-1は、JSONパッチ82-6と同一のトラック(Track #1)の、JSONパッチ82-6が格納されるサンプルの次のサンプルに格納される。JSONパッチ101-1およびJSONパッチ82-6は、更新を適用するタイミングが互いに同一であり、それぞれが適用された更新結果も、互いに同一である。また、JSONパッチ101-2は、JSONパッチ82-9と同一のトラック(Track #1)の、JSONパッチ82-9が格納されるサンプルの次のサンプルに格納される。JSONパッチ101-2およびJSONパッチ82-9は、更新を適用するタイミングが互いに同一であり、それぞれが適用された更新結果も、互いに同一である。
 このようにすることにより、更新ファイルのトラックを1つにすることができる。したがって、クライアント装置は、通常再生の際も、ランダムアクセスの際も、同一のリンク情報を用いて更新情報(直前値基準差分情報または初期値基準差分情報)を得ることができる。また、サンプルには、直前値基準差分情報または初期値基準差分情報が格納されるので(直前値基準差分情報および初期値基準差分情報が同一サンプルに格納されないので)、クライアント装置は、サンプルを選択することにより、直前値基準差分情報または初期値基準差分情報を選択することができる。
  <方法1-3-1>
 このような方法1-3を適用する場合、図13に示される表の上から10段目に示されるように、直前値基準差分情報が格納されるサンプルと同一の更新適用時刻情報が、その直前値基準差分情報と同一のタイミングで更新が適用される初期値基準差分情報が格納されるサンプルに格納されてもよい(方法1-3-1)。
 例えば、ファイル生成部は、直前値基準差分情報が格納されるサンプルと同一の更新適用時刻情報を、初期値基準差分情報が格納されるサンプルに格納してもよい。また、初期値基準差分情報が格納されるサンプルには、直前値基準差分情報が格納されるサンプルと同一の更新適用時刻情報が格納されてもよい。
 非特許文献3に記載のように、JSONパッチを拡張し、更新が実行される時刻を指定する時刻情報として、JSONパッチのサンプルに含まれるプレゼンテーションタイム(presentation time)以外の時刻を格納することができる。例えば、JSONパッチには、この時刻情報として、バージョンID(version_id)、イベントID(event_id)、協定世界時(absolute_time_UTC(Coordinated Universal Time))、国際原子時(absolute_time_TAI(International Atomic Time))等を格納することができる。もちろん、時刻情報は任意であり、これらの例以外の時刻情報であってもよい。
 このような更新が実行される時刻を指定する時刻情報がサンプルに格納されるようにし、初期値基準差分情報が格納されるサンプルには、更新適用のタイミングがその初期値基準差分情報と同一の直前値基準差分情報が格納されるサンプルと同一の時刻情報が格納されるようにする。例えば、図20の場合、初期値基準差分情報が格納されるサンプルには、その1つ前のサンプルと同一の時刻情報が格納されるようにする。例えば、JSONパッチ82-6のサンプルと、JSONパッチ101-1のサンプルに、互いに同一の時刻情報が格納される。また、JSONパッチ82-9のサンプルと、JSONパッチ101-2のサンプルに、互いに同一の時刻情報が格納される。
 このようにすることにより、クライアント装置は、サンプル内部をパースせずに、容易に、初期値基準差分情報に対応する(更新適用タイミングが初期値基準差分情報と同一の)直前値基準差分情報を特定することができる。
  <方法1-3-2>
 また方法1-3を適用する場合、図13に示される表の上から11段目に示されるように、ファイルの管理領域において、初期値基準差分情報が格納されるサンプルが、通常再生時に利用されないサンプルとして管理されてもよい(方法1-3-2)。
 例えば、ファイル生成部は、初期値基準差分情報が格納されるサンプルを通常再生時に利用されないサンプルとして管理する管理情報が、更新ファイルの管理領域に格納されてもよい。また、差分情報取得部は、更新ファイルの管理領域に格納される、初期値基準差分情報が格納されるサンプルを通常再生時に利用されないサンプルとして管理する管理情報に基づいて、初期値基準差分情報を取得してもよい。
 更新情報を格納する更新ファイルの管理領域において、初期値基準差分情報が格納されるサンプルを、通常再生時に利用されないサンプルとして管理することにより、クライアント装置は、通常再生の際に、サンプル内部をパースせずに、容易に、初期値基準差分情報が格納されるサンプルの取得を省略することができる。つまり、通常再生として更新ファイルのサンプルを順次取得する際に、クライアント装置は、この管理情報に基づいて容易に、初期値基準差分情報が格納されるサンプルを取得せず、直前値基準差分情報が格納されるサンプルのみを取得することができる。
 換言するに、クライアント装置は、ランダムアクセスの際に、サンプル内部をパースせずに、容易に、初期値基準差分情報が格納されるサンプルを取得することができる。つまり、ランダムアクセスを行う場合、クライアント装置は、この管理情報に基づいて容易に、初期値基準差分情報が格納されるサンプルを取得することができる。
  <方法1-3-2-1>
 このような方法1-3-2を適用する場合、図13に示される表の上から12段目に示されるように、通常再生時に利用するサンプルであるか否かを示す識別情報が、サンプル毎にファイルの管理領域に格納されてもよい(方法1-3-2-1)。
 例えば、初期値基準差分情報が格納されるサンプルを通常再生時に利用されないサンプルとして管理する管理情報が、その通常再生時に利用するサンプルであるか否かを示す識別情報を含むようにしてもよい。
 例えば非特許文献5に記載のように、ISOBMFFにおいて規定されるサンプルディペンデンシータイプボックス(SampleDependencyTypeBox)に、サンプルの冗長性を示すサンプルハズリダンダンシーフラグ(sample_has_redundancy flag)を格納することができる。サンプルハズリダンダンシーフラグは、その値が「1」である場合(sample_has_redundancy flag = 1)、他のサンプルと冗長な情報を含むサンプルであることを示す。また、サンプルハズリダンダンシーフラグは、その値が「2」である場合(sample_has_redundancy flag = 2)、他のサンプルと冗長な情報を含まないサンプルであることを示す。さらに、サンプルハズリダンダンシーフラグは、その値が「0」である場合(sample_has_redundancy flag = 0)、そのサンプルが他のサンプルと冗長な情報を含むか否かが不明であることを示す。
 サンプルディペンデンシータイプボックス(SampleDependencyTypeBox)の記述例を図21に示す。図21に示されるように、このサンプルディペンデンシータイプボックスにおいては、サンプル毎にサンプルハズリダンダンシーフラグを格納することができる。
 このようなサンプルハズリダンダンシーフラグ(sample_has_redundancy flag)を、通常再生時に利用するサンプルであるか否かを示す識別情報として用いてもよい。つまり、サンプルディペンデンシータイプボックスにおいて、初期値基準差分情報が格納されるサンプルについて、値が「1」のサンプルハズリダンダンシーフラグ(sample_has_redundancy flag = 1)を格納する。つまり、このサンプルが、他のサンプルと冗長な情報を含むことが示される。クライアント装置は、通常再生の際に、このサンプルハズリダンダンシーフラグの値が「1」のサンプルの取得を省略する。このようにすることにより、クライアント装置は、通常再生の際に、サンプル内部をパースせずに、容易に、初期値基準差分情報が格納されるサンプルの取得を省略することができる。つまり、通常再生として更新ファイルのサンプルを順次取得する際に、クライアント装置は、このサンプルハズリダンダンシーフラグに基づいて容易に、初期値基準差分情報が格納されるサンプルを取得せず、直前値基準差分情報が格納されるサンプルのみを取得することができる。
  <方法1-3-3>
 また、方法1-3を適用する場合、図13に示される表の上から13段目に示されるように、ファイルの管理領域において、初期値基準差分情報が格納されるサンプルが、ランダムアクセス可能なサンプルとして管理されてもよい(方法1-3-3)。
 例えば、ファイル生成部は、初期値基準差分情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報を更新ファイルの管理領域に格納してもよい。また、差分情報取得部は、更新ファイルの管理領域に格納される、初期値基準差分情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報に基づいて、初期値基準差分情報を取得してもよい。
 例えば、<方法1-2-3>の場合と同様に、初期値基準差分情報が格納されるサンプルを、シンクサンプルとして、シンクサンプルボックス(SyncSampleBox)内に記述する。このようにすることにより、クライアント装置は、そのシンクサンプルボックスを参照することにより、容易に(サンプル内部をパースせずに)、ランダムアクセス可能なサンプルを特定することができる。すなわち、クライアント装置は、この情報に基づいて、初期値基準差分情報が格納されるサンプルをより容易に特定することができる。
  <方法1-4>
 また方法1を適用する場合、図13に示される表の上から14段目に示されるように、初期値基準差分情報が、直前値基準差分情報と置き換えられてもよい(方法1-4)。なお、直前値基準差分情報は、<方法1-1>において上述したように、直前の更新情報までの更新が反映された空間配置情報を基準とする差分情報である。
 例えば、ファイル生成部は、更新ファイルに格納される、更新適用時刻が初期値基準差分情報と同一の直前値基準差分情報を、初期値基準差分情報に置き換えてもよい。また、差分情報取得部は、更新ファイルに格納される、更新適用時刻が初期値基準差分情報と同一の直前値基準差分情報と置き換えられた初期値基準差分情報を取得してもよい。
 図22にその場合の例を示す。図22の例において、JSONパッチ101(JSONパッチ101-1およびJSONパッチ101-2)は、初期値基準差分情報であり、ランダムアクセスポイントのデータである。この方法1-4の場合、方法1-2や方法1ー3の場合と同様に、JSONパッチ101は、直前値基準差分情報であるJSONパッチ82のサンプルと同一のトラック(Track #1)に格納される。ただし、この方法1-4の場合、JSONパッチ101のサンプルは、そのJSONパッチ101に対応する(更新適用タイミングが同一の)JSONパッチ82のサンプルと置き換えられている。
 例えば、JSONパッチ101-1は、図20の例において、JSONパッチ82-6と更新適用タイミングが同一である。図22の例においては、JSONパッチ101-1のサンプルは、そのJSONパッチ82-6のサンプルと置き換えられている。つまり、JSONパッチ82-6のサンプルが削除され、その代わりに、JSONパッチ101-1のサンプルが配置されている。
 同様に、JSONパッチ101-2は、図20の例において、JSONパッチ82-9と更新適用タイミングが同一である。図22の例においては、JSONパッチ101-2のサンプルは、そのJSONパッチ82-9のサンプルと置き換えられている。つまり、JSONパッチ82-9のサンプルが削除され、その代わりに、JSONパッチ101-2のサンプルが配置されている。
 したがって、通常再生の場合、ランダムアクセスポイントのサンプル以外のサンプルの更新適用タイミングのシーンディスクリプションは、直前値基準差分情報(JSONパッチ82)と、その1つ前のタイミングのシーンディスクリプションとを用いて生成される。これに対して、ランダムアクセスポイントのサンプルの更新適用タイミングのシーンディスクリプションは、通常再生の場合も、ランダムアクセスの場合も、初期値基準差分情報(JSONパッチ101)と、シーンディスクリプションの初期値(シーンディスクリプション81-0)を用いて生成される。
 このようにすることにより、方法1-2や方法1-3の場合と比べて、更新ファイルのデータ量を低減させることができる。
 なお、この方法1-4の場合、方法1-3の場合のように初期値基準差分情報と更新適用タイミングが同一の直前値基準差分情報が存在しないので、サンプルハズリダンダンシーフラグは不要である(省略し得る)。
  <方法1-4-1>
 また、方法1-4を適用する場合、図13に示される表の最下段に示されるように、ファイルの管理領域において、初期値基準差分情報が格納されるサンプルが、ランダムアクセス可能なサンプルとして管理されてもよい(方法1-3-3)。
 例えば、ファイル生成部は、初期値基準差分情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報を更新ファイルの管理領域に格納してもよい。また、差分情報取得部は、更新ファイルの管理領域に格納される、初期値基準差分情報が格納されるサンプルをランダムアクセス可能な前記サンプルとして管理する管理情報に基づいて、初期値基準差分情報を取得してもよい。
 例えば、<方法1-2-3>の場合と同様に、初期値基準差分情報が格納されるサンプルを、シンクサンプルとして、シンクサンプルボックス(SyncSampleBox)内に記述する。このようにすることにより、クライアント装置は、そのシンクサンプルボックスを参照することにより、容易に(サンプル内部をパースせずに)、ランダムアクセス可能なサンプルを特定することができる。すなわち、クライアント装置は、この情報に基づいて、初期値基準差分情報が格納されるサンプルをより容易に特定することができる。
 <3.初期値基準差分情報または更新後情報の伝送>
  <方法2>
 また、ランダムアクセスポイントとして、初期値基準差分情報または更新後情報を用意し、クライアント装置がランダムアクセスする際に、その初期値基準差分情報または更新後情報を提供するようにする。つまり、図23に示される表の最上段に示されるように、ランダムアクセスポイントとして、初期値基準差分情報または更新後情報がファイルに格納されるようにする(方法2)。
 初期値基準差分情報は、<2.初期値基準差分情報の伝送>において上述したとおり、シーンディスクリプションの初期値を基準とする差分情報である。更新後情報は、初期値から処理対象サンプルまでの各直前値基準差分情報の更新が反映されたシーンディスクリプションである。換言するに、更新後情報は、シーンディスクリプションの初期値に対して初期値基準差分情報の更新が反映されたシーンディスクリプションである。
 例えば、シーンディスクリプションの更新情報を格納するファイルを生成する情報処理装置において、1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報(すなわちシーンディスクリプション)を更新するための更新情報として、その空間配置情報の初期値を基準とする差分情報である初期値基準差分情報、または、その空間配置情報の初期値にその初期値基準差分情報の更新が反映された更新後情報を生成する更新情報生成部と、その更新情報を格納する更新ファイルを生成し、ランダムアクセスポイントとして初期値基準差分情報または更新後情報をその更新ファイルに格納するファイル生成部とを備えるようにする。
 また、例えば、シーンディスクリプションの更新情報を格納するファイルを生成する情報処理方法において、1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報(すなわちシーンディスクリプション)を更新するための更新情報として、その空間配置情報の初期値を基準とする差分情報である初期値基準差分情報、または、その空間配置情報の初期値にその初期値基準差分情報の更新が反映された更新後情報を生成し、その更新情報を格納する更新ファイルを生成し、ランダムアクセスポイントとして初期値基準差分情報または更新後情報をその更新ファイルに格納するようにする。
 例えば、シーンディスクリプションの更新情報を格納するファイルを取得し、シーンディスクリプションを更新する情報処理装置において、1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報(すなわちシーンディスクリプション)を更新するための更新情報を格納する更新ファイルにランダムアクセスポイントとして格納される、その空間配置情報の初期値を基準とする差分情報である初期値基準差分情報、または、その空間配置情報の初期値にその初期値基準差分情報の更新が反映された更新後情報を、更新情報として取得する更新情報取得部と、その空間配置情報の初期値に初期値基準差分情報の更新を反映するか、または、更新後情報を適用することにより、初期値基準差分情報の更新適用時刻の空間配置情報を生成する空間配置情報生成部とを備えるようにする。
 また、例えば、シーンディスクリプションの更新情報を格納するファイルを取得し、シーンディスクリプションを更新する情報処理方法において、1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報(すなわちシーンディスクリプション)を更新するための更新情報を格納する更新ファイルにランダムアクセスポイントとして格納される、その空間配置情報の初期値を基準とする差分情報である初期値基準差分情報、または、その空間配置情報の初期値にその初期値基準差分情報の更新が反映された更新後情報を、更新情報として取得し、その空間配置情報の初期値に初期値基準差分情報の更新を反映するか、または、その更新後情報を適用することにより、初期値基準差分情報の更新適用時刻の空間配置情報を生成するようにする。
 ランダムアクセスポイントとして初期値基準差分情報がファイルに格納される場合、方法1の場合と同様である。すなわち、シーンディスクリプションにランダムアクセスするクライアント装置の処理負荷の増大を抑制することができる。
 ところでこの場合、例えばシーンディスクリプションのほぼ全てを更新するようなケースでは、初期値基準差分情報の情報量は、シーンディスクリプションとほぼ同程度となる。つまり、このケースの場合、図12の例と比較して、ランダムアクセスの際にクライアント装置に伝送される情報量はほぼ同程度のまま、クライアント装置において行われる更新処理が増大することになる。
 これに対して、ランダムアクセスポイントとして更新後情報がファイルに格納される場合、ランダムアクセスの際に、クライアント装置においてシーンディスクリプションの更新処理は行われない。したがって、この場合、上述のように、シーンディスクリプションのほぼ全てを更新するようなケースでは、図14の例と比較して、ランダムアクセスの際にクライアント装置に伝送される情報量はほぼ同程度のまま、クライアント装置において行われる更新処理を低減することができる。
 つまり、ランダムアクセスポイントとして、初期値基準差分情報または更新後情報がファイルに格納されるようにすることにより、より多様なケースにおいて、シーンディスクリプションにランダムアクセスする際の処理負荷の増大を抑制することができる。例えば、上述のようにシーンディスクリプションの更新される情報量が大きい場合は、ランダムアクセスポイントとして更新後情報をファイルに格納し、シーンディスクリプションの更新される情報量が小さい場合は、ランダムアクセスポイントとして初期値基準差分情報をファイルに格納することにより、シーンディスクリプションの更新される情報量に関わらず、シーンディスクリプションにランダムアクセスするクライアント装置の処理負荷の増大を抑制することができる。
 なお、ランダムアクセスポイントとして初期値基準差分情報を格納するか、更新後情報を格納するかの選択方法は任意である。任意の情報に基づいてどちらを格納するかを選択してもよいし、例えばユーザ指示やアプリケーションの要求等、外部からの要求や指示に応じて選択してもよい。
  <方法2-1>
 このような方法2を適用する場合、図23に示される表の上から2段目に示されるように、初期値基準差分情報または更新後情報が、直前値基準差分情報とは異なるトラックに格納されてもよい(方法2-1)。なお、直前値基準差分情報は、<方法1-1>等において上述したように、直前の更新情報までの更新が反映された空間配置情報を基準とする差分情報である。
 例えば、ファイル生成部は、更新ファイルの直前値基準差分情報とは異なるトラックに初期値基準差分情報または更新後情報を格納してもよい。また、更新情報取得部は、更新ファイルの直前値基準差分情報とは異なるトラックに格納された初期値基準差分情報または更新後情報を取得してもよい。
 ランダムアクセスポイントとして、初期値基準差分情報が直前値基準差分情報とは異なるトラックに格納される場合、その初期値基準差分情報は、図14の例のように格納される。したがって、方法1-1の場合と同様に、クライアント装置は、トラックを指定することにより、より容易に、初期値基準差分情報(JSONパッチ101)のサンプルを、直前値基準差分情報(JSONパッチ82)のサンプルとは独立に取得し得る。
 また、ランダムアクセスポイントとして、更新後情報が直前値基準差分情報とは異なるトラックに格納される場合、その更新後情報は、図12の例のように格納される。つまり、クライアント装置は、ランダムアクセスの際に、シーンディスクリプションの更新を行わずに、最新のシーンディスクリプションを得ることができる。
 なお、ランダムアクセスポイントとして初期値基準差分情報を格納するか、更新後情報を格納するかの選択は、任意のデータ単位で行われるようにしてもよい。例えば、図12や図14の例のように、シーケンス単位でこの選択が行われるようにしてもよい。つまり、この場合、初期値基準差分情報および更新後情報は、同一トラックに混在しない(いずれか一方のみが格納される)。
 これに対して、サンプル毎に(ランダムアクセスポイント毎に)初期値基準差分情報を格納するか、更新後情報を格納するかの選択が行われるようにしてもよい。図24にその場合の例を示す。図24の例においては、ランダムアクセスポイントのデータとして、JSONパッチ101-1とシーンディスクリプション83-2が同一トラック(Track #2)に格納されている。JSONパッチ101-1は初期値基準差分情報であり、シーンディスクリプション83-2は更新後情報である。つまり、この場合、初期値基準差分情報および更新後情報が同一トラックに混在し得る。
 なお、この場合も、方法1-1の場合と同様に、ランダムアクセスポイントとして格納する差分情報は、初期値以外を基準としてもよい。
  <方法2-1-1>
 このような方法2-1を適用する場合、図23に示される表の上から3段目に示されるように、初期値基準差分情報または更新後情報を格納するトラックへのリンク情報が、ランダムアクセス用のリンク情報として、シーンディスクリプション(SD)の初期値に格納されるようにしてもよい(方法2-1-1)。
 例えば、ファイル生成部は、空間配置情報の初期値を格納する初期値ファイルを生成し、初期値基準差分情報または更新後情報を格納するトラックへのリンクを示すリンク情報を、ランダムアクセス用のリンク情報として格納してもよい。また、更新情報取得部は、空間配置情報の初期値を格納する初期値ファイルにランダムアクセス用のリンク情報として格納された、初期値基準差分情報または更新後情報を格納するトラックへのリンクを示すリンク情報を用いて、初期値基準差分情報または更新後情報を取得してもよい。
 図25にその場合のシーンディスクリプション81-0の記述例の一部を示す。図25に示されるように、シーンディスクリプション81-0(Scene.gltf)には、直前値基準差分情報のサンプルを格納するトラックへのリンク情報("uri":scen_updata.json-patch)とは別に、初期値基準差分情報または更新後情報のサンプルを格納するトラックへのリンク情報("uri_for_random_access": random_access.json)が記述されている。直前値基準差分情報のサンプルを格納するトラックへのリンク情報は、通常再生の際に利用されるリンク情報である。これに対して、初期値基準差分情報または更新後情報のサンプルを格納するトラックへのリンク情報は、ランダムアクセスの際に利用されるリンク情報である。つまり、図15の例においては、これらの両者を識別可能な状態でリンク情報が記述されている。すなわち、初期値基準差分情報または更新後情報のサンプルを格納するトラックへのリンク情報が、ランダムアクセス用のリンク情報として、シーンディスクリプションの初期値に格納されている。このようにすることにより、クライアント装置は、適切な更新情報が格納されているトラックをより容易に識別することができる。例えば、クライアント装置は、通常再生の際に、直前値基準差分情報のサンプルを得るためのリンク情報をより容易に選択することができる。また、クライアント装置は、ランダムアクセスの際に、初期値基準差分情報または更新後情報のサンプルを得るためのリンク情報をより容易に選択することができる。
  <方法2-2>
 また方法2を適用する場合、図23に示される表の上から4段目に示されるように、初期値基準差分情報または更新後情報が、直前値基準差分情報と同一トラックの同一サンプルに格納されてもよい(方法2-2)。なお、直前値基準差分情報は、<方法1-1>において上述したように、直前の更新情報までの更新が反映された空間配置情報を基準とする差分情報である。
 例えば、ファイル生成部は、更新ファイルの直前値基準差分情報と同一のトラックの同一のサンプルに初期値基準差分情報または更新後情報を格納してもよい。また、更新情報取得部は、更新ファイルの直前値基準差分情報と同一のトラックの同一のサンプルに格納された初期値基準差分情報または更新後情報を取得してもよい。
 ランダムアクセスポイントとして、初期値基準差分情報が直前値基準差分情報と同一のトラックの同一のサンプルに格納される場合、その初期値基準差分情報は、図16の例のように格納される。したがって、方法1-2の場合と同様に、クライアント装置は、更新ファイルのトラックを1つにすることができる。したがって、クライアント装置は、通常再生の際も、ランダムアクセスの際も、同一のリンク情報を用いて更新情報(直前値基準差分情報または初期値基準差分情報)を得ることができる。
 また、ランダムアクセスポイントとして、更新後情報が直前値基準差分情報と同一のトラックの同一のサンプルに格納される場合、その更新後情報は、例えば図26の例のように格納される。つまり、シーンディスクリプション83-1(更新後情報)は、JSONパッチ82-6と同一のサンプル131-1に格納される。JSONパッチ82-6が適用された更新結果は、シーンディスクリプション83-1と等価である。また、シーンディスクリプション83-2(更新後情報)は、JSONパッチ82-9と同一のサンプル131-2に格納される。JSONパッチ82-9が適用された更新結果は、シーンディスクリプション83-2と等価である。このようにすることにより、更新ファイルのトラックを1つにすることができる。したがって、クライアント装置は、通常再生の際も、ランダムアクセスの際も、同一のリンク情報を用いて更新情報(直前値基準差分情報または更新後情報)を得ることができる。
 なお、ランダムアクセスポイントとして初期値基準差分情報を格納するか、更新後情報を格納するかの選択は、任意のデータ単位で行われるようにしてもよい。例えば、図16や図26の例のように、シーケンス単位でこの選択が行われるようにしてもよい。つまり、この場合、初期値基準差分情報および更新後情報は、同一トラックに混在しない(いずれか一方のみが格納される)。
 これに対して、サンプル毎に(ランダムアクセスポイント毎に)初期値基準差分情報を格納するか、更新後情報を格納するかの選択が行われるようにしてもよい。図27にその場合の例を示す。図27の例においては、JSONパッチ101-1は、ランダムアクセスポイントのデータとして、JSONパッチ82-6と同一トラックの同一サンプル132-1に格納されている。また、シーンディスクリプション83-2は、ランダムアクセスポイントのデータとして、JSONパッチ82-9と同一トラックの同一サンプル132-2に格納されている。つまり、JSONパッチ101-1とシーンディスクリプション83-2が同一トラック(Track #1)に格納されている。JSONパッチ101-1は初期値基準差分情報であり、シーンディスクリプション83-2は更新後情報である。つまり、この場合、初期値基準差分情報および更新後情報が同一トラックに混在し得る。
  <方法2-2-1>
 このような方法2-2を適用する場合、ランダムアクセスポイントのサンプルは、直前値基準差分情報並びに初期値基準差分情報若しくは更新後情報が1つのサンプルとしてまとめられる。そこで、これらの情報をクライアント装置が区別して利用することができるように直前値基準差分情報並びに初期値基準差分情報若しくは更新後情報が格納されてもよい。つまり、図23に示される表の上から5段目に示されるように、直前値基準差分情報並びに初期値基準差分情報若しくは更新後情報のそれぞれを要素とするリストとして格納されてもよい(方法2-2-1)。
 例えば、ファイル生成部は、直前値基準差分情報並びに初期値基準差分情報若しくは更新後情報を、それぞれを要素とするリストとして格納してもよい。また、直前値基準差分情報並びに初期値基準差分情報若しくは更新後情報は、それぞれを要素とするリストとしてサンプルに格納されてもよい。
 つまり、図17を参照して説明した方法1-2-1の場合と同様に、直前値基準差分情報および初期値基準差分情報が同一サンプルに格納される場合、その直前値基準差分情報および初期値基準差分情報がそれぞれ[]で区切られ、リストの要素として記述される。直前値基準差分情報および更新後情報が同一サンプルに格納される場合も同様に、その直前値基準差分情報および更新後情報がそれぞれ[]で区切られ、リストの要素として記述される。
 このように、クライアント装置は、より容易に、直前値基準差分情報並びに初期値基準差分情報若しくは更新後情報を取得することができる。
  <方法2-2-2>
 また、方法2-2を適用する場合、図23に示される表の上から6段目に示されるように、ファイルの管理領域において、直前値基準差分情報並びに初期値基準差分情報若しくは更新後情報が、それぞれサブサンプルとして管理されてもよい(方法2-2-2)。
 例えば、ファイル生成部は、直前値基準差分情報並びに初期値基準差分情報若しくは更新後情報のそれぞれをサブサンプルとして管理する管理情報を更新ファイルの管理領域に格納してもよい。また、更新情報取得部は、更新ファイルの管理領域に格納される、直前値基準差分情報並びに初期値基準差分情報若しくは更新後情報のそれぞれをサブサンプルとして管理する管理情報に基づいて、初期値基準差分情報または更新後情報を取得してもよい。
 例えば、ISOBMFFのサブサンプルインフォメーションボックス(Sub sample information box)において、サンプル内のデータをサブサンプル(sub sample)として分割し、それぞれのサブサンプルのデータサイズ(subsample_size)を格納するようにする。これにより、クライアント装置は、サンプル内のデータを先頭から解釈することなく、途中のデータであるサブサンプルのデータを取得することができる。
 つまり、方法1-2-2の場合と同様に、直前値基準差分情報および初期値基準差分情報のそれぞれをサブサンプルとして管理する管理情報が更新ファイルの管理領域に格納されることにより、クライアント装置は、その管理情報に基づいて、サンプル内部をパースせずに、サンプルから直前値基準差分情報または初期値基準差分情報を取得することができる。同様に、直前値基準差分情報および更新後情報のそれぞれをサブサンプルとして管理する管理情報が更新ファイルの管理領域に格納されることにより、クライアント装置は、その管理情報に基づいて、サンプル内部をパースせずに、サンプルから直前値基準差分情報または更新後情報を取得することができる。すなわち、クライアント装置は、より容易に直前値基準差分情報や初期値基準差分情報や更新後情報を取得することができる。
  <方法2-2-2-1>
 この方法2-2-2を適用する場合、図23に示される表の上から7段目に示されるように、直前値基準差分情報が格納されるサブサンプルと初期値基準差分情報または更新後情報が格納されるサブサンプルとを識別する識別情報が、ファイルの管理領域に格納されてもよい(方法2-2-2-1)。
 例えば、直前値基準差分情報並びに初期値基準差分情報若しくは更新後情報のそれぞれをサブサンプルとして管理する管理情報が、直前値基準差分情報が格納されるサブサンプルと初期値基準差分情報または更新後情報が格納されるサブサンプルとを識別する識別情報を含むようにしてもよい。
 例えば、ISOBMFFのサブサンプルインフォメーションボックス(Sub sample information box)に格納されるコーデックスピシフィックパラメータ(codec_specific_parameters)を直前値基準差分情報が格納されるサブサンプルと初期値基準差分情報または更新情報が格納されるサブサンプルとを識別する識別情報として用いてもよい。
 例えば、コーデックスピシフィックパラメータが偽(codec_specific_parameters = 0)の場合、そのサブピクチャが直前値基準差分情報であることを示し、コーデックスピシフィックパラメータが真(codec_specific_parameters = 1)の場合、そのサブピクチャが初期値基準差分情報または更新後情報であることを示す。クライアント装置は、このコーデックスピシフィックパラメータの値を参照することにより、直前値基準差分情報が格納されるサブサンプルであるか、初期値基準差分情報または更新後情報が格納されるサブサンプルであるかを容易に(サンプル内部をパースせずに)識別することができる。
  <方法2-2-3>
 また、方法2-2を適用する場合、図23に示される表の上から8段目に示されるように、ファイルの管理領域において、初期値基準差分情報または更新後情報が格納されるサンプルが、ランダムアクセス可能なサンプルとして管理されてもよい(方法2-2-3)。
 例えば、ファイル生成部は、初期値基準差分情報または更新後情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報を更新ファイルの管理領域に格納してもよい。また、更新情報取得部は、更新ファイルの管理領域に格納される、初期値基準差分情報または更新後情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報に基づいて、初期値基準差分情報または更新後情報を取得してもよい。
 例えば、ISOBMFFのシンクサンプルボックス(SyncSampleBox)内において、初期値基準差分情報が格納されるサンプルを、シンクサンプル(SyncSample)として記述する。このシンクサンプルは、ランダムアクセス可能なサンプルである。初期値基準差分情報または更新後情報が格納されるサンプルを、シンクサンプルボックス(SyncSampleBox)内に記述することにより、クライアント装置は、そのシンクサンプルボックスを参照することにより、容易に(サンプル内部をパースせずに)、ランダムアクセス可能なサンプルを特定することができる。すなわち、クライアント装置は、この情報に基づいて、初期値基準差分情報または更新後情報が格納されるサンプルをより容易に特定することができる。
  <方法2-3>
 また方法2を適用する場合、図23に示される表の上から9段目に示されるように、初期値基準差分情報または更新後情報が、直前値基準差分情報と同一トラックの異なるサンプルに格納されてもよい(方法2-3)。なお、直前値基準差分情報は、<方法1-1>において上述したように、直前の更新情報までの更新が反映された空間配置情報を基準とする差分情報である。
 例えば、ファイル生成部は、更新ファイルの直前値基準差分情報と同一のトラックの異なるサンプルに初期値基準差分情報または更新後情報を格納してもよい。また、更新情報取得部は、更新ファイルの直前値基準差分情報と同一のトラックの異なるサンプルに格納された初期値基準差分情報または更新後情報を取得してもよい。
 ランダムアクセスポイントとして、初期値基準差分情報が直前値基準差分情報と同一のトラックの異なるサンプルに格納される場合、その初期値基準差分情報は、図20の例のように格納される。したがって、方法1-3の場合と同様に、更新ファイルのトラックを1つにすることができる。したがって、クライアント装置は、通常再生の際も、ランダムアクセスの際も、同一のリンク情報を用いて更新情報(直前値基準差分情報または初期値基準差分情報)を得ることができる。また、サンプルには、直前値基準差分情報または初期値基準差分情報が格納されるので(直前値基準差分情報および初期値基準差分情報が同一サンプルに格納されないので)、クライアント装置は、サンプルを選択することにより、直前値基準差分情報または初期値基準差分情報を選択することができる。
 これに対して、ランダムアクセスポイントとして、更新後情報が直前値基準差分情報と同一のトラックの異なるサンプルに格納される場合、その更新後情報は、例えば図28の例のように格納される。図28の例において、シーンディスクリプション83-1(更新後情報)は、JSONパッチ82-6と同一のトラック(Track #1)の、JSONパッチ82-6が格納されるサンプルの次のサンプルに格納される。JSONパッチ82-6が適用された更新結果は、シーンディスクリプション83-1と等価である。また、シーンディスクリプション83-2(更新後情報)は、JSONパッチ82-9と同一のトラック(Track #1)の、JSONパッチ82-9が格納されるサンプルの次のサンプルに格納される。JSONパッチ82-9が適用された更新結果は、シーンディスクリプション83-2と等価である。
 このようにすることにより、更新ファイルのトラックを1つにすることができる。したがって、クライアント装置は、通常再生の際も、ランダムアクセスの際も、同一のリンク情報を用いて更新情報(直前値基準差分情報または更新後情報)を得ることができる。また、サンプルには、直前値基準差分情報または更新後情報が格納されるので(直前値基準差分情報および更新後情報が同一サンプルに格納されないので)、クライアント装置は、サンプルを選択することにより、直前値基準差分情報または更新後情報を選択することができる。
 なお、ランダムアクセスポイントとして初期値基準差分情報を格納するか、更新後情報を格納するかの選択は、任意のデータ単位で行われるようにしてもよい。例えば、図20や図28の例のように、シーケンス単位でこの選択が行われるようにしてもよい。つまり、この場合、初期値基準差分情報および更新後情報は、同一トラックに混在しない(いずれか一方のみが格納される)。
 これに対して、サンプル毎に(ランダムアクセスポイント毎に)初期値基準差分情報を格納するか、更新後情報を格納するかの選択が行われるようにしてもよい。図29にその場合の例を示す。図29の例においては、JSONパッチ101-1は、ランダムアクセスポイントのデータとして、JSONパッチ82-6の次のサンプルに格納されている。また、シーンディスクリプション83-2は、ランダムアクセスポイントのデータとして、JSONパッチ82-9の次のサンプルに格納されている。つまり、JSONパッチ101-1とシーンディスクリプション83-2が同一トラック(Track #1)に格納されている。JSONパッチ101-1は初期値基準差分情報であり、シーンディスクリプション83-2は更新後情報である。つまり、この場合、初期値基準差分情報および更新後情報が同一トラックに混在し得る。
  <方法2-3-1>
 このような方法2-3を適用する場合、図23に示される表の上から10段目に示されるように、直前値基準差分情報が格納されるサンプルと同一の更新適用時刻情報が、その直前値基準差分情報と同一のタイミングで更新が適用される初期値基準差分情報または更新後情報が格納されるサンプルに格納されてもよい(方法2-3-1)。
 例えば、ファイル生成部は、直前値基準差分情報が格納されるサンプルと同一の更新適用時刻情報を、初期値基準差分情報または更新後情報が格納されるサンプルに格納してもよい。また、初期値基準差分情報または更新後情報が格納されるサンプルには、直前値基準差分情報が格納されるサンプルと同一の更新適用時刻情報が格納されてもよい。
 方法1-3-1の場合と同様に、更新が実行される時刻を指定する時刻情報がサンプルに格納されるようにし、初期値基準差分情報または更新後情報が格納されるサンプルには、更新適用のタイミングがその初期値基準差分情報と同一の直前値基準差分情報が格納されるサンプルと同一の時刻情報が格納されるようにする。例えば、図20の場合、JSONパッチ82-6のサンプルと、その1つ後のJSONパッチ101-1のサンプルに、互いに同一の時刻情報が格納される。また、JSONパッチ82-9のサンプルと、その1つ後のJSONパッチ101-2のサンプルに、互いに同一の時刻情報が格納される。また、図28の例の場合、JSONパッチ82-6のサンプルと、その1つ後のシーンディスクリプション83-1のサンプルに、互いに同一の時刻情報が格納される。また、JSONパッチ82-9のサンプルと、その1つ後のシーンディスクリプション83-2のサンプルに、互いに同一の時刻情報が格納される。また、図29の例の場合、JSONパッチ82-6のサンプルと、その1つ後のJSONパッチ101-1のサンプルに、互いに同一の時刻情報が格納される。また、JSONパッチ82-9のサンプルと、その1つ後のシーンディスクリプション83-2のサンプルに、互いに同一の時刻情報が格納される。
 このようにすることにより、クライアント装置は、サンプル内部をパースせずに、容易に、初期値基準差分情報または更新後情報に対応する(更新適用タイミングが初期値基準差分情報または更新後情報と同一の)直前値基準差分情報を特定することができる。
  <方法2-3-2>
 また方法2-3を適用する場合、図23に示される表の上から11段目に示されるように、ファイルの管理領域において、初期値基準差分情報または更新後情報が格納されるサンプルが、通常再生時に利用されないサンプルとして管理されてもよい(方法2-3-2)。
 例えば、ファイル生成部は、初期値基準差分情報または更新後情報が格納されるサンプルを通常再生時に利用されないサンプルとして管理する管理情報を、更新ファイルの管理領域に格納してもよい。また、更新情報取得部は、更新ファイルの管理領域に格納される、初期値基準差分情報または更新後情報が格納されるサンプルを通常再生時に利用されないサンプルとして管理する管理情報に基づいて、初期値基準差分情報または更新後情報を取得してもよい。
 更新情報を格納する更新ファイルの管理領域において、初期値基準差分情報または更新後情報が格納されるサンプルを、通常再生時に利用されないサンプルとして管理することにより、クライアント装置は、通常再生の際に、サンプル内部をパースせずに、容易に、初期値基準差分情報または更新後情報が格納されるサンプルの取得を省略することができる。つまり、通常再生として更新ファイルのサンプルを順次取得する際に、クライアント装置は、この管理情報に基づいて容易に、初期値基準差分情報または更新後情報が格納されるサンプルを取得せず、直前値基準差分情報が格納されるサンプルのみを取得することができる。
 換言するに、クライアント装置は、ランダムアクセスの際に、サンプル内部をパースせずに、容易に、初期値基準差分情報または更新後情報が格納されるサンプルを取得することができる。つまり、ランダムアクセスを行う場合、クライアント装置は、この管理情報に基づいて容易に、初期値基準差分情報または更新後情報が格納されるサンプルを取得することができる。
  <方法2-3-2-1>
 このような方法2-3-2を適用する場合、図23に示される表の上から12段目に示されるように、通常再生時に利用するサンプルであるか否かを示す識別情報が、サンプル毎にファイルの管理領域に格納されてもよい(方法2-3-2-1)。
 例えば、初期値基準差分情報または更新後情報が格納されるサンプルを通常再生時に利用されないサンプルとして管理する管理情報が、その通常再生時に利用するサンプルであるか否かを示す識別情報を含むようにしてもよい。
 例えば、方法1-3-2-1の場合と同様に、サンプルディペンデンシータイプボックス(SampleDependencyTypeBox)に記述されるサンプルハズリダンダンシーフラグ(sample_has_redundancy flag)を、通常再生時に利用するサンプルであるか否かを示す識別情報として用いてもよい。つまり、サンプルディペンデンシータイプボックスにおいて、初期値基準差分情報または更新後情報が格納されるサンプルについて、値が「1」のサンプルハズリダンダンシーフラグ(sample_has_redundancy flag = 1)を格納する。そして、クライアント装置は、通常再生の際に、このサンプルハズリダンダンシーフラグの値が「1」のサンプルの取得を省略する。このようにすることにより、クライアント装置は、通常再生の際に、サンプル内部をパースせずに、容易に、初期値基準差分情報または更新後情報が格納されるサンプルの取得を省略することができる。つまり、通常再生として更新ファイルのサンプルを順次取得する際に、クライアント装置は、このサンプルハズリダンダンシーフラグに基づいて容易に、初期値基準差分情報または更新後情報が格納されるサンプルを取得せず、直前値基準差分情報が格納されるサンプルのみを取得することができる。
  <方法2-3-3>
 また、方法2-3を適用する場合、図23に示される表の上から13段目に示されるように、ファイルの管理領域において、初期値基準差分情報または更新後情報が格納されるサンプルが、ランダムアクセス可能なサンプルとして管理されてもよい(方法2-3-3)。
 例えば、ファイル生成部は、初期値基準差分情報または更新後情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報を更新ファイルの管理領域に格納してもよい。また、更新情報取得部は、更新ファイルの管理領域に格納される、初期値基準差分情報または更新後情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報に基づいて、初期値基準差分情報または更新後情報を取得してもよい。
 例えば、<方法2-2-3>の場合と同様に、初期値基準差分情報または更新後情報が格納されるサンプルを、シンクサンプルとして、シンクサンプルボックス(SyncSampleBox)内に記述する。このようにすることにより、クライアント装置は、そのシンクサンプルボックスを参照することにより、容易に(サンプル内部をパースせずに)、ランダムアクセス可能なサンプルを特定することができる。すなわち、クライアント装置は、この情報に基づいて、初期値基準差分情報または更新後情報が格納されるサンプルをより容易に特定することができる。
  <方法2-4>
 また方法2を適用する場合、図23に示される表の上から14段目に示されるように、初期値基準差分情報または更新後情報が、直前値基準差分情報と置き換えられてもよい(方法2-4)。なお、直前値基準差分情報は、<方法1-1>において上述したように、直前の更新情報までの更新が反映された空間配置情報を基準とする差分情報である。
 例えば、ファイル生成部は、更新ファイルに格納される、更新適用時刻が初期値基準差分情報または更新後情報と同一の直前値基準差分情報を、その初期値基準差分情報または更新後情報に置き換えてもよい。また、更新情報取得部は、更新ファイルに格納される、更新適用時刻が初期値基準差分情報または更新後情報と同一の直前値基準差分情報と置き換えられた初期値基準差分情報または更新後情報を取得してもよい。
 ランダムアクセスポイントとして、初期値基準差分情報が直前値基準差分情報と置き換えられる場合、その初期値基準差分情報は、図22の例のように格納される。したがって、方法1-4の場合と同様に、方法2-2や方法2-3の場合と比べて、更新ファイルのデータ量を低減させることができる。
 これに対して、ランダムアクセスポイントとして、更新後情報が直前値基準差分情報と置き換えられる場合、その更新後情報は、例えば図30の例のように格納される。図30の例において、シーンディスクリプション83-1(更新後情報)のサンプルは、JSONパッチ82-6のサンプルと置き換えられている。同様に、シーンディスクリプション83-2(更新後情報)のサンプルは、JSONパッチ82-9のサンプルと置き換えられている。
 したがって、通常再生の場合、ランダムアクセスポイントのサンプル以外のサンプルの更新適用タイミングのシーンディスクリプションは、直前値基準差分情報(JSONパッチ82)と、その1つ前のタイミングのシーンディスクリプションとを用いて生成される。これに対して、ランダムアクセスポイントのサンプルの更新適用タイミングのシーンディスクリプションとして、通常再生の場合も、ランダムアクセスの場合も、更新後情報(シーンディスクリプション83)が適用される。
 このようにすることにより、方法1-2や方法1-3の場合と比べて、更新ファイルのデータ量を低減させることができる。
 なお、ランダムアクセスポイントとして初期値基準差分情報を格納するか、更新後情報を格納するかの選択は、任意のデータ単位で行われるようにしてもよい。例えば、図22や図30の例のように、シーケンス単位でこの選択が行われるようにしてもよい。つまり、この場合、初期値基準差分情報および更新後情報は、同一トラックに混在しない(いずれか一方のみが格納される)。
 これに対して、サンプル毎に(ランダムアクセスポイント毎に)初期値基準差分情報を格納するか、更新後情報を格納するかの選択が行われるようにしてもよい。図31にその場合の例を示す。図31の例において、JSONパッチ101-1のサンプルは、ランダムアクセスポイントのデータとして、JSONパッチ82-6のサンプルと置き換えられている。また、シーンディスクリプション83-2のサンプルは、ランダムアクセスポイントのデータとして、JSONパッチ82-9のサンプルと置き換えられている。つまり、JSONパッチ101-1とシーンディスクリプション83-2が同一トラック(Track #1)に格納されている。JSONパッチ101-1は初期値基準差分情報であり、シーンディスクリプション83-2は更新後情報である。つまり、この場合、初期値基準差分情報および更新後情報が同一トラックに混在し得る。
 なお、この方法2-4の場合、方法2-3の場合のように初期値基準差分情報または更新後情報と更新適用タイミングが同一の直前値基準差分情報が存在しないので、サンプルハズリダンダンシーフラグは不要である(省略し得る)。
  <方法2-4-1>
 また、方法2-4を適用する場合、図23に示される表の最下段に示されるように、ファイルの管理領域において、初期値基準差分情報または更新後情報が格納されるサンプルが、ランダムアクセス可能なサンプルとして管理されてもよい(方法2-3-3)。
 例えば、ファイル生成部は、初期値基準差分情報または更新後情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報を更新ファイルの管理領域に格納してもよい。また、更新情報取得部は、更新ファイルの管理領域に格納される、初期値基準差分情報または更新後情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報に基づいて、初期値基準差分情報または更新後情報を取得してもよい。
 例えば、<方法2-2-3>の場合と同様に、初期値基準差分情報または更新後情報が格納されるサンプルを、シンクサンプルとして、シンクサンプルボックス(SyncSampleBox)内に記述する。このようにすることにより、クライアント装置は、そのシンクサンプルボックスを参照することにより、容易に(サンプル内部をパースせずに)、ランダムアクセス可能なサンプルを特定することができる。すなわち、クライアント装置は、この情報に基づいて、初期値基準差分情報または更新後情報が格納されるサンプルをより容易に特定することができる。
 <4.第1の実施の形態>
  <ファイル生成装置>
 以上に説明した本技術の各手法は、任意の装置において適用することができる。図32は、本技術を適用した情報処理装置の一態様であるファイル生成装置の構成の一例を示すブロック図である。図28に示されるファイル生成装置300は、3Dオブジェクトコンテンツの配信用の情報を生成する装置である。例えば、ファイル生成装置300は、配信する3Dオブジェクトコンテンツファイルを生成したり、その3Dオブジェクトコンテンツのシーン記述ファイル(シーンディスクリプション)を生成したりする。
 なお、図32においては、処理部やデータの流れ等の主なものを示しており、図32に示されるものが全てとは限らない。つまり、ファイル生成装置300において、図32においてブロックとして示されていない処理部が存在したり、図32において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
 図32に示されるようにファイル生成装置300は、制御部301およびファイル生成処理部302を有する。制御部301は、ファイル生成処理部302を制御する。ファイル生成処理部302は、制御部301により制御されて、ファイルの生成に関する処理を行う。例えば、ファイル生成処理部302は、配信する3Dオブジェクトのデータを格納するコンテンツファイルである3Dオブジェクトファイルを生成する。また、ファイル生成処理部302は、その3Dオブジェクトに対応するシーンディスクリプションを格納するシーンディスクリプションファイルやその更新ファイルを生成する。ファイル生成処理部302は、生成したファイルをファイル生成装置300の外部に出力する。例えば、ファイル生成処理部302は、生成したファイルを配信サーバ等にアップロードする。
 ファイル生成処理部302は、入力部311、前処理部312、符号化部313、ファイル生成部314、記録部315、および出力部316を有する。
 入力部311は、3Dオブジェクトのデータを取得し、それを前処理部312に供給する。前処理部312は、その3Dオブジェクトのデータを用いてシーンディスクリプションや、その更新情報を生成する。前処理部312は、生成したそれらの情報をファイル生成部314に供給する。また、前処理部312は、3Dオブジェクトのデータを符号化部313に供給する。
 符号化部313は、前処理部312から供給される3Dオブジェクトのデータを符号化し、符号化データ(ビットストリーム)を生成する。符号化部313は、生成した3Dオブジェクトの符号化データをファイル生成部314に供給する。
 ファイル生成部314は、符号化部313から供給された3Dオブジェクトの符号化データを取得する。また、ファイル生成部314は、前処理部312から供給された情報(例えば、シーンディスクリプションやその更新情報等)を取得する。
 ファイル生成部314は、符号化部313から供給された3Dオブジェクトの符号化データを格納する3Dオブジェクトファイルを生成する。また、ファイル生成部314は、前処理部312から供給されたシーンディスクリプションを格納するシーンディスクリプションファイルを生成する。さらに、ファイル生成部314は、前処理部312から供給された更新情報を格納する更新ファイルを生成する。
 ファイル生成部314は、生成したファイルを記録部315に供給する。記録部315は、例えば、ハードディスクや半導体メモリ等、任意の記録媒体を有し、ファイル生成部314から供給されるファイルをその記録媒体に記録する。また、記録部315は、制御部301若しくは出力部316の要求に従って、または所定のタイミングにおいて、記録媒体に記録されているファイルを読み出し、出力部316に供給する。
 出力部316は、記録部315から供給されるファイルを取得し、そのファイルをファイル生成装置300の外部(例えば配信サーバや再生装置等)に出力する。
  <ファイル生成処理の流れ1>
 このファイル生成装置300は、例えば、<2.初期値基準差分情報の伝送>において上述した本開示を適用して、ファイルを生成することができる。例えば、ファイル生成装置300は、上述した方法1を適用してファイルを生成することができる。その場合のファイル生成装置300が実行するファイル生成処理の流れの例を、図33のフローチャートを参照して説明する。
 ファイル生成処理が開始されると、ファイル生成装置300の入力部311は、ステップS301において、3Dオブジェクトのデータを取得する。
 ステップS302において、前処理部312は、ステップS301において取得された3Dオブジェクトのデータを用いて、1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報であるシーンディスクリプションを生成する。また、ファイル生成部314は、そのシーンディスクリプションを格納するシーンディスクリプションファイルを生成する。
 ステップS303において、前処理部312は、ステップS302において生成されたシーンディスクリプションを時間軸に沿って更新し、通常再生の際に適用される更新情報として直前値基準差分情報を生成する。
 ステップS304において、ファイル生成部314は、更新情報を格納する更新ファイルを生成し、ステップS303において生成された更新情報(直前値基準差分情報)をその更新ファイルに格納する。その際、ファイル生成部314は、その直前値基準差分情報を、直前値基準差分情報を格納するためのトラックのサンプルに格納する。
 ステップS305において、前処理部312は、<方法1>において上述した方法1を適用し、ステップS302において生成されたシーンディスクリプションの更新情報として、初期値基準差分情報を生成する。
 ステップS306において、ファイル生成部314は、<方法1>において上述した方法1を適用し、ステップS303において生成された初期値基準差分情報を、ランダムアクセスポイントのサンプルとして更新ファイルに格納する。
 ステップS307において、符号化部313は、ステップS301において取得された3Dオブジェクトのデータを符号化し、3Dオブジェクトの符号化データ(ビットストリーム)を生成する。
 ステップS308において、ファイル生成部314は、コンテンツファイルである3Dオブジェクトファイルを生成し、ステップS307において生成された3Dオブジェクトの符号化データを、その3Dオブジェクトファイルに格納する。
 ステップS309において、記録部315は、ステップS302において生成されたシーンディスクリプションファイルを記録媒体に記録する。また、記録部315は、ステップS304において生成され、ステップS304やステップS306において更新情報が格納された更新ファイルを記録媒体に記録する。さらに、記録部315は、ステップS308において生成された3Dオブジェクトファイルを記録媒体に記録する。
 ステップS310において、出力部316は、ステップS309において記録された各種ファイルを記録媒体より読み出し、所定のタイミングにおいて、その読み出したファイルをファイル生成装置300の外部に出力する。例えば、出力部316は、記録媒体より読み出したファイルを、ネットワーク等の通信媒体を介して、配信サーバや再生装置等の他の装置へ送信(アップロード)してもよい。また、出力部316は、記録媒体より読み出したファイルを、リムーバブルメディア等の外部記録媒体に記録してもよい。その場合、その出力されたファイルは、例えば、その外部記録媒体を介して他の装置(配信サーバや再生装置等)に供給されてもよい。
 ステップS310の処理が終了すると、ファイル生成処理が終了する。
 以上のように、各処理を実行することにより、ファイル生成装置300は、<方法1>において上述したように、シーンディスクリプションにランダムアクセスするクライアント装置の処理負荷の増大を抑制することができる。
 なお、ステップS306において方法1が適用される場合、ファイル生成部314は、<方法1-1>において上述した方法1-1を適用してもよい。すなわち、ファイル生成部314は、更新ファイルの直前値基準差分情報とは異なるトラックに初期値基準差分情報を格納してもよい。このようにすることにより、クライアント装置は、トラックを指定することにより、より容易に、初期値基準差分情報のサンプルを、直前値基準差分情報のサンプルとは独立に取得し得る。
 また、ステップS306において方法1-1が適用される場合、ファイル生成部314は、<方法1-1-1>において上述した方法1-1-1を適用してもよい。すなわち、ファイル生成部314は、空間配置情報の初期値を格納する初期値ファイルを生成し、初期値基準差分情報を格納するトラックへのリンクを示すリンク情報を、ランダムアクセス用のリンク情報としてその初期値ファイルに格納してもよい。このようにすることにより、クライアント装置は、適切な更新情報が格納されているトラックをより容易に識別することができる。
 また、ステップS306において方法1が適用される場合、ファイル生成部314は、<方法1-2>において上述した方法1-2を適用してもよい。すなわち、ファイル生成部314は、更新ファイルの直前値基準差分情報と同一のトラックの同一のサンプルに初期値基準差分情報を格納してもよい。このようにすることにより、クライアント装置は、通常再生の際も、ランダムアクセスの際も、同一のリンク情報を用いて更新情報(直前値基準差分情報または初期値基準差分情報)を得ることができる。
 また、ステップS306において方法1-2が適用される場合、ファイル生成部314は、<方法1-2-1>において上述した方法1-2-1を適用してもよい。すなわち、ファイル生成部314は、直前値基準差分情報および初期値基準差分情報を、同一のサンプルに、それぞれを要素とするリストとして格納してもよい。このようにすることにより、クライアント装置は、より容易に、直前値基準差分情報および初期値基準差分情報を取得することができる。
 また、ステップS306において方法1-2が適用される場合、ファイル生成部314は、<方法1-2-2>において上述した方法1-2-2を適用してもよい。すなわち、ファイル生成部314は、直前値基準差分情報および初期値基準差分情報のそれぞれをサブサンプルとして管理する管理情報(例えばSubSampleInformationBox)を更新ファイルの管理領域に格納してもよい。このようにすることにより、クライアント装置は、より容易に直前値基準差分情報や初期値基準差分情報を取得することができる。
 また、ステップS306において方法1-2-2が適用される場合、ファイル生成部314は、<方法1-2-2-1>において上述した方法1-2-2-1を適用してもよい。すなわち、上述の管理情報が、直前値基準差分情報が格納されるサブサンプルと初期値基準差分情報が格納されるサブサンプルとを識別する識別情報(例えばcodec_specific_parameters)を含むようにしてもよい。クライアント装置は、この識別情報の値を参照することにより、直前値基準差分情報が格納されるサブサンプルであるか、初期値基準差分情報が格納されるサブサンプルであるかを容易に(サンプル内部をパースせずに)識別することができる。
 また、ステップS306において方法1-2が適用される場合、ファイル生成部314は、<方法1-2-3>において上述した方法1-2-3を適用してもよい。すなわち、ファイル生成部314は、初期値基準差分情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報(SyncSampleBox)を更新ファイルの管理領域に格納してもよい。クライアント装置は、この管理情報に基づいて、初期値基準差分情報が格納されるサンプルをより容易に特定することができる。
 また、ステップS306において方法1が適用される場合、ファイル生成部314は、<方法1-3>において上述した方法1-3を適用してもよい。すなわち、ファイル生成部314は、更新ファイルの直前値基準差分情報と同一のトラックの異なるサンプルに初期値基準差分情報を格納してもよい。このようにすることにより、クライアント装置は、サンプルを選択することにより、直前値基準差分情報または初期値基準差分情報を選択することができる。
 また、ステップS306において方法1-3が適用される場合、ファイル生成部314は、<方法1-3-1>において上述した方法1-3-1を適用してもよい。すなわち、ファイル生成部314は、直前値基準差分情報が格納されるサンプルと同一の更新適用時刻情報を、初期値基準差分情報が格納されるサンプルに格納してもよい。このようにすることにより、クライアント装置は、サンプル内部をパースせずに、容易に、初期値基準差分情報に対応する直前値基準差分情報を特定することができる。
 また、ステップS306において方法1-3が適用される場合、ファイル生成部314は、<方法1-3-2>において上述した方法1-3-2を適用してもよい。すなわち、ファイル生成部314は、初期値基準差分情報が格納されるサンプルを通常再生時に利用されないサンプルとして管理する管理情報を、更新ファイルの管理領域に格納してもよい。このようにすることにより、クライアント装置は、通常再生の際に、この管理情報に基づいて容易に(サンプル内部をパースせずに)、初期値基準差分情報が格納されるサンプルの取得を省略することができる。換言するに、ランダムアクセスを行う場合、クライアント装置は、この管理情報に基づいて容易に(サンプル内部をパースせずに)、初期値基準差分情報が格納されるサンプルを取得することができる。
 また、ステップS306において方法1-3-2が適用される場合、ファイル生成部314は、<方法1-3-2-1>において上述した方法1-3-2-1を適用してもよい。すなわち、上述した管理情報が、通常再生時に利用するサンプルであるか否かを示す識別情報(例えばsample_has_redundancy_flag)を含むようにしてもよい。このようにすることにより、クライアント装置は、通常再生の際に、この識別情報に基づいて容易に(サンプル内部をパースせずに)、初期値基準差分情報が格納されるサンプルの取得を省略することができる。
 また、ステップS306において方法1-3が適用される場合、ファイル生成部314は、<方法1-3-3>において上述した方法1-3-3を適用してもよい。すなわち、ファイル生成部314は、初期値基準差分情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報(例えばSyncSampleBox)を更新ファイルの管理領域に格納してもよい。このようにすることにより、クライアント装置は、この管理情報に基づいて、初期値基準差分情報が格納されるサンプルをより容易に特定することができる。
 また、ステップS306において方法1が適用される場合、ファイル生成部314は、<方法1-4>において上述した方法1-4を適用してもよい。すなわち、ファイル生成部314は、更新ファイルに格納される、更新適用時刻が初期値基準差分情報と同一の直前値基準差分情報を、その初期値基準差分情報に置き換えてもよい。このようにすることにより、方法1-2や方法1-3の場合と比べて、更新ファイルのデータ量を低減させることができる。
 また、ステップS306において方法1-4が適用される場合、ファイル生成部314は、<方法1-4-1>において上述した方法1-4-1を適用してもよい。すなわち、ファイル生成部314は、初期値基準差分情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報(例えばSyncSampleBox)を更新ファイルの管理領域に格納してもよい。このようにすることにより、クライアント装置は、この管理情報に基づいて、初期値基準差分情報が格納されるサンプルをより容易に特定することができる。
 なお、矛盾が生じない限り、上述した各種方法の任意の複数の方法を組み合わせて適用してもよい。また、上述した各種方法を、上述していない他の任意の方法と組み合わせて適用してもよい。
  <ファイル生成処理の流れ2>
 また、このファイル生成装置300は、例えば、<3.初期値基準差分情報または更新後情報の伝送>において上述した本開示を適用して、ファイルを生成することができる。例えば、ファイル生成装置300は、上述した方法2を適用してファイルを生成することができる。その場合のファイル生成装置300が実行するファイル生成処理の流れの例を、図34のフローチャートを参照して説明する。
 ファイル生成処理が開始されると、ファイル生成装置300の入力部311は、ステップS351において、3Dオブジェクトのデータを取得する。
 ステップS352において、前処理部312は、ステップS351において取得された3Dオブジェクトのデータを用いて、1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報であるシーンディスクリプションを生成する。また、ファイル生成部314は、そのシーンディスクリプションを格納するシーンディスクリプションファイルを生成する。
 ステップS353において、前処理部312は、ステップS352において生成されたシーンディスクリプションを時間軸に沿って更新し、通常再生の際に適用される更新情報として直前値基準差分情報を生成する。
 ステップS354において、ファイル生成部314は、更新情報を格納する更新ファイルを生成し、ステップS353において生成された更新情報(直前値基準差分情報)をその更新ファイルに格納する。その際、ファイル生成部314は、その直前値基準差分情報を、直前値基準差分情報を格納するためのトラックのサンプルに格納する。
 ステップS355において、前処理部312は、<方法2>において上述した方法2を適用し、ステップS352において生成されたシーンディスクリプションの更新情報として、初期値基準差分情報または更新後情報を選択し、生成する。
 ステップS356において、ファイル生成部314は、<方法2>において上述した方法2を適用し、ステップS353において生成された初期値基準差分情報または更新後情報を、ランダムアクセスポイントのサンプルとして更新ファイルに格納する。
 ステップS357において、符号化部313は、ステップS351において取得された3Dオブジェクトのデータを符号化し、3Dオブジェクトの符号化データ(ビットストリーム)を生成する。
 ステップS358において、ファイル生成部314は、コンテンツファイルである3Dオブジェクトファイルを生成し、ステップS357において生成された3Dオブジェクトの符号化データを、その3Dオブジェクトファイルに格納する。
 ステップS359において、記録部315は、ステップS352において生成されたシーンディスクリプションファイルを記録媒体に記録する。また、記録部315は、ステップS354において生成され、ステップS354やステップS356において更新情報が格納された更新ファイルを記録媒体に記録する。さらに、記録部315は、ステップS358において生成された3Dオブジェクトファイルを記録媒体に記録する。
 ステップS360において、出力部316は、ステップS359において記録された各種ファイルを記録媒体より読み出し、所定のタイミングにおいて、その読み出したファイルをファイル生成装置300の外部に出力する。例えば、出力部316は、記録媒体より読み出したファイルを、ネットワーク等の通信媒体を介して、配信サーバや再生装置等の他の装置へ送信(アップロード)してもよい。また、出力部316は、記録媒体より読み出したファイルを、リムーバブルメディア等の外部記録媒体に記録してもよい。その場合、その出力されたファイルは、例えば、その外部記録媒体を介して他の装置(配信サーバや再生装置等)に供給されてもよい。
 ステップS360の処理が終了すると、ファイル生成処理が終了する。
 以上のように、各処理を実行することにより、ファイル生成装置300は、<方法2>において上述したように、より多様なケースにおいて、シーンディスクリプションにランダムアクセスするクライアント装置の処理負荷の増大を抑制することができる。
 なお、ステップS356において方法2が適用される場合、ファイル生成部314は、<方法2-1>において上述した方法2-1を適用してもよい。すなわち、ファイル生成部314は、更新ファイルの直前値基準差分情報とは異なるトラックに初期値基準差分情報または更新後情報を格納してもよい。このようにすることにより、クライアント装置は、トラックを指定することにより、より容易に、初期値基準差分情報またはシーンディスクリプションのサンプルを、直前値基準差分情報のサンプルとは独立に取得し得る。
 また、ステップS356において方法2-1が適用される場合、ファイル生成部314は、<方法2-1-1>において上述した方法1-1-1を適用してもよい。すなわち、ファイル生成部314は、空間配置情報の初期値を格納する初期値ファイルを生成し、初期値基準差分情報または更新後情報を格納するトラックへのリンクを示すリンク情報を、ランダムアクセス用のリンク情報としてその初期値ファイルに格納してもよい。このようにすることにより、クライアント装置は、適切な更新情報が格納されているトラックをより容易に識別することができる。
 また、ステップS356において方法2が適用される場合、ファイル生成部314は、<方法2-2>において上述した方法2-2を適用してもよい。すなわち、ファイル生成部314は、更新ファイルの直前値基準差分情報と同一のトラックの同一のサンプルに初期値基準差分情報または更新後情報を格納してもよい。このようにすることにより、クライアント装置は、通常再生の際も、ランダムアクセスの際も、同一のリンク情報を用いて更新情報を得ることができる。
 また、ステップS356において方法2-2が適用される場合、ファイル生成部314は、<方法2-2-1>において上述した方法2-2-1を適用してもよい。すなわち、ファイル生成部314は、直前値基準差分情報並びに初期値基準差分情報若しくは更新後情報を、同一のサンプルに、それぞれを要素とするリストとして格納してもよい。このようにすることにより、クライアント装置は、より容易に、直前値基準差分情報並びに初期値基準差分情報若しくは更新後情報を取得することができる。
 また、ステップS356において方法2-2が適用される場合、ファイル生成部314は、<方法2-2-2>において上述した方法2-2-2を適用してもよい。すなわち、ファイル生成部314は、直前値基準差分情報並びに初期値基準差分情報若しくは更新後情報のそれぞれをサブサンプルとして管理する管理情報(例えばSubSampleInformationBox)を更新ファイルの管理領域に格納してもよい。このようにすることにより、クライアント装置は、より容易に直前値基準差分情報や初期値基準差分情報や更新後情報を取得することができる。
 また、ステップS356において方法2-2-2が適用される場合、ファイル生成部314は、<方法2-2-2-1>において上述した方法2-2-2-1を適用してもよい。すなわち、上述の管理情報が、直前値基準差分情報が格納されるサブサンプルと初期値基準差分情報または更新後情報が格納されるサブサンプルとを識別する識別情報(例えばcodec_specific_parameters)を含むようにしてもよい。クライアント装置は、この識別情報の値を参照することにより、直前値基準差分情報が格納されるサブサンプルであるか、初期値基準差分情報または更新後情報が格納されるサブサンプルであるかを容易に(サンプル内部をパースせずに)識別することができる。
 また、ステップS356において方法2-2が適用される場合、ファイル生成部314は、<方法2-2-3>において上述した方法2-2-3を適用してもよい。すなわち、ファイル生成部314は、初期値基準差分情報または更新後情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報(SyncSampleBox)を更新ファイルの管理領域に格納してもよい。クライアント装置は、この管理情報に基づいて、初期値基準差分情報または更新後情報が格納されるサンプルをより容易に特定することができる。
 また、ステップS356において方法2が適用される場合、ファイル生成部314は、<方法2-3>において上述した方法2-3を適用してもよい。すなわち、ファイル生成部314は、更新ファイルの直前値基準差分情報と同一のトラックの異なるサンプルに初期値基準差分情報または更新後情報を格納してもよい。このようにすることにより、クライアント装置は、サンプルを選択することにより、直前値基準差分情報と初期値基準差分情報若しくは更新後情報とを選択することができる。
 また、ステップS356において方法2-3が適用される場合、ファイル生成部314は、<方法2-3-1>において上述した方法2-3-1を適用してもよい。すなわち、ファイル生成部314は、直前値基準差分情報が格納されるサンプルと同一の更新適用時刻情報を、初期値基準差分情報または更新後情報が格納されるサンプルに格納してもよい。このようにすることにより、クライアント装置は、サンプル内部をパースせずに、容易に、初期値基準差分情報または更新後情報に対応する直前値基準差分情報を特定することができる。
 また、ステップS356において方法2-3が適用される場合、ファイル生成部314は、<方法2-3-2>において上述した方法2-3-2を適用してもよい。すなわち、ファイル生成部314は、初期値基準差分情報または更新後情報が格納されるサンプルを通常再生時に利用されないサンプルとして管理する管理情報を、更新ファイルの管理領域に格納してもよい。このようにすることにより、クライアント装置は、通常再生の際に、この管理情報に基づいて容易に(サンプル内部をパースせずに)、初期値基準差分情報が格納されるサンプルの取得を省略することができる。換言するに、ランダムアクセスを行う場合、クライアント装置は、この管理情報に基づいて容易に(サンプル内部をパースせずに)、初期値基準差分情報または更新後情報が格納されるサンプルを取得することができる。
 また、ステップS356において方法2-3-2が適用される場合、ファイル生成部314は、<方法2-3-2-1>において上述した方法2-3-2-1を適用してもよい。すなわち、上述した管理情報が、通常再生時に利用するサンプルであるか否かを示す識別情報(例えばsample_has_redundancy_flag)を含むようにしてもよい。このようにすることにより、クライアント装置は、通常再生の際に、この識別情報に基づいて容易に(サンプル内部をパースせずに)、初期値基準差分情報または更新後情報が格納されるサンプルの取得を省略することができる。
 また、ステップS356において方法3-3が適用される場合、ファイル生成部314は、<方法2-3-3>において上述した方法2-3-3を適用してもよい。すなわち、ファイル生成部314は、初期値基準差分情報または更新後情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報(例えばSyncSampleBox)を更新ファイルの管理領域に格納してもよい。このようにすることにより、クライアント装置は、この管理情報に基づいて、初期値基準差分情報または更新後情報が格納されるサンプルをより容易に特定することができる。
 また、ステップS356において方法2が適用される場合、ファイル生成部314は、<方法2-4>において上述した方法2-4を適用してもよい。すなわち、ファイル生成部314は、更新ファイルに格納される、更新適用時刻が初期値基準差分情報または更新後情報と同一の直前値基準差分情報を、その初期値基準差分情報または更新後情報に置き換えてもよい。このようにすることにより、方法2-2や方法2-3の場合と比べて、更新ファイルのデータ量を低減させることができる。
 また、ステップS356において方法2-4が適用される場合、ファイル生成部314は、<方法2-4-1>において上述した方法2-4-1を適用してもよい。すなわち、ファイル生成部314は、初期値基準差分情報または更新後情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報(例えばSyncSampleBox)を更新ファイルの管理領域に格納してもよい。このようにすることにより、クライアント装置は、この管理情報に基づいて、初期値基準差分情報または更新後情報が格納されるサンプルをより容易に特定することができる。
 なお、矛盾が生じない限り、上述した各種方法の任意の複数の方法を組み合わせて適用してもよい。また、上述した各種方法を、上述していない他の任意の方法と組み合わせて適用してもよい。
 <5.第2の実施の形態>
  <クライアント装置>
 図35は、本技術を適用した情報処理装置の一態様であるクライアント装置の構成の一例を示すブロック図である。図35に示されるクライアント装置400は、シーン記述ファイル(シーンディスクリプション)に基づいて、3Dオブジェクトコンテンツの再生処理を行う再生装置である。例えば、クライアント装置400は、ファイル生成装置300により生成された3Dオブジェクトファイルに格納される3Dオブジェクトのデータを再生する。その際、クライアント装置400は、シーンディスクリプションに基づいて、その再生に関する処理を行う。
 なお、図35においては、処理部やデータの流れ等の主なものを示しており、図35に示されるものが全てとは限らない。つまり、クライアント装置400において、図35においてブロックとして示されていない処理部が存在したり、図35において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
 図35に示されるようにクライアント装置400は、制御部401および再生処理部402を有する。制御部401は、再生処理部402の制御に関する処理を行う。再生処理部402は、3Dオブジェクトのデータの再生に関する処理を行う。
 再生処理部402は、ファイル取得部411、ファイル処理部412、復号部413、表示情報生成部414、表示部415、および表示制御部416を有する。
 ファイル取得部411は、例えば配信サーバやファイル生成装置300等、クライアント装置400の外部からファイルを取得する。例えば、ファイル取得部411は、クライアント装置400の外部からシーンディスクリプションファイルやその更新ファイルを取得し、それらをファイル処理部412に供給する。また、ファイル取得部411は、ファイル処理部412から要求された3Dコンテンツファイルを、クライアント装置400の外部から取得し、それをファイル処理部412に供給する。
 ファイル処理部412は、ファイル取得部411から供給される各種ファイルを取得し、その取得したファイルに関する処理を行う。例えば、ファイル処理部412は、ファイル取得部411から供給されるシーンディスクリプションファイルやその更新ファイルを取得する。また、ファイル処理部412は、シーンディスクリプションファイルからシーンディスクリプションを抽出する。また、ファイル処理部412は、更新ファイルから更新情報(直前値基準差分情報や初期値基準差分情報や更新後情報等)を抽出する。また、ファイル処理部412は、必要に応じて、その更新情報を用いてシーンディスクリプションの更新を行い、最新の(処理対象タイミングの)シーンディスクリプションを生成する。
 また、ファイル処理部412は、シーンディスクリプションを解析し、再生に必要な処理対象タイミングの3Dオブジェクトのデータを特定する。そして、ファイル処理部412は、その特定した3Dオブジェクトのデータの取得を、ファイル取得部411に対して要求する。また、ファイル処理部412は、その要求に基づいてファイル取得部411から供給された3Dオブジェクトファイルを取得し、そのファイルに格納される3Dオブジェクトのデータ(符号化データ)を抽出する。ファイル処理部412は、抽出した3Dオブジェクトのデータ(符号化データ)を復号部413に供給する。また、ファイル処理部412は、シーンディスクリプション等に含まれる表示情報の生成に有用な情報を表示制御部416に供給する。
 復号部413は、ファイル処理部412から供給された3Dオブジェクトの符号化データを復号する。復号部413は、その復号により得られた3Dオブジェクトのデータを表示情報生成部414に供給する。
 表示情報生成部414は、復号部413から供給される3Dオブジェクトのデータを取得する。また、表示情報生成部414は、表示制御部416の制御に従って、その3Dオブジェクトのデータのレンダリングを行い、表示画像等を生成する。表示情報生成部414は、生成した表示画像等を、表示部415に供給する。
 表示部415は、表示デバイスを有し、表示情報生成部414から供給された表示画像をその表示デバイスを用いて表示する。
 表示制御部416は、ファイル処理部412から供給されるシーンディスクリプション等の情報を取得する。表示制御部416はその情報に基づいて表示情報生成部414を制御する。
  <クライアント処理の流れ1>
 このクライアント装置400は、例えば、<2.初期値基準差分情報の伝送>において上述した本開示を適用して、シーンディスクリプションの解析や3Dオブジェクトのデータの再生等に関する処理を行うことができる。例えば、クライアント装置400は、上述した方法1を適用して処理を行うことができる。その場合のクライアント装置400が実行するクライアント処理の流れの例を、図36および図37のフローチャートを参照して説明する。
 クライアント処理が開始されると、クライアント装置400のファイル取得部411は、図36のステップS401において、シーンディスクリプションファイルを取得する。このシーンディスクリプションファイルには、シーンディスクリプションの初期値が格納されている。ファイル取得部411は、取得したシーンディスクリプションファイルをファイル処理部412に供給する。ファイル取得部411は、そのシーンディスクリプションファイルからシーンディスクリプション(初期値)を抽出する。
 ステップS402において、制御部401は、シーンディスクリプションに対してランダムアクセスを行うか否かを判定する。例えばユーザやアプリケーション等の指示に基づいてランダムアクセスを行うと判定された場合、処理はステップS403に進む。
 ステップS403において、ファイル処理部412は、シーンディスクリプションを解析し、処理対象タイミングとするランダムアクセスポイントを特定する。すなわち、ファイル処理部412は、用意されたランダムアクセスポイントの中から、ランダムアクセスするサンプルを特定する。
 ステップS404において、ファイル処理部412は、ファイル取得部411に対して、ステップS403において特定されたランダムアクセスポイントの初期値基準差分情報の取得を要求する。ファイル取得部411は、その要求された初期値基準差分情報を含む更新ファイルを、例えば配信サーバやファイル生成装置300等の、クライアント装置400の外部から取得する。つまり、ファイル取得部411は、ファイル処理部412から要求された初期値基準差分情報を含む更新ファイルの供給を、配信サーバ等に対して要求する。そして、ファイル取得部411は、その要求に応じて供給された更新ファイル(初期値基準差分情報)を取得する。ファイル処理部412は、<方法1>において上述した方法1を適用し、その取得された更新ファイルから初期値基準差分情報を抽出し、取得する。
 ステップS405において、ファイル処理部412は、<方法1>において上述した方法1を適用し、取得した初期値基準差分情報を用いてシーンディスクリプションを更新し、処理対象タイミングのシーンディスクリプションを生成する。つまり、ファイル処理部412は、例えばシーンディスクリプションの初期値に初期値基準差分情報の更新を反映することにより、その初期値基準差分情報の更新適用時刻の(すなわち処理対象タイミングの)シーンディスクリプション(空間配置情報)を生成する。
 ステップS405の処理が終了すると処理はステップS406に進む。また、ステップS402において、ランダムアクセスでない(すなわち、通常再生である)と判定された場合、処理はステップS406に進む。
 ステップS406において、ファイル処理部412は、処理対象タイミングのシーンディスクリプションに基づいて、ファイル取得部411に対し、処理対象タイミングの3Dオブジェクトの符号化データの取得を要求する。ファイル取得部411は、その要求された処理対象タイミングの3Dオブジェクトの符号化データを格納する3Dオブジェクトファイルを、クライアント装置400の外部から取得する。例えば、ファイル取得部411は、ファイル処理部412から要求された3Dオブジェクトの符号化データを含む3Dオブジェクトファイルの供給を、配信サーバ等に対して要求する。そして、ファイル取得部411は、その要求に応じて供給された3Dオブジェクトファイルを取得し、それをファイル処理部412に供給する。ファイル処理部412は、その3Dオブジェクトファイルから処理対象タイミングの3Dオブジェクトの符号化データを抽出する。
 ステップS407において、復号部413は、ステップS406において得られた処理対象タイミングの3Dオブジェクトの符号化データを復号する。
 ステップS408において、表示情報生成部414は、表示制御部416の制御に従って表示画像の生成に関する処理を行う。例えば、表示情報生成部414は、ステップS405において得られた処理対象タイミングのシーンディスクリプションに基づいて、ステップS407において得られた処理対象タイミングの3Dオブジェクトを3D空間に配置し、レンダリングを行って表示画像を生成する。
 ステップS409において、表示部415は、ステップS408において生成された表示画像を表示する。ステップS409の処理が終了すると、処理は図37のステップS421に進む。
 図37のステップS421において、制御部401は、ランダムアクセスを行うか否かを判定する。ランダムアクセスを行うと判定された場合、処理は図36のステップS403に進む。また、図37のステップS421において、ランダムアクセスを行わない(つまり、通常再生を行う)と判定された場合、処理は、ステップS422に進む。
 ステップS422において、制御部401は、クライアント処理を終了するか否かを判定する。クライアント処理を終了しないと判定された場合、処理はステップS423に進む。
 ステップS423において、制御部401は、処理対象タイミングを次のタイミングに切り替える。つまり、制御部401は、処理対象サンプルを次のサンプルに切り替える。
 ステップS424において、ファイル取得部411は、処理対象タイミングのサンプルの直前値基準差分情報をクライアント装置400の外部から取得する。例えば、ファイル取得部411は、処理対象タイミングのサンプルの直前値基準差分情報の供給を、配信サーバ等に対して要求する。そして、ファイル取得部411は、その要求に応じて供給された処理対象タイミングの直前値基準差分情報を含む更新ファイルを取得し、それをファイル処理部412に供給する。ファイル処理部412は、その更新ファイルから処理対象タイミングのサンプルの直前値基準差分情報を取得する。
 ステップS425において、ファイル処理部412は、ステップS424の処理により取得された処理対象タイミングのサンプルの直前値基準差分情報を用いてシーンディスクリプションを更新し、処理対象タイミングのシーンディスクリプションを生成する。
 ステップS425の処理が終了すると、処理は図36のステップS406に戻る。また、図37のステップS422において、クライアント処理を終了すると判定された場合、クライアント処理が終了する。
 以上のように、各処理を実行することにより、クライアント装置400は、<方法1>において上述したように、シーンディスクリプションにランダムアクセスするクライアント装置400の処理負荷の増大を抑制することができる。
 なお、ステップS404において方法1が適用される場合、ファイル処理部412は、<方法1-1>において上述した方法1-1を適用してもよい。すなわち、差分情報取得部であるファイル処理部412は、更新ファイルの直前値基準差分情報とは異なるトラックに格納された初期値基準差分情報を取得してもよい。このようにすることにより、クライアント装置400は、トラックを指定することにより、より容易に、初期値基準差分情報のサンプルを、直前値基準差分情報のサンプルとは独立に取得し得る。
 また、ステップS404において方法1-1が適用される場合、ファイル処理部412は、<方法1-1-1>において上述した方法1-1-1を適用してもよい。すなわち、差分情報取得部であるファイル処理部412は、空間配置情報(シーンディスクリプション)の初期値を格納する初期値ファイルにランダムアクセス用のリンク情報として格納された、初期値基準差分情報を格納するトラックへのリンクを示すリンク情報を用いて、初期値基準差分情報を取得してもよい。このようにすることにより、クライアント装置400は、適切な更新情報が格納されているトラックをより容易に識別することができる。
 また、ステップS404において方法1が適用される場合、ファイル処理部412は、<方法1-2>において上述した方法1-2を適用してもよい。すなわち、差分情報取得部であるファイル処理部412は、更新ファイルの直前値基準差分情報と同一のトラックの同一のサンプルに格納された初期値基準差分情報を取得してもよい。このようにすることにより、クライアント装置400は、通常再生の際も、ランダムアクセスの際も、同一のリンク情報を用いて更新情報(直前値基準差分情報または初期値基準差分情報)を得ることができる。
 また、ステップS404において方法1-2が適用される場合、ファイル処理部412は、<方法1-2-1>において上述した方法1-2-1を適用してもよい。すなわち、直前値基準差分情報および初期値基準差分情報は、それぞれを要素とするリストとしてサンプルに格納されてもよい。このようにすることにより、クライアント装置400は、より容易に、直前値基準差分情報および初期値基準差分情報を取得することができる。
 また、ステップS404において方法1-2が適用される場合、ファイル処理部412は、<方法1-2-2>において上述した方法1-2-2を適用してもよい。すなわち、差分情報取得部であるファイル処理部412は、更新ファイルの管理領域に格納される、直前値基準差分情報および初期値基準差分情報のそれぞれをサブサンプルとして管理する管理情報(例えばSubSampleInformationBox)に基づいて、初期値基準差分情報を取得してもよい。このようにすることにより、クライアント装置400は、より容易に直前値基準差分情報や初期値基準差分情報を取得することができる。
 また、ステップS404において方法1-2-2が適用される場合、ファイル処理部412は、<方法1-2-2-1>において上述した方法1-2-2-1を適用してもよい。すなわち、上述の管理情報が、直前値基準差分情報が格納されるサブサンプルと初期値基準差分情報が格納されるサブサンプルとを識別する識別情報(例えばcodec_specific_parameters)を含むようにしてもよい。クライアント装置400は、この識別情報の値を参照することにより、直前値基準差分情報が格納されるサブサンプルであるか、初期値基準差分情報が格納されるサブサンプルであるかを容易に(サンプル内部をパースせずに)識別することができる。
 また、ステップS404において方法1-2が適用される場合、ファイル処理部412は、<方法1-2-3>において上述した方法1-2-3を適用してもよい。すなわち、差分情報取得部であるファイル処理部412は、更新ファイルの管理領域に格納される、初期値基準差分情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報(例えばSyncSampleBox)に基づいて、初期値基準差分情報を取得してもよい。クライアント装置400は、この管理情報に基づいて、初期値基準差分情報が格納されるサンプルをより容易に特定することができる。
 また、ステップS404において方法1が適用される場合、ファイル処理部412は、<方法1-3>において上述した方法1-3を適用してもよい。すなわち、差分情報取得部であるファイル処理部412は、更新ファイルの直前値基準差分情報と同一のトラックの異なるサンプルに格納された初期値基準差分情報を取得してもよい。このようにすることにより、クライアント装置400は、サンプルを選択することにより、直前値基準差分情報または初期値基準差分情報を選択することができる。
 また、ステップS404において方法1-3が適用される場合、ファイル処理部412は、<方法1-3-1>において上述した方法1-3-1を適用してもよい。すなわち、初期値基準差分情報が格納されるサンプルには、直前値基準差分情報が格納されるサンプルと同一の更新適用時刻情報が格納されてもよい。このようにすることにより、クライアント装置400は、サンプル内部をパースせずに、容易に、初期値基準差分情報に対応する直前値基準差分情報を特定することができる。
 また、ステップS404において方法1-3が適用される場合、ファイル処理部412は、<方法1-3-2>において上述した方法1-3-2を適用してもよい。すなわち、差分情報取得部であるファイル処理部412は、更新ファイルの管理領域に格納される、初期値基準差分情報が格納されるサンプルを通常再生時に利用されないサンプルとして管理する管理情報に基づいて、初期値基準差分情報を取得してもよい。このようにすることにより、クライアント装置400は、通常再生の際に、この管理情報に基づいて容易に(サンプル内部をパースせずに)、初期値基準差分情報が格納されるサンプルの取得を省略することができる。換言するに、ランダムアクセスを行う場合、クライアント装置400は、この管理情報に基づいて容易に(サンプル内部をパースせずに)、初期値基準差分情報が格納されるサンプルを取得することができる。
 また、ステップS404において方法1-3-2が適用される場合、ファイル処理部412は、<方法1-3-2-1>において上述した方法1-3-2-1を適用してもよい。すなわち、上述した管理情報が、通常再生時に利用するサンプルであるか否かを示す識別情報(例えばsample_has_redundancy_flag)を含むようにしてもよい。このようにすることにより、クライアント装置400は、通常再生の際に、この識別情報に基づいて容易に(サンプル内部をパースせずに)、初期値基準差分情報が格納されるサンプルの取得を省略することができる。
 また、ステップS404において方法1-3が適用される場合、ファイル処理部412は、<方法1-3-3>において上述した方法1-3-3を適用してもよい。すなわち、差分情報取得部であるファイル処理部412は、更新ファイルの管理領域に格納される、初期値基準差分情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報(例えばSyncSampleBox)に基づいて、初期値基準差分情報を取得してもよい。このようにすることにより、クライアント装置400は、この管理情報に基づいて、初期値基準差分情報が格納されるサンプルをより容易に特定することができる。
 また、ステップS404において方法1が適用される場合、ファイル処理部412は、<方法1-4>において上述した方法1-4を適用してもよい。すなわち、差分情報取得部であるファイル処理部412は、更新ファイルに格納される、更新適用時刻が初期値基準差分情報と同一の直前値基準差分情報と置き換えられた初期値基準差分情報を取得してもよい。このようにすることにより、方法1-2や方法1-3の場合と比べて、更新ファイルのデータ量を低減させることができる。
 また、ステップS404において方法1-4が適用される場合、ファイル処理部412は、<方法1-4-1>において上述した方法1-4-1を適用してもよい。すなわち、差分情報取得部であるファイル処理部412は、更新ファイルの管理領域に格納される初期値基準差分情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報(例えばSyncSampleBox)に基づいて、初期値基準差分情報を取得してもよい。このようにすることにより、クライアント装置400は、この管理情報に基づいて、初期値基準差分情報が格納されるサンプルをより容易に特定することができる。
 なお、矛盾が生じない限り、上述した各種方法の任意の複数の方法を組み合わせて適用してもよい。また、上述した各種方法を、上述していない他の任意の方法と組み合わせて適用してもよい。
  <クライアント処理の流れ2>
 このクライアント装置400は、例えば、<3.初期値基準差分情報または更新後情報の伝送>において上述した本開示を適用して、シーンディスクリプションの解析や3Dオブジェクトのデータの再生等に関する処理を行うことができる。例えば、クライアント装置400は、上述した方法2を適用して処理を行うことができる。その場合のクライアント装置400が実行するクライアント処理の流れの例を、図38および図39のフローチャートを参照して説明する。
 クライアント処理が開始されると、クライアント装置400のファイル取得部411は、図38のステップS451において、シーンディスクリプションファイルを取得する。このシーンディスクリプションファイルには、シーンディスクリプションの初期値が格納されている。ファイル取得部411は、取得したシーンディスクリプションファイルをファイル処理部412に供給する。ファイル取得部411は、そのシーンディスクリプションファイルからシーンディスクリプション(初期値)を抽出する。
 ステップS452において、制御部401は、シーンディスクリプションに対してランダムアクセスを行うか否かを判定する。例えばユーザやアプリケーション等の指示に基づいてランダムアクセスを行うと判定された場合、処理はステップS453に進む。
 ステップS453において、ファイル処理部412は、シーンディスクリプションを解析し、処理対象タイミングとするランダムアクセスポイントを特定する。すなわち、ファイル処理部412は、用意されたランダムアクセスポイントの中から、ランダムアクセスするサンプルを特定する。
 ステップS454において、ファイル処理部412は、ファイル取得部411に対して、ステップS453において特定されたランダムアクセスポイントの初期値基準差分情報または更新後情報の取得を要求する。ファイル取得部411は、その要求された初期値基準差分情報または更新後情報を含む更新ファイルを、例えば配信サーバやファイル生成装置300等の、クライアント装置400の外部から取得する。つまり、ファイル取得部411は、ファイル処理部412から要求された初期値基準差分情報または更新後情報を含む更新ファイルの供給を、配信サーバ等に対して要求する。そして、ファイル取得部411は、その要求に応じて供給された更新ファイル(初期値基準差分情報または更新後情報)を取得する。ファイル処理部412は、<方法2>において上述した方法2を適用し、その取得された更新ファイルから初期値基準差分情報または更新後情報を抽出し、取得する。
 ステップS455において、ファイル処理部412は、<方法2>において上述した方法2を適用し、取得した初期値基準差分情報または更新後情報を用いてシーンディスクリプションを更新し、処理対象タイミングのシーンディスクリプションを生成する。つまり、ファイル処理部412は、例えばシーンディスクリプションの初期値に初期値基準差分情報の更新を反映したり、更新後情報を適用したりすることにより、その初期値基準差分情報または更新後情報の更新適用時刻の(すなわち処理対象タイミングの)シーンディスクリプション(空間配置情報)を生成する。
 ステップS455の処理が終了すると処理はステップS456に進む。また、ステップS452において、ランダムアクセスでない(すなわち、通常再生である)と判定された場合、処理はステップS456に進む。
 ステップS456において、ファイル処理部412は、処理対象タイミングのシーンディスクリプションに基づいて、ファイル取得部411に対し、処理対象タイミングの3Dオブジェクトの符号化データの取得を要求する。ファイル取得部411は、その要求された処理対象タイミングの3Dオブジェクトの符号化データを格納する3Dオブジェクトファイルを、クライアント装置400の外部から取得する。例えば、ファイル取得部411は、ファイル処理部412から要求された3Dオブジェクトの符号化データを含む3Dオブジェクトファイルの供給を、配信サーバ等に対して要求する。そして、ファイル取得部411は、その要求に応じて供給された3Dオブジェクトファイルを取得し、それをファイル処理部412に供給する。ファイル処理部412は、その3Dオブジェクトファイルから処理対象タイミングの3Dオブジェクトの符号化データを抽出する。
 ステップS457において、復号部413は、ステップS456において得られた処理対象タイミングの3Dオブジェクトの符号化データを復号する。
 ステップS458において、表示情報生成部414は、表示制御部416の制御に従って表示画像の生成に関する処理を行う。例えば、表示情報生成部414は、ステップS455において得られた処理対象タイミングのシーンディスクリプションに基づいて、ステップS457において得られた処理対象タイミングの3Dオブジェクトを3D空間に配置し、レンダリングを行って表示画像を生成する。
 ステップS459において、表示部415は、ステップS458において生成された表示画像を表示する。ステップS459の処理が終了すると、処理は図39のステップS471に進む。
 図39のステップS471において、制御部401は、ランダムアクセスを行うか否かを判定する。ランダムアクセスを行うと判定された場合、処理は図38のステップS453に進む。また、図39のステップS471において、ランダムアクセスを行わない(つまり、通常再生を行う)と判定された場合、処理は、ステップS472に進む。
 ステップS472において、制御部401は、クライアント処理を終了するか否かを判定する。クライアント処理を終了しないと判定された場合、処理はステップS473に進む。
 ステップS473において、制御部401は、処理対象タイミングを次のタイミングに切り替える。つまり、制御部401は、処理対象サンプルを次のサンプルに切り替える。
 ステップS474において、ファイル取得部411は、処理対象タイミングのサンプルの直前値基準差分情報をクライアント装置400の外部から取得する。例えば、ファイル取得部411は、処理対象タイミングのサンプルの直前値基準差分情報の供給を、配信サーバ等に対して要求する。そして、ファイル取得部411は、その要求に応じて供給された処理対象タイミングの直前値基準差分情報を含む更新ファイルを取得し、それをファイル処理部412に供給する。ファイル処理部412は、その更新ファイルから処理対象タイミングのサンプルの直前値基準差分情報を取得する。
 ステップS475において、ファイル処理部412は、ステップS474の処理により取得された処理対象タイミングのサンプルの直前値基準差分情報を用いてシーンディスクリプションを更新し、処理対象タイミングのシーンディスクリプションを生成する。
 ステップS475の処理が終了すると、処理は図38のステップS456に戻る。また、図39のステップS472において、クライアント処理を終了すると判定された場合、クライアント処理が終了する。
 以上のように、各処理を実行することにより、クライアント装置400は、<方法2>において上述したように、シーンディスクリプションにランダムアクセスするクライアント装置400の処理負荷の増大を抑制することができる。
 なお、ステップS454において方法2が適用される場合、ファイル処理部412は、<方法2-1>において上述した方法2-1を適用してもよい。すなわち、差分情報取得部であるファイル処理部412は、更新ファイルの直前値基準差分情報とは異なるトラックに格納された初期値基準差分情報または更新後情報を取得してもよい。このようにすることにより、クライアント装置400は、トラックを指定することにより、より容易に、初期値基準差分情報または更新後情報のサンプルを、直前値基準差分情報のサンプルとは独立に取得し得る。
 また、ステップS454において方法2-1が適用される場合、ファイル処理部412は、<方法2-1-1>において上述した方法2-1-1を適用してもよい。すなわち、差分情報取得部であるファイル処理部412は、空間配置情報(シーンディスクリプション)の初期値を格納する初期値ファイルにランダムアクセス用のリンク情報として格納された、初期値基準差分情報または更新後情報を格納するトラックへのリンクを示すリンク情報を用いて、初期値基準差分情報または更新後情報を取得してもよい。このようにすることにより、クライアント装置400は、適切な更新情報が格納されているトラックをより容易に識別することができる。
 また、ステップS454において方法2が適用される場合、ファイル処理部412は、<方法2-2>において上述した方法2-2を適用してもよい。すなわち、差分情報取得部であるファイル処理部412は、更新ファイルの直前値基準差分情報と同一のトラックの同一のサンプルに格納された初期値基準差分情報または更新後情報を取得してもよい。このようにすることにより、クライアント装置400は、通常再生の際も、ランダムアクセスの際も、同一のリンク情報を用いて更新情報(直前値基準差分情報または初期値基準差分情報若しくは更新後情報)を得ることができる。
 また、ステップS454において方法2-2が適用される場合、ファイル処理部412は、<方法2-2-1>において上述した方法2-2-1を適用してもよい。すなわち、直前値基準差分情報並びに初期値基準差分情報若しくは更新後情報は、それぞれを要素とするリストとしてサンプルに格納されてもよい。このようにすることにより、クライアント装置400は、より容易に、直前値基準差分情報並びに初期値基準差分情報若しくは更新後情報を取得することができる。
 また、ステップS454において方法2-2が適用される場合、ファイル処理部412は、<方法2-2-2>において上述した方法2-2-2を適用してもよい。すなわち、差分情報取得部であるファイル処理部412は、更新ファイルの管理領域に格納される、直前値基準差分情報並びに初期値基準差分情報若しくは更新後情報のそれぞれをサブサンプルとして管理する管理情報(例えばSubSampleInformationBox)に基づいて、初期値基準差分情報を取得してもよい。このようにすることにより、クライアント装置400は、より容易に直前値基準差分情報や初期値基準差分情報や更新後情報を取得することができる。
 また、ステップS454において方法2-2-2が適用される場合、ファイル処理部412は、<方法2-2-2-1>において上述した方法2-2-2-1を適用してもよい。すなわち、上述の管理情報が、直前値基準差分情報が格納されるサブサンプルと初期値基準差分情報または更新後情報が格納されるサブサンプルとを識別する識別情報(例えばcodec_specific_parameters)を含むようにしてもよい。クライアント装置400は、この識別情報の値を参照することにより、直前値基準差分情報が格納されるサブサンプルであるか、初期値基準差分情報または更新後情報が格納されるサブサンプルであるかを容易に(サンプル内部をパースせずに)識別することができる。
 また、ステップS454において方法2-2が適用される場合、ファイル処理部412は、<方法2-2-3>において上述した方法2-2-3を適用してもよい。すなわち、差分情報取得部であるファイル処理部412は、更新ファイルの管理領域に格納される、初期値基準差分情報または更新後情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報(例えばSyncSampleBox)に基づいて、初期値基準差分情報または更新後情報を取得してもよい。クライアント装置400は、この管理情報に基づいて、初期値基準差分情報または更新後情報が格納されるサンプルをより容易に特定することができる。
 また、ステップS454において方法2が適用される場合、ファイル処理部412は、<方法2-3>において上述した方法2-3を適用してもよい。すなわち、差分情報取得部であるファイル処理部412は、更新ファイルの直前値基準差分情報と同一のトラックの異なるサンプルに格納された初期値基準差分情報または更新後情報を取得してもよい。このようにすることにより、クライアント装置400は、サンプルを選択することにより、直前値基準差分情報または初期値基準差分情報若しくは更新後情報を選択することができる。
 また、ステップS454において方法2-3が適用される場合、ファイル処理部412は、<方法2-3-1>において上述した方法2-3-1を適用してもよい。すなわち、初期値基準差分情報または更新後情報が格納されるサンプルには、直前値基準差分情報が格納されるサンプルと同一の更新適用時刻情報が格納されてもよい。このようにすることにより、クライアント装置400は、サンプル内部をパースせずに、容易に、初期値基準差分情報または更新後情報に対応する直前値基準差分情報を特定することができる。
 また、ステップS454において方法2-3が適用される場合、ファイル処理部412は、<方法2-3-2>において上述した方法2-3-2を適用してもよい。すなわち、差分情報取得部であるファイル処理部412は、更新ファイルの管理領域に格納される、初期値基準差分情報または更新後情報が格納されるサンプルを通常再生時に利用されないサンプルとして管理する管理情報に基づいて、初期値基準差分情報または更新後情報を取得してもよい。このようにすることにより、クライアント装置400は、通常再生の際に、この管理情報に基づいて容易に(サンプル内部をパースせずに)、初期値基準差分情報または更新後情報が格納されるサンプルの取得を省略することができる。換言するに、ランダムアクセスを行う場合、クライアント装置400は、この管理情報に基づいて容易に(サンプル内部をパースせずに)、初期値基準差分情報または更新後情報が格納されるサンプルを取得することができる。
 また、ステップS454において方法2-3-2が適用される場合、ファイル処理部412は、<方法2-3-2-1>において上述した方法2-3-2-1を適用してもよい。すなわち、上述した管理情報が、通常再生時に利用するサンプルであるか否かを示す識別情報(例えばsample_has_redundancy_flag)を含むようにしてもよい。このようにすることにより、クライアント装置400は、通常再生の際に、この識別情報に基づいて容易に(サンプル内部をパースせずに)、初期値基準差分情報または更新後情報が格納されるサンプルの取得を省略することができる。
 また、ステップS454において方法2-3が適用される場合、ファイル処理部412は、<方法2-3-3>において上述した方法2-3-3を適用してもよい。すなわち、差分情報取得部であるファイル処理部412は、更新ファイルの管理領域に格納される、初期値基準差分情報または更新後情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報(例えばSyncSampleBox)に基づいて、初期値基準差分情報または更新後情報を取得してもよい。このようにすることにより、クライアント装置400は、この管理情報に基づいて、初期値基準差分情報または更新後情報が格納されるサンプルをより容易に特定することができる。
 また、ステップS454において方法2が適用される場合、ファイル処理部412は、<方法2-4>において上述した方法2-4を適用してもよい。すなわち、差分情報取得部であるファイル処理部412は、更新ファイルに格納される、更新適用時刻が初期値基準差分情報または更新後情報と同一の直前値基準差分情報と置き換えられた初期値基準差分情報または更新後情報を取得してもよい。このようにすることにより、方法2-2や方法2-3の場合と比べて、更新ファイルのデータ量を低減させることができる。
 また、ステップS454において方法2-4が適用される場合、ファイル処理部412は、<方法2-4-1>において上述した方法2-4-1を適用してもよい。すなわち、差分情報取得部であるファイル処理部412は、更新ファイルの管理領域に格納される初期値基準差分情報または更新後情報が格納されるサンプルをランダムアクセス可能なサンプルとして管理する管理情報(例えばSyncSampleBox)に基づいて、初期値基準差分情報または更新後情報を取得してもよい。このようにすることにより、クライアント装置400は、この管理情報に基づいて、初期値基準差分情報または更新後情報が格納されるサンプルをより容易に特定することができる。
 なお、矛盾が生じない限り、上述した各種方法の任意の複数の方法を組み合わせて適用してもよい。また、上述した各種方法を、上述していない他の任意の方法と組み合わせて適用してもよい。
 <6.付記>
  <コンピュータ>
 上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
 図40は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 図40に示されるコンピュータ900において、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903は、バス904を介して相互に接続されている。
 バス904にはまた、入出力インタフェース910も接続されている。入出力インタフェース910には、入力部911、出力部912、記憶部913、通信部914、およびドライブ915が接続されている。
 入力部911は、例えば、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部912は、例えば、ディスプレイ、スピーカ、出力端子などよりなる。記憶部913は、例えば、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部914は、例えば、ネットワークインタフェースよりなる。ドライブ915は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア921を駆動する。
 以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部913に記憶されているプログラムを、入出力インタフェース910およびバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。RAM903にはまた、CPU901が各種の処理を実行する上において必要なデータなども適宜記憶される。
 コンピュータが実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア921に記録して適用することができる。その場合、プログラムは、リムーバブルメディア921をドライブ915に装着することにより、入出力インタフェース910を介して、記憶部913にインストールすることができる。
 また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、プログラムは、通信部914で受信し、記憶部913にインストールすることができる。
 その他、このプログラムは、ROM902や記憶部913に、あらかじめインストールしておくこともできる。
  <本技術の適用可能な対象>
 本技術は、任意の画像符号化・復号方式に適用することができる。
 また、本技術は、任意の構成に適用することができる。例えば、本技術は、様々な電子機器に応用され得る。
 また、例えば、本技術は、システムLSI(Large Scale Integration)等としてのプロセッサ(例えばビデオプロセッサ)、複数のプロセッサ等を用いるモジュール(例えばビデオモジュール)、複数のモジュール等を用いるユニット(例えばビデオユニット)、または、ユニットにさらにその他の機能を付加したセット(例えばビデオセット)等、装置の一部の構成として実施することもできる。
 また、例えば、本技術は、複数の装置により構成されるネットワークシステムにも適用することもできる。例えば、本技術を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングとして実施するようにしてもよい。例えば、コンピュータ、AV(Audio Visual)機器、携帯型情報処理端末、IoT(Internet of Things)デバイス等の任意の端末に対して、画像(動画像)に関するサービスを提供するクラウドサービスにおいて本技術を実施するようにしてもよい。
 なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、および、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
  <本技術を適用可能な分野・用途>
 本技術を適用したシステム、装置、処理部等は、例えば、交通、医療、防犯、農業、畜産業、鉱業、美容、工場、家電、気象、自然監視等、任意の分野に利用することができる。また、その用途も任意である。
 例えば、本技術は、観賞用コンテンツ等の提供の用に供されるシステムやデバイスに適用することができる。また、例えば、本技術は、交通状況の監理や自動運転制御等、交通の用に供されるシステムやデバイスにも適用することができる。さらに、例えば、本技術は、セキュリティの用に供されるシステムやデバイスにも適用することができる。また、例えば、本技術は、機械等の自動制御の用に供されるシステムやデバイスに適用することができる。さらに、例えば、本技術は、農業や畜産業の用に供されるシステムやデバイスにも適用することができる。また、本技術は、例えば火山、森林、海洋等の自然の状態や野生生物等を監視するシステムやデバイスにも適用することができる。さらに、例えば、本技術は、スポーツの用に供されるシステムやデバイスにも適用することができる。
  <その他>
 なお、本明細書において「フラグ」とは、複数の状態を識別するための情報であり、真(1)または偽(0)の2状態を識別する際に用いる情報だけでなく、3以上の状態を識別することが可能な情報も含まれる。したがって、この「フラグ」が取り得る値は、例えば1/0の2値であってもよいし、3値以上であってもよい。すなわち、この「フラグ」を構成するbit数は任意であり、1bitでも複数bitでもよい。また、識別情報(フラグも含む)は、その識別情報をビットストリームに含める形だけでなく、ある基準となる情報に対する識別情報の差分情報をビットストリームに含める形も想定されるため、本明細書においては、「フラグ」や「識別情報」は、その情報だけではなく、基準となる情報に対する差分情報も包含する。
 また、符号化データ(ビットストリーム)に関する各種情報(メタデータ等)は、符号化データに関連づけられていれば、どのような形態で伝送または記録されるようにしてもよい。ここで、「関連付ける」という用語は、例えば、一方のデータを処理する際に他方のデータを利用し得る(リンクさせ得る)ようにすることを意味する。つまり、互いに関連付けられたデータは、1つのデータとしてまとめられてもよいし、それぞれ個別のデータとしてもよい。例えば、符号化データ(画像)に関連付けられた情報は、その符号化データ(画像)とは別の伝送路上で伝送されるようにしてもよい。また、例えば、符号化データ(画像)に関連付けられた情報は、その符号化データ(画像)とは別の記録媒体(または同一の記録媒体の別の記録エリア)に記録されるようにしてもよい。なお、この「関連付け」は、データ全体でなく、データの一部であってもよい。例えば、画像とその画像に対応する情報とが、複数フレーム、1フレーム、またはフレーム内の一部分などの任意の単位で互いに関連付けられるようにしてもよい。
 なお、本明細書において、「合成する」、「多重化する」、「付加する」、「一体化する」、「含める」、「格納する」、「入れ込む」、「差し込む」、「挿入する」等の用語は、例えば符号化データとメタデータとを1つのデータにまとめるといった、複数の物を1つにまとめることを意味し、上述の「関連付ける」の1つの方法を意味する。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
 また、例えば、上述したプログラムは、任意の装置において実行されるようにしてもよい。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。
 また、例えば、1つのフローチャートの各ステップを、1つの装置が実行するようにしてもよいし、複数の装置が分担して実行するようにしてもよい。さらに、1つのステップに複数の処理が含まれる場合、その複数の処理を、1つの装置が実行するようにしてもよいし、複数の装置が分担して実行するようにしてもよい。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。
 また、例えば、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。
 また、例えば、本技術に関する複数の技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。
 なお、本技術は以下のような構成も取ることができる。
 (1) 1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報を更新するための更新情報として、前記空間配置情報の初期値を基準とする差分情報である初期値基準差分情報を生成する更新情報生成部と、
 前記更新情報を格納する更新ファイルを生成し、ランダムアクセスポイントとして前記初期値基準差分情報を前記更新ファイルに格納するファイル生成部と
 を備える情報処理装置。
 (2) 前記ファイル生成部は、前記更新ファイルの直前値基準差分情報とは異なるトラックに前記初期値基準差分情報を格納し、
 前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
 (1)に記載の情報処理装置。
 (3) 前記ファイル生成部は、前記空間配置情報の前記初期値を格納する初期値ファイルを生成し、前記初期値基準差分情報を格納する前記トラックへのリンクを示すリンク情報を、ランダムアクセス用の前記リンク情報として格納する
 (2)に記載の情報処理装置。
 (4) 前記ファイル生成部は、前記更新ファイルの直前値基準差分情報と同一のトラックの同一のサンプルに前記初期値基準差分情報を格納し、
 前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
 (1)に記載の情報処理装置。
 (5) 前記ファイル生成部は、前記直前値基準差分情報および前記初期値基準差分情報を、それぞれを要素とするリストとして格納する
 (4)に記載の情報処理装置。
 (6) 前記ファイル生成部は、前記直前値基準差分情報および前記初期値基準差分情報のそれぞれをサブサンプルとして管理する管理情報を前記更新ファイルの管理領域に格納する
 (4)または(5)に記載の情報処理装置。
 (7) 前記管理情報は、前記直前値基準差分情報が格納される前記サブサンプルと前記初期値基準差分情報が格納される前記サブサンプルとを識別する識別情報を含む
 (6)に記載の情報処理装置。
 (8) 前記ファイル生成部は、前記初期値基準差分情報が格納される前記サンプルをランダムアクセス可能な前記サンプルとして管理する管理情報を前記更新ファイルの管理領域に格納する
 (4)乃至(7)のいずれかに記載の情報処理装置。
 (9) 前記ファイル生成部は、前記更新ファイルの直前値基準差分情報と同一のトラックの異なるサンプルに前記初期値基準差分情報を格納し、
 前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
 (1)に記載の情報処理装置。
 (10) 前記ファイル生成部は、前記直前値基準差分情報が格納される前記サンプルと同一の更新適用時刻情報を、前記初期値基準差分情報が格納される前記サンプルに格納する
 (9)に記載の情報処理装置。
 (11) 前記ファイル生成部は、前記初期値基準差分情報が格納される前記サンプルを通常再生時に利用されない前記サンプルとして管理する管理情報を、前記更新ファイルの管理領域に格納する
 (9)または(10)に記載の情報処理装置。
 (12) 前記管理情報は、前記通常再生時に利用する前記サンプルであるか否かを示す識別情報を含む
 (11)に記載の情報処理装置。
 (13) 前記ファイル生成部は、前記初期値基準差分情報が格納される前記サンプルをランダムアクセス可能な前記サンプルとして管理する管理情報を前記更新ファイルの管理領域に格納する
 (9)乃至(12)のいずれかに記載の情報処理装置。
 (14) 前記ファイル生成部は、前記更新ファイルに格納される、更新適用時刻が前記初期値基準差分情報と同一の直前値基準差分情報を、前記初期値基準差分情報に置き換え、
 前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
 (1)に記載の情報処理装置。
 (15) 前記ファイル生成部は、前記初期値基準差分情報が格納されるサンプルをランダムアクセス可能な前記サンプルとして管理する管理情報を前記更新ファイルの管理領域に格納する
 (14)に記載の情報処理装置。
 (16) 1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報を更新するための更新情報として、前記空間配置情報の初期値を基準とする差分情報である初期値基準差分情報を生成し、
 前記更新情報を格納する更新ファイルを生成し、ランダムアクセスポイントとして前記初期値基準差分情報を前記更新ファイルに格納する
 情報処理方法。
 (21) 1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報を更新するための更新情報を格納する更新ファイルにランダムアクセスポイントとして格納される、前記空間配置情報の初期値を基準とする差分情報である初期値基準差分情報を取得する差分情報取得部と、
 前記空間配置情報の前記初期値に前記初期値基準差分情報の更新を反映することにより、前記初期値基準差分情報の更新適用時刻の前記空間配置情報を生成する空間配置情報生成部と
 を備える情報処理装置。
 (22) 前記差分情報取得部は、前記更新ファイルの直前値基準差分情報とは異なるトラックに格納された前記初期値基準差分情報を取得し、
 前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
 (21)に記載の情報処理装置。
 (23) 前記差分情報取得部は、前記空間配置情報の前記初期値を格納する初期値ファイルにランダムアクセス用のリンク情報として格納された、前記初期値基準差分情報を格納する前記トラックへのリンクを示す前記リンク情報を用いて、前記初期値基準差分情報を取得する
 (22)に記載の情報処理装置。
 (24) 前記差分情報取得部は、前記更新ファイルの直前値基準差分情報と同一のトラックの同一のサンプルに格納された前記初期値基準差分情報を取得し、
 前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
 (21)に記載の情報処理装置。
 (25) 前記直前値基準差分情報および前記初期値基準差分情報は、それぞれを要素とするリストとして前記サンプルに格納される
 (24)に記載の情報処理装置。
 (26) 前記差分情報取得部は、前記更新ファイルの管理領域に格納される、前記直前値基準差分情報および前記初期値基準差分情報のそれぞれをサブサンプルとして管理する管理情報に基づいて、前記初期値基準差分情報を取得する
 (24)または(25)に記載の情報処理装置。
 (27) 前記管理情報は、前記直前値基準差分情報が格納される前記サブサンプルと前記初期値基準差分情報が格納される前記サブサンプルとを識別する識別情報を含む
 (26)に記載の情報処理装置。
 (28) 前記差分情報取得部は、前記更新ファイルの管理領域に格納される、前記初期値基準差分情報が格納される前記サンプルをランダムアクセス可能な前記サンプルとして管理する管理情報に基づいて、前記初期値基準差分情報を取得する
 (24)乃至(27)のいずれかに記載の情報処理装置。
 (29) 前記差分情報取得部は、前記更新ファイルの直前値基準差分情報と同一のトラックの異なるサンプルに格納された前記初期値基準差分情報を取得し、
 前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
 (21)に記載の情報処理装置。
 (30) 前記初期値基準差分情報が格納される前記サンプルには、前記直前値基準差分情報が格納される前記サンプルと同一の更新適用時刻情報が格納される
 (29)に記載の情報処理装置。
 (31) 前記差分情報取得部は、前記更新ファイルの管理領域に格納される、前記初期値基準差分情報が格納される前記サンプルを通常再生時に利用されない前記サンプルとして管理する管理情報に基づいて、前記初期値基準差分情報を取得する
 (29)または(30)に記載の情報処理装置。
 (32) 前記管理情報は、前記通常再生時に利用する前記サンプルであるか否かを示す識別情報を含む
 (31)に記載の情報処理装置。
 (33) 前記差分情報取得部は、前記更新ファイルの管理領域に格納される、前記初期値基準差分情報が格納される前記サンプルをランダムアクセス可能な前記サンプルとして管理する管理情報に基づいて、前記初期値基準差分情報を取得する
 (29)乃至(32)のいずれかに記載の情報処理装置。
 (34) 前記差分情報取得部は、前記更新ファイルに格納される、更新適用時刻が前記初期値基準差分情報と同一の直前値基準差分情報と置き換えられた前記初期値基準差分情報を取得し、
 前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
 (21)に記載の情報処理装置。
 (35) 前記差分情報取得部は、前記更新ファイルの管理領域に格納される、前記初期値基準差分情報が格納されるサンプルをランダムアクセス可能な前記サンプルとして管理する管理情報に基づいて、前記初期値基準差分情報を取得する
 (34)に記載の情報処理装置。
 (36) 1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報を更新するための更新情報を格納する更新ファイルにランダムアクセスポイントとして格納される、前記空間配置情報の初期値を基準とする差分情報である初期値基準差分情報を取得し、
 前記空間配置情報の前記初期値に前記初期値基準差分情報の更新を反映することにより、前記初期値基準差分情報の更新適用時刻の前記空間配置情報を生成する
 情報処理方法。
 (41) 1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報を更新するための更新情報として、前記空間配置情報の初期値を基準とする差分情報である初期値基準差分情報、または、前記空間配置情報の前記初期値に前記初期値基準差分情報の更新が反映された更新後情報を生成する更新情報生成部と、
 前記更新情報を格納する更新ファイルを生成し、ランダムアクセスポイントとして前記初期値基準差分情報または前記更新後情報を前記更新ファイルに格納するファイル生成部と
 を備える情報処理装置。
 (42) 前記ファイル生成部は、前記更新ファイルの直前値基準差分情報とは異なるトラックに前記初期値基準差分情報または前記更新後情報を格納し、
 前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
 (41)に記載の情報処理装置。
 (43) 前記ファイル生成部は、前記空間配置情報の前記初期値を格納する初期値ファイルを生成し、前記初期値基準差分情報または前記更新後情報を格納する前記トラックへのリンクを示すリンク情報を、ランダムアクセス用の前記リンク情報として格納する
 (42)に記載の情報処理装置。
 (44) 前記ファイル生成部は、前記更新ファイルの直前値基準差分情報と同一のトラックの同一のサンプルに前記初期値基準差分情報または前記更新後情報を格納し、
 前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
 (41)に記載の情報処理装置。
 (45) 前記ファイル生成部は、前記直前値基準差分情報並びに前記初期値基準差分情報若しくは前記更新後情報を、それぞれを要素とするリストとして格納する
 (44)に記載の情報処理装置。
 (46) 前記ファイル生成部は、前記直前値基準差分情報並びに前記初期値基準差分情報若しくは前記更新後情報のそれぞれをサブサンプルとして管理する管理情報を前記更新ファイルの管理領域に格納する
 (44)または(45)に記載の情報処理装置。
 (47) 前記管理情報は、前記直前値基準差分情報が格納される前記サブサンプルと前記初期値基準差分情報または前記更新後情報が格納される前記サブサンプルとを識別する識別情報を含む
 (46)に記載の情報処理装置。
 (48) 前記ファイル生成部は、前記初期値基準差分情報または前記更新後情報が格納される前記サンプルをランダムアクセス可能な前記サンプルとして管理する管理情報を前記更新ファイルの管理領域に格納する
 (44)乃至(47)のいずれかに記載の情報処理装置。
 (49) 前記ファイル生成部は、前記更新ファイルの直前値基準差分情報と同一のトラックの異なるサンプルに前記初期値基準差分情報または前記更新後情報を格納し、
 前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
 (41)に記載の情報処理装置。
 (50) 前記ファイル生成部は、前記直前値基準差分情報が格納される前記サンプルと同一の更新適用時刻情報を、前記初期値基準差分情報または前記更新後情報が格納される前記サンプルに格納する
 (49)に記載の情報処理装置。
 (51) 前記ファイル生成部は、前記初期値基準差分情報または前記更新後情報が格納される前記サンプルを通常再生時に利用されない前記サンプルとして管理する管理情報を、前記更新ファイルの管理領域に格納する
 (49)または(50)に記載の情報処理装置。
 (52) 前記管理情報は、前記通常再生時に利用する前記サンプルであるか否かを示す識別情報を含む
 (51)に記載の情報処理装置。
 (53) 前記ファイル生成部は、前記初期値基準差分情報または前記更新後情報が格納される前記サンプルをランダムアクセス可能な前記サンプルとして管理する管理情報を前記更新ファイルの管理領域に格納する
 (49)乃至(52)のいずれかに記載の情報処理装置。
 (54) 前記ファイル生成部は、前記更新ファイルに格納される、更新適用時刻が前記初期値基準差分情報と同一の直前値基準差分情報を、前記初期値基準差分情報または前記更新後情報に置き換え、
 前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
 (41)に記載の情報処理装置。
 (55) 前記ファイル生成部は、前記初期値基準差分情報または前記更新後情報が格納されるサンプルをランダムアクセス可能な前記サンプルとして管理する管理情報を前記更新ファイルの管理領域に格納する
 (54)に記載の情報処理装置。
 (56) 1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報を更新するための更新情報として、前記空間配置情報の初期値を基準とする差分情報である初期値基準差分情報、または、前記空間配置情報の前記初期値に前記初期値基準差分情報の更新が反映された更新後情報を生成し、
 前記更新情報を格納する更新ファイルを生成し、ランダムアクセスポイントとして前記初期値基準差分情報または前記更新後情報を前記更新ファイルに格納する
 情報処理方法。
 (61) 1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報を更新するための更新情報を格納する更新ファイルにランダムアクセスポイントとして格納される、前記空間配置情報の初期値を基準とする差分情報である初期値基準差分情報、または、前記空間配置情報の前記初期値に前記初期値基準差分情報の更新が反映された更新後情報を、前記更新情報として取得する更新情報取得部と、
 前記空間配置情報の前記初期値に前記初期値基準差分情報の更新を反映するか、または、前記更新後情報を適用することにより、前記初期値基準差分情報の更新適用時刻の前記空間配置情報を生成する空間配置情報生成部と
 を備える情報処理装置。
 (62) 前記更新情報取得部は、前記更新ファイルの直前値基準差分情報とは異なるトラックに格納された前記初期値基準差分情報または前記更新後情報を取得し、
 前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
 (61)に記載の情報処理装置。
 (63) 前記更新情報取得部は、前記空間配置情報の前記初期値を格納する初期値ファイルにランダムアクセス用のリンク情報として格納された、前記初期値基準差分情報または前記更新後情報を格納する前記トラックへのリンクを示す前記リンク情報を用いて、前記初期値基準差分情報または前記更新後情報を取得する
 (62)に記載の情報処理装置。
 (64) 前記更新情報取得部は、前記更新ファイルの直前値基準差分情報と同一のトラックの同一のサンプルに格納された前記初期値基準差分情報または前記更新後情報を取得し、
 前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
 (61)に記載の情報処理装置。
 (65) 前記直前値基準差分情報並びに前記初期値基準差分情報若しくは前記更新後情報は、それぞれを要素とするリストとして前記サンプルに格納される
 (64)に記載の情報処理装置。
 (66) 前記更新情報取得部は、前記更新ファイルの管理領域に格納される、前記直前値基準差分情報並びに前記初期値基準差分情報若しくは前記更新後情報のそれぞれをサブサンプルとして管理する管理情報に基づいて、前記初期値基準差分情報または前記更新後情報を取得する
 (64)または(65)に記載の情報処理装置。
 (67) 前記管理情報は、前記直前値基準差分情報が格納される前記サブサンプルと前記初期値基準差分情報または前記更新後情報が格納される前記サブサンプルとを識別する識別情報を含む
 (66)に記載の情報処理装置。
 (68) 前記更新情報取得部は、前記更新ファイルの管理領域に格納される、前記初期値基準差分情報または前記更新後情報が格納される前記サンプルをランダムアクセス可能な前記サンプルとして管理する管理情報に基づいて、前記初期値基準差分情報または前記更新後情報を取得する
 (64)乃至(67)のいずれかに記載の情報処理装置。
 (69) 前記更新情報取得部は、前記更新ファイルの直前値基準差分情報と同一のトラックの異なるサンプルに格納された前記初期値基準差分情報または前記更新後情報を取得し、
 前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
 (61)に記載の情報処理装置。
 (70) 前記初期値基準差分情報または前記更新後情報が格納される前記サンプルには、前記直前値基準差分情報が格納される前記サンプルと同一の更新適用時刻情報が格納される
 (69)に記載の情報処理装置。
 (71) 前記更新情報取得部は、前記更新ファイルの管理領域に格納される、前記初期値基準差分情報または前記更新後情報が格納される前記サンプルを通常再生時に利用されない前記サンプルとして管理する管理情報に基づいて、前記初期値基準差分情報または前記更新後情報を取得する
 (69)または(70)に記載の情報処理装置。
 (72) 前記管理情報は、前記通常再生時に利用する前記サンプルであるか否かを示す識別情報を含む
 (71)に記載の情報処理装置。
 (73) 前記更新情報取得部は、前記更新ファイルの管理領域に格納される、前記初期値基準差分情報または前記更新後情報が格納される前記サンプルをランダムアクセス可能な前記サンプルとして管理する管理情報に基づいて、前記初期値基準差分情報または前記更新後情報を取得する
 (69)乃至(72)のいずれかに記載の情報処理装置。
 (74) 前記更新情報取得部は、前記更新ファイルに格納される、更新適用時刻が前記初期値基準差分情報と同一の直前値基準差分情報と置き換えられた前記初期値基準差分情報または前記更新後情報を取得し、
 前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
 (61)に記載の情報処理装置。
 (75) 前記更新情報取得部は、前記更新ファイルの管理領域に格納される、前記初期値基準差分情報または前記更新後情報が格納されるサンプルをランダムアクセス可能な前記サンプルとして管理する管理情報に基づいて、前記初期値基準差分情報または前記更新後情報を取得する
 (74)に記載の情報処理装置。
 (76) 1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報を更新するための更新情報を格納する更新ファイルにランダムアクセスポイントとして格納される、前記空間配置情報の初期値を基準とする差分情報である初期値基準差分情報、または、前記空間配置情報の前記初期値に前記初期値基準差分情報の更新が反映された更新後情報を、前記更新情報として取得し、
 前記空間配置情報の前記初期値に前記初期値基準差分情報の更新を反映するか、または、前記更新後情報を適用することにより、前記初期値基準差分情報の更新適用時刻の前記空間配置情報を生成する
 情報処理方法。
 300 ファイル生成装置, 301 制御部, 302 ファイル生成処理部, 311 入力部, 312 前処理部, 313 符号化部, 314 ファイル生成部, 315 記録部, 316 出力部, 400 クライアント装置, 401 制御部, 402 クライアント処理部, 411 ファイル取得部, 412 ファイル処理部, 413 復号部, 414 表示情報生成部, 415 表示部, 416 表示制御部

Claims (20)

  1.  1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報を更新するための更新情報として、前記空間配置情報の初期値を基準とする差分情報である初期値基準差分情報、または、前記空間配置情報の前記初期値に前記初期値基準差分情報の更新が反映された更新後情報を生成する更新情報生成部と、
     前記更新情報を格納する更新ファイルを生成し、ランダムアクセスポイントとして前記初期値基準差分情報または前記更新後情報を前記更新ファイルに格納するファイル生成部と
     を備える情報処理装置。
  2.  前記ファイル生成部は、前記更新ファイルの直前値基準差分情報とは異なるトラックに前記初期値基準差分情報または前記更新後情報を格納し、
     前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
     請求項1に記載の情報処理装置。
  3.  前記ファイル生成部は、前記空間配置情報の前記初期値を格納する初期値ファイルを生成し、前記初期値基準差分情報または前記更新後情報を格納する前記トラックへのリンクを示すリンク情報を、ランダムアクセス用の前記リンク情報として格納する
     請求項2に記載の情報処理装置。
  4.  前記ファイル生成部は、前記更新ファイルの直前値基準差分情報と同一のトラックの同一のサンプルに前記初期値基準差分情報または前記更新後情報を格納し、
     前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
     請求項1に記載の情報処理装置。
  5.  前記ファイル生成部は、前記直前値基準差分情報並びに前記初期値基準差分情報若しくは前記更新後情報を、それぞれを要素とするリストとして格納する
     請求項4に記載の情報処理装置。
  6.  前記ファイル生成部は、前記直前値基準差分情報並びに前記初期値基準差分情報若しくは前記更新後情報のそれぞれをサブサンプルとして管理する管理情報を前記更新ファイルの管理領域に格納する
     請求項4に記載の情報処理装置。
  7.  前記管理情報は、前記直前値基準差分情報が格納される前記サブサンプルと前記初期値基準差分情報または前記更新後情報が格納される前記サブサンプルとを識別する識別情報を含む
     請求項6に記載の情報処理装置。
  8.  前記ファイル生成部は、前記初期値基準差分情報または前記更新後情報が格納される前記サンプルをランダムアクセス可能な前記サンプルとして管理する管理情報を前記更新ファイルの管理領域に格納する
     請求項4に記載の情報処理装置。
  9.  前記ファイル生成部は、前記更新ファイルの直前値基準差分情報と同一のトラックの異なるサンプルに前記初期値基準差分情報または前記更新後情報を格納し、
     前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
     請求項1に記載の情報処理装置。
  10.  前記ファイル生成部は、前記直前値基準差分情報が格納される前記サンプルと同一の更新適用時刻情報を、前記初期値基準差分情報または前記更新後情報が格納される前記サンプルに格納する
     請求項9に記載の情報処理装置。
  11.  前記ファイル生成部は、前記初期値基準差分情報または前記更新後情報が格納される前記サンプルを通常再生時に利用されない前記サンプルとして管理する管理情報を、前記更新ファイルの管理領域に格納する
     請求項9に記載の情報処理装置。
  12.  前記管理情報は、前記通常再生時に利用する前記サンプルであるか否かを示す識別情報を含む
     請求項11に記載の情報処理装置。
  13.  前記ファイル生成部は、前記初期値基準差分情報または前記更新後情報が格納される前記サンプルをランダムアクセス可能な前記サンプルとして管理する管理情報を前記更新ファイルの管理領域に格納する
     請求項9に記載の情報処理装置。
  14.  前記ファイル生成部は、前記更新ファイルに格納される、更新適用時刻が前記初期値基準差分情報と同一の直前値基準差分情報を、前記初期値基準差分情報または前記更新後情報に置き換え、
     前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
     請求項1に記載の情報処理装置。
  15.  前記ファイル生成部は、前記初期値基準差分情報または前記更新後情報が格納されるサンプルをランダムアクセス可能な前記サンプルとして管理する管理情報を前記更新ファイルの管理領域に格納する
     請求項14に記載の情報処理装置。
  16.  1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報を更新するための更新情報として、前記空間配置情報の初期値を基準とする差分情報である初期値基準差分情報、または、前記空間配置情報の前記初期値に前記初期値基準差分情報の更新が反映された更新後情報を生成し、
     前記更新情報を格納する更新ファイルを生成し、ランダムアクセスポイントとして前記初期値基準差分情報または前記更新後情報を前記更新ファイルに格納する
     情報処理方法。
  17.  1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報を更新するための更新情報を格納する更新ファイルにランダムアクセスポイントとして格納される、前記空間配置情報の初期値を基準とする差分情報である初期値基準差分情報、または、前記空間配置情報の前記初期値に前記初期値基準差分情報の更新が反映された更新後情報を、前記更新情報として取得する更新情報取得部と、
     前記空間配置情報の前記初期値に前記初期値基準差分情報の更新を反映するか、または、前記更新後情報を適用することにより、前記初期値基準差分情報の更新適用時刻の前記空間配置情報を生成する空間配置情報生成部と
     を備える情報処理装置。
  18.  前記更新情報取得部は、前記更新ファイルの直前値基準差分情報と同一のトラックの同一のサンプルに格納された前記初期値基準差分情報または前記更新後情報を取得し、
     前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
     請求項17に記載の情報処理装置。
  19.  前記更新情報取得部は、前記更新ファイルの直前値基準差分情報と同一のトラックの異なるサンプルに格納された前記初期値基準差分情報または前記更新後情報を取得し、
     前記直前値基準差分情報は、直前の前記更新情報までの更新が反映された前記空間配置情報を基準とする差分情報である
     請求項17に記載の情報処理装置。
  20.  1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報を更新するための更新情報を格納する更新ファイルにランダムアクセスポイントとして格納される、前記空間配置情報の初期値を基準とする差分情報である初期値基準差分情報、または、前記空間配置情報の前記初期値に前記初期値基準差分情報の更新が反映された更新後情報を、前記更新情報として取得し、
     前記空間配置情報の前記初期値に前記初期値基準差分情報の更新を反映するか、または、前記更新後情報を適用することにより、前記初期値基準差分情報の更新適用時刻の前記空間配置情報を生成する
     情報処理方法。
PCT/JP2021/036905 2020-10-07 2021-10-06 情報処理装置および方法 WO2022075342A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022555520A JPWO2022075342A1 (ja) 2020-10-07 2021-10-06
CN202180067544.8A CN116250013A (zh) 2020-10-07 2021-10-06 信息处理装置和方法
US18/024,976 US20230334804A1 (en) 2020-10-07 2021-10-06 Information processing device and method
EP21877641.7A EP4227906A4 (en) 2020-10-07 2021-10-06 INFORMATION PROCESSING DEVICE AND METHOD

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202063088671P 2020-10-07 2020-10-07
US63/088,671 2020-10-07
US202163134238P 2021-01-06 2021-01-06
US63/134,238 2021-01-06

Publications (1)

Publication Number Publication Date
WO2022075342A1 true WO2022075342A1 (ja) 2022-04-14

Family

ID=81125984

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/036905 WO2022075342A1 (ja) 2020-10-07 2021-10-06 情報処理装置および方法

Country Status (5)

Country Link
US (1) US20230334804A1 (ja)
EP (1) EP4227906A4 (ja)
JP (1) JPWO2022075342A1 (ja)
CN (1) CN116250013A (ja)
WO (1) WO2022075342A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117827261A (zh) * 2024-03-06 2024-04-05 暗物智能科技(广州)有限公司 基于字符串的Electron应用增量更新方法、系统、介质及终端

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020137877A1 (ja) * 2018-12-25 2020-07-02 シャープ株式会社 三次元データ再生装置
WO2020189038A1 (ja) * 2019-03-20 2020-09-24 ソニー株式会社 情報処理装置、情報処理方法、再生処理装置及び再生処理方法
WO2021065277A1 (ja) * 2019-09-30 2021-04-08 ソニー株式会社 情報処理装置、再生処理装置及び情報処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020137877A1 (ja) * 2018-12-25 2020-07-02 シャープ株式会社 三次元データ再生装置
WO2020189038A1 (ja) * 2019-03-20 2020-09-24 ソニー株式会社 情報処理装置、情報処理方法、再生処理装置及び再生処理方法
WO2021065277A1 (ja) * 2019-09-30 2021-04-08 ソニー株式会社 情報処理装置、再生処理装置及び情報処理方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
"Information technology - Coding of audio-visual objects - Part 12: ISO base media file format", ISO/IEC 14496-12, 20 February 2015 (2015-02-20)
"Information technology - MPEG Systems Technologies - Part 15: Carriage of Web Resources in ISOBMFF", ISO/IEC JTC 1/SC 29/WG 11 N18639, ISO/IEC 23001-15, 12 August 2019 (2019-08-12)
LUKASZ KONDRADIMED BOUAZIZI: "Technologies under Considerations on Scene Description for MPEG Media", ISO/IEC JTC LISC29/WG 11 MPEG2020/N 19446, 3 July 2020 (2020-07-03)
OZGUR OYMANROBERT WATTS: "Further Support for Dynamic Scene Updates", ISO/IEC JTC1/SC29/WG11 MPEG2020/M54841, October 2020 (2020-10-01)
P. BRYANM. NOTTINGHAM: "JavaScript (registered trademark) Object Notation (JSON) Patch", INTERNET ENGINEERING TASK FORCE (IETF, April 2013 (2013-04-01), Retrieved from the Internet <URL:https://datatracker.ietf.org/doc/html/rfc6902>
See also references of EP4227906A4

Also Published As

Publication number Publication date
JPWO2022075342A1 (ja) 2022-04-14
US20230334804A1 (en) 2023-10-19
EP4227906A1 (en) 2023-08-16
CN116250013A (zh) 2023-06-09
EP4227906A4 (en) 2024-04-10

Similar Documents

Publication Publication Date Title
CN110463210A (zh) 用于生成媒体数据的方法
JP7487742B2 (ja) 画像処理装置および方法
WO2021251185A1 (ja) 情報処理装置および方法
US11825135B2 (en) Information processing apparatus, information processing method, reproduction processing apparatus, and reproduction processing method
CN114450966A (zh) 用于异构沉浸式媒体的表示和流式传输的数据模型
WO2021065277A1 (ja) 情報処理装置、再生処理装置及び情報処理方法
WO2022075342A1 (ja) 情報処理装置および方法
JP2001243496A (ja) シーン記述生成装置及び方法、シーン記述変換装置及び方法、シーン記述記憶装置及び方法、シーン記述復号装置及び方法、ユーザインタフェースシステム、記録媒体並びに伝送媒体
JPWO2020137854A1 (ja) 情報処理装置および情報処理方法
US20240046562A1 (en) Information processing device and method
WO2022070903A1 (ja) 情報処理装置および方法
KR20030056034A (ko) 엠펙 데이터의 수신 장치, 엠펙 데이터 송수신시스템 및송수신방법
EP3972260A1 (en) Information processing device, information processing method, reproduction processing device, and reproduction processing method
EP4325871A1 (en) Information processing device and method
WO2022220255A1 (ja) 情報処理装置および方法
WO2023176928A1 (ja) 情報処理装置および方法
WO2022220278A1 (ja) 情報処理装置および方法
WO2023054156A1 (ja) 情報処理装置および方法
WO2023204289A1 (ja) 情報処理装置および方法
WO2022138221A1 (ja) 情報処理装置および方法
WO2021251141A1 (ja) 情報処理装置および方法
WO2023277062A1 (ja) 情報処理装置および方法
JP2024508865A (ja) 点群符号化・復号方法、装置、及び電子機器
CN117376329A (zh) 媒体文件的解封装和封装方法、装置、介质及电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21877641

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022555520

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021877641

Country of ref document: EP

Effective date: 20230508