CN115462062A - 信息处理装置和方法 - Google Patents

信息处理装置和方法 Download PDF

Info

Publication number
CN115462062A
CN115462062A CN202180030626.5A CN202180030626A CN115462062A CN 115462062 A CN115462062 A CN 115462062A CN 202180030626 A CN202180030626 A CN 202180030626A CN 115462062 A CN115462062 A CN 115462062A
Authority
CN
China
Prior art keywords
timing metadata
timing
file
information
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180030626.5A
Other languages
English (en)
Inventor
木山由佳
平林光浩
高桥辽平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of CN115462062A publication Critical patent/CN115462062A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • H04N9/8045Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开内容涉及能够抑制再现处理负荷增加的信息处理装置和方法。指示在时间方向上改变的链接外部文件的元数据的定时元数据标识信息存储在MPEG_media extension中;将相机对象链接至元数据的定时元数据访问信息存储在相机对象中;并且生成描述3D对象内容场景的场景描述文件。另外,基于存储在场景描述文件中的定时元数据标识信息和定时元数据访问信息获取在时间方向上改变的定时元数据,并且基于所获取的定时元数据生成3D对象内容显示图像。本公开内容可以应用于例如信息处理装置、信息处理方法等。

Description

信息处理装置和方法
技术领域
本公开内容涉及信息处理装置和方法,并且更具体地涉及能够抑制再现处理的负载增加的信息处理装置和方法。
背景技术
通常,已知GL传输格式(glTF)(注册商标)2.0,其是用于在三维空间中布置三维(3D)对象的格式(例如,参见非专利文献1)。近年来,在运动图像专家组(MPEG)-I场景描述中,已经进行了扩展glTF2.0和应用在时间方向上变化的内容的研究(例如,参见非专利文献2)。例如,已经提出了处理定时纹理媒体的方法,该定时纹理媒体在国际标准化组织基本媒体文件格式(ISOBMFF)等中被编码和存储为纹理(Texture)数据(例如,参见非专利文献3)。此外,已经进行了关于处理不仅针对内容而且针对与内容相关联的元数据随时间改变的对象的方法的研究(例如,参见非专利文献4)。
引用列表
非专利文献
非专利文献1:Saurabh Bhatia,Patrick Cozzi,Alexey Knyazev,Tony Parisi,“Khronos glTF2.0”,https://github.com/KhronosGroup/glTF/tree/master/specification/2.0,6月9日,2017
非专利文献2:Lukasz Kondrad,Imed Bouazizi,“Technologies underConsiderations on Scene Description for MPEG Media”,ISO/IEC JTC1/SC29/WG11MPEG2020/N19290,2020年4月
非专利文献3:“Information technology.Coding of audio-visualobjects.Part 12”,ISO/IEC 14496-12,2015-02-20
非专利文献4:Shuichi Aoki and Yuma Wakahara,“(36.1)Proposed extensionsof glTF2 for supporting MPEG media”,ISO/IEC JTC1/SC29/WG11 MPEG2020/M53397r1,2020年4月
发明内容
本发明要解决的问题
然而,在传统方法中,在场景描述中处理随时间变化的元数据的情况下,在场景描述中描述随时间变化的所有元数据。为了再现3D对象内容,随时间变化的元数据和另一定时媒体具有不同的同步机制,因此需要彼此同步。因此,需要复杂的工作,并且存在3D对象内容的再现处理的负荷增加的可能性。
本公开内容是鉴于这些情况而提出的,并且因此本公开内容的目的在于抑制再现处理的负荷的增加。
问题的解决方案
根据本技术的一个方面的信息处理装置包括文件生成单元,该文件生成单元被配置成生成描述3D对象内容的场景的场景描述性文件,在场景描述性文件中,指示相关联的外部文件的元数据在时间方向上改变的定时元数据标识信息存储在MPEG_mediaextension中,并且将相机对象与元数据相关联的定时元数据访问信息存储在相机对象中。
根据本技术的一个方面的信息处理方法包括:生成描述3D对象内容的场景的场景描述性文件,在场景描述性文件中,指示相关联的外部文件的元数据在时间方向上改变的定时元数据标识信息存储在MPEG_media extension中,并且将相机对象与元数据相关联的定时元数据访问信息存储在相机对象中。
根据本技术的另一方面的信息处理设备包括:获取单元,其被配置成基于描述3D对象内容的场景的场景描述性文件中的MPEG_media extension中存储的定时元数据标识信息和场景描述性文件中的相机对象中存储的定时元数据访问信息来获取在时间方向上改变的定时元数据;以及生成单元,其被配置成基于由获取单元获取的定时元数据来生成3D对象内容的显示图像。
根据本技术的另一方面的信息处理方法包括:基于描述3D对象内容的场景的场景描述性文件中的MPEG_media extension中存储的定时元数据标识信息和场景描述性文件中的相机对象中存储的定时元数据访问信息,获取在时间方向上改变的定时元数据;以及基于所获取的定时元数据生成3D对象内容的显示图像。
在根据本技术的一个方面的信息处理装置和方法中,生成描述3D对象内容的场景的场景描述文件,在场景描述文件中,指示相关联的外部文件的元数据在时间方向上改变的定时元数据标识信息存储在MPEG_media extension中,并且将相机对象与元数据相关联的定时元数据访问信息存储在相机对象中。
在根据本技术的另一方面的信息处理装置和方法中,基于在描述3D对象内容的场景的场景描述文件中的MPEG_media extension中存储的定时元数据标识信息和在场景描述文件中的相机对象中存储的定时元数据访问信息来获取在时间方向上改变的定时元数据,并且基于所获取的定时元数据来生成3D对象内容的显示图像。
附图说明
图1是示出glTF2.0的主要配置示例的图。
图2是示出glTF对象和引用关系的示例的图。
图3是示出JSON格式文件的描述示例的图。
图4是用于描述如何访问二进制数据的图。
图5是示出JSON格式文件的描述示例的图。
图6是示出缓冲器对象(buffer object)、缓冲器视图对象(buffer view object)和访问器对象(accessor object)之间的关系的图。
图7是示出缓冲器对象、缓冲器视图对象和访问器对象的描述示例的图。
图8是用于描述如何扩展glTF2.0的图。
图9是用于描述用于处理Timed media的扩展的图。
图10是用于描述用于处理Timed media的扩展的图。
图11是用于描述用于处理Timed media的扩展的图。
图12是用于描述用于处理Timed media的扩展的图。
图13是用于描述相机对象的图。
图14是示出随时间变化的相机对象的示例的图。
图15是示出随时间变化的相机对象的示例的图。
图16是用于描述如何发送定时元数据的图。
图17是用于描述如何关联随时间变化的相机对象的图。
图18是示出场景描述中的MPEG_media对象的描述示例的图。
图19是示出场景描述中的相机扩展的描述示例的图。
图20是示出在相机扩展中应用的参数的语义的示例的图。
图21是示出如何经由访问器对象访问定时元数据的示例的图。
图22是示出定时元数据的示例的图。
图23是示出场景描述中的相机扩展的描述示例的图。
图24是示出场景描述中的相机扩展的描述示例的图。
图25是示出多个相机对象的示例的图。
图26是示出其中多条定时元数据与场景描述相关联的示例的图。
图27是示出其中多条定时元数据与场景描述相关联的示例的图。
图28是示出文件生成装置的主要配置示例的框图。
图29是示出文件生成处理的流程的示例的流程图。
图30是示出客户端装置的主要配置示例的框图。
图31是示出客户端处理的流程的示例的流程图。
图32是示出客户端处理的流程的示例的流程图。
图33是示出客户端处理的流程的示例的流程图。
图34是示出计算机的主要配置示例的框图。
具体实施方式
在下文中,将描述用于实现本公开内容(在下文中,称为实施方式)的模式。注意,将按以下顺序给出描述。
1.MPEG-I场景描述
2.定时元数据等的传输
3.第一实施方式(文件生成装置)
4.第二实施方式(客户端装置)
5.附录
<1.MPEG-I场景描述>
<支持技术内容和技术术语的文献等>
本技术中公开的范围不仅包括在实施方式中描述的内容,还包括在提交时公开已知的以下非专利文献等中描述的内容、在以下非专利文献中引用的其他文献的内容等。
非专利文献1:(上述)
非专利文献2:(上述)
非专利文献3:(上述)
非专利文献4:(上述)
即,上述非专利文献中描述的内容、上述非专利文献中引用的其他文献的内容等也构成用于确定支持要求的基础。
<gltf2.0>
传统上,例如,如非专利文献1所述,已知GL传输格式(glTF)(注册商标)2.0,其是用于在三维空间中布置三维(3D)对象的格式。例如,如图1所示,glTF2.0包括JSON格式文件(.glTF)、二进制文件(.bin)和图像文件(.png、.jpg等)。二进制文件存储诸如几何形状或动画的二进制数据。图像文件存储诸如纹理的数据。
JSON格式文件是在JavaScript(注册商标)对象符号(JSON)中描述的场景描述文件。场景描述是描述3D内容的场景(的描述)的元数据。场景描述的描述定义了它是什么类型的场景。场景描述文件是存储这种场景描述的文件。在本公开中,场景描述文件也被称为场景描述性文件。
JSON格式文件的描述包括键(KEY)和值(VALUE)的对的列表。下面将描述该格式的示例。
“KEY”:“VALUE”
键包括字符串。值包括数值、字符串、布尔值、数组、对象、空值等。
此外,多个键值对(“KEY”:“VALUE”)可以使用{}(卷曲括号)放在一起。放在卷曲括号中的键值对也被称为JSON对象。下面将描述该格式的示例。
“user”:{“id”:1,“name”:“tanaka”}
在该示例中,其中“id”:1的对和“name”:“tanaka”的对放在一起的JSON对象被定义为对应于键(用户)的值。
此外,可以使用[](方括号)来排列零个或更多个值。该数组也被称为JSON数组。例如,JSON对象能够用作该JSON数组的元素。下面将描述该格式的示例。
“test”:[“hoge”,“fuga”,“bar”]
“users”:[{“id”:1,“name”:“tanaka”},{“id”:2,“name”:“yamada”},{“id”:3,“name”:“sato”}]
图2示出了可以在JSON格式文件的顶级描述的glTF对象以及glTF对象可以具有的引用关系。图2所示的树结构中的椭圆指示对象,并且对象之间的箭头指示引用关系。如图2所示,在JSON格式文件的顶级描述诸如“场景(scene)”、“节点(node)”、“网格(mesh)”、“相机(camera)”、“皮肤(skin)”、“材料(material)”和“纹理(texture)”的对象。
图3示出了这种JSON格式文件(场景描述)的描述示例。图3的JSON格式文件20示出了顶级的一部分的描述示例。在该JSON格式文件20中,要使用的顶级对象21都在顶级描述。顶级对象21是图2所示的glTF对象。此外,JSON格式文件20示出了如箭头22所示的对象之间的引用关系。更具体地,通过使用高级对象的属性指定要被引用的对象数组的元素的索引来指示引用关系。
图4是用于描述如何访问二进制数据的图。如图4所示,二进制数据存储在缓冲器对象中。即,示出了用于访问缓冲器对象中的二进制数据的信息(例如,统一资源标识符(URI)等)。在JSON格式文件中,如图4所示,例如,可以经由访问器对象和缓冲器视图对象(bufferView对象)对缓冲器对象进行来自诸如网格、相机和皮肤的对象的访问。
即,在诸如网格、相机和皮肤的对象中,指定要引用的访问器对象。图5示出了JSON格式文件中的网格对象(网格)的描述示例。例如,如图5所示,在网格对象中,诸如NORMAL、POSITION、TANGENT和TEXCORD_0的顶点属性被定义为键,并且要被引用的访问器对象被指定为每个属性的值。
图6示出了缓冲器对象、缓冲器视图对象和访问器对象之间的关系。此外,图7示出了JSON格式文件中的这样的对象的描述示例。
在图6中,缓冲器对象41是存储用于访问作为实际数据的二进制数据的信息(例如URI)和指示二进制数据的数据长度(例如字节长度)的信息的对象。图7的A示出了缓冲器对象41的描述示例。图7的A所示的““bytelength”:102040”指示缓冲器对象41的字节长度是102040字节,如图6所示。此外,图7的A所示的““uri”:“duck.bin””指示缓冲器对象41的URI是“duck.bin”,如图6所示。
在图6中,缓冲器视图对象42是存储关于在缓冲器对象41中指定的二进制数据的子集区域的信息(即,关于缓冲器对象41的一部分的区域的信息)的对象。图7的B示出了缓冲器视图对象42的描述示例。如图6和图7的B所示,缓冲器视图对象42存储例如以下信息:诸如缓冲器视图对象42所属的缓冲器对象41的标识信息、指示缓冲器视图对象42在缓冲器对象41中的位置的偏移(例如,字节偏移)、以及指示缓冲器视图对象42的数据长度(例如,字节长度)的长度(例如,字节长度)。
如图7的B所示,在存在多个缓冲器视图对象的情况下,针对缓冲器视图对象中的每一个(即,针对每个子集区域)描述信息。例如,在图7的B的上侧示出的诸如““buffer”:0”、““bytelength”:25272”和““byteOffset”:0”的信息是在图6的缓冲器对象41中示出的第一缓冲器视图对象42(bufferView[0])的信息,此外,在图7的B的下侧示出的诸如““buffer”:0”、““bytelength”:76768”和““byteOffset”:25272”的信息是在图6的缓冲器对象41中示出的第二缓冲器视图对象42(bufferView[1])的信息。
如图6所示,图7的B所示的第一缓冲器视图对象42(bufferView[0])的““buffer”:0”指示缓冲器视图对象42(bufferView[0])所属的缓冲器对象41的标识信息为“0”(buffer[0])。此外,““bytelength”:25272”指示缓冲器视图对象42(bufferView[0])的字节长度为25272字节。此外,““byteOffset”:0”指示缓冲器视图对象42(bufferView[0])的字节偏移是零字节。
如图6所示,图7的B中所示的第二缓冲器视图对象42(bufferView[1])的““buffer”:0”指示缓冲器视图对象42(bufferView[0])所属的缓冲器对象41的标识信息是“0”(buffer[0])。此外,““bytelength”:76768”指示缓冲器视图对象42(bufferView[0])的字节长度是76768字节。此外,““byteOffset”:25272”指示缓冲器视图对象42(bufferView[0])的字节偏移是25272字节。
在图6中,访问器对象43是存储关于如何解释缓冲器视图对象42的数据的信息的对象。图7的C示出了访问器对象43的描述示例。如图6和图7的C所示,访问器对象43存储例如以下信息:诸如访问器对象43所属的缓冲器视图对象42的标识信息、指示缓冲器视图对象42在缓冲器对象41中的位置的偏移(例如,字节偏移)、缓冲器视图对象42的组件类型、存储在缓冲器视图对象42中的数据的条数、以及存储在缓冲器视图对象42中的数据的类型。针对每个缓冲器视图对象描述这样的信息。
在图7的C的示例中,示出了诸如““bufferView”:0”、““byteOffset”:0”、““componentType”:5126”、““count”:2106”和““type”:“VEC3””的信息。如图6所示,““bufferView”:0”指示访问器对象43所属的缓冲器视图对象42(bufferView[0])的标识信息是“0”。““byteOffset”:0”指示缓冲器视图对象42(bufferView[0])的字节偏移是零字节。此外,““componentType”:5126”指示组件类型是FLOAT类型(OpenGL宏常数)。此外,““count”:2106”指示存储在缓冲器视图对象42(bufferView[0])中的数据的数目是2106。此外,““type”:“VEC3””指示存储在缓冲器视图对象42(bufferView[0])中的数据(的类型)是三维矢量。
对除图像以外的数据的所有访问都是通过(通过指定访问器的索引)引用访问器对象43来定义的。
在glTF2.0中,对象可以被扩展,并且新定义的对象可以存储在扩展对象中。图8是用于描述如何扩展glTF2.0的图。图8所示的描述示例是在新定义的对象(CompareDataExtension)存储在场景对象的扩展对象中的情况下的描述示例。在图8所示的示例中,新对象(CompareDataExtension)存储在场景对象(“scenes(场景)”)的扩展对象(extension(扩展))中。在如上所述扩展对象的情况下,在“extensionUsed”和“extensionRequired”中定义新对象的名称。这表明新对象是加载所需的对象。
<定时媒体的应用>
近年来,如非专利文献2中所公开的,例如,在运动图像专家组(MPEG)-I场景描述中,已经进行了扩展glTF2.0并应用定时媒体(Timed media)作为3D对象内容的研究。定时媒体是像二维图像中的运动图像那样在时间轴方向上改变的媒体数据。
glTF仅可以应用于作为媒体数据(3D对象内容)的静止图像数据。即,glTF不支持运动图像的媒体数据。在移动3D对象的情况下,应用了动画(沿时间轴切换静止图像的方法)。
在MPEG-I场景描述中,已经进行了应用glTF2.0、应用JSON格式文件作为场景描述、并且进一步扩展glTF的研究以使得定时媒体(例如,视频数据)能够作为媒体数据被处理。为了处理定时媒体,例如,进行以下扩展。
图9是用于描述用于处理定时媒体的扩展的图。如图9所示,提供管理诸如视频数据的实际数据的MPEG媒体对象(MPEG_media)作为glTF对象的扩展对象(extensions)。即,关于诸如视频数据的实际数据的信息存储在MPEG媒体对象中。
此外,如图9所示,提供MPEG视频纹理对象(MPEG_video_texture)作为纹理对象(texture)的扩展对象(extensions)。在MPEG视频纹理对象中,存储与要访问的缓冲器对象相对应的访问器的信息。即,与缓冲器对象相对应的访问器的信息存储在MPEG视频纹理对象中,在该缓冲器对象中,由MPEG媒体对象(MPEG_media)指定的纹理媒体被解码并被存储。
图10是示出用于描述用于处理定时媒体的扩展的场景描述中的MPEG媒体对象(MPEG_media)和MPEG视频纹理对象(MPEG_video_texture)的描述示例的图。在图10的示例的情况下,在从顶部起的第二行中,MPEG视频纹理对象(MPEG_video_texture)被如下设置为纹理对象(texture)的扩展对象(extensions)。然后,指定访问器的索引(在该示例中为“2”)作为MPEG视频纹理对象的值。
“texture”:[{“sampler”:0, “source”:1,“extensions”:{“MPEG_video_texture”:“accessor”:2}}],
此外,在图10的示例的情况下,在从顶部开始的第七行到第十六行中,如下将MPEG媒体对象(MPEG_media)设置为glTF的扩展对象(extensions)。然后,作为MPEG媒体对象的值,例如,存储关于MPEG媒体对象(例如MPEG媒体对象的编解码器和URI)的各种类型的信息。
Figure BDA0003905480030000091
Figure BDA0003905480030000101
此外,如图9所示,提供MPEG循环缓冲器对象(MPEG_cyclic_buffer)作为缓冲器对象(buffer)的扩展对象(extensions)。用于动态地将数据存储在缓冲器对象中的信息存储在MPEG循环缓冲器对象中。例如,诸如指示缓冲器报头(bufferHeader)的数据长度的信息和指示帧数目的信息的信息存储在MPEG循环缓冲器对象中。注意,缓冲器报头存储例如诸如所存储的帧数据的索引、时间戳和数据长度等的信息。
此外,如图9所示,提供MPEG定时访问器对象(MPEG_timed_accessor)作为访问器对象(accessor)的扩展对象(extensions)。在这种情况下,由于媒体数据是运动图像,因此要引用的缓冲器视图对象(bufferView)可能在时间方向上改变(位置可能变化)。因此,指示要引用的缓冲器视图对象的信息存储在MPEG定时访问器对象中。例如,MPEG定时访问器对象存储指示对描述定时访问器信息报头(timedAccessor信息报头)的缓冲器视图对象(bufferView)的引用的信息。注意,定时访问器信息报头是例如在动态改变的访问器对象和缓冲视图对象中存储信息的报头信息。
图11是示出用于描述用于处理定时媒体的扩展的场景描述中的MPEG循环缓冲器对象(MPEG_circular_buffer)和MPEG定时访问器对象(MPEG_timed_accessor)的描述示例的图。在图11的示例的情况下,在从顶部起的第五行中,MPEG定时访问器对象(MPEG_timed_accessor)被如下设置为访问器对象(accessors)的扩展对象(extensions)。然后,指定诸如缓冲器视图对象的索引(在该示例中为“1”)、更新速率(updataRate)和不可变信息(immutable)的参数以及参数的值,作为MPEG定时访问器对象的值。
“MPEG_timed_accessor”:{“bufferView”:1, “updateRate”:25.0,“immutable”:1,"}
此外,在图11的示例的情况下,在从顶部起的第十三行中,MPEG循环缓冲器对象(MPEG_circular_buffer)被如下设置为缓冲器对象(buffer)的扩展对象(extensions)。然后,指定诸如缓冲器帧计数(count)、报头长度(headerLength)和更新速率(updataRate)的参数以及参数的值,作为MPEG循环缓冲器对象的值。
“MPEG_circular_buffer”:{“count”:5, “headerLength”:12,“updateRate”:25.0}
图12是描述用于处理定时媒体的扩展的图。图12示出了MPEG定时访问器对象或MPEG循环缓冲器对象与访问器对象、缓冲器视图对象和缓冲器对象之间的关系的示例。
如上所述,缓冲器对象的MPEG循环缓冲器对象存储在由缓冲器对象指示的缓冲器区域中存储随时间变化的数据所需的信息,例如缓冲器帧计数(count)、报头长度(headerLength)和更新率(updataRate)。此外,诸如索引(idex)、时间戳(timestamp)和数据长度(length)的参数存储在作为缓冲器区域的报头的缓冲器报头(bufferHeader)中。
如上所述,访问器对象的MPEG定时访问器对象存储关于要被引用的缓冲器视图对象的信息,例如缓冲器视图对象的索引(bufferView)、更新速率(updataRate)和不可变信息(immutable)。此外,MPEG定时访问器对象存储关于缓冲器视图对象的信息,在缓冲器视图对象中存储了要引用的定时访问器信息报头。在定时访问器信息报头中,可以存储时间戳δ(timestamp_delta)、访问器对象的更新数据、缓冲器视图对象的更新数据等。
<相机对象>
glTF2.0包括作为对象的相机对象(Camera object)。相机对象是用于剪切三维空间的一部分并在二维图像中显示所剪切的部分的对象,并且存储视角、透视信息等。如图13的A所示,相机对象81与节点对象(node)相关联。因此,将存储在节点对象的属性中的信息应用于空间中的位置或取向。图13的B示出了节点对象的属性的示例。
<相机对象的随时间变化的信号>
非专利文献4提出了使相机对象的位置、取向、视角信息等随时间变化的方案。这使得内容创建者能够指定如何示出随时间变化的三维空间。作为实现上述内容的方法,例如,如图14的A所示,已经设计了在相机对象81中定义扩展82并在扩展82中描述随时间变化的参数的方法。
图14的B图示了在该情况下的场景描述中的相机对象81的描述示例。如图14的B所示,在该情况下,在相机对象81的扩展82中设置在时间方向上变化的MPEG定时相机对象(MPEG_timed_camera),并且在MPEG定时相机对象中表示与相机有关的各种参数在时间方向上的变化。
在该MPEG定时相机对象中,例如,描述如图15所示的参数(例如,frame_rate、frame_number、camera_position、camera_orientation、aspectRatio、yfov、zfar、znear等)的值。frame_rate是指示相机的帧速率的参数。frame_number是指示相机的帧编号的参数。camera_position是指示相机的位置的参数。camera_orientation是指示相机的取向的参数。aspectRatio是指示相机的纵横比的参数。yfov是指示竖直方向上的视角(弧度)的参数。zfar是指示从相机到远剪切平面的距离的参数。znear是指示从相机到近剪切平面的距离的参数。
<处理的复杂化>
在场景描述中处理诸如其参数值在时间方向上改变的相机对象的信息的在时间方向上改变的元数据的情况下,存在如上所述的在场景描述中写入所有元数据的方法导致处理复杂的可能性。
例如,在这种场景描述中描述并且在时间方向上改变的元数据、以及存储在场景描述的外部文件中并且在时间方向上改变的其他定时媒体具有不同的同步机制。因此,为了再现3D对象内容,需要使元数据与其他定时媒体同步。即,存在再现处理变得复杂并且再现处理的负荷增加的可能性。
此外,在对场景描述中描述并且在时间方向上改变的元数据(例如,上述MPEG定时相机对象)进行编辑的情况下,即使在编辑元数据的一部分的情况下,也需要读取所有元数据并且执行作为所有元数据的编辑的处理。即,存在编辑处理变得复杂并且编辑处理的负荷增加的可能性。
<2.定时元数据等的传输>
因此,如图16的表的最上行所示,随时间变化的元数据存储在作为与场景描述不同的数据的定时元数据中。在本公开内容中,关于相机的定时元数据也被称为定时相机元数据。
利用该配置,定时元数据在配置上与其他定时媒体相似,并且定时元数据在同步机制上还与其他定时媒体相似。因此,仅通过在同一时刻获取定时元数据的信息和对应的其他定时媒体的信息,就能够容易地使定时元数据和其他定时媒体同步。因此,可以防止再现处理复杂化,并且抑制再现处理的负荷的增加。
此外,由于定时元数据被配置成场景描述的外部文件,因此可以容易地编辑仅定时元数据的一部分。即,可以防止编辑处理复杂化,并且抑制编辑处理的负荷的增加。
<方法1>
为了将被配置成场景描述性文件的外部文件的定时元数据与场景描述性文件相关联,作为指示定时元数据(在时间方向上变化的元数据)的标识信息的定时元数据标识信息可以存储在MPEG媒体对象(MPEG_media object)中,如从图16的表的顶部起的第二行所示(方法1)。此外,作为用于访问定时元数据的信息的定时元数据访问信息可以存储在相机对象的扩展中(方法1)。
例如,在信息处理方法下,生成描述3D对象内容的场景的场景描述性文件,在场景描述性文件中,指示相关联的外部文件的元数据在时间方向上改变的定时元数据标识信息存储在MPEG媒体对象(MPEG_media extension)中,并且将相机对象与元数据相关联的定时元数据访问信息存储在相机对象中。
例如,信息处理装置包括文件生成单元,该文件生成单元生成描述3D对象内容的场景的场景描述性文件,在场景描述性文件中,指示相关联的外部文件的元数据在时间方向上改变的定时元数据标识信息存储在MPEG媒体对象(MPEG_media extension)中,并且将相机对象与元数据相关联的定时元数据访问信息存储在相机对象中。
例如,在信息处理方法下,基于在描述3D对象内容的场景的场景描述性文件中的MPEG媒体对象(MPEG_media extension)中存储的定时媒体标识信息(定时元数据标识信息)和在场景描述性文件中的相机对象中存储的定时媒体访问信息(定时元数据访问信息)来获取在时间方向上改变的定时元数据,并且基于所获取的定时元数据来生成3D对象内容的显示图像。
例如,信息处理装置包括:获取单元,其基于描述3D对象内容的场景的场景描述性文件中的MPEG媒体对象(MPEG_media extension)中存储的定时媒体标识信息(定时元数据标识信息)和场景描述性文件中的相机对象中存储的定时媒体访问信息(定时元数据访问信息)来获取在时间方向上改变的定时元数据;以及生成单元,其基于获取单元获取的定时元数据来生成3D对象内容的显示图像。
利用这种配置,定时元数据可以与场景描述相关联。因此,再现3D对象内容的装置可以基于定时元数据标识信息和定时元数据访问信息来容易地访问定时元数据。因此,如上所述,再现3D对象内容的装置可以防止再现处理和编辑处理复杂化,并且抑制这样的处理的负荷的增加。
图17是用于描述如何关联随时间变化的相机对象的图。如图17所示,场景描述性文件101具有如图17的虚线框所示的配置。如以上参照图9等描述的,如实际帧102所示,纹理对象可以经由访问器对象、缓冲器视图对象和缓冲器对象来访问MPEG媒体对象(即,场景描述性文件之外的定时纹理数据)。
与上述情况一样,相机对象81可以经由如实际帧103中所示的访问器对象111、缓冲器视图对象112和缓冲器对象113来访问MPEG媒体对象121(即,场景描述性文件之外的定时元数据)。
此时,外部文件的信息存储在用于将场景描述文件与外部文件相关联的MPEG媒体对象(MPEG_media object)中。定时媒体标识信息存储在MPEG媒体对象(MPEG_media)中。定时媒体标识信息是指示外部文件(或文件中的轨道)的信息是相机对象(相机)的定时元数据的标识信息。
例如,该定时媒体标识信息可以存储在场景描述性文件中的MPEG媒体对象(MPEG_media extension)的替选数组的mimeType中。然后,当再现3D对象内容时,可以基于存储在场景描述性文件中的MPEG媒体对象(MPEG_media extension)的替选数组的mimeType中的定时媒体标识信息来获取定时元数据。
图18是示出场景描述性文件中的MPEG媒体对象(MPEG_media extension)的描述示例的示图。如图18中从顶部开始的第八行所示,定时元数据轨道的样本条目(sampleEntry)(例如,“camp”)被设置为替选数组的mimeType中的编解码器。注意,指示定时元数据的类型是任意确定的,并且不限于上述示例(camp)。MPEG-I部分10中定义的推荐视点(推荐视口)(存储元数据的地方)被用作相机对象的定时元数据,使得存储指示推荐视口的样本条目的类型,从而指示如何解释数据。
此外,如图17所示,为了间接地(按照访问器对象(accessor)111、缓冲器视图对象(bufferView)112、缓冲器对象(buffer)113和MPEG媒体对象(MPEG_media)121的顺序)将相机对象81与定时元数据相关联,在相机对象81中定义MPEG定时相机对象(MPEG_timed_camera)122,并且在MPEG定时相机对象(MPEG_timed_camera)122中引用访问器对象111到存储定时元数据的缓冲器对象113的索引。
即,定时元数据访问信息可以存储在场景描述性文件中的相机对象的MPEG定时相机对象(MPEG_timed_camera extension)中。然后,当再现3D对象内容时,可以基于存储在场景描述性文件中的相机对象的MPEG定时相机对象(MPEG_timed_camera extension)中的定时元数据访问信息来获取定时元数据。
图19是示出场景描述性文件中的相机对象(相机)的描述示例的图。如图19的从顶部起的第十一行至第十六行所示,定义了MPEG定时相机对象122。
如图19所示,可以在定时元数据访问信息中设置多个参数,并且可以针对参数中的每一个使用访问器的索引来指定与要引用的缓冲器对象的区域相对应的访问器对象。然后,当再现3D对象内容时,可以基于这样的定时元数据访问信息来获取定时元数据。
例如,如图19所示,可以在该定时元数据访问信息中定义诸如POSISION和ORIENTATION的参数。图20示出了这样的参数的语义。如图20所示,POSITION是指示相机位置的参数。更具体地,向访问器提供相机的位置的定时数据(指示相机在每个定时的位置的数据)变得可用的引用作为POSITION的值。ORIENTATION是指示相机的取向的参数。更具体地,向访问器提供相机的取向的定时数据(指示相机在每个定时的取向的数据)变得可用的引用作为ORIENTATION的值。
即,被定义为定时元数据访问信息的多个参数可以包括指示相机的位置的POSITION和指示相机的取向的ORIENTATION。然后,当再现3D对象内容时,可以基于这样的定时元数据访问信息来获取定时元数据。
注意,在该定时元数据访问信息中,如图19所示,可以进一步定义PERSPECTIVE。如图20所示,PERSPECTIVE是指示相机的视角和透视信息的参数。更具体地,向访问器提供相机的视角和透视信息的定时数据(指示相机在每个定时的视角和透视信息的数据)变得可用的引用作为PERSPECTIVE的值。
注意,在定时元数据访问信息中定义的参数是任意确定的,并且可以定义不同于上述示例的参数。
例如,在图19中,POSITION的值被设置为“0”。因此,指定了访问器对象(访问器)中的数组的第零元素。图21的A是示出场景描述性文件中的访问器对象的描述示例的图。在图21的A的示例的情况下,访问器对象被配置为包括元素141、元素142和元素143的数组。在图19的示例的情况下,POSITION与图21的A中的元素141相关联。该元素141存储关于图21的B示出的缓冲器对象1151的缓冲器视图对象152的区域153的信息。即,POSITION与该区域153相关联。
类似地,在图19中,ORIENTATION的值被设置为“1”。因此,指定了访问器对象(访问器)中的数组的第一元素。即,ORIENTATION与图21的A的元素142相关联,即,图21的B中所示的缓冲器对象1151的缓冲器视图对象152的区域154。
类似地,在图19中,PERSPECTIVE的值被设置为“2”。因此,指定了访问器对象(accessor)中的数组的第二元素。即,PERSPECTIVE与图21的A的元素143相关联,即,图21的B中所示的缓冲器对象1151的缓冲器视图对象152的区域155。
如图22的A所示,在作为定时元数据分发的MP4数据中,每个样本161在时间方向上对准。图22的B示出了该样本的语法的示例。如图22的B所示,针对每个样本设置诸如位置、取向和视角的参数值。即,(针对每个样本)这些参数的值可以在时间方向上改变。
<方法1-1>
注意,如图16的表的从顶部起的第三行所示,单条定时相机元数据可以与场景描述相关联(方法1-1)。例如,在图19的情况下,在相机对象中定义一个MPEG定时相机对象。利用该配置,可以将单条定时相机元数据与场景描述相关联。
<方法1-1-1>
此外,如图16的表的从顶部起的第四行所示,可以将上述多个参数的值共同指定为一个矢量(方法1-1-1)。例如,上述三个参数POSITION、ORIENTATION和PERSPECTIVE的值可以被共同指定为11维矢量。
例如,定时元数据访问信息可以使用一个矢量指定与要由多个参数引用的缓冲器对象的区域相对应的访问器对象。然后,当再现3D对象内容时,可以基于这样的定时元数据访问信息(即,使用上述一个矢量)获取定时元数据。
图23的A是示出场景描述性文件中的相机对象和访问器对象的描述示例的图。在图23的A中所示的示例的情况下,定义SAMPLEDATA而不是POSITION、ORIENTATION和PERSPECTIVE。这个SAMPLEDATA是共同指定上述POSITION、ORIENTATION和PERSPECTIVE的各个值的参数。图23的B示出了SAMPLEDATA的语义。例如,在POSITION的值由三维矢量表示、ORIENTATION的值由四维矢量表示、且PERSPECTIVE的值由四维矢量表示的情况下,SAMPLEDATA的值由通过组合POSITION、ORIENTATION和PERSPECTIVE而获得的11维矢量表示。即,SAMPLEDATA的值包括POSITION、ORIENTATION和PERSPECTIVE的各个值,并且可以从SAMPLEDATA的值得到POSITION、ORIENTATION和PERSPECTIVE的各个值。注意,11维矢量没有被定义为类型,从而11维矢量可以在访问器对象中被定义,如图23的A所示。
<方法1-1-2>
此外,如图16的表的从顶部起的第五行中所示,可以将上述多个参数的值共同指定为数组(方法1-1-2)。例如,可以使用具有三个参数POSITION、ORIENTATION和PERSPECTIVE的值作为元素的数组来进行描述。
例如,定时元数据访问信息可以使用具有与每个参数相对应的访问器索引作为元素的数组,来指定与多个参数要引用的缓冲器对象的区域相对应的访问器对象。然后,当再现3D对象内容时,可以基于这样的定时元数据访问信息(即,使用上述数组)获取定时元数据。
图24的A是示出场景描述性文件中的相机对象和访问器对象的描述示例的图。在图24的A所示的示例的情况下,定义SAMPLEDATA而不是POSITION、ORIENTATION和PERSPECTIVE。该SAMPLEDATA是其值是具有POSITION、ORIENTATION和PERSPECTIVE的各个值作为元素的数组的参数。图24的B示出了SAMPLEDATA的语义。即,提供POSITION、ORIENTATION和PERSPECTIVE的各个值作为该SAMPLEDATA数组的元素。即,同样在这种情况下,SAMPLEDATA的值包括POSITION、ORIENTATION和PERSPECTIVE的各个值,并且可以从SAMPLEDATA的值得到POSITION、ORIENTATION和PERSPECTIVE的各个值。注意,矢量数组未被定义为类型,因此矢量数组可以在访问器对象中定义,如图24的A所示。
<方法1-2>
注意,如图16的表的从顶部起的第六行所示,多条定时相机元数据可以与场景描述相关联(方法1-2)。例如,如图25所示,可以在三维空间200中设置多个相机(相机201和相机204),并且每个相机的定时相机元数据可以与场景描述相关联。在图25的示例的情况下,相机201在如虚线箭头202所示移动的同时捕获3D对象203的图像。相机204在如虚线箭头205所示移动的同时捕获3D对象206的图像。
在这样的情况下,当应用描述场景描述中的定时元数据的方法时,还将未被用户选择的相机的定时元数据与场景描述一起发送(获取)。
如上所述,将多个相机的定时相机元数据与场景描述相关联使得能够在生成显示图像时从多个候选中选择显示图像的视点。即,仅必要的数据(由用户选择的相机的定时元数据)可以被发送(获取)。
注意,任意地确定选择相机的方法(定时相机元数据)。例如,可以由用户等进行选择,或者可以基于执行再现处理的装置的硬件性能进行选择。
<方法1-2-1>
如上所述,在多个相机的定时相机元数据与场景描述相关联的情况下,例如,如图16的表的从顶部起的第七行中所示,可以使用定时元数据访问信息来指定多个MPEG媒体对象。
例如,定时元数据访问信息可以指定与要引用的缓冲器对象的区域相对应的多个访问器对象。然后,当再现3D对象内容时,可以基于这样的定时元数据访问信息(即,使用多个指定的访问器对象中的任何一个)来获取定时元数据。
图26的A是示出该情况下的相机对象(MPEG定时相机对象)的描述示例的图。图26的B是示出在该情况下的MPEG媒体对象的描述示例的图。如图26的B所示,在MPEG媒体对象中设置MPEG媒体对象221和MPEG媒体对象222。MPEG媒体对象221和MPEG媒体对象222各自指定不同的定时相机元数据。即,在这种情况下,准备多个MPEG媒体对象。
另一方面,如图26的A所示,在相机对象的扩展中设置两个MPEG定时相机对象。第一MPEG定时相机对象指定MPEG媒体对象221,并且第二MPEG定时相机对象指定MPEG媒体对象222。即,多个MPEG媒体对象(间接地)与相机对象相关联。
即,MPEG定时相机对象被定义为被处理为数组,以便能够指定多个MPEG媒体对象。因此,每个媒体被分配给缓冲器,并且从相应的MPEG定时相机对象(MPEG_timed_cameraobject)引用每个媒体的访问器。作为每个媒体对象,不仅可以指定不同的定时元数据文件,而且可以指定相同定时元数据文件的不同轨道(track)。
利用这种配置,多个相机的定时相机元数据可以与场景描述相关联。
<方法1-2-2>
此外,在多个相机的定时相机元数据与场景描述相关联的情况下,MPEG媒体对象可以存储例如如图16的表的最低行中所示的多条相机元数据。
例如,MPEG媒体对象(MPEG_media extension)可以存储关于在时间方向上改变的多条定时元数据的信息,作为替选数组的相互不同的元素。然后,当再现3D对象内容时,可以基于这样的定时元数据访问信息来获取定时元数据。
图27的A是示出该情况下的相机对象(MPEG定时相机对象)的描述示例的图。图27的B是示出在该情况下的MPEG媒体对象的描述示例的图。如图27的B所示,在MPEG媒体对象中,使用替选数组来设置定时相机元数据231和定时相机元数据232。
另一方面,如图27的A所示,在相机对象的扩展中设置一个MPEG定时相机对象。
即,仅存储一个MPEG定时相机对象(MPEG_timed_camera object)。此外,MPEG媒体对象(MPEG_media)中的媒体对象的数目可以是一个,并且可以指定媒体对象中的多个替选对象。名称属性可以被添加到每个替选对象以标识替选数组的内容并用作标识标签。在替选数组中,不仅可以指定相互不同的定时元数据文件,而且可以指定相同定时元数据文件的不同轨道。
利用这种配置,多个相机的定时相机元数据可以与场景描述相关联。
<3.第一实施方式>
<文件生成装置>
上述本技术的每个方法可以应用于任何装置。图28是示出作为应用本技术的信息处理装置的一方面的文件生成装置的配置示例的框图。图28所示的文件生成装置300是生成用于分发3D对象内容的信息的装置。例如,文件生成装置300生成要分发的3D对象内容文件,或者生成3D对象内容的场景描述性文件(场景描述)。
注意,图28示出了主处理单元、数据流等,并且图28中示出的那些不一定是全部。即,文件生成装置300可以包括未在图28中示出为框的处理单元,或者可以包括未在图28中示出为箭头等的处理或数据流。
如图28所示,文件生成装置300包括控制单元301和文件生成处理单元302。控制单元301控制文件生成处理单元302。文件生成处理单元302在控制单元301的控制下执行关于文件生成的处理。例如,文件生成处理单元302生成要分发的3D对象内容文件。此外,文件生成处理单元302生成与3D对象内容文件相对应的场景描述性文件。文件生成处理单元302将所生成的文件输出到文件生成装置300的外部。
文件生成处理单元302包括输入单元311、预处理单元312、编码单元313、文件生成单元314、记录单元315和输出单元316。
输入单元311获取3D对象内容并且将3D对象内容提供给预处理单元312。预处理单元312从3D对象内容中提取文件生成所需的信息。预处理单元312将提取的信息提供给文件生成单元314。此外,预处理单元312将3D对象内容提供给编码单元313。
编码单元313对从预处理单元312提供的3D对象内容进行编码以生成编码数据(比特流)。编码单元313将所生成的3D对象内容的编码数据提供给文件生成单元314。
文件生成单元314获取从编码单元313提供的3D对象内容的编码数据。此外,文件生成单元314获取从预处理单元312提供的信息。
文件生成单元314生成存储所获取的3D对象内容的编码数据的3D对象内容文件。文件生成单元314根据需要使用从预处理单元312提供的信息来生成文件。例如,文件生成单元314将从预处理单元312提供的信息存储在3D对象内容文件中。
此外,文件生成单元314生成与所生成的3D对象内容文件相对应的场景描述性文件。此时,文件生成单元314通过应用以上在<2.定时元数据的传输等>中描述的本技术来生成场景描述性文件。文件生成单元314可以应用以上在<2.定时元数据的传输等>中描述的本技术的方法中的任何一种或更多种。
例如,文件生成单元314生成描述3D对象内容的场景的场景描述性文件,在场景描述性文件中,指示相关联的外部文件的元数据在时间方向上改变的定时元数据标识信息存储在MPEG媒体对象(MPEG_media extension)中,并且存储将相机对象与在相机对象中的元数据相关联的定时元数据访问信息。
此时,文件生成单元314可以将定时元数据标识信息存储在场景描述性文件中的MPEG媒体对象(MPEG_media extension)的替选数组的mimeType中。
此外,文件生成单元314可以将定时元数据访问信息存储在场景描述性文件中的相机对象的MPEG定时相机对象(MPEG_timed_camera extension)中。
此外,对于定时元数据访问信息中的多个参数中的每一个,文件生成单元314可以使用访问器索引来指定与要被引用的缓冲器对象的区域相对应的访问器对象。
此外,文件生成单元314可以使用作为多个参数的以下中的每一个的访问器索引来指定与要被引用的缓冲器对象的区域相对应的访问器对象:指示相机对象的位置的POSITION、指示相机对象的取向的ORIENTATION以及指示相机对象的视角和透视信息的PERSPECTIVE。
此外,在定时元数据访问信息中,文件生成单元314可以使用一个矢量来指定与要由多个参数引用的缓冲器对象的区域相对应的访问器对象。
此外,在定时元数据访问信息中,文件生成单元314可以使用具有与每个参数相对应的访问器索引作为元素的数组来指定与要由多个参数引用的缓冲器对象的区域相对应的访问器对象。
此外,文件生成单元314可以指定与定时元数据访问信息中要引用的缓冲器对象的区域相对应的多个访问器对象。
此外,文件生成单元314可以将关于在时间方向上改变的多条定时元数据的信息存储为MPEG媒体对象(MPEG_media extension)中的替选数组的相互不同的元素。
文件生成单元314将所生成的文件提供给记录单元315。记录单元315包括诸如硬盘或半导体存储器的任何记录介质,并且将从文件生成单元314提供的文件记录在记录介质中。此外,记录单元315根据来自控制单元301或输出单元316的请求或在预定定时读取记录在记录介质中的文件,并且将文件提供给输出单元316。
输出单元316获取从记录单元315提供的文件,并且将该文件输出至文件生成装置300(例如,分发服务器、再现装置等)的外部。
利用这样的配置,文件生成装置300可以将定时元数据与场景描述相关联。因此,再现3D对象内容的装置可以基于定时元数据标识信息和定时元数据访问信息来容易地访问定时元数据。因此,如上所述,再现3D对象内容的装置可以防止再现处理和编辑处理复杂化,并且抑制这样的处理的负荷的增加。
<文件生成处理的流程>
将参照图29的流程图来描述由图28的文件生成装置300执行的文件生成处理的流程的示例。
当开始文件生成处理时,在步骤S301中,文件生成装置300的输入单元311获取作为3D对象的数据的3D对象内容。
在步骤S302中,预处理单元312从在步骤S301中获取的3D对象内容中提取要存储在文件中的信息。
在步骤S303中,预处理单元312基于3D对象内容生成定时相机元数据。
在步骤S304中,预处理单元312基于3D对象内容生成定时元数据标识信息和定时元数据访问信息。
在步骤S305中,编码单元313对3D对象内容和定时相机元数据进行编码。
在步骤S306中,文件生成单元314生成包括定时元数据标识信息和定时元数据访问信息的场景描述性文件。此外,文件生成单元314生成存储3D对象内容的编码数据的文件。此外,文件生成单元314生成存储定时相机元数据的编码数据的文件。此时,文件生成单元314通过应用以上在<2.定时元数据的传输等>中描述的本技术来生成场景描述性文件。文件生成单元314可以应用以上在<2.定时元数据的传输等>中描述的本技术的方法中的任何一种或更多种。
例如,文件生成单元314生成描述3D对象内容的场景的场景描述性件,在场景描述性件中,指示相关联的外部文件的元数据在时间方向上改变的定时元数据标识信息存储在MPEG媒体对象(MPEG_media extension)中,并且存储将相机对象与在相机对象中的元数据相关联的定时元数据访问信息。
此时,文件生成单元314可以将定时元数据标识信息存储在场景描述性文件中的MPEG媒体对象(MPEG_media extension)的替选数组的mimeType中。
此外,文件生成单元314可以将定时元数据访问信息存储在场景描述性文件中的相机对象的MPEG定时相机对象(MPEG_timed_camera extension)中。
此外,对于定时元数据访问信息中的多个参数中的每一个,文件生成单元314可以使用访问器索引来指定与要被引用的缓冲器对象的区域相对应的访问器对象。
此外,文件生成单元314可以使用作为多个参数的以下中的每一个的访问器索引来指定与要被引用的缓冲器对象的区域相对应的访问器对象:指示相机对象的位置的POSITION、指示相机对象的取向的ORIENTATION以及指示相机对象的视角和透视信息的PERSPECTIVE。
此外,在定时元数据访问信息中,文件生成单元314可以使用一个矢量来指定与要由多个参数引用的缓冲器对象的区域相对应的访问器对象。
此外,在定时元数据访问信息中,文件生成单元314可以使用具有与每个参数相对应的访问器索引作为元素的数组来指定与要由多个参数引用的缓冲器对象的区域相对应的访问器对象。
此外,文件生成单元314可以指定与定时元数据访问信息中要引用的缓冲器对象的区域相对应的多个访问器对象。
此外,文件生成单元314可以将关于在时间方向上改变的多条定时元数据的信息存储为MPEG媒体对象(MPEG_media extension)中的替选数组的相互不同的元素。
在步骤S307中,记录单元315将在步骤S306中生成的文件记录在记录介质中。
在步骤S308中,输出单元316从记录介质中读取在步骤S307中记录的文件,并且以预定的定时将读取的文件输出至文件生成装置300的外部。
步骤S308的处理的结束使文件生成处理结束。
如上所述,文件生成装置300能够通过执行各个处理将定时元数据与场景描述相关联。因此,再现3D对象内容的装置能够基于定时元数据标识信息和定时元数据访问信息容易地访问定时元数据。因此,如上所述,再现3D对象内容的装置可以防止再现处理和编辑处理复杂化,并且抑制这样的处理的负荷的增加。
<4.第二实施方式>
<客户端装置>
图30是示出作为应用本技术的信息处理装置的方面的客户端装置的配置示例的框图。图30中所示的客户端装置400是基于场景描述性文件(场景描述)执行3D对象内容的再现处理的再现装置。例如,客户端装置400再现由文件生成装置300生成并存储在3D对象内容文件中的3D对象内容。例如,客户端装置400基于场景描述性文件对存储在3D对象内容文件中的3D对象内容的编码数据进行解码,执行所生成的3D对象内容的渲染,并且生成并显示显示图像。
注意,图30示出了主处理单元、数据流等,并且图30中示出的那些不一定是全部。即,客户端装置400可以包括未在图30中被示为框的处理单元,或者可以包括未在图30中被示为箭头等的处理或数据流。
如图30所示,客户端装置400包括控制单元401和再现处理单元402。控制单元401执行关于再现处理单元402的控制的处理。再现处理单元402执行关于存储在3D对象内容文件中的3D对象内容的再现的处理。例如,再现处理单元402在控制单元401的控制下从分发服务器(未示出)等获取场景描述性文件。再现处理单元402基于场景描述性文件获取存储要再现的3D对象内容的3D对象内容文件。然后,再现处理单元402执行存储在所获取的3D对象内容文件中的3D对象内容的再现处理。
再现处理单元402包括文件获取单元411、文件处理单元412、解码单元413、显示信息生成单元414、显示单元415和显示控制单元416。
文件获取单元411获取从例如分发服务器、文件生成装置300等的客户端装置400的外部提供的场景描述性文件。文件获取单元411将获取的场景描述性文件提供给文件处理单元412。
此外,文件获取单元411使用场景描述性文件在文件处理单元412的控制下获取存储要再现的3D对象内容的3D对象内容文件等。文件获取单元411将获取的3D对象内容文件提供给文件处理单元412。
文件处理单元412获取从文件获取单元411提供的场景描述性文件。文件处理单元412基于所获取的场景描述性文件来选择要再现的3D对象内容。然后,文件处理单元412控制文件获取单元411以获取存储所选择的3D对象内容的3D对象内容文件。
在这样的处理中,文件处理单元412应用以上在<2.定时元数据的传输等>中描述的本技术。文件处理单元412可以应用以上在<2.定时元数据的传输等>中描述的本技术的方法中的任何一种或更多种。
例如,文件处理单元412基于描述3D对象内容的场景的场景描述性文件中的MPEG媒体对象(MPEG_media extension)中存储的定时元数据标识信息和场景描述性文件中的相机对象中存储的定时元数据访问信息,获取在时间方向上改变的定时元数据,并且基于所获取的定时元数据生成3D对象内容的显示图像。
此时,文件处理单元412可以基于场景描述性文件中的MPEG媒体对象(MPEG_mediaextension)的替选数组的mimeType中所存储的定时元数据标识信息来获取定时元数据。
此外,文件处理单元412可以基于场景描述性文件中的相机对象的MPEG定时相机对象(MPEG_timed_camera extension)中所存储的定时元数据访问信息来获取定时元数据。
此外,对于多个参数中的每一个,文件处理单元412可以基于定时元数据访问信息来获取定时元数据,在所述定时元数据访问信息中,使用访问器索引来指定与要被引用的缓冲器对象的区域相对应的访问器对象。
此外,文件处理单元412可以基于定时元数据访问信息来获取定时元数据,在所述定时元数据访问信息中,使用作为多个参数的以下中的每一个的访问器索引来指定与要被引用的缓冲器对象的区域相对应的访问器对象:指示相机对象的位置的POSITION、指示相机对象的取向的ORIENTATION和指示相机对象的视角和透视信息的PERSPECTIVE。
此外,文件处理单元412可以基于其中使用一个矢量来指定与要由多个参数引用的缓冲器对象的区域相对应的访问器对象的定时元数据访问信息来获取定时元数据。
此外,文件处理单元412可以基于其中使用具有与每个参数相对应的访问器索引作为元素的数组来指定与要由多个参数引用的缓冲器对象的区域相对应的访问器对象的定时元数据访问信息来获取定时元数据。
此外,文件处理单元412可以基于其中指定与要引用的缓冲器对象的区域相对应的多个访问器对象的定时元数据访问信息来获取定时元数据。
此外,文件处理单元412可以使用MPEG媒体对象(MPEG_media extension)来获取定时元数据,在MPEG媒体对象中,关于在时间方向上改变的多条定时元数据的信息存储为替选数组的相互不同的元素。
文件处理单元412将如上所述获取的3D对象内容文件提供给解码单元413或显示控制单元416。
解码单元413对存储在从文件处理单元412提供的3D对象内容文件中的3D对象内容的编码数据进行解码。即,解码单元413对由文件处理单元412选择的3D对象内容的编码数据进行解码。解码单元413将通过解码获得的3D对象内容提供给显示信息生成单元414。
显示信息生成单元414获取从解码单元413提供的3D对象内容。此外,显示信息生成单元414获取从显示控制单元416提供的控制信息。然后,显示信息生成单元414根据控制信息从获取的3D对象内容生成显示图像等。显示信息生成单元414将所生成的显示图像等提供给显示单元415。
显示单元415包括显示装置,并且使用该显示装置显示从显示信息生成单元414提供的显示图像。
显示控制单元416获取从文件处理单元412提供的信息。显示控制单元416基于该信息控制显示信息生成单元414。显示控制单元416通过向显示信息生成单元414提供控制信息来控制显示图像的显示。
利用这样的配置,客户端装置400可以基于定时元数据标识信息和定时元数据访问信息来容易地访问定时元数据。因此,如上所述,客户端装置400可以防止再现处理和编辑处理复杂化,并且抑制这样的处理的负荷的增加。
<客户端处理流程1>
将参照图31的流程图来描述由图30的客户端装置400执行的客户端处理的流程的示例。图31所示的流程图是在方法1-1(包括方法1-1-1和方法1-1-2)的情况下的客户端处理的流程的示例。
当客户端处理开始时,在步骤S401中,客户端装置400的文件获取单元411获取场景描述性文件。
在步骤S402中,文件处理单元412分析在步骤S401中获取的场景描述性文件,基于定时元数据标识信息和定时元数据访问信息获取与MPEG定时相机相关联的定时相机元数据,并且将该数据概念地存储在缓冲器中。
例如,文件处理单元412基于描述3D对象内容的场景的场景描述性文件中的MPEG媒体对象(MPEG_media extension)中所存储的定时元数据标识信息和场景描述性文件中的相机对象中所存储的定时元数据访问信息来获取在时间方向上改变的定时元数据,并且基于所获取的定时元数据来生成3D对象内容的显示图像。
此时,文件处理单元412可以基于场景描述性文件中的MPEG媒体对象(MPEG_mediaextension)的替选数组的mimeType中所存储的定时元数据标识信息来获取定时元数据。
此外,文件处理单元412可以基于场景描述性文件中的相机对象的MPEG定时相机对象(MPEG_timed_camera extension)中所存储的定时元数据访问信息来获取定时元数据。
此外,对于多个参数中的每一个,文件处理单元412可以基于其中使用访问器索引来指定与要引用的缓冲器对象的区域相对应的访问器对象的定时元数据访问信息来获取定时元数据。
此外,文件处理单元412可以基于定时元数据访问信息来获取定时元数据,在定时元数据访问信息中,使用作为多个参数的以下中的每一个的访问器索引来指定与要引用的缓冲器对象的区域相对应的访问器对象:指示相机对象的位置的POSITION、指示相机对象的取向的ORIENTATION和指示相机对象的视角和透视信息的PERSPECTIVE。
此外,文件处理单元412可以基于其中使用一个矢量来指定与要由多个参数引用的缓冲器对象的区域相对应的访问器对象的定时元数据访问信息来获取定时元数据。
此外,文件处理单元412可以基于其中使用具有与每个参数相对应的访问器索引作为元素的数组来指定与要由多个参数引用的缓冲器对象的区域相对应的访问器对象的定时元数据访问信息来获取定时元数据。
此外,文件处理单元412可以基于其中指定与要引用的缓冲器对象的区域相对应的多个访问器对象的定时元数据访问信息来获取定时元数据。
此外,文件处理单元412可以使用MPEG媒体对象(MPEG_media extension)来获取定时元数据,在MPEG媒体对象中,关于在时间方向上改变的多条定时元数据的信息存储为替选数组的相互不同的元素。
在步骤S403中,文件获取单元411获取其他媒体。
在步骤S404中,文件处理单元412使用MPEG定时相机中的访问器与其他媒体同步地读取概念上存储在缓冲器中的数据。解码单元413对诸如3D对象内容的编码数据的读取数据进行解码。
在步骤S405中,显示信息生成单元414在场景中布置其他媒体,并基于定时相机的信息生成显示图像。
在步骤S406中,显示单元415显示显示图像。
步骤S406的处理的结束使客户端处理结束。
如上所述,客户端装置400可以通过基于定时元数据标识信息和定时元数据访问信息执行每个处理来容易地访问定时元数据。因此,如上所述,客户端装置400可以防止再现处理和编辑处理复杂化,并且抑制这样的处理的负荷的增加。
<客户端处理流程2>
将参照图32的流程图来描述由图30的客户端装置400执行的客户端处理的流程的示例。图32所示的流程图是在方法1-2-1的情况下客户端处理的流程的示例。
当客户端处理开始时,在步骤S441中,客户端装置400的文件获取单元411获取场景描述性文件。
在步骤S442中,文件处理单元412分析在步骤S441中获取的场景描述性文件中的定时元数据标识信息和定时元数据访问信息。
然后,文件处理单元412基于定时元数据标识信息和定时元数据访问信息来获取定时元数据。注意,定时元数据标识信息可以存储在场景描述性文件中的MPEG媒体对象(MPEG_media extension)的替选数组的mimeType中。此外,定时元数据访问信息可以存储在场景描述性文件中的相机对象的MPEG定时相机对象(MPEG_timed_camera extension)中。
在这种情况下,文件处理单元412可以基于其中指定与要引用的缓冲器对象的区域相对应的多个访问器对象的定时元数据访问信息来获取定时元数据。即,如下执行该处理。
在步骤S443中,文件处理单元412基于步骤S442中的分析结果确定是否存在多个MPEG定时相机对象。即,文件处理单元412确定在定时元数据访问信息中是否指定了多个访问器对象。在如图26的示例A中确定存在多个MPEG定时相机对象(即,在定时元数据访问信息中指定多个访问器对象)的情况下,处理进行至步骤S444。
在步骤S444中,文件处理单元412呈现MPEG定时相机的名称,以使用户选择MPEG定时相机的名称。在步骤S444的处理结束之后,处理进行至步骤S445。此外,在步骤S443中确定存在单个MPEG定时相机的情况下,处理进行至步骤S445。
在步骤S445中,文件获取单元411获取与在步骤S444中由用户选择的MPEG定时相机相关联的定时元数据或与单个MPEG定时相机相关联的定时元数据,并且概念性地将数据存储在缓冲器中。
此时,对于多个参数中的每一个,文件处理单元412可以基于其中使用访问器索引来指定与要引用的缓冲器对象的区域相对应的访问器对象的定时元数据访问信息来获取定时元数据。
此外,文件处理单元412可以基于定时元数据访问信息来获取定时元数据,在所述定时元数据访问信息中,使用作为多个参数发以下中的每一个的访问器索引来指定与要引用的缓冲器对象的区域相对应的访问器对象:指示相机对象的位置的POSITION、指示相机对象的取向的ORIENTATION和指示相机对象的视角和透视信息的PERSPECTIVE。
此外,文件处理单元412可以基于其中使用一个矢量来指定与要由多个参数引用的缓冲器对象的区域相对应的访问器对象的定时元数据访问信息来获取定时元数据。
此外,文件处理单元412可以基于其中使用具有与每个参数相对应的访问器索引作为元素的数组来指定与要由多个参数引用的缓冲器对象的区域相对应的访问器对象的定时元数据访问信息来获取定时元数据。
步骤S446至步骤S449的各个处理以与图31的步骤S403至步骤S406的各个处理类似的方式执行。步骤S449的处理的结束使客户端处理结束。
如上所述,客户端装置400可以通过基于定时元数据标识信息和定时元数据访问信息执行每个处理来容易地访问定时元数据。因此,如上所述,客户端装置400可以防止再现处理和编辑处理复杂化,并且抑制这样的处理的负荷的增加。
<客户端处理流程3>
将参照图33的流程图描述由图30的客户端装置400执行的客户端处理的流程的示例。图33所示的流程图是在方法1-2-2的情况下客户端处理的流程的示例。
当客户端处理开始时,在步骤S481中,客户端装置400的文件获取单元411获取场景描述性文件。
在步骤S482中,文件处理单元412分析在步骤S481中获取的场景描述性文件中的定时元数据标识信息和定时元数据访问信息。
然后,文件处理单元412基于定时元数据标识信息和定时元数据访问信息来获取定时元数据。注意,定时元数据标识信息可以存储在场景描述性文件中的MPEG媒体对象(MPEG_media extension)的替选数组的mimeType中。此外,定时元数据访问信息可以存储在场景描述性文件中的相机对象的MPEG定时相机对象(MPEG_timed_camera extension)中。
在这种情况下,文件处理单元412可以使用MPEG媒体对象(MPEG_mediaextension)来获取定时元数据,该MPEG媒体对象存储关于在时间方向上改变的多条定时元数据的信息作为替选数组的相互不同的元素。即,如下执行该处理。
在步骤S483中,文件处理单元412基于步骤S482中的分析结果,确定是否存在定时相机的多个媒体替选对象。即,文件处理单元412确定MPEG媒体对象是否将关于多条定时元数据的信息存储为替选数组的相互不同的元素。如图27的B的示例中,在确定存在MPEG媒体对象中指定的多条定时相机元数据的情况下,处理进行至步骤S484。
在步骤S484中,文件处理单元412呈现替选数组的每个元素的名称,以使用户选择替选数组的元素的名称。即,文件处理单元412使用户选择定时元数据(定时相机元数据)。在步骤S484的处理结束后,处理进行至步骤S485。此外,在步骤S483中确定存在定时相机的单个媒体替选对象的情况下,处理进行至步骤S485。
在步骤S485中,文件获取单元411获取在步骤S484中由用户选择的定时元数据或单个定时元数据,并且概念性地将数据存储在缓冲器中。
此时,对于多个参数中的每一个,文件处理单元412可以基于使用访问器索引指定了与要引用的缓冲对象的区域相对应的访问器对象的定时元数据访问信息来获取定时元数据。
此外,文件处理单元412可以基于使用作为多个参数的以下中的每一个的访问器索引指定了与要引用的缓冲器对象的区域相对应的访问器对象的定时元数据访问信息来获取定时元数据:指示相机对象的位置的POSITION、指示相机对象的取向的ORIENTATION、以及指示相机对象的视角和透视信息的PERSPECTIVE。
此外,文件处理单元412可以基于使用一个矢量指定了与要由多个参数引用的缓冲器对象的区域相对应的访问器对象的定时元数据访问信息来获取定时元数据。
此外,文件处理单元412可以基于使用具有与每个参数相对应的访问器索引作为元素的数组指定了与要由多个参数引用的缓冲器对象的区域相对应的访问器对象的定时元数据访问信息来获取定时元数据。
步骤S486至步骤S489的各个处理以与图31的步骤S403至步骤S406的各个处理类似的方式执行。步骤S489的处理的结束使客户端处理结束。
如上所述,客户端装置400可以通过执行每个处理,基于定时元数据识别信息和定时元数据访问信息,来容易地访问定时元数据。因此,如上所述,客户端装置400可以防止再现处理和编辑处理复杂化,并且抑制这样的处理的负荷的增加。
<5.附录>
<计算机>
上述一系列处理可以由硬件或软件来执行。在通过软件执行一系列处理的情况下,构成软件的程序安装在计算机上。此处,计算机的示例包括并入到专用硬件中的计算机、能够根据安装在通用个人计算机上的各种程序执行各种功能的通用个人计算机等。
图34是示出根据程序执行上述一系列处理的计算机的硬件的配置示例的框图。
在图34所示的计算机900中,中央处理单元(CPU)901、只读存储器(ROM)902和随机存取存储器(RAM)903通过总线904相互连接。
输入/输出接口910也连接至总线904。输入单元911、输出单元912、存储单元913、通信单元914以及驱动器915连接至输入输出接口910。
输入单元911包括例如键盘、鼠标、麦克风、触摸屏、输入终端等。输出单元912包括例如显示器、扬声器、输出终端等。存储单元913包括例如硬盘、RAM盘、非易失性存储器等。通信单元914包括例如网络接口。驱动器915驱动诸如磁盘、光盘、磁光盘或半导体存储器的可移除介质921。
在如上所述配置的计算机中,例如,CPU 901通过经由输入/输出接口910和总线904将存储在存储单元913中的程序加载到RAM 903上并运行该程序来执行上述一系列处理。RAM 903还根据需要存储CPU 901执行各种处理所需的数据等。
由计算机运行的程序能够与记录在例如用作封装介质等的可移除介质921中的程序一起应用。在这种情况下,将可移除介质921附接至驱动器915允许程序经由输入/输出接口910被安装在存储单元913上。
此外,该程序还可以经由有线或无线传输介质(例如局域网、因特网或数字卫星广播)来提供。在这种情况下,程序可以由通信单元914接收并安装在存储单元913上。
替选地,该程序可以预先安装在ROM 902或存储单元913上。
<本技术适用的对象>
本技术适用于任何图像编码/解码方法。
此外,本技术能够应用于任何配置。例如,本技术可以应用于各种电子装置。
此外,例如,本技术还可以被实现为装置的一部分的配置,例如作为系统大规模集成(LSI)等的处理器(例如,视频处理器)、使用多个处理器等的模块(例如,视频模块)、使用多个模块等的单元(例如,视频单元)、或者通过向单元进一步添加其他功能而获得的集合(例如,视频集合)。
此外,例如,本技术还能够应用于包括多个装置的网络系统。例如,本技术可以被实现为通过网络在多个装置之间协作地共享和处理的云计算。例如,本技术可以在向诸如计算机、视听(AV)设备、便携式信息处理终端或物联网(IoT)装置的任何终端提供与图像(运动图像)相关的服务的云服务中实现。
注意,在本文中,系统意指一组多个组部件(装置、模块(零件)等),与所有部件是否在同一壳体中无关。因此,容纳在分开的壳体中并通过网络连接的多个装置、以及其中多个模块容纳在一个壳体中的一个装置两者都是系统。
<本技术适用的领域和用途>
应用本技术的系统、装置、处理单元等可以用于任何领域,例如交通、医疗、犯罪预防、农业、畜牧业、采矿、美容、工厂、家用电器、天气、自然监控等。此外,其用途也是任意确定的。
例如,本技术能够应用于用于提供用于鉴赏等的内容的系统或装置。此外,例如,本技术还能够应用于用于交通(例如交通状况监视或自动驾驶控制)的系统或装置。此外,例如,本技术还能够应用于用于安全的系统或装置。此外,例如,本技术能够应用于用于机器等的自动控制的系统或装置。此外,例如,本技术还能够应用于用于农业或畜牧业的系统或装置。此外,本技术还能够应用于监测诸如火山、森林或海洋、野生生物等自然条件的系统或装置。此外,例如,本技术还能够应用于用于运动的系统或装置。
<其他>
注意,在本文中,“标志”是用于标识多个状态中的每一个的信息,并且不仅包括用于标识真(1)和假(0)的两个状态中的一个的信息,还包括使得三个或更多状态中的每一个可被标识的信息。因此,“标志”可以采用的值可以是例如二进制值1或0或三进制值或更大。即,该“标志”具有任何比特长度,并且该比特长度可以是一个比特或多个比特。此外,假设标识信息(包括标志)不仅包括比特流中所包括的标识信息,而且还包括标识信息相对于比特流中所包括的特定参考信息的差异信息,因此,在本文中,“标志”或“标识信息”不仅包括该信息,而且还包括相对于参考信息的差异信息。
此外,可以以任何形式发送或记录关于编码数据(比特流)的各种类型的信息(元数据等),只要该信息与编码数据相关联。在本文中,术语“关联”意味着,例如,当处理一个数据时,其他数据是可用的(可链接的)。即,彼此相关联的数据可以放在一起作为一个数据,或者可以是分开的数据。例如,可以在与用于编码数据(图像)的传输路径不同的传输路径上传输与编码数据(图像)相关联的信息。此外,例如,与编码数据(图像)相关联的信息可以记录在与用于编码数据(图像)的记录介质不同的记录介质中(或在与用于编码数据(图像)的记录区域不同的同一记录介质的记录区域中)。注意,这种“关联”可以应用于一部分数据而不是所有数据。例如,图像和对应于该图像的信息可以在诸如多个帧、一个帧或帧中的一部分的任何单元中彼此相关联。
注意,在本文中,诸如“组合”、“复用”、“添加”、“集成”、“包括”、“存储”,“放入”、“嵌入”和“插入”的术语意指将多个对象组合成一个,例如将编码数据和元数据组合成一个数据,并且意指上述“关联”的一种方法。
此外,本技术的实施方式不限于上述实施方式,并且在不脱离本技术的要旨的情况下可以进行各种修改。
例如,被描述为一个装置(或处理单元)的配置可以被划分并配置为多个装置(或处理单元)。相反,上述作为多个装置(或处理单元)的配置可以被共同配置为一个装置(或处理单元)。此外,除了上述配置之外的配置可以被添加到每个装置(或每个处理单元)的配置。此外,只要整个系统配置或操作基本上相同,特定设备(或处理单元)的配置的一部分可以包括在另一装置(或另一处理单元)的配置中。
此外,例如,上述程序可以由任何装置运行。在这种情况下,仅要求装置具有必要的功能(功能块等)并且能够获取必要的信息。
此外,例如,一个流程图的每个步骤可以由一个装置执行,或者可以由多个装置共享和执行。此外,在一个步骤中包括多个处理的情况下,多个处理可以由一个装置执行,或者可以由多个装置共享和执行。换言之,包括在一个步骤中的多个处理也可以作为多个步骤的处理来执行。相反,被描述为多个步骤的处理可以被共同地执行为一个步骤。
此外,例如,由计算机运行的程序可以使得描述该程序的步骤的处理以在本文中描述的顺序按时间序列执行,或者使得这些处理以所需的定时(例如当调用对应的过处理时)并行地或单独地执行。即,只要没有矛盾,每个步骤的处理可以以不同于上述顺序的顺序执行。此外,描述该程序的步骤的处理可以与其他程序的处理并行执行,或者可以与其他程序的处理组合执行。
此外,例如,只要不存在矛盾,与本技术相关的多个技术可以各自独立地实现为单个技术。不用说,可以组合地实现多个任何现有技术。例如,在任何实施方式中描述的本技术中的一些或全部可以与在另一实施方式中描述的本技术中的一些或全部结合实现。此外,上述任何现有技术中的一些或全部可以与上面未描述的另一技术结合来实现。
注意,本技术还可以具有以下配置。
(1)一种信息处理装置,包括:
文件生成单元,其被配置成生成描述3D对象内容的场景的场景描述性文件,其中,在所述场景描述性文件中,指示相关联的外部文件的元数据在时间方向上改变的定时元数据标识信息存储在MPEG_media extension中,并且将相机对象与所述元数据相关联的定时元数据访问信息存储在所述相机对象中。
(2)根据(1)所述的信息处理装置,其中,
在所述场景描述性文件中,所述定时元数据标识信息存储在所述MPEG_mediaextension的替选数组的mimeType中。
(3)根据(1)或(2)所述的信息处理装置,其中,
在所述场景描述文件中,所述定时元数据访问信息存储在所述相机对象的MPEG_timed_camera extension中。
(4)根据(3)所述的信息处理装置,其中,
针对多个参数中的每一个,所述定时元数据访问信息使用访问器索引来指定与要引用的缓冲器对象的区域相对应的访问器对象。
(5)根据(4)所述的信息处理装置,其中,
所述多个参数包括指示所述相机对象的位置的POSITION、指示所述相机对象的取向的ORIENTATION、以及指示所述相机对象的视角和透视信息的PERSPECTIVE。
(6)根据(4)或(5)所述的信息处理装置,其中,
所述定时元数据访问信息使用一个矢量指定与要由所述多个参数引用的缓冲器对象的区域相对应的访问器对象。
(7)根据(4)或(5)所述的信息处理装置,其中,
所述定时元数据访问信息使用具有与每个参数相对应的访问器索引作为元素的数组,指定与要由所述多个参数引用的缓冲器对象的区域相对应的访问器对象。
(8)根据(3)至(7)中任一项所述的信息处理装置,其中,
所述定时元数据访问信息指定与要引用的缓冲器对象的区域相对应的多个访问器对象。
(9)根据(1)至(7)中任一项所述的信息处理装置,其中,
所述MPEG_media extension存储关于在所述时间方向上改变的多条定时元数据的信息,作为替选数组的相互不同的元素。
(10)一种信息处理方法,包括:
生成描述3D对象内容的场景的场景描述性文件,其中,在所述场景描述性文件中,指示相关联的外部文件的元数据在时间方向上改变的定时元数据标识信息存储在MPEG_media extension中,并且将相机对象与所述元数据相关联的定时元数据访问信息存储在所述相机对象中。
(11)一种信息处理装置,包括:
获取单元,其被配置成:基于描述3D对象内容的场景的场景描述性文件中的MPEG_media extension中存储的定时元数据标识信息和所述场景描述性文件中的相机对象中存储的定时元数据访问信息,获取在时间方向上改变的定时元数据;以及
生成单元,其被配置成:基于所述获取单元获取的所述定时元数据,生成所述3D对象内容的显示图像。
(12)根据(11)所述的信息处理装置,其中,
所述获取单元基于所述场景描述性文件中的MPEG_media extension的替选数组的mimeType中存储的所述定时元数据标识信息,获取所述定时元数据。
(13)根据(11)或(12)所述的信息处理装置,其中,
所述获取单元基于所述场景描述性文件中的所述相机对象的MPEG_timed_cameraextension中存储的所述定时元数据访问信息,获取所述定时元数据。
(14)根据(13)所述的信息处理装置,其中,
所述获取单元基于针对多个参数的每一个使用访问器索引指定与要引用的缓冲对象的区域相对应的访问器对象的所述定时元数据访问信息,获取所述定时元数据。
(15)根据(14)所述的信息处理装置,其中,
所述获取单元基于所述定时元数据访问信息获取所述定时元数据,所述定时元数据访问信息针对以下中的每一个使用访问器索引来指定与要引用的缓冲对象的区域相对应的访问器对象:指示所述相机对象的位置的POSITION、指示所述相机对象的取向的ORIENTATION、以及指示所述相机对象的视角和透视信息的PERSPECTIVE。
(16)根据(14)或(15)所述的信息处理装置,其中,
所述获取单元基于使用一个矢量来指定与要由所述多个参数引用的缓冲器对象的区域相对应的访问器对象的所述定时元数据访问信息,获取所述定时元数据。
(17)根据(14)或(15)所述的信息处理装置,其中,
所述获取单元基于使用具有与每个参数相对应的所述访问器索引作为元素的数组来指定与要由所述多个参数引用的缓冲器对象的区域相对应的访问器对象的所述定时元数据访问信息,获取所述定时元数据。
(18)根据(13)至(17)中任一项所述的信息处理装置,其中,
所述获取单元基于指定与要引用的缓冲器对象的区域相对应的多个访问器对象的所述定时元数据访问信息来获取所述定时元数据。
(19)根据(11)至(17)中任一项所述的信息处理装置,其中,
所述获取单元获取关于在所述时间方向上改变的所述定时元数据的多条信息中的任何一条,所述多条信息存储在所述MPEG_media extension中作为替选数组的相互不同的元素。
(20)一种信息处理方法,包括:
基于描述3D对象内容的场景的场景描述性文件中的MPEG_media extension中存储的定时元数据标识信息和所述场景描述性文件中的相机对象中存储的定时元数据访问信息,获取在时间方向上改变的定时元数据;以及
基于所获取的定时元数据生成所述3D对象内容的显示图像。
附图标记列表
300 文件生成装置
301 控制单元
302 文件生成处理单元
311 输入单元
312 预处理单元
313 编码单元
314 文件生成单元
315 记录单元
316 输出单元
400 客户端装置
401 控制单元
402 客户端处理单元
411 文件获取单元
412 文件处理单元
413 解码单元
414 显示信息生成单元
415 显示单元
416 显示控制单元

Claims (20)

1.一种信息处理装置,包括:
文件生成单元,其被配置成生成描述3D对象内容的场景的场景描述性文件,其中,在所述场景描述性文件中,指示相关联的外部文件的元数据在时间方向上改变的定时元数据标识信息存储在MPEG_media extension中,并且将相机对象与所述元数据相关联的定时元数据访问信息存储在所述相机对象中。
2.根据权利要求1所述的信息处理装置,其中,
在所述场景描述性文件中,所述定时元数据标识信息存储在所述MPEG_mediaextension的替选数组的mimeType中。
3.根据权利要求1所述的信息处理装置,其中,
在所述场景描述文件中,所述定时元数据访问信息存储在所述相机对象的MPEG_timed_camera extension中。
4.根据权利要求3所述的信息处理装置,其中,
针对多个参数中的每一个,所述定时元数据访问信息使用访问器索引来指定与要引用的缓冲器对象的区域相对应的访问器对象。
5.根据权利要求4所述的信息处理装置,其中,
所述多个参数包括指示所述相机对象的位置的POSITION、指示所述相机对象的取向的ORIENTATION、以及指示所述相机对象的视角和透视信息的PERSPECTIVE。
6.根据权利要求4所述的信息处理装置,其中,
所述定时元数据访问信息使用一个矢量指定与要由所述多个参数引用的缓冲器对象的区域相对应的访问器对象。
7.根据权利要求4所述的信息处理装置,其中,
所述定时元数据访问信息使用具有与每个参数相对应的访问器索引作为元素的数组,指定与要由多个参数引用的缓冲器对象的区域相对应的访问器对象。
8.根据权利要求3所述的信息处理装置,其中,
所述定时元数据访问信息指定与要引用的缓冲器对象的区域相对应的多个访问器对象。
9.根据权利要求1所述的信息处理装置,其中,
所述MPEG_media extension存储关于在所述时间方向上改变的多条定时元数据的信息,作为替选数组的相互不同的元素。
10.一种信息处理方法,包括:
生成描述3D对象内容的场景的场景描述性文件,其中,在所述场景描述性文件中,指示相关联的外部文件的元数据在时间方向上改变的定时元数据标识信息存储在MPEG_mediaextension中,并且将相机对象与所述元数据相关联的定时元数据访问信息存储在所述相机对象中。
11.一种信息处理装置,包括:
获取单元,其被配置成:基于描述3D对象内容的场景的场景描述性文件中的MPEG_media extension中存储的定时元数据标识信息和所述场景描述性文件中的相机对象中存储的定时元数据访问信息,获取在时间方向上改变的定时元数据;以及
生成单元,其被配置成:基于所述获取单元获取的所述定时元数据,生成所述3D对象内容的显示图像。
12.根据权利要求11所述的信息处理装置,其中,
所述获取单元基于所述场景描述性文件中的MPEG_media extension的替选数组的mimeType中存储的所述定时元数据标识信息,获取所述定时元数据。
13.根据权利要求11所述的信息处理装置,其中,
所述获取单元基于所述场景描述性文件中的所述相机对象的MPEG_timed_cameraextension中存储的所述定时元数据访问信息,获取所述定时元数据。
14.根据权利要求13所述的信息处理装置,其中,
所述获取单元基于针对多个参数的每一个使用访问器索引指定与要引用的缓冲对象的区域相对应的访问器对象的所述定时元数据访问信息,获取所述定时元数据。
15.根据权利要求14所述的信息处理装置,其中,
所述获取单元基于所述定时元数据访问信息获取所述定时元数据,所述定时元数据访问信息针对以下中的每一个使用访问器索引来指定与要引用的缓冲对象的区域相对应的访问器对象:指示所述相机对象的位置的POSITION、指示所述相机对象的取向的ORIENTATION、以及指示所述相机对象的视角和透视信息的PERSPECTIVE。
16.根据权利要求14所述的信息处理装置,其中,
所述获取单元基于使用一个矢量来指定与要由所述多个参数引用的缓冲器对象的区域相对应的访问器对象的所述定时元数据访问信息,获取所述定时元数据。
17.根据权利要求14所述的信息处理装置,其中,
所述获取单元基于使用具有与每个参数相对应的所述访问器索引作为元素的数组来指定与要由所述多个参数引用的缓冲器对象的区域相对应的访问器对象的所述定时元数据访问信息,获取所述定时元数据。
18.根据权利要求13所述的信息处理装置,其中,
所述获取单元基于指定与要引用的缓冲器对象的区域相对应的多个访问器对象的所述定时元数据访问信息来获取所述定时元数据。
19.根据权利要求11所述的信息处理装置,其中,
所述获取单元获取关于在所述时间方向上改变的所述定时元数据的多条信息中的任何一条,所述多条信息存储在所述MPEG_media extension中作为替选数组的相互不同的元素。
20.一种信息处理方法,包括:
基于描述3D对象内容的场景的场景描述性文件中的MPEG_media extension中存储的定时元数据标识信息和所述场景描述性文件中的相机对象中存储的定时元数据访问信息,获取在时间方向上改变的定时元数据;以及
基于所获取的定时元数据生成所述3D对象内容的显示图像。
CN202180030626.5A 2020-06-11 2021-05-28 信息处理装置和方法 Pending CN115462062A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063037744P 2020-06-11 2020-06-11
US63/037,744 2020-06-11
PCT/JP2021/020439 WO2021251185A1 (ja) 2020-06-11 2021-05-28 情報処理装置および方法

Publications (1)

Publication Number Publication Date
CN115462062A true CN115462062A (zh) 2022-12-09

Family

ID=78845626

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180030626.5A Pending CN115462062A (zh) 2020-06-11 2021-05-28 信息处理装置和方法

Country Status (6)

Country Link
US (1) US20230222726A1 (zh)
EP (1) EP4167565A4 (zh)
JP (1) JPWO2021251185A1 (zh)
KR (1) KR20230023626A (zh)
CN (1) CN115462062A (zh)
WO (1) WO2021251185A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4327561A1 (en) * 2021-04-19 2024-02-28 Nokia Technologies Oy Method, apparatus and computer program product for signaling information of a media track
WO2023176928A1 (ja) * 2022-03-18 2023-09-21 ソニーグループ株式会社 情報処理装置および方法
CN115170708B (zh) * 2022-07-11 2023-05-05 上海哔哩哔哩科技有限公司 3d图像实现方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109074678B (zh) * 2016-12-30 2021-02-05 华为技术有限公司 一种信息的处理方法及装置
US10679415B2 (en) * 2017-07-05 2020-06-09 Qualcomm Incorporated Enhanced signaling of regions of interest in container files and video bitstreams

Also Published As

Publication number Publication date
KR20230023626A (ko) 2023-02-17
EP4167565A4 (en) 2023-11-29
JPWO2021251185A1 (zh) 2021-12-16
US20230222726A1 (en) 2023-07-13
EP4167565A1 (en) 2023-04-19
WO2021251185A1 (ja) 2021-12-16

Similar Documents

Publication Publication Date Title
KR102254414B1 (ko) 시간 설정형 미디어 데이터를 캡슐화하고 파싱하기 위한 방법, 디바이스, 및 컴퓨터 프로그램
EP4167565A1 (en) Information processing device and method
JP7472220B2 (ja) 方法、プログラム、及びデバイス
KR102320455B1 (ko) 미디어 콘텐트를 전송하는 방법, 디바이스, 및 컴퓨터 프로그램
GB2509953A (en) Displaying a Region of Interest in a Video Stream by Providing Links Between Encapsulated Video Streams
US20230308661A1 (en) Information processing apparatus and method
GB2596325A (en) Method and apparatus for encapsulating annotated region in ISOBMFF tracks
CN116962756A (zh) 沉浸媒体的处理方法、装置、设备及存储介质
US20230334804A1 (en) Information processing device and method
US20240046562A1 (en) Information processing device and method
EP4224864A1 (en) Information processing device and method
US20220020397A1 (en) System and Method for Generating Dynamic Media
EP4325870A1 (en) Information processing device and method
EP4325871A1 (en) Information processing device and method
WO2023176928A1 (ja) 情報処理装置および方法
WO2023204289A1 (ja) 情報処理装置および方法
EP4365844A1 (en) Information processing device and method
US20230222693A1 (en) Information processing apparatus and method
CN117980951A (zh) 信息处理装置和方法
JP2019125865A (ja) 情報処理装置および方法
CN118118694A (zh) 点云封装与解封装方法、装置、介质及电子设备
CN116781675A (zh) 一种点云媒体的数据处理方法、装置、设备及介质
CN111543063A (zh) 信息处理装置和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination