JP7480773B2 - 情報処理装置、情報処理方法、再生処理装置及び再生処理方法 - Google Patents

情報処理装置、情報処理方法、再生処理装置及び再生処理方法 Download PDF

Info

Publication number
JP7480773B2
JP7480773B2 JP2021506217A JP2021506217A JP7480773B2 JP 7480773 B2 JP7480773 B2 JP 7480773B2 JP 2021506217 A JP2021506217 A JP 2021506217A JP 2021506217 A JP2021506217 A JP 2021506217A JP 7480773 B2 JP7480773 B2 JP 7480773B2
Authority
JP
Japan
Prior art keywords
information
dimensional object
file
dimensional
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021506217A
Other languages
English (en)
Other versions
JPWO2020189038A1 (ja
Inventor
充 勝股
遼平 高橋
光浩 平林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020189038A1 publication Critical patent/JPWO2020189038A1/ja
Application granted granted Critical
Publication of JP7480773B2 publication Critical patent/JP7480773B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/005Tree description, e.g. octree, quadtree
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Description

本開示は、情報処理装置、情報処理方法、再生処理装置及び再生処理方法に関する。
現在の映像配信においては、映画などの配信で利用される2次元ビデオと呼ばれる2次元コンテンツの配信が主流である。さらに、全方位が見回し可能である360度ビデオの配信もインターネット上の様々なサイトなどで提供されている。360度ビデオは、3DoF(Degree of Freedom)ビデオとも呼ばれる。2次元ビデオ及び3DoFビデオどちらも、基本は2次元にエンコードされたコンテンツが配信され、クライアント装置で表示される。
一方で、更なる自由度のあるビデオとして、6DoFコンテンツの配信が提案されている。6DoFコンテンツは、3次元空間内で視線方向を自由に選択することで全方位見回しができ、さらに視点位置を自由に選択することで空間の中の自由な位置の選択が可能である。6DoFコンテンツは、3次元空間の3次元対象物を表現し、再生の際に視点方向及び視点位置を自由に設定可能な3次元コンテンツである。6DoFコンテンツは、3次元空間を1つもしくは複数の3次元オブジェクトで表現する。以下では、3次元オブジェクトを3Dオブジェクトと呼称する。
より具体的には、6DoFコンテンツは、以下の手法により時刻毎に3次元オブジェクトを用いて3次元空間を表現したものである。1つの手法は、人や物などの対象物毎に3次元オブジェクトで3次元空間を表現する対象物ベースの表現手法である。また、他の1つの手法は、人や物などの各対象物別の3次元オブジェクトの生成は行わずに、対象空間全体を1つの3次元オブジェクトとして表現する空間ベースの表現手法である。
スポーツや音楽の実写などに基づく6DoFコンテンツのライブストリーミングでは、空間ベースの表現手法を用いることで、コンテンツ制作が容易となりまたクライアント装置の処理コストも低く抑えられる。そして、空間ベースの表現手法を用いた場合、エンドツーエンドの遅延を小さくできる。
6DoFコンテンツの配信方法として、例えば、3次元空間を複数の3次元オブジェクトで構成し、複数のオブジェクトストリームとして伝搬する方法がある。このような方法で6DoFコンテンツを配信する際、例えば、シーンディスクリプションという記述法を用いる技術がある。シーンディスクリプションとして、シーンをシーングラフと呼ばれるツリー階層構造のグラフで表現し、そのシーングラフをバイナリ形式又はテキスト形式で表現する技術がある。
"ISO/IEC 14496-12:2015", Information technology. Coding of audio-visual objects. Part12:ISO base media file format, 2015-12
しかしながら、空間ベースの表現手法を用いた6DoFコンテンツの場合、対象物を識別することが困難であり、利用者に視聴体験を決める自由度が少ない。
そこで、本開示では、利用者に自由度の高い視聴体験を提供することができる情報処理装置、情報処理方法、再生処理装置及び再生処理方法を提供する。
本開示によれば、複数のオブジェクトを単体の3次元オブジェクトとして3次元空間を構成する空間3次元オブジェクトにおいて、前処理部は、前記3次元空間に含まれる特定のオブジェクトを識別するためのオブジェクト特定情報を生成する。ファイル生成部は、前記空間3次元オブジェクトのデータ及び前記オブジェクト特定情報を含むファイルを生成する。
配信システムの一例のシステム構成図である。 ファイル生成装置のブロック図である。 第1の実施形態に係る3次元オブジェクト特定情報の格納状態を表す図である。 オブジェクトメタデータノードのシンタックスの一例を表す図である。 既存ノードを拡張して3次元オブジェクト特定情報を格納する場合のシンタックスの一例を示す図である。 クライアント装置のブロック図である。 第1の実施形態に係るファイル生成装置によるファイル生成処理のフローチャートである。 第1の実施形態に係るクライアント装置により実行される再生処理のフローチャートである。 ユーザディスクリプション形式で3次元オブジェクト特定情報を格納する場合のシンタックスの一例を表す図である。 独自の形式で3次元オブジェクト特定情報を格納する場合のシンタックスの一例を表す図である。 第1の実施形態の変形例(2-1)における3次元オブジェクト特定情報を示すデータを格納するボックスの一例を示す図である。 Matroska Media Containerのフォーマットを表す図である。 第1の実施形態の変形例(2-2)における3次元オブジェクト特定情報を示すデータの格納例及びシンタックスの例を表す図である。 第1の実施形態の変形例(2-3)における3次元オブジェクト特定情報を示すデータの格納例を表す図である。 第1の実施形態の変形例(3-1)に係るAdaptationSetのシンタックスの一例を表す図である。 第1の実施形態の変形例(3-2)におけるMDPのシンタックスの一例を表す図である。 高精細3次元オブジェクト情報を含むシーングラフのノードのシタックスの一例を表す図である。 高精細3次元オブジェクトとともに精細度を示すシンタックスの一例を表す図である。 ユーザディスクリプション形式で高精細3次元オブジェクト特定情報を格納する場合のシンタックスの一例を表す図である。 ユーザディスクリプション形式で高精細3次元オブジェクトとともに精細度を格納する場合のシンタックスの一例を表す図である。 独自の形式で高精細3次元オブジェクト特定情報を格納する場合のシンタックスの一例を表す図である。 独自の形式で高精細3次元オブジェクトとともに精細度を格納する場合のシンタックスの一例を表す図である。 第2の実施形態の変形例(2-1)における高精細3次元オブジェクト特定情報を示すデータを格納するボックスの一例を示す図である。 第2の実施形態の変形例(3-1)に係るAdaptationSetのシンタックスの一例を表す図である。 第2の実施形態の変形例(4)に係る拡張されたシーンディスクリプションを示す図である。 高精細差分3次元オブジェクトを使用する場合のISOBMFFファイルの一例を表す図である。 基礎3次元オブジェクトを使用する場合のISOBMFFファイルの一例を表す図である。 第2の実施形態の変形例(7-1)におけるシーングラフの一例を表す図である。 拡張したSwitchノードのシンタックスの一例を表す図である。 ContentsStructureBoxのシンタックスの一例を表す図である。 IncludingObjectMetadataノードのシンタックスの一例を表す図である。 IncludingObjectMetadataの一例を表す図である。 IncludingObjectBoxの一例を表す図である。 各構成に含まれる3次元オブジェクト毎の3次元オブジェクト特定情報をMPDのAdaptationSetに格納した場合の状態を表す図である。 AdaptationSetに格納される各構成に含まれる3次元オブジェクト毎の3次元オブジェクト特定情報のシンタックスの一例を表す図である。 各構成のシーンディスクリプションを分けた場合のシーングラフを表す図である。 注目オブジェクト情報のノードのシンタックスの一例を表す図である。 注目オブジェクト情報とともに注目度示すシンタックスの一例を表す図である。 ユーザディスクリプション形式で注目オブジェクト情報を格納する場合のシンタックスの一例を表す図である。 ユーザディスクリプション形式で注目オブジェクト情報とともに注目度を示す場合のシンタックスの一例を表す図である。 独自の形式で注目オブジェクト情報を格納する場合のシンタックスの一例を表す図である。 独自の形式で注目オブジェクト情報とともに注目度を示す場合のシンタックスの一例を表す図である。 第3の実施形態の変形例(2-1)における注目オブジェクト情報を示すデータを格納するボックスの一例を示す図である。 注目オブジェクト情報を格納するMPDのシンタックスの一例を表す図である。
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。なお、本技術で開示される範囲は、実施形態の内容に限定されるものではなく、出願当時において公知となっている以下の非特許文献に記載されている内容も含まれる。
非特許文献1:(上述)
非特許文献2:"ISO/IEC 14496-11:2015", Information technology. Coding of audio-visual objects. Part11:Sene description and application engine, 2015-11
非特許文献3:"ISO/IEC 23009-1:2014", Information technology. Dynamic adaptive streaming over HTTP(DASH), Part1:Media presentation description and segment formats, 2014-15
非特許文献4:"ISO/IEC 23009-1:2014", Information technology. Dynamic adaptive streaming over HTTP(DASH), Part1:AMENDMENT 2:Spatial relationship description generalized URL parameters and other extensions, 2014-05
非特許文献5:"ISO/IEC 21000-22:2016", Information technology-Multimedia framework (MPEG-21)-Part22:User Description, 2016-11
つまり、上述の非特許文献に記載されている内容も、参照により本明細書に組み込まれる。つまり、上述の非特許文献に記載されている内容もサポート要件を判断する際の根拠となる。例えば、非特許文献1に記載されているFile Structure、非特許文献2に記載されているScene Descriptionで用いられている構造/用語、非特許文献3に記載されているMPEG-DASH規格で用いられている用語が発明の詳細な説明において直接的な記載がない場合でも、本技術の開示範囲内であり、請求の範囲のサポート要件を満たすものとする。また、例えば、パース(Parsing)、シンタックス(Syntax)、セマンティクス(Semantics)等の技術用語についても同様に、発明の詳細な説明において直接的な記載がない場合でも、本技術の開示範囲内であり、請求の範囲のサポート要件を満たすものとする。
また、以下に示す項目順序に従って本開示を説明する。
1.第1の実施形態
1.1-1 第1の実施形態の変形例(1-1)
1.1-2 第1の実施形態の変形例(1-2)
1.2-1 第1の実施形態の変形例(2-1)
1.2-2 第1の実施形態の変形例(2-2)
1.2-3 第1の実施形態の変形例(2-3)
1.3-1 第1の実施形態の変形例(3-1)
1.3-2 第1の実施形態の変形例(3-2)
2.第2の実施形態
2.1-1 第2の実施形態の変形例(1-1)
2.1-2 第2の実施形態の変形例(1-2)
2.2-1 第2の実施形態の変形例(2-1)
2.2-2 第2の実施形態の変形例(2-2)
2.3-1 第2の実施形態の変形例(3-1)
2.3-2 第2の実施形態の変形例(3-2)
2.4 第2の実施形態の変形例(4)
2.5 第2の実施形態の変形例(5)
2.6 第2の実施形態の変形例(6)
2.7-1 第2の実施形態の変形例(7-1)
2.7-2 第2の実施形態の変形例(7-2)
3.第3の実施形態
3.1-1 第3の実施形態の変形例(1-1)
3.1-2 第3の実施形態の変形例(1-2)
3.2-1 第3の実施形態の変形例(2-1)
3.2-2 第3の実施形態の変形例(2-2)
3.3-1 第3の実施形態の変形例(3-1)
3.3-2 第3の実施形態の変形例(3-2)
(1.第1の実施形態)
上述したように、スポーツや音楽の実写などに基づく6DoFコンテンツにおいては、空間ベースの表現手法が有効である。しかしながら、空間ベースの表現手法を用いた場合、6DoFコンテンツに含まれる各対象物を識別することが困難であり、利用者による視聴体験の決定の自由度が少ない。具体的には、対象物ベースの表現手法に比べて対象物ベースの表現手法では、以下のような制限がある。自由に視点を選択する視聴において、利用者により指定された対象物をクライアント装置で自動的に追尾して視聴させることは困難である。また、クライアント装置で対象物の位置を表示し利用者の視聴を補助することは困難である。さらに、利用者により指定された対象物に限定して高品質に表示することは困難である。また、ROI(region of interest)のような指定された視聴において、コンテンツ作成者の意図する注目すべき対象物をユーザに示したり追尾して視聴させたりすることは困難であり、さらに、その対象物に限定して高品質に表示させることは困難である。そこで、以下に説明する情報処理装置及び再生処理装置を提供する。
[第1の実施形態に係るシステムの構成]
図1は、配信システムの一例のシステム構成図である。配信システム100は、情報処理装置であるファイル生成装置1、再生処理装置であるクライアント装置2及びWebサーバ3を含む。ファイル生成装置1、クライアント装置2及びWebサーバ3は、ネットワーク4に接続される。そして、ファイル生成装置1、クライアント装置2及びWebサーバ3は、ネットワーク4を介して相互に通信可能である。ここで、図1においては、各装置を1台ずつ示しているが、配信システム100は、ファイル生成装置1及びクライアント装置2をそれぞれ複数台含んでもよい。
ファイル生成装置1は、6DoFコンテンツを生成する。ファイル生成装置1は、生成した6DoFコンテンツをWebサーバ3にアップロードする。ここで、本実施形態では、Webサーバ3が6DoFコンテンツをクライアント装置2に提供する構成について説明するが、配信システム100は他の構成を採ることも可能である。例えば、ファイル生成装置1が、Webサーバ3の機能を含み、生成した6DoFコンテンツを自装置内に格納し、クライアント装置2に提供する構成であってもよい。
Webサーバ3は、ファイル生成装置1からアップロードされた6DoFコンテンツを保持する。そして、Webサーバ3は、クライアント装置2からの要求にしたがい指定された6DoFコンテンツを提供する。
クライアント装置2は、6DoFコンテンツの送信要求をWebサーバ3へ送信する。そして、クライアント装置2は、送信要求で指定した6DoFコンテンツをWebサーバ3から取得する。そして、クライアント装置2は、6DoFコンテンツをデコードして映像を生成して、その映像をモニタなどの表示装置に表示させる。
ここで、6DoFコンテンツについて説明する。6DoFコンテンツは、3次元空間を1つもしくは複数の3次元オブジェクトで表現する。3Dオブジェクトは、6DoFコンテンツのローカル座標系である正規化されたバウンディングボックス(Bounding Box)内の座標系を用いて表現され、圧縮エンコードされてビットストリーム(bitstream)となる。このビットストリームを3次元空間へ配置するために、シーンディスクリプション(Scene Description)が用いられる。
このシーンディスクリプションの規格は、複数存在する。基本的には、各時刻における各3Dオブジェクトを表示するシーンをシーングラフと称するツリー階層構造のグラフで表現し、そのシーングラフをバイナリ形式またはテキスト形式で表現する。ここで、シーングラフは、空間表示制御情報であり、3Dオブジェクトの表示に関する情報を、ノードを構成単位として定義し、複数のノードを階層的に組合せることで構成される。ノードは、ある座標系から別の座標系へと変換する座標変換情報のノード、3Dオブジェクトの位置情報や大きさ情報のノード、3Dオブジェクトやオーディオデータへのアクセス情報のノードがある。
なお、以下においては、6DoFコンテンツは、空間表示制御情報であるシーンディスクリプションデータと、複数の3Dオブジェクトのメディアデータ(例えば、3Dオブジェクトのメッシュデータとテクスチャデータを合わせて表現したもの)とで構成されるものとする。また、6DoFコンテンツには、オーディオデータが含まれてもよい。3DオブジェクトのメディアデータはPoint Cloudといった別の形式も適用可能である。また、シーンディスクリプションデータは、MPEG-4 Scene Description(ISO/IEC 14496-11)に準拠するものとする。
MPEG-4 Scene Descriptionデータは、シーングラフをBIFS(Binary Format for Scenes)という形式でバイナリ化してものである。このシーングラフのBIFSへの変換は、所定のアルゴリズムを用いることで可能となる。また、ISOBMFF(ISO Base Media File Format)に格納することで時刻毎にシーンを規定することができ、位置や大きさの変化する3Dオブジェクトを表現することが可能である。
[第1の実施形態に係るファイル生成装置の構成]
次に、ファイル生成装置1の詳細について説明する。図2は、ファイル生成装置のブロック図である。情報処理装置であるファイル生成装置1は、図2に示すように、生成処理部10及び制御部11を有する。制御部11は、生成処理部10の制御に関する処理を実行する。例えば、制御部11は、生成処理部10の各部の動作タイミングなどの統括制御を行う。生成処理部10は、データ入力部101、前処理部102、符号化部103、ファイル生成部104及び送信部105を有する。
データ入力部101は、3次元オブジェクト及びメタ情報などを生成するための元情報の入力を受け付ける。データ入力部101は、取得した元情報を前処理部102へ出力する。データ入力部101は、データの入力を受け付ける。データ入力部101が受け付けるデータには、3Dオブジェクト及び3Dオブジェクトの配置情報等のメタデータが含まれる。データ入力部101は、取得したデータを前処理部102へ出力する。
前処理部102は、3Dオブジェクト及び3Dオブジェクトの配置情報等のメタデータを含むデータの入力をデータ入力部101から受ける。そして、前処理部102は、取得したデータを基にビットストリーム構成を決定し、各3Dオブジェクトのメタデータ、並びに、ビットストリームへのアクセス情報を用いてシーングラフを生成する。また、メタデータには、どのようなコーデックで圧縮するかなどの制御情報が含まれる。
前処理部102は、3次元空間内の3次元オブジェクトを特定するための3次元オブジェクト特定情報を生成する。3次元オブジェクト特定情報には、時刻が変わった際にも、同一の3次元オブジェクトを判別するための識別情報、3次元オブジェクトの空間位置情報及び3次元オブジェクトの詳細情報などが含まれる。この3次元オブジェクト特定情報が、「オブジェクト特定情報」の一例にあたる。
ここで、本実施形態に係る前処理部102は、3次元オブジェクト特定情報をシーンディスクリプションの形式で格納する。図3は、第1の実施形態に係る3次元オブジェクト特定情報の格納状態を表す図である。例えば、前処理部102は、図3に示すように、識別情報、3次元オブジェクトの位置情報及び3次元オブジェクトの詳細情報を示すための新しいオブジェクトメタデータノード31を定義する。そして、前処理部102は、ある時刻における3次元オブジェクト特定情報を、Groupノードをルートとして子ノードに3次元オブジェクト毎のオブジェクトメタデータノード31を有するシーングラフ30を生成する。この場合、前処理部102は、各3次元オブジェクトの3次元オブジェクト特定情報を表すオブジェクトメタデータノード31のそれぞれを、Groupノードの子ノードとする。
図4は、オブジェクトメタデータノードのシンタックスの一例を表す図である。例えば、前処理部102は、図4に示すシンタックスを用いてオブジェクトメタデータノード31を生成する。図4に示すシンタックスにおけるcenterPointは、3次元オブジェクトの中心を示す座標(x,y,z)を示す値である。また、bboxSizeは、3次元オブジェクトの外接ボックスを示す値であり、centerPointを中心に各軸に並行な長さで表される。centerPointを利用してbboxSizeを利用しない場合、すなわちbboxSizeの省略時は、bboxSizeは、(-1,-1,-1)とされる。idは、3次元オブジェクトの識別情報であり、本実施形態では数値で表される。descriptionは、3次元オブジェクトの詳細情報を示す文字列である。
以上では新しいノードを定義する場合を説明したが、前処理部102は、既存のノードを拡張して3次元オブジェクト特定情報を格納することも可能である。図5は、既存ノードを拡張して3次元オブジェクト特定情報を格納する場合のシンタックスの一例を示す図である。例えば、前処理部102は、図5においてexposedFieldとして表されるTransformノードにおける既存のbboxCenter fieldとbboxSize fieldとを用いて3次元オブジェクトの位置を示す。また、前処理部102は、3次元オブジェクトの識別情報及び詳細情報の格納は、Transformノードにおけるfieldを拡張することで実現する。図4に示すシンタックスにおけるidは、3次元オブジェクトの識別情報であり、数値で表される。また、noShapeFlagは、子ノードに3次元オブジェクトの形状を示すデータが存在しないこと、すなわち位置情報のみであることを示す。また、descriptionは、3次元オブジェクトの詳細情報を示す文字列である。また、ここでは、Transformノードを拡張する場合で説明したが、他のノードを拡張して3次元オブジェクト特定情報を格納することも可能である。
さらに、以上では3次元オブジェクトの位置を示すために3次元オブジェクトの外接ボックスを用いたが、前処理部102は、外接球や、外接円柱などの立体で3次元オブジェクトの位置を示してもよい。他にも、前処理部102は、3次元オブジェクトの形状情報そのものを格納してもよい。
前処理部102は、3次元オブジェクト及び生成したシーングラフを符号化部103へ出力する。また、前処理部102は、メタデータをファイル生成部104へ出力する。
符号化部103は、3次元オブジェクト及びシーングラフの入力を前処理部102から受ける。そして、符号化部103は、3次元オブジェクトを符号化しビットストリームを生成する。また、符号化部103は、取得したシーングラフを符号化しシーンディスクリプションを生成する。その後、符号化部103は、生成したビットストリーム及びシーンディスクリプションをファイル生成部104へ出力する。
ファイル生成部104は、ビットストリーム及びシーンディスクリプションの入力を符号化部103から受ける。また、ファイル生成部104は、メタデータの入力を前処理部102から受ける。そして、ファイル生成部104は、取得したビットストリームをセグメント毎にISOBMFFファイルに格納することでファイル化し、ビットストリームのセグメントファイルを生成する。また、ファイル生成部104は、シーンディスクリプションのデータをセグメント毎にISOBMFFファイルに格納することでファイル化して、シーンディスクリプションのセグメントファイルを生成する。
また、ファイル生成部104は、前処理部102から取得したデータを基に、MPD(Media Presentation Description)ファイルを生成する。MPDファイルには、メディア種別、動画や音声のセグメントファイルの情報などの6DoFコンテンツのメタ情報が格納される。
送信部105は、ビットストリーム、静的シーンディスクリプション及び動的シーンディスクリプションのセグメントファイルをファイル生成部104から取得し、それらをWebサーバ3に送信してアップロードする。
[第1の実施形態に係るクライアント装置の構成]
図6は、クライアント装置のブロック図である。図6に示すように、クライアント装置2は、再生処理部20及び制御部21を有する。制御部21は、再生処理部20の各部の動作を制御する。例えば、制御部21は、再生処理部20の各部の動作のタイミングを統括制御する。再生処理部20は、ファイル取得部201、計測部202、ファイル処理部203、復号処理部204、表示制御部205、表示情報生成部206及び表示部207を有する。
ファイル取得部201は、再生する6DoFコンテンツに対応するMPDファイルをWebサーバ3から取得する。そして、ファイル取得部201は、MPDファイルを基に、再生する6DoFコンテンツのシーンディスクリプションの情報を取得する。
ファイル取得部201は、Webサーバ3にアクセスして表示する6DoFコンテンツのシーンディスクリプションが格納されたISOBMFFのファイルを取得する。そして、ファイル取得部201は、シーンディスクリプションが格納されたISOBMFFのファイルをファイル処理部203へ出力する。
さらに、ファイル取得部201は、ファイル処理部203により選択されたビットストリームの情報をファイル処理部203から取得する。そして、ファイル取得部201は、Webサーバ3にアクセスして、選択されたビットストリームのセグメントファイルを取得する。その後、ファイル取得部201は、取得したビットストリームのセグメントファイルをファイル処理部203へ出力する。
計測部202は、クライアント装置2とWEBサーバとの間の伝送路の伝送帯域を計測する。そして、計測部202は、伝送帯域の計測結果をファイル処理部203へ出力する。
ファイル処理部203は、再生する6DoFコンテンツに対応するMPDファイルの入力をファイル取得部201から受ける。そして、ファイル処理部203は、取得したMPDファイルをパースして再生する6DoFコンテンツのシーンディスクリプションを取得する。また、ファイル処理部203は、適応配信に用いる複数のデータの認識も行う。例えば、ビットレートを切替える適応配信であれば、各ビットレートに対応するビットストリームのセグメントファイルの情報を取得する。この場合、ファイル処理部203は、再生する6DoFコンテンツのシーンディスクリプションの情報をファイル取得部201へ出力する。
ファイル処理部203は、シーンディスクリプションが格納されたISOBMFFのファイルの入力をファイル取得部201から受ける。ファイル処理部203は、取得したISOBMFFのファイルをパースする。そして、ファイル処理部203は、座標変換情報、3次元オブジェクトの配置情報及びアクセス情報、並びに、3次元オブジェクト特定情報を取得する。
また、ファイル処理部203は、伝送帯域の計測結果の入力を計測部202から受ける。そして、ファイル処理部203は、シーンディスクリプションのパース結果、並びに、計測部202から取得した伝送帯域を示す情報等に基づいて、再生するビットストリームのセグメントファイルを選択する。そして、ファイル処理部203は、選択したビットストリームのセグメントファイルの情報をファイル取得部201へ出力する。この時、伝送帯域に応じて選択するビットストリームのセグメントファイルを変えることで、ビットレートに応じた適応配信が実現される。
その後、ファイル処理部203は、選択したビットストリームのセグメントファイルの入力をファイル取得部201から受ける。そして、ファイル処理部203は、取得したビットストリームのセグメントファイルから、ビットストリームのデータを抽出し復号処理部204へ出力する。また、ファイル処理部203は、取得した3次元オブジェクト特定情報を用いて3次元オブジェクトが存在するかの情報を取得して表示制御部205へ出力する。
復号処理部204は、ビットストリームデータの入力をファイル処理部203から受ける。そして、復号処理部204は、取得したビットストリームのデータに対して復号処理を施す。その後、復号処理部204は、復号化したビットストリームのデータを表示情報生成部206へ出力する。
表示制御部205は、操作者の視点位置及び視線方向の情報の入力を図示しない入力装置から受ける。そして、表示制御部205は、取得した視点位置及び視点方向の情報を表示情報生成部206へ出力する。
また、表示制御部205は、どのような3次元オブジェクトが存在するかの情報の入力をファイル処理部203から受ける。操作者は、視点位置及び視線情報の代わりに入力装置を用いて注目する3次元オブジェクトを示す指定情報の入力を行うこともできる。表示制御部205は、操作者により指定された注目する3次元オブジェクトを示す指定情報を取得する。そして、例えば3次元オブジェクトの追尾した視聴の場合、表示制御部205は、時間経過にしたがい指定情報で指定された3次元オブジェクトを追尾するように視点位置及び視点方向の情報を表示情報生成部206へ出力する。これにより、例えば、操作者により指定された3次元オブジェクトを追尾する画像を表示することができる。また、例えば3次元オブジェクトの位置を表示する場合、表示制御部205は、指定された3次元オブジェクトを6DoFコンテンツの中から特定する情報を生成する。
表示情報生成部206は、シーンディスクリプション及び復号されたビットストリームのデータおよび、取得した視点位置及び視点方向の情報を受信し、表示情報を生成する。以下に表示情報生成部206の詳細について説明する。
ビットストリームのデータの入力を復号処理部204から受ける。そして、表示情報生成部206は、シーンディスクリプションを基に、取得したビットストリームのデータである3次元オブジェクトを3次元空間に配置する。さらに、表示情報生成部206は、操作者の視点位置及び視線方向の情報の入力を表示制御部205から受ける。そして、表示情報生成部206は、視点位置及び視線方向に合わせて3次元空間に配置した3次元オブジェクトのレンダリングを行い表示用の画像を生成する。その後、表示情報生成部206は、生成した表示用の画像を表示部207に供給する。
また、例えば3次元オブジェクトの位置を表示する場合、表示情報生成部206は、表示制御部205から取得した指定された3次元オブジェクトを6DoFコンテンツの中から特定する情報を取得する。そして、表示情報生成部206は、取得した情報を用いて指定された3次元オブジェクトの位置を表示する情報を表示用画像に付加する。
表示部207は、モニタなどの表示装置を有する。表示部207は、表示情報生成部206により生成された表示用の画像の入力を受ける。そして、表示部207は、取得した表示用の画像を表示装置に表示させる。
[第1の実施形態に係るファイル生成手順]
ファイル生成装置1は、3次元空間における3次元オブジェクトにより構成される6DoFコンテンツのシーンの構成を表すシーン構成情報であるシーングラフを生成する。次に、図7を参照して、第1の実施形態に係るファイル生成装置1によるファイル生成処理の流れについて詳細に説明する。図7は、第1の実施形態に係るファイル生成装置によるファイル生成処理のフローチャートである。
前処理部102は、3次元オブジェクト特定情報を生成する(ステップS1)。本実施形態では、前処理部102は、シーンディスクリプション形式で格納される3次元オブジェクト特定情報を生成する。
そして、前処理部102は、3次元オブジェクト特定情報を含むデータを生成する(ステップS2)。
次に、符号化部103は、3次元オブジェクト特定情報を含むデータをエンコードして3次元オブジェクトのビットストリームを生成する(ステップS3)。また、符号化部103は、取得したシーングラフを符号化しシーンディスクリプションを生成する。
次に、ファイル生成部104は、取得したビットストリームをセグメント毎にISOBMFFファイルに格納してビットストリームのセグメントファイルを生成する。また、ファイル生成部104は、シーンディスクリプションのデータをセグメント毎にISOBMFFファイルに格納してシーンディスクリプションのセグメントファイルを生成する(ステップS4)。
送信部105は、ファイル生成部104により生成されたセグメントファイルをWebサーバ3へ出力する(ステップS5)。
[第1の実施形態に係る再生処理手順]
次に、図8を参照して、本実施形態に係るクライアント装置2により実行される再生処理の流れを説明する。図8は、第1の実施形態に係るクライアント装置により実行される再生処理のフローチャートである。
ファイル取得部201は、再生する6DoFコンテンツに対応するMPDファイルをWebサーバ3から取得する(ステップS11)。
ファイル処理部203は、MPDファイルをパースして解析処理を実行する(ステップS12)。そして、ファイル処理部203は、解析結果を基に、再生する6DoFコンテンツのシーンディスクリプションを特定する。
そして、ファイル取得部201は、ファイル処理部203により特定されたシーンディスクリプションを取得する。ファイル処理部203は、ファイル取得部201が取得したシーンディスクリプションをパースする。これにより、ファイル処理部203は、3次元オブジェクト特定情報を取得する(ステップS13)。
そして、ファイル処理部203は、取得した3次元オブジェクト特定情報から存在する3次元オブジェクトを特定する(ステップS14)。ファイル処理部203は、どのような3次元オブジェクトが存在するかの情報を表示制御部205へ出力する。
また、ファイル処理部203は、パース結果を基に、再生する6DoFコンテンツに対応するビットストリームのセグメントファイルを取得する(ステップS15)。復号処理部204は、ビットストリームのセグメントファイルに対して復号処理を施す。その後、復号処理部204は、ビットストリームのデータを表示情報生成部206へ出力する。
表示制御部205は、入力された視点位置及び視線方向の情報、又は、注目する3次元オブジェクトの指定情報から得た視点位置及び視線方向の情報を表示情報生成部206へ出力する。表示情報生成部206は、表示制御部205から取得した視点位置及び視線方向の情報を用いて3次元オブジェクトのレンダリングや位置情報の付加を行い表示用の画像を生成して表示部207に表示させる視聴処理を実行する(ステップS16)。
以上に説明したように、本実施形態に係るファイル生成装置は、空間ベースの表現手法を用いた6DoFコンテンツに含まれる3次元オブジェクトを特定するための3次元オブジェクト特定情報を生成し、6DoFコンテンツの中に格納する。これにより、クライアント装置は、空間ベースの表現手法を用いた6DoFコンテンツに含まれる3次元オブジェクトを特定することができる。すなわち、本実施形態に係る配信システムでは、操作者の選択した3次元オブジェクトを自動的に追尾した視聴の提供や、3次元オブジェクトの位置を表示して操作者の視聴をアシストすることができる。したがって、利用者に自由度の高い視聴体験を提供することができる。
[1.1-1 第1の実施形態の変形例(1-1)]
第1の実施形態では3次元オブジェクト特定情報をシーンディスクリプション形式で格納したが、本変形例では、3次元オブジェクト特定情報がMPEG-21の規格であるユーザディスクリプション形式で格納されることが第1の実施形態と異なる。以下に、本変形例に係るファイル生成装置1の前処理部102による3次元オブジェクト特定情報の格納の詳細について説明する。
本変形例に係る前処理部102は、シーンディスクリプションとは別ファイルである、3次元オブジェクト特定情報を示すユーザシルクリプション形式のファイルを生成する。すなわち、前処理部102は、3次元オブジェクト特定情報をユーザディスクリプションに格納する。図9は、ユーザディスクリプション形式で3次元オブジェクト特定情報を格納する場合のシンタックスの一例を表す図である。
例えば、前処理部102は、図9に示すように、3次元オブジェクト特定情報を表すXMLスキーマを追加する。前処理部102は、そのXMLスキーマにおいて、ユーザディスクリプションの1つの属性情報として3次元オブジェクト特定情報を格納する。この場合、前処理部102は、3次元オブジェクトの位置情報、詳細情報を表す新しいService DescriptionのTypeを定義する。
図9におけるidは、3次元オブジェクトの識別情報であり、数値で示される。また、centerPointX、centerPointY及びcenterPointZは、3次元オブジェクトの中心点を表す座標(x,y,z)を示す値である。bboxSizeX、bboxSizeY及びbboxSizeZは、3次元オブジェクトの外接ボックスを示す値であり、centerPointを中心に各軸に平行な長さで表される。descriptionは、3次元オブジェクトの詳細情報を示す文字列である。
以上では、前処理部102は、3次元オブジェクトの位置を示すために、3次元オブジェクトの外接ボックスを用いたが、外接球や、外接円柱などの立体で示してもよい。他にも、前処理部102は、3次元オブジェクトの形状情報そのものを格納してもよい。
[1.1-2 第1の実施形態の変形例(1-2)]
本変形例では、3次元オブジェクト特定情報が、独自の形式で格納されることが第1の実施形態と異なる。以下に、本変形例に係るファイル生成装置1の前処理部102による3次元オブジェクト特定情報の格納の詳細について説明する。
前処理部102は、3次元オブジェクト特定情報をシーンディスクリプションやユーザディスクリプションとは異なる独自の形式で格納する。すなわち、前処理部102は、3次元オブジェクト特定情報を独自のディスクリプションに格納する。図10は、独自の形式で3次元オブジェクト特定情報を格納する場合のシンタックスの一例を表す図である。
例えば、前処理部102は、図10に示すシンタックスのように、オブジェクトメタデータ構造を定義し、その定義したオブジェクトメタデータ構造において書く3次元オブジェクトの識別情報、位置情報及び詳細情報を示す。
図10におけるnum_of_objectsは、3次元オブジェクトの数を表す値である。object_idは、3次元オブジェクトの識別情報であり、数値で示される。また、centerPointX、centerPointY及びcenterPointZは、3次元オブジェクトの中心点を表す座標(x,y,z)を示す値であり、整数部24ビット及び小数部8ビットで表される。bboxSizeX、bboxSizeY及びbboxSizeZは、3次元オブジェクトの外接ボックスを示す値であり、centerPointを中心に各軸に平行な長さで表される。bboxSizeX、bboxSizeY及びbboxSizeZも、整数部24ビット及び小数部8ビットで表される。descriptionは、3次元オブジェクトの詳細情報を示す文字列である。
さらに、以上では3次元オブジェクトの位置を示すために3次元オブジェクトの外接ボックスを用いたが、前処理部102は、外接球や、外接円柱などの立体で3次元オブジェクトの位置を示してもよい。他にも、前処理部102は、3次元オブジェクトの形状情報そのものを格納してもよい。
[1.2-1 第1の実施形態の変形例(2-1)]
次に、3次元オブジェクト特定情報を示すデータの格納方法について説明する。本変形例では、3次元オブジェクト特定情報が時間単位で変化しない場合について説明する。3次元オブジェクト特定情報が時間単位で変化しない場合とは、言い換えれば、3次元オブジェクトの位置情報が変化しない場合である。
本変形例に係るファイル生成装置1は、3次元オブジェクト特定情報を示すデータを新たに定義したボックスに格納する。以下に、本変形例に係る3次元オブジェクト特定情報を示すデータを格納したファイルの生成について説明する。ここでは、シーンディスクリプション形式で表される3次元オブジェクト特定情報を示すデータを用いる場合で説明する。ただし、ユーザディスクリプション形式を用いた場合や独自の形式を用いた場合も同様の方法で3次元オブジェクト特定情報を示すデータを格納したファイルを生成することが可能である。
図11は、第1の実施形態の変形例(2-1)における3次元オブジェクト特定情報を示すデータを格納するボックスの一例を示す図である。本変形例に係るファイル生成部104は、図11に示すStaticObjectMetadataBoxを新たに定義する。ファイル生成部104は、StaticObjectMetadataBoxを、シーンディスクリプショントラック、3次元オブジェクトのメッシュトラック又はテクスチャトラックのいずれかのトラックのサンプルエントリに格納する。特に、シーンディスクリプショントラックは、クライアント装置2が再生処理の初期段階に取得するファイルである。そのため、シーンディスクリプショントラックの中に3次元オブジェクト特定情報を示すデータを含めることで、再生処理の初期段階で3次元オブジェクト特定情報を取得できるため3次元オブジェクトに関する処理を迅速に行えるという利点が存在する。
また、ファイル生成部104は、MetaBoxに3次元オブジェクト特定情報を示すデータを格納してもよい。例えば、ファイル生成部104は、ItemInfoEntryにおいて、item_typeを”obmt”として、ItemDataにStaticObjectMatadataを格納してもよい。この場合、ファイル生成部104は、ItemPropertyを拡張し、ItemProperty(‘somd’)としてStaticObjectMetadataを格納してもよい。
以上ではISOBMFFに格納する場合を説明した。ただし、図12に示すMatroska Media Container(http://www.matroska.org/)を用いて伝送する場合でも3次元オブジェクト特定情報を示すデータを送信することが可能である。図12は、Matroska Media Containerのフォーマットを表す図である。その場合、ファイル生成部104は、Track Entry elementに、新しくSceneDescriptionObjectMetadata elementを格納する。この際、ファイル生成部104は、Element Typeをbinaryとし、且つ、EBMLデータとしてSceneDescriptionObjectMetadata()をバイナリデータとして格納する。
[1.2-2 第1の実施形態の変形例(2-2)]
本変形例では、3次元オブジェクト特定情報が時間単位で変化する場合の3次元オブジェクト特定情報を示すデータの格納方法について説明する。3次元オブジェクト特定情報が時間単位で変化する場合とは、言い換えれば、3次元オブジェクトが移動するなど位置情報が変化する場合である。
本変形例に係るファイル生成装置1は、新規のTimed metadataを定義して、そのsample entryに3次元オブジェクト特定情報を示すデータを格納する。以下に、本変形例に係る3次元オブジェクト特定情報を示すデータを格納したファイルの生成について説明する。ここでは、シーンディスクリプション形式で表される3次元オブジェクト特定情報を示すデータを用いる場合で説明する。ただし、ユーザディスクリプション形式を用いた場合や独自の形式を用いた場合も同様の方法で3次元オブジェクト特定情報を示すデータを格納したファイルを生成することが可能である。
図13は、第1の実施形態の変形例(2-2)における3次元オブジェクト特定情報を示すデータの格納例及びシンタックスの例を表す図である。ファイル生成部104は、図13に示す3次元オブジェクト特定情報を示すシーンディスクリプションを格納するためのmetadata fileを、既存のファイルとは別のファイルとして作成する。そして、ファイル生成部104は、シンタックス32に示すように、MetadataSampleEntryに新しくObjectMetadataSampleEntry(‘obmt’)を定義して、3次元オブジェクト特定情報を示すシーンディスクリプションを格納する。この場合、ファイル生成部104は、シンタックス33で示される時間毎の3次元オブジェクト特定情報をsampleに格納する。
さらに、1つのISOBMFFファイルに3次元オブジェクト特定情報と共に3次元オブジェクトのメッシュデータ及びテクスチャデータがそれぞれトラックで格納されている場合、ファイル生成部104は、以下のように情報の格納を行う。例えば、ファイル生成部104は、3次元オブジェクト特定情報トラックにTrack Reference Boxを格納したreference Type=’cdsc’で3次元オブジェクトのメッシュデータトラックのIDを格納する。cdscは既存の格納領域であるが、これ以外にも、ファイル生成部104は、3次元オブジェクトの位置情報用のトラックを設けるなど、別途新たな関連を示す値に変えてもよい。
ここで、時間毎に変わる3次元オブジェクト特定情報と、時間毎に変わらない3次元オブジェクト特定情報とが混在する場合は、ファイル生成部104は、StaticObjectMetadataをObjectmetadataSmapleEntryに配置する。
以上ではISOBMFFに格納する場合を説明した。ただし、Matroska Media Containerを用いて伝送する場合でも3次元オブジェクト特定情報を示すデータを送信することが可能である。その場合、ファイル生成部104は、図13のsampleをMatroska Media ContainerのClusterのブロックのデータ構造とすることで3次元オブジェクト特定情報を伝送できる。その場合、ファイル生成部104は、TrackEntry elementに含まれるTrackType elementにMetadata=19を新たに定義して、CodecID elementにM_OBMTを新たに規定する。
[1.2-3 第1の実施形態の変形例(2-3)]
本変形例では、3次元オブジェクト特定情報が時間単位で変化する場合の3次元オブジェクト特定情報を示すデータの格納の他の方法について説明する。本変形例に係るファイル生成装置1は、ISOBMFFに3次元オブジェクト特定情報を示すデータを格納する。以下に、本変形例に係る3次元オブジェクト特定情報を示すデータを格納したファイルの生成について説明する。ここでは、シーンディスクリプション形式で表される3次元オブジェクト特定情報を示すデータを用いる場合で説明する。
ファイル生成部104は、シーンディスクリプションファイルのシーンディスクリプションに3次元オブジェクト特定情報を格納する。図14は、第1の実施形態の変形例(2-3)における3次元オブジェクト特定情報を示すデータの格納例を表す図である。図14に示すように、ファイル生成部104は、ルートにGroupノードを置き、元々の6DoFコンテンツのシーングラフ34と3次元オブジェクト特定情報を格納したシーングラフ35とをそれぞれ子ノードとする。
ここで、クライアント装置2は、6DoFコンテンツを再生する場合、シーンディスクリプションファイルの取得を実行する。そのため、本変形例に係る3次元オブジェクト特定情報を示すデータの格納手法では、3次元オブジェクト特定情報を使用しないクライアント装置2は、不要な3次元オブジェクト特定情報取得することになり、伝送帯域が無駄になるおそれがある。
[1.3-1 第1の実施形態の変形例(3-1)]
本変形例では、3次元オブジェクト特定情報が時間単位で変化しない場合の、MPDを用いて3次元オブジェクト特定情報を示す方法について説明する。本変形例に係るファイル生成装置1は、3次元オブジェクト特定情報を、シーンディスクリプション又は3次元オブジェクトに対応するAdaptationSetにより示す。以下に、本変形例に係るMPDを用いた3次元オブジェクト特定情報を示す方法について説明する。
図15は、第1の実施形態の変形例(3-1)に係るAdaptationSetのシンタックスの一例を表す図である。MPDは、どのようなデータが6DoFコンテンツに含まれるかを示す情報が格納されたファイルである。そして、MPDが保持するAdaptationSetでは、シーンディスクリプション、メッシュデータ、テクスチャデータがそれぞれ分けて示される。
ファイル生成部104は、図15に示すようにAdaptationSetにおけるSupplementalPropertyを用いて3次元オブジェクト特定情報を示すデータを指し示す。SupplementalPropertyは、AdaptationSetの内容を示す情報である。ファイル生成部104は、SupplementalPropertyを用いてschemeIdUri=”StaticObjectMetadata”を新しく定義して、その子elementのSOM:metaで3次元オブジェクト毎の識別情報を示す。
図15におけるidは、3次元オブジェクトの識別情報であり、数値で表される。centerPointX、centerPointY及びcenterPointZは、3次元オブジェクトの中心点を表す座標(x,y,z)を示す値である。bboxSizeX、bboxSizeY及びbboxSizeZは、3次元オブジェクトの外接ボックスを示す値であり、centerPointを中心に各軸に平行な長さで表される。外接ボックスを利用せずに省略する場合は、bboxSizeX、bboxSizeY及びbboxSizeZは、(-1,-1,-1)とされる。descriptionは、3次元オブジェクトの詳細情報を示す文字列である。
ここで、3次元オブジェクトの識別情報は、シーンディスクリプション、又は、3次元オブジェクトのメッシュデータもしくはテクスチャデータのいずれのAdaptationSetに格納されてもよい。また、ここでは、AdaptationSetに格納する場合で説明したが、他にも、ファイル生成部104は、3次元オブジェクトの識別情報をMPDのPeriodに格納してもよい。
[1.3-2 第1の実施形態の変形例(3-2)]
本変形例では、3次元オブジェクト特定情報が時間単位で変化する場合の、MPDによる3次元オブジェクト特定情報を示すデータを指し示す方法について説明する。本変形例に係るファイル生成装置1は、MPDを用いて、3次元オブジェクト特定情報が格納されたTimed metadataと、シーンディスクリプション又は3次元オブジェクトとを関連付ける。以下に、本変形例におけるMPDを用いた3次元オブジェクト特定情報の関連付けについて説明する。
図16は、第1の実施形態の変形例(3-2)におけるMDPのシンタックスの一例を表す図である。ファイル生成部104は、図16に示すように、3次元オブジェクト特定情報のAdaptationSetにおいてAdaptationSet@codecsで”obmt”を指定して、Timed metadata形式の3次元オブジェクト特定情報であることを示す。そして、ファイル生成部104は、Representation@associationで3次元オブジェクトが含まれるシーンディスクリプションのRepresentation@idを示す。さらに、ファイル生成部104は、Representation@associationTypeを第1の実施形態の変形例(2-2)で指定したTrack Reference Boxを格納したreference Typeと同じ”cdsc”とする。
他にも、ファイル生成部104は、第1の実施形態の変形例(2-3)のように、3次元オブジェクト特定情報がシーンディスクリプションデータに含まれる場合を明示してもよい。例えば、ファイル生成部104は、シーンディスクリプションのAdaptationSetに<SupplementalProperty schemeIDUri=”IncludeObjectMetadata”>を格納することで、3次元オブジェクト特定情報がシーンディスクリプションデータに含まれることを明示することができる。
以上の各変形例に説明したような方法で、本変形例に係るファイル生成装置は、3次元オブジェクト特定情報を格納するファイルを生成し、クライアント装置への提供を行う。これにより、クライアント装置は、3次元オブジェクト特定情報を取得でき、利用者に自由度の高い視聴体験を提供することができる。
また、以上の説明では、MPEG-4シーンディスクリプションを用いて説明したが、他のシーンディスクリプションを用いる場合でもこれらの3次元オブジェクト特定情報の格納方法は適用可能である。
(2.第2の実施形態)
空間ベースの手法を用いて6DoFコンテンツを提供する場合、対象物を識別できなければ、操作者が特定の対象物に注目してその対象物を高品質に視聴したいと望んでも、指定された対象物を高品質にした画像を提供することは困難である。そこで、本実施形態に係るファイル生成装置は、特定の3次元オブジェクトを高精細化した映像を提供する。以下に、特定の3次元オブジェクトの高精細化手法について説明する。本実施形態に係るファイル生成装置も図2のブロック図で表される。
ファイル生成装置1の前処理部102は、特定の3次元オブジェクトが高精細化された6DoFコンテンツ全体を含む1つの空間ベース3次元オブジェクトを生成する。そして、前処理部102は、生成した空間ベース3次元オブジェクトそれぞれについて、高精細化されている3次元オブジェクトを示す高精細3次元オブジェクト特定情報を生成する。
以下に、高精細3次元オブジェクト特定情報の生成の詳細について説明する。本実施形態に係る前処理部102は、高精細3次元オブジェクト特定情報をシーンディスクリプション形式で格納する。図17は、高精細3次元オブジェクト情報を含むシーングラフのノードのシタックスの一例を表す図である。前処理部102は、図17に示すように、3次元オブジェクト特定情報で示されている識別情報を用いて高精細化されている3次元オブジェクトを示す。前処理部102は、図17におけるidsとして、高精度な3次元オブジェクトのIDを列挙する。このように、前処理部102は、高精細3次元オブジェクト特定情報のノードであるHighLODObjectをシーングラフに格納する。
また、前処理部102は、図18のようにqualityにより3次元オブジェクトの精細度を数値で表してもよい。図18は、高精細3次元オブジェクトとともに精細度を示すシンタックスの一例を表す図である。図18におけるqualityとして、idsで列挙した識別情報順に、それぞれの3次元オブジェクトの精細度を数値で表す。qualityの値は、例えば、値が小さいほど精細度が高くなるように定義される。
他にも、前処理部102は、第1の実施形態と同様に図4に示すように3次元オブジェクト特定情報をシーンディスクリプション形式で格納し、その3次元オブジェクト特定情報にhighLODflagを追加して、高精細であることを示してもよい。
以上に説明したように、本実施形態に係るファイル生成装置は、6DoFコンテンツに含まれる特定の3次元オブジェクトを高精細化した空間ベース3次元オブジェクトを生成し、空間ベース3次元オブジェクト毎に高精細化された3次元オブジェクトを示す高精細3次元オブジェクト特定情報を生成する。クライアント装置は、高精細3次元オブジェクト特定情報を取得することで、所定の3次元オブジェクトが高精細化された空間ベース3次元オブジェクトを取得して操作者に提供することができる。すなわち、操作者は、指定した3次元オブジェクトが高精細化された映像を視聴することができ、より自由度の高い視聴を享受することができる。
[2.1-1 第2の実施形態の変形例(1-1)]
本変形例に係る前処理部102は、図9に示すVisual3DObjectInfoを生成して、3次元オブジェクト特定情報をユーザディスクリプション形式で格納する。さらに、前処理部102は、高精細3次元オブジェクト特定情報をユーザディスクリプション形式で格納する。すなわち、前処理部102は、高精細3次元オブジェクト特定情報をユーザディスクリプションに格納する。図19は、ユーザディスクリプション形式で高精細3次元オブジェクト特定情報を格納する場合のシンタックスの一例を表す図である。
前処理部102は、図19に示すように、ユーザディスクリプションの1つの属性情報として指定できるようにXMLスキーマを追加する。図19におけるidは、高精細化された3次元オブジェクトの識別情報であり、数値で表される。このidには、図9のVisual3DObjectInfoで示されるidが用いられる。
また、前処理部102は、図20のようにqualityにより精細度を数値で表してもよい。図20は、ユーザディスクリプション形式で高精細3次元オブジェクトとともに精細度を格納する場合のシンタックスの一例を表すである。図20におけるqualityとして3次元オブジェクトの精細度を数値で表す。qualityの値は、例えば、値が小さいほど精細度が高くなるように定義される。
他にも、前処理部102は、図9に示すVisual3DObjectInfoにhighLODflagを追加して、そのVisual3DObjectInfoで指定された3次元オブジェクトが高精細であることを示してもよい。
[2.1-2 第2の実施形態の変形例(1-2)]
本変形例に係る前処理部102は、図10に示すObjectmetadataを生成して、3次元オブジェクト特定情報を独自の形式で格納する。さらに、前処理部102は、高精細3次元オブジェクト特定情報を独自の形式で格納する。すなわち、前処理部102は、高精細3次元オブジェクト特定情報を独自のディスクリプションに格納する。図21は、独自の形式で高精細3次元オブジェクト特定情報を格納する場合のシンタックスの一例を表す図である。
前処理部102は、図21に示すように、HighQualityObject構造を新たに定義する。そして、前処理部102は、HighQualityObject構造の中に高精細3次元オブジェクト特定情報を格納する。図21におけるnum_objectは、高精細化された3次元オブジェクトの数を表す。また、High_LOD_object_idは、高精細化された3次元オブジェクトの識別情報であり、数値で表される。このidには、図10のobjectmetadataで示されるobject_idが用いられる。
また、前処理部102は、図22のようにqualityにより3次元オブジェクトの精細度を数値で表してもよい。図22は、独自の形式で高精細3次元オブジェクトとともに精細度を格納する場合のシンタックスの一例を表す図である。前処理部102は、図22におけるLOD_valueにより3次元オブジェクトの精細度を表す。LOD_valueの値は、例えば、値が小さいほど精細度が高くなるように定義される。
他にも、前処理部102は、図10に示すobjectmetadataにhighLODflagを追加して、そのobjectmetadataで指定された3次元オブジェクトが高精細であることを示してもよい。
[2.2-1 第2の実施形態の変形例(2-1)]
本変形例では、高精細3次元オブジェクト特定情報が時間単位で変化しない場合の高精細3次元オブジェクト特定情報を示すデータの格納方法について説明する。ここでは、シーンディスクリプション形式で表される高精細3次元オブジェクト特定情報を示すデータを用いる場合で説明する。ただし、ユーザディスクリプション形式を用いた場合や独自の形式を用いた場合も同様の方法で高精細3次元オブジェクト特定情報を示すデータを格納したファイルを生成することが可能である。
図23は、第2の実施形態の変形例(2-1)における高精細3次元オブジェクト特定情報を示すデータを格納するボックスの一例を示す図である。本変形例に係るファイル生成部104は、図23に示すStaticHighLODObjectBoxを新たに定義する。ファイル生成部104は、StaticHighLODObjectBoxを、シーンディスクリプショントラック、3次元オブジェクトのメッシュトラック又はテクスチャトラックのいずれかのトラックのサンプルエントリに格納する。
また、ファイル生成部104は、MetaBoxに高精細3次元オブジェクト特定情報を示すデータを格納してもよい。例えば、ファイル生成部104は、ItemInfoEntryにおいて、item_typeを”obmt”として、ItemDataにStaticHighLODObjectBoxを格納してもよい。この場合、ファイル生成部104は、ItemProperyを拡張し、ItemPropery(‘shlo’)としてStaticHighLODObjectBoxを格納してもよい。
以上ではISOBMFFに格納する場合を説明した。ただし、図12に示すMatroska Media Containerを用いて伝送する場合でも高精細3次元オブジェクト特定情報を示すデータを送信することが可能である。その場合、ファイル生成部104は、Track Entry elementに、新しくSceneDescriptionHighLODObject elementを格納する。この際、ファイル生成部104は、Element Typeをbinaryとし、且つ、EBMLデータとしてSceneDescriptionHighLODObject()をバイナリデータとして格納する。
[2.2-2 第2の実施形態の変形例(2-2)]
本変形例では、3次元オブジェクト特定情報が時間単位で変化する場合の高精細3次元オブジェクト特定情報を示すデータの格納方法について説明する。
ここでは、ファイル生成部104は、第1の実施形態の変形例(2-2)と同様に、図13に示す3次元オブジェクト特定情報を示すシーンディスクリプションを格納するためのmetadata fileを、既存のファイルとは別のファイルとして作成する。
そして、ファイル生成部104は、metadata fileのsampleに、3次元オブジェクト特定情報と同時に高精細3次元オブジェクト特定情報を格納する。ファイル生成部104は、同時に格納する場合、3次元オブジェクト特定情報と高精細3次元オブジェクト特定情報とを別々にアクセスできるようにファイルを生成してもよい。また、ファイル生成部104は、3次元オブジェクト特定情報に高精細3次元オブジェクト特定情報を含めるような構造としてもよい。
他の方法として、ファイル生成部104は、高精細3次元オブジェクト特定情報のための新しいTimed metadataを定義して、その中に高精細3次元オブジェクト特定情報を格納してもよい。その場合、ファイル生成部104は、新しく定義したTimed metadataにおけるMetadataSampleEntryを拡張して、新しくHighLODObjectSampleEntry(‘hobm’)とする。さらに、ファイル生成部104は、sampleに高精細3次元オブジェクト特定情報を格納する。この場合、ファイル生成部104は、ObjectMetadataのTimed metadataのobject_idとの関連を示すために、高精細3次元オブジェクト特定情報トラックに、Track Reference Boxを格納し、reference_type=’cdsc’で3次元オブジェクト特定情報のidを登録してもよい。cdscは、既存の値であるが、別途新たな関連を示す値に替えてもよい。
また、時間単位で変化する高精細3次元オブジェクト特定情報と時間単位で変化しない高精細3次元オブジェクト特定情報とが混在する場合、時間単位で変化しない高精細3次元オブジェクト特定情報に関して、ファイル生成部104は、図23のStaticHighLODObjectBoxを高精細3次元オブジェクト特定情報トラックもしくはオブジェクト特定トラックに配置する。
[2.3-1 第2の実施形態の変形例(3-1)]
本変形例では、3次元オブジェクト特定情報が時間単位で変化しない場合に、MPDを用いて高精細3次元オブジェクト特定情報を示す方法について説明する。
図24は、第2の実施形態の変形例(3-1)に係るAdaptationSetのシンタックスの一例を表す図である。ファイル生成部104は、図24に示すようにAdaptationSetにおけるSupplementalPropertyを用いて高精細3次元オブジェクト特定情報を示すデータを指し示す。ファイル生成部104は、SupplementalPropertyを用いてschemeIdUri=”StaticHighLOCObject”を新しく定義して、その子elementで、識別情報を含む3次元オブジェクト特定情報を含むデータを示す情報と、高精細3次元オブジェクトの識別情報を格納する。図24におけるidは、3次元オブジェクトの識別情報であり、数値で表される。また、objectMetadataは、3次元オブジェクト特定情報を含むRepresentation@idを示す。
さらに、ファイル生成部104は、高精細3次元オブジェクトの識別情報とともに、qualityを用いて3次元オブジェクトの精細度を表す情報をAdaptationSetに格納してもよい。
[2.3-2 第2の実施形態の変形例(3-2)]
本変形例では、3次元オブジェクト特定情報が時間単位で変化する場合に、MPDによる3次元オブジェクト特定情報を示すデータを指し示す方法について説明する。本変形例に係るファイル生成装置1のファイル生成部104は、3次元オブジェクト特定情報のAdaptationSetにおいてAdaptationSet@codecsで”hobm”を指定して、Timed metadata形式の高精細3次元オブジェクト特定情報であることを示す。そして、ファイル生成部104は、Representation@associationIdで高精細化された3次元オブジェクトが含まれるシーンディスクリプションのRepresentation@idを示す。さらに、ファイル生成部104は、Representation@associationTypeを第2の実施形態の変形例(2-2)で指定したTrack Reference Boxを格納したreference Typeと同じ”cdsc”とする。
[2.4 第2の実施形態の変形例(4)]
本変形例では、シーンディスクリプションから高精細3次元オブジェクトを示すアクセス情報を取得できるように拡張する。図25は、第2の実施形態の変形例(4)に係る拡張されたシーンディスクリプションを示す図である。
本変形例に係るファイル生成装置1のファイル生成部104は、3次元オブジェクトのメッシュデータのへのアクセス情報を含むBitWrapperノードを拡張して、シンタックス36に示すように複数のAdaptation@idを格納するためのfieldを設ける。また、ファイル生成部104は、3次元オブジェクトのテクスチャデータのへのアクセス情報を含むMovieTextureノードを拡張して、シンタックス37に示すように複数のAdaptation@idを格納するためのfieldを設ける。図25におけるAdaptatioSetIdSelectionは、3次元オブジェクトのメッシュデータもしくはテクスチャデータを含む複数のAdaptationSetをAdaptationSet@idで表す。これにより、クライアント装置2は、シーンディスクリプションから高精細3次元オブジェクト特定情報を示すAdaptationSetにアクセス可能となる。
他の方法としては、ファイル生成部104は、シーンディスクリプションにおけるurlのurl query parameterで複数のAdaptationSet@idを示してもよい。
[2.5 第2の実施形態の変形例(5)]
以上では、特定の3次元オブジェクトが高精細化された1つの空間ベース3次元オブジェクトを生成した。その場合、6DoFコンテンツの生成において高精細化したい3次元オブジェクトが多数存在すると、それぞれについて空間ベース3次元オブジェクトを作成することになり、生成コスト及びサーバ上のデータ量が増加する。そこで、生成コスト削減及びサーバ上のデータ量の削減のために以下の方法を採用することが好ましい。
本変形例では、特定の3次元オブジェクトを高精細化するための差分情報のみを含む3次元オブジェクトである高精細差分3次元オブジェクトを用いて特定の3次元オブジェクトが高精細化された映像が生成される。図26は、高精細差分3次元オブジェクトを使用する場合のISOBMFFファイルの一例を表す図である。
ファイル生成部104は、図26に示す3次元空間全体の空間ベース3次元オブジェクト38を生成する。さらに、ファイル生成部104は、3次元空間全体の空間ベース3次元オブジェクトと特定の3次元オブジェクトが高精細化された空間ベース3次元オブジェクトとの差分を表す高精細差分3次元オブジェクト39を生成する。空間ベース3次元オブジェクト38は単独で再生可能であるが、高精細差分3次元オブジェクト39は、空間ベース3次元オブジェクト38とセットで再生される。
具体的には、ファイル生成部104は、高精細差分3次元オブジェクトの生成にあたり、Track Reference Boxに新しいreference_type=’dfbs’を定義して、差分の元になる空間ベース3次元オブジェクト38のトラックを示す。さらに、ファイル生成部104は、高精細差分3次元オブジェクトにおけるRestrictedSchemeInfoBoxのSchemeTypeBoxに新しくscheme_Type=’3odf’を登録することで差分データであることを示す。また、ファイル生成部104は、高精細差分3次元オブジェクトのトラックに第2の実施形態の変形例(2-1)や(2-2)で示した高精細3次元オブジェクト特定情報を格納してもよい。
また、この場合、ファイル生成部104は、以下の方法で高精細差分3次元オブジェクトを示す情報をMPDに格納する。例えば、ファイル生成部104は、高精細差分3次元オブジェクトのAdaptationSet@codecsを、”resv.3dof.xxxx”(xxxxは、3次元オブジェクトをエンコードしているコーデックを示す。)として、高精細差分3次元オブジェクトであることを示す。また、ファイル生成部104は、高精細差分3次元オブジェクトのRepresentation@dependencyidを用いて、差分の元になる空間ベース3次元オブジェクトのRepresentation@idを示す。他にも、第2の実施形態の変形例(3-1)及び(3-2)のシンタックスを用いて高精細差分オブジェクトのAdaptationSetで高精細化されている3次元オブジェクトを示してもよい。
クライアント装置2は、空間ベース3次元オブジェクト及び高精細差分3次元オブジェクトを取得して、デコード及びレンダリングをすることで、特定の3次元オブジェクトが高精細化された3次元オブジェクトを生成することができる。
なお、図12に示すMatroska Media Containerを用いて伝送する場合には、ファイル生成部104は、高精細化するための高精細差分3次元オブジェクトのTrack Entry elementに、新しくBase3DObjectTrackID elementを格納する。この際、ファイル生成部104は、Element Typeをunsigned intとし、且つ、EBMLデータとして差分の元になる空間ベース3次元オブジェクトのトラックのTrackNumberを格納する。
このように、高精細化するための差分3次元オブジェクトデータを用いることで、サーバ上のデータ量を減らすことができる。また、差分データを複数取得することで、複数の3次元オブジェクトを高精細化することが可能となり、操作者の視聴における自由度を向上させることができる。
[2.6 第2の実施形態の変形例(6)]
本変形例では、6DoFコンテンツ全体を表す空間ベース3次元オブジェクトから特定の3次元オブジェクトを除いた基礎3次元オブジェクトと、高精細化された特定の3次元オブジェクトを示す高精細3次元オブジェクトとを用いて特定の3次元オブジェクトが高精細化された映像が生成される。図27は、基礎3次元オブジェクトを使用する場合のISOBMFFファイルの一例を表す図である。
ファイル生成部104は、図27に示すように、対象とする3次元空間全体において特定の3次元オブジェクトが存在しない基礎3次元オブジェクト41を生成する。また、ファイル生成部104は、特定の3次元オブジェクトが高精細化された高精細3次元オブジェクト42を生成する。この場合、基礎3次元オブジェクト41及び高精細3次元オブジェクト42は、セットで再生される。
ファイル生成部104は、基礎3次元オブジェクト41のトラックをベーストラックとして扱い、基礎3次元オブジェクト41のTrack Reference boxに新しくreference_type=’3dom’を定義して、再生に使用する3次元オブジェクトの一覧を示す。そして、ファイル生成部104は、シーンディスクリプションからの3次元オブジェクトファイルへのアクセス情報は、ベーストラックを含むファイルに対して行う。
また、ファイル生成部104は、基礎3次元オブジェクト41及び高精細3次元オブジェクト42のいずれのトラックに対しても、対象とする3次元空間全体が複数の3次元オブジェクトから形成されることを示す情報を格納する。例えば、ファイル生成部104は、双方のトラックにおけるRestrictedSchemeInfoBoxのSchemeTypeBoxに、一部のデータであることを表すために新しく定義したscheme_type=’3osp’を格納する。また、ファイル生成部104は、高精細3次元オブジェクト42のトラックには、Track Reference Boxに新しくreference_type=’3dos’を定義して、3次元空間全体のベーストラックを示す。なお、高精細3次元オブジェクト42のトラックに、第2の実施形態の変形例(2-2)のシンタックスを用いてもよい。
また、この場合、ファイル生成部104は、以下の方法で高精細差分3次元オブジェクトを示す情報をMPDに格納する。例えば、ファイル生成部104は、高精細差分3次元オブジェクトのAdaptationSet@codecsを、”resv.3dof.xxxx”(xxxxは、3次元オブジェクトをエンコードしているコーデックを示す。)として、対象とする3次元空間全体が複数の3次元オブジェクトで形成されることを示す。また、ファイル生成部104は、対象とする3次元空間のベースとなる基礎3次元オブジェクトのRepresentation@dependencyIdを用いて、レンダリングに用いるその他の全ての高精細3次元オブジェクトのRepresentation@idを示す。また、ファイル生成部104は、高精細3次元オブジェクトのRepresentation@dependencyIdを用いて、ベースとなる基礎3次元オブジェクトのRepresentation@idを示す。
クライアント装置2は、基礎3次元オブジェクト及び高精細3次元オブジェクトを取得して、デコード及びレンダリングをすることで、特定の3次元オブジェクトが高精細化された3次元オブジェクトを生成することができる。
なお、図12に示すMatroska Media Containerを用いて伝送する場合には、ファイル生成部104は、ベースとなる基礎3次元オブジェクトのTrack Entry elementに、新しくrequired3DObjectTrackID elementを格納する。この際、ファイル生成部104は、Element Typeをunsigned intとし、且つ、EBMLデータとしてそのトラックに存在しない3次元オブジェクトのトラックのTrackNumberを全て格納する。また、ファイル生成部104は、ベースでない高精細3次元オブジェクトのTrack Entry elementに、新しくBase3DObjectTrackID elementを格納する。この際、ファイル生成部104は、Element Typeをunsigned intとし、且つ、EBMLデータとしてベースとなる基礎3次元オブジェクトのトラックのTrackNumberを格納する。
このように、高精細化する3次元オブジェクトを対象とする3次元空間から除いた3次元オブジェクトと高精細化された3次元オブジェクトとを用いることで、サーバ上のデータ量を減らすことができる。また、高精細化された3次元オブジェクトのデータを複数用いることで、複数の3次元オブジェクトを高精細化することが可能となり、操作者の視聴における自由度を向上させることができる。
[2.7-1 第2の実施形態の変形例(7-1)]
第2の実施形態の変形例(5)及び第2の実施形態の変形例(6)では、高精細3次元オブジェクトを用いたが、そのような場合に、複数の構成から特定の3次元オブジェクトを高精細化して視聴するための構成を選択可能にするために、ファイル生成装置は、対象とする3次元空間に含まれる各3次元オブジェクトの3次元オブジェクト特定情報を提供する。本変形例では、複数の構成が1つのシーンディスクリプションに格納される場合について説明する。本変形例では、それぞれの構成に含まれる3次元オブジェクトの3次元オブジェクト特定情報をシーンディスクリプションに格納する。
図28は、第2の実施形態の変形例(7-1)におけるシーングラフの一例を表す図である。この場合、ファイル生成部104は、例えば、図28に示すように、シーンディスクリプションでそれぞれの3次元オブジェクトに含まれる3次元特定情報を示す。具体的には、ファイル生成部104は、Switchノード43の子ノードとして、高精細3次元オブジェクトが異なる構成を並べて配置することで、1つのシーンディスクリプションに複数の構成を記述する。
さらに、ファイル生成部104は、図29に示すように、Switchノード43を拡張して、それぞれの構成に含まれる3次元オブジェクト毎の3次元オブジェクト特定情報を示す。図29は、拡張したSwitchノードのシンタックスの一例を表す図である。図29におけるContentStructは、構成に含まれる3次元オブジェクト毎の3次元オブジェクト特定情報を表す。ファイル生成部104は、ContentStructにおいて「”,”」を用いて構成内の各3次元オブジェクトを分けて表す。また、ファイル生成部104は、3次元オブジェクトに含まれる3次元オブジェクトを特定するための3次元オブジェクト特定情報として、シーン全体の3次元オブジェクト特定情報の識別情報を用いる。ファイル生成部104は、3次元オブジェクト特定情報に複数の識別情報が含まれる場合は、「” ”」を用いて各識別情報を分けて表す。さらに、ファイル生成部104は、ノードの順を、構成を示すGroupノードの子ノード順とする。
例えば、ファイル生成部104は、ContentStructの値を”1,2 3 4”,”2,1 3 4”とする。この場合、ContentStructの値により、1つめの構成に2つの3次元オブジェクトが含まれ、一方の3次元オブジェクトに「1」が含まれ且つ他方の3次元オブジェクトに「2,3,4」が含まれることが表される。
クライアント装置2の処理について説明する。クライアント装置2は、例えば、操作者から高精細化する3次元オブジェクトの指定を受ける。または、クライアント装置2は、操作者の視聴状況から高精細化する3次元オブジェクトを選択する。例えば、クライアント装置2は、視点位置に最も近い3次元オブジェクトや視線判定により操作者が最も注目する3次元オブジェクトなどを選択する。そして、クライアント装置2は、シーン全体の3次元オブジェクト特定情報から、選択した3次元オブジェクトを特定する。
次に、クライアント装置2は、特定した3次元オブジェクトの情報を用いて、シーンディスクリプションファイルを解析する。そして、クライアント装置2は、シーングラフのSwitchノードの3次元オブジェクト特定情報を用いて選択した3次元オブジェクトが高精細化されている構成を選択する。次に、クライアント装置2は、選択した構成からシーングラフにおいて参照されるMPDのAdaptationSetの中から、選択した3次元オブジェクトを高品質で表示し、他の3次元オブジェクトは低品質になるようにAdaptationSetを選択する。
これにより、操作者は、複数の構成から特定の3次元オブジェクトを高精細化した映像を視聴することが可能となる。以上の構成は、時間毎に動的に構成の内容が変化する場合でも実施可能である。また、クライアント装置2は、シーンディスクリプションファイルの切替を行わなくても、構成の切り替えを行うことが可能である。
以上では、それぞれの構成に含まれる3次元オブジェクト毎の3次元オブジェクト特定情報をSwitchノード43に格納したが、格納場所はこれに限らない。例えば、ファイル生成部104は、シーンディスクリプションのISOBMFFファイルのsample entryに図30に示すContentsStructureBoxを配置して、その中にそれぞれの構成に含まれる3次元オブジェクト毎の3次元オブジェクト特定情報を格納してもよい。図30は、ContentsStructureBoxのシンタックスの一例を表す図である。
図30におけるnum_contentStructは、含まれる構成の数を表す。また、num_3Dobjectは、含まれる3次元オブジェクトの数を表す。また、num_includingObjectは、3次元オブジェクトに含まれるオブジェクト数を表す。ingcluding_object_idは、3次元オブジェクトに含まれる3次元オブジェクト特定情報を表す。この値は、シーン全体の3次元オブジェクト特定情報で用いた識別情報で表す。この場合、ファイル生成部104は、ルートのSwitchノードに対する子ノードの順と同じ順番で各構成に関する情報を記載する。
この場合、クライアント装置2は、シーン全体の3次元オブジェクト特定情報から、高精細化する3次元オブジェクトを特定する。次に、クライアント装置2は、シーンディスクリプションファイルの解析の際に、sample entryからContentStructBoxを取得して、特定した3次元オブジェクト特定情報を用いて使用する構成を決定する。次に、クライアント装置2は、シーングラフを解析して、Switchノードにおいて決定した構成を選択する。
このように、シーンディスクリプションのISOBMFFファイルにそれぞれの構成に含まれる3次元オブジェクト毎の3次元オブジェクト特定情報を格納することで、構成が時間で変化しない場合には冗長な情報を削減することができる。
他にも、シーンディスクリプションのISOBMFFファイルに格納する方法として、ファイル生成部104は、図31に示すIncludingObjectMetadataノードを新しく定義して、そのノードを各3次元オブジェクトのTransformノードの子ノードとして配置してもよい。図31は、IncludingObjectMetadataノードのシンタックスの一例を表す図である。ただし、IncludingObjectMetadataノードを配置するノードはTransformノードに限らず、個々の3次元オブジェクトを示すノードであれば他のノードの子ノードとしてもよい。
この場合、クライアント装置2は、シーン全体の3次元オブジェクト特定情報から、高精細化する3次元オブジェクトを特定する。次に、クライアント装置2は、シーンディスクリプションファイルの解析の際に、Switchノード以下のシーングラフの解析も行い、3次元オブジェクト特定情報を取得して、使用する構成を選択する。このように、新しく定義したIncludingObjectMetadataノードを用いて各構成の3次元オブジェクト特定情報を格納する構成は、時間毎に動的に構成の内容が変化する場合も実施可能である。
以上ではISOBMFFに格納する場合を説明した。ただし、図12に示すMatroska Media Containerを用いて伝送する場合でも各構成の3次元オブジェクト特定情報を格納することが可能である。その場合、ファイル生成部104は、Track Entry elementに、新しく6DoFContentStruct elementを格納する。この際、ファイル生成部104は、Element Typeをbinaryとし、且つ、EBMLデータとして図30に示したContentStruct()をバイナリデータとして格納する。
他にも、それぞれの構成に含まれる3次元オブジェクト毎の3次元オブジェクト特定情報の格納場所を他の場所にすることは可能である。例えば、ファイル生成部104は、各3次元オブジェクトのAdaptationSetにSuplementalPropertyで3次元オブジェクト毎の3次元オブジェクト特定情報を図32に示すIncludingObjectMetadataとして格納する。図32は、IncludingObjectMetadataの一例を表す図である。図32におけるobjectMetadataは、3次元オブジェクト特定情報を含むRepresentation@idを表す。idsは、3次元オブジェクトに含まれる3次元オブジェクト特定情報を表す。idsの値には、シーン全体の3次元オブジェクト特定情報に含まれる識別情報が用いられる。
また、例えば、ファイル生成部104は、各3次元オブジェクトのISOBMFFのsample entryに3次元オブジェクト毎の3次元オブジェクト特定情報を図33に示すIncludingObjectBoxとして格納してもよい。図33は、IncludingObjectBoxの一例を表す図である。図33におけるnum_includingObjectは、3次元オブジェクトに含まれるオブジェクト数を表す。including_object_idは、3次元オブジェクトに含まれる3次元オブジェクト特定情報を表す。including_object_idの値には、シーン全体の3次元オブジェクト特定情報に含まれる識別情報が用いられる。
以上に説明した、IncludingObjectMetadataノード又はIncludingObjectBoxを用いる場合、クライアント装置2は、構成の選択のためにシーンディスクリプションの解析と参照される3次元オブジェクトのAdaptationSetもしくはファイルの解析を実行する。
以上ではISOBMFFに格納する場合を説明した。ただし、図12に示すMatroska Media Containerを用いて伝送する場合でも各構成の3次元オブジェクト特定情報を格納することが可能である。その場合、ファイル生成部104は、Track Entry elementに、新しくIncludingObject elementを格納する。この際、ファイル生成部104は、Element Typeをbinaryとし、且つ、EBMLデータとして図33に示したIncludingObject()をバイナリデータとして格納する。
ここで、第2の実施形態の変形例(7-1)で説明したそれぞれの構成に含まれる3次元オブジェクト毎の3次元オブジェクト特定情報の格納方法のうちのいくつか又は全てを組み合わせて使用することも可能である。
[2.7-2 第2の実施形態の変形例(7-2)]
本変形例では、MPDのAdaptationSetの中に各構成に含まれる3次元オブジェクト毎の3次元オブジェクト特定情報を格納する。この場合も、複数の構成が1つのシーンディスクリプションに格納される。
本変形例に係るファイル生成部104は、図34に示すように、MPDのシーンディスクリプションのAdaptationSet46に各構成に含まれる3次元オブジェクト毎の3次元オブジェクト特定情報を格納する。図34は、各構成に含まれる3次元オブジェクト毎の3次元オブジェクト特定情報をMPDのAdaptationSetに格納した場合の状態を表す図である。
この場合、ファイル生成部104は、図35に示すシンタックスを用いて各構成に含まれる3次元オブジェクト毎の3次元オブジェクト特定情報を格納する。図35は、AdaptationSetに格納される各構成に含まれる3次元オブジェクト毎の3次元オブジェクト特定情報のシンタックスの一例を表す図である。図35におけるOMは、参照する3次元オブジェクト特定情報へのアクセス情報を表す。objectMetadataは、3次元オブジェクト特定情報を含むRepresentation@idを表す。3DObjectは、構成に含まれる3次元オブジェクトを示す。idsは、3次元オブジェクトの3次元オブジェクト特定情報を表す。idsの値には、シーン全体の3次元オブジェクト特定情報に含まれる識別情報が用いられる。idsの値にオブジェクトを複数含む場合は、スペースで区切られる。6DoFContentStructDescriptionは、シーンディスクリプション中のSwitchノードの配下に配置されたノード順に合わせて記載される。3DObject elementは、Groupノードの子ノードの順番に合わせて記載される。
この場合のクライアント装置2が実行する処理について説明する。クライアント装置2は、シーン全体の3次元オブジェクト特定情報から高精細化して表示する3次元オブジェクトを特定する。次に、クライアント装置2は、AdaptationSetにおける3次元オブジェクト毎の3次元オブジェクト特定情報から、特定した3次元オブジェクトが高精細である構成を選択する。次に、クライアント装置2は、シーンディスクリプションのシーングラフから選択した構成を抽出する。そして、クライアント装置2は、抽出した構成に対応するMPDにおけるAdaptationSetから品質を選択する。
このように、MPDのAdaptationSetに各構成に含まれる3次元オブジェクト毎の3次元オブジェクト特定情報を格納することで、クライアント装置2は、シーンディスクリプションを取得することなく、シーンディスクリプションに使用する構成が含まれるか否かを判定できる。これにより、シーンディスクリプションに使用する構成が含まれない場合、クライアント装置2は、シーンディスクリプションを解析しなくてもよく不要な処理の実行を削減できる。また、クライアント装置2は、シーンディスクリプションファイルを切替えずに構成を切替えることができる。さらに、構成が時間で変化しない場合、冗長な情報を削減することができる。
また、本変形例に係るシーンディスクリプションに、第2の実施形態の変形例(7-1)のシーンディスクリプションを組み合わせて使用することも可能である。
また、ファイル生成部104は、図36に示すように、3次元オブジェクトの構成の異なるシーンはシーンディスクリプション47及び48を分けて、別ファイルとするファイル構成にすることも可能である。図36は、各構成のシーンディスクリプションを分けた場合のシーングラフを表す図である。この場合、ファイル生成部104は、各シーンディスクリプション47及び48に対応するAdaptationSetには、構成を選択するための3次元オブジェクト毎の3次元オブジェクト特定情報を格納する。この場合、ファイル生成部104は、図35に示したシンタックスを用いて3次元オブジェクト特定情報を格納することができる。
この場合、クライアント装置2は、シーン全体の3次元オブジェクト特定情報から高品質化して表示する3次元オブジェクトを特定する。次に、クライアント装置2は、複数のシーンディスクリプションのAdaptationSetに格納された3次元オブジェクト毎の3次元オブジェクト特定情報を用いて、特定した3次元オブジェクトが高精細である構成を選択する。次に、クライアント装置2は、選択した構成のシーンディスクリプションを解析する。そして、クライアント装置2は、解析したシーンディスクリプションに対応するMPDにおけるAdaptationSetから品質を選択する。
このように構成毎にシーンディスクリプションを分けることで、クライアント装置2は、シーンディスクリプションを取得せずに、使用する構成が含まれるシーンディスクリプションを特定できる。クライアント装置2は、使用する構成が含まれないシーンディスクリプションの解析を行わなくてよく、不要な処理を削減できる。また、MPDのAdaptationSetに格納する場合に比べて、不要なシーングラフの取得を削減することができる。さらに、構成が時間で変化しない場合は、冗長な情報を削減できる。また、クライアント装置2は、シーンディスクリプションファイルを切替えずに、構成の切替を行うことができる。
また、ここでは、MPDのAdaptationSetを用いる場合で説明したが、構成毎にシーンディスクリプションを分けた場合、各構成に含まれる3次元オブジェクトの3次元オブジェクト特定情報は、他の場所に格納することも可能である。例えば、ファイル生成部104は、それぞれの構成のシーンディスクリプションのsample entryにおいて図30のContentStructBoxを用いて各構成に含まれる3次元オブジェクトの3次元オブジェクト特定情報を格納することも可能である。この場合、クライアント装置2は、MPDでは構成を判別できないが、各シーンディスクリプションファイルを取得することで、構成に含まれる3次元オブジェクトの3次元オブジェクト特定情報が取得できる。
以上ではISOBMFFに格納する場合を説明した。ただし、図12に示すMatroska Media Containerを用いて伝送する場合でも各構成の3次元オブジェクト特定情報を格納することが可能である。その場合、ファイル生成部104は、Track Entry elementに、新しく6DoFContentStruct elementを格納する。この際、ファイル生成部104は、Element Typeをbinaryとし、且つ、EBMLデータとして図30に示したContentSturuct()をバイナリデータとして格納する。
また、以上の説明では、MPEG-4シーンディスクリプションを用いて説明したが、他のシーンディスクリプションを用いる場合でもこれらの高精細3次元オブジェクト特定情報の格納方法は適用可能である。
(3.第3の実施形態)
空間ベースの手法を用いて6DoFコンテンツを提供する場合、対象物を識別できなければ、コンテンツ作成者の意図する注目すべき3次元オブジェクトを利用者に示すことは困難である。そこで、本実施形態に係るファイル生成装置は、コンテンツ作成者が意図する注目すべき3次元オブジェクトの情報を注目オブジェクト情報として利用者に提供する。以下に、注目オブジェクト情報の提供方法について説明する。本実施形態に係るファイル生成装置も図2のブロック図で表される。
前処理部102は、3次元オブジェクト特定情報の識別情報を用いて、注目オブジェクト情報をシーンディスクリプション形式で格納する。
例えば、前処理部102は、図37に示すシンタックスで表されるfiledを含むノードを新しく定義して、注目オブジェクト情報として3次元オブジェクトを判別する識別情報を格納する。図37は、注目オブジェクト情報のノードのシンタックスの一例を表す図である。前処理部102は、図37におけるidsに、注目すべき3次元オブジェクトの識別情報を列挙する。このように、前処理部102は、注目オブジェクト情報のNoticeableObjectノードを用いてシーングラフを生成する。
また、前処理部102は、図38のように、levelによって注目度を数値で表してもよい。図38は、注目オブジェクト情報とともに注目度示すシンタックスの一例を表す図である。図38におけるlevelは、ids fieldの格納順に、それぞれの3次元オブジェクトの注目度を数値で表す。例えば、levelの値は、数値が小さいほど注目度が高いと定義される。
ここで、本実施形態では、注目オブジェクト情報を新しく規定したノードに格納したが、前処理部102は、他のノードにfiled及びNoticeableObjectFlagを新しく追加して注目すべきオブジェクトであることを示してもよい。
[3.1-1 第3の実施形態の変形例(1-1)]
本変形例に係る前処理部102は、ユーザディスクリプション形式で注目オブジェクト情報を格納する。すなわち、前処理部102は、注目オブジェクト情報をユーザディスクリプションに格納する。以下に、ユーザディスクリプション形式で注目オブジェクト情報を格納方法の詳細を説明する。
前処理部102は、図9に示すVisual3DObjectInfoを用いてユーザディスクリプション形式で3次元オブジェクト特定情報を格納する。さらに、前処理部102は、図39に示すように、注目オブジェクト情報を表すXMLスキーマを追加する。図39は、ユーザディスクリプション形式で注目オブジェクト情報を格納する場合のシンタックスの一例を表す図である。前処理部102は、このXMLスキーマにおいて、ユーザディスクリプションの1つの属性情報として特定オブジェクト情報を格納する。図39におけるelement name = “id”で示される情報が注目すべき3次元オブジェクトの識別情報を表す。idの値は、Visual3DObjectInfoで用いた識別子を用いられる。
さらに、前処理部102は、図40element name = “level”として、注目度の値を加えてもよい。図40は、ユーザディスクリプション形式で注目オブジェクト情報とともに注目度を示す場合のシンタックスの一例を表す図である。Level情報は、3次元オブジェクトの注目度を数値で表す。levelの値は、例えば、値が小さいほど注目度が高くなるように定義される。
注目オブジェクト情報をユーザディスクリプション形式で格納する方法として、他にも、前処理部102は、Visual3DObjectInfoに注目すべき対象物であることを表す新しいelement及びNoticeableObjectFlagを追加してもよい。
[3.1-2 第3の実施形態の変形例(1-2)]
本変形例に係る前処理部102は、独自の形式で注目オブジェクト情報を格納する。すなわち、前処理部102は、注目オブジェクト情報を独自のディスクリプションに格納する。以下に、独自の形式で注目オブジェクト情報を格納方法の詳細を説明する。
前処理部102は、図10に示すObjectMetadata構造を定義して、そのObjectMetadataに3次元オブジェクト特定情報を格納する。さらに、前処理部102は、図41に示すように、NoticeableObject構造を定義して、そのNoticeableObjectの中に注目オブジェクト情報を格納する。図41は、独自の形式で注目オブジェクト情報を格納する場合のシンタックスの一例を表す図である。図41におけるnum_of_object_idは、3次元オブジェクトの数を表す。また、noticeable_object_idは、注目すべき3次元オブジェクトを表し、その値はObjectMetadataにおけるobject_idが用いられる。
さらに、前処理部102は、図42に示すように、注目度の値を加えてもよい。図42は、独自の形式で注目オブジェクト情報に加えて注目度を示す場合のシンタックスの一例を表す図である。図42におけるlevelの値は、例えば、値が小さいほど注目度が高くなるように定義される。
注目オブジェクト情報を独自の形式で格納する方法として、他にも、前処理部102は、ObjectMetadataに注目すべき対象物であることを表す新しいelement及びNoticeableObjectFlagを追加してもよい。
また、第3の実施形態、並びに、その変形例(1-1)及び(1-2)において、前処理部102は、コンテンツ作成者により指定された注目オブジェクト情報の利用方法に応じて、6DoFコンテンツのデータを構成することも可能である。例えば、前処理部102は、コンテンツ作成者が精細度の変更を指定した場合、注目オブジェクト情報で指定された3次元オブジェクトを他の3次元オブジェクトより精細度を変えて再生することを推奨する情報を利用者に提供してもよい。
[3.2-1 第3の実施形態の変形例(2-1)]
次に、注目オブジェクト情報を示すデータの格納方法について説明する。本変形例では、注目オブジェクト情報が時間単位で変化しない場合に、注目オブジェクト情報をISOBMFFに格納する場合ついて説明する。
本変形例に係るファイル生成部104は、注目オブジェクトが時間単位で変化しない場合に、ISOBMFFで注目オブジェクト情報を格納する。ここでは、シーンディスクリプション形式で表される注目オブジェクト特定情報を示すデータを用いる場合で説明する。ただし、ユーザディスクリプション形式を用いた場合や独自の形式を用いた場合も同様の方法で注目オブジェクト特定情報を示すデータを格納したファイルを生成することが可能である。
ファイル生成部104は、注目オブジェクト情報を格納する新たなボックスを定義して、sample entryで固定的に格納する。図43は、第3の実施形態の変形例(2-1)における注目オブジェクト情報を示すデータを格納するボックスの一例を示す図である。ファイル生成部104は、シーンディスクリプションのトラック、又は、3次元オブジェクト特定情報のトラックのsample entryのいずれかに図43のStaticNoticeableObjectBoxを格納する。
3次元オブジェクト特定情報が時間単位で変化しない場合に、ISOBMFFで注目オブジェクト情報を格納する方法として、他にも、ファイル生成部104は、MetaBoxに注目オブジェクト情報を格納してもよい。例えば、ファイル生成部104は、MetaBoxのItemInfoEntryにおいて、item_typeを”obmt”として、ItemDataにStaticNoticeableObjectBoxを格納する。他にも、ファイル生成部104は、MetaBoxのItemPropertyを拡張し、ItemProper(‘noob’)としてStaticNoticeableObjectBoxを格納してもよい。
以上ではISOBMFFに格納する場合を説明した。ただし、図12に示すMatroska Media Containerを用いて伝送する場合でも高精細3次元オブジェクト特定情報を示すデータを送信することが可能である。その場合、ファイル生成部104は、Track Entry elementに、新しくStaticNoticeableObjectStruct elementを格納する。この際、ファイル生成部104は、Element Typeをbinaryとし、且つ、EBMLデータとしてStaticNoticeableObjectStruct()をバイナリデータとして格納する。
[3.2-2 第3の実施形態の変形例(2-2)]
本変形例では、注目オブジェクト情報が時間単位で変化する場合に、注目オブジェクト情報をISOBMFFに格納する場合について説明する。本変形例に係るファイル生成部104は、注目オブジェクトが時間単位で変化する場合に、ISOBMFFで注目オブジェクト情報を格納する。
ファイル生成部104は、図13に示す3次元オブジェクト特定情報を示すシーンディスクリプションを格納するためのmetadata fileを、既存のファイルとは別のファイルとして作成する。
そして、ファイル生成部104は、metadata fileのsampleに、3次元オブジェクト特定情報と同時に注目オブジェクト情報を格納する。ファイル生成部104は、同時に格納する場合、3次元オブジェクト特定情報と注目3次元オブジェクト情報とを別々にアクセスできるようにファイルを生成してもよい。また、ファイル生成部104は、3次元オブジェクト特定情報に注目3次元オブジェクト情報を含めるような構造としてもよい。
他の方法として、ファイル生成部104は、注目3次元オブジェクト情報のための新しいTimed metadataを定義して、その中に注目3次元オブジェクト情報を格納してもよい。その場合、ファイル生成部104は、新しく定義したTimed metadataにおけるMetadataSampleEntryを拡張して、新しくNoticeableObjectSampleEntry(nobm’)とする。さらに、ファイル生成部104は、sampleに注目3次元オブジェクト情報を格納する。この場合、ファイル生成部104は、ObjectMetadataのTimed metadataのobject_idとの関連を示すために、注目3次元オブジェクト情報トラックに、Track Reference Boxを格納し、reference_type=’cdsc’で3次元オブジェクト特定情報のidを登録してもよい。cdscは、既存の値であるが、別途新たな関連を示す値に替えてもよい。
また、注目オブジェクト情報に時間単位で変化するものとしない元とが混在する場合、時間単位で変化しない注目オブジェクト情報に関して、ファイル生成部104は、図43のStaticNoticeableObjectBoxを注目オブジェクト情報のトラックもしくはオブジェクト特定トラックに配置する。
[3.3-1 第3の実施形態の変形例(3-1)]
次に、注目オブジェクト情報又は注目オブジェクト情報のアクセス情報をMPDに格納する場合について説明する。本変形例に係るファイル生成部104は、注目オブジェクトが時間単位で変化しない場合に、注目オブジェクト情報をシーンディスクリプション又は3次元オブジェクトのAdaptationSetに格納する。
図44は、注目オブジェクト情報を格納するMPDのシンタックスの一例を表す図である。例えば、ファイル生成部104は、図44に示すように、3次元オブジェクトのAdaptationSetにおけるSupplementalPropertyを用いて注目オブジェクト情報を格納する。ファイル生成部104は、shemeIdUri=”StaticNoticeableObject“を新たに定義する。そして、ファイル生成部104は、その中に3次元オブジェクトの識別情報を含むオブジェクト特定情報を示す情報及び注目オブジェクト情報を格納する。図43における、objectMetadataは、オブジェクト特定情報を含むRepresentation@idを表す。また、idは、注目すべき3次元オブジェクトの識別情報を表し、その値には3次元オブジェクト特定情報に含まれる識別情報が用いられる。
さらに、ファイル生成部104は、図43に示すStaticNoticeableObjectDescriptionの中に注目オブジェクト情報とともに、注目度を数値で格納してもよい。
[3.3-2 第3の実施形態の変形例(3-2)]
本変形例に係るファイル生成部104は、注目オブジェクトが時間単位で変化する場合のMPDへの注目オブジェクト情報の格納について説明する。
ファイル生成部104は、注目オブジェクト情報を格納するTimed metadataを新たに定義する。さらに、ファイル生成部104は、注目オブジェクト情報のTimed metadataと注目オブジェクト情報のTimed metadataが関係するシーンディスクリプション又は3次元オブジェクトとを関連付ける。
また、以上の説明では、MPEG-4シーンディスクリプションを用いて説明したが、他のシーンディスクリプションを用いる場合でもこれらの注目オブジェクト情報の格納方法は適用可能である。
以上、本開示の実施形態について説明したが、本開示の技術的範囲は、上述の実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また他の効果があってもよい。
なお、本技術は以下のような構成を取ることもできる。
(1)複数のオブジェクトを単体の3次元オブジェクトとして3次元空間を構成する空間3次元オブジェクトにおいて、
前記3次元空間に含まれる特定のオブジェクトを識別するためのオブジェクト特定情報を生成する前処理部と、
前記空間3次元オブジェクトのデータ及び前記オブジェクト特定情報を含むファイルを生成するファイル生成部と
を備えた情報処理装置。
(2)前記オブジェクト特定情報は、同一のオブジェクトの識別情報、位置情報及び詳細情報を含む付記(1)に記載の情報処理装置。
(3)前記前処理部は、前記オブジェクト特定情報を、シーンディスクリプションにおけるノード、ユーザディスクリプションもしくは独自のディスクリプションのいずれかに格納する付記(2)に記載の情報処理装置。
(4)前記ファイル生成部は、前記前処理部により前記オブジェクト特定情報が格納されたディスクリプション又は前記ディスクリプションへのアクセス情報を、ISO Base Media File Format(ISOBMFF)、もしくは、MPD(Media Presentation Description)におけるシーンディスクリプション又は前記特定のオブジェクトに対応するAdaptationSetのいずれか一方もしくは両方に格納する付記(3)に記載の情報処理装置。
(5)前記ファイル生成部は、前記特定のオブジェクトの前記位置情報が時刻で変化する場合、前記前処理部により前記空間3次元オブジェクトの位置情報と同時に、前記オブジェクト特定情報が格納された前記シーンディスクリプションを、シーンディスクリプションファイルとして生成する付記(3)に記載の情報処理装置。
(6)前記前処理部は、前記オブジェクトのうちの高精細化された高精細オブジェクトの特定情報及び前記高精細オブジェクトの精細度を含む高精細オブジェクト特定情報を生成する付記(1)~(5)のいずれか1項に記載の情報処理装置。
(7)前記前処理部は、前記高精細オブジェクト特定情報を、シーンディスクリプション、ユーザディスクリプション又は独自のディスクリプションのいずれかに格納する付記(6)に記載の情報処理装置。
(8)前記ファイル生成部は、前記前処理部により前記高精細オブジェクト特定情報が格納されたディスクリプション又は前記ディスクリプションへのアクセス情報を、ISOBMFF又はMPDのAdaptationSetのいずれか一方もしくは両方に格納する付記(7)に記載の情報処理装置。
(9)前記前処理部は、前記高精細オブジェクトを高精細化するための差分データを生成し、且つ、前記差分データを特定する情報を生成する付記(6)に記載の情報処理装置。
(10)前記前処理部は、前記高精細オブジェクトの高精細データ及び前記3次元空間から前記高精細オブジェクトを除いた基礎データを生成し、且つ、前記高精細データ及び前記基礎データを特定する情報を生成する付記(6)に記載の情報処理装置。
(11)前記前処理部は、前記3次元オブジェクトに含まれる前記オブジェクト毎にそれぞれに含まれる部分オブジェクトを特定する情報を生成し、前記オブジェクト毎に含まれる前記部分オブジェクトを特定する情報をシーンディスクリプション又はMPDのAdaptationSetのいずれか一方もしくは両方に格納する付記(6)に記載の情報処理装置。
(12)前記前処理部は、前記オブジェクトのうちの所定の注目オブジェクトの識別情報及び前記注目オブジェクトの注目度情報を含む注目オブジェクト情報を生成する付記(1)~(11)のいずれか1項に記載の情報処理装置。
(13)前記前処理部は、前記注目オブジェクト情報を、シーンディスクリプション、ユーザディスクリプション又は独自のディスクリプションのいずれかに格納する付記(12)に記載の情報処理装置。
(14)前記ファイル生成部は、前記前処理部により前記注目オブジェクト情報が格納されたディスクリプション又は前記ディスクリプションへのアクセス情報を、ISOBMFF又はMPDのAdaptationSetのいずれか一方もしくは両方に格納する付記(13)に記載の情報処理装置。
(15)複数のオブジェクトを単体の3次元オブジェクトとして3次元空間を構成する空間3次元オブジェクトにおいて、
前記3次元空間に含まれる特定のオブジェクトを識別するためのオブジェクト特定情報を生成する
処理をコンピュータに実行させる情報処理方法。
(16)複数のオブジェクトを単体の3次元オブジェクトとして3次元空間を構成する空間3次元オブジェクトのコンテンツ及び前記空間3次元オブジェクトに含まれる特定のオブジェクトを識別するためのオブジェクト特定情報を含むファイルを受信する受信部と、
前記受信部により受信された前記ファイルから前記オブジェクト特定情報を取得し、取得した前記オブジェクト特定情報を基に、前記空間3次元オブジェクトの中から前記特定のオブジェクトを特定する情報処理部と、
前記情報処理部による特定結果を基に、前記コンテンツを再生する再生部と
を備えた再生処理装置。
(17)複数のオブジェクトを単体の3次元オブジェクトとして3次元空間を構成する空間3次元オブジェクトのコンテンツ及び前記空間3次元オブジェクトに含まれる特定のオブジェクトを識別するためのオブジェクト特定情報を含むファイルを受信し、
受信した前記ファイルから前記オブジェクト特定情報を取得し、
取得した前記オブジェクト特定情報を基に、前記3次元空間の中から前記特定のオブジェクトを特定し、
特定結果を基に、前記コンテンツを再生する
処理をコンピュータに実行させる再生処理方法。
1 ファイル生成装置
2 クライアント装置
3 Webサーバ
4 ネットワーク
10 生成処理部
11 制御部
20 再生処理部
21 制御部
101 データ入力部
102 前処理部
103 符号化部
104 ファイル生成部
105 送信部
201 ファイル取得部
202 計測部
203 ファイル処理部
204 復号処理部
205 表示制御部
206 表示情報生成部
207 表示部

Claims (16)

  1. 複数のオブジェクトを単体の3次元オブジェクトとして3次元空間を構成する空間3次元オブジェクトにおいて、
    前記3次元空間に含まれる特定のオブジェクトを識別するためのオブジェクト特定情報を生成する前処理部と、
    前記空間3次元オブジェクトのデータ及び前記オブジェクト特定情報を含むファイルを生成するファイル生成部と
    を備え
    前記オブジェクト特定情報は、同一のオブジェクトの識別情報、位置情報及び詳細情報を含む、
    情報処理装置。
  2. 前記前処理部は、前記オブジェクト特定情報を、シーンディスクリプションにおけるノード、ユーザディスクリプションもしくは独自のディスクリプションのいずれかに格納する請求項に記載の情報処理装置。
  3. 前記ファイル生成部は、前記前処理部により前記オブジェクト特定情報が格納されたディスクリプション又は前記ディスクリプションへのアクセス情報を、ISO Base Media File Format(ISOBMFF)、もしくは、MPD(Media Presentation Description)におけるシーンディスクリプション又は前記特定のオブジェクトに対応するAdaptationSetのいずれか一方もしくは両方に格納する請求項に記載の情報処理装置。
  4. 前記ファイル生成部は、前記特定のオブジェクトの前記位置情報が時刻で変化する場合、前記前処理部により前記空間3次元オブジェクトの位置情報と同時に、前記オブジェクト特定情報が格納された前記シーンディスクリプションを、シーンディスクリプションファイルとして生成する請求項に記載の情報処理装置。
  5. 複数のオブジェクトを単体の3次元オブジェクトとして3次元空間を構成する空間3次元オブジェクトにおいて、
    前記3次元空間に含まれる特定のオブジェクトを識別するためのオブジェクト特定情報を生成する前処理部と、
    前記空間3次元オブジェクトのデータ及び前記オブジェクト特定情報を含むファイルを生成するファイル生成部と
    を備え、
    前記前処理部は、前記オブジェクトのうちの高精細化された高精細オブジェクトの特定情報及び前記高精細オブジェクトの精細度を含む高精細オブジェクト特定情報を生成する
    情報処理装置。
  6. 前記前処理部は、前記高精細オブジェクト特定情報を、シーンディスクリプション、ユーザディスクリプション又は独自のディスクリプションのいずれかに格納する請求項に記載の情報処理装置。
  7. 前記ファイル生成部は、前記前処理部により前記高精細オブジェクト特定情報が格納されたディスクリプション又は前記ディスクリプションへのアクセス情報を、ISOBMFF又はMPDのAdaptationSetのいずれか一方もしくは両方に格納する請求項に記載の情報処理装置。
  8. 前記前処理部は、前記高精細オブジェクトを高精細化するための差分データを生成し、且つ、前記差分データを特定する情報を生成する請求項に記載の情報処理装置。
  9. 前記前処理部は、前記高精細オブジェクトの高精細データ及び前記3次元空間から前記高精細オブジェクトを除いた基礎データを生成し、且つ、前記高精細データ及び前記基礎データを特定する情報を生成する請求項に記載の情報処理装置。
  10. 前記前処理部は、前記3次元オブジェクトに含まれる前記オブジェクト毎にそれぞれに含まれる部分オブジェクトを特定する情報を生成し、前記オブジェクト毎に含まれる前記部分オブジェクトを特定する情報をシーンディスクリプション又はMPDのAdaptationSetのいずれか一方もしくは両方に格納する請求項に記載の情報処理装置。
  11. 複数のオブジェクトを単体の3次元オブジェクトとして3次元空間を構成する空間3次元オブジェクトにおいて、
    前記3次元空間に含まれる特定のオブジェクトを識別するためのオブジェクト特定情報を生成する前処理部と、
    前記空間3次元オブジェクトのデータ及び前記オブジェクト特定情報を含むファイルを生成するファイル生成部と
    を備え、
    前記前処理部は、前記オブジェクトのうちの所定の注目オブジェクトの識別情報及び前記注目オブジェクトの注目度情報を含む注目オブジェクト情報を生成する
    情報処理装置。
  12. 前記前処理部は、前記注目オブジェクト情報を、シーンディスクリプション、ユーザディスクリプション又は独自のディスクリプションのいずれかに格納する請求項11に記載の情報処理装置。
  13. 前記ファイル生成部は、前記前処理部により前記注目オブジェクト情報が格納されたディスクリプション又は前記ディスクリプションへのアクセス情報を、ISOBMFF又はMPDのAdaptationSetのいずれか一方もしくは両方に格納する請求項12に記載の情報処理装置。
  14. 複数のオブジェクトを単体の3次元オブジェクトとして3次元空間を構成する空間3次元オブジェクトにおいて、
    前記3次元空間に含まれる特定のオブジェクトを識別するためのオブジェクト特定情報を生成し、
    前記空間3次元オブジェクトのデータ及び前記オブジェクト特定情報を含むファイルを生成する、
    処理をコンピュータに実行させ
    前記オブジェクト特定情報は、同一のオブジェクトの識別情報、位置情報及び詳細情報を含む、
    情報処理方法。
  15. 複数のオブジェクトを単体の3次元オブジェクトとして3次元空間を構成する空間3次元オブジェクトのコンテンツ及び前記空間3次元オブジェクトに含まれる特定のオブジェクトを識別するためのオブジェクト特定情報を含むファイルを受信する受信部と、
    前記受信部により受信された前記ファイルから前記オブジェクト特定情報を取得し、取得した前記オブジェクト特定情報を基に、前記空間3次元オブジェクトの中から前記特定のオブジェクトを特定する情報処理部と、
    前記情報処理部による特定結果を基に、前記コンテンツを再生する再生部と
    を備え
    前記オブジェクト特定情報は、同一のオブジェクトの識別情報、位置情報及び詳細情報を含む、
    再生処理装置。
  16. 複数のオブジェクトを単体の3次元オブジェクトとして3次元空間を構成する空間3次元オブジェクトのコンテンツ及び前記空間3次元オブジェクトに含まれる特定のオブジェクトを識別するためのオブジェクト特定情報を含むファイルを受信し、
    受信した前記ファイルから前記オブジェクト特定情報を取得し、
    取得した前記オブジェクト特定情報を基に、前記3次元空間の中から前記特定のオブジェクトを特定し、
    特定結果を基に、前記コンテンツを再生する
    処理をコンピュータに実行させ
    前記オブジェクト特定情報は、同一のオブジェクトの識別情報、位置情報及び詳細情報を含む、
    再生処理方法。
JP2021506217A 2019-03-20 2020-01-29 情報処理装置、情報処理方法、再生処理装置及び再生処理方法 Active JP7480773B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962821047P 2019-03-20 2019-03-20
US62/821,047 2019-03-20
US201962866334P 2019-06-25 2019-06-25
US62/866,334 2019-06-25
PCT/JP2020/003174 WO2020189038A1 (ja) 2019-03-20 2020-01-29 情報処理装置、情報処理方法、再生処理装置及び再生処理方法

Publications (2)

Publication Number Publication Date
JPWO2020189038A1 JPWO2020189038A1 (ja) 2020-09-24
JP7480773B2 true JP7480773B2 (ja) 2024-05-10

Family

ID=72520730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021506217A Active JP7480773B2 (ja) 2019-03-20 2020-01-29 情報処理装置、情報処理方法、再生処理装置及び再生処理方法

Country Status (5)

Country Link
US (1) US11825135B2 (ja)
EP (1) EP3944629A4 (ja)
JP (1) JP7480773B2 (ja)
CN (1) CN113574902A (ja)
WO (1) WO2020189038A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220012740A (ko) * 2020-07-23 2022-02-04 삼성전자주식회사 통신 시스템에서 컨텐츠의 송수신을 제어하기 위한 방법 및 장치
EP4224864A4 (en) * 2020-09-29 2024-04-03 Sony Group Corporation DEVICE AND METHOD FOR PROCESSING INFORMATION
CN116250013A (zh) * 2020-10-07 2023-06-09 索尼集团公司 信息处理装置和方法
CN117121495A (zh) * 2021-04-15 2023-11-24 索尼集团公司 信息处理装置及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334739A (ja) 2006-06-16 2007-12-27 Toyota Infotechnology Center Co Ltd 画像生成装置
WO2018097882A1 (en) 2016-11-23 2018-05-31 3Dsystems, Inc. System and method for rendering complex data in a virtual reality or augmented reality environment

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050036722A (ko) * 2003-10-14 2005-04-20 삼성전자주식회사 3차원 객체 그래픽 처리장치 및 3차원 신 그래프 처리장치
GB2560921B (en) * 2017-03-27 2020-04-08 Canon Kk Method and apparatus for encoding media data comprising generated content
US11290758B2 (en) * 2017-08-30 2022-03-29 Samsung Electronics Co., Ltd. Method and apparatus of point-cloud streaming
KR102201763B1 (ko) * 2018-10-02 2021-01-12 엘지전자 주식회사 360 비디오 시스템에서 오버레이 처리 방법 및 그 장치
WO2020101021A1 (ja) * 2018-11-16 2020-05-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334739A (ja) 2006-06-16 2007-12-27 Toyota Infotechnology Center Co Ltd 画像生成装置
WO2018097882A1 (en) 2016-11-23 2018-05-31 3Dsystems, Inc. System and method for rendering complex data in a virtual reality or augmented reality environment

Also Published As

Publication number Publication date
JPWO2020189038A1 (ja) 2020-09-24
US11825135B2 (en) 2023-11-21
WO2020189038A1 (ja) 2020-09-24
CN113574902A (zh) 2021-10-29
EP3944629A1 (en) 2022-01-26
EP3944629A4 (en) 2022-05-25
US20220159316A1 (en) 2022-05-19

Similar Documents

Publication Publication Date Title
JP7480773B2 (ja) 情報処理装置、情報処理方法、再生処理装置及び再生処理方法
JP7263583B2 (ja) タイムドメディアデータのストリーミング中にレンダリング表示を改善するための方法、デバイス及びコンピュータプログラム
US10171541B2 (en) Methods, devices, and computer programs for improving coding of media presentation description data
WO2019202207A1 (en) Processing video patches for three-dimensional content
KR102027410B1 (ko) 계층화된 신호 품질 계층에서의 재구성 데이터의 송신
US20220053224A1 (en) Information processing apparatus and method
JP2017515336A (ja) 分割タイムドメディアデータのストリーミングを改善するための方法、デバイス、およびコンピュータプログラム
GB2509953A (en) Displaying a Region of Interest in a Video Stream by Providing Links Between Encapsulated Video Streams
JP7544048B2 (ja) 情報処理装置、情報処理方法、再生処理装置及び再生処理方法
WO2021065277A1 (ja) 情報処理装置、再生処理装置及び情報処理方法
US20240046562A1 (en) Information processing device and method
WO2020137854A1 (ja) 情報処理装置および情報処理方法
JP2024508865A (ja) 点群符号化・復号方法、装置、及び電子機器
JP6632550B2 (ja) タイムピリオドにまたがってオブジェクトを識別する方法および対応デバイス
WO2021002338A1 (ja) 情報処理装置、情報処理方法、再生処理装置及び再生処理方法
CN114223211A (zh) 信息处理装置和信息处理方法
CN113574899A (zh) 信息处理装置、信息处理方法、再现处理装置和再现处理方法
WO2022220278A1 (ja) 情報処理装置および方法
WO2022054744A1 (ja) 情報処理装置および方法
GB2567485A (en) Method and device for exchanging data between a web application and an associated web engine
JP2024155948A (ja) 情報処理装置、情報処理方法、再生処理装置及び再生処理方法
JP4017436B2 (ja) 3次元動画像データの提供方法とその表示方法、該提供システムと該表示端末、該方法の実行プログラム、および該方法の実行プログラムを記録した記録媒体
KR20240147731A (ko) 적응적 스트리밍 파라미터화를 위한 확장 가능한 요청 시그널링
CN118633292A (zh) 用于媒体容器文件和流传输清单中的画中画的信令

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240408

R150 Certificate of patent or registration of utility model

Ref document number: 7480773

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150