JPWO2020116154A1 - 情報処理装置および方法 - Google Patents
情報処理装置および方法 Download PDFInfo
- Publication number
- JPWO2020116154A1 JPWO2020116154A1 JP2020559890A JP2020559890A JPWO2020116154A1 JP WO2020116154 A1 JPWO2020116154 A1 JP WO2020116154A1 JP 2020559890 A JP2020559890 A JP 2020559890A JP 2020559890 A JP2020559890 A JP 2020559890A JP WO2020116154 A1 JPWO2020116154 A1 JP WO2020116154A1
- Authority
- JP
- Japan
- Prior art keywords
- node
- information
- bit rate
- mpd
- detail
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 46
- 238000000034 method Methods 0.000 title abstract description 372
- 238000012545 processing Methods 0.000 claims abstract description 121
- 230000006978 adaptation Effects 0.000 claims description 118
- 238000009826 distribution Methods 0.000 claims description 86
- 238000003672 processing method Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 description 286
- 230000011664 signaling Effects 0.000 description 124
- 230000000153 supplemental effect Effects 0.000 description 73
- 230000005540 biological transmission Effects 0.000 description 61
- 230000004048 modification Effects 0.000 description 32
- 238000012986 modification Methods 0.000 description 32
- 238000005516 engineering process Methods 0.000 description 26
- 230000008859 change Effects 0.000 description 22
- 238000009877 rendering Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 238000005259 measurement Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 239000012092 media component Substances 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 230000009467 reduction Effects 0.000 description 7
- 230000003044 adaptive effect Effects 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 238000013139 quantization Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 101100221122 Caenorhabditis elegans cmt-1 gene Proteins 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- HISOCSRUFLPKDE-KLXQUTNESA-N cmt-2 Chemical compound C1=CC=C2[C@](O)(C)C3CC4C(N(C)C)C(O)=C(C#N)C(=O)[C@@]4(O)C(O)=C3C(=O)C2=C1O HISOCSRUFLPKDE-KLXQUTNESA-N 0.000 description 4
- ZXFCRFYULUUSDW-LANRQRAVSA-N cmt-3 Chemical compound C1C2CC3=CC=CC(O)=C3C(=O)C2=C(O)[C@@]2(O)C1CC(O)=C(C(=O)N)C2=O ZXFCRFYULUUSDW-LANRQRAVSA-N 0.000 description 4
- 210000001072 colon Anatomy 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 244000144972 livestock Species 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- VBRBNWWNRIMAII-WYMLVPIESA-N 3-[(e)-5-(4-ethylphenoxy)-3-methylpent-3-enyl]-2,2-dimethyloxirane Chemical compound C1=CC(CC)=CC=C1OC\C=C(/C)CCC1C(C)(C)O1 VBRBNWWNRIMAII-WYMLVPIESA-N 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/238—Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23412—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/23439—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
- H04N21/2353—Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/266—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
- H04N21/2662—Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44012—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6587—Control parameters, e.g. trick play commands, viewpoint selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/85406—Content authoring involving a specific file format, e.g. MP4 format
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Library & Information Science (AREA)
- Computer Security & Cryptography (AREA)
- Computer Graphics (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Transfer Between Computers (AREA)
Abstract
3次元空間の3次元オブジェクトを表現し、再生の際に視線方向および視点位置を自由に設定可能なコンテンツのメタデータであって、そのコンテンツの配信の際にビットレートを選択可能にする情報を含む前記メタデータを生成する。例えば、その情報として、コンテンツの再生を制御する制御ファイルのアクセス情報を含むメタデータを生成する。本開示は、例えば、画像処理装置、画像符号化装置、または画像復号装置等に適用することができる。
Description
1.技術内容・技術用語をサポートする文献等
2.6DoFコンテンツの配信
3.第1の実施の形態(ビットレートアダプテーション)
4.第2の実施の形態(ビットレートを一律に制御するためのシグナリング)
5.第3の実施の形態(取得するビットレートの組み合わせを示すシグナリング)
6.第4の実施の形態(Level of Detailの制御によりビットレートを選択するためのシグナリング)
7.第5の実施の形態(コンテンツオーサ等の意図を示すシグナリング)
8.第6の実施の形態(注目オブジェクトのLevel of Detailを保つための実装法)
9.第7の実施の形態(部分3Dオブジェクトで構成される場合のシグナリング)
10.付記
本技術で開示される範囲は、実施例に記載されている内容だけではなく、出願当時において公知となっている以下の非特許文献に記載されている内容も含まれる。
非特許文献2:R. Mekuria, Student Member IEEE, K. Blom, P. Cesar., Member, IEEE, "Design, Implementation and Evaluation of a Point Cloud Codec for Tele-Immersive Video",tcsvt_paper_submitted_february.pdf
非特許文献3:TELECOMMUNICATION STANDARDIZATION SECTOR OF ITU(International Telecommunication Union), "Advanced video coding for generic audiovisual services", H.264, 04/2017
非特許文献4:TELECOMMUNICATION STANDARDIZATION SECTOR OF ITU(International Telecommunication Union), "High efficiency video coding", H.265, 12/2016
非特許文献5:Jianle Chen, Elena Alshina, Gary J. Sullivan, Jens-Rainer, Jill Boyce, "Algorithm Description of Joint Exploration Test Model 4", JVET-G1001_v1, Joint Video Exploration Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 7th Meeting: Torino, IT, 13-21 July 2017
<2−1:コンテンツ>
現在の映像配信においては、映画などの配信で利用されている2次元映像(2Dコンテンツとも称する)の配信が主流である。さらに、全方位が見まわし可能である360度映像配信も行われている。360度映像は、3DoF(Degree of Freedom)映像や3DoFコンテンツとも称する。2Dコンテンツ、3DoFコンテンツどちらも、基本は2次元にエンコードされた映像が配信され、クライアントで表示される。
・クライアントの処理能力が十分にある。つまり、取得した全てのメッシュ・テクスチャのデコードと、表示処理(レンダリング)が決められた時間内にできる。
そこで、Scene Descriptionを拡張し、ビットレートアダプテーションを可能にするシグナリングを行うようにする(第1の実施の形態(実施の形態1とも称する))。このようにすることにより、Scene Descriptionを用いた6DoFコンテンツ配信における伝送帯域制限による再生への影響を抑制し、コンテンツ再生のロバスト性を向上させることができる。
第1の実施の形態においては、各3DオブジェクトのLevel of detail毎にビットレートアダプテーションすることができるようにシグナリングを拡張する。例えば、3次元空間の3次元オブジェクトを表現し、再生の際に視線方向および視点位置を自由に設定可能なコンテンツのメタデータであって、そのコンテンツの配信の際にビットレートを選択可能にする情報を含むメタデータを生成するようにする。例えば、情報処理装置において、3次元空間の3次元オブジェクトを表現し、再生の際に視線方向および視点位置を自由に設定可能なコンテンツのメタデータであって、そのコンテンツの配信の際にビットレートを選択可能にする情報を含むメタデータを生成する生成部を備えるようにする。
コンテンツの配信の際にビットレートを選択可能にする情報として、そのコンテンツの再生を制御する制御ファイルのアクセス情報を含むメタデータを生成するようにしてもよい。つまり、例えば、DASHのMPDファイルとScene Descriptionデータを用いた構成により、ビットレートアダプテーション実現するようにしてもよい。現在の2Dコンテンツや3DoFコンテンツにおいては、DASH(Dynamic Adaptive Streaming over HTTP、ISO/IEC 23009-1)を用いて、ビットレートの異なるデータに切り替えることで、伝送帯域が狭くなった際にも途切れることなく再生が可能である仕組みがある。この方法は、DASHのマニフェストファイルであるMPDファイルのAdaptationSetでビットレートの異なるデータをRepresentationでシグナリングしている。
図6は、本技術を適用したシステムの一態様である配信システムの主な構成の一例を示すブロック図である。図6に示される配信システム100は、6DoFコンテンツをサーバからクライアントに配信するシステムである。
図7は、ファイル生成装置101の主な構成例を示すブロック図である。図7に示されるように、ファイル生成装置101は、制御部151およびファイル生成部152を有する。
図8は、クライアント装置103の主な構成例を示すブロック図である。図8に示されるように、クライアント装置103は、制御部171および再生処理部172を有する。制御部171は、再生処理部172の制御に関する処理を行う。再生処理部172は、制御部171に制御されて、6DoFコンテンツの再生に関する処理を行う。再生処理部172は、MPDファイル取得部181、MPDファイル処理部182、Scene Descriptionセグメントファイル取得部183、Scene Descriptionセグメントファイル処理部184、表示制御部185、計測部186、メディアデータセグメントファイル選択部187、メディアデータセグメントファイル取得部188、復号処理部189、表示情報生成部190、および表示部191を有する。
次に、ファイル生成装置101が実行するファイル生成処理の流れの例を、図9のフローチャートを参照して説明する。ファイル生成処理が開始されると、ファイル生成装置101のMPDファイル生成部164は、ステップS101において、MPDファイル122を生成する。
次に、クライアント装置103により実行される再生処理の流れの例を、図10のフローチャートを参照して説明する。再生処理が開始されると、MPDファイル取得部181は、ステップS121において、配信サーバ102にアクセスし、MPDファイル122を取得する。
<Scene DescriptionとMPDの構成>
MPDにおいて、Scene DescriptionデータのAdaptationSetと、そこから参照されるメディアデータのビットレートバリエーションのAdaptationSetをシグナリングするようにしてもよい。つまり、例えば、制御ファイルであるMPD(Media Presentation Description)の、3次元オブジェクトのLevel of Detailに対応し、そのLevel of Detailの複数のビットレートバリエーションに関する情報を含むAdaptationSetへのアクセス情報を含むメタデータを生成するようにしてもよい。
図12に示されるように、本実施の形態のMPDファイル122には、Scene Descriptionデータ121のAdaptatioSetと各メディアデータ123のAdaptatonSetが示される。この構成の場合、クライアント装置103は、最初にMPDファイル122を取得し、そのMPDファイル122を解析する。その際、Scene Descriptionデータ121のAdaptationSetを最初に処理する必要がある。しかしながら、既存のシグナリングでは、どのAdapttionSetを最初に処理すべきかがわからない。
最初に処理すべきAdaptationSetを示すシグナリングのためにSupplementalPropertyを利用する。以下の例のように、schemeIdUriで、InitialSelectionを設定する。value値は設定しない。
最初に処理すべきでない各メディアデータのAdapttionSetは、Scene Descriptionデータ121から参照されるデータである。他から参照されるデータであり、最初に処理すべきでないことを示す。例えば、以下の例のように、各メディアデータのAdaptationSetに、EssentialPropertyを設定し、そのEssentialPropertyのschemeIdUriはExternalReferencedDataを示し、value値でどのデータから参照されているかAdaptationSet@idを示す。
(1)と(2)を同時にシグナリングすることで実現する。
(1)および(2)は、以下の例のように、AdaptationSetのattributeでシグナリングするようにしてもよい。
例 :< AdaptationSet ExternalReferencedData ="TRUE"/>
図11に示されるように、Scene Description121のメッシュ、テクスチャを示すノードであるBitwrapperノード15、MovieTextureノード16からMPDファイル122のAdaptationSetへアクセスすることができるように拡張する。
なお、URLパラメータで指定するのではなく、Scene Descriptionデータ121のBitwrapperノード15やMovieTextureノード16に、AdaptationSet@idを示すfieldを追加する拡張をしてもよい。この場合、url fieldは、MPDファイル122へのアクセス情報を記述する。
次に、この場合のファイル生成処理の流れの例を、図16のフローチャートを参照して説明する。
次に、この場合の再生処理の流れの例を、図17のフローチャートを参照して説明する。再生処理が開始されると、ステップS161乃至ステップS164の各処理が、ステップS121乃至ステップS124(図10)の各処理と同様に実行される。
次に、図17のステップS165において実行されるScene Description処理の流れの例を、図18のフローチャートを参照して説明する。
次に、図17のステップS169において実行されるレンダリング処理の流れの例を、図19のフローチャートを参照して説明する。
<Scene DescriptionとMPDの構成>
MPDのAdaptationSetの構成は任意であり、実施の形態1−1−1の例に限定されない。例えば、同じ3DオブジェクトのメッシュデータはMPDの1つのAdaptationSetでシグナリングするようにしてもよい。同様に、同じ3DオブジェクトのテクスチャデータはMPDの1つのAdaptationSetでシグナリングするようにしてもよい。つまり、1つの3Dオブジェクトの全てのLevel of Detailのビットレートバリエーションがメッシュとテクスチャそれぞれ1つのAdaptationSetに含まれるようにしてもよい。なお、この場合もMPDシグナリング拡張は、上述の実施の形態1−1−1の場合と同様である。換言するに、制御ファイルであるMPDの、3次元オブジェクトに対応するAdaptationSetの、その3次元オブジェクトのLevel of Detailに対応し、そのLevel of Detailの複数のビットレートバリエーションに関する情報を含むrepresentationへのアクセス情報を含むメタデータを生成するようにしてもよい。
以上のようなMPDファイル122およびScene Descriptionデータ121の構成を、Scene Descriptionデータ121を拡張することで実現するようにしてもよい。例えば、所望のMPDのアクセス情報、そのMPD内の所望のAdaptationSetを指定する情報、およびそのAdaptationSet内の所望のRepresentationを指定する情報からなるアクセス情報を含むメタデータを生成するようにしてもよい。
図20および図21を参照して説明した構成において、Scene Descriptionデータ121のメッシュを示すノードであるBitwrapperノード15や、テクスチャを示すノードであるMovieTextureノード16の、Level of detailに含まれるビットレートバリエーションは、MPDファイル122のそれぞれのAdaptationSet内のいくつかのRepresentationになる。
なお、URLパラメータでAdaptationSetの@idも同時にシグナリングするようにしてもよい。シグナリングの仕方は、実施の形態1−1−1において上述したのと同様である。
また、MPDファイル122も拡張するようにしてもよい。例えば、MPDファイル122において、互いに同一のLevel of DetailのRepresentationをグルーピングし、Scene Descriptionデータ121のBitwrapperノード15およびMovieTextureノード16に記述されるアクセス情報が、そのグループを示すようにしてもよい。つまり、互いに同一のビットレートバリエーションをグループ化する情報を含むMPDを生成するようにしてもよい。このようにすることにより、実施の形態1−1−2−1の場合と比較して、Scene Descriptionデータ121に記述されるメディアデータのURLのURLパラメータを、ビットレート数によらず、一定にすることができる。またScene Descriptionデータ121を作成した後に、ビットレートバリエーションを増大させる場合に、Scene Descriptionデータ121のシグナリングに影響が出ないようにすることができる。
MPDファイル122のRepresentationをグルーピングし、Scene Descriptionデータ121のLevel of detailで利用するビットレートバリエーションがわかるシグナリングをする。
なお、上述の例では、RepresentationGroupが何のGroupであるかがわからないので、value値をコンマ区切りにして、"group番号, グループ種類"として、グループの種類も同時にシグナリングするようにしてもよい。以下にその例を示す。この例において、"LOD"は、Level of detailのグループであることを示す。
また、Scene Descriptionデータ121においては、Bitwrapperノード15およびMovieTextureノード16のアクセス情報(URL)により上述のRepresentationのグループを示すようにする。ただし、どのAdaptationSetに含まれるRepresentationのグループかわからないので、AdaptationSetも同時に示すようにする。
以上においては、シグナリングを各Representationに行うように説明したが、AdaptationSetにシグナリングしてもよい。その場合、例えば、schmeIdUriでReplesentationGroupを示すようにしてもよい。グルーピング情報は、グループ毎にSupplementalPropertyのエレメント(element)としてRepresentationGroupを新しく追加する。RepresentationGroupは、id(RepresentationGroupのvalueと同じ意味)と、グループに含まれるRepresentationのidのリストから成る。以下にその例を示す。
<RepresentationGroup id=1 member="representaiton@id1 representation@id2..."/>
< RepresentationGroup id=2 member=" epresentaiton@id4 representation@id5..."/>
</SupplementalProperty>
<起点をScene Descriptionにする>
実施の形態1−1−1および実施の形態1−1−2においては、最初にMPDファイル122を取得し、その後Scene Descriptionデータ121を取得し、視点に応じた適切な構成を選択し、さらにその後にMPDファイル122のAdaptationSetからビットレートを選択するように説明した。すなわち、最初にMPDファイル122を取得しているので、処理の起点がMPDファイル122になっている。
<Representation id="sd" bandwidth="500000"><BaseURL> SD.mp4 </BaseURL></Representation>
</AdaptationSet>
<Scene Descriptionのみを用いた構成で実現する>
実施の形態1−1においては、Scene Descriptionデータ121およびMPDファイル122を用いてビットレートアダプテーションを実現する場合について説明したが、Scene Descriptionデータ121を拡張することでビットレートアダプテーションを実現するようにしてもよい。つまり、この場合、DASHのMPDファイル122は利用しない。換言するに、メタデータは、コンテンツの、視点位置に基づく空間表示制御情報であり、そのコンテンツの配信の際にビットレートを選択可能にする情報をノードとして有する視点位置に基づく空間表示制御情報を生成するようにしてもよい。
既存のScene Descriptionデータ121の場合、図5に示されるように、3DオブジェクトのLevel of detail毎にBitwrapperノード15とMovieTextureノード16がそれぞれ1つずつシグナルすることができるのみであり、各Level of detailにおいて、複数のBitwrapperノード15とMovieTextureノード16をシグナルすることができない。つまり、ビットバリエーションをもつことができない。
この場合の配信システム100の構成は、図29に示されるように、図6の例と同様である。ただし、ファイル生成装置101は、Scene Descriptionデータ121やメディアデータ123を生成するが、MPDファイル122は、生成しない。したがって、配信サーバ102もMPDファイル122をクライアント装置103に供給しない。クライアント装置103は、配信サーバ102よりScene Descriptionデータ121を取得し、そのScene Descriptionデータ121に基づいて、メディアデータを配信サーバ102から取得し、再生する。
この場合のファイル生成装置101の主な構成例を図30に示す。図30に示されるように、この場合のファイル生成装置101は、図7の場合と同様に、制御部151およびファイル生成部152を有する。
この場合のクライアント装置103の主な構成例を図31に示す。図31に示されるように、この場合のクライアント装置103は、図8の場合と同様に、制御部171および再生処理部172を有する。
次に、この場合のファイル生成処理の流れの例を、図32のフローチャートを参照して説明する。ファイル生成処理が開始されると、ファイル生成装置101のScene Description生成部162は、ステップS221において、Level of Detailのビットバリエーション毎のメディアデータへのリンクを含むScene Descriptionを生成する。
次に、この場合の再生処理の流れの例を、図33のフローチャートを参照して説明する。再生処理が開始されると、Scene Descriptionセグメントファイル取得部183は、ステップS241において、現在時刻の、Level of Detailのビットバリエーション毎のメディアデータへのリンクを含むScene Descriptionを取得する。
<新しいノードを定義する>
Scene Descriptionデータ121を拡張するにあたって、既存のノードはそのまま利用し、ビットレートアダプテーションのために新しいノードを追加するようにしてもよい。つまり、3次元オブジェクトの複数のビットレートバリエーションを複数の子ノードとして表現する専用のノードを含む視点位置に基づく空間表示制御情報を生成するようにしてもよい。
例えば、複数のノードからクライアントが選択をすることができることを示す、ClientSelectionノードを新たに定義するようにしてもよい。ClientSelectionノードは、複数のノードとそれぞれのノードで示されるデータのビットレートをシグナリングすることができるノードである。そのClientSelectionノードの例を図34に示す。
次に、この場合のファイル生成処理の流れの例を、図36のフローチャートを参照して説明する。
次に、この場合の再生処理の流れの例を、図37のフローチャートを参照して説明する。再生処理が開始されると、Scene Descriptionセグメントファイル取得部183は、ステップS281において、現在時刻の、ClientSelectionノード301を含むScene Descriptionデータ121を取得する。ステップS282の処理は、ステップS242の処理(図33)と同様に実行される。
次に、図37のステップS283において実行されるScene Description処理の流れの例を、図38のフローチャートを参照して説明する。
<既存のノードを拡張する>
上述のように新しいノードを定義する代わりに、既存のノードを拡張するようにしてもよい。例えば、3次元オブジェクトの複数のビットレートバリエーションを複数の子ノードとして表現するフィールドが追加されたノードを含む視点位置に基づく空間表示制御情報を生成するようにしてもよい。
例えば、既存のBitwrapperノード15およびMovieTextureノード16で複数のアクセス情報をリストし、それぞれのアクセス情報のビットレートを指定できるように拡張してもよい。その場合のBitwrapperノード15およびMovieTextureノード16の例を図39に示す。この場合、Bitwrapperノード15は、url fieldをurllist fieldに拡張し、複数のメッシュデータファイルを指定できるようになされている。それぞれのurllistで示されるメッシュデータファイルのビットレートは、bitrate fieldで示されている。urllist fieldのn番目に示されるurlのメッシュデータファイルのビットレートは、bitrate fieldのn番目のビットレート情報で示される。
<ビットレートを一律に下げるためのシグナリング>
さらに、全てのメッシュ、テクスチャのビットレートを一律に下げることで品質を維持できることを示すシグナリングを追加するようにしてもよい。換言するに、全ての3次元オブジェクトのビットレートを一律に制御することで品質の維持が可能であることを示す情報をさらに含むメタデータを生成するようにしてもよい。
本実施の形態においては、次の2つの条件を満たすようにビットレートアダプテーションを構成するものとする。
(2)ビットレートバリエーション間の品質の違いは、他の3Dオブジェクトと相対的に同じである。
<ビットレート順に相対的な品質が維持されていることを示すシグナリングの追加>
テクスチャのビットレートを一律に下げることで品質を維持できることを示すシグナリングとして、ビットレート順に相対的な品質が維持されていることを示すシグナリングを追加するようにしてもよい。
<Scene DescriptionとMPDを用いた構成で実現する>
例えば、DASHのMPDファイルとScene Descriptionデータを用いた構成により、ビットレート順に相対的な品質が維持されていることを示すシグナリングを追加するようにしてもよい。
この場合のファイル生成処理の流れの例を、図40のフローチャートを参照して説明する。ファイル生成処理が開始されると、ファイル生成装置101のMPDファイル生成部164は、ステップS321において、ビットレート順に取得すると3Dオブジェクト間の相対的な品質が維持されていることを示す情報を含むMPDファイル122を生成する。
次に、この場合の再生処理の流れの例を、図41のフローチャートを参照して説明する。再生処理が開始されると、クライアント装置103のMPDファイル取得部181は、ステップS341において、ビットレート順に取得すると3Dオブジェクト間の相対的な品質が維持されていることを示す情報を含むMPDファイル122を取得する。
<MPDのみ拡張>
その場合、例えば、MPDファイルの拡張のみにより、ビットレート順に相対的な品質が維持されていることを示すシグナリングを追加するようにしてもよい。
例えば、MPDファイル122の、全てのメッシュおよび、テクスチャのAdaptationSetにおいて、ビットレート順(Representation@bandwidth順)に取得すると3Dオブジェクト間の相対的な品質が変わらないことを示す品質相関情報を追加するようにしてもよい。
value="as1@id as2@id ・・・">
Representation@id=AHm-1、Representation@id=AHt-1、Representation@id=BMm-1、Representation@id=BMt-1、Representation@id=CMm-1、Representation@id=CMt-1
パターン2:
Representation@id=AHm-2、Representation@id=AHt-2、Representation@id=BMm-2、Representation@id=BMt-2、Representation@id=CMm-2、Representation@id=CMt-2
パターン3:
Representation@id=AHm-3、Representation@id=AHt-3、Representation@id=BMm-3、Representation@id=BMt-3、Representation@id=CMm-3、Representation@id=CMt-3
図42においてはPeriodにシグナリングする例を書いたが、AdaptationSetにシグナリングするようにしてもよい。ただし、その場合、value値は指定せず、このPropertyをもつAdaptationSetがビットレート順に取得すると3Dオブジェクト間の相対的な品質が変わらないAdaptationSetであることを示すようにする。以下に例を示す。また、この場合のMPDファイル122の例を図43に示す。
value="G
roupId, as1@id as2@id ・・・">
例:<ApdationSet RelativeQualityIsEnsuredByBitrateOrder="True">
この場合のファイル生成処理は、図40のフローチャートと同様に実行される。この場合の再生処理の流れの例を、図44のフローチャートを参照して説明する。再生処理が開始されると、MPDファイル取得部181は、ステップS361において、ビットレート順に取得すると3Dオブジェクト間の相対的な品質が維持されていることを示す情報を含むMPDファイル122を取得する。
<Scene Descriptionの拡張>
実施の形態2−1−1−1において説明した方法のようにMPDファイル122ではシグナリングせずに、Scene Descriptionデータ121においてシグナリングするようにしてもよい。
Scene Descriptionデータ121のBitwrapperノード15およびMovieTextureノード16のurl fieldの記述を拡張するようにしてもよい。例えば、URLにビットレート順に取得すると3Dオブジェクト間の相対的な品質が変わらないことを示すURLパラメータを付加するようにする。より具体的には、例えば、RelativeQualityIsEnsuredByBitrateOrderをURLパラメータの変数とし付加する。このURLパラメータを持つ場合、ビットレート順(Representation@bandwidth順)に取得すると3Dオブジェクト間の相対的な品質が維持できることを示すものとする。以下に例を示す。
http://www.6dofserver.com/6dof.mpd?AS=1&RelativeQualityIsEnsuredByBitrateOrder
本拡張においても、実施の形態2−1−1の変形例のように、ビットレート順に取得するグルーピングを示すために、URLパラメータの値としてグルーピング番号を示すようにしてもよい。
<Scene Descriptionのみを用いた構成で実現する>
なお、実施の形態1−2のようにScene Descriptionのみを用いる場合において、ビットレートを一律に下げるためのシグナリングを追加するようにしてもよい。つまり、この場合、DASHのMPDファイル122は利用しない。
この場合のファイル生成処理の流れの例を、図46のフローチャートを参照して説明する。ファイル生成処理が開始されると、ファイル生成装置101のScene Description生成部162は、ステップS381において、ビットレート順に取得すると3Dオブジェクト間の相対的な品質が維持されていることを示す情報を含むScene Descriptionデータ121を生成する。
次に、この場合の再生処理の流れの例を、図47のフローチャートを参照して説明する。再生処理が開始されると、クライアント装置103のScene Descriptionセグメントファイル取得部183は、ステップS401において、現在時刻の、ビットレート順に取得すると3Dオブジェクト間の相対的な品質が維持されていることを示す情報を含むScene Descriptionセグメントファイルを取得する。
<新しいノードを定義する>
Scene Descriptionデータ121を拡張するにあたって、既存のノードはそのまま利用し、ビットレートアダプテーションのために新しいノードを追加するようにしてもよい。
例えば、全てメッシュとテクスチャにおいて、ビットレート順に取得すると3Dオブジェクト間の相対的な品質が変わらないことを示す品質相関情報を追加するようにしてもよい。より具体的には、ClientSelectionノード301にビットレート順に取得すると3Dオブジェクト間の相対的な品質が変わらないことを示すRelativeQualityIsEnsuredByBitrateOrderFlag fieldを追加するようにしてもよい。そのClientSelectionノードの拡張例を図48に示す。
なお、本拡張においても、ビットレート順に取得するグルーピングを示すために、RelativeQualityIsEnsuredByBitrateOrderFlag ではなく、RelativeQualityIsEnsuredByBitrateOrderとし、SFint型でシグナルしグルーピング番号を示すようにしてもよい。
<既存ノードを拡張する>
上述のように新しいノードを定義する代わりに、既存のノードを拡張するようにしてもよい。
例えば、実施の形態1−2−2において拡張したBitwrapperノード15およびMovieTextureノード16に、上述のRelativeQualityIsEnsuredByBitrateOrderFlag fieldを拡張するようにしてもよい。図49にその場合の、Bitwrapperノード15およびMovieTextureノード16の例を示す。
本拡張においても、ビットレート順に取得するグルーピングを示すために、RelativeQualityIsEnsuredByBitrateOrderFlag ではなく、RelativeQualityIsEnsuredByBitrateOrderとし、SFint型でシグナルしグルーピング番号を示すようにしてもよい。
<取得するビットレート組合せ示すシグナリング>
さらに、各テクスチャ、メッシュのバリエーションに対して、どのビットレートのものを同時に取得すれば相対的な品質の関係を維持できるかを示す品質相関情報を追加するようにしてもよい。換言するに、3次元オブジェクトの間の相対的な品質を示す情報をさらに含むメタデータを生成するようにしてもよい。
<品質のランキングを利用して選択することで相対的な品質も維持できることを示すシグナリング>
3Dオブジェクトの各Level of Detailのメッシュおよびテクスチャそれぞれのビットレートバリエーションに品質のランキングをシグナリングする。さらに、それの値を元に取得することで、相対的な品質が維持できることを示すシグナリグを行うようにしてもよい。例えば、3次元オブジェクトの間の相対的な品質を示す情報として、3次元オブジェクトの各ビットレートバリエーションの品質を順位で示すQualityRankingを含むメタデータを生成するようにしてもよい。この際に、QualityRankingの値で相対的な品質が変わらないようにエンコードする。例えば、実施の形態2のビットレートアダプテーションの構成方法でエンコードし、エンコードパラメータ順にQualityRankingを決め、その後、ビットレートの変化が少ないものを間引くようにしてもよい。
<Scene DescriptionとMPDを用いた構成で実現する>
例えば、DASHのMPDファイルとScene Descriptionデータを用いた構成により、QulityRanking(品質相関情報)をシグナリングするようにしてもよい。このQualityRankingは既存のDASH規格(ISO/IEC 23009-1)のRepresentation@QualityRankingを用いる。
この場合のファイル生成処理の流れの例を、図50のフローチャートを参照して説明する。ファイル生成処理が開始されると、ファイル生成装置101のMPDファイル生成部164は、ステップS421において、QualityRankingを含むMPDファイル122を生成する。
次に、この場合の再生処理の流れの例を、図51のフローチャートを参照して説明する。再生処理が開始されると、クライアント装置103のMPDファイル取得部181は、ステップS441において、QualityRankingを含むMPDファイル122を取得する。
<MPDのみ拡張>
その場合、例えば、MPDファイルの拡張のみにより、全てのメッシュおよび、テクスチャのAdaptationSetにおいて、RepresentationでシグナリングされるQualityRanking順(Representation@QualityRanking)に取得すると3Dオブジェクト間の相対的な品質が変わらないことを示す情報を追加するようにしてもよい。
value="as1@id as2@id ・・・">
Representation@id=AHm-1、Representation@id=AHt-1、Representation@id=BMm-1、Representation@id=BMt-1、Representation@id=CMm-1、Representation@id=CMt-1
パターン2:
Representation@id=AHm-2、Representation@id=AHt-2、Representation@id=BMm-3、Representation@id=BMt-3、Representation@id=CMm-1、Representation@id=CMt-2
パターン3:
Representation@id=AHm-3、Representation@id=AHt-3、Representation@id=BMm-3、Representation@id=BMt-3、Representation@id=CMm-1、Representation@id=CMt-3
以上においてはPeriodにシグナリングする例を書いたが、AdaptationSetにシグナリングしてもよい。ただし、その場合は、value値は指定せず、このPropertyをもつAdaptationSetでQualityRanking順に取得すると3Dオブジェクト間の相対的な品質が変わらないAdaptationSetであることを示す。以下に例を示す。また、この場合のMPDファイル122の例を図53に示す。
schemeIdUri="RelativeQualityIsEnsuredByQualityRanking">
value="G
roupId, as1@id as2@id ・・・">
PeriodのAttributeにRelativeQualityIsEnsuredByQualityRankingを追加してもよい。また、AdaptationSetのAttributeにRelativeQualityIsEnsuredByQualityRankingを追加してもよい。以下にその例を示す。
例:<AdaptatonSet RelativeQualityIsEnsuredByQualitRanking="TRUE">
この場合のファイル生成処理は、図50のフローチャートと同様に実行される。この場合の再生処理の流れの例を、図54のフローチャートを参照して説明する。再生処理が開始されると、MPDファイル取得部181は、ステップS461において、QualityRankingを含むMPDファイル122を取得する。
(2)実施の形態1−1−1および実施の形態1−1−2に本技術を適用する場合、クライアント装置103が、配信サーバ102にQualityRankingの低いビットレートを作成させそれを取得する。
<Scene Descriptionの拡張>
実施の形態3−1−1−1において説明した方法のようにMPDファイル122ではシグナリングせずに、Scene Descriptionデータ121においてシグナリングするようにしてもよい。
その場合、実施の形態2−1−1−2の場合と同様に、Scene Descriptionデータ121のBitwrapperノード15およびMovieTextureノード16のurl fieldの記述を拡張するようにしてもよい。
http://www.6dofserver.com/6DoF.mpd?
AS=1&RelativeQualityIsEnsuredByByQualityRanking
また実施の形態3−1−1−1の変形例のようにグルーピング情報を追加するようにしてもよい。例えば、URLパラメータのRelativeQualityIsEnsuredByQualityRankingの値に、グルーピング情報を追加するようにしてもよい。以下にその例を示す。
http://www.6dofserver.com/6DoF.mpd?
AS=1&RelativeQualityIsEnsuredByQualityRanking=1
<Scene Descriptionのみを用いた構成で実現する>
なお、実施の形態1−2のようにScene Descriptionのみを用いる場合において、品質のランキングを利用して選択することで相対的な品質も維持できることを示すシグナリングを追加するようにしてもよい。つまり、この場合、DASHのMPDファイル122は利用しない。なお、この実施の形態においては、(1)品質のランキングをシグナリングする拡張、(2)QualityRanking順に取得することで相対的な品質が維持できることを示すシグナリングの拡張、の2つの拡張が行われる。
この場合のファイル生成処理の流れの例を、図55のフローチャートを参照して説明する。ファイル生成処理が開始されると、ファイル生成装置101のScene Description生成部162は、ステップS481において、QualityRankingを含むScene Descriptionデータ121を生成する。
次に、この場合の再生処理の流れの例を、図56のフローチャートを参照して説明する。再生処理が開始されると、クライアント装置103のScene Descriptionセグメントファイル取得部183は、ステップS501において、現在時刻の、QualityRankingを含むScene Descriptionセグメントファイルを取得する。
<新しいノードを定義する>
Scene Descriptionデータ121を拡張するにあたって、既存のノードはそのまま利用し、ビットレートアダプテーションのために新しいノードを追加するようにしてもよい。例えば、実施の形態1−2−1において説明したClientSelectionノード301を拡張するようにしてもよい。
また実施の形態3−1−1−1の変形例のように、グルーピング情報をシグナルできるようにしてもよい。その場合、RelativeQualityIsEnsuredByQualityRankingFlagを以下の例に置き換え、値としてグルーピング情報を持つようにする。
<既存ノードを拡張する>
上述のように新しいノードを定義する代わりに、既存のノードを拡張するようにしてもよい。
例えば、実施の形態1−2−2において拡張したBitwrapperノード15およびMovieTextureノード16に、上述のQualityRanking fieldおよび、RelativeQualityIsEnsuredByQualityRankingFlag fieldを拡張するようにしてもよい。図58にその場合の、Bitwrapperノード15およびMovieTextureノード16の例を示す。
実施の形態3−1−2−1の変形例のように、グルーピング情報を扱えるようにしてもよい。また、以上においては、Bitwrapperノード15およびMovieTextureノード16の拡張例を示したが、他のノードで同様のfieldを拡張するようにしてもよい。
<Qualityそのものをシグナリング>
全てのビットレートバリエーションのQuality(例えばPSNRなど)をシグナリングする。この場合、クライアント装置103は、Qualityの変化が同じ程度になるようなデータを選択する。換言するに、3次元オブジェクトの間の相対的な品質を示す情報として、その3次元オブジェクトの各ビットレートバリエーションの品質を値で示すQuality値を含むメタデータを生成するようにしてもよい。
<Scene DescriptionとMPDを用いた構成で実現する>
例えば、DASHのMPDファイルとScene Descriptionデータを用いた構成により、ビットレートバリエーションのQualityをシグナリングするようにしてもよい。
例えば、QualityそのものをRepresentationでシグナリングするようにしてもよい。例えば、Representationにおいて、SupplementalPropertyを用いて、Qualityの種類や値をシグナリングするようにしてもよい。以下にその例を示す。
Representation@id=AHm-1、Representation@id=AHt-1、Representation@id=BMm-1、Representation@id=BMt-1、Representation@id=CMm-1、Representation@id=CMt-1
パターン2:
Representation@id=AHm-2、Representation@id=AHt-2、Representation@id=BMm-3、Representation@id=BMt-3、Representation@id=CMm-1、Representation@id=CMt-2
パターン3:
Representation@id=AHm-3、Representation@id=AHt-3、Representation@id=BMm-3、Representation@id=BMt-3、Representation@id=CMm-1、Representation@id=CMt-3
(2)実施の形態1−1−1または実施の形態1−1−2の場合、 クライアント装置103は、配信サーバ102にQualityの低いビットレートを作成させそれを取得する。クライアント装置103は、配信サーバ102に、MPDファイル名、ApdaptationSetのid、作成してほしいQualityのtypeとvalueをリクエストする。配信サーバ102は、リクエストに応じて指定されたAdaptationSetのメッシュデータもしくはテクスチャデータの指定されたQualityのtypeとvalueになるセグメントファイルを作り、配置する。そして、MPDファイル122をMPD updateの仕組みを利用し Updateして、クライアント装置103に送信する。クライアント装置103は新しく取得したMPDファイルを基に、再度、Qualityを利用して取得するファイルを選択する。この場合に、サーバには存在しないが作成可能なQualityのtypeとvalueのセグメントファイルをあらかじめMPDにシグナリングしておいてもよい。
RepresentaitonのAttributeにQualityValueを追加するようにしてもよい。以下にその例を示す。
<Scene Descriptionのみを用いた構成で実現する>
なお、実施の形態1−2のようにScene Descriptionのみを用いる場合において、Qualityそのもののシグナリングを追加するようにしてもよい。つまり、この場合、DASHのMPDファイル122は利用しない。
<新しいノードを定義する>
Scene Descriptionデータ121を拡張するにあたって、既存のノードはそのまま利用し、ビットレートアダプテーションのために新しいノードを追加するようにしてもよい。
<既存ノードを拡張する>
上述のように新しいノードを定義する代わりに、既存のノードを拡張するようにしてもよい。実施の形態3−2−2−1の変形例である。実施の形態1−2−2で拡張したBitwrapperノード15およびMovieTextureノード16に、QualityValue fieldおよび、QualityType fieldを拡張して実現する。その場合のBitwrapperノード15およびMovieTextureノード16の例を図62に示す。
<同時に再生するメディアデータの組み合せをシグナリング>
また、同時に再生するメディアデータの組み合せをシグナリングするようにしてもよい。換言するに、3次元オブジェクトの間の相対的な品質を示す情報として、同時再生可能な3次元オブジェクトの各ビットレートバリエーションを示す情報を含むメタデータを生成するようにしてもよい。
<Scene DescriptionとMPDを用いた構成で実現する>
例えば、DASHのMPDファイルとScene Descriptionデータを用いた構成により、同時に再生するメディアデータの組み合せをシグナリングするようにしてもよい。
例えば、相対的な品質が維持できる組合せを示すGrouping情報をシグナリングするようにしてもよい。
value="1...">
Representation@id=AHm-1、Representation@id=AHt-1、Representation@id=BMm-1、Representation@id=BMt-1、Representation@id=CMm-1、Representation@id=CMt-1
パターン2:
Representation@id=AHm-2、Representation@id=AHt-2、Representation@id=BMm-3、Representation@id=BMt-3、Representation@id=CMm-1、Representation@id=CMt-2
パターン3:
Representation@id=AHm-3、Representation@id=AHt-3、Representation@id=BMm-3、Representation@id=BMt-3、Representation@id=CMm-1、Representation@id=CMt-3
RepresentaitonのAttributeにKeepRelativeQualityGroupを追加するようにしてもよい。以下にその例を示す。
value="GroupId, as1@id as2@id ・・・">
<Scene Descriptionのみを用いた構成で実現する>
実施の形態1−2の、Scene Descriptionのみを拡張した手法において、相対的な品質が維持できる組合せを示すGrouping情報をシグナリングするようにしてもよい。
<新しいノードを定義する>
実施の形態1−2−1のClientSelectionノード301を拡張するようにしてもよい。この場合のClientSelectionノード301の例を図64に示す。図64において、ClientSelectionノード301のSelectionNodeで示される子ノードに相対的な品質が維持できる組合せを示すGrouping情報をシグナリングするようにしてもよい。より具体的には、KeepRelativeQualityConsiderationGroupを各SelectionNodeに設定するようにしてもよい。SlectionNode[n]が属するGroup情報は、KeepRelativeQualityConsiderationGroup[n]に示される。Groupは、整数値を文字として示し、複数のgroupに属する場合は、スペース区切りで表記する。
また実施の形態3−2−1の変形例のようにKeepRelativeQualityGroupをさらにグルーピングするidをシグナリングするようにしてもよい。その場合、以下の例のようなKeepRelativeQualityGroupId fieldを追加すればよい。
<既存のノードを拡張する>
実施の形態3−3−2−1の変形例である。実施の形態1−2−2で拡張した、Bitwrapperノード15およびMovieTextureノード16にKeepRelativeQualityConsiderationGroup fieldを拡張するようにしてもよい。図65に拡張したBitwrapperノード15およびMovieTextureノード16の例を示す。
また、実施の形態の3−3−2−1のようにKeepRelativeQualityGroupId fieldを追加するようにしてもよい。また、以上においては、Bitwrapperノード15およびMovieTextureノード16の拡張例について説明したが、これに限らず、他のノードで同様のfieldを拡張するようにしてもよい。
<Level of detailを切り替えてビットレート選択をするためのシグナリング>
さらに、限界までビットレートを落とした後、視点位置に応じて決めた3DオブジェクトのLevel of detailから、1つ若しくは複数、または、全ての3Dオブジェクトに対するLevel of detailを下げて、ビットレートアダプテーションするためのシグナリングを追加するようにしてもよい。
<Level of detailを一律に下げると相対関係が崩れないことを示すシグナリング>
Level of detailを切り替えてビットレート選択をするために、Level of detailを一律に下げると相対関係が崩れないことを示すシグナリングするようにしてもよい。換言するに、3次元オブジェクトのLevel of Detailを変更しても、その3次元オブジェクト間の相対的な品質の維持が可能であることを示す情報をさらに含むメタデータを生成するようにしてもよい。
<Scene DescriptionとMPDを用いた構成で実現する>
例えば、DASHのMPDファイルとScene Descriptionデータを用いた構成により、Level of detailを一律に下げると相対関係が崩れないことをシグナリングするようにしてもよい。
実施の形態1−1−1を基にした実施の形態においては、Scene Descriptionの3DオブジェクトのLevel of detailごとにMPDのAdaptationSetにアクセスできるようになっている。しかしながら、実施の形態1−1−1を基にした実施の形態のMPDには、それぞれのAdaptationSetがどの3DオブジェクトのLevel of Detailに対応するかは示されていない。Level of Detailを切り替えるために、どの3DオブジェクトのLevel of Detailであるかを、Scene Descriptionから情報を取得するのは2度手間になる(煩雑・冗長な作業が必要になる)。
<SupplementalProperty schemeIdUri="LODRelativeQualityIsEnsuredByLODOrder">
<LODGroup member="as@id1 as@id2..."/>
<LODGroup member="as@id4 as@id5..."/>
</SupplementalProperty>
AdaptationSet@id=4 (3DオブジェクトA 中Level of detailのテクスチャデータ)
AdaptationSet@id=11 (3DオブジェクトB 低Level of detailのメッシュデータ)
AdaptationSet@id=12 (3DオブジェクトB 低Level of detailのテクスチャデータ)
AdaptationSet@id=17 (3DオブジェクトC 低Level of detailのメッシュデータ)
AdaptationSet@id=18 (3DオブジェクトC 低Level of detailのテクスチャデータ)
また、以下のようなシグナリングを行うようにしてもよい。
(1)同じ3Dオブジェクトのメッシュやテクスチャのグループ情報をAdaptationSet@groupで識別し、Level of detailの順をSupplementalPropertyで各AdaptationSetにシグナリングする。もしくはAdaptationSetのAttributeに指定する。
(2)同じ3Dオブジェクトのメッシュやテクスチャのグループ情報をAdaptationSet@groupで識別し、Level of detailの順は、Scene Descriptionから取得する。
(3)AdaptationSetで、1つ高いLevel of detailのAdaptationSetと、1つ低いLevel of detailのAdaptationSetをシグナリングする。その記述例を以下に示す。なお、このシグナリングは、AdaptationSetのAttributeで指定するようにしてもよい。
value="AdaptationSet@id">
<SupplementalProperty schemeIdUri="HighLevelAdaptationSet"
value="AdaptationSet@id">
この場合の再生処理の流れの例を、図67のフローチャートを参照して説明する。再生処理が開始されると、クライアント装置103のMPDファイル取得部181は、ステップS521において、QualityGroup情報を含むMPDファイル122を取得する。
次に、図67のステップS529において実行されるビットレート選択処理の流れの例を、図68のフローチャートを参照して説明する。
(2)実施の形態1−1−1または実施の形態1−1−2の場合、クライアント装置103は、配信サーバ102にさらに低いLevel of Detailを作成させそれを取得する。クライアント装置103は、配信サーバ102に対し、MPDファイル名、ApdaptationSetのidをリクエストする。配信サーバ102は、そのリクエストに応じて指定されたAdaptationSetよりさらに低いLevel of Detailのメッシュデータもしくはテクスチャデータのビットレートバリエーションを作成し、配置する。そして、そのMPDファイル122をMPD updateの仕組みを利用しUpdateして、クライアント装置103に送信する。クライアント装置103は、新しく取得したMPDファイル122を基に、再度、Level of Detailを選択する。この場合に、サーバには存在しないが作成可能なLevel of DetailのセグメントファイルをあらかじめMPDとSecene Descriptionにシグナリングしておいてもよい。
<Scene Descriptionのみを用いた構成で実現する>
なお、実施の形態1−2のようにScene Descriptionのみを用いる場合において、Level of detailを一律に下げると相対関係が崩れないことをシグナリングするようにしてもよい。つまり、この場合、DASHのMPDファイル122は利用しない。
<新しいノードを定義する>
例えば、実施の形態1−2−1のClientSelectionノード301を拡張し、そのClientSelectionノード301のSelectionNodeで示される子ノードにLevel of detailを一律に下げると相対的な品質が維持できることを示すフラグ情報(Flag)をシグナリングするようにしてもよい。より具体的には、LODRelativeQualityIsEnsuredByLODOrderFlagを追加するようにしてもよい。この場合のClientSelectionノード301の例を図69に示す。
<既存ノードを拡張する>
上述のように新しいノードを定義する代わりに、既存のノードを拡張するようにしてもよい。実施の形態1−2−2において拡張したBitwrapperノード15およびMovieTextureノード16に、LODRelativeQualityIsEnsuredByLODOrderFlag fieldを拡張するようにしてもよい。図70にその拡張したBitwrapperノード15およびMovieTextureノード16の例を示す。この場合、Bitwrapperノード15およびMovieTextureノード16のそれぞれにおいて、LODRelativeQualityIsEnsuredByLODOrderFlag fieldが拡張されている。
なお、本手法はLevel of detailの切り替えに関する情報なので、LODノード31を拡張するようにしてもよい。図71にその拡張したLODノード31の例を示す。この場合、LODノード31にLODRelativeQualityIsEnsuredByLODOrderFlag fieldが拡張されている。
<Qualityを基にLevel of detailを変更可能であることを示すシグナリング>
Level of Detailを変更する際に、示されているQualityを基にLevel of Detailを変更することが可能であることを示すようにしてもよい。換言するに、3次元オブジェクトの間の相対的な品質を示す情報に基づいて3次元オブジェクトのLevel of Detailを変更しても、その3次元オブジェクト間の相対的な品質の維持が可能であることを示す情報をさらに含むメタデータを生成するようにしてもよい。
<Scene DescriptionとMPDを用いた構成で実現する>
例えば、DASHのMPDファイルとScene Descriptionデータを用いた構成により、Qualityを基にLevel of detailを変更可能であることを示すシグナリングを行うようにしてもよい。
実施の形態4−1−1の場合と同様に、3DオブジェクトのLevel of detailの異なるメッシュのAdaptationSet、または、同じ3Dオブジェクトのテクスチャをグルーピングし、さらに、Qualityを見てLevel of Detail変更をしてもよいことを示すようにしてもよい。
<SupplementalProperty schemeIdUri= LODRelativeQualityIsEnsuredByQualityValue">
<LODGroup member="as@id1 as@id2..."/>
<LODGroup member="as@id4 as@id5..."/>
</SupplementalProperty>
以下に、他のシグナリング方法の例を示す。
(2)同じ3Dオブジェクトのメッシュやテクスチャのグループ情報をAdaptationSet@groupで識別し、Level of detailの順は、Scene Descriptionから取得する。
(3)AdaptationSetで、1つ高いLevel of detailのAdaptationSetと、1つ低いLevel of detailのAdaptationSetをシグナリングする。以下にその例を示す。なお、AdaptationSetのAttributeにシグナリングするようにしてもよい。
value="AdaptationSet@id">
<SupplementalProperty schemeIdUri="HighLevelAdaptationSet"
value="AdaptationSet@id">
<SupplementalProperty schemeIdUri=" LODRelativeQualityIsEnsuredByQualityValue">
(2)実施の形態1−1−1または実施の形態1−1−2の場合、クライアント装置103は、配信サーバ102にさらに低いLevel of Detailを作成させそれを取得する。クライアント装置103は、配信サーバ102に対し、MPDファイル名、ApdaptationSetのidをリクエストする。配信サーバ102は、そのリクエストに応じて指定されたAdaptationSetよりさらに低いLevel of Detailのメッシュデータまたはテクスチャデータのビットレートバリエーションを作成し、配置する。そして、そのMPDファイル122を、MPD updateの仕組みで Updateして、クライアント装置103に送信する。クライアント装置103は、新しく取得したMPDファイル122を基に、再度、Level of Detailを選択する。この場合に、サーバには存在しないが作成可能なLevel of DetailのセグメントファイルをあらかじめMPDとSecene Descriptionにシグナリングしておいてもよい。
<Scene Descriptionのみを用いた構成で実現する>
なお、実施の形態1−2のようにScene Descriptionのみを用いる場合において、Qualityを基にLevel of detailを変更可能であることを示すシグナリングを追加するようにしてもよい。つまり、この場合、DASHのMPDファイル122は利用しない。
<新しいノードを定義する>
例えば、実施の形態3−2−2−1のClientSelectionノード301を拡張して、本手法のシグナリングを実現するようにしてもよい。この場合のClientSelectionノード301の例を図72に示す。図72に示されるように、このClientSelectionノード301において、SelectionNodeで示される子ノードがQuality値を基にLevel of detailを選択してもよいことを示すFlagがシグナリングされる。より具体的には、LODRelativeQualityIsEnsuredByQualityValueが追加される。
例えば、Qualityそのものではなく、QualityRankingを用いるようにしてもよい。その場合、実施の形態4−2−1において説明したように、3Dオブジェクトのメッシュまたはテクスチャ全体でQualityRankingを付けるようにしてもよい。QualityRankingのシグナリングは、実施の形態3−1−2−1において説明した手法となり、それに、各オブジェクトの表示の相対関係を極力維持することができることを示す、LODRelativeQualityIsEnsuredByQualityRanking fieldを追加すればよい。
<既存のノードを拡張する>
なお、実施の形態3−2−2−2において拡張したBitwrapperノード15およびMovieTextureノード16に、上述のLODRelativeQualityIsEnsuredByLODOrderFlag fieldを拡張するようにしてもよい。その場合のBitwrapperノード15およびMovieTextureノード16の例を図73に示す。図73に示されるように、この場合、Bitwrapperノード15およびMovieTextureノード16のいずれにも、上述のLODRelativeQualityIsEnsuredByLODOrderFlag fieldが追加されている。
なお、Qualityそのものではなく、QualityRankingを用いるようにしてもよい。その場合、実施の形態4−2−1において上述したように、3Dオブジェクトのメッシュまたはテクスチャ全体でQualityRankingを付けるようにする。このQualityRankingのシグナリングは、実施の形態3−1−2−2の場合と同様に行えば良い。それに、LODRelativeQualityIsEnsuredByQualityRanking fieldを追加することにより、本手法を適用することができる。
<Level of detailにQualityRankingをシグナリングする>
Level of detailにもQualityRankingをシグナリングし、クライアント装置103は、そのQualityRankingを基にLevel of Detailを切り替えるようにしてもよい。
<Scene DescriptionとMPDを用いた構成で実現する>
例えば、DASHのMPDファイルとScene Descriptionデータを用いた構成により、Level of detailにQualityRankingをシグナリングするようにしてもよい。
実施の形態4−1−1の場合と同様に、Periodにシグナリングする。例えば、実施の形態4−1−1に、LODGroupのattributeにQualityRankingを追加する。SupplementalProperty のLODRelativeQualityIsEnsuredByLODQualityRankingを示すことで、Level of detailごとに設定されているQualityRankingの相対関係を崩さないようにLevel of detailを選択することで、品質の相関を維持することができる。以下に例を示す。なお、membaer[n]のQualityRankingは、QualityRanking[n]である。
<SupplementalProperty
schemeIdUri="LODRelativeQualityIsEnsuredByLODQualityRanking">
<LODGroup member="as@id1 as@id2..." QualityRanking="1 2…"/>
<LODGroup member="as@id4 as@id5..." QualityRanking="1 2…"/>
</SupplementalProperty>
なお、シグナリング方法は上述の例に限らない。例えば、以下のようにしてもよい。
(2)AdaptationSetで、1つ高いLevel of detailのAdaptationSetと、1つ低いLevel of detailのAdaptationSetをシグナリングする。以下にその例を示す。なお、AdaptationSetのAttributeにシグナリングするようにしてもよい。
schemeIdUri="LowLevelAdaptationSet" value="AdaptationSet@id">
<SupplementalProperty
schemeIdUri="HighLevelAdaptationSet" value="AdaptationSet@id">
<SupplementalProperty
schemeIdUri=" LODRelativeQualityIsEnsuredByLODQualityRanking">
<Scene Descriptionのみを用いた構成で実現する>
なお、実施の形態1−2のようにScene Descriptionのみを用いる場合において、Level of detailにQualityRankingをシグナリングするようにしてもよい。つまり、この場合、DASHのMPDファイル122は利用しない。
<新しいノードを定義する>
Scene Descriptionデータ121を拡張するにあたって、既存のノードはそのまま利用し、ビットレートアダプテーションのために新しいノードを追加するようにしてもよい。例えば、実施の形態1−2−1において説明したClientSelectionノード301を拡張するようにしてもよい。
<既存ノードを拡張する>
上述のように新しいノードを定義する代わりに、既存のノードを拡張するようにしてもよい。例えば、実施の形態1−2−2のBitwrapperノード15およびMovieTextureノード16にLODRelativeQualityIsEnsuredByLODQualityRanking fieldを拡張するようにしてもよい。これは、図70のBitwrapperノード15およびMovieTextureノード16のLODRelativeQualityIsEnsuredByLODOrderFlag fieldを、図75のClientSelectionノード301のLODRelativeQualityIsEnsuredByLODQualityRanking fieldで置き換えたものになる。
本手法は、Level of detailの切り替えに関する情報なので、LODノード31を拡張するようにしてもよい。この場合、シグナリングするノードが少なくなる利点がある。これは、図71に示されLODノード31のLODRelativeQualityIsEnsuredByLODOrderFlag fieldを、図75のLODRelativeQualityIsEnsuredByLODQualityRanking fieldで置き換えたものになる。もちろん、これ以外のノードを拡張するようにしてもよい。
<コンテンツオーサなどの意図を示すシグナリング>
さらに、コンテンツオーサが意図する3Dオブジェクトの重要度情報をシグナリングするようにしてもよい。なお、例えば、第4の実施の形態のフラグ情報(flag)があってもなくても、この手法を使うか否かはクライアントが選択するようにしてもよい。また、Level of detailのレベルによって重要度の有効・無効を設定することができるようにしてもよい。
<重要度(数値)のシグナリング>
例えば、3Dオブジェクトの重要度のシグナリングとして、各3Dオブジェクトがシーン中でどれぐらい重要であるかを数値で示すようにしてもよい。換言するに、3次元オブジェクトの重要度を示す情報をさらに含むメタデータを生成するようにしてもよい。
<Scene DescriptionとMPDを用いた構成で実現する>
例えば、DASHのMPDファイルとScene Descriptionデータを用いた構成により、3Dオブジェクトの重要度のシグナリングを行うようにしてもよい。
<MPDの拡張>
各3DオブジェクトのメッシュおよびテクスチャのAdaptationSetに、その3Dオブジェクトの重要度を示す値をシグナリングする。重要度は、例えば値が小さいほど重要であるものとする。もちろん、重要度は、この例に限定されず、例えば、値が大きい程重要であるものとしてもよい。
この場合、LODGroupに含まれるLevel of Detailが全て同じ重要度となる。Level of Detailによって重要度を変えたい場合(例えば、高Level of detailの場合の重要度は高いが、それ以外の場合の重要度は低くするなど)もある。その場合には、Level of detail毎に値をコンマ区切りで指定すればよい。以下にその例を示す。
クライアント装置103は、3Dオブジェクトの重要度で、どのLevel of Detailからビットレートを上げるか下げるかを決定する。たとえば、伝送帯域が足りない場合は、重要度の低いものからLevel of Detailを下げていく。クライアント装置103は、第4の実施の形態を適用する場合であってもなくても、この値のみからLevel of Detailの切り替えを制御するようにしてもよい。
<Scene Descriptionのみを用いた構成で実現する>
なお、実施の形態1−2のようにScene Descriptionのみを用いる場合において、コンテンツオーサが意図する3Dオブジェクトの重要度情報をシグナリングするようにしてもよい。つまり、この場合、DASHのMPDファイル122は利用しない。
<新しいノードを定義する>
例えば、実施の形態1−2−1のClientSelectionノード301を拡張し、3Dオブジェクトの重要度情報をシグナリングするようにしてもよい。より具体的には、Important3Dobjectを追加するようにしてもよい。重要度は値が小さいほど重要であるとする。しかしながら、フィールドがない場合の初期値でもある0は重要度が設定されていないものとする。もちろん重要度の表現方法は任意であり、この例に限定されない。
<既存ノードを拡張する>
上述のように新しいノードを定義する代わりに、既存のノードを拡張するようにしてもよい。実施の形態1−2−2において拡張したBitwrapperノード15およびMovieTextureノード16に、Important3Dobject fieldを拡張するようにしてもよい。図79にその拡張したBitwrapperノード15およびMovieTextureノード16の例を示す。この場合、Bitwrapperノード15およびMovieTextureノード16のそれぞれにおいて、Important3Dobject fieldが追加されている。
なお、3Dオブジェクト毎に重要度が決まる場合にはTransformノード12を拡張するようにしてもよい。図80は、その拡張したTransformノード12の例を示す図である。図80に示されるように、この場合のTransformノード12には、Important3Dobject fieldが追加されている。このようにすることにより、シグナリングするノードが少なくなる利点がある。なお、この例では、Transformノード12を拡張したが、他のノードを新しく規定しても良いし、その他のノード(例えばShapeノード13等)を拡張するようにしてもよい。
<ユーザの注目している3DオブジェクトのLevel of detailを保つための実装法>
さらに、ユーザが注目している3Dオブジェクトを識別して、その3DオブジェクトのLevel of detailを保つことができるようにしてもよい。
<クライアント装置103の実装例>
伝送帯域が不足する場合、クライアント装置103は、以下のルールを適用し、ビットレートを選択するようにしてもよい。換言するに、注目する3次元オブジェクトの重要度を指定する情報をさらに含むメタデータを生成するようにしてもよい。
(2)その注目している点にある3Dオブジェクトを、Scene Descriptionの位置情報から求める。
(3)注目している3Dオブジェクトを重要度1とする。その他の3Dオブジェクトの重要度は2とする。
(4)そして、第5の実施の形態の場合と同様のアルゴリズムでビットレートを選択する。
この場合、再生処理は、図67のフローチャートを参照して説明した場合と同様に実行される。図81のフローチャートを参照して、この場合の、ステップS529において実行されるビットレート選択処理の流れの例を説明する。
なお、注目している3Dオブジェクトの重要度を1、注目されていないが表示されている3Dオブジェクトの重要度を2、それ以外の重要度を3として、表示されていないものからLevel of detailを下げるようにしてもよい。
<3D空間内にある1つの物体を複数の部分の3Dオブジェクトで構成する場合のシグナリング>
第1の実施の形態は、3D空間内に存在する物体ごとに3Dオブジェクトとする場合である。物体が複数の部分の3Dオブジェクトで構成される場合においても、この第1の実施の形態の場合と同様にLevel of detail毎にビットレートアダプテーションすることができるようにしてもよい。
<Scene Descriptionにおいて部分毎の3Dオブジェクトをシグナルする>
このような全ての部分毎の3DオブジェクトをScene Descriptionにおいてシグナルする。例えば、実施の形態1において説明した手法において、Scene Descriptionで部分毎の3Dオブジェクトをシグナリングする。このようにすることで、実施の形態1において説明した手法と同じ拡張を用いて実施することができる。
<Scene Descriptionにおいて、物体全体をシグナルし、その物体が複数の3Dオブジェクトで構成されることをシグナルする>
そこで、Scene Descriptionにおいて、1つの物体が存在している情報までをシグナルし、さらに、MPDの複数のメッシュデータおよびテクスチャデータへアクセスできるようにシグナルしてもよい。
<部分ごとの3DオブジェクトのLevel of DetailごとにAdaptationSetとする場合>
図12および図13に示される例のように、Level of Detail毎にAdaptationSetとする構成によって、複数の3Dオブジェクトで構成される物体を表現するようにしてもよい。この場合、物体が複数の3Dオブジェクトで構成されることを示すために、Scene DescriptionのBitwrapperノード15およびMovieTextureノード16のアクセス情報から複数のAdaptationSetをシグナルする必要がある。
<URL queryを拡張し複数のAdaptationSetをシグナルする>
Scene Descriptionの物体のメッシュデータへのアクセス情報を持つBitwrapperノード、テクスチャデータへのアクセス情報を持つMovieTextureノードから、MPDファイルの複数の部分のメッシュデータまたはテクスチャデータのAdaptationSetへアクセスすることができるように拡張し、それらのAdaptationSetを同時に利用する必要があることを示すようにしてもよい。
<Scene Descriptionのノードを拡張する>
Scene DescriptionデータのBitwrapperノードやMovieTextureノードに、物体を構成する複数の部分3DオブジェクトのテクスチャデータもしくはメッシュデータのAdaptationSet@idを示すfieldを追加する拡張をしてもよい。この場合、url fieldは、MPDファイルへのアクセス情報を記述する。
<MPD拡張+URL queryもしくはノード拡張でシグナルする>
MPDにおいて1つの物体を構成する部分3DオブジェクトのAdaptationSetを識別できるように識別子をシグナルし、その識別子をScene Descriptionからシグナルするようにしてもよい。
Periodで物体を構成する部分3Dオブジェクトのグループをシグナルしてもよい。例えば、schmeIdUriでObjectPartsGroupを示すようにする。グルーピング情報は、グループ毎にSupplementalPropertyのエレメント(element)としてOPGを新しく追加する。OPGは、id(ObjectPartsIdのvalueと同じ意味)と、グループに含まれるAdaptationSetのidのリストから成る。
Scene DescriptionのBitwrapperノードやMovieTextureノードのアクセス情報として、MPDのObjectPartsIDの値、もしくは、OPG elementのidの値を示せばよい。
<部分毎の3DオブジェクトのLevel of Detailに関わらず1つのAdaptationSetとする場合>
図21、図22に示されるように、Level of Detailに関わらず1つのAdaptationSetで同じ部分の3Dオブジェクトがシグナルされる構成で、物体が複数の3Dオブジェクトで構成されてもよい。
<URL queryで拡張する>
SceneDescriptionは物体ごとでシグナルしているため、Scene Descriptionデータのメッシュを示すノードであるBitwrapperノードや、テクスチャを示すノードであるMovieTextureノードから、全ての部分の3DオブジェクトのAdaptationSetと、さらにそれらのAdaptationSetに含まれる、適切なLODのビットレートバリエーションのRepresentationを示す必要がある。
<Scene Descriptionのノードを拡張する>
Scene DescriptionデータのBitwrapperノードやMovieTextureノードに、物体を構成する複数のAdaptationSet@idとビットレートバリエーションのRepresentation@idを示すfieldを追加する拡張をしてもよい。この場合、url fieldは、MPDファイルへのアクセス情報を記述する。
<MPD拡張+URL queryもしくはノード拡張でシグナルする>
実施の形態1−1−2−2のRepresentationGroupを用いて、Scene Descriptionから複数の部分3Dオブジェクトをシグナルできるように拡張してもよい。
<OPG id="1"> // 物体Aを構成する部分3Dオブジェクトのメッシュのグループ
<OPGmember ASid="1" RSid="11,12">
<OPGmember ASid="2" RSid="21,22">
<OPGmember ASid="3" RSid="31,32">
<OPGmember ASid="4" RSid="41,42">
</OPG>
<OPG id="2"> // 物体Aを構成する部分3Dオブジェクトのテクスチャのグループ
//略
</SupplementalProperty>
<まとめ>
以上のように説明した各実施の形態の手法は、適宜、他の実施の形態の手法と組み合わせて用いたり、選択的に併用したりすることができる。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
本技術は、任意の画像符号化・復号方式に適用することができる。つまり、上述した本技術と矛盾しない限り、変換(逆変換)、量子化(逆量子化)、符号化(復号)、予測等、画像符号化・復号に関する各種処理の仕様は任意であり、上述した例に限定されない。また、上述した本技術と矛盾しない限り、これらの処理の内の一部を省略してもよい。
なお、本明細書において「フラグ」とは、複数の状態を識別するための情報であり、真(1)または偽(0)の2状態を識別する際に用いる情報だけでなく、3以上の状態を識別することが可能な情報も含まれる。したがって、この「フラグ」が取り得る値は、例えば1/0の2値であってもよいし、3値以上であってもよい。すなわち、この「フラグ」を構成するbit数は任意であり、1bitでも複数bitでもよい。また、識別情報(フラグも含む)は、その識別情報をビットストリームに含める形だけでなく、ある基準となる情報に対する識別情報の差分情報をビットストリームに含める形も想定されるため、本明細書においては、「フラグ」や「識別情報」は、その情報だけではなく、基準となる情報に対する差分情報も包含する。
(1) 3次元空間の3次元オブジェクトを表現し、再生の際に視線方向および視点位置を自由に設定可能なコンテンツのメタデータであって、前記コンテンツの配信の際にビットレートを選択可能にする情報を含む前記メタデータを生成する生成部
を備える情報処理装置。
(2) 前記生成部は、前記情報として、前記コンテンツの再生を制御する制御ファイルのアクセス情報を含む前記メタデータを生成する
(1)に記載の情報処理装置。
(3) 前記制御ファイルは、MPD(Media Presentation Description)であり、
前記生成部は、前記MPDの、前記3次元オブジェクトのLevel of Detailに対応し、前記Level of Detailの複数のビットレートバリエーションに関する情報を含むAdaptationSetへのアクセス情報を含む前記メタデータを生成する
(2)に記載の情報処理装置。
(4) 前記制御ファイルは、MPD(Media Presentation Description)であり、
前記生成部は、前記MPDの、前記3次元オブジェクトに対応するAdaptationSetの、前記3次元オブジェクトのLevel of Detailに対応し、前記Level of Detailの複数のビットレートバリエーションに関する情報を含むrepresentationへのアクセス情報を含む前記メタデータを生成する
(2)または(3)に記載の情報処理装置。
(5) 前記生成部は、所望の前記MPDのアクセス情報、前記MPD内の所望のAdaptationSetを指定する情報、および前記AdaptationSet内の所望のRepresentationを指定する情報からなる前記アクセス情報を含む前記メタデータを生成する
(4)に記載の情報処理装置。
(6) 前記生成部は、さらに、互いに同一のビットレートバリエーションをグループ化する情報を含む前記MPDを生成する
(4)または(5)に記載の情報処理装置。
(7) 前記生成部は、さらに、前記メタデータへのアクセス情報を含まない前記MPDを生成する
(2)乃至(6)のいずれかに記載の情報処理装置。
(8) 前記メタデータは、前記コンテンツの、視点位置に基づく空間表示制御情報であり、
前記生成部は、前記コンテンツの配信の際にビットレートを選択可能にする情報をノードとして有する前記視点位置に基づく空間表示制御情報を生成する
(1)乃至(7)のいずれかに記載の情報処理装置。
(9) 前記生成部は、前記3次元オブジェクトの複数のビットレートバリエーションを複数の子ノードとして表現する専用のノードを含む前記視点位置に基づく空間表示制御情報を生成する
(8)に記載の情報処理装置。
(10) 前記生成部は、前記3次元オブジェクトの複数のビットレートバリエーションを複数の子ノードとして表現するフィールドが追加されたノードを含む前記視点位置に基づく空間表示制御情報を生成する
(8)または(9)に記載の情報処理装置。
(11) 前記生成部は、全ての3次元オブジェクトのビットレートを一律に制御することで品質の維持が可能であることを示す情報をさらに含む前記メタデータを生成する
(1)乃至(10)のいずれかに記載の情報処理装置。
(12) 前記生成部は、前記3次元オブジェクトの間の相対的な品質を示す情報をさらに含む前記メタデータを生成する
(1)乃至(11)のいずれかに記載の情報処理装置。
(13) 前記生成部は、前記3次元オブジェクトの間の相対的な品質を示す情報として、前記3次元オブジェクトの各ビットレートバリエーションの品質を順位で示すQualityRankingを含む前記メタデータを生成する
(12)に記載の情報処理装置。
(14) 前記生成部は、前記3次元オブジェクトの間の相対的な品質を示す情報として、前記3次元オブジェクトの各ビットレートバリエーションの品質を値で示すQuality値を含む前記メタデータを生成する
(12)または(13)に記載の情報処理装置。
(15) 前記生成部は、前記3次元オブジェクトの間の相対的な品質を示す情報として、同時再生可能な前記3次元オブジェクトの各ビットレートバリエーションを示す情報を含む前記メタデータを生成する
(12)乃至(14)のいずれかに記載の情報処理装置。
(16) 前記生成部は、前記3次元オブジェクトのLevel of Detailを変更しても、前記3次元オブジェクト間の相対的な品質の維持が可能であることを示す情報をさらに含む前記メタデータを生成する
(1)乃至(15)のいずれかに記載の情報処理装置。
(17) 前記生成部は、前記3次元オブジェクトの間の相対的な品質を示す情報に基づいて前記3次元オブジェクトのLevel of Detailを変更しても、前記3次元オブジェクト間の相対的な品質の維持が可能であることを示す情報をさらに含む前記メタデータを生成する
(1)乃至(16)のいずれかに記載の情報処理装置。
(18) 前記生成部は、前記3次元オブジェクトの重要度を示す情報をさらに含む前記メタデータを生成する
(1)乃至(17)のいずれかに記載の情報処理装置。
(19) 前記生成部は、注目する3次元オブジェクトの重要度を指定する情報をさらに含む前記メタデータを生成する
(1)乃至(18)のいずれかに記載の情報処理装置。
(20) 3次元空間の3次元オブジェクトを表現し、再生の際に視線方向および視点位置を自由に設定可能なコンテンツのメタデータであって、前記コンテンツの配信の際にビットレートを選択可能にする情報を含む前記メタデータを生成する
情報処理方法。
Claims (20)
- 3次元空間の3次元オブジェクトを表現し、再生の際に視線方向および視点位置を自由に設定可能なコンテンツのメタデータであって、前記コンテンツの配信の際にビットレートを選択可能にする情報を含む前記メタデータを生成する生成部
を備える情報処理装置。 - 前記生成部は、前記情報として、前記コンテンツの再生を制御する制御ファイルのアクセス情報を含む前記メタデータを生成する
請求項1に記載の情報処理装置。 - 前記制御ファイルは、MPD(Media Presentation Description)であり、
前記生成部は、前記MPDの、前記3次元オブジェクトのLevel of Detailに対応し、前記Level of Detailの複数のビットレートバリエーションに関する情報を含むAdaptationSetへのアクセス情報を含む前記メタデータを生成する
請求項2に記載の情報処理装置。 - 前記制御ファイルは、MPD(Media Presentation Description)であり、
前記生成部は、前記MPDの、前記3次元オブジェクトに対応するAdaptationSetの、前記3次元オブジェクトのLevel of Detailに対応し、前記Level of Detailの複数のビットレートバリエーションに関する情報を含むrepresentationへのアクセス情報を含む前記メタデータを生成する
請求項2に記載の情報処理装置。 - 前記生成部は、所望の前記MPDのアクセス情報、前記MPD内の所望のAdaptationSetを指定する情報、および前記AdaptationSet内の所望のRepresentationを指定する情報からなる前記アクセス情報を含む前記メタデータを生成する
請求項4に記載の情報処理装置。 - 前記生成部は、さらに、互いに同一のビットレートバリエーションをグループ化する情報を含む前記MPDを生成する
請求項4に記載の情報処理装置。 - 前記生成部は、さらに、前記メタデータへのアクセス情報を含まない前記MPDを生成する
請求項2に記載の情報処理装置。 - 前記メタデータは、前記コンテンツの、視点位置に基づく空間表示制御情報であり、
前記生成部は、前記コンテンツの配信の際にビットレートを選択可能にする情報をノードとして有する前記視点位置に基づく空間表示制御情報を生成する
請求項1に記載の情報処理装置。 - 前記生成部は、前記3次元オブジェクトの複数のビットレートバリエーションを複数の子ノードとして表現する専用のノードを含む前記視点位置に基づく空間表示制御情報を生成する
請求項8に記載の情報処理装置。 - 前記生成部は、前記3次元オブジェクトの複数のビットレートバリエーションを複数の子ノードとして表現するフィールドが追加されたノードを含む前記視点位置に基づく空間表示制御情報を生成する
請求項8に記載の情報処理装置。 - 前記生成部は、全ての3次元オブジェクトのビットレートを一律に制御することで品質の維持が可能であることを示す情報をさらに含む前記メタデータを生成する
請求項1に記載の情報処理装置。 - 前記生成部は、前記3次元オブジェクトの間の相対的な品質を示す情報をさらに含む前記メタデータを生成する
請求項1に記載の情報処理装置。 - 前記生成部は、前記3次元オブジェクトの間の相対的な品質を示す情報として、前記3次元オブジェクトの各ビットレートバリエーションの品質を順位で示すQualityRankingを含む前記メタデータを生成する
請求項12に記載の情報処理装置。 - 前記生成部は、前記3次元オブジェクトの間の相対的な品質を示す情報として、前記3次元オブジェクトの各ビットレートバリエーションの品質を値で示すQuality値を含む前記メタデータを生成する
請求項12に記載の情報処理装置。 - 前記生成部は、前記3次元オブジェクトの間の相対的な品質を示す情報として、同時再生可能な前記3次元オブジェクトの各ビットレートバリエーションを示す情報を含む前記メタデータを生成する
請求項12に記載の情報処理装置。 - 前記生成部は、前記3次元オブジェクトのLevel of Detailを変更しても、前記3次元オブジェクト間の相対的な品質の維持が可能であることを示す情報をさらに含む前記メタデータを生成する
請求項1に記載の情報処理装置。 - 前記生成部は、前記3次元オブジェクトの間の相対的な品質を示す情報に基づいて前記3次元オブジェクトのLevel of Detailを変更しても、前記3次元オブジェクト間の相対的な品質の維持が可能であることを示す情報をさらに含む前記メタデータを生成する
請求項1に記載の情報処理装置。 - 前記生成部は、前記3次元オブジェクトの重要度を示す情報をさらに含む前記メタデータを生成する
請求項1に記載の情報処理装置。 - 前記生成部は、注目する3次元オブジェクトの重要度を指定する情報をさらに含む前記メタデータを生成する
請求項1に記載の情報処理装置。 - 3次元空間の3次元オブジェクトを表現し、再生の際に視線方向および視点位置を自由に設定可能なコンテンツのメタデータであって、前記コンテンツの配信の際にビットレートを選択可能にする情報を含む前記メタデータを生成する
情報処理方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018226649 | 2018-12-03 | ||
JP2018226649 | 2018-12-03 | ||
PCT/JP2019/045347 WO2020116154A1 (ja) | 2018-12-03 | 2019-11-20 | 情報処理装置および方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020116154A1 true JPWO2020116154A1 (ja) | 2021-10-14 |
JP7484723B2 JP7484723B2 (ja) | 2024-05-16 |
Family
ID=70975441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020559890A Active JP7484723B2 (ja) | 2018-12-03 | 2019-11-20 | 情報処理装置および方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220053224A1 (ja) |
EP (2) | EP4102852A1 (ja) |
JP (1) | JP7484723B2 (ja) |
CN (1) | CN113170235A (ja) |
WO (1) | WO2020116154A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11800184B2 (en) | 2021-01-06 | 2023-10-24 | Tencent America LLC | Method and apparatus for media scene description |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113424549B (zh) * | 2019-01-24 | 2024-05-28 | 交互数字Vc控股公司 | 用于利用多个细节级别和自由度的自适应空间内容流传输的系统和方法 |
US20210392386A1 (en) * | 2020-06-12 | 2021-12-16 | Tencent America LLC | Data model for representation and streaming of heterogeneous immersive media |
KR20220012740A (ko) * | 2020-07-23 | 2022-02-04 | 삼성전자주식회사 | 통신 시스템에서 컨텐츠의 송수신을 제어하기 위한 방법 및 장치 |
JPWO2022070903A1 (ja) * | 2020-09-29 | 2022-04-07 | ||
US11833423B2 (en) * | 2020-09-29 | 2023-12-05 | Activision Publishing, Inc. | Methods and systems for generating level of detail visual assets in a video game |
US11748955B2 (en) * | 2020-10-06 | 2023-09-05 | Nokia Technologies Oy | Network-based spatial computing for extended reality (XR) applications |
JPWO2022149189A1 (ja) * | 2021-01-05 | 2022-07-14 | ||
US20240144602A1 (en) * | 2021-04-30 | 2024-05-02 | Nippon Telegraph And Telephone Corporation | Distribution control system, distribution control apparatus, distribution control method, and program |
US20230115603A1 (en) | 2021-10-12 | 2023-04-13 | Square Enix Ltd. | Scene entity processing using flattened list of sub-items in computer game |
WO2023153473A1 (ja) * | 2022-02-10 | 2023-08-17 | 日本放送協会 | メディア処理装置、送信装置及び受信装置 |
WO2023153472A1 (ja) * | 2022-02-10 | 2023-08-17 | 日本放送協会 | メディア処理装置、送信装置及び受信装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050132385A1 (en) | 2003-10-06 | 2005-06-16 | Mikael Bourges-Sevenier | System and method for creating and executing rich applications on multimedia terminals |
JP4760111B2 (ja) * | 2005-04-26 | 2011-08-31 | 株式会社セガ | 映像オブジェクト表現用データ構造生成プログラム、映像オブジェクト表現用データ構造生成方法、映像ソフト開発装置、映像処理プログラム、映像処理方法、映像処理装置、映像オブジェクト表現用データ構造、および、記録媒体 |
US11277598B2 (en) * | 2009-07-14 | 2022-03-15 | Cable Television Laboratories, Inc. | Systems and methods for network-based media processing |
EP2621188B1 (en) * | 2012-01-25 | 2016-06-22 | Alcatel Lucent | VoIP client control via in-band video signalling |
GB2524531B (en) * | 2014-03-25 | 2018-02-07 | Canon Kk | Methods, devices, and computer programs for improving streaming of partitioned timed media data |
GB2550589B (en) * | 2016-05-23 | 2019-12-04 | Canon Kk | Method, device, and computer program for improving streaming of virtual reality media content |
KR102506480B1 (ko) * | 2016-06-14 | 2023-03-07 | 삼성전자주식회사 | 영상 처리 장치 및 그 영상 처리 방법 |
KR102545195B1 (ko) * | 2016-09-12 | 2023-06-19 | 삼성전자주식회사 | 가상 현실 시스템에서 컨텐트 전송 및 재생 방법 및 장치 |
US20180176468A1 (en) * | 2016-12-19 | 2018-06-21 | Qualcomm Incorporated | Preferred rendering of signalled regions-of-interest or viewports in virtual reality video |
CN110622483B (zh) * | 2017-03-23 | 2022-10-18 | Vid拓展公司 | 改进用于360度自适应流传输的体验的度量和消息 |
-
2019
- 2019-11-20 EP EP22182669.6A patent/EP4102852A1/en active Pending
- 2019-11-20 JP JP2020559890A patent/JP7484723B2/ja active Active
- 2019-11-20 EP EP19892975.4A patent/EP3893514A4/en not_active Withdrawn
- 2019-11-20 WO PCT/JP2019/045347 patent/WO2020116154A1/ja unknown
- 2019-11-20 US US17/297,809 patent/US20220053224A1/en active Pending
- 2019-11-20 CN CN201980078194.8A patent/CN113170235A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11800184B2 (en) | 2021-01-06 | 2023-10-24 | Tencent America LLC | Method and apparatus for media scene description |
Also Published As
Publication number | Publication date |
---|---|
EP3893514A1 (en) | 2021-10-13 |
EP3893514A4 (en) | 2022-02-23 |
WO2020116154A1 (ja) | 2020-06-11 |
EP4102852A1 (en) | 2022-12-14 |
CN113170235A (zh) | 2021-07-23 |
JP7484723B2 (ja) | 2024-05-16 |
US20220053224A1 (en) | 2022-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7484723B2 (ja) | 情報処理装置および方法 | |
JP7359153B2 (ja) | 画像処理装置および方法 | |
JP7384159B2 (ja) | 画像処理装置および方法 | |
WO2019142667A1 (ja) | 画像処理装置および方法 | |
CN109804635A (zh) | 在定时媒体数据流式传输期间改进渲染显示的方法、设备和计算机程序 | |
US10911809B2 (en) | Communication apparatus, communication method, and program | |
DE112020004716T5 (de) | Objektbasierte volumetrische videocodierung | |
EP3422702B1 (en) | File generation device, file generation method, reproduction device, and reproduction method | |
JP7238948B2 (ja) | 情報処理装置および情報処理方法 | |
JP7480773B2 (ja) | 情報処理装置、情報処理方法、再生処理装置及び再生処理方法 | |
JP6944131B2 (ja) | ファイル生成装置およびファイル生成方法、並びに、再生装置および再生方法 | |
WO2021065277A1 (ja) | 情報処理装置、再生処理装置及び情報処理方法 | |
JP7501372B2 (ja) | 情報処理装置および情報処理方法 | |
EP3509310B1 (en) | Delivery device, delivery method, receiver, receiving method, program, and content delivery system | |
JP6632550B2 (ja) | タイムピリオドにまたがってオブジェクトを識別する方法および対応デバイス | |
WO2022075342A1 (ja) | 情報処理装置および方法 | |
WO2020261689A1 (ja) | 情報処理装置、情報処理方法、再生処理装置及び再生処理方法 | |
JP7442302B2 (ja) | データ処理装置およびその制御方法、プログラム | |
JP7229696B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2022063882A (ja) | 情報処理装置および方法、並びに、再生装置および方法 | |
US20240086451A1 (en) | Information processing apparatus, reception apparatus, information processing method, and storage medium | |
WO2022004377A1 (ja) | 情報処理装置および方法 | |
CN106165431A (zh) | 接收装置、接收方法、传输装置以及传输方法 | |
JP2023544049A (ja) | 双方向プレゼンテーションデータストリーム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7484723 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |