JP2021061628A - Information processing apparatus and information processing method - Google Patents

Information processing apparatus and information processing method Download PDF

Info

Publication number
JP2021061628A
JP2021061628A JP2020214925A JP2020214925A JP2021061628A JP 2021061628 A JP2021061628 A JP 2021061628A JP 2020214925 A JP2020214925 A JP 2020214925A JP 2020214925 A JP2020214925 A JP 2020214925A JP 2021061628 A JP2021061628 A JP 2021061628A
Authority
JP
Japan
Prior art keywords
track
audio
file
information
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020214925A
Other languages
Japanese (ja)
Other versions
JP7103402B2 (en
Inventor
平林 光浩
Mitsuhiro Hirabayashi
光浩 平林
優樹 山本
Yuki Yamamoto
優樹 山本
徹 知念
Toru Chinen
徹 知念
潤宇 史
Runyu Shi
潤宇 史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2021061628A publication Critical patent/JP2021061628A/en
Priority to JP2022109532A priority Critical patent/JP7424420B2/en
Application granted granted Critical
Publication of JP7103402B2 publication Critical patent/JP7103402B2/en
Priority to JP2024005069A priority patent/JP2024038407A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • H04N21/2335Processing of audio elementary streams involving reformatting operations of audio signals, e.g. by converting from one coding standard to another
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/11File system administration, e.g. details of archiving or snapshots
    • G06F16/122File system administration, e.g. details of archiving or snapshots using management policies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/16File or folder operations, e.g. details of user interfaces specifically adapted to file systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/18File system types
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/65Clustering; Classification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Hardware Redundancy (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

To easily play back a prescribed type of audio data from among multiple types of audio data.SOLUTION: A file creation device creates audio files in which an audio stream of multiple groups is arranged as being divided into tracks for one or more groups, and information pertaining to multiple groups is arranged. The present invention can be applied to an information-processing system or the like configured from, e.g., a file creation device for creating files, a Web server for recording files created by the file creation device, and a video playback terminal for playing back the files.SELECTED DRAWING: Figure 8

Description

本開示は、情報処理装置および情報処理方法に関し、特に、複数の種類の音声データのうちの所定の種類の音声データを容易に再生することができるようにした情報処理装置および情報処理方法に関する。 The present disclosure relates to an information processing device and an information processing method, and more particularly to an information processing device and an information processing method capable of easily reproducing a predetermined type of voice data among a plurality of types of voice data.

近年、インターネット上のストリーミングサービスの主流がOTT−V(Over The Top Video)となっている。この基盤技術として普及し始めているのがMPEG−DASH(Moving Picture Experts Group phase − Dynamic Adaptive Streaming over HTTP)である(例えば、非特許文献1参照)。 In recent years, the mainstream of streaming services on the Internet has become OTT-V (Over The Top Video). MPEG-DASH (Moving Picture Experts Group phase-Dynamic Adaptive Streaming over HTTP) has begun to spread as this basic technology (see, for example, Non-Patent Document 1).

MPEG−DASHでは、配信サーバが1本の動画コンテンツ用に画面サイズと符号化速度が異なる動画データ群を用意し、再生端末が伝送路の状況に応じて最適な画面サイズと符号化速度の動画データ群を要求することにより、適応型のストリーミング配信が実現される。 In MPEG-DASH, the distribution server prepares video data groups with different screen sizes and coding speeds for one video content, and the playback terminal prepares videos with the optimum screen size and coding speed according to the conditions of the transmission line. By requesting a set of data, adaptive streaming distribution is realized.

MPEG−DASH(Dynamic Adaptive Streaming over HTTP)(URL:http://mpeg.chiariglione.org/standards/mpeg−dash/media−presentation−description−and−segment−formats/text−isoiec−23009−12012−dam−1)MPEG-DASH (Dynamic Adaptive Streaming over HTTP) (URL: http://mpeg.chiariglione.org/standards/mpeg-dash/media-presentation-description-and-segment-formats/text-isoiec-23009-12012-dam -1)

しかしながら、複数のグループの音声データのうちの所定のグループの音声データを容易に再生することは考えられていない。 However, it is not considered that the audio data of a predetermined group among the audio data of a plurality of groups can be easily reproduced.

本開示は、このような状況に鑑みてなされたものであり、複数のグループの音声データのうちの所望のグループの音声データを容易に再生することができるようにするものである。 The present disclosure has been made in view of such a situation, and makes it possible to easily reproduce the audio data of a desired group among the audio data of a plurality of groups.

本開示の第1の側面の情報処理装置は、複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルを生成するファイル生成部を備える情報処理装置である。 The information processing device of the first aspect of the present disclosure generates a file in which a plurality of types of audio data are divided into tracks for each of the above-mentioned types and arranged, and information regarding the plurality of types is arranged. It is an information processing device provided with a file generation unit.

本開示の第1の側面の情報処理方法は、本開示の第1の側面の情報処理装置に対応する。 The information processing method of the first aspect of the present disclosure corresponds to the information processing apparatus of the first aspect of the present disclosure.

本開示の第1の側面においては、複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルが生成される。 In the first aspect of the present disclosure, a plurality of types of audio data are divided into tracks for each of the above-mentioned types and arranged, and a file in which information regarding the plurality of types is arranged is generated.

本開示の第2の側面の情報処理装置は、複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルから、所定のトラックの前記音声データを再生する再生部を備える情報処理装置である。 In the information processing device of the second aspect of the present disclosure, a plurality of types of audio data are divided into tracks for each of the above-mentioned types and arranged, and information on the plurality of types is arranged from a file. It is an information processing device including a reproduction unit that reproduces the audio data of a predetermined track.

本開示の第2の側面の情報処理方法は、本開示の第2の側面の情報処理装置に対応する。 The information processing method of the second aspect of the present disclosure corresponds to the information processing apparatus of the second aspect of the present disclosure.

本開示の第2の側面においては、複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルから、所定のトラックの前記音声データが再生される。 In the second aspect of the present disclosure, a plurality of types of audio data are divided into tracks for each of the above-mentioned types and arranged, and a predetermined track is arranged from a file in which information regarding the plurality of types is arranged. The audio data of the above is reproduced.

なお、第1および第2の側面の情報処理装置は、コンピュータにプログラムを実行させることにより実現することができる。 The information processing devices on the first and second aspects can be realized by causing a computer to execute a program.

また、第1および第2の側面の情報処理装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。 Further, in order to realize the information processing apparatus of the first and second aspects, the program to be executed by the computer can be provided by transmitting via a transmission medium or by recording on a recording medium. ..

本開示の第1の側面によれば、ファイルを生成することができる。また、本開示の第1の側面によれば、複数の種類の音声データのうちの所定の種類の音声データを容易に再生することができるようにしたファイルを生成することができる。 According to the first aspect of the present disclosure, a file can be generated. Further, according to the first aspect of the present disclosure, it is possible to generate a file in which a predetermined type of audio data among a plurality of types of audio data can be easily reproduced.

本開示の第2の側面によれば、音声データを再生することができる。また、本開示の第2の側面によれば、複数の種類の音声データのうちの所定の種類の音声データを容易に再生することができる。 According to the second aspect of the present disclosure, audio data can be reproduced. Further, according to the second aspect of the present disclosure, a predetermined type of audio data among a plurality of types of audio data can be easily reproduced.

MPDファイルの構造を示す図である。It is a figure which shows the structure of an MPD file. 「Period」、「Representation」、および「Segment」の関係を示す図である。It is a figure which shows the relationship of "Period", "Representation", and "Segment". MPDファイルの階層構造を示す図である。It is a figure which shows the hierarchical structure of an MPD file. MPDファイルの構造と時間軸との関係を示す図である。It is a figure which shows the relationship between the structure of an MPD file and the time axis. MP4の3Dオーディオファイルフォーマットのトラックの概要を説明する図である。It is a figure explaining the outline of the track of the 3D audio file format of MP4. moovボックスの構造を示す図である。It is a figure which shows the structure of a moov box. 3Dオーディオの階層構造を示す図である。It is a figure which shows the hierarchical structure of 3D audio. 本開示を適用した第1実施の形態における情報処理システムの概要を説明する図である。It is a figure explaining the outline of the information processing system in 1st Embodiment to which this disclosure is applied. 本開示を適用した第1実施の形態におけるトラックの第1の例の概要を説明する図である。It is a figure explaining the outline of the 1st example of the truck in 1st Embodiment to which this disclosure is applied. ベーストラックのサンプルエントリのシンタクスの例を示す図である。It is a figure which shows the example of the syntax of the sample entry of a bass track. switch Groupを形成するグループのトラックのサンプルエントリのシンタクスの例を示す図である。It is a figure which shows the example of the syntax of the sample entry of the track of the group forming a switch group. セグメント構造の第1の例を示す図である。It is a figure which shows the 1st example of a segment structure. セグメント構造の第2の例を示す図である。It is a figure which shows the 2nd example of a segment structure. level assignmentボックスの記述例を示す図である。It is a figure which shows the description example of the level assignment box. 本開示を適用した第1実施の形態におけるMPDファイルの第1の記述例を示す図である。It is a figure which shows the 1st description example of the MPD file in the 1st Embodiment to which this disclosure is applied. 図8のファイル生成装置の構成例を示すブロック図である。It is a block diagram which shows the configuration example of the file generation apparatus of FIG. 図16のファイル生成装置のファイル生成処理を説明するフローチャートである。It is a flowchart explaining the file generation process of the file generation apparatus of FIG. 図8の動画再生端末により実現されるストリーミング再生部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the streaming reproduction part realized by the moving image reproduction terminal of FIG. 図18のストリーミング再生部の再生処理を説明するフローチャートである。It is a flowchart explaining the reproduction process of the streaming reproduction part of FIG. 本開示を適用した第1実施の形態におけるトラックの第2の例の概要を説明する図である。It is a figure explaining the outline of the 2nd example of the truck in 1st Embodiment to which this disclosure is applied. switch Groupを形成するグループのトラックのサンプルグループエントリのシンタクスの例を示す図である。It is a figure which shows the example of the syntax of the sample group entry of the track of the group forming a switch group. 各グループのトラックのサンプルエントリのシンタクスの例を示す図である。It is a figure which shows the example of the syntax of the sample entry of the track of each group. 音声ファイルのトラックの第3の例の概要を説明する図である。It is a figure explaining the outline of the 3rd example of the track of an audio file. MPDファイルの第2の記述例を示す図である。It is a figure which shows the 2nd description example of the MPD file. MPDファイルの第2の記述例の他の例を示す図である。It is a figure which shows another example of the 2nd description example of an MPD file. 音声ファイルのトラックの第4の例の概要を説明する図である。It is a figure explaining the outline of the 4th example of the track of an audio file. MPDファイルの第3の記述例を示す図である。It is a figure which shows the 3rd description example of the MPD file. 音声ファイルのトラックの第5の例の概要を説明する図である。It is a figure explaining the outline of the 5th example of the track of an audio file. 4ccが「mha3」であるサンプルエントリのシンタクスの例を示す図である。It is a figure which shows the example of the syntax of the sample entry where 4cc is "mha3". 4ccが「mha3」であるサンプルエントリのシンタクスの他の例を示す図である。It is a figure which shows another example of the syntax of the sample entry where 4cc is "mha3". MPDファイルの第4の記述例を示す図である。It is a figure which shows the 4th description example of an MPD file. 音声ファイルのトラックの第3の例の他の例の概要を説明する図である。It is a figure explaining the outline of another example of the 3rd example of the track of an audio file. 音声ファイルのトラックの第4の例の他の例の概要を説明する図である。It is a figure explaining the outline of another example of the 4th example of the track of an audio file. 音声ファイルのトラックの第5の例の他の例の概要を説明する図である。It is a figure explaining the outline of another example of the 5th example of the track of an audio file. 音声ファイルのトラックの第6の例の概要を説明する図である。It is a figure explaining the outline of the 6th example of the track of an audio file. 図35のベーストラックおよびグループトラックのサンプルエントリのシンタクスの例を示す図である。It is a figure which shows the example of the syntax of the sample entry of the base track and the group track of FIG. 35. 4ccが「mha3」であるサンプルエントリのシンタクスのさらに他の例を示す図である。It is a figure which shows still another example of the syntax of the sample entry where 4cc is "mha3". 本開示を適用した第2実施の形態におけるトラックの概要を説明する図である。It is a figure explaining the outline of the truck in the 2nd Embodiment to which this disclosure is applied. 本開示を適用した第2実施の形態におけるMPDファイルの第1の記述例を示す図である。It is a figure which shows the 1st description example of the MPD file in the 2nd Embodiment to which this disclosure is applied. 本開示を適用した第2実施の形態における情報処理システムの概要を説明する図である。It is a figure explaining the outline of the information processing system in the 2nd Embodiment to which this disclosure is applied. 図40のファイル生成装置の構成例を示すブロック図である。It is a block diagram which shows the configuration example of the file generation apparatus of FIG. 40. 図41のファイル生成装置のファイル生成処理を説明するフローチャートである。It is a flowchart explaining the file generation process of the file generation apparatus of FIG. 41. 図40の動画再生端末により実現されるストリーミング再生部の構成例を示すブロック図である。FIG. 3 is a block diagram showing a configuration example of a streaming playback unit realized by the moving image playback terminal of FIG. 40. 図43のストリーミング再生部の再生処理の例を説明するフローチャートである。It is a flowchart explaining the example of the reproduction processing of the streaming reproduction part of FIG. 43. 本開示を適用した第2実施の形態におけるMPDファイルの第2の記述例を示す図である。It is a figure which shows the 2nd description example of the MPD file in the 2nd Embodiment to which this disclosure is applied. 本開示を適用した第2実施の形態におけるMPDファイルの第3の記述例を示す図である。It is a figure which shows the 3rd description example of the MPD file in the 2nd Embodiment to which this disclosure is applied. 本開示を適用した第2実施の形態におけるMPDファイルの第4の記述例を示す図である。It is a figure which shows the 4th description example of the MPD file in the 2nd Embodiment to which this disclosure is applied. 本開示を適用した第2実施の形態におけるMPDファイルの第5の記述例を示す図である。It is a figure which shows the 5th description example of the MPD file in the 2nd Embodiment to which this disclosure is applied. 本開示を適用した第2実施の形態におけるMPDファイルの第6の記述例を示す図である。It is a figure which shows the 6th description example of the MPD file in the 2nd Embodiment to which this disclosure is applied. 本開示を適用した第2実施の形態におけるMPDファイルの第7の記述例を示す図である。It is a figure which shows the 7th description example of the MPD file in the 2nd Embodiment to which this disclosure is applied. 複数のベーストラックを有する音声ファイルのトラック構造の例を示す図である。It is a figure which shows the example of the track structure of the audio file which has a plurality of bass tracks. 複数のベーストラックを有する音声ファイルのトラック構造の他の例を示す図である。It is a figure which shows another example of the track structure of the audio file which has a plurality of bass tracks. コンピュータのハードウエアの構成例を示すブロック図である。It is a block diagram which shows the configuration example of the hardware of a computer.

以下、本開示の前提および本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
0.本開示の前提(図1乃至図7)
1.第1実施の形態(図8乃至図37)
2.第2実施の形態(図38乃至図50)
3.ベーストラックの他の例(図51および図52)
4.第3実施の形態(図53)
Hereinafter, the premise of the present disclosure and the embodiment for carrying out the present disclosure (hereinafter referred to as the embodiment) will be described. The explanation will be given in the following order.
0. Premise of the present disclosure (FIGS. 1 to 7)
1. 1. 1st Embodiment (FIGS. 8 to 37)
2. Second Embodiment (FIGS. 38 to 50)
3. 3. Other examples of bass tracks (FIGS. 51 and 52)
4. Third Embodiment (FIG. 53)

<本開示の前提>
(MPDファイルの構造の説明)
図1は、MPEG-DASHのMPDファイル(Media Presentation Description)の構造を示す図である。
<Premise of this disclosure>
(Explanation of MPD file structure)
FIG. 1 is a diagram showing the structure of an MPEG-DASH MPD file (Media Presentation Description).

MPDファイルの解析(パース)においては、MPDファイル(図1のMedia Presentation)の「Period」に含まれる「Representation」の属性から最適なものが選択される。 In the analysis (parse) of the MPD file, the optimum one is selected from the "Representation" attribute included in the "Period" of the MPD file (Media Presentation in FIG. 1).

そして、選択された「Representation」の先頭の「Initialization Segment」のURL(Uniform Resource Locator)等を参照してファイルが取得され、処理される。続いて、後続の「Media Segment」のURL等を参照してファイルが取得され、再生される。 Then, the file is acquired and processed by referring to the URL (Uniform Resource Locator) of the "Initialization Segment" at the beginning of the selected "Representation". Then, the file is acquired and played by referring to the URL of the subsequent "Media Segment".

なお、MPDファイルにおける、「Period」、「Representation」、および「Segment」の関係は、図2のようになる。つまり、1つの動画コンテンツは、「Period」により、セグメントより長い時間単位で管理することができ、各「Period」において、「Segment」によりセグメント単位で管理することができる。また、各「Period」において、「Representation」により、動画コンテンツをストリームの属性単位で管理することができる。 The relationship between "Period", "Representation", and "Segment" in the MPD file is as shown in FIG. That is, one video content can be managed in units of time longer than the segment by "Period", and can be managed in units of segments by "Segment" in each "Period". In addition, in each "Period", the video content can be managed in units of stream attributes by "Representation".

したがって、MPDファイルは、「Period」以下において、図3に示す階層構造を有する。また、このMPDファイルの構造を時間軸上に並べると図4の例のようになる。図4から明らかなように、同一のセグメントに対して複数の「Representation」が存在している。これらのうちのいずれかを適応的に選択することにより、ユーザの所望の属性のストリームを取得し、再生することができる。 Therefore, the MPD file has the hierarchical structure shown in FIG. 3 under "Period". Moreover, when the structure of this MPD file is arranged on the time axis, it becomes as shown in the example of FIG. As is clear from FIG. 4, there are a plurality of "Representations" for the same segment. By adaptively selecting one of these, a stream of the user's desired attributes can be acquired and played back.

(3Dオーディオファイルフォーマットの概要)
図5は、MP4の3Dオーディオファイルフォーマットのトラックの概要を説明する図である。
(Overview of 3D audio file format)
FIG. 5 is a diagram illustrating an outline of a track in the 3D audio file format of MP4.

MP4ファイルでは、トラックごとに、動画コンテンツのコーデック情報やファイル内の位置を示す位置情報を管理することができる。MP4の3Dオーディオファイルフォーマットでは、3Dオーディオ(Channel audio/Object audio/SAOC Object audio/HOA audio/metadata)のオーディオストリーム(ES(Elementary Stream))の全てが、1つのトラックとしてサンプル(フレーム)単位で記録される。また、3Dオーディオのコーデック情報(Profile/level/audio configuration)が、サンプルエントリ(sample entry)として格納される。 In the MP4 file, it is possible to manage the codec information of the moving image content and the position information indicating the position in the file for each track. In the MP4 3D audio file format, all 3D audio (Channel audio / Object audio / SAOC Object audio / HOA audio / metadata) audio streams (ES (Elementary Stream)) are sample (frame) units as one track. Recorded. In addition, 3D audio codec information (Profile / level / audio configuration) is stored as a sample entry.

3Dオーディオを構成するChannel audioは、チャンネル単位の音声データであり、Object audioは、オブジェクト単位の音声データである。なお、オブジェクトとは、音源であり、オブジェクト単位の音声データは、そのオブジェクトに取り付けられたマイクロフォンなどにより取得される。オブジェクトは、固定されたマイクスタンドなどの物体であってもよいし、人物などの動体であってもよい。 Channel audio that constitutes 3D audio is audio data for each channel, and Object audio is audio data for each object. The object is a sound source, and the voice data of each object is acquired by a microphone or the like attached to the object. The object may be an object such as a fixed microphone stand, or a moving object such as a person.

また、SAOC Object audioは、SAOC(Spatial Audio Object Coding)の音声データであり、HOA audioは、HOA(Higher Order Ambisonics)の音声データであり、metadataは、Channel audio,Object audio,SAOC Object audio、およびHOA audioのメタデータである。 SAOC Object audio is SAOC (Spatial Audio Object Coding) audio data, HOA audio is HOA (Higher Order Ambisonics) audio data, and metadata is Channel audio, Object audio, SAOC Object audio, and HOA audio metadata.

(moovボックスの構造)
図6は、MP4ファイルのmoovボックスの構造を示す図である。
(Structure of moov box)
FIG. 6 is a diagram showing the structure of the moov box of the MP4 file.

図6に示すように、MP4ファイルでは、画像データと音声データが異なるトラックとして記録される。図6では、音声データのトラックの詳細は記述していないが、画像データのトラックと同様である。sample entryは、moovボックス内のstsdボックスに配置されるsample descriptionに含まれる。 As shown in FIG. 6, in the MP4 file, the image data and the audio data are recorded as different tracks. Although the details of the audio data track are not described in FIG. 6, it is the same as the image data track. The sample entry is included in the sample description placed in the stsd box inside the moov box.

ところで、MP4ファイルの放送やローカルストレージ再生では、一般的に、サーバ側が、全ての3Dオーディオのオーディオストリームを送出する。そして、クライアント側が、全ての3Dオーディオのオーディオストリームをパースしながら、必要な3Dオーディオのオーディオストリームのみを復号し、出力する。しかしながら、ビットレートが高い場合や、ローカルストレージの読み込みレートに制約がある場合、必要な3Dオーディオのオーディオストリームのみを取得することにより、デコード処理の負荷を軽減することが望ましい。 By the way, in the broadcasting of MP4 files and the reproduction of local storage, the server side generally sends out the audio stream of all 3D audio. Then, the client side decodes and outputs only the necessary 3D audio audio stream while parsing all the 3D audio audio streams. However, when the bit rate is high or the read rate of the local storage is limited, it is desirable to reduce the load of the decoding process by acquiring only the necessary 3D audio stream.

また、MPEG-DASHに準拠したMP4ファイルのストリーム再生では、サーバ側は、複数の符号化速度のオーディオストリームを用意している。従って、クライアント側が、必要な3Dオーディオのオーディオストリームだけを取得することにより、再生環境に最適な符号化速度のオーディオストリームを選択し、取得することができる。 Further, in the stream reproduction of the MP4 file conforming to MPEG-DASH, the server side prepares audio streams having a plurality of coding speeds. Therefore, the client side can select and acquire the audio stream having the optimum coding speed for the playback environment by acquiring only the necessary 3D audio audio stream.

以上により、本開示では、3Dオーディオのオーディオストリームを種類に応じてトラックに分割し、音声ファイルに配置することにより、所定の種類の3Dオーディオのオーディオストリームのみを効率良く取得可能にする。これにより、放送やローカルストレージ再生では、デコード処理の負荷を軽減することができる。また、ストリーム再生では、帯域に応じて、必要な3Dオーディオのオーディオストリームのうちの最も品質の高いものを再生することができる。 As described above, in the present disclosure, by dividing the audio stream of 3D audio into tracks according to the type and arranging the audio stream in the audio file, it is possible to efficiently acquire only the audio stream of the predetermined type of 3D audio. As a result, the load of the decoding process can be reduced in broadcasting and local storage playback. Further, in the stream reproduction, the highest quality audio stream of the required 3D audio can be reproduced depending on the band.

(3Dオーディオの階層構造の説明)
図7は、3Dオーディオの階層構造を示す図である。
(Explanation of the hierarchical structure of 3D audio)
FIG. 7 is a diagram showing a hierarchical structure of 3D audio.

図7に示すように、3Dオーディオの音声データは、音声データごとに異なるオーディオエレメント(Element)とされる。オーディオエレメントのタイプとしては、SCE(Single Channel Element)とCPE(Channel Pair Element)がある。1チャンネル分の音声データのオーディオエレメントのタイプはSCEであり、2チャンネル分の音声データに対応するオーディオエレメントのタイプはCPEである。 As shown in FIG. 7, the audio data of 3D audio is an audio element (Element) different for each audio data. There are two types of audio elements: SCE (Single Channel Element) and CPE (Channel Pair Element). The type of audio element of audio data for one channel is SCE, and the type of audio element corresponding to audio data for two channels is CPE.

オーディオエレメントは、同一の音声の種類(Channel/Object/SAOC Object/HOA)どうしでグループを形成する。従って、グループタイプ(GroupType)としては、Channels,Objects,SAOC Objects、およびHOAである。2以上のグループは、必要に応じて、switch Groupやgroup Presetを形成することができる。 Audio elements form groups of the same audio type (Channel / Object / SAOC Object / HOA). Therefore, the group types are Channels, Objects, SAOC Objects, and HOA. Two or more groups can form a switch group or group preset as needed.

switch Groupは、そこに含まれるグループのオーディオストリームが排他的に再生されるグループ(排他的再生グループ)である。即ち、図7に示すように、英語(EN)用のObject audioのグループと、フランス語(FR)用のObject audioのグループが存在する場合、いずれか一方のグループのみが再生されるべきである。従って、グループIDが2である英語用のObject audioのグループと、グループIDが3であるフランス語用のObject audioのグループとから、switch Groupが形成される。これにより、英語用のObject audioとフランス語用のObject audioが排他的に再生される。 The switch Group is a group in which the audio streams of the groups included in the switch group are exclusively played back (exclusive playback group). That is, as shown in FIG. 7, when there is an Object audio group for English (EN) and an Object audio group for French (FR), only one of the groups should be reproduced. Therefore, a switch group is formed from the group of Object audio for English having a group ID of 2 and the group of Object audio for French having a group ID of 3. As a result, Object audio for English and Object audio for French are played exclusively.

一方、group Presetは、コンテンツ製作者が意図するグループの組み合わせを定義するものである。 On the other hand, the group Preset defines a combination of groups intended by the content creator.

また、3Dオーディオのメタデータは、メタデータごとに異なるExtエレメント(Ext Element)とされる。Extエレメントのタイプとしては、Object Metadata,SAOC 3D Metadata,HOA Metadata,DRC Metadata,SpatialFrame,SaocFrameなどがある。Object MetadataのExtエレメントは、全てのObject audioのメタデータであり、SAOC 3D MetadataのExtエレメントは、全てのSAOC audioのメタデータである。また、HOA MetadataのExtエレメントは、全てのHOA audioのメタデータであり、DRC(Dynamic Range Control) MetadataのExtエレメントは、Object audio, SAOC audio、およびHOA audioの全てのメタデータである。 Further, the 3D audio metadata is an Ext Element that is different for each metadata. Types of Ext elements include Object Metadata, SAOC 3D Metadata, HOA Metadata, DRC Metadata, SpatialFrame, SaocFrame, etc. The Ext element of Object Metadata is the metadata of all Object audio, and the Ext element of SAOC 3D Metadata is the metadata of all SAOC audio. The Ext element of HOA Metadata is the metadata of all HOA audio, and the Ext element of DRC (Dynamic Range Control) Metadata is all the metadata of Object audio, SAOC audio, and HOA audio.

以上のように、3Dオーディオのうちの音声データの分割単位としては、オーディオエレメント、グループタイプ、グループ、switch Group、およびgroup Presetがある。従って、3Dオーディオのうちの音声データのオーディオストリームは、オーディオエレメント、グループタイプ、グループ、switch Group、またはgroup Presetを種類として、種類ごとに異なるトラックに分割することができる。 As described above, the audio data division unit of the 3D audio includes an audio element, a group type, a group, a switch Group, and a group Preset. Therefore, the audio stream of the audio data in the 3D audio can be divided into different tracks for each type by using an audio element, a group type, a group, a switch Group, or a group Preset.

また、3Dオーディオのうちのメタデータの分割単位としては、Extエレメントのタイプ、または、そのメタデータに対応するオーディオエレメントがある。従って、3Dオーディオのメタデータのオーディオストリームは、Extエレメントや、そのメタデータに対応するオーディオエレメントを種類として、種類ごとに異なるトラックに分割することができる。 Further, as the division unit of the metadata in the 3D audio, there is an Ext element type or an audio element corresponding to the metadata. Therefore, the audio stream of 3D audio metadata can be divided into different tracks for each type, using the Ext element and the audio element corresponding to the metadata as types.

以下の実施の形態では、音声データのオーディオストリームが1以上のグループごとにトラックに分割され、メタデータのオーディオストリームがExtエレメントのタイプごとにトラックに分割される。 In the following embodiments, the audio stream of audio data is divided into tracks by one or more groups, and the audio stream of metadata is divided into tracks by type of Ext element.

<第1実施の形態>
(情報処理システムの概要)
図8は、本開示を適用した第1実施の形態における情報処理システムの概要を説明する図である。
<First Embodiment>
(Overview of information processing system)
FIG. 8 is a diagram illustrating an outline of an information processing system according to the first embodiment to which the present disclosure is applied.

図8の情報処理システム140は、ファイル生成装置141と接続されるWebサーバ142と動画再生端末144が、インターネット13を介して接続されることにより構成される。 The information processing system 140 of FIG. 8 is configured by connecting a Web server 142 connected to the file generation device 141 and a moving image playback terminal 144 via the Internet 13.

情報処理システム140では、MPEG−DASHに準ずる方式で、Webサーバ142が、再生対象のグループのトラックのオーディオストリームを、動画再生端末144に配信する。 In the information processing system 140, the Web server 142 distributes the audio stream of the track of the group to be reproduced to the moving image reproduction terminal 144 by a method similar to MPEG-DASH.

具体的には、ファイル生成装置141は、動画コンテンツの3Dオーディオの各音声データとメタデータを、それぞれ、複数の符号化速度で符号化し、オーディオストリームを生成する。ファイル生成装置141は、符号化速度、および、セグメントと呼ばれる数秒から10秒程度の時間単位ごとに、全てのオーディオストリームをファイル化し、音声ファイルを生成する。このとき、ファイル生成装置141は、オーディオストリームをグループおよびExtエレメントのタイプごとに分割し、異なるトラックのオーディオストリームとして音声ファイルに配置する。ファイル生成装置141は、生成された音声ファイルをWebサーバ142にアップロードする。 Specifically, the file generation device 141 encodes each audio data and metadata of the 3D audio of the moving image content at a plurality of coding speeds to generate an audio stream. The file generation device 141 files all the audio streams and generates an audio file every few seconds to 10 seconds, which is called a coding speed and a segment. At this time, the file generation device 141 divides the audio stream into groups and types of Ext elements, and arranges them in the audio file as audio streams of different tracks. The file generation device 141 uploads the generated audio file to the Web server 142.

また、ファイル生成装置141は、音声ファイル等を管理するMPDファイル(管理ファイル)を生成する。ファイル生成装置141は、MPDファイルをWebサーバ142にアップロードする。 Further, the file generation device 141 generates an MPD file (management file) for managing an audio file or the like. The file generation device 141 uploads the MPD file to the Web server 142.

Webサーバ142は、ファイル生成装置141からアップロードされた符号化速度およびセグメントごとの音声ファイルとMPDファイルを格納する。Webサーバ142は、動画再生端末144からの要求に応じて、格納している音声ファイル、MPDファイル等を動画再生端末144に送信する。 The Web server 142 stores the encoding speed and the audio file and MPD file for each segment uploaded from the file generation device 141. The Web server 142 transmits the stored audio file, MPD file, etc. to the video playback terminal 144 in response to the request from the video playback terminal 144.

動画再生端末144は、ストリーミングデータの制御用ソフトウエア(以下、制御用ソフトウエアという)161、動画再生ソフトウエア162、HTTP(HyperText Transfer Protocol)アクセス用のクライアント・ソフトウエア(以下、アクセス用ソフトウエアという)163などを実行する。 The video playback terminal 144 includes streaming data control software (hereinafter referred to as control software) 161, video playback software 162, and HTTP (HyperText Transfer Protocol) access client software (hereinafter referred to as access software). 163 etc. are executed.

制御用ソフトウエア161は、Webサーバ142からストリーミングするデータを制御するソフトウエアである。具体的には、制御用ソフトウエア161は、動画再生端末144にWebサーバ142からMPDファイルを取得させる。 The control software 161 is software that controls data streamed from the Web server 142. Specifically, the control software 161 causes the moving image playback terminal 144 to acquire the MPD file from the Web server 142.

また、制御用ソフトウエア161は、MPDファイルに基づいて、動画再生ソフトウエア162により指定される再生対象のグループ、および、そのグループに対応するExtエレメントのタイプのトラックのオーディオストリームの送信要求を、アクセス用ソフトウエア163に指令する。 Further, the control software 161 requests the transmission target group specified by the video playback software 162 and the audio stream transmission request of the track of the Ext element type corresponding to the group based on the MPD file. Command the access software 163.

動画再生ソフトウエア162は、Webサーバ142から取得されたオーディオストリームを再生するソフトウエアである。具体的には、動画再生ソフトウエア162は、制御用ソフトウエア161は、再生対象のグループ、および、そのグループに対応するExtエレメントのタイプを制御用ソフトウエア161に指定する。また、動画再生ソフトウエア162は、アクセス用ソフトウエア163から受信開始の通知を受信したとき、動画再生端末144により受信されたオーディオストリームを復号する。動画再生ソフトウエア162は、復号の結果得られる音声データを必要に応じて合成し、出力する。 The video playback software 162 is software that reproduces an audio stream acquired from the Web server 142. Specifically, in the moving image playback software 162, the control software 161 specifies the group to be played back and the type of Ext element corresponding to the group to the control software 161. Further, when the moving image reproduction software 162 receives the reception start notification from the access software 163, the moving image reproduction software 162 decodes the audio stream received by the moving image reproduction terminal 144. The moving image reproduction software 162 synthesizes and outputs the audio data obtained as a result of the decoding as necessary.

アクセス用ソフトウエア163は、HTTPを用いたインターネット13を介したWebサーバ142との通信を制御するソフトウエアである。具体的には、アクセス用ソフトウエア163は、制御用ソフトウエア161の指令に応じて、音声ファイルに含まれる再生対象のトラックのオーディオストリームの送信要求を、動画再生端末144に送信させる。また、アクセス用ソフトウエア163は、その送信要求に応じて、Webサーバ142から送信されてくるオーディオストリームの受信を動画再生端末144に開始させ、受信開始の通知を動画再生ソフトウエア162に供給する。 The access software 163 is software that controls communication with the Web server 142 via the Internet 13 using HTTP. Specifically, the access software 163 causes the moving image playback terminal 144 to transmit a transmission request for an audio stream of the track to be played back included in the audio file in response to a command from the control software 161. Further, the access software 163 causes the video playback terminal 144 to start receiving the audio stream transmitted from the Web server 142 in response to the transmission request, and supplies the video playback software 162 with the notification of the start of reception. ..

なお、本明細書では、動画コンテンツの音声ファイルについてのみ説明するが、実際には、音声ファイルとともに、対応する画像ファイルが生成され、再生される。 In this specification, only the audio file of the moving image content will be described, but in reality, the corresponding image file is generated and played together with the audio file.

(音声ファイルのトラックの第1の例の概要)
図9は、音声ファイルのトラックの第1の例の概要を説明する図である。
(Overview of the first example of an audio file track)
FIG. 9 is a diagram illustrating an outline of a first example of a track of an audio file.

なお、図9では、説明の便宜上、3Dオーディオのうちの音声データのトラックのみ図示している。このことは、後述する図20、図23、図26、図28、図30、図32乃至図35、および図38においても同様である。 Note that FIG. 9 shows only the audio data track of the 3D audio for convenience of explanation. This also applies to FIGS. 20, 23, 26, 28, 30, 32 to 35, and 38, which will be described later.

図9に示すように、全ての3Dオーディオのオーディオストリームは、1つの音声ファイル(3dauio.mp4)に格納される。音声ファイル(3dauio.mp4)には、3Dオーディオの各グループのオーディオストリームが、それぞれ、異なるトラックに分割されて配置される。また、3Dオーディオ全体に関する情報が、ベーストラック(Base Track)として配置される。 As shown in FIG. 9, all 3D audio audio streams are stored in one audio file (3dauio.mp4). In the audio file (3dauio.mp4), the audio stream of each group of 3D audio is divided into different tracks and arranged. In addition, information about the entire 3D audio is arranged as a base track.

各トラックのtrackボックスには、Track Referenceが配置される。Track Referenceは、対応するトラックの他のトラックとの参照関係を表す。具体的には、Track Referenceは、参照関係にある他のトラックのトラックに固有のID(以下、トラックIDという)を表す。 A Track Reference is placed in the track box of each track. The Track Reference represents the reference relationship of the corresponding track with other tracks. Specifically, the Track Reference represents an ID unique to a track of another track having a reference relationship (hereinafter, referred to as a track ID).

図9の例では、ベーストラック、グループIDが1であるグループ#1、グループIDが2であるグループ#2、グループIDが3であるグループ#3、グループIDが4であるグループ#4のトラックのトラックIDが、1,2,3,4,5となっている。また、ベーストラックのTrack Referenceは2,3,4,5であり、グループ#1乃至#4のトラックのTrack Referenceは、ベーストラックのトラックIDである1である。従って、ベーストラックとグループ#1乃至#4のトラックとは、参照関係にある。即ち、ベーストラックは、グループ#1乃至#4のトラックの再生時に参照される。 In the example of FIG. 9, the base track, the group # 1 having the group ID 1, the group # 2 having the group ID 2, the group # 3 having the group ID 3, and the track # 4 having the group ID 4 The track ID of is 1,2,3,4,5. The Track Reference of the base track is 2,3,4,5, and the Track Reference of the tracks of the groups # 1 to # 4 is 1, which is the track ID of the base track. Therefore, the bass track and the tracks of groups # 1 to # 4 are in a reference relationship. That is, the base track is referred to when the tracks of the groups # 1 to # 4 are reproduced.

また、ベーストラックのサンプルエントリの4cc(character code)は「mha2」であり、ベーストラックのサンプルエントリには、3Dオーディオの全てのグループのconfig情報またはベーストラックだけの復号に必要なconfig情報を含むmhaCボックスと、3Dオーディオの全てのグループおよびswitch Groupに関する情報を含むmhasボックスが配置される。グループに関する情報は、グループのID、グループに分類されるエレメントのデータの内容を表す情報等により構成される。switch Groupに関する情報は、switch GroupのID、switch Groupを形成するグループのID等により構成される。 Also, the 4cc (character code) of the bass track sample entry is "mha2", and the bass track sample entry contains config information for all groups of 3D audio or config information required for decoding only the bass track. A mhaC box and an mhas box containing information about all groups of 3D audio and switch groups are placed. The information about the group is composed of the ID of the group, the information representing the data contents of the elements classified into the group, and the like. Information about the switch group is composed of the ID of the switch group, the ID of the group forming the switch group, and the like.

各グループのトラックのサンプルエントリの4ccは「mhg1」であり、各グループのトラックのサンプルエントリには、そのグループに関する情報を含むmhgCボックスが配置されてもよい。グループがswitch Groupを形成する場合、そのグループのトラックのサンプルエントリには、そのswitch Groupに関する情報を含むmhsCボックスが配置される。 The 4cc of the track sample entry for each group is "mhg1", and the track sample entry for each group may have an mhgC box containing information about that group. If a group forms a switch Group, the sample entries for that group's tracks will be placed with an mhsC box containing information about that switch group.

ベーストラックのサンプルには、各グループのトラックのサンプルへの参照情報、または、その参照情報の復号に必要なconfig情報が配置される。参照情報により参照される各グループのサンプルを参照情報の配置順に配置することにより、トラックに分割される前の3Dオーディオのオーディオストリームを生成することができる。参照情報は、各グループのトラックのサンプルの位置およびサイズ、グループタイプ等により構成される。 In the base track sample, reference information to the track sample of each group or config information necessary for decoding the reference information is arranged. By arranging the samples of each group referenced by the reference information in the order in which the reference information is arranged, it is possible to generate an audio stream of 3D audio before being divided into tracks. The reference information is composed of the position and size of the sample of the track of each group, the group type, and the like.

(ベーストラックのサンプルエントリのシンタクスの例)
図10は、ベーストラックのサンプルエントリのシンタクスの例を示す図である。
(Example of bass track sample entry syntax)
FIG. 10 is a diagram showing an example of the syntax of the sample entry of the base track.

図10に示すように、ベーストラックのサンプルエントリには、mhaCボックス(MHAConfigration Box)、mhasボックス(MHAAudioSceneInfo Box)等が配置される。mhaCボックスには、3Dオーディオの全てのグループのconfig情報またはベーストラックだけの復号に必要なconfig情報が記述される。また、mhasボックスには、3Dオーディオの全てのグループおよびswitch Groupに関する情報を含むAudioScene情報が記述される。このAudioScene情報は、図7の階層構造を記述するものである。 As shown in FIG. 10, a mhaC box (MHAConfigration Box), a mhas box (MHAAudioSceneInfo Box), and the like are arranged in the sample entry of the bass track. In the mhaC box, the config information of all groups of 3D audio or the config information required for decoding only the base track is described. In addition, Audio Scene information including information about all groups of 3D audio and switch Group is described in the mhas box. This AudioScene information describes the hierarchical structure of FIG. 7.

(各グループのトラックのサンプルエントリのシンタクスの例)
図11は、各グループのトラックのサンプルエントリのシンタクスの例を示す図である。
(Example of sample entry syntax for each group of tracks)
FIG. 11 is a diagram showing an example of the syntax of the sample entries of the tracks of each group.

図11に示すように、各グループのトラックのサンプルエントリには、mhaCボックス(MHAConfigration Box)、mhgCボックス(MHAGroupDefinitionBox)、mhsCボックス(MHASwitchGropuDefinition Box)等が配置される。 As shown in FIG. 11, mhaC box (MHAConfigration Box), mhgC box (MHAGroupDefinitionBox), mhsC box (MHASwitchGropuDefinition Box) and the like are arranged in the sample entries of the tracks of each group.

mhaCボックスには、対応するトラックの復号に必要なConfig情報が記述される。また、mhgCボックスには、対応するグループに関するAudioScene情報がGroupDefinitionとして記述される。mhsCボックスには、対応するグループがswitch Group を形成する場合、そのswitch Groupに関するAudioScene情報がSwitchGroupDefinitionとして記述される。 The mhaC box contains the Config information needed to decrypt the corresponding track. Also, in the mhgC box, AudioScene information about the corresponding group is described as Group Definition. In the mhsC box, when the corresponding group forms a switch group, the AudioScene information about that switch group is described as the SwitchGroupDefinition.

(音声ファイルのセグメント構造の第1の例)
図12は、音声ファイルのセグメント構造の第1の例を示す図である。
(First example of segment structure of audio file)
FIG. 12 is a diagram showing a first example of a segment structure of an audio file.

図12のセグメント構造では、Initial segmentが、ftypボックスとmoovボックスにより構成される。moovボックスには、音声ファイルに含まれるトラックごとにtrak boxが配置される。また、moovボックスには、各トラックのトラックIDと、media segment内のssixボックスで用いられるlevelとの対応関係を表す情報などを含むmvexボックスが配置される。 In the segment structure of FIG. 12, the Initial segment is composed of an ftyp box and a moov box. In the moov box, a track box is placed for each track included in the audio file. Further, in the moov box, an mvex box containing information indicating the correspondence between the track ID of each track and the level used in the ssix box in the media segment is arranged.

また、media segmentは、sidxボックス、ssixボックス、および、1以上のsubsegmentにより構成される。sidxボックスには、各subsegmentの音声ファイル内の位置を示す位置情報が配置される。ssixボックスには、mdatボックスに配置される各レベルのオーディオストリームの位置情報が含まれる。なお、レベルは、トラックに対応するものである。また、最初のトラックの位置情報は、moofボックスと最初のトラックのオーディオストリームからなるデータの位置情報である。 Further, the media segment is composed of a sidx box, an ssix box, and one or more subsegments. In the sidx box, position information indicating the position of each subsegment in the audio file is placed. The ssix box contains the location information of each level of audio stream placed in the mdat box. The level corresponds to the track. The position information of the first track is the position information of the data including the moof box and the audio stream of the first track.

subsegmentは、任意の時間長ごとに設けられ、subsegmentには、全てのトラックに共通の1組のmoofボックスとmdatボックスのペアが設けられる。mdatボックスには、全てのtrackのオーディオストリームが、任意の時間長分だけまとめて配置され、moofボックスには、そのオーディオストリームの管理情報が配置される。mdatボックスに配置される各trackのオーディオストリームは、track毎に連続している。 The subsegment is provided for each arbitrary time length, and the subsegment is provided with a pair of moof box and mdat box common to all tracks. The audio streams of all tracks are placed together in the mdat box for an arbitrary length of time, and the management information of the audio streams is placed in the moof box. The audio stream of each track placed in the mdat box is continuous for each track.

図12の例では、トラックIDが1であるTrack1はベーストラックであり、トラックIDが2乃至NであるTrack2乃至TrackNは、グループIDが1乃至N−1であるグループのトラックである。このことは、後述する図13においても同様である。 In the example of FIG. 12, Track 1 having a track ID of 1 is a base track, and Track 2 to Track N having a track ID of 2 to N are tracks of a group having a group ID of 1 to N-1. This also applies to FIG. 13 which will be described later.

(音声ファイルのセグメント構造の第2の例)
図13は、音声ファイルのセグメント構造の第2の例を示す図である。
(Second example of audio file segment structure)
FIG. 13 is a diagram showing a second example of the segment structure of the audio file.

図13のセグメント構造は、トラックごとにmoofボックスとmdatボックスが設けられる点が、図12のセグメント構造と異なっている。 The segment structure of FIG. 13 is different from the segment structure of FIG. 12 in that a moof box and a mdat box are provided for each track.

即ち、図13のInitial segmentは、図12のInitial segmentと同様である。また、図13のmedia segmentは、図12のmedia segmentと同様に、sidxボックス、ssixボックス、および、1以上のsubsegmentにより構成される。sidxボックスには、図12のsidxボックスと同様に、各subsegmentの位置情報が配置される。ssixボックスには、moofボックスとmdatボックスからなる各レベルのデータの位置情報が含まれる。 That is, the Initial segment in FIG. 13 is the same as the Initial segment in FIG. Further, the media segment of FIG. 13 is composed of a sidx box, an ssix box, and one or more subsegments, similarly to the media segment of FIG. Similar to the sidx box of FIG. 12, the position information of each subsegment is arranged in the sidx box. The ssix box contains the location information of each level of data consisting of the moof box and the mdat box.

subsegmentは、任意の時間長ごとに設けられ、subsegmentには、トラックごとにmoofボックスとmdatボックスのペアが設けられる。即ち、各トラックのmdatボックスには、そのトラックのオーディオストリームが、任意の時間長分だけまとめて配置(インターリーブ格納)され、moofボックスには、そのオーディオストリームの管理情報が配置される。 The subsegment is provided for each arbitrary time length, and the subsegment is provided with a pair of moof box and mdat box for each track. That is, the audio streams of the track are collectively arranged (interleaved storage) for an arbitrary time length in the mdat box of each track, and the management information of the audio stream is arranged in the moof box.

図12および図13に示すように、各トラックのオーディオストリームは、任意の時間長分まとめて配置されるため、サンプル単位でまとめて配置される場合に比べて、HTTP等を介したオーディオストリームの取得効率が改善する。 As shown in FIGS. 12 and 13, since the audio streams of each track are arranged together for an arbitrary length of time, the audio stream via HTTP or the like is arranged as compared with the case where the audio streams are arranged together in sample units. Acquisition efficiency is improved.

(mvexボックスの記述例)
図14は、図12および図13のmvexボックスに配置されるlevel assignmentボックスの記述例を示す図である。
(Example of description of mvex box)
FIG. 14 is a diagram showing a description example of a level assignment box arranged in the mvex box of FIGS. 12 and 13.

level assignmentボックスは、各トラックのトラックIDとssixボックスで用いられるレベル(level)を対応付けるボックスである。図14の例では、トラックIDが1であるベーストラックがレベル0に対応付けられ、トラックIDが2であるチャネルオーディオトラックがレベル1に対応付けられている。また、トラックIDが3であるHOAオーディオトラックがレベル2に対応付けられ、トラックIDが4であるオブジェクトメタデータトラックがレベル3に対応付けられている。さらに、トラックIDが5であるオブジェクトオーディオトラックがレベル4に対応付けられている。 The level assignment box is a box that associates the track ID of each track with the level used in the ssix box. In the example of FIG. 14, a bass track having a track ID of 1 is associated with level 0, and a channel audio track having a track ID of 2 is associated with level 1. Further, the HOA audio track having the track ID of 3 is associated with the level 2, and the object metadata track having the track ID of 4 is associated with the level 3. Further, an object audio track having a track ID of 5 is associated with level 4.

(MPDファイルの第1の記述例)
図15は、MPDファイルの第1の記述例を示す図である。
(First description example of MPD file)
FIG. 15 is a diagram showing a first description example of the MPD file.

図15に示すように、MPDファイルには、3Dオーディオの音声ファイル(3daudio.mp4)のセグメントを管理する「Representation」、そのセグメントに含まれるトラックを管理する「SubRepresentation」等が記述される。 As shown in FIG. 15, in the MPD file, a “Representation” that manages a segment of a 3D audio audio file (3daudio.mp4), a “SubRepresentation” that manages a track included in the segment, and the like are described.

「Representation」と「SubRepresentation」には、対応するセグメント全体またはトラックのcodecの種類(profile,level)を、3D audio file formatで定義されるコードで表す「codecs」が含まれる。 "Representation" and "SubRepresentation" include "codecs" that represent the codec type (profile, level) of the entire corresponding segment or track with the code defined in the 3D audio file format.

「SubRepresentation」には、対応するトラックのレベルを表す値としてlevel assignmentボックスで設定されている値である「level」が含まれる。「SubRepresentation」には、参照関係を有する(依存する)他のトラック(以下、参照トラックという)に対応するレベルを表す値である「dependencyLevel」が含まれる。 The "Sub Representation" includes "level", which is a value set in the level assignment box as a value representing the level of the corresponding track. The "Sub Representation" includes a "dependency Level" which is a value representing a level corresponding to another track having a reference relationship (depending on the track) (hereinafter, referred to as a reference track).

さらに、「SubRepresentation」には、<EssentialProperty schemeIdUri=“urn:mpeg:DASH:3daudio:2014” value=“dataType,definition”>が含まれる。 Furthermore, "SubRepresentation" includes <EssentialProperty schemeIdUri = “urn: mpeg: DASH: 3daudio: 2014” value = “dataType, definition”>.

「dataType」は、対応するトラックのサンプルエントリに記述されるAudio Scene情報の内容(definition)の種類を表す番号であり、definitionは、その内容である。例えば、トラックのサンプルエントリにGroupDefinitionが含まれる場合、そのトラックの「dataType」として1が記述され、「definition」としてGroupDefinitionが記述される。また、トラックのサンプルエントリにSwitchGroupDefinitionが含まれる場合、そのトラックの「dataType」として2が記述され、「definition」としてSwitchGroupDefinitionが記述される。即ち、「dataType」および「definition」は、対応するトラックのサンプルエントリにSwitchGroupDefinitionが存在するかを示す情報である。「definition」は、バイナリデータであり、base64方式で符号化される。 The "dataType" is a number indicating the type of the content (definition) of the Audio Scene information described in the sample entry of the corresponding track, and the definition is the content. For example, when the sample entry of a track includes GroupDefinition, 1 is described as "dataType" of the track, and GroupDefinition is described as "definition". If the sample entry of the track includes SwitchGroupDefinition, 2 is described as the "dataType" of the track, and SwitchGroupDefinition is described as the "definition". That is, "dataType" and "definition" are information indicating whether SwitchGroupDefinition exists in the sample entry of the corresponding track. "Definition" is binary data and is encoded by the base64 method.

なお、図15の例では、全てのグループがswitch Groupを形成するものとしたが、switch Groupを形成しないグループが存在する場合、そのグループに対応する「SubRepresentation」には、<EssentialProperty schemeIdUri=“urn:mpeg:DASH:3daudio:2014” value=“2,SwitchGroupDefinition”>は記述されない。このことは、後述する図24、図25、図31、図39、図45、図47、図48、および図50においても同様である。 In the example of FIG. 15, it is assumed that all the groups form a switch group, but if there is a group that does not form a switch group, <EssentialProperty schemeIdUri = "urn" in the "SubRepresentation" corresponding to that group. : mpeg: DASH: 3daudio: 2014 ”value =“ 2,SwitchGroupDefinition ”> is not described. This also applies to FIGS. 24, 25, 31, 39, 45, 47, 48, and 50, which will be described later.

(ファイル生成装置の構成例)
図16は、図8のファイル生成装置141の構成例を示すブロック図である。
(Configuration example of file generator)
FIG. 16 is a block diagram showing a configuration example of the file generation device 141 of FIG.

図16のファイル生成装置141は、音声符号化処理部171、音声ファイル生成部172、MPD生成部173、およびサーバアップロード処理部174により構成される。 The file generation device 141 of FIG. 16 is composed of a voice coding processing unit 171, a voice file generation unit 172, an MPD generation unit 173, and a server upload processing unit 174.

ファイル生成装置141の音声符号化処理部171は、動画コンテンツの3Dオーディオの各音声データとメタデータを、それぞれ、複数の符号化速度で符号化し、オーディオストリームを生成する。音声符号化処理部171は、符号化速度ごとのオーディオストリームを音声ファイル生成部172に供給する。 The audio coding processing unit 171 of the file generation device 141 encodes each audio data and metadata of the 3D audio of the moving image content at a plurality of coding speeds to generate an audio stream. The voice coding processing unit 171 supplies an audio stream for each coding speed to the voice file generation unit 172.

音声ファイル生成部172は、音声符号化処理部171から供給されるオーディオストリームに対して、グループおよびExtエレメントのタイプごとにトラックを割り当てる。音声ファイル生成部172は、符号化速度およびセグメントごとに、各トラックのオーディオストリームがサブセグメント単位で配置される図12または図13のセグメント構造の音声ファイルを生成する。音声ファイル生成部172は、生成された音声ファイルをMPD生成部173に供給する。 The audio file generation unit 172 allocates tracks for the audio stream supplied from the audio coding processing unit 171 for each group and type of Ext element. The audio file generation unit 172 generates an audio file having a segment structure of FIG. 12 or FIG. 13 in which the audio stream of each track is arranged in subsegment units for each coding speed and segment. The audio file generation unit 172 supplies the generated audio file to the MPD generation unit 173.

MPD生成部173は、音声ファイル生成部172から供給される音声ファイルを格納するWebサーバ142のURL等を決定する。そして、MPD生成部173は、音声ファイルのURL等が、その音声ファイル用の「Representation」の「Segment」に配置されたMPDファイルを生成する。MPD生成部173は、生成されたMPDファイルと音声ファイルをサーバアップロード処理部174に供給する。 The MPD generation unit 173 determines the URL of the Web server 142 that stores the audio file supplied from the audio file generation unit 172. Then, the MPD generation unit 173 generates an MPD file in which the URL or the like of the audio file is arranged in the "Segment" of the "Representation" for the audio file. The MPD generation unit 173 supplies the generated MPD file and audio file to the server upload processing unit 174.

サーバアップロード処理部174は、MPD生成部173から供給される音声ファイルとMPDファイルを、Webサーバ142にアップロードする。 The server upload processing unit 174 uploads the audio file and the MPD file supplied from the MPD generation unit 173 to the Web server 142.

(ファイル生成装置の処理の説明)
図17は、図16のファイル生成装置141のファイル生成処理を説明するフローチャートである。
(Explanation of processing of file generator)
FIG. 17 is a flowchart illustrating a file generation process of the file generation device 141 of FIG.

図17のステップS191において、音声符号化処理部171は、動画コンテンツの3Dオーディオの各音声データとメタデータを、それぞれ、複数の符号化速度で符号化し、オーディオストリームを生成する。音声符号化処理部171は、符号化速度ごとのオーディオストリームを音声ファイル生成部172に供給する。 In step S191 of FIG. 17, the audio coding processing unit 171 encodes each audio data and metadata of the 3D audio of the moving image content at a plurality of coding speeds to generate an audio stream. The voice coding processing unit 171 supplies an audio stream for each coding speed to the voice file generation unit 172.

ステップS192において、音声ファイル生成部172は、音声符号化処理部171から供給されるオーディオストリームに対して、グループおよびExtエレメントのタイプごとにトラックを割り当てる。 In step S192, the audio file generation unit 172 allocates tracks for the audio stream supplied from the audio coding processing unit 171 for each group and type of Ext element.

ステップS193において、音声ファイル生成部172は、符号化速度およびセグメントごとに、各トラックのオーディオストリームがサブセグメント単位で配置される図12または図13のセグメント構造の音声ファイルを生成する。音声ファイル生成部172は、生成された音声ファイルをMPD生成部173に供給する。 In step S193, the audio file generation unit 172 generates an audio file having a segment structure of FIG. 12 or FIG. 13 in which the audio stream of each track is arranged in sub-segment units for each coding speed and segment. The audio file generation unit 172 supplies the generated audio file to the MPD generation unit 173.

ステップS194において、MPD生成部173は、音声ファイルのURL等を含むMPDファイルを生成する。MPD生成部173は、生成されたMPDファイルと音声ファイルをサーバアップロード処理部174に供給する。 In step S194, the MPD generation unit 173 generates an MPD file including the URL of the audio file and the like. The MPD generation unit 173 supplies the generated MPD file and audio file to the server upload processing unit 174.

ステップS195において、サーバアップロード処理部174は、MPD生成部173から供給される音声ファイルとMPDファイルを、Webサーバ142にアップロードする。そして、処理は終了する。 In step S195, the server upload processing unit 174 uploads the audio file and the MPD file supplied from the MPD generation unit 173 to the Web server 142. Then, the process ends.

(動画再生端末の機能的構成例)
図18は、図8の動画再生端末144が制御用ソフトウエア161、動画再生ソフトウエア162、およびアクセス用ソフトウエア163を実行することにより実現されるストリーミング再生部の構成例を示すブロック図である。
(Example of functional configuration of video playback terminal)
FIG. 18 is a block diagram showing a configuration example of a streaming playback unit realized by the video playback terminal 144 of FIG. 8 executing the control software 161 and the video playback software 162, and the access software 163. ..

図18のストリーミング再生部190は、MPD取得部91、MPD処理部191、音声ファイル取得部192、音声復号処理部194、および音声合成処理部195により構成される。 The streaming playback unit 190 of FIG. 18 is composed of an MPD acquisition unit 91, an MPD processing unit 191, an audio file acquisition unit 192, an audio decoding processing unit 194, and a voice synthesis processing unit 195.

ストリーミング再生部190のMPD取得部91は、Webサーバ142からMPDファイルを取得し、MPD処理部191に供給する。 The MPD acquisition unit 91 of the streaming playback unit 190 acquires the MPD file from the Web server 142 and supplies it to the MPD processing unit 191.

MPD処理部191は、MPD取得部91から供給されるMPDファイルから音声ファイル用の「Segment」に記述される再生対象のセグメントの音声ファイルのURL等の情報を抽出し、音声ファイル取得部192に供給する。 The MPD processing unit 191 extracts information such as the URL of the audio file of the segment to be played back described in the “Segment” for the audio file from the MPD file supplied from the MPD acquisition unit 91, and causes the audio file acquisition unit 192 to perform the information. Supply.

音声ファイル取得部192は、MPD処理部191から供給されるURLで特定される音声ファイル内の再生対象のトラックのオーディオストリームを、Webサーバ142に要求し、取得する。音声ファイル取得部192は、取得されたオーディオストリームを音声復号処理部194に供給する。 The audio file acquisition unit 192 requests and acquires the audio stream of the track to be reproduced in the audio file specified by the URL supplied from the MPD processing unit 191 from the Web server 142. The audio file acquisition unit 192 supplies the acquired audio stream to the audio decoding processing unit 194.

音声復号処理部194は、音声ファイル取得部192から供給されるオーディオストリームを復号する。音声復号処理部194は、復号の結果得られる音声データを音声合成処理部195に供給する。音声合成処理部195は、音声復号処理部194から供給される音声データを必要に応じて合成し、出力する。 The audio decoding processing unit 194 decodes the audio stream supplied from the audio file acquisition unit 192. The voice decoding processing unit 194 supplies the voice data obtained as a result of decoding to the voice synthesis processing unit 195. The voice synthesis processing unit 195 synthesizes and outputs the voice data supplied from the voice decoding processing unit 194 as necessary.

以上のように、音声ファイル取得部192、音声復号処理部194、および音声合成処理部195は、再生部として機能し、Webサーバ142に格納されている音声ファイルから、再生対象のトラックのオーディオストリームを取得し、再生する。 As described above, the audio file acquisition unit 192, the audio decoding processing unit 194, and the voice synthesis processing unit 195 function as a playback unit, and the audio stream of the track to be played back from the voice file stored in the Web server 142. To get and play.

(動画再生端末の処理の説明)
図19は、図18のストリーミング再生部190の再生処理を説明するフローチャートである。
(Explanation of processing of video playback terminal)
FIG. 19 is a flowchart illustrating a reproduction process of the streaming reproduction unit 190 of FIG.

図19のステップS211において、ストリーミング再生部190のMPD取得部91は、Webサーバ142からMPDファイルを取得し、MPD処理部191に供給する。 In step S211 of FIG. 19, the MPD acquisition unit 91 of the streaming playback unit 190 acquires the MPD file from the Web server 142 and supplies it to the MPD processing unit 191.

ステップS212において、MPD処理部191は、MPD取得部91から供給されるMPDファイルから音声ファイル用の「Segment」に記述される再生対象のセグメントの音声ファイルのURL等の情報を抽出し、音声ファイル取得部192に供給する。 In step S212, the MPD processing unit 191 extracts information such as the URL of the audio file of the segment to be reproduced described in the “Segment” for the audio file from the MPD file supplied from the MPD acquisition unit 91, and the audio file. It is supplied to the acquisition unit 192.

ステップS213において、音声ファイル取得部192は、MPD処理部191から供給されるURLに基づいて、そのURLで特定される音声ファイル内の再生対象のトラックのオーディオストリームを、Webサーバ142に要求し、取得する。音声ファイル取得部192は、取得されたオーディオストリームを音声復号処理部194に供給する。 In step S213, the audio file acquisition unit 192 requests the Web server 142 for the audio stream of the track to be played back in the audio file specified by the URL based on the URL supplied from the MPD processing unit 191. get. The audio file acquisition unit 192 supplies the acquired audio stream to the audio decoding processing unit 194.

ステップS214において、音声復号処理部194は、音声ファイル取得部192から供給されるオーディオストリームを復号する。音声復号処理部194は、復号の結果得られる音声データを音声合成処理部195に供給する。ステップS215において、音声合成処理部195は、音声復号処理部194から供給される音声データを必要に応じて合成し、出力する。 In step S214, the audio decoding processing unit 194 decodes the audio stream supplied from the audio file acquisition unit 192. The voice decoding processing unit 194 supplies the voice data obtained as a result of decoding to the voice synthesis processing unit 195. In step S215, the voice synthesis processing unit 195 synthesizes and outputs the voice data supplied from the voice decoding processing unit 194 as necessary.

(音声ファイルのトラックの第2の例の概要)
なお、上述した説明では、GroupDefinitionやSwitchGroupDefinitionが、サンプルエントリに配置されたが、図20に示すように、トラック内のサブサンプルのグループごとのサンプルエントリであるサンプルグループエントリに配置されるようにしてもよい。
(Overview of the second example of an audio file track)
In the above description, GroupDefinition and SwitchGroupDefinition are placed in the sample entry, but as shown in FIG. 20, they are placed in the sample group entry, which is a sample entry for each group of subsamples in the track. May be good.

この場合、switch Groupを形成するグループのトラックのサンプルグループエントリは、図21に示すように、GroupDefinitionとSwitchGroupDefinitionを含む。図示は省略するが、switch Groupを形成しないグループのトラックのサンプルグループエントリは、GroupDefinitionのみを含む。 In this case, the sample group entries for the tracks of the groups forming the switch Group include the Group Definition and the Switch Group Definition, as shown in FIG. Although not shown, sample group entries for tracks of groups that do not form a switch Group include only Group Definition.

また、各グループのトラックのサンプルエントリは、図22に示すようになる。即ち、図22に示すように、各グループのトラックのサンプルエントリには、対応するトラックのオーディオストリームのプロファイル(MPEGHAudioProfile)、レベル(MPEGHAudioLevel)などのConfig情報が記述されるMHAGroupAudioConfigrationBoxが配置される。 Also, sample entries for the tracks in each group are shown in FIG. That is, as shown in FIG. 22, an MHAGroupAudioConfigrationBox in which Config information such as the profile (MPEGHAudioProfile) and level (MPEGHAudioLevel) of the audio stream of the corresponding track is described is arranged in the sample entry of the track of each group.

(音声ファイルのトラックの第3の例の概要)
図23は、音声ファイルのトラックの第3の例の概要を説明する図である。
(Overview of the third example of an audio file track)
FIG. 23 is a diagram illustrating an outline of a third example of an audio file track.

図23の音声データのトラックの構成は、ベーストラックに3Dオーディオの1以上のグループのオーディオストリームが含まれる点、および、3Dオーディオ全体に関する情報を含まない各トラック(以下、グループトラックという)に分割されるオーディオストリームに対応するグループの数が1以上である点が、図9の構成と異なる。 The structure of the audio data track of FIG. 23 is divided into a point that the base track contains an audio stream of one or more groups of 3D audio and each track (hereinafter referred to as a group track) that does not contain information about the entire 3D audio. It differs from the configuration of FIG. 9 in that the number of groups corresponding to the audio stream to be generated is 1 or more.

即ち、図23のベーストラックのサンプルエントリは、図9と同様に、3Dオーディオのうちの音声データのオーディオストリームが複数のトラックに分割されて配置されるときのベーストラック用のシンタクスを有する、4ccが「mha2」であるサンプルエントリ(図10)である。 That is, the sample entry of the bass track in FIG. 23 has the syntax for the bass track when the audio stream of the audio data of the 3D audio is divided and arranged in a plurality of tracks, as in FIG. 9, 4cc. Is a sample entry (FIG. 10) where is "mha2".

また、グループトラックのサンプルエントリは、図9と同様に、3Dオーディオのうちの音声データのオーディオストリームが複数のトラックに分割されて配置されるときのグループトラック用のシンタクスを有する、4ccが「mhg1」であるサンプルエントリ(図11)である。従って、サンプルエントリの4ccにより、ベーストラックとグループトラックを識別し、トラック間の依存関係を認識することができる。 Further, the sample entry of the group track has the syntax for the group track when the audio stream of the audio data of the 3D audio is divided and arranged in a plurality of tracks, as in FIG. 9, and 4cc is "mhg1". Is a sample entry (FIG. 11). Therefore, 4cc of the sample entry can identify the base track and the group track, and recognize the dependency between the tracks.

また、図9と同様に、各トラックのtrackボックスには、Track Referenceが配置される。従って、「mha2」と「mhg1」のいずれが、ベーストラックまたはグループトラックのサンプルエントリの4ccであるかがわからない場合であっても、Track Referenceにより、トラック間の依存関係を認識することができる。 Further, as in FIG. 9, a Track Reference is arranged in the track box of each track. Therefore, even if it is not known which of "mha2" and "mhg1" is 4cc of the sample entry of the base track or the group track, the dependency between the tracks can be recognized by the Track Reference.

なお、グループトラックのサンプルエントリには、mhgCボックス、およびmhsCボックスが記述されなくてもよい。また、ベーストラックのサンプルエントリに3Dオーディオの全てのグループのconfig情報を含むmhaCボックスが記述される場合には、グループトラックのサンプルエントリにmhaCボックスが記述されなくてもよい。しかしながら、ベーストラックのサンプルエントリにベーストラックを独立して再生可能なconfig情報を含むmhaCボックスが記述される場合には、グループトラックのサンプルエントリに、そのグループトラックを独立して再生可能なconfig情報を含むmhaCボックスが記述される。前者の状態であるか、後者の状態であるかは、サンプルエントリ内のconfig情報の有無で識別可能であるが、サンプルエントリにフラグを記述したり、サンプルエントリのタイプを変化させることにより、識別可能にすることもできる。なお、図示は省略するが、サンプルエントリのタイプを変化させることにより前者の状態と後者の状態を識別可能にする場合、ベーストラックのサンプルエントリの4ccは、例えば、前者の状態である場合「mha2」にされ、後者の状態である場合「mha4」にされる。 Note that the mhgC box and mhsC box do not have to be described in the sample entry of the group track. Further, when the mhaC box containing the config information of all the groups of 3D audio is described in the sample entry of the bass track, the mhaC box may not be described in the sample entry of the group track. However, if the base track sample entry contains a mhaC box that contains config information that allows the base track to be played independently, the group track sample entry contains config information that allows the group track to be played independently. A mhaC box containing is described. Whether it is the former state or the latter state can be identified by the presence or absence of config information in the sample entry, but it can be identified by describing a flag in the sample entry or changing the type of the sample entry. It can also be made possible. Although not shown, when the former state and the latter state can be distinguished by changing the type of the sample entry, 4cc of the sample entry of the bass track is, for example, "mha2" in the case of the former state. , And in the latter state, it is set to "mha4".

(MPDファイルの第2の記述例)
図24は、音声ファイルのトラックの構成が図23の構成である場合のMPDファイルの記述例を示す図である。
(Second description example of MPD file)
FIG. 24 is a diagram showing a description example of an MPD file when the track configuration of the audio file is the configuration of FIG. 23.

図24のMPDファイルは、ベーストラックの「SubRepresentation」が記述される点が、図15のMPDファイルと異なる。 The MPD file of FIG. 24 differs from the MPD file of FIG. 15 in that the "Sub Representation" of the base track is described.

ベーストラックの「SubRepresentation」には、グループトラックの「SubRepresentation」と同様に、ベーストラックの「codecs」、「level」、「dependencyLevel」、および<EssentialProperty schemeIdUri=“urn:mpeg:DASH:3daudio:2014” value=“dataType,definition”>が記述される。 The base track "Sub Representation" has the same base track "codecs", "level", "dependency Level", and <Essential Property schemeIdUri = “urn: mpeg: DASH: 3daudio: 2014” as well as the group track “Sub Representation”. value = “dataType, definition”> is described.

図24の例では、ベーストラックの「codecs」は「mha2.2.1」であり、「level」は、ベーストラックのレベルを表す値としての「0」である。「dependencyLevel」は、グループトラックのレベルを表す値としての「1」および「2」である。また、「dataType」は、ベーストラックのサンプルエントリのmhasボックスに記述されるAudioScene情報を種類として表す番号としての「3」であり、「definition」は、base64方式で符号化されたAudioScene情報のバイナリデータである。 In the example of FIG. 24, the “codecs” of the bass track is “mha2.2.1”, and the “level” is “0” as a value representing the level of the bass track. The "dependency Level" is "1" and "2" as values representing the level of the group track. In addition, "dataType" is "3" as a number representing AudioScene information described in the mhas box of the sample entry of the base track as a type, and "definition" is a binary of AudioScene information encoded by the base64 method. It is data.

なお、図25に示すように、ベーストラックの「SubRepresentation」には、AudioScene情報が分割して記述されるようにしてもよい。 As shown in FIG. 25, the AudioScene information may be divided and described in the "SubRepresentation" of the bass track.

図25の例では、ベーストラックのサンプルエントリのmhasボックスに記述されるAudioScene情報(図7)のうちのグループID「1」のグループの内容を表す「Atmo」を種類として表す番号として「1」が設定されている。 In the example of FIG. 25, “1” is used as the type of “Atmo” representing the contents of the group with the group ID “1” in the AudioScene information (FIG. 7) described in the mhas box of the sample entry of the bass track. Is set.

また、グループID「2」のグループの内容を表す「Dialog EN」、グループID「3」のグループの内容を表す「Dialog FR」、グループID「4」のグループの内容を表す「VoiceOver GE」、グループID「5」のグループの内容を表す「Effects」、グループID「6」のグループの内容を表す「Effect」、グループID「7」のグループの内容を表す「Effect」のそれぞれを種類として表す番号として「2」乃至「7」が設定されている。 In addition, "Dialog EN" representing the contents of the group with group ID "2", "Dialog FR" representing the contents of the group with group ID "3", "VoiceOver GE" representing the contents of the group with group ID "4", "Effects" representing the contents of the group with group ID "5", "Effect" representing the contents of the group with group ID "6", and "Effect" representing the contents of the group with group ID "7" are represented as types. "2" to "7" are set as the numbers.

従って、図25のベーストラックの「SubRepresentation」には、「dataType」が「1」であり、「definition」が「Atmo」である<EssentialProperty schemeIdUri=“urn:mpeg:DASH:3daudio:2014” value=“dataType,definition”>が記述される。同様に、「dataType」がそれぞれ「2」、「3」、「4」、「5」、「6」、「7」であり、「definition」がそれぞれ「Dialog EN」、「Dialog FR」、「VoiceOver GE」、「Effects」、「Effect」、「Effect」である“urn:mpeg:DASH:3daudio:2014” value=“dataType,definition”>が記述される。図25の例では、ベーストラックのAudioScene情報が分割して記述される場合について説明したが、グループトラックのGroupDefinitionおよびSwitchGroupDefinitionも、AudioScene情報と同様に分割して記述されてもよい。 Therefore, in the "Sub Representation" of the bass track in FIG. 25, the "dataType" is "1" and the "definition" is "Atmo". <Essential Property schemeIdUri = "urn: mpeg: DASH: 3daudio: 2014" value = “DataType, definition”> is described. Similarly, "dataType" is "2", "3", "4", "5", "6", "7" respectively, and "definition" is "Dialog EN", "Dialog FR", "Dialog FR", respectively. "VoiceOver GE", "Effects", "Effect", "Effect" "urn: mpeg: DASH: 3daudio: 2014" value = "dataType, definition"> is described. In the example of FIG. 25, the case where the AudioScene information of the base track is described separately has been described, but the GroupDefinition and the SwitchGroupDefinition of the group track may also be described separately in the same manner as the AudioScene information.

(音声ファイルのトラックの第4の例の概要)
図26は、音声ファイルのトラックの第4の例の概要を説明する図である。
(Overview of the fourth example of an audio file track)
FIG. 26 is a diagram illustrating an outline of a fourth example of an audio file track.

図26の音声データのトラックの構成は、グループトラックのサンプルエントリが、4ccが「mha2」であるサンプルエントリである点が、図23の構成と異なる。 The configuration of the audio data track of FIG. 26 is different from the configuration of FIG. 23 in that the sample entry of the group track is a sample entry in which 4cc is “mha2”.

図26の場合、ベーストラックとグループトラックのサンプルエントリの4ccが両方とも「mha2」になる。従って、サンプルエントリの4ccにより、ベーストラックとグループトラックを識別し、トラック間の依存関係を認識することはできない。よって、各トラックのtrackボックスに配置されるTrack Referenceによって、トラック間の依存関係が認識される。 In the case of FIG. 26, the 4cc of the sample entries of the base track and the group track are both “mha2”. Therefore, it is not possible to identify the base track and the group track by the 4cc of the sample entry and recognize the dependency between the tracks. Therefore, the dependency between tracks is recognized by the Track Reference placed in the track box of each track.

また、サンプルエントリの4ccが「mha2」であることにより、対応するトラックが、3Dオーディオのうちの音声データのオーディオストリームが複数のトラックに分割されて配置されるときのトラックであることは識別できる。 Also, since the 4cc of the sample entry is "mha2", it can be identified that the corresponding track is the track when the audio stream of the audio data of the 3D audio is divided into a plurality of tracks and arranged. ..

なお、ベーストラックのサンプルエントリのmhaCボックスには、図9や図23の場合と同様に、3Dオーディオの全てのグループのconfig情報またはベーストラックを独立して再生可能なconfig情報が記述される。また、mhasボックスには、3Dオーディオの全てのグループおよびswitch Groupに関する情報を含むAudioScene情報が記述される。 In the mhaC box of the sample entry of the bass track, config information of all groups of 3D audio or config information capable of independently reproducing the bass track is described as in the case of FIGS. 9 and 23. In addition, Audio Scene information including information about all groups of 3D audio and switch Group is described in the mhas box.

一方、グループトラックのサンプルエントリには、mhasボックスが配置されない。また、ベーストラックのサンプルエントリに3Dオーディオの全てのグループのconfig情報を含むmhaCボックスが記述される場合には、グループトラックのサンプルエントリにmhaCボックスが記述されなくてもよい。しかしながら、ベーストラックのサンプルエントリにベーストラックを独立して再生可能なconfig情報を含むmhaCボックスが記述される場合には、グループトラックのサンプルエントリにグループトラックを独立して再生可能なconfig情報を含むmhaCボックスが記述される。前者の状態であるか、後者の状態であるかは、サンプルエントリ内のconfig情報の有無で識別可能であるが、サンプルエントリにフラグを記述したり、サンプルエントリのタイプを変化させることにより、識別可能にすることもできる。なお、図示は省略するが、サンプルエントリのタイプを変化させることにより、前者の状態と後者の状態を識別可能にする場合、ベーストラックおよびグループトラックのサンプルエントリの4ccは、例えば、前者の状態である場合「mha2」にされ、後者の状態である場合「mha4」にされる。 On the other hand, the mhas box is not placed in the sample entry of the group track. Further, when the mhaC box containing the config information of all the groups of 3D audio is described in the sample entry of the bass track, the mhaC box may not be described in the sample entry of the group track. However, if the base track sample entry contains a mhaC box that contains config information that allows the base track to be played independently, the group track sample entry contains config information that allows the group track to be played independently. The mhaC box is described. Whether it is the former state or the latter state can be identified by the presence or absence of config information in the sample entry, but it can be identified by describing a flag in the sample entry or changing the type of the sample entry. It can also be made possible. Although not shown, when the former state and the latter state can be distinguished by changing the type of the sample entry, 4cc of the sample entry of the base track and the group track is, for example, in the former state. In some cases it is set to "mha2" and in the latter state it is set to "mha4".

(MPDファイルの第3の記述例)
図27は、音声ファイルのトラックの構成が図26の構成である場合のMPDファイルの記述例を示す図である。
(Third description example of MPD file)
FIG. 27 is a diagram showing a description example of an MPD file when the track configuration of the audio file is the configuration of FIG. 26.

図27のMPDファイルは、グループトラックの「SubRepresentation」の「codecs」が「mha2.2.1」である点、および、グループトラックの「SubRepresentation」に<EssentialProperty schemeIdUri=“urn:mpeg:DASH:3daudio:2014” value=“dataType,definition”>が記述されない点が、図24のMPDファイルと異なる。 The MPD file in Fig. 27 shows that the "codecs" of the "SubRepresentation" of the group track is "mha2.2.1" and that the "SubRepresentation" of the group track is <Essential Property schemeIdUri = "urn: mpeg: DASH: 3daudio: 2014". It differs from the MPD file of FIG. 24 in that "value =" dataType, definition "> is not described.

なお、図示は省略するが、図25の場合と同様に、ベーストラックの「SubRepresentation」には、AudioScene情報が分割して記述されるようにしてもよい。 Although not shown, the Audio Scene information may be divided and described in the "Sub Representation" of the base track as in the case of FIG. 25.

(音声ファイルのトラックの第5の例の概要)
図28は、音声ファイルのトラックの第5の例の概要を説明する図である。
(Overview of the fifth example of an audio file track)
FIG. 28 is a diagram illustrating an outline of a fifth example of an audio file track.

図28の音声データのトラックの構成は、ベーストラックとグループトラックのサンプルエントリが、3Dオーディオのうちの音声データのオーディオストリームが複数のトラックに分割されているときのベーストラックとグループトラックの両方に適したシンタクスを有するサンプルエントリである点が、図23の構成と異なる。 The composition of the audio data track in FIG. 28 is such that the sample entries of the base track and the group track are for both the base track and the group track when the audio stream of the audio data in the 3D audio is divided into a plurality of tracks. It differs from the configuration of FIG. 23 in that it is a sample entry with suitable syntax.

図28の場合、ベーストラックとグループトラックのサンプルエントリの4ccが両方とも、ベーストラックとグループトラックの両方に適したシンタクスを有するサンプルエントリの4ccである「mha3」になる。 In the case of FIG. 28, the 4cc of the sample entry of the bass track and the group track is both “mha3” which is the 4cc of the sample entry having the syntax suitable for both the bass track and the group track.

従って、図26の場合と同様に、各トラックのtrackボックスに配置されるTrack Referenceによって、トラック間の依存関係が認識される。また、サンプルエントリの4ccが「mha3」であることにより、対応するトラックが、3Dオーディオのうちの音声データのオーディオストリームが複数のトラックに分割されて配置されるときのトラックであることは識別できる。 Therefore, as in the case of FIG. 26, the dependency between tracks is recognized by the Track Reference placed in the track box of each track. Also, since the 4cc of the sample entry is "mha3", it can be identified that the corresponding track is the track when the audio stream of the audio data of the 3D audio is divided into a plurality of tracks and arranged. ..

(4ccが「mha3」であるサンプルエントリのシンタクスの例)
図29は、4ccが「mha3」であるサンプルエントリのシンタクスの例を示す図である。
(Example of sample entry syntax where 4cc is "mha3")
FIG. 29 is a diagram showing an example of the syntax of the sample entry in which 4cc is “mha3”.

図29に示すように、4cc「mha3」のサンプルエントリのシンタクスは、図10のシンタクスと図11のシンタクスを合成したものである。 As shown in FIG. 29, the syntax of the sample entry of 4cc “mha3” is a composite of the syntax of FIG. 10 and the syntax of FIG.

即ち、4ccが「mha3」であるサンプルエントリには、mhaCボックス(MHAConfigration Box)、mhasボックス(MHAAudioSceneInfo Box)、mhgCボックス(MHAGroupDefinitionBox)、mhsCボックス(MHASwitchGropuDefinition Box)等が配置される。 That is, in the sample entry where 4cc is "mha3", mhaC box (MHAConfigration Box), mhas box (MHAAudioSceneInfo Box), mhgC box (MHAGroupDefinitionBox), mhsC box (MHASwitchGropuDefinition Box) and the like are arranged.

ベーストラックのサンプルエントリのmhaCボックスには、3Dオーディオの全てのグループのconfig情報またはベーストラックを独立して再生可能なconfig情報が記述される。また、mhasボックスには、3Dオーディオの全てのグループおよびswitch Groupに関する情報を含むAudioScene情報が記述され、mhgCボックスとmhsCボックスは配置されない。 In the mhaC box of the sample entry of the bass track, the config information of all groups of 3D audio or the config information that can play the bass track independently is described. In addition, AudioScene information including information on all groups of 3D audio and switch Group is described in the mhas box, and the mhgC box and the mhsC box are not arranged.

ベーストラックのサンプルエントリに3Dオーディオの全てのグループのconfig情報を含むmhaCボックスが記述される場合には、グループトラックのサンプルエントリにmhaCボックスが記述されなくてもよい。しかしながら、ベーストラックのサンプルエントリにベーストラックを独立して再生可能なconfig情報を含むmhaCボックスが記述される場合には、グループトラックのサンプルエントリにグループトラックを独立して再生可能なconfig情報を含むmhaCボックスが記述される。前者の状態であるか、後者の状態であるかは、サンプルエントリ内のconfig情報の有無で識別可能であるが、サンプルエントリにフラグを記述したり、サンプルエントリのタイプを変化させることにより、識別可能にすることもできる。なお、図示は省略するが、サンプルエントリのタイプを変化させることにより、前者の状態と後者の状態を識別可能にする場合、ベーストラックおよびグループトラックのサンプルエントリの4ccは、例えば、前者の状態である場合「mha3」にされ、後者の状態である場合「mha5」にされる。また、グループトラックのサンプルエントリには、mhasボックスは配置されない。mhgCボックスおよびmhsCボックスは配置されてもよいし、配置されなくてもよい。 If the sample entry of the bass track contains the mhaC box containing the config information of all groups of 3D audio, the sample entry of the group track does not have to describe the mhaC box. However, if the base track sample entry contains a mhaC box that contains config information that allows the base track to be played independently, the group track sample entry contains config information that allows the group track to be played independently. The mhaC box is described. Whether it is the former state or the latter state can be identified by the presence or absence of config information in the sample entry, but it can be identified by describing a flag in the sample entry or changing the type of the sample entry. It can also be made possible. Although not shown, when the former state and the latter state can be distinguished by changing the type of the sample entry, 4cc of the sample entry of the base track and the group track is, for example, in the former state. In some cases it is set to "mha3" and in the latter state it is set to "mha5". Also, the mhas box is not placed in the sample entry of the group track. The mhgC box and mhsC box may or may not be placed.

なお、図30に示すように、ベーストラックのサンプルエントリには、mhasボックス、mhgCボックス、およびmhsCボックスが配置されるとともに、ベーストラックだけを独立して再生可能にするconfig情報が記述されるmhaCボックスと3Dオーディオの全てのグループのconfig情報を含むmhaCボックスが両方配置されるようにしてもよい。この場合、3Dオーディオの全てのグループのconfig情報が記述されるmhaCボックスと、ベーストラックだけを独立して再生可能にするconfig情報が記述されるmhaCボックスとは、これらのmhaCボックスに含まれるフラグによって識別される。また、この場合、グループトラックのサンプルエントリには、mhaCボックスが記述されなくてもよい。グループトラックのサンプルエントリにmhaCボックスが記述されるかどうかは、グループトラックのサンプルエントリ内のmhaCボックスの有無で識別可能であるが、サンプルエントリにフラグを記述したり、サンプルエントリのタイプを変化させることにより、識別可能にすることもできる。なお、図示は省略するが、サンプルエントリのタイプを変化させることにより、グループトラックのサンプルエントリにmhaCボックスが記述されるかどうかを識別可能にする場合、ベーストラックおよびグループトラックのサンプルエントリの4ccは、例えば、グループトラックのサンプルエントリにmhaCボックスが記述される場合「mha3」にされ、グループトラックのサンプルエントリにmhaCボックスが記述されない場合「mha5」にされる。なお、図30において、ベーストラックのサンプルエントリには、mhgCボックスとmhsCボックスが記述されなくてもよい。 As shown in FIG. 30, the mhas box, mhgC box, and mhsC box are arranged in the sample entry of the base track, and mhaC that describes the config information that enables only the base track to be played independently. Both the box and the mhaC box containing the config information for all groups of 3D audio may be placed. In this case, the mhaC box in which the config information of all groups of 3D audio is described and the mhaC box in which the config information that enables only the bass track to be played independently are described are the flags included in these mhaC boxes. Identified by. Further, in this case, the mhaC box does not have to be described in the sample entry of the group track. Whether or not the mhaC box is described in the sample entry of the group track can be identified by the presence or absence of the mhaC box in the sample entry of the group track, but a flag is described in the sample entry or the type of the sample entry is changed. It can also be made identifiable. Although not shown, if the type of sample entry is changed so that it is possible to identify whether or not the mhaC box is described in the sample entry of the group track, 4cc of the sample entry of the base track and the group track is For example, if the mhaC box is described in the sample entry of the group track, it is set to "mha3", and if the sample entry of the group track does not describe the mhaC box, it is set to "mha5". In FIG. 30, the mhgC box and the mhsC box may not be described in the sample entry of the base track.

(MPDファイルの第4の記述例)
図31は、音声ファイルのトラックの構成が図28または図30の構成である場合のMPDファイルの記述例を示す図である。
(Fourth description example of MPD file)
FIG. 31 is a diagram showing a description example of an MPD file when the track configuration of the audio file is the configuration of FIG. 28 or FIG. 30.

図31のMPDファイルは、「Representation」の「codecs」が「mha3.3.1」である点、および、「SubRepresentation」の「codecs」が「mha3.2.1」である点が、図24のMPDファイルと異なる。 The MPD file in Fig. 31 is different from the MPD file in Fig. 24 in that the "codecs" of "Representation" is "mha3.3.1" and the "codecs" of "SubRepresentation" is "mha3.2.1". different.

なお、図示は省略するが、図25の場合と同様に、ベーストラックの「SubRepresentation」には、AudioScene情報が分割して記述されるようにしてもよい。 Although not shown, the Audio Scene information may be divided and described in the "Sub Representation" of the base track as in the case of FIG. 25.

また、上述した説明では、各トラックのtrackボックスにTrack Referenceが配置されるようにしたが、Track Referenceは配置されなくてもよい。例えば、図32乃至図34は、それぞれ、図23、図26、図28の音声ファイルのトラックのtrackボックスにTrack Referenceが配置されない場合を示す図である。図32の場合、Track Referenceは配置されないが、ベーストラックとグループトラックのサンプルエントリの4ccが異なるため、トラック間の依存関係を認識することができる。図33および図34の場合、mhasボックスが配置されていることで、ベーストラックか否かを識別することができる。 Further, in the above description, the Track Reference is arranged in the track box of each track, but the Track Reference does not have to be arranged. For example, FIGS. 32 to 34 are diagrams showing a case where the Track Reference is not placed in the track box of the tracks of the audio files of FIGS. 23, 26, and 28, respectively. In the case of FIG. 32, the Track Reference is not arranged, but since the 4cc of the sample entries of the base track and the group track are different, the dependency between the tracks can be recognized. In the case of FIGS. 33 and 34, it is possible to identify whether or not the track is a bass track by arranging the mhas box.

音声ファイルのトラックの構成が、図32乃至図34の構成である場合のMPDファイルは、それぞれ、図24、図27、図31のMPDファイルと同一である。なお、この場合も、ベーストラックの「SubRepresentation」には、図25の場合と同様に、AudioScene情報が分割して記述されるようにしてもよい。 When the track structure of the audio file is the structure of FIGS. 32 to 34, the MPD file is the same as the MPD file of FIGS. 24, 27, and 31, respectively. In this case as well, the Audio Scene information may be divided and described in the "Sub Representation" of the bass track, as in the case of FIG. 25.

(音声ファイルのトラックの第6の例の概要)
図35は、音声ファイルのトラックの第6の例の概要を説明する図である。
(Overview of the sixth example of an audio file track)
FIG. 35 is a diagram illustrating an outline of a sixth example of an audio file track.

図35の音声データのトラックの構成は、ベーストラックのサンプルに、各グループのトラックのサンプルへの参照情報や、その参照情報の復号に必要なconfig情報が配置されず、0以上のグループのオーディオストリームが含まれる点、および、ベーストラックのサンプルエントリに、各グループのトラックのサンプルへの参照情報が記述される点が、図33の構成と異なっている。 In the track configuration of the audio data in FIG. 35, the reference information to the track sample of each group and the config information necessary for decoding the reference information are not arranged in the base track sample, and the audio of 0 or more groups is used. It differs from the configuration of FIG. 33 in that the stream is included and the reference information to the sample of the track of each group is described in the sample entry of the base track.

具体的には、3Dオーディオのうちの音声データのオーディオストリームが複数のトラックに分割されているときのベーストラック用のシンタクスを有する、4ccが「mha2」であるサンプルエントリに、AudioScene情報に記述されている各グループがどのトラックに分割されているかを記述するmhmtボックスが新たに配置される。 Specifically, it is described in the AudioScene information in the sample entry where 4cc is "mha2", which has the syntax for the bass track when the audio stream of the audio data of the 3D audio is divided into multiple tracks. A new mhmt box will be placed to describe which track each group is divided into.

(4ccが「mha2」であるサンプルエントリのシンタクスの他の例)
図36は、4ccが「mha2」である図35のベーストラックおよびグループトラックのサンプルエントリのシンタクスの例を示す図である。
(Another example of sample entry syntax where 4cc is "mha2")
FIG. 36 is a diagram showing an example of the syntax of the sample entries of the base track and group track of FIG. 35 in which 4cc is “mha2”.

図36の4ccが「mha2」であるサンプルエントリの構成は、MHAMultiTrackDescriptionボックス(mhmtボックス)が配置される点が、図10の構成と異なっている。 The configuration of the sample entry in which 4cc in FIG. 36 is “mha2” is different from the configuration in FIG. 10 in that the MHAMultiTrackDescription box (mhmt box) is arranged.

mhmtボックスには、参照情報として、グループID(group_ID)とトラックID(track_ID)の対応関係が記述される。なお、mhmtボックスでは、オーディオエレメントとトラックIDが対応付けて記述されるようにしてもよい。 In the mhmt box, the correspondence between the group ID (group_ID) and the track ID (track_ID) is described as reference information. In the mhmt box, the audio element and the track ID may be described in association with each other.

参照情報がサンプルごとに変化しない場合、mhmtボックスをサンプルエントリに配置することにより、効率良く参照情報を記述することができる。 If the reference information does not change from sample to sample, the reference information can be described efficiently by placing the mhmt box in the sample entry.

なお、図示は省略するが、図9、図20、図23、図26、図28、図30、図32、および図34の場合においても、同様に、ベーストラックのサンプルに各グループのトラックのサンプルへの参照情報を記述する代わりに、ベーストラックのサンプルエントリにmhmtボックスを配置させるようにすることができる。 Although not shown, in the case of FIGS. 9, 20, 23, 26, 28, 30, 32, and 34, similarly, the base track samples of the tracks of each group are used. Instead of writing reference information to the sample, you can have the mhmt box placed in the sample entry on the base track.

この場合、4ccが「mha3」であるサンプルエントリのシンタクスは、図37に示すようになる。即ち、図37の4ccが「mha3」であるサンプルエントリの構成は、MHAMultiTrackDescriptionボックス(mhmtボックス)が配置される点が、図29の構成と異なっている。 In this case, the syntax of the sample entry where 4cc is "mha3" is as shown in FIG. 37. That is, the configuration of the sample entry in which 4cc in FIG. 37 is “mha3” is different from the configuration in FIG. 29 in that the MHAMultiTrackDescription box (mhmt box) is arranged.

また、図23、図26、図28、図30、図32乃至図34、および図35において、図9と同様に、ベーストラックに3Dオーディオの1以上のグループのオーディオストリームが含まれないようにしてもよい。また、各グループトラックに分割されるオーディオストリームに対応するグループの数が1つであってもよい。 Also, in FIGS. 23, 26, 28, 30, 32 to 34, and 35, the base track should not include one or more groups of 3D audio streams, as in FIG. You may. Further, the number of groups corresponding to the audio streams divided into each group track may be one.

さらに、図23、図26、図28、図30、図32乃至図34、および図35において、図20の場合と同様に、GroupDefinitionやSwitchGroupDefinitionが、サンプルグループエントリに配置されるようにしてもよい。 Further, in FIGS. 23, 26, 28, 30, 32 to 34, and 35, the Group Definition and the Switch Group Definition may be arranged in the sample group entry as in the case of FIG. 20. ..

<第2実施の形態>
(トラックの概要)
図38は、本開示を適用した第2実施の形態におけるトラックの概要を説明する図である。
<Second Embodiment>
(Overview of the truck)
FIG. 38 is a diagram illustrating an outline of a truck according to a second embodiment to which the present disclosure is applied.

図38に示すように、第2実施の形態では、各トラックが異なるファイル(3da_base.mp4/3da_group1.mp4/3da_group2.mp4/3da_group3.mp4/3da_group4.mp4)として記録される点が、第1実施の形態と異なっている。この場合、所望のトラックのファイルを、HTTPを介して取得することにより、所望のトラックのデータのみを取得することができる。従って、HTTPを介した所望のトラックのデータの取得を効率的に行うことができる。 As shown in FIG. 38, in the second embodiment, each track is recorded as a different file (3da_base.mp4 / 3da_group1.mp4 / 3da_group2.mp4 / 3da_group3.mp4 / 3da_group4.mp4). It is different from the form of. In this case, by acquiring the file of the desired track via HTTP, only the data of the desired track can be acquired. Therefore, it is possible to efficiently acquire the data of the desired track via HTTP.

(MPDファイルの記述例)
図39は、本開示を適用した第2実施の形態におけるMPDファイルの記述例を示す図である。
(Example of MPD file description)
FIG. 39 is a diagram showing a description example of an MPD file in the second embodiment to which the present disclosure is applied.

図39に示すように、MPDファイルには、3Dオーディオの各音声ファイル(3da_base.mp4/3da_group1.mp4/3da_group2.mp4/3da_group3.mp4/3da_group4.mp4)のセグメントを管理する「Representation」等が記述される。 As shown in FIG. 39, the MPD file describes a "Representation" or the like that manages the segments of each 3D audio file (3da_base.mp4 / 3da_group1.mp4 / 3da_group2.mp4 / 3da_group3.mp4 / 3da_group4.mp4). Will be done.

「Representation」には、「codecs」、「id」、「associationId」、および「assciationType」が含まれる。「id」は、それを含む「Representation」のIDである。「associationId」は、対応するトラックと他のトラックとの参照関係を表す情報であり、参照トラックの「id」である。「assciationType」は、参照トラックとの参照関係(依存関係)の意味を表すコードであり、例えばMP4のtrack referenceの値と同じものが用いられる。 "Representation" includes "codecs", "id", "associationId", and "assciationType". The "id" is the ID of the "Representation" including it. The "associationId" is information representing the reference relationship between the corresponding track and another track, and is the "id" of the reference track. The "assciation Type" is a code that expresses the meaning of the reference relationship (dependency) with the reference track, and for example, the same value as the MP4 track reference value is used.

また、各グループのトラックの「Representation」には、<EssentialProperty schemeIdUri=“urn:mpeg:DASH:3daudio:2014” value=“dataType,definition”>も含まれる。図39の例では、1つの「AdaptationSet」の下に、各音声ファイルのセグメントを管理する「Representation」が設けられているが、各音声ファイルのセグメントごとに「AdaptationSet」が設けられ、その下に、そのセグメントを管理する「Representation」が設けられるようにしてもよい。この場合、各「AdaptationSet」には、「associationId」と、「assciationType」と同様に参照トラックとの参照関係の意味を表す<EssentialProperty schemeIdUri=“urn:mpeg:DASH:3daudioAssociationData:2014” value=“dataType,id”>が、記述されるようにしてもよい。また、ベーストラックとグループトラックの「Representation」に記述されているAudioScene情報、GroupDefinition、SwitchGroupDefinitionは、図25の場合と同様に、分割して記述されるようにしてもよい。さらに、各「AdaptationSet」には、「Representation」に分割して記述されたAudioScene情報、GroupDefinition、SwitchGroupDefinitionが記述されてもよい。 The "Representation" of each group track also includes <EssentialProperty schemeIdUri = “urn: mpeg: DASH: 3daudio: 2014” value = “dataType, definition”>. In the example of FIG. 39, "Representation" for managing the segments of each audio file is provided under one "Adaptation Set", but "Adaptation Set" is provided for each segment of each audio file, and under that. , A "Representation" that manages the segment may be provided. In this case, each "AdaptationSet" has <EssentialProperty schemeIdUri = “urn: mpeg: DASH: 3daudioAssociationData: 2014” value = “dataType” that represents the meaning of the reference relationship between the “associationId” and the reference track as well as the “assciationType”. , id ”> may be described. Further, the AudioScene information, the GroupDefinition, and the SwitchGroupDefinition described in the "Representation" of the bass track and the group track may be described separately as in the case of FIG. 25. Further, in each "Adaptation Set", AudioScene information, GroupDefinition, and SwitchGroupDefinition described by dividing into "Representation" may be described.

(情報処理システムの概要)
図40は、本開示を適用した第2実施の形態における情報処理システムの概要を説明する図である。
(Overview of information processing system)
FIG. 40 is a diagram illustrating an outline of an information processing system according to a second embodiment to which the present disclosure is applied.

図40に示す構成のうち、図8の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。 Of the configurations shown in FIG. 40, the same configurations as those in FIG. 8 are designated by the same reference numerals. Duplicate explanations will be omitted as appropriate.

図40の情報処理システム210は、ファイル生成装置211と接続されるWebサーバ212と動画再生端末214が、インターネット13を介して接続されることにより構成される。 The information processing system 210 of FIG. 40 is configured by connecting a Web server 212 connected to the file generation device 211 and a moving image playback terminal 214 via the Internet 13.

情報処理システム210では、MPEG−DASHに準ずる方式で、Webサーバ142が、再生対象のグループの音声ファイルのオーディオストリームを、動画再生端末144に配信する。 In the information processing system 210, the Web server 142 distributes the audio stream of the audio file of the group to be reproduced to the moving image reproduction terminal 144 by a method similar to MPEG-DASH.

具体的には、ファイル生成装置211は、動画コンテンツの3Dオーディオの各音声データとメタデータを、それぞれ、複数の符号化速度で符号化し、オーディオストリームを生成する。ファイル生成装置211は、オーディオストリームをグループおよびExtエレメントのタイプごとに分割し、異なるトラックのオーディオストリームとする。ファイル生成装置211は、符号化速度、セグメント、およびトラックごとに、オーディオストリームをファイル化し、音声ファイルを生成する。ファイル生成装置211は、その結果得られる音声ファイルをWebサーバ212にアップロードする。また、ファイル生成装置211は、MPDファイルを生成し、Webサーバ212にアップロードする。 Specifically, the file generation device 211 encodes each audio data and metadata of the 3D audio of the moving image content at a plurality of coding speeds to generate an audio stream. The file generator 211 divides the audio stream into groups and types of Ext elements into audio streams of different tracks. The file generation device 211 files an audio stream for each coding speed, segment, and track, and generates an audio file. The file generation device 211 uploads the resulting audio file to the Web server 212. Further, the file generation device 211 generates an MPD file and uploads it to the Web server 212.

Webサーバ212は、ファイル生成装置211からアップロードされた符号化速度、セグメント、およびトラックごとの音声ファイルとMPDファイルを格納する。Webサーバ212は、動画再生端末214からの要求に応じて、格納している音声ファイル、MPDファイル等を動画再生端末214に送信する。 The Web server 212 stores the audio file and MPD file for each encoding speed, segment, and track uploaded from the file generation device 211. The Web server 212 transmits the stored audio file, MPD file, etc. to the video playback terminal 214 in response to the request from the video playback terminal 214.

動画再生端末214は、制御用ソフトウエア221、動画再生ソフトウエア162、アクセス用ソフトウエア223などを実行する。 The video playback terminal 214 executes control software 221, video playback software 162, access software 223, and the like.

制御用ソフトウエア221は、Webサーバ212からストリーミングするデータを制御するソフトウエアである。具体的には、制御用ソフトウエア221は、動画再生端末214にWebサーバ212からMPDファイルを取得させる。 The control software 221 is software that controls data streamed from the Web server 212. Specifically, the control software 221 causes the moving image playback terminal 214 to acquire the MPD file from the Web server 212.

また、制御用ソフトウエア221は、MPDファイルに基づいて、動画再生ソフトウエア162により指定される再生対象のグループ、および、そのグループに対応するExtエレメントのタイプの音声ファイルのオーディオストリームの送信要求を、アクセス用ソフトウエア223に指令する。 Further, the control software 221 requests the transmission target group specified by the video playback software 162 and the audio stream transmission request of the audio file of the Ext element type corresponding to the group based on the MPD file. , Command the access software 223.

アクセス用ソフトウエア223は、HTTPを用いたインターネット13を介したWebサーバ212との通信を制御するソフトウエアである。具体的には、アクセス用ソフトウエア223は、制御用ソフトウエア221の指令に応じて、再生対象の音声ファイルのオーディオストリームの送信要求を、動画再生端末144に送信させる。また、アクセス用ソフトウエア223は、その送信要求に応じて、Webサーバ212から送信されてくるオーディオストリームの受信を動画再生端末144に開始させ、受信開始の通知を動画再生ソフトウエア162に供給する。 The access software 223 is software that controls communication with the Web server 212 via the Internet 13 using HTTP. Specifically, the access software 223 causes the moving image playback terminal 144 to transmit a transmission request for an audio stream of the audio file to be played back in response to a command from the control software 221. Further, the access software 223 starts the reception of the audio stream transmitted from the Web server 212 to the video playback terminal 144 in response to the transmission request, and supplies the notification of the start of reception to the video playback software 162. ..

(ファイル生成装置の構成例)
図41は、図40のファイル生成装置211の構成例を示すブロック図である。
(Configuration example of file generator)
FIG. 41 is a block diagram showing a configuration example of the file generation device 211 of FIG. 40.

図41に示す構成のうち、図16の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。 Of the configurations shown in FIG. 41, the same configurations as those in FIG. 16 are designated by the same reference numerals. Duplicate explanations will be omitted as appropriate.

図41のファイル生成装置211の構成は、音声ファイル生成部172、MPD生成部173の代わりに、音声ファイル生成部241、MPD生成部242が設けられる点が、図16のファイル生成装置141の構成と異なる。 The configuration of the file generation device 211 of FIG. 41 is such that the audio file generation unit 241 and the MPD generation unit 242 are provided instead of the audio file generation unit 172 and the MPD generation unit 173. Different from.

具体的には、ファイル生成装置211の音声ファイル生成部241は、音声符号化処理部171から供給されるオーディオストリームに対して、グループおよびExtエレメントのタイプごとにトラックを割り当てる。音声ファイル生成部241は、符号化速度、セグメント、およびトラックごとに、オーディオストリームを配置した音声ファイルを生成する。音声ファイル生成部241は、生成された音声ファイルをMPD生成部242に供給する。 Specifically, the audio file generation unit 241 of the file generation device 211 allocates tracks to the audio stream supplied from the audio coding processing unit 171 for each group and type of Ext element. The audio file generation unit 241 generates an audio file in which an audio stream is arranged for each coding speed, segment, and track. The audio file generation unit 241 supplies the generated audio file to the MPD generation unit 242.

MPD生成部242は、音声ファイル生成部172から供給される音声ファイルを格納するWebサーバ142のURL等を決定する。MPD生成部242は、音声ファイルのURL等が、その音声ファイル用の「Representation」の「Segment」に配置されたMPDファイルを生成する。MPD生成部173は、生成されたMPDファイルと音声ファイルをサーバアップロード処理部174に供給する。 The MPD generation unit 242 determines the URL of the Web server 142 that stores the audio file supplied from the audio file generation unit 172. The MPD generation unit 242 generates an MPD file in which the URL or the like of the audio file is arranged in the “Segment” of the “Representation” for the audio file. The MPD generation unit 173 supplies the generated MPD file and audio file to the server upload processing unit 174.

(ファイル生成装置の処理の説明)
図42は、図41のファイル生成装置211のファイル生成処理を説明するフローチャートである。
(Explanation of processing of file generator)
FIG. 42 is a flowchart illustrating the file generation process of the file generation device 211 of FIG. 41.

図42のステップS301およびS302の処理は、図17のステップS191およびS192の処理と同様であるので、説明は省略する。 Since the processing of steps S301 and S302 of FIG. 42 is the same as the processing of steps S191 and S192 of FIG. 17, the description thereof will be omitted.

ステップS303において、音声ファイル生成部241は、符号化速度、セグメント、およびトラックごとに、オーディオストリームが配置された音声ファイルを生成する。音声ファイル生成部241は、生成された音声ファイルをMPD生成部242に供給する。 In step S303, the audio file generation unit 241 generates an audio file in which an audio stream is arranged for each coding speed, segment, and track. The audio file generation unit 241 supplies the generated audio file to the MPD generation unit 242.

ステップS304およびS305の処理は、図17のステップS194およびS195の処理と同様であるので、説明は省略する。 Since the processing of steps S304 and S305 is the same as the processing of steps S194 and S195 of FIG. 17, the description thereof will be omitted.

(動画再生端末の機能的構成例)
図43は、図40の動画再生端末214が制御用ソフトウエア221、動画再生ソフトウエア162、およびアクセス用ソフトウエア223を実行することにより実現されるストリーミング再生部の構成例を示すブロック図である。
(Example of functional configuration of video playback terminal)
FIG. 43 is a block diagram showing a configuration example of a streaming playback unit realized by the video playback terminal 214 of FIG. 40 executing the control software 221 and the video playback software 162, and the access software 223. ..

図43に示す構成のうち、図18の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。 Of the configurations shown in FIG. 43, the same configurations as those in FIG. 18 are designated by the same reference numerals. Duplicate explanations will be omitted as appropriate.

図43のストリーミング再生部260の構成は、音声ファイル取得部192の代わりに、音声ファイル取得部264が設けられる点が、図18のストリーミング再生部190の構成と異なる。 The configuration of the streaming playback unit 260 of FIG. 43 is different from the configuration of the streaming playback unit 190 of FIG. 18 in that an audio file acquisition unit 264 is provided instead of the audio file acquisition unit 192.

音声ファイル取得部264は、MPD処理部191から供給されるURLのうちの、再生対象のトラックの音声ファイルのURLに基づいて、その音声ファイルのオーディオストリームをWebサーバ142に要求し、取得する。音声ファイル取得部264は、取得されたオーディオストリームを音声復号処理部194に供給する。 The audio file acquisition unit 264 requests and acquires the audio stream of the audio file from the Web server 142 based on the URL of the audio file of the track to be reproduced among the URLs supplied from the MPD processing unit 191. The audio file acquisition unit 264 supplies the acquired audio stream to the audio decoding processing unit 194.

即ち、音声ファイル取得部264、音声復号処理部194、および音声合成処理部195は、再生部として機能し、Webサーバ212に格納されている音声ファイルから、再生対象のトラックの音声ファイルのオーディオストリームを取得し、再生する。 That is, the audio file acquisition unit 264, the audio decoding processing unit 194, and the voice synthesis processing unit 195 function as a playback unit, and from the audio file stored in the Web server 212, the audio stream of the audio file of the track to be reproduced. To get and play.

(動画再生端末の処理の説明)
図44は、図43のストリーミング再生部260の再生処理を説明するフローチャートである。
(Explanation of processing of video playback terminal)
FIG. 44 is a flowchart illustrating the reproduction process of the streaming reproduction unit 260 of FIG. 43.

図44のステップS321およびS322の処理は、図19のステップS211およびS212の処理と同様であるので、説明は省略する。 Since the processing of steps S321 and S322 of FIG. 44 is the same as the processing of steps S211 and S212 of FIG. 19, the description thereof will be omitted.

ステップS323において、音声ファイル取得部192は、MPD処理部191から供給されるURLのうちの、再生対象のトラックの音声ファイルのURLに基づいて、その音声ファイルのオーディオストリームをWebサーバ142に要求し、取得する。音声ファイル取得部264は、取得されたオーディオストリームを音声復号処理部194に供給する。 In step S323, the audio file acquisition unit 192 requests the Web server 142 for the audio stream of the audio file based on the URL of the audio file of the track to be played back among the URLs supplied from the MPD processing unit 191. ,get. The audio file acquisition unit 264 supplies the acquired audio stream to the audio decoding processing unit 194.

ステップS324およびS325の処理は、図19のステップS214およびS215の処理と同様であるので、説明は省略する。 Since the processing of steps S324 and S325 is the same as the processing of steps S214 and S215 of FIG. 19, the description thereof will be omitted.

なお、第2実施の形態においても、第1実施の形態と同様に、GroupDefinitionやSwitchGroupDefinitionが、サンプルグループエントリに配置されるようにしてもよい。 In the second embodiment as well, the Group Definition and the Switch Group Definition may be arranged in the sample group entry as in the first embodiment.

また、第2実施の形態においても、第1実施の形態と同様に、音声データのトラックの構成を、図23、図26、図28、図30、図32乃至図34、および図35に示した構成にすることができる。 Further, also in the second embodiment, the configuration of the audio data track is shown in FIGS. 23, 26, 28, 30, 32 to 34, and 35, as in the first embodiment. Can be configured.

図45乃至図47は、それぞれ、第2実施の形態において、音声データのトラックの構成が、図23、図26、図28に示した構成である場合のMPDを示す図である。第2実施の形態において、音声データのトラックの構成が図32、図33または図35、図34に示した構成である場合のMPDは、それぞれ、図23、図26、図28に示した構成である場合のMPDと同一である。 45 to 47 are diagrams showing MPDs when the audio data track configuration is the configuration shown in FIGS. 23, 26, and 28 in the second embodiment, respectively. In the second embodiment, the MPDs when the configuration of the audio data track is the configuration shown in FIGS. 32, 33 or 35, and 34 are the configurations shown in FIGS. 23, 26, and 28, respectively. It is the same as MPD when.

図45のMPDは、ベーストラックの「codecs」および「associationId」、並びに、ベーストラックの「Representation」に<EssentialProperty schemeIdUri=“urn:mpeg:DASH:3daudio:2014” value=“dataType,definition”>が含まれる点が、図39のMPDと異なっている。具体的には、図45のMPDのベーストラックの「Representation」の「codecs」は、「mha2.2.1」であり、「associationId」は、グループトラックの「id」である「g1」と「g2」である。 In the MPD of FIG. 45, <EssentialProperty schemeIdUri = “urn: mpeg: DASH: 3daudio: 2014” value = “dataType, definition”> is set in the “codecs” and “associationId” of the base track and the “Representation” of the base track. It differs from the MPD in FIG. 39 in that it is included. Specifically, the "codecs" of the "Representation" of the MPD base track in FIG. 45 is "mha2.2.1", and the "associationId" is the "id" of the group tracks "g1" and "g2". Is.

また、図46のMPDは、グループトラックの「codecs」、および、グループトラックの「Representation」に<EssentialProperty schemeIdUri=“urn:mpeg:DASH:3daudio:2014” value=“dataType,definition”>が含まれない点が、図45のMPDと異なっている。具体的には、図46のMPDのグループトラックの「codecs」は、「mha2.2.1」である。 Further, in the MPD of FIG. 46, <EssentialProperty schemeIdUri = “urn: mpeg: DASH: 3daudio: 2014” value = “dataType, definition”> is included in the “codecs” of the group track and the “Representation” of the group track. It differs from the MPD in FIG. 45 in that it does not. Specifically, the “codecs” of the MPD group track in FIG. 46 is “mha2.2.1”.

また、図47のMPDは、ベーストラックとグループトラックとの「codecs」が、図45のMPDと異なっている。具体的には、図47のMPDのグループトラックの「codecs」は、「mha3.2.1」である。 Further, in the MPD of FIG. 47, the “codecs” of the base track and the group track are different from those of the MPD of FIG. 45. Specifically, the “codecs” of the MPD group track in FIG. 47 is “mha3.2.1”.

なお、図45乃至図47のMPDにおいて、図48乃至図50に示すように、「Representation」ごとに「AdaptationSet」を分けることもできる。 In the MPDs of FIGS. 45 to 47, as shown in FIGS. 48 to 50, the “Adaptation Set” can be divided for each “Representation”.

<ベーストラックの他の例>
上述した説明では、ベーストラックは1つだけ設けられたが、複数設けられるようにしてもよい。この場合、ベーストラックは、例えば、3Dオーディオの視点(詳細は後述する)ごとに設けられ、ベーストラックには、各視点の3Dオーディオの全てのグループのconfig情報を含むmhaCボックスが配置される。なお、各ベーストラックには、各視点のAudioScene情報を含むmhasボックスが配置されるようにしてもよい。
<Other examples of bass tracks>
In the above description, only one base track is provided, but a plurality of base tracks may be provided. In this case, a bass track is provided for each viewpoint of 3D audio (details will be described later), and a mhaC box containing config information of all groups of 3D audio of each viewpoint is arranged on the bass track. A mhas box containing AudioScene information of each viewpoint may be arranged on each bass track.

3Dオーディオの視点とは、その3Dオーディオが聴こえる位置であり、3Dオーディオと同時に再生される画像の視点や予め設定された所定の位置などである。 The viewpoint of 3D audio is a position where the 3D audio can be heard, such as a viewpoint of an image reproduced at the same time as the 3D audio, a predetermined position set in advance, and the like.

以上のように、視点ごとにベーストラックが設けられる場合、各視点のconfig情報に含まれるオブジェクトの画面上の位置等に基づいて、同一の3Dオーディオのオーディオストリームから、視点ごとに異なる音声を再生することができる。その結果、3Dオーディオのオーディオストリームのデータ量を削減することができる。 As described above, when a base track is provided for each viewpoint, different audio is reproduced for each viewpoint from the same 3D audio audio stream based on the position of the object included in the config information of each viewpoint on the screen. can do. As a result, the amount of data in the audio stream of 3D audio can be reduced.

即ち、3Dオーディオの視点が、その3Dオーディオと同時に再生可能な野球のスタジアムの画像の複数の視点である場合、基本の視点の画像であるメイン画像として、例えば、センターバックスクリーンを視点とする画像が用意される。また、バックネット裏、一塁内野席、三塁内野席、レフト応援席、ライト応援席などを視点とする画像が、基本の視点以外の視点の画像であるマルチ画像として用意される。 That is, when the viewpoint of the 3D audio is a plurality of viewpoints of the image of the baseball stadium that can be reproduced at the same time as the 3D audio, the main image which is the image of the basic viewpoint is, for example, an image with the center back screen as the viewpoint. Is prepared. In addition, images with the viewpoints of the back of the back net, the first base infield seat, the third base infield seat, the left cheering seat, the right cheering seat, etc. are prepared as multi-images that are images of viewpoints other than the basic viewpoint.

この場合、全ての視点の3Dオーディオを用意すると、3Dオーディオのデータ量が多くなる。従って、ベーストラックに各視点におけるオブジェクトの画面上の位置等を記述することにより、オブジェクトの画面上の位置に応じて変化するObject audioやSAOC Object audio等のオーディオストリームを視点間で共有可能にする。その結果、3Dオーディオのオーディオストリームのデータ量を削減することができる。 In this case, if 3D audio from all viewpoints is prepared, the amount of 3D audio data increases. Therefore, by describing the position of the object on the screen at each viewpoint in the base track, audio streams such as Object audio and SAOC Object audio that change according to the position of the object on the screen can be shared between the viewpoints. .. As a result, the amount of data in the audio stream of 3D audio can be reduced.

3Dオーディオの再生時には、例えば基本の視点のObject audioやSAOC Object audio等のオーディオストリームと、同時に再生されるメイン画像またはマルチ画像の視点に対応するベーストラックとを用いて、その視点に応じて異なる音声が再生される。 When playing back 3D audio, for example, an audio stream such as Object audio or SAOC Object audio of the basic viewpoint and a base track corresponding to the viewpoint of the main image or the multi-image to be played at the same time are used, and the audio stream differs depending on the viewpoint. The audio is played.

同様に、例えば、3Dオーディオの視点が、予め設定されたスタジアムの複数の座席の位置である場合、全ての視点の3Dオーディオを用意すると、3Dオーディオのデータ量が多くなる。従って、ベーストラックに各視点におけるオブジェクトの画面上の位置等を記述することにより、Object audioやSAOC Object audio等のオーディオストリームを視点間で共有可能にする。その結果、1つの視点のObject audioやSAOC Object audioを用いて、ユーザにより座席表などを用いて選択された座席に応じて異なる音声を再生することが可能になり、3Dオーディオのオーディオストリームのデータ量を削減することができる。 Similarly, for example, when the viewpoint of 3D audio is a plurality of seat positions of a preset stadium, if 3D audio of all viewpoints is prepared, the amount of data of 3D audio increases. Therefore, by describing the position of the object on the screen at each viewpoint on the base track, audio streams such as Object audio and SAOC Object audio can be shared between the viewpoints. As a result, using Object audio or SAOC Object audio from one viewpoint, it becomes possible to reproduce different audio according to the seat selected by the user using the seating chart or the like, and the data of the audio stream of 3D audio. The amount can be reduced.

図28のトラック構造において、ベーストラックが3Dオーディオの視点ごとに設けられる場合、トラック構造は、図51に示すようになる。図51の例では、3Dオーディオの視点の数が3つある。また、図51の例では、Channel audioは、3Dオーディオの視点ごとに生成され、その他の音声データは、3Dオーディオの視点間で共有される。これらのことは、後述する図52の例においても同様である。 In the track structure of FIG. 28, when the bass track is provided for each viewpoint of 3D audio, the track structure is as shown in FIG. 51. In the example of FIG. 51, there are three viewpoints of 3D audio. Further, in the example of FIG. 51, Channel audio is generated for each viewpoint of 3D audio, and other audio data is shared between viewpoints of 3D audio. These things are the same in the example of FIG. 52 described later.

この場合、ベーストラックは、図51に示すように、3Dオーディオの視点ごとに3つ設けられる。各ベーストラックのtrackボックスには、Track Referenceが配置される。また、各ベーストラックのサンプルエントリのシンタクスは、4ccが「mha3」であるサンプルエントリのシンタクスと同一であるが、4ccは、3Dオーディオの視点ごとにベーストラックが設けられていることを表す「mhcf」である。 In this case, as shown in FIG. 51, three bass tracks are provided for each viewpoint of 3D audio. A Track Reference is placed in the track box of each bass track. Also, the syntax of the sample entry of each bass track is the same as the syntax of the sample entry where 4cc is "mha3", but 4cc is "mhcf" which means that a bass track is provided for each viewpoint of 3D audio. ".

各ベーストラックのサンプルエントリには、各視点の3Dオーディオの全てのグループのconfig情報を含むmhaCボックスが配置される。各視点の3Dオーディオの全てのグループのconfig情報としては、その視点におけるオブジェクトの画面上の位置などがある。また、各ベーストラックには、各視点のAudioScene情報を含むmhasボックスが配置される。 Each bass track sample entry contains a mhaC box containing config information for all groups of 3D audio for each viewpoint. The config information of all groups of 3D audio of each viewpoint includes the position of the object on the screen at that viewpoint. In addition, a mhas box containing AudioScene information of each viewpoint is arranged on each bass track.

各ベーストラックのサンプルには、各視点のChannel audioのグループのオーディオストリームが配置される。 In each bass track sample, an audio stream of a group of Channel audio from each viewpoint is placed.

なお、各視点におけるオブジェクトの画面上の位置をサンプル単位で記述するObject Metadataが存在する場合には、そのObject Metadataも、各ベーストラックのサンプルに配置される。 If there is an Object Metadata that describes the position of the object on the screen at each viewpoint in sample units, that Object Metadata is also placed in the sample of each base track.

即ち、オブジェクトが動体(例えば、スポーツ選手)である場合、各視点におけるオブジェクトの画面上の位置は時間変化するため、その位置は、サンプル単位でObject Metadataとして記述される。この場合、このサンプル単位のObject Metadataは、視点ごとに、その視点に対応するベーストラックのサンプルに配置される。 That is, when the object is a moving object (for example, an athlete), the position of the object on the screen at each viewpoint changes with time, and the position is described as Object Metadata in sample units. In this case, the object metadata of this sample unit is arranged in the sample of the base track corresponding to the viewpoint for each viewpoint.

図51のグループトラックの構成は、Channel audioのグループのオーディオストリームが配置されない点を除いて、図28の構成と同一であるので、説明は省略する。 Since the configuration of the group track of FIG. 51 is the same as the configuration of FIG. 28 except that the audio stream of the channel audio group is not arranged, the description thereof will be omitted.

なお、図51のトラック構造において、各視点のChannel audioのグループのオーディオストリームは、ベーストラックに配置されず、それぞれ、異なるグループトラックに配置されるようにしてもよい。この場合、トラック構造は、図52に示すようになる。 In the track structure of FIG. 51, the audio streams of the Channel audio group of each viewpoint may not be arranged on the base track, but may be arranged on different group tracks. In this case, the track structure will be as shown in FIG.

図52の例では、トラックIDが「1」であるベーストラックに対応する視点のChannel audioのグループのオーディオストリームが、トラックIDが「4」であるグループトラックに配置されている。また、トラックIDが「2」であるベーストラックに対応する視点のChannel audioのグループのオーディオストリームが、トラックIDが「5」であるグループトラックに配置されている。 In the example of FIG. 52, the audio stream of the channel audio group of the viewpoint corresponding to the bass track having the track ID “1” is arranged in the group track having the track ID “4”. Further, the audio stream of the channel audio group of the viewpoint corresponding to the bass track having the track ID “2” is arranged in the group track having the track ID “5”.

さらに、トラックIDが「3」であるベーストラックに対応する視点のChannel audioのグループのオーディオストリームが、トラックIDが「6」であるグループトラックに配置されている。 Further, the audio stream of the channel audio group of the viewpoint corresponding to the bass track having the track ID “3” is arranged in the group track having the track ID “6”.

なお、図51および図52の例では、ベーストラックのサンプルエントリの4ccを「mhcf」にしたが、図28の場合と同一の「mha3」であってもよい。 In the examples of FIGS. 51 and 52, 4cc of the sample entry of the base track is set to "mhcf", but it may be the same "mha3" as in the case of FIG. 28.

また、図示は省略するが、図28のトラック構造以外の、上述した全てのトラック構造において、ベーストラックが3Dオーディオの視点ごとに設けられる場合も、図51および図52の場合と同様である。 Further, although not shown, in all the track structures described above other than the track structure of FIG. 28, the case where the bass track is provided for each viewpoint of the 3D audio is the same as the case of FIGS. 51 and 52.

<第3実施の形態>
(本開示を適用したコンピュータの説明)
上述したWebサーバ142(212)の一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
<Third Embodiment>
(Description of the computer to which this disclosure is applied)
The series of processes of the Web server 142 (212) described above can be executed by hardware or software. When a series of processes are executed by software, the programs constituting the software are installed on the computer. Here, the computer includes a computer embedded in dedicated hardware and, for example, a general-purpose personal computer capable of executing various functions by installing various programs.

図53は、上述したWebサーバ142(212)の一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。 FIG. 53 is a block diagram showing an example of hardware configuration of a computer that programmatically executes a series of processes of the Web server 142 (212) described above.

コンピュータにおいて、CPU(Central Processing Unit)601,ROM(Read Only Memory)602,RAM(Random Access Memory)603は、バス604により相互に接続されている。 In a computer, a CPU (Central Processing Unit) 601 and a ROM (Read Only Memory) 602 and a RAM (Random Access Memory) 603 are connected to each other by a bus 604.

バス604には、さらに、入出力インタフェース605が接続されている。入出力インタフェース605には、入力部606、出力部607、記憶部608、通信部609、及びドライブ610が接続されている。 An input / output interface 605 is further connected to the bus 604. An input unit 606, an output unit 607, a storage unit 608, a communication unit 609, and a drive 610 are connected to the input / output interface 605.

入力部606は、キーボード、マウス、マイクロフォンなどよりなる。出力部607は、ディスプレイ、スピーカなどよりなる。記憶部608は、ハードディスクや不揮発性のメモリなどよりなる。通信部609は、ネットワークインタフェースなどよりなる。ドライブ610は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア611を駆動する。 The input unit 606 includes a keyboard, a mouse, a microphone, and the like. The output unit 607 includes a display, a speaker, and the like. The storage unit 608 includes a hard disk, a non-volatile memory, and the like. The communication unit 609 includes a network interface and the like. The drive 610 drives a removable medium 611 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.

以上のように構成されるコンピュータでは、CPU601が、例えば、記憶部608に記憶されているプログラムを、入出力インタフェース605及びバス604を介して、RAM603にロードして実行することにより、上述した一連の処理が行われる。 In the computer configured as described above, the CPU 601 loads the program stored in the storage unit 608 into the RAM 603 via the input / output interface 605 and the bus 604 and executes the above-described series. Is processed.

コンピュータ(CPU601)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア611に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。 The program executed by the computer (CPU601) can be recorded and provided on the removable media 611 as a package media or the like, for example. Programs can also be provided via wired or wireless transmission media such as local area networks, the Internet, and digital satellite broadcasting.

コンピュータでは、プログラムは、リムーバブルメディア611をドライブ610に装着することにより、入出力インタフェース605を介して、記憶部608にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部609で受信し、記憶部608にインストールすることができる。その他、プログラムは、ROM602や記憶部608に、あらかじめインストールしておくことができる。 In the computer, the program can be installed in the storage unit 608 via the input / output interface 605 by mounting the removable media 611 in the drive 610. Further, the program can be received by the communication unit 609 and installed in the storage unit 608 via a wired or wireless transmission medium. In addition, the program can be pre-installed in the ROM 602 or the storage unit 608.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in chronological order according to the order described in this specification, or may be a program that is processed in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.

また、動画再生端末144(214)のハードウエア構成は、図53のコンピュータと同様の構成にすることができる。この場合、例えば、CPU601が、制御用ソフトウエア161(221)、動画再生ソフトウエア162、およびアクセス用ソフトウエア163(223)を実行する。動画再生端末144(214)の処理は、ハードウエアにより実行することもできる。 Further, the hardware configuration of the moving image playback terminal 144 (214) can be the same as that of the computer shown in FIG. 53. In this case, for example, the CPU 601 executes the control software 161 (221), the moving image playback software 162, and the access software 163 (223). The processing of the moving image playback terminal 144 (214) can also be executed by hardware.

本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。 In the present specification, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether or not all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a device in which a plurality of modules are housed in one housing are both systems. ..

なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present disclosure is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present disclosure.

また、本開示は、ストリーミング再生ではなく、放送やローカルストレージ再生を行う情報処理システムにも適用することができる。 Further, the present disclosure can be applied to an information processing system that performs broadcasting or local storage reproduction instead of streaming reproduction.

上述したMPDの実施例では、そのスキーマで記述された内容が理解できない場合は無視してもよいdescriptor定義であるEssentialPropertyにより情報が記述されたが、そのスキーマで記述された内容が理解できない場合であっても再生できるdescriptor定義であるSupplementalPropertyにより情報が記述されてもよい。この記述方法の選択は、コンテンツを作成する側の意図で行われる。 In the MPD example described above, information is described by EssentialProperty, which is a descriptor definition that can be ignored if the content described in the schema cannot be understood, but the content described in the schema cannot be understood. Information may be described by SupplementalProperty, which is a descriptor definition that can be played even if it exists. The selection of this description method is made by the intention of the content creator.

さらに、本開示は、以下のような構成もとることができる。 Further, the present disclosure may have the following structure.

(1)
複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルを生成するファイル生成部
を備える情報処理装置。
(2)
前記複数の種類に関する情報は、所定のトラックのサンプルエントリに配置される
ように構成された
前記(1)に記載の情報処理装置。
(3)
前記所定のトラックは、前記複数の種類の音声データが分割されて配置される前記トラックのうちの1つである
ように構成された
前記(2)に記載の情報処理装置。
(4)
前記ファイルには、前記トラックごとに、そのトラックに対応する前記種類に関する情報が配置される
ように構成された
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)
前記ファイルには、前記トラックごとに、そのトラックに対応する種類と、その種類の音声データと排他的に再生される音声データに対応する種類とからなる排他的再生種類に関する情報が配置される
ように構成された
前記(4)に記載の情報処理装置。
(6)
前記トラックに対応する種類に関する情報および前記排他的再生種類に関する情報は、対応するトラックのサンプルエントリに配置される
ように構成された
前記(5)に記載の情報処理装置。
(7)
前記ファイル生成部は、前記トラックごとに前記排他的再生種類に関する情報が存在するかを示す情報を含む、前記ファイルを管理する管理ファイルを生成する
ように構成された
前記(5)または(6)に記載の情報処理装置。
(8)
前記ファイルには、前記複数の種類に対応するトラックへの参照情報が配置される
ように構成された
前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
前記参照情報は、所定のトラックのサンプルに配置される
ように構成された
前記(8)に記載の情報処理装置。
(10)
前記所定のトラックは、前記複数の種類の音声データが分割されて配置される前記トラックの1つである
ように構成された
前記(9)に記載の情報処理装置。
(11)
前記ファイルには、前記トラック間の参照関係を表す情報が配置される
ように構成された
前記(1)乃至(10)のいずれかに記載の情報処理装置。
(12)
前記ファイル生成部は、前記トラック間の参照関係を表す情報を含む、前記ファイルを管理する管理ファイルを生成する
ように構成された
前記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)
前記ファイルは、1つのファイルである
ように構成された
前記(1)乃至(12)のいずれかに記載の情報処理装置。
(14)
前記ファイルは、前記トラックごとのファイルである
ように構成された
前記(1)乃至(12)のいずれかに記載の情報処理装置。
(15)
情報処理装置が、
複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルを生成するファイル生成ステップ
を含む情報処理方法。
(16)
複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルから、所定のトラックの前記音声データを再生する再生部
を備える情報処理装置。
(17)
情報処理装置が、
複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルから、所定のトラックの前記音声データを再生する再生ステップ
を含む情報処理方法。
(1)
An information processing device including a file generation unit that generates a file in which a plurality of types of audio data are divided and arranged in tracks for each of the above-mentioned types and information on the plurality of types is arranged.
(2)
The information processing apparatus according to (1) above, wherein the information regarding the plurality of types is arranged so as to be arranged in a sample entry of a predetermined track.
(3)
The information processing device according to (2) above, wherein the predetermined track is configured to be one of the tracks in which the plurality of types of audio data are divided and arranged.
(4)
The information processing apparatus according to any one of (1) to (3) above, wherein information about the type corresponding to the track is arranged in the file for each track.
(5)
In the file, information regarding an exclusive playback type consisting of a type corresponding to the track and a type corresponding to the audio data to be reproduced exclusively with the audio data of the type is arranged for each track. The information processing apparatus according to (4) above.
(6)
The information processing apparatus according to (5) above, wherein the information regarding the type corresponding to the track and the information regarding the exclusive reproduction type are arranged so as to be arranged in the sample entry of the corresponding track.
(7)
The file generation unit is configured to generate a management file for managing the file, which includes information indicating whether or not information regarding the exclusive playback type exists for each track (5) or (6). The information processing device described in.
(8)
The information processing apparatus according to any one of (1) to (7) above, wherein reference information for tracks corresponding to the plurality of types is arranged in the file.
(9)
The information processing apparatus according to (8) above, wherein the reference information is configured to be arranged in a sample of a predetermined track.
(10)
The information processing device according to (9) above, wherein the predetermined track is one of the tracks in which the plurality of types of audio data are divided and arranged.
(11)
The information processing apparatus according to any one of (1) to (10) above, wherein information representing a reference relationship between the tracks is arranged in the file.
(12)
The information processing apparatus according to any one of (1) to (11) above, wherein the file generation unit is configured to generate a management file for managing the file, which includes information representing a reference relationship between the tracks. ..
(13)
The information processing apparatus according to any one of (1) to (12) above, wherein the file is configured to be one file.
(14)
The information processing device according to any one of (1) to (12) above, wherein the file is configured to be a file for each track.
(15)
Information processing device
An information processing method including a file generation step in which a plurality of types of audio data are divided into tracks for each of the above-mentioned types and arranged, and a file in which information regarding the plurality of types is arranged is generated.
(16)
A playback unit that reproduces the audio data of a predetermined track from a file in which a plurality of types of audio data are divided and arranged in tracks for each of the above-mentioned types and information on the plurality of types is arranged. Information processing device to be equipped.
(17)
Information processing device
A playback step of reproducing the audio data of a predetermined track from a file in which a plurality of types of audio data are divided and arranged in tracks for each of the above-mentioned types and information on the plurality of types is arranged is performed. Information processing method including.

11 ファイル生成装置, 192 音声ファイル取得部, 194 音声復号処理部, 195 音声合成処理部, 211 ファイル生成装置, 264 音声ファイル取得部 11 File generator, 192 Audio file acquisition unit, 194 Audio decoding processing unit, 195 Speech synthesis processing unit, 211 File generator, 264 Audio file acquisition unit

本開示の第1の側面の情報処理装置は、複数のグループ情報を含む音声データが、1以上の前記グループ情報に対応付けられたグループIDごとにトラックに分割されて配置されるとともに、前記複数のグループに関する情報が配置された、ファイルを取得する取得部と、前記取得したファイルから、所定のトラックの前記音声データを再生する処理を行う再生処理部とを備える情報処理装置である。 In the information processing device of the first aspect of the present disclosure, voice data including a plurality of group information is divided into tracks for each group ID associated with one or more of the group information, and the plurality of voice data are arranged. It is an information processing apparatus including an acquisition unit for acquiring a file in which information about the group is arranged, and a reproduction processing unit for performing a process of reproducing the audio data of a predetermined track from the acquired file.

本開示の一側面の情報処理方法は、本開示の一側面の情報処理装置に対応する。 The information processing method of one aspect of the present disclosure corresponds to the information processing device of one aspect of the present disclosure.

本開示の一側面においては、複数のグループ情報を含む音声データが、1以上の前記グループ情報に対応付けられたグループIDごとにトラックに分割されて配置されるとともに、前記複数のグループに関する情報が配置された、ファイルが取得され、前記取得したファイルから、所定のトラックの前記音声データを再生する処理が行われる。 In one aspect of the present disclosure, audio data including a plurality of group information is divided into tracks for each group ID associated with one or more group information, and information about the plurality of groups is provided. The arranged file is acquired, and a process of reproducing the audio data of a predetermined track is performed from the acquired file.

なお、一側面の情報処理装置は、コンピュータにプログラムを実行させることにより実現することができる。 The information processing device on one side can be realized by causing a computer to execute a program.

また、一側面の情報処理装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。 Further, in order to realize the information processing apparatus of one aspect , the program to be executed by the computer can be provided by transmitting via a transmission medium or by recording on a recording medium.

本開示の一側面によれば、音声データを再生することができる。また、本開示の第2の側面によれば、複数のグループの音声データのうちの所定のグループの音声データを容易に再生することができる。 According to one aspect of the present disclosure, audio data can be reproduced. Further, according to the second aspect of the present disclosure, it is possible to reproduce the audio data of a predetermined group of voice data of a plurality of groups easily.

Claims (17)

複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルを生成するファイル生成部
を備える情報処理装置。
An information processing device including a file generation unit that generates a file in which a plurality of types of audio data are divided and arranged in tracks for each of the above-mentioned types and information on the plurality of types is arranged.
前記複数の種類に関する情報は、所定のトラックのサンプルエントリに配置される
ように構成された
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the information regarding the plurality of types is arranged so as to be arranged in a sample entry of a predetermined track.
前記所定のトラックは、前記複数の種類の音声データが分割されて配置される前記トラックのうちの1つである
ように構成された
請求項2に記載の情報処理装置。
The information processing device according to claim 2, wherein the predetermined track is configured to be one of the tracks in which the plurality of types of audio data are divided and arranged.
前記ファイルには、前記トラックごとに、そのトラックに対応する前記種類に関する情報が配置される
ように構成された
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein information about the type corresponding to the track is arranged in the file for each track.
前記ファイルには、前記トラックごとに、そのトラックに対応する種類と、その種類の音声データと排他的に再生される音声データに対応する種類とからなる排他的再生種類に関する情報が配置される
ように構成された
請求項4に記載の情報処理装置。
In the file, information regarding an exclusive playback type consisting of a type corresponding to the track and a type corresponding to the audio data to be reproduced exclusively with the audio data of the type is arranged for each track. The information processing apparatus according to claim 4, which is configured in the above.
前記トラックに対応する種類に関する情報および前記排他的再生種類に関する情報は、対応するトラックのサンプルエントリに配置される
ように構成された
請求項5に記載の情報処理装置。
The information processing apparatus according to claim 5, wherein the information regarding the type corresponding to the track and the information regarding the exclusive reproduction type are arranged so as to be arranged in the sample entry of the corresponding track.
前記ファイル生成部は、前記トラックごとに前記排他的再生種類に関する情報が存在するかを示す情報を含む、前記ファイルを管理する管理ファイルを生成する
ように構成された
請求項5に記載の情報処理装置。
The information processing according to claim 5, wherein the file generation unit is configured to generate a management file for managing the file, which includes information indicating whether or not information regarding the exclusive playback type exists for each track. apparatus.
前記ファイルには、前記複数の種類に対応するトラックへの参照情報が配置される
ように構成された
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein reference information for tracks corresponding to the plurality of types is arranged in the file.
前記参照情報は、所定のトラックのサンプルに配置される
ように構成された
請求項8に記載の情報処理装置。
The information processing apparatus according to claim 8, wherein the reference information is configured to be arranged in a sample of a predetermined track.
前記所定のトラックは、前記複数の種類の音声データが分割されて配置される前記トラックの1つである
ように構成された
請求項9に記載の情報処理装置。
The information processing device according to claim 9, wherein the predetermined track is one of the tracks in which the plurality of types of audio data are divided and arranged.
前記ファイルには、前記トラック間の参照関係を表す情報が配置される
ように構成された
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein information representing a reference relationship between the tracks is arranged in the file.
前記ファイル生成部は、前記トラック間の参照関係を表す情報を含む、前記ファイルを管理する管理ファイルを生成する
ように構成された
請求項1に記載の情報処理装置。
The information processing device according to claim 1, wherein the file generation unit is configured to generate a management file for managing the file, which includes information representing a reference relationship between the tracks.
前記ファイルは、1つのファイルである
ように構成された
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the file is configured to be one file.
前記ファイルは、前記トラックごとのファイルである
ように構成された
請求項1に記載の情報処理装置。
The information processing device according to claim 1, wherein the file is configured to be a file for each track.
情報処理装置が、
複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルを生成するファイル生成ステップ
を含む情報処理方法。
Information processing device
An information processing method including a file generation step in which a plurality of types of audio data are divided into tracks for each of the above-mentioned types and arranged, and a file in which information regarding the plurality of types is arranged is generated.
複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルから、所定のトラックの前記音声データを再生する再生部
を備える情報処理装置。
A playback unit that reproduces the audio data of a predetermined track from a file in which a plurality of types of audio data are divided and arranged in tracks for each of the above-mentioned types and information on the plurality of types is arranged. Information processing device to be equipped.
情報処理装置が、
複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルから、所定のトラックの前記音声データを再生する再生ステップ
を含む情報処理方法。
Information processing device
A playback step of reproducing the audio data of a predetermined track from a file in which a plurality of types of audio data are divided and arranged in tracks for each of the above-mentioned types and information on the plurality of types is arranged is performed. Information processing method including.
JP2020214925A 2014-06-30 2020-12-24 Information processing equipment and information processing method Active JP7103402B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022109532A JP7424420B2 (en) 2014-06-30 2022-07-07 Information processing device and information processing method
JP2024005069A JP2024038407A (en) 2014-06-30 2024-01-17 Information processing apparatus and information processing method

Applications Claiming Priority (12)

Application Number Priority Date Filing Date Title
JP2014134878 2014-06-30
JP2014134878 2014-06-30
JP2015107970 2015-05-27
JP2015107970 2015-05-27
JP2015109838 2015-05-29
JP2015109838 2015-05-29
JP2015119359 2015-06-12
JP2015119359 2015-06-12
JP2015121336 2015-06-16
JP2015121336 2015-06-16
JP2015124453 2015-06-22
JP2015124453 2015-06-22

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016531369A Division JP7080007B2 (en) 2014-06-30 2015-06-30 Information processing equipment and information processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022109532A Division JP7424420B2 (en) 2014-06-30 2022-07-07 Information processing device and information processing method

Publications (2)

Publication Number Publication Date
JP2021061628A true JP2021061628A (en) 2021-04-15
JP7103402B2 JP7103402B2 (en) 2022-07-20

Family

ID=55019270

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2016531369A Active JP7080007B2 (en) 2014-06-30 2015-06-30 Information processing equipment and information processing method
JP2020214925A Active JP7103402B2 (en) 2014-06-30 2020-12-24 Information processing equipment and information processing method
JP2022109532A Active JP7424420B2 (en) 2014-06-30 2022-07-07 Information processing device and information processing method
JP2024005069A Pending JP2024038407A (en) 2014-06-30 2024-01-17 Information processing apparatus and information processing method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016531369A Active JP7080007B2 (en) 2014-06-30 2015-06-30 Information processing equipment and information processing method

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022109532A Active JP7424420B2 (en) 2014-06-30 2022-07-07 Information processing device and information processing method
JP2024005069A Pending JP2024038407A (en) 2014-06-30 2024-01-17 Information processing apparatus and information processing method

Country Status (11)

Country Link
US (2) US20180165358A1 (en)
EP (1) EP3163570A4 (en)
JP (4) JP7080007B2 (en)
KR (3) KR102422493B1 (en)
CN (3) CN106471574B (en)
AU (3) AU2015285344A1 (en)
CA (2) CA3212162A1 (en)
MX (2) MX368088B (en)
RU (1) RU2702233C2 (en)
SG (1) SG11201610951UA (en)
WO (1) WO2016002738A1 (en)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI0518278B1 (en) 2004-10-26 2018-04-24 Dolby Laboratories Licensing Corporation METHOD AND APPARATUS FOR CONTROLING A PARTICULAR SOUND FEATURE OF AN AUDIO SIGNAL
TWI447709B (en) 2010-02-11 2014-08-01 Dolby Lab Licensing Corp System and method for non-destructively normalizing loudness of audio signals within portable devices
CN103325380B (en) 2012-03-23 2017-09-12 杜比实验室特许公司 Gain for signal enhancing is post-processed
US10844689B1 (en) 2019-12-19 2020-11-24 Saudi Arabian Oil Company Downhole ultrasonic actuator system for mitigating lost circulation
CN107403624B (en) 2012-05-18 2021-02-12 杜比实验室特许公司 Method and apparatus for dynamic range adjustment and control of audio signals
CN109036443B (en) 2013-01-21 2023-08-18 杜比实验室特许公司 System and method for optimizing loudness and dynamic range between different playback devices
TR201802631T4 (en) 2013-01-21 2018-03-21 Dolby Laboratories Licensing Corp Program Audio Encoder and Decoder with Volume and Limit Metadata
JP6250071B2 (en) 2013-02-21 2017-12-20 ドルビー・インターナショナル・アーベー Method for parametric multi-channel encoding
CN107093991B (en) 2013-03-26 2020-10-09 杜比实验室特许公司 Loudness normalization method and equipment based on target loudness
US9635417B2 (en) 2013-04-05 2017-04-25 Dolby Laboratories Licensing Corporation Acquisition, recovery, and matching of unique information from file-based media for automated file detection
TWM487509U (en) 2013-06-19 2014-10-01 杜比實驗室特許公司 Audio processing apparatus and electrical device
WO2015038522A1 (en) 2013-09-12 2015-03-19 Dolby Laboratories Licensing Corporation Loudness adjustment for downmixed audio content
WO2015038475A1 (en) 2013-09-12 2015-03-19 Dolby Laboratories Licensing Corporation Dynamic range control for a wide variety of playback environments
CN105142067B (en) 2014-05-26 2020-01-07 杜比实验室特许公司 Audio signal loudness control
EP3518236B8 (en) 2014-10-10 2022-05-25 Dolby Laboratories Licensing Corporation Transmission-agnostic presentation-based program loudness
JP2019533404A (en) * 2016-09-23 2019-11-14 ガウディオ・ラボ・インコーポレイテッド Binaural audio signal processing method and apparatus
WO2018079293A1 (en) * 2016-10-27 2018-05-03 ソニー株式会社 Information processing device and method
US11341976B2 (en) 2018-02-07 2022-05-24 Sony Corporation Transmission apparatus, transmission method, processing apparatus, and processing method
EP3780627A4 (en) * 2018-03-29 2021-02-17 Sony Corporation Information processing device, information processing method, and program
WO2019187437A1 (en) * 2018-03-29 2019-10-03 ソニー株式会社 Information processing device, information processing method, and program
WO2024029634A1 (en) * 2022-08-03 2024-02-08 マクセル株式会社 Broadcast reception device, content protection method, processing method for adding reverberation sound, and control method for broadcast reception device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011087103A (en) * 2009-10-15 2011-04-28 Sony Corp Provision of content reproduction system, content reproduction device, program, content reproduction method, and content server
JP2011528868A (en) * 2008-07-16 2011-11-24 ノキア コーポレイション Method and apparatus for track and track subset grouping
JP2012033243A (en) * 2010-08-02 2012-02-16 Sony Corp Data generation device and data generation method, data processing device and data processing method

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1116250A (en) * 1997-06-20 1999-01-22 Pioneer Electron Corp Information reproducing system
US7447791B2 (en) * 2000-12-15 2008-11-04 British Telecommunications Public Limited Company Transmission and reception of audio and/or video material
KR100542129B1 (en) * 2002-10-28 2006-01-11 한국전자통신연구원 Object-based three dimensional audio system and control method
EP1435620A1 (en) * 2003-01-06 2004-07-07 Thomson Licensing S.A. Method for creating and accessing a menu for audio content without using a display
JP3937223B2 (en) * 2003-01-21 2007-06-27 ソニー株式会社 Recording apparatus, reproducing apparatus, recording method, and reproducing method
JP3918772B2 (en) * 2003-05-09 2007-05-23 日本電気株式会社 Video editing apparatus, video editing method, and video editing program
JP2004355780A (en) * 2003-05-30 2004-12-16 Matsushita Electric Ind Co Ltd Audio system
US20060245729A1 (en) * 2003-08-08 2006-11-02 Masanori Itoh Data processing device and data processing method
US7818077B2 (en) * 2004-05-06 2010-10-19 Valve Corporation Encoding spatial data in a multi-channel sound file for an object in a virtual environment
JP4236630B2 (en) * 2004-11-30 2009-03-11 三洋電機株式会社 Content data recording medium
RU2393556C2 (en) * 2005-01-28 2010-06-27 Панасоник Корпорейшн Recording medium, device of reproduction and methods of recording and reproduction
JP4626376B2 (en) * 2005-04-25 2011-02-09 ソニー株式会社 Music content playback apparatus and music content playback method
US8028004B2 (en) * 2005-08-26 2011-09-27 Panasonic Corporation Data recording system, data recording method and data recording program
CN101066720A (en) * 2006-04-06 2007-11-07 迈克尔·波宁斯基 Interactive packaging system
US8762843B2 (en) * 2006-06-16 2014-06-24 Creative Technology Ltd System and method for modifying media content playback based on limited input
KR101021831B1 (en) * 2006-08-24 2011-03-17 노키아 코포레이션 System and method for indicating track relationships in media files
US7842876B2 (en) * 2007-01-05 2010-11-30 Harman International Industries, Incorporated Multimedia object grouping, selection, and playback system
EP2113907A4 (en) * 2007-02-22 2012-09-05 Fujitsu Ltd Music reproducing device and music reproducing method
US20090157731A1 (en) * 2007-12-14 2009-06-18 Zigler Jeffrey D Dynamic audio file and method of use
US20090234886A1 (en) * 2008-03-11 2009-09-17 Gopalakrishna Raghavan Apparatus and Method for Arranging Metadata
CN101552905A (en) * 2008-04-03 2009-10-07 中国联合网络通信集团有限公司 Information switching driving device, information switching device, remote control device and set-top box
JP2010026985A (en) * 2008-07-24 2010-02-04 Sony Corp Information processing apparatus and information processing method
CA2758237C (en) * 2009-04-09 2017-08-15 Telefonaktiebolaget Lm Ericsson (Publ) Media container file management
US20110069934A1 (en) * 2009-09-24 2011-03-24 Electronics And Telecommunications Research Institute Apparatus and method for providing object based audio file, and apparatus and method for playing back object based audio file
JP2011188289A (en) * 2010-03-09 2011-09-22 Olympus Imaging Corp Imaging and audio recording system
CN101901595B (en) * 2010-05-05 2014-10-29 北京中星微电子有限公司 Method and system for generating animation according to audio music
US8918533B2 (en) * 2010-07-13 2014-12-23 Qualcomm Incorporated Video switching for streaming video data
CN102347042B (en) * 2010-07-28 2014-05-07 Tcl集团股份有限公司 Audio track switching method, system thereof and audio and video file playing device
US9456015B2 (en) * 2010-08-10 2016-09-27 Qualcomm Incorporated Representation groups for network streaming of coded multimedia data
WO2012046437A1 (en) * 2010-10-08 2012-04-12 パナソニック株式会社 Recording medium and data copy method
EP2450880A1 (en) * 2010-11-05 2012-05-09 Thomson Licensing Data structure for Higher Order Ambisonics audio data
US9485486B2 (en) * 2011-01-12 2016-11-01 Sharp Kabushiki Kaisha Playback device, control method for playback device, generating device, control method for generating device, recording medium, data structure, control program, and recording medium recording the program
KR101739272B1 (en) * 2011-01-18 2017-05-24 삼성전자주식회사 Apparatus and method for storing and playing contents in multimedia streaming system
EP2718932A4 (en) * 2011-06-05 2014-11-26 Museami Inc Enhanced media recordings and playback
TWI651005B (en) * 2011-07-01 2019-02-11 杜比實驗室特許公司 System and method for generating, decoding and presenting adaptive audio signals
US9390756B2 (en) * 2011-07-13 2016-07-12 William Littlejohn Dynamic audio file generation system and associated methods
WO2013190684A1 (en) * 2012-06-21 2013-12-27 パイオニア株式会社 Playback device and method
US9161039B2 (en) * 2012-09-24 2015-10-13 Qualcomm Incorporated Bitstream properties in video coding
JP2014096766A (en) * 2012-11-12 2014-05-22 Canon Inc Recording apparatus and recording method
US9805725B2 (en) * 2012-12-21 2017-10-31 Dolby Laboratories Licensing Corporation Object clustering for rendering object-based audio content based on perceptual criteria
IES86526B2 (en) * 2013-04-09 2015-04-08 Score Music Interactive Ltd A system and method for generating an audio file
US9877116B2 (en) * 2013-12-30 2018-01-23 Gn Hearing A/S Hearing device with position data, audio system and related methods
JPWO2015182491A1 (en) * 2014-05-30 2017-04-20 ソニー株式会社 Information processing apparatus and information processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011528868A (en) * 2008-07-16 2011-11-24 ノキア コーポレイション Method and apparatus for track and track subset grouping
JP2011087103A (en) * 2009-10-15 2011-04-28 Sony Corp Provision of content reproduction system, content reproduction device, program, content reproduction method, and content server
JP2012033243A (en) * 2010-08-02 2012-02-16 Sony Corp Data generation device and data generation method, data processing device and data processing method

Also Published As

Publication number Publication date
MX2019010556A (en) 2019-10-14
EP3163570A4 (en) 2018-02-14
KR20220104290A (en) 2022-07-26
KR20240065194A (en) 2024-05-14
EP3163570A1 (en) 2017-05-03
JP2024038407A (en) 2024-03-19
CA2953242C (en) 2023-10-10
AU2023201334A1 (en) 2023-04-06
JP7080007B2 (en) 2022-06-03
AU2020289874A1 (en) 2021-01-28
RU2702233C2 (en) 2019-10-07
US20210326378A1 (en) 2021-10-21
KR20170021778A (en) 2017-02-28
WO2016002738A1 (en) 2016-01-07
RU2016150994A (en) 2018-06-25
SG11201610951UA (en) 2017-02-27
AU2015285344A1 (en) 2016-12-22
US20180165358A1 (en) 2018-06-14
CA3212162A1 (en) 2016-01-07
CN113851138A (en) 2021-12-28
CA2953242A1 (en) 2016-01-07
JP2022133422A (en) 2022-09-13
CN106471574B (en) 2021-10-12
CN106471574A (en) 2017-03-01
KR102422493B1 (en) 2022-07-20
MX2016016820A (en) 2017-04-27
RU2016150994A3 (en) 2018-12-03
MX368088B (en) 2019-09-19
JP7424420B2 (en) 2024-01-30
CN113851139A (en) 2021-12-28
JPWO2016002738A1 (en) 2017-05-25
JP7103402B2 (en) 2022-07-20

Similar Documents

Publication Publication Date Title
JP7103402B2 (en) Information processing equipment and information processing method
CN106464925B (en) Establishing streaming presentations of events
WO2015182491A1 (en) Information processing device and information processing method
JP6697695B2 (en) Information processing apparatus and information processing method
JP6384480B2 (en) Information processing apparatus and information processing method
JP6555263B2 (en) Information processing apparatus and method
JP2022019932A (en) Information processing apparatus and information processing method
WO2021065277A1 (en) Information processing device, reproduction processing device, and information processing method
WO2016199609A1 (en) Information processing device and information processing method
BR112016030349B1 (en) INFORMATION PROCESSING APPARATUS AND METHOD

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220620

R151 Written notification of patent or utility model registration

Ref document number: 7103402

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151