WO2016002738A1 - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
WO2016002738A1
WO2016002738A1 PCT/JP2015/068751 JP2015068751W WO2016002738A1 WO 2016002738 A1 WO2016002738 A1 WO 2016002738A1 JP 2015068751 W JP2015068751 W JP 2015068751W WO 2016002738 A1 WO2016002738 A1 WO 2016002738A1
Authority
WO
WIPO (PCT)
Prior art keywords
track
audio
file
information
group
Prior art date
Application number
PCT/JP2015/068751
Other languages
English (en)
French (fr)
Inventor
平林 光浩
優樹 山本
徹 知念
潤宇 史
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to KR1020167034549A priority Critical patent/KR102422493B1/ko
Priority to JP2016531369A priority patent/JP7080007B2/ja
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to MX2016016820A priority patent/MX368088B/es
Priority to RU2016150994A priority patent/RU2702233C2/ru
Priority to KR1020247014791A priority patent/KR20240065194A/ko
Priority to US15/318,654 priority patent/US20180165358A1/en
Priority to AU2015285344A priority patent/AU2015285344A1/en
Priority to EP15816059.8A priority patent/EP3163570A4/en
Priority to CN201580034444.XA priority patent/CN106471574B/zh
Priority to KR1020227024283A priority patent/KR20220104290A/ko
Priority to CA2953242A priority patent/CA2953242C/en
Priority to SG11201610951UA priority patent/SG11201610951UA/en
Publication of WO2016002738A1 publication Critical patent/WO2016002738A1/ja
Priority to AU2020289874A priority patent/AU2020289874A1/en
Priority to US17/228,953 priority patent/US20210326378A1/en
Priority to AU2023201334A priority patent/AU2023201334A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/11File system administration, e.g. details of archiving or snapshots
    • G06F16/122File system administration, e.g. details of archiving or snapshots using management policies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/16File or folder operations, e.g. details of user interfaces specifically adapted to file systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/18File system types
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • H04N21/2335Processing of audio elementary streams involving reformatting operations of audio signals, e.g. by converting from one coding standard to another
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/65Clustering; Classification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change

Definitions

  • the present disclosure relates to an information processing apparatus and an information processing method, and more particularly, to an information processing apparatus and an information processing method capable of easily reproducing predetermined types of audio data among a plurality of types of audio data.
  • a distribution server prepares moving image data groups having different screen sizes and encoding speeds for one moving image content, and a playback terminal has an optimal screen size and encoding speed according to the status of the transmission path. By requesting data groups, adaptive streaming delivery is realized.
  • MPEG-DASH Dynamic Adaptive Streaming over HTTP
  • URL http://mpeg.chiariglione.org/standards/mpeg-dash/media-presentation-description-and-segment-formats/text-isoiec-23009-12012-dam -1)
  • the present disclosure has been made in view of such a situation, and makes it possible to easily reproduce audio data of a desired group among audio data of a plurality of groups.
  • the information processing apparatus generates a file in which a plurality of types of audio data are divided into tracks by one or more types and arranged, and information regarding the plurality of types is arranged.
  • An information processing apparatus including a file generation unit.
  • An information processing method corresponds to the information processing apparatus according to the first aspect of the present disclosure.
  • a plurality of types of audio data are divided into tracks by one or more types and arranged, and a file in which information on the plurality of types is arranged is generated.
  • a plurality of types of audio data are divided into tracks by one or more types and arranged, and a file in which information regarding the plurality of types is arranged, It is an information processing apparatus provided with the reproduction
  • An information processing method corresponds to the information processing apparatus according to the second aspect of the present disclosure.
  • a plurality of types of audio data are divided into tracks by one or more types and arranged, and a file in which information on the plurality of types is arranged is a predetermined track.
  • the audio data of is reproduced.
  • the information processing apparatus can be realized by causing a computer to execute a program.
  • a program to be executed by a computer can be provided by transmitting via a transmission medium or recording on a recording medium .
  • a file can be generated. Further, according to the first aspect of the present disclosure, it is possible to generate a file that can easily reproduce predetermined types of audio data among a plurality of types of audio data.
  • audio data can be reproduced. Further, according to the second aspect of the present disclosure, it is possible to easily reproduce predetermined types of audio data among a plurality of types of audio data.
  • generation apparatus of FIG. It is a block diagram which shows the structural example of the streaming reproduction part implement
  • FIG. 1 Assumptions of the Present Disclosure (FIGS. 1 to 7) 1. First embodiment (FIGS. 8 to 37) 2. Second Embodiment (FIGS. 38 to 50) 3. Other Examples of Base Tracks (FIGS. 51 and 52) 4. Third embodiment (FIG. 53)
  • FIG. 1 is a view showing the structure of an MPEG-DASH MPD file (Media Presentation Description).
  • an optimal one is selected from the attributes of "Representation” included in "Period” of the MPD file (Media Presentation in FIG. 1).
  • the file is acquired with reference to the URL (Uniform Resource Locator) of the “Initialization Segment” at the top of the selected “Representation” and the like, and processed. Subsequently, the file is acquired with reference to the URL or the like of the subsequent “Media Segment” and reproduced.
  • URL Uniform Resource Locator
  • the MPD file has the hierarchical structure shown in FIG. 3 below “Period”. Further, when the structure of this MPD file is arranged on the time axis, it becomes as shown in the example of FIG. As apparent from FIG. 4, multiple “Representations” exist for the same segment. By adaptively selecting any of these, it is possible to obtain and reproduce a stream of user's desired attributes.
  • FIG. 5 is a diagram for explaining an outline of a track of the MP4 3D audio file format.
  • the MP4 file it is possible to manage, for each track, codec information of moving image content and position information indicating a position in the file.
  • codec information of moving image content and position information indicating a position in the file.
  • all audio streams ES (Elementary Stream)
  • 3D audio Choannel audio / Object audio / SAOC Object audio / HOA audio / metadata
  • codec information Profile / level / audio configuration
  • Channel audio making up 3D audio is audio data in units of channels
  • Object audio is audio data in units of objects.
  • the object is a sound source, and audio data in object units is acquired by a microphone or the like attached to the object.
  • the object may be an object such as a fixed microphone stand or a moving object such as a person.
  • SAOC Object audio is audio data of SAOC (Spatial Audio Object Coding)
  • HOA audio is audio data of HOA (Higher Order Ambisonics)
  • metadata is Channel audio
  • Object audio SAOC Object audio
  • It is the metadata of HOA audio.
  • FIG. 6 is a diagram showing the structure of the moov box of the MP4 file.
  • FIG. 6 in the MP4 file, image data and audio data are recorded as different tracks. Although FIG. 6 does not describe the details of the track of audio data, it is similar to the track of image data.
  • the sample entry is included in the sample description placed in the stsd box in the moov box.
  • the server side sends out all 3D audio audio streams. Then, the client side decodes and outputs only the necessary 3D audio audio stream while parsing all 3D audio audio streams.
  • the bit rate is high or the reading rate of the local storage is limited, it is desirable to reduce the load of decoding processing by acquiring only the necessary 3D audio audio stream.
  • the server side prepares audio streams of a plurality of coding rates. Therefore, the client side can select and acquire the audio stream of the coding speed optimum for the reproduction environment by acquiring only the necessary 3D audio audio stream.
  • an audio stream of 3D audio is divided into tracks according to types, and arranged in audio files, so that only an audio stream of a predetermined type of 3D audio can be efficiently obtained.
  • the load of decoding processing can be reduced.
  • the highest quality audio stream of the necessary 3D audio can be reproduced according to the band.
  • FIG. 7 is a diagram showing a hierarchical structure of 3D audio.
  • audio data of 3D audio is an audio element (Element) different for each audio data.
  • Types of audio elements include Single Channel Element (SCE) and Channel Pair Element (CPE).
  • SCE Single Channel Element
  • CPE Channel Pair Element
  • the audio element type of audio data of one channel is SCE
  • the type of audio element corresponding to audio data of two channels is CPE.
  • Audio elements form groups with the same audio type (Channel / Object / SAOC Object / HOA). Accordingly, the group types (GroupType) are Channels, Objects, SAOC Objects, and HOA. Two or more groups can form switch Group or group Preset, as needed.
  • the switch Group is a group (exclusive reproduction group) in which the audio streams of the groups included therein are exclusively reproduced. That is, as shown in FIG. 7, when there is a group of Object audio for English (EN) and a group for Object audio for French (FR), only one of the groups should be reproduced. Therefore, a switch Group is formed from the group of Object audio for English having a group ID of 2 and the group of Object audio for French having a group ID of 3. As a result, Object audio for English and Object audio for French are exclusively reproduced.
  • group Preset defines a combination of groups intended by the content producer.
  • Metadata of 3D audio is considered as an Ext Element which is different for each metadata.
  • Types of Ext elements include Object Metadata, SAOC 3D Metadata, HOA Metadata, DRC Metadata, SpatialFrame, SaocFrame, and the like.
  • the Ext element of Object Metadata is metadata of all Object audio
  • the Ext element of SAOC 3D Metadata is metadata of all SAOC audio.
  • the Ext element of HOA Metadata is metadata of all HOA audio
  • DRC Dynamic Range Control
  • an audio stream of audio data of 3D audio can be divided into different tracks for each type, using audio elements, group types, groups, switch groups, or group presets as types.
  • the audio stream of metadata of 3D audio can be divided into different tracks according to types, with Ext elements and audio elements corresponding to the metadata as types.
  • an audio stream of audio data is divided into tracks by one or more groups, and an audio stream of metadata is divided into tracks by types of Ext elements.
  • FIG. 8 is a diagram for explaining an outline of the information processing system according to the first embodiment to which the present disclosure is applied.
  • the information processing system 140 in FIG. 8 is configured by connecting the Web server 142 connected to the file generation device 141 and the video reproduction terminal 144 via the Internet 13.
  • the Web server 142 distributes the audio stream of the track of the group to be reproduced to the moving picture reproduction terminal 144 by a method conforming to the MPEG-DASH.
  • the file generation device 141 encodes each audio data and metadata of 3D audio of moving image content at a plurality of coding rates to generate an audio stream.
  • the file generator 141 files all audio streams and generates an audio file, at a coding rate and a time unit of several seconds to 10 seconds, which is called a segment.
  • the file generation device 141 divides the audio stream into groups and types of Ext elements, and arranges them in an audio file as audio streams of different tracks.
  • the file generation device 141 uploads the generated audio file to the web server 142.
  • the file generation device 141 generates an MPD file (management file) that manages an audio file or the like.
  • the file generation device 141 uploads the MPD file to the web server 142.
  • the web server 142 stores the encoding speed and the audio file and MPD file for each segment uploaded from the file generation device 141. In response to a request from the video playback terminal 144, the Web server 142 transmits the stored audio file, MPD file, and the like to the video playback terminal 144.
  • the video playback terminal 144 includes streaming data control software (hereinafter referred to as control software) 161, video playback software 162, client software for HTTP (HyperText Transfer Protocol) access (hereinafter referred to as access software). ) And so on.
  • control software streaming data control software
  • video playback software 162 client software for HTTP (HyperText Transfer Protocol) access
  • HTTP HyperText Transfer Protocol
  • the control software 161 is software that controls data to be streamed from the web server 142. Specifically, the control software 161 causes the video reproduction terminal 144 to acquire the MPD file from the Web server 142.
  • control software 161 requests transmission of an audio stream of a track to be reproduced specified by the moving image reproduction software 162 and a track of the type of the Ext element corresponding to the group based on the MPD file. It instructs the access software 163.
  • the video playback software 162 is software for playing back an audio stream acquired from the web server 142. Specifically, the moving image reproduction software 162 designates the group to be reproduced and the type of Ext element corresponding to the group as the control software 161. Also, when receiving the notification of the reception start from the access software 163, the video playback software 162 decodes the audio stream received by the video playback terminal 144. The video reproduction software 162 synthesizes and outputs audio data obtained as a result of decoding as necessary.
  • the access software 163 is software that controls communication with the web server 142 via the Internet 13 using HTTP. Specifically, the access software 163 causes the moving picture reproduction terminal 144 to transmit a transmission request of the audio stream of the track to be reproduced included in the audio file in accordance with an instruction of the control software 161. Also, in response to the transmission request, the access software 163 causes the video playback terminal 144 to start receiving the audio stream transmitted from the Web server 142, and supplies a notification of reception start to the video playback software 162. .
  • FIG. 9 is a diagram for explaining the outline of the first example of the track of the audio file.
  • FIG. 9 for convenience of explanation, only a track of audio data in 3D audio is shown. The same applies to FIGS. 20, 23, 26, 28, 30, 32, 35, and 38, which will be described later.
  • all 3D audio audio streams are stored in one audio file (3 dauio.mp4).
  • the audio files of each group of 3D audio are divided into different tracks and arranged.
  • information on the entire 3D audio is arranged as a base track (Base Track).
  • Track Reference is placed in the track box of each track.
  • Track Reference indicates the reference relationship between the corresponding track and other tracks.
  • the Track Reference indicates an ID unique to the track of another track in a reference relationship (hereinafter referred to as a track ID).
  • the track of the base track, the group # 1 having a group ID of 1, the group # 2 having a group ID of 2, the group # 3 having a group ID of 3, and the group # 4 having a group ID of 4 Track IDs are 1, 2, 3, 4, and 5.
  • the track references of the base tracks are 2, 3, 4, and 5, and the track references of the tracks of groups # 1 to # 4 are 1, which is the track ID of the base track. Therefore, the base track and the tracks of groups # 1 to # 4 are in a reference relationship. That is, the base track is referred to when the tracks of groups # 1 to # 4 are played back.
  • 4cc character code of the sample entry of the base track is "mha2"
  • the sample entry of the base track contains config information of all groups of 3D audio or config information required to decode only the base track.
  • An mhaC box and an mhas box containing information about all groups of 3D audio and switch groups are arranged.
  • the information on the group is constituted by the ID of the group, the information representing the contents of the data of the elements classified into the group, and the like.
  • the information on the switch group is configured by an ID of the switch group, an ID of a group forming the switch group, and the like.
  • 4cc of the sample entry of the track of each group is “mhg1”, and the sample entry of the track of each group may have an mhgC box including information on the group.
  • an mhsC box including information on the switch Group is arranged in the sample entry of the track of the group.
  • reference information to the sample of each group track or config information necessary for decoding the reference information is placed.
  • the reference information is configured by the position and size of the sample of the track of each group, the group type, and the like.
  • FIG. 10 is a diagram illustrating an example of the syntax of sample entries of a base track.
  • an mhaC box MHA Configuration Box
  • an mhas box MHA Audio SceneInfo Box
  • config information of all groups of 3D audio or config information necessary for decoding only the base track is described.
  • AudioScene information including information on all groups and switch groups of 3D audio is described. This AudioScene information describes the hierarchical structure of FIG.
  • FIG. 11 is a diagram illustrating an example of syntax of sample entries of tracks of each group.
  • an mhaC box (MHA Configuration Box), an mhg C box (MHA Group Definition Box), an mhs C box (MHA Switch Gropu Definition Box), and the like are arranged in sample entries of tracks of each group.
  • Config information necessary for decoding the corresponding track is described.
  • AudioScene information on the corresponding group is described as GroupDefinition.
  • AudioScene information on the switch group is described as a SwitchGroupDefinition.
  • FIG. 12 is a diagram showing a first example of the segment structure of the audio file.
  • the Initial segment is composed of an ftyp box and a moov box.
  • trak box is arranged for each track included in the audio file.
  • an mvex box including information indicating the correspondence between the track ID of each track and the level used in the ssix box in the media segment is arranged.
  • the media segment is composed of a sidx box, an ssix box, and one or more subsegments.
  • position information indicating the position in the audio file of each subsegment is placed.
  • the ssix box contains positional information of each level audio stream arranged in the mdat box.
  • the levels correspond to the tracks.
  • the position information of the first track is position information of data consisting of the moof box and the audio stream of the first track.
  • the subsegment is provided for each arbitrary length of time, and the subsegment is provided with a pair of moof box and mdat box common to all the tracks.
  • the audio streams of all the tracks are collectively arranged by an arbitrary time length, and in the moof box, management information of the audio stream is arranged.
  • the audio stream of each track arranged in the mdat box is continuous for each track.
  • Track 1 whose track ID is 1 is a base track
  • Track 2 to Track N whose track IDs are 2 to N are tracks of a group whose group ID is 1 to N-1. The same applies to FIG. 13 described later.
  • FIG. 13 is a diagram showing a second example of the segment structure of the audio file.
  • the segment structure of FIG. 13 differs from the segment structure of FIG. 12 in that the moof box and the mdat box are provided for each track.
  • the Initial segment of FIG. 13 is the same as the Initial segment of FIG.
  • the media segment in FIG. 13 is configured by a sidx box, an ssix box, and one or more subsegments, similarly to the media segment in FIG. 12. Similar to the sidx box in FIG. 12, position information of each subsegment is arranged in the sidx box.
  • the ssix box contains position information of data of each level consisting of the moof box and the mdat box.
  • the subsegment is provided for an arbitrary length of time, and the subsegment is provided with a pair of moof box and mdat box for each track. That is, in the mdat box of each track, the audio streams of the track are collectively arranged (interleaved) for an arbitrary time length, and the management information of the audio stream is arranged in the moof box.
  • FIG. 14 is a diagram showing a description example of the level assignment box arranged in the mvex box of FIG. 12 and FIG.
  • the level assignment box is a box that associates the track ID of each track with the level used in the ssix box.
  • a base track whose track ID is 1 is associated with level 0
  • a channel audio track whose track ID is 2 is associated with level 1.
  • the HOA audio track whose track ID is 3 is associated with level 2
  • the object metadata track whose track ID is 4 is associated with level 3.
  • an object audio track whose track ID is 5 is associated with level 4.
  • FIG. 15 is a diagram showing a first description example of the MPD file.
  • the MPD file describes "Representation” that manages segments of a 3D audio sound file (3daudio.mp4), "SubRepresentation” that manages tracks included in the segment, and the like.
  • the “Representation” and “SubRepresentation” include “codecs” that represents the type (profile, level) of the codec of the entire corresponding segment or track, as a code defined in 3D audio file format.
  • SubRepresentation includes “level” which is a value set in the level assignment box as a value representing the level of the corresponding track.
  • the “SubRepresentation” includes “dependencyLevel” which is a value representing a level corresponding to another track (hereinafter referred to as a reference track) having a reference relationship.
  • DataType is a number indicating the type of definition (definition) of Audio Scene information described in the sample entry of the corresponding track, and definition is the content. For example, when a sample entry of a track includes GroupDefinition, 1 is described as “dataType” of the track, and GroupDefinition is described as “definition”. In addition, when the sample entry of the track includes SwitchGroupDefinition, 2 is described as “dataType” of the track, and SwitchGroupDefinition is described as “definition”. That is, “dataType” and “definition” are information indicating whether SwitchGroupDefinition exists in the sample entry of the corresponding track. "Definition” is binary data and is encoded in a base 64 system.
  • FIG. 16 is a block diagram showing a configuration example of the file generation device 141 of FIG.
  • the file generation device 141 of FIG. 16 includes a speech coding processing unit 171, a speech file generation unit 172, an MPD generation unit 173, and a server upload processing unit 174.
  • the audio encoding processing unit 171 of the file generation device 141 encodes each audio data and metadata of 3D audio of moving image content at a plurality of encoding rates, and generates an audio stream.
  • the audio encoding processing unit 171 supplies the audio file for each encoding rate to the audio file generation unit 172.
  • the audio file generator 172 assigns a track to the audio stream supplied from the audio encoder 171 for each type of group and Ext element.
  • the audio file generator 172 generates, for each coding rate and segment, an audio file of the segment structure shown in FIG. 12 or 13 in which the audio stream of each track is arranged in units of subsegments.
  • the audio file generation unit 172 supplies the generated audio file to the MPD generation unit 173.
  • the MPD generation unit 173 determines, for example, the URL of the Web server 142 storing the audio file supplied from the audio file generation unit 172. Then, the MPD generation unit 173 generates an MPD file in which the URL or the like of the audio file is disposed in the "Segment" of the "Representation” for the audio file. The MPD generation unit 173 supplies the generated MPD file and the audio file to the server upload processing unit 174.
  • the server upload processing unit 174 uploads the audio file and the MPD file supplied from the MPD generation unit 173 to the Web server 142.
  • FIG. 17 is a flow chart for explaining the file generation process of the file generation apparatus 141 of FIG.
  • step S191 in FIG. 17 the audio encoding processing unit 171 encodes each audio data and metadata of 3D audio of moving image content at a plurality of encoding rates, and generates an audio stream.
  • the audio encoding processing unit 171 supplies the audio file for each encoding rate to the audio file generation unit 172.
  • step S192 the audio file generator 172 assigns a track to the audio stream supplied from the audio encoder 171 for each type of group and Ext element.
  • step S193 the audio file generator 172 generates the audio file of the segment structure shown in FIG. 12 or 13 in which the audio stream of each track is arranged in units of subsegments for each coding rate and segment.
  • the audio file generation unit 172 supplies the generated audio file to the MPD generation unit 173.
  • step S194 the MPD generation unit 173 generates an MPD file including the URL of the audio file and the like.
  • the MPD generation unit 173 supplies the generated MPD file and the audio file to the server upload processing unit 174.
  • step S195 the server upload processing unit 174 uploads the audio file and the MPD file supplied from the MPD generation unit 173 to the web server 142. Then, the process ends.
  • FIG. 18 is a block diagram showing a configuration example of a streaming reproduction unit realized by the moving image reproduction terminal 144 of FIG. 8 executing the control software 161, the moving image reproduction software 162, and the access software 163. .
  • the streaming reproduction unit 190 in FIG. 18 includes an MPD acquisition unit 91, an MPD processing unit 191, an audio file acquisition unit 192, an audio decoding processing unit 194, and an audio synthesis processing unit 195.
  • the MPD acquisition unit 91 of the streaming reproduction unit 190 acquires the MPD file from the web server 142 and supplies the MPD file to the MPD processing unit 191.
  • the MPD processing unit 191 extracts information such as the URL of the audio file of the segment to be reproduced described in “Segment” for the audio file from the MPD file supplied from the MPD acquisition unit 91, and transmits the information to the audio file acquisition unit 192. Supply.
  • the audio file acquisition unit 192 requests the Web server 142 to acquire an audio stream of a reproduction target track in the audio file specified by the URL supplied from the MPD processing unit 191.
  • the audio file acquisition unit 192 supplies the acquired audio stream to the audio decoding processing unit 194.
  • the audio decoding processing unit 194 decodes the audio stream supplied from the audio file acquisition unit 192.
  • the speech decoding processing unit 194 supplies speech data obtained as a result of the decoding to the speech synthesis processing unit 195.
  • the speech synthesis processing unit 195 synthesizes and outputs the speech data supplied from the speech decoding processing unit 194 as necessary.
  • the voice file acquisition unit 192, the voice decoding processing unit 194, and the voice synthesis processing unit 195 function as a playback unit, and from the voice file stored in the Web server 142, the audio stream of the track to be played Get and play.
  • FIG. 19 is a flow chart for explaining the reproduction processing of the streaming reproduction unit 190 of FIG.
  • step S 211 in FIG. 19 the MPD acquisition unit 91 of the streaming reproduction unit 190 acquires the MPD file from the web server 142 and supplies the MPD file to the MPD processing unit 191.
  • step S 212 the MPD processing unit 191 extracts information such as the URL of the audio file of the segment to be reproduced described in “Segment” for the audio file from the MPD file supplied from the MPD acquisition unit 91.
  • the information is supplied to the acquisition unit 192.
  • step S213 the audio file acquisition unit 192 requests the web server 142 for an audio stream of a reproduction target track in the audio file specified by the URL based on the URL supplied from the MPD processing unit 191, get.
  • the audio file acquisition unit 192 supplies the acquired audio stream to the audio decoding processing unit 194.
  • step S214 the audio decoding processing unit 194 decodes the audio stream supplied from the audio file acquisition unit 192.
  • the speech decoding processing unit 194 supplies speech data obtained as a result of the decoding to the speech synthesis processing unit 195.
  • step S215 the speech synthesis processing unit 195 synthesizes and outputs the speech data supplied from the speech decoding processing unit 194 as necessary.
  • GroupDefinition and SwitchGroupDefinition are placed in the sample entry, but as shown in FIG. 20, they are placed in the sample group entry which is a sample entry for each group of subsamples in the track. It is also good.
  • the sample group entry of the track of the group forming the switch Group includes GroupDefinition and SwitchGroupDefinition, as shown in FIG. Although illustration is omitted, the sample group entry of the track of the group not forming the switch Group includes only GroupDefinition.
  • the sample entries of the tracks of each group are as shown in FIG. That is, as shown in FIG. 22, an MHAGroupAudioConfigrationBox in which Config information such as the profile (MPEGHAudioProfile) and level (MPEGHAudioLevel) of the audio stream of the corresponding track is described is arranged in the sample entry of the track of each group.
  • Config information such as the profile (MPEGHAudioProfile) and level (MPEGHAudioLevel) of the audio stream of the corresponding track is described is arranged in the sample entry of the track of each group.
  • FIG. 23 is a diagram for explaining an outline of a third example of the track of the audio file.
  • the configuration of the audio data track of FIG. 23 is divided into a point that the base track includes an audio stream of one or more groups of 3D audio, and each track (hereinafter referred to as a group track) that does not include information related to the entire 3D audio.
  • This embodiment differs from the configuration of FIG. 9 in that the number of groups corresponding to the audio stream to be played is one or more.
  • the sample entry of the base track of FIG. 23 has the syntax for the base track when the audio stream of audio data of the 3D audio is divided into a plurality of tracks and arranged. Is a sample entry (FIG. 10) whose "mha2" is.
  • the sample entry of the group track has a syntax for the group track when the audio stream of audio data of the 3D audio is divided into a plurality of tracks and arranged.
  • Sample entry (FIG. 11). Therefore, 4cc of the sample entry can identify the base track and the group track and recognize the inter-track dependency.
  • Track References are arranged in the track box of each track. Therefore, even if it is not known which of “mha2” and “mhg1” is 4cc of the sample entry of the base track or the group track, the track reference can recognize the dependency between the tracks.
  • the mhgC box and the mhsC box may not be described in the sample entry of the group track.
  • the mhaC box may not be described in the sample entry of the group track.
  • the config information capable of independently reproducing the base track is described in the sample entry of the base track.
  • the mhaC box containing is described.
  • Whether it is the former state or the latter state can be identified by the presence or absence of config information in the sample entry, but it is identified by writing a flag in the sample entry or changing the type of sample entry. It can also be possible. Although illustration is omitted, when making the former state and the latter state distinguishable by changing the type of sample entry, 4 cc of the sample entry of the base track is, for example, the case of the former state "mha2 If it is in the latter state, it will be "mha4".
  • FIG. 24 is a diagram showing an example of description of the MPD file when the configuration of the track of the audio file is the configuration of FIG.
  • the MPD file of FIG. 24 differs from the MPD file of FIG. 15 in that “SubRepresentation” of the base track is described.
  • the “codecs” of the base track is “mha 2.2.1”, and “level” is “0” as a value representing the level of the base track. “Dependency Level” is “1” and “2” as values representing the level of the group track. Also, “dataType” is "3” as a number representing the AudioScene information described in the mhas box of the sample entry of the base track as a type, and “definition” is a binary of AudioScene information encoded by the base 64 system. It is data.
  • AudioScene information may be divided and described in “SubRepresentation” of the base track.
  • “1” represents “Atmo,” which represents the content of the group of group ID “1”, among the AudioScene information (FIG. 7) described in the mhas box of the sample entry of the base track. Is set.
  • “Dialog EN” representing the content of the group of group ID “2”
  • “Dialog FR” representing the content of the group of group ID “3”
  • “VoiceOver GE” representing the content of the group of group ID “4”
  • Each of “Effects” that represents the content of the group with group ID “5”, “Effect” that represents the content of the group with group ID “6”, and “Effect” that represents the content of the group with group ID “7” as types “2” to “7” are set as the numbers.
  • FIG. 26 is a diagram for explaining the outline of a fourth example of the track of the audio file.
  • the configuration of the audio data track of FIG. 26 differs from the configuration of FIG. 23 in that the sample entry of the group track is a sample entry in which 4 cc is “mha2”.
  • both 4ccs of sample entries of the base track and the group track become "mha2". Therefore, 4cc of the sample entry can not identify the base track and the group track and can not recognize the inter-track dependency. Therefore, the dependency between the tracks is recognized by the Track Reference placed in the track box of each track.
  • 4cc of the sample entry is “mha 2”, it can be identified that the corresponding track is a track when the audio stream of audio data of 3D audio is divided into a plurality of tracks and arranged. .
  • the config information of all groups of 3D audio or config information capable of independently reproducing the base track is described. Also, in the mhas box, AudioScene information including information on all groups and switch groups of 3D audio is described.
  • the mhas box is not arranged in the sample entry of the group track.
  • the mhaC box may not be described in the sample entry of the group track.
  • the sample entry of the group track includes the config information capable of independently reproducing the group track. The mhaC box is described. Whether it is the former state or the latter state can be identified by the presence or absence of config information in the sample entry, but it is identified by writing a flag in the sample entry or changing the type of sample entry. It can also be possible.
  • FIG. 27 is a diagram showing an example of description of the MPD file when the configuration of the track of the audio file is the configuration of FIG.
  • AudioScene information may be described separately in “SubRepresentation” of the base track.
  • FIG. 28 is a diagram for explaining the outline of a fifth example of the track of the audio file.
  • the configuration of the audio data track in FIG. 28 is that the sample entry of the base track and the group track is both the base track and the group track when the audio stream of the audio data of the 3D audio is divided into a plurality of tracks. It differs from the configuration of FIG. 23 in that it is a sample entry having a suitable syntax.
  • the dependency between the tracks is recognized by the Track References placed in the track box of each track. Also, since 4cc of the sample entry is “mha 3”, it can be identified that the corresponding track is a track when the audio stream of audio data of the 3D audio is divided into a plurality of tracks and arranged. .
  • FIG. 29 is a diagram illustrating an example of syntax of a sample entry in which 4 cc is “mha3”.
  • the syntax of the sample entry of 4 cc "mha3" is a synthesis of the syntax of FIG. 10 and the syntax of FIG.
  • mhaC box MHA Configuration Box
  • mhas box MHAAudioSceneInfo Box
  • mhgC box MHAGroupDefinitionBox
  • mhsC box MHASwitchGropuDefinition Box
  • config information of all groups of 3D audio or config information capable of independently reproducing the base track is described. Also, in the mhas box, AudioScene information including information on all groups and switch groups of 3D audio is described, and mhgC box and mhsC box are not arranged.
  • the mhaC box may not be described in the sample entry of the group track.
  • the sample entry of the group track includes the config information capable of independently reproducing the group track.
  • the mhaC box is described. Whether it is the former state or the latter state can be identified by the presence or absence of config information in the sample entry, but it is identified by writing a flag in the sample entry or changing the type of sample entry. It can also be possible.
  • the former state and the latter state can be distinguished by changing the type of sample entry
  • 4 cc of the sample entries of the base track and the group track are, for example, in the former state In some cases “mha3" and in the latter case "mha5".
  • the mhas box is not placed in the sample entry of the group track.
  • the mhgC box and the mhsC box may or may not be arranged.
  • the mhas box, the mhgC box, and the mhsC box are arranged, and the mhaC in which config information that allows only the base track to be independently reproduced is described
  • Both mhaC boxes containing config information of all groups of boxes and 3D audio may be arranged.
  • the mhaC box in which the config information of all the groups of 3D audio is described and the mhaC box in which the config information that enables only the base track to be independently reproduced are flags included in these mhaC boxes Identified by Also, in this case, the mhaC box may not be described in the sample entry of the group track.
  • Whether the mhaC box is described in the sample entry of the group track can be identified by the presence or absence of the mhaC box in the sample entry of the group track, but a flag is described in the sample entry or the type of sample entry is changed. It can also be made distinguishable. Although illustration is omitted, if it is possible to identify whether the mhaC box is described in the sample entry of the group track by changing the type of sample entry, 4cc of the sample entry of the base track and the group track is For example, when an mhaC box is described in a sample entry of a group track, "mha3" is set, and when an mhaC box is not described in a sample entry of a group track, "mha5" is set. In FIG. 30, the mhgC box and the mhsC box may not be described in the sample entry of the base track.
  • FIG. 31 is a diagram showing an example of description of the MPD file when the configuration of the track of the audio file is the configuration of FIG. 28 or FIG.
  • the MPD file of FIG. 31 is that the “codecs” of “Representation” is “mha3.3.1” and the point that “codecs” of “SubRepresentation” is “mha3.2.1” is the MPD file of FIG. It is different.
  • AudioScene information may be described separately in “SubRepresentation” of the base track.
  • FIGS. 32 to 34 are diagrams showing the case where no Track Reference is arranged in the track box of the track of the audio file of FIGS. 23, 26 and 28, respectively.
  • FIG. 32 although Track References are not arranged, since 4cc of sample entries of the base track and the group track are different, it is possible to recognize the dependency between the tracks.
  • FIG. 33 and FIG. 34 by disposing the mhas box, it is possible to identify whether it is a base track or not.
  • the MPD files in the case where the configuration of the track of the audio file is the configuration of FIGS. 32 to 34 are the same as the MPD files of FIG. 24, FIG. 27, and FIG. 31, respectively.
  • AudioScene information may be divided and described in “SubRepresentation” of the base track, as in the case of FIG. 25.
  • FIG. 35 is a diagram for explaining the outline of a sixth example of the track of the audio file.
  • reference information to the sample of each group of tracks and config information necessary for decoding the reference information are not arranged in the samples of the base track, and audio of 0 or more groups is arranged.
  • the difference from the configuration of FIG. 33 is that the stream is included and that the sample entry of the base track describes reference information to the sample of each group of tracks.
  • AudioScene information is described in a sample entry in which 4cc is “mha2”, which has syntax for a base track when an audio stream of audio data of 3D audio is divided into a plurality of tracks.
  • An mhmt box is newly arranged to describe to which track each group is divided.
  • FIG. 36 is a diagram showing an example of syntax of sample entries of the base track and group track of FIG. 35 in which 4 cc is “mha2”.
  • the configuration of the sample entry in which 4cc in FIG. 36 is “mha2” is different from the configuration in FIG. 10 in that the MHAMultiTrackDescription box (mhmt box) is arranged.
  • the correspondence between the group ID (group_ID) and the track ID (track_ID) is described as reference information.
  • audio elements and track IDs may be described in association with each other.
  • the reference information does not change for each sample, the reference information can be efficiently described by arranging the mhmt box in the sample entry.
  • the syntax of the sample entry in which 4 cc is “mha3” is as shown in FIG. That is, the configuration of the sample entry in which 4cc in FIG. 37 is “mha3” is different from the configuration in FIG. 29 in that the MHAMultiTrackDescription box (mhmt box) is arranged.
  • the base track does not include the audio stream of one or more groups of 3D audio. May be Also, the number of groups corresponding to the audio stream divided into each group track may be one.
  • GroupDefinition and SwitchGroupDefinition may be arranged in the sample group entry as in the case of FIG. .
  • FIG. 38 is a view for explaining an outline of a track in the second embodiment to which the present disclosure is applied.
  • the first embodiment is that each track is recorded as a different file (3da_base.mp4 / 3da_group1.mp4 / 3da_group2.mp4 / 3da_group3.mp4 / 3da_group4.mp4). It is different from the form of In this case, it is possible to obtain only the desired track data by obtaining the desired track file via HTTP. Therefore, acquisition of desired track data via HTTP can be efficiently performed.
  • FIG. 39 is a diagram showing an example of description of an MPD file in the second embodiment to which the present disclosure is applied.
  • the MPD file describes “Representation” etc. that manages segments of 3D audio audio files (3da_base.mp4 / 3da_group1.mp4 / 3da_group2.mp4 / 3da_group3.mp4 / 3da_group4.mp4). Be done.
  • “Representation” includes “codecs”, “id”, “associationId”, and “assciationType”.
  • “Id” is an ID of "Representation” including it.
  • “Association Id” is information representing a reference relationship between the corresponding track and another track, and is “id” of the reference track.
  • “AssciationType” is a code that represents the meaning of the reference relationship (dependency relationship) with the reference track, and, for example, the same value as the value of the track reference of MP4 is used.
  • “Representation” for managing segments of each audio file is provided under one "AdaptationSet”, but “AdaptationSet” is provided for each segment of each audio file, and below that , “Representation” may be provided to manage the segment.
  • FIG. 40 is a diagram for describing an overview of an information processing system according to a second embodiment to which the present disclosure is applied.
  • the information processing system 210 in FIG. 40 is configured by connecting the Web server 212 connected to the file generation apparatus 211 and the moving image reproduction terminal 214 via the Internet 13.
  • the Web server 142 distributes the audio stream of the audio file of the group to be reproduced to the moving image reproduction terminal 144 by a method conforming to the MPEG-DASH.
  • the file generation device 211 encodes each audio data and metadata of 3D audio of moving image content at a plurality of encoding rates, and generates an audio stream.
  • the file generation device 211 divides the audio stream into groups and types of Ext elements to make audio streams of different tracks.
  • the file generator 211 files an audio stream and generates an audio file for each coding rate, segment, and track.
  • the file generation device 211 uploads the audio file obtained as a result to the Web server 212. Also, the file generation device 211 generates an MPD file and uploads it to the Web server 212.
  • the web server 212 stores the encoding speed, segment, and audio file and MPD file for each track uploaded from the file generation device 211. In response to a request from the video playback terminal 214, the Web server 212 transmits the stored audio file, MPD file, and the like to the video playback terminal 214.
  • the video playback terminal 214 executes control software 221, video playback software 162, access software 223, and the like.
  • the control software 221 is software for controlling data to be streamed from the web server 212. Specifically, the control software 221 causes the video playback terminal 214 to acquire the MPD file from the Web server 212.
  • control software 221 requests transmission of an audio stream of a group to be reproduced specified by the video reproduction software 162 based on the MPD file, and an audio file of an Ext element type corresponding to the group. , And instructs the access software 223.
  • the access software 223 is software that controls communication with the web server 212 via the Internet 13 using HTTP. Specifically, the access software 223 transmits the transmission request of the audio stream of the audio file to be reproduced to the moving picture reproduction terminal 144 in accordance with the instruction of the control software 221. Also, in response to the transmission request, the access software 223 causes the video playback terminal 144 to start receiving the audio stream transmitted from the Web server 212 and supplies a notification of reception start to the video playback software 162. .
  • FIG. 41 is a block diagram showing a configuration example of the file generation apparatus 211 of FIG.
  • the configuration of the file generation apparatus 211 of FIG. 41 is that the audio file generation unit 241 and the MPD generation unit 242 are provided instead of the audio file generation unit 172 and the MPD generation unit 173. It is different from
  • the audio file generation unit 241 of the file generation device 211 assigns a track to the audio stream supplied from the audio coding processing unit 171 for each type of group and Ext element.
  • the audio file generation unit 241 generates an audio file in which an audio stream is arranged for each of the coding speed, the segment, and the track.
  • the audio file generation unit 241 supplies the generated audio file to the MPD generation unit 242.
  • the MPD generation unit 242 determines the URL or the like of the Web server 142 storing the audio file supplied from the audio file generation unit 172.
  • the MPD generation unit 242 generates an MPD file in which the URL or the like of the audio file is disposed in the "Segment" of the "Representation” for the audio file.
  • the MPD generation unit 173 supplies the generated MPD file and the audio file to the server upload processing unit 174.
  • FIG. 42 is a flow chart for explaining the file generation process of the file generation apparatus 211 of FIG.
  • steps S301 and S302 in FIG. 42 are the same as the processes in steps S191 and S192 in FIG.
  • step S303 the audio file generation unit 241 generates an audio file in which an audio stream is arranged for each of the coding rate, the segment, and the track.
  • the audio file generation unit 241 supplies the generated audio file to the MPD generation unit 242.
  • steps S304 and S305 are the same as the processes in steps S194 and S195 in FIG.
  • FIG. 43 is a block diagram showing a configuration example of a streaming reproduction unit realized by the moving image reproduction terminal 214 of FIG. 40 executing the control software 221, the moving image reproduction software 162, and the access software 223. .
  • the configuration of the streaming reproduction unit 260 in FIG. 43 is different from the configuration of the streaming reproduction unit 190 in FIG. 18 in that an audio file acquisition unit 264 is provided instead of the audio file acquisition unit 192.
  • the audio file acquisition unit 264 requests the Web server 142 to acquire an audio stream of the audio file based on the URL of the audio file of the track to be reproduced among the URLs supplied from the MPD processing unit 191.
  • the audio file acquisition unit 264 supplies the acquired audio stream to the audio decoding processing unit 194.
  • the voice file acquisition unit 264, the voice decoding processing unit 194, and the voice synthesis processing unit 195 function as a playback unit, and from the voice file stored in the Web server 212, the audio stream of the voice file of the track to be played Get and play.
  • FIG. 44 is a flowchart for describing reproduction processing of the streaming reproduction unit 260 in FIG.
  • steps S321 and S322 in FIG. 44 are the same as the processes in steps S211 and S212 in FIG.
  • step S323 the audio file acquisition unit 192 requests the web server 142 for an audio stream of the audio file based on the URL of the audio file of the track to be reproduced among the URLs supplied from the MPD processing unit 191. ,get.
  • the audio file acquisition unit 264 supplies the acquired audio stream to the audio decoding processing unit 194.
  • steps S324 and S325 are the same as the processes of steps S214 and S215 of FIG.
  • GroupDefinition or SwitchGroupDefinition may be arranged in the sample group entry.
  • FIGS. 45 to 47 show MPDs in the case where the configuration of the track of audio data is the configuration shown in FIG. 23, FIG. 26 and FIG. 28, respectively, in the second embodiment.
  • codecs” of “Representation” of the base track of the MPD in FIG. 45 is “mha 2.2.1”
  • associationId is “id” of the group track “g1” and “g2” It is.
  • codecs of the group track of the MPD in FIG. 46 is “mha 2.2.1”.
  • “codecs” of the base track and the group track is different from the MPD of FIG. Specifically, the “codecs” of the group track of the MPD in FIG. 47 is “mha3.2.1”.
  • base track only one base track is provided, but a plurality of base tracks may be provided.
  • a base track is provided, for example, for each viewpoint of 3D audio (details will be described later), and in the base track, an mhaC box including config information of all groups of 3D audio of each viewpoint is arranged.
  • an mhas box including AudioScene information of each viewpoint may be arranged.
  • the viewpoint of 3D audio is a position where the 3D audio can be heard, such as the viewpoint of an image reproduced simultaneously with 3D audio, a predetermined position set in advance, and the like.
  • viewpoint of 3D audio is a plurality of viewpoints of images of a baseball stadium that can be reproduced simultaneously with the 3D audio
  • an image having a back net back, a first base in-field seat, a third base in-field seat, a left support seat, a light support seat and the like as viewpoints is prepared as a multi-image which is an image of a viewpoint other than the basic viewpoint.
  • preparing 3D audio of all viewpoints increases the amount of data of 3D audio. Therefore, audio streams such as Object audio and SAOC Object audio, which change according to the position on the screen of the object, can be shared between the views by describing the position on the screen of the object at each view in the base track. . As a result, it is possible to reduce the amount of data of the audio stream of 3D audio.
  • audio streams such as Object audio and SAOC Object audio of the basic viewpoint and the base track corresponding to the main image or multi-image viewpoint to be reproduced simultaneously are different according to the viewpoint. Audio is played back.
  • the viewpoints of 3D audio are positions of a plurality of seats of a stadium set in advance
  • preparing 3D audio of all viewpoints increases the amount of data of 3D audio. Therefore, audio streams such as Object audio and SAOC Object audio can be shared between the viewpoints by describing the position on the screen of the object in each viewpoint in the base track. As a result, it becomes possible to reproduce different sounds according to the seat selected by the user using the seating chart etc. using Object audio and SAOC Object audio of one viewpoint, and data of the audio stream of 3D audio The amount can be reduced.
  • the track structure of FIG. 28 when a base track is provided for each viewpoint of 3D audio, the track structure is as shown in FIG. In the example of FIG. 51, there are three 3D audio viewpoints. Also, in the example of FIG. 51, Channel audio is generated for each viewpoint of 3D audio, and other audio data is shared among the viewpoints of 3D audio. These are the same in the example of FIG. 52 described later.
  • an mhaC box including the config information of all groups of 3D audio of each viewpoint is arranged.
  • the config information of all groups of 3D audio of each viewpoint includes the position on the screen of the object at that viewpoint.
  • an mhas box including AudioScene information of each viewpoint is arranged.
  • each base track sample an audio stream of a group of channel audio of each viewpoint is arranged.
  • the Object Metadata is also arranged in the samples of each base track.
  • this object-based Object Metadata is arranged, for each view, on the sample of the base track corresponding to the view.
  • the configuration of the group track of FIG. 51 is the same as that of FIG. 28 except that the audio stream of the channel audio group is not arranged, and therefore the description thereof is omitted.
  • the audio streams of the channel audio group of each viewpoint may not be arranged in the base track, but may be arranged in different group tracks.
  • the track structure is as shown in FIG.
  • the audio stream of the channel audio group of the viewpoint corresponding to the base track whose track ID is “1” is arranged in the group track whose track ID is “4”. Also, the audio stream of the channel audio group of the viewpoint corresponding to the base track whose track ID is “2” is arranged in the group track whose track ID is “5”.
  • the audio stream of the channel audio group of the viewpoint corresponding to the base track whose track ID is "3" is arranged in the group track whose track ID is "6".
  • 4cc of the sample entry of the base track is “mhcf”, but “mha3” which is the same as that of FIG. 28 may be used.
  • the series of processes of the web server 142 (212) described above can be performed by hardware or software.
  • a program that configures the software is installed on a computer.
  • the computer includes, for example, a general-purpose personal computer that can execute various functions by installing a computer incorporated in dedicated hardware and various programs.
  • FIG. 53 is a block diagram showing an example of a hardware configuration of a computer that executes the series of processes of the Web server 142 (212) described above according to a program.
  • a central processing unit (CPU) 601, a read only memory (ROM) 602, and a random access memory (RAM) 603 are mutually connected by a bus 604.
  • an input / output interface 605 is connected to the bus 604.
  • An input unit 606, an output unit 607, a storage unit 608, a communication unit 609, and a drive 610 are connected to the input / output interface 605.
  • the input unit 606 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 607 includes a display, a speaker, and the like.
  • the storage unit 608 is formed of a hard disk, a non-volatile memory, or the like.
  • the communication unit 609 is formed of a network interface or the like.
  • the drive 610 drives removable media 611 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 601 loads the program stored in the storage unit 608 into the RAM 603 via the input / output interface 605 and the bus 604 and executes the program. Processing is performed.
  • the program executed by the computer (CPU 601) can be provided by being recorded on, for example, a removable medium 611 as a package medium or the like. Also, the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 608 via the input / output interface 605 by attaching the removable media 611 to the drive 610.
  • the program can be received by the communication unit 609 via a wired or wireless transmission medium and installed in the storage unit 608.
  • the program can be installed in advance in the ROM 602 or the storage unit 608.
  • the program executed by the computer may be a program that performs processing in chronological order according to the order described in this specification, in parallel, or when necessary, such as when a call is made. It may be a program to be processed.
  • the hardware configuration of the video playback terminal 144 (214) can be the same as that of the computer shown in FIG. In this case, for example, the CPU 601 executes the control software 161 (221), the moving image reproduction software 162, and the access software 163 (223). The processing of the video reproduction terminal 144 (214) can also be performed by hardware.
  • a system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing or not. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device housing a plurality of modules in one housing are all systems. .
  • the present disclosure can also be applied to an information processing system that performs broadcasting or local storage reproduction, not streaming reproduction.
  • An information processing apparatus comprising: a file generation unit configured to generate a file in which a plurality of types of audio data are divided into tracks according to one or more types, and information on the plurality of types is arranged.
  • a file generation unit configured to generate a file in which a plurality of types of audio data are divided into tracks according to one or more types, and information on the plurality of types is arranged.
  • the file information on an exclusive reproduction type is arranged for each track, the type corresponding to the track and the type corresponding to the audio data reproduced exclusively with the type.
  • the file generation unit is configured to generate a management file for managing the file, including information indicating whether the information regarding the exclusive reproduction type is present for each of the tracks. (5) or (6) The information processing apparatus according to claim 1.
  • the information processing apparatus configured to be one file.
  • the information processing apparatus according to any one of (1) to (12), wherein the file is configured to be a file for each track.
  • the information processing apparatus An information processing method comprising: a file generation step of generating a file in which a plurality of types of audio data are divided into tracks according to one or more types and arranged, and information on the plurality of types is arranged.
  • a reproduction unit configured to reproduce the audio data of a predetermined track from a file in which a plurality of types of audio data are divided into tracks according to one or more types, and information on the plurality of types is arranged; Information processing apparatus provided.
  • the information processing apparatus A reproduction step of reproducing the audio data of a predetermined track from a file in which a plurality of types of audio data are divided and arranged in a track for each of the one or more types and information on the plurality of types is arranged; Information processing method including.
  • Reference Signs List 11 file generation apparatus 192 speech file acquisition unit, 194 speech decoding processing unit, 195 speech synthesis processing unit, 211 file generation apparatus, 264 speech file acquisition unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Hardware Redundancy (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

 本開示は、複数の種類の音声データのうちの所定の種類の音声データを容易に再生することができるようにする情報処理装置および情報処理方法に関する。 ファイル生成装置は、複数のグループのオーディオストリームが1以上のグループごとにトラックに分割されて配置されるとともに、複数のグループに関する情報が配置された音声ファイルを生成する。本開示は、例えば、ファイルを生成するファイル生成装置、ファイル生成装置により生成されたファイルを記録するWebサーバ、および、ファイルを再生する動画再生端末により構成される情報処理システム等に適用することができる。

Description

情報処理装置および情報処理方法
 本開示は、情報処理装置および情報処理方法に関し、特に、複数の種類の音声データのうちの所定の種類の音声データを容易に再生することができるようにした情報処理装置および情報処理方法に関する。
 近年、インターネット上のストリーミングサービスの主流がOTT-V(Over The Top Video)となっている。この基盤技術として普及し始めているのがMPEG-DASH(Moving Picture Experts Group phase - Dynamic Adaptive Streaming over HTTP)である(例えば、非特許文献1参照)。
 MPEG-DASHでは、配信サーバが1本の動画コンテンツ用に画面サイズと符号化速度が異なる動画データ群を用意し、再生端末が伝送路の状況に応じて最適な画面サイズと符号化速度の動画データ群を要求することにより、適応型のストリーミング配信が実現される。
MPEG-DASH(Dynamic Adaptive Streaming over HTTP)(URL:http://mpeg.chiariglione.org/standards/mpeg-dash/media-presentation-description-and-segment-formats/text-isoiec-23009-12012-dam-1)
 しかしながら、複数のグループの音声データのうちの所定のグループの音声データを容易に再生することは考えられていない。
 本開示は、このような状況に鑑みてなされたものであり、複数のグループの音声データのうちの所望のグループの音声データを容易に再生することができるようにするものである。
 本開示の第1の側面の情報処理装置は、複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルを生成するファイル生成部を備える情報処理装置である。
 本開示の第1の側面の情報処理方法は、本開示の第1の側面の情報処理装置に対応する。
 本開示の第1の側面においては、複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルが生成される。
 本開示の第2の側面の情報処理装置は、複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルから、所定のトラックの前記音声データを再生する再生部を備える情報処理装置である。
 本開示の第2の側面の情報処理方法は、本開示の第2の側面の情報処理装置に対応する。
 本開示の第2の側面においては、複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルから、所定のトラックの前記音声データが再生される。
 なお、第1および第2の側面の情報処理装置は、コンピュータにプログラムを実行させることにより実現することができる。
 また、第1および第2の側面の情報処理装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
 本開示の第1の側面によれば、ファイルを生成することができる。また、本開示の第1の側面によれば、複数の種類の音声データのうちの所定の種類の音声データを容易に再生することができるようにしたファイルを生成することができる。
 本開示の第2の側面によれば、音声データを再生することができる。また、本開示の第2の側面によれば、複数の種類の音声データのうちの所定の種類の音声データを容易に再生することができる。
MPDファイルの構造を示す図である。 「Period」、「Representation」、および「Segment」の関係を示す図である。 MPDファイルの階層構造を示す図である。 MPDファイルの構造と時間軸との関係を示す図である。 MP4の3Dオーディオファイルフォーマットのトラックの概要を説明する図である。 moovボックスの構造を示す図である。 3Dオーディオの階層構造を示す図である。 本開示を適用した第1実施の形態における情報処理システムの概要を説明する図である。 本開示を適用した第1実施の形態におけるトラックの第1の例の概要を説明する図である。 ベーストラックのサンプルエントリのシンタクスの例を示す図である。 switch Groupを形成するグループのトラックのサンプルエントリのシンタクスの例を示す図である。 セグメント構造の第1の例を示す図である。 セグメント構造の第2の例を示す図である。 level assignmentボックスの記述例を示す図である。 本開示を適用した第1実施の形態におけるMPDファイルの第1の記述例を示す図である。 図8のファイル生成装置の構成例を示すブロック図である。 図16のファイル生成装置のファイル生成処理を説明するフローチャートである。 図8の動画再生端末により実現されるストリーミング再生部の構成例を示すブロック図である。 図18のストリーミング再生部の再生処理を説明するフローチャートである。 本開示を適用した第1実施の形態におけるトラックの第2の例の概要を説明する図である。 switch Groupを形成するグループのトラックのサンプルグループエントリのシンタクスの例を示す図である。 各グループのトラックのサンプルエントリのシンタクスの例を示す図である。 音声ファイルのトラックの第3の例の概要を説明する図である。 MPDファイルの第2の記述例を示す図である。 MPDファイルの第2の記述例の他の例を示す図である。 音声ファイルのトラックの第4の例の概要を説明する図である。 MPDファイルの第3の記述例を示す図である。 音声ファイルのトラックの第5の例の概要を説明する図である。 4ccが「mha3」であるサンプルエントリのシンタクスの例を示す図である。 4ccが「mha3」であるサンプルエントリのシンタクスの他の例を示す図である。 MPDファイルの第4の記述例を示す図である。 音声ファイルのトラックの第3の例の他の例の概要を説明する図である。 音声ファイルのトラックの第4の例の他の例の概要を説明する図である。 音声ファイルのトラックの第5の例の他の例の概要を説明する図である。 音声ファイルのトラックの第6の例の概要を説明する図である。 図35のベーストラックおよびグループトラックのサンプルエントリのシンタクスの例を示す図である。 4ccが「mha3」であるサンプルエントリのシンタクスのさらに他の例を示す図である。 本開示を適用した第2実施の形態におけるトラックの概要を説明する図である。 本開示を適用した第2実施の形態におけるMPDファイルの第1の記述例を示す図である。 本開示を適用した第2実施の形態における情報処理システムの概要を説明する図である。 図40のファイル生成装置の構成例を示すブロック図である。 図41のファイル生成装置のファイル生成処理を説明するフローチャートである。 図40の動画再生端末により実現されるストリーミング再生部の構成例を示すブロック図である。 図43のストリーミング再生部の再生処理の例を説明するフローチャートである。 本開示を適用した第2実施の形態におけるMPDファイルの第2の記述例を示す図である。 本開示を適用した第2実施の形態におけるMPDファイルの第3の記述例を示す図である。 本開示を適用した第2実施の形態におけるMPDファイルの第4の記述例を示す図である。 本開示を適用した第2実施の形態におけるMPDファイルの第5の記述例を示す図である。 本開示を適用した第2実施の形態におけるMPDファイルの第6の記述例を示す図である。 本開示を適用した第2実施の形態におけるMPDファイルの第7の記述例を示す図である。 複数のベーストラックを有する音声ファイルのトラック構造の例を示す図である。 複数のベーストラックを有する音声ファイルのトラック構造の他の例を示す図である。 コンピュータのハードウエアの構成例を示すブロック図である。
 以下、本開示の前提および本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
 0.本開示の前提(図1乃至図7)
 1.第1実施の形態(図8乃至図37)
 2.第2実施の形態(図38乃至図50)
 3.ベーストラックの他の例(図51および図52)
 4.第3実施の形態(図53)
 <本開示の前提>
 (MPDファイルの構造の説明)
 図1は、MPEG-DASHのMPDファイル(Media Presentation Description)の構造を示す図である。
 MPDファイルの解析(パース)においては、MPDファイル(図1のMedia Presentation)の「Period」に含まれる「Representation」の属性から最適なものが選択される。
 そして、選択された「Representation」の先頭の「Initialization Segment」のURL(Uniform Resource Locator)等を参照してファイルが取得され、処理される。続いて、後続の「Media Segment」のURL等を参照してファイルが取得され、再生される。
 なお、MPDファイルにおける、「Period」、「Representation」、および「Segment」の関係は、図2のようになる。つまり、1つの動画コンテンツは、「Period」により、セグメントより長い時間単位で管理することができ、各「Period」において、「Segment」によりセグメント単位で管理することができる。また、各「Period」において、「Representation」により、動画コンテンツをストリームの属性単位で管理することができる。
 したがって、MPDファイルは、「Period」以下において、図3に示す階層構造を有する。また、このMPDファイルの構造を時間軸上に並べると図4の例のようになる。図4から明らかなように、同一のセグメントに対して複数の「Representation」が存在している。これらのうちのいずれかを適応的に選択することにより、ユーザの所望の属性のストリームを取得し、再生することができる。
 (3Dオーディオファイルフォーマットの概要)
 図5は、MP4の3Dオーディオファイルフォーマットのトラックの概要を説明する図である。
 MP4ファイルでは、トラックごとに、動画コンテンツのコーデック情報やファイル内の位置を示す位置情報を管理することができる。MP4の3Dオーディオファイルフォーマットでは、3Dオーディオ(Channel audio/Object audio/SAOC Object audio/HOA audio/metadata)のオーディオストリーム(ES(Elementary Stream))の全てが、1つのトラックとしてサンプル(フレーム)単位で記録される。また、3Dオーディオのコーデック情報(Profile/level/audio configuration)が、サンプルエントリ(sample entry)として格納される。
 3Dオーディオを構成するChannel audioは、チャンネル単位の音声データであり、Object audioは、オブジェクト単位の音声データである。なお、オブジェクトとは、音源であり、オブジェクト単位の音声データは、そのオブジェクトに取り付けられたマイクロフォンなどにより取得される。オブジェクトは、固定されたマイクスタンドなどの物体であってもよいし、人物などの動体であってもよい。
 また、SAOC Object audioは、SAOC(Spatial Audio Object Coding)の音声データであり、HOA audioは、HOA(Higher Order Ambisonics)の音声データであり、metadataは、Channel audio,Object audio,SAOC Object audio、およびHOA audioのメタデータである。
 (moovボックスの構造)
 図6は、MP4ファイルのmoovボックスの構造を示す図である。
 図6に示すように、MP4ファイルでは、画像データと音声データが異なるトラックとして記録される。図6では、音声データのトラックの詳細は記述していないが、画像データのトラックと同様である。sample entryは、moovボックス内のstsdボックスに配置されるsample descriptionに含まれる。
 ところで、MP4ファイルの放送やローカルストレージ再生では、一般的に、サーバ側が、全ての3Dオーディオのオーディオストリームを送出する。そして、クライアント側が、全ての3Dオーディオのオーディオストリームをパースしながら、必要な3Dオーディオのオーディオストリームのみを復号し、出力する。しかしながら、ビットレートが高い場合や、ローカルストレージの読み込みレートに制約がある場合、必要な3Dオーディオのオーディオストリームのみを取得することにより、デコード処理の負荷を軽減することが望ましい。
 また、MPEG-DASHに準拠したMP4ファイルのストリーム再生では、サーバ側は、複数の符号化速度のオーディオストリームを用意している。従って、クライアント側が、必要な3Dオーディオのオーディオストリームだけを取得することにより、再生環境に最適な符号化速度のオーディオストリームを選択し、取得することができる。
 以上により、本開示では、3Dオーディオのオーディオストリームを種類に応じてトラックに分割し、音声ファイルに配置することにより、所定の種類の3Dオーディオのオーディオストリームのみを効率良く取得可能にする。これにより、放送やローカルストレージ再生では、デコード処理の負荷を軽減することができる。また、ストリーム再生では、帯域に応じて、必要な3Dオーディオのオーディオストリームのうちの最も品質の高いものを再生することができる。
 (3Dオーディオの階層構造の説明)
 図7は、3Dオーディオの階層構造を示す図である。
 図7に示すように、3Dオーディオの音声データは、音声データごとに異なるオーディオエレメント(Element)とされる。オーディオエレメントのタイプとしては、SCE(Single Channel Element)とCPE(Channel Pair Element)がある。1チャンネル分の音声データのオーディオエレメントのタイプはSCEであり、2チャンネル分の音声データに対応するオーディオエレメントのタイプはCPEである。
 オーディオエレメントは、同一の音声の種類(Channel/Object/SAOC Object/HOA)どうしでグループを形成する。従って、グループタイプ(GroupType)としては、Channels,Objects,SAOC Objects、およびHOAである。2以上のグループは、必要に応じて、switch Groupやgroup Presetを形成することができる。
 switch Groupは、そこに含まれるグループのオーディオストリームが排他的に再生されるグループ(排他的再生グループ)である。即ち、図7に示すように、英語(EN)用のObject audioのグループと、フランス語(FR)用のObject audioのグループが存在する場合、いずれか一方のグループのみが再生されるべきである。従って、グループIDが2である英語用のObject audioのグループと、グループIDが3であるフランス語用のObject audioのグループとから、switch Groupが形成される。これにより、英語用のObject audioとフランス語用のObject audioが排他的に再生される。
 一方、group Presetは、コンテンツ製作者が意図するグループの組み合わせを定義するものである。
 また、3Dオーディオのメタデータは、メタデータごとに異なるExtエレメント(Ext Element)とされる。Extエレメントのタイプとしては、Object Metadata,SAOC 3D Metadata,HOA Metadata,DRC Metadata,SpatialFrame,SaocFrameなどがある。Object MetadataのExtエレメントは、全てのObject audioのメタデータであり、SAOC 3D MetadataのExtエレメントは、全てのSAOC audioのメタデータである。また、HOA MetadataのExtエレメントは、全てのHOA audioのメタデータであり、DRC(Dynamic Range Control) MetadataのExtエレメントは、Object audio, SAOC audio、およびHOA audioの全てのメタデータである。
 以上のように、3Dオーディオのうちの音声データの分割単位としては、オーディオエレメント、グループタイプ、グループ、switch Group、およびgroup Presetがある。従って、3Dオーディオのうちの音声データのオーディオストリームは、オーディオエレメント、グループタイプ、グループ、switch Group、またはgroup Presetを種類として、種類ごとに異なるトラックに分割することができる。
 また、3Dオーディオのうちのメタデータの分割単位としては、Extエレメントのタイプ、または、そのメタデータに対応するオーディオエレメントがある。従って、3Dオーディオのメタデータのオーディオストリームは、Extエレメントや、そのメタデータに対応するオーディオエレメントを種類として、種類ごとに異なるトラックに分割することができる。
 以下の実施の形態では、音声データのオーディオストリームが1以上のグループごとにトラックに分割され、メタデータのオーディオストリームがExtエレメントのタイプごとにトラックに分割される。
 <第1実施の形態>
 (情報処理システムの概要)
 図8は、本開示を適用した第1実施の形態における情報処理システムの概要を説明する図である。
 図8の情報処理システム140は、ファイル生成装置141と接続されるWebサーバ142と動画再生端末144が、インターネット13を介して接続されることにより構成される。
 情報処理システム140では、MPEG-DASHに準ずる方式で、Webサーバ142が、再生対象のグループのトラックのオーディオストリームを、動画再生端末144に配信する。
 具体的には、ファイル生成装置141は、動画コンテンツの3Dオーディオの各音声データとメタデータを、それぞれ、複数の符号化速度で符号化し、オーディオストリームを生成する。ファイル生成装置141は、符号化速度、および、セグメントと呼ばれる数秒から10秒程度の時間単位ごとに、全てのオーディオストリームをファイル化し、音声ファイルを生成する。このとき、ファイル生成装置141は、オーディオストリームをグループおよびExtエレメントのタイプごとに分割し、異なるトラックのオーディオストリームとして音声ファイルに配置する。ファイル生成装置141は、生成された音声ファイルをWebサーバ142にアップロードする。
 また、ファイル生成装置141は、音声ファイル等を管理するMPDファイル(管理ファイル)を生成する。ファイル生成装置141は、MPDファイルをWebサーバ142にアップロードする。
 Webサーバ142は、ファイル生成装置141からアップロードされた符号化速度およびセグメントごとの音声ファイルとMPDファイルを格納する。Webサーバ142は、動画再生端末144からの要求に応じて、格納している音声ファイル、MPDファイル等を動画再生端末144に送信する。
 動画再生端末144は、ストリーミングデータの制御用ソフトウエア(以下、制御用ソフトウエアという)161、動画再生ソフトウエア162、HTTP(HyperText Transfer Protocol)アクセス用のクライアント・ソフトウエア(以下、アクセス用ソフトウエアという)163などを実行する。
 制御用ソフトウエア161は、Webサーバ142からストリーミングするデータを制御するソフトウエアである。具体的には、制御用ソフトウエア161は、動画再生端末144にWebサーバ142からMPDファイルを取得させる。
 また、制御用ソフトウエア161は、MPDファイルに基づいて、動画再生ソフトウエア162により指定される再生対象のグループ、および、そのグループに対応するExtエレメントのタイプのトラックのオーディオストリームの送信要求を、アクセス用ソフトウエア163に指令する。
 動画再生ソフトウエア162は、Webサーバ142から取得されたオーディオストリームを再生するソフトウエアである。具体的には、動画再生ソフトウエア162は、制御用ソフトウエア161は、再生対象のグループ、および、そのグループに対応するExtエレメントのタイプを制御用ソフトウエア161に指定する。また、動画再生ソフトウエア162は、アクセス用ソフトウエア163から受信開始の通知を受信したとき、動画再生端末144により受信されたオーディオストリームを復号する。動画再生ソフトウエア162は、復号の結果得られる音声データを必要に応じて合成し、出力する。
 アクセス用ソフトウエア163は、HTTPを用いたインターネット13を介したWebサーバ142との通信を制御するソフトウエアである。具体的には、アクセス用ソフトウエア163は、制御用ソフトウエア161の指令に応じて、音声ファイルに含まれる再生対象のトラックのオーディオストリームの送信要求を、動画再生端末144に送信させる。また、アクセス用ソフトウエア163は、その送信要求に応じて、Webサーバ142から送信されてくるオーディオストリームの受信を動画再生端末144に開始させ、受信開始の通知を動画再生ソフトウエア162に供給する。
 なお、本明細書では、動画コンテンツの音声ファイルについてのみ説明するが、実際には、音声ファイルとともに、対応する画像ファイルが生成され、再生される。
 (音声ファイルのトラックの第1の例の概要)
 図9は、音声ファイルのトラックの第1の例の概要を説明する図である。
 なお、図9では、説明の便宜上、3Dオーディオのうちの音声データのトラックのみ図示している。このことは、後述する図20、図23、図26、図28、図30、図32乃至図35、および図38においても同様である。
 図9に示すように、全ての3Dオーディオのオーディオストリームは、1つの音声ファイル(3dauio.mp4)に格納される。音声ファイル(3dauio.mp4)には、3Dオーディオの各グループのオーディオストリームが、それぞれ、異なるトラックに分割されて配置される。また、3Dオーディオ全体に関する情報が、ベーストラック(Base Track)として配置される。
 各トラックのtrackボックスには、Track Referenceが配置される。Track Referenceは、対応するトラックの他のトラックとの参照関係を表す。具体的には、Track Referenceは、参照関係にある他のトラックのトラックに固有のID(以下、トラックIDという)を表す。
 図9の例では、ベーストラック、グループIDが1であるグループ#1、グループIDが2であるグループ#2、グループIDが3であるグループ#3、グループIDが4であるグループ#4のトラックのトラックIDが、1,2,3,4,5となっている。また、ベーストラックのTrack Referenceは2,3,4,5であり、グループ#1乃至#4のトラックのTrack Referenceは、ベーストラックのトラックIDである1である。従って、ベーストラックとグループ#1乃至#4のトラックとは、参照関係にある。即ち、ベーストラックは、グループ#1乃至#4のトラックの再生時に参照される。
 また、ベーストラックのサンプルエントリの4cc(character code)は「mha2」であり、ベーストラックのサンプルエントリには、3Dオーディオの全てのグループのconfig情報またはベーストラックだけの復号に必要なconfig情報を含むmhaCボックスと、3Dオーディオの全てのグループおよびswitch Groupに関する情報を含むmhasボックスが配置される。グループに関する情報は、グループのID、グループに分類されるエレメントのデータの内容を表す情報等により構成される。switch Groupに関する情報は、switch GroupのID、switch Groupを形成するグループのID等により構成される。
 各グループのトラックのサンプルエントリの4ccは「mhg1」であり、各グループのトラックのサンプルエントリには、そのグループに関する情報を含むmhgCボックスが配置されてもよい。グループがswitch Groupを形成する場合、そのグループのトラックのサンプルエントリには、そのswitch Groupに関する情報を含むmhsCボックスが配置される。
 ベーストラックのサンプルには、各グループのトラックのサンプルへの参照情報、または、その参照情報の復号に必要なconfig情報が配置される。参照情報により参照される各グループのサンプルを参照情報の配置順に配置することにより、トラックに分割される前の3Dオーディオのオーディオストリームを生成することができる。参照情報は、各グループのトラックのサンプルの位置およびサイズ、グループタイプ等により構成される。
 (ベーストラックのサンプルエントリのシンタクスの例)
 図10は、ベーストラックのサンプルエントリのシンタクスの例を示す図である。
 図10に示すように、ベーストラックのサンプルエントリには、mhaCボックス(MHAConfigration Box)、mhasボックス(MHAAudioSceneInfo Box)等が配置される。mhaCボックスには、3Dオーディオの全てのグループのconfig情報またはベーストラックだけの復号に必要なconfig情報が記述される。また、mhasボックスには、3Dオーディオの全てのグループおよびswitch Groupに関する情報を含むAudioScene情報が記述される。このAudioScene情報は、図7の階層構造を記述するものである。
 (各グループのトラックのサンプルエントリのシンタクスの例)
 図11は、各グループのトラックのサンプルエントリのシンタクスの例を示す図である。
 図11に示すように、各グループのトラックのサンプルエントリには、mhaCボックス(MHAConfigration Box)、mhgCボックス(MHAGroupDefinitionBox)、mhsCボックス(MHASwitchGropuDefinition Box)等が配置される。
 mhaCボックスには、対応するトラックの復号に必要なConfig情報が記述される。また、mhgCボックスには、対応するグループに関するAudioScene情報がGroupDefinitionとして記述される。mhsCボックスには、対応するグループがswitch Group を形成する場合、そのswitch Groupに関するAudioScene情報がSwitchGroupDefinitionとして記述される。
 (音声ファイルのセグメント構造の第1の例)
 図12は、音声ファイルのセグメント構造の第1の例を示す図である。
 図12のセグメント構造では、Initial segmentが、ftypボックスとmoovボックスにより構成される。moovボックスには、音声ファイルに含まれるトラックごとにtrak boxが配置される。また、moovボックスには、各トラックのトラックIDと、media segment内のssixボックスで用いられるlevelとの対応関係を表す情報などを含むmvexボックスが配置される。
 また、media segmentは、sidxボックス、ssixボックス、および、1以上のsubsegmentにより構成される。sidxボックスには、各subsegmentの音声ファイル内の位置を示す位置情報が配置される。ssixボックスには、mdatボックスに配置される各レベルのオーディオストリームの位置情報が含まれる。なお、レベルは、トラックに対応するものである。また、最初のトラックの位置情報は、moofボックスと最初のトラックのオーディオストリームからなるデータの位置情報である。
 subsegmentは、任意の時間長ごとに設けられ、subsegmentには、全てのトラックに共通の1組のmoofボックスとmdatボックスのペアが設けられる。mdatボックスには、全てのtrackのオーディオストリームが、任意の時間長分だけまとめて配置され、moofボックスには、そのオーディオストリームの管理情報が配置される。mdatボックスに配置される各trackのオーディオストリームは、track毎に連続している。
 図12の例では、トラックIDが1であるTrack1はベーストラックであり、トラックIDが2乃至NであるTrack2乃至TrackNは、グループIDが1乃至N-1であるグループのトラックである。このことは、後述する図13においても同様である。
 (音声ファイルのセグメント構造の第2の例)
 図13は、音声ファイルのセグメント構造の第2の例を示す図である。
 図13のセグメント構造は、トラックごとにmoofボックスとmdatボックスが設けられる点が、図12のセグメント構造と異なっている。
 即ち、図13のInitial segmentは、図12のInitial segmentと同様である。また、図13のmedia segmentは、図12のmedia segmentと同様に、sidxボックス、ssixボックス、および、1以上のsubsegmentにより構成される。sidxボックスには、図12のsidxボックスと同様に、各subsegmentの位置情報が配置される。ssixボックスには、moofボックスとmdatボックスからなる各レベルのデータの位置情報が含まれる。
 subsegmentは、任意の時間長ごとに設けられ、subsegmentには、トラックごとにmoofボックスとmdatボックスのペアが設けられる。即ち、各トラックのmdatボックスには、そのトラックのオーディオストリームが、任意の時間長分だけまとめて配置(インターリーブ格納)され、moofボックスには、そのオーディオストリームの管理情報が配置される。
 図12および図13に示すように、各トラックのオーディオストリームは、任意の時間長分まとめて配置されるため、サンプル単位でまとめて配置される場合に比べて、HTTP等を介したオーディオストリームの取得効率が改善する。
 (mvexボックスの記述例)
 図14は、図12および図13のmvexボックスに配置されるlevel assignmentボックスの記述例を示す図である。
 level assignmentボックスは、各トラックのトラックIDとssixボックスで用いられるレベル(level)を対応付けるボックスである。図14の例では、トラックIDが1であるベーストラックがレベル0に対応付けられ、トラックIDが2であるチャネルオーディオトラックがレベル1に対応付けられている。また、トラックIDが3であるHOAオーディオトラックがレベル2に対応付けられ、トラックIDが4であるオブジェクトメタデータトラックがレベル3に対応付けられている。さらに、トラックIDが5であるオブジェクトオーディオトラックがレベル4に対応付けられている。
 (MPDファイルの第1の記述例)
 図15は、MPDファイルの第1の記述例を示す図である。
 図15に示すように、MPDファイルには、3Dオーディオの音声ファイル(3daudio.mp4)のセグメントを管理する「Representation」、そのセグメントに含まれるトラックを管理する「SubRepresentation」等が記述される。
 「Representation」と「SubRepresentation」には、対応するセグメント全体またはトラックのcodecの種類(profile,level)を、3D audio file formatで定義されるコードで表す「codecs」が含まれる。
 「SubRepresentation」には、対応するトラックのレベルを表す値としてlevel assignmentボックスで設定されている値である「level」が含まれる。「SubRepresentation」には、参照関係を有する(依存する)他のトラック(以下、参照トラックという)に対応するレベルを表す値である「dependencyLevel」が含まれる。
 さらに、「SubRepresentation」には、<EssentialProperty schemeIdUri=“urn:mpeg:DASH:3daudio:2014” value=“dataType,definition”>が含まれる。
 「dataType」は、対応するトラックのサンプルエントリに記述されるAudio Scene情報の内容(definition)の種類を表す番号であり、definitionは、その内容である。例えば、トラックのサンプルエントリにGroupDefinitionが含まれる場合、そのトラックの「dataType」として1が記述され、「definition」としてGroupDefinitionが記述される。また、トラックのサンプルエントリにSwitchGroupDefinitionが含まれる場合、そのトラックの「dataType」として2が記述され、「definition」としてSwitchGroupDefinitionが記述される。即ち、「dataType」および「definition」は、対応するトラックのサンプルエントリにSwitchGroupDefinitionが存在するかを示す情報である。「definition」は、バイナリデータであり、base64方式で符号化される。
 なお、図15の例では、全てのグループがswitch Groupを形成するものとしたが、switch Groupを形成しないグループが存在する場合、そのグループに対応する「SubRepresentation」には、<EssentialProperty schemeIdUri=“urn:mpeg:DASH:3daudio:2014” value=“2,SwitchGroupDefinition”>は記述されない。このことは、後述する図24、図25、図31、図39、図45、図47、図48、および図50においても同様である。
 (ファイル生成装置の構成例)
 図16は、図8のファイル生成装置141の構成例を示すブロック図である。
 図16のファイル生成装置141は、音声符号化処理部171、音声ファイル生成部172、MPD生成部173、およびサーバアップロード処理部174により構成される。
 ファイル生成装置141の音声符号化処理部171は、動画コンテンツの3Dオーディオの各音声データとメタデータを、それぞれ、複数の符号化速度で符号化し、オーディオストリームを生成する。音声符号化処理部171は、符号化速度ごとのオーディオストリームを音声ファイル生成部172に供給する。
 音声ファイル生成部172は、音声符号化処理部171から供給されるオーディオストリームに対して、グループおよびExtエレメントのタイプごとにトラックを割り当てる。音声ファイル生成部172は、符号化速度およびセグメントごとに、各トラックのオーディオストリームがサブセグメント単位で配置される図12または図13のセグメント構造の音声ファイルを生成する。音声ファイル生成部172は、生成された音声ファイルをMPD生成部173に供給する。
 MPD生成部173は、音声ファイル生成部172から供給される音声ファイルを格納するWebサーバ142のURL等を決定する。そして、MPD生成部173は、音声ファイルのURL等が、その音声ファイル用の「Representation」の「Segment」に配置されたMPDファイルを生成する。MPD生成部173は、生成されたMPDファイルと音声ファイルをサーバアップロード処理部174に供給する。
 サーバアップロード処理部174は、MPD生成部173から供給される音声ファイルとMPDファイルを、Webサーバ142にアップロードする。
 (ファイル生成装置の処理の説明)
 図17は、図16のファイル生成装置141のファイル生成処理を説明するフローチャートである。
 図17のステップS191において、音声符号化処理部171は、動画コンテンツの3Dオーディオの各音声データとメタデータを、それぞれ、複数の符号化速度で符号化し、オーディオストリームを生成する。音声符号化処理部171は、符号化速度ごとのオーディオストリームを音声ファイル生成部172に供給する。
 ステップS192において、音声ファイル生成部172は、音声符号化処理部171から供給されるオーディオストリームに対して、グループおよびExtエレメントのタイプごとにトラックを割り当てる。
 ステップS193において、音声ファイル生成部172は、符号化速度およびセグメントごとに、各トラックのオーディオストリームがサブセグメント単位で配置される図12または図13のセグメント構造の音声ファイルを生成する。音声ファイル生成部172は、生成された音声ファイルをMPD生成部173に供給する。
 ステップS194において、MPD生成部173は、音声ファイルのURL等を含むMPDファイルを生成する。MPD生成部173は、生成されたMPDファイルと音声ファイルをサーバアップロード処理部174に供給する。
 ステップS195において、サーバアップロード処理部174は、MPD生成部173から供給される音声ファイルとMPDファイルを、Webサーバ142にアップロードする。そして、処理は終了する。
 (動画再生端末の機能的構成例)
 図18は、図8の動画再生端末144が制御用ソフトウエア161、動画再生ソフトウエア162、およびアクセス用ソフトウエア163を実行することにより実現されるストリーミング再生部の構成例を示すブロック図である。
 図18のストリーミング再生部190は、MPD取得部91、MPD処理部191、音声ファイル取得部192、音声復号処理部194、および音声合成処理部195により構成される。
 ストリーミング再生部190のMPD取得部91は、Webサーバ142からMPDファイルを取得し、MPD処理部191に供給する。
 MPD処理部191は、MPD取得部91から供給されるMPDファイルから音声ファイル用の「Segment」に記述される再生対象のセグメントの音声ファイルのURL等の情報を抽出し、音声ファイル取得部192に供給する。
 音声ファイル取得部192は、MPD処理部191から供給されるURLで特定される音声ファイル内の再生対象のトラックのオーディオストリームを、Webサーバ142に要求し、取得する。音声ファイル取得部192は、取得されたオーディオストリームを音声復号処理部194に供給する。
 音声復号処理部194は、音声ファイル取得部192から供給されるオーディオストリームを復号する。音声復号処理部194は、復号の結果得られる音声データを音声合成処理部195に供給する。音声合成処理部195は、音声復号処理部194から供給される音声データを必要に応じて合成し、出力する。
 以上のように、音声ファイル取得部192、音声復号処理部194、および音声合成処理部195は、再生部として機能し、Webサーバ142に格納されている音声ファイルから、再生対象のトラックのオーディオストリームを取得し、再生する。
 (動画再生端末の処理の説明)
 図19は、図18のストリーミング再生部190の再生処理を説明するフローチャートである。
 図19のステップS211において、ストリーミング再生部190のMPD取得部91は、Webサーバ142からMPDファイルを取得し、MPD処理部191に供給する。
 ステップS212において、MPD処理部191は、MPD取得部91から供給されるMPDファイルから音声ファイル用の「Segment」に記述される再生対象のセグメントの音声ファイルのURL等の情報を抽出し、音声ファイル取得部192に供給する。
 ステップS213において、音声ファイル取得部192は、MPD処理部191から供給されるURLに基づいて、そのURLで特定される音声ファイル内の再生対象のトラックのオーディオストリームを、Webサーバ142に要求し、取得する。音声ファイル取得部192は、取得されたオーディオストリームを音声復号処理部194に供給する。
 ステップS214において、音声復号処理部194は、音声ファイル取得部192から供給されるオーディオストリームを復号する。音声復号処理部194は、復号の結果得られる音声データを音声合成処理部195に供給する。ステップS215において、音声合成処理部195は、音声復号処理部194から供給される音声データを必要に応じて合成し、出力する。
 (音声ファイルのトラックの第2の例の概要)
 なお、上述した説明では、GroupDefinitionやSwitchGroupDefinitionが、サンプルエントリに配置されたが、図20に示すように、トラック内のサブサンプルのグループごとのサンプルエントリであるサンプルグループエントリに配置されるようにしてもよい。
 この場合、switch Groupを形成するグループのトラックのサンプルグループエントリは、図21に示すように、GroupDefinitionとSwitchGroupDefinitionを含む。図示は省略するが、switch Groupを形成しないグループのトラックのサンプルグループエントリは、GroupDefinitionのみを含む。
 また、各グループのトラックのサンプルエントリは、図22に示すようになる。即ち、図22に示すように、各グループのトラックのサンプルエントリには、対応するトラックのオーディオストリームのプロファイル(MPEGHAudioProfile)、レベル(MPEGHAudioLevel)などのConfig情報が記述されるMHAGroupAudioConfigrationBoxが配置される。
 (音声ファイルのトラックの第3の例の概要)
 図23は、音声ファイルのトラックの第3の例の概要を説明する図である。
 図23の音声データのトラックの構成は、ベーストラックに3Dオーディオの1以上のグループのオーディオストリームが含まれる点、および、3Dオーディオ全体に関する情報を含まない各トラック(以下、グループトラックという)に分割されるオーディオストリームに対応するグループの数が1以上である点が、図9の構成と異なる。
 即ち、図23のベーストラックのサンプルエントリは、図9と同様に、3Dオーディオのうちの音声データのオーディオストリームが複数のトラックに分割されて配置されるときのベーストラック用のシンタクスを有する、4ccが「mha2」であるサンプルエントリ(図10)である。
 また、グループトラックのサンプルエントリは、図9と同様に、3Dオーディオのうちの音声データのオーディオストリームが複数のトラックに分割されて配置されるときのグループトラック用のシンタクスを有する、4ccが「mhg1」であるサンプルエントリ(図11)である。従って、サンプルエントリの4ccにより、ベーストラックとグループトラックを識別し、トラック間の依存関係を認識することができる。
 また、図9と同様に、各トラックのtrackボックスには、Track Referenceが配置される。従って、「mha2」と「mhg1」のいずれが、ベーストラックまたはグループトラックのサンプルエントリの4ccであるかがわからない場合であっても、Track Referenceにより、トラック間の依存関係を認識することができる。
 なお、グループトラックのサンプルエントリには、mhgCボックス、およびmhsCボックスが記述されなくてもよい。また、ベーストラックのサンプルエントリに3Dオーディオの全てのグループのconfig情報を含むmhaCボックスが記述される場合には、グループトラックのサンプルエントリにmhaCボックスが記述されなくてもよい。しかしながら、ベーストラックのサンプルエントリにベーストラックを独立して再生可能なconfig情報を含むmhaCボックスが記述される場合には、グループトラックのサンプルエントリに、そのグループトラックを独立して再生可能なconfig情報を含むmhaCボックスが記述される。前者の状態であるか、後者の状態であるかは、サンプルエントリ内のconfig情報の有無で識別可能であるが、サンプルエントリにフラグを記述したり、サンプルエントリのタイプを変化させることにより、識別可能にすることもできる。なお、図示は省略するが、サンプルエントリのタイプを変化させることにより前者の状態と後者の状態を識別可能にする場合、ベーストラックのサンプルエントリの4ccは、例えば、前者の状態である場合「mha2」にされ、後者の状態である場合「mha4」にされる。
 (MPDファイルの第2の記述例)
 図24は、音声ファイルのトラックの構成が図23の構成である場合のMPDファイルの記述例を示す図である。
 図24のMPDファイルは、ベーストラックの「SubRepresentation」が記述される点が、図15のMPDファイルと異なる。
 ベーストラックの「SubRepresentation」には、グループトラックの「SubRepresentation」と同様に、ベーストラックの「codecs」、「level」、「dependencyLevel」、および<EssentialProperty schemeIdUri=“urn:mpeg:DASH:3daudio:2014” value=“dataType,definition”>が記述される。
 図24の例では、ベーストラックの「codecs」は「mha2.2.1」であり、「level」は、ベーストラックのレベルを表す値としての「0」である。「dependencyLevel」は、グループトラックのレベルを表す値としての「1」および「2」である。また、「dataType」は、ベーストラックのサンプルエントリのmhasボックスに記述されるAudioScene情報を種類として表す番号としての「3」であり、「definition」は、base64方式で符号化されたAudioScene情報のバイナリデータである。
 なお、図25に示すように、ベーストラックの「SubRepresentation」には、AudioScene情報が分割して記述されるようにしてもよい。
 図25の例では、ベーストラックのサンプルエントリのmhasボックスに記述されるAudioScene情報(図7)のうちのグループID「1」のグループの内容を表す「Atmo」を種類として表す番号として「1」が設定されている。
 また、グループID「2」のグループの内容を表す「Dialog EN」、グループID「3」のグループの内容を表す「Dialog FR」、グループID「4」のグループの内容を表す「VoiceOver GE」、グループID「5」のグループの内容を表す「Effects」、グループID「6」のグループの内容を表す「Effect」、グループID「7」のグループの内容を表す「Effect」のそれぞれを種類として表す番号として「2」乃至「7」が設定されている。
 従って、図25のベーストラックの「SubRepresentation」には、「dataType」が「1」であり、「definition」が「Atmo」である<EssentialProperty schemeIdUri=“urn:mpeg:DASH:3daudio:2014” value=“dataType,definition”>が記述される。同様に、「dataType」がそれぞれ「2」、「3」、「4」、「5」、「6」、「7」であり、「definition」がそれぞれ「Dialog EN」、「Dialog FR」、「VoiceOver GE」、「Effects」、「Effect」、「Effect」である“urn:mpeg:DASH:3daudio:2014” value=“dataType,definition”>が記述される。図25の例では、ベーストラックのAudioScene情報が分割して記述される場合について説明したが、グループトラックのGroupDefinitionおよびSwitchGroupDefinitionも、AudioScene情報と同様に分割して記述されてもよい。
 (音声ファイルのトラックの第4の例の概要)
 図26は、音声ファイルのトラックの第4の例の概要を説明する図である。
 図26の音声データのトラックの構成は、グループトラックのサンプルエントリが、4ccが「mha2」であるサンプルエントリである点が、図23の構成と異なる。
 図26の場合、ベーストラックとグループトラックのサンプルエントリの4ccが両方とも「mha2」になる。従って、サンプルエントリの4ccにより、ベーストラックとグループトラックを識別し、トラック間の依存関係を認識することはできない。よって、各トラックのtrackボックスに配置されるTrack Referenceによって、トラック間の依存関係が認識される。
 また、サンプルエントリの4ccが「mha2」であることにより、対応するトラックが、3Dオーディオのうちの音声データのオーディオストリームが複数のトラックに分割されて配置されるときのトラックであることは識別できる。
 なお、ベーストラックのサンプルエントリのmhaCボックスには、図9や図23の場合と同様に、3Dオーディオの全てのグループのconfig情報またはベーストラックを独立して再生可能なconfig情報が記述される。また、mhasボックスには、3Dオーディオの全てのグループおよびswitch Groupに関する情報を含むAudioScene情報が記述される。
 一方、グループトラックのサンプルエントリには、mhasボックスが配置されない。また、ベーストラックのサンプルエントリに3Dオーディオの全てのグループのconfig情報を含むmhaCボックスが記述される場合には、グループトラックのサンプルエントリにmhaCボックスが記述されなくてもよい。しかしながら、ベーストラックのサンプルエントリにベーストラックを独立して再生可能なconfig情報を含むmhaCボックスが記述される場合には、グループトラックのサンプルエントリにグループトラックを独立して再生可能なconfig情報を含むmhaCボックスが記述される。前者の状態であるか、後者の状態であるかは、サンプルエントリ内のconfig情報の有無で識別可能であるが、サンプルエントリにフラグを記述したり、サンプルエントリのタイプを変化させることにより、識別可能にすることもできる。なお、図示は省略するが、サンプルエントリのタイプを変化させることにより、前者の状態と後者の状態を識別可能にする場合、ベーストラックおよびグループトラックのサンプルエントリの4ccは、例えば、前者の状態である場合「mha2」にされ、後者の状態である場合「mha4」にされる。
 (MPDファイルの第3の記述例)
 図27は、音声ファイルのトラックの構成が図26の構成である場合のMPDファイルの記述例を示す図である。
 図27のMPDファイルは、グループトラックの「SubRepresentation」の「codecs」が「mha2.2.1」である点、および、グループトラックの「SubRepresentation」に<EssentialProperty schemeIdUri=“urn:mpeg:DASH:3daudio:2014” value=“dataType,definition”>が記述されない点が、図24のMPDファイルと異なる。
 なお、図示は省略するが、図25の場合と同様に、ベーストラックの「SubRepresentation」には、AudioScene情報が分割して記述されるようにしてもよい。
 (音声ファイルのトラックの第5の例の概要)
 図28は、音声ファイルのトラックの第5の例の概要を説明する図である。
 図28の音声データのトラックの構成は、ベーストラックとグループトラックのサンプルエントリが、3Dオーディオのうちの音声データのオーディオストリームが複数のトラックに分割されているときのベーストラックとグループトラックの両方に適したシンタクスを有するサンプルエントリである点が、図23の構成と異なる。
 図28の場合、ベーストラックとグループトラックのサンプルエントリの4ccが両方とも、ベーストラックとグループトラックの両方に適したシンタクスを有するサンプルエントリの4ccである「mha3」になる。
 従って、図26の場合と同様に、各トラックのtrackボックスに配置されるTrack Referenceによって、トラック間の依存関係が認識される。また、サンプルエントリの4ccが「mha3」であることにより、対応するトラックが、3Dオーディオのうちの音声データのオーディオストリームが複数のトラックに分割されて配置されるときのトラックであることは識別できる。
 (4ccが「mha3」であるサンプルエントリのシンタクスの例)
 図29は、4ccが「mha3」であるサンプルエントリのシンタクスの例を示す図である。
 図29に示すように、4cc「mha3」のサンプルエントリのシンタクスは、図10のシンタクスと図11のシンタクスを合成したものである。
 即ち、4ccが「mha3」であるサンプルエントリには、mhaCボックス(MHAConfigration Box)、mhasボックス(MHAAudioSceneInfo Box)、mhgCボックス(MHAGroupDefinitionBox)、mhsCボックス(MHASwitchGropuDefinition Box)等が配置される。
 ベーストラックのサンプルエントリのmhaCボックスには、3Dオーディオの全てのグループのconfig情報またはベーストラックを独立して再生可能なconfig情報が記述される。また、mhasボックスには、3Dオーディオの全てのグループおよびswitch Groupに関する情報を含むAudioScene情報が記述され、mhgCボックスとmhsCボックスは配置されない。
 ベーストラックのサンプルエントリに3Dオーディオの全てのグループのconfig情報を含むmhaCボックスが記述される場合には、グループトラックのサンプルエントリにmhaCボックスが記述されなくてもよい。しかしながら、ベーストラックのサンプルエントリにベーストラックを独立して再生可能なconfig情報を含むmhaCボックスが記述される場合には、グループトラックのサンプルエントリにグループトラックを独立して再生可能なconfig情報を含むmhaCボックスが記述される。前者の状態であるか、後者の状態であるかは、サンプルエントリ内のconfig情報の有無で識別可能であるが、サンプルエントリにフラグを記述したり、サンプルエントリのタイプを変化させることにより、識別可能にすることもできる。なお、図示は省略するが、サンプルエントリのタイプを変化させることにより、前者の状態と後者の状態を識別可能にする場合、ベーストラックおよびグループトラックのサンプルエントリの4ccは、例えば、前者の状態である場合「mha3」にされ、後者の状態である場合「mha5」にされる。また、グループトラックのサンプルエントリには、mhasボックスは配置されない。mhgCボックスおよびmhsCボックスは配置されてもよいし、配置されなくてもよい。
 なお、図30に示すように、ベーストラックのサンプルエントリには、mhasボックス、mhgCボックス、およびmhsCボックスが配置されるとともに、ベーストラックだけを独立して再生可能にするconfig情報が記述されるmhaCボックスと3Dオーディオの全てのグループのconfig情報を含むmhaCボックスが両方配置されるようにしてもよい。この場合、3Dオーディオの全てのグループのconfig情報が記述されるmhaCボックスと、ベーストラックだけを独立して再生可能にするconfig情報が記述されるmhaCボックスとは、これらのmhaCボックスに含まれるフラグによって識別される。また、この場合、グループトラックのサンプルエントリには、mhaCボックスが記述されなくてもよい。グループトラックのサンプルエントリにmhaCボックスが記述されるかどうかは、グループトラックのサンプルエントリ内のmhaCボックスの有無で識別可能であるが、サンプルエントリにフラグを記述したり、サンプルエントリのタイプを変化させることにより、識別可能にすることもできる。なお、図示は省略するが、サンプルエントリのタイプを変化させることにより、グループトラックのサンプルエントリにmhaCボックスが記述されるかどうかを識別可能にする場合、ベーストラックおよびグループトラックのサンプルエントリの4ccは、例えば、グループトラックのサンプルエントリにmhaCボックスが記述される場合「mha3」にされ、グループトラックのサンプルエントリにmhaCボックスが記述されない場合「mha5」にされる。なお、図30において、ベーストラックのサンプルエントリには、mhgCボックスとmhsCボックスが記述されなくてもよい。
 (MPDファイルの第4の記述例)
 図31は、音声ファイルのトラックの構成が図28または図30の構成である場合のMPDファイルの記述例を示す図である。
 図31のMPDファイルは、「Representation」の「codecs」が「mha3.3.1」である点、および、「SubRepresentation」の「codecs」が「mha3.2.1」である点が、図24のMPDファイルと異なる。
 なお、図示は省略するが、図25の場合と同様に、ベーストラックの「SubRepresentation」には、AudioScene情報が分割して記述されるようにしてもよい。
 また、上述した説明では、各トラックのtrackボックスにTrack Referenceが配置されるようにしたが、Track Referenceは配置されなくてもよい。例えば、図32乃至図34は、それぞれ、図23、図26、図28の音声ファイルのトラックのtrackボックスにTrack Referenceが配置されない場合を示す図である。図32の場合、Track Referenceは配置されないが、ベーストラックとグループトラックのサンプルエントリの4ccが異なるため、トラック間の依存関係を認識することができる。図33および図34の場合、mhasボックスが配置されていることで、ベーストラックか否かを識別することができる。
 音声ファイルのトラックの構成が、図32乃至図34の構成である場合のMPDファイルは、それぞれ、図24、図27、図31のMPDファイルと同一である。なお、この場合も、ベーストラックの「SubRepresentation」には、図25の場合と同様に、AudioScene情報が分割して記述されるようにしてもよい。
 (音声ファイルのトラックの第6の例の概要)
 図35は、音声ファイルのトラックの第6の例の概要を説明する図である。
 図35の音声データのトラックの構成は、ベーストラックのサンプルに、各グループのトラックのサンプルへの参照情報や、その参照情報の復号に必要なconfig情報が配置されず、0以上のグループのオーディオストリームが含まれる点、および、ベーストラックのサンプルエントリに、各グループのトラックのサンプルへの参照情報が記述される点が、図33の構成と異なっている。
 具体的には、3Dオーディオのうちの音声データのオーディオストリームが複数のトラックに分割されているときのベーストラック用のシンタクスを有する、4ccが「mha2」であるサンプルエントリに、AudioScene情報に記述されている各グループがどのトラックに分割されているかを記述するmhmtボックスが新たに配置される。
 (4ccが「mha2」であるサンプルエントリのシンタクスの他の例)
 図36は、4ccが「mha2」である図35のベーストラックおよびグループトラックのサンプルエントリのシンタクスの例を示す図である。
 図36の4ccが「mha2」であるサンプルエントリの構成は、MHAMultiTrackDescriptionボックス(mhmtボックス)が配置される点が、図10の構成と異なっている。
 mhmtボックスには、参照情報として、グループID(group_ID)とトラックID(track_ID)の対応関係が記述される。なお、mhmtボックスでは、オーディオエレメントとトラックIDが対応付けて記述されるようにしてもよい。
 参照情報がサンプルごとに変化しない場合、mhmtボックスをサンプルエントリに配置することにより、効率良く参照情報を記述することができる。
 なお、図示は省略するが、図9、図20、図23、図26、図28、図30、図32、および図34の場合においても、同様に、ベーストラックのサンプルに各グループのトラックのサンプルへの参照情報を記述する代わりに、ベーストラックのサンプルエントリにmhmtボックスを配置させるようにすることができる。
 この場合、4ccが「mha3」であるサンプルエントリのシンタクスは、図37に示すようになる。即ち、図37の4ccが「mha3」であるサンプルエントリの構成は、MHAMultiTrackDescriptionボックス(mhmtボックス)が配置される点が、図29の構成と異なっている。
 また、図23、図26、図28、図30、図32乃至図34、および図35において、図9と同様に、ベーストラックに3Dオーディオの1以上のグループのオーディオストリームが含まれないようにしてもよい。また、各グループトラックに分割されるオーディオストリームに対応するグループの数が1つであってもよい。
 さらに、図23、図26、図28、図30、図32乃至図34、および図35において、図20の場合と同様に、GroupDefinitionやSwitchGroupDefinitionが、サンプルグループエントリに配置されるようにしてもよい。
 <第2実施の形態>
 (トラックの概要)
 図38は、本開示を適用した第2実施の形態におけるトラックの概要を説明する図である。
 図38に示すように、第2実施の形態では、各トラックが異なるファイル(3da_base.mp4/3da_group1.mp4/3da_group2.mp4/3da_group3.mp4/3da_group4.mp4)として記録される点が、第1実施の形態と異なっている。この場合、所望のトラックのファイルを、HTTPを介して取得することにより、所望のトラックのデータのみを取得することができる。従って、HTTPを介した所望のトラックのデータの取得を効率的に行うことができる。
 (MPDファイルの記述例)
 図39は、本開示を適用した第2実施の形態におけるMPDファイルの記述例を示す図である。
 図39に示すように、MPDファイルには、3Dオーディオの各音声ファイル(3da_base.mp4/3da_group1.mp4/3da_group2.mp4/3da_group3.mp4/3da_group4.mp4)のセグメントを管理する「Representation」等が記述される。
 「Representation」には、「codecs」、「id」、「associationId」、および「assciationType」が含まれる。「id」は、それを含む「Representation」のIDである。「associationId」は、対応するトラックと他のトラックとの参照関係を表す情報であり、参照トラックの「id」である。「assciationType」は、参照トラックとの参照関係(依存関係)の意味を表すコードであり、例えばMP4のtrack referenceの値と同じものが用いられる。
 また、各グループのトラックの「Representation」には、<EssentialProperty schemeIdUri=“urn:mpeg:DASH:3daudio:2014” value=“dataType,definition”>も含まれる。図39の例では、1つの「AdaptationSet」の下に、各音声ファイルのセグメントを管理する「Representation」が設けられているが、各音声ファイルのセグメントごとに「AdaptationSet」が設けられ、その下に、そのセグメントを管理する「Representation」が設けられるようにしてもよい。この場合、各「AdaptationSet」には、「associationId」と、「assciationType」と同様に参照トラックとの参照関係の意味を表す<EssentialProperty schemeIdUri=“urn:mpeg:DASH:3daudioAssociationData:2014” value=“dataType,id”>が、記述されるようにしてもよい。また、ベーストラックとグループトラックの「Representation」に記述されているAudioScene情報、GroupDefinition、SwitchGroupDefinitionは、図25の場合と同様に、分割して記述されるようにしてもよい。さらに、各「AdaptationSet」には、「Representation」に分割して記述されたAudioScene情報、GroupDefinition、SwitchGroupDefinitionが記述されてもよい。
 (情報処理システムの概要)
 図40は、本開示を適用した第2実施の形態における情報処理システムの概要を説明する図である。
 図40に示す構成のうち、図8の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 図40の情報処理システム210は、ファイル生成装置211と接続されるWebサーバ212と動画再生端末214が、インターネット13を介して接続されることにより構成される。
 情報処理システム210では、MPEG-DASHに準ずる方式で、Webサーバ142が、再生対象のグループの音声ファイルのオーディオストリームを、動画再生端末144に配信する。
 具体的には、ファイル生成装置211は、動画コンテンツの3Dオーディオの各音声データとメタデータを、それぞれ、複数の符号化速度で符号化し、オーディオストリームを生成する。ファイル生成装置211は、オーディオストリームをグループおよびExtエレメントのタイプごとに分割し、異なるトラックのオーディオストリームとする。ファイル生成装置211は、符号化速度、セグメント、およびトラックごとに、オーディオストリームをファイル化し、音声ファイルを生成する。ファイル生成装置211は、その結果得られる音声ファイルをWebサーバ212にアップロードする。また、ファイル生成装置211は、MPDファイルを生成し、Webサーバ212にアップロードする。
 Webサーバ212は、ファイル生成装置211からアップロードされた符号化速度、セグメント、およびトラックごとの音声ファイルとMPDファイルを格納する。Webサーバ212は、動画再生端末214からの要求に応じて、格納している音声ファイル、MPDファイル等を動画再生端末214に送信する。
 動画再生端末214は、制御用ソフトウエア221、動画再生ソフトウエア162、アクセス用ソフトウエア223などを実行する。
 制御用ソフトウエア221は、Webサーバ212からストリーミングするデータを制御するソフトウエアである。具体的には、制御用ソフトウエア221は、動画再生端末214にWebサーバ212からMPDファイルを取得させる。
 また、制御用ソフトウエア221は、MPDファイルに基づいて、動画再生ソフトウエア162により指定される再生対象のグループ、および、そのグループに対応するExtエレメントのタイプの音声ファイルのオーディオストリームの送信要求を、アクセス用ソフトウエア223に指令する。
 アクセス用ソフトウエア223は、HTTPを用いたインターネット13を介したWebサーバ212との通信を制御するソフトウエアである。具体的には、アクセス用ソフトウエア223は、制御用ソフトウエア221の指令に応じて、再生対象の音声ファイルのオーディオストリームの送信要求を、動画再生端末144に送信させる。また、アクセス用ソフトウエア223は、その送信要求に応じて、Webサーバ212から送信されてくるオーディオストリームの受信を動画再生端末144に開始させ、受信開始の通知を動画再生ソフトウエア162に供給する。
 (ファイル生成装置の構成例)
 図41は、図40のファイル生成装置211の構成例を示すブロック図である。
 図41に示す構成のうち、図16の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 図41のファイル生成装置211の構成は、音声ファイル生成部172、MPD生成部173の代わりに、音声ファイル生成部241、MPD生成部242が設けられる点が、図16のファイル生成装置141の構成と異なる。
 具体的には、ファイル生成装置211の音声ファイル生成部241は、音声符号化処理部171から供給されるオーディオストリームに対して、グループおよびExtエレメントのタイプごとにトラックを割り当てる。音声ファイル生成部241は、符号化速度、セグメント、およびトラックごとに、オーディオストリームを配置した音声ファイルを生成する。音声ファイル生成部241は、生成された音声ファイルをMPD生成部242に供給する。
 MPD生成部242は、音声ファイル生成部172から供給される音声ファイルを格納するWebサーバ142のURL等を決定する。MPD生成部242は、音声ファイルのURL等が、その音声ファイル用の「Representation」の「Segment」に配置されたMPDファイルを生成する。MPD生成部173は、生成されたMPDファイルと音声ファイルをサーバアップロード処理部174に供給する。
 (ファイル生成装置の処理の説明)
 図42は、図41のファイル生成装置211のファイル生成処理を説明するフローチャートである。
 図42のステップS301およびS302の処理は、図17のステップS191およびS192の処理と同様であるので、説明は省略する。
 ステップS303において、音声ファイル生成部241は、符号化速度、セグメント、およびトラックごとに、オーディオストリームが配置された音声ファイルを生成する。音声ファイル生成部241は、生成された音声ファイルをMPD生成部242に供給する。
 ステップS304およびS305の処理は、図17のステップS194およびS195の処理と同様であるので、説明は省略する。
 (動画再生端末の機能的構成例)
 図43は、図40の動画再生端末214が制御用ソフトウエア221、動画再生ソフトウエア162、およびアクセス用ソフトウエア223を実行することにより実現されるストリーミング再生部の構成例を示すブロック図である。
 図43に示す構成のうち、図18の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 図43のストリーミング再生部260の構成は、音声ファイル取得部192の代わりに、音声ファイル取得部264が設けられる点が、図18のストリーミング再生部190の構成と異なる。
 音声ファイル取得部264は、MPD処理部191から供給されるURLのうちの、再生対象のトラックの音声ファイルのURLに基づいて、その音声ファイルのオーディオストリームをWebサーバ142に要求し、取得する。音声ファイル取得部264は、取得されたオーディオストリームを音声復号処理部194に供給する。
 即ち、音声ファイル取得部264、音声復号処理部194、および音声合成処理部195は、再生部として機能し、Webサーバ212に格納されている音声ファイルから、再生対象のトラックの音声ファイルのオーディオストリームを取得し、再生する。
 (動画再生端末の処理の説明)
 図44は、図43のストリーミング再生部260の再生処理を説明するフローチャートである。
 図44のステップS321およびS322の処理は、図19のステップS211およびS212の処理と同様であるので、説明は省略する。
 ステップS323において、音声ファイル取得部192は、MPD処理部191から供給されるURLのうちの、再生対象のトラックの音声ファイルのURLに基づいて、その音声ファイルのオーディオストリームをWebサーバ142に要求し、取得する。音声ファイル取得部264は、取得されたオーディオストリームを音声復号処理部194に供給する。
 ステップS324およびS325の処理は、図19のステップS214およびS215の処理と同様であるので、説明は省略する。
 なお、第2実施の形態においても、第1実施の形態と同様に、GroupDefinitionやSwitchGroupDefinitionが、サンプルグループエントリに配置されるようにしてもよい。
 また、第2実施の形態においても、第1実施の形態と同様に、音声データのトラックの構成を、図23、図26、図28、図30、図32乃至図34、および図35に示した構成にすることができる。
 図45乃至図47は、それぞれ、第2実施の形態において、音声データのトラックの構成が、図23、図26、図28に示した構成である場合のMPDを示す図である。第2実施の形態において、音声データのトラックの構成が図32、図33または図35、図34に示した構成である場合のMPDは、それぞれ、図23、図26、図28に示した構成である場合のMPDと同一である。
 図45のMPDは、ベーストラックの「codecs」および「associationId」、並びに、ベーストラックの「Representation」に<EssentialProperty schemeIdUri=“urn:mpeg:DASH:3daudio:2014” value=“dataType,definition”>が含まれる点が、図39のMPDと異なっている。具体的には、図45のMPDのベーストラックの「Representation」の「codecs」は、「mha2.2.1」であり、「associationId」は、グループトラックの「id」である「g1」と「g2」である。
 また、図46のMPDは、グループトラックの「codecs」、および、グループトラックの「Representation」に<EssentialProperty schemeIdUri=“urn:mpeg:DASH:3daudio:2014” value=“dataType,definition”>が含まれない点が、図45のMPDと異なっている。具体的には、図46のMPDのグループトラックの「codecs」は、「mha2.2.1」である。
 また、図47のMPDは、ベーストラックとグループトラックとの「codecs」が、図45のMPDと異なっている。具体的には、図47のMPDのグループトラックの「codecs」は、「mha3.2.1」である。
 なお、図45乃至図47のMPDにおいて、図48乃至図50に示すように、「Representation」ごとに「AdaptationSet」を分けることもできる。
 <ベーストラックの他の例>
 上述した説明では、ベーストラックは1つだけ設けられたが、複数設けられるようにしてもよい。この場合、ベーストラックは、例えば、3Dオーディオの視点(詳細は後述する)ごとに設けられ、ベーストラックには、各視点の3Dオーディオの全てのグループのconfig情報を含むmhaCボックスが配置される。なお、各ベーストラックには、各視点のAudioScene情報を含むmhasボックスが配置されるようにしてもよい。
 3Dオーディオの視点とは、その3Dオーディオが聴こえる位置であり、3Dオーディオと同時に再生される画像の視点や予め設定された所定の位置などである。
 以上のように、視点ごとにベーストラックが設けられる場合、各視点のconfig情報に含まれるオブジェクトの画面上の位置等に基づいて、同一の3Dオーディオのオーディオストリームから、視点ごとに異なる音声を再生することができる。その結果、3Dオーディオのオーディオストリームのデータ量を削減することができる。
 即ち、3Dオーディオの視点が、その3Dオーディオと同時に再生可能な野球のスタジアムの画像の複数の視点である場合、基本の視点の画像であるメイン画像として、例えば、センターバックスクリーンを視点とする画像が用意される。また、バックネット裏、一塁内野席、三塁内野席、レフト応援席、ライト応援席などを視点とする画像が、基本の視点以外の視点の画像であるマルチ画像として用意される。
 この場合、全ての視点の3Dオーディオを用意すると、3Dオーディオのデータ量が多くなる。従って、ベーストラックに各視点におけるオブジェクトの画面上の位置等を記述することにより、オブジェクトの画面上の位置に応じて変化するObject audioやSAOC Object audio等のオーディオストリームを視点間で共有可能にする。その結果、3Dオーディオのオーディオストリームのデータ量を削減することができる。
 3Dオーディオの再生時には、例えば基本の視点のObject audioやSAOC Object audio等のオーディオストリームと、同時に再生されるメイン画像またはマルチ画像の視点に対応するベーストラックとを用いて、その視点に応じて異なる音声が再生される。
 同様に、例えば、3Dオーディオの視点が、予め設定されたスタジアムの複数の座席の位置である場合、全ての視点の3Dオーディオを用意すると、3Dオーディオのデータ量が多くなる。従って、ベーストラックに各視点におけるオブジェクトの画面上の位置等を記述することにより、Object audioやSAOC Object audio等のオーディオストリームを視点間で共有可能にする。その結果、1つの視点のObject audioやSAOC Object audioを用いて、ユーザにより座席表などを用いて選択された座席に応じて異なる音声を再生することが可能になり、3Dオーディオのオーディオストリームのデータ量を削減することができる。
 図28のトラック構造において、ベーストラックが3Dオーディオの視点ごとに設けられる場合、トラック構造は、図51に示すようになる。図51の例では、3Dオーディオの視点の数が3つある。また、図51の例では、Channel audioは、3Dオーディオの視点ごとに生成され、その他の音声データは、3Dオーディオの視点間で共有される。これらのことは、後述する図52の例においても同様である。
 この場合、ベーストラックは、図51に示すように、3Dオーディオの視点ごとに3つ設けられる。各ベーストラックのtrackボックスには、Track Referenceが配置される。また、各ベーストラックのサンプルエントリのシンタクスは、4ccが「mha3」であるサンプルエントリのシンタクスと同一であるが、4ccは、3Dオーディオの視点ごとにベーストラックが設けられていることを表す「mhcf」である。
 各ベーストラックのサンプルエントリには、各視点の3Dオーディオの全てのグループのconfig情報を含むmhaCボックスが配置される。各視点の3Dオーディオの全てのグループのconfig情報としては、その視点におけるオブジェクトの画面上の位置などがある。また、各ベーストラックには、各視点のAudioScene情報を含むmhasボックスが配置される。
 各ベーストラックのサンプルには、各視点のChannel audioのグループのオーディオストリームが配置される。
 なお、各視点におけるオブジェクトの画面上の位置をサンプル単位で記述するObject Metadataが存在する場合には、そのObject Metadataも、各ベーストラックのサンプルに配置される。
 即ち、オブジェクトが動体(例えば、スポーツ選手)である場合、各視点におけるオブジェクトの画面上の位置は時間変化するため、その位置は、サンプル単位でObject Metadataとして記述される。この場合、このサンプル単位のObject Metadataは、視点ごとに、その視点に対応するベーストラックのサンプルに配置される。
 図51のグループトラックの構成は、Channel audioのグループのオーディオストリームが配置されない点を除いて、図28の構成と同一であるので、説明は省略する。
 なお、図51のトラック構造において、各視点のChannel audioのグループのオーディオストリームは、ベーストラックに配置されず、それぞれ、異なるグループトラックに配置されるようにしてもよい。この場合、トラック構造は、図52に示すようになる。
 図52の例では、トラックIDが「1」であるベーストラックに対応する視点のChannel audioのグループのオーディオストリームが、トラックIDが「4」であるグループトラックに配置されている。また、トラックIDが「2」であるベーストラックに対応する視点のChannel audioのグループのオーディオストリームが、トラックIDが「5」であるグループトラックに配置されている。
 さらに、トラックIDが「3」であるベーストラックに対応する視点のChannel audioのグループのオーディオストリームが、トラックIDが「6」であるグループトラックに配置されている。
 なお、図51および図52の例では、ベーストラックのサンプルエントリの4ccを「mhcf」にしたが、図28の場合と同一の「mha3」であってもよい。
 また、図示は省略するが、図28のトラック構造以外の、上述した全てのトラック構造において、ベーストラックが3Dオーディオの視点ごとに設けられる場合も、図51および図52の場合と同様である。
 <第3実施の形態>
 (本開示を適用したコンピュータの説明)
 上述したWebサーバ142(212)の一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図53は、上述したWebサーバ142(212)の一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)601,ROM(Read Only Memory)602,RAM(Random Access Memory)603は、バス604により相互に接続されている。
 バス604には、さらに、入出力インタフェース605が接続されている。入出力インタフェース605には、入力部606、出力部607、記憶部608、通信部609、及びドライブ610が接続されている。
 入力部606は、キーボード、マウス、マイクロフォンなどよりなる。出力部607は、ディスプレイ、スピーカなどよりなる。記憶部608は、ハードディスクや不揮発性のメモリなどよりなる。通信部609は、ネットワークインタフェースなどよりなる。ドライブ610は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア611を駆動する。
 以上のように構成されるコンピュータでは、CPU601が、例えば、記憶部608に記憶されているプログラムを、入出力インタフェース605及びバス604を介して、RAM603にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU601)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア611に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブルメディア611をドライブ610に装着することにより、入出力インタフェース605を介して、記憶部608にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部609で受信し、記憶部608にインストールすることができる。その他、プログラムは、ROM602や記憶部608に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、動画再生端末144(214)のハードウエア構成は、図53のコンピュータと同様の構成にすることができる。この場合、例えば、CPU601が、制御用ソフトウエア161(221)、動画再生ソフトウエア162、およびアクセス用ソフトウエア163(223)を実行する。動画再生端末144(214)の処理は、ハードウエアにより実行することもできる。
 本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 また、本開示は、ストリーミング再生ではなく、放送やローカルストレージ再生を行う情報処理システムにも適用することができる。
 上述したMPDの実施例では、そのスキーマで記述された内容が理解できない場合は無視してもよいdescriptor定義であるEssentialPropertyにより情報が記述されたが、そのスキーマで記述された内容が理解できない場合であっても再生できるdescriptor定義であるSupplementalPropertyにより情報が記述されてもよい。この記述方法の選択は、コンテンツを作成する側の意図で行われる。
 さらに、本開示は、以下のような構成もとることができる。
 (1)
 複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルを生成するファイル生成部
 を備える情報処理装置。
 (2)
 前記複数の種類に関する情報は、所定のトラックのサンプルエントリに配置される
 ように構成された
 前記(1)に記載の情報処理装置。
 (3)
 前記所定のトラックは、前記複数の種類の音声データが分割されて配置される前記トラックのうちの1つである
 ように構成された
 前記(2)に記載の情報処理装置。
 (4)
 前記ファイルには、前記トラックごとに、そのトラックに対応する前記種類に関する情報が配置される
 ように構成された
 前記(1)乃至(3)のいずれかに記載の情報処理装置。
 (5)
 前記ファイルには、前記トラックごとに、そのトラックに対応する種類と、その種類の音声データと排他的に再生される音声データに対応する種類とからなる排他的再生種類に関する情報が配置される
 ように構成された
 前記(4)に記載の情報処理装置。
 (6)
 前記トラックに対応する種類に関する情報および前記排他的再生種類に関する情報は、対応するトラックのサンプルエントリに配置される
 ように構成された
 前記(5)に記載の情報処理装置。
 (7)
 前記ファイル生成部は、前記トラックごとに前記排他的再生種類に関する情報が存在するかを示す情報を含む、前記ファイルを管理する管理ファイルを生成する
 ように構成された
 前記(5)または(6)に記載の情報処理装置。
 (8)
 前記ファイルには、前記複数の種類に対応するトラックへの参照情報が配置される
 ように構成された
 前記(1)乃至(7)のいずれかに記載の情報処理装置。
 (9)
 前記参照情報は、所定のトラックのサンプルに配置される
 ように構成された
 前記(8)に記載の情報処理装置。
 (10)
 前記所定のトラックは、前記複数の種類の音声データが分割されて配置される前記トラックの1つである
 ように構成された
 前記(9)に記載の情報処理装置。
 (11)
 前記ファイルには、前記トラック間の参照関係を表す情報が配置される
 ように構成された
 前記(1)乃至(10)のいずれかに記載の情報処理装置。
 (12)
 前記ファイル生成部は、前記トラック間の参照関係を表す情報を含む、前記ファイルを管理する管理ファイルを生成する
 ように構成された
 前記(1)乃至(11)のいずれかに記載の情報処理装置。
 (13)
 前記ファイルは、1つのファイルである
 ように構成された
 前記(1)乃至(12)のいずれかに記載の情報処理装置。
 (14)
 前記ファイルは、前記トラックごとのファイルである
 ように構成された
 前記(1)乃至(12)のいずれかに記載の情報処理装置。
 (15)
 情報処理装置が、
 複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルを生成するファイル生成ステップ
 を含む情報処理方法。
 (16)
 複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルから、所定のトラックの前記音声データを再生する再生部
 を備える情報処理装置。
 (17)
 情報処理装置が、
 複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルから、所定のトラックの前記音声データを再生する再生ステップ
 を含む情報処理方法。
 11 ファイル生成装置, 192 音声ファイル取得部, 194 音声復号処理部, 195 音声合成処理部, 211 ファイル生成装置, 264 音声ファイル取得部

Claims (17)

  1.  複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルを生成するファイル生成部
     を備える情報処理装置。
  2.  前記複数の種類に関する情報は、所定のトラックのサンプルエントリに配置される
     ように構成された
     請求項1に記載の情報処理装置。
  3.  前記所定のトラックは、前記複数の種類の音声データが分割されて配置される前記トラックのうちの1つである
     ように構成された
     請求項2に記載の情報処理装置。
  4.  前記ファイルには、前記トラックごとに、そのトラックに対応する前記種類に関する情報が配置される
     ように構成された
     請求項1に記載の情報処理装置。
  5.  前記ファイルには、前記トラックごとに、そのトラックに対応する種類と、その種類の音声データと排他的に再生される音声データに対応する種類とからなる排他的再生種類に関する情報が配置される
     ように構成された
     請求項4に記載の情報処理装置。
  6.  前記トラックに対応する種類に関する情報および前記排他的再生種類に関する情報は、対応するトラックのサンプルエントリに配置される
     ように構成された
     請求項5に記載の情報処理装置。
  7.  前記ファイル生成部は、前記トラックごとに前記排他的再生種類に関する情報が存在するかを示す情報を含む、前記ファイルを管理する管理ファイルを生成する
     ように構成された
     請求項5に記載の情報処理装置。
  8.  前記ファイルには、前記複数の種類に対応するトラックへの参照情報が配置される
     ように構成された
     請求項1に記載の情報処理装置。
  9.  前記参照情報は、所定のトラックのサンプルに配置される
     ように構成された
     請求項8に記載の情報処理装置。
  10.  前記所定のトラックは、前記複数の種類の音声データが分割されて配置される前記トラックの1つである
     ように構成された
     請求項9に記載の情報処理装置。
  11.  前記ファイルには、前記トラック間の参照関係を表す情報が配置される
     ように構成された
     請求項1に記載の情報処理装置。
  12.  前記ファイル生成部は、前記トラック間の参照関係を表す情報を含む、前記ファイルを管理する管理ファイルを生成する
     ように構成された
     請求項1に記載の情報処理装置。
  13.  前記ファイルは、1つのファイルである
     ように構成された
     請求項1に記載の情報処理装置。
  14.  前記ファイルは、前記トラックごとのファイルである
     ように構成された
     請求項1に記載の情報処理装置。
  15.  情報処理装置が、
     複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルを生成するファイル生成ステップ
     を含む情報処理方法。
  16.  複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルから、所定のトラックの前記音声データを再生する再生部
     を備える情報処理装置。
  17.  情報処理装置が、
     複数の種類の音声データが1以上の前記種類ごとにトラックに分割されて配置されるとともに、前記複数の種類に関する情報が配置されたファイルから、所定のトラックの前記音声データを再生する再生ステップ
     を含む情報処理方法。
PCT/JP2015/068751 2014-06-30 2015-06-30 情報処理装置および情報処理方法 WO2016002738A1 (ja)

Priority Applications (15)

Application Number Priority Date Filing Date Title
CN201580034444.XA CN106471574B (zh) 2014-06-30 2015-06-30 信息处理装置和信息处理方法
EP15816059.8A EP3163570A4 (en) 2014-06-30 2015-06-30 Information processor and information-processing method
MX2016016820A MX368088B (es) 2014-06-30 2015-06-30 Procesador de informacion y metodo de procesamiento de informacion.
JP2016531369A JP7080007B2 (ja) 2014-06-30 2015-06-30 情報処理装置および情報処理方法
KR1020247014791A KR20240065194A (ko) 2014-06-30 2015-06-30 정보 처리 장치 및 정보 처리 방법
US15/318,654 US20180165358A1 (en) 2014-06-30 2015-06-30 Information processing apparatus and information processing method
KR1020227024283A KR20220104290A (ko) 2014-06-30 2015-06-30 정보 처리 장치 및 정보 처리 방법
KR1020167034549A KR102422493B1 (ko) 2014-06-30 2015-06-30 정보 처리 장치 및 정보 처리 방법
RU2016150994A RU2702233C2 (ru) 2014-06-30 2015-06-30 Устройство обработки информации и способ обработки информации
AU2015285344A AU2015285344A1 (en) 2014-06-30 2015-06-30 Information processor and information-processing method
CA2953242A CA2953242C (en) 2014-06-30 2015-06-30 Information processing apparatus and information processing method
SG11201610951UA SG11201610951UA (en) 2014-06-30 2015-06-30 Information processing apparatus and information processing method
AU2020289874A AU2020289874A1 (en) 2014-06-30 2020-12-18 Information processing apparatus and information processing method
US17/228,953 US20210326378A1 (en) 2014-06-30 2021-04-13 Information processing apparatus and information processing method
AU2023201334A AU2023201334A1 (en) 2014-06-30 2023-03-03 Information processing apparatus and information processing method

Applications Claiming Priority (12)

Application Number Priority Date Filing Date Title
JP2014134878 2014-06-30
JP2014-134878 2014-06-30
JP2015-107970 2015-05-27
JP2015107970 2015-05-27
JP2015-109838 2015-05-29
JP2015109838 2015-05-29
JP2015119359 2015-06-12
JP2015-119359 2015-06-12
JP2015-121336 2015-06-16
JP2015121336 2015-06-16
JP2015-124453 2015-06-22
JP2015124453 2015-06-22

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/318,654 A-371-Of-International US20180165358A1 (en) 2014-06-30 2015-06-30 Information processing apparatus and information processing method
US17/228,953 Continuation US20210326378A1 (en) 2014-06-30 2021-04-13 Information processing apparatus and information processing method

Publications (1)

Publication Number Publication Date
WO2016002738A1 true WO2016002738A1 (ja) 2016-01-07

Family

ID=55019270

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/068751 WO2016002738A1 (ja) 2014-06-30 2015-06-30 情報処理装置および情報処理方法

Country Status (11)

Country Link
US (2) US20180165358A1 (ja)
EP (1) EP3163570A4 (ja)
JP (4) JP7080007B2 (ja)
KR (3) KR102422493B1 (ja)
CN (3) CN106471574B (ja)
AU (3) AU2015285344A1 (ja)
CA (2) CA2953242C (ja)
MX (2) MX368088B (ja)
RU (1) RU2702233C2 (ja)
SG (1) SG11201610951UA (ja)
WO (1) WO2016002738A1 (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018079293A1 (ja) * 2016-10-27 2018-05-03 ソニー株式会社 情報処理装置および方法
US10070243B2 (en) 2013-09-12 2018-09-04 Dolby Laboratories Licensing Corporation Loudness adjustment for downmixed audio content
US10074379B2 (en) 2012-05-18 2018-09-11 Dolby Laboratories Licensing Corporation System for maintaining reversible dynamic range control information associated with parametric audio coders
US10095468B2 (en) 2013-09-12 2018-10-09 Dolby Laboratories Licensing Corporation Dynamic range control for a wide variety of playback environments
US10311891B2 (en) 2012-03-23 2019-06-04 Dolby Laboratories Licensing Corporation Post-processing gains for signal enhancement
US10340869B2 (en) 2004-10-26 2019-07-02 Dolby Laboratories Licensing Corporation Adjusting dynamic range of an audio signal based on one or more dynamic equalization and/or dynamic range control parameters
US10349125B2 (en) 2013-04-05 2019-07-09 Dolby Laboratories Licensing Corporation Method and apparatus for enabling a loudness controller to adjust a loudness level of a secondary media data portion in a media content to a different loudness level
US10360919B2 (en) 2013-02-21 2019-07-23 Dolby International Ab Methods for parametric multi-channel encoding
WO2019155930A1 (ja) * 2018-02-07 2019-08-15 ソニー株式会社 送信装置、送信方法、処理装置および処理方法
US10411669B2 (en) 2013-03-26 2019-09-10 Dolby Laboratories Licensing Corporation Volume leveler controller and controlling method
US10418045B2 (en) 2010-02-11 2019-09-17 Dolby Laboratories Licensing Corporation System and method for non-destructively normalizing loudness of audio signals within portable devices
US10453467B2 (en) 2014-10-10 2019-10-22 Dolby Laboratories Licensing Corporation Transmission-agnostic presentation-based program loudness
JP2019533404A (ja) * 2016-09-23 2019-11-14 ガウディオ・ラボ・インコーポレイテッド バイノーラルオーディオ信号処理方法及び装置
US10594283B2 (en) 2014-05-26 2020-03-17 Dolby Laboratories Licensing Corporation Audio signal loudness control
US10671339B2 (en) 2013-01-21 2020-06-02 Dolby Laboratories Licensing Corporation System and method for optimizing loudness and dynamic range across different playback devices
US10672413B2 (en) 2013-01-21 2020-06-02 Dolby Laboratories Licensing Corporation Decoding of encoded audio bitstream with metadata container located in reserved data space
US11404071B2 (en) 2013-06-19 2022-08-02 Dolby Laboratories Licensing Corporation Audio encoder and decoder with dynamic range compression metadata
US11708741B2 (en) 2012-05-18 2023-07-25 Dolby Laboratories Licensing Corporation System for maintaining reversible dynamic range control information associated with parametric audio coders
WO2024029634A1 (ja) * 2022-08-03 2024-02-08 マクセル株式会社 放送受信装置、コンテンツ保護方法、残響音付加処理方法および放送受信装置の制御方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200136394A (ko) * 2018-03-29 2020-12-07 소니 주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
US11323757B2 (en) * 2018-03-29 2022-05-03 Sony Group Corporation Information processing apparatus, information processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012033243A (ja) * 2010-08-02 2012-02-16 Sony Corp データ生成装置およびデータ生成方法、データ処理装置およびデータ処理方法
WO2012046437A1 (ja) * 2010-10-08 2012-04-12 パナソニック株式会社 記録媒体、及びデータのコピー方法
JP2013545391A (ja) * 2010-11-05 2013-12-19 トムソン ライセンシング 高次アンビソニックス・オーディオ・データ用のデータ構造
JP2014096766A (ja) * 2012-11-12 2014-05-22 Canon Inc 記録装置及び記録方法

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1116250A (ja) * 1997-06-20 1999-01-22 Pioneer Electron Corp 情報再生システム
ES2342357T3 (es) * 2000-12-15 2010-07-06 British Telecommunications Public Limited Company Transmision y recepcion de material de audio y/o video.
KR100542129B1 (ko) * 2002-10-28 2006-01-11 한국전자통신연구원 객체기반 3차원 오디오 시스템 및 그 제어 방법
EP1435620A1 (en) * 2003-01-06 2004-07-07 Thomson Licensing S.A. Method for creating and accessing a menu for audio content without using a display
JP3937223B2 (ja) * 2003-01-21 2007-06-27 ソニー株式会社 記録装置、再生装置、記録方法及び再生方法
JP3918772B2 (ja) * 2003-05-09 2007-05-23 日本電気株式会社 映像編集装置、映像編集方法、および映像編集プログラム
JP2004355780A (ja) * 2003-05-30 2004-12-16 Matsushita Electric Ind Co Ltd オーディオシステム
JPWO2005015907A1 (ja) * 2003-08-08 2006-10-12 松下電器産業株式会社 データ処理装置
US7818077B2 (en) * 2004-05-06 2010-10-19 Valve Corporation Encoding spatial data in a multi-channel sound file for an object in a virtual environment
JP4236630B2 (ja) * 2004-11-30 2009-03-11 三洋電機株式会社 コンテンツデータ記録媒体
RU2393556C2 (ru) * 2005-01-28 2010-06-27 Панасоник Корпорейшн Носитель записи, устройство воспроизведения и способы записи и воспроизведения
JP4626376B2 (ja) * 2005-04-25 2011-02-09 ソニー株式会社 音楽コンテンツの再生装置および音楽コンテンツ再生方法
CN101248421B (zh) * 2005-08-26 2012-09-26 松下电器产业株式会社 数据存储系统及数据存储方法
CN101066720A (zh) * 2006-04-06 2007-11-07 迈克尔·波宁斯基 交互式包装系统
US8762843B2 (en) * 2006-06-16 2014-06-24 Creative Technology Ltd System and method for modifying media content playback based on limited input
RU2435235C2 (ru) * 2006-08-24 2011-11-27 Нокиа Корпорейшн Система и способ указания взаимосвязей треков в мультимедийном файле
US7842876B2 (en) * 2007-01-05 2010-11-30 Harman International Industries, Incorporated Multimedia object grouping, selection, and playback system
CN101606189A (zh) * 2007-02-22 2009-12-16 富士通株式会社 音乐再现装置和音乐再现方法
WO2009079065A1 (en) * 2007-12-14 2009-06-25 Clear Channel Management Services, L.P. Dynamic audio file and method of use
US20090234886A1 (en) * 2008-03-11 2009-09-17 Gopalakrishna Raghavan Apparatus and Method for Arranging Metadata
CN101552905A (zh) * 2008-04-03 2009-10-07 中国联合网络通信集团有限公司 信息切换驱动装置、信息切换装置、遥控设备和机顶盒
JP5462259B2 (ja) * 2008-07-16 2014-04-02 シズベル インターナショナル エス.アー. トラックおよびトラックサブセットグループ化の方法および装置
JP2010026985A (ja) * 2008-07-24 2010-02-04 Sony Corp 情報処理装置及び情報処理方法
WO2010117315A1 (en) * 2009-04-09 2010-10-14 Telefonaktiebolaget Lm Ericsson (Publ) Media container file management
US20110069934A1 (en) * 2009-09-24 2011-03-24 Electronics And Telecommunications Research Institute Apparatus and method for providing object based audio file, and apparatus and method for playing back object based audio file
JP2011087103A (ja) * 2009-10-15 2011-04-28 Sony Corp コンテンツ再生システム、コンテンツ再生装置、プログラム、コンテンツ再生方法、およびコンテンツサーバを提供
JP2011188289A (ja) * 2010-03-09 2011-09-22 Olympus Imaging Corp 画像音声記録システム
CN101901595B (zh) * 2010-05-05 2014-10-29 北京中星微电子有限公司 一种根据音频音乐生成动画的方法和系统
US8918533B2 (en) * 2010-07-13 2014-12-23 Qualcomm Incorporated Video switching for streaming video data
CN102347042B (zh) * 2010-07-28 2014-05-07 Tcl集团股份有限公司 一种音轨切换方法、系统及音视频文件播放设备
US8806050B2 (en) * 2010-08-10 2014-08-12 Qualcomm Incorporated Manifest file updates for network streaming of coded multimedia data
CN107105351B (zh) * 2011-01-12 2019-10-11 夏普株式会社 再生装置
KR101739272B1 (ko) * 2011-01-18 2017-05-24 삼성전자주식회사 멀티미디어 스트리밍 시스템에서 컨텐트의 저장 및 재생을 위한 장치 및 방법
CA2838114A1 (en) * 2011-06-05 2012-12-13 Museami, Inc. Enhanced media recordings and playback
TW202339510A (zh) 2011-07-01 2023-10-01 美商杜比實驗室特許公司 用於適應性音頻信號的產生、譯碼與呈現之系統與方法
US9390756B2 (en) * 2011-07-13 2016-07-12 William Littlejohn Dynamic audio file generation system and associated methods
WO2013190684A1 (ja) * 2012-06-21 2013-12-27 パイオニア株式会社 再生装置及び方法
US9161039B2 (en) * 2012-09-24 2015-10-13 Qualcomm Incorporated Bitstream properties in video coding
CN104885151B (zh) * 2012-12-21 2017-12-22 杜比实验室特许公司 用于基于感知准则呈现基于对象的音频内容的对象群集
IES86526B2 (en) * 2013-04-09 2015-04-08 Score Music Interactive Ltd A system and method for generating an audio file
US9877116B2 (en) * 2013-12-30 2018-01-23 Gn Hearing A/S Hearing device with position data, audio system and related methods
CA2947549C (en) * 2014-05-30 2023-10-03 Sony Corporation Information processing apparatus and information processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012033243A (ja) * 2010-08-02 2012-02-16 Sony Corp データ生成装置およびデータ生成方法、データ処理装置およびデータ処理方法
WO2012046437A1 (ja) * 2010-10-08 2012-04-12 パナソニック株式会社 記録媒体、及びデータのコピー方法
JP2013545391A (ja) * 2010-11-05 2013-12-19 トムソン ライセンシング 高次アンビソニックス・オーディオ・データ用のデータ構造
JP2014096766A (ja) * 2012-11-12 2014-05-22 Canon Inc 記録装置及び記録方法

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10340869B2 (en) 2004-10-26 2019-07-02 Dolby Laboratories Licensing Corporation Adjusting dynamic range of an audio signal based on one or more dynamic equalization and/or dynamic range control parameters
US11948592B2 (en) 2010-02-11 2024-04-02 Dolby Laboratories Licensing Corporation System and method for non-destructively normalizing loudness of audio signals within portable devices
US11670315B2 (en) 2010-02-11 2023-06-06 Dolby Laboratories Licensing Corporation System and method for non-destructively normalizing loudness of audio signals within portable devices
US10418045B2 (en) 2010-02-11 2019-09-17 Dolby Laboratories Licensing Corporation System and method for non-destructively normalizing loudness of audio signals within portable devices
US10566006B2 (en) 2010-02-11 2020-02-18 Dolby Laboratories Licensing Corporation System and method for non-destructively normalizing loudness of audio signals within portable devices
US11341982B2 (en) 2010-02-11 2022-05-24 Dolby Laboratories Licensing Corporation System and method for non-destructively normalizing loudness of audio signals within portable devices
US11308976B2 (en) 2012-03-23 2022-04-19 Dolby Laboratories Licensing Corporation Post-processing gains for signal enhancement
US10902865B2 (en) 2012-03-23 2021-01-26 Dolby Laboratories Licensing Corporation Post-processing gains for signal enhancement
US10311891B2 (en) 2012-03-23 2019-06-04 Dolby Laboratories Licensing Corporation Post-processing gains for signal enhancement
US11694711B2 (en) 2012-03-23 2023-07-04 Dolby Laboratories Licensing Corporation Post-processing gains for signal enhancement
US10522163B2 (en) 2012-05-18 2019-12-31 Dolby Laboratories Licensing Corporation System for maintaining reversible dynamic range control information associated with parametric audio coders
US11708741B2 (en) 2012-05-18 2023-07-25 Dolby Laboratories Licensing Corporation System for maintaining reversible dynamic range control information associated with parametric audio coders
US10388296B2 (en) 2012-05-18 2019-08-20 Dolby Laboratories Licensing Corporation System for maintaining reversible dynamic range control information associated with parametric audio coders
US10217474B2 (en) 2012-05-18 2019-02-26 Dolby Laboratories Licensing Corporation System for maintaining reversible dynamic range control information associated with parametric audio coders
US10950252B2 (en) 2012-05-18 2021-03-16 Dolby Laboratories Licensing Corporation System for maintaining reversible dynamic range control information associated with parametric audio coders
US10074379B2 (en) 2012-05-18 2018-09-11 Dolby Laboratories Licensing Corporation System for maintaining reversible dynamic range control information associated with parametric audio coders
US10672413B2 (en) 2013-01-21 2020-06-02 Dolby Laboratories Licensing Corporation Decoding of encoded audio bitstream with metadata container located in reserved data space
US10671339B2 (en) 2013-01-21 2020-06-02 Dolby Laboratories Licensing Corporation System and method for optimizing loudness and dynamic range across different playback devices
US11488611B2 (en) 2013-02-21 2022-11-01 Dolby International Ab Methods for parametric multi-channel encoding
US10643626B2 (en) 2013-02-21 2020-05-05 Dolby International Ab Methods for parametric multi-channel encoding
US10360919B2 (en) 2013-02-21 2019-07-23 Dolby International Ab Methods for parametric multi-channel encoding
US10930291B2 (en) 2013-02-21 2021-02-23 Dolby International Ab Methods for parametric multi-channel encoding
US11817108B2 (en) 2013-02-21 2023-11-14 Dolby International Ab Methods for parametric multi-channel encoding
US10411669B2 (en) 2013-03-26 2019-09-10 Dolby Laboratories Licensing Corporation Volume leveler controller and controlling method
US11218126B2 (en) 2013-03-26 2022-01-04 Dolby Laboratories Licensing Corporation Volume leveler controller and controlling method
US11711062B2 (en) 2013-03-26 2023-07-25 Dolby Laboratories Licensing Corporation Volume leveler controller and controlling method
US10707824B2 (en) 2013-03-26 2020-07-07 Dolby Laboratories Licensing Corporation Volume leveler controller and controlling method
US10349125B2 (en) 2013-04-05 2019-07-09 Dolby Laboratories Licensing Corporation Method and apparatus for enabling a loudness controller to adjust a loudness level of a secondary media data portion in a media content to a different loudness level
US11404071B2 (en) 2013-06-19 2022-08-02 Dolby Laboratories Licensing Corporation Audio encoder and decoder with dynamic range compression metadata
US11823693B2 (en) 2013-06-19 2023-11-21 Dolby Laboratories Licensing Corporation Audio encoder and decoder with dynamic range compression metadata
US11533575B2 (en) 2013-09-12 2022-12-20 Dolby Laboratories Licensing Corporation Loudness adjustment for downmixed audio content
US10368181B2 (en) 2013-09-12 2019-07-30 Dolby Laboratories Licensing Corporation Loudness adjustment for downmixed audio content
US10993062B2 (en) 2013-09-12 2021-04-27 Dolby Laboratories Licensing Corporation Loudness adjustment for downmixed audio content
US11842122B2 (en) 2013-09-12 2023-12-12 Dolby Laboratories Licensing Corporation Dynamic range control for a wide variety of playback environments
US10674302B2 (en) 2013-09-12 2020-06-02 Dolby Laboratories Licensing Corporation Loudness adjustment for downmixed audio content
US10095468B2 (en) 2013-09-12 2018-10-09 Dolby Laboratories Licensing Corporation Dynamic range control for a wide variety of playback environments
US10956121B2 (en) 2013-09-12 2021-03-23 Dolby Laboratories Licensing Corporation Dynamic range control for a wide variety of playback environments
US11429341B2 (en) 2013-09-12 2022-08-30 Dolby International Ab Dynamic range control for a wide variety of playback environments
US10070243B2 (en) 2013-09-12 2018-09-04 Dolby Laboratories Licensing Corporation Loudness adjustment for downmixed audio content
US10594283B2 (en) 2014-05-26 2020-03-17 Dolby Laboratories Licensing Corporation Audio signal loudness control
US10453467B2 (en) 2014-10-10 2019-10-22 Dolby Laboratories Licensing Corporation Transmission-agnostic presentation-based program loudness
US11062721B2 (en) 2014-10-10 2021-07-13 Dolby Laboratories Licensing Corporation Transmission-agnostic presentation-based program loudness
JP2019533404A (ja) * 2016-09-23 2019-11-14 ガウディオ・ラボ・インコーポレイテッド バイノーラルオーディオ信号処理方法及び装置
WO2018079293A1 (ja) * 2016-10-27 2018-05-03 ソニー株式会社 情報処理装置および方法
CN111684823A (zh) * 2018-02-07 2020-09-18 索尼公司 发送装置、发送方法、处理装置以及处理方法
WO2019155930A1 (ja) * 2018-02-07 2019-08-15 ソニー株式会社 送信装置、送信方法、処理装置および処理方法
CN111684823B (zh) * 2018-02-07 2022-07-01 索尼公司 发送装置、发送方法、处理装置以及处理方法
US11341976B2 (en) 2018-02-07 2022-05-24 Sony Corporation Transmission apparatus, transmission method, processing apparatus, and processing method
WO2024029634A1 (ja) * 2022-08-03 2024-02-08 マクセル株式会社 放送受信装置、コンテンツ保護方法、残響音付加処理方法および放送受信装置の制御方法

Also Published As

Publication number Publication date
CA3212162A1 (en) 2016-01-07
AU2020289874A1 (en) 2021-01-28
JP7424420B2 (ja) 2024-01-30
MX2019010556A (es) 2019-10-14
KR20240065194A (ko) 2024-05-14
CN113851139A (zh) 2021-12-28
US20180165358A1 (en) 2018-06-14
JP2021061628A (ja) 2021-04-15
RU2016150994A3 (ja) 2018-12-03
CA2953242C (en) 2023-10-10
RU2016150994A (ru) 2018-06-25
JP2022133422A (ja) 2022-09-13
CN106471574B (zh) 2021-10-12
EP3163570A1 (en) 2017-05-03
EP3163570A4 (en) 2018-02-14
JP7080007B2 (ja) 2022-06-03
AU2015285344A1 (en) 2016-12-22
CA2953242A1 (en) 2016-01-07
KR102422493B1 (ko) 2022-07-20
CN113851138A (zh) 2021-12-28
SG11201610951UA (en) 2017-02-27
AU2023201334A1 (en) 2023-04-06
RU2702233C2 (ru) 2019-10-07
KR20220104290A (ko) 2022-07-26
CN106471574A (zh) 2017-03-01
JP2024038407A (ja) 2024-03-19
US20210326378A1 (en) 2021-10-21
MX2016016820A (es) 2017-04-27
JPWO2016002738A1 (ja) 2017-05-25
JP7103402B2 (ja) 2022-07-20
MX368088B (es) 2019-09-19
KR20170021778A (ko) 2017-02-28

Similar Documents

Publication Publication Date Title
JP7103402B2 (ja) 情報処理装置および情報処理方法
JP7072649B2 (ja) 高品質のエクスペリエンスのためのオーディオメッセージの効率的な配信および使用のための方法および装置
JP5635097B2 (ja) オーディオオブジェクトを適応的にストリーミングするためのシステム
WO2015182491A1 (ja) 情報処理装置および情報処理方法
JP6697695B2 (ja) 情報処理装置および情報処理方法
WO2015008576A1 (ja) 情報処理装置および情報処理方法
JP7238948B2 (ja) 情報処理装置および情報処理方法
JPWO2017145756A1 (ja) ファイル生成装置およびファイル生成方法、並びに、再生装置および再生方法
WO2021065277A1 (ja) 情報処理装置、再生処理装置及び情報処理方法
BR112016030349B1 (pt) Aparelho e método de processamento de informação
IRT et al. D4. 1: Requirements for Representation, Archiving and Provision of Object-based Audio

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15816059

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016531369

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2953242

Country of ref document: CA

ENP Entry into the national phase

Ref document number: 20167034549

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15318654

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: MX/A/2016/016820

Country of ref document: MX

REEP Request for entry into the european phase

Ref document number: 2015816059

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015816059

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2015285344

Country of ref document: AU

Date of ref document: 20150630

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2016150994

Country of ref document: RU

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112016030349

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112016030349

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20161222

WWE Wipo information: entry into national phase

Ref document number: MX/A/2023/013141

Country of ref document: MX