WO2016171002A1 - 送信装置、送信方法、受信装置および受信方法 - Google Patents

送信装置、送信方法、受信装置および受信方法 Download PDF

Info

Publication number
WO2016171002A1
WO2016171002A1 PCT/JP2016/061488 JP2016061488W WO2016171002A1 WO 2016171002 A1 WO2016171002 A1 WO 2016171002A1 JP 2016061488 W JP2016061488 W JP 2016061488W WO 2016171002 A1 WO2016171002 A1 WO 2016171002A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio
command
stream
group
predetermined number
Prior art date
Application number
PCT/JP2016/061488
Other languages
English (en)
French (fr)
Inventor
塚越 郁夫
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP16783023.1A priority Critical patent/EP3288025A4/en
Priority to US15/564,548 priority patent/US10304467B2/en
Priority to CN201680022172.6A priority patent/CN107533846B/zh
Priority to JP2017514064A priority patent/JPWO2016171002A1/ja
Publication of WO2016171002A1 publication Critical patent/WO2016171002A1/ja
Priority to PH12017501893A priority patent/PH12017501893A1/en
Priority to US16/390,909 priority patent/US10978080B2/en
Priority to US17/203,588 priority patent/US11636862B2/en
Priority to US18/188,353 priority patent/US12008999B2/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4343Extraction or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/02Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo four-channel type, e.g. in which rear channel signals are derived from two-channel stereo signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels

Definitions

  • the present technology relates to a transmission device, a transmission method, a reception device, and a reception method, and particularly to a transmission device that transmits a plurality of types of audio data.
  • object encoded data including encoded sample data and metadata together with channel encoded data such as 5.1 channel and 7.1 channel, and to enable sound reproduction with enhanced presence on the receiving side. Conceivable.
  • the purpose of this technology is to reduce the processing load on the receiving side when transmitting multiple types of audio data.
  • An audio encoding unit for generating a predetermined number of audio streams including a plurality of groups of encoded data
  • a transmission unit for transmitting a container in a predetermined format having the predetermined number of audio streams
  • the transmission apparatus includes an information insertion unit that inserts command information for generating a command for specifying a group to be decoded among the plurality of groups into the container and / or the audio stream.
  • a predetermined number that is, one or a plurality of audio streams including a plurality of groups of encoded data is generated by the audio encoding unit.
  • a container having a predetermined format having a predetermined number of audio streams is transmitted by the transmission unit.
  • the container may be a transport stream (MPEG-2 TS) adopted in the digital broadcasting standard.
  • the container may be MP4 used for Internet distribution or the like, or a container of other formats.
  • the information insertion unit inserts command information for generating a command for specifying a group to be decoded among a plurality of groups into the container and / or audio stream.
  • the command information may be information indicating a correspondence relationship between a command and a group, or information indicating a correspondence relationship between a preset group including a combination of a command and a predetermined number of groups.
  • command information for generating a command for specifying a group to be decoded among a plurality of groups is inserted into a container and / or an audio stream. Therefore, on the receiving side, by referring to this command information, it is easy to generate a command for specifying a group to be decoded.
  • the predetermined number of audio streams includes a main stream and a predetermined number of substreams, or only the main stream
  • the information insertion unit corresponds to the main stream and / or the main stream. May be inserted into the container position.
  • the audio encoding unit may provide a command insertion area for inserting a command for specifying a group to be decoded on at least one audio stream among a plurality of audio streams on the reception side. May be.
  • the command insertion area in advance, the process of inserting a command into the audio stream on the receiving side becomes easy.
  • An audio encoding unit for generating a predetermined number of audio streams including a plurality of groups of encoded data;
  • a transmission unit for transmitting a container of a predetermined format having the predetermined number of audio streams;
  • the audio encoding part The transmission apparatus includes a command insertion area for inserting a command for specifying a group to be decoded on at least one audio stream among the predetermined number of audio streams.
  • a predetermined number that is, one or a plurality of audio streams including a plurality of groups of encoded data is generated by the audio encoding unit.
  • a container having a predetermined format having a predetermined number of audio streams is transmitted by the transmission unit.
  • the container may be a transport stream (MPEG-2 TS) adopted in the digital broadcasting standard.
  • the container may be MP4 used for Internet distribution or the like, or a container of other formats.
  • the audio encoding unit is provided with a command insertion area for inserting a command for specifying a group to be decoded into at least one audio stream out of a predetermined number of audio streams.
  • the predetermined number of audio streams may be composed of a main stream and a predetermined number of substreams or only the main stream, and the audio encoding unit may be provided with a command insertion area in the main stream.
  • a command insertion area for inserting a command for specifying a group to be decoded on at least one audio stream among a predetermined number of audio streams is provided. Therefore, this command insertion area can be used when a command is inserted into an audio stream on the receiving side, and the command insertion process is facilitated.
  • a receiving unit for receiving a container of a predetermined format having a predetermined number of audio streams including encoded data of a plurality of groups;
  • a stream acquisition unit that extracts all audio streams including a group to be decoded from the predetermined number of audio streams, and obtains one audio stream that integrates all the extracted audio streams;
  • a command generator for generating a command for specifying a group to be decoded among a predetermined number of groups included in the one audio stream;
  • a command insertion unit that inserts the command generated by the command generation unit into one audio stream acquired by the stream acquisition unit;
  • An audio decoding unit is provided that inputs one audio stream in which the command is inserted and performs decoding processing on encoded data of a group specified by the command among a predetermined number of groups included in the one audio stream. In the device.
  • a container having a predetermined format having a predetermined number of audio streams including a plurality of groups of encoded data is received by the receiving unit.
  • the stream acquisition unit extracts all audio streams including a group to be decoded from a predetermined number of audio streams, and obtains one audio stream obtained by integrating all the extracted audio streams. In this case, when the predetermined number of audio streams is one audio stream, the audio stream is obtained as it is.
  • the command generation unit generates a command for specifying a group to be decoded among a predetermined number of groups included in one audio stream. For example, the command generation unit may generate a command corresponding to a selection operation on the user interface screen of the user. Thereby, the user can easily select a desired group as a group to be decoded.
  • the command generated by the command generation unit is inserted into one audio stream acquired by the stream acquisition unit by the command insertion unit.
  • the audio decoding unit performs decoding processing on the encoded data of the group specified by the command.
  • a command for specifying a group to be decoded is inserted into the audio stream and sent to the audio decoding unit. Therefore, the audio decoding unit can selectively decode only the encoded image data of the group to be decoded. In this case, the audio decoding unit performs group selection processing, and efficient processing is possible.
  • command information for generating a command for specifying a group to be decoded among a plurality of groups is inserted into the audio stream and / or container received by the receiving unit, and the command is generated.
  • the unit may be configured to generate a command with reference to the command information.
  • the command is generated with reference to the command information, and the generation processing of the command specifying the group to be decoded becomes easy.
  • a command insertion area for inserting a command for specifying a group to be decoded is provided in at least one audio stream among a predetermined number of audio streams received by the reception unit.
  • one audio stream acquired by the stream acquisition unit may have a command insertion area, and the command insertion unit may insert a command into the command insertion area of one audio stream.
  • the command is inserted into a command insertion area provided in advance, and the process of inserting the command becomes easy.
  • a command command identifier: CommandID
  • FIG. 10B is a diagram (1/2) illustrating an example of a decoding target selection process when there are three received audio streams.
  • FIG. 10B is a diagram (2/2) for explaining an example of the decoding target selection process when the received audio stream is 3 streams; It is a block diagram which shows the structural example of 3D audio decoder.
  • FIG. 1 shows a configuration example of a transmission / reception system 10 as an embodiment.
  • the transmission / reception system 10 includes a service transmitter 100 and a service receiver 200.
  • the service transmitter 100 transmits the transport stream TS on a broadcast wave or a net packet.
  • the transport stream TS includes a predetermined number including a video stream and a plurality of groups of encoded data, that is, one or a plurality of audio streams.
  • FIG. 2 shows an example of the structure of an audio frame in 3D audio transmission data handled in this embodiment.
  • This audio frame is composed of a plurality of MPEG audio stream packets (mpeg
  • Each MPEG audio stream packet is composed of a header and a payload.
  • the header has information such as packet type (Packet type), packet label (Packet type Label), and packet length (Packet type Length).
  • Information defined by the packet type of the header is arranged in the payload.
  • the payload information includes “SYNC” corresponding to the synchronization start code, “Frame” that is actual data of 3D audio transmission data, and “Config” indicating the configuration of this “Frame”.
  • “Frame” includes channel encoded data and object encoded data constituting 3D audio transmission data.
  • the channel encoded data is composed of encoded sample data such as SCE (Single Channel Element), CPE (Channel Pair Element), and LFE (Low Frequency Element).
  • the object encoded data is composed of SCE (Single Channel Element) encoded sample data and metadata for rendering it by mapping it to a speaker located at an arbitrary position. This metadata is included as an extension element (Ext_element).
  • FIG. 3 shows a configuration example of 3D audio transmission data.
  • it consists of one channel encoded data and four object encoded data.
  • One channel coded data is 5.1 channel channel coded data (CD).
  • the four encoded object data are an immersive audio object (IAO: Immersive audio object), a speech dialog object (SDO: Speech : object), a sound object (SUO: Sound object) and an audio description object (ADO: Audio description object). Encoded data.
  • IAO Immersive audio object
  • SDO Speech dialog object
  • SDO Speech : object
  • SDO Sound object
  • ADO Audio description object
  • Immersive audio object encoded data is object encoded data for immersive sound.
  • Speech dialog object encoded data is object encoded data for speech language.
  • speech dialog object encoded data there is speech dialog object encoded data corresponding to each of the first and second languages.
  • Sound object encoded data is object encoded data for sound. In this example, there is sound object encoded data corresponding to each of the first and second types.
  • the audio description object encoded data is object encoded data for audio description. In this example, there is audio description object encoded data corresponding to each of the first and second descriptions.
  • Encoded data is distinguished by the concept of group by type.
  • 5.1 channel encoded data is group 1 (Group 1)
  • immersive audio object encoded data is group 2 (Group 2)
  • the speech dialog object code according to the first language is group 3 (Group 3)
  • the encoded data is group 3 (Group 3)
  • the speech dialog object encoded data according to the second language is group 6 (Group 6).
  • the sound object encoded data according to the first type is group 4 (Group (4)
  • the sound object encoded data according to the second type is group 5 (Group 5)
  • the audio description object encoded data related to one description is group 7 (Group 7)
  • the audio description object encoded data related to the second description is group 8 (Group 8).
  • SW switch group
  • group 3 and group 6 are switch group 1 (SW Group 1)
  • group 4 and group 5 are switch group 2 (SW Group 2)
  • group 7 and group 8 are switch group 3 (SW Group ⁇ 3).
  • the groups are bundled into a preset group (preset Group), which enables playback according to the use case.
  • group 1, group 2, group 3, group 4, group 5 and group 6 are bundled into preset group 1 (preset Group 1), and group 1, group 2, group 3, group 6, group 6 7 and group 8 are bundled into preset group 2 (preset Group 2).
  • preset group 1 and preset group 2 are included in tube 1 (Tube 1). In selecting a preset group, one of the tubes is selected.
  • FIG. 4 schematically shows an example of sound field reproduction by the encoded data of each group.
  • the group 1 channel encoded data reproduces a sound that reflects the overall scene situation. Only this sound is encoded as channel data with respect to the target speaker (SP) position. Other voices / sounds are encoded as object audio, and at the time of encoding, the speaker position is not specified and is rendered depending on the speaker position of the viewing environment. The rendered audio is mixed and finally each speaker is mixed. Is output from.
  • SP target speaker
  • the sound effect that creates the excitement of the scene is reproduced by the immersive audio object encoded data of Group 2.
  • the speech 1 is reproduced by the speech dialog object encoded data relating to the first language of the group 3.
  • the speech 2 is reproduced by the speech dialog object encoded data related to the second language of the group 6.
  • the environment BGM1 (background music 1) is reproduced by the sound object encoded data according to the first type.
  • the environment BGM2 background music 2 is reproduced by the sound object encoded data according to the second type.
  • Narration 1 is reproduced by the encoded audio description object data relating to the first description.
  • Narration 2 is reproduced by the audio description object encoded data related to the second description.
  • the service transmitter 100 transmits 3D audio transmission data including encoded data of a plurality of groups in one stream or a plurality of streams (Multiple stream) as described above.
  • FIG. 5A schematically shows a configuration example of an audio frame in the case where transmission is performed in one stream (main stream) in the configuration example of 3D audio transmission data in FIG.
  • Data (SUO) and audio description object encoded data (ADO) are included.
  • FIG. 5B schematically shows a configuration example of an audio frame in the case where transmission is performed in multi-stream, here, three streams in the configuration example of 3D audio transmission data in FIG.
  • the main stream includes channel-encoded data (CD) and immersive audio object encoded data (IAO) together with “SYNC” and “Config”.
  • CD channel-encoded data
  • IAO immersive audio object encoded data
  • the substream (aggressive stream) 1 includes speech dialog object encoded data (SDO) and sound object encoded data (SUO) together with “SYNC” and “Config”.
  • the substream (aggressive stream) 2 includes speech dialog object encoded data (SDO) and audio description object encoded data (ADO) together with “SYNC” and “Config”.
  • the main stream includes groups 1 and 2
  • the substream 1 includes groups 3, 4, and 5
  • the substream 2 includes groups 6, 7, and 8. .
  • FIG. 6 shows the correspondence between groups and streams when transmitting with 3 streams.
  • the group ID (group ID) is an identifier for identifying a group.
  • An attribute indicates an attribute of encoded data of each group.
  • the switch group ID (switch Group ID) is an identifier for identifying a switching group.
  • the preset group ID (preset Group ID) is an identifier for identifying a preset group.
  • the stream ID (Stream ID) is an identifier for identifying a stream.
  • Kind indicates the content type of each group.
  • the encoded data belonging to group 1 is channel encoded data, does not constitute a switch group, and is included in stream 1 (main stream).
  • the encoded data belonging to group 2 is immersive audio object encoded data, does not constitute a switch group, and is included in stream 1 (main stream). Show.
  • the encoded data belonging to the group 3 is the speech dialog object encoded data related to the first language, and constitutes the switch group 1 and is included in the stream 2 (substream 1). It is included.
  • the encoded data belonging to the group 4 is sound object encoded data according to the first type, which forms the switch group 2 and is included in the stream 2 (substream 1). It shows that it is.
  • the encoded data belonging to the group 5 is sound object encoded data according to the second type, which constitutes the switch group 2 and is included in the stream 2 (substream 1). It shows that it is.
  • the encoded data belonging to the group 6 is the speech dialog object encoded data related to the second language, and constitutes the switch group 1, and is included in the stream 3 (substream 2). It is included.
  • the encoded data belonging to the group 7 is audio description object encoded data related to the first description, and configures the switch group 3, and the stream 3 (substream 2 ) Is included.
  • the encoded data belonging to the group 8 is audio description object encoded data related to the second description, and configures the switch group 3, and the stream 3 (substream 2 ) Is included.
  • the illustrated correspondence relationship indicates that the preset group 1 includes group 1, group 2, group 3, group 4, group 5, and group 6. Furthermore, the illustrated correspondence relationship indicates that the preset group 2 includes group 1, group 2, group 3, group 6, group 7, and group 8.
  • the service transmitter 100 transmits 3D audio transmission data configuration information, that is, “groupID”, “attribute”, “switchGroupID”, “presetGroupID”, “StreamID” to the container (transport stream TS).
  • the information indicating the correspondence relationship (see FIG. 6) is inserted.
  • the service receiver 100 inserts command information for generating a command for specifying a group to be decoded among a plurality of groups into the container.
  • the command information includes information indicating the correspondence between commands and groups, information indicating the correspondence between commands and preset groups, and the like.
  • FIG. 7 shows an example of a correspondence relationship between a command (command identifier: CommandID), a group, and a preset group.
  • the “1” to “18” portions of the command indicate the correspondence between the command and the group (group group) to be decoded indicated by the command.
  • the command “7” indicates that the groups 1, 2, 3, 4, and 8 should be decoded.
  • the commands “19” and “20” indicate the correspondence between the command and the preset group to be decoded that is indicated by the command.
  • the command “19” indicates that the preset group 1 is to be decoded.
  • the service transmitter 100 inserts transmission data configuration information and command information into, for example, an audio elementary stream loop corresponding to a main stream existing under a program map table (PMT: Program Map).
  • PMT Program Map
  • the service transmitter 100 inserts transmission data configuration information and command information by inserting a 3D audio stream configuration descriptor (3Daudio_stream_config_descriptor) into the audio elementary stream loop corresponding to the main stream.
  • 3D audio stream configuration descriptor 3Daudio_stream_config_descriptor
  • the transmission data configuration information and the command information can be further inserted into the audio elementary stream loop corresponding to the substream.
  • the service transmitter 100 stores, in the container, stream identifier information indicating each stream identifier of a predetermined number of audio streams, for example, a predetermined number of audio streams existing under a program map table (PMT: Program Map Table). Are inserted into an audio elementary stream loop corresponding to each of the above.
  • the service transmitter 100 inserts the stream identifier information by inserting a 3D audio stream ID descriptor (3Daudio_streamID_descriptor) in the audio elementary stream loop corresponding to each audio stream.
  • the service transmitter 100 inserts transmission data configuration information and command information into the audio stream.
  • the service transmitter 100 inserts the transmission data configuration information and command information into, for example, the PES payload of the main stream PES packet.
  • transmission data configuration information and command information can be further inserted into the PES payload of the substream PES packet.
  • the service transmitter 100 inserts transmission data configuration information and command information as descriptor information “Desc” between “SYNC” and “Config” as shown in FIGS. 5A and 5B. This is done by inserting an audio stream config descriptor (3Daudio_stream_config_descriptor).
  • the service transmitter 100 has a command insertion area for inserting a command (command identifier: CommandID) for specifying a group to be decoded into at least one audio stream of a predetermined number of audio streams on the receiving side.
  • a command command identifier: CommandID
  • the service transmitter 100 inserts the command insertion area into, for example, the PES payload of the PES packet of the main stream.
  • the service transmitter 100 sets the 3D audio command as descriptor information “Desc” between “SYNC” and “Config” as shown in FIGS. -This is done by inserting a descriptor (3Daudio_command_descriptor).
  • FIG. 8 shows another configuration example of 3D audio transmission data.
  • the preset group setting is different from the configuration example of the 3D audio transmission data in FIG. Others are the same.
  • group 1, group 2 and group 3 are bundled to form preset group 1 (preset Group 1)
  • group 1, group 2 and group 6 are bundled to form preset group 2 (preset Group 2). It is said that.
  • the preset group 1 and the preset group 2 are included in the tube 1 (Tube 1).
  • group 4 and group 5 are bundled to form preset group 3 (preset Group 3), and group 7 and group 8 are bundled to form preset group 4 (preset Group 4). These preset group 3 and preset group 4 are included in the tube 2 (Tube 2).
  • FIG. 9 shows the correspondence between groups and streams in the case of transmission with 3 streams corresponding to the configuration example of 3D audio transmission data in FIG. Except for the item portion of preset group ID (preset Group ID), it is the same as FIG. Note that in the case of transmission with one stream, since all groups of encoded data are included in stream 1 (main stream), “Stream ID” in FIG. 9 is all “1”.
  • FIG. 10 shows an example of a correspondence relationship between a command (command identifier: CommandID), a group, and a preset group corresponding to the configuration example of 3D audio transmission data in FIG. Except for the correspondence relationship with the preset group, it is the same as FIG.
  • the parts of the commands “19” to “24” indicate the correspondence between the command and the preset group to be decoded indicated by the command.
  • the command “19” indicates that the preset group 1 is to be decoded.
  • the command “21” indicates that the preset group 1 and the preset group 3 are to be decoded.
  • the service receiver 200 receives the transport stream TS transmitted from the service transmitter 100 on broadcast waves or net packets.
  • the transport stream TS includes a predetermined number of audio streams including a plurality of groups of encoded data constituting 3D audio transmission data in addition to the video stream. Transmission data configuration information and command information are inserted in the container and / or audio stream.
  • the service receiver 200 determines a group to be decoded based on the transmission data configuration information, the user selection operation, and the system processing function. At this time, the service receiver 200 displays a UI (User Interface) screen for the user to perform a selection operation based on the transmission data configuration information. The user performs a selection operation on this UI screen.
  • UI User Interface
  • FIG. 11 shows an example of a UI screen corresponding to the configuration example of the 3D audio transmission data shown in FIGS.
  • the user is not allowed to select the user regarding “sound that reflects the overall scene situation” reproduced by the channel encoded data distinguished by group 1, and group 1 is determined as a group to be decoded. Further, the user cannot select the “sound effect that produces the excitement of the scene” reproduced by the immersive audio object encoded data distinguished by the group 2, and the group 1 is determined as a group to be decoded.
  • the “speech speech 1 (first language)” reproduced with the speech dialog object encoded data related to the first language identified in group 3 and the speech dialog related to the second language distinguished in group 6 The user can select the “conversation voice 2 (second language)” reproduced by the object encoded data.
  • the group 3 is determined as a group to be decoded.
  • the group 6 is determined as a group to be decoded. Is done.
  • Environment BGM1 reproduced with the sound object encoded data according to the first type distinguished in the group 4 and reproduced with the sound object encoded data according to the second type distinguished in the group 5.
  • User selection is possible for “environment BGM2”. In this case, “no environment BGM” is also an option.
  • the group 4 is determined as a group to be decoded.
  • the group 5 is determined as the group to be decoded.
  • none of the groups 4 and 5 is determined as a group to be decoded.
  • “Narration 1” reproduced with the audio description object encoded data related to the first description distinguished in the group 7 and the audio description object code related to the second description distinguished in the group 8 The user can select “Narration 2” reproduced with the digitized data. In this case, “no narration” is also an option.
  • group 7 is determined as a group to be decoded.
  • group 8 is determined as a group to be decoded.
  • neither of the groups 7 and 8 is determined as a group to be decoded.
  • the service receiver 200 extracts and integrates all the audio streams including the group determined to be decoded from the predetermined number of received audio streams, and acquires one audio stream. In this case, when the predetermined number of audio streams is one, this audio stream becomes one audio stream as it is.
  • a command insertion area for inserting a command (command identifier: CommandID) for specifying a group to be decoded is provided in at least one audio stream among a predetermined number of received audio streams. Therefore, a command insertion area exists in this one audio stream.
  • the service receiver 200 inserts a command for specifying the group to be decoded determined as described above into this one audio stream. In this case, the service receiver 200 inserts a command into the command insertion area.
  • the service receiver 200 sends one audio stream in which the command is inserted to the audio decoder, and encodes the encoded data of the group to be decoded specified by the command among the predetermined number of groups included in the one audio stream.
  • a decoding process is performed to obtain an audio output of 3D audio.
  • FIG. 12 illustrates a configuration example of the stream generation unit 110 included in the service transmitter 100.
  • the stream generation unit 110 includes a video encoder 112, an audio encoder 113, and a multiplexer 114.
  • the audio transmission data is composed of one encoded channel data and four object encoded data as shown in FIGS.
  • the video encoder 112 receives the video data SV, encodes the video data SV, and generates a video stream (video elementary stream).
  • the audio encoder 113 inputs object data of immersive audio, a speech dialog, a sound object, and an audio description object together with channel data as audio data SA.
  • the audio encoder 113 encodes the audio data SA to obtain 3D audio transmission data.
  • the 3D audio transmission data includes channel encoded data (CD), immersive audio object encoded data (IAO), speech dialog object encoded data (SDO), Sound object encoded data (SUO) and audio description object encoded data (ADO) are included.
  • the audio encoder 113 generates one or a plurality of audio streams (audio elementary streams) including encoded data of a plurality of groups, here eight groups (see FIGS. 5A and 5B). At this time, the audio encoder 113 inserts transmission data configuration information and command information into at least one audio stream, for example, a main stream, of a predetermined number of audio streams, and further provides a command insertion area.
  • the audio encoder 113 includes a 3D audio stream configuration descriptor (3Daudio_stream_config_descriptor) including transmission data configuration information and command information as descriptor information (“Desc”) between “SYNC” and “Config”. And a 3D audio command descriptor (3Daudio_command_descriptor) constituting a command insertion area is inserted.
  • 3D audio stream configuration descriptor (3Daudio_stream_config_descriptor) including transmission data configuration information and command information as descriptor information (“Desc”) between “SYNC” and “Config”.
  • 3D audio command descriptor (3Daudio_command_descriptor) constituting a command insertion area is inserted.
  • the multiplexer 114 converts the video stream output from the video encoder 112 and the predetermined number of audio streams output from the audio encoder 113 into PES packets, further multiplexes them into transport packets, and transports them as multiplexed streams.
  • a stream TS is obtained.
  • the multiplexer 114 inserts transmission data configuration information and command information into the transport stream TS as a container. Specifically, the multiplexer 114 adds a 3D audio stream configuration descriptor (3Daudio_stream_config_descriptor) in an audio elementary stream loop corresponding to at least one audio stream of a predetermined number of audio streams, for example, a main stream. insert.
  • 3D audio stream configuration descriptor 3Daudio_stream_config_descriptor
  • the multiplexer 114 inserts stream identifier information indicating the stream identifiers of a predetermined number of audio streams into the transport stream TS as a container. Specifically, the multiplexer 114 inserts a 3D audio stream ID descriptor (3Daudio_streamID_descriptor) in an audio elementary stream loop corresponding to each of a predetermined number of audio streams.
  • 3Daudio_streamID_descriptor 3Daudio_streamID_descriptor
  • the operation of the stream generation unit 110 shown in FIG. The video data is supplied to the video encoder 112.
  • the video data SV is encoded, and a video stream including the encoded video data is generated.
  • This video stream is supplied to the multiplexer 114.
  • the audio data SA is supplied to the audio encoder 113.
  • the audio data SA includes channel data and object data of immersive audio, a speech dialog, a sound object, and an audio description object.
  • the audio encoder 113 encodes the audio data SA to obtain 3D audio transmission data.
  • the 3D audio transmission data includes immersive audio object coded data (IAO), speech dialog object coded data (SDO), and sound object coded data (SUO).
  • IAO immersive audio object coded data
  • SDO speech dialog object coded data
  • SUV sound object coded data
  • ADO audio description object encoded data
  • the audio encoder 113 generates one or a plurality of audio streams including eight groups of encoded data (see FIGS. 5A and 5B).
  • a 3D audio stream configuration descriptor (3Daudio_stream_config_descriptor) including transmission data configuration information and command information is inserted as descriptor information (“Desc”) between “SYNC” and “Config”. Further, a 3D audio command descriptor (3Daudio_command_descriptor) constituting a command insertion area is inserted.
  • the video stream generated by the video encoder 112 is supplied to the multiplexer 114.
  • the audio stream generated by the audio encoder 113 is supplied to the multiplexer 114.
  • a stream supplied from each encoder is converted into a PES packet, further converted into a transport packet, and multiplexed to obtain a transport stream TS as a multiplexed stream.
  • a 3D audio stream configuration descriptor (3Daudio_stream_config_descriptor) including transmission data configuration information and command information is inserted into an audio elementary stream loop corresponding to the main stream.
  • a 3D audio stream ID descriptor (3Daudio_streamID_descriptor) including stream identifier information is inserted into an audio elementary stream loop corresponding to each of a predetermined number of audio streams.
  • FIGS. 13 and 14 show a structural example (Syntax) of a 3D audio stream configuration descriptor (3Daudio_stream_config_descriptor).
  • FIG. 15 shows the contents (Semantics) of main information in the structural example.
  • the 8-bit field of “descriptor_tag” indicates the descriptor type. Here, a 3D audio stream config descriptor is indicated.
  • the 8-bit field of “descriptor_length” indicates the length (size) of the descriptor, and indicates the number of subsequent bytes as the length of the descriptor.
  • the 8-bit field “NumOfGroups, N” indicates the number N of groups.
  • An 8-bit field of “NumOfPresetGroups, P” indicates the number P of preset groups.
  • the 8-bit field of “NumOfCommand; Q” indicates the number Q of commands.
  • an 8-bit field of “groupID”, an 8-bit field of “attribute_of_groupID”, an 8-bit field of “SwitchGroupID”, an 8-bit field of “audio_streamID”, and an 8-bit field of “content_kind” exist repeatedly. .
  • the “groupID” field indicates a group identifier.
  • a field of “attribute_of_groupID” indicates an attribute of encoded data of the corresponding group.
  • the field of “SwitchGroupID” is an identifier indicating which switch group the corresponding group belongs to. “0” indicates that it does not belong to any switch group. Items other than “0” indicate the switch group to which it belongs.
  • the 8-bit field of “content_Kind” indicates the content type of the group.
  • “Audio_streamID” is an identifier indicating an audio stream including the group.
  • a field of “presetGroupID” is an identifier indicating a bundle in which a group is preset.
  • the field of “NumOfGroups_in_preset, R” indicates the number R of groups belonging to the preset group. For each preset group, as many as the number R of groups belonging to the preset group, an 8-bit field of “groupID” repeatedly exists, and all groups belonging to the preset group are indicated.
  • “CommandID” is a command identifier and indicates a decoding target.
  • Selection_type indicates the type of command specification. “1” indicates that a group is directly specified, and “0” indicates that a group is indirectly specified by specifying a preset group.
  • selection_type When “selection_type” is “0”, that is, when a preset group is designated as a decoding target, an 8-bit field of “Max_NumOfPresetGroups_in_command; commandW” exists for each command.
  • This field indicates the number W of preset groups included in one command.
  • the relationship is W ⁇ “NumOfTubePresetGroup”.
  • “NumOfTubePresetGroup” indicates the number of preset group tubes (bundles: Tubes), and corresponds to the number of preset groups that can be specified simultaneously. All preset groups are assumed to belong to one of these tubes. By repeatedly arranging the 8-bit field of “presetGroupID”, all preset groups designated as decoding targets are indicated.
  • selection_type is “1”, that is, when a group is directly specified as a decoding target, an 8-bit field of “Max_NumOfGroups_in_command; S” exists for each command. This field indicates the number S of groups included in one command. Then, as many as the number of groups S, an 8-bit field of “groupID” exists repeatedly, and all groups designated as decoding targets are indicated.
  • FIG. 16A shows a structural example (Syntax) of a 3D audio stream ID descriptor (3Daudio_streamID_descriptor).
  • FIG. 16B shows the contents (Semantics) of main information in the structural example.
  • the 8-bit field of “descriptor_tag” indicates the descriptor type. Here, it indicates a 3D audio stream ID descriptor.
  • the 8-bit field of “descriptor_length” indicates the length (size) of the descriptor, and indicates the number of subsequent bytes as the length of the descriptor.
  • An 8-bit field of “audio_streamID” indicates an identifier of the audio stream.
  • FIG. 17A shows a structural example (Syntax) of a 3D audio command descriptor (3Daudio_command_descriptor).
  • FIG. 17B shows the contents (Semantics) of main information in the structural example.
  • the 8-bit field of “descriptor_tag” indicates the descriptor type. Here, a 3D audio command descriptor is indicated.
  • the 8-bit field of “descriptor_length” indicates the length (size) of the descriptor, and indicates the number of subsequent bytes as the length of the descriptor.
  • An 8-bit field of “NumOfCommands, N” indicates the number N of commands. Then, as many as the number N of commands, there are repeated 8-bit fields of “CommandID”.
  • the service transmitter 100 inserts the 3D audio command descriptor into the audio stream, the value of “N” is determined and the value of “CommandID” is determined in consideration of the maximum number of commands inserted on the receiving side. An invalid value, for example, all 0s is inserted into the field.
  • FIG. 18 illustrates a configuration example of the transport stream TS in the case where 3D audio transmission data is transmitted in three streams of a main stream, a substream 1, and a substream 2 (see FIGS. 3 and 5B).
  • a PES packet “video PES” of the video stream identified by PID1.
  • audio PES packets “audio PES” identified by PID100, PID200, and PID300, respectively.
  • the PES packet includes a PES header (PES_header) and a PES payload (PES_payload).
  • channel coded data (CD) distinguished as group 1 and immersive audio object coded data (IAO) distinguished as group 2 are included.
  • IAO immersive audio object coded data
  • descriptor information “Desc” (see FIG. 5B) of the 3D audio stream config descriptor (3Daudio_stream_config_descriptor) and the 3D audio command descriptor (3Daudio_command_descriptor) is inserted.
  • speech dialog object encoded data distinguished as group 3 and sound distinguished as groups 4 and 5 are used.
  • Object encoded data is included.
  • SDO speech dialog object encoded data distinguished as group 6 and the groups 7 and 8 are distinguished.
  • ADO Audio description object encoded data
  • the transport stream TS includes a PMT (Program Map Table) as PSI (Program Specific Information).
  • PSI is information describing to which program each elementary stream included in the transport stream belongs.
  • the PMT has a program loop (Program ⁇ ⁇ ⁇ loop) that describes information related to the entire program.
  • an elementary stream loop having information related to each elementary stream exists in the PMT.
  • a video elementary stream loop (video (ES loop) corresponding to a video stream exists
  • an audio elementary stream loop (audio ES loop) corresponding to three audio streams exists.
  • video elementary stream loop information such as a stream type and PID (packet identifier) is arranged corresponding to the video stream, and a descriptor describing information related to the video stream is also arranged. Is done.
  • the value of “Stream_type” of this video stream is set to “0x24”, and the PID information indicates PID1 given to the PES packet “video PES” of the video stream as described above.
  • each audio elementary stream loop (audio ES loop) information such as a stream type and PID (packet identifier) is arranged corresponding to the audio stream, and a descriptor describing information related to the audio stream is also provided. Be placed.
  • the value of “Stream_type” of the main stream is set to “0x2C”, and the PID information indicates the PID 100 given to the PES packet “audio PES” of the main stream as described above.
  • the value of “Stream_type” of the substream 1 is set to “0x2D”, and the PID information indicates the PID 200 given to the PES packet “audio PES” of the substream 1 as described above.
  • the value of “Stream_type” of substream 2 is set to “0x2D”, and the PID information indicates the PID 300 assigned to the PES packet “audio ⁇ PES ”of substream 2 as described above.
  • a 3D audio stream config descriptor (3Daudio_stream_config_descriptor) and a 3D audio stream ID descriptor (3Daudio_streamID_descriptor) are arranged in an audio elementary stream loop (audio ES loop) corresponding to the main stream. Further, a 3D audio stream ID descriptor is arranged in an audio elementary stream loop (audio ES loop) corresponding to the substreams 1 and 2.
  • FIG. 19 shows a configuration example of the transport stream TS when 3D audio transmission data is transmitted as one stream of the main stream (see FIGS. 3 and 5A).
  • PES packet video PES” of the video stream identified by PID1.
  • PES packet audio ⁇ PES ”of one audio stream identified by PID100.
  • the PES packet includes a PES header (PES_header) and a PES payload (PES_payload).
  • an elementary stream loop having information related to each elementary stream exists in the PMT.
  • video ES loop video elementary stream loop
  • audio ES loop audio elementary stream loop
  • video elementary stream loop information such as a stream type and PID (packet identifier) is arranged corresponding to the video stream, and a descriptor describing information related to the video stream is also arranged. Is done.
  • the value of “Stream_type” of this video stream is set to “0x24”, and the PID information indicates PID1 given to the PES packet “video PES” of the video stream as described above.
  • audio elementary stream loop In the audio elementary stream loop (audio ES loop), information such as stream type and PID (packet identifier) is arranged corresponding to the audio stream (main stream), and information related to the audio stream is described. A descriptor is also arranged. The value of “Stream_type” of this audio stream is set to “0x2C”, and the PID information indicates the PID 100 assigned to the PES packet “audio PES” of the main stream as described above.
  • audio ESDloop In this audio elementary stream loop (audio ESDloop), a 3D audio stream configuration descriptor and a 3D audio stream ID descriptor are arranged.
  • FIG. 20 shows a configuration example of the service receiver 200.
  • the service receiver 200 includes a receiving unit 201, a demultiplexer 202, a video decoder 203, a video processing circuit 204, a panel driving circuit 205, and a display panel 206.
  • the service receiver 200 also includes multiplexing buffers 211-1 to 211 -N, a combiner 212, a command insertion unit 213, a 3D audio decoder 214, an audio output processing circuit 215, and a speaker system 216.
  • the service receiver 200 includes a CPU 221, a flash ROM 222, a DRAM 223, an internal bus 224, a remote control receiver 225, and a remote control transmitter 226.
  • the CPU 221 controls the operation of each unit of service receiver 200.
  • the flash ROM 222 stores control software and data.
  • the DRAM 223 constitutes a work area for the CPU 221.
  • the CPU 221 develops software and data read from the flash ROM 222 on the DRAM 223 to activate the software, and controls each unit of the service receiver 200.
  • the remote control receiving unit 225 receives the remote control signal (remote control code) transmitted from the remote control transmitter 226 and supplies it to the CPU 221.
  • the CPU 221 controls each part of the service receiver 200 based on this remote control code.
  • the CPU 221, flash ROM 222, and DRAM 223 are connected to the internal bus 224.
  • the receiving unit 201 receives the transport stream TS transmitted from the service transmitter 100 on broadcast waves or net packets.
  • the transport stream TS includes a predetermined number of audio streams including a plurality of groups of encoded data constituting 3D audio transmission data in addition to the video stream.
  • FIG. 21 shows an example of the received audio stream.
  • FIG. 21A shows an example of one stream (main stream). This main stream is identified by the identifier PID100.
  • the main stream includes channel encoded data (CD), immersive audio object encoded data (IAO), speech dialog object encoded data (SDO), sound object encoded data (SUO). ) And audio description object encoded data (ADO) (see FIG. 3).
  • descriptor information (“Desc”)
  • a 3D audio stream configuration descriptor (see FIGS. 13 and 14) including transmission data configuration information and command information
  • a command A 3D audio command descriptor (see FIG. 17A) including information is inserted.
  • FIG. 21 (b) shows an example of multi-stream, here three streams.
  • the main stream identified by the PID 100 includes channel encoded data (CD) and immersive audio object encoded data (IAO) as well as “SYNC” and “Config” (see FIG. 3).
  • CD channel encoded data
  • IAO immersive audio object encoded data
  • sub-stream 1 identified by the PID 200 includes speech dialog object encoded data (SDO) and sound object encoded data (SUO) as well as “SYNC” and “Config” (see FIG. 3).
  • sub-stream 2 identified by the PID 300 includes speech dialog object encoded data (SDO) and audio description object encoded data (ADO) as well as “SYNC” and “Config” (see FIG. 3). ).
  • the main stream includes a 3D audio stream configuration descriptor including transmission data configuration information and command information as descriptor information (“Desc”) between “SYNC” and “Config” (see FIGS. 13 and 14). And a 3D audio command descriptor (see FIG. 17A) including command information is inserted.
  • Desc descriptor information
  • Config Config
  • the demultiplexer 202 extracts a video stream packet from the transport stream TS and sends it to the video decoder 203.
  • the video decoder 203 reconstructs a video stream from the video packets extracted by the demultiplexer 202 and performs decoding processing to obtain uncompressed video data.
  • the video processing circuit 204 performs scaling processing, image quality adjustment processing, and the like on the video data obtained by the video decoder 203 to obtain video data for display.
  • the panel drive circuit 205 drives the display panel 206 based on the display image data obtained by the video processing circuit 204.
  • the display panel 206 includes, for example, an LCD (Liquid Crystal Display), an organic EL display (organic electroluminescence display), and the like.
  • the demultiplexer 202 extracts various information such as descriptor information from the transport stream TS and sends it to the CPU 221.
  • the various information includes information on the 3D audio stream configuration descriptor and the 3D audio stream ID descriptor described above (see FIGS. 18 and 19).
  • the CPU 221 recognizes the correspondence between the command and the group / preset group (see FIGS. 7 and 10) as well as the transmission data configuration (see FIGS. 3 and 8) from the information of the 3D audio stream configuration descriptor. Further, the CPU 221 recognizes which audio stream each group includes from the information of the 3D audio stream ID and descriptor.
  • the CPU 221 determines a group to be decoded based on the transmission data configuration information, the user selection operation, and further the system processing function, and generates a command (command identifier: CommandID) for specifying the group.
  • the CPU 221 displays a UI (User Interface) screen for the user to perform a selection operation based on the transmission data configuration information (see FIG. 11). The user performs a selection operation on this UI screen.
  • UI User Interface
  • the demultiplexer 202 selectively extracts all audio streams including a group determined to be decoded from a predetermined number of audio streams included in the transport stream TS under the control of the CPU 221 using a PID filter. . If the predetermined number of audio streams is one stream (see FIG. 21A), the audio streams are always extracted. When the predetermined number of audio streams are multi-streams (see FIG. 21B), the main stream including channel coded data (CD) is always extracted.
  • CD channel coded data
  • the multiplexing buffers 211-1 to 211 -N take in the respective audio streams extracted by the demultiplexer 202.
  • the number N of the multiplexing buffers 211-1 to 211-N is set to a necessary and sufficient number. However, in actual operation, only the number of audio streams extracted by the demultiplexer 202 is used.
  • the combiner 212 reads out and integrates the audio streams for each audio frame from the multiplexing buffer in which the audio streams extracted by the demultiplexer 202 are taken out of the multiplexing buffers 211-1 to 211 -N, and combines them. Get an audio stream. In this case, when there is one audio stream extracted by the demultiplexer 202, this audio stream is directly used as one audio stream.
  • This single audio stream includes a single stream (main stream) (see FIG. 21A) or a multi-stream main stream (see FIG. 21B) between “SYNC” and “Config”.
  • descriptor information (“Desc”), a 3D audio stream configuration descriptor including transmission data configuration information and command information and a 3D audio command descriptor constituting a command insertion area are inserted.
  • the command insertion unit 213 inserts a command generated by the CPU 221 for specifying a group determined to be decoded into a command insertion area of one audio stream obtained by the combiner 212, that is, a 3D audio command. -Describe in the descriptor.
  • the CPU 221 generates a command included in the command information as a command for specifying the group determined to be decoded, generates a separate command together with the command included in the command information, or separately Generate only individual commands.
  • the command insertion unit 213 is supplied with the main stream as the received audio stream as it is.
  • This main stream includes all the encoded data of groups 1 to 8.
  • the CPU 221 uses “13” (see FIG. 7) that designates the groups 1, 2, 3, and 4 as decoding targets as a command (command identifier: CommandID). Only one occurs.
  • the CPU 221 designates “19” (see FIG. 7) that designates the preset group 1 as a decoding target as a command (command identifier: CommandID), and the switch group 1 is a group.
  • An individual command “A” designating 3 as a decoding target and a switch group 2 generates an individual command “B” designating group 4 as a decoding target.
  • the command insertion unit 213 inserts the command (command identifier: CommandID) generated by the CPU 221 into the command insertion area of one audio stream supplied to the 3D audio decoder 214. To do. As a result, the 3D audio decoder 214 is notified that among the groups 1 to 8 included in one audio stream, the decoding target groups are groups 1, 2, 3, and 4.
  • FIG. 23 shows stream extraction processing in the demultiplexer 202.
  • the demultiplexer 202 extracts a stream specified as an extraction target by the stream selection signal “Stream select” from the CPU 221.
  • the CPU 221 designates the main stream as an extraction target, and the demultiplexer 202 extracts the main stream. Further, since the substream 1 includes groups 3 and 4, the substream 1 is designated as the extraction target by the CPU 221, and the substream 1 is also extracted by the demultiplexer 202.
  • the command insertion unit 213 is supplied with one audio stream obtained by integrating the main stream and substream 1 extracted by the demultiplexer 202.
  • the CPU 221 designates “13” (see FIG. 7) that designates the groups 1, 2, 3, and 4 as decoding targets as a command (command identifier: CommandID). Only one occurs.
  • the switch group 2 generates an individual command “B” that designates the group 4 as a decoding target.
  • the command insertion unit 213 then inserts the command (command identifier: CommandID) generated by the CPU 221 into the command insertion area of one audio stream supplied to the 3D audio decoder 214, as shown in FIG. To do.
  • the 3D audio decoder 214 is notified that among the groups 1 to 5 included in one audio stream, the decoding target groups are groups 1, 2, 3, and 4.
  • the 3D audio decoder 214 is designated as a decoding target by the inserted command among the encoded data of a plurality of groups included in one audio stream supplied via the command insertion unit 213. Decoding processing is performed on the encoded data of the group, and audio data for driving each speaker is obtained.
  • the 3D audio decoder 214 when the 3D audio decoder 214 decodes the channel encoded data, the 3D audio decoder 214 performs a downmix or an upmix process on the speaker configuration of the speaker system 216 to obtain audio data for driving each speaker. Further, when decoding the object encoded data, the 3D audio decoder 214 calculates speaker rendering (mixing ratio to each speaker) based on the object information (metadata), and depending on the calculation result, the audio of the object is calculated. The data is mixed into audio data for driving each speaker.
  • the audio output processing circuit 215 performs necessary processing such as D / A conversion and amplification on the audio data for driving each speaker obtained by the 3D audio decoder 214 and supplies the audio data to the speaker system 216.
  • the speaker system 216 includes a plurality of speakers such as a plurality of channels, for example, two channels, 5.1 channels, 7.1 channels, and 22.2 channels.
  • FIG. 25 shows a configuration example of the 3D audio decoder 214.
  • the 3D audio decoder 214 includes an audio transport analysis unit 214a, a configuration processing unit 214b, a frame selection unit 214c, a frame decoding unit 214d, and rendering / mixing (Rendering). / Mixing) portion 214e.
  • the audio transport analysis unit 214a performs packet analysis of the audio stream to extract descriptor packets, and further performs command analysis to obtain information on the group to be decoded.
  • the configuration processing unit 214b collates with audio scene information (AudioSceneInfo) information supplied in a Config packet, that is, a group ID (GroupID), a switch group ID (SwitchGroupID), a preset group ID (PresetGroupID), and the like.
  • Audio scene information Audio scene information
  • GroupID group ID
  • SwitchGroupID switch group ID
  • PresetGroupID a preset group ID
  • the frame decoding unit 214d performs a decoding process on the encoded data of the decoding target frame.
  • the rendering / mixing unit 214e performs processing such as rendering / mixing using the decoded output obtained by the frame decoding unit 214d, and obtains audio data (uncompressed audio) for driving each speaker.
  • the receiving unit 201 receives the transport stream TS transmitted from the service transmitter 100 on broadcast waves or net packets.
  • the transport stream TS includes a predetermined number of audio streams including a plurality of groups of encoded data constituting 3D audio transmission data in addition to the video stream.
  • This transport stream TS is supplied to the demultiplexer 202.
  • the demultiplexer 202 extracts a video stream packet from the transport stream TS and supplies it to the video decoder 203.
  • the video decoder 203 a video stream is reconstructed from the video packets extracted by the demultiplexer 202, and decoding processing is performed to obtain uncompressed video data. This video data is supplied to the video processing circuit 204.
  • the video processing circuit 204 performs scaling processing, image quality adjustment processing, and the like on the video data obtained by the video decoder 203 to obtain video data for display.
  • This display video data is supplied to the panel drive circuit 205.
  • the panel drive circuit 205 drives the display panel 206 based on the display video data. As a result, an image corresponding to the video data for display is displayed on the display panel 206.
  • various information such as descriptor information is extracted from the transport stream TS and sent to the CPU 221.
  • the various information includes 3D audio stream configuration descriptors including data configuration information and command information, and 3D audio stream ID descriptors including stream identifier information (see FIGS. 18 and 19). .
  • the CPU 221 recognizes the correspondence between the command and the group / preset group (see FIGS. 7 and 10) as well as the transmission data configuration (see FIGS. 3 and 8) from the information of the 3D audio stream configuration descriptor. . In addition, the CPU 221 recognizes which audio stream each group includes from the information of the 3D audio stream ID and the descriptor.
  • the CPU 221 determines a group to be decoded based on transmission data configuration information, a user selection operation, a system processing function, and the like, and generates a command (command identifier: CommandID) for specifying the group. .
  • a command command identifier: CommandID
  • a UI User Interface
  • the demultiplexer 202 under the control of the CPU 221, all audio streams including the group determined to be decoded are selectively extracted from the predetermined number of audio streams included in the transport stream TS by the PID filter. It is.
  • the stream selection signal “Stream select” is supplied from the CPU 221 to the demultiplexer 202, and the stream to be extracted is designated.
  • the audio stream taken out by the demultiplexer 202 is taken into the corresponding multiplexing buffer among the multiplexing buffers 211-1 to 211 -N.
  • the combiner 212 reads out the audio stream for each audio frame from each multiplexing buffer in which the audio stream has been captured, and integrates the audio stream into one audio stream. This one audio stream is supplied to the command insertion unit 213.
  • a command generated by the CPU 221 for specifying a group determined to be decoded is inserted into a command insertion area of one audio stream obtained by the combiner 212.
  • a command (command identifier: CommandID) is described in the 3D audio command descriptor inserted in one audio stream obtained by the combiner 212.
  • the single audio stream in which the command is inserted is supplied to the 3D audio decoder 214.
  • the 3D audio decoder 214 performs a decoding process on the encoded data of the group specified as the decoding target by the inserted command among the encoded data of the plurality of groups included in the single audio stream. Thus, audio data for driving each speaker is obtained.
  • the audio data for driving each speaker is supplied to the audio processing circuit 215.
  • the audio output processing circuit 215 performs necessary processing such as D / A conversion and amplification on the audio data.
  • the processed audio data is supplied to the speaker system 216. Thereby, the sound output corresponding to the display image of the display panel 206 is obtained from the speaker system 216.
  • the service transmitter 100 provides command information for generating a command for specifying a group to be decoded among a plurality of groups in a container (transport stream TS). insert. Therefore, on the receiving side, by referring to this command information, it is easy to generate a command for specifying a group to be decoded.
  • the service transmitter 100 inserts a command for specifying a group to be decoded into at least one audio stream out of a predetermined number of audio streams on the receiving side.
  • An insertion area is provided. Therefore, this command insertion area can be used when a command is inserted into an audio stream on the receiving side, and the command insertion process is facilitated.
  • the service receiver 200 inserts a command for specifying a group to be decoded into the audio stream and sends the command to the 3D audio decoder 214. Therefore, the 3D audio decoder 214 can selectively decode only the encoded image data of the group to be decoded.
  • the combiner 212 does not perform group selection processing, and efficient processing is possible. That is, it is more efficient to let the 3D audio decoder 214 perform the process of finding the group information and the boundary between the groups by entering inside the audio frame (Audio Frame).
  • the present invention is not limited to this, and it is conceivable to provide a command insertion area on the receiving side to insert a command.
  • the container is a transport stream (MPEG-2 TS)
  • MPEG-2 TS transport stream
  • the present technology can be similarly applied to a system distributed in a container of MP4 or other formats.
  • MMT MPEG-Media-Transport
  • this technique can also take the following structures.
  • an audio encoding unit that generates a predetermined number of audio streams including a plurality of groups of encoded data;
  • a transmission unit for transmitting a container in a predetermined format having the predetermined number of audio streams;
  • a transmission apparatus comprising: an information insertion unit for inserting command information for generating a command for specifying a group to be decoded among the plurality of groups into the container and / or the audio stream.
  • the command information is information indicating a correspondence relationship between a command and a group, or information indicating a correspondence relationship between a preset group including a combination of a command and a predetermined number of groups.
  • the predetermined number of audio streams consists of a main stream and a predetermined number of substreams, or only a main stream
  • the information insertion part The transmission apparatus according to (1) or (2), wherein the command information is inserted into the main stream and / or a container position corresponding to the main stream.
  • the audio encoding unit The transmission according to any one of (1) to (3), wherein a command insertion area for inserting a command specifying a group to be decoded is provided in at least one audio stream among the plurality of audio streams on the receiving side. apparatus.
  • an audio encoding step for generating a predetermined number of audio streams including a plurality of groups of encoded data
  • a transmission step of transmitting a container of a predetermined format having the predetermined number of audio streams by the transmission unit;
  • An information insertion step of inserting command information for generating a command for specifying a group to be decoded among the plurality of groups into the container and / or audio stream.
  • an audio encoding unit that generates a predetermined number of audio streams including a plurality of groups of encoded data;
  • a transmission unit for transmitting a container of a predetermined format having the predetermined number of audio streams;
  • the audio encoding part A transmission apparatus, wherein a command insertion area for inserting a command for specifying a group to be decoded is provided in at least one audio stream among the predetermined number of audio streams.
  • the predetermined number of audio streams includes a main stream and a predetermined number of substreams, or only a main stream,
  • the audio encoding part 7 The transmission device according to 6, wherein the command insertion area is provided in the main stream.
  • an audio encoding step for generating a predetermined number of audio streams including a plurality of groups of encoded data;
  • a transmission method wherein a command insertion area for inserting a command for specifying a group to be decoded is provided in at least one audio stream among the predetermined number of audio streams.
  • a receiving unit that receives a container in a predetermined format having a predetermined number of audio streams including a plurality of groups of encoded data;
  • a stream acquisition unit that extracts all audio streams including a group to be decoded from the predetermined number of audio streams, and obtains one audio stream that integrates all the extracted audio streams;
  • a command generator for generating a command for specifying a group to be decoded among a predetermined number of groups included in the one audio stream;
  • a command insertion unit that inserts the command generated by the command generation unit into one audio stream acquired by the stream acquisition unit;
  • An audio decoding unit is provided that inputs one audio stream in which the command is inserted and performs decoding processing on encoded data of a group specified by the command among a predetermined number of groups included in the one audio stream.
  • the command generator The receiving device according to (9), wherein a command according to a selection operation on a user interface screen of a user is generated.
  • Command information for generating a command for specifying a group to be decoded among the plurality of groups is inserted into the audio stream and / or container received by the receiving unit, The receiving device according to (9) or (10), wherein the command generation unit generates a command with reference to the command information.
  • a command insertion area for inserting a command for specifying a group to be decoded is provided in at least one audio stream of the predetermined number of audio streams received by the reception unit;
  • One audio stream acquired by the stream acquisition unit has the command insertion area,
  • the command insertion part The receiving device according to any one of (9) to (11), wherein the command is inserted into the command insertion area of the one audio stream.
  • a command insertion unit for inserting the command generated in the command generation step into one audio stream acquired in the stream acquisition step;
  • An audio decoding step for inputting one audio stream in which the command is inserted and decoding the encoded data of the group specified by the command among a predetermined number of groups included in the one audio stream.
  • the main feature of the present technology is that the group to be decoded on the receiving side is inserted into the container and / or the audio stream by inserting command information for generating a command for specifying a group to be decoded among a plurality of groups. This is to facilitate the generation process of the specified command (see FIGS. 18 and 19).
  • the main feature of the present technology is that a command insertion area for inserting a command for specifying a group to be decoded is provided in at least one audio stream of a predetermined number of audio streams on the receiving side. This is to facilitate command insertion processing on the receiving side (see FIG. 5).
  • the main feature of the present technology is that a command for specifying a group to be decoded is inserted into the audio stream and sent to the 3D audio decoder, thereby improving the efficiency of group selection processing on the receiving side. (See FIGS. 20 and 25).

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Mathematical Physics (AREA)
  • Stereophonic System (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Time-Division Multiplex Systems (AREA)

Abstract

複数種類のオーディデータを送信する場合にあって受信側の処理負荷を軽減する。 複数のグループの符号化データを含む所定数のオーディオストリームを生成し、この所定数のオーディオストリームを有する所定フォーマットのコンテナを送信する。コンテナおよび/またはオーディオストリームに、複数のグループのうちデコードすべきグループを特定するコマンドを発生するためのコマンド情報を挿入する。例えば、所定数のオーディオストリームのうち少なくとも一つのオーディオストリームに、デコードすべきグループを特定するためのコマンドを受信側で挿入するためのコマンド挿入領域を設ける。

Description

送信装置、送信方法、受信装置および受信方法
 本技術は、送信装置、送信方法、受信装置および受信方法に関し、特に、複数種類のオーディオデータを送信する送信装置等に関する。
 従来、立体(3D)音響技術として、符号化サンプルデータをメタデータに基づいて任意の位置に存在するスピーカにマッピングさせてレンダリングする技術が提案されている(例えば、特許文献1参照)。
特表2014-520491号公報
 5.1チャネル、7.1チャネルなどのチャネル符号化データと共に、符号化サンプルデータおよびメタデータからなるオブジェクト符号化データを送信し、受信側において臨場感を高めた音響再生を可能とすることが考えられる。
 本技術の目的は、複数種類のオーディデータを送信する場合にあって受信側の処理負荷を軽減することにある。
 本技術の概念は、
 複数のグループの符号化データを含む所定数のオーディオストリームを生成するオーディオエンコード部と、
 上記所定数のオーディオストリームを有する所定フォーマットのコンテナを送信する送信部と、
 上記コンテナおよび/またはオーディオストリームに、上記複数のグループのうちデコードすべきグループを特定するコマンドを発生するためのコマンド情報を挿入する情報挿入部を備える
 送信装置にある。
 本技術において、オーディオエンコード部により、複数のグループの符号化データを含む所定数、つまり一つまたは複数のオーディオストリームが生成される。送信部により、所定数のオーディオストリームを有する所定フォーマットのコンテナが送信される。例えば、コンテナは、デジタル放送規格で採用されているトランスポートストリーム(MPEG-2 TS)であってもよい。また、例えば、コンテナは、インターネットの配信などで用いられるMP4、あるいはそれ以外のフォーマットのコンテナであってもよい。
 情報挿入部により、コンテナおよび/またはオーディオストリームに、複数のグループのうちデコードすべきグループを特定するコマンドを発生するためのコマンド情報が挿入される。例えば、コマンド情報は、コマンドとグループの対応関係を示す情報、あるいはコマンドと所定数のグループの組み合わせからなるプリセットグループの対応関係を示す情報である、ようにされてもよい。
 このように本技術においては、コンテナおよび/またはオーディオストリームに、複数のグループのうちデコードすべきグループを特定するコマンドを発生するためのコマンド情報が挿入される。そのため、受信側においては、このコマンド情報を参照することで、デコードすべきグループを特定するコマンドの発生処理が容易となる。
 なお、本技術において、例えば、所定数のオーディオストリームは、メインストリームと所定数のサブストリーム、あるいはメインストリームのみからなり、情報挿入部は、コマンド情報を、メインストリームおよび/またはこのメインストリームに対応したコンテナ位置に挿入する、ようにされてもよい。このようにコマンド情報がメインストリーム等に挿入されることで、受信側ではコマンド情報の取得を容易に行い得る。
 また、本技術において、例えば、オーディオエンコード部は、複数のオーディオストリームのうち少なくとも一つのオーディオストリームに、デコードすべきグループを特定するコマンドを受信側で挿入するためのコマンド挿入領域を設ける、ようにされてもよい。このようにコマンド挿入領域が予め設けられることで、受信側でオーディオストリームにコマンドを挿入する処理が容易となる。
 また、本技術の他の概念は、
 複数のグループの符号化データを含む所定数のオーディオストリームを生成するオーディオエンコード部と、
 上記所定数のオーディオストリームを有する所定フォーマットのコンテナを送信する送信部を備え、
 上記オーディオエンコード部は、
 上記所定数のオーディオストリームのうち少なくとも一つのオーディオストリームに、デコードすべきグループを特定するためのコマンドを受信側で挿入するためのコマンド挿入領域を設ける
 送信装置にある。
 本技術において、オーディオエンコード部により、複数のグループの符号化データを含む所定数、つまり一つまたは複数のオーディオストリームが生成される。送信部により、所定数のオーディオストリームを有する所定フォーマットのコンテナが送信される。例えば、コンテナは、デジタル放送規格で採用されているトランスポートストリーム(MPEG-2 TS)であってもよい。また、例えば、コンテナは、インターネットの配信などで用いられるMP4、あるいはそれ以外のフォーマットのコンテナであってもよい。
 オーディオエンコード部では、所定数のオーディオストリームのうち少なくとも一つのオーディオストリームに、デコードすべきグループを特定するためのコマンドを受信側で挿入するためのコマンド挿入領域が設けられる。例えば、所定数のオーディオストリームは、メインストリームと所定数のサブストリーム、あるいはメインストリームのみからなり、オーディオエンコード部は、メインストリームに、コマンド挿入領域を設ける、ようにされてもよい。
 このように本技術においては、所定数のオーディオストリームのうち少なくとも一つのオーディオストリームに、デコードすべきグループを特定するためのコマンドを受信側で挿入するためのコマンド挿入領域が設けられる。そのため、受信側でオーディオストリームにコマンドを挿入する場合にこのコマンド挿入領域を利用でき、コマンド挿入処理が容易となる。
 また、本技術の他の概念は、
 複数のグループの符号化データを含む所定数のオーディオストリームを有する所定フォーマットのコンテナを受信する受信部と、
 上記所定数のオーディオストリームからデコードすべきグループを含む全てのオーディオストリームを取り出し、該取り出された全てのオーディオストリームを統合した一つのオーディオストリームを得るストリーム取得部と、
 上記一つのオーディオストリームに含まれる所定数のグループのうちデコードすべきグループを特定するためのコマンドを発生するコマンド発生部と、
 上記ストリーム取得部で取得された一つのオーディオストリームに、上記コマンド発生部で発生されたコマンドを挿入するコマンド挿入部と、
 上記コマンドが挿入された一つのオーディオストリームを入力し、該一つのオーディオストリームに含まれる所定数のグループのうち上記コマンドで特定されるグループの符号化データにデコード処理を施すオーディオデコード部を備える
 受信装置にある。
 本技術において、受信部により、複数のグループの符号化データを含む所定数のオーディオストリームを有する所定フォーマットのコンテナが受信される。ストリーム取得部により、所定数のオーディオストリームからデコードすべきグループを含む全てのオーディオストリームが取り出され、この取り出された全てのオーディオストリームを統合した一つのオーディオストリームが得られる。この場合、所定数のオーディオストリームが一つのオーディオストリームであるときには、このオーディオストリームがそのまま得られる。
 コマンド発生部により、一つのオーディオストリームに含まれる所定数のグループのうちデコードすべきグループを特定するためのコマンドが発生される。例えば、コマンド発生部は、ユーザのユーザインタフェース画面上における選択操作に応じたコマンドを発生する、ようにされてもよい。これにより、ユーザは、所望のグループをデコードすべきグループとして選択することが容易に可能となる。
 コマンド挿入部により、ストリーム取得部で取得された一つのオーディオストリームに、コマンド発生部で発生されたコマンドが挿入される。オーディオデコード部により、一つのオーディオストリームに含まれる所定数のグループのうち、コマンドで特定されるグループの符号化データにデコード処理が施される。
 このように本技術においては、オーディオストリームにデコードすべきグループを特定するためのコマンドが挿入されてオーディオデコード部に送られる。そのため、オーディオデコード部では、デコードすべきグループの符号化画像データのみを選択的にデコードすることが可能となる。また、この場合、オーディオデコード部にグループの選択処理を行わせるものであり、効率的な処理が可能となる。
 なお、本技術において、例えば、受信部で受信されたオーディオストリームおよび/またはコンテナに、複数のグループのうちデコードすべきグループを特定するコマンドを発生するためのコマンド情報が挿入されており、コマンド発生部は、コマンド情報を参照してコマンドを発生する、ようにされてもよい。この場合、コマンド情報を参照してコマンドを発生するものであり、デコードすべきグループを特定するコマンドの発生処理が容易となる。
 また、本技術において、例えば、受信部で受信された所定数のオーディオストリームのうち少なくとも一つのオーディオストリームに、デコードすべきグループを特定するためのコマンドを挿入するためのコマンド挿入領域が設けられており、ストリーム取得部で取得された一つのオーディオストリームは、コマンド挿入領域を有し、コマンド挿入部は、一つのオーディオストリームのコマンド挿入領域にコマンドを挿入する、ようにされてもよい。この場合、予め設けられているコマンド挿入領域にコマンドを挿入するものであり、コマンドを挿入する処理が容易となる。
 本技術によれば、複数種類のオーディデータを送信する場合にあって受信側の処理負荷を軽減することが可能となる。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
実施の形態としての送受信システムの構成例を示すブロック図である。 3Dオーディオの伝送データにおけるオーディオフレームの構造を示す図である。 3Dオーディオの伝送データの構成例を示す図である。 各グループの符号化データによる音場再現の一例を概略的に示す図である。 3Dオーディオの伝送データを1ストリームで送信する場合および複数ストリームで送信する場合におけるオーディオフレームの構成例を概略的に示す図である。 3ストリームで送信する場合におけるグループとストリームの対応関係などを示す図である。 コマンド(コマンド識別子:CommandID)とグループ、プリセットグループとの対応関係の一例を示す図である。 3Dオーディオの伝送データの他の構成例を示す図である。 3ストリームで送信する場合におけるグループとストリームの対応関係などを示す図である。 コマンド(コマンド識別子:CommandID)とグループ、プリセットグループとの対応関係の一例を示す図である。 ユーザが選択操作を行うためのUI(User Interface)画面の一例を示す図である。 サービス送信機が備えるストリーム生成部の構成例を示すブロック図である。 3Dオーディオ・ストリーム・コンフィグ・デスクリプタの構造例を示す図(1/2)である。 3Dオーディオ・ストリーム・コンフィグ・デスクリプタの構造例を示す図(2/2)である。 3Dオーディオ・ストリーム・コンフィグ・デスクリプタの構造例における主要な情報の内容を示す図である。 3Dオーディオ・ストリームID・デスクリプタの構造例と、その構造例における主要な情報の内容を示す図である。 3Dオーディオ・コマンド・デスクリプタの構造例と、その構造例における主要な情報の内容を示す図である。 3Dオーディオの伝送データを3ストリームで送信する場合におけるトランスポートストリームTSの構成例を示す図である。 3Dオーディオの伝送データを1ストリームで送信する場合におけるトランスポートストリームTSの構成例を示す図である。 サービス受信機の構成例を示すブロック図である。 受信オーディオストリームの一例を示す図である。 受信オーディオストリームが1ストリームである場合におけるデコード対象の選択処理例を説明するための図である。 受信オーディオストリームが3ストリームである場合におけるデコード対象の選択処理例を説明するための図(1/2)である。 受信オーディオストリームが3ストリームである場合におけるデコード対象の選択処理例を説明するための図(2/2)である。 3Dオーディオデコーダの構成例を示すブロック図である。
 以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
 1.実施の形態
 2.変形例
 <1.実施の形態>
 [送受信システムの構成例]
 図1は、実施の形態としての送受信システム10の構成例を示している。この送受信システム10は、サービス送信機100とサービス受信機200により構成されている。サービス送信機100は、トランスポートストリームTSを、放送波あるいはネットのパケットに載せて送信する。このトランスポートストリームTSは、ビデオストリームと、複数のグループの符号化データを含む所定数、つまり一つまたは複数のオーディオストリームを有している。
 図2は、この実施の形態で取り扱う3Dオーディオの伝送データにおけるオーディオフレームの構造例を示している。このオーディオフレームは、複数のMPEGオーディオストリームパケット(mpeg Audio Stream Packet)からなっている。各MPEGオーディオストリームパケットは、ヘッダ(Header)とペイロード(Payload)により構成されている。
 ヘッダは、パケットタイプ(Packet Type)、パケットラベル(Packet Label)、パケットレングス(Packet Length)などの情報を持つ。ペイロードには、ヘッダのパケットタイプで定義された情報が配置される。このペイロード情報には、同期スタートコードに相当する“SYNC”と、3Dオーディオの伝送データの実際のデータである“Frame”と、この“Frame”の構成を示す“Config”が存在する。
 “Frame”には、3Dオーディオの伝送データを構成するチャネル符号化データとオブジェクト符号化データが含まれる。ここで、チャネル符号化データは、SCE(Single Channel Element)、CPE(Channel Pair Element)、LFE(Low Frequency Element)などの符号化サンプルデータで構成される。また、オブジェクト符号化データは、SCE(Single Channel Element)の符号化サンプルデータと、それを任意の位置に存在するスピーカにマッピングさせてレンダリングするためのメタデータにより構成される。このメタデータは、エクステンションエレメント(Ext_element)として含まれる。
 図3は、3Dオーディオの伝送データの構成例を示している。この構成例では、1つのチャネル符号化データと4つのオブジェクト符号化データとからなっている。1つのチャネル符号化データは、5.1チャネルのチャネル符号化データ(CD)である。
 4つのオブジェクト符号化データは、イマーシブオーディオオブジェクト(IAO:Immersive audio object)、スピーチダイアログオブジェクト(SDO:Speech Dialog object)、サウンドオブジェクト(SUO:Sound object)およびオーディオデスクリプションオブジェクト(ADO:Audio Description object)の符号化データである。
 イマーシブオーディオオブジェクト符号化データは、イマーシブサウンドのためのオブジェクト符号化データである。スピーチダイアログオブジェクト符号化データは、スピーチランゲージのためのオブジェクト符号化データである。この構成例では、第1、第2の言語のそれぞれに対応したスピーチダイアログオブジェクト符号化データが存在する。
 サウンドオブジェクト符号化データは、サウンドのためのオブジェクト符号化データである。この例では、第1、第2のタイプのそれぞれに対応したサウンドオブジェクト符号化データが存在する。オーディオデスクリプションオブジェクト符号化データは、オーディオデスクリプションのためのオブジェクト符号化データである。この例では、第1、第2のデスクリプションのそれぞれに対応したオーディオデスクリプションオブジェクト符号化データが存在する。
 符号化データは、種類別にグループ(Group)という概念で区別される。この構成例では、5.1チャネルのチャネル符号化データはグループ1(Group 1)とされ、イマーシブオーディオオブジェクト符号化データはグループ2(Group 2)とされ、第1の言語に係るスピーチダイアログオブジェクト符号化データはグループ3(Group 3)とされ、第2の言語に係るスピーチダイアログオブジェクト符号化データはグループ6(Group 6)とされている。
 また、この構成例では、第1のタイプに係るサウンドオブジェクト符号化データはグループ4(Group 4)とされ、第2のタイプに係るサウンドオブジェクト符号化データはグループ5(Group 5)とされ、第1のデスクリプションに係るオーディオデスクリプションオブジェクト符号化データはグループ7(Group 7)とされ、第2のデスクリプションに係るオーディオデスクリプションオブジェクト符号化データはグループ8(Group 8)とされる。
 また、受信側においてグループ間で選択できるものはスイッチグループ(SW Group)に登録されて符号化される。この構成例では、グループ3とグループ6はスイッチグループ1(SW Group 1)とされ、グループ4とグループ5はスイッチグループ2(SW Group 2)とされ、グループ7とグループ8はスイッチグループ3(SW Group 3)とされる。
 また、グループを束ねてプリセットグループ(preset Group)とされ、ユースケースに応じた再生が可能とされる。この構成例では、グループ1、グループ2、グループ3、グループ4、グループ5およびグループ6が束ねられてプリセットグループ1(preset Group 1)とされ、グループ1、グループ2、グループ3、グループ6、グループ7およびグループ8が束ねられてプリセットグループ2(preset Group 2)とされている。
 ここで、プリセットグループ1およびプリセットグループ2は、チューブ1(Tube 1)に含まれている。なお、プリセットグループの選択においては、各チューブ(Tube)の中から一つが選択される。
 図4は、各グループの符号化データによる音場再現の一例を概略的に示している。グループ1のチャネル符号化データにより、シーン状況全般を反映するサウンドが再現される。このサウンドのみがチャネルデータとして対象のスピーカ(SP)位置に対して符号化されている。その他の音声・サウンドは、オブジェクトオーディオとして符号化され、符号化時にはスピーカ位置を特定せずに、視聴環境のスピーカ位置に依存してレンダリングされ、レンダリングされたオーディオがミキシングされて最終的に各スピーカから出力される。
 グループ2のイマーシブオーディオオブジェクト符号化データにより、シーンの盛り上がりを演出する効果音が再現される。グループ3の第1のランゲージに係るスピーチダイアログオブジェクト符号化データにより、会話音声1が再現される。グループ6の第2のランゲージに係るスピーチダイアログオブジェクト符号化データにより、会話音声2が再現される。
 第1のタイプに係るサウンドオブジェクト符号化データにより、環境BGM1(background music 1)が再現される。第2のタイプに係るサウンドオブジェクト符号化データにより、環境BGM2(background music 2)が再現される。第1のデスクリプションに係るオーディオデスクリプションオブジェクト符号化データにより、ナレーション1が再現される。第2のデスクリプションに係るオーディオデスクリプションオブジェクト符号化データにより、ナレーション2が再現される。
 図1に戻って、サービス送信機100は、上述したように複数のグループの符号化データを含む3Dオーディオの伝送データを、1ストリーム、あるいは複数ストリーム(Multiple stream)で送信する。
 図5(a)は、図3の3Dオーディオの伝送データの構成例において、1ストリーム(メインストリーム)で送信する場合におけるオーディオフレームの構成例を概略的に示している。この場合、この1ストリームに、“SYNC”および“Config”と共に、チャネル符号化データ(CD)と、イマーシブオーディオオブジェクト符号化データ(IAO)、スピーチダイアログオブジェクト符号化データ(SDO)、サウンドオブジェクト符号化データ(SUO)およびオーディオデスクリプションオブジェクト符号化データ(ADO)が含まれる。
 図5(b)は、図3の3Dオーディオの伝送データの構成例において、マルチストリーム、ここでは3ストリームで送信する場合におけるオーディオフレームの構成例を概略的に示している。この場合、メインストリームに、“SYNC”および“Config”と共に、チャネル符号化データ(CD)とイマーシブオーディオオブジェクト符号化データ(IAO)が含まれる。
 サブストリーム(オグジャリストリーム)1に、“SYNC”および“Config”と共に、スピーチダイアログオブジェクト符号化データ(SDO)およびサウンドオブジェクト符号化データ(SUO)が含まれる。サブストリーム(オグジャリストリーム)2に、“SYNC”および“Config”と共に、スピーチダイアログオブジェクト符号化データ(SDO)およびオーディオデスクリプションオブジェクト符号化データ(ADO)が含まれる。
 この場合、図3に示すように、例えば、メインストリームにグループ1,2が含まれ、サブストリーム1にグループ3,4,5が含まれ、サブストリーム2にグループ6,7,8が含まれる。
 図6は、3ストリームで送信する場合におけるグループとストリームの対応関係などを示している。ここで、グループID(group ID)は、グループを識別するための識別子である。アトリビュート(attribute)は、各グループの符号化データの属性を示している。スイッチグループID(switch Group ID)は、スイッチンググループを識別するための識別子である。プリセットグループID(preset Group ID)は、プリセットグループを識別するための識別子である。ストリームID(Stream ID)は、ストリームを識別するための識別子である。カインド(Kind)は、各グループのコンテンツの種類を示している。
 図示の対応関係は、グループ1に属する符号化データは、チャネル符号化データであって、スイッチグループを構成しておらず、ストリーム1(メインストリーム)に含まれている、ことを示している。また、図示の対応関係は、グループ2に属する符号化データは、イマーシブオーディオオブジェクト符号化データであって、スイッチグループを構成しておらず、ストリーム1(メインストリーム)に含まれている、ことを示している。
 また、図示の対応関係は、グループ3に属する符号化データは、第1のランゲージに係るスピーチダイアログオブジェクト符号化データであって、スイッチグループ1を構成しており、ストリーム2(サブストリーム1)に含まれている、ことを示している。また、図示の対応関係は、グループ4に属する符号化データは、第1のタイプに係るサウンドオブジェクト符号化データであって、スイッチグループ2を構成しており、ストリーム2(サブストリーム1)に含まれている、ことを示している。
 また、図示の対応関係は、グループ5に属する符号化データは、第2のタイプに係るサウンドオブジェクト符号化データであって、スイッチグループ2を構成しており、ストリーム2(サブストリーム1)に含まれている、ことを示している。また、図示の対応関係は、グループ6に属する符号化データは、第2のランゲージに係るスピーチダイアログオブジェクト符号化データであって、スイッチグループ1を構成しており、ストリーム3(サブストリーム2)に含まれている、ことを示している。
 また、図示の対応関係は、グループ7に属する符号化データは、第1のデスクリプションに係るオーディオデスクリプションオブジェクト符号化データであって、スイッチグループ3を構成しており、ストリーム3(サブストリーム2)に含まれている、ことを示している。また、図示の対応関係は、グループ8に属する符号化データは、第2のデスクリプションに係るオーディオデスクリプションオブジェクト符号化データであって、スイッチグループ3を構成しており、ストリーム3(サブストリーム2)に含まれている、ことを示している。
 また、図示の対応関係は、プリセットグループ1は、グループ1、グループ2、グループ3、グループ4、グループ5およびグループ6を含む、ことを示している。さらに、図示の対応関係は、プリセットグループ2は、グループ1、グループ2、グループ3、グループ6、グループ7およびグループ8を含む、ことを示している。
 なお、1ストリームで送信する場合、全てのグループの符号化データがストリーム1(メインストリーム)に含まれることから、図6における「Stream ID」は全て“1”となる。
 図1に戻って、サービス送信機100は、コンテナ(トランスポートストリームTS)に、3Dオーディオの伝送データ構成情報、つまり「groupID」と、「attribute」、「switchGroupID」、「presetGroupID」、「StreamID」などとの対応関係(図6参照)を示す情報を挿入する。また、サービス受信機100は、コンテナに、複数のグループのうちデコードすべきグループを特定するコマンドを発生するためのコマンド情報を挿入する。このコマンド情報は、コマンドとグループの対応関係を示す情報、コマンドとプリセットグループの対応関係を示す情報などである。
 図7は、コマンド(コマンド識別子:CommandID)とグループ、プリセットグループとの対応関係の一例を示している。コマンドの“1”~“18”の部分は、コマンドとそのコマンドが示すデコード対象とすべきグループ(グループ群)との対応関係を示している。例えば、コマンド“7”は、グループ1,2,3,4,8をデコード対象とすべきことを示す。また、コマンド“19”、“20”の部分は、コマンドとそのコマンドが示すデコード対象とすべきプリセットグループとの対応関係を示している。例えば、コマンド“19”は、プリセットグループ1をデコード対象とすべきことを示す。
 サービス送信機100は、伝送データ構成情報およびコマンド情報を、例えば、プログラムマップテーブル(PMT:Program Map Table)の配下に存在するメインストリームに対応したオーディオエレメンタリストリームループ内に挿入する。この場合、サービス送信機100は、伝送データ構成情報およびコマンド情報の挿入を、このメインストリームに対応したオーディオエレメンタリストリームループ内に、3Dオーディオ・ストリーム・コンフィグ・デスクリプタ(3Daudio_stream_config_descriptor)を挿入することで行う。勿論、伝送データ構成情報およびコマンド情報を、サブストリームに対応したオーディオエレメンタリストリームループ内にさらに挿入することも可能である。
 また、サービス送信機100は、コンテナに、所定数のオーディオストリームのそれぞれのストリーム識別子を示すストリーム識別子情報を、例えば、プログラムマップテーブル(PMT:Program Map Table)の配下に存在する所定数のオーディオストリームのそれぞれに対応したオーディオエレメンタリストリームループ内に挿入する。この場合、サービス送信機100は、ストリーム識別子情報の挿入を、各オーディオストリームに対応したオーディオエレメンタリストリームループ内に、3Dオーディオ・ストリームID・デスクリプタ(3Daudio_streamID_descriptor)を挿入することで行う。
 また、サービス送信機100は、オーディオストリームに、伝送データ構成情報およびコマンド情報を挿入する。サービス送信機100は、伝送データ構成情報およびコマンド情報を、例えば、メインストリームのPESパケットのPESペイロードに挿入する。勿論、伝送データ構成情報およびコマンド情報を、サブストリームPESパケットのPESペイロードにさらに挿入することも可能である。
 サービス送信機100は、伝送データ構成情報およびコマンド情報の挿入を、図5(a),(b)に示すように、“SYNC”と“Config”の間に、デスクリプタ情報“Desc”として、3Dオーディオ・ストリーム・コンフィグ・デスクリプタ(3Daudio_stream_config_descriptor)を挿入することで行う。
 なお、この実施の形態においては、コンテナおよびオーディオストリームの双方に、上述したように伝送データ構成情報およびコマンド情報を挿入する例を示したが、コンテナのみ、あるいはオーディオストリームのみに各情報を挿入することも考えられる。
 また、サービス送信機100は、所定数のオーディオストリームのうち少なくとも一つのオーディオストリームに、デコードすべきグループを特定するためのコマンド(コマンド識別子:CommandID)を受信側で挿入するためのコマンド挿入領域を設ける。サービス送信機100は、コマンド挿入領域を、例えば、メインストリームのPESパケットのPESペイロードに挿入する。
 サービス送信機100は、コマンド挿入領域を設けることを、図5(a),(b)に示すように、“SYNC”と“Config”の間に、デスクリプタ情報“Desc”として、3Dオーディオ・コマンド・デスクリプタ(3Daudio_command_descriptor)を挿入することで行う。
 図8は、3Dオーディオの伝送データの他の構成例を示している。この構成例では、図3の3Dオーディオの伝送データの構成例と比べて、プリセットグループの設定が異なっている。その他は同じである。
 すなわち、この構成例では、グループ1、グループ2およびグループ3が束ねられてプリセットグループ1(preset Group 1)とされ、グループ1、グループ2およびグループ6が束ねられてプリセットグループ2(preset Group 2)とされている。そして、これらのプリセットグループ1およびプリセットグループ2は、チューブ1(Tube 1)に含まれている。
 また、グループ4およびグループ5が束ねられてプリセットグループ3(preset Group 3)とされ、グループ7およびグループ8が束ねられてプリセットグループ4(preset Group 4)とされている。そして、これらのプリセットグループ3およびプリセットグループ4は、チューブ2(Tube 2)に含まれている。
 図9は、図8の3Dオーディオの伝送データの構成例に対応した、3ストリームで送信する場合におけるグループとストリームの対応関係などを示している。プリセットグループID(preset Group ID)の項目部分を除き、図6と同である。なお、1ストリームで送信する場合、全てのグループの符号化データがストリーム1(メインストリーム)に含まれることから、図9における「Stream ID」は全て“1”となる。
 図10は、図8の3Dオーディオの伝送データの構成例に対応した、コマンド(コマンド識別子:CommandID)とグループ、プリセットグループとの対応関係の一例を示している。プリセットグループとの対応関係部分を除き、図7と同である。
 すなわち、コマンド“19”~“24”の部分は、コマンドとそのコマンドが示すデコード対象とすべきプリセットグループとの対応関係を示している。例えば、コマンド“19”は、プリセットグループ1をデコード対象とすべきことを示す。また、例えば、コマンド“21”は、プリセットグループ1およびプリセットグループ3をデコード対象とすべきことを示す。
 図1に戻って、サービス受信機200は、サービス送信機100から放送波あるいはネットのパケットに載せて送られてくるトランスポートストリームTSを受信する。このトランスポートストリームTSは、上述したように、ビデオストリームの他に、3Dオーディオの伝送データを構成する複数のグループの符号化データを含む所定数のオーディオストリームを有している。コンテナおよび/またはオーディオストリームに、伝送データ構成情報およびコマンド情報が挿入されている。
 サービス受信機200は、伝送データ構成情報とユーザ選択操作、さらにはシステムの処理機能などに基づいて、デコードすべきグループを決定する。この際、サービス受信機200は、伝送データ構成情報に基づいて、ユーザが選択操作を行うためのUI(User Interface)画面を表示する。ユーザは、このUI画面上で選択操作を行う。
 図11は、図3、図8に示す3Dオーディオの伝送データの構成例に対応したUI画面の一例を示している。ユーザは、グループ1で区別されるチャネル符号化データで再現される「シーン状況全般を反映するサウンド」に関してはユーザ選択不能とされ、グループ1は、デコードすべきグループとして決定される。また、グループ2で区別されるイマーシブオーディオオブジェクト符号化データで再現される「シーンの盛り上がりを演出する効果音」に関してもユーザ選択不能とされ、グループ1は、デコードすべきグループとして決定される。
 また、グループ3で区別される第1のランゲージに係るスピーチダイアログオブジェクト符号化データで再現される「会話音声1(第1言語)」と、グループ6で区別される第2のランゲージに係るスピーチダイアログオブジェクト符号化データで再現される「会話音声2(第2言語)」に関してはユーザ選択が可能とされる。ユーザが会話音声1の選択操作を行った場合にはグループ3はデコードすべきグループとして決定され、一方、ユーザが会話音声2の選択操作を行った場合にはグループ6はデコードすべきグループとして決定される。
 また、グループ4で区別される第1のタイプに係るサウンドオブジェクト符号化データで再現される「環境BGM1」と、グループ5で区別される第2のタイプに係るサウンドオブジェクト符号化データで再現される「環境BGM2」に関してはユーザ選択が可能とされる。この場合、「環境BGMなし」も選択肢とされる。
 ユーザが環境BGM1の選択操作を行った場合にはグループ4はデコードすべきグループとして決定され、一方、ユーザが環境BGM2の選択操作を行った場合にはグループ5はデコードすべきグループとして決定される。また、ユーザが環境BGMなしの選択操作を行った場合には、グループ4,5のいずれもデコードすべきグループとして決定されない。
 また、グループ7で区別される第1のデスクリプションに係るオーディオデスクリプションオブジェクト符号化データで再現される「ナレーション1」と、グループ8で区別される第2のデスクリプションに係るオーディオデスクリプションオブジェクト符号化データで再現される「ナレーション2」関してはユーザ選択が可能とされる。この場合、「ナレーションなし」も選択肢とされる。
 ユーザがナレーション1の選択操作を行った場合にはグループ7はデコードすべきグループとして決定され、一方、ユーザがナレーション2の選択操作を行った場合にはグループ8はデコードすべきグループとして決定される。また、ユーザがナレーションなしの選択操作を行った場合には、グループ7,8のいずれもデコードすべきグループとして決定されない。
 サービス受信機200は、受信された所定数のオーディオストリームから、デコードすべきと決定されたグループを含む全てのオーディオストリームを取り出して統合し、一つのオーディオストリームを取得する。この場合、所定数のオーディオストリームが一つであるときには、このオーディオストリームをそのまま一つのオーディオストリームとなる。
 受信された所定数のオーディオストリームのうち少なくとも一つのオーディオストリームに、デコードすべきグループを特定するためのコマンド(コマンド識別子:CommandID)を受信側で挿入するためのコマンド挿入領域を設けられている。そのため、この一つのオーディオストリームには、コマンド挿入領域が存在する。
 サービス受信機200は、この一つのオーディオストリームに、上述したように決定されたデコードすべきグループを特定するためのコマンドを挿入する。この場合、サービス受信機200は、コマンド挿入領域にコマンドを挿入する。
 サービス受信機200は、挿入すべきコマンドを、例えば、コマンド情報(図7、図10参照)を参照して発生する。例えば、デコードすべきグループがグループ1,2,3,4,8であるときには、「CommandID」=“7”を挿入する。なお、サービス受信機200は、挿入すべきコマンドを、コマンド情報に含まれるコマンドを使用せずに、あるいはコマンド情報に含まれるコマンドと共に、コマンドを別途個別に発生させて使用することも可能とされる。
 サービス受信機200は、コマンドが挿入された一つのオーディオストリームをオーディオデコーダに送って、この一つのオーディオストリームに含まれる所定数のグループのうちコマンドで特定されたデコードすべきグループの符号化データにデコード処理を施し、3Dオーディオのオーディオ出力を得る。
 [サービス送信機のストリーム生成部]
 図12は、サービス送信機100が備えるストリーム生成部110の構成例を示している。このストリーム生成部110は、ビデオエンコーダ112と、オーディオエンコーダ113と、マルチプレクサ114を有している。ここでは、オーディオの伝送データが、図3、図8に示すように、1つの符号化チャネルデータと4つのオブジェクト符号化データとからなる例とする。
 ビデオエンコーダ112は、ビデオデータSVを入力し、このビデオデータSVに対して符号化を施し、ビデオストリーム(ビデオエレメンタリストリーム)を生成する。オーディオエンコーダ113は、オーディオデータSAとして、チャネルデータと共に、イマーシブオーディオ、スピーチダイアログ、サウンドオブジェクトおよびオーディオデスクリプションオブジェクトのオブジェクトデータを入力する。
 オーディオエンコーダ113は、オーディオデータSAに対して符号化を施し、3Dオーディオの伝送データを得る。この3Dオーディオの伝送データには、図3、図8に示すように、チャネル符号化データ(CD)と、イマーシブオーディオオブジェクト符号化データ(IAO)と、スピーチダイアログオブジェクト符号化データ(SDO)と、サウンドオブジェクト符号化データ(SUO)と、オーディオデスクリプションオブジェクト符号化データ(ADO)が含まれる。
 オーディオエンコーダ113は、複数のグループ、ここでは8つのグループの符号化データ含む1つまたは複数のオーディオストリーム(オーディオエレメンタリストリーム)を生成する(図5(a),(b)参照)。このとき、オーディオエンコーダ113は、所定数のオーディオストリームのうち少なくとも1つ以上のオーディオストリーム、例えばメインストリームに、伝送データ構成情報およびコマンド情報を挿入し、さらに、コマンド挿入領域を設ける。
 具体的には、オーディオエンコーダ113は、“SYNC”と“Config”の間に、デスクリプタ情報(“Desc”)として、伝送データ構成情報およびコマンド情報を含む3Dオーディオ・ストリーム・コンフィグ・デスクリプタ(3Daudio_stream_config_descriptor)を挿入し、さらに、コマンド挿入領域を構成する3Dオーディオ・コマンド・デスクリプタ(3Daudio_command_descriptor)を挿入する。
 マルチプレクサ114は、ビデオエンコーダ112から出力されるビデオストリームおよびオーディオエンコーダ113から出力される所定数のオーディオストリームを、それぞれ、PESパケット化し、さらにトランスポートパケット化して多重し、多重化ストリームとしてのトランスポートストリームTSを得る。
 このとき、マルチプレクサ114は、コンテナとしてのトランスポートストリームTSに、伝送データ構成情報およびコマンド情報を挿入する。具体的には、マルチプレクサ114は、所定数のオーディオストリームのうち少なくとも1つ以上のオーディオストリーム、例えばメインストリームに対応したオーディオエレメンタリストリームループ内に、3Dオーディオ・ストリーム・コンフィグ・デスクリプタ(3Daudio_stream_config_descriptor)を挿入する。
 また、マルチプレクサ114は、コンテナとしてのトランスポートストリームTSに、所定数のオーディオストリームのそれぞれのストリーム識別子を示すストリーム識別子情報を挿入する。具体的には、マルチプレクサ114は、所定数のオーディオストリームのそれぞれに対応したオーディオエレメンタリストリームループ内に、3Dオーディオ・ストリームID・デスクリプタ(3Daudio_streamID_descriptor)を挿入する。
 図12に示すストリーム生成部110の動作を簡単に説明する。ビデオデータは、ビデオエンコーダ112に供給される。このビデオエンコーダ112では、ビデオデータSVに対して符号化が施され、符号化ビデオデータを含むビデオストリームが生成される。このビデオストリームは、マルチプレクサ114に供給される。
 オーディオデータSAは、オーディオエンコーダ113に供給される。このオーディオデータSAには、チャネルデータと、イマーシブオーディオ、スピーチダイアログ、サウンドオブジェクトおよびオーディオデスクリプションオブジェクトのオブジェクトデータが含まれる。オーディオエンコーダ113では、オーディオデータSAに対して符号化が施され、3Dオーディオの伝送データが得られる。
 この3Dオーディオの伝送データには、チャネル符号化データ(CD)の他に、イマーシブオーディオオブジェクト符号化データ(IAO)と、スピーチダイアログオブジェクト符号化データ(SDO)と、サウンドオブジェクト符号化データ(SUO)と、オーディオデスクリプションオブジェクト符号化データ(ADO)が含まれる(図3、図8参照)。このオーディオエンコーダ113では、8つのグループの符号化データ含む1つまたは複数のオーディオストリームが生成される(図5(a),(b)参照)。
 このとき、オーディオエンコーダ113では、“SYNC”と“Config”の間に、デスクリプタ情報(“Desc”)として、伝送データ構成情報およびコマンド情報を含む3Dオーディオ・ストリーム・コンフィグ・デスクリプタ(3Daudio_stream_config_descriptor)が挿入され、さらに、コマンド挿入領域を構成する3Dオーディオ・コマンド・デスクリプタ(3Daudio_command_descriptor)が挿入される。
 ビデオエンコーダ112で生成されたビデオストリームは、マルチプレクサ114に供給される。また、オーディオエンコーダ113で生成されたオーディオストリームは、マルチプレクサ114に供給される。マルチプレクサ114では、各エンコーダから供給されるストリームがPESパケット化され、さらにトランスポートパケット化されて多重され、多重化ストリームとしてのトランスポートストリームTSが得られる。
 また、マルチプレクサ114では、例えばメインストリームに対応したオーディオエレメンタリストリームループ内に、伝送データ構成情報およびコマンド情報を含む3Dオーディオ・ストリーム・コンフィグ・デスクリプタ(3Daudio_stream_config_descriptor)が挿入される。また、このマルチプレクサ114では、所定数のオーディオストリームのそれぞれに対応したオーディオエレメンタリストリームループ内に、ストリーム識別子情報を含む3Dオーディオ・ストリームID・デスクリプタ(3Daudio_streamID_descriptor)が挿入される。
 [3Dオーディオ・ストリーム・コンフィグ・デスクリプタの構造]
 図13、図14は、3Dオーディオ・ストリーム・コンフィグ・デスクリプタ(3Daudio_stream_config_descriptor)の構造例(Syntax)を示している。また、図15は、その構造例における主要な情報の内容(Semantics)を示している。
 「descriptor_tag」の8ビットフィールドは、デスクリプタタイプを示す。ここでは、3Dオーディオ・ストリーム・コンフィグ・デスクリプタであることを示す。「descriptor_length」の8ビットフィールドは、デスクリプタの長さ(サイズ)を示し、デスクリプタの長さとして、以降のバイト数を示す。
 「NumOfGroups, N」の8ビットフィールドは、グループの数Nを示す。「NumOfPresetGroups, P」の8ビットフィールドは、プリセットグループの数Pを示す。「NumOfCommand; Q」の8ビットフィールドは、コマンドの数Qを示す。グループの数Nだけ、「groupID」の8ビットフィールド、「attribute_of_groupID」の8ビットフィールド、「SwitchGroupID」の8ビットフィールド、「audio_streamID」の8ビットフィールドおよび「content_kind」の8ビットフィールドが、繰り返し存在する。
 「groupID」のフィールドは、グループの識別子を示す。「attribute_of_groupID」のフィールドは、該当グループの符号化データの属性を示す。「SwitchGroupID」のフィールドは、該当グループがどのスイッチグループに属すかを示す識別子である。“0”は、いずれのスイッチグループにも属さないことを示す。“0”以外は、属するスイッチグループを示す。「content_Kind」の8ビットフィールドは、グループのコンテンツの種類を示す。「audio_streamID」は、該当グループが含まれるオーディオストリームを示す識別子である。
 また、プリセットグループの数Pだけ、「presetGroupID」の8ビットフィールドおよび「NumOfGroups_in_preset, R」の8ビットフィールドが、繰り返し存在する。「presetGroupID」のフィールドは、グループをプリセットした束を示す識別子である。「NumOfGroups_in_preset, R」のフィールドは、プリセットグループに属するグループの数Rを示す。そして、プリセットグループ毎に、それに属するグループの数Rだけ、「groupID」の8ビットフィールドが繰り返し存在し、プリセットグループに属する全てのグループが示される。
 また、コマンドの数Qだけ、「CommandID」の8ビットフィールド、「selection_type」の1ビットフィールドが繰り返し存在する。「CommandID」のフィールドは、コマンド識別子であり、デコード対象を示す。「selection_type」は、コマンド指定のタイプを示す。“1”は直接グループを指定することを示し、“0”はプリセットグループを指定することで間接的にグループを指定することを示す。
 「selection_type」が“0”であるとき、つまりデコード対象としてプリセットグループを指定するとき、コマンド毎に、「Max_NumOfPresetGroups_in_command; W」の8ビットフィールドが存在する。このフィールドは、一つのコマンドに含まれるプリセットグループの数Wを示す。ここで、W≦“NumOfTubePresetGroup”の関係になる。なお、“NumOfTubePresetGroup”は、プリセットグループのチューブ(束:Tube)の数を示すもので、同時指定され得るプリセットグループの数に対応する。全てのプリセットグループは、このチューブのいずれかに属することを前提とする。「presetGroupID」の8ビットフィールドを繰り返し配置することで、デコード対象として指定される全てのプリセットグループが示される。
 また、「selection_type」が“1”であるとき、つまりデコード対象として直接グループを指定するとき、コマンド毎に、「Max_NumOfGroups_in_command; S」の8ビットフィールドが存在する。このフィールドは、一つのコマンドに含まれるグループの数Sを示す。そして、グループの数Sだけ、「groupID」の8ビットフィールドが繰り返し存在し、デコード対象として指定される全てのグループが示される。
 [3Dオーディオ・ストリームID・デスクリプタの構造]
 図16(a)は、3Dオーディオ・ストリームID・デスクリプタ(3Daudio_streamID_descriptor)の構造例(Syntax)を示している。また、図16(b)は、その構造例における主要な情報の内容(Semantics)を示している。
 「descriptor_tag」の8ビットフィールドは、デスクリプタタイプを示す。ここでは、3Dオーディオ・ストリームID・デスクリプタであることを示す。「descriptor_length」の8ビットフィールドは、デスクリプタの長さ(サイズ)を示し、デスクリプタの長さとして、以降のバイト数を示す。「audio_streamID」の8ビットフィールドは、オーディオストリームの識別子を示す。
 [3Dオーディオ・コマンド・デスクリプタの構造]
 図17(a)は、3Dオーディオ・コマンド・デスクリプタ(3Daudio_command_descriptor)の構造例(Syntax)を示している。また、図17(b)は、その構造例における主要な情報の内容(Semantics)を示している。
 「descriptor_tag」の8ビットフィールドは、デスクリプタタイプを示す。ここでは、3Dオーディオ・コマンド・デスクリプタであることを示す。「descriptor_length」の8ビットフィールドは、デスクリプタの長さ(サイズ)を示し、デスクリプタの長さとして、以降のバイト数を示す。「NumOfCommands, N」の8ビットフィールドは、コマンドの数Nを示す。そして、コマンドの数Nだけ、「CommandID」の8ビットフィールドが繰り返し存在する。
 なお、サービス送信機100がオーディオストリームに当該3Dオーディオ・コマンド・デスクリプタを挿入する段階では、受信側におけるコマンドの最大挿入数が考慮されて“N”の値が決定されると共に、「CommandID」のフィールドには無効な値、例えばオール0が挿入される。
 [トランスポートストリームTSの構成]
 図18は、3Dオーディオの伝送データをメインストリーム、サブストリーム1、サブストリーム2の3ストリームで送信する場合におけるトランスポートストリームTSの構成例を示している(図3、図5(b)参照)。この構成例では、PID1で識別されるビデオストリームのPESパケット「video PES」が存在する。また、この構成例では、PID100,PID200,PID300でそれぞれ識別される3つのオーディオストリームのPESパケット「audio PES」が存在する。PESパケットは、PESヘッダ(PES_header)とPESペイロード(PES_payload)からなっている。
 PID100で識別されるオーディオストリーム(メインストリーム)のPESパケットのPESペイロード内には、グループ1として区別されるチャネル符号化データ(CD)と、グループ2として区別されるイマーシブオーディオオブジェクト符号化データ(IAO)が含まれる。そして、このPESペイロード内には、3Dオーディオ・ストリーム・コンフィグ・デスクリプタ(3Daudio_stream_config_descriptor)と3Dオーディオ・コマンド・デスクリプタ(3Daudio_command_descriptor)のデスクリプタ情報“Desc”(図5(b)参照)が挿入される。
 また、PID200で識別されるオーディオストリーム(サブストリーム1)のPESパケットのPESペイロード内には、グループ3として区別されるスピーチダイアログオブジェクト符号化データ(SDO)と、グループ4,5として区別されるサウンドオブジェクト符号化データ(SUO)が含まれる。また、PID300で識別されるオーディオストリーム(サブストリーム2)のPESパケットのPESパケットのPESペイロード内には、グループ6として区別されるスピーチダイアログオブジェクト符号化データ(SDO)と、グループ7,8として区別されるオーディオデスクリプションオブジェクト符号化データ(ADO)が含まれる。
 また、トランスポートストリームTSには、PSI(Program Specific Information)として、PMT(Program Map Table)が含まれている。PSIは、トランスポートストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを記した情報である。PMTには、プログラム全体に関連する情報を記述するプログラム・ループ(Program loop)が存在する。
 また、PMTには、各エレメンタリストリームに関連した情報を持つエレメンタリストリームループが存在する。この構成例では、ビデオストリームに対応したビデオエレメンタリストリームループ(video ES loop)が存在すると共に、3つのオーディオストリームに対応したオーディオエレメンタリストリームループ(audio ES loop)が存在する
 ビデオエレメンタリストリームループ(video ES loop)には、ビデオストリームに対応して、ストリームタイプ、PID(パケット識別子)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このビデオストリームの「Stream_type」の値は「0x24」に設定され、PID情報は、上述したようにビデオストリームのPESパケット「video PES」に付与されるPID1を示すものとされる。
 各オーディオエレメンタリストリームループ(audio ES loop)には、オーディオストリームに対応して、ストリームタイプ、PID(パケット識別子)等の情報が配置されると共に、そのオーディオストリームに関連する情報を記述するデスクリプタも配置される。メインストリームの「Stream_type」の値は「0x2C」に設定され、PID情報は、上述したようにメインストリームのPESパケット「audio PES」に付与されるPID100を示すものとされる。
 また、サブストリーム1の「Stream_type」の値は「0x2D」に設定され、PID情報は、上述したようにサブストリーム1のPESパケット「audio PES」に付与されるPID200を示すものとされる。また、サブストリーム2の「Stream_type」の値は「0x2D」に設定され、PID情報は、上述したようにサブストリーム2のPESパケット「audio PES」に付与されるPID300を示すものとされる。
 メインストリームに対応したオーディオエレメンタリストリームループ(audio ES loop)に、3Dオーディオ・ストリーム・コンフィグ・デスクリプタ(3Daudio_stream_config_descriptor)と3Dオーディオ・ストリームID・デスクリプタ(3Daudio_streamID_descriptor)が配置される。また、サブストリーム1,2に対応したオーディオエレメンタリストリームループ(audio ES loop)に、3Dオーディオ・ストリームID・デスクリプタが配置される。
 図19は、3Dオーディオの伝送データをメインストリームの1ストリームで送信する場合におけるトランスポートストリームTSの構成例を示している(図3、図5(a)参照)。この構成例では、PID1で識別されるビデオストリームのPESパケット「video PES」が存在する。また、この構成例では、PID100で識別される1つのオーディオストリームのPESパケット「audio PES」が存在する。PESパケットは、PESヘッダ(PES_header)とPESペイロード(PES_payload)からなっている。
 PID100で識別されるオーディオストリーム(メインストリーム)のPESパケットのPESペイロード内には、グループ1として区別されるチャネル符号化データ(CD)と、グループ2として区別されるイマーシブオーディオオブジェクト符号化データ(IAO)と、グループ3,6として区別されるスピーチダイアログオブジェクト符号化データ(SDO)と、グループ4,5として区別されるサウンドオブジェクト符号化データ(SUO)と、グループ7,8として区別されるオーディオデスクリプションオブジェクト符号化データ(ADO)が含まれる。このPESペイロード内には、3Dオーディオ・ストリーム・コンフィグ・デスクリプタと3Dオーディオ・コマンド・デスクリプタのデスクリプタ情報“Desc”(図5(a)参照)が挿入される。
 また、PMTには、各エレメンタリストリームに関連した情報を持つエレメンタリストリームループが存在する。この構成例では、ビデオストリームに対応したビデオエレメンタリストリームループ(video ES loop)が存在すると共に、1つのオーディオストリームに対応したオーディオエレメンタリストリームループ(audio ES loop)が存在する
 ビデオエレメンタリストリームループ(video ES loop)には、ビデオストリームに対応して、ストリームタイプ、PID(パケット識別子)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このビデオストリームの「Stream_type」の値は「0x24」に設定され、PID情報は、上述したようにビデオストリームのPESパケット「video PES」に付与されるPID1を示すものとされる。
 オーディオエレメンタリストリームループ(audio ES loop)には、オーディオストリーム(メインストリーム)に対応して、ストリームタイプ、PID(パケット識別子)等の情報が配置されると共に、そのオーディオストリームに関連する情報を記述するデスクリプタも配置される。このオーディオストリームの「Stream_type」の値は「0x2C」に設定され、PID情報は、上述したようにメインストリームのPESパケット「audio PES」に付与されるPID100を示すものとされる。このオーディオエレメンタリストリームループ(audio ES loop)に、3Dオーディオ・ストリーム・コンフィグ・デスクリプタと3Dオーディオ・ストリームID・デスクリプタが配置される。
 [サービス受信機の構成例]
 図20は、サービス受信機200の構成例を示している。このサービス受信機200は、受信部201と、デマルチプレクサ202と、ビデオデコーダ203と、映像処理回路204と、パネル駆動回路205と、表示パネル206を有している。また、このサービス受信機200は、多重化バッファ211-1~211-Nと、コンバイナ212と、コマンド挿入部213と、3Dオーディオデコーダ214と、音声出力処理回路215と、スピーカシステム216を有している。また、このサービス受信機200は、CPU221と、フラッシュROM222と、DRAM223と、内部バス224と、リモコン受信部225と、リモコン送信機226を有している。
 CPU221は、サービス受信機200の各部の動作を制御する。フラッシュROM222は、制御ソフトウェアの格納およびデータの保管を行う。DRAM223は、CPU221のワークエリアを構成する。CPU221は、フラッシュROM222から読み出したソフトウェアやデータをDRAM223上に展開してソフトウェアを起動させ、サービス受信機200の各部を制御する。
 リモコン受信部225は、リモコン送信機226から送信されたリモートコントロール信号(リモコンコード)を受信し、CPU221に供給する。CPU221は、このリモコンコードに基づいて、サービス受信機200の各部を制御する。CPU221、フラッシュROM222およびDRAM223は、内部バス224に接続されている。
 受信部201は、サービス送信機100から放送波あるいはネットのパケットに載せて送られてくるトランスポートストリームTSを受信する。このトランスポートストリームTSは、ビデオストリームの他に、3Dオーディオの伝送データを構成する複数のグループの符号化データを含む所定数のオーディオストリームを有している。
 図21は、受信されるオーディオストリームの一例を示している。図21(a)は、1ストリーム(メインストリーム)の例を示している。このメインストリームは、識別子PID100で識別される。このメインストリームには、“SYNC”および“Config”と共に、チャネル符号化データ(CD)、イマーシブオーディオオブジェクト符号化データ(IAO)、スピーチダイアログオブジェクト符号化データ(SDO)、サウンドオブジェクト符号化データ(SUO)およびオーディオデスクリプションオブジェクト符号化データ(ADO)が含まれている(図3参照)。
 また、“SYNC”と“Config”の間に、デスクリプタ情報(“Desc”)として、伝送データ構成情報およびコマンド情報を含む3Dオーディオ・ストリーム・コンフィグ・デスクリプタ(図13、図14参照)と、コマンド情報を含む3Dオーディオ・コマンド・デスクリプタ(図17(a)参照)が挿入されている。
 図21(b)は、マルチストリーム、ここでは3ストリームの例を示している。PID100で識別されるメインストリームに、“SYNC”および“Config”と共に、チャネル符号化データ(CD)およびイマーシブオーディオオブジェクト符号化データ(IAO)が含まれている(図3参照)。
 また、PID200で識別されるサブストリーム1に、“SYNC”および“Config”と共に、スピーチダイアログオブジェクト符号化データ(SDO)およびサウンドオブジェクト符号化データ(SUO)が含まれている(図3参照)。また、PID300で識別されるサブストリーム2に、“SYNC”および“Config”と共に、スピーチダイアログオブジェクト符号化データ(SDO)およびオーディオデスクリプションオブジェクト符号化データ(ADO)が含まれている(図3参照)。
 メインストリームには、“SYNC”と“Config”の間に、デスクリプタ情報(“Desc”)として、伝送データ構成情報およびコマンド情報を含む3Dオーディオ・ストリーム・コンフィグ・デスクリプタ(図13、図14参照)と、コマンド情報を含む3Dオーディオ・コマンド・デスクリプタ(図17(a)参照)が挿入されている。
 デマルチプレクサ202は、トランスポートストリームTSからビデオストリームのパケットを抽出し、ビデオデコーダ203に送る。ビデオデコーダ203は、デマルチプレクサ202で抽出されたビデオのパケットからビデオストリームを再構成し、デコード処理を行って非圧縮のビデオデータを得る。
 映像処理回路204は、ビデオデコーダ203で得られたビデオデータに対してスケーリング処理、画質調整処理などを行って、表示用のビデオデータを得る。パネル駆動回路205は、映像処理回路204で得られる表示用の画像データに基づいて、表示パネル206を駆動する。表示パネル206は、例えば、LCD(Liquid Crystal Display)、有機ELディスプレイ(organic electroluminescence display)などで構成されている。
 また、デマルチプレクサ202は、トランスポートストリームTSからデスクリプタ情報などの各種情報を抽出し、CPU221に送る。この各種情報には、上述した3Dオーディオ・ストリーム・コンフィグ・デスクリプタや3Dオーディオ・ストリームID・デスクリプタの情報も含まれる(図18、図19参照)。
 CPU221は、3Dオーディオ・ストリーム・コンフィグ・デスクリプタの情報から、伝送データ構成(図3、図8参照)と共に、コマンドとグループ・プリセットグループとの対応関係(図7、図10参照)を認識する。また、CPU221は、3Dオーディオ・ストリームID・デスクリプタの情報から、各グループがどのオーディオストリームに含まれているかを認識する。
 CPU221は、伝送データ構成情報と、ユーザ選択操作、さらにはシステムの処理機能に基づいて、デコードすべきグループを決定し、そのグループを特定するためのコマンド(コマンド識別子:CommandID)を発生する。この場合、CPU221は、伝送データ構成情報に基づいて、ユーザが選択操作を行うためのUI(User Interface)画面を表示する(図11参照)。ユーザは、このUI画面上で選択操作を行う。
 また、デマルチプレクサ202は、CPU221の制御のもと、トランスポートストリームTSが有する所定数のオーディオストリームから、デコードすべきと決定されたグループを含む全てのオーディオストリームを、PIDフィルタで選択的に取り出す。なお、所定数のオーディオストリームが1ストリームである場合(図21(a)参照)、そのオーディオストリームは必ず取り出される。また、所定数のオーディオストリームがマルチストリームである場合(図21(b)参照)、チャネル符号化データ(CD)が含まれるメインストリームは必ず取り出される。
 多重化バッファ211-1~211-Nは、それぞれ、デマルチプレクサ202で取り出される各オーディオストリームを取り込む。ここで、多重化バッファ211-1~211-Nの個数Nとしては必要十分な個数とされるが、実際の動作では、デマルチプレクサ202で取り出されるオーディオストリームの数だけ用いられることになる。
 コンバイナ212は、多重化バッファ211-1~211-Nのうちデマルチプレクサ202で取り出される各オーディオストリームがそれぞれ取り込まれた多重化バッファから、オーディオフレーム毎に、オーディオストリームを読み出して統合して一つのオーディオストリームを得る。この場合、デマルチプレクサ202で取り出されるオーディオストリームが一つであるときには、このオーディオストリームをそのまま一つのオーディオストリームとする。
 この一つのオーディオストリームには、1ストリーム(メインストリーム)(図21(a)参照)、あるいはマルチストリームのメインストリーム(図21(b)参照)と同様に、“SYNC”と“Config”の間に、デスクリプタ情報(“Desc”)として、伝送データ構成情報およびコマンド情報を含む3Dオーディオ・ストリーム・コンフィグ・デスクリプタと、コマンド挿入領域を構成する3Dオーディオ・コマンド・デスクリプタが挿入されている。
 コマンド挿入部213は、CPU221で発生された、デコードすべきと決定されたグループを特定するためのコマンドを、コンバイナ212で得られた一つのオーディオストリームのコマンド挿入領域に挿入、つまり3Dオーディオ・コマンド・デスクリプタに記述する。
 CPU221は、デコードすべきと決定されたグループを特定するためのコマンドとして、コマンド情報に含まれるコマンドを発生するか、あるいは、コマンド情報に含まれるコマンドと共に別途個別のコマンドを発生するか、あるいは別途個別のコマンドのみを発生する。
 例えば、図3に示す3Dオーディオの伝送データの構成例において、CPU221で、グループ1,2,3,4がデコードすべきグループとして決定された場合を考える。最初に、受信オーディオストリームが1ストリームである場合(図21(a)参照)におけるデコード対象の選択処理例を説明する。
 この場合、図22(a)に示すように、コマンド挿入部213には、受信オーディオストリームであるメインストリームがそのまま供給される。このメインストリームには、グループ1~8の全ての符号化データが含まれている。この場合、CPU221は、図22(b)に示すように、例えば、コマンド(コマンド識別子:CommandID)として、グループ1,2,3,4をデコード対象として指定する“13” (図7参照)を一つだけ発生する。
 あるいは、CPU221は、図22(b)に示すように、例えば、コマンド(コマンド識別子:CommandID)として、プリセットグループ1をデコード対象として指定する“19” (図7参照)と、スイッチグループ1はグループ3をデコード対象として指定する個別コマンド“A”と、スイッチグループ2はグループ4をデコード対象として指定する個別コマンド“B”を発生する。
 そして、コマンド挿入部213は、図22(c)に示すように、CPU221で発生されたコマンド(コマンド識別子:CommandID)を、3Dオーディオデコーダ214に供給される1つのオーディオストリームのコマンド挿入領域に挿入する。これにより、3Dオーディオデコーダ214には、1つのオーディオストリームに含まれるグループ1~8のうち、デコー対象のグループがグループ1,2,3,4であることが通知される。
 次に、受信オーディオストリームがマルチストリーム、ここでは3ストリームである場合(図21(b)参照)におけるデコード対象の選択処理例を説明する。図23は、デマルチプレクサ202におけるストリーム取り出し処理を示している。デマルチプレクサ202は、CPU221からのストリーム選択信号「Stream select」で取り出し対象として指定されているストリームを取り出す。
 この場合、メインストリームはグループ1,2が含まれているのでCPU221により取り出し対象として指定され、デマルチプレクサ202ではこのメインストリームが取り出される。また、サブストリーム1はグループ3,4が含まれているのでCPU221により取り出し対象として指定され、デマルチプレクサ202ではこのサブストリーム1も取り出される。
 コマンド挿入部213には、図24(a)に示すように、デマルチプレクサ202で取り出されたメインストリームおよびサブストリーム1を統合して得られた一つのオーディオストリームが供給される。この場合、CPU221は、図24(b)に示すように、例えば、コマンド(コマンド識別子:CommandID)として、グループ1,2,3,4をデコード対象として指定する“13” (図7参照)を一つだけ発生する。あるいは、CPU221は、図24(b)に示すように、例えば、スイッチグループ2はグループ4をデコード対象として指定する個別コマンド“B”を発生する。
 そして、コマンド挿入部213は、図24(c)に示すように、CPU221で発生されたコマンド(コマンド識別子:CommandID)を、3Dオーディオデコーダ214に供給される1つのオーディオストリームのコマンド挿入領域に挿入する。これにより、3Dオーディオデコーダ214には、1つのオーディオストリームに含まれるグループ1~5のうち、デコー対象のグループがグループ1,2,3,4であることが通知される。
 図20に戻って、3Dオーディオデコーダ214は、コマンド挿入部213を介して供給される一つのオーディオストリームに含まれる複数のグループの符号化データのうち、挿入されているコマンドによってデコード対象として指定されているグループの符号化データに対してデコード処理を施し、各スピーカを駆動するためのオーディオデータを得る。
 この場合、3Dオーディオデコーダ214は、チャネル符号化データをデコードするときは、スピーカシステム216のスピーカ構成へのダウンミックスやアップミックスの処理を行って、各スピーカを駆動するためのオーディオデータを得る。また、3Dオーディオデコーダ214は、オブジェクト符号化データをデコードするときは、オブジェクト情報(メタデータ)に基づきスピーカレンダリング(各スピーカへのミキシング割合)を計算し、その計算結果に応じて、オブジェクトのオーディオデータを、各スピーカを駆動するためのオーディオデータにミキシングする。
 音声出力処理回路215は、3Dオーディオデコーダ214で得られた各スピーカを駆動するためのオーディオデータに対して、D/A変換や増幅等の必要な処理を行って、スピーカシステム216に供給する。スピーカシステム216は、複数チャネル、例えば2チャネル、5.1チャネル、7.1チャネル、22.2チャネルなどの複数のスピーカを備える。
 図25は、3Dオーディオデコーダ214の構成例を示している。3Dオーディオデコーダ214は、オーディオトランスポート(Audio transport)解析部214aと、コンフィグ(Config)処理部214bと、フレーム(Frame)選択部214cと、フレーム(Frame)デコード部214dと、レンダリング/ミキシング(Rendering /Mixing)部214eを有している。
 オーディオトランスポート解析部214aは、オーディオストリームのパケット解析を行ってデスクリプタのパケットを抜き出し、さらにコマンド解析を行ってデコード対象のグループの情報を得る。コンフィグ処理部214bは、コンフィグ(Config)パケットで供給されるオーディオ・シーン・インフォ(AudioSceneInfo)の情報、つまりグループID(GroupID)、スイッチグループID(SwitchGroupID)、プリセットグループID(PresetGroupID)などと照合して、デコード対象となるフレームの選択を行って、フレームデコード部214dに通知する。
 フレームデコード部214dは、デコード対象のフレームの符号化データに対してデコード処理を行う。レンダリング/ミキシング部214eは、フレームデコード部214dで得られるデコード出力を用いてレンダリング・ミキシングなどの処理を行って、各スピーカを駆動するためのオーディオデータ(非圧縮オーディオ)を得る。
 図20に示すサービス受信機200の動作を簡単に説明する。受信部201では、サービス送信機100から放送波あるいはネットのパケットに載せて送られてくるトランスポートストリームTSが受信される。このトランスポートストリームTSは、ビデオストリームの他に、3Dオーディオの伝送データを構成する複数のグループの符号化データを含む所定数のオーディオストリームを有している。このトランスポートストリームTSは、デマルチプレクサ202に供給される。
 デマルチプレクサ202では、トランスポートストリームTSからビデオストリームのパケットが抽出され、ビデオデコーダ203に供給される。ビデオデコーダ203では、デマルチプレクサ202で抽出されたビデオのパケットからビデオストリームが再構成され、デコード処理が行われて、非圧縮のビデオデータが得られる。このビデオデータは、映像処理回路204に供給される。
 映像処理回路204では、ビデオデコーダ203で得られたビデオデータに対してスケーリング処理、画質調整処理などが行われて、表示用のビデオデータが得られる。この表示用のビデオデータはパネル駆動回路205に供給される。パネル駆動回路205では、表示用のビデオデータに基づいて、表示パネル206を駆動することが行われる。これにより、表示パネル206には、表示用のビデオデータに対応した画像が表示される。
 また、デマルチプレクサ202では、トランスポートストリームTSからデスクリプタ情報などの各種情報が抽出され、CPU221に送られる。この各種情報には、データ構成情報およびコマンド情報が含まれる3Dオーディオ・ストリーム・コンフィグ・デスクリプタ、ストリーム識別子情報が含まれる3Dオーディオ・ストリームID・デスクリプタの情報も含まれる(図18、図19参照)。
 CPU221では、3Dオーディオ・ストリーム・コンフィグ・デスクリプタの情報から、伝送データ構成(図3、図8参照)と共に、コマンドとグループ・プリセットグループとの対応関係(図7、図10参照)が認識される。また、CPU221では、3Dオーディオ・ストリームID・デスクリプタの情報から、各グループがどのオーディオストリームに含まれているかが認識される。
 CPU221では、伝送データ構成情報と、ユーザ選択操作、さらにはシステムの処理機能などに基づいて、デコードすべきグループが決定され、そのグループを特定するためのコマンド(コマンド識別子:CommandID)が発生される。この場合、CPU221の制御により、例えば、表示パネル206に、ユーザが選択操作を行うためのUI(User Interface)画面が表示される(図11参照)。
 また、デマルチプレクサ202では、CPU221の制御のもと、トランスポートストリームTSが有する所定数のオーディオストリームから、デコードすべきと決定されたグループを含む全てのオーディオストリームが、PIDフィルタで選択的に取り出される。この場合、CPU221からデマルチプレクサ202に、ストリーム選択信号「Stream select」が供給され、取り出し対象のストリームが指定される。
 デマルチプレクサ202で取り出されたオーディオストリームは、多重化バッファ211-1~211-Nのうち対応する多重化バッファに取り込まれる。コンバイナ212では、オーディオストリームが取り込まれた各多重化バッファから、オーディオフレーム毎に、オーディオストリームが読み出され、一つのオーディオストリームに統合される。この一つのオーディオストリームは、コマンド挿入部213に供給される。
 コマンド挿入部213では、CPU221で発生された、デコードすべきと決定されたグループを特定するためのコマンドが、コンバイナ212で得られた一つのオーディオストリームのコマンド挿入領域に挿入される。この場合、コンバイナ212で得られた一つのオーディオストリームに挿入されている3Dオーディオ・コマンド・デスクリプタに、コマンド(コマンド識別子:CommandID)が記述される。
 コマンド挿入がされた一つのオーディオストリームは、3Dオーディオデコーダ214に供給される。この3Dオーディオデコーダ214では、この一つのオーディオストリームに含まれる複数のグループの符号化データのうち、挿入されているコマンドによってデコード対象として指定されているグループの符号化データに対してデコード処理が施され、各スピーカを駆動するためのオーディオデータが得られる。
 この各スピーカを駆動するためのオーディオデータは、音声処理回路215に供給される。音声出力処理回路215では、このオーディオデータに対して、D/A変換や増幅等の必要な処理が行われる。そして、処理後のオーディオデータはスピーカシステム216に供給される。これにより、スピーカシステム216からは表示パネル206の表示画像に対応した音響出力が得られる。
 上述したように、図1に示す送受信システム10において、サービス送信機100は、コンテナ(トランスポートストリームTS)に、複数のグループのうちデコードすべきグループを特定するコマンドを発生するためのコマンド情報を挿入する。そのため、受信側においては、このコマンド情報を参照することで、デコードすべきグループを特定するコマンドの発生処理が容易となる。
 また、図1に示す送受信システム10において、サービス送信機100は、所定数のオーディオストリームのうち少なくとも一つのオーディオストリームに、デコードすべきグループを特定するためのコマンドを受信側で挿入するためのコマンド挿入領域を設ける。そのため、受信側でオーディオストリームにコマンドを挿入する場合にこのコマンド挿入領域を利用でき、コマンド挿入処理が容易となる。
 また、図1に示す送受信システム10において、サービス受信機200は、オーディオストリームにデコードすべきグループを特定するためのコマンドを挿入して3Dオーディオデコーダ214に送る。そのため、3Dオーディオデコーダ214では、デコードすべきグループの符号化画像データのみを選択的にデコードすることが可能となる。
 この場合、コンバイナ212にグループの選択処理を行わせるものではなく、効率的な処理が可能となる。つまり、オーディオフレーム(Audio Frame)よりも中に入り込んで、グループ情報やグループ間の境界を見つける処理は、3Dオーディオデコーダ214に任せる方が効率的に行える。
 <2.変形例>
 なお、上述実施の形態において、伝送データ構成情報およびコマンド情報を含む3Dオーディオ・ストリーム・コンフィグ・デスクリプタをコンテナ(トランスポートストリームTS)の他に、オーディオストリームにも挿入して送信する例を示したが、いずれか一方のみに挿入して送信することも考えられる。
 また、上述実施の形態においては、オーディオストリームにコマンド挿入領域を挿入して送信する例を示した。しかし、これに限定されるものではなく、受信側でコマンド挿入領域を設けてコマンドを挿入することも考えられる。
 また、上述実施の形態においては、複数のグループの符号化データに、チャネル符号化データおよびオブジェクト符号化データの双方が含まれる例を示した(図3、図8参照)。しかし、本技術は、複数のグループの符号化データに、チャネル符号化データのみ、あるいはオブジェクト符号化データのみが含まれる場合にも同様に適用できる。
 また、上述実施の形態においては、コンテナがトランスポートストリーム(MPEG-2 TS)である例を示した。しかし、本技術は、MP4やそれ以外のフォーマットのコンテナで配信されるシステムにも同様に適用できる。例えば、MPEG-DASHベースのストリーム配信システム、あるいは、MMT(MPEG Media Transport)構造伝送ストリームを扱う送受信システムなどである。
 なお、本技術は、以下のような構成もとることができる。
 (1)複数のグループの符号化データを含む所定数のオーディオストリームを生成するオーディオエンコード部と、
 上記所定数のオーディオストリームを有する所定フォーマットのコンテナを送信する送信部と、
 上記コンテナおよび/またはオーディオストリームに、上記複数のグループのうちデコードすべきグループを特定するコマンドを発生するためのコマンド情報を挿入する情報挿入部を備える
 送信装置。
 (2)上記コマンド情報は、コマンドとグループの対応関係を示す情報、あるいはコマンドと所定数のグループの組み合わせからなるプリセットグループの対応関係を示す情報である
 前記(1)に記載の送信装置。
 (3)上記所定数のオーディオストリームは、メインストリームと所定数のサブストリーム、あるいはメインストリームのみからなり、
 上記情報挿入部は、
 上記コマンド情報を、上記メインストリームおよび/または該メインストリームに対応したコンテナ位置に挿入する
 前記(1)または(2)に記載の送信装置。
 (4)上記オーディオエンコード部は、
 上記複数のオーディオストリームのうち少なくとも一つのオーディオストリームに、デコードすべきグループを特定するコマンドを受信側で挿入するためのコマンド挿入領域を設ける
 前記(1)から(3)のいずれかに記載の送信装置。
 (5)複数のグループの符号化データを含む所定数のオーディオストリームを生成するオーディオエンコードステップと、
 送信部により、上記所定数のオーディオストリームを有する所定フォーマットのコンテナを送信する送信ステップと、
 上記コンテナおよび/またはオーディオストリームに、上記複数のグループのうちデコードすべきグループを特定するコマンドを発生するためのコマンド情報を挿入する情報挿入ステップを有する
 送信方法。
 (6)複数のグループの符号化データを含む所定数のオーディオストリームを生成するオーディオエンコード部と、
 上記所定数のオーディオストリームを有する所定フォーマットのコンテナを送信する送信部を備え、
 上記オーディオエンコード部は、
 上記所定数のオーディオストリームのうち少なくとも一つのオーディオストリームに、デコードすべきグループを特定するためのコマンドを受信側で挿入するためのコマンド挿入領域を設ける
 送信装置。
 (7)上記所定数のオーディオストリームは、メインストリームと所定数のサブストリーム、あるいはメインストリームのみからなり、
 上記オーディオエンコード部は、
 上記メインストリームに、上記コマンド挿入領域を設ける
 前記6に記載の送信装置。
 (8)複数のグループの符号化データを含む所定数のオーディオストリームを生成するオーディオエンコードステップと、
 送信部により、上記所定数のオーディオストリームを有する所定フォーマットのコンテナを送信する送信ステップを有し、
 上記オーディオエンコードステップでは、
 上記所定数のオーディオストリームのうち少なくとも一つのオーディオストリームに、デコードすべきグループを特定するためのコマンドを受信側で挿入するためのコマンド挿入領域を設ける
 送信方法。
 (9)複数のグループの符号化データを含む所定数のオーディオストリームを有する所定フォーマットのコンテナを受信する受信部と、
 上記所定数のオーディオストリームからデコードすべきグループを含む全てのオーディオストリームを取り出し、該取り出された全てのオーディオストリームを統合した一つのオーディオストリームを得るストリーム取得部と、
 上記一つのオーディオストリームに含まれる所定数のグループのうちデコードすべきグループを特定するためのコマンドを発生するコマンド発生部と、
 上記ストリーム取得部で取得された一つのオーディオストリームに、上記コマンド発生部で発生されたコマンドを挿入するコマンド挿入部と、
 上記コマンドが挿入された一つのオーディオストリームを入力し、該一つのオーディオストリームに含まれる所定数のグループのうち上記コマンドで特定されるグループの符号化データにデコード処理を施すオーディオデコード部を備える
 受信装置。
 (10)上記コマンド発生部は、
 ユーザのユーザインタフェース画面上における選択操作に応じたコマンドを発生する
 前記(9)に記載の受信装置。
 (11)上記受信部で受信されたオーディオストリームおよび/またはコンテナに、上記複数のグループのうちデコードすべきグループを特定するコマンドを発生するためのコマンド情報が挿入されており、
 上記コマンド発生部は、上記コマンド情報を参照してコマンドを発生する
 前記(9)または(10)に記載の受信装置。
 (12)上記受信部で受信された所定数のオーディオストリームのうち少なくとも一つのオーディオストリームに、デコードすべきグループを特定するためのコマンドを挿入するためのコマンド挿入領域が設けられており、
 上記ストリーム取得部で取得された一つのオーディオストリームは、上記コマンド挿入領域を有し、
 上記コマンド挿入部は、
 上記一つのオーディオストリームの上記コマンド挿入領域に上記コマンドを挿入する
 前記(9)から(11)のいずれかに記載の受信装置。
 (13)受信部により、複数のグループの符号化データを含む所定数のオーディオストリームを有する所定フォーマットのコンテナを受信する受信ステップと、
 上記所定数のオーディオストリームからデコードすべきグループを含む全てのオーディオストリームを取り出し、該取り出された全てのオーディオストリームを統合した一つのオーディオストリームを得るストリーム取得ステップと、
 上記一つのオーディオストリームに含まれる所定数のグループのうちデコードすべきグループを特定するためのコマンドを発生するコマンド発生ステップと、
 上記ストリーム取得ステップで取得された一つのオーディオストリームに、上記コマンド発生ステップで発生されたコマンドを挿入するコマンド挿入部と、
 上記コマンドが挿入された一つのオーディオストリームを入力し、該一つのオーディオストリームに含まれる所定数のグループのうち上記コマンドで特定されるグループの符号化データにデコード処理を施すオーディオデコードステップを有する
 受信方法。
 本技術の主な特徴は、コンテナおよび/またはオーディオストリームに、複数のグループのうちデコードすべきグループを特定するコマンドを発生するためのコマンド情報を挿入することで、受信側におけるデコードすべきグループを特定するコマンドの発生処理を容易としたことである(図18、図19参照)。また、本技術の主な特徴は、所定数のオーディオストリームのうち少なくとも一つのオーディオストリームに、デコードすべきグループを特定するためのコマンドを受信側で挿入するためのコマンド挿入領域を設けることで、受信側におけるコマンド挿入処理を容易としたことである(図5参照)。また、本技術の主な特徴は、オーディオストリームにデコードすべきグループを特定するためのコマンドを挿入して3Dオーディオデコーダに送る構成としたことで、受信側のグループ選択処理の効率化を図ったことである(図20、図25参照)。
 10・・・送受信システム
 100・・・サービス送信機
 110・・・ストリーム生成部
 112・・・ビデオエンコーダ
 113・・・オーディオエンコーダ
 114・・・マルチプレクサ
 200・・・サービス受信機
 201・・・受信部
 202・・・デマルチプレクサ
 203・・・ビデオデコーダ
 204・・・映像処理回路
 205・・・パネル駆動回路
 206・・・表示パネル
 211-1~211-N・・・多重化バッファ
 212・・・コンバイナ
 213・・・コマンド挿入部
 214・・・3Dオーディオデコーダ
 214a・・・オーディオトランスポート解析部
 214b・・・コンフィグ処理部
 214c・・・フレーム選択部
 214d・・・フレームデコード部
 214e・・・レンダリング/ミキシング部
 215・・・音声出力処理回路
 216・・・スピーカシステム
 221・・・CPU
 222・・・フラッシュROM
 223・・・DRAM
 224・・・内部バス
 225・・・リモコン受信部
 226・・・リモコン送信機

Claims (13)

  1.  複数のグループの符号化データを含む所定数のオーディオストリームを生成するオーディオエンコード部と、
     上記所定数のオーディオストリームを有する所定フォーマットのコンテナを送信する送信部と、
     上記コンテナおよび/またはオーディオストリームに、上記複数のグループのうちデコードすべきグループを特定するコマンドを発生するためのコマンド情報を挿入する情報挿入部を備える
     送信装置。
  2.  上記コマンド情報は、コマンドとグループの対応関係を示す情報、あるいはコマンドと所定数のグループの組み合わせからなるプリセットグループの対応関係を示す情報である
     請求項1に記載の送信装置。
  3.  上記所定数のオーディオストリームは、メインストリームと所定数のサブストリーム、あるいはメインストリームのみからなり、
     上記情報挿入部は、
     上記コマンド情報を、上記メインストリームおよび/または該メインストリームに対応したコンテナ位置に挿入する
     請求項1に記載の送信装置。
  4.  上記オーディオエンコード部は、
     上記複数のオーディオストリームのうち少なくとも一つのオーディオストリームに、デコードすべきグループを特定するコマンドを受信側で挿入するためのコマンド挿入領域を設ける
     請求項1に記載の送信装置。
  5.  複数のグループの符号化データを含む所定数のオーディオストリームを生成するオーディオエンコードステップと、
     送信部により、上記所定数のオーディオストリームを有する所定フォーマットのコンテナを送信する送信ステップと、
     上記コンテナおよび/またはオーディオストリームに、上記複数のグループのうちデコードすべきグループを特定するコマンドを発生するためのコマンド情報を挿入する情報挿入ステップを有する
     送信方法。
  6.  複数のグループの符号化データを含む所定数のオーディオストリームを生成するオーディオエンコード部と、
     上記所定数のオーディオストリームを有する所定フォーマットのコンテナを送信する送信部を備え、
     上記オーディオエンコード部は、
     上記所定数のオーディオストリームのうち少なくとも一つのオーディオストリームに、デコードすべきグループを特定するためのコマンドを受信側で挿入するためのコマンド挿入領域を設ける
     送信装置。
  7.  上記所定数のオーディオストリームは、メインストリームと所定数のサブストリーム、あるいはメインストリームのみからなり、
     上記オーディオエンコード部は、
     上記メインストリームに、上記コマンド挿入領域を設ける
     請求項6に記載の送信装置。
  8.  複数のグループの符号化データを含む所定数のオーディオストリームを生成するオーディオエンコードステップと、
     送信部により、上記所定数のオーディオストリームを有する所定フォーマットのコンテナを送信する送信ステップを有し、
     上記オーディオエンコードステップでは、
     上記所定数のオーディオストリームのうち少なくとも一つのオーディオストリームに、デコードすべきグループを特定するためのコマンドを受信側で挿入するためのコマンド挿入領域を設ける
     送信方法。
  9.  複数のグループの符号化データを含む所定数のオーディオストリームを有する所定フォーマットのコンテナを受信する受信部と、
     上記所定数のオーディオストリームからデコードすべきグループを含む全てのオーディオストリームを取り出し、該取り出された全てのオーディオストリームを統合した一つのオーディオストリームを得るストリーム取得部と、
     上記一つのオーディオストリームに含まれる所定数のグループのうちデコードすべきグループを特定するためのコマンドを発生するコマンド発生部と、
     上記ストリーム取得部で取得された一つのオーディオストリームに、上記コマンド発生部で発生されたコマンドを挿入するコマンド挿入部と、
     上記コマンドが挿入された一つのオーディオストリームを入力し、該一つのオーディオストリームに含まれる所定数のグループのうち上記コマンドで特定されるグループの符号化データにデコード処理を施すオーディオデコード部を備える
     受信装置。
  10.  上記コマンド発生部は、
     ユーザのユーザインタフェース画面上における選択操作に応じたコマンドを発生する
     請求項9に記載の受信装置。
  11.  上記受信部で受信されたオーディオストリームおよび/またはコンテナに、上記複数のグループのうちデコードすべきグループを特定するコマンドを発生するためのコマンド情報が挿入されており、
     上記コマンド発生部は、上記コマンド情報を参照してコマンドを発生する
     請求項9に記載の受信装置。
  12.  上記受信部で受信された所定数のオーディオストリームのうち少なくとも一つのオーディオストリームに、デコードすべきグループを特定するためのコマンドを挿入するためのコマンド挿入領域が設けられており、
     上記ストリーム取得部で取得された一つのオーディオストリームは、上記コマンド挿入領域を有し、
     上記コマンド挿入部は、
     上記一つのオーディオストリームの上記コマンド挿入領域に上記コマンドを挿入する
     請求項9に記載の受信装置。
  13.  受信部により、複数のグループの符号化データを含む所定数のオーディオストリームを有する所定フォーマットのコンテナを受信する受信ステップと、
     上記所定数のオーディオストリームからデコードすべきグループを含む全てのオーディオストリームを取り出し、該取り出された全てのオーディオストリームを統合した一つのオーディオストリームを得るストリーム取得ステップと、
     上記一つのオーディオストリームに含まれる所定数のグループのうちデコードすべきグループを特定するためのコマンドを発生するコマンド発生ステップと、
     上記ストリーム取得ステップで取得された一つのオーディオストリームに、上記コマンド発生ステップで発生されたコマンドを挿入するコマンド挿入ステップと、
     上記コマンドが挿入された一つのオーディオストリームを入力し、該一つのオーディオストリームに含まれる所定数のグループのうち上記コマンドで特定されるグループの符号化データにデコード処理を施すオーディオデコードステップを有する
     受信方法。
PCT/JP2016/061488 2015-04-24 2016-04-08 送信装置、送信方法、受信装置および受信方法 WO2016171002A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
EP16783023.1A EP3288025A4 (en) 2015-04-24 2016-04-08 Transmission device, transmission method, reception device, and reception method
US15/564,548 US10304467B2 (en) 2015-04-24 2016-04-08 Transmission device, transmission method, reception device, and reception method
CN201680022172.6A CN107533846B (zh) 2015-04-24 2016-04-08 发送装置、发送方法、接收装置与接收方法
JP2017514064A JPWO2016171002A1 (ja) 2015-04-24 2016-04-08 送信装置、送信方法、受信装置および受信方法
PH12017501893A PH12017501893A1 (en) 2015-04-24 2017-10-18 Transmission apparatus, transmission method, reception apparatus and reception method
US16/390,909 US10978080B2 (en) 2015-04-24 2019-04-22 Transmission device, transmission method, reception device, and reception method
US17/203,588 US11636862B2 (en) 2015-04-24 2021-03-16 Transmission device, transmission method, reception device, and reception method
US18/188,353 US12008999B2 (en) 2015-04-24 2023-03-22 Transmission device, transmission method, reception device, and reception method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015089863 2015-04-24
JP2015-089863 2015-04-24

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/564,548 A-371-Of-International US10304467B2 (en) 2015-04-24 2016-04-08 Transmission device, transmission method, reception device, and reception method
US16/390,909 Continuation US10978080B2 (en) 2015-04-24 2019-04-22 Transmission device, transmission method, reception device, and reception method

Publications (1)

Publication Number Publication Date
WO2016171002A1 true WO2016171002A1 (ja) 2016-10-27

Family

ID=57143997

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/061488 WO2016171002A1 (ja) 2015-04-24 2016-04-08 送信装置、送信方法、受信装置および受信方法

Country Status (6)

Country Link
US (4) US10304467B2 (ja)
EP (1) EP3288025A4 (ja)
JP (3) JPWO2016171002A1 (ja)
CN (1) CN107533846B (ja)
PH (1) PH12017501893A1 (ja)
WO (1) WO2016171002A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022083444A (ja) * 2020-11-24 2022-06-03 ネイバー コーポレーション ユーザカスタム型臨場感を実現するためのオーディオコンテンツを送信するコンピュータシステムおよびその方法
JP2022083443A (ja) * 2020-11-24 2022-06-03 ネイバー コーポレーション オーディオと関連してユーザカスタム型臨場感を実現するためのコンピュータシステムおよびその方法
JP2022083445A (ja) * 2020-11-24 2022-06-03 ネイバー コーポレーション ユーザカスタム型臨場感を実現するためのオーディオコンテンツを製作するコンピュータシステムおよびその方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111490846B (zh) * 2019-01-28 2023-06-06 中兴通讯股份有限公司 一种传输配置信息的方法、装置和系统
US11622219B2 (en) * 2019-07-24 2023-04-04 Nokia Technologies Oy Apparatus, a method and a computer program for delivering audio scene entities
GB202002900D0 (en) * 2020-02-28 2020-04-15 Nokia Technologies Oy Audio repersentation and associated rendering

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008511848A (ja) * 2004-09-03 2008-04-17 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 符号化されたマルチチャネル信号を発生するための装置および方法並びに符号化されたマルチチャネル信号を復号化するための装置および方法
US20100112974A1 (en) * 2008-11-05 2010-05-06 Aakash Sahai Reducing receiver power dissipation
JP2014013400A (ja) * 2006-05-19 2014-01-23 Electronics And Telecommunications Research Institute オブジェクトベースのオーディオサービスシステム及びその方法
JP2014222853A (ja) * 2013-05-14 2014-11-27 日本放送協会 音響信号再生装置、音響信号作成装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020035725A1 (en) * 2000-09-08 2002-03-21 Tsutomu Ando Multimedia data transmitting apparatus and method, multimedia data receiving apparatus and method, multimedia data transmission system, and storage medium
US7076204B2 (en) * 2001-10-30 2006-07-11 Unwired Technology Llc Multiple channel wireless communication system
US8019611B2 (en) * 2005-10-13 2011-09-13 Lg Electronics Inc. Method of processing a signal and apparatus for processing a signal
US7668848B2 (en) * 2005-12-07 2010-02-23 Motorola, Inc. Method and system for selectively decoding audio files in an electronic device
CN101473645B (zh) * 2005-12-08 2011-09-21 韩国电子通信研究院 使用预设音频场景的基于对象的三维音频服务系统
US7974287B2 (en) * 2006-02-23 2011-07-05 Lg Electronics Inc. Method and apparatus for processing an audio signal
KR101513028B1 (ko) * 2007-07-02 2015-04-17 엘지전자 주식회사 방송 수신기 및 방송신호 처리방법
US8554550B2 (en) * 2008-01-28 2013-10-08 Qualcomm Incorporated Systems, methods, and apparatus for context processing using multi resolution analysis
JP4874284B2 (ja) * 2008-03-27 2012-02-15 パナソニック株式会社 デジタル放送受信装置
AR077680A1 (es) * 2009-08-07 2011-09-14 Dolby Int Ab Autenticacion de flujos de datos
US9031850B2 (en) * 2009-08-20 2015-05-12 Gvbb Holdings S.A.R.L. Audio stream combining apparatus, method and program
EP2362385A1 (en) * 2010-02-26 2011-08-31 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Watermark signal provision and watermark embedding
KR102394141B1 (ko) 2011-07-01 2022-05-04 돌비 레버러토리즈 라이쎈싱 코오포레이션 향상된 3d 오디오 오서링과 렌더링을 위한 시스템 및 툴들
TWI543642B (zh) * 2011-07-01 2016-07-21 杜比實驗室特許公司 用於適應性音頻信號的產生、譯碼與呈現之系統與方法
US9154834B2 (en) * 2012-11-06 2015-10-06 Broadcom Corporation Fast switching of synchronized media using time-stamp management
TWI530941B (zh) * 2013-04-03 2016-04-21 杜比實驗室特許公司 用於基於物件音頻之互動成像的方法與系統
TWM487509U (zh) * 2013-06-19 2014-10-01 杜比實驗室特許公司 音訊處理設備及電子裝置
EP3028273B1 (en) * 2013-07-31 2019-09-11 Dolby Laboratories Licensing Corporation Processing spatially diffuse or large audio objects
JP2015136059A (ja) * 2014-01-17 2015-07-27 ソニー株式会社 通信装置、通信データ生成方法、および通信データ処理方法
EP3120573B1 (en) * 2014-03-18 2019-07-10 Koninklijke Philips N.V. Audiovisual content item data streams
CN104505096B (zh) * 2014-05-30 2018-02-27 华南理工大学 一种用音乐传输隐藏信息的方法及装置
EP3731542A1 (en) * 2015-06-17 2020-10-28 Sony Corporation Transmitting device, transmitting method, receiving device, and receiving method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008511848A (ja) * 2004-09-03 2008-04-17 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 符号化されたマルチチャネル信号を発生するための装置および方法並びに符号化されたマルチチャネル信号を復号化するための装置および方法
JP2014013400A (ja) * 2006-05-19 2014-01-23 Electronics And Telecommunications Research Institute オブジェクトベースのオーディオサービスシステム及びその方法
US20100112974A1 (en) * 2008-11-05 2010-05-06 Aakash Sahai Reducing receiver power dissipation
JP2014222853A (ja) * 2013-05-14 2014-11-27 日本放送協会 音響信号再生装置、音響信号作成装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022083444A (ja) * 2020-11-24 2022-06-03 ネイバー コーポレーション ユーザカスタム型臨場感を実現するためのオーディオコンテンツを送信するコンピュータシステムおよびその方法
JP2022083443A (ja) * 2020-11-24 2022-06-03 ネイバー コーポレーション オーディオと関連してユーザカスタム型臨場感を実現するためのコンピュータシステムおよびその方法
JP2022083445A (ja) * 2020-11-24 2022-06-03 ネイバー コーポレーション ユーザカスタム型臨場感を実現するためのオーディオコンテンツを製作するコンピュータシステムおよびその方法

Also Published As

Publication number Publication date
JP2021103335A (ja) 2021-07-15
JPWO2016171002A1 (ja) 2018-02-15
US10978080B2 (en) 2021-04-13
US10304467B2 (en) 2019-05-28
US20210210105A1 (en) 2021-07-08
US12008999B2 (en) 2024-06-11
EP3288025A4 (en) 2018-11-07
CN107533846B (zh) 2022-09-16
US20190318749A1 (en) 2019-10-17
EP3288025A1 (en) 2018-02-28
US20230230601A1 (en) 2023-07-20
PH12017501893A1 (en) 2018-03-05
US20180114534A1 (en) 2018-04-26
CN107533846A (zh) 2018-01-02
JP2023030183A (ja) 2023-03-07
US11636862B2 (en) 2023-04-25
JP7207447B2 (ja) 2023-01-18

Similar Documents

Publication Publication Date Title
JP7207447B2 (ja) 受信装置、受信方法、送信装置および送信方法
JP6729382B2 (ja) 送信装置、送信方法、受信装置および受信方法
JP6908168B2 (ja) 受信装置、受信方法、送信装置および送信方法
JP7218772B2 (ja) 受信装置および受信方法
JP7310849B2 (ja) 受信装置および受信方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16783023

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017514064

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15564548

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2016783023

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12017501893

Country of ref document: PH

NENP Non-entry into the national phase

Ref country code: DE