WO2017030015A1 - コンテンツ配信装置、コンテンツ配信システム、およびコンテンツ配信方法 - Google Patents

コンテンツ配信装置、コンテンツ配信システム、およびコンテンツ配信方法 Download PDF

Info

Publication number
WO2017030015A1
WO2017030015A1 PCT/JP2016/073061 JP2016073061W WO2017030015A1 WO 2017030015 A1 WO2017030015 A1 WO 2017030015A1 JP 2016073061 W JP2016073061 W JP 2016073061W WO 2017030015 A1 WO2017030015 A1 WO 2017030015A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
data
distribution
unit
basic component
Prior art date
Application number
PCT/JP2016/073061
Other languages
English (en)
French (fr)
Inventor
小原治
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Publication of WO2017030015A1 publication Critical patent/WO2017030015A1/ja
Priority to US15/724,700 priority Critical patent/US10448156B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43076Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of the same content streams on multiple devices, e.g. when family members are watching the same movie on different devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/231Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43632Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43637Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones

Definitions

  • One embodiment of the present invention relates to a content distribution device that distributes content to a client device.
  • Patent Document 1 discloses a content distribution device that distributes content and a client device that reproduces the distributed content.
  • the content distribution apparatus disclosed in Patent Document 1 includes a hard disk for recording content and a FIFO for temporarily storing content read from the hard disk.
  • the content distribution device disclosed in Patent Document 1 synchronizes the reproduction of content in the own device and each client device by adjusting the time temporarily stored in the FIFO.
  • synchronous reproduction is realized at the distribution destination client by temporarily storing content data in the FIFO and controlling the read amount from the hard disk.
  • the content distribution device plays back the content video continuously output from the external optical disk device, and each client device plays back the audio of the content.
  • the audio playback by each client device may be delayed as compared to the video playback by the content distribution device, so the delay from input to output to the content distribution device is reduced. There is a need to.
  • an object of an embodiment of the present invention is to provide a content distribution apparatus that selects an optimal content distribution method according to content to be distributed.
  • the content distribution apparatus includes an external input unit, a content reception unit, and a distribution unit.
  • the external input unit receives first content having at least a basic component.
  • the content receiving unit receives second content having a basic component and an extended component.
  • the distribution unit distributes the basic component of the first content to the client device a plurality of times.
  • the content distribution apparatus can select an optimal content distribution method according to content to be distributed.
  • FIG. (A) is a hardware block diagram showing a part of the configuration of the AV receiver
  • (B) is a hardware block diagram showing a part of the configuration of the wireless speaker. It is a functional block diagram which shows a part of structure of AV receiver. It is a flowchart which shows operation
  • movement of AV receiver. 6 is a flowchart illustrating an operation according to a modification of the operation of the AV receiver according to the first embodiment.
  • the content distribution apparatus of the present invention includes an external input unit, a content reception unit, and a distribution unit.
  • the external input unit receives first content having at least a basic component.
  • the content receiving unit receives second content having a basic component and an extended component.
  • the distribution unit distributes the basic component of the first content to the client device a plurality of times.
  • the external input unit has, for example, a connector to which a composite cable is connected.
  • the external input unit may have a network interface to which a radio signal for transmitting the first content is input.
  • the first content input to the external input unit is, for example, a part (audio data) of the content output from the optical disc apparatus.
  • the optical disc apparatus may output audio data to a content distribution apparatus while outputting video data to another apparatus (for example, a television).
  • another apparatus for example, a television.
  • the second content received by the content receiving unit is, for example, NAS (Network Attached Storage) or content stored in the internal storage of the content distribution device.
  • NAS Network Attached Storage
  • content distribution device since it is not necessary to distribute audio data while outputting video data to another device (for example, a television), even if the second content is buffered, only the reproduction of the client device is delayed. It does not become the situation.
  • the distribution unit distributes basic components and extended components of the second content.
  • the distribution unit uses the WavPack codec, which is an audio compression codec, to divide audio data into basic components and extended components and generate two compressed data. It is possible to reproduce the sound by using only the compressed data of the basic component. If compressed data of both the basic component and the extended component is used, reproduction without loss due to compression becomes possible.
  • the distributing unit When distributing the second content received by the content receiving unit, the distributing unit temporarily stores the basic component and the extended component of the second content in a buffer and distributes the second content. That is, the distribution unit distributes the second content that does not require real-time playback after buffering. As a result, the content distribution apparatus can reliably synchronize the content reproduction between the client apparatuses. Furthermore, since the client device receives the basic component and the extended component of the second content, it can reproduce high-quality content.
  • the distribution unit distributes the first content input to the external input unit (first content that requires real-time playback) immediately after input without buffering. Further, when distributing the first content, the distribution unit distributes the basic component of the first content a plurality of times. As a result, the client device receives the basic component of the first content more reliably even if there is a possibility that data to be distributed may be lost. Since the client device can reproduce the content with only the basic components that can be received more reliably, the request for retransmission of the first content is not necessary. Since the content distribution apparatus does not require time for the retransmission request of the first content, it is possible to prevent content reproduction delay in the client apparatus.
  • FIG. 1 is a diagram for explaining the outline of the content distribution system 900.
  • FIG. 2A is a hardware block diagram illustrating a part of the configuration of the AV receiver 100.
  • FIG. 2B is a hardware block diagram illustrating part of the configuration of the wireless speaker 301SL.
  • the content distribution system 900 includes an AV receiver 100, a player 150, a NAS (Network Attached Storage) 170, a speaker 200L, a speaker 200R, a television 210, a wireless speaker 301SL, and a wireless speaker. 301SR.
  • AV receiver 100 a player 150
  • NAS Network Attached Storage
  • the player 150 includes an optical disk drive.
  • the player 150 outputs PCM sound source data stored on the optical disc.
  • the NAS 170 stores a plurality of PCM sound source data.
  • the AV receiver 100 distributes the PCM sound source data output from the player 150 and the PCM sound source data stored in the NAS 170 to the wireless speaker 301SL and the wireless speaker 301SR.
  • the wireless speaker 301SL and the wireless speaker 301SR are examples of client devices.
  • the AV receiver 100 according to the present embodiment is an example of a content distribution apparatus, and selects an optimal distribution method according to content to be distributed.
  • the AV receiver 100 includes a CPU (Central Processing Unit) 1, a memory 2, a DSP (Digital Signal Processor) 3, a wireless module 4, an AMP (Amplifier) 5, and an HDMI. (High Definition Multimedia Interface (HDMI is a registered trademark)) 6 and a plurality of operation buttons 7. These configurations are connected to a common BUS.
  • the DSP 3 is a processor for various kinds of sound processing on PCM sound source data.
  • the wireless module 4 generates a wireless signal such as Wi-Fi (registered trademark) standard.
  • the radio module 4 inputs and outputs radio signals with an antenna (not shown). Thereby, the wireless module 4 transmits and receives information by wireless communication.
  • the AMP 5 is a circuit that amplifies the audio signal.
  • the audio signal amplified by the AMP 5 is output to the speaker 200L and the speaker 200R.
  • An L channel audio signal is output to the speaker 200L.
  • An R channel audio signal is output to the speaker 200R.
  • the HDMI 6 is an interface for inputting and outputting content.
  • the HDMI 6 is connected to the HDMI (not shown) of the player 150.
  • the plurality of operation buttons 7 When operated by the user, the plurality of operation buttons 7 output a signal indicating the operation.
  • the memory 2 stores the IP addresses of the wireless speaker 301SL and the wireless speaker 301SR.
  • the memory 2 stores a program.
  • the CPU 1 reads a program from the memory 2 and executes the read program.
  • the wireless speaker 301SL includes a CPU 31, a memory 32, a wireless module 34, and an AMP 35. These configurations are connected to a common BUS.
  • the wireless module 34 generates a wireless signal such as Wi-Fi (registered trademark) standard.
  • the wireless module 34 inputs and outputs wireless signals with an antenna (not shown). Thereby, the wireless module 34 transmits and receives information by wireless communication.
  • the AMP 35 is a circuit that amplifies an audio signal.
  • the audio signal amplified by the AMP 35 is output to a speaker unit (not shown).
  • the memory 32 stores a program.
  • the CPU 31 reads a program from the memory 32 and executes the read program.
  • the wireless speaker 301SR has the same configuration as the wireless speaker 301SL.
  • the wireless speaker 301SL receives the audio data of the SL channel.
  • Wireless speaker 301SR receives SR channel audio data.
  • the AV receiver 100 implements each functional unit shown in the functional block diagram of FIG. 3 by executing a program.
  • the AV receiver 100 includes an external input unit 10, a content receiving unit 12, an audio output unit 14, a distribution unit 16, and a video output unit 18 as functional units.
  • the external input unit 10 is realized by at least HDMI6.
  • the content receiving unit 12 is realized by at least the wireless module 4.
  • the audio output unit 14 is realized by at least the AMP 5 and the audio output terminal 14A.
  • the distribution unit 16 is realized by at least the memory 2 and the wireless module 4.
  • the video output unit 18 is realized by at least HDMI6.
  • the PCM sound source data output from the player 150 is input to the external input unit 10 as an example of the first content.
  • the PCM sound source data input to the external input unit 10 is output to the audio output unit 14 and the distribution unit 16.
  • the content receiving unit 12 receives PCM sound source data stored in the NAS 170 as an example of the second content.
  • the PCM sound source data received by the content receiving unit 12 is output to the audio output unit 14 and the distribution unit 16.
  • Each PCM sound source data may be subjected to acoustic processing (for example, equalizing) by the DSP 3 before being input to the audio output unit 14 and the distribution unit 16.
  • the audio output unit 14 converts the L-channel audio data from the input PCM sound source data into a digital analog signal, and outputs the converted data to the speaker 200L.
  • the audio output unit 14 converts the R-channel audio data of the input audio data from digital to analog and outputs the converted data to the speaker 200R.
  • the distribution unit 16 distributes the audio data of the SL channel among the input PCM sound source data to the wireless speaker 301SL.
  • the distribution unit 16 distributes the SR channel audio data of the input audio data to the wireless speaker 301SR.
  • the distribution unit 16 includes a FIFO buffer 17 in order to prevent a delay in reproduction of audio data in the wireless speaker 301SL and the wireless speaker 301SR.
  • the distribution unit 16 operates as follows using the buffer 17.
  • FIG. 4 is a flowchart showing the operation of the distribution unit 16.
  • the buffer 17 is realized by the memory 2.
  • the distribution unit 16 sets audio data to be distributed (S1). First, the distribution unit 16 distributes the PCM sound source data output from the external input unit 10 or the PCM sound source data received by the content reception unit 12 based on the source selection operation received by the plurality of buttons 7. Set whether to do it. When the distribution unit 16 is set to distribute the PCM sound source data received by the content receiving unit 12, the distribution unit 16 further selects from the plurality of PCM sound source data stored in the NAS 170 based on the data selection operation received by the plurality of operation buttons 7. Select PCM sound source data to be distributed.
  • the distribution unit 16 executes different distribution processes depending on the source of the PCM sound source data set in step S1 (S2).
  • the distribution unit 16 When the distribution unit 16 is set to distribute the PCM sound source data received by the content reception unit 12 (S2: content reception unit), the distribution unit 16 temporarily holds the top data of the PCM sound source data in the buffer 17 (S21).
  • the PCM sound source data stored in the NAS 170 is PULL type data that the content receiving unit 12 receives as necessary. In other words, the PCM sound source data stored in the NAS 170 is bufferable and does not require real-time playback. Therefore, the distribution unit 16 buffers a desired amount of PCM sound source data in step S21. The desired amount corresponds to, for example, a reproduction time of 2 seconds of PCM sound source data.
  • the distribution unit 16 extracts the PCM sound source data from the buffer 17 and compresses the extracted PCM sound source data (S22).
  • the distribution unit 16 compresses the PCM sound source data by dividing it into basic component and extended component data using the WavPack codec.
  • Basic component data is generated by lossy compression. It is possible to reproduce sound even with only basic component data. If the basic component data is corrected with the extended component data, the audio data PCM sound source (eg, bit rate data of 1,411 kbps) without loss due to compression is restored.
  • the distribution unit 16 generates basic component data of PCM sound source data at a bit rate of 200 kbps, and generates extended component data of the PCM sound source data at a bit rate of 600 kbps.
  • the distribution unit 16 generates a packet including the generated basic component and extended component data (S23).
  • the distribution unit 16 transmits the generated packet (S24). This packet is transmitted to the wireless speaker 301SL and the wireless speaker 301SR via the wireless access point 500.
  • the CPU 31 of the wireless speaker 301SL and the wireless speaker 301SR receives a packet from the AV receiver 100, it extracts data from the received packet. Then, the CPU 31 restores the data extracted using the WavPack codec. Then, the PCM sound source data without any loss is restored. Thereafter, the CPU 31 outputs an analog audio signal generated from the restored PCM sound source data to a speaker unit (not shown).
  • the distribution unit 16 further determines whether there is next data to be distributed (S25). When there is data next to the data distributed in step S24 (S25: Y), the distribution unit 16 returns to step S21. When returning to step S21, the distribution unit 16 performs the processes of steps S21 to S24 on the data next to the distributed data. When the data distributed in step S24 is the last data of the PCM sound source data (S25: N), the distribution unit 16 ends the process. That is, the distribution unit 16 repeatedly executes the processes of steps S21 to S24 from the top data to the last data of the PCM sound source data to be distributed.
  • the audio output unit 14 outputs audio signals corresponding to the L channel and R channel PCM sound source data to the speakers 200L and 200R during the distribution of the SL channel and SR channel PCM sound source data. To do. At this time, the audio output unit 14 temporarily stores the PCM sound source data in the FIFO buffer 15 (see FIG. 3), and then outputs the audio signal. The time temporarily held in the buffer 15 that is the second buffer is set in consideration of the time required for the distribution process by the distribution unit 16, packet transmission, and the reproduction process by the wireless speaker 301SL and the wireless speaker 301SR. Thereby, the speaker 200L, the speaker 200R, the wireless speaker 301SL, and the wireless speaker 301SR reproduce PCM sound source data synchronously.
  • the distribution unit 16 temporarily stores the PCM sound source data for the reproduction time of 2 seconds in the buffer 17.
  • the stored PCM sound source data can be transmitted (S22 to S24).
  • the AV receiver 100 can prevent a delay in reproduction of PCM sound source data in the wireless speaker 301SL and the wireless speaker 301SR.
  • the distribution unit 16 increases the PCM sound source data for the reproduction time of 2 seconds again from the content reception unit 12 so that the buffer 17 temporarily holds the PCM sound source data. PCM sound source data is acquired.
  • the PCM sound source data output from the player 150 is PUSH type data output from the player 150 sequentially.
  • the PCM sound source data output from the player 150 requires real-time reproduction.
  • the real-time reproduction is roughly the timing at which audio data is input to the external input unit 10 and the timing at which the speaker 200L, the speaker 200R, the wireless speaker 301SL, and the wireless speaker 301SR reproduce the audio data. Means simultaneous. Therefore, in the present embodiment, the reproduction with a time difference of several tens of milliseconds between the timing when the audio data is input to the external input unit 10 and the timing when each speaker reproduces the audio data is also real-time reproduction.
  • the delivery unit 16 When the delivery unit 16 is set to deliver the PCM sound source data input to the external input unit 10 (S2: external input unit), the delivery unit 16 compresses the data without buffering the head data of the PCM sound source data, and performs basic processing. Data of the component and the extended component is generated (S11). Since the basic component and extended component data generation processing is the same as the processing in step S22, the description thereof is omitted. And the delivery part 16 produces
  • UDP User Datagram Protocol
  • connectionless communication is a communication method for transmitting data without confirming the connection state, like UDP.
  • the distribution unit 16 transmits only a packet including basic component data again (S14). At this time, the distribution unit 16 transmits information indicating that the packet has been retransmitted (for example, flag information) in the retransmitted packet.
  • the wireless speaker 301SL and the wireless speaker 301SR can discriminate packets including overlapping audio data, so that audio data is not reproduced redundantly. Note that the retransmission of the basic component data may be performed a plurality of times.
  • the distribution unit 16 further determines whether there is next data to be distributed (S15). When the PCM sound source data continues to be input to the external input unit 10 (S15: Y), the distribution unit 16 returns to Step S11. When the PCM sound source data is no longer input to the external input unit 10 (S15: N), the distribution unit 16 ends the process. That is, as long as PCM sound source data continues to be input to the external input unit 10, the distribution unit 16 repeatedly executes steps S11 to S14.
  • the distribution unit 16 transmits the PCM sound source data input to the external input unit 10 immediately without buffering, the PCM sound source data can be quickly distributed to the wireless speaker 301SL and the wireless speaker 301SR.
  • the wireless speaker 301SL and the wireless speaker 301SR receive the basic component data more reliably because the distribution unit 16 transmits the packet including the basic component data twice. Thereby, since the sound is reproduced using the data of the basic component that can be more reliably received by the wireless speaker 301SL and the wireless speaker 301SR, it is not necessary to request the retransmission of the sound data. As described above, the AV receiver 100 can prevent a delay in reproduction of audio data in the wireless speaker 301SL and the wireless speaker 301SR by eliminating the time required to retransmit the audio data.
  • the AV receiver 100 distributes audio data that does not require real-time reproduction in a high-quality state while preventing a delay in the distribution of audio data that requires real-time reproduction. Therefore, the AV receiver 100 can select an optimal distribution method according to the audio data to be distributed.
  • the speaker 200L and the speaker 200R are connected to the AV receiver 100, but may be directly connected to the player 150 by a speaker cable.
  • the AV receiver 100 buffers the PCM sound source data when distributing the PCM sound source data input to the external input unit 10 even when the speakers 200L and 200R are directly connected to the player 150 (S2: external input unit). Without compression, only the basic component data of the compressed PCM sound source data is transmitted twice. Thus, the AV receiver 100 can prevent the audio data reproduction in the wireless speaker 301SL and the wireless speaker 301SR from being delayed even when the speaker 200L and the speaker 200R are directly connected to the player 150.
  • the AV receiver 100 reproduces only the audio data using the speaker 200L and the speaker 200R.
  • the AV receiver 100 may reproduce the video data in addition to the audio data.
  • audio data and video data are input to the external input unit 10.
  • the content receiving unit 12 receives audio data and video data.
  • the video data input to the external input unit 10 is output to the video output unit 18 as shown in FIG.
  • the video data received by the content receiving unit 12 is output to the video output unit 18.
  • the video output unit 18 includes a FIFO buffer 19.
  • the video output unit 18 temporarily stores the video data in the buffer 19 and then outputs the video data to the television 210.
  • the amount of video data temporarily stored in the buffer 19 is necessary for distribution processing by the distribution unit 16, packet transmission, and reproduction processing by the wireless speaker 301SL and the wireless speaker 301SR, similarly to the amount of audio data temporarily stored in the buffer 15. Time is set in consideration. Thereby, the reproduction of sound in the speaker 200L, the speaker 200R, the wireless speaker 301SL, and the wireless speaker 301SR is synchronized with the reproduction of the video by the television 210.
  • the video output unit 18 outputs video data from the HDMI 6 to the television 210 when the distribution unit 16 distributes audio data input to the external input unit 10. Even in this case, the AV receiver 100 does not buffer the audio data and distributes only the basic component data of the audio data twice. It is possible to prevent the audio reproduction in the wireless speaker 301SR from being delayed.
  • the external input unit 10 may include a composite terminal in addition to the HDMI 6. Furthermore, the external input unit 10 may include a network interface (for example, the wireless module 4) that receives content that is continuously wirelessly transmitted.
  • a network interface for example, the wireless module 4
  • the buffer processing in step S21 may be performed any time before packet transmission (before S24).
  • the AV receiver 100 may temporarily hold the basic component and extended component data of the PCM sound source data in the buffer 17 instead of the PCM sound source data itself.
  • FIG. 5 is a flowchart showing an operation according to a modified example of the operation of the distribution unit 16.
  • the flowchart in FIG. 5 differs from the flowchart in FIG. 4 in that step S3 and steps S11A to S15A are executed. Note that, in FIG. 5, illustration of steps S21 to S24 that overlap with the flowchart of FIG. 4 is omitted.
  • step S3 the distribution unit 16 refers to the memory 2 in which the IP address of the wireless speaker is stored, and determines whether the number of audio data distribution destinations is three or more (S3).
  • the distribution unit 16 sequentially executes steps S11A to S15A.
  • the distribution unit 16 generates only basic component data of the PCM sound source data, and generates and transmits a packet only for the basic component data (S11A to S13A). Since each process of step S14A and step S15A is the same as each process of step S14 and step S15, description is abbreviate
  • the distribution unit 16 can further shorten the packet generation time and the packet transmission time. Accordingly, the time until the audio data reaches the wireless speaker 301SL and the wireless speaker 301SR is further shortened.
  • the distribution unit 16 sequentially executes steps S11 to S15 when the number of distribution destination speakers is less than three (S3: N).
  • the distribution unit 16 may distribute only the basic component data of the PCM sound source data input to the external input unit 10 regardless of the number of distribution destination speakers.
  • the content stored in the NAS 170 is distributed after being temporarily held in the buffer 17.
  • the content stored in the internal storage of the AV receiver 100 is distributed after being temporarily stored in the buffer 17. May be.
  • the distributed content is shown as audio data.
  • the distributed content may include video data.
  • an MPEG4 SLS codec is used to compress video data by dividing it into basic components and extended components.
  • the AV receiver 100 may distribute content not only via the Wi-Fi (registered trademark) standard but also through other wireless communication such as the Bluetooth (registered trademark) standard.
  • an audio amplifier, a personal computer, a playback device such as a set-top box, an amplifier-integrated speaker, or a television
  • a wireless speaker an audio amplifier, an AV receiver, a personal computer, a playback device such as a set top box, an amplifier-integrated speaker, a television, or the like may be used.
  • 900 ... Content distribution system 100 ... AV receiver 150 ... Player 170 ... NAS 200L, 200R ... Speaker 210 ... Television 301SL, 301SR ... Wireless speaker 500 ... Wireless access point 1 ... CPU 2 ... Memory 3 ... DSP 4 ... Wireless module 5 ... AMP 6 ... HDMI 7 ... Operation button 10 ... External input unit 12 ... Content receiving unit 14 ... Audio output unit 14A ... Audio output terminal 15 ... Buffer 16 ... Distribution unit 17 ... Buffer 18 ... Video output unit 19 ... Buffer 31 ... CPU 32 ... Memory 34 ... Wireless module 35 ... AMP

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

コンテンツ配信装置は、外部入力部と、コンテンツ受信部と、配信部と、を備えている。外部入力部は、少なくとも基本成分を有する第1コンテンツが入力される。コンテンツ受信部は、基本成分及び拡張成分を有する第2コンテンツを受信する。配信部は、前記第1コンテンツを配信する場合、前記第1コンテンツの基本成分を、クライアント装置へ複数回配信する。

Description

コンテンツ配信装置、コンテンツ配信システム、およびコンテンツ配信方法
 本発明の一実施形態は、クライアント装置へコンテンツを配信するコンテンツ配信装置に関する。
 特許文献1には、コンテンツを配信するコンテンツ配信装置と、配信されたコンテンツを再生するクライアント装置と、が開示されている。
 特許文献1に開示されたコンテンツ配信装置は、コンテンツを記録するハードディスクと、当該ハードディスクより読みだしたコンテンツを一時保持するFIFOを備えている。特許文献1に開示されたコンテンツ配信装置は、このFIFOに一時保存する時間を調整することで、自装置及び各クライアント装置におけるコンテンツの再生を同期している。
特開2005-148565号公報
 上述の通り、特許文献1のコンテンツ配信装置ではFIFOにコンテンツデータを一時記憶させてハードディスクからの読み出し量を制御することにより、配信先クライアントで同期再生を実現していた。しかし、外部入力端子から入力されたコンテンツを配信する場合、例えば、外部の光ディスク装置から連続して出力されるコンテンツの映像をコンテンツ配信装置が再生し、そのコンテンツの音声を各クライアント装置が再生することがある。このように外部からコンテンツが入力される場合、各クライアント装置による音声の再生は、コンテンツ配信装置による映像の再生に比べて遅れることがあるため、コンテンツ配信装置への入力から出力までの遅延を小さくする必要がある。
 そこで、本発明の一実施形態の目的は、配信する対象となるコンテンツに応じて最適なコンテンツの配信方法を選択するコンテンツ配信装置を提供することにある。
 コンテンツ配信装置は、外部入力部と、コンテンツ受信部と、配信部と、を備えている。外部入力部は、少なくとも基本成分を有する第1コンテンツが入力される。コンテンツ受信部は、基本成分及び拡張成分を有する第2コンテンツを受信する。配信部は、前記第1コンテンツを配信する場合、前記第1コンテンツの基本成分を、クライアント装置へ複数回配信する。
 本発明の一実施形態のコンテンツ配信装置は、配信する対象となるコンテンツに応じて最適なコンテンツの配信方法を選択できる。
実施形態1に係るコンテンツ配信システムの概要を説明するための図である。 (A)は、AVレシーバの構成の一部を示すハードウェアブロック図であり、(B)は、無線スピーカの構成の一部を示すハードウェアブロック図である。 AVレシーバの構成の一部を示す機能ブロック図である。 AVレシーバの動作を示すフローチャートである。 実施形態1におけるAVレシーバの動作の変形例に係る動作を示すフローチャートである。
 本発明のコンテンツ配信装置は、外部入力部と、コンテンツ受信部と、配信部と、を備えている。外部入力部は、少なくとも基本成分を有する第1コンテンツが入力される。コンテンツ受信部は、基本成分及び拡張成分を有する第2コンテンツを受信する。配信部は、前記第1コンテンツを配信する場合、前記第1コンテンツの基本成分を、クライアント装置へ複数回配信する。
 外部入力部は、例えば、コンポジットケーブルが接続されるコネクタを有する。ただし、外部入力部は、第1コンテンツを伝送する無線信号が入力されるネットワークインターフェースを有する態様であってもよい。
 外部入力部に入力される第1コンテンツは、例えば、光ディスク装置が出力するコンテンツの一部(音声データ)である。光ディスク装置は、他の装置(例えばテレビ)に映像データを出力しつつ、音声データをコンテンツ配信装置に出力する場合がある。このような場合、テレビ側の映像の再生に対して各クライアント装置側での音声データの再生が遅れないように、リアルタイム再生が要求される。
 コンテンツ受信部が受信する第2コンテンツは、例えば、NAS(Network Attached Storage)、又はコンテンツ配信装置の内蔵ストレージに記憶されているコンテンツ、等である。このような第2コンテンツの場合は、他の装置(例えばテレビ)に映像データを出力しつつ音声データを配信する必要がないため、第2コンテンツをバッファしたとしてもクライアント装置の再生だけが遅れる、という状況にはならない。
 配信部は、第2コンテンツの基本成分及び拡張成分を配信する。例えば、配信部は、音声圧縮コーデックであるWavPackコーデックを用いて、音声データを基本成分及び拡張成分に分けて2つの圧縮データを生成する。基本成分のみの圧縮データを用いるだけでも音声の再生は可能である。基本成分と拡張成分の両方の圧縮データを用いれば、圧縮による損失がない状態の再生が可能となる。
 配信部は、コンテンツ受信部が受信した第2コンテンツを配信する場合、第2コンテンツの基本成分及び拡張成分をバッファに一時保持してから配信する。すなわち、配信部は、リアルタイム再生が要求されない第2コンテンツを、バッファしてから配信する。これにより、コンテンツ配信装置は、クライアント装置間でのコンテンツ再生を確実に同期させることができる。さらに、クライアント装置は、第2コンテンツの基本成分及び拡張成分を受信するので、高品質なコンテンツを再生できる。
 配信部は、外部入力部に入力された第1コンテンツ(リアルタイム再生が必要な第1コンテンツ)を、バッファせずに入力後すぐに配信する。さらに、配信部は、第1コンテンツを配信する場合、第1コンテンツの基本成分を複数回配信する。これにより、クライアント装置は、配信するデータの抜けが生じる可能性があっても、第1コンテンツの基本成分をより確実に受信する。クライアント装置は、より確実に受信できる基本成分のみでコンテンツの再生が可能であるので、第1コンテンツの再送要求が不要となる。コンテンツ配信装置は、第1コンテンツの再送要求にかかる時間を不要とするので、クライアント装置におけるコンテンツ再生の遅延を防止することができる。
 実施形態1に係るコンテンツ配信システム900について、図1、図2(A)、図2(B)を用いて説明する。図1は、コンテンツ配信システム900の概要を説明するための図である。図2(A)は、AVレシーバ100の構成の一部を示すハードウェアブロック図である。図2(B)は、無線スピーカ301SLの構成の一部を示すハードウェアブロック図である。
 図1に示すように、コンテンツ配信システム900は、AVレシーバ100と、プレーヤ150と、NAS(Network Attached Storage)170と、スピーカ200Lと、スピーカ200Rと、テレビ210と、無線スピーカ301SLと、無線スピーカ301SRと、を備えている。
 例えば、プレーヤ150は、光ディスクドライブを備える。プレーヤ150は、光ディスクに記憶されたPCM音源データを出力する。NAS170は、複数のPCM音源データを記憶している。AVレシーバ100は、プレーヤ150から出力されるPCM音源データと、NAS170に記憶されているPCM音源データとを、無線スピーカ301SL、及び無線スピーカ301SRに配信する。無線スピーカ301SL及び無線スピーカ301SRは、クライアント装置の一例である。本実施形態におけるAVレシーバ100は、コンテンツ配信装置の一例であり、配信対象となるコンテンツに応じて、最適な配信方法を選択するものである。
 図2(A)に示すように、AVレシーバ100は、CPU(Central Processing Unit)1と、メモリ2と、DSP(Digital Signal Processor)3と、無線モジュール4と、AMP(Amplifier)5と、HDMI(High Definition Multimedia Interface(HDMIは登録商標))6と、複数の操作ボタン7と、を備えている。これら構成は、共通のBUSに接続されている。
 DSP3は、PCM音源データに対する各種音響処理のためのプロセッサである。無線モジュール4は、Wi-Fi(登録商標)規格等の無線信号を生成する。また、無線モジュール4は、アンテナ(不図示)で無線信号を入出力する。これにより、無線モジュール4は、無線通信で情報を送受信する。AMP5は、音声信号を増幅する回路である。AMP5によって増幅された音声信号は、スピーカ200L及びスピーカ200Rへ出力される。スピーカ200LへはLチャンネルの音声信号が出力される。スピーカ200RへはRチャンネルの音声信号が出力される。HDMI6は、コンテンツを入出力するためのインターフェースである。HDMI6は、プレーヤ150のHDMI(不図示)に接続されている。複数の操作ボタン7は、ユーザに操作されると、操作を示す信号を出力する。メモリ2は、無線スピーカ301SL、及び無線スピーカ301SRのIPアドレスを記憶している。メモリ2は、プログラムを記憶している。CPU1は、メモリ2からプログラムを読み出し、読み出したプログラムを実行する。
 図2(B)に示すように、無線スピーカ301SLは、CPU31と、メモリ32と、無線モジュール34と、AMP35と、を備えている。これら構成は、共通のBUSに接続されている。
 無線モジュール34は、Wi-Fi(登録商標)規格等の無線信号を生成する。また、無線モジュール34は、アンテナ(不図示)で無線信号を入出力する。これにより、無線モジュール34は、無線通信で情報を送受信する。AMP35は、音声信号を増幅する回路である。AMP35によって増幅された音声信号は、スピーカユニット(不図示)に出力される。メモリ32は、プログラムを記憶している。CPU31は、メモリ32からプログラムを読み出し、読み出したプログラムを実行する。
 図示は省略するが、無線スピーカ301SRは、無線スピーカ301SLと同様の構成を備えている。無線スピーカ301SLは、SLチャンネルの音声データを受信する。無線スピーカ301SRは、SRチャンネルの音声データを受信する。
 AVレシーバ100は、プログラムを実行することで、図3の機能ブロック図に示す各機能部を実現する。
 図3に示すように、AVレシーバ100は、機能部として、外部入力部10と、コンテンツ受信部12と、音声出力部14と、配信部16と、映像出力部18と、を備えている。外部入力部10は、少なくともHDMI6によって実現されている。コンテンツ受信部12は、少なくとも無線モジュール4によって実現されている。音声出力部14は、少なくともAMP5及び音声出力端子14Aによって実現されている。配信部16は、少なくともメモリ2及び無線モジュール4によって実現されている。映像出力部18は、少なくともHDMI6によって実現されている。
 外部入力部10には、第1コンテンツの一例として、プレーヤ150から出力されたPCM音源データが入力される。外部入力部10に入力されたPCM音源データは、音声出力部14と、配信部16とへ出力される。コンテンツ受信部12は、第2コンテンツの一例として、NAS170に記憶されているPCM音源データを受信する。コンテンツ受信部12が受信するPCM音源データは、音声出力部14と、配信部16とへ出力される。なお、各PCM音源データは、音声出力部14及び配信部16に入力される前に、DSP3によって音響処理(例えばイコライジング)が施されてもよい。
 音声出力部14は、入力されたPCM音源データのうち、Lチャンネルの音声データをデジタルアナログ変換したうえでスピーカ200Lへ出力する。音声出力部14は、入力された音声データのうち、Rチャンネルの音声データをデジタルアナログ変換したうえでスピーカ200Rへ出力する。
 配信部16は、入力されたPCM音源データのうち、SLチャンネルの音声データを無線スピーカ301SLへ配信する。配信部16は、入力された音声データのうち、SRチャンネルの音声データを無線スピーカ301SRへ配信する。
 配信部16は、無線スピーカ301SL及び無線スピーカ301SRにおける音声データの再生の遅延を防止するために、FIFO形式のバッファ17を備えている。配信部16は、バッファ17を用いて、次のように動作する。図4は、配信部16の動作を示すフローチャートである。なお、バッファ17はメモリ2によって実現されている。
 図4に示すように、配信部16は、配信すべき音声データを設定する(S1)。まず、配信部16は、複数のボタン7で受け付けたソース選択操作に基づいて、外部入力部10が出力するPCM音源データを配信するか、又は、コンテンツ受信部12が受信するPCM音源データを配信するかを設定する。配信部16は、コンテンツ受信部12が受信するPCM音源データを配信すると設定した場合、さらに、複数の操作ボタン7で受け付けたデータ選択操作に基づいて、NAS170が記憶する複数のPCM音源データから、配信すべきPCM音源データを選択する。
 次に、配信部16は、ステップS1で設定したPCM音源データのソースに応じて異なる配信処理を実行する(S2)。
<コンテンツ受信部が受信するPCM音源データの配信>
 配信部16は、コンテンツ受信部12が受信するPCM音源データを配信すると設定した場合(S2:コンテンツ受信部)、当該PCM音源データの先頭データをバッファ17に一時保持する(S21)。NAS170に記憶されているPCM音源データは、コンテンツ受信部12が必要に応じて受信するPULL型のデータである。換言すれば、NAS170に記憶されているPCM音源データは、バッファ可能でリアルタイム再生を要求しないものである。そこで、配信部16は、ステップS21では、所望の量のPCM音源データをバッファする。所望の量は、例えば、PCM音源データの2秒間の再生時間分に対応する。
 そして、配信部16は、PCM音源データをバッファ17から取出し、取り出したPCM音源データを圧縮する(S22)。ここで、配信部16は、WavPackコーデックを用いてPCM音源データを、基本成分及び拡張成分のデータに分けて圧縮する。基本成分のデータは、非可逆圧縮で生成される。基本成分のデータのみでも音声の再生は可能である。基本成分のデータを拡張成分のデータで補正すれば、圧縮による損失がない音声データPCM音源(例えば、1,411kbpsのビットレートデータ)が復元される。配信部16は、例えば、200kbpsのビットレートでPCM音源データの基本成分のデータを生成し、600kbpsのビットレートでそのPCM音源データの拡張成分のデータを生成する。
 次に、配信部16は、生成した基本成分及び拡張成分のデータを含むパケットを生成する(S23)。配信部16は、生成したパケットを送信する(S24)。このパケットは、無線アクセスポイント500を介して無線スピーカ301SL及び無線スピーカ301SRへ送信される。
 無線スピーカ301SL及び無線スピーカ301SRのCPU31は、AVレシーバ100からパケットを受信すると、受信したパケットからデータを取り出す。そして、CPU31は、WavPackコーデックを用いて取り出したデータを復元する。すると、損失がない状態のPCM音源データが復元される。その後、CPU31は、復元されたPCM音源データから生成されるアナログ音声信号をスピーカユニット(不図示)へ出力する。
 配信部16は、さらに配信すべき次のデータが存在するか否かを判断する(S25)。配信部16は、ステップS24で配信したデータの次のデータが存在する場合(S25:Y)、ステップS21に戻る。配信部16は、ステップS21に戻ると、配信したデータの次のデータを対象にして、ステップS21~S24の処理を行う。配信部16は、ステップS24で配信したデータがPCM音源データの最後のデータの場合(S25:N)、処理を終える。すなわち、配信部16は、配信すべきPCM音源データの先頭データから最後尾データまでステップS21~S24の処理を繰り返し実行する。
 なお、図示は省略するが、音声出力部14は、SLチャンネル及びSRチャンネルのPCM音源データの配信中に、Lチャンネル及びRチャンネルのPCM音源データに対応する音声信号をスピーカ200L及びスピーカ200Rへ出力する。この際、音声出力部14は、FIFO形式のバッファ15(図3を参照)にPCM音源データを一時保持してから音声信号を出力する。第2バッファであるバッファ15に一時保持する時間は、配信部16による配信処理、パケット伝送、及び無線スピーカ301SL及び無線スピーカ301SRによる再生処理に必要な時間が考慮されて設定される。これにより、スピーカ200L、スピーカ200R、無線スピーカ301SL、及び無線スピーカ301SRは、PCM音源データを同期再生する。
 配信部16は、例えばPCM音源データのバッファ処理(S21)に0.5秒間の遅延が生じたとしても、バッファ17に2秒間の再生時間分のPCM音源データが一時保持されているので、一時保持されているPCM音源データを送信することができる(S22~S24)。これにより、AVレシーバ100は、無線スピーカ301SL及び無線スピーカ301SRにおけるPCM音源データの再生の遅延を防止することができる。なお、配信部16は、バッファ処理(S21)に遅延が生じた場合、再び、2秒間の再生時間分のPCM音源データをバッファ17に一時保持されているように、コンテンツ受信部12からより多くのPCM音源データを取得する。
<外部入力部に入力された音声データの配信>
 プレーヤ150が出力するPCM音源データは、プレーヤ150が順次出力するPUSH型のデータである。換言すれば、プレーヤ150が出力するPCM音源データは、リアルタイム再生を必要とするものである。なお、本実施形態においてリアルタイム再生とは、外部入力部10に音声データが入力されたタイミングと、スピーカ200L、スピーカ200R、無線スピーカ301SL及び無線スピーカ301SRがその音声データを再生するタイミングと、が略同時であることを意味する。従って、本実施形態では、外部入力部10に音声データが入力されたタイミングと、各スピーカがその音声データを再生するタイミングとの間に数十ミリ秒の時間差がある再生もリアルタイム再生である。
 配信部16は、外部入力部10に入力されたPCM音源データを配信すると設定した場合(S2:外部入力部)、当該PCM音源データの先頭データをバッファせずに、当該データを圧縮して基本成分及び拡張成分のデータを生成する(S11)。この基本成分及び拡張成分のデータの生成処理は、ステップS22の処理と同様であるので、説明を省略する。そして、配信部16は、生成した基本成分及び拡張成分のデータを含むパケットを生成する(S12)。ここで、配信部16は、無線スピーカ301SL及び無線スピーカ301SRにパケットがより早く到達するために、コネクションレス型通信で伝送されるUDP(User Datagram Protocol)パケットを生成することが好ましい。そして、配信部16は、生成したパケットを配信する(S13)。配信部16は、コネクションレス型通信を行う場合、接続状態を確認しないので、より早くパケットを送信できる。なお、コネクションレス型通信とは、UDPの様に、接続状態を確認せずにデータを送信する通信方式である。
 配信部16は、基本成分及び拡張成分のデータを含むパケットを送信すると(S13)、基本成分のデータを含むパケットのみを再度送信する(S14)。この際、配信部16は、パケットが再送されたものである旨を示す情報(例えば、フラグ情報)を再送するパケットに含めて送信する。これにより、無線スピーカ301SL及び無線スピーカ301SRは、重複する音声データを含むパケットを判別できるので、音声データを重複して再生することがない。なお、基本成分のデータの再送は、複数回行われてもよい。
 配信部16は、さらに配信すべき次のデータが存在するのか否かを判断する(S15)。配信部16は、外部入力部10にPCM音源データが入力され続けている場合(S15:Y)、ステップS11へ戻る。配信部16は、外部入力部10へのPCM音源データの入力がなくなった場合(S15:N)、処理を終える。すなわち、配信部16は、外部入力部10にPCM音源データが入力され続ける限り、ステップS11~S14を繰り返し実行する。
 配信部16は、外部入力部10に入力されたPCM音源データをバッファせずにすぐ送信するので、PCM音源データを無線スピーカ301SL及び無線スピーカ301SRにより早く配信することができる。
 また、無線スピーカ301SL及び無線スピーカ301SRは、パケットロスが生じたとしても、配信部16が基本成分のデータを含むパケットを2回送信するので、基本成分のデータをより確実に受信する。これにより、無線スピーカ301SL及び無線スピーカ301SRがより確実に受信できる基本成分のデータを用いて音声を再生するので、音声データの再送の要求をしなくてもよい。このようにAVレシーバ100は、音声データの再送にかかる時間を不要とすることで、無線スピーカ301SL及び無線スピーカ301SRにおける音声データの再生の遅延を防止することができる。
 以上のように、AVレシーバ100は、リアルタイム再生が必要な音声データの配信の遅延を防止しつつ、リアルタイム再生が必要ない音声データを高品質な状態で配信する。従って、AVレシーバ100は、配信対象の音声データに応じて、最適な配信方法を選択することができる。
 なお、本実施形態では、スピーカ200L及びスピーカ200Rは、AVレシーバ100に接続されていたが、スピーカケーブルによってプレーヤ150に直接的に接続されてもよい。AVレシーバ100は、スピーカ200L及びスピーカ200Rが直接的にプレーヤ150に接続されても、外部入力部10に入力されたPCM音源データを配信する場合(S2:外部入力部)、PCM音源データをバッファせずに、かつ圧縮後のPCM音源データの基本成分のデータのみを2回送信する。これにより、AVレシーバ100は、スピーカ200L及びスピーカ200Rが直接的にプレーヤ150に接続されても、無線スピーカ301SL及び無線スピーカ301SRにおける音声データの再生が遅延することを防止することができる。
 また、本実施形態では、AVレシーバ100は、スピーカ200L及びスピーカ200Rを用いて音声データのみを再生したが、音声データに加えて映像データを再生してもよい。より具体的には、外部入力部10には、音声データ及び映像データが入力される。コンテンツ受信部12は、音声データ及び映像データを受信する。外部入力部10に入力された映像データは、図3に示すように、映像出力部18へ出力される。コンテンツ受信部12が受信した映像データは、映像出力部18へ出力される。
 図3に示すように、映像出力部18は、FIFO形式のバッファ19を備えている。映像出力部18は、コンテンツ受信部12が受信する音声データが配信される場合、映像データをバッファ19に一時保持してからテレビ210へ出力する。バッファ19に一時保持する映像データの量は、バッファ15に一時保持する音声データの量と同様に、配信部16による配信処理、パケット伝送、及び無線スピーカ301SL及び無線スピーカ301SRによる再生処理に必要な時間が考慮されて設定される。これにより、スピーカ200L、スピーカ200R、無線スピーカ301SL、及び無線スピーカ301SRにおける音声の再生と、テレビ210による映像の再生とは同期する。
 映像出力部18は、配信部16が外部入力部10に入力された音声データを配信する場合、HDMI6から映像データをテレビ210へ出力する。この場合であっても、AVレシーバ100は、音声データをバッファせずに、かつ音声データの基本成分のデータのみを2回配信するので、テレビ210による映像の再生に対して、無線スピーカ301SL及び無線スピーカ301SRにおける音声の再生が遅延することを防止することができる。
 なお、外部入力部10は、HDMI6以外にコンポジット端子を備えてもよい。さらに、外部入力部10は、連続して無線送信されるコンテンツを受信するネットワークインターフェース(例えば無線モジュール4)を備えてもよい。
 また、ステップS21におけるバッファ処理は、パケット送信前(S24の前)であればいつでもよい。例えば、AVレシーバ100は、PCM音源データそのものに代えて、PCM音源データの基本成分及び拡張成分のデータをバッファ17に一時保持してもよい。
 次に、図5は、配信部16の動作の変形例に係る動作を示すフローチャートである。図5のフローチャートは、ステップS3、及びステップS11A~S15Aを実行する点において、図4に示すフローチャートと相違する。なお、図5において、図4のフローチャートと重複するステップS21~S24の図示は省略している。
 配信部16は、ステップS3では、無線スピーカのIPアドレスが記憶されているメモリ2を参照することで、音声データの配信先の台数が3台以上であるか否かを判断する(S3)。
 配信部16は、配信先の台数が3台以上の場合(S3:Y)、ステップS11A~S15Aを順次実行する。配信部16は、PCM音源データの基本成分のデータのみを生成し、基本成分のデータのみを対象としてパケットの生成及び送信を行う(S11A~S13A)。ステップS14A及びステップS15Aの各処理は、ステップS14及びステップS15の各処理と同じであるので、説明を省略する。
 この変形例に係る動作では、配信部16は、パケットの生成時間及びパケット伝送時間をさらに短くすることができる。従って、無線スピーカ301SL及び無線スピーカ301SRに音声データが届くまでの時間はさらに短くなる。
 配信部16は、配信先のスピーカの台数が3台未満の場合(S3:N)、ステップS11~S15を順次実行する。
 なお、配信部16は、配信先のスピーカの台数に関わらず、外部入力部10に入力されたPCM音源データの基本成分のデータのみを配信してもよい。
 また、上述の例は、NAS170に記憶されているコンテンツがバッファ17に一時保持された後に配信されたが、AVレシーバ100の内蔵ストレージに記憶されているコンテンツがバッファ17に一時保持された後に配信されてもよい。
 また、上述の例は、配信されるコンテンツを音声データとして示したが、配信されるコンテンツは映像データを含んでもよい。映像データを基本成分及び拡張成分に分けて圧縮するには、例えば、MPEG4 SLSコーデックを用いる。
 また、AVレシーバ100は、Wi-Fi(登録商標)規格に限らず、Bluetooth(登録商標)規格等の他の無線通信でコンテンツを配信してもよい。
 コンテンツ配信装置の例としては、AVレシーバの他にもオーディオアンプ、パーソナルコンピュータ、セットトップボックス等の再生装置、アンプ一体型のスピーカ、またはテレビなどでもよい。クライアント装置の例としては、無線スピーカの他にもオーディオアンプ、AVレシーバ、パーソナルコンピュータ、セットトップボックス等の再生装置、アンプ一体型のスピーカ、またはテレビなどでもよい。
 本実施形態の説明は、すべての点で例示であって、制限的なものではない。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲には、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
900…コンテンツ配信システム
100…AVレシーバ
150…プレーヤ
170…NAS
200L,200R…スピーカ
210…テレビ
301SL,301SR…無線スピーカ
500…無線アクセスポイント
1…CPU
2…メモリ
3…DSP
4…無線モジュール
5…AMP
6…HDMI
7…操作ボタン
10…外部入力部
12…コンテンツ受信部
14…音声出力部
14A…音声出力端子
15…バッファ
16…配信部
17…バッファ
18…映像出力部
19…バッファ
31…CPU
32…メモリ
34…無線モジュール
35…AMP

Claims (10)

  1.  少なくとも基本成分を有する第1コンテンツが入力される外部入力部と、
     基本成分及び拡張成分を有する第2コンテンツを受信するコンテンツ受信部と、
     前記第1コンテンツを配信する場合、前記第1コンテンツの基本成分を、クライアント装置へ複数回配信する、配信部と、
     を備えた、コンテンツ配信装置。
  2.  前記第2コンテンツを一時保持するバッファをさらに備え、
     前記配信部は、前記第2コンテンツを配信する場合、前記第2コンテンツの基本成分及び拡張成分を前記バッファに一時保持させてから配信する、
     請求項1に記載のコンテンツ配信装置。
  3.  前記第2コンテンツを一時保持する第2バッファと、
     前記第2バッファに保持された前記第2コンテンツを再生する再生部と、
     を備えた請求項2に記載のコンテンツ配信装置。
  4.  前記配信部は、前記第1コンテンツを配信する場合、前記クライアント装置との接続状態を確認せずに、該第1コンテンツの基本成分を配信する、
     請求項1~3のいずれかに記載のコンテンツ配信装置。
  5.  前記配信部は、前記第1コンテンツを配信する場合、該第1コンテンツの拡張成分を配信しない、
     請求項1~4のいずれかに記載のコンテンツ配信装置。
  6.  前記配信部は、前記第1コンテンツを配信し、かつ配信先の前記クライアント装置の台数が所定台数以上の場合、該第1コンテンツの拡張成分を配信せず、前記基本成分を配信する、
     請求項1~5のいずれかに記載のコンテンツ配信装置。
  7.  前記基本成分は、非可逆圧縮されたデータであり、
     前記拡張成分は、前記基本成分を補正するためのデータである、
     請求項1~6のいずれかに記載のコンテンツ配信装置。
  8.  前記基本成分は、コネクションレス型通信で伝送される、請求項1~7のいずれかに記載のコンテンツ配信装置。
  9.  請求項1~請求項8のいずれかに記載のコンテンツ配信装置と、
     前記コンテンツ配信装置から前記第1コンテンツまたは前記第2コンテンツを受信するクライアント装置と、
     を備えたコンテンツ配信システム。
  10.  少なくとも基本成分を有する第1コンテンツを入力、または基本成分及び拡張成分を有する第2コンテンツを受信し、
     前記第1コンテンツを配信する場合、前記第1コンテンツの基本成分を、クライアント装置へ複数回配信する、
     コンテンツ配信方法。
PCT/JP2016/073061 2015-08-19 2016-08-05 コンテンツ配信装置、コンテンツ配信システム、およびコンテンツ配信方法 WO2017030015A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/724,700 US10448156B2 (en) 2015-08-19 2017-10-04 Content delivery apparatus, content delivery system and content delivery method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-162183 2015-08-19
JP2015162183A JP6582722B2 (ja) 2015-08-19 2015-08-19 コンテンツ配信装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/724,700 Continuation US10448156B2 (en) 2015-08-19 2017-10-04 Content delivery apparatus, content delivery system and content delivery method

Publications (1)

Publication Number Publication Date
WO2017030015A1 true WO2017030015A1 (ja) 2017-02-23

Family

ID=58050941

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/073061 WO2017030015A1 (ja) 2015-08-19 2016-08-05 コンテンツ配信装置、コンテンツ配信システム、およびコンテンツ配信方法

Country Status (3)

Country Link
US (1) US10448156B2 (ja)
JP (1) JP6582722B2 (ja)
WO (1) WO2017030015A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3025535B1 (en) * 2013-07-23 2019-05-15 D&M Holdings, Inc. Remote system configuration using audio ports
US10752454B2 (en) 2016-04-14 2020-08-25 Richard S. Burns & Company, Inc. Debris carts and systems and methods of using same
JP7059013B2 (ja) 2018-01-05 2022-04-25 キヤノン株式会社 画像形成装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004266330A (ja) * 2003-01-30 2004-09-24 Matsushita Electric Ind Co Ltd 通信端末装置及びその制御方法
JP2010088029A (ja) * 2008-10-02 2010-04-15 Nec Corp コンテンツ配信システム、配信装置、再生装置、配信方法、再生方法およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4289129B2 (ja) * 2003-11-18 2009-07-01 ヤマハ株式会社 オーディオ配信システム
US8086331B2 (en) * 2005-02-01 2011-12-27 Panasonic Corporation Reproduction apparatus, program and reproduction method
US9237407B2 (en) * 2005-08-04 2016-01-12 Summit Semiconductor, Llc High quality, controlled latency multi-channel wireless digital audio distribution system and methods
JP2009111882A (ja) * 2007-10-31 2009-05-21 Toshiba Corp 動画像およびオーディオ再生装置およびオーディオ再生方法
USRE48946E1 (en) * 2008-01-07 2022-02-22 D&M Holdings, Inc. Systems and methods for providing a media playback in a networked environment
JP2014131140A (ja) * 2012-12-28 2014-07-10 Yamaha Corp 通信システム、avレシーバ、および通信アダプタ装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004266330A (ja) * 2003-01-30 2004-09-24 Matsushita Electric Ind Co Ltd 通信端末装置及びその制御方法
JP2010088029A (ja) * 2008-10-02 2010-04-15 Nec Corp コンテンツ配信システム、配信装置、再生装置、配信方法、再生方法およびプログラム

Also Published As

Publication number Publication date
US20180027328A1 (en) 2018-01-25
JP6582722B2 (ja) 2019-10-02
US10448156B2 (en) 2019-10-15
JP2017041743A (ja) 2017-02-23

Similar Documents

Publication Publication Date Title
JP7120997B2 (ja) オーディオとビデオのマルチモード同期レンダリング
TWI545971B (zh) 藍牙發聲裝置的音頻同步方法
US9837093B2 (en) Packet based delivery of multi-channel audio over wireless links
US10587954B2 (en) Packet based delivery of multi-channel audio over wireless links
CN102893542A (zh) 用于在车辆中使数据同步的方法和设备
WO2017030015A1 (ja) コンテンツ配信装置、コンテンツ配信システム、およびコンテンツ配信方法
JP6122626B2 (ja) 復号装置およびプログラム
US9788140B2 (en) Time to play
KR100917716B1 (ko) 네트워크를 이용한 전관 방송 시스템의 로컬 방송 장치
WO2017141977A1 (ja) オーディオ機器および制御方法
JP4986229B2 (ja) 同期した異なる種類のストリーミングデータを受信し且つ同時に再生する受信システム、受信装置及びプログラム
JP6541933B2 (ja) 信号処理装置及び信号処理方法
US10209952B2 (en) Content reproduction device, content reproduction system, and control method for a content reproduction device
JP6972576B2 (ja) 通信装置、通信システム、通信方法及びプログラム
US10531160B2 (en) Content transmission apparatus, content delivery system, and content transmission method
JP2008271415A (ja) 受信音声出力装置
US11438400B2 (en) Content data delivery system, server, and content data delivery method
JP6578808B2 (ja) コンテンツデータ受信装置
KR100793790B1 (ko) 무선 비디오 시스템 및 이 무선 비디오 시스템에서 신호를처리하는 방법
JP2013135355A (ja) 通信システム
JP2013093750A (ja) パケット通信方法及びそのための装置
JP2017017383A (ja) 送信装置、送信方法、並びに、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16837005

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16837005

Country of ref document: EP

Kind code of ref document: A1