WO2016009863A1 - サーバ装置、およびサーバ装置の情報処理方法、並びにプログラム - Google Patents

サーバ装置、およびサーバ装置の情報処理方法、並びにプログラム Download PDF

Info

Publication number
WO2016009863A1
WO2016009863A1 PCT/JP2015/069380 JP2015069380W WO2016009863A1 WO 2016009863 A1 WO2016009863 A1 WO 2016009863A1 JP 2015069380 W JP2015069380 W JP 2015069380W WO 2016009863 A1 WO2016009863 A1 WO 2016009863A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
content
reproduction
adjustment
playback device
Prior art date
Application number
PCT/JP2015/069380
Other languages
English (en)
French (fr)
Inventor
竜二 徳永
弘行 福地
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2016534368A priority Critical patent/JP6588016B2/ja
Priority to US15/323,005 priority patent/US20170142178A1/en
Publication of WO2016009863A1 publication Critical patent/WO2016009863A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/173Transcoding, i.e. converting between two coded representations avoiding cascaded coding-decoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/611Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for multicast or broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4852End-user interface for client configuration for modifying audio parameters, e.g. switching between mono and stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • H04N21/2335Processing of audio elementary streams involving reformatting operations of audio signals, e.g. by converting from one coding standard to another

Definitions

  • the present technology relates to a server device, an information processing method for the server device, and a program, and in particular, a state optimal for the performance of the playback device without adding a special configuration to the playback device when playing back content distributed from the server.
  • the present invention relates to a server device that can be adjusted to the content of the content and can be played back by the playback device, an information processing method of the server device, and a program.
  • a service of viewing content streamed from a server using a mobile terminal typified by a smartphone or a television receiver is widely used (see, for example, Patent Document 1).
  • a mobile terminal likes the content that was being viewed, so there are times when it is desired to view it on a high-quality playback device such as a television receiver or an audio system installed in a residence.
  • a high-quality playback device such as a television receiver or an audio system installed in a residence.
  • the user views the content that has been viewed on the mobile terminal up to now using a high-quality playback device such as a television receiver or an audio system.
  • the user expects to be able to view with more powerful high-quality images and sounds by using a high-quality playback device such as a television receiver or an audio system.
  • a high-quality playback device such as a television receiver or an audio system.
  • the playback device has a DSP (Digital Signal Processor) for performing image improvement processing and sound quality improvement processing, and by improving the image quality and sound quality with the DSP, the distributed content is improved in quality. Output as images and sound.
  • DSP Digital Signal Processor
  • This technology improves the content to sound and images suitable for the performance of the playback device without adding a special configuration to the playback device, and allows the improved content to be viewed.
  • a server device includes an adjustment unit that adjusts content data of the content so as to correspond to the playback function of the playback device in the server device that distributes the content to the playback device.
  • the analysis unit analyzes the frequency characteristics and phase characteristics of the sound output from the playback device, and the adjustment information storage unit determines the frequency of the playback function of the playback device based on the analysis result of the analysis unit. Adjustment information necessary for adjusting the content data is stored so as to correspond to the characteristics and phase characteristics, and the adjustment unit is configured to store the frequency characteristics and phase of the playback function of the playback device based on the adjustment information.
  • the content data can be adjusted to correspond to the characteristics.
  • the analysis unit is configured to analyze presence / absence of a virtualizer of the reproduction device based on sound output from the reproduction device
  • the adjustment information storage unit is configured to analyze the reproduction based on an analysis result of the analysis unit.
  • the analysis unit causes the encoding format of the reproduction device to be analyzed based on the sound output from the reproduction device, and the adjustment information storage unit includes the reproduction device based on the analysis result of the analysis unit.
  • Information indicating an encoding format corresponding to the reproduction function is stored as adjustment information, and the adjustment unit is configured to have an encoding format corresponding to the reproduction function of the reproduction device based on the adjustment information.
  • Content data can be processed and adjusted.
  • the analysis unit is configured to analyze the number of channels of the playback device based on sound output from the playback device
  • the adjustment information storage unit is configured to analyze the number of channels of the playback device based on the analysis result of the analysis unit.
  • Information indicating the number of channels corresponding to the playback function is stored as adjustment information
  • the adjustment unit stores the content data so that the number of channels corresponds to the playback function of the playback device based on the adjustment information. It can be made to adjust by processing.
  • the analysis unit is configured to analyze the sampling frequency of the playback device based on the sound output from the playback device
  • the adjustment information storage unit is configured to analyze the playback device based on the analysis result of the analysis unit.
  • Information indicating the sampling frequency corresponding to the playback function is stored as adjustment information
  • the adjustment unit stores the content data so that the number of samplings corresponding to the playback function of the playback device is based on the adjustment information. Perform sampling rate conversion to adjust.
  • the playback device may include a sound quality adjustment unit that adjusts the sound quality of the content to be played back, and the server device includes a command output unit that outputs a command for stopping the operation of the sound quality adjustment unit.
  • the analysis unit causes the command output unit to analyze the sound output from the playback device in both the operating state and the stopped state by the sound quality adjusting unit,
  • the adjustment information storage unit corresponds to the reproduction function for each reproduction device based on the analysis result of the analysis unit for each of the operating state and the stopped state by the sound quality adjustment unit.
  • Adjustment information necessary for adjustment of content data is stored in association with information for identifying the playback device, and the adjustment unit is in an operating state by the sound quality adjustment unit Preliminary based on the adjustment information for each of the states in the stop may be so as to be adjusted to correspond to the playback function of the playback device.
  • the content may include content distributed by broadcast waves.
  • a time stamp that takes into account a delay that occurs when the content data is adjusted by the adjustment unit. It further includes a delay processing unit that performs reassignment.
  • the server device constitutes a distribution system together with a portable terminal that collects sound output from the reproduction device, and the reproduction device, and the reproduction unit collects sound from the portable terminal. You may make it analyze the audio
  • the server device may include a cloud server device including a plurality of server devices connected via a network.
  • An information processing method for a server device is an information processing method for a server device that distributes content to a playback device, and adjusts content data of the content so as to correspond to the playback function of the playback device. Including the steps of:
  • a program according to one aspect of the present technology is a computer that controls a server device that distributes content to a playback device, and functions as an adjustment unit that adjusts content data of the content so as to correspond to the playback function of the playback device To be executed.
  • the content data of the content is adjusted so as to correspond to the playback function of the playback device.
  • the server device may be an independent device or a block that functions as a server device.
  • FIG. 11 is a diagram illustrating a configuration example of a general-purpose personal computer.
  • FIG. 1 shows a configuration example of a general content distribution system.
  • the television receiver 14 includes a portable terminal 11, a cloud server device 12, an audio system 13, and television receivers 14-1 and 14-2.
  • the television receiver 14 is simply referred to, and the other configurations are also referred to in the same manner.
  • the cloud server device 12 is configured such that a plurality of servers (computers) are organically configured via a network and function as a single server. Content is stored in the mobile terminal 11, the audio system 13, and a television receiver. It is distributed in response to requests from 14-1 and 14-2.
  • the mobile terminal 11 is, for example, a so-called smartphone, and requests the cloud server device 12 to distribute content, receives the content distributed in response to the request, and reproduces the image and sound.
  • the audio system 13 requests the cloud server device 12 to distribute content via the network, receives the content distributed from the cloud server device 12, and reproduces sound.
  • the television receivers 14-1 and 14-2 request content distribution to the cloud server device 12 via the network, receive the content distributed from the cloud server device 12, and display them as images and sounds. Reproduce.
  • the cloud server is used from the audio system 13 or the television receiver 14.
  • the content is requested from the device 12 and the content distributed in response to the request is viewed.
  • the audio system 13 and the television receiver 14 output the image and sound of the content distributed from the cloud server device 12, the content image and sound data are not necessarily stored in the audio system 13 and the television. It may not be optimized for HW (Hard Ware) performance of John receiver 14 and may not be able to fully demonstrate the performance and the output image and sound may not be of high quality. There is.
  • HW Hard Ware
  • the audio system 13 or the television receiver 14 is provided with a DSP (Digital Signal Processor) so that it can be optimized and improved to have more powerful images and sounds.
  • DSP Digital Signal Processor
  • a server apparatus 31 includes a server apparatus 31, a network 32, a television receiver 33, and a portable terminal 34.
  • an audio system that reproduces only the audio of the content may be included.
  • the server device 31 may be configured by a cloud system together with the network 32. Therefore, in FIG. 2, it is configured by one server device 31, but may be realized by a cloud server device including a plurality of computers including the network 32.
  • the server device 31 includes a control unit 51, a communication unit 52, an audio data acquisition unit 53, a corresponding function determination unit 54, a reproduction device-specific database 55, a performance measurement unit 56, a correction parameter calculation unit 57, and an audio adjustment unit. 58, a content storage unit 59, a command transmission unit 60, and a measurement sound source data storage unit 61.
  • the control unit 51 includes a microcomputer having a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory), and controls the entire operation of the server device 31.
  • a CPU Central Processing Unit
  • RAM Random Access Memory
  • ROM Read Only Memory
  • the communication unit 52 includes an Ethernet (registered trademark) board and the like, and exchanges various data with the television receiver 33 and the portable terminal 34 via the network 32.
  • Ethernet registered trademark
  • the audio data acquisition unit 53 acquires audio data consisting of audio generated by the television receiver 33 collected by the mobile terminal 34 and transmitted from the mobile terminal 34 via the communication unit 52. And output to the corresponding function determination unit 54 and the performance measurement unit 56.
  • the corresponding function determination unit 54 analyzes the audio data and determines the corresponding function as a playback device such as the codec, sampling frequency, number of channels, and presence / absence of virtualization of the television receiver 33, and the television which is the playback device
  • the data is registered in the reproduction device-specific database 55 in association with information for identifying the receiver 33.
  • the performance measurement unit 56 analyzes the audio data, determines the frequency characteristic and the phase characteristic, and supplies the determination result to the correction parameter calculation unit 57.
  • the correction parameter calculation unit 57 calculates the respective correction parameters based on the frequency characteristics and the phase characteristics, and associates the calculated correction parameters with information for identifying the television receiver 33 that is a playback device, and adjusts the adjustment information. Is registered in the database 55 for each playback device.
  • the reproduction device-specific database 55 stores the codec, the sampling frequency, the number of channels, and the presence / absence of virtualization as information of the corresponding function in association with information for identifying the television receiver 33 which is a reproduction device.
  • a correction parameter calculated based on the frequency characteristic and the phase characteristic is stored as adjustment information. Further, the reproduction device-specific database 55 supplies the stored adjustment information including the corresponding function information and the correction parameter information to the audio adjustment unit 58 in association with the information for identifying the reproduction device.
  • the audio adjusting unit 58 reads out the content requested from the television receiver 33 or the portable terminal 34 as the playback device from the content storage unit 59 and based on the information stored in the database 55 for each playback device. Audio data is adjusted, and the communication unit 52 is controlled to be distributed to the television receiver 33 and the portable terminal 34 which are playback devices.
  • the audio adjustment unit 58 includes a frequency phase characteristic correction processing unit 71, a rate conversion unit 72, a downmix upmix processing unit 73, a transcode processing unit 74, and a delay processing unit 75.
  • the frequency phase specific correction processing unit 71 reads out the data of the content requested to be reproduced from the content storage unit 59, and among these, the audio data is based on the correction parameter stored as the adjustment information in the database 55 for each reproduction device. Thus, the frequency specification and the phase characteristic are corrected.
  • the frequency phase identification correction processing unit 71 supplies the content including the audio data whose frequency identification and phase characteristics are corrected by the correction parameter to the rate conversion unit 72. That is, when an acoustic system is composed of a plurality of speaker units, the frequency characteristics of each speaker are different. Further, since the driving surfaces of the speakers are not necessarily aligned as viewed from the listener's position, the phase characteristics of the speakers are also different.
  • the frequency phase specific correction processing unit 71 corrects the frequency characteristics and phase characteristics of each speaker using the correction parameters, and configures an optimum sound image localization at a position where the listener is present.
  • the rate conversion unit 72 For the audio data of the content requested to be reproduced from the content storage unit 59, the rate conversion unit 72 performs the audio data of the content data based on the sampling frequency information among the adjustment information stored in the reproduction device-specific database 55. The sampling rate is converted and output to the downmix upmix processing unit 73.
  • the downmix upmix processing unit 73 sets the number of channels in the adjustment information stored in the reproduction device database 55 and the presence / absence of a virtualizer for the audio data of the content data requested to be reproduced from the content storage unit 59. Based on the information, the number of channels of the audio data of the content data, a virtualizer addition process, and the like are performed and output to the transcode processing unit 74.
  • the virtualizer here is a process or function for allowing the listener to listen to audio data as if a channel that does not exist physically exists virtually. That is, for example, it is assumed that a two-channel acoustic system is configured in which only two speakers in total exist on the left and right in front of the listener. At this time, two surround speakers are provided on the left and right of the listener as viewed from the listener, so that the processing can be performed as if the sound system is a four-channel sound system generating sound, or The function is a virtualizer.
  • the transcode processing unit 74 performs predetermined compression on the audio data of the content data requested to be reproduced from the content storage unit 59 based on the codec information in the adjustment information stored in the reproduction device-specific database 55.
  • the data is transcoded into a format and output to the delay processing unit 75.
  • the delay processing unit 75 reassigns the time stamp so as to adjust the delay generated for the image according to the time related to the processing of the audio data of the content distributed to the television receiver 33 and outputs the time stamp to the communication unit 52. .
  • the command transmission unit 60 is controlled by the control unit 51 and transmits a command for measuring sound quality and function and a command for starting streaming to the television receiver 33 via the communication unit 52. More specifically, the command transmission unit 60 stores a sound quality function measurement command 91 for measuring sound quality and function for the television receiver 33 and a streaming command 92 for starting streaming. The command transmission unit 60 outputs the sound quality function measurement command 91 and the streaming command 92 to the communication unit 52 and transmits them to the television receiver 33 at appropriate timing.
  • the sound source data storage unit 61 for measurement stores sound source data for measurement for generating sound by the television receiver 33 when measuring sound quality and function, and the control unit 51 when measuring sound quality and function. Is transmitted to the television receiver 33 via the communication unit 52.
  • the television receiver 33 includes a control unit 121, a sound quality adjustment unit 122, a communication unit 123, a speaker 124, a display unit 125, a decode processing unit 126, and an operation input unit 127.
  • the control unit 121 controls the overall operation of the television receiver 23.
  • the sound quality adjustment unit 122 adjusts the sound quality of the audio data of the content transmitted from the server device 31 via the network 32 by the communication unit 123 according to the operation content of the operation input unit 127 including operation buttons. Output from the speaker 124.
  • the communication unit 123 includes an Ethernet (registered trademark) board and the like, and is controlled by the control unit 121 to exchange various data with the server device 31 via the network 32.
  • the display unit 125 includes an LCD (Liquid Crystal Display) or the like, and displays an image of content data received from the server device 31 via the network 32 by the communication unit 123.
  • LCD Liquid Crystal Display
  • the decoding processing unit 126 decodes the content data received from the server device 31 via the network 32 by the communication unit 123, and outputs image data and audio data as decoding results to the control unit 121.
  • the mobile terminal 34 is a so-called smartphone or mobile phone including the control unit 101, the microphone 102, and the communication unit 103.
  • the control unit 101 controls the entire operation of the mobile terminal 34.
  • the microphone 102 is controlled by the control unit 101 to collect sound and supply it to the control unit 101.
  • the control unit 101 controls the communication unit 103 to communicate with another portable terminal 34 through the network 32 or a public line network (not shown), and for example, the supplied audio data is output from the speaker 106.
  • the communication unit 103 includes an Ethernet (registered trademark) board and the like, and is controlled by the control unit 101 to exchange various data with the server device 31 and the television receiver 33 through the network 32.
  • the operation input unit 104 includes operation buttons and the like, and is, for example, a touch panel integrated with a display unit 105 such as an LCD (Liquid Crystal Display), and supplies a signal corresponding to the operation content to the control unit 101.
  • a display unit 105 such as an LCD (Liquid Crystal Display)
  • the portable terminal 34 requests the server device 31 to output sound for measuring the sound quality and function of the television receiver 33. Then, the mobile terminal 34 collects the measurement sound generated by the television receiver 33 and transmits the sound collection result to the server device 31. Then, the server device 31 stores the adjustment information, which is the measurement result of the sound quality and function, in the reproduction device database 55 in association with the identification information of the television receiver 33. Accordingly, the server device 31 can distribute the audio data of the content distributed to the television receiver 33 as being optimal for the function and performance of the television receiver 33 by using the adjustment information. It becomes.
  • step S1 the user operates the operation input unit 104 of the portable terminal 34, and information specifying the television receiver 33 as a playback device (target) for which the user wants to play back content is input.
  • the control unit 101 controls the communication unit 103 to instruct the server device 31 to measure the sound quality function. To send.
  • step S11 the control unit 51 of the server device 31 controls the communication unit 52 to determine whether or not the measurement of the sound quality function is instructed, and repeats the same processing until it is transmitted.
  • step S11 for example, when the measurement of the sound quality function is instructed by the process of step S1, the process proceeds to step S12.
  • step S ⁇ b> 12 the control unit 51 reads the measurement sound source data from the measurement sound source data storage unit 61, controls the command transmission unit 60, and plays the target reproduction via the communication unit 52 together with the sound quality function measurement command 91.
  • the data is transmitted to the television receiver 33 which is a device.
  • step S51 when the control unit 121 controls the communication unit 123 to receive the sound quality function measurement command 91 and the measurement sound source data, the control unit 121 turns off the sound quality adjustment unit 122 and stops the operation. That is, by this process, the sound based on the measurement sound source data output from the speaker 124 of the television receiver 33 is not adjusted by the sound quality adjusting unit 122, and thus the speaker 124 Accurate performance can be measured.
  • step S52 the control unit 121 controls the decode processing unit 126 to decode the measurement sound source data, and outputs it from the speaker 124 as sound. That is, here, the sound decoded based on the measurement sound source data is output as a sound that easily recognizes the characteristics of the speaker 124 and other functions.
  • the measurement sound source data includes a plurality of voice data, and a plurality of functions are provided at predetermined time intervals. The sound for recognizing the sound is sequentially output from the speaker 124 by switching the sound.
  • step S2 the control unit 101 of the portable terminal 34 controls the microphone 102 to collect sound.
  • the microphone 102 is based on the measurement sound source data decoded in the television receiver 33. The sound of the measurement sound source output from the speaker 124 is collected.
  • step S ⁇ b> 3 the control unit 101 compresses audio data based on the measurement sound source collected by the microphone 102 into a predetermined format, controls the communication unit 103, and transmits the compressed data to the server device 31.
  • step S ⁇ b> 13 the control unit 101 controls the communication unit 52 to receive and decompress the collected voice data that has been compressed into a predetermined format and is transmitted from the portable terminal 34. It supplies to the acquisition part 53.
  • step S14 the voice data acquisition unit 53 outputs the supplied voice data, which is the collected sound result, to the corresponding function determination unit 54 and the performance measurement unit 56.
  • the performance measuring unit 56 measures the impulse response based on the voice data.
  • step S15 the performance measurement unit 56 determines whether or not the frequency characteristic is sufficient based on the measurement result of the impulse response. If it is determined that the frequency characteristic is not sufficient, the process proceeds to step S16.
  • step S ⁇ b> 16 the performance measurement unit 56 supplies the measurement result of the voice data and the impulse response to the correction parameter calculation unit 57.
  • the correction parameter calculation unit 57 calculates a correction parameter necessary for correcting the frequency characteristics based on the sound data and the measurement result of the impulse response. Then, the correction parameter calculation unit 57 associates information identifying the television receiver 33 that is the target playback device with information indicating that the frequency characteristics need to be corrected, and corrections necessary for the correction.
  • the parameter is registered in the reproduction device-specific database 55 as adjustment information of the audio data of the content. That is, when it is considered that correction is necessary in the frequency characteristics, the correction parameter calculation unit 57 sets a correction parameter that can constitute a digital filter that generates an inverse impulse response based on the impulse response, for example. calculate.
  • step S15 If it is determined in step S15 that the frequency characteristics are sufficient, the process in step S16 is skipped. That is, in this case, the information that the frequency characteristic needs to be corrected is not registered in the database 55 for each reproduction device, so that the fact that the correction of the frequency characteristic is substantially unnecessary is registered.
  • step S17 the performance measurement unit 56 determines whether or not the phase characteristic is sufficient based on the measurement result. If it is determined that the phase characteristic is not sufficient, the process proceeds to step S18.
  • step S18 the performance measurement unit 56 supplies the sound data and the measurement result to the correction parameter calculation unit 57.
  • the correction parameter calculation unit 57 calculates correction parameters necessary for correcting the phase characteristics based on the audio data and the measurement result. Then, the correction parameter calculation unit 57 associates information identifying the television receiver 33 that is the target playback device with information indicating that the phase characteristic needs to be corrected, and correction necessary for the correction.
  • the parameter is registered in the reproduction device-specific database 55 as adjustment information of the audio data of the content. That is, the correction parameter calculation unit 57 obtains the phase characteristic from the audio data and the measurement result, and calculates a correction parameter for correcting the phase so that the phase difference of each channel becomes 0, for example.
  • step S17 If it is determined in step S17 that the phase characteristics are sufficient, the process in step S18 is skipped. In other words, in this case, the information that the phase characteristic needs to be corrected is not registered in the database 55 for each reproduction device, so that the fact that the correction of the phase characteristic is substantially unnecessary is registered.
  • step S19 the corresponding function determination unit 54 measures the codec based on the audio data.
  • step S20 the corresponding function determination unit 54 determines whether or not the codec used for the content to be distributed is a codec that can be supported by the television receiver 33. Proceed to step S21.
  • step S21 the corresponding function determination unit 54 associates information indicating that transcoding is necessary with information for identifying the television receiver 33, which is the target reproduction device, as adjustment information for each reproduction device. Register in the database 55.
  • step S20 If it is determined in step S20 that the transcoding is sufficient, the process of step S21 is skipped. That is, in this case, the information that the transcode is necessary is not registered in the database 55 for each reproduction device, so that the fact that the transcode is substantially unnecessary is registered.
  • step S22 the corresponding function determination unit 54 measures the sampling frequency and the number of channels based on the audio data.
  • the control unit 51 uses, as the measurement sound source data for the number of channels stored in the measurement sound source data storage unit 61, a 1ch sound source, a 2ch sound source, a 5.1ch sound source, and The 7.1ch sound source transmits the following sound source data to the television receiver 33.
  • the 1ch sound source is a sound source including only a sine wave of 100 Hz
  • R (right) 200Hz
  • C (center) 500Hz
  • Ls (surround left) 1kHz
  • Rs (surround right) 2kHz
  • LFE (low frequency effect) Sound) A sound source containing only a 50Hz sine wave.
  • L (left) 100Hz
  • R (right) 200Hz
  • C (center) 500Hz
  • Ls (surround left) 1kHz
  • Rs (surround right) 2kHz
  • Lrs (surround rear left) ) 3kHz
  • Rsr (surround rear right) 4kHz
  • LFE (low frequency sound effect) 50Hz.
  • step S52 the control unit 121 of the television receiver 33 controls the decoding processing unit 126 to decode the measurement sound source data, and from the speaker 124, the 1ch sound source, the 2ch sound source, the 5.1ch sound source, and the 7.1ch Output sound sources in order.
  • the control unit 121 displays a message indicating that playback is impossible on the display unit 125 and sign waves other than the 1ch sound source, 2ch sound source, 5.1ch sound source, and 7.1ch sound source ( For example, a sound of 5 kHz is output from the speaker 124.
  • control unit 101 of the portable terminal 34 collects sound by the microphone 102 and transmits a sound file as a sound collection result to the server device 31.
  • the corresponding function determination unit 54 of the server device 31 performs frequency analysis to recognize that the number of channels of the measurement sound source reproduced immediately before is not compatible if a frequency component of 5 kHz is included.
  • step S23 the corresponding function determination unit 54 determines whether or not the sampling frequency used for the content to be distributed is a sampling frequency that can be supported by the television receiver 33. Advances to step S24.
  • step S24 the corresponding function determination unit 54 reproduces the information indicating that the sampling frequency needs to be converted as the adjustment information in association with the information for identifying the television receiver 33 that is the target reproduction device. Register in the device-specific database 55.
  • step S23 If it is determined in step S23 that the sampling frequency is compatible, the process in step S24 is skipped. That is, in this case, the information that the sampling frequency conversion is necessary is not registered in the database 55 for each reproduction device, so that the fact that the sampling frequency conversion is substantially unnecessary is registered.
  • step S25 the corresponding function determination unit 54 determines whether or not the number of channels that can be supported by the television receiver 33 is greater than 5.1 channels. If the number of channels that can be supported is not greater than 5.1, the process proceeds to step S26. move on. That is, since the audio data of the normal content is 5.1 channels, it is determined whether or not the number of channels is larger than this.
  • step S ⁇ b> 26 the corresponding function determination unit 54 associates information indicating that an upmix for increasing the number of channels is necessary with information for identifying the television receiver 33 that is the target playback device, and adjusts the adjustment information. Is registered in the database 55 for each playback device.
  • step S25 when the number of channels that can be handled by the television receiver 33 is not more than 5.1 channels, in step S27, the corresponding function determining unit 54 has a number of channels that can be handled by the television receiver 33 being less than 5.1 channels. If the number of channels is less than 5.1 and the correspondence is not possible, the process proceeds to step S28.
  • step S ⁇ b> 28 the corresponding function determination unit 54 associates information indicating that the downmix for reducing the number of channels is necessary with information for identifying the television receiver 33 that is the target playback device, and adjusts the adjustment information. Is registered in the database 55 for each playback device.
  • step S27 If it is determined in step S27 that the number of channels is 5.1ch and can be handled, the process in step S28 is skipped. That is, in this case, the information that the up-mix or down-mix of the number of channels is necessary is not registered in the database 55 for each playback device. Will be registered.
  • step S29 the corresponding function determination unit 54 measures the presence / absence of a virtualizer based on the audio data.
  • step S52 the control unit 121 of the television receiver 33, for example, controls the decoding processing unit 126 to decode the measurement sound source data and aligns the reproduction start position from the speaker 124 for all channels.
  • a Wav sound source having a different frequency for each channel is output from the speaker 124.
  • the control unit 101 of the portable terminal 34 collects sound with the microphone 102 and transmits an audio file as a sound collection result to the server device 31.
  • the corresponding function determination unit 54 of the server device 31 causes a delay due to the filtering process in the virtualization process with respect to the surround component, and if relative, the surround component is delayed compared to other front channels. Therefore, the presence or absence of a virtualizer may be measured based on the presence or absence of this delay.
  • step S30 the corresponding function determination unit 54 determines whether or not the virtualizer is applied. If it is determined that the virtualizer is not applied, the process proceeds to step S31.
  • step S31 the performance measurement unit 56 associates information indicating that it is necessary to apply a virtualizer with information for identifying the television receiver 33, which is the target playback device, as adjustment information for each playback device. Register in the database 55.
  • step S30 If it is determined in step S30 that the virtualizer is applied, the process in step S31 is skipped. That is, in this case, the information that the virtualizer needs to be applied is not registered in the database 55 for each reproduction device, so that the fact that the virtualizer need not be applied is substantially registered.
  • the sound quality and function of the television receiver as the content playback device are measured, so that the frequency characteristics and phase characteristics are associated with the information for identifying the playback device in the playback device database 55.
  • the correction parameter the presence / absence of transcoding, the presence / absence of sampling frequency conversion, the presence / absence of upmix and downmix according to the number of channels, and the presence / absence of virtualizer
  • the adjustment information is registered.
  • the content is adjusted and distributed to the optimum audio data for each reproduction device that reproduces the content. Is possible.
  • step S71 when the operation input unit 127 of the television receiver 33 is operated by the user and instructed to reproduce the specified content, the operation input unit 127 controls an operation signal corresponding to the operation content. Output to the unit 121.
  • step S ⁇ b> 72 the control unit 121 controls the communication unit 123 to transmit a request for reproduction of the designated content to the server apparatus 31 via the network 32 together with identification information for identifying its own television receiver 33.
  • step S91 the control unit 51 controls the communication unit 52 to acquire identification information and information for requesting reproduction of the designated content from the television receiver 33 via the network 32.
  • step S92 the audio adjusting unit 58 is instructed to read out the designated content together with the identification information of the television receiver 33 that has requested the reproduction of the content, and apply the audio adjustment.
  • step S93 the frequency phase characteristic correction processing unit 71 of the audio adjustment unit 58 reads the data of the designated content from the content storage unit 59. Further, the frequency phase characteristic correction processing unit 71 reads the adjustment information registered in the reproduction apparatus database 55 in association with the television receiver 33 as the reproduction apparatus specified by the identification information, and corrects the frequency characteristic. It is determined whether or not is necessary.
  • step S93 for example, if it is determined that the frequency characteristic needs to be corrected, the process proceeds to step S94.
  • step S94 the phase frequency characteristic correction processing unit 71 uses the correction parameter included in the adjustment information for the audio data of the content data to correspond to the television receiver 33 that has requested the reproduction of the content with the frequency characteristic. Correct as follows.
  • step S93 for example, when it is determined that the frequency characteristic does not need to be corrected, the process of step S94 is skipped.
  • step S95 the frequency phase characteristic correction processing unit 71 reads out the adjustment information registered in the reproduction apparatus database 55 in association with the television receiver 33 as the reproduction apparatus specified by the identification information, and outputs the phase characteristic. It is determined whether or not correction is necessary.
  • step S95 for example, when it is determined that the phase characteristic needs to be corrected, the process proceeds to step S96.
  • step S96 the phase frequency characteristic correction processing unit 71 uses the correction parameter included in the adjustment information for the audio data of the content data to correspond to the television receiver 33 that has requested the reproduction of the content with the phase characteristic.
  • the content data is output to the rate conversion unit 72.
  • step S95 for example, when it is determined that the phase characteristics do not need to be corrected, the processing in step S96 is skipped and the content data is output to the rate conversion unit 72.
  • step S97 the rate conversion unit 72 reads the adjustment information registered in the reproduction device-specific database 55 in association with the television receiver 33 as the reproduction device specified by the identification information, and converts the sampling rate. Determine whether it is necessary.
  • step S97 for example, if it is determined that the sampling rate needs to be converted, the process proceeds to step S98.
  • step S ⁇ b> 98 the rate conversion unit 72 converts the sampling rate of the audio data of the content data so as to correspond to the television receiver 33 that has requested the reproduction of the content, and supplies it to the downmix upmix processing unit 73. .
  • step S97 for example, if it is determined that conversion of the sampling rate is not necessary, the process of step S98 is skipped, and the content data is supplied to the downmix upmix processing unit 73.
  • step S99 the downmix upmix processing unit 73 reads out the adjustment information registered in the reproduction device-specific database 55 in association with the television receiver 33 as the reproduction device specified by the identification information, and upmixes it. It is determined whether or not is necessary.
  • step S99 for example, if it is determined that upmixing is necessary, the process proceeds to step S100.
  • step S100 the downmix upmix processing unit 73 upmixes the audio data of the content data so as to correspond to the television receiver 33 that has requested the reproduction of the content.
  • step S99 when it is determined in step S99 that, for example, no upmixing is necessary, the process proceeds to step S101.
  • step S101 the downmix upmix processing unit 73 reads out the adjustment information registered in the reproduction device database 55 in association with the television receiver 33 as the reproduction device specified by the identification information, and performs the downmix. It is determined whether or not is necessary.
  • step S101 for example, when it is determined that downmixing is necessary, the process proceeds to step S102.
  • step S102 the downmix upmix processing unit 73 downmixes the audio data of the content data so as to correspond to the television receiver 33 that has requested the reproduction of the content.
  • step S101 for example, when it is determined that the downmix is not necessary, the process of step S102 is skipped.
  • step S103 the downmix upmix processing unit 73 reads out the adjustment information registered in the reproduction device database 55 in association with the television receiver 33 as the reproduction device specified by the identification information, and the virtualizer It is determined whether or not is necessary.
  • step S103 for example, if it is determined that a virtualizer is necessary, the process proceeds to step S104.
  • step S104 the downmix upmix processing unit 73 applies a virtualizer to the transcoding processing unit 74 for the audio data of the content data so as to correspond to the television receiver 33 that has requested the reproduction of the content. To do.
  • step S103 for example, when it is determined that a virtualizer is not necessary, the processing in step S104 is skipped, and the content data is supplied to the transcode processing unit 74.
  • step S105 the transcode processing unit 74 reads the adjustment information registered in the reproduction device-specific database 55 in association with the television receiver 33 as the reproduction device specified by the identification information, and the television receiver. It is determined whether or not transcoding according to 33 is necessary.
  • step S105 for example, if it is determined that transcoding is necessary, the process proceeds to step S106.
  • step S106 the transcode processing unit 74 transcodes the audio data of the content data so as to correspond to the television receiver 33 that has requested the reproduction of the content, and supplies it to the delay processing unit 75.
  • step S105 for example, if it is determined that transcoding is not necessary, the processing in step S106 is skipped, and the content data is supplied to the delay processing unit 75.
  • step S107 the delay processing unit 75 reassigns the time stamp of the content data subjected to various processes according to the delay time generated by the process.
  • the server device 31 distributes the content stored by itself, it is possible to output the image and the sound at the same time. In this case, the time stamp need not be reassigned.
  • the processing here is, for example, delayed when content is read from an external server, image adjustment is not performed, and only audio data is adjusted by the adjustment information registered in the reproduction device-specific database 55. This is a process performed to adjust the timing of an image that does not generate time and a sound that has a delay associated with the process.
  • step S108 the control unit 51 controls the command transmission unit 60 to transmit the streaming command to the television receiver 33 via the communication unit 52.
  • the command transmission unit 60 transmits the streaming command 92 to the television receiver 33 via the communication unit 52 and the network 32.
  • step S73 when the control unit 121 of the television receiver 33 controls the communication unit 123 to receive the streaming command 92, the control unit 121 recognizes that the stream is started and controls the sound quality adjustment unit 122. Stop adjusting the sound quality.
  • step S110 the control unit 51 of the server device 31 causes the audio adjustment unit 58 to output the content data to the communication unit 52, and transmits the content data to the television receiver 33 via the network 32.
  • step S74 the control unit 121 of the television receiver 33 controls the communication unit 123 to receive the content data, and also controls the decode processing unit 126 to decode the image based on the decoded content data. While displaying on the display part 125, a sound is output from the speaker 124 and a content is reproduced
  • the playback device is the television receiver 33
  • any other device may be used as long as the playback device has an audio output, such as an audio system. It may be.
  • the same operation can be realized by the same method.
  • the content of the content including appropriate audio data considering the necessary frequency characteristics and phase characteristics, transcoding, sampling frequency, number of channels, and virtualizer according to the playback device that outputs the audio of the content. Distribution can be realized.
  • the image display function is also optimized by applying the above-described method. You may make it show. That is, the image data for measurement is displayed on the television receiver 33, and the mobile terminal 34 captures an image. Based on the imaging result, the server device 31 displays an optimum image when the television receiver 33 displays the content. It is also possible to adjust the content data so that it can be displayed and supply it to the television receiver 33 for display. By applying such processing to both the audio data and the image data, both the audio data and the image data can be reproduced in an optimum state by the reproduction apparatus.
  • the sound quality adjustment unit 122 is registered both when the adjustment information is registered (when the sound quality function measurement process is executed) and when the content is reproduced (when the content output process is executed).
  • An example of stopping the function has been described.
  • the function of the sound quality adjustment unit 122 may not be stopped.
  • the adjustment information when the function of the sound quality adjustment unit 122 is stopped and the adjustment information when the function is not stopped may be registered in the playback device database 55, and may be used properly according to each state.
  • the server device (cloud server device) 31 distributes audio data in content requested by the playback device in a state optimized for the audio output function of the playback device. Is received via a broadcast wave by the television receiver 33, and the received content is supplied to the server device 31, converted into optimum audio data based on the adjustment information, and then again received by the television receiver You may make it transmit to the apparatus 33 and make it reproduce
  • step S201 the television receiver 33 receives the content distributed by the broadcast wave (Broadcast in the figure).
  • step S202 the television receiver 33 transmits the content distributed by the broadcast wave (Broadcast in the figure) to the cloud server apparatus (server apparatus in FIG. 2) 31 as TS (Transport) Stream.
  • step S ⁇ b> 203 the server device 31 uses the adjustment information registered in the above-described reproduction device-specific database 55 to transmit the AV stream including the content subjected to the audio data optimization processing to the television receiver 33. .
  • step S204 the television receiver 33 reproduces the content composed of the optimized audio data.
  • the cloud server device 31 has made the audio data optimal for the performance of the audio output function of the television receiver 33. It is possible to play in the state.
  • server device 31 stores the adjustment information of the reproduction device in the reproduction device-specific database 55 and optimizes the audio data using the adjustment information.
  • the function of storing the adjustment information of the reproduction apparatus in the reproduction apparatus database 55 and the function of optimizing the audio data using the adjustment information may be realized by separate apparatus configurations.
  • a cloud server device 31 having a function of storing adjustment information of a reproduction device in the reproduction device-specific database 55, and a function of optimizing audio data using a parameter composed of the adjustment information You may make it be a delivery system which consists of the portable terminal 34 provided with.
  • step S221 the television receiver 33 receives content distributed by broadcast waves (Broadcast in the figure).
  • step S222 the television receiver 33 transmits the TS stream of the content distributed by the broadcast wave (Broadcast in the figure) to the portable terminal 34 having the function of optimizing the audio data using the adjustment information.
  • step S223 the server device (cloud server device) 31 having a function of storing the adjustment information of the reproduction device (television receiver 33) in the reproduction device-specific database 55 transmits a parameter including the adjustment information to the portable terminal 34. To do.
  • step S224 the mobile terminal 34 uses the parameter composed of the adjustment information supplied from the server device (cloud server device) 31 to realize the optimization processing of the audio data of the content, and the AV ⁇ ⁇ ⁇ ⁇ ⁇ Stream of the optimized content Is transmitted to the television receiver 33.
  • step S225 the television receiver 33 reproduces the content composed of the optimized audio data.
  • the content distributed by the broadcast wave and received by the television receiver 33 is converted into the television receiver 33 by the parameter including the adjustment information supplied from the cloud server device 31 by the mobile terminal 34.
  • the television receiver 33 can reproduce the content composed of the optimum sound data.
  • the server device (cloud server device) 31 stores the adjustment information of the reproduction device in the reproduction device-specific database 55, and the television receiver 33 uses the adjustment information to transmit the content distributed by the broadcast wave.
  • An example of optimizing audio data has been described.
  • the content data to be played back may be content other than the content distributed by the broadcast wave.
  • the content data to be played back is stored in the playback device-specific database 55 and the sound parameter is used by using a parameter consisting of the adjustment information.
  • the function of optimizing the data is realized by an individual device configuration, and the mobile terminal 34 optimizes the audio data of the content stored in the server, and then supplies the data to the television receiver 33 for reproduction. Good.
  • the cloud server device 31 having a function of storing the adjustment information of the reproduction device in the database 55 for each reproduction device, and the sound data are optimized by using the parameter including the adjustment information
  • the mobile terminal 34 may be configured to read out content data from the content server 201.
  • step S231 the server device (cloud server device) 31 having a function of storing the adjustment information of the reproduction device (television receiver 33) in the reproduction device-specific database 55 is adjusted.
  • a parameter composed of information is transmitted to the portable terminal 34.
  • step S232 the portable terminal 34 having the function of optimizing the audio data using the parameter composed of the adjustment information reads the content from the content server 201.
  • step S233 the mobile terminal 34 optimizes the audio data of the content data read from the content server 201 by using the parameters including the adjustment information supplied from the server device (cloud server device) 31, and optimizes the audio data.
  • the AV stream of the converted content is transmitted to the television receiver 33.
  • step S234 the television receiver 33 reproduces the content composed of the optimized audio data.
  • the content stored in the content server 201 is optimized for the performance of the audio output function of the television receiver 33 by the mobile terminal 34 based on the parameters composed of the adjustment information supplied by the cloud server device 31.
  • the television receiver 33 can reproduce the content including the optimum audio data.
  • the above-described series of processing can be executed by hardware, but can also be executed by software.
  • a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.
  • FIG. 8 shows a configuration example of a general-purpose personal computer.
  • This personal computer incorporates a CPU (Central Processing Unit) 1001.
  • An input / output interface 1005 is connected to the CPU 1001 via a bus 1004.
  • a ROM (Read Only Memory) 1002 and a RAM (Random Access Memory) 1003 are connected to the bus 1004.
  • the input / output interface 1005 includes an input unit 1006 including an input device such as a keyboard and a mouse for a user to input an operation command, an output unit 1007 for outputting a processing operation screen and an image of the processing result to a display device, programs, and various types.
  • a storage unit 1008 including a hard disk drive for storing data, a LAN (Local Area Network) adapter, and the like are connected to a communication unit 1009 that executes communication processing via a network represented by the Internet.
  • magnetic disks including flexible disks
  • optical disks including CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc)), magneto-optical disks (including MD (Mini Disc)), or semiconductors
  • a drive 1010 for reading / writing data from / to a removable medium 1011 such as a memory is connected.
  • the CPU 1001 is read from a program stored in the ROM 1002 or a removable medium 1011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, installed in the storage unit 1008, and loaded from the storage unit 1008 to the RAM 1003. Various processes are executed according to the program.
  • the RAM 1003 also appropriately stores data necessary for the CPU 1001 to execute various processes.
  • the CPU 1001 loads the program stored in the storage unit 1008 to the RAM 1003 via the input / output interface 1005 and the bus 1004 and executes the program, for example. Is performed.
  • the program executed by the computer (CPU 1001) can be provided by being recorded on the removable medium 1011 as a package medium, for example.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 1008 via the input / output interface 1005 by attaching the removable medium 1011 to the drive 1010. Further, the program can be received by the communication unit 1009 via a wired or wireless transmission medium and installed in the storage unit 1008. In addition, the program can be installed in advance in the ROM 1002 or the storage unit 1008.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
  • the present technology can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • this technique can also take the following structures.
  • a server device that distributes content to a playback device, A server device including an adjustment unit that adjusts content data of the content so as to correspond to a playback function of the playback device.
  • an analysis unit for analyzing audio output from the playback device; Adjustment information for storing adjustment information necessary for adjusting the content data in association with information for identifying the reproduction device so as to correspond to the reproduction function for each reproduction device based on the analysis result of the analysis unit Including a storage unit, The server device according to (1), wherein the adjustment unit adjusts the content data based on the adjustment information.
  • the analysis unit analyzes a frequency characteristic and a phase characteristic of the sound output from the playback device
  • the adjustment information storage unit stores adjustment information necessary for adjusting the content data so as to correspond to the frequency characteristic and phase characteristic of the reproduction function of the reproduction device based on the analysis result of the analysis unit.
  • the server device according to (2) wherein the adjustment unit adjusts the content data so as to correspond to a frequency characteristic and a phase characteristic of a reproduction function of the reproduction device based on the adjustment information.
  • the analysis unit analyzes presence / absence of a virtualizer of the playback device based on the sound output from the playback device, Based on the analysis result of the analysis unit, the adjustment information storage unit stores information indicating that the content data needs to be adjusted by a virtualizer when the playback function of the playback device is not provided.
  • adjustment information The server device according to (2) or (3), wherein the adjustment unit adjusts the content data by performing a process using a virtualizer so as to correspond to the reproduction function of the reproduction device based on the adjustment information.
  • the analysis unit analyzes the encoding format of the playback device based on the sound output from the playback device
  • the adjustment information storage unit stores, as adjustment information, information indicating an encoding format corresponding to the reproduction function of the reproduction device based on the analysis result of the analysis unit
  • the adjustment unit adjusts the content data by performing a process based on the adjustment information so that an encoding format corresponding to the reproduction function of the reproduction apparatus is obtained (2) to (4)
  • the server apparatus of description The analysis unit analyzes the encoding format of the playback device based on the sound output from the playback device.
  • the analysis unit analyzes the number of channels of the playback device based on the sound output from the playback device
  • the adjustment information storage unit stores, as adjustment information, information indicating the number of channels corresponding to the playback function of the playback device based on the analysis result of the analysis unit,
  • the server device according to any one of (2) to (5), wherein the adjustment unit performs processing and adjustment on the content data so that the number of channels corresponds to the reproduction function of the reproduction device based on the adjustment information.
  • the analysis unit analyzes the sampling frequency of the playback device based on the sound output from the playback device
  • the adjustment information storage unit stores, as adjustment information, information indicating a sampling frequency corresponding to the reproduction function of the reproduction device based on the analysis result of the analysis unit
  • the adjustment unit adjusts the content data by performing a sampling rate conversion process so as to obtain a sampling number corresponding to the reproduction function of the reproduction device based on the adjustment information.
  • the playback device includes a sound quality adjustment unit that adjusts the sound quality of the content to be played back
  • the server device includes a command output unit that outputs a command to stop the operation of the sound quality adjustment unit
  • the analysis unit analyzes the sound output from the playback device in both the operating state and the stopped state by the sound quality adjusting unit by the command output unit
  • the adjustment information storage unit corresponds to the reproduction function for each reproduction device based on the analysis result of the analysis unit for each of the operating state and the stopped state by the sound quality adjustment unit. Storing adjustment information necessary for data adjustment in association with information for identifying the playback device;
  • the adjusting unit adjusts to correspond to the playback function of the playback device based on the adjustment information for each of the operating state and the stopped state by the sound quality adjusting unit.
  • the server apparatus in any one of. (9)
  • the content includes content distributed by broadcast waves, When the content is distributed by broadcast waves, the content processing apparatus further includes a delay processing unit that reassigns a time stamp in consideration of a delay that occurs when the content data is adjusted by the adjustment unit.
  • the server apparatus in any one of. (10) The server device constitutes a distribution system together with a portable terminal that collects sound output from the playback device, and the playback device, The server according to any one of (1) to (9), wherein the analysis unit analyzes the sound collected by the portable terminal and output from the playback device.
  • the server device includes a cloud server device including a plurality of server devices connected via a network.
  • An information processing method for a server device comprising: adjusting content data of the content so as to correspond to a playback function of the playback device.
  • 31 server device (cloud server device), 32 network, 33 television receiver, 34 mobile terminal, 51 control unit, 52 communication unit, 53 voice data acquisition unit, 54 compatible function determination unit, 55 database by playback device, 56 performance Measurement unit, 57 correction parameter calculation unit, 58 sound quality adjustment unit, 59 content storage unit, 60 command transmission unit, 61 measurement sound source data storage unit, 71 frequency phase characteristic correction unit, 72 rate conversion unit, 73 downmix upmix processing Part, 74 transcode processing part, 75 delay processing part, 91 sound quality function measurement command, 92 streaming command, 101 control part, 102 microphone, 103 communication part, 104 operation input part 105 display unit, 106 a speaker, 121 control unit, 122 tone control unit, 123 communication unit, 124 speaker, 125 display unit, 126 decoding unit, 127 operation input unit

Abstract

 本技術は、再生装置に特別な構成を付加すること無く配信されるコンテンツを、再生装置の音声出力機能に最適化して再生できるようにするサーバ装置、およびサーバ装置の情報処理方法、並びにプログラムに関する。 測定用音声を再生装置であるテレビジョン受像機で出力させる。携帯端末は、再生装置より出力された音声を集音して、サーバ装置に送信する。サーバ装置は、音声に基づいて、再生装置毎の音声出力による性能と機能に応じた調整情報を記憶し、コンテンツを再生する際に、調整情報に基づいて、コンテンツデータを調整して再生装置に配信する。本技術は、コンテンツ配信システムに適用することができる。

Description

サーバ装置、およびサーバ装置の情報処理方法、並びにプログラム
 本技術は、サーバ装置、およびサーバ装置の情報処理方法、並びにプログラムに関し、特に、サーバより配信されるコンテンツの再生にあたって再生装置に特別な構成を付加すること無く、再生装置の性能に最適な状態のコンテンツに調整し、再生装置で再生できるようにしたサーバ装置、およびサーバ装置の情報処理方法、並びにプログラムに関する。
 スマートフォンに代表される携帯端末やテレビジョン受像機などを利用して、サーバからストリーム配信されるコンテンツを視聴するといったサービスが一般に普及している(例えば、特許文献1参照)。
 このとき、例えば、携帯端末において、視聴していたコンテンツが気に入ったので、住居などに備え付けられたテレビジョン受像機やオーディオシステムといった高品位の再生装置で視聴したいと思うようなことがある。このような場合、ユーザは、それまで携帯端末で視聴していたコンテンツをテレビジョン受像機やオーディオシステムなどの高品位な再生装置を利用して視聴することになる。
 このような場合、ユーザは、テレビジョン受像機やオーディオシステムといった高品位の再生装置を利用して視聴することにより、より迫力のある高品質の画像や音声で視聴できることを期待する。
再公表特許(国際公開第2003/098960、特願2004-506308)
 しかしながら、コンテンツのデータの状態と、再生装置の性能との組み合わせにより、必ずしも高品質の画像や音声を出力できないことがあった。
 そこで、従来においては、再生装置側で画像改善処理や音質改善処理を施すためのDSP(Digital Signal Processor)を備えて、DSPで画質や音質を改善させることにより、配信されたコンテンツを高品質な画像や音声として出力するようにしていた。
 しかしながら、この場合、再生装置に高価なDSPを設けることになるため、再生装置そのものがコストアップしてしまうことがあった。
 本技術は、再生装置に特別な構成を付加すること無く、コンテンツを再生装置の性能に適した音声や画像に改善し、改善されたコンテンツを視聴できるようにするものである。
 本技術の一側面のサーバ装置は、コンテンツを再生装置に配信するサーバ装置において、前記再生装置の再生機能に対応するように、前記コンテンツのコンテンツデータを調整する調整部を含む。
 前記再生装置より出力される音声を解析する解析部と、前記解析部の解析結果に基づいた、前記再生装置毎の再生機能に対応するように、前記コンテンツデータの調整に必要な調整情報を、前記再生装置を識別する情報に対応付けて記憶する調整情報記憶部とを含ませるようにすることができ、前記調整部には、前記調整情報に基づいて、前記コンテンツデータを調整させるようにすることができる。
 前記解析部には、前記再生装置より出力される音声の周波数特性および位相特性を解析させ、前記調整情報記憶部には、前記解析部の解析結果に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整するのに必要な調整情報を記憶させ、前記調整部には、前記調整情報に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整させるようにすることができる。
 前記解析部には、前記再生装置より出力される音声に基づいて、前記再生装置のバーチャライザの有無を解析させ、前記調整情報記憶部には、前記解析部の解析結果に基づいて、前記再生装置の再生機能にバーチャライザが設けられていない場合、前記コンテンツデータにバーチャライザによる調整が必要であることを示す情報を調整情報として記憶し、前記調整部には、前記調整情報に基づいて、前記再生装置の再生機能に対応するように、前記コンテンツデータにバーチャライザによる処理を施して調整させるようにすることができる。
 前記解析部には、前記再生装置より出力される音声に基づいて、前記再生装置の符号化形式を解析させ、前記調整情報記憶部には、前記解析部の解析結果に基づいた、前記再生装置の再生機能に対応する符号化形式を示す情報を調整情報として記憶させ、前記調整部には、前記調整情報に基づいて、前記再生装置の再生機能に対応する符号化形式となるように、前記コンテンツデータに処理を施して調整させるようにすることができる。
 前記解析部には、前記再生装置より出力される音声に基づいて、前記再生装置のチャンネル数を解析させ、前記調整情報記憶部には、前記解析部の解析結果に基づいた、前記再生装置の再生機能に対応するチャンネル数を示す情報を調整情報として記憶させ、前記調整部には、前記調整情報に基づいた、前記再生装置の再生機能に対応するチャンネル数となるように、前記コンテンツデータに処理を施して調整させるようにすることができる。
 前記解析部には、前記再生装置より出力される音声に基づいて、前記再生装置のサンプリング周波数を解析させ、前記調整情報記憶部には、前記解析部の解析結果に基づいて、前記再生装置の再生機能に対応するサンプリング周波数を示す情報を調整情報として記憶させ、前記調整部には、前記調整情報に基づいた、前記再生装置の再生機能に対応するサンプリング数となるように、前記コンテンツデータにサンプリングレートの変換処理を施して調整させる。
 前記再生装置には、再生するコンテンツの音質を調整する音質調整部を含ませるようにすることができ、前記サーバ装置には、前記音質調整部の動作を停止させるコマンドを出力するコマンド出力部を含ませるようにすることができ、前記解析部には、前記コマンド出力部により、前記音質調整部による動作中の状態と停止中の状態における両方の前記再生装置より出力される音声を解析させ、前記調整情報記憶部には、前記音質調整部による動作中の状態および停止中の状態のそれぞれについて、前記解析部の解析結果に基づいた、前記再生装置毎の再生機能に対応するように、前記コンテンツデータの調整に必要な調整情報を、前記再生装置を識別する情報に対応付けて記憶させ、前記調整部には、前記音質調整部による動作中の状態および停止中の状態のそれぞれについての前記調整情報に基づいた、前記再生装置の再生機能に対応するように調整させるようにすることができる。
 前記コンテンツは、放送波により配信されるコンテンツを含むようにしてもよく、前記コンテンツが放送波により配信される場合、前記調整部により前記コンテンツデータが調整される際に発生する遅延を加味したタイムスタンプの振り直しを行う遅延処理部をさらに含む。
 前記サーバ装置には、前記再生装置より出力される音声を集音する携帯端末、および前記再生装置と共に配信システムを構成し、前記解析部には、前記携帯端末により集音された、前記再生装置より出力される音声を解析させるようにしてもよい。
 前記サーバ装置には、ネットワークを介して接続された複数のサーバ装置より構成されるクラウドサーバ装置を含ませるようにしてもよい。
 本技術の一側面のサーバ装置の情報処理方法は、コンテンツを再生装置に配信するサーバ装置の情報処理方法であって、前記再生装置の再生機能に対応するように、前記コンテンツのコンテンツデータを調整するステップを含む。
 本技術の一側面のプログラムは、コンテンツを再生装置に配信するサーバ装置を制御するコンピュータであって、前記再生装置の再生機能に対応するように、前記コンテンツのコンテンツデータを調整する調整部として機能するように実行させる。
 本技術の一側面においては、コンテンツを再生装置に配信するにあたって、前記再生装置の再生機能に対応するように、前記コンテンツのコンテンツデータが調整される。
 本技術の一側面のサーバ装置は、独立した装置であっても良いし、サーバ装置として機能するブロックであっても良い。
 本技術の一側面によれば、再生装置に特別な構成を付加すること無く、再生装置の持つ性能に対して最適化されたコンテンツを配信することが可能となる。
一般的な配信システムの一実施の形態の構成例を示す図である。 本技術を適用したコンテンツの配信システムの一実施の形態の構成例を示す図である。 図2の配信システムによる音質機能測定処理を説明するフローチャートである。 図2の配信システムによるコンテンツ出力処理を説明するフローチャートである。 第1の変形例を説明する図である。 第2の変形例を説明する図である。 第3の変形例を説明する図である。 汎用のパーソナルコンピュータの構成例を説明する図である。
 <一般的な配信システムの構成例>
 図1は、一般的なコンテンツの配信システムの構成例を示している。
 図1の配信システムは、携帯端末11、クラウドサーバ装置12、オーディオシステム13、およびテレビジョン受像機14-1,14-2を備えている。尚、テレビジョン受像機14-1,14-2を特に区別する必要が無い場合、単に、テレビジョン受像機14を称するものとし、その他の構成についても、同様に称するものとする。
 クラウドサーバ装置12は、複数のサーバ(コンピュータ)がネットワークを介して有機的に構成され、あたかも1台のサーバとして機能するものであり、コンテンツを携帯端末11、オーディオシステム13、およびテレビジョン受像機14-1,14-2からの要求に応じて配信するものである。
 携帯端末11は、例えば、いわゆるスマートフォンでありクラウドサーバ装置12に対してコンテンツの配信を要求し、この要求に応じて配信されるコンテンツを受信して画像および音声として再生する。
 オーディオシステム13は、ネットワークを介してクラウドサーバ装置12に対してコンテンツの配信を要求し、クラウドサーバ装置12より配信されるコンテンツを受信して、音声を再生する。
 テレビジョン受像機14-1,14-2は、ネットワークを介して、クラウドサーバ装置12に対してコンテンツの配信を要求し、クラウドサーバ装置12より配信されるコンテンツを受信して、画像および音声として再生する。
 これまでの構成においては、例えば、携帯端末11でコンテンツを視聴していたユーザが、視聴により気に入ったコンテンツを迫力のある画像や音声で楽しむため、オーディオシステム13やテレビジョン受像機14からクラウドサーバ装置12に対してコンテンツを要求して、要求に応じて配信されるコンテンツを視聴するものであった。
 しかしながら、この場合、オーディオシステム13やテレビジョン受像機14が、クラウドサーバ装置12より配信されるコンテンツの画像や音声を出力しても、必ずしもコンテンツの画像および音声のデータが、オーディオシステム13やテレビジョン受像機14のHW(Hard Ware)の性能に最適化されていないことがあり、十分に性能を発揮させることができず、出力される画像および音声を高品位なものとさせることができない恐れがある。
 そこで、オーディオシステム13やテレビジョン受像機14に、DSP(Digital Signal Processor)を設けるようにして、独自に最適化を図って、より迫力のある画像や音声に向上させることが考えられる。
 しかしながら、この場合、DSPの設置に係るコストが増大してしまう恐れがあった。
 <本技術の配信システムの構成例>
 次に、図2を参照して、本技術の一側面のコンテンツの配信システムについて説明する。
 図2の配信システムは、サーバ装置31、ネットワーク32、テレビジョン受像機33、および携帯端末34より構成されている。この他にも、コンテンツのうち、音声のみを再生するオーディオシステムが含まれるようにしてもよい。
 サーバ装置31は、ネットワーク32と共にクラウドシステムにより構成されるようにしてもよいものである。従って、図2においては、1台のサーバ装置31により構成されているが、ネットワーク32を含めて複数のコンピュータなどからなるクラウドサーバ装置により実現されるようにしても良い。
 より詳細には、サーバ装置31は、制御部51、通信部52、音声データ取得部53、対応機能判定部54、再生装置別データベース55、性能測定部56、補正パラメータ算出部57、音声調整部58、コンテンツ記憶部59、コマンド送信部60、および測定用音源データ記憶部61を備えている。
 制御部51は、CPU(Central Processing Unit)、RAM(Random Access Memory)、およびROM(Read Only Memory)を有するマイクロコンピュータなどからなり、サーバ装置31の動作の全体を制御している。
 通信部52は、イーサネット(登録商標)ボードなどから構成されており、ネットワーク32を介してテレビジョン受像機33および携帯端末34などと各種のデータを授受する。
 音声データ取得部53は、通信部52を介して、携帯端末34より送信されてくる、携帯端末34により集音された、テレビジョン受像機33により発生された音声からなる音声データを取得して、対応機能判定部54、および性能測定部56に出力する。
 対応機能判定部54は、音声データを解析して、テレビジョン受像機33のコーデック、サンプリング周波数、チャンネル数、およびバーチャライズの有無といった再生装置としての対応機能を判定し、再生装置であるテレビジョン受像機33を識別する情報に対応付けて再生装置別データベース55に登録する。
 性能測定部56は、音声データを解析して、周波数特性および位相特性を判定し、判定結果を補正パラメータ算出部57に供給する。
 補正パラメータ算出部57は、周波数特性、および位相特性に基づいて、それぞれの補正パラメータを算出し、算出した補正パラメータを再生装置であるテレビジョン受像機33を識別する情報に対応付けて、調整情報として再生装置別データベース55に登録する。
 再生装置別データベース55は、再生装置であるテレビジョン受像機33を識別する情報に対応付けて、対応する機能の情報として、コーデック、サンプリング周波数、チャンネル数、およびバーチャライズの有無を記憶すると共に、周波数特性および位相特性に基づいて算出された補正パラメータを調整情報として記憶する。また、再生装置別データベース55は、記憶している対応機能の情報、および補正パラメータの情報からなる調整情報を、再生装置を識別する情報に対応付けて、音声調整部58に供給する。
 音声調整部58は、再生装置であるテレビジョン受像機33や携帯端末34より要求のあったコンテンツをコンテンツ記憶部59より読み出して、再生装置別データベース55に記憶されている情報に基づいて、コンテンツの音声データを調整し、通信部52を制御して、再生装置であるテレビジョン受像機33や携帯端末34に配信させる。
 より詳細には、音声調整部58は、周波数位相特性補正処理部71、レート変換部72、ダウンミックスアップミックス処理部73、トランスコード処理部74、および遅延処理部75を備えている。
 周波数位相特定補正処理部71は、コンテンツ記憶部59より再生が要求されたコンテンツのデータを読み出して、このうち、音声データについて、再生装置別データベース55に調整情報として記憶されている補正パラメータに基づいて、周波数特定および位相特性を補正する。周波数位相特定補正処理部71は、補正パラメータにより周波数特定および位相特性が補正された音声データを含むコンテンツをレート変換部72に供給する。すなわち、複数のスピーカユニットにより音響システムを構成する場合、各スピーカの持つ周波数特性が異なる。また、各スピーカの駆動面は、聴取者の位置からみて、必ずしも揃っていないため、各スピーカの位相特性も異なる。このようなことから、聴取者の位置に応じて、適切な音像定位を構成するためには、周波数特性および位相特性を調整する必要がある。そこで、周波数位相特定補正処理部71は、補正パラメータにより各スピーカの周波数特性および位相特性を補正し、聴取者の存在する位置において最適な音像定位を構成する。
 レート変換部72は、コンテンツ記憶部59より再生が要求されたコンテンツの音声データについて、再生装置別データベース55に記憶されている調整情報のうち、サンプリング周波数の情報に基づいて、コンテンツデータの音声データにおけるサンプリングレートを変換し、ダウンミックスアップミックス処理部73に出力する。
 ダウンミックスアップミックス処理部73は、コンテンツ記憶部59より再生が要求されたコンテンツのデータの音声データについて、再生装置別データベース55に記憶されている調整情報のうちのチャンネル数およびバーチャライザの有無の情報に基づいて、コンテンツデータの音声データのチャンネル数およびバーチャライザの付加処理等を行い、トランスコード処理部74に出力する。尚、ここでいうバーチャライザとは、音声データに対して、物理的に存在しないチャンネルを仮想的に存在するかの如く、聴取者に聴取させるための処理、または、その機能である。すなわち、例えば、聴取者の前方の左右に合計2個のスピーカしか存在しない2チャンネルの音響システムが構成されているものとする。このとき、聴取者からみて後方にも左右に2個のサラウンドスピーカが設けられ、そこからも音声が発生している4チャンネルの音響システムであるかのよう聴取できるようにする処理、または、その機能が、バーチャライザである。
 トランスコード処理部74は、コンテンツ記憶部59より再生が要求されたコンテンツのデータの音声データについて、再生装置別データベース55に記憶されている調整情報のうちのコーデックの情報に基づいて、所定の圧縮形式にトランスコードし、遅延処理部75に出力する。
 遅延処理部75は、テレビジョン受像機33に対して配信するコンテンツの音声データの処理に係る時間により画像に対して発生する遅延を調整するようにタイムスタンプを振り直し、通信部52に出力する。
 コマンド送信部60は、制御部51により制御され、テレビジョン受像機33に対して音質と機能を測定するためのコマンド、およびストリーミングを開始するためのコマンドを、通信部52を介して送信する。より詳細には、コマンド送信部60は、テレビジョン受像機33に対して音質と機能を測定するための音質機能測定コマンド91、およびストリーミングを開始するためのストリーミングコマンド92を記憶している。コマンド送信部60は、この音質機能測定コマンド91およびストリーミングコマンド92を適宜必要なタイミングで通信部52に出力してテレビジョン受像機33に送信する。
 測定用音源データ記憶部61は、音質や機能を測定する際にテレビジョン受像機33により音声を発生させるための測定用音源データを記憶しており、音質や機能を測定する際、制御部51により読み出されて、通信部52を介してテレビジョン受像機33に送信される。
 テレビジョン受像機33は、制御部121、音質調整部122、通信部123、スピーカ124、表示部125、デコード処理部126、および操作入力部127を備えている。
 制御部121は、テレビジョン受像機23の動作の全体を制御している。
 音質調整部122は、操作ボタンなどからなる操作入力部127の操作内容に応じて、通信部123によりネットワーク32を介して、サーバ装置31より送信されてくるコンテンツの音声データの音質を調整してスピーカ124より出力する。
 通信部123は、イーサネット(登録商標)ボードなどからなり、制御部121により制御されて、ネットワーク32を介してサーバ装置31と各種のデータを授受する。
 表示部125は、LCD(Liquid Crystal Display)などからなり、通信部123によりネットワーク32を介してサーバ装置31より受信したコンテンツデータの画像を表示する。
 デコード処理部126は、通信部123によりネットワーク32を介してサーバ装置31より受信したコンテンツデータをデコードし、デコード結果である画像データおよび音声データを制御部121に出力する。
 携帯端末34は、制御部101、マイクロフォン102、および通信部103を備えた、いわゆる、スマートフォンや携帯電話機などである。
 制御部101は、携帯端末34の動作の全体を制御している。マイクロフォン102は、制御部101により制御されて、音声を集音し制御部101に供給する。また、制御部101は、通信部103を制御して、ネットワーク32または図示せぬ公衆回線網を通じて、他の携帯端末34と通信し、例えば、供給されてくる音声データをスピーカ106より出力させる。
 通信部103は、イーサネット(登録商標)ボードなどから構成されており、制御部101により制御されて、ネットワーク32を介して、サーバ装置31およびテレビジョン受像機33等と各種のデータを授受する。
 操作入力部104は、操作ボタンなどからなり、例えば、LCD(Liquid Crystal Display)などからなる表示部105と一体にされたタッチパネルなどであり、操作内容に応じた信号を制御部101に供給する。
 <音質機能測定処理>
 次に、図3のフローチャートを参照して、図1の配信システムにおける音質機能測定処理について説明する。すなわち、携帯端末34は、サーバ装置31に対して、テレビジョン受像機33の音質や機能を測定するための音声を出力させるように要求する。そして、携帯端末34は、テレビジョン受像機33により発生された測定用音声を集音し、集音結果をサーバ装置31に送信する。そして、サーバ装置31が、テレビジョン受像機33の識別情報に対応付けて、音質や機能の測定結果となる調整情報を再生装置別データベース55に記憶させる。これにより、サーバ装置31は、この調整情報を利用することにより、テレビジョン受像機33に配信されるコンテンツの音声データをテレビジョン受像機33の機能や性能に最適なものとして配信させることが可能となる。
 すなわち、ステップS1において、ユーザが携帯端末34の操作入力部104を操作して、自らがコンテンツを再生させようとする(対象となる)再生機器としてテレビジョン受像機33を指定する情報が入力されると共に、テレビジョン受像機33の音質と機能を測定して登録するように指令されると、制御部101は、通信部103を制御して、音質機能の測定をサーバ装置31に指示する情報を送信させる。
 ステップS11において、サーバ装置31の制御部51は、通信部52を制御して、音質機能の測定が指示されたか否かを判定し、送信されてくるまで、同様の処理を繰り返す。ステップS11において、例えば、ステップS1の処理により音質機能の測定が指示されると、処理は、ステップS12に進む。
 ステップS12において、制御部51は、測定用音源データ記憶部61より測定用音源データを読み出し、コマンド送信部60を制御して、音質機能測定コマンド91と共に通信部52を介して、対象となる再生装置であるテレビジョン受像機33に送信させる。
 ステップS51において、制御部121は、通信部123を制御して、音質機能測定コマンド91および測定用音源データを受信すると、音質調整部122をOFFにして動作を停止させる。すなわち、この処理により、テレビジョン受像機33のスピーカ124より出力される、測定用音源データに基づいた音声には、音質調整部122による調整が加えられていない状態とされ、これによりスピーカ124の正確な性能を測定することが可能となる。
 ステップS52において、制御部121は、デコード処理部126を制御して測定用音源データをデコードさせて、スピーカ124より音声として出力させる。すなわち、ここでは、測定用音源データに基づいてデコードされた音声が、スピーカ124の特性や、その他の機能を認識し易い音声として出力される。また、複数の機能を認識するのに必要な音声が、機能毎に複数に存在する場合、測定用音源データには、複数の音声データが含まれるようにし、所定の時間間隔で、複数の機能を認識するための音声を順次音声を切り替えてスピーカ124から出力させるようにする。
 これに応じて、ステップS2において、携帯端末34の制御部101は、マイクロフォン102を制御して、集音させる。ここでは、携帯端末34は、テレビジョン受像機33の傍で操作されていることが前提とされるため、マイクロフォン102は、テレビジョン受像機33において、デコードされた測定用音源データに基づいて、スピーカ124より出力された測定用音源の音声を集音することになる。
 ステップS3において、制御部101は、マイクロフォン102により集音された測定用音源に基づいた音声のデータを所定の形式に圧縮して、通信部103を制御して、サーバ装置31に送信する。
 ステップS13において、制御部101は、通信部52を制御して、携帯端末34より送信されてくる、所定の形式に圧縮されている集音された音声データを受信し、伸張して、音声データ取得部53に供給する。
 ステップS14において、音声データ取得部53は、供給されてきた集音結果である音声データを対応機能判定部54および性能測定部56に出力する。性能測定部56は、音声データに基づいて、インパルス応答を測定する。
 ステップS15において、性能測定部56は、インパルス応答の測定結果に基づいて、周波数特性が十分であるか否かを判定し、十分ではないとみなした場合、処理は、ステップS16に進む。
 ステップS16において、性能測定部56は、音声データとインパルス応答の測定結果を補正パラメータ算出部57に供給する。補正パラメータ算出部57は、音声データとインパルス応答の測定結果に基づいて、周波数特性を補正するのに必要な補正パラメータを算出する。そして、補正パラメータ算出部57は、対象となる再生装置であるテレビジョン受像機33を識別する情報と対応付けて、周波数特性の補正の必要があることを示す情報と、その補正に必要な補正パラメータとを、コンテンツの音声データの調整情報として再生装置別データベース55に登録する。すなわち、周波数特性において、補正が必要であるとみなされた場合、補正パラメータ算出部57は、例えば、インパルス応答に基づいた逆インパルス応答を発生するデジタルフィルタを構成することができるような補正パラメータを算出する。
 尚、ステップS15において、周波数特性が十分であるとみなした場合、ステップS16の処理は、スキップされる。すなわち、この場合、再生装置別データベース55には、周波数特性の補正が必要であるという情報が登録されないことにより、実質的に、周波数特性の補正が不要であることが登録されることになる。
 ステップS17において、性能測定部56は、測定結果に基づいて、位相特性が十分であるか否かを判定し、十分ではないとみなした場合、処理は、ステップS18に進む。
 ステップS18において、性能測定部56は、音声データと測定結果を補正パラメータ算出部57に供給する。補正パラメータ算出部57は、音声データと測定結果に基づいて、位相特性を補正するのに必要な補正パラメータを算出する。そして、補正パラメータ算出部57は、対象となる再生装置であるテレビジョン受像機33を識別する情報と対応付けて、位相特性の補正の必要があることを示す情報と、その補正に必要な補正パラメータとを、コンテンツの音声データの調整情報として再生装置別データベース55に登録する。すなわち、音声データと測定結果とから、補正パラメータ算出部57は、位相特性を求め、例えば、各チャンネルの位相差が0になるように位相を補正する補正パラメータを算出する。
 尚、ステップS17において、位相特性が十分であるとみなした場合、ステップS18の処理は、スキップされる。すなわち、この場合、再生装置別データベース55には、位相特性の補正が必要であるという情報が登録されないことにより、実質的に、位相特性の補正が不要であることが登録されることになる。
 ステップS19において、対応機能判定部54は、音声データに基づいて、コーデックを測定する。
 ステップS20において、対応機能判定部54は、配信するコンテンツに使用されているコーデックが、テレビジョン受像機33において対応可能なコーデックであるか否かを判定し、対応可能ではない場合、処理は、ステップS21に進む。
 ステップS21において、対応機能判定部54は、トランスコーディングが必要であることを示す情報を、対象となる再生装置であるテレビジョン受像機33を識別する情報と対応付けて、調整情報として再生装置別データベース55に登録する。
 尚、ステップS20において、トランスコードが十分であるとみなした場合、ステップS21の処理は、スキップされる。すなわち、この場合、再生装置別データベース55には、トランスコードが必要であるという情報が登録されないことにより、実質的に、トランスコードが不要であることが登録されることになる。
 ステップS22において、対応機能判定部54は、音声データに基づいて、サンプリング周波数、およびチャンネル数を測定する。
 より詳細には、例えば、ステップS12の処理において、制御部51が、測定用音源データ記憶部61に記憶されているチャンネル数の測定用音源データとして、1ch音源、2ch音源、5.1ch音源、および7.1ch音源を以下のような音源データをテレビジョン受像機33に送信する。
 すなわち、1ch音源を、100Hzのサインウェーブのみを含む音源とし、2ch音源を、L(左)=100Hz、R(右)=200Hzのサインウェーブのみを含む音源とする。また、5.1chの音源を、L(左)=100Hz、R(右)=200Hz、C(センター)=500Hz、Ls(サラウンド左)=1kHz、Rs(サラウンド右)=2kHz、LFE(低域効果音)=50Hzのサインウェーブのみを含む音源とする。さらに、7.1chの音源を、L(左)=100Hz、R(右)=200Hz、C(センター)=500Hz、Ls(サラウンド左)=1kHz、Rs(サラウンド右)=2kHz、Lrs(サラウンドリア左)=3kHz、Rsr(サラウンドリア右)=4kHz、LFE(低域効果音)=50Hzのサインウェーブのみを含む音源とする。
 そして、ステップS52において、テレビジョン受像機33の制御部121は、デコード処理部126を制御して測定用音源データをデコードさせて、スピーカ124より1ch音源、2ch音源、5.1ch音源、および7.1ch音源を、順番に出力させる。このとき、対応できないチャンネルに達すると、制御部121は、表示部125上に、再生できない旨のメッセージを表示すると共に、1ch音源、2ch音源、5.1ch音源、および7.1ch音源以外のサインウェーブ(たとえば5kHz)からなる音声をスピーカ124より出力する。このとき、携帯端末34の制御部101は、マイクロフォン102により音声を集音させ、集音結果である音声ファイルをサーバ装置31に送信する。サーバ装置31の対応機能判定部54は、周波数解析を行うことで、5kHzの周波数成分が含まれていれば、直前に再生した計測用音源のChannel数が非対応であることを認識する。
 ステップS23において、対応機能判定部54は、配信するコンテンツに使用されているサンプリング周波数が、テレビジョン受像機33において対応可能なサンプリング周波数であるか否かを判定し、対応可能ではない場合、処理は、ステップS24に進む。
 ステップS24において、対応機能判定部54は、サンプリング周波数の変換が必要であることを示す情報を、対象となる再生装置であるテレビジョン受像機33を識別する情報と対応付けて、調整情報として再生装置別データベース55に登録する。
 尚、ステップS23において、サンプリング周波数が対応可能であるとみなした場合、ステップS24の処理は、スキップされる。すなわち、この場合、再生装置別データベース55には、サンプリング周波数の変換が必要であるという情報が登録されないことにより、実質的に、サンプリング周波数の変換が不要であることが登録されることになる。
 ステップS25において、対応機能判定部54は、テレビジョン受像機33において対応可能なチャンネル数が5.1チャンネルより多いか否かを判定し、5.1チャンネルより多く対応可能ではない場合、処理は、ステップS26に進む。すなわち、通常のコンテンツの音声データは5.1チャンネルであるので、これよりもチャンネル数が多いか否かが判定されることになる。
 ステップS26において、対応機能判定部54は、チャンネル数を増やすアップミックスが必要であることを示す情報を、対象となる再生装置であるテレビジョン受像機33を識別する情報と対応付けて、調整情報として再生装置別データベース55に登録する。
 ステップS25において、テレビジョン受像機33において対応可能なチャンネル数が5.1チャンネルより多くない場合、ステップS27において、対応機能判定部54は、テレビジョン受像機33において対応可能なチャンネル数が5.1チャンネルより少ないか否かを判定し、チャンネル数が5.1チャンネルより少なく、対応可能ではない場合、処理は、ステップS28に進む。
 ステップS28において、対応機能判定部54は、チャンネル数を減らすダウンミックスが必要であることを示す情報を、対象となる再生装置であるテレビジョン受像機33を識別する情報と対応付けて、調整情報として再生装置別データベース55に登録する。
 尚、ステップS27において、チャンネル数が5.1chであって対応可能であるとみなした場合、ステップS28の処理は、スキップされる。すなわち、この場合、再生装置別データベース55には、チャンネル数のアップミックス、またはダウンミックスが必要であるという情報が登録されないことにより、実質的に、5.1チャンネルなのでチャンネル数の変換が不要であることが登録されることになる。
 ステップS29において、対応機能判定部54は、音声データに基づいて、バーチャライザの有無を測定する。
 より詳細には、ステップS52において、テレビジョン受像機33の制御部121は、例えば、デコード処理部126を制御して測定用音源データをデコードさせて、スピーカ124より再生開始位置を全チャンネルで揃えた、チャンネル毎に周波数の異なるWav音源をスピーカ124より出力する。そして、携帯端末34の制御部101は、マイクロフォン102により音声を集音させ、集音結果である音声ファイルをサーバ装置31に送信する。ここで、サーバ装置31の対応機能判定部54は、サラウンド成分について、バーチャライズ処理でのフィルタ処理による、ディレイが生じて、相対的にみれば、他のフロントチャンネルと比べ、サラウンド成分がディレイすると考えられるので、このディレイの有無によりバーチャライザの有無を測定するようにしてもよい。
 ステップS30において、対応機能判定部54は、バーチャライザが掛けられているか否かを判定し、バーチャライザが掛けられていないと判定した場合、処理は、ステップS31に進む。
 ステップS31において、性能測定部56は、バーチャライザをかける必要があることを示す情報を、対象となる再生装置であるテレビジョン受像機33を識別する情報と対応付けて、調整情報として再生装置別データベース55に登録する。
 尚、ステップS30において、バーチャライザが掛けられているとみなした場合、ステップS31の処理は、スキップされる。すなわち、この場合、再生装置別データベース55には、バーチャライザをかける必要があるという情報が登録されないことにより、実質的に、バーチャライザをかける必要がないことが登録されることになる。
 以上の処理により、コンテンツの再生装置としてのテレビジョン受像機における音質と機能とが測定されることにより、再生装置別データベース55に、再生装置を識別する情報に対応付けて、周波数特性および位相特性の補正の有無と、その補正パラメータ、トランスコーディングの有無、サンプリング周波数の変換の有無、チャンネル数に応じたアップミックスおよびダウンミックスの有無、並びに、バーチャライザの有無といったコンテンツの音声データを調整するための調整情報が登録されることになる。
 結果として、後述するコンテンツ出力処理において、再生装置毎に再生装置別データベース55に登録された調整情報に基づいて、コンテンツを再生する再生装置毎に最適な音声データに調整してコンテンツを配信することが可能となる。
 <コンテンツ出力処理>
 次に、図4のフローチャートを参照して、図1の配信システムにおけるコンテンツ出力処理について説明する。
 ステップS71において、テレビジョン受像機33の操作入力部127がユーザにより操作されて、指定されたコンテンツを再生するように指示されると、操作入力部127が、操作内容に応じた操作信号を制御部121に出力する。
 ステップS72において、制御部121は、通信部123を制御して、指定されたコンテンツの再生の要求を、自らのテレビジョン受像機33を識別する識別情報と共にネットワーク32を介してサーバ装置31に送信させる。
 ステップS91において、制御部51は、通信部52を制御して、ネットワーク32を介して、テレビジョン受像機33からの、識別情報と、指定されたコンテンツの再生を要求する情報を取得する。
 ステップS92において、音声調整部58に対して、コンテンツの再生を要求してきたテレビジョン受像機33の識別情報と共に、指定されたコンテンツを読み出し、音声調整を加えるように指示する。
 ステップS93において、音声調整部58の周波数位相特性補正処理部71は、指定されたコンテンツのデータをコンテンツ記憶部59より読み出す。さらに、周波数位相特性補正処理部71は、識別情報により特定される再生装置としてのテレビジョン受像機33に対応付けて再生装置別データベース55に登録されている調整情報を読み出して、周波数特性について補正が必要であるか否かを判定する。
 ステップS93において、例えば、周波数特性について補正が必要であると判定された場合、処理は、ステップS94に進む。
 ステップS94において、位相周波数特性補正処理部71は、コンテンツデータの音声データについて、調整情報に含まれる補正パラメータを利用して、周波数特性をコンテンツの再生を要求してきたテレビジョン受像機33に対応するように補正する。
 尚、ステップS93において、例えば、周波数特性について補正が必要ではないと判定された場合、ステップS94の処理はスキップされる。
 ステップS95において、周波数位相特性補正処理部71は、識別情報により特定される再生装置としてのテレビジョン受像機33に対応付けて再生装置別データベース55に登録されている調整情報を読み出して、位相特性について補正が必要であるか否かを判定する。
 ステップS95において、例えば、位相特性について補正が必要であると判定された場合、処理は、ステップS96に進む。
 ステップS96において、位相周波数特性補正処理部71は、コンテンツデータの音声データについて、調整情報に含まれる補正パラメータを利用して、位相特性をコンテンツの再生を要求してきたテレビジョン受像機33に対応するように補正し、コンテンツデータをレート変換部72に出力する。
 尚、ステップS95において、例えば、位相特性について補正が必要ではないと判定された場合、ステップS96の処理はスキップされ、コンテンツデータがレート変換部72に出力される。
 ステップS97において、レート変換部72は、識別情報により特定される再生装置としてのテレビジョン受像機33に対応付けて再生装置別データベース55に登録されている調整情報を読み出して、サンプリングレートの変換が必要であるか否かを判定する。
 ステップS97において、例えば、サンプリングレートの変換が必要であると判定された場合、処理は、ステップS98に進む。
 ステップS98において、レート変換部72は、コンテンツデータの音声データについて、コンテンツの再生を要求してきたテレビジョン受像機33に対応するようにサンプリングレートを変換し、ダウンミックスアップミックス処理部73に供給する。
 尚、ステップS97において、例えば、サンプリングレートの変換が必要ではないと判定された場合、ステップS98の処理はスキップされ、コンテンツデータが、ダウンミックスアップミックス処理部73に供給される。
 ステップS99において、ダウンミックスアップミックス処理部73は、識別情報により特定される再生装置としてのテレビジョン受像機33に対応付けて再生装置別データベース55に登録されている調整情報を読み出して、アップミックスが必要であるか否かを判定する。
 ステップS99において、例えば、アップミックスが必要であると判定された場合、処理は、ステップS100に進む。
 ステップS100において、ダウンミックスアップミックス処理部73は、コンテンツデータの音声データについて、コンテンツの再生を要求してきたテレビジョン受像機33に対応するようにアップミックスする。
 一方、ステップS99において、例えば、アップミックスが必要ではないと判定された場合、処理は、ステップS101に進む。
 ステップS101において、ダウンミックスアップミックス処理部73は、識別情報により特定される再生装置としてのテレビジョン受像機33に対応付けて再生装置別データベース55に登録されている調整情報を読み出して、ダウンミックスが必要であるか否かを判定する。
 ステップS101において、例えば、ダウンミックスが必要であると判定された場合、処理は、ステップS102に進む。
 ステップS102において、ダウンミックスアップミックス処理部73は、コンテンツデータの音声データについて、コンテンツの再生を要求してきたテレビジョン受像機33に対応するようにダウンミックスする。
 尚、ステップS101において、例えば、ダウンミックスが必要ではないと判定された場合、ステップS102の処理はスキップされる。
 ステップS103において、ダウンミックスアップミックス処理部73は、識別情報により特定される再生装置としてのテレビジョン受像機33に対応付けて再生装置別データベース55に登録されている調整情報を読み出して、バーチャライザが必要であるか否かを判定する。
 ステップS103において、例えば、バーチャライザが必要であると判定された場合、処理は、ステップS104に進む。
 ステップS104において、ダウンミックスアップミックス処理部73は、コンテンツデータの音声データについて、コンテンツの再生を要求してきたテレビジョン受像機33に対応するようにバーチャライザをかけて、トランスコード処理部74に供給する。
 尚、ステップS103において、例えば、バーチャライザが必要ではないと判定された場合、ステップS104の処理はスキップされ、コンテンツデータが、トランスコード処理部74に供給される。
 ステップS105において、トランスコード処理部74は、識別情報により特定される再生装置としてのテレビジョン受像機33に対応付けて再生装置別データベース55に登録されている調整情報を読み出して、テレビジョン受像機33に応じたトランスコードが必要であるか否かを判定する。
 ステップS105において、例えば、トランスコードが必要であると判定された場合、処理は、ステップS106に進む。
 ステップS106において、トランスコード処理部74は、コンテンツデータの音声データについて、コンテンツの再生を要求してきたテレビジョン受像機33に対応するようにトランスコードし、遅延処理部75に供給する。
 尚、ステップS105において、例えば、トランスコードが必要ではないと判定された場合、ステップS106の処理はスキップされ、コンテンツデータが、遅延処理部75に供給される。
 ステップS107において、遅延処理部75は、各種の処理がなされたコンテンツデータを、処理により発生する遅延時間に応じてタイムスタンプを振り直す。尚、この処理は、サーバ装置31が自ら記憶しているコンテンツを配信する場合については、画像と音声とを同時に出力することが可能であるので、その場合、タイムスタンプの振り直しは必要とされない。ここでの処理は、例えば、外部のサーバからコンテンツが読み出されて、画像の調整がなされず、音声データのみが、再生装置別データベース55に登録された調整情報により調整される際に、遅延時間が発生しない画像と、処理に伴った遅延の発生する音声とのタイミングを調整するためになされる処理である。
 ステップS108において、制御部51は、コマンド送信部60を制御して、通信部52を介してストリーミングコマンドを、テレビジョン受像機33に送信させる。これにより、コマンド送信部60は、ストリーミングコマンド92を通信部52およびネットワーク32を介して、テレビジョン受像機33に送信させる。
 ステップS73において、テレビジョン受像機33の制御部121は、通信部123を制御して、ストリーミングコマンド92を受信すると、ストリームが開始されることを認識すると共に、音質調整部122を制御して、音質の調整を停止させる。
 ステップS110において、サーバ装置31の制御部51は、音声調整部58よりコンテンツデータを通信部52に出力させて、ネットワーク32を介して、コンテンツデータをテレビジョン受像機33に送信させる。
 ステップS74において、テレビジョン受像機33の制御部121は、通信部123を制御してコンテンツデータを受信させると共に、デコード処理部126を制御してデコードさせ、デコードされたコンテンツデータに基づいた画像を表示部125に表示させると共に、音声をスピーカ124より出力させて、コンテンツを再生させる。
 尚、以上においては、再生装置がテレビジョン受像機33である場合の例について説明してきたが、音声出力を備えた再生装置であれば、その他の装置であってもよく、例えば、オーディオシステムなどであってもよい。また、再生装置として、高機能な携帯端末を利用するような場合においても同様の手法で、同様の動作を実現することが可能となる。
 以上の処理により、コンテンツの音声を出力する再生装置に応じた、必要な周波数特性および位相特性、トランスコーディング、サンプリング周波数、チャンネル数、並びに、バーチャライザを考慮した適切な音声データを含んだコンテンツの配信を実現することが可能となる。
 結果として、再生装置の構成を変更することなく、テレビジョン受像機33等の再生装置の性能に適した音声を含んだコンテンツの再生を実現することが可能となる。
 また、以上においては、再生装置の音声機能について、最適化した音声データを生成して配信する例について説明してきたが、画像の表示機能についても、上述した手法を適用するようにして最適化を図るようにしてもよい。すなわち、テレビジョン受像機33に測定用画像データを表示させて、携帯端末34が撮像し、撮像結果に基づいて、サーバ装置31が、テレビジョン受像機33がコンテンツを表示する際に最適な画像として表示できるようにコンテンツデータを調整してテレビジョン受像機33に供給して表示させるようにしてもよい。このような処理を音声データおよび画像データの双方に施すことで、音声データにおいても、画像データにおいても、再生装置において最適な状態で再生することが可能となる。
 さらに、以上においては、調整情報を登録する際(音質機能測定処理が実行される際)、およびコンテンツを再生する際(コンテンツ出力処理が実行される際)のいずれにおいても、音質調整部122の機能を停止する例について説明してきた。しかしながら、いずれにおいても音質調整部122の機能を停止させない状態とするようにしてもよい。さらに、音質調整部122の機能を停止させる場合の調整情報と、停止させない場合の調整情報とをそれぞれ再生装置データベース55に登録させて、それぞれの状態に応じて使い分けるようにしても良い。
 <第1の変形例>
 以上においては、サーバ装置(クラウドサーバ装置)31が、再生装置が配信を要求したコンテンツにおける音声データを、再生装置の音声出力機能に最適化した状態で配信する例について説明してきたが、再生装置であるテレビジョン受像機33により放送波を介してコンテンツを受信し、受信したコンテンツをサーバ装置31に供給して、調整情報に基づいて、最適な音声データに変換させた後、再びテレビジョン受像機33に送信して再生させるようにしてもよい。
 すなわち、図5で示されるように、ステップS201において、テレビジョン受像機33が放送波(図中のBroadcast)により配信されたコンテンツを受信する。
 ステップS202において、テレビジョン受像機33が放送波(図中のBroadcast)により配信されたコンテンツをTS(Transport) Streamとしてクラウドサーバ装置(図2のサーバ装置)31に送信する。
 ステップS203において、サーバ装置31は、上述した再生装置別データベース55に登録された調整情報を利用して、音声データの最適化処理を施したコンテンツからなるAV Streamをテレビジョン受像機33に送信する。
 ステップS204において、テレビジョン受像機33が、最適化された音声データからなるコンテンツを再生する。
 以上のような処理により、放送波により配信され、テレビジョン受像機33により受信されたコンテンツにおいても、クラウドサーバ装置31によりテレビジョン受像機33の音声出力機能の性能に最適な音声データとされた状態で再生することが可能となる。
 <第2の変形例>
 以上においては、サーバ装置(クラウドサーバ装置)31が、再生装置の調整情報を再生装置別データベース55に記憶させ、この調整情報を利用して音声データを最適化する例について説明してきた。
 しかしながら、再生装置の調整情報を再生装置別データベース55に記憶させる機能と、調整情報を利用して音声データを最適化する機能とを個別の装置構成により実現するようにしてもよい。例えば、図6で示されるように、再生装置の調整情報を再生装置別データベース55に記憶させる機能を備えたクラウドサーバ装置31と、調整情報からなるパラメータを利用して音声データを最適化する機能を備えた携帯端末34とからなる配信システムとするようにしてもよい。
 すなわち、図6で示されるように、ステップS221において、テレビジョン受像機33が放送波(図中のBroadcast)により配信されたコンテンツを受信する。
 ステップS222において、テレビジョン受像機33が放送波(図中のBroadcast)により配信されたコンテンツのTS Streamを、調整情報を利用して音声データを最適化する機能を備えた携帯端末34に送信する。
 ステップS223において、再生装置(テレビジョン受像機33)の調整情報を再生装置別データベース55に記憶させる機能を備えたサーバ装置(クラウドサーバ装置)31は、調整情報からなるパラメータを携帯端末34に送信する。
 ステップS224において、携帯端末34は、サーバ装置(クラウドサーバ装置)31より供給された調整情報からなるパラメータを利用して、コンテンツの音声データの最適化処理を実現し、最適化したコンテンツのAV Streamをテレビジョン受像機33に送信する。
 ステップS225において、テレビジョン受像機33が、最適化された音声データからなるコンテンツを再生する。
 以上のような処理により、放送波により配信され、テレビジョン受像機33により受信されたコンテンツを、携帯端末34が、クラウドサーバ装置31より供給される調整情報からなるパラメータにより、テレビジョン受像機33の音声出力機能の性能に最適な音声データに変換し、テレビジョン受像機33に供給することで、テレビジョン受像機33において、最適な音声データからなるコンテンツの再生が可能となる。
 <第3の変形例>
 以上においては、サーバ装置(クラウドサーバ装置)31が、再生装置の調整情報を再生装置別データベース55に記憶させ、調整情報を利用して、テレビジョン受像機33が放送波により配信されたコンテンツの音声データを最適化する例について説明してきた。
 しかしながら、再生するコンテンツデータは、放送波により配信されるコンテンツ以外のコンテンツでもよく、例えば、再生装置の調整情報を再生装置別データベース55に記憶させる機能と、調整情報からなるパラメータを利用して音声データを最適化する機能とを個別の装置構成により実現し、携帯端末34がサーバに蓄積されたコンテンツの音声データを最適化した後に、テレビジョン受像機33に供給して再生させるようにしてもよい。
 すなわち、例えば、図7で示されるように、再生装置の調整情報を再生装置別データベース55に記憶させる機能を備えたクラウドサーバ装置31と、調整情報からなるパラメータを利用して音声データを最適化する機能を備えた携帯端末34とからなる配信システムとし、携帯端末34がコンテンツのデータをコンテンツサーバ201より読み出すようにしてもよい。
 すなわち、図7で示されるように、ステップS231において、再生装置(テレビジョン受像機33)の調整情報を再生装置別データベース55に記憶させる機能を備えたサーバ装置(クラウドサーバ装置)31は、調整情報からなるパラメータを携帯端末34に送信する。
 ステップS232において、調整情報からなるパラメータを利用して音声データを最適化する機能を備えた携帯端末34が、コンテンツをコンテンツサーバ201より読み出す。
 ステップS233において、携帯端末34は、サーバ装置(クラウドサーバ装置)31より供給された調整情報からなるパラメータを利用して、コンテンツサーバ201より読み出したコンテンツデータの音声データを最適化し、音声データを最適化したコンテンツのAV Streamをテレビジョン受像機33に送信する。
 ステップS234において、テレビジョン受像機33が、最適化された音声データからなるコンテンツを再生する。
 以上のような処理により、コンテンツサーバ201に蓄積されたコンテンツを、携帯端末34が、クラウドサーバ装置31により供給される調整情報からなるパラメータにより、テレビジョン受像機33の音声出力機能の性能に最適な音声データに変換し、テレビジョン受像機33に供給することで、テレビジョン受像機33において、最適な音声データからなるコンテンツの再生が可能となる。
 以上の如く、いずれにおいても、再生装置に特別な装置等を付加すること無く、音声データを最適化した状態でコンテンツを再生させることが可能となる。
 ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
 図8は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタ-フェイス1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
 入出力インタ-フェイス1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
 CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011ら読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
 以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 尚、本技術は、以下のような構成も取ることができる。
(1) コンテンツを再生装置に配信するサーバ装置において、
 前記再生装置の再生機能に対応するように、前記コンテンツのコンテンツデータを調整する調整部を含む
 サーバ装置。
(2) 前記再生装置より出力される音声を解析する解析部と、
 前記解析部の解析結果に基づいた、前記再生装置毎の再生機能に対応するように、前記コンテンツデータの調整に必要な調整情報を、前記再生装置を識別する情報に対応付けて記憶する調整情報記憶部とを含み、
 前記調整部は、前記調整情報に基づいて、前記コンテンツデータを調整する
 (1)に記載のサーバ装置。
(3) 前記解析部は、前記再生装置より出力される音声の周波数特性および位相特性を解析し、
 前記調整情報記憶部は、前記解析部の解析結果に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整するのに必要な調整情報を記憶し、
 前記調整部は、前記調整情報に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整する
 (2)に記載のサーバ装置。
(4) 前記解析部は、前記再生装置より出力される音声に基づいて、前記再生装置のバーチャライザの有無を解析し、
 前記調整情報記憶部は、前記解析部の解析結果に基づいて、前記再生装置の再生機能にバーチャライザが設けられていない場合、前記コンテンツデータにバーチャライザによる調整が必要であることを示す情報を調整情報として記憶し、
 前記調整部は、前記調整情報に基づいて、前記再生装置の再生機能に対応するように、前記コンテンツデータにバーチャライザによる処理を施して調整する
 (2)または(3)に記載のサーバ装置。
(5) 前記解析部は、前記再生装置より出力される音声に基づいて、前記再生装置の符号化形式を解析し、
 前記調整情報記憶部は、前記解析部の解析結果に基づいた、前記再生装置の再生機能に対応する符号化形式を示す情報を調整情報として記憶し、
 前記調整部は、前記調整情報に基づいて、前記再生装置の再生機能に対応する符号化形式となるように、前記コンテンツデータに処理を施して調整する
 (2)乃至(4)のいずれかに記載のサーバ装置。
(6) 前記解析部は、前記再生装置より出力される音声に基づいて、前記再生装置のチャンネル数を解析し、
 前記調整情報記憶部は、前記解析部の解析結果に基づいた、前記再生装置の再生機能に対応するチャンネル数を示す情報を調整情報として記憶し、
 前記調整部は、前記調整情報に基づいた、前記再生装置の再生機能に対応するチャンネル数となるように、前記コンテンツデータに処理を施して調整する
 (2)乃至(5)に記載のサーバ装置。
(7) 前記解析部は、前記再生装置より出力される音声に基づいて、前記再生装置のサンプリング周波数を解析し、
 前記調整情報記憶部は、前記解析部の解析結果に基づいて、前記再生装置の再生機能に対応するサンプリング周波数を示す情報を調整情報として記憶し、
 前記調整部は、前記調整情報に基づいた、前記再生装置の再生機能に対応するサンプリング数となるように、前記コンテンツデータにサンプリングレートの変換処理を施して調整する
 (2)乃至(6)のいずれかに記載のサーバ装置。
(8) 前記再生装置は、再生するコンテンツの音質を調整する音質調整部を含み、
 前記サーバ装置は、前記音質調整部の動作を停止させるコマンドを出力するコマンド出力部を含み、
 前記解析部は、前記コマンド出力部により、前記音質調整部による動作中の状態と停止中の状態における両方の前記再生装置より出力される音声を解析し、
 前記調整情報記憶部は、前記音質調整部による動作中の状態および停止中の状態のそれぞれについて、前記解析部の解析結果に基づいた、前記再生装置毎の再生機能に対応するように、前記コンテンツデータの調整に必要な調整情報を、前記再生装置を識別する情報に対応付けて記憶し、
 前記調整部は、前記音質調整部による動作中の状態および停止中の状態のそれぞれについての前記調整情報に基づいた、前記再生装置の再生機能に対応するように調整する
 (2)乃至(7)のいずれかに記載のサーバ装置。
(9) 前記コンテンツは、放送波により配信されるコンテンツを含み、
 前記コンテンツが放送波により配信される場合、前記調整部により前記コンテンツデータが調整される際に発生する遅延を加味したタイムスタンプの振り直しを行う遅延処理部をさらに含む
 (1)乃至(8)のいずれかに記載のサーバ装置。
(10) 前記サーバ装置は、前記再生装置より出力される音声を集音する携帯端末、および前記再生装置と共に配信システムを構成し、
 前記解析部は、前記携帯端末により集音された、前記再生装置より出力される音声を解析する
 (1)乃至(9)のいずれかに記載のサーバ装置。
(11) 前記サーバ装置は、ネットワークを介して接続された複数のサーバ装置より構成されるクラウドサーバ装置を含む
 (1)乃至(10)のいずれかに記載のサーバ装置。
(12) コンテンツを再生装置に配信するサーバ装置の情報処理方法において、
 前記再生装置の再生機能に対応するように、前記コンテンツのコンテンツデータを調整するステップを含む
 サーバ装置の情報処理方法。
(13) コンテンツを再生装置に配信するサーバ装置を制御するコンピュータを、
 前記再生装置の再生機能に対応するように、前記コンテンツのコンテンツデータを調整する調整部として機能するように実行させる
 プログラム。
 31 サーバ装置(クラウドサーバ装置), 32 ネットワーク, 33 テレビジョン受像機, 34 携帯端末, 51 制御部, 52 通信部, 53 音声データ取得部, 54 対応機能判定部, 55 再生装置別データベース, 56 性能測定部, 57 補正パラメータ算出部, 58 音質調整部, 59 コンテンツ記憶部, 60 コマンド送信部, 61 測定用音源データ記憶部, 71 周波数位相特性補正部, 72 レート変換部, 73 ダウンミックスアップミックス処理部, 74 トランスコード処理部, 75 遅延処理部, 91 音質機能測定コマンド, 92 ストリーミングコマンド, 101 制御部, 102 マイクロフォン, 103 通信部, 104 操作入力部, 105 表示部, 106 スピーカ, 121 制御部, 122 音質調整部, 123 通信部, 124 スピーカ, 125 表示部, 126 デコード処理部, 127 操作入力部

Claims (13)

  1.  コンテンツを再生装置に配信するサーバ装置において、
     前記再生装置の再生機能に対応するように、前記コンテンツのコンテンツデータを調整する調整部を含む
     サーバ装置。
  2.  前記再生装置より出力される音声を解析する解析部と、
     前記解析部の解析結果に基づいた、前記再生装置毎の再生機能に対応するように、前記コンテンツデータの調整に必要な調整情報を、前記再生装置を識別する情報に対応付けて記憶する調整情報記憶部とを含み、
     前記調整部は、前記調整情報に基づいて、前記コンテンツデータを調整する
     請求項1に記載のサーバ装置。
  3.  前記解析部は、前記再生装置より出力される音声の周波数特性および位相特性を解析し、
     前記調整情報記憶部は、前記解析部の解析結果に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整するのに必要な調整情報を記憶し、
     前記調整部は、前記調整情報に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整する
     請求項2に記載のサーバ装置。
  4.  前記解析部は、前記再生装置より出力される音声に基づいて、前記再生装置のバーチャライザの有無を解析し、
     前記調整情報記憶部は、前記解析部の解析結果に基づいて、前記再生装置の再生機能にバーチャライザが設けられていない場合、前記コンテンツデータにバーチャライザによる調整が必要であることを示す情報を調整情報として記憶し、
     前記調整部は、前記調整情報に基づいて、前記再生装置の再生機能に対応するように、前記コンテンツデータにバーチャライザによる処理を施して調整する
     請求項2に記載のサーバ装置。
  5.  前記解析部は、前記再生装置より出力される音声に基づいて、前記再生装置の符号化形式を解析し、
     前記調整情報記憶部は、前記解析部の解析結果に基づいた、前記再生装置の再生機能に対応する符号化形式を示す情報を調整情報として記憶し、
     前記調整部は、前記調整情報に基づいて、前記再生装置の再生機能に対応する符号化形式となるように、前記コンテンツデータに処理を施して調整する
     請求項2に記載のサーバ装置。
  6.  前記解析部は、前記再生装置より出力される音声に基づいて、前記再生装置のチャンネル数を解析し、
     前記調整情報記憶部は、前記解析部の解析結果に基づいた、前記再生装置の再生機能に対応するチャンネル数を示す情報を調整情報として記憶し、
     前記調整部は、前記調整情報に基づいた、前記再生装置の再生機能に対応するチャンネル数となるように、前記コンテンツデータに処理を施して調整する
     請求項2に記載のサーバ装置。
  7.  前記解析部は、前記再生装置より出力される音声に基づいて、前記再生装置のサンプリング周波数を解析し、
     前記調整情報記憶部は、前記解析部の解析結果に基づいて、前記再生装置の再生機能に対応するサンプリング周波数を示す情報を調整情報として記憶し、
     前記調整部は、前記調整情報に基づいた、前記再生装置の再生機能に対応するサンプリング数となるように、前記コンテンツデータにサンプリングレートの変換処理を施して調整する
     請求項2に記載のサーバ装置。
  8.  前記再生装置は、再生するコンテンツの音質を調整する音質調整部を含み、
     前記サーバ装置は、前記音質調整部の動作を停止させるコマンドを出力するコマンド出力部を含み、
     前記解析部は、前記コマンド出力部により、前記音質調整部による動作中の状態と停止中の状態における両方の前記再生装置より出力される音声を解析し、
     前記調整情報記憶部は、前記音質調整部による動作中の状態および停止中の状態のそれぞれについて、前記解析部の解析結果に基づいた、前記再生装置毎の再生機能に対応するように、前記コンテンツデータの調整に必要な調整情報を、前記再生装置を識別する情報に対応付けて記憶し、
     前記調整部は、前記音質調整部による動作中の状態および停止中の状態のそれぞれについての前記調整情報に基づいた、前記再生装置の再生機能に対応するように調整する
     請求項2に記載のサーバ装置。
  9.  前記コンテンツは、放送波により配信されるコンテンツを含み、
     前記コンテンツが放送波により配信される場合、前記調整部により前記コンテンツデータが調整される際に発生する遅延を加味したタイムスタンプの振り直しを行う遅延処理部をさらに含む
     請求項1に記載のサーバ装置。
  10.  前記サーバ装置は、前記再生装置より出力される音声を集音する携帯端末、および前記再生装置と共に配信システムを構成し、
     前記解析部は、前記携帯端末により集音された、前記再生装置より出力される音声を解析する
     請求項1に記載のサーバ装置。
  11.  前記サーバ装置は、ネットワークを介して接続された複数のサーバ装置より構成されるクラウドサーバ装置を含む
     請求項1に記載のサーバ装置。
  12.  コンテンツを再生装置に配信するサーバ装置の情報処理方法において、
     前記再生装置の再生機能に対応するように、前記コンテンツのコンテンツデータを調整するステップを含む
     サーバ装置の情報処理方法。
  13.  コンテンツを再生装置に配信するサーバ装置を制御するコンピュータを、
     前記再生装置の再生機能に対応するように、前記コンテンツのコンテンツデータを調整する調整部として機能するように実行させる
     プログラム。
PCT/JP2015/069380 2014-07-18 2015-07-06 サーバ装置、およびサーバ装置の情報処理方法、並びにプログラム WO2016009863A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016534368A JP6588016B2 (ja) 2014-07-18 2015-07-06 サーバ装置、およびサーバ装置の情報処理方法、並びにプログラム
US15/323,005 US20170142178A1 (en) 2014-07-18 2015-07-06 Server device, information processing method for server device, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014147596 2014-07-18
JP2014-147596 2014-07-18

Publications (1)

Publication Number Publication Date
WO2016009863A1 true WO2016009863A1 (ja) 2016-01-21

Family

ID=55078361

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/069380 WO2016009863A1 (ja) 2014-07-18 2015-07-06 サーバ装置、およびサーバ装置の情報処理方法、並びにプログラム

Country Status (3)

Country Link
US (1) US20170142178A1 (ja)
JP (1) JP6588016B2 (ja)
WO (1) WO2016009863A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000092486A (ja) * 1998-09-10 2000-03-31 Toshiba Corp 動画像送信装置および動画像再生装置ならびに動画像送信方法および動画像再生方法
JP2005529520A (ja) * 2002-06-05 2005-09-29 ソニック・フォーカス・インク 音響仮想現実エンジンおよび配信された音声改善のための新技術
JP2005321661A (ja) * 2004-05-10 2005-11-17 Kenwood Corp 情報処理システム、情報処理装置、情報処理方法、および音響環境改善用プログラム
JP2010093403A (ja) * 2008-10-06 2010-04-22 Panasonic Corp 音響再生システム、音響再生装置及び音響再生方法
WO2013105413A1 (ja) * 2012-01-11 2013-07-18 ソニー株式会社 音場制御装置、音場制御方法、プログラム、音場制御システム及びサーバ

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204001A (ja) * 1999-10-29 2001-07-27 Matsushita Electric Ind Co Ltd 動画像配信システム,再生端末装置,及び配信装置
US7035285B2 (en) * 2000-04-07 2006-04-25 Broadcom Corporation Transceiver method and signal therefor embodied in a carrier wave for a frame-based communications network
JP2002297496A (ja) * 2001-04-02 2002-10-11 Hitachi Ltd メディア配信システム及びマルチメディア変換サーバ
JP2004159037A (ja) * 2002-11-06 2004-06-03 Sony Corp 自動音響調整システム、音響調整装置、音響解析装置および音響解析処理プログラム
US20040181811A1 (en) * 2003-03-13 2004-09-16 Rakib Selim Shlomo Thin DOCSIS in-band management for interactive HFC service delivery
JP4241229B2 (ja) * 2003-07-15 2009-03-18 ヤマハ株式会社 コンテンツサーバ、携帯端末、及びデータ配信システム
EP1759531A2 (en) * 2004-06-14 2007-03-07 ROK Productions Limited Media player
JP2006115200A (ja) * 2004-10-14 2006-04-27 Fujitsu Ten Ltd 受信機
CN1936829B (zh) * 2005-09-23 2010-05-26 鸿富锦精密工业(深圳)有限公司 声音输出系统及方法
US7584289B2 (en) * 2006-07-14 2009-09-01 Abroadcasting Company System and method to efficiently broadcast television video and audio streams through the internet from a source in single leading time zone to multiple destinations in lagging time zones
US8502920B2 (en) * 2007-03-14 2013-08-06 Vyacheslav Shyshkin Method and apparatus for extracting a desired television signal from a wideband IF input
EP2175670A1 (en) * 2008-10-07 2010-04-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Binaural rendering of a multi-channel audio signal
CN102257562B (zh) * 2008-12-19 2013-09-11 杜比国际公司 用空间线索参数对多通道音频信号应用混响的方法和装置
JP2011065093A (ja) * 2009-09-18 2011-03-31 Toshiba Corp オーディオ信号補正装置及びオーディオ信号補正方法
US8752083B2 (en) * 2009-11-05 2014-06-10 Viacom International Inc. Integration of an interactive advertising unit containing a fully functional virtual object and digital media content
US8818175B2 (en) * 2010-03-08 2014-08-26 Vumanity Media, Inc. Generation of composited video programming
US9003455B2 (en) * 2010-07-30 2015-04-07 Guest Tek Interactive Entertainment Ltd. Hospitality media system employing virtual set top boxes
US20120054355A1 (en) * 2010-08-31 2012-03-01 Nokia Corporation Method and apparatus for generating a virtual interactive workspace with access based on spatial relationships
US8799395B2 (en) * 2010-11-22 2014-08-05 Deluxe Media Inc. Methods and systems of dynamically managing content for use by a media playback device
US20120155650A1 (en) * 2010-12-15 2012-06-21 Harman International Industries, Incorporated Speaker array for virtual surround rendering
CN103329576B (zh) * 2011-01-05 2016-12-07 皇家飞利浦电子股份有限公司 音频系统及其操作方法
JP2013135320A (ja) * 2011-12-26 2013-07-08 Toshiba Corp 周波数特性調整システムおよび周波数特性調整方法
EP2803066A1 (en) * 2012-01-11 2014-11-19 Dolby Laboratories Licensing Corporation Simultaneous broadcaster -mixed and receiver -mixed supplementary audio services
EP2832112A4 (en) * 2012-03-28 2015-12-30 Nokia Technologies Oy DETERMINING A TIME SHIFT
WO2013166439A1 (en) * 2012-05-04 2013-11-07 Setem Technologies, Llc Systems and methods for source signal separation
CN107509141B (zh) * 2012-08-31 2019-08-27 杜比实验室特许公司 具有声道重新映射器和对象渲染器的音频处理装置
EP2926339A4 (en) * 2012-11-27 2016-08-03 Nokia Technologies Oy COMMONLY USED AUDIOSCENE DEVICE
US9318116B2 (en) * 2012-12-14 2016-04-19 Disney Enterprises, Inc. Acoustic data transmission based on groups of audio receivers

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000092486A (ja) * 1998-09-10 2000-03-31 Toshiba Corp 動画像送信装置および動画像再生装置ならびに動画像送信方法および動画像再生方法
JP2005529520A (ja) * 2002-06-05 2005-09-29 ソニック・フォーカス・インク 音響仮想現実エンジンおよび配信された音声改善のための新技術
JP2005321661A (ja) * 2004-05-10 2005-11-17 Kenwood Corp 情報処理システム、情報処理装置、情報処理方法、および音響環境改善用プログラム
JP2010093403A (ja) * 2008-10-06 2010-04-22 Panasonic Corp 音響再生システム、音響再生装置及び音響再生方法
WO2013105413A1 (ja) * 2012-01-11 2013-07-18 ソニー株式会社 音場制御装置、音場制御方法、プログラム、音場制御システム及びサーバ

Also Published As

Publication number Publication date
JPWO2016009863A1 (ja) 2017-05-25
JP6588016B2 (ja) 2019-10-09
US20170142178A1 (en) 2017-05-18

Similar Documents

Publication Publication Date Title
US11563411B2 (en) Metadata for loudness and dynamic range control
KR102124547B1 (ko) 인코딩된 오디오 메타데이터-기반 등화
US10063204B2 (en) Loudness level control for audio reception and decoding equipment
US20090192638A1 (en) device for and method of generating audio data for transmission to a plurality of audio reproduction units
RU2617553C2 (ru) Система и способ для генерирования, кодирования и представления данных адаптивного звукового сигнала
KR102374897B1 (ko) 3차원 오디오 사운드트랙의 인코딩 및 재현
CN101753112B (zh) 音量校正装置、音量校正方法、音量校正程序以及电子设备
KR20210072388A (ko) 오디오 출력 장치 및 오디오 출력 장치의 제어 방법
JP6588016B2 (ja) サーバ装置、およびサーバ装置の情報処理方法、並びにプログラム
Herre et al. MPEG-H 3D audio: Immersive audio coding
KR101853662B1 (ko) 음향 데이터 처리방법 및 음향 데이터 처리장치
JP2007180662A (ja) 映像音声再生装置、方法およびプログラム
KR100569675B1 (ko) 오디오 데이터의 다운 믹스 방법 및 장치
JP6683618B2 (ja) 音声信号処理装置
KR20160002319U (ko) 오디오 일체형 셋톱박스
KR20060068380A (ko) 음향 재생 시스템의 2채널 출력 보강 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15821555

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016534368

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15323005

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15821555

Country of ref document: EP

Kind code of ref document: A1