WO2014103627A1 - 通信方法、音響装置、および通信装置 - Google Patents

通信方法、音響装置、および通信装置 Download PDF

Info

Publication number
WO2014103627A1
WO2014103627A1 PCT/JP2013/082443 JP2013082443W WO2014103627A1 WO 2014103627 A1 WO2014103627 A1 WO 2014103627A1 JP 2013082443 W JP2013082443 W JP 2013082443W WO 2014103627 A1 WO2014103627 A1 WO 2014103627A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio data
channel
channel audio
unit
head
Prior art date
Application number
PCT/JP2013/082443
Other languages
English (en)
French (fr)
Inventor
藤田 博之
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to EP13868324.8A priority Critical patent/EP2941021A4/en
Priority to CN201380068110.5A priority patent/CN104885483A/zh
Priority to US14/650,454 priority patent/US20150319550A1/en
Publication of WO2014103627A1 publication Critical patent/WO2014103627A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Definitions

  • the present invention relates to a technique for reproducing multi-channel sound using two speakers.
  • Patent Document 1 An example of this type of technology is the technology disclosed in Patent Document 1.
  • the following processing is executed by an audio amplifier to which each speaker of the left front channel and the right front channel is connected.
  • the audio amplifier disclosed in Patent Document 1 performs filtering on the rear-channel audio signal so that the rear-channel virtual sound image is localized at the rear-channel speaker position.
  • the audio amplifier superimposes the filtered audio signal on the audio signals of the left front channel and the right front channel and outputs the result.
  • the filter coefficient in the filter processing is a coefficient obtained by simulating the transfer characteristic (head-related transfer function) from the rear channel speaker position to the listener's ear based on the shape of the listener's head.
  • the audio amplifier includes a head shape detecting unit that detects a head shape of a listener, a filter that calculates the filter coefficient according to the head shape detected by the head shape detecting unit, and that performs the filtering process. Filter coefficient supply means for supplying.
  • a CPU Central Processing Unit
  • DSP Digital Signal Processor
  • An example of the object of the present invention is to provide a technique that enables multi-channel audio data to be reproduced without providing a CPU or DSP with high processing capability in an audio device to which two speakers are connected. .
  • An acoustic device includes an acquisition unit that acquires multichannel audio data, a transmission unit that transmits the multichannel audio data to a conversion device via a communication network, and the conversion device includes the multichannel audio.
  • a receiving unit configured to receive 2-channel audio data generated by converting data into a virtual sound source from the conversion device; and an audio reproducing unit configured to drive two speakers according to the 2-channel audio data.
  • a conversion device connected to the acoustic device via a communication network converts the sound of multi-channel audio data (for example, left and right surround channels and left and right rear channels) into a virtual sound source (
  • the conversion device may be a cloud server that provides a cloud service that converts rear-channel audio data into a virtual sound source for the audio device). For this reason, even if the audio apparatus does not include a CPU or DSP with high processing capability, it is possible to reproduce multi-channel sound using two speakers.
  • the communication method according to the embodiment of the present invention is used in a communication system including an acoustic device that is connected to a communication network with two speakers connected thereto, and a conversion device that is connected to the communication network.
  • the communication method acquires multi-channel audio data including audio data of a left front channel, a right front channel, and a first channel, and converts the multi-channel audio data from the acoustic device to the conversion device via the communication network.
  • At least first channel audio data of the multi-channel audio data is converted into a virtual sound source using a head-related transfer function, and the converted at least first channel audio data is converted to left front and right front
  • Two-channel audio data is generated by superimposing on the channel, the two-channel audio data is transmitted from the conversion device to the acoustic device via the communication network, and the two speakers are driven according to the two-channel audio data.
  • a communication device includes: an acquisition unit that acquires multi-channel audio data; a transmission unit that transmits the multi-channel audio data to a conversion device via a communication network; and the conversion device includes the multi-channel audio data.
  • a receiving unit configured to receive 2-channel audio data generated by converting the data into a virtual sound source from the converting device via the communication network; and an output unit configured to output the 2-channel audio data to an audio device.
  • FIG. 1 is a diagram showing a configuration example of a communication system 1A according to the first embodiment of the present invention.
  • the communication system 1A includes an AV receiver 10 and a virtual sound generator 30.
  • the AV receiver 10 may be a specific example of an audio device.
  • the virtual sound source device 30 is simply referred to as a conversion device 30 below.
  • the AV receiver 10 and the virtual sound source device 30 are connected to a communication network 20 that is an electric communication line such as the Internet.
  • a communication address for uniquely identifying each device such as an IP (Internet Protocol) address and a MAC (Media Access Control) address, is assigned to the AV receiver 10 and the conversion device 30 in advance.
  • the AV receiver 10 and the conversion device 30 perform data communication according to a predetermined communication protocol via the communication network 20.
  • the AV receiver 10 divides the transmission target data into data blocks having a predetermined data size, and assigns a predetermined header to each data block. Further, the AV receiver 10 sends each data block to the communication network 20 in order from the top data block.
  • This header includes information indicating the number of the data block from the beginning of the transmission target data. Further, this header includes a communication address of the AV receiver 10 as an identifier indicating the transmission source and a communication address of the conversion device 30 as an identifier indicating the destination.
  • each data block transmitted from the AV receiver 10 reaches its destination through routing by a relay device (for example, a router or a switching hub) provided in the communication network 20.
  • the conversion device 30 that is the destination refers to the header given to the received data block, concatenates the data blocks, and restores the transmission target data.
  • the AV receiver 10 is connected to a content reproduction device 40, a display device 50, a camera 60, and speakers 70L and 70R.
  • the content reproduction apparatus 40 may be, for example, a DVD (Digital Versatile Disc) player or a Blu-ray disc player.
  • the content playback device 40 starts reading content data recorded on a recording medium such as a DVD or a Blu-ray disc when the playback start instruction is given from the AV receiver 10, and the read content data is sent to the AV receiver 10.
  • the content data includes video data representing video that constitutes the content and audio data representing audio that is played back in synchronization with the display of the video.
  • the display device 50 may be a liquid crystal display, for example.
  • the display device 50 displays an image corresponding to the video signal given from the AV receiver 10.
  • the camera 60 may be a digital camera using a CCD (Charge-Coupled Device) image sensor, for example.
  • the camera 60 captures an image in response to an imaging instruction given from the AV receiver 10 and provides the AV receiver 10 with image data representing the captured image.
  • Each of the speaker 70L and the speaker 70R outputs an analog audio signal given from the AV receiver 10 as sound.
  • the AV receiver 10 and each device connected to the AV receiver 10 are used by users who view content using the AV receiver 10. It may be arranged in the living room.
  • a set of the AV receiver 10 and each device (in this embodiment, the content reproduction device 40, the display device 50, the camera 60, and the speakers 70L and 70R) connected to the AV receiver 10 is referred to as a “client side device group”.
  • client side device group Sometimes called.
  • FIG. 1 one set of client-side device groups is illustrated, but the number of client-side device groups is not limited to one set.
  • the communication system 1A may include a plurality of client side device groups.
  • FIG. 2 is a diagram illustrating an arrangement example in the living room LR of the display device 50, the camera 60, and the speakers 70L and 70R included in one set of client-side devices.
  • the display device 50 is arranged in front of the user U who is seated at the viewing position (that is, the viewer of content reproduced by the AV receiver 10).
  • the speaker 70L is disposed on the left side of the front of the user U.
  • the speaker 70 ⁇ / b> R is disposed on the right side in front of the user U. That is, the speaker 70L serves as a left front channel speaker that outputs sound coming from the left front to the user U seated at the viewing position.
  • the speaker 70R serves as a right front channel speaker that outputs sound coming from the right front to the user U.
  • the camera 60 is disposed on the display device 50 with the imaging surface facing the viewing position. The reason why the camera 60 is arranged in this way is to allow the user U to take a picture of the head of the user who sits at the viewing position and views the content.
  • the AV receiver 10 has an audio amplifier function that receives content data from the content playback device 40 and controls the operation of the speakers 70L and 70R and the display device 50. Further, the AV receiver 10 has a communication function for performing data communication via the communication network 20.
  • the AV receiver 10 has a tuner function as well as a general AV receiver. The description of the tuner function is omitted because it is not directly related to the present embodiment.
  • the AV receiver 10 includes an input processing unit 110, a video reproduction unit 120, an audio processing unit 130, a camera interface unit 140, a transmission unit 150, a reception unit 160, and an audio reproduction unit 170. And a control unit 180 that controls the operation of each of these units.
  • the input processing unit 110 and the receiving unit 160 may be specific examples of acquisition units.
  • the receiving unit 160 may be a specific example of an output unit.
  • the input processing unit 110 may be, for example, HDMI (registered trademark) (High-Definition Multimedia Interface).
  • the input processing unit 110 is connected to the content reproduction device 40 via a signal line such as an HDMI cable.
  • the input processing unit 110 gives a playback start instruction to the content playback device 40 and receives content data sent from the content playback device 40.
  • the input processing unit 110 separates video data and audio data from the received content data.
  • the input processing unit 110 provides video data to the video reproduction unit 120 and audio data to the audio processing unit 130.
  • the video playback unit 120 is connected to the display device 50.
  • the video reproduction unit 120 generates a video signal based on the video data supplied from the input processing unit 110 and supplies the video signal to the display device 50.
  • the audio processing unit 130 analyzes the audio data given from the input processing unit 110, so that the audio data is left and right one-channel audio data (that is, two-channel audio data) or multi-channel audio data. Determine if it exists.
  • the audio processing unit 130 determines that the audio data provided from the input processing unit 110 is 2-channel audio data
  • the audio processing unit 130 provides the audio reproduction unit 170 with the audio data.
  • the audio processing unit 130 determines that the audio data supplied from the input processing unit 110 is multi-channel audio data
  • the audio processing unit 130 supplies the audio data to the transmission unit 150.
  • the camera interface unit 140 is connected to the camera 60. Under the control of the control unit 180, the camera interface unit 140 gives an imaging instruction to the camera 60 and gives image data provided from the camera 60 to the transmission unit 150.
  • the transmission unit 150 and the reception unit 160 may be, for example, a NIC (Network Interface Card).
  • the transmission unit 150 and the reception unit 160 are connected to the communication network 20.
  • the transmission unit 150 transmits the multi-channel audio data provided from the audio processing unit 130 and the image data provided from the camera interface unit 140 to the conversion device 30 according to the predetermined communication protocol.
  • the conversion device 30 receives the multi-channel audio data transmitted from the AV receiver 10 in this way.
  • the conversion device 30 converts the rear channel sound represented by the received multi-channel audio data into a virtual sound source, superimposes it on each of the left and right front channels, converts it into two-channel audio data, and sends it back to the AV receiver 10. . Details will be described later.
  • the image data transmitted from the AV receiver 10 to the conversion device 30 is used to calculate a head related transfer function used when converting sound into a virtual sound source.
  • the receiving unit 160 receives the two-channel audio data returned from the conversion device 30 and gives it to the audio reproducing unit 170.
  • the audio reproducing unit 170 is connected to the speaker 70L and the speaker 70R.
  • the audio reproduction unit 170 performs D / A conversion on the 2-channel audio data provided from the audio processing unit 130 or the 2-channel audio data provided from the reception unit 160 to generate analog audio signals of the left channel and the right channel.
  • the audio reproducing unit 170 gives the generated analog audio signal to each of the speakers 70L and 70R.
  • the configuration of the client side device group has been described above.
  • the conversion device 30 includes a reception unit 310, a virtual sound source generation unit 320, and a transmission unit 330.
  • the virtual sound source generation unit 320 is simply referred to as the generation unit 320 below.
  • the receiving unit 310 and the transmitting unit 330 may be a NIC, for example.
  • the receiving unit 310 and the transmitting unit 330 are connected to the communication network 20.
  • the receiving unit 310 receives data transmitted via the communication network 20 in accordance with a predetermined communication protocol, and gives the data to the generating unit 320.
  • the transmitted data is image data or multi-channel audio data transmitted from the AV receiver 10.
  • the transmission unit 330 transmits the data given from the generation unit 320 to the communication network 20 according to a predetermined communication protocol.
  • the generation unit 320 includes a calculation unit 321 such as a CPU or a DSP and a storage unit 322 such as a RAM (Random Access Memory) (FIGS. 6 to 9 show only the generation unit 320 and the calculation unit 321 and the storage unit 322. Is omitted).
  • a calculation unit 321 such as a CPU or a DSP
  • a storage unit 322 such as a RAM (Random Access Memory)
  • FIGS. 6 to 9 show only the generation unit 320 and the calculation unit 321 and the storage unit 322. Is omitted).
  • the calculation unit 321 indicates the head shape (for example, the face width and the size of the pinna) of the user U shown in the image represented by the image data Generate shape data.
  • the virtual sound calculation unit 321 writes the head shape data in the storage unit 322 in association with an identifier indicating the transmission source of the image data.
  • the calculation unit 321 converts multi-channel audio data into 2-channel audio data. More specifically, the arithmetic unit 321 converts the sounds of the left and right channels other than the left front and right front channels into the direction of arrival and the head shape of the listener of the sound (in this embodiment, the user U). It converts into a virtual sound source using the corresponding head related transfer function.
  • the computing unit 321 performs a process of superimposing the sound of each channel converted into the virtual sound source on the left front channel and the right front channel to generate 2-channel audio data.
  • the calculation unit 321 gives the 2-channel audio data to the transmission unit 330.
  • a specific method for detecting the listener's head shape from image data of the listener's head, a specific method for calculating the head-related transfer function, and a virtual sound source using the head-related transfer function As a specific method for conversion, the method disclosed in US Pat. No. 7,095,865 may be used. This application incorporates the content of US Pat. No. 7,095,865. This is the end of the description of the configuration of the communication system 1A of the present embodiment.
  • 7.1 channel audio data includes left front channel FL, right front channel FR, center channel FC, left surround side channel SL, right surround side channel SR, left surround back channel BL, right surround back channel BR, and subwoofer channel Contains audio data for each channel of LFE.
  • the center channel FC represents a sound coming from the front with respect to the user U seated at the viewing position.
  • the left surround side channel SL represents a sound arriving from the left side with respect to the user U.
  • the right surround side channel SR represents the sound arriving from the right side with respect to the user U.
  • the left surround back channel BL represents a sound arriving from the left rear with respect to the user U.
  • the right surround back channel BR represents a sound arriving from the right rear with respect to the user U.
  • the subwoofer channel LFE represents a very low frequency range sound.
  • the AV receiver 10 of this embodiment is connected to only two real speakers, the speaker 70L that functions as a speaker of the left front channel FL and the speaker 70R that functions as a speaker of the right front channel FR.
  • the sound of each channel of the center channel FC, the left surround side channel SL, the right surround side channel SR, the left surround back channel BL, the right surround back channel BR, and the subwoofer channel LFE is converted into a virtual sound source. To do.
  • the user U sits at a predetermined viewing position for the purpose of viewing the content using the AV receiver 10 (see FIG. 2), and instructs the AV receiver 10 to start viewing the content using a remote controller or the like. To do.
  • the control unit 180 of the AV receiver 10 causes the camera interface unit 140 to output an imaging instruction and causes the input processing unit 110 to output a reproduction start instruction.
  • the camera 60 performs image capturing in accordance with the image capturing instruction, acquires image data, and outputs the image data to the AV receiver 10.
  • the camera 60 is installed on the display device 50 with the imaging surface facing the viewing position. For this reason, the image represented by the image data includes an image of the head of the user U seated at the viewing position.
  • Image data given from the camera 60 to the AV receiver 10 is transmitted to the conversion device 30 via the communication network 20 by the functions of the camera interface unit 140 and the transmission unit 150 of the AV receiver 10.
  • the calculation unit 321 of the generation unit 320 of the conversion device 30 receives the image data via the reception unit 310, the calculation unit 321 analyzes the image data and generates head shape data. Furthermore, the calculation unit 321 writes the head shape data in the association storage unit 322 with an identifier indicating the transmission source of the image data.
  • the content reproduction device 40 reads content data from the recording medium in response to a reproduction start instruction given from the AV receiver 10 and gives the content data to the AV receiver 10.
  • the input processing unit 110 of the AV receiver 10 receives content data from the content reproduction device 40
  • the input processing unit 110 separates audio data and video data included in the content data.
  • the input processing unit 110 provides audio data to the audio processing unit 130 and provides video data to the video reproduction unit 120.
  • the audio data included in the content data provided from the content reproduction apparatus 40 to the AV receiver 10 in this operation example is 7.1 channel audio data. Therefore, the voice processing unit 130 gives the audio data given from the input processing unit 110 to the transmission unit 150. Further, the transmission unit 150 transmits the audio data to the conversion device 30.
  • Multi-channel audio data transmitted from the AV receiver 10 to the conversion device 30 via the communication network 20 is received by the reception unit 310 of the conversion device 30.
  • the receiving unit 310 is provided with the received multi-channel audio data to the generating unit 320.
  • FIG. 4 shows an example of processing performed by the generation unit 320 on the multichannel audio data delivered from the reception unit 310 in the conversion device 30.
  • the generation unit 320 converts 7.1 channel audio data (shown as 7.1Ad in FIG. 4) into 2 channel audio data (shown as 2Ad in FIG. 4).
  • the generation unit 320 equally distributes the audio data of the subwoofer channel LFE and the center channel FC among the 7.1 channel audio data, and the audio data of the left front channel FL and the right front channel FR. Superimpose on.
  • the generation unit 320 uses the left surround side channel SL, the right surround side channel SR, the left surround back channel BL, and the right surround back channel BR (that is, left and right channels other than the left front and right front) as virtual sound sources. After being converted to, it is superimposed on the audio data of the left front channel FL and the right front channel FR.
  • the arithmetic unit 321 first performs the above multi For each channel, the head shape data stored in the storage unit 322 in association with the identifier indicating the transmission source of the channel audio data and the angle (that is, the angle corresponding to the channel) ⁇ indicating the direction of arrival of the sound with respect to the listener Calculate the head-related transfer function.
  • 100 ° for the left surround side channel SL
  • ⁇ 100 ° for the right surround side channel SR
  • 140 ° for the left surround back channel BL
  • ⁇ 140 for the right surround back channel BR.
  • the head-related transfer function of each channel may be calculated as °.
  • the calculation unit 321 associates information indicating the identifier and the channel (for example, information indicating the angle ⁇ ) with the head-related transfer function data indicating the calculated head-related transfer function, and writes the information in the storage unit 322.
  • the calculation unit 321 performs a filter process that convolves the head-related transfer function calculated for each of the audio data of the left surround side channel SL, the right surround side channel SR, the left surround back channel BL, and the right surround back channel BR. Apply.
  • the calculation unit 321 distributes each of the filtered audio data into a left front component and a right front component, and adjusts the delay amount of each component and performs crosstalk cancellation.
  • the arithmetic unit 321 superimposes and outputs the audio data subjected to various types of processing to the audio data of the left front channel FL and the right front channel FR.
  • the calculation unit 321 uses the head-related transfer function data stored in the storage unit 321 in association with an identifier indicating the transmission source to transmit the audio of each channel. Data may be converted into a virtual sound source.
  • the 2-channel audio data output from the generation unit 320 is returned by the transmission unit 330 to the transmission source of the multi-channel audio data (AV receiver 10 in this operation example).
  • the receiving unit 160 of the AV receiver 10 gives the two-channel audio data to the sound reproducing unit 170.
  • the audio reproduction unit 170 gives the audio signal of the left front channel FL generated according to the audio data to the speaker 70L.
  • the audio reproduction unit 170 gives the audio signal of the right front channel FR generated according to the audio data to the speaker 70R.
  • the user U of the AV receiver 10 listens to the sound output from the speakers 70L and 70R in this way.
  • the user U is given a sense of hearing as if the sounds of the left surround side channel SL / the right surround side channel SR / the left surround back channel BL / the right surround back channel BR are coming from behind. Furthermore, a sense of sound as if the sounds of the center channel FC and the subwoofer channel LFE arrive from a position intermediate between the speakers 70L and 70R.
  • the conversion device 30 is caused to execute conversion processing from multi-channel audio data to 2-channel audio data. As a result, it is not necessary to provide the AV receiver 10 with a CPU or DSP having a high processing capability. In other words, according to the first embodiment, it is possible to reproduce multi-channel sound by using left and right one-channel speakers without providing a high-performance CPU or DSP in the AV receiver 10. Further, if the conversion device 30 having a sufficiently high processing capability is used, even if the conversion processing service is provided to a plurality of sets of client-side devices, a problem occurs in real-time content playback. Can not be.
  • the conversion device 30 connected to the communication network 20 executes the conversion process from multi-channel audio data to 2-channel audio data.
  • multi-channel audio can be reproduced using left and right one-channel speakers without providing the AV receiver 10 with a CPU or DSP with high processing capability.
  • the image data given from the receiving unit 310 is analyzed to further detect the orientation of the user U's face, and the arrival direction of the sound to be converted into the virtual sound source is corrected according to the orientation of the user U's face.
  • the first embodiment is different in that the head-related transfer function is calculated.
  • a method for detecting the orientation of the face of the user U from an image captured by the camera 60 will be described.
  • the generating unit 320 of the second embodiment analyzes the image data received from the receiving unit 310 and recognizes the face of the user U included in the image represented by the image data.
  • a face recognition technique the technique disclosed in US Pat. No. 7,095,865 may be used.
  • FIG. 5A is a schematic diagram of the face of the user U recognized by the generation unit 320.
  • the generation unit 320 specifies the position of the eyes in the face recognized by the face recognition technique, and specifies the center position between the eyes. More specifically, the generation unit 320 first obtains the distance X between the eyes (see FIG. 5A), and sets the X / 2 position from the position of one eye toward the other eye as the center position between the eyes. Identify.
  • the generation unit 320 obtains the width Y (see FIG. 5A) of the face of the user U by the method disclosed in US Pat. No. 7,095,865, and is separated by Y / 2 from one end of the face toward the other end. This position is identified as the center position of the user U's face.
  • the generation unit 320 obtains a difference Z between the center position between both eyes of the user U and the center position of the user U's face.
  • the generation unit 320 corrects the angle ⁇ representing the direction of the localization position of the virtual sound source according to the angle ⁇ diff.
  • the generation unit 320 calculates the head-related transfer function taking into account the corrected angle ⁇ and the head shape of the user U.
  • the head related transfer function is calculated with a correction of (° -20 °).
  • the reason why the head-related transfer function is calculated in consideration of the direction of the viewer's face in addition to the shape of the head of the content viewer is as follows.
  • the viewer's face is deviated from the front and converted to a rear-channel virtual sound source using a head-related transfer function that assumes that the viewer is facing the front, the viewer's face is deviated.
  • the localization position of the virtual sound source is relatively shifted by the amount of.
  • the direction of arrival of sound of each channel is often determined in consideration of the production effect on the assumption that the viewer is facing the front.
  • the head-related transfer function is calculated in consideration of the orientation of the viewer's face, thereby correcting the localization position of the virtual sound source. Even if the orientation of the face is deviated from the front, the production effect intended by the content producer or the like is not impaired. This is the reason why the head-related transfer function is calculated in consideration of the orientation of the viewer's face in addition to the shape of the viewer's head.
  • the rear channel sound is converted into the virtual sound source more finely by taking into account the orientation of the viewer's face, and the multi-channel is obtained using the left and right one-channel speakers.
  • Channel audio can be played back.
  • processing for converting the rear channel sound into a virtual sound source is executed by the conversion device 30. For this reason, in the second embodiment, it is not necessary to provide the AV receiver 10 with a high-performance CPU or DSP.
  • the AV receiver 10 may transmit image data to the conversion device 30 every time a predetermined time elapses.
  • the AV receiver 10 determines whether or not the current image data acquired by the camera 60 is different from the previous image data, and transmits the acquired image data to the conversion device 30 when it is determined that the two image data are different. (For example, the AV receiver 10 determines whether or not the shape of the user's head represented by the current image data is different from the shape of the user's head represented by the previous image data). ).
  • the calculation unit 321 may calculate a head-related transfer function and write it in the storage unit 322 every time image data is received. When the processing is performed in this way, when the user viewing the content performs an operation such as changing the orientation of the face, the localization position of the virtual sound source can be updated following the operation.
  • the first and second embodiments of the present invention have been described above. These embodiments may be modified as follows.
  • the content data given to the AV receiver 10 includes audio data and video data. However, it is not limited to this configuration.
  • the content data may include only audio data.
  • the input processing unit 110 and the video reproduction unit 120 may be omitted.
  • the content playback device 40 is connected to the AV receiver 10 by a signal line such as an HDMI cable.
  • FIG. 6 shows a communication system 1B according to a second modification.
  • the communication system 1B includes at least a content server 80 that distributes the content data CD.
  • the content server 80 is connected to the communication network 20.
  • the content server 80 may be a supplier of the content data CD for the AV receiver 10.
  • the receiving unit 160 may be caused to execute a process of giving the content data CD received via the communication network 20 to the input processing unit 110. That is, the receiving unit 160 may be responsible for acquiring content data.
  • FIG. 7 shows a communication system 1C according to the third modification.
  • the communication system 1C includes at least an AV amplifier 12, a content reproduction device 40, a camera 60, and a communication adapter device 90.
  • the communication adapter device 90 includes an input processing unit 110, an audio processing unit 130, a camera interface unit 140, a transmission unit 150, a reception unit 160, and a control unit 180.
  • the communication adapter device 90 is connected to the content reproduction device 40, the camera 60 and the communication network 20. Further, the communication adapter device 90 is connected to the AV amplifier 12.
  • the AV amplifier 12 is connected to the communication network 20 via the communication adapter device 90.
  • the communication adapter device 90 may be a specific example of a communication device.
  • FIG. 8 shows a communication system 1D according to a fourth modification. As illustrated in FIG. 8, the communication system 1 ⁇ / b> D includes a communication adapter device 92 instead of the communication adapter device 90 illustrated in FIG. 7.
  • the communication adapter device 92 is connected to the AV amplifier 12 and acquires the content data CD from the content server 80 via the communication network 20.
  • the communication adapter device 92 may be a specific example of a communication device.
  • FIG. 9 shows a communication system 1E according to the fifth modification.
  • the communication system 1E includes an AV receiver 14, a conversion device 30, a content server 80, and a relay device 94.
  • the relay device 94 mediates data communication performed with the content server 80 according to a predetermined communication protocol. Specifically, the relay device 94 mediates communication between the AV receiver 14 and the content server 80.
  • the relay device 94 is connected to the communication network 20.
  • the communication network 20 is connected to the content server 80 and the conversion device 30.
  • the relay device 94 includes a first transmitter 150A, a first receiver 160A, a second transmitter 150B, a second receiver 160B, and a relay controller 200.
  • the first transmission unit 150A and the first reception unit 160A are connected to the communication network 20.
  • the second transmitter 150B and the second receiver 160B are connected to the communication network 120 connected to the AV receiver 14.
  • the first transmission unit 150 ⁇ / b> A is given data from the relay control unit 200 and transmits the data to the communication network 20.
  • Second transmission unit 150B receives data from relay control unit 200 and transmits the data to communication network 120.
  • the first receiving unit 160A gives the data received from the communication network 20 to the relay control unit 200.
  • the second receiving unit 160B gives the data received from the communication network 120 to the relay control unit 200.
  • the relay control unit 200 receives the content download request (content download request transmitted to the content server 80) received from the AV receiver 14 via the second reception unit 160B, and sends the content download request to the first transmission unit 150A. And transferred to the content server 80.
  • the relay control unit 200 receives the image data from the AV receiver 14, gives the image data to the first transmission unit 150 ⁇ / b> A, and transfers it to the conversion device 30.
  • the content server 80 receives the content download request transferred by the relay device 94 in this way.
  • the content server 80 transmits the content requested to be downloaded by the content download request to the AV receiver 14 via the relay device 94 and the communication network 120.
  • the conversion device 30 receives the image data transferred by the relay device 94.
  • the conversion device 30 analyzes the image data, generates head shape data representing the viewer's head shape, and stores the head shape data in association with an identifier indicating the transmission source of the image data.
  • the relay control unit 200 includes the voice processing unit 130 described above.
  • the relay control unit 200 receives content data from the content server 80 via the first receiving unit 160A.
  • the relay control unit 200 gives the audio data included in the content data to the audio processing unit 130.
  • the relay control unit 200 causes the audio processing unit 130 to determine whether the audio data is 2-channel audio data or multi-channel audio data. If it is determined that the data is 2-channel audio data, the relay control unit 200 gives the received content data to the second transmission unit 150B and sends it to the destination (that is, the AV receiver 14 that is the transmission source of the content download request). Forward.
  • the relay control unit 200 assigns the communication address of the AV receiver 14 to the multi-channel audio data as an identifier indicating the transmission source, and transmits the multi-channel audio data to the conversion device 30.
  • the relay control unit 200 receives the two-channel audio data transmitted from the conversion device 30 to the AV receiver 14 via the first receiving unit 160A.
  • the relay control unit 200 replaces the multi-channel audio data included in the content data with the 2-channel audio data, and transfers the content data to the AV receiver 14.
  • the effect similar to 1st and 2nd embodiment is acquired also by a 5th modification.
  • the conversion device 30 in the first and second embodiments performs conversion to 2-channel audio data in the order of reception.
  • the conversion device 30 may perform so-called QoS (Quality of Service).
  • QoS Quality of Service
  • priorities are assigned in advance to the transmission sources of multi-channel audio data.
  • the receiving unit 330 is associated with the first transmission source. A case will be described where channel audio data and second multi-channel audio data associated with a second transmission source are acquired.
  • the calculation unit 321 determines that the priority of the first transmission source is higher by comparing the priority of the first transmission source with the priority of the second transmission source. Therefore, the arithmetic unit 321 first starts converting the first multi-channel audio data into a virtual sound source. While the arithmetic unit 321 is converting the first multi-channel audio data into the virtual sound source, the multi-channel audio data received from the second transmission source is stored in the storage unit (queue) 322. Until the calculation unit 321 completes the conversion of the multichannel audio data received from the first transmission source into the virtual sound source, and the transmission unit 330 transmits the multi-channel audio data converted into the virtual sound source, the calculation unit 321 performs the first operation.
  • Conversion of the multi-channel audio data of the transmission source 2 to the virtual sound source is not started.
  • the second multi-channel received by the calculation unit 321 from the second transmission source A case where the receiving unit 320 receives the first multi-channel audio data from the first transmission source while converting the audio data into the virtual sound source will be described.
  • the arithmetic unit 321 interrupts the conversion of the second multi-channel audio data into the virtual sound source, and starts the conversion of the first multi-channel audio data into the virtual sound source.
  • the calculation unit 321 restarts the conversion of the second multi-channel audio data into the virtual sound source after the conversion of the first multi-channel audio data into the virtual sound source is completed.
  • the conversion device 30 may execute QoS according to the content of the received multi-channel audio data instead of QoS according to the priority order of the transmission source. For example, the conversion device 30 gives priority to the processing of multi-channel audio data representing music (such as a musical performance sound or singing voice) over the processing of multi-channel audio data representing speech such as conversation.
  • the reason for performing such processing is that, generally speaking, if it is a conversational voice, even if playback is interrupted, there is no significant effect, but if it is music, the effect of interrupting playback is large. Because.
  • the receiving unit 330 is associated with the first content.
  • the calculation unit 321 determines that the priority of the first content is higher by comparing the priority of the first content with the priority of the second content. Therefore, the calculation unit 321 gives priority to the conversion of the first multi-channel audio data into the virtual sound source.
  • QoS is executed in the relay device 94 shown in FIG. 9 will be described.
  • the audio processing unit 130 controls the processing order of the plurality of audio data according to the priority order of the destination of the content data.
  • the present invention can be applied to a communication method, an audio device, and a communication device.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

 音響装置は、マルチチャネルオーディオデータを取得する取得部と、前記マルチチャネルオーディオデータを通信網を介して変換装置へ送信する送信部と、前記変換装置が前記マルチチャネルオーディオデータを仮想音源に変換することにより生成された2チャネルオーディオデータを前記変換装置から受信する受信部と、前記2チャネルオーディオデータにしたがって2つのスピーカを駆動する音声再生部とを有する。

Description

通信方法、音響装置、および通信装置
 この発明は、2つのスピーカを用いてマルチチャネル音声を再生する技術に関する。
 本願は、2012年12月28日に、日本に出願された特願2012-287209号に基づき優先権を主張し、その内容をここに援用する。
 この種の技術の一例としては、特許文献1に開示の技術が挙げられる。特許文献1に開示の技術では、左フロントチャネルおよび右フロントチャネルの各スピーカが接続されたオーディオアンプに以下の処理を実行させる。この処理により、左フロントチャネルおよび右フロントチャネルの他に左右のリアチャネル等を含むマルチチャネル音声の再生を実現することができる。すなわち、特許文献1に開示のオーディオアンプは、マルチチャネルオーディオ信号を与えられると、リアチャネルのスピーカ位置にそのリアチャネルの仮想音像が定位するようにリアチャネルのオーディオ信号にフィルタ処理を施す。オーディオアンプは、フィルタ処理後のオーディオ信号を左フロントチャネルおよび右フロントチャネルのオーディオ信号に重畳させて出力する。上記フィルタ処理におけるフィルタ係数は、リアチャネルのスピーカ位置から聴取者の耳までの伝達特性(頭部伝達関数)をその聴取者の頭部の形状に基づいてシミュレートした係数である。上記オーディオアンプは、聴取者の頭部形状を検出する頭部形状検出手段と、頭部形状検出手段により検出した頭部形状に応じて上記フィルタ係数を算出し、上記フィルタ処理を実行するフィルタに供給するフィルタ係数供給手段とを有している。
日本国特開2003-230199号公報
 聴取者の頭部形状に応じた頭部伝達関数の算出には、処理能力の高いCPU(Central Processing Unit)やDSP(Digital Signal Processor)が必要となる。しかし、オーディオアンプに処理能力の高いCPUやDSPを設けると、オーディオアンプの価格が非常に高くなる。
 本発明は上記課題に鑑みて為された。本発明の目的の一例は、2つのスピーカの接続された音響装置に、処理能力の高いCPUやDSPを設けることなく、マルチチャネルオーディオデータを再生させることを可能にする技術を提供することである。
 本発明の実施態様にかかる音響装置は、マルチチャネルオーディオデータを取得する取得部と、前記マルチチャネルオーディオデータを通信網を介して変換装置へ送信する送信部と、前記変換装置が前記マルチチャネルオーディオデータを仮想音源に変換することにより生成された2チャネルオーディオデータを前記変換装置から受信する受信部と、前記2チャネルオーディオデータにしたがって2つのスピーカを駆動する音声再生部とを有する。
 上記の音響装置においては、通信網を介して音響装置に接続された変換装置が、マルチチャネルオーディオデータ(例えば、左右の各サラウンドチャネルや左右の各リアチャネル)の音を仮想音源に変換する(変換装置は、音響装置に対してリアチャネルのオーディオデータを仮想音源に変換するクラウドサービスを提供するクラウドサーバであってもよい)。このため、音響装置が処理能力の高いCPUやDSPを備えていなくても、2つのスピーカを用いてマルチチャネル音声を再生することが可能になる。
 本発明の実施態様にかかる通信方法は、2つのスピーカが接続されるとともに通信網に接続される音響装置と、前記通信網に接続される変換装置とを含む通信システムに用いられる。この通信方法は、左フロントのチャネル、右フロントのチャネルおよび第1チャネルのオーディオデータを含むマルチチャネルオーディオデータを取得し、前記マルチチャネルオーディオデータを前記通信網を介して前記音響装置から前記変換装置へ送信し、前記マルチチャネルオーディオデータの少なくとも第1チャネルのオーディオデータを、頭部伝達関数を用いて仮想音源に変換し、前記変換された少なくとも第1チャネルのオーディオデータを左フロントおよび右フロントのチャネルに重畳して2チャネルオーディデータを生成し、前記2チャネルオーディデータを前記通信網を介して前記変換装置から前記音響装置へ送信し、前記2チャネルオーディデータにしたがって前記2つのスピーカを駆動することを含む。
 本発明の実施態様にかかる通信装置は、マルチチャネルオーディオデータを取得する取得部と、前記マルチチャネルオーディオデータを通信網を介して変換装置へ送信する送信部と、前記変換装置が前記マルチチャネルオーディオデータを仮想音源に変換することにより生成された2チャネルオーディオデータを前記通信網を介して前記変換装置から受信する受信部と、前記2チャネルオーディオデータを音響装置へ出力する出力部とを有する。
この発明の第1実施形態の通信システムの構成例を示す図である。 第1実施形態における表示装置、カメラ、2つのスピーカの配置例を示す図である。 7.1チャネルマルチサラウンドにおけるスピーカ配置例を示す図である。 図1に示す通信システムにおける仮想音源化装置の動作を説明するための図である。 本発明の第2実施形態の仮想音源化装置の動作を説明するための図である。 本発明の第2実施形態の仮想音源化装置の動作を説明するための図である。 第1および第2の実施形態の第2の変形例の通信システムを示す図である。 第1および第2の実施形態の第3の変形例の通信システムを示す図である。 第1および第2の実施形態の第4の変形例の通信システムを示す図である。 第1および第2の実施形態の第5の変形例の通信システムの構成例を示す図である。
 以下、図面を参照しつつ、本発明の実施形態について説明する。
 (第1実施形態)
 図1は、この発明の第1実施形態の通信システム1Aの構成例を示す図である。
 通信システム1Aには、AVレシーバ10と仮想音源化装置30が含まれている。AVレシーバ10は、音響装置の具体例であってもよい。仮想音源化装置30を、以下において単に変換装置30と称する。図1に示すように、AVレシーバ10と仮想音源化装置30は、インターネットなどの電気通信回線である通信網20に接続されている。AVレシーバ10と変換装置30には、例えばIP(Internet Protocol)アドレスやMAC(Media Access Control)アドレスなど、各機器を一意に識別するための通信アドレスが予め割り当てられている。AVレシーバ10と変換装置30は、通信網20を介して所定の通信プロトコルにしたがったデータ通信を行う。
 例えば、AVレシーバ10から変換装置30にデータを送信する場合、AVレシーバ10は、送信対象データを予め定められたデータサイズのデータブロックに分割し、各データブロックに所定のヘッダを付与する。さらに、AVレシーバ10は、各データブロックを先頭のデータブロックから順に通信網20へ送出する。このヘッダは、送信対象データの先頭から何番目のデータブロックであるのかを示す情報を含む。さらに、このヘッダは、送信元を示す識別子としてAVレシーバ10の通信アドレスと、宛先を示す識別子として変換装置30の通信アドレスとを含む。このようにしてAVレシーバ10から送信された各データブロックは、通信網20に設けられている中継装置(例えば、ルータやスイッチングハブ)によるルーティングを経てその宛先へと到達する。その宛先である変換装置30は、受信したデータブロックに付与されているヘッダを参照して各データブロックを連結し上記送信対象データを復元する。
 AVレシーバ10には、図1に示すように、コンテンツ再生装置40、表示装置50、カメラ60、スピーカ70Lおよび70Rが接続されている。コンテンツ再生装置40は、例えばDVD(Digital Versatile Disc)プレイヤやブルーレイディスクプレイヤであってもよい。コンテンツ再生装置40は、AVレシーバ10から再生開始指示を与えられたことを契機として、DVDやブルーレイディスクなどの記録媒体に記録されたコンテンツデータの読み出しを開始し、読み出したコンテンツデータをAVレシーバ10に与える。コンテンツデータには、コンテンツを構成する映像を表す映像データとその映像の表示に同期させて再生する音声を表すオーディオデータが含まれている。表示装置50は、例えば液晶ディスプレイであってもよい。表示装置50は、AVレシーバ10から与えられるビデオ信号に応じた映像を表示する。カメラ60は、例えばCCD(Charge Coupled Device)イメージセンサを用いたデジタルカメラであってもよい。カメラ60は、AVレシーバ10から与えられる撮像指示に応じて画像を撮影し、撮影した画像を表す画像データをAVレシーバ10に与える。スピーカ70Lおよびスピーカ70Rの各々はAVレシーバ10から与えられるアナログオーディオ信号を音として出力する。
 AVレシーバ10とAVレシーバ10に接続される各装置(本実施形態では、コンテンツ再生装置40、表示装置50、カメラ60、スピーカ70Lおよび70R)は、AVレシーバ10を用いてコンテンツを視聴するユーザのリビングルームに配置されてもよい。以下の説明では、AVレシーバ10とAVレシーバ10に接続される各装置(本実施形態では、コンテンツ再生装置40、表示装置50、カメラ60、スピーカ70Lおよび70R)の組を「クライアント側装置群」と呼ぶ場合がある。図1では、1組のクライアント側装置群が図示されているが、クライアント側装置群の数は1組に限定されない。通信システム1Aに複数のクライアント側装置群が含まれていても良い。
 図2は、1組のクライアント側装置に含まれる表示装置50、カメラ60、スピーカ70Lおよび70RのリビングルームLRにおける配置例を示す図である。図2に示すように、本実施形態では、表示装置50は視聴位置に着席するユーザU(すなわち、AVレシーバ10により再生されるコンテンツの視聴者)の正面に配置される。スピーカ70LはユーザUの正面左側に配置される。スピーカ70RはユーザUの正面右側に配置される。つまり、スピーカ70Lは、視聴位置に着席したユーザUに対して左前方から到来する音を出力する左フロントチャネルスピーカの役割を果たす。スピーカ70Rは、ユーザUに対して右前方から到来する音を出力する右フロントチャネルスピーカの役割を果たす。カメラ60は、撮像面を上記視聴位置に向けた状態で表示装置50の上に配置される。カメラ60をこのように配置した理由は、上記視聴位置に着席してコンテンツを視聴するユーザUの頭部の画像を撮影できるようにするためである。
 AVレシーバ10は、コンテンツ再生装置40からコンテンツデータを受け取ってスピーカ70Lおよび70Rと表示装置50の作動を制御するオーディオアンプ機能を備える。さらに、AVレシーバ10は、通信網20を介してデータ通信する通信機能を備える。AVレシーバ10は、一般的なAVレシーバと同様にチューナ機能も有している。本実施形態と直接的な関連を有しないためチューナ機能の説明を省略する。図1に示すように、AVレシーバ10は、入力処理部110と、映像再生部120と、音声処理部130と、カメラインタフェース部140と、送信部150と、受信部160と、音声再生部170と、これら各部の作動を制御する制御部180とを有している。入力処理部110および受信部160は、取得部の具体例であってもよい。受信部160は、出力部の具体例であってもよい。
 入力処理部110は、例えばHDMI(登録商標)(High-Definition Multimedia Interface)であってもよい。入力処理部110は、HDMIケーブルなどの信号線を介してコンテンツ再生装置40に接続されている。入力処理部110は、制御部180による制御の下、コンテンツ再生装置40に対して再生開始指示を与えるとともに、コンテンツ再生装置40から送られてくるコンテンツデータを受け取る。入力処理部110は、受け取ったコンテンツデータから映像データとオーディオデータとを分離する。入力処理部110は、映像データを映像再生部120に与えるとともにオーディオデータを音声処理部130に与える。
 映像再生部120は、表示装置50と接続されている。映像再生部120は、入力処理部110から与えられる映像データに基づいてビデオ信号を生成し、そのビデオ信号を表示装置50に与える。音声処理部130は、入力処理部110から与えられるオーディオデータを解析することにより、そのオーディオデータが左右各1チャネルのオーディオデータ(すなわち、2チャネルオーディオデータ)であるか、それともマルチチャネルオーディオデータであるのかを判別する。音声処理部130は、入力処理部110から与えられたオーディオデータが2チャネルオーディオデータであると判定した場合には、そのオーディオデータを音声再生部170に与える。音声処理部130は、入力処理部110から与えられたオーディオデータがマルチチャネルオーディオデータであると判定した場合には、そのオーディオデータを送信部150に与える。
 カメラインタフェース部140は、カメラ60と接続される。カメラインタフェース部140は、制御部180による制御の下、カメラ60に対して撮像指示を与えるとともに、カメラ60から与えられる画像データを送信部150に与える。
 送信部150と受信部160は、例えばNIC(Network Interface Card)であってもよい。送信部150と受信部160は、通信網20に接続されている。送信部150は音声処理部130から与えられるマルチチャネルオーディオデータやカメラインタフェース部140から与えられる画像データを上記所定の通信プロトコルにしたがって変換装置30に送信する。変換装置30は、このようにしてAVレシーバ10から送信されたマルチチャネルオーディオデータを受信する。変換装置30は、受信したマルチチャネルオーディオデータの表すリアチャネルの音を仮想音源に変換して左右のフロントチャネル各々に重畳する処理を施して2チャネルオーディデータに変換し、AVレシーバ10へ返信する。詳細については後述する。AVレシーバ10から変換装置30に送信される画像データは、音を仮想音源に変換する際に使用する頭部伝達関数の算出に利用される。受信部160は、変換装置30から返信されてくる2チャネルオーディオデータを受信し、音声再生部170に与える。
 音声再生部170は、スピーカ70Lおよびスピーカ70Rと接続されている。音声再生部170は、音声処理部130から与えられる2チャネルオーディオデータまたは受信部160から与えられる2チャネルオーディオデータにD/A変換を施して左チャネルおよび右チャネルの各アナログオーディオ信号を生成する。音声再生部170は、生成したアナログオーディオ信号をスピーカ70Lおよび70Rの各々に与える。
 クライアント側装置群の構成の説明は以上である。
 次いで、変換装置30の構成について説明する。
 図1に示すように、変換装置30は、受信部310と、仮想音源生成部320と、送信部330とを有している。仮想音源生成部320は、以下において単に生成部320と称する。受信部310と送信部330は例えばNICであってもよい。受信部310と送信部330は通信網20に接続されている。受信部310は、所定の通信プロトコルにしたがって通信網20を介して送信されてくるデータを受信し、そのデータを生成部320に与える。本実施形態では、送信されてくるデータは、AVレシーバ10から送信された画像データまたはマルチチャネルオーディオデータである。送信部330は、生成部320から与えられるデータを所定の通信プロトコルにしたがって通信網20へ送出する。
 生成部320は、CPUやDSPなどの演算部321とRAM(Random Access Memory)などの記憶部322とを含んでいる(図6~9では生成部320のみを示し演算部321と記憶部322との図示を略している)。
 生成部320が、受信部310から画像データを与えられた場合について説明する。この場合、演算部321(すなわち、生成部320、以下同じ)は、その画像データの表す画像に写っているユーザUの頭部形状(例えば、顔幅および耳介の大きさ)を示す頭部形状データを生成する。さらに、仮想音演算部321は、頭部形状データをその画像データの送信元を示す識別子と対応付けて記憶部322に書き込む。
 生成部320が、受信部310からマルチチャネルオーディオデータを与えられた場合について説明する。この場合、演算部321は、マルチチャネルオーディオデータを2チャネルオーディオデータに変換する。より具体的には、演算部321は、左フロントおよび右フロントのチャネル以外の左右のチャネル各々の音をその到来方向およびその音の聴取者(本実施形態では、ユーザU)の頭部形状に応じた頭部伝達関数を用いて仮想音源に変換する。演算部321は、仮想音源に変換されたチャネル各々の音を、左フロントチャネルおよび右フロントチャネルに重畳してする処理を施して2チャネルオーディオデータを生成する。演算部321は、その2チャネルオーディオデータを送信部330に与える。聴取者の頭部を撮影した画像データからその聴取者の頭部形状を検出する具体的な方法、頭部伝達関数の具体的な算出方法、および、その頭部伝達関数を用いて仮想音源に変換するための具体的な方法については米国特許7095865号公報に開示の方法を利用しても良い。本願は、米国特許7095865号公報の内容をここに援用する。
 本実施形態の通信システム1Aの構成の説明は以上である。
 次いで、具体例として、コンテンツ再生装置40からAVレシーバ10へ7.1チャネルオーディオデータが与えられる場合におけるAVレシーバ10および変換装置30の動作を説明する。7.1チャネルオーディオデータは、左フロントチャネルFL、右フロントチャネルFR、センターチャネルFC、左サラウンドサイドチャネルSL、右サラウンドサイドチャネルSR、左サラウンドバックチャネルBL、右サラウンドバックチャネルBR、およびサブウーファーチャネルLFEの各チャネルのオーディオデータを含む。センターチャネルFCは、視聴位置に着席したユーザUに対して正面から到来する音を表す。左サラウンドサイドチャネルSLは、ユーザUに対して左側方から到来する音を表す。右サラウンドサイドチャネルSRは、ユーザUに対して右側方から到来する音を表す。左サラウンドバックチャネルBLは、ユーザUに対して左後方から到来する音を表す。右サラウンドバックチャネルBRは、ユーザUに対して右後方から到来する音を表す。サブウーファーチャネルLFEは、超低音域の音を表す。サブウーファーチャネルLFEを除く他の7つのチャネルの音を全て実スピーカにより再生する場合には、図3に示すように、聴取者を中心とする円周上に各スピーカを配置するべきことがITU勧告により推奨されている。これに対して、本実施形態のAVレシーバ10は、左フロントチャネルFLのスピーカとして機能するスピーカ70Lおよび右フロントチャネルFRのスピーカとして機能するスピーカ70Rの2台の実スピーカのみに接続されている。このため、本実施形態では、センターチャネルFC、左サラウンドサイドチャネルSL、右サラウンドサイドチャネルSR、左サラウンドバックチャネルBL、右サラウンドバックチャネルBRおよびサブウーファーチャネルLFEの各チャネルの音を仮想音源に変換する。
 ユーザUは、AVレシーバ10を利用してコンテンツを視聴することを目的として、予め定められた視聴位置に着席し(図2参照)、リモコン等を用いてコンテンツの視聴開始をAVレシーバ10に指示する。このようにして視聴開始を指示されると、AVレシーバ10の制御部180は、カメラインタフェース部140に撮像指示を出力させるとともに入力処理部110に再生開始指示を出力させる。カメラ60は、その撮像指示に応じて撮像を行って画像データを取得し、その画像データをAVレシーバ10へ出力する。前述したように、カメラ60は、撮像面を視聴位置に向けた状態で表示装置50の上に設置されている。このため、上記の画像データの表す画像は、視聴位置に着席しているユーザUの頭部の画像を含んでいる。カメラ60からAVレシーバ10へ与えられた画像データは、AVレシーバ10のカメラインタフェース部140および送信部150の働きにより、通信網20を介して変換装置30へ送信される。変換装置30の生成部320の演算部321は、受信部310を介して画像データを受信すると、その画像データを解析して頭部形状データを生成する。さらに、演算部321は、頭部形状データをその画像データの送信元を示す識別子と対応付け記憶部322に書き込む。
 コンテンツ再生装置40はAVレシーバ10から与えられる再生開始指示に応じて記録媒体からコンテンツデータを読み出し、そのコンテンツデータをAVレシーバ10に与える。AVレシーバ10の入力処理部110は、コンテンツ再生装置40からコンテンツデータを受け取ると、そのコンテンツデータに含まれるオーディオデータと映像データとを分離する。入力処理部110は、オーディオデータを音声処理部130に与え、映像データを映像再生部120に与える。前述したように、本動作例においてコンテンツ再生装置40からAVレシーバ10に与えられるコンテンツデータに含まれているオーディオデータは7.1チャネルオーディオデータである。このため、音声処理部130は、入力処理部110から与えられたオーディオデータを送信部150に与える。さらに、送信部150はそのオーディオデータを変換装置30へ送信する。
 通信網20を介してAVレシーバ10から変換装置30へ送信されたマルチチャネルオーディオデータは、変換装置30の受信部310によって受信される。当該受信部310は、受信したマルチチャネルオーディオデータを生成部320に与えられる。図4は、変換装置30において、受信部310から引き渡されるマルチチャネルオーディオデータに対して生成部320が施す処理の一例を示す。図4に示すように、生成部320は、7.1チャネルオーディオデータ(図4において7.1Adとして示す)を2チャネルオーディオデータ(図4において2Adとして示す)に変換する。より具体的には、生成部320は、7.1チャネルオーディオデータのうち、サブウーファーチャネルLFEおよびセンターチャネルFCの各オーディオデータを均等に振り分けて左フロントチャネルFLおよび右フロントチャネルFRの各オーディオデータに重畳する。一方、生成部320は、左サラウンドサイドチャネルSL、右サラウンドサイドチャネルSR、左サラウンドバックチャネルBL、および右サラウンドバックチャネルBRの各々(すなわち、左フロントおよび右フロント以外の左右のチャネル)を仮想音源に変換する処理を施した後に左フロントチャネルFLおよび右フロントチャネルFRの各オーディオデータに重畳する。
 より詳細に説明すると、左サラウンドサイドチャネルSL、右サラウンドサイドチャネルSR、左サラウンドバックチャネルBL、および右サラウンドバックチャネルBRの各々を仮想音源に変換する処理では、演算部321は、まず、上記マルチチャネルオーディオデータの送信元を示す識別子に対応付けて記憶部322に格納されている頭部形状データと聴取者に対する音の到来方向を示す角度(すなわち、チャネルに応じた角度)θとからチャネル毎に頭部伝達関数を算出する。例えば、左サラウンドサイドチャネルSLについてはθ=100°、右サラウンドサイドチャネルSRについてはθ=-100°、左サラウンドバックチャネルBLについてはθ=140°、右サラウンドバックチャネルBRについてはθ=-140°として各チャネルの頭部伝達関数を算出してもよい。そして、演算部321は、算出された頭部伝達関数を表す頭部伝達関数データに上記識別子およびチャネルを示す情報(例えば、上記角度θを示す情報)を対応付けて記憶部322に書き込む。
 次いで、演算部321は、左サラウンドサイドチャネルSL、右サラウンドサイドチャネルSR、左サラウンドバックチャネルBL、および右サラウンドバックチャネルBRのオーディオデータの各々に対して算出された頭部伝達関数を畳み込むフィルタ処理を施す。演算部321は、フィルタ処理を施されたオーディオデータの各々を左フロント成分および右フロント成分に振り分け、各成分の遅延量の調整およびクロストークキャンセル等を施す。次に、演算部321は、各種の処理を施されたオーディオデータの各々を左フロントチャネルFLおよび右フロントチャネルFRの各オーディオデータに重畳して出力する。同じ送信元から後続のマルチチャネルオーディオデータを受信した場合には、演算部321はその送信元を示す識別子に対応付けて記憶部321に記憶された頭部伝達関数データを用いて各チャネルのオーディオデータを仮想音源に変換してもよい。
 前述したように生成部320から出力される2チャネルオーディオデータは送信部330によって上記マルチチャネルオーディオデータの送信元(本動作例ではAVレシーバ10)へ返信される。AVレシーバ10の受信部160は変換装置30から返信されてくる2チャネルオーディオデータを受信すると、その2チャネルオーディオデータを音声再生部170に与える。音声再生部170はそのオーディオデータにしたがって生成した左フロントチャネルFLのオーディオ信号をスピーカ70Lに与える。また、音声再生部170はそのオーディオデータにしたがって生成した右フロントチャネルFRのオーディオ信号をスピーカ70Rに与える。AVレシーバ10のユーザUは、このようにしてスピーカ70Lおよび70Rから出力される音を聴く。その結果、ユーザUに対して、自身の後方から左サラウンドサイドチャネルSL/右サラウンドサイドチャネルSR/左サラウンドバックチャネルBL/右サラウンドバックチャネルBRの各音が到来するかのような聴感が与えられ、さらにスピーカ70Lと70Rの中間の位置からセンターチャネルFCおよびサブウーファーチャネルLFEの音が到来するかのような聴感が与えられる。
 以上説明したように、第1実施形態では、マルチチャネルオーディオデータから2チャネルオーディオデータへの変換処理を変換装置30に実行させる。その結果、AVレシーバ10に処理能力の高いCPUやDSPを設けておく必要はない。つまり、第1実施形態によれば、処理能力の高いCPUやDSPをAVレシーバ10に設けることなく、左右各1チャネルのスピーカを用いてマルチチャネル音声を再生することが可能になる。また、充分に高い処理能力を有する変換装置30を用いるようにすれば、複数組のクライアント側装置群に対して上記変換処理サービスを提供する場合であっても、コンテンツのリアルタイム再生に支障が生じないようにすることができる。
 (第2実施形態)
 上記第1実施形態では、マルチチャネルオーディオデータから2チャネルオーディオデータへの変換処理を、通信網20に接続された変換装置30に実行させている。その結果、第1実施形態では、AVレシーバ10に処理能力の高いCPUやDSPを設けることなく、左右各1チャネルのスピーカを用いてマルチチャネル音声を再生できる。第2実施形態は、受信部310から与えられる画像データを解析してさらにユーザUの顔の向きを検出し、仮想音源に変換する音の到来方向をそのユーザUの顔の向きに応じて補正して頭部伝達関数を算出する点において上記第1実施形態と異なる。以下では、カメラ60により撮影した画像からユーザUの顔の向きを検出する方法について説明する。
 第2実施形態の生成部320は、受信部310より受け取った画像データを解析し、その画像データの表す画像に含まれているユーザUの顔を認識する。顔の認識技術として、米国特許7095865号公報に開示の技術を利用すれば良い。図5Aは、生成部320により認識されたユーザUの顔の模式図である。生成部320は、上記顔認識技術により認識した顔における目の位置を特定し、両目の間の中心位置を特定する。より詳細に説明すると、生成部320は、まず、両目の間隔X(図5A参照)を求め、一方の目の位置から他方の目に向かってX/2の位置を両目の間の中心位置と特定する。
 また、生成部320は、米国特許7095865号公報に開示の手法により、ユーザUの顔の幅Y(図5A参照)を求め、顔の一方の端から他方の端に向かってY/2だけ離れた位置をユーザUの顔の中心位置と特定する。生成部320は、ユーザUの両目に間の中心位置とユーザUの顔の中心位置との差Zを求める。生成部320は、以下の式(1)にしたがってユーザUの顔の向きを表す角度θdiffを求める。ユーザUが正面を向いている状態、すなわち、ユーザUの両目の間の中心位置と顔の中心位置とが一致している状態であれば、θdiff=0°となる。式(1)の右辺のsin-1()は逆正弦関数を意味する。ユーザUの顔の向きを表す角度θdiffを式(1)により算出することができる理由は、図5Bに示す幾何学的関係から明らかである。
 θdiff=sin-1(2Z/Y)・・・(1)
 次いで、生成部320は、仮想音源の定位位置の方向を表す角度θを上記角度θdiffに応じて補正する。生成部320は、補正された角度θとユーザUの頭部形状とを加味して頭部伝達関数を計算する。具体例として、θdiff=20°と算出された場合について説明する。この場合、左サラウンドバックチャネルBLの到来方向を示す角度θを120°(=140°-20°)に補正し、右サラウンドバックチャネルBRの到来方向を示す角度θを-160°(=-140°-20°)に補正して頭部伝達関数の計算を行う。
 このように、コンテンツの視聴者の頭部形状に加えて視聴者の顔の向きを加味して頭部伝達関数を算出するようにした理由は以下の通りである。視聴者の顔の向きが正面からずれた状態で、視聴者が正面を向いていることを想定した頭部伝達関数を用いてリアチャネルの仮想音源に変換すると、視聴者の顔の向きのずれの分だけ相対的に仮想音源の定位位置がずれてしまう。映画などのコンテンツにおいては、視聴者が正面を向いていることを前提に演出効果を考慮して各チャネルの音の到来方向が定められていることが多い。したがって、視聴者の顔の向きのずれに起因して仮想音源の定位位置が相対的にずれてしまうと、コンテンツ製作者の意図した演出効果が損なわれてしまう場合がある。これに対して、第2実施形態によれば、視聴者の顔の向きを加味して頭部伝達関数の算出が行われ、これにより仮想音源の定位位置の補正が行われるため、視聴者の顔の向きが正面からずれている場合であってもコンテンツ製作者等の意図した演出効果が損なわれることはない。これが、視聴者の頭部の形状に加えて当該視聴者の顔の向きを加味して頭部伝達関数を算出するようにした理由である。
 このように、第2実施形態によれば、視聴者の顔の向きを加味することでリアチャネルの音の仮想音源への変換をよりきめ細やかに行い、左右各1チャネルのスピーカを用いてマルチチャネル音声を再生することが可能になる。
 第2実施形態においてもリアチャネルの音を仮想音源に変換するための処理は変換装置30によって実行される。このため、第2実施形態においてもAVレシーバ10に処理能力の高いCPUやDSPを設けておく必要はない。
 AVレシーバ10は、変換装置30へ所定時間が経過する毎に画像データを送信してもよい。AVレシーバ10は、カメラ60により取得された今回の画像データが前回の画像データと相違するか判断し、両画像データが相違すると判断した場合に、変換装置30へ取得された画像データを送信してもよい(例えば、AVレシーバ10は、今回の画像データによって表されるユーザの頭部の形状が、前回の画像データによって表されるユーザの頭部の形状と相違するか否か判断する。)。演算部321は画像データを受信する毎に頭部伝達関数を算出して記憶部322に書き込んでも良い。このように処理を行った場合、コンテンツを視聴中のユーザが顔の向きを変えるなどの動作を行った場合、その動作に追従させて仮想音源の定位位置を更新することが可能になる。すなわち、このような処理を行った場合、AVレシーバ10による音の再生中にユーザが顔の向きを変えても、その動作に追従した頭部伝達関数を用いることができる。その結果、仮想音源の定位位置をユーザの動作に追従させて変化させることができる。
 (変形例)
 以上本発明の第1および第2の実施形態について説明した。これら実施形態を以下のように変形しても良い。
 (第1の変形例)
 上記第1および第2の実施形態では、AVレシーバ10に与えられるコンテンツデータは、オーディオデータと映像データとを含んでいる。しかしながらこの構成に限定されない。コンテンツデータは、オーディオデータのみを含んでいても良い。この場合、入力処理部110および映像再生部120は省略してもよい。
 (第2の変形例)
 第1および第2実施形態では、AVレシーバ10に対するコンテンツデータの供給元がAVレシーバ10に対してHDMIケーブルなどの信号線により接続されたコンテンツ再生装置40である。しかしながらこの構成に限定されない。図6は、第2の変形例にかかる通信システム1Bを示す。通信システム1Bは、コンテンツデータCDの配信を行うコンテンツサーバ80を少なくとも備える。コンテンツサーバ80は、通信網20に接続される。コンテンツサーバ80が、AVレシーバ10に対するコンテンツデータCDの供給元であっても良い。この場合、図6に示すように、受信部160に、通信網20を介して受信したコンテンツデータCDを入力処理部110に与える処理を実行させてもよい。すなわち、受信部160に、コンテンツデータを取得する役割を担わせてもよい。
 (第3の変形例)
 図7は、第3の変形例にかかる通信システム1Cを示す。通信システム1Cは、AVアンプ12、コンテンツ再生装置40、カメラ60、および通信アダプタ装置90を少なくとも備える。図7に示すように、通信アダプタ装置90は、入力処理部110、音声処理部130、カメラインタフェース部140、送信部150、受信部160、および制御部180を備える。通信アダプタ装置90は、コンテンツ再生装置40、カメラ60および通信網20に接続する。さらに、通信アダプタ装置90は、AVアンプ12に接続する。AVアンプ12は、通信アダプタ装置90を介して通信網20に接続する。このような構成により、映像再生部120および音声再生部170のみを有するAVアンプ12を用いた場合であっても第1および第2実施形態と同様の効果を得られる。通信アダプタ装置90は、通信装置の具体例であってもよい。
 (第4の変形例)
 図8は、第4の変形例にかかる通信システム1Dを示す。図8に示すように、通信システム1Dは、図7に示す通信アダプタ装置90に換えて、通信アダプタ装置92を備える。通信アダプタ装置92は、AVアンプ12に接続し、通信網20経由でコンテンツサーバ80からコンテンツデータCDを取得する。通信アダプタ装置92は、通信装置の具体例であってもよい。
 (第5の変形例)
 図9は、第5の変形例にかかる通信システム1Eを示す。通信システム1Eは、AVレシーバ14、変換装置30、コンテンツサーバ80および中継装置94を備える。中継装置94は、コンテンツサーバ80との間で所定の通信プロトコルにしたがって行われるデータ通信を仲介する。具体的には、中継装置94は、AVレシーバ14とコンテンツサーバ80との通信を仲介する。図9に示すように、中継装置94は通信網20に接続されている。通信網20は、コンテンツサーバ80と変換装置30とに接続されている。この中継装置94は、第1送信部150A、第1受信部160A、第2送信部150B、第2受信部160B、および中継制御部200を含んでいる。第1送信部150Aおよび第1受信部160Aは、通信網20に接続されている。第2送信部150Bおよび第2受信部160Bは、AVレシーバ14に接続された通信網120に接続されている。第1送信部150Aは、中継制御部200からデータを与えられ、そのデータを通信網20へ送出する。第2送信部150Bは、中継制御部200からデータを与えられ、そのデータを通信網120へ送出する。第1受信部160Aは、通信網20から受信したデータを中継制御部200に与える。第2受信部160Bは、通信網120から受信したデータを中継制御部200に与える。
 中継制御部200は、第2受信部160Bを介してAVレシーバ14から受信したコンテンツダウンロード要求(コンテンツサーバ80宛てに送信されたコンテンツダウンロード要求)を受信し、そのコンテンツダウンロード要求を第1送信部150Aに与えてコンテンツサーバ80に転送する。中継制御部200は、AVレシーバ14から画像データを受信し、その画像データを第1送信部150Aに与え変換装置30に転送する。コンテンツサーバ80は、このようにして中継装置94により転送されたコンテンツダウンロード要求を受信する。コンテンツサーバ80は、そのコンテンツダウンロード要求によりダウンロードを要求されたコンテンツを中継装置94および通信網120を介してAVレシーバ14に送信する。変換装置30は、中継装置94により転送された画像データを受信する。変換装置30は、その画像データを解析して視聴者の頭部形状を表す頭部形状データを生成し、頭部形状データをその画像データの送信元を示す識別子と対応付けて記憶する。
 中継制御部200は、前述した音声処理部130を含んでいる。中継制御部200は、コンテンツサーバ80からコンテンツデータを第1受信部160Aを介して受信する。中継制御部200は、そのコンテンツデータに含まれているオーディオデータを音声処理部130に与える。中継制御部200は、音声処理部130にそのオーディオデータが2チャネルオーディオデータであるのか、それともマルチチャネルオーディオデータであるのかを判別させる。2チャネルオーディオデータであると判別された場合には、中継制御部200は、受信したコンテンツデータを第2送信部150Bに与えてその宛先(すなわち、コンテンツダウンロード要求の送信元のAVレシーバ14)へ転送する。マルチチャネルオーディオデータであると判別された場合には、中継制御部200は、マルチチャネルオーディオデータに、送信元を示す識別子としてAVレシーバ14の通信アドレスを付与して変換装置30に送信する。中継制御部200は、変換装置30からAVレシーバ14宛てに送信されてくる2チャネルオーディオデータを第1受信部160Aを介して受信する。中継制御部200は、上記コンテンツデータに含まれているマルチチャネルオーディオデータをその2チャネルオーディオデータに置き換えて、そのコンテンツデータをAVレシーバ14へ転送する。第5の変形例によっても第1および第2実施形態と同様な効果が得られる。
 (第6の変形例)
 第1および第2実施形態における変換装置30は、複数のAVレシーバ(送信元)10からマルチチャネルオーディオデータを受信した場合には、その受信順に2チャネルオーディオデータへの変換を行う。しかしながらこの構成に限定されない。変換装置30は、所謂QoS(Quality of Service)を行っても良い。具体的には、マルチチャネルオーディオデータの送信元について予め優先順位を付けておく。
 具体例として、第1の送信元の優先順位が第2の送信元の優先順位がよりも高く設定されている状況において、受信部330が第1の送信元に対応付けられた第1のマルチチャネルオーディオデータと第2の送信元に対応付けられた第2のマルチチャネルオーディオデータを取得した場合について説明する。この場合、演算部321は、第1の送信元の優先順位と第2の送信元の優先順位とを比較することにより、第1の送信元の優先順位がより高いと判断する。そのため、演算部321は、先に、第1のマルチチャネルオーディオデータの仮想音源への変換を開始する。演算部321が第1のマルチチャネルオーディオデータを仮想音源に変換している間は、第2の送信元から受信したマルチチャネルオーディオデータを記憶部(キュー)322に貯めておく。演算部321が第1の送信元より受信したマルチチャネルオーディオデータの仮想音源への変換が完了し、送信部330が仮想音源へ変換されたマルチチャネルオーディオデータを送信するまで、演算部321は第2の送信元のマルチチャネルオーディオデータの仮想音源への変換を開始しない。
 別の具体例として、第1の送信元の優先順位が第2の送信元の優先順位よりも高く設定されている状況において、演算部321が第2の送信元より受信した第2のマルチチャネルオーディオデータを仮想音源に変換中に受信部320が第1の送信元より第1のマルチシャネルオーディオデータを受信した場合について説明する。この場合、演算部321は、第2のマルチチャネルオーディオデータの仮想音源への変換を中断し、第1のマルチチャネルオーディオデータの仮想音源への変換を開始する。この場合において、演算部321は、第1のマルチチャネルオーディオデータの仮想音源への変換が完了した後に、第2のマルチチャネルオーディオデータの仮想音源への変換を再開する。
 変換装置30は、送信元の優先順位に応じたQoSではなく、受信したマルチチャネルオーディオデータの内容に応じたQoSを実行してもよい。例えば、変換装置30は、音楽(楽曲の演奏音や歌唱音声など)を表すマルチチャネルオーディオデータの処理を、会話等の音声を表すマルチチャネルオーディオデータの処理よりも優先させる。このような処理を行う理由は、一般に、会話の音声であれば、再生が途切れ途切れになったとしても大きな影響は生じないが、音楽であれば、再生が途切れ途切れになることの影響が大きいからである。
 具体例として、第1の内容(音楽)の優先順位が、第2の内容(音声)よりも高く設定されている状況において、受信部330が第1の内容に対応付けられた第1のマルチチャネルオーディオデータと第2の内容に対応付けられた第2のマルチチャネルオーディオデータを取得した場合について説明する。この場合、演算部321は、第1の内容の優先順位と第2の内容の優先順位とを比較することにより、第1の内容の優先順位がより高いと判断する。そのため、演算部321は、第1のマルチチャネルオーディオデータの仮想音源への変換を優先する。
 図9に示す中継装置94において、QoSを実行する場合について説明する。この場合、音声処理部130は、複数のオーディオデータを処理する順番をコンテンツデータの宛先の優先順位に応じて制御する。
 本発明は、通信方法、音響装置、および通信装置に適用し得る。
1A,1B、1C、1D、1E…通信システム
10…AVレシーバ
12…AVアンプ
110…入力処理部
120…映像再生部
130…音声処理部
140…カメラインタフェース部
150…送信部
160…受信部
170…音声再生部
180…制御部
20…通信網
30…変換装置
310…受信部
320…仮想音源生成部
330…送信部
80…コンテンツサーバ
90,92…通信アダプタ装置
94…中継装置
150A…第1送信部
160A…第1受信部
150B…第2送信部
160B…第2受信部
200…中継制御部

Claims (9)

  1.  2つのスピーカが接続されるとともに通信網に接続される音響装置と、前記通信網に接続される変換装置とを含む通信システムのための通信方法であって、
     左フロントのチャネル、右フロントのチャネルおよび第1チャネルのオーディオデータを含むマルチチャネルオーディオデータを取得し、
     前記マルチチャネルオーディオデータを前記通信網を介して前記音響装置から前記変換装置へ送信し、
     前記マルチチャネルオーディオデータの少なくとも第1チャネルのオーディオデータを、頭部伝達関数を用いて仮想音源に変換し、
     前記変換された少なくとも第1チャネルのオーディオデータを左フロントおよび右フロントのチャネルに重畳して2チャネルオーディデータを生成し、
     前記2チャネルオーディデータを前記通信網を介して前記変換装置から前記音響装置へ送信し、
     前記2チャネルオーディデータにしたがって前記2つのスピーカを駆動する
     ことを含む通信方法。
  2.  ユーザの頭部を表す画像データを取得し、
     前記画像データを前記音響装置から前記変換装置へ送信し、
     前記画像データを解析して前記ユーザの頭部の形状を検出することをさらに含み、
     前記仮想音源に変換することは、前記第1チャネルのオーディオデータを前記ユーザの頭部の形状に応じた頭部伝達関数を用いて仮想音源に変換することを含む
     請求項1に記載の通信方法。
  3.  前記画像データを解析して前記ユーザの顔の向きを検出し、
     前記頭部伝達関数を前記ユーザの顔の向きを加味して算出する
     ことを含む請求項2に記載の通信方法。
  4.  ユーザの頭部を表す画像データを所定時間毎に前記音響装置から前記変換装置へ送信し、
     前記変換装置における前記画像データの受信毎に前記画像データを解析して前記ユーザの頭部の形状を検出することさらに含み、
     前記仮想音源に変換することは、前記第1チャネルのオーディオデータを前記ユーザの頭部の形状に応じた頭部伝達関数を用いて仮想音源に変換することを含む
     請求項1に記載の通信方法。
  5.  ユーザの頭部を表す第1の画像データを取得後にユーザの頭部を表す第2の画像データを取得し、
     前記第1の画像データを前記音響装置から前記変換装置へ送信し、
     前記第2の画像データが前記第1の画像データと相違するか判断し、
     前記第2の画像データが前記第1の画像データと相違すると判断されたことに応答して、前記第2の画像データを前記音響装置から前記変換装置へ送信し、
     前記第2の画像データを解析してユーザの頭部の形状を検出することさらに含み、
     前記仮想音源に変換することは、前記第1チャネルのオーディオデータを前記ユーザの頭部の形状に応じた頭部伝達関数を用いて仮想音源に変換することを含む
     請求項1に記載の通信方法。
  6.  前記マルチチャネルオーディオデータは、第1の送信元に対応付けられた第1のマルチチャネルオーディオデータであり、
     前記第1の送信元よりも高い優先順位を有する第2の送信元に対応付けられた第2のマルチチャネルオーディオデータを取得し、
     前記第1の送信元と前記第2の送信元とのいずれがより高い優先順位を有するか判断し、
     より高い優先順位を有すると判断された前記第2の送信元に対応付けられた前記第2のマルチチャネルオーディオデータの仮想音源への変換を、前記第1のマルチチャネルオーディオデータよりも優先することをさらに含む
     請求項1に記載の通信方法。
  7.  前記マルチチャネルオーディオデータは、第1の内容を表す第1のマルチチャネルオーディオデータであり、
     前記第1の内容よりも高い優先順位を有する第2の内容を表す第2のマルチチャネルオーディオデータを取得し、
     前記第1の内容と前記第2の内容とのいずれがより高い優先順位を有するか判断し、
     より高い優先順位を有すると判断された前記第2の内容を表す第2のマルチチャネルオーディオデータの仮想音源への変換を、前記第1のマルチチャネルオーディオデータよりも優先することをさらに含む
     請求項1に記載の通信方法。
  8.  マルチチャネルオーディオデータを取得する取得部と、
     前記マルチチャネルオーディオデータを通信網を介して変換装置へ送信する送信部と、
     前記変換装置が前記マルチチャネルオーディオデータを仮想音源に変換することにより生成された2チャネルオーディオデータを前記変換装置から受信する受信部と、
     前記2チャネルオーディオデータにしたがって2つのスピーカを駆動する音声再生部と
     を有する音響装置。
  9.  マルチチャネルオーディオデータを取得する取得部と、
     前記マルチチャネルオーディオデータを通信網を介して変換装置へ送信する送信部と、
     前記変換装置が前記マルチチャネルオーディオデータを仮想音源に変換することにより生成された2チャネルオーディオデータを前記通信網を介して前記変換装置から受信する受信部と、
     前記2チャネルオーディオデータを音響装置へ出力する出力部と
     を有する通信装置。
PCT/JP2013/082443 2012-12-28 2013-12-03 通信方法、音響装置、および通信装置 WO2014103627A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP13868324.8A EP2941021A4 (en) 2012-12-28 2013-12-03 COMMUNICATION METHOD, SOUND DEVICE AND COMMUNICATION DEVICE
CN201380068110.5A CN104885483A (zh) 2012-12-28 2013-12-03 通信方法、音响设备和通信设备
US14/650,454 US20150319550A1 (en) 2012-12-28 2013-12-03 Communication method, sound apparatus and communication apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-287209 2012-12-28
JP2012287209A JP2014131140A (ja) 2012-12-28 2012-12-28 通信システム、avレシーバ、および通信アダプタ装置

Publications (1)

Publication Number Publication Date
WO2014103627A1 true WO2014103627A1 (ja) 2014-07-03

Family

ID=51020721

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/082443 WO2014103627A1 (ja) 2012-12-28 2013-12-03 通信方法、音響装置、および通信装置

Country Status (5)

Country Link
US (1) US20150319550A1 (ja)
EP (1) EP2941021A4 (ja)
JP (1) JP2014131140A (ja)
CN (1) CN104885483A (ja)
WO (1) WO2014103627A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021171674A1 (ja) * 2020-02-27 2021-09-02 株式会社ディーアンドエムホールディングス Avアンプ装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6582722B2 (ja) * 2015-08-19 2019-10-02 ヤマハ株式会社 コンテンツ配信装置
US9980077B2 (en) * 2016-08-11 2018-05-22 Lg Electronics Inc. Method of interpolating HRTF and audio output apparatus using same
CN111050271B (zh) 2018-10-12 2021-01-29 北京微播视界科技有限公司 用于处理音频信号的方法和装置
WO2020153027A1 (ja) * 2019-01-24 2020-07-30 ソニー株式会社 オーディオシステム、オーディオ再生装置、サーバー装置、オーディオ再生方法及びオーディオ再生プログラム
US20220191638A1 (en) * 2020-12-16 2022-06-16 Nvidia Corporation Visually tracked spatial audio
WO2022249594A1 (ja) * 2021-05-24 2022-12-01 ソニーグループ株式会社 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000078700A (ja) * 1998-08-28 2000-03-14 Sony Corp オーディオ再生方法及びオーディオ信号処理装置
JP2003230199A (ja) 2002-02-04 2003-08-15 Yamaha Corp バーチャルスピーカアンプ
JP2007306470A (ja) * 2006-05-15 2007-11-22 Sharp Corp 映像音声再生装置、及びその音像移動方法
JP2008547290A (ja) * 2005-06-24 2008-12-25 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション 没入型オーディオ通信
JP2009027333A (ja) * 2007-07-18 2009-02-05 Sony Corp 撮像システム、撮像指示装置、撮像装置、撮像方法
JP2012109643A (ja) * 2010-11-15 2012-06-07 National Institute Of Information & Communication Technology 音再現システム、音再現装置および音再現方法
WO2013105413A1 (ja) * 2012-01-11 2013-07-18 ソニー株式会社 音場制御装置、音場制御方法、プログラム、音場制御システム及びサーバ

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5647016A (en) * 1995-08-07 1997-07-08 Takeyama; Motonari Man-machine interface in aerospace craft that produces a localized sound in response to the direction of a target relative to the facial direction of a crew
US6052470A (en) * 1996-09-04 2000-04-18 Victor Company Of Japan, Ltd. System for processing audio surround signal
WO2003063513A1 (en) * 2002-01-23 2003-07-31 Tenebraex Corporation D of creating a virtual window
KR20050060789A (ko) * 2003-12-17 2005-06-22 삼성전자주식회사 가상 음향 재생 방법 및 그 장치
JP2005184632A (ja) * 2003-12-22 2005-07-07 Nec Access Technica Ltd 通信端末における消費電力削減方法及び通信端末
JP2005343431A (ja) * 2004-06-07 2005-12-15 Denso Corp 車両用情報処理システム
EP1779703A1 (en) * 2004-08-12 2007-05-02 Koninklijke Philips Electronics N.V. Audio source selection
KR101118214B1 (ko) * 2004-09-21 2012-03-16 삼성전자주식회사 청취 위치를 고려한 2채널 가상 음향 재생 방법 및 장치
KR101368859B1 (ko) * 2006-12-27 2014-02-27 삼성전자주식회사 개인 청각 특성을 고려한 2채널 입체 음향 재생 방법 및장치
US8270616B2 (en) * 2007-02-02 2012-09-18 Logitech Europe S.A. Virtual surround for headphones and earbuds headphone externalization system
JP2008312096A (ja) * 2007-06-18 2008-12-25 Victor Co Of Japan Ltd 音響再生装置及びテレビ受像機
JP5483899B2 (ja) * 2009-02-19 2014-05-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000078700A (ja) * 1998-08-28 2000-03-14 Sony Corp オーディオ再生方法及びオーディオ信号処理装置
JP2003230199A (ja) 2002-02-04 2003-08-15 Yamaha Corp バーチャルスピーカアンプ
US7095865B2 (en) 2002-02-04 2006-08-22 Yamaha Corporation Audio amplifier unit
JP2008547290A (ja) * 2005-06-24 2008-12-25 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション 没入型オーディオ通信
JP2007306470A (ja) * 2006-05-15 2007-11-22 Sharp Corp 映像音声再生装置、及びその音像移動方法
JP2009027333A (ja) * 2007-07-18 2009-02-05 Sony Corp 撮像システム、撮像指示装置、撮像装置、撮像方法
JP2012109643A (ja) * 2010-11-15 2012-06-07 National Institute Of Information & Communication Technology 音再現システム、音再現装置および音再現方法
WO2013105413A1 (ja) * 2012-01-11 2013-07-18 ソニー株式会社 音場制御装置、音場制御方法、プログラム、音場制御システム及びサーバ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2941021A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021171674A1 (ja) * 2020-02-27 2021-09-02 株式会社ディーアンドエムホールディングス Avアンプ装置
US11792574B2 (en) 2020-02-27 2023-10-17 D&M Holdings Inc. AV amplifier
JP7440293B2 (ja) 2020-02-27 2024-02-28 株式会社ディーアンドエムホールディングス Avアンプ装置

Also Published As

Publication number Publication date
EP2941021A4 (en) 2016-11-16
EP2941021A1 (en) 2015-11-04
CN104885483A (zh) 2015-09-02
JP2014131140A (ja) 2014-07-10
US20150319550A1 (en) 2015-11-05

Similar Documents

Publication Publication Date Title
WO2014103627A1 (ja) 通信方法、音響装置、および通信装置
KR102393798B1 (ko) 오디오 신호 처리 방법 및 장치
CN102740154B (zh) 应用于多媒体内容的播放方法与播放装置
JP5174527B2 (ja) 音像定位音響メタ情報を付加した音響信号多重伝送システム、制作装置及び再生装置
TW201926999A (zh) 音視頻播放系統及應用於其上的音訊資料的播放方法
US20190116395A1 (en) Synchronizing audio and video signals rendered on different devices
JP2015534315A (ja) オーディオ転送デバイス及び対応する方法
KR20110069112A (ko) 보청기 시스템에서 바이노럴 스테레오를 렌더링하는 방법 및 보청기 시스템
US9774980B2 (en) Information processor, audio processor, audio processing system and program
CN101489173B (zh) 信号处理装置和信号处理方法
JP2006319823A (ja) 音響装置、音響調整方法および音響調整プログラム
JP5363567B2 (ja) 音響再生装置
JP2015126460A (ja) ソース機器
JP2022548400A (ja) ハイブリッド式近距離/遠距離場スピーカー仮想化
US9110366B2 (en) Audiovisual apparatus
JP2008060675A (ja) 音声再生装置、音声再生方法
KR20210118820A (ko) 오디오 시스템, 오디오 재생 장치, 서버 장치, 오디오 재생 방법 및 오디오 재생 프로그램
JP2017135669A (ja) 音響再生装置及びプログラム
JP5326332B2 (ja) スピーカ装置、信号処理方法およびプログラム
JP2010093403A (ja) 音響再生システム、音響再生装置及び音響再生方法
JPH08140200A (ja) 立体音像制御装置
US20110280421A1 (en) Device for and a method of processing audio signals
JPWO2010032289A1 (ja) コンテンツ再生システム及び方法
JP2011193195A (ja) 音場制御装置
JP2010157954A (ja) オーディオ再生装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13868324

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14650454

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2013868324

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013868324

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE