WO2013146602A1 - Avアンプ - Google Patents

Avアンプ Download PDF

Info

Publication number
WO2013146602A1
WO2013146602A1 PCT/JP2013/058340 JP2013058340W WO2013146602A1 WO 2013146602 A1 WO2013146602 A1 WO 2013146602A1 JP 2013058340 W JP2013058340 W JP 2013058340W WO 2013146602 A1 WO2013146602 A1 WO 2013146602A1
Authority
WO
WIPO (PCT)
Prior art keywords
amplifier
sound signal
signal
sound
time
Prior art date
Application number
PCT/JP2013/058340
Other languages
English (en)
French (fr)
Inventor
浩太郎 中林
雄輝 吉澤
栄二 竹内
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2012069369A external-priority patent/JP2013201651A/ja
Priority claimed from JP2012167113A external-priority patent/JP2014027531A/ja
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Publication of WO2013146602A1 publication Critical patent/WO2013146602A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • H04N5/602Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals for digital sound signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/03Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/02Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo four-channel type, e.g. in which rear channel signals are derived from two-channel stereo signals

Definitions

  • This invention relates to a technique for controlling the operation of a processor built in an amplifier of an acoustic system.
  • Multi-channel surround technology is one of the acoustic technologies widely adopted in audio equipment such as home theater systems.
  • the multi-channel surround technology is a technology for controlling a sound image of a sound reproduced together with an image of video content using a plurality of speakers arranged around a listener.
  • Patent Document 1 in order to realize multi-channel surround with a number of channels exceeding the number of channels that can be output by one AV amplifier, a plurality of channels are provided to a plurality of AV amplifiers. A mechanism has been proposed for distributing the sound signals.
  • the AV amplifier in the output control system disclosed in Patent Document 1 specifies the latency of the television receiver from EDID (Extended Display Identification Data) acquired from the television receiver, and delay corresponding to this latency in the sound signal Is supplied to each audio amplifier under its control.
  • EDID Extended Display Identification Data
  • the sound generation time of the sound signal supplied from the television receiver to the speaker via the AV amplifier and the sound generation of the sound signal supplied from the television receiver to the speaker via the AV amplifier and audio amplifier are performed. The time can be synchronized with the reproduced image of the television receiver.
  • the present invention has been made in view of the above circumstances, and an object thereof is to provide a more desirable sound to a listener by effectively utilizing a processor for sound processing incorporated in an AV amplifier.
  • the time required for the sound signal to pass through the processors in the intelligent AV amplifier described above varies depending on the use method of the buffer in each processor, the sampling frequency of the sound signal given as a processing target, and the like.
  • each AV amplifier When processing a sound signal of the same acoustic content using a plurality of AV amplifier processors as described above, each AV amplifier is connected to the sound signal in accordance with the sampling frequency or processing content of the sound signal to be processed as described above. Since the time required to pass is different, only by performing processing based on EDID information fixedly given to the AV amplifier, a sound signal is output from each of the plurality of AV amplifiers to each speaker. Unintentional deviation occurs between timings.
  • the present invention is caused by a difference in time required for sound signals to pass through each AV amplifier when reproducing audio content using a plurality of AV amplifiers each having a speaker connected thereto.
  • An object of the present invention is to provide a technique for reducing an unintended shift in the arrival timing of sound to a listener.
  • the present invention includes a sound signal acquisition unit that acquires a sound signal indicating sound content, and a first signal processing for adding an acoustic effect to the sound signal acquired by the sound signal acquisition unit. And a first processor for outputting the sound signal subjected to the first signal processing; obtaining the sound signal; and performing a second signal processing for adding an acoustic effect to the sound signal;
  • an AV amplifier comprising: transmission means for transmitting a control signal instructing the second signal processing to another AV amplifier including a second processor that outputs a sound signal subjected to two-signal processing.
  • the present invention also provides a sound signal acquisition means for acquiring a sound signal indicating sound content, a first signal processing for acquiring the sound signal, and adding an acoustic effect to the sound signal, and the first signal.
  • an AV amplifier including a second processor for outputting the signal.
  • the contents of acoustic processing to be executed in the slave amplifier are instructed from the former AV amplifier functioning as a master amplifier to the latter AV amplifier functioning as a slave amplifier.
  • a sound field according to one acoustic content is created using both of the processors included in each of the amplifiers. As a result, a more desirable sound field can be generated as compared with a case where acoustic processing is performed using only the processor of one AV amplifier.
  • the control signal is generated based on data acquisition means for acquiring data indicating the processing capability of the second processor of the other AV amplifier, and data indicating the processing capability. And a control means.
  • the data acquisition means may acquire data indicating the processing capability from the other AV amplifier.
  • the AV amplifier functioning as a slave amplifier may include transmission means for transmitting data indicating the processing capability of the second processor to the other AV amplifier.
  • the AV amplifier functioning as a master amplifier is transmitted to the AV amplifier functioning as a master amplifier from the AV amplifier functioning as a slave amplifier.
  • the first processor performs third signal processing on the sound signal
  • the second processor of the other AV amplifier acquires the sound signal subjected to the third signal processing, and performs the second signal processing.
  • the second processor of the other AV amplifier may acquire the sound signal from the AV amplifier and perform a decoding process on the sound signal.
  • the other AV amplifier may receive a timing signal from the AV amplifier, and the processing timing of the second processor may be adjusted based on the timing signal.
  • the AV amplifier includes: first output means for outputting a sound signal processed by the first processor; second output means for outputting the sound signal to the other AV amplifier; and First time data indicating a time including a time required for the sound signal processed and output from the first output means to pass through the first processor; and the second processor of the other AV amplifier. Second time data indicating a time including a time required for the sound signal processed and output from the other AV amplifier to pass through the second processor of the other AV amplifier, and The timing at which the sound signal is output from the first output means or the sound signal from the second output means with the delay time calculated based on the time data of the second time data and the second time data. There a control means for performing an instruction to delay the timing to be outputted may be provided.
  • the AV amplifier includes: first output means for outputting a sound signal processed by the first processor; second output means for outputting the sound signal to the other AV amplifier; and the first processor.
  • First time data indicating a time including a time required for the sound signal to be processed and output from the first output means to pass through the AV amplifier, and processed by the second processor of the other AV amplifier.
  • Second time data indicating a time including a time required for a sound signal output from the other AV amplifier to pass through the second processor of the other AV amplifier, and obtaining the first time data.
  • the timing at which the sound signal is output from the first output means, or the sound signal is output from the other AV amplifier with the delay time calculated based on the second time data.
  • control means for performing an instruction to delay that timing may be provided.
  • the time required for the sound signal to pass through each AV amplifier by functioning as a master amplifier in an audio system in which a plurality of AV amplifiers operate in concert to reproduce one audio content.
  • the deviation of the output timing of the sound signal due to the difference between the two is reduced.
  • control means obtains the first time data by measuring a time required for the test sound signal to pass through the AV amplifier, and the control means The second time data may be acquired by measuring a time required for the sound signal to pass through the other AV amplifier.
  • the AV amplifier includes input means for receiving a sound signal from a microphone, and the control means directly or indirectly passes the test sound signal through the AV amplifier to the first output means.
  • the first time data is obtained by measuring the time required to reach the input means via the first speaker connected to the microphone and the microphone, and the control means obtains the second time
  • the test sound signal output from the output means to the other AV amplifier passes through the other AV amplifier and passes through the second speaker and the microphone connected directly or indirectly to the AV amplifier.
  • the second time data may be acquired by measuring the time required to reach the input means.
  • the time required when the test sound signal is actually processed in the own apparatus (master amplifier) and other AV amplifiers (slave amplifiers) is measured.
  • a delay time for adjusting the output timing of the signal is calculated.
  • the AV amplifier does not need to store processing time data indicating the time required for the sound signal to pass through each AV amplifier in advance or receive it from another device.
  • the AV amplifier may include output means for outputting a sound signal processed by the second processor, and the control signal may instruct a delay in timing at which the output means outputs the sound signal.
  • the present invention also provides first sound signal acquisition means for acquiring a sound signal indicating sound content, and first signal processing for adding an acoustic effect to the sound signal acquired by the first sound signal acquisition means.
  • a first processor that generates a first sound signal and outputs the first sound signal; and a transmission means that transmits a control signal instructing second signal processing for adding an acoustic effect to the sound signal.
  • a first AV amplifier provided; a second sound signal acquisition means for acquiring the sound signal; a reception means for receiving the control signal; and a sound signal acquired by the second sound signal acquisition means received by the reception means.
  • An AV system includes a second AV amplifier including a second processor that performs second signal processing instructed on the control signal to generate a second sound signal and outputs the second sound signal.
  • FIG. 1 is a diagram showing a configuration of an acoustic system 50 according to the first embodiment of the present invention.
  • the sound system 50 according to the present embodiment is a system that allows the viewer LSN in the living room 90 to listen to the playback sound of the video content.
  • the acoustic system 50 is installed and used in a living room 90 together with the television 91.
  • the acoustic system 50 includes a front center (under the TV 91), a front left, a front right, a front diagonal left, a front diagonal right, and a rear in a living room 90.
  • a front center under the TV 91
  • speaker 1C speaker 1L, speaker 1R, speaker 1LSF, speaker 1RSF, speaker 1LS, speaker 1RS, speaker 1LSB, which are arranged on each of diagonal left, rear diagonal right, rear left and rear right, speakers 1RSB and a speaker system with excellent sound emission capability in a lower frequency band than these main speakers, and a 9.1-channel speaker system including a subwoofer 1SW disposed at an arbitrary location in the living room 90.
  • these speakers are collectively referred to as a speaker group 1.
  • the acoustic system 50 provides a sound effect to the sound signal input to each of the remote controller 2 operated by the viewer LSN, the player 3 that plays back AV (Audio Visual) content recorded on the recording medium 80, and the like. It includes an AV amplifier 4a and an AV amplifier 4b that incorporate a DSP (Digital Signal Processor) 11 that performs an additional acoustic process and outputs it.
  • DSP Digital Signal Processor
  • speaker 1C, speaker 1L, speaker 1R, speaker 1LS, speaker 1RS, and subwoofer 1SW are connected to AV amplifier 4a.
  • speaker 1LSF, the speaker 1RSF, the speaker 1LSB, and the speaker 1RSB are connected to the AV amplifier 4b. All of the sound emission surfaces of these speakers are directed to the viewer LSN.
  • Each speaker included in the speaker group 1 emits sound into the living room 90 in accordance with a sound signal output from the connected AV amplifier.
  • the remote controller 2 transmits an operation signal WS for instructing the television 91, the AV amplifier 4a, and the AV amplifier 4b to play / stop AV content, switch various playback modes, and the like.
  • the playback mode means the type of effect added to video and sound in the playback of AV content.
  • a cinema mode suitable for watching a daytime movie a nighttime movie AV content can be played back in five different playback modes: a night cinema mode suitable for viewing, a television mode suitable for television viewing, a game mode suitable for game play, and a music mode suitable for listening to music content. Shall.
  • the player 3 reads a signal PCD, which is an image signal encoded according to a predetermined standard, and a signal MCD, which is a 9.1-channel sound signal encoded according to the predetermined standard, from the recording medium 80, and these signal PCD and signal
  • the MCD is output from the HDMI output terminal 9.
  • HDMI registered trademark
  • High-Definition Multimedia Interface which is a standard for input / output interfaces of AV signals.
  • the AV amplifier 4a acquires the signal PCD and the signal MCD output from the player 3, supplies the signal PCD to the television 91, and decodes the signal MCD using the DSP 11a in its own device (AV amplifier 4a).
  • .1 channel (9 channels for main speaker and 1 channel for subwoofer) Sound signal MD C , MD L , MD R , MD LSF , MD RSF , MD LS , MD RS , MD LSB , MD RSB , MD SW Generate.
  • the AV amplifier 4a adds sound effects corresponding to the playback mode selected by the user to the MD C , MD L , MD R , MD LS , MD RS , MD SW among the above sound signals by the DSP 11a. Processing ZEa is performed to generate sound signals MD ′ C , MD ′ L , MD ′ R , MD ′ LS , MD ′ RS , and MD ′ SW .
  • the AV amplifier 4a converts these sound signals into analog sound signals by a DA (Digital to Analog) converter (not shown), and then amplifies them to the speaker level by an amplifier (not shown), and the speaker 1C, speaker 1L, speaker 1R. , Supplied to the speaker 1LS, the speaker 1RS, and the subwoofer 1SW.
  • DA Digital to Analog
  • the AV amplifier 4a outputs the sound signals MD LSF , MD RSF , MD LSB , and MD RSB generated by decoding to the AV amplifier 4b.
  • the AV amplifier 4b acquires these sound signals from the AV amplifier 4a, the sound effect corresponding to the playback mode selected by the user is applied to these sound signals using the DSP 11b in the own apparatus (AV amplifier 4b). Is applied to generate sound signals MD ′ LSF , MD ′ RSF , MD ′ LSB , and MD ′ RSB .
  • the AV amplifier 4b converts these sound signals into analog sound signals by a DA converter (not shown), amplifies them to the speaker level by an amplifier (not shown), and supplies them to the speakers 1LSF, 1RSF, 1LSB, and 1RSB. To do.
  • the acoustic processing ZEb to be performed by the AV amplifier 4b is instructed to the AV amplifier 4b by the control signal OSb supplied from the AV amplifier 4a to the AV amplifier 4b. That is, the AV amplifier 4a functions as a master amplifier that instructs the AV amplifier 4b to perform processing, and the AV amplifier 4b functions as a slave amplifier that performs processing according to the instruction from the master amplifier.
  • the video output terminal 5a of the AV amplifier 4a is connected to the television 91.
  • Audio output terminals 6a-1, 6a-2, 6a-3, 6a-4, 6a-5, 6a-6 of the AV amplifier 4a are respectively a speaker 1C, a speaker 1L, a speaker 1R, a speaker 1LS, a speaker 1RS, and a subwoofer 1SW. Connected with.
  • the audio output terminals 6b-1, 6b-2, 6b-3, and 6b-4 of the AV amplifier 4b are connected to the speaker 1LSF, the speaker 1RSF, the speaker 1LSB, and the speaker 1RSB, respectively.
  • the HDMI input terminal 7a of the AV amplifier 4a is connected to the HDMI output terminal 9 of the player 3 by an HDMI cable 81a.
  • the HDMI input terminal 7b of the AV amplifier 4b is connected to the HDMI output terminal 8a of the AV amplifier 4a by an HDMI cable 81b.
  • the HDMI cable 81a includes TMDS (Transition Minimized Differential Signaling) signal lines LN TMDS1 to LN TMDS12 (signal lines for transmitting image signals and sound signals in accordance with TMDS), ARC (Audio Return Channel).
  • Signal line LN ARC signal line that transmits signals in the opposite direction to TMDS
  • CEC Consumer Electronics Control
  • LN CEC signal line used to transmit commands between devices connected by HDMI cable
  • the DSP 11a and the control unit 12a are accommodated in the housing 10a of the AV amplifier 4a.
  • a DSP 11b and a control unit 12b are accommodated in the housing 10b of the AV amplifier 4b.
  • the control unit 12a of the AV amplifier 4a controls the processing contents of the signal processing of the DSP 11a and controls the operation of the AV amplifier 4b through the supply of the control signal OSb.
  • the control unit 12b of the AV amplifier 4b controls the processing contents of the signal processing of the DSP 11b according to the control signal OSb supplied from the AV amplifier 4a.
  • the player 3 is loaded with a recording medium 80 on which AV content including 9.1-channel audio content is recorded.
  • the audio content is, for example, DTS (Digital Theater Systems) ( It shall be encoded according to (registered trademark).
  • the control unit 12a of the AV amplifier 4a When the power is turned on, the control unit 12a of the AV amplifier 4a outputs a request signal for requesting information indicating the processing capability of the AV amplifier 4b and the speaker connection state to the AV amplifier 4b. If the AV amplifier 4b does not return a response signal to the request signal because the power is not turned on or the like, the control unit 12a periodically outputs the request signal until the response signal is obtained.
  • the control unit 12b of the AV amplifier 4b receives the above request signal, the DSP 11b capability (processing speed, buffer capacity, processable sampling frequency, etc.), the speaker connected to the audio output terminals 6b-1 to 8-8.
  • a response signal indicating the presence / absence, the arrangement position of the connected speaker, and the like is generated and output to the AV amplifier 4a.
  • the request signal and the response signal are transmitted via the signal line LN CEC of the HDMI cable 81b, for example.
  • the player 3 reads the metadata indicating the signal encoding method and the like from the recording medium 80, and sequentially reads the signal PCD and the signal MCD.
  • the AV amplifier 4a delivers metadata among those signals input from the player 3 to the control unit 12a, and sequentially delivers the signal PCD and the signal MCD to the DSP 11a.
  • the DSP 11a decodes the signal PCD according to the instruction of the control unit 12a, and outputs the generated video signal from the video output terminal 5a.
  • the video signal thus output is input to the television 91 and used for displaying video content.
  • DSP11a is in accordance with an instruction from the control section 12a, performs decoding processing ZD for signal MCD, the sound signal MD C, MD L, MD R , MD LSF, MD RSF, MD LS, MD RS, MD LSB, MD RSB, MD Generate SW .
  • the DSP 11a delivers to the control unit 12a additional information indicating the channel configuration and the like of the audio content generated along with the sound signals by decoding.
  • the control unit 12a of the AV amplifier 4a receives the metadata transmitted from the player 3 and the additional information delivered from the DSP 1a, the processing capability of the DSP 11a of the own device, the connection state of the speaker to the own device, and the AV amplifier 4b first.
  • the distribution of processing between the AV amplifier 4a and the AV amplifier 4b is determined based on the processing capability of the AV amplifier 4b and the connection state of the speakers indicated by the received response signal.
  • the control unit 12a generates a control signal OSb for instructing processing to the AV amplifier 4b according to the processing distribution determined as described above, and outputs the control signal OSb to the AV amplifier 4b.
  • DSP11a in accordance with an instruction from the control unit 12a, among sound signal MD C of the sound signal generated by the decoding process ZD, MD L, MD R, MD LS, MD RS, with respect to MD SW continues performs sound processing ZEA, sound Signals MD ' C , MD' L , MD ' R , MD' LS , MD ' RS , and MD' SW are generated.
  • Each of the sound signals thus generated is converted into an analog signal and amplified, and then, via audio output terminals 6a-1 to 6a-6, speaker 1C, speaker 1L, speaker 1R, speaker 1LS, speaker 1RS, It is output to the subwoofer 1SW. As a result, sound is emitted from the speakers to the living room 90.
  • the DSP 11a follows the instructions of the control unit 12a, and the sound signals MD LSF , MD RSF , MD LSB , MD RSB among the sound signals generated by the decoding process ZD are sent from the HDMI output terminal 8a to the HDMI cable 81b.
  • the signal lines LN TMDS1 to LN TMDS12 are output via vacant bands.
  • the HDMI input terminal 7b of the AV amplifier 4b delivers the sound signals MD LSF , MD RSF , MD LSB , and MD RSB input from the AV amplifier 4a to the DSP 11b.
  • the control unit 12b instructs the DSP 11b to perform the acoustic processing ZEb according to the control signal OSb previously received from the AV amplifier 4a.
  • DSP11b executes sound processing ZEb to sound signal MD LSF, MD RSF, MD LSB , MD RSB, sound signal MD 'LSF, MD' RSF, MD 'LSB, MD' generates the RSB.
  • the sound signals thus generated are converted into analog signals and amplified, and then output to the speakers 1LSF, 1RSF, 1LSB, and 1RSB via the audio output terminals 6b-1 to 6b-4. .
  • sound is emitted from the speakers to the living room 90.
  • the AV amplifier 4a and the AV amplifier 4b operate in a linked manner to perform one audio content reproduction process.
  • the AV amplifier 4b functioning as a slave amplifier also performs sound processing on the sound signal in accordance with the instruction of the AV amplifier 4a functioning as the master amplifier, the load of sound processing is not concentrated on the DSP 11a, and the AV amplifier 4b
  • the DSP 11b can be used effectively.
  • only the AV amplifier 4a can perform acoustic processing exceeding the processing capability, and a sound field with a richer presence can be created.
  • FIG. 2 is a diagram showing a configuration of an acoustic system 150 according to the second embodiment of the present invention.
  • the acoustic system 150 is common to the acoustic system 50 in many respects. Therefore, the following description focuses on the differences between the acoustic system 150 and the acoustic system 50.
  • symbol used in the acoustic system 50 is used for the component which the acoustic system 50 has among the structural parts with which the acoustic system 150 is provided.
  • the acoustic system 50 employs a configuration in which the sound signal generated by the decoding process ZD in the DSP 11a is output as it is from the AV amplifier 4a to the AV amplifier 4b.
  • the sound system 150 a sound signal obtained by performing a part of sound processing in the DSP 11a with respect to the sound signal generated by the decoding process ZD in the DSP 11a is output from the AV amplifier 4a to the AV amplifier 4b. .
  • the sound after mixing processing is performed in the DSP 11a to create a sound field according to the 5.1 channel signal MCD using a 9.1 channel stereo system.
  • a signal is supplied from the AV amplifier 4a to the AV amplifier 4b will be described.
  • the DSP 11a performs a decoding process ZD on the signal MCD input from the player 3 in accordance with an instruction from the control unit 12a to perform 5.1 channel sound signals, that is, sound signals MD C , MD L , MD R , MD LS , MD RS , MD SW are generated.
  • the DSP 11a subsequently performs acoustic processing ZEa on these sound signals, and as in the sound system 50, the sound signals MD ′ C , MD ′ L , MD ′ R , MD ′ LS , MD ′ RS , MD ′ SW Is output to the speaker 1C, the speaker 1L, the speaker 1R, the speaker 1LS, the speaker 1RS, and the subwoofer 1SW.
  • the DSP 11a performs acoustic processing ZE'a using the sound signals MD L , MD R , MD LS , MD RS to generate sound signals MD LSF , MD RSF , MD LSB , MD RSB To do.
  • the DSP 11a generates a sound signal MD LSF by performing level adjustment processing and delay processing on the sound signals MD L and MD LS in the sound processing ZE′a and then mixing the sound signals.
  • DSP11a generates a sound signal MD RSF by mixing these sound signals after the level adjustment process and delay processing to the sound signal MD R and MD RS.
  • the DSP 11a performs level adjustment processing with different level ratios and delay processing with different delay times on the sound signals MD LS and MD RS, and then mixes the sound signals to generate the sound signals MD LSB and MD RSB . Generate.
  • the DSP 11a outputs sound signals MD LSF , MD RSF , MD LSB , MD RSB generated by the acoustic processing ZE′a to the AV amplifier 4b.
  • DSP11b the AV amplifier 4b Upon receiving these sound signals, executes the sound processing ZEb to those of the sound signal in accordance with an instruction from the control unit 12b, the sound signal MD 'LSF, MD' RSF, MD 'LSB, MD' RSB Is generated.
  • the DSP 11b outputs the sound signal thus generated to the speaker 1LSF, the speaker 1RSF, the speaker 1LSB, and the speaker 1RSB in the same manner as in the acoustic system 50.
  • the sound signal supplied from the master amplifier to the slave amplifier may be subjected to acoustic processing in the master amplifier.
  • FIG. 3 is a diagram showing a configuration of an acoustic system 250 according to the third embodiment of the present invention.
  • the acoustic system 250 is in common with the acoustic system 150 in many respects. Therefore, the following description focuses on the differences between the acoustic system 250 and the acoustic system 150.
  • symbol used in the acoustic system 150 is used for the component which the acoustic system 150 has among the structural parts with which the acoustic system 250 is provided.
  • the signal MCD output from the player 3 to the AV amplifier 4a is supplied to the AV amplifier 4b after being subjected to decoding processing ZD and acoustic processing ZE'a in the AV amplifier 4a.
  • the AV amplifier 4b receives the signal MCD input from the player 3 to the AV amplifier 4a as it is from the AV amplifier 4a.
  • the AV amplifier 4b in parallel with the decoding process ZD in the AV amplifier 4a (hereinafter referred to as “decoding process ZDa”), the AV amplifier 4b also performs the same decoding process ZD (hereinafter referred to as “decoding process ZDb”). Is called).
  • the HDMI input terminal 7a of the AV amplifier 4a delivers the signal MCD input from the player 3 to the DSP 11a and also delivers a copy to the HDMI output terminal 8a.
  • the DSP 11a that has received the signal MCD performs decoding processing ZDa and acoustic processing ZEa on the signal MCD to generate sound signals MD ′ C , MD ′ L , MD ′ R , MD ′ LS , MD ′ RS , MD ′ SW , They are output to speaker 1C, speaker 1L, speaker 1R, speaker 1LS, speaker 1RS, and subwoofer 1SW.
  • the HDMI output terminal 8a of the AV amplifier 4a outputs the signal MCD delivered from the HDMI input terminal 7a to the AV amplifier 4b via the signal line LN TMDS1 of the HDMI cable 81b, for example.
  • the DSP 11b of the AV amplifier 4b receives the signal MCD via the HDMI input terminal 7b
  • the DSP 11b sequentially executes the decoding process ZDb and the acoustic process ZEb on the signal MCD, and the sound signals MD ′ LSF , MD ′ RSF , MD ′ LSB , MD ' RSB is generated.
  • the acoustic processing ZEb may include, for example, processing similar to the acoustic processing ZE′a executed by the DSP 11a in the acoustic system 150.
  • the sound signal supplied from the master amplifier to the slave amplifier may not be subjected to any processing in the master amplifier.
  • FIG. 4 is a diagram showing a configuration of an acoustic system 350 according to the fourth embodiment of the present invention.
  • the acoustic system 350 is in common with the acoustic system 250 in many respects. Therefore, the following description focuses on the differences between the acoustic system 350 and the acoustic system 250.
  • symbol used in the acoustic system 250 is used for the component which the acoustic system 250 has among the structural parts with which the acoustic system 350 is provided.
  • the AV amplifier 4b receives the signal MCD output from the player 3 via the AV amplifier 4a.
  • the AV amplifier 4b is directly supplied with the signal MCD from the player 3 without passing through the AV amplifier 4a.
  • the player 3 includes an HDMI output terminal 9 'in addition to the HDMI output terminal 9, and the AV amplifier 4b includes an HDMI input terminal 7'b in addition to the HDMI input terminal 7b.
  • the HDMI output terminal 9 'of the player 3 and the HDMI input terminal 7'b of the AV amplifier 4b are connected to each other via an HDMI cable 81c.
  • the player 3 In reproducing AV content, the player 3 outputs the signal PCD and the signal MCD from the HDMI output terminal 9 to the AV amplifier 4a, and outputs the signal MCD from the HDMI output terminal 9 'to the AV amplifier 4b.
  • the HDMI input terminal 7'b of the AV amplifier 4b delivers it to the DSP 11b.
  • each of the AV amplifier 4a and the AV amplifier 4b receiving the signal MCD from the player 3 performs the same processing as in the acoustic system 250.
  • the timing at which the AV amplifier 4a and the AV amplifier 4b receive the signal MCD from the player 3 in the acoustic system 350 cannot be accurately known. Therefore, the AV amplifier 4a and the AV amplifier 4b exchange signals via the HDMI cable 81b in order to synchronize processing.
  • the AV amplifier 4a outputs a timing signal to the AV amplifier 4b using, for example, a vacant band of the signal line LN TMDS1 to the signal line LN TMDS12 of the HDMI cable 81b.
  • the AV amplifier 4b adjusts the processing timing of the DSP 11b according to the timing signal.
  • AV amplifier 4b as a response signal to the timing signal from the AV amplifier 4a a response signal showing the timing of processing in the own device, and outputs to the AV amplifier 4a using LN ARC e.g. HDMI cable 81b.
  • the sound signal processed by the slave amplifier may not be supplied from the master amplifier.
  • the signal MCD output from the player 3 is a 9.1-channel or 5.1-channel sound signal.
  • the signal MCD is used for reproduction in the acoustic system according to the present invention.
  • the number of sound signal channels may be any number of channels.
  • the number of channels of the speaker system used in the first to fourth embodiments described above is not limited to 9.1 channels, and speaker systems having other various channel numbers can be employed in the present invention.
  • the types of signal lines used for inputting / outputting various signals between the player 3, the AV amplifier 4a and the AV amplifier 4b shown in the first to fourth embodiments are merely examples, and a sufficient transmission speed can be obtained.
  • Other types of signal lines may be used as long as possible.
  • the signal line LN CEC among the signal lines in the HDMI cable
  • the signal line LN ARC and the signal lines LN TMDS1 to LN TMDS12 Of these, an available band may be used.
  • the player 3, the AV amplifier 4a, and the AV amplifier 4b are connected by an HDMI cable.
  • an audio signal transmission method between these acoustic devices is used. Is not limited to the one according to the HDMI standard, and a transmission method according to another standard may be adopted.
  • the sharing of processing between the AV amplifier 4a and the AV amplifier 4b can be variously changed according to the processing capability of the AV amplifier 4a and the AV amplifier 4b, the connection state of the speakers, the acoustic effect instructed by the viewer LSN, and the like.
  • a sound signal subjected to the sound processing in the AV amplifier 4b to the AV amplifier 4a for example, output through the signal line LN ARC, such as further outputs to the speaker by applying sound effects in the AV amplifier 4a, many variations Conceivable.
  • the speaker 1C, the speaker 1L, the speaker 1R, the speaker 1LS, the speaker 1RS, and the subwoofer 1SW are connected to the AV amplifier 4a, and the AV amplifier 4a is a channel corresponding to those speakers.
  • the speaker 1LSF, the speaker 1RSF, the speaker 1LSB, and the speaker 1RSB are connected to the AV amplifier 4b, and the AV amplifier 4b processes and outputs the sound signal of the channel corresponding to those speakers.
  • which speaker is connected to which of the AV amplifier 4a and the AV amplifier 4b and which sound signal is processed by which of the AV amplifier 4a and the AV amplifier 4b can be arbitrarily changed.
  • the AV amplifier 4b that functions as a master amplifier functions as a slave amplifier.
  • the present invention is also applicable when a plurality of AV amplifiers 4b are linked.
  • the AV amplifier 4a employs a configuration in which data indicating the processing capability of the AV amplifier 4b is acquired from the AV amplifier 4b.
  • the method by which the AV amplifier 4a acquires data indicating the processing capability of the AV amplifier 4b is not limited to this.
  • the AV amplifier 4a stores in advance data indicating the processing capabilities of various types of AV amplifiers in association with the model number, acquires the model number of the AV amplifier 4b from the AV amplifier 4b, and stores data corresponding to the model number.
  • Data indicating the processing capability of the AV amplifier 4b may be acquired by reading.
  • the AV amplifier 4a can be connected to the Internet or the like, the AV amplifier 4a transmits the model number acquired from the AV amplifier 4b to an external server device or the like instead of storing the processing capability of various types of AV amplifiers. As a response, a configuration for acquiring data indicating the processing capability of the AV amplifier 4b may be employed.
  • the AV amplifier 4a adopts a configuration in which data indicating the connection state of the speaker to the AV amplifier 4b is also acquired from the AV amplifier 4b.
  • the method by which the AV amplifier 4a acquires data indicating the connection state of the speaker to the AV amplifier 4b is not limited to this.
  • the AV amplifier 4a may acquire the data. .
  • the acoustic processing according to the five playback modes described above is an example of the acoustic processing performed in the AV amplifier 4a and the AV amplifier 4b, and any other acoustic processing is performed in the AV amplifier 4a and the AV amplifier 4b. Good.
  • Examples of such acoustic processing include acoustic processing (music enhancer) that corrects the high and low frequencies respectively to solve the high-pitched sound extension and mid-low-thickness shortage associated with compressed sound sources, depending on the content characteristics Sound processing to correct volume (adaptive DRC), acoustic processing to clarify lines (clear voice), acoustic processing related to frequency correction such as equalizer and tone control, sampling frequency conversion processing such as oversampling, slave amplifier output possible There is a down-mixing process for reducing the number of channels when the number of channels is small.
  • FIG. 5 is a diagram illustrating a configuration example of an acoustic system 450 including the AV amplifier 4a and the AV amplifier 4b according to the fifth embodiment of the present invention.
  • the acoustic system 450 according to the present embodiment is a system that allows the viewer LSN in the living room 90 to listen to the reproduction sound of the video content with sound. This acoustic system 450 is installed and used in the living room 90 together with the television 91.
  • the acoustic system 450 has five positions equidistant from the viewer LSN in the living room 90 (specifically, the front center of the viewer LSN (below the TV 91), the front The speaker 1C, the speaker 1L, the speaker 1R, the speaker 1LS, and the speaker 1RS, which are the five main speakers arranged on each of the left side, the front right side, the rear left side, and the rear right side, are arranged at any place in the living room 90.
  • the subwoofer 1SW (speaker that emits sound in a low frequency band where the sound emission capability of the main speaker is inferior), the player 3 that is a device that reproduces AV (Audio Visual) content, and each incorporates a DSP (Digital Signal Processor) It has an AV amplifier 4a and an AV amplifier 4b.
  • DSP Digital Signal Processor
  • the speaker 1C, the speaker 1L, the speaker 1R, the speaker 1LS, the speaker 1RS, and the subwoofer 1SW are collectively referred to as a speaker group 1.
  • the AV amplifier 4a and the AV amplifier 4b operate in conjunction with each other, and have a function of creating one sound field in the living room 90 by processing sound signals included in the same AV content in parallel and outputting them to a speaker. Therefore, in the acoustic system 450, for example, the speaker 1C, the speaker 1L, the speaker 1R, and the subwoofer 1SW are connected to the AV amplifier 4a, and the speaker 1LS and the speaker 1RS are connected to the AV amplifier 4b.
  • the television 91 is connected to the AV amplifier 4a.
  • the player 3 reads the video signal of the AV content and the sound signal of the same AV content from the recording medium 80, outputs the video signal from the HDMI output terminal 9 to the AV amplifier 4a, and the HDMI output terminal 9 regarding the sound signal.
  • the sound signal read out from the recording medium 80 by the player 3 is a 5.1-channel sound signal, and the sound signals for these channels are respectively sound signals MD C , MD L , MD R , MD LS , MD RS and This is called MD SW (where the subscript indicates the channel symbol corresponding to each speaker).
  • the video output terminal 5a of the AV amplifier 4a is connected to the television 91.
  • Each of the audio output terminals 6a-1, 6a-2, 6a-3, 6a-4 of the AV amplifier 4a is connected to a speaker 1C, a speaker 1L, a speaker 1R, and a subwoofer 1SW.
  • the audio output terminals 6b-1 and 6b-2 of the AV amplifier 4b are connected to the speaker 1LS and the speaker 1RS, respectively.
  • the HDMI input terminal 7a of the AV amplifier 4a is connected to the HDMI output terminal 9 of the player 3 by an HDMI cable 81a.
  • the HDMI input terminal 7b of the AV amplifier 4b is connected to the HDMI output terminal 8a of the AV amplifier 4a by an HDMI cable 81b.
  • the HDMI cable 81a includes a TMDS (Transition Minimized Differential Signaling) signal line LN TMDS (a signal line for transmitting a content signal such as a video signal and a sound signal in accordance with TMDS), an ARC (Audio Return Channel) signal line LN ARC (a direction opposite to TMDS).
  • TMDS Transition Minimized Differential Signaling
  • LN TMDS a signal line for transmitting a content signal such as a video signal and a sound signal in accordance with TMDS
  • an ARC Audio Return Channel
  • LN ARC a direction opposite to TMDS
  • a plurality of signal lines such as CEC (Consumer Electronics Control) signal line LN CEC (signal line used for bidirectional transmission of control signals between devices connected by HDMI cable).
  • CEC Consumer Electronics Control
  • LN CEC signal line used for bidirectional transmission of control signals between devices connected by HDMI cable.
  • the configuration of the HDMI cable 81b is the same as that of the HDMI
  • the AV amplifier 4a further includes a control unit 12a, a storage unit 19, an HDMI receiver 13a, an HDMI transmitter 14a, a decoder DSP 15a, a post processor DSP 16a, and an output unit 17a.
  • the control unit 12a serves as a control center of the AV amplifier 4a, outputs a video signal input from the player 3 to the television 91, controls the DSP 15a and the DSP 16a, and decodes a sound signal input from the player 3. Or perform acoustic processing.
  • Each AV amplifier that can be used in the sound system 450 has a function of adding sound effects corresponding to various reproduction modes to an input sound signal.
  • each AV amplifier can perform sound processing according to the following five reproduction modes in common.
  • Cinema mode Playback mode suitable for daytime movie viewing.
  • Night cinema mode A playback mode suitable for watching movies at night.
  • TV mode A playback mode suitable for watching TV programs.
  • Game mode A playback mode suitable for game play.
  • Music mode A playback mode suitable for listening to music content.
  • the storage unit 19 stores a delay pattern table.
  • FIG. 6 is a diagram schematically showing the data structure of the delay pattern table.
  • the delay pattern table is a collection of data records regarding each of various AV amplifiers (a large number of types of AV amplifiers including the AV amplifier 4a and the AV amplifier 4b), and each data record includes the following data fields.
  • Identity information A model ID (Identifier) that is identification information of the AV amplifier is stored.
  • “Setting 1” Stores time data indicating the total device processing time RT1 in the cinema mode.
  • “Setting 2” Time data indicating the total device processing time RT2 in the night cinema mode is stored.
  • “Setting 3” Stores time data indicating the total device processing time RT3 in the television mode.
  • “Setting 4” Stores time data indicating the total device processing time RT4 in the game mode.
  • Setting 5 Stores time data indicating the total device processing time RT5 in the music mode.
  • the total device processing times RT1 to RT5 indicated by the time data stored in the delay pattern table are mainly post-processors provided in each AV amplifier when each AV amplifier performs acoustic processing corresponding to each of the five reproduction modes on the sound signal. This is the time required for the sound signal to pass through the digital DSP (described later), and is measured, for example, by the manufacturer of the AV amplifier.
  • the AV amplifier 4a is shipped with time data relating to each AV amplifier stored in advance in the delay pattern table, or necessary time data is acquired from an external device via the Internet, for example, and stored in the delay pattern table. To do.
  • the HDMI receiver 13a performs a buffering process in receiving a content signal input from the player 3 to the HDMI input terminal 7a via the signal line LN TMDS of the HDMI cable 81a.
  • the HDMI transmitter 14a performs buffering processing in transmission of a content signal output from the HDMI output terminal 8a to the AV amplifier 4b via the signal line LN TMDS of the HDMI cable 81b from the AV amplifier 4a.
  • the buffer capacity in the buffering process of the HDMI receiver 13a and the HDMI transmitter 14a As a buffer capacity in the buffering process of the HDMI receiver 13a and the HDMI transmitter 14a, a relatively large capacity is secured so that the content signals are sequentially reproduced without being lost at an appropriate timing. Therefore, the transmission of the content signal is accompanied by a delay that cannot be ignored. On the other hand, the buffer capacity associated with the transmission of the signal via the signal line LN ARC is small, small enough delay negligible.
  • DSP15a is DSP for the decoder, in accordance with an instruction from the control unit 12a, receives a sound signal MD C input from the player 3 to the AV amplifier 4a, MD L, MD R, the MD LS, MD RS and MD SW, they After the decoding process ZD is performed on the sound signals of the sound signals MD C , MD L , MD R , and MD SW , they are delivered to the DSP 16a.
  • the DSP 16a is a post-processor DSP.
  • the sound processing ZEa for adding an acoustic effect to each of the sound signals delivered from the DSP 15a is executed, and the sound signals MD ′ C , MD ′ L to which the acoustic effect is added are executed. MD ' R and MD' SW are generated.
  • the DSP 16a executes a delay process ZXa that gives a delay of the same delay time DT xa to all of the sound signals, and then delivers it to the output unit 17a.
  • the delay process ZXa will be described later.
  • the output unit 17a converts the sound signals MD ′ C , MD ′ L , MD ′ R , and MD ′ SW delivered from the DSP 16a into analog signals and amplifies the speaker drive level as necessary. , Output to speaker 1C, speaker 1L, speaker 1R, and subwoofer 1SW, respectively. The delay that occurs when the sound signal passes through the output unit 17a is small enough to be ignored.
  • DSP15a the sound signal MD LS, with respect to MD RS, in accordance with an instruction from the control unit 12a, after executing a delay process ZXb that for both of these sound signals provides a delay of the same delay time DT xb, their sound
  • the signal is output to the AV amplifier 4b via the signal line LN TMDS of the HDMI cable 81b.
  • the delay process ZXb will be described later.
  • the AV amplifier 4b includes a control unit 12b, an HDMI receiver 13b, an HDMI transmitter 14b, a post processor DSP 16b, and an output unit 17b.
  • the functions of the control unit 12b, the HDMI receiver 13b, and the HDMI transmitter 14b are the same as the functions of the corresponding components of the AV amplifier 4a.
  • the DSP 16b executes sound processing ZEb for applying sound effects corresponding to each reproduction mode to the sound signals MD LS and MD RS input from the AV amplifier 4a according to the instruction of the control unit 12b, and the sound signals MD ′ LS , MD ' RS is generated, and those sound signals are delivered to the output unit 17b.
  • the output unit 17b converts the sound signals MD ′ LS and MD ′ RS delivered from the DSP 16b into analog signals and amplifies them to the speaker drive level as necessary, and then the speakers 1LS and 1RS, respectively. Output to. Note that the delay that occurs when the sound signal passes through the output unit 17b is small enough to be ignored.
  • Each of the speakers included in the speaker group 1 emits sound to the room 90 according to the sound signal input from the output unit 17a or the output unit 17b as described above. As a result, one sound field is created in the living room 90.
  • the delay processing ZXa and the delay processing ZXb are transmitted to the AV amplifier 4b after the sound signal passes through the DSP 15a in the AV amplifier 4a and the time required for the sound signal to pass through the DSP 15a and DSP 16a in the AV amplifier 4a.
  • FIG. 7 and 8 are diagrams for the control unit 12a will be described a method for determining the delay time DT xb delay time DT xa and delay processing ZXb the delay processing ZXa.
  • the total device processing time of the AV amplifier 4a is substantially shorter than the total device processing time of the AV amplifier 4b
  • the delay time DT xa of the delay processing ZXa is set to a positive value
  • the delay time DT xb of the delay processing ZXb is 0. This shows a case where (no delay) is set.
  • FIG. 7 and 8 are diagrams for the control unit 12a will be described a method for determining the delay time DT xb delay time DT xa and delay processing ZXb the delay processing ZXa.
  • the total device processing time of the AV amplifier 4a is substantially shorter than the total device processing time of the AV amplifier 4b
  • the delay time DT xa of the delay processing ZXa is set to a positive value
  • the first stage in FIGS. 7 and 8 outputs the sound signal to the output unit 17a from the timing when the sound signal is input from the player 3 to the AV amplifier 4a in a state where the delay time DT xa is set to 0 (no delay). Time to timing is shown.
  • the breakdown is as follows.
  • Input processing time zra Time from the timing when the HDMI input terminal 7a of the AV amplifier 4a receives a sound signal from the player 3 via the signal line LN TMDS of the HDMI cable 81a to the timing when the sound signal is delivered to the DSP 15a. Delay time mainly associated with buffering processing of the HDMI receiver 13a. Device processing time zd: The time required for the decoding process ZD among the time required for the sound signal to pass through the DSP 15a. The delay time mainly associated with the buffering process of the decoding process ZD. Device processing time zea: Time required for the acoustic processing ZEa among the time required for the sound signal to pass through the DSP 16a.
  • the second stage of FIGS. 7 and 8 outputs the sound signal to the output unit 17b from the timing when the sound signal is input from the player 3 to the AV amplifier 4a in a state where the delay time DT xb is set to 0 (no delay). The time until the timing is shown.
  • the breakdown is as follows.
  • Input processing time zra Time from the timing when the HDMI input terminal 7a of the AV amplifier 4a receives a sound signal from the player 3 via the signal line LN TMDS of the HDMI cable 81a to the timing when the sound signal is delivered to the DSP 15a. Delay time mainly associated with buffering processing of the HDMI receiver 13a.
  • Device processing time zd The time required for the decoding process ZD among the time required for the sound signal to pass through the DSP 15a. The delay time mainly associated with the buffering process of the decoding process ZD.
  • Device processing time zxb Time required for the sound signal to pass through the DSP 15a.
  • Output processing time zta From the timing when the sound signal is delivered from the DSP 15a to the HDMI transmitter 14a to the timing when the sound signal is output from the HDMI output terminal 8a to the AV amplifier 4b via the signal line LN TMDS of the HDMI cable 81b. time of. Delay time mainly associated with buffering processing of the HDMI transmitter 14a.
  • Input processing time zrb Time from the timing when the HDMI input terminal 7b receives the sound signal input from the AV amplifier 4a via the signal line LN TMDS of the HDMI cable 81b to the timing when the HDMI receiver 13b delivers the sound signal to the DSP 16b . Delay time mainly associated with buffering processing of the HDMI receiver 13b.
  • Device processing time zeb Time required for the acoustic processing ZEb among the time required for the sound signal to pass through the DSP 16b. Delay time mainly associated with buffering processing of the acoustic processing ZEb.
  • the underlined input processing time zrb and device processing time zeb are times specific to the AV amplifier 4b.
  • the total value of these three times unique to the AV amplifier 4b is stored in the data field “setting 1” (corresponding to the cinema mode) of the data record corresponding to the model ID of the AV amplifier 4b included in the delay pattern table (FIG. 6). This is the total device processing time RT1 indicated by the stored time data.
  • the AV amplifier 4a for example, at the timing when both the AV amplifier 4a and the AV amplifier 4b are turned on or when the user receives an instruction to change the playback mode, etc.
  • a request signal for requesting the model ID of the AV amplifier 4b is generated and transmitted to the AV amplifier 4b via the signal line LN CEC of the HDMI cable 81b, for example.
  • control unit 12b of the AV amplifier 4b When the control unit 12b of the AV amplifier 4b obtains the request signal transmitted from the AV amplifier 4a, the control unit 12b generates a response signal indicating the model ID of the own apparatus, and for example, the AV amplifier via the signal line LN CEC of the HDMI cable 81b. To 4a.
  • the control unit 12a When the control unit 12a acquires the response signal transmitted from the AV amplifier 4b, the control unit 12a searches the delay pattern table for the data record using the model ID indicated by the response signal as a search key, and sets the data field “setting” of the searched data record. Of the “1” to “setting 5”, the time data stored in the data field “setting 1” corresponding to the currently selected playback mode (cinema mode) is read.
  • the total device processing time RT1 indicated by the time data read in this way is the total time of the input processing time zrb and device processing time zeb of the AV amplifier 4b in the cinema mode.
  • the input processing time zra, device processing time zd, device processing time zea, device processing time zxa, device processing time zxb, and output processing time zta are not underlined. Is a time inherent to the AV amplifier 4a.
  • the AV amplifier 4a stores data indicating these times relating to the own apparatus in the storage unit 19 in advance.
  • the difference between the times Xa and Xb shown in the first and second stages is calculated as the delay time DT xa (in the case of FIG. 7) or the delay time DT xb (in the case of FIG. 8).
  • the control unit 12a performs the following calculation.
  • Time Xa device processing time zea + device processing time zxa
  • Time Xb device processing time zxb + output processing time zta + input processing time zrb + device processing time zeb
  • the third stage of FIGS. 7 and 8 outputs the sound signal to the output unit 17a from the timing when the sound signal is input from the player 3 to the AV amplifier 4a in a state where the delay time DTxa calculated as described above is set. The time until the timing is shown. Further, the fourth stage of FIGS. 7 and 8 shows that the sound signal is input from the player 3 to the AV amplifier 4a to the output unit 17b with the delay time DTxb calculated as described above being set. The time until the output timing is shown.
  • the delay process ZXa and the delay process ZXb according to the delay time DT xa and the delay time DT xb calculated as described above are performed, whereby the sound signal is output to the output unit 17a in the AV amplifier 4a. Is coincident with the timing at which the audio signal is output to the output unit 17b in the AV amplifier 4b.
  • the time from when the output unit 17a of the AV amplifier 4a receives the input of the sound signal to the time when the sound signal is output to each of the speakers connected to the AV amplifier 4a, and the AV amplifier 4b The time from when the output unit 17b receives the input of the sound signal to the time when the sound signal is output to each of the speakers connected to the AV amplifier 4b is short enough to be ignored, and the difference between them is small enough to be ignored. .
  • the delay processing ZXa and delay processing ZXb according to the calculated delay time DT xa and DT xb as described above, is connected to the output timing and the AV amplifier 4b of the sound signal for each of the speakers connected to the AV amplifier 4a The output timing of the sound signal to each of the speakers is matched.
  • the AV amplifier 4a and the AV amplifier 4b perform a process of adding an acoustic effect to the sound signal of the same AV content in parallel, and are connected to each other. Even when a sound signal to which a sound effect is added is output individually to different speakers, the timing at which the sound signal is output from the AV amplifier 4a to the speaker, and the sound signal is output from the AV amplifier 4b to the speaker Timing is matched. As a result, a sound field desirable for the viewer LSN is created in the living room 90.
  • FIG. 9 is a diagram illustrating a configuration example of an acoustic system 550 including the AV amplifier 104a and the AV amplifier 104b according to the sixth embodiment of the present invention.
  • the configuration of the acoustic system 550 according to the sixth embodiment is common in many respects to the acoustic system 450 according to the fifth embodiment described above. Therefore, the following description focuses on the differences between the acoustic system 550 and the acoustic system 450.
  • symbol used in the acoustic system 450 is used for the component which the acoustic system 450 has among the components provided in the acoustic system 550.
  • the AV amplifier 4a stores, in the storage unit 19, the device processing time in each playback mode of the AV amplifier 4a and the AV amplifier 4b required to determine the delay times of the delay processing ZXa and the delay processing ZXb. It is specified by reading the data.
  • the AV amplifier 104a specifies the time Xa by measuring the time required for the test signal to actually pass through the DSP 16a.
  • the AV amplifier 104a specifies the time Xb by measuring the time required for the test signal to be transmitted to the AV amplifier 104b after passing through the DSP 15a and passing through the DSP 16b.
  • the control unit 12a of the AV amplifier 104a is so to determine a delay time DT xb delay time DT xa and delay processing ZXb delay processing ZXa using the identified time Xa and time Xb by the measurement.
  • the AV amplifier 104a does not need the storage unit 19 for storing data indicating the device processing time of the AV amplifier 104a and the delay pattern table.
  • the measurement of the time Xa and the time Xb by the AV amplifier 104a and the AV amplifier 104b is performed as follows.
  • An instruction is given to pass the test signal and return the output signal as a response signal to the control unit 12a.
  • the control unit 12a specifies the difference between the time when the test signal is delivered to the DSP 16a and the time when the response signal is received from the DSP 16a as the time Xa.
  • This time Xa is the time required for the signal to pass through the path indicated by the arrow A in FIG.
  • control unit 12a sets the same buffer usage state as when performing the acoustic processing ZEb corresponding to the selected reproduction mode in the DSP 16b to the AV amplifier 104b, and passes the test signal input from now on, Instruction data for instructing the output signal to be returned to the AV amplifier 104a as a response signal is generated and transmitted to the AV amplifier 104b via the signal line LN CEC of the HDMI cable 81b, for example.
  • the control unit 12b of the AV amplifier 104b that has received the instruction data instructs the DSP 16b to set the same buffer usage state as when performing the acoustic processing XEb in accordance with the instruction indicated in the instruction data, and the test signal to be delivered from now on. To output the output signal to the AV amplifier 104a.
  • the DSP 16b stands by in the same buffer usage state as when performing the acoustic processing XEb.
  • the DSP 15a passes the test signal and delivers the output signal to the HDMI transmitter 14a according to the instruction of the previous control unit 12a.
  • the HDMI transmitter 14a outputs the signal received from the DSP 15a to the AV amplifier 104b via the signal line LN TMDS of the HDMI cable 81b.
  • the HDMI receiver 13b of the AV amplifier 104b delivers a signal (test signal) input from the AV amplifier 104a via the signal line LN TMDS of the HDMI cable 81b to the DSP 16b.
  • the DSP 16b receives the test signal from the HDMI receiver 13b, the DSP 16b passes the test signal in accordance with the instruction from the control unit 12b, and delivers the output signal to the HDMI input terminal 7b as a response signal.
  • the HDMI input terminal 7b the response signal, and outputs to the AV amplifier 104a via the signal line LN ARC of the HDMI cable 81b.
  • HDMI output terminal 8a of the AV amplifier 104a from the AV amplifier 104b passes the response signal inputted through the signal line LN ARC of the HDMI cable 81b to the control unit 12a.
  • the controller 12a specifies the difference between the time when the test signal is delivered to the DSP 15a and the time when the response signal is received from the HDMI output terminal 8a as time Xb ′.
  • This time Xb ′ is the time required for the signal to pass through the path indicated by the arrow B in FIG. 9, and is the time obtained by adding the following time to the time Xb in the fifth embodiment.
  • Output processing time ztb The time from when the response signal is delivered from the DSP 16b to the HDMI input terminal 7b to when the response signal is output to the AV amplifier 104a via the signal line LN ARC of the HDMI cable 81b.
  • Input processing time ZRA HDMI output terminal 8a is time input from the timing that has received the response signal from the AV amplifier 104b through the signal line LN ARC of the HDMI cable 81b, to the timing of delivering a response signal to the control unit 12a.
  • the output processing time ztb and the input processing time zra are short enough to be ignored. That is, time Xb′ ⁇ time Xb.
  • the control unit 12a performs the delay process using the time Xa and the time Xb ′ specified as described above by the same process as the process performed by the AV amplifier 4a according to the fifth embodiment using the time Xa and the time Xb.
  • the delay time DT xa of ZXa and the delay time DT xb of the delay process ZXb are determined.
  • the timing at which the sound signal is output from the AV amplifier 104a to the speaker in the sound system 550 as well as in the sound system 450, the timing at which the sound signal is output from the AV amplifier 104a to the speaker.
  • the timing at which a sound signal is output from the AV amplifier 104b to the speaker coincides with each other.
  • a sound field desirable for the viewer LSN is created in the living room 90.
  • FIG. 10 is a diagram illustrating a configuration example of an acoustic system 650 including the AV amplifier 204a and the AV amplifier 204b according to the seventh embodiment of the present invention.
  • the configuration of the acoustic system 650 according to the seventh embodiment is common in many respects to the acoustic system 450 according to the fifth embodiment described above. Therefore, the following description focuses on the differences of the acoustic system 650 from the acoustic system 450.
  • the same reference numerals as those used in the acoustic system 450 are used for the components included in the acoustic system 650 that are the same as those included in the acoustic system 450.
  • the AV amplifier 4a performs delay processing ZXb for delaying the output timing of the sound signal from the AV amplifier 4b to the speaker.
  • the delay process ZXb is performed by the AV amplifier 204b corresponding to the AV amplifier 4b according to the fifth embodiment. That is, the DSP 15a of the AV amplifier 204a does not perform the delay process ZXb, and the DSP 16b of the AV amplifier 204b performs the delay process ZXb.
  • the control unit 12a of the AV amplifier 204a has determined the delay time DT xb, it generates instruction data for instructing the execution of the delay process ZXb in accordance with the delay time DT xb, for example, the signal line LN CEC of HDMI cable 81b To the AV amplifier 204b.
  • the DSP 16b of the AV amplifier 204b delays the sound signals MD ′ LS and MD ′ RS generated by the acoustic processing ZEb by the delay time DT xb according to the instruction given from the control unit 12b according to the instruction data received from the AV amplifier 204a (delayed). Process ZXb), output to speaker 1LS and speaker 1RS.
  • the timing at which a sound signal is output from the AV amplifier 204a to the speaker matches the timing at which the sound signal is output from the AV amplifier 204b to the speaker.
  • a sound field desirable for the viewer LSN is created in the living room 90.
  • FIG. 11 is a diagram illustrating a configuration example of an acoustic system 750 including the AV amplifier 304a and the AV amplifier 304b according to the eighth embodiment of the present invention.
  • the configuration of the acoustic system 750 according to the eighth embodiment is common in many respects to the acoustic system 550 according to the sixth embodiment described above. Therefore, the following description focuses on the differences of the acoustic system 750 from the acoustic system 550.
  • symbol used in the acoustic system 550 is used for the component which the acoustic system 550 has among the structural parts with which the acoustic system 750 is provided.
  • the time Xa required for the test signal to pass through the AV amplifier 104a and the time Xb ′ required for the test signal to pass through the AV amplifier 104a and the AV amplifier 104b are measured, and the time Xa and time Based on Xb ′, the delay time is set in the delay processing ZXa and the delay processing ZXb for eliminating the deviation of the output timing of the sound signal from the speaker.
  • the test signal passes through the AV amplifier 304a and is output to the speakers connected to the AV amplifier 304a, and is emitted from those speakers to reach the position of the viewer LSN.
  • the test signal passes through the AV amplifier 304a and the AV amplifier 304b, is output to the speakers connected to the AV amplifier 304b, is emitted from those speakers, and reaches the position of the viewer LSN.
  • Time is measured as the round trip time for each of the speakers.
  • difference of the output timing with respect to the speaker of a sound signal is performed for every speaker based on those measured round trip time is employ
  • the microphone 101 is arranged at the position of the viewer LSN.
  • the AV amplifier 304a receives the audio input terminal 10 for receiving the sound signal output from the microphone 101, and the sound signal input to the audio input terminal 10, and converts it into a digital signal as necessary. Thereafter, an input unit 18 is provided to be transferred to the control unit 12a.
  • the DSP 15a of the AV amplifier 304a does not perform the delay process ZXb performed by the DSP 15a of the AV amplifier 104a, and the DSP 16a of the AV amplifier 304a does not perform the delay process ZXa performed by the DSP 16a of the AV amplifier 104a.
  • the DSP 16a of the AV amplifier 304a has a delay time DT ja- # (where "#" is a symbol of each speaker, C, L, etc.) for each sound signal output to each speaker connected to the AV amplifier 304a.
  • An adjustment process ZJa that gives a delay of R or SW) is performed.
  • the DSP 16a of the AV amplifier 304b has a delay time DT jb- # (where “#” is a symbol of each speaker and LS) for each sound signal output to each of the speakers connected to the AV amplifier 304b.
  • An adjustment process ZJb that gives a delay (indicating one of RS) is performed.
  • Delay time DT jb- # determination of the delay time DT en-US # and adjustment process ZJb the adjustment process ZJa is carried out as follows.
  • the user performs a measurement instruction operation on the AV amplifier 304a in a state where the microphone 101 arranged at the position of the viewer LSN is connected to the audio input terminal 10.
  • the test signal to be handed over is passed, and the output signal is instructed to be handed over to the output unit 17a as a sound signal for the speaker 1C.
  • the output unit 17a outputs the sound signal delivered from the DSP 16a to the speaker 1C.
  • the speaker 1C emits sound according to the sound signal input from the output unit 17a.
  • the sound emitted from the speaker 1C is picked up by the microphone 101 and output to the audio input terminal 10 of the AV amplifier 304a.
  • the input unit 18 of the AV amplifier 304a passes the sound signal input from the microphone 101 via the audio input terminal 10 to the control unit 12a.
  • the control unit 12a calculates the difference between the time when the test signal is delivered to the DSP 16a and the time when the sound signal corresponding to the test signal is received from the input unit 18 as the round trip time Y C for the speaker 1C.
  • the AV amplifier 304a performs the same processing as the calculation of the round trip time Y C for the speaker 1C with respect to other speakers connected to the AV amplifier 304a, that is, the speaker 1L, the speaker 1R, and the subwoofer 1SW. Round trip time Y L , round trip time Y R , and round trip time Y SW are calculated.
  • the instruction data for instructing to output the sound according to the output signal from the speaker 1LS is generated and transmitted to the AV amplifier 304b via the signal line LN CEC of the HDMI 81b, for example.
  • An instruction is given to set the state, and a test signal to be handed over is passed, and an instruction is given to output the output signal to the output unit 17b as a sound signal for the speaker 1LS.
  • control unit 12a delivers the test signal to the HDMI transmitter 14a.
  • the HDMI transmitter 14a outputs the test signal received from the control unit 12a to the AV amplifier 304b via the signal line LN TMDS of the HDMI cable 81b.
  • the HDMI receiver 13b of the AV amplifier 304b passes the test signal input from the AV amplifier 304a to the DSP 16b via the signal line LN TMDS of the HDMI cable 81b.
  • the DSP 16b receives the test signal from the HDMI receiver 13b
  • the DSP 16b passes the test signal in accordance with the instruction from the previous control unit 12b and delivers the output signal to the output unit 17b.
  • the output unit 17b outputs the sound signal delivered from the DSP 16b to the speaker 1LS.
  • the speaker 1LS emits sound according to the sound signal input from the output unit 17b.
  • the sound emitted from the speaker 1LS is picked up by the microphone 101 and output to the audio input terminal 10 of the AV amplifier 304a.
  • the AV amplifier 304a delivers a sound signal input from the microphone 101 via the audio input terminal 10 to the control unit 12a.
  • the control unit 12a calculates the difference between the time when the test signal is delivered to the HDMI transmitter 14a and the time when the sound signal corresponding to the test signal is received from the input unit 18 as the round trip time Y LS related to the speaker 1LS.
  • the AV amplifier 304a performs the same processing as the calculation of the round trip time Y LS related to the speaker 1LS with respect to another speaker connected to the AV amplifier 304b, that is, the speaker 1RS, and calculates the round trip time Y RS related to the speaker 1RS. .
  • FIG. 12 is a diagram showing an example of the round trip time corresponding to each speaker calculated as described above.
  • the time from when the sound is picked up by the microphone 101 and delivered to the control unit 12a via the audio input terminal 10 and the input unit 18 is so short as to be negligible. Yes.
  • FIG. 12 shows an example in which the round trip time of the sound signal that passes through the AV amplifier 304a is shorter than the round trip time of the sound signal that passes through the AV amplifier 304b as an example.
  • the calculation method of DT ja- # and DT jb- # to be described is the same.
  • the difference between the round trip times Y # for each speaker shown in FIG. 12 is the difference between the time required for the sound signal to pass through the AV amplifier 304a and the time required for the sound signal to pass through the AV amplifier 304b. This is a time difference between AV amplifiers.
  • the control unit 12a follows the following calculation formula to determine the delay time DT ja- # for the adjustment process ZJa and the delay time DT jb- for the adjustment process ZJb- Calculate each # .
  • a sound signal is sent from the AV amplifier 304a to the speaker.
  • the output timing coincides with the output timing of the sound signal from the AV amplifier 304b to the speaker.
  • the timing at which a sound signal is output from the AV amplifier 304a to the speaker, and the timing at which the sound signal is output from the AV amplifier 304a to the speaker via the AV amplifier 304b. Match.
  • a sound field desirable for the viewer LSN is created in the living room 90.
  • the delay time DT ja- # and the delay time DT jb- # described above are the AV amplifier 304a when the speakers are arranged in the living room 90 so that the distances between the speakers and the viewer LSN are the same.
  • the delay time DT is calculated as described above en-US # and the delay time DT Jb- # The timing at which the sound emitted from each speaker reaches the viewer LSN matches without requiring any additional adjustment processing.
  • FIG. 14 is a diagram illustrating an example of the round trip time corresponding to each speaker calculated by the AV amplifier 304a when the distance between each speaker and the viewer LSN varies.
  • the difference between the round trip times Y # for each speaker shown in FIG. 14 is the difference between the time required for the sound signal to pass through the AV amplifier 304a and the time required for the sound signal to pass through the AV amplifier 304b. This is the sum of both the time difference between the AV amplifiers caused by this and the time difference between the speakers caused by the difference in distance from each speaker to the viewer LSN.
  • control unit 12a follows the above-described calculation formulas so that the delay time DT ja- # for the adjustment processing ZJa and the delay time DT jb- for the adjustment processing ZJb- Calculate each # .
  • the fifth to eighth embodiments described above can be variously modified within the scope of the technical idea of the present invention. Examples of these modifications are shown below.
  • the AV amplifier 4a, the AV amplifier 104a, the AV amplifier 204a, and the AV amplifier 304a are collectively referred to as “master amplifier”, and the AV amplifier 4b, the AV amplifier 104b, the AV amplifier 204b, and the AV amplifier 304b are collectively referred to. This is called “slave amplifier”.
  • the delay processing ZXa and the delay are performed according to the time data corresponding to each playback mode of the various AV amplifiers stored in the form of the delay pattern table in the storage unit 19 of the master amplifier.
  • the delay time in the process ZXb is specified.
  • the master amplifier outputs the test signal without using the delay pattern table, and the master amplifier measures the time until the response signal is input, and the delay is based on the measurement result.
  • the delay time in the process ZXa and the delay process ZXb is specified.
  • time Xa and time Xb 'specified by measurement are stored in the delay pattern table instead of the time data, and are used for specifying the delay time thereafter.
  • the first modification it is not necessary to store time data in the delay pattern table in advance, and once the time Xa and time Xb ′ are specified by measurement, the data indicating these times are stored and reused. Therefore, it is not necessary to repeat measurement in the same playback mode.
  • time data relating to various AV amplifiers is stored in the form of a delay pattern table in the storage unit 19 of the master amplifier, and the time data of the slave amplifier is stored in the delay pattern in the master amplifier. It is read from the table and used.
  • the master amplifier only stores time data corresponding to each reproduction mode of the own device, and does not store time data of other AV amplifiers.
  • the slave amplifier according to the second modification includes a storage unit and stores time data corresponding to each reproduction mode of the own device.
  • the master amplifier requests time data from the slave amplifier when the delay time is specified.
  • the slave amplifier transmits the stored time data of its own device to the master amplifier.
  • the master amplifier identifies the delay time in the delay processing ZXa and the delay processing ZXb according to the time data of the own device stored in the storage unit 19 and the time data of the slave amplifier received from the slave amplifier.
  • each AV amplifier only needs to store its own time data, and the master amplifier does not need to store time data of other various AV amplifiers.
  • a configuration is employed in which the round trip time is measured for each speaker, and the delay processing according to the delay time corresponding to each speaker is executed as the adjustment processing ZJa and the adjustment processing ZJb.
  • the round trip time corresponding to each speaker connected to the same AV amplifier is the same, and therefore those speakers are The delay time of the adjustment process performed on the sound signal output to is also the same. Therefore, when there is no difference in the distance between each speaker and the viewer LSN, the round trip time for any one speaker connected to the AV amplifier 304a and any one connected to the AV amplifier 304b.
  • a configuration may be adopted in which only the round trip time for the speakers is measured, and the delay time for the sound signal output to each speaker is calculated based on the round trip times.
  • the adjustment process ZJb performed in the DSP 16b of the slave amplifier in the eighth embodiment described above is performed in the master amplifier (for example, the DSP 15a). That is, the adjustment of the output timing of the sound signal output from the slave amplifier to each speaker is realized by the adjustment of the output timing of the sound signal corresponding to each speaker from the master amplifier to the slave amplifier.
  • the processing load on the slave amplifier is reduced as compared with the case of the eighth embodiment described above, more resources of the slave amplifier can be used for the acoustic processing ZEb.
  • the master amplifier has an audio input terminal and can receive a sound signal output from a microphone arranged at the position of the viewer LSN.
  • Each sound corresponding to the test signal is received in the same manner as in the eighth embodiment.
  • the delay time for each speaker is determined so that the sound that is emitted from each speaker reaches the viewer LSN by making the sound emitted from the speaker and measuring the round trip time according to each speaker. That's fine.
  • the time required for the sound signal to pass through the output unit 17a of the master amplifier and the sound signal pass through the output unit 17b of the slave amplifier if the difference is so large that it cannot be ignored, for example, the master amplifier previously stores time data indicating the time required for the passage for each AV amplifier.
  • a configuration may be employed in which the delay times DT xa and DT xb are calculated in consideration of the time indicated by the time data stored or acquired from an external device.
  • the sound signal output from the player 3 is a 5.1-channel sound signal.
  • the number of sound signal channels acquired by the master amplifier is as follows. Any number of channels may be used. Further, the number of channels of the speaker system used in the above-described fifth to eighth embodiments is not limited to 5.1 channels, and speaker systems having other various channel numbers can be employed in the present invention.
  • the types of signal lines used for input / output of various signals between the master amplifier and the slave amplifier shown in the fifth to eighth embodiments described above are examples, and as long as a sufficient transmission speed can be obtained.
  • Other types of signal lines may be used.
  • the signal line LN CEC instead of using the signal line LN CEC among the signal lines in the HDMI cable 81, the signal line LNARC or the signal line LN TMDS may be used.
  • the EDID of the slave amplifier is set using a DDC (Display Data Channel) signal line LN DDC (signal line used for EDID transmission) provided in the HDMI cable 81b. You may receive it.
  • DDC Display Data Channel
  • the signal transmission between the player 3 and the master amplifier, and between the master amplifier and the slave amplifier is performed according to the HDMI standard.
  • the signal transmission method between them is not limited to the one according to the HDMI standard, and a transmission method according to another standard may be adopted.
  • the delay process ZXa performed in the master amplifier is performed after the acoustic process ZEa.
  • the delay process ZXa may be performed before the acoustic process ZEa.
  • the delay processing ZXb ′ performed in the AV amplifier 204b may be performed before the acoustic processing ZEb.
  • a part of the sound signal subjected to the decoding process ZD in the master amplifier as necessary in the master amplifier is not subjected to the acoustic processing by the master amplifier, and is applied to the slave amplifier.
  • a configuration in which the sound is transmitted is adopted, for example, a configuration in which the master amplifier transmits a part or all of the sound signal after performing part or all of the acoustic processing ZEa in the master amplifier to the slave amplifier is adopted. Good.
  • the sound signal input from the player 3 to the master amplifier is encoded, the encoded sound signal before the master amplifier performs the decoding process ZD is transmitted to the slave amplifier, and the slave amplifier is parallel to the master amplifier.
  • a configuration in which decoding processing is performed may be employed.
  • the contents of the process for which the required time is compared in order to specify the delay time of the delay process are different from those in the fifth to eighth embodiments described above.
  • the time Xa is set to a portion of the sound processing ZEa that is not applied to the sound signal transmitted to the slave amplifier. Time required (only the second half of the device processing time zea).
  • the device processing time for decoding is added to the time Xb.
  • the sharing of processing for the sound signals of the master amplifier and the slave amplifier can be changed variously, and the time Xa and the time Xb (or time Xb ′) to be compared for specifying the delay time are accordingly changed. Can be different.
  • the delay time of the delay process is controlled by the control unit 12a so as to eliminate the deviation of the output timing of the sound signal to the speaker due to the difference between the total device processing time of the master amplifier and the total device processing time of the slave amplifier. As long as is determined, the device processing time for any process may be compared.
  • the speaker 1C, the speaker 1L, the speaker 1R, and the subwoofer 1SW are connected to the master amplifier, and the master amplifier processes the sound signal of the channel corresponding to those speakers.
  • the speaker LS and the speaker RS are connected to the slave amplifier, and the slave amplifier processes the sound signal of the channel corresponding to those speakers. Which speaker is connected to the master amplifier or the slave amplifier? Also, which sound signal is processed by the master amplifier or the slave amplifier can be arbitrarily changed.
  • FIG. 16 shows an audio input terminal of the pre-main amplifier 40 instead of connecting the speakers 1L and 1R to the audio output terminals 6a-2 and 6a-3 of the AV amplifier 4a in the acoustic system 450 according to the fifth embodiment. It is the figure which showed the example which connected (illustration omitted). In this example, the speaker 1L and the speaker 1R are connected to audio output terminals (not shown) of the pre-main amplifier 40, respectively.
  • the output unit 17a of the AV amplifier 4a is set to the speaker drive level as necessary for the audio output terminals 6a-1 and 6a-4 to which the speaker 1C or the subwoofer 1SW is connected. After amplifying, a sound signal is output. On the other hand, the output unit 17a outputs a sound signal to the audio output terminals 6a-2 and 6a-3 to which the pre-main amplifier 40 is connected without performing amplification.
  • the pre-main amplifier 40 amplifies the sound signal input from the AV amplifier 4a to the speaker drive level, and then outputs the amplified signal to the speaker 1L and the speaker 1R. As a result, as long as the time required for the sound signal to pass through the pre-main amplifier 40 is sufficiently short, a sound field desirable for the viewer LSN is created.
  • the acoustic device connected to the audio output terminals of the master amplifier and the slave amplifier according to the present invention may be any type of acoustic device, and as a result of adjusting the output timing of the sound signal to those acoustic devices, As long as the difference in time required for the sound signal to pass through the acoustic device is sufficiently short, a sound field desirable for the viewer LSN is created.
  • the present invention also applies when a plurality of slave amplifiers cooperate with the master amplifier. Is applicable.
  • the sound processing performed by the master amplifier and the slave amplifier is performed according to the playback mode such as the cinema mode, the night cinema mode, the television mode, the game mode, and the music mode.
  • the playback mode such as the cinema mode, the night cinema mode, the television mode, the game mode, and the music mode.
  • these are merely examples of the acoustic processing performed in the master amplifier and the slave amplifier, and any other acoustic processing may be performed in the master amplifier and the slave amplifier.
  • the master amplifier employs a configuration in which the decoder DSP 15a and the post processor DSP 16a are separated, but they may be integrated. . That is, the same DSP or DSP group may perform the functions of a decoder and a post processor.
  • the DSP 15a for the decoder performs only the decoder processing ZD, and an individual DSP for performing the delay processing ZXb is provided. Whether the process is assigned can be arbitrarily changed.
  • This application is based on Japanese Patent Application filed on March 26, 2012, Japanese Patent Application No. 2012-0669369, and Japanese Patent Application filed on July 27, 2012, Japanese Patent Application No. 2012-167113, the contents of which are here Incorporated by reference.
  • the present invention it is possible to provide a more desirable sound to a listener by effectively utilizing a processor for sound processing incorporated in an AV amplifier.
  • the listener when audio content is reproduced using a plurality of AV amplifiers each connected to a speaker, the listener is caused by the difference in time required for the sound signal to pass through each AV amplifier. It is possible to reduce an unintended shift in the arrival timing of the sound.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)

Abstract

 音響コンテンツを示す音信号を取得する音信号取得手段と、前記音信号取得手段により取得された音信号に音響効果を付加するための第1信号処理を施して、前記第1信号処理が施された音信号を出力する第1プロセッサと、前記音信号を取得し、当該音信号に音響効果を付加するための第2信号処理を施して、前記第2信号処理が施された音信号を出力する第2プロセッサを備える他のAVアンプに、当該第2信号処理を指示する制御信号を送信する送信手段と、を備えるAVアンプ。

Description

AVアンプ
 この発明は、音響システムのアンプに内蔵されるプロセッサの動作を制御する技術に関する。
 ホームシアターシステムなどの音響設備に広く採り入れられている音響技術の一つにマルチチャンネルサラウンド技術がある。マルチチャンネルサラウンド技術は、映像コンテンツの画像とともに再生される音の音像を聴者の周囲に配した複数個のスピーカを用いて制御する技術である。
 近年、ホームシアターシステムにおいて再生される音響コンテンツのチャンネル数は増加の傾向にある。音響コンテンツのオリジナルソースのチャンネル数が増加の傾向にあるのに加えて、例えば5.1チャンネルのオリジナルソースを用いて音響処理により11.2チャンネルの音響コンテンツを生成し再生する技術も登場している。このようにチャンネル数が多数となると、マルチチャンネルサラウンドを実現するために必要なチャンネル数が、既存の1台のAVアンプにより出力可能なチャンネル数を超える場合が生じる。
 上記の問題を解消する技術として、特許文献1においては、1台のAVアンプの出力可能なチャンネル数を超えたチャンネル数のマルチチャンネルサラウンドを実現するために、複数台のAVアンプにそれら多数チャンネルの音信号を分配する仕組みが提案されている。
 特許文献1に開示された出力制御システムにおけるAVアンプは、テレビジョン受像機から取得するEDID(Extended Display Identification Data)からそのテレビジョン受像機のレイテンシを特定し、音信号にこのレイテンシに相当する遅延を与えることを指示する制御信号を自身の配下の各オーディアンプに供給する。この出力制御システムによると、テレビジョン受像機からAVアンプを介してスピーカに供給される音信号の発音時刻とテレビジョン受像機からAVアンプ及びオーディオアンプを介してスピーカに供給される音信号の発音時刻をテレビジョン受像機の再生画像と同期させることができる。
日本国特開2011-124925号公報
 マルチチャンネルサラウンドを実現するシステムにおいて、コンテンツ再生装置と各スピーカの間に介挿されるAVアンプに音響処理向けに作り込まれたプロセッサを搭載したインテリジェントなAVアンプを使用することで、より臨場感に富んだ音を聴者に提供することができる。
 上述した特許文献1において提案されている仕組みを、これらのインテリジェントなAVアンプに適用した場合、マスターとなるAVアンプの音響処理用のプロセッサにより全ての音響処理が行われ、スレーブとなるAVアンプが持つ音響処理用のプロセッサは活用されない。
 そのため、音信号のチャンネル数が増えるほどAVアンプ内の音響処理用のプロセッサの処理負担が大きくなり、処理の遅延や可能な音響処理の制限が生じる。
 本発明は、上記の事情に鑑みてなされたものであり、AVアンプに内蔵された音響処理用のプロセッサを有効活用することで、より望ましい音を聴者に提供することを目的とする。
 また、上記のインテリジェントなAVアンプ内のプロセッサを音信号が通過するために要する時間は、各プロセッサにおけるバッファの使用方法や処理対象として与えられる音信号のサンプリング周波数などによって様々に異なる。
 上記のような複数のAVアンプのプロセッサを用いて同じ音響コンテンツの音信号の処理を行う場合、上述のように処理対象の音信号のサンプリング周波数や処理内容等に応じて各AVアンプを音信号が通過するために要する時間が異なるため、AVアンプに固定的に与えられているEDID情報に基づく処理を行っただけでは、それらの複数のAVアンプの各々から各スピーカに音信号が出力されるタイミング間に意図せぬずれが生じる。
 その結果、各スピーカから放音される音が聴者に到達するタイミング間に意図せぬずれが生じ、聴者が違和感を覚えたり、聴者が本来の音の定位感を感じることができなくなったりする。
 本発明は上記のような事情に鑑み、音響コンテンツを各々にスピーカが接続された複数のAVアンプを用いて再生する際に、音信号が各AVアンプを通過するために要する時間の差に起因する聴者への音の到達タイミングの意図せぬずれを低減する技術を提供することを目的とする。
 上記課題を解決するため、本発明は、音響コンテンツを示す音信号を取得する音信号取得手段と、前記音信号取得手段により取得された音信号に音響効果を付加するための第1信号処理を施して、前記第1信号処理が施された音信号を出力する第1プロセッサと、前記音信号を取得し、当該音信号に音響効果を付加するための第2信号処理を施して、前記第2信号処理が施された音信号を出力する第2プロセッサを備える他のAVアンプに、当該第2信号処理を指示する制御信号を送信する送信手段と、を備えるAVアンプを提供する。
 また本発明は、音響コンテンツを示す音信号を取得する音信号取得手段と、前記音信号を取得し、当該音信号に音響効果を付加するための第1信号処理を施して、前記第1信号処理が施された音信号を出力する第1プロセッサを備える他のAVアンプから、前記音信号取得手段により取得された音信号に音響効果を付加するための第2信号処理を指示する制御信号を受信する受信手段と、 前記音信号取得手段により取得された音信号に前記受信手段により受信された制御信号に指示された第2信号処理を施して、前記第2信号処理が施された音信号を出力する第2プロセッサと、を備えるAVアンプを提供する。
 これらのAVアンプによれば、マスタアンプとして機能する前者のAVアンプからスレーブアンプとして機能する後者のAVアンプに対しスレーブアンプにおいて実行されるべき音響処理の内容が指示される結果、それら2つのAVアンプの各々が備えるプロセッサの両方を用いて1つの音響コンテンツに従った音場が作り出される。その結果、一方のAVアンプのプロセッサのみを用いて音響処理が行われる場合と比較し、より望ましい音場の生成が可能となる。
 また、マスタアンプとして機能する上記のAVアンプにおいて、前記他のAVアンプの第2プロセッサの処理能力を示すデータを取得するデータ取得手段と、前記処理能力を示すデータに基づき前記制御信号を生成する制御手段とを備えてもよい。
 そのようなAVアンプによれば、スレーブアンプとして機能するAVアンプの処理能力が機種により様々に異なる場合であっても、そのAVアンプの処理能力に応じた望ましい音響処理の分担が行われ得る。
 また、マスタアンプとして機能する上記のAVアンプにおいて、前記データ取得手段は、前記他のAVアンプから前記処理能力を示すデータを取得してもよい。
 また、スレーブアンプとして機能する上記のAVアンプにおいて、前記他のAVアンプに、前記第2プロセッサの処理能力を示すデータを送信する送信手段を備えてもよい。
 これらのAVアンプによれば、スレーブアンプとして機能するAVアンプからマスタアンプとして機能するAVアンプに対し、スレーブアンプの処理能力が伝えられる結果、マスタアンプとして機能するAVアンプは、例えば様々な機種に応じた処理能力を示すデータを予め記憶しておく必要がない。
 前記第1プロセッサは前記音信号に第3信号処理を施し、前記他のAVアンプの前記第2プロセッサは前記第3信号処理を施された音信号を取得し、前記第2信号処理を施してもよい。
前記他のAVアンプの前記第2プロセッサは前記AVアンプから前記音信号を取得し、当該音信号にデコード処理を施してもよい。
 前記他のAVアンプは前記AVアンプからタイミング信号を受信し、前記第2プロセッサの処理のタイミングは前記タイミング信号に基づき、調整されてもよい。
 前記AVアンプは、前記第1プロセッサにより処理された音信号を出力する第1の出力手段と、前記音信号を、前記他のAVアンプに出力する第2の出力手段と、前記第1プロセッサの処理により処理され前記第1の出力手段から出力される音信号が前記第1プロセッサを通過するために要する時間を含む時間を示す第1の時間データと、前記他のAVアンプの前記第2プロセッサに処理され前記他のAVアンプから出力される音信号が前記他のAVアンプの前記第2プロセッサを通過するために要する時間を含む時間を示す第2の時間データとを取得し、前記第1の時間データおよび前記第2の時間データに基づき算出したディレイタイムで、前記第1の出力手段から音信号が出力されるタイミングもしくは前記第2の出力手段から音信号が出力されるタイミングを遅延させる指示を行なう制御手段と、を備えてもよい。
 前記AVアンプは、前記第1プロセッサにより処理された音信号を出力する第1の出力手段と、前記音信号を、前記他のAVアンプに出力する第2の出力手段と、前記第1プロセッサに処理され前記第1の出力手段から出力される音信号が前記AVアンプを通過するために要する時間を含む時間を示す第1の時間データと、前記他のAVアンプの前記第2プロセッサにより処理され前記他のAVアンプから出力される音信号が前記他のAVアンプの前記第2プロセッサを通過するために要する時間を含む時間を示す第2の時間データとを取得し、前記第1の時間データおよび前記第2の時間データに基づき算出したディレイタイムで、前記第1の出力手段から音信号が出力されるタイミングもしくは前記他のAVアンプから音信号が出力されるタイミングを遅延させる指示を行なう制御手段と、を備えてもよい。
 このようなAVアンプによれば、複数のAVアンプが連係動作して一つの音響コンテンツの再生を行う音響システムにおいてマスタアンプとして機能することにより、各AVアンプを音信号が通過するために要する時間の差に起因する音信号の出力タイミングのずれが低減される。
 また、上記のAVアンプにおいて、前記制御手段は、テスト用の音信号が前記AVアンプを通過するために要する時間を計測することにより前記第1の時間データを取得し、前記制御手段は、テスト用の音信号が前記他のAVアンプを通過するために要する時間を計測することにより前記第2の時間データを取得してもよい。
 また、上記のAVアンプにおいて、マイクから音信号の入力を受ける入力手段を備え、前記制御手段は、テスト用の音信号が前記AVアンプを通過し前記第1の出力手段に直接的もしくは間接的に接続されている第1スピーカと前記マイクとを経由して前記入力手段に到達するために要する時間を計測することにより前記第1の時間データを取得し、前記制御手段は、前記第2の出力手段から前記他のAVアンプに出力されたテスト用の音信号が前記他のAVアンプを通過し前記AVアンプに直接的もしくは間接的に接続されている第2スピーカと前記マイクとを経由して前記入力手段に到達するために要する時間を計測することにより前記第2の時間データを取得してもよい。
 これらのAVアンプによれば、テスト用の音信号を実際に自機(マスタアンプ)および他のAVアンプ(スレーブアンプ)において処理させた場合の所要時間が計測され、その計測結果に基づき、音信号の出力タイミングの調整のためのディレイタイムの算出が行われる。その結果、AVアンプは音信号が各AVアンプを通過するために要する時間を示す処理時間データを予め記憶しておいたり他の装置から受信したりする必要がない。
 前記AVアンプは、前記第2プロセッサにより処理された音信号を出力する出力手段を備え、前記制御信号は前記出力手段が音信号を出力するタイミングの遅延を指示してもよい。
 このようなAVアンプによれば、複数のAVアンプが連係動作して一つの音響コンテンツの再生を行う音響システムにおいてスレーブアンプとして機能することにより、各AVアンプを音信号が通過するために要する時間の差に起因するスピーカに対する音信号の出力タイミングのずれが低減される。
また、本発明は、音響コンテンツを示す音信号を取得する第1音信号取得手段と、前記第1音信号取得手段により取得された音信号に音響効果を付加するための第1信号処理を施して第1音信号を生成し、当該第1音信号を出力する第1プロセッサと、前記音信号に音響効果を付加するための第2信号処理を指示する制御信号を送信する送信手段と、を備える第1AVアンプと、前記音信号を取得する第2音信号取得手段と、前記制御信号を受信する受信手段と、前記第2音信号取得手段により取得された音信号に前記受信手段により受信された制御信号に指示された第2信号処理を施して第2音信号を生成し、当該第2音信号を出力する第2プロセッサと、を備える第2AVアンプと、を備えるAVシステムを提供する。
この発明の第1実施形態にかかる音響システムの構成を示す図である。 この発明の第2実施形態にかかる音響システムの構成を示す図である。 この発明の第3実施形態にかかる音響システムの構成を示す図である。 この発明の第4実施形態にかかる音響システムの構成を示す図である。 本発明の第5実施形態にかかるAVアンプを含む音響システムの構成例を示す図である。 本発明の第5実施形態にかかるAVアンプに記憶された遅延パターンテーブルのデータ構造を模式的に示した図である。 本発明の第5実施形態にかかるAVアンプにおいて行われるディレイタイムの決定方法を説明するための図である。 本発明の第5実施形態にかかるAVアンプにおいて行われるディレイタイムの決定方法を説明するための図である。 本発明の第6実施形態にかかるAVアンプを含む音響システムの構成例を示す図である。 本発明の第7実施形態にかかるAVアンプを含む音響システムの構成例を示す図である。 本発明の第8実施形態にかかるAVアンプを含む音響システムの構成例を示す図である。 本発明の第8実施形態にかかるAVアンプにおいて行われるディレイタイムの決定方法を説明するための図である。 本発明の第8実施形態にかかるAVアンプにおいて行われるディレイタイムの決定方法を説明するための図である。 本発明の第8実施形態にかかるAVアンプにおいて行われるディレイタイムの決定方法を説明するための図である。 本発明の第8実施形態にかかるAVアンプにおいて行われるディレイタイムの決定方法を説明するための図である。 本発明の実施形態にかかるAVアンプを含む音響システムの構成例を示す図である。
 以下、図面を参照し、この発明の実施の形態を説明する。
 <第1実施形態>
 図1は、本発明の第1実施形態にかかる音響システム50の構成を示す図である。本実施形態である音響システム50は、映像コンテンツの再生音を居室90内の視聴者LSNに聴取させるシステムである。この音響システム50は、テレビ91とともに居室90内に設置され利用される。
 図1に示すように、本実施形態である音響システム50は、居室90内において、視聴者LSNの前方中央(テレビ91の下)、前方左、前方右、前方斜め左、前方斜め右、後方斜め左、後方斜め右、後方左、後方右の各々に配置された9台のメインスピーカであるスピーカ1C、スピーカ1L、スピーカ1R、スピーカ1LSF、スピーカ1RSF、スピーカ1LS、スピーカ1RS、スピーカ1LSB、スピーカ1RSBと、これらのメインスピーカよりも低周波帯域における放音能力に優れたスピーカであり居室90内の任意の場所に配置されたサブウーファ1SWからなる9.1チャンネルのスピーカシステムを備えている。以下、これらのスピーカを総称してスピーカ群1と呼ぶ。
 なお、上記の各スピーカに付された記号は各々以下を意味する。
 C:Center
 L:Left
 R:Right
 LSF:Left Surround-Front
 RSF:Right Surround-Front
 LS:Left Surround
 RS:Right Surround
 LSB:Left Surround-Back
 RSB:Right Surround-Back
 SW:Sub-Woofer
 また、音響システム50は、視聴者LSNによって操作されるリモートコントローラ2と、記録媒体80に記録されたAV(Audio Visual)コンテンツを再生するプレーヤ3と、各々が入力される音信号に音響効果を付加する音響処理を施して出力するDSP(Digital Signal Processor)11を内蔵するAVアンプ4a及びAVアンプ4bを備えている。
 スピーカ群1に含まれるスピーカのうち、スピーカ1C、スピーカ1L、スピーカ1R、スピーカ1LS、スピーカ1RS、サブウーファ1SWはAVアンプ4aに接続されている。一方、スピーカ1LSF、スピーカ1RSF、スピーカ1LSB、スピーカ1RSBはAVアンプ4bに接続されている。これらのスピーカの放音面いずれもは視聴者LSNに向けられている。スピーカ群1に含まれる各スピーカは、接続されているAVアンプから出力される音信号に従い居室90内に音を放音する。
 リモートコントローラ2は、テレビ91、AVアンプ4aおよびAVアンプ4bに対し、AVコンテンツの再生、停止、各種再生モードの切り替えなどを指示する操作信号WSを発信する。本実施形態において、再生モードとはAVコンテンツの再生における映像および音響に付加する効果の種類を意味し、音響システム50においては例として、昼間の映画の視聴に好適なシネマモード、夜間の映画の視聴に好適なナイトシネマモード、テレビの視聴に好適なテレビモード、ゲームのプレイに好適なゲームモード、ミュージックコンテンツの聴取に好適なミュージックモードの5種類の再生モードによるAVコンテンツの再生が可能であるものとする。
 プレーヤ3は、所定の規格に従いエンコードされた画像信号である信号PCDと、所定の規格に従いエンコードされた9.1チャンネルの音信号である信号MCDを記録媒体80から読み出し、これらの信号PCD及び信号MCDをHDMI出力端子9から出力する。なお、HDMI(登録商標)はAV信号の入出力インタフェースの規格であるHigh-Definition Multimedia Interfaceの略称である。
 AVアンプ4aは、プレーヤ3から出力される信号PCD及び信号MCDを取得し、信号PCDをテレビ91に供給するとともに、自機(AVアンプ4a)内のDSP11aを用いて信号MCDをデコードし、9.1チャンネル(メインスピーカ用の9チャンネルおよびサブウーファ用の1チャンネル)の音信号MDC、MDL、MDR、MDLSF、MDRSF、MDLS、MDRS、MDLSB、MDRSB、MDSWを生成する。
 AVアンプ4aは上記の音信号のうちMDC、MDL、MDR、MDLS、MDRS、MDSWに対し、DSP11aにより、ユーザに選択されている再生モードに応じた音響効果を付加する音響処理ZEaを施し、音信号MD’C、MD’L、MD’R、MD’LS、MD’RS、MD’SWを生成する。AVアンプ4aはそれらの音信号をDA(Digital to Analog)コンバータ(図示略)によりアナログの音信号に変換した後、アンプ(図示略)によりスピーカレベルに増幅し、スピーカ1C、スピーカ1L、スピーカ1R、スピーカ1LS、スピーカ1RS、サブウーファ1SWに供給する。
 また、AVアンプ4aは、デコードにより生成した音信号MDLSF、MDRSF、MDLSB、MDRSBをAVアンプ4bに出力する。AVアンプ4bは、AVアンプ4aからそれらの音信号を取得すると、自機(AVアンプ4b)内のDSP11bを用いてこれらの音信号に対し、ユーザにより選択されている再生モードに応じた音響効果を付加する音響処理ZEbを施し、音信号MD’LSF、MD’RSF、MD’LSB、MD’RSBを生成する。AVアンプ4bはそれらの音信号をDAコンバータ(図示略)によりアナログの音信号に変換した後、アンプ(図示略)によりスピーカレベルに増幅し、スピーカ1LSF、スピーカ1RSF、スピーカ1LSB、スピーカ1RSBに供給する。
 AVアンプ4bが行うべき音響処理ZEbは、AVアンプ4aからAVアンプ4bに対し供給される制御信号OSbによりAVアンプ4bに対し指示される。すなわち、AVアンプ4aはAVアンプ4bに処理を指示するマスタアンプとして機能し、AVアンプ4bはマスタアンプの指示に従い処理を行うスレーブアンプとして機能する。
 AVアンプ4a及び4bの構成の詳細は次の通りである。AVアンプ4aの筐体10aには、ビデオ出力端子5a、オーディオ出力端子6a-i(i=1~8)、HDMI入力端子7a、HDMI出力端子8aが設けられている。同様に、AVアンプ4bの筐体10bには、ビデオ出力端子5b、オーディオ出力端子6b-i(i=1~8)、HDMI入力端子7b、HDMI出力端子8bが設けられている。
 AVアンプ4aのビデオ出力端子5aはテレビ91と接続されている。AVアンプ4aのオーディオ出力端子6a-1、6a-2、6a-3、6a-4、6a-5、6a-6の各々はスピーカ1C、スピーカ1L、スピーカ1R、スピーカ1LS、スピーカ1RS、サブウーファ1SWと接続されている。AVアンプ4bのオーディオ出力端子6b-1、6b-2、6b-3、6b-4の各々はスピーカスピーカ1LSF、スピーカ1RSF、スピーカ1LSB、スピーカ1RSBと接続されている。
 AVアンプ4aのHDMI入力端子7aはプレーヤ3のHDMI出力端子9とHDMIケーブル81aにより接続されている。AVアンプ4bのHDMI入力端子7bはAVアンプ4aのHDMI出力端子8aとHDMIケーブル81bにより接続されている。
 図1の枠内に示すように、HDMIケーブル81aは、TMDS(Transition Minimized Differential Signaling)信号線LNTMDS1~LNTMDS12(TMDSに従って画像信号や音信号を伝送する信号線)、ARC(Audio Return Channel)信号線LNARC(TMDSと逆方向に信号を伝送する信号線)、及びCEC(Consumer Electronics Control)信号線LNCEC(HDMIケーブにより接続されたデバイス間のコマンドの伝送に使用する信号線)などの複数の信号線を有している。HDMIケーブル81bも同様である。
 AVアンプ4aの筐体10aの中には、DSP11aと制御部12aが収容されている。AVアンプ4bの筐体10bの中には、DSP11bと制御部12bが収容されている。
 AVアンプ4aの制御部12aはDSP11aの信号処理の処理内容を制御するとともに、制御信号OSbの供給を通じてAVアンプ4bの動作を制御する。また、AVアンプ4bの制御部12bは、AVアンプ4aから供給される制御信号OSbに従い、DSP11bの信号処理の処理内容を制御する。
 以下に、上記のような構成を備える音響システム50の動作を説明する。なお、以下の説明において、プレーヤ3には9.1チャンネルの音響コンテンツを含むAVコンテンツが記録された記録媒体80が装填されており、その音響コンテンツは、例として、DTS(Digital Theater Systems)(登録商標)に従いエンコードされているものとする。
 AVアンプ4aの制御部12aは電源が投入されると、AVアンプ4bに対しAVアンプ4bの処理能力およびスピーカの接続状態を示す情報を要求する要求信号を出力する。なお、AVアンプ4bが電源未投入などの理由で要求信号に対する応答信号を返してこない場合、制御部12aは応答信号を得るまで定期的に要求信号の出力を繰り返す。
 AVアンプ4bの制御部12bは上記の要求信号を受け取ると、DSP11bの能力(処理速度、バッファの容量、処理可能なサンプリング周波数など)、オーディオ出力端子6b-1~8に接続されているスピーカの有無、接続されているスピーカの配置位置などを示す応答信号を生成し、AVアンプ4aに対し出力する。
 なお、要求信号および応答信号の伝送は、例えばHDMIケーブル81bの信号線LNCECを介して行われる。
 その後、視聴者LSNがリモートコントローラ2を用いてAVコンテンツの再生を指示すると、プレーヤ3は記録媒体80から信号のエンコード方式等を示すメタデータを読み出すとともに、信号PCDおよび信号MCDを順次読み出し、それらをAVアンプ4aに、HDMIケーブル81aの例えば信号線LNTMDS1~LNTMDS12の空いている帯域を介して出力する。AVアンプ4aのHDMI入力端子7aはプレーヤ3から入力されるそれらの信号のうちメタデータを制御部12aに引き渡すとともに、信号PCDおよび信号MCDを順次DSP11aに引き渡す。DSP11aは制御部12aの指示に従い信号PCDをデコードし、生成した映像信号をビデオ出力端子5aから出力する。そのように出力される映像信号はテレビ91に入力され、映像コンテンツの表示に用いられる。
 また、DSP11aは制御部12aの指示に従い、信号MCDに対するデコード処理ZDを行い、音信号MDC、MDL、MDR、MDLSF、MDRSF、MDLS、MDRS、MDLSB、MDRSB、MDSWを生成する。また、DSP11aは、デコードによりそれらの音信号とともに生成される音響コンテンツのチャンネル構成等を示す付加情報を制御部12aに引き渡す。
 AVアンプ4aの制御部12aは、プレーヤ3から送信されてくるメタデータおよびDSP1aから引き渡される付加情報と、自機のDSP11aの処理能力および自機に対するスピーカの接続状態と、先にAVアンプ4bから受け取った応答信号により示されるAVアンプ4bの処理能力およびスピーカの接続状態に基づき、AVアンプ4aとAVアンプ4bとの間の処理の配分を決定する。制御部12aは、そのように決定した処理の配分に従い、AVアンプ4bに対する処理を指示する制御信号OSbを生成し、AVアンプ4bに対し制御信号OSbを出力する。
 DSP11aは、制御部12aの指示に従い、デコード処理ZDにより生成した音信号のうち音信号MDC、MDL、MDR、MDLS、MDRS、MDSWに関しては、引き続き音響処理ZEaを行い、音信号MD’C、MD’L、MD’R、MD’LS、MD’RS、MD’SWを生成する。そのように生成された音信号は各々、アナログ信号への変換および増幅を経た後、オーディオ出力端子6a-1~6a-6を介してスピーカ1C、スピーカ1L、スピーカ1R、スピーカ1LS、スピーカ1RS、サブウーファ1SWに出力される。その結果、それらのスピーカから居室90に対する放音が行われる。
 一方、DSP11aは、制御部12aの指示に従い、デコード処理ZDにより生成した音信号のうち音信号MDLSF、MDRSF、MDLSB、MDRSBに関しては、それらをHDMI出力端子8aから、HDMIケーブル81bの例えば信号線LNTMDS1~LNTMDS12の空いている帯域を介して出力する。
 AVアンプ4bのHDMI入力端子7bは、AVアンプ4aから入力される音信号MDLSF、MDRSF、MDLSB、MDRSBをDSP11bに引き渡す。制御部12bは、先にAVアンプ4aから受け取った制御信号OSbに従い、DSP11bに対し音響処理ZEbの処理を指示する。その指示に従い、DSP11bは音信号MDLSF、MDRSF、MDLSB、MDRSBに対し音響処理ZEbを実行し、音信号MD’LSF、MD’RSF、MD’LSB、MD’RSBを生成する。そのように生成された音信号は各々、アナログ信号への変換および増幅を経た後、オーディオ出力端子6b-1~6b-4を介してスピーカ1LSF、スピーカ1RSF、スピーカ1LSB、スピーカ1RSBに出力される。その結果、それらのスピーカから居室90に対する放音が行われる。
 上記のように、音響システム50においては、AVアンプ4aとAVアンプ4bが連係動作することで1つの音響コンテンツの再生処理を行う。その際、マスタアンプとして機能するAVアンプ4aの指示に従いスレーブアンプとして機能するAVアンプ4bもまた音信号に対し音響処理を行うため、DSP11aに音響処理の負荷が集中することがなく、AVアンプ4bのDSP11bを有効活用することができる。その結果、例えばAVアンプ4aのみでは処理能力を超えるような音響処理が可能となって、より臨場感豊かな音場が作られる。
 <第2実施形態>
 図2は、本発明の第2実施形態にかかる音響システム150の構成を示す図である。音響システム150は多くの点で音響システム50と共通している。従って、以下に音響システム150が音響システム50と異なる点を中心に説明する。また、音響システム150が備える構成部のうち音響システム50が備える構成部と共通のものには音響システム50において用いた符号と同じ符号を用いる。
 音響システム50においては、DSP11aにおいてデコード処理ZDにより生成された音信号がそのまま、AVアンプ4aからAVアンプ4bに出力される構成が採用されている。これに対し、音響システム150においては、DSP11aにおいてデコード処理ZDにより生成された音信号に対し、DSP11aにおいて一部の音響処理が施された音信号がAVアンプ4aからAVアンプ4bに対し出力される。
 以下に、そのような構成の一例として、9.1チャンネルのステレオシステムを用いて、5.1チャンネルの信号MCDに従った音場を作るために、DSP11aにおいてミキシング処理が行われた後の音信号がAVアンプ4aからAVアンプ4bに供給される場合を説明する。
 AVコンテンツの再生において、DSP11aは制御部12aの指示に従い、プレーヤ3から入力される信号MCDに対しデコード処理ZDを行い、5.1チャンネルの音信号、すなわち音信号MDC、MDL、MDR、MDLS、MDRS、MDSWを生成する。DSP11aはそれらの音信号に対し、引き続き音響処理ZEaを行い、音響システム50における場合と同様に、音信号MD’C、MD’L、MD’R、MD’LS、MD’RS、MD’SWを生成し、スピーカ1C、スピーカ1L、スピーカ1R、スピーカ1LS、スピーカ1RS、サブウーファ1SWに出力する。
 上記の処理と並行して、DSP11aは音信号MDL、MDR、MDLS、MDRSを用いた音響処理ZE’aを実行し、音信号MDLSF、MDRSF、MDLSB、MDRSBを生成する。具体的には、DSP11aは音響処理ZE’aにおいて、音信号MDLとMDLSに対しレベル調整処理および遅延処理を行った後にそれらの音信号をミキシングすることにより音信号MDLSFを生成する。同様に、DSP11aは、音信号MDRとMDRSに対しレベル調整処理および遅延処理を行った後にそれらの音信号をミキシングすることにより音信号MDRSFを生成する。またDSP11aは、音信号MDLSとMDRSに対し各々異なるレベル比のレベル調整処理および異なる遅延時間の遅延処理を行った後にそれらの音信号をミキシングすることにより、音信号MDLSBおよびMDRSBを生成する。
 DSP11aは音響処理ZE’aにより生成した音信号MDLSF、MDRSF、MDLSB、MDRSBをAVアンプ4bに対し出力する。AVアンプ4bのDSP11bはそれらの音信号を受け取ると、制御部12bの指示に従いそれらの音信号に対し音響処理ZEbを実行し、音信号MD’LSF、MD’RSF、MD’LSB、MD’RSBを生成する。DSP11bは、そのように生成した音信号を音響システム50における場合と同様に、スピーカ1LSF、スピーカ1RSF、スピーカ1LSB、スピーカ1RSBに出力する。
 上述した音響システム150に示されるように、本発明にかかる音響システムにおいて、マスタアンプからスレーブアンプに対し供給される音信号はマスタアンプにおいて音響処理が施されたものであってもよい。
 <第3実施形態>
 図3は、本発明の第3実施形態にかかる音響システム250の構成を示す図である。音響システム250は多くの点で音響システム150と共通している。従って、以下に音響システム250が音響システム150と異なる点を中心に説明する。また、音響システム250が備える構成部のうち音響システム150が備える構成部と共通のものには音響システム150において用いた符号と同じ符号を用いる。
 音響システム150においては、プレーヤ3からAVアンプ4aに出力される信号MCDはAVアンプ4aにおいてデコード処理ZDおよび音響処理ZE’aを施された後にAVアンプ4bに対し供給される。これに対し、音響システム250においては、AVアンプ4bはプレーヤ3からAVアンプ4aに入力された信号MCDをそのままAVアンプ4aから受け取る。
 従って、音響システム250においては、AVアンプ4aにおけるデコード処理ZD(以下、「デコード処理ZDa」と呼ぶ)と並行して、AVアンプ4bにおいても同様のデコード処理ZD(以下、「デコード処理ZDb」と呼ぶ)が行われる。
 より具体的に説明すると、AVアンプ4aのHDMI入力端子7aは、プレーヤ3から入力された信号MCDをDSP11aに引き渡すとともに、そのコピーをHDMI出力端子8aにも引き渡す。
 信号MCDを受け取ったDSP11aは、信号MCDに対しデコード処理ZDaおよび音響処理ZEaを行い音信号MD’C、MD’L、MD’R、MD’LS、MD’RS、MD’SWを生成し、それらをスピーカ1C、スピーカ1L、スピーカ1R、スピーカ1LS、スピーカ1RS、サブウーファ1SWに出力する。
 また、AVアンプ4aのHDMI出力端子8aはHDMI入力端子7aから引き渡された信号MCDを、例えばHDMIケーブル81bの信号線LNTMDS1を介してAVアンプ4bに対し出力する。AVアンプ4bのDSP11bは、HDMI入力端子7bを介して信号MCDを受け取ると、信号MCDに対しデコード処理ZDbおよび音響処理ZEbを順次実行し、音信号MD’LSF、MD’RSF、MD’LSB、MD’RSBを生成する。なお、音響処理ZEbには、例えば音響システム150においてDSP11aが実行する音響処理ZE’aと同様の処理が含まれていてもよい。
 上述した音響システム250に示されるように、本発明にかかる音響システムにおいて、マスタアンプからスレーブアンプに対し供給される音信号はマスタアンプにおいて何ら処理が施されていないものであってもよい。
 <第4実施形態>
 図4は、本発明の第4実施形態にかかる音響システム350の構成を示す図である。音響システム350は多くの点で音響システム250と共通している。従って、以下に音響システム350が音響システム250と異なる点を中心に説明する。また、音響システム350が備える構成部のうち音響システム250が備える構成部と共通のものには音響システム250において用いた符号と同じ符号を用いる。
 音響システム250においては、AVアンプ4bはプレーヤ3から出力される信号MCDをAVアンプ4aを介して受け取る。これに対し、音響システム350においては、AVアンプ4bはAVアンプ4aを介さず、プレーヤ3から直接、信号MCDの供給を受ける。
 そのため、音響システム350においては、プレーヤ3はHDMI出力端子9に加えHDMI出力端子9’を備え、AVアンプ4bはHDMI入力端子7bに加えHDMI入力端子7’bを備えている。そして、プレーヤ3のHDMI出力端子9’とAVアンプ4bのHDMI入力端子7’bは、互いにHDMIケーブル81cで接続されている。
 プレーヤ3は、AVコンテンツの再生において、信号PCDおよび信号MCDをHDMI出力端子9からAVアンプ4aに対し出力するとともに、信号MCDをHDMI出力端子9’からAVアンプ4bに対し出力する。AVアンプ4bのHDMI入力端子7’bは、プレーヤ3から入力される信号MCDを受け取ると、それをDSP11bに引き渡す。
 上記のように各々、プレーヤ3から信号MCDの入力を受けたAVアンプ4aおよびAVアンプ4bは、音響システム250における場合と同様の処理を行う。
 なお、音響システム350においてAVアンプ4aおよびAVアンプ4bがプレーヤ3から信号MCDを受信するタイミングを正確に知ることができない。そのため、AVアンプ4aとAVアンプ4bは処理を同期させるためにHDMIケーブル81bを介した信号のやりとりを行う。
 より具体的に説明すると、AVアンプ4aは例えばHDMIケーブル81bの信号線LNTMDS1~信号線LNTMDS12の空いている帯域を用いて、タイミング信号をAVアンプ4bに対し出力する。AVアンプ4bはそのタイミング信号に従い、DSP11bの処理タイミングを調整する。AVアンプ4bは自機における処理のタイミングを示す応答信号をAVアンプ4aからのタイミング信号に対する応答信号として、例えばHDMIケーブル81bのLNARCを用いてAVアンプ4aに対し出力する。このような同期処理により、AVアンプ4aに接続されたスピーカから放音される音と、AVアンプ4bに接続されたスピーカから放音される音の間のずれが回避される。
 上述した音響システム350に示されるように、本発明にかかる音響システムにおいて、スレーブアンプが処理する音信号はマスタアンプから供給されなくてもよい。
 <変形例>
 以上、本発明の具体例を第1乃至第4実施形態として説明したが、これらの実施形態は本発明の技術的思想の範囲内において様々に変形可能である。以下にそれらの変形の例を述べる。
 上述した第1乃至第4実施形態においては、プレーヤ3から出力される信号MCDは9.1チャンネルもしくは5.1チャンネルの音信号であるものとしたが、本発明にかかる音響システムにおいて再生に用いられる音信号のチャンネル数はいずれのチャンネル数であってもよい。また、上述した第1乃至第4実施形態において用いられるスピーカシステムのチャンネル数もまた、9.1チャンネルに限られず、他の様々なチャンネル数のスピーカシステムが本発明において採用可能である。
 また、上述した第1乃至第4実施形態において示したプレーヤ3、AVアンプ4aおよびAVアンプ4bの間の各種信号の入出力に用いる信号線の種類は例示であって、十分な伝送速度が得られる限り、他の種類の信号線が用いられてもよい。例えば、要求信号、応答信号、制御信号OSbなどの信号の入出力において、HDMIケーブル内の信号線のうち信号線LNCECを用いる代わりに、信号線LNARCや信号線LNTMDS1~信号線LNTMDS12のうち空いている帯域を用いてもよい。
 また、上記した第1乃至第4実施形態においては、プレーヤ3、AVアンプ4a、およびAVアンプ4bの間はHDMIケーブルにより接続されるものとしたが、これらの音響装置間のオーディオ信号の伝送方式はHDMI規格に従ったものに限られず、他の規格に従った伝送方式が採用されてもよい。
 また、AVアンプ4aとAVアンプ4bの間における処理の分担はAVアンプ4aおよびAVアンプ4bの処理能力やスピーカの接続状態、視聴者LSNにより指示される音響効果等々に応じて様々に変更され得る。例えば、AVアンプ4bにおいて音響処理を施した音信号をAVアンプ4aに、例えば信号線LNARCを介して出力し、AVアンプ4aにおいてさらに音響効果を施してスピーカに出力するなど、様々なバリエーションが考えられる。
 また、上述した第1乃至第4実施形態においては、スピーカ1C、スピーカ1L、スピーカ1R、スピーカ1LS、スピーカ1RS、サブウーファ1SWがAVアンプ4aに接続され、AVアンプ4aはそれらのスピーカに応じたチャンネルの音信号を処理・出力し、スピーカ1LSF、スピーカ1RSF、スピーカ1LSB、スピーカ1RSBがAVアンプ4bに接続され、AVアンプ4bはそれらのスピーカに応じたチャンネルの音信号を処理・出力するものとしたが、いずれのスピーカがAVアンプ4aおよびAVアンプ4bのいずれに接続されるか、またいずれの音信号がAVアンプ4aおよびAVアンプ4bのいずれにより処理されるかは任意に変更可能である。
 また、上述した第1乃至第4実施形態においては、AVアンプ4aに対し1台のAVアンプ4bが連係動作する場合につき説明したが、マスタアンプとして機能するAVアンプ4aに対しスレーブアンプとして機能する複数のAVアンプ4bが連係動作する場合にも本発明は適用可能である。
 また、上述した第1乃至第4実施形態においては、AVアンプ4aはAVアンプ4bの処理能力を示すデータをAVアンプ4bから取得する構成が採用されている。AVアンプ4aがAVアンプ4bの処理能力を示すデータを取得する方法はこれに限られない。例えば、予めAVアンプ4aが様々な機種のAVアンプの処理能力を示すデータを型番に対応付けて記憶しておき、AVアンプ4bからAVアンプ4bの型番を取得し、その型番に応じたデータを読み出すことにより、AVアンプ4bの処理能力を示すデータを取得するようにしてもよい。
 また、AVアンプ4aがインターネットなどに接続可能であれば、AVアンプ4aが様々な機種のAVアンプの処理能力を記憶する代わりに、AVアンプ4bから取得した型番を外部のサーバ装置等に送信し、その応答としてAVアンプ4bの処理能力を示すデータを取得する構成が採用されてもよい。
 また、上述した第1乃至第4実施形態においては、AVアンプ4aはAVアンプ4bに対するスピーカの接続状態を示すデータもまた、AVアンプ4bから取得する構成が採用されている。AVアンプ4aがAVアンプ4bに対するスピーカの接続状態を示すデータを取得する方法はこれに限られない。例えば、視聴者LSNがAVアンプ4aに対しリモートコントローラ2等を用いて、AVアンプ4bに対するスピーカの接続状態を示すデータを入力することで、AVアンプ4aがそのデータを取得するようにしてもよい。
 また、上述した5つの再生モードに応じた音響処理はAVアンプ4aおよびAVアンプ4bにおいて行われる音響処理の一例であって、他の如何なる音響処理がAVアンプ4aおよびAVアンプ4bにおいて行われてもよい。それらの音響処理の例を挙げると、圧縮音源に伴う高音の伸びや中低音の厚みの不足を解消するために高音域と低音域をそれぞれ補正する音響処理(ミュージックエンハンサー)、コンテンツの特性に応じた音量補正を行う音響処理(アダプティブDRC)、台詞を明瞭化させる音響処理(クリアボイス)、イコライザやトーンコントロールなどの周波数補正に関する音響処理、オーバーサンプリングなどのサンプリング周波数変換処理、スレーブアンプの出力可能なチャンネル数が少ない場合にチャンネル数を減らすためのダウンミキシング処理などがある。
 <第5実施形態>
 図5は、本発明の第5実施形態にかかるAVアンプ4aおよびAVアンプ4bを含む音響システム450の構成例を示す図である。本実施形態である音響システム450は、音声付き映像コンテンツの再生音を居室90内の視聴者LSNに聴取させるシステムである。この音響システム450は、テレビ91とともに居室90内に設置して利用される。
 図5に示すように、本実施形態である音響システム450は、居室90の視聴者LSNから等距離位置の5箇所(具体的には、視聴者LSNの前方中央(テレビ91の下)、前方左側、前方右側、後方左側、後方右側)の各々に配置された5台のメインスピーカであるスピーカ1C、スピーカ1L、スピーカ1R、スピーカ1LSおよびスピーカ1RSと、居室90の任意の場所に配置されたサブウーファ1SW(メインスピーカの放音能力が劣る低周波数帯域の放音を行うスピーカ)と、AV(Audio Visual)コンテンツを再生する装置であるプレーヤ3と、各々がDSP(Digital Signal Processor)を内蔵するAVアンプ4aおよびAVアンプ4bを有する。
 以下、スピーカ1C、スピーカ1L、スピーカ1R、スピーカ1LS、スピーカ1RSおよびサブウーファ1SWを総称してスピーカ群1と呼ぶ。
 AVアンプ4aおよびAVアンプ4bは互いに連係動作し、同じAVコンテンツに含まれる音信号を並列的に処理しスピーカに出力することで、居室90内に1つの音場を作り出す機能を備えている。そのため、音響システム450においては、例として、AVアンプ4aにスピーカ1C、スピーカ1L、スピーカ1Rおよびサブウーファ1SWが接続され、AVアンプ4bにスピーカ1LSおよびスピーカ1RSが接続されている。また、テレビ91はAVアンプ4aに接続されている。
 プレーヤ3は、AVコンテンツの映像信号と、同じAVコンテンツの音信号を記録媒体80から読み出し、映像信号に関してはHDMI出力端子9からAVアンプ4aに対し出力するとともに、音信号に関してはHDMI出力端子9からAVアンプ4aに対し出力する。以下、プレーヤ3が記録媒体80から読み出す音信号は5.1チャンネルの音信号であり、それらのチャンネル毎の音信号を各々、音信号MDC、MDL、MDR、MDLS、MDRSおよびMDSW(ただし、下付文字は各スピーカに応じたチャンネルの記号を示す)と呼ぶものとする。
 AVアンプ4a及びAVアンプ4bの構成は共通もしくは類似する部分が多いので、以下にそれらを合せて説明する。また、AVアンプ4a及びAVアンプ4bに共通する構成部には同じ符号(数字)にいずれのAVアンプの構成部であるかを示す「a」または「b」を付すものとする。AVアンプ4aは、ビデオ出力端子5a、オーディオ出力端子6a-i(i=1~8)、HDMI入力端子7a、HDMI出力端子8aを備えている。同様に、AVアンプ4bは、ビデオ出力端子5b、オーディオ出力端子6b-i(i=1~8)、HDMI入力端子7b、HDMI出力端子8bを備えている。
 AVアンプ4aのビデオ出力端子5aはテレビ91と接続されている。AVアンプ4aのオーディオ出力端子6a-1、6a-2、6a-3、6a-4の各々はスピーカ1C、スピーカ1L、スピーカ1R、サブウーファ1SWと接続されている。AVアンプ4bのオーディオ出力端子6b-1、6b-2の各々はスピーカ1LS、スピーカ1RSと接続されている。AVアンプ4aのHDMI入力端子7aはプレーヤ3のHDMI出力端子9とHDMIケーブル81aにより接続されている。AVアンプ4bのHDMI入力端子7bはAVアンプ4aのHDMI出力端子8aとHDMIケーブル81bにより接続されている。
 HDMIケーブル81aは、TMDS(Transition Minimized Differential Signaling)信号線LNTMDS(TMDSに従って映像信号や音信号等のコンテンツ信号を伝送する信号線)、ARC(Audio Return Channel)信号線LNARC(TMDSと逆方向に信号を伝送する信号線)、及びCEC(Consumer Electronics Control)信号線LNCEC(HDMIケーブにより接続されたデバイス間の制御信号の双方向の伝送に使用する信号線)などの複数の信号線を有している。HDMIケーブル81bの構成もHDMIケーブル81aの構成と同様である。
 AVアンプ4aはさらに、制御部12a、記憶部19、HDMIレシーバ13a、HDMIトランスミッタ14a、デコーダ用のDSP15a、ポストプロセッサ用のDSP16a、出力部17aを備えている。
 制御部12aは、AVアンプ4aの制御中枢としての役割を果たし、プレーヤ3から入力される映像信号をテレビ91に出力するとともに、DSP15aおよびDSP16aを制御し、プレーヤ3から入力される音信号のデコードや音響処理を実行させる。
 音響システム450において利用可能なAVアンプは各々、入力された音信号に対し各種再生モードに応じた音響効果を付加する機能を備えている。本実施形態においては例として、各AVアンプが共通して以下の5つの再生モードに応じた音響処理を実行可能であるものとする。
 シネマモード:昼間の映画の視聴に好適な再生モード。
 ナイトシネマモード:夜間の映画の視聴に好適な再生モード。
 テレビモード:テレビ番組の視聴に好適な再生モード。
 ゲームモード:ゲームのプレイに好適な再生モード。
 ミュージックモード:音楽コンテンツの聴取に好適な再生モード。
 記憶部19は、遅延パターンテーブルを記憶している。図6は、遅延パターンテーブルのデータ構造を模式的に示した図である。遅延パターンテーブルは、各種AVアンプ(AVアンプ4aおよびAVアンプ4bを含む多数種類のAVアンプ)の各々に関するデータレコードの集まりであり、各データレコードは以下のデータフィールドを含む。
 「識別情報」:AVアンプの識別情報である機種ID(Identifier)を格納する。
 「設定1」:シネマモード時の総デバイス処理時間RT1を示す時間データを格納する。
 「設定2」:ナイトシネマモード時の総デバイス処理時間RT2を示す時間データを格納する。
 「設定3」:テレビモード時の総デバイス処理時間RT3を示す時間データを格納する。
 「設定4」:ゲームモード時の総デバイス処理時間RT4を示す時間データを格納する。
 「設定5」:ミュージックモード時の総デバイス処理時間RT5を示す時間データを格納する。
 遅延パターンテーブルに格納される時間データが示す総デバイス処理時間RT1~RT5は、各AVアンプが5つの再生モードの各々に応じた音響処理を音信号に施す際、主として各AVアンプが備えるポストプロセッサ用のDSPを音信号が通過するために要する時間(後述)であり、例えばAVアンプのメーカにより計測されたものである。AVアンプ4aは予め遅延パターンテーブルに各AVアンプに関する時間データを格納した状態で出荷されるか、もしくは、例えばインターネット等を介して必要な時間データを外部の装置から取得し、遅延パターンテーブルに格納する。
 図5に戻り、AVアンプ4aの構成の説明を続ける。HDMIレシーバ13aは、プレーヤ3からHDMIケーブル81aの信号線LNTMDSを介してHDMI入力端子7aに入力されるコンテンツ信号の受信におけるバッファリング処理を行う。HDMIトランスミッタ14aは、AVアンプ4aからHDMIケーブル81bの信号線LNTMDSを介してHDMI出力端子8aからAVアンプ4bに出力されるコンテンツ信号の送信におけるバッファリング処理を行う。
 HDMIレシーバ13aおよびHDMIトランスミッタ14aのバッファリング処理におけるバッファ容量としては、コンテンツ信号が然るべきタイミングで欠落することなく順次再生されるように比較的大きな容量が確保される。そのため、コンテンツ信号の伝送には無視できない程度の遅延が伴う。一方、信号線LNARCを介した信号の伝送に伴うバッファ容量は小さく、遅延は無視できる程度に小さい。
 DSP15aはデコーダ用のDSPであり、制御部12aの指示に従い、プレーヤ3からAVアンプ4aに対し入力される音信号MDC、MDL、MDR、MDLS、MDRSおよびMDSWを受け取り、それらの音信号に対し必要に応じてデコード処理ZDを実行した後、音信号MDC、MDL、MDR、MDSWに関してはそれらをDSP16aに引き渡す。
 DSP16aはポストプロセッサ用のDSPであり、まず、DSP15aから引き渡された音信号の各々に音響効果を付加する音響処理ZEaを実行し、音響効果の付加された音信号MD’C、MD’L、MD’R、MD’SWを生成する。その後、DSP16aはそれらの音信号の全てに対し同じディレイタイムDTxaの遅延を与える遅延処理ZXaを実行した後、出力部17aに引き渡す。なお、遅延処理ZXaについては後述する。
 出力部17aは、DSP16aから引き渡された音信号MD’C、MD’L、MD’R、MD’SWに対し、必要に応じてアナログ信号への変換およびスピーカ駆動レベルへの増幅を行なった後、各々、スピーカ1C、スピーカ1L、スピーカ1Rおよびサブウーファ1SWに出力する。なお、音信号が出力部17aを通過する際に生じる遅延は無視できる程度に小さい。
 また、DSP15aは、音信号MDLS、MDRSに関しては、制御部12aの指示に従い、それらの音信号の両方に対し同じディレイタイムDTxbの遅延を与える遅延処理ZXbを実行した後、それらの音信号をHDMIケーブル81bの信号線LNTMDSを介してAVアンプ4bに出力する。なお、遅延処理ZXbについては後述する。
 AVアンプ4bは、制御部12b、HDMIレシーバ13b、HDMIトランスミッタ14b、ポストプロセッサ用のDSP16b、出力部17bを備えている。制御部12b、HDMIレシーバ13b、HDMIトランスミッタ14bの機能は、AVアンプ4aの対応する構成部の機能と同様である。
 DSP16bは、制御部12bの指示に従い、AVアンプ4aから入力される音信号MDLS及びMDRSに各再生モードに応じた音響効果を付与する音響処理ZEbを実行し、音信号MD’LS、MD’RSを生成し、それらの音信号を出力部17bに引き渡す。
 出力部17bは、DSP16bから引き渡された音信号MD’LS、MD’RSに対し、必要に応じてアナログ信号への変換およびスピーカ駆動レベルへの増幅を行なった後、各々、スピーカ1LSおよびスピーカ1RSに出力する。なお、音信号が出力部17bを通過する際に生じる遅延は無視できる程度に小さい。
 スピーカ群1に含まれるスピーカの各々は、上記のように出力部17aもしくは出力部17bから入力される音信号に従い居室90に対する放音を行なう。その結果、居室90に1つの音場が作り出される。
 続いて、上述した遅延処理ZXaおよび遅延処理ZXbに関し詳細を説明する。遅延処理ZXaおよび遅延処理ZXbは、AVアンプ4aにおいて音信号がDSP15aおよびDSP16aを通過するために要する時間と、AVアンプ4aにおいて音信号がDSP15aを通過した後にAVアンプ4bへ伝送され、さらにAVアンプ4bのDSP16bを通過するために要する時間とが異なるために、AVアンプ4aからスピーカ1C、スピーカ1L、スピーカ1Rおよびサブウーファ1SWに出力される音信号の出力タイミングと、AVアンプ4bからスピーカ1LSおよびスピーカ1RSに出力される音信号の出力タイミングに意図せぬずれが生じることを回避するために行われる遅延処理である。
 図7および図8は、制御部12aが遅延処理ZXaのディレイタイムDTxaおよび遅延処理ZXbのディレイタイムDTxbを決定する方法を説明するための図である。図7は概ねAVアンプ4aの総デバイス処理時間がAVアンプ4bの総デバイス処理時間より短く、遅延処理ZXaのディレイタイムDTxaが正の値に設定され、遅延処理ZXbのディレイタイムDTxbが0(ディレイなし)に設定される場合を示している。一方、図8は概ねAVアンプ4aの総デバイス処理時間がAVアンプ4bの総デバイス処理時間より長く、遅延処理ZXaのディレイタイムDTxaが0(ディレイなし)に設定され、遅延処理ZXbのディレイタイムDTxbが正の値に設定される場合を示している。なお、以下の説明においては、例として、5つの再生モードのうちシネマモードが選択されているものとする。
 図7および図8において、横方向は時間の経過(右方向が正)を示している。図7および図8の第1段は、ディレイタイムDTxaが0(ディレイなし)に設定された状態で、音信号がプレーヤ3からAVアンプ4aに入力されたタイミングから出力部17aに出力されるタイミングまでの時間を示している。その内訳は以下のとおりである。
 入力処理時間zra:AVアンプ4aのHDMI入力端子7aがプレーヤ3からHDMIケーブル81aの信号線LNTMDSを介して音信号を受け取ったタイミングから、その音信号をDSP15aに引き渡すタイミングまでの時間。主としてHDMIレシーバ13aのバッファリング処理に伴う遅延時間。
 デバイス処理時間zd:音信号がDSP15aを通過するのに要する時間のうち、デコード処理ZDに要する時間。主としてデコード処理ZDのバッファリング処理に伴う遅延時間。
 デバイス処理時間zea:音信号がDSP16aを通過するために要する時間のうち、音響処理ZEaに要する時間。主として音響処理ZEaのバッファリング処理に伴う遅延時間。
 デバイス処理時間zxa:音信号がDSP16aを通過するために要する時間のうち、ディレイタイムDTxa=0に設定された遅延処理ZXaに要する時間。主として遅延処理ZXaのバッファリング処理に伴う遅延時間。
 また、図7および図8の第2段は、ディレイタイムDTxbが0(ディレイなし)に設定された状態で、音信号がプレーヤ3からAVアンプ4aに入力されたタイミングから出力部17bに出力されるタイミングまでの時間を示している。その内訳は以下のとおりである。
 入力処理時間zra:AVアンプ4aのHDMI入力端子7aがプレーヤ3からHDMIケーブル81aの信号線LNTMDSを介して音信号を受け取ったタイミングから、その音信号をDSP15aに引き渡すタイミングまでの時間。主としてHDMIレシーバ13aのバッファリング処理に伴う遅延時間。
 デバイス処理時間zd:音信号がDSP15aを通過するために要する時間のうち、デコード処理ZDに要する時間。主としてデコード処理ZDのバッファリング処理に伴う遅延時間。
 デバイス処理時間zxb:音信号がDSP15aを通過するために要する時間。主として、ディレイタイムDTxb=0に設定された遅延処理ZXbのバッファリング処理に伴う遅延時間。
 出力処理時間zta:DSP15aからHDMIトランスミッタ14aに音信号が引き渡されたタイミングから、HDMI出力端子8aからHDMIケーブル81bの信号線LNTMDSを介してその音信号がAVアンプ4bに対し出力されるタイミングまでの時間。主としてHDMIトランスミッタ14aのバッファリング処理に伴う遅延時間。
 入力処理時間zrb:HDMI入力端子7bがHDMIケーブル81bの信号線LNTMDSを介してAVアンプ4aから音信号の入力を受けたタイミングから、HDMIレシーバ13bがその音信号をDSP16bに引き渡すタイミングまでの時間。主としてHDMIレシーバ13bのバッファリング処理に伴う遅延時間。
 デバイス処理時間zeb:音信号がDSP16bを通過するために要する時間のうち、音響処理ZEbに要する時間。主として音響処理ZEbのバッファリング処理に伴う遅延時間。
 図7および図8に示される各種時間のうち、下線を付した入力処理時間zrb、デバイス処理時間zebは、AVアンプ4bに固有の時間である。AVアンプ4bに固有のそれら3つの時間の合計値は、遅延パターンテーブル(図6)に含まれるAVアンプ4bの機種IDに応じたデータレコードのデータフィールド「設定1」(シネマモードに対応)に格納されている時間データにより示される総デバイス処理時間RT1である。AVアンプ4aは、その時間データを遅延パターンテーブルから検索するために、例えばAVアンプ4aおよびAVアンプ4bの両方の電源が投入されたタイミング、もしくはユーザにより再生モードの変更指示を受けたタイミング等において、AVアンプ4bの機種IDを要求する要求信号を生成し、例えばHDMIケーブル81bの信号線LNCECを介してAVアンプ4bに送信する。
 AVアンプ4bの制御部12bは、AVアンプ4aから送信されてきた要求信号を取得すると、自機の機種IDを示す応答信号を生成し、例えばHDMIケーブル81bの信号線LNCECを介してAVアンプ4aに送信する。
 制御部12aは、AVアンプ4bから送信されてきた応答信号を取得すると、遅延パターンテーブルの中から応答信号が示す機種IDを検索キーとしてデータレコードを検索し、検索したデータレコードのデータフィールド「設定1」~「設定5」のうち、現在選択されている再生モード(シネマモード)に対応するデータフィールド「設定1」に格納されている時間データを読み出す。このように読み出された時間データが示す総デバイス処理時間RT1が、シネマモードにおけるAVアンプ4bの入力処理時間zrbとデバイス処理時間zebの合計時間である。
 一方、図7および図8に示される各種時間のうち、下線を付していない入力処理時間zra、デバイス処理時間zd、デバイス処理時間zea、デバイス処理時間zxa、デバイス処理時間zxbおよび出力処理時間ztaは、AVアンプ4aに固有の時間である。AVアンプ4aは予め自機に関するこれらの時間を示すデータを記憶部19に記憶している。
 制御部12aは、遅延パターンテーブルから読み出した時間データが示すAVアンプ4bに固有の時間と、記憶部19に記憶されているデータが示すAVアンプ4aに固有の時間に基づき、図7もしくは図8の第1段および第2段に示される時間Xaと時間Xbの差を、ディレイタイムDTxa(図7の場合)またはディレイタイムDTxb(図8の場合)として算出する。具体的には、制御部12aは以下の計算を行う。
 時間Xa=デバイス処理時間zea+デバイス処理時間zxa
 時間Xb=デバイス処理時間zxb+出力処理時間zta+入力処理時間zrb+デバイス処理時間zeb
 とするとき、時間Xa<時間Xbの場合、
 DTxa=時間Xb-時間Xa
 DTxb=0時間Xa=時間Xbの場合、
 DTxa=0
 DTxb=0時間Xa>時間Xbの場合、
 DTxa=0
 DTxb=時間Xa-時間Xb
 図7および図8の第3段は、上記のように算出されたディレイタイムDTxaが設定された状態で、音信号がプレーヤ3からAVアンプ4aに入力されたタイミングから出力部17aに出力されるタイミングまでの時間を示している。また、図7および図8の第4段は、上記のように算出されたディレイタイムDTxbが設定された状態で、音信号がプレーヤ3からAVアンプ4aに入力されたタイミングから出力部17bに出力されるタイミングまでの時間を示している。これらの図が示すように、上記のように算出されたディレイタイムDTxaおよびディレイタイムDTxbに従った遅延処理ZXaおよび遅延処理ZXbが行われることにより、AVアンプ4aにおいて出力部17aに音信号が出力されるタイミングと、AVアンプ4bにおいて出力部17bに音信号が出力されるタイミングが一致することになる。
 既述のように、AVアンプ4aの出力部17aが音信号の入力を受けたタイミングから、AVアンプ4aに接続されているスピーカの各々に音信号を出力するまでの時間と、AVアンプ4bの出力部17bが音信号の入力を受けたタイミングから、AVアンプ4bに接続されているスピーカの各々に音信号を出力するまでの時間は無視できる程度に短く、それらの差も無視できる程度に小さい。そのため、上記のように算出されたディレイタイムDTxaおよびDTxbに従う遅延処理ZXaおよび遅延処理ZXbにより、AVアンプ4aに接続されているスピーカの各々に対する音信号の出力タイミングとAVアンプ4bに接続されているスピーカの各々に対する音信号の出力タイミングが一致することになる。
 以上述べた構成を備えるAVアンプ4aおよびAVアンプ4bによれば、AVアンプ4aおよびAVアンプ4bが同じAVコンテンツの音信号に対し並列的に音響効果を付加する処理を行い、各々に接続されている異なるスピーカに対し音響効果を付加した音信号を個別に出力する場合であっても、AVアンプ4aからスピーカに対し音信号が出力されるタイミングと、AVアンプ4bからスピーカに対し音信号が出力されるタイミングが一致する。その結果、居室90内において視聴者LSNにとって望ましい音場が作り上げられる。
 <第6実施形態>
 図9は、本発明の第6実施形態にかかるAVアンプ104aおよびAVアンプ104bを含む音響システム550の構成例を示す図である。第6実施形態にかかる音響システム550の構成は、上述した第5実施形態にかかる音響システム450と多くの点で共通している。従って、以下に音響システム550が音響システム450と異なる点を中心に説明する。また、音響システム550が備える構成部のうち音響システム450が備える構成部と共通のものには音響システム450において用いた符号と同じ符号を用いる。
 第5実施形態にかかるAVアンプ4aは、遅延処理ZXaおよび遅延処理ZXbのディレイタイムを決定するために要するAVアンプ4aおよびAVアンプ4bの各再生モードにおけるデバイス処理時間を、記憶部19に記憶しているデータの読み出しにより特定する。
 これに対し、第6実施形態にかかるAVアンプ104aは、テスト信号が実際にDSP16aを通過するために要する時間を計測することにより時間Xaを特定する。またAVアンプ104aは、テスト信号が実際にDSP15aを通過した後、AVアンプ104bに送信され、DSP16bを通過するために要する時間を計測することにより時間Xbを特定する。そして、AVアンプ104aの制御部12aは、そのように計測により特定した時間Xaと時間Xbを用いて遅延処理ZXaのディレイタイムDTxaおよび遅延処理ZXbのディレイタイムDTxbを決定する。
 そのため、AVアンプ104aはAVアンプ104aのデバイス処理時間等を示すデータや遅延パターンテーブルを記憶するための記憶部19を要さない。
 AVアンプ104aおよびAVアンプ104bによる時間Xaおよび時間Xbの計測は以下のように行われる。まず、制御部12aはDSP16aに対し、選択されている再生モードに応じた音響処理ZEaおよび遅延処理ZXa(ディレイタイムDTxa=0)を行う際と同様のバッファ使用状態を設定するとともに、これから引き渡すテスト信号を通過させ、その出力信号を応答信号として制御部12aに返すように指示する。DSP16aはその指示に従い、音響処理ZEaおよび遅延処理ZXa(ディレイタイムDTxa=0)を行う際と同様のバッファ使用状態で待機する。その後、制御部12aからテスト信号を引き渡されると、DSP16aは先の制御部12aの指示に従い、そのテスト信号を通過させ、出力信号を応答信号として制御部12aに引き渡す。
 制御部12aは、テスト信号をDSP16aに引き渡した時刻と応答信号をDSP16aから受け取った時刻との差を時間Xaとして特定する。この時間Xaは、図9において矢印Aで示した経路を信号が通過するために要する時間である。
 また、制御部12aはDSP15aに対し、遅延処理ZXb(ディレイタイムDTxb=0)を行う際と同様のバッファ使用状態を設定するように指示するとともに、これから引き渡すテスト信号を通過させ、その出力信号をAVアンプ104bに出力するように指示する。この指示に従い、DSP15aは遅延処理ZXb(ディレイタイムDTxb=0)を行う際と同様のバッファ使用状態で待機する。
 また制御部12aは、AVアンプ104bに対し、DSP16bにおいて、選択されている再生モードに応じた音響処理ZEbを行う際と同様のバッファ使用状態を設定し、これから入力されるテスト信号を通過させ、その出力信号を応答信号としてAVアンプ104aに返すように指示する指示データを生成し、例えばHDMIケーブル81bの信号線LNCECを介してAVアンプ104bに送信する。その指示データを受信したAVアンプ104bの制御部12bは、指示データに示される指示に従い、DSP16bに音響処理XEbを行う際と同様のバッファ使用状態を設定するように指示するとともに、これから引き渡すテスト信号を通過させ、その出力信号をAVアンプ104aに出力するように指示する。この指示に従い、DSP16bは音響処理XEbを行う際と同様のバッファ使用状態で待機する。
 その後、制御部12aがテスト信号をDSP15aに引き渡すと、DSP15aは先の制御部12aの指示に従い、そのテスト信号を通過させ、出力信号をHDMIトランスミッタ14aに引き渡す。HDMIトランスミッタ14aは、DSP15aから受け取った信号を、HDMIケーブル81bの信号線LNTMDSを介してAVアンプ104bに出力する。
 AVアンプ104bのHDMIレシーバ13bは、AVアンプ104aから、HDMIケーブル81bの信号線LNTMDSを介して入力されてくる信号(テスト信号)をDSP16bに引き渡す。DSP16bはHDMIレシーバ13bからテスト信号を受け取ると、先の制御部12bの指示に従い、そのテスト信号を通過させ、出力信号を応答信号としてHDMI入力端子7bに引き渡す。HDMI入力端子7bは応答信号を、HDMIケーブル81bの信号線LNARCを介してAVアンプ104aに出力する。
 AVアンプ104aのHDMI出力端子8aは、AVアンプ104bから、HDMIケーブル81bの信号線LNARCを介して入力されてくる応答信号を制御部12aに引き渡す。制御部12aはテスト信号をDSP15aに引き渡した時刻と応答信号をHDMI出力端子8aから受け取った時刻との差を時間Xb’として特定する。
 この時間Xb’は、図9において矢印Bで示した経路を信号が通過するために要する時間であり、第5実施形態における時間Xbに以下の時間が加わった時間である。
 出力処理時間ztb:DSP16bからHDMI入力端子7bに対し応答信号が引き渡されたタイミングから、応答信号がHDMIケーブル81bの信号線LNARCを介してAVアンプ104aに出力されるタイミングまでの時間。
 入力処理時間zra:HDMI出力端子8aが、HDMIケーブル81bの信号線LNARCを介してAVアンプ104bからの応答信号の入力を受けたタイミングから、応答信号を制御部12aに引き渡すタイミングまでの時間。
 上記の出力処理時間ztbおよび入力処理時間zraは無視できる程度に短い。すなわち、時間Xb’≒時間Xbである。
 従って、制御部12aは、第5実施形態にかかるAVアンプ4aが時間Xaと時間Xbを用いて行う処理と同様の処理により、上記のように特定した時間Xaと時間Xb’を用いて遅延処理ZXaのディレイタイムDTxaおよび遅延処理ZXbのディレイタイムDTxbを決定する。そのように決定されたディレイタイムに従い遅延処理ZXaおよび遅延処理ZXbが実行される結果、音響システム550においても音響システム450における場合と同様に、AVアンプ104aからスピーカに対し音信号が出力されるタイミングと、AVアンプ104bからスピーカに対し音信号が出力されるタイミングが一致する。その結果、居室90内において視聴者LSNにとって望ましい音場が作り上げられる。
 <第7実施形態>
 図10は、本発明の第7実施形態にかかるAVアンプ204aおよびAVアンプ204bを含む音響システム650の構成例を示す図である。第7実施形態にかかる音響システム650の構成は、上述した第5実施形態にかかる音響システム450と多くの点で共通している。従って、以下に音響システム650が音響システム450と異なる点を中心に説明する。また、音響システム650が備える構成部のうち音響システム450が備える構成部と共通のものには音響システム450において用いた符号と同じ符号を用いる。
 音響システム450においては、AVアンプ4bからスピーカに対する音信号の出力タイミングを遅らせるための遅延処理ZXbがAVアンプ4aにより行われる。これに対し、音響システム650においては、遅延処理ZXbが第5実施形態にかかるAVアンプ4bに対応するAVアンプ204bにより行われる。すなわち、AVアンプ204aのDSP15aは遅延処理ZXbを行わず、AVアンプ204bのDSP16bが遅延処理ZXbを行う。
 そのため、AVアンプ204aの制御部12aは、ディレイタイムDTxbを決定すると、そのディレイタイムDTxbに従った遅延処理ZXbの実行を指示する指示データを生成し、例えばHDMIケーブル81bの信号線LNCECを介してAVアンプ204bに送信する。AVアンプ204bのDSP16bは、AVアンプ204aから受信した指示データに従い制御部12bから与えられる指示に従い、音響処理ZEbにより生成した音信号MD’LSおよびMD’RSをディレイタイムDTxbだけ遅延させ(遅延処理ZXb)、スピーカ1LS、スピーカ1RSに出力する。
 音響システム650においても音響システム450における場合と同様に、AVアンプ204aからスピーカに対し音信号が出力されるタイミングと、AVアンプ204bからスピーカに対し音信号が出力されるタイミングが一致する。その結果、居室90内において視聴者LSNにとって望ましい音場が作り上げられる。
 <第8実施形態>
 図11は、本発明の第8実施形態にかかるAVアンプ304aおよびAVアンプ304bを含む音響システム750の構成例を示す図である。第8実施形態にかかる音響システム750の構成は、上述した第6実施形態にかかる音響システム550と多くの点で共通している。従って、以下に音響システム750が音響システム550と異なる点を中心に説明する。また、音響システム750が備える構成部のうち音響システム550が備える構成部と共通のものには音響システム550において用いた符号と同じ符号を用いる。
 第6実施形態においては、AVアンプ104aをテスト信号が通過するために要する時間Xaと、AVアンプ104aおよびAVアンプ104bをテスト信号が通過するために要する時間Xb’が計測され、時間Xaと時間Xb’に基づき、音信号のスピーカに対する出力タイミングのずれを解消するための遅延処理ZXaおよび遅延処理ZXbにおけるディレイタイムの設定が行なわれる。
 これに対し、第8実施形態においては、テスト信号がAVアンプ304aを通過してAVアンプ304aに接続されているスピーカに出力され、それらのスピーカから放音されて視聴者LSNの位置に到達するまでの時間と、テスト信号がAVアンプ304aおよびAVアンプ304bを通過してAVアンプ304bに接続されているスピーカに出力され、それらのスピーカから放音されて視聴者LSNの位置に到達するまでの時間とが、スピーカの各々に関しラウンドトリップ時間として計測される。そして、それらの計測されたラウンドトリップ時間に基づき、音信号のスピーカに対する出力タイミングのずれを解消するための遅延処理がスピーカ毎に行なわれる構成が採用されている。
 ラウンドトリップ時間の計測のために、音響システム750においては、視聴者LSNの位置にマイク101が配置されている。また、AVアンプ304aは、マイク101から出力される音信号を受けるためのオーディオ入力端子10と、オーディオ入力端子10に入力された音信号を受け取り、必要に応じてデジタル信号への変換を行なった後、制御部12aに引き渡す入力部18を備えている。
 また、AVアンプ304aのDSP15aは、AVアンプ104aのDSP15aが行なう遅延処理ZXbを行なわず、AVアンプ304aのDSP16aは、AVアンプ104aのDSP16aが行なう遅延処理ZXaを行なわない。
 AVアンプ304aのDSP16aは、AVアンプ304aに接続されているスピーカの各々に出力される音信号毎に、ディレイタイムDTja-#(ただし、「#」は各スピーカの記号であるC、L、RおよびSWのいずれかを示す)の遅延を与える調整処理ZJaを行なう。また、AVアンプ304bのDSP16aは、AVアンプ304bに接続されているスピーカの各々に出力される音信号毎に、ディレイタイムDTjb-#(ただし、「#」は各スピーカの記号であるLSおよびRSのいずれかを示す)の遅延を与える調整処理ZJbを行なう。
 調整処理ZJaのディレイタイムDTja-#および調整処理ZJbのディレイタイムDTjb-#の決定は以下のように行なわれる。まず、ユーザは視聴者LSNの位置に配置したマイク101をオーディオ入力端子10に接続した状態で、AVアンプ304aに対し計測指示の操作を行う。その操作に応じて、AVアンプ304aの制御部12aはまず、DSP16aに対し、音響処理ZEaおよび調整処理ZJa(ディレイタイムDTja-C=0)を行う際と同様のバッファ使用状態を設定するとともに、これから引き渡すテスト信号を通過させ、その出力信号をスピーカ1C用の音信号として出力部17aに引き渡すように指示する。DSP16aはその指示に従い、音響処理ZEaおよび調整処理ZJa(ディレイタイムDTja-C=0)を行う際と同様のバッファ使用状態で待機する。その後、制御部12aからテスト信号を引き渡されると、DSP16aは先の制御部12aの指示に従い、そのテスト信号を通過させ、出力信号をスピーカ1C用の音信号として出力部17aに引き渡す。
 出力部17aはDSP16aから引き渡された音信号をスピーカ1Cに出力する。スピーカ1Cは出力部17aから入力された音信号に従い放音を行う。スピーカ1Cから放音された音はマイク101により拾音され、AVアンプ304aのオーディオ入力端子10に出力される。AVアンプ304aの入力部18はマイク101からオーディオ入力端子10経由で入力された音信号を制御部12aに引き渡す。制御部12aはテスト信号をDSP16aに引き渡した時刻と、入力部18からそのテスト信号に応じた音信号を受け取った時刻との差をスピーカ1Cに関するラウンドトリップ時間YCとして算出する。
 AVアンプ304aはスピーカ1Cに関するラウンドトリップ時間YCの算出と同様の処理を、AVアンプ304aに接続されている他のスピーカ、すなわちスピーカ1L、スピーカ1R、サブウーファ1SWに関しても行い、それらのスピーカの各々に関するラウンドトリップ時間YL、ラウンドトリップ時間YR、ラウンドトリップ時間YSWを算出する。
 続いて、制御部12aはAVアンプ304bに対し、DSP16bにおいて音響処理XEbおよび調整処理ZJb(ディレイタイムDTjb-LS=0)を行う際と同様のバッファ使用状態を設定し、これから入力されるテスト信号を通過させ、その出力信号に従った音をスピーカ1LSから放音するように指示する指示データを生成し、例えばHDMI81bの信号線LNCECを介してAVアンプ304bに送信する。その指示データを受信したAVアンプ304bの制御部12bは、指示データに示される指示に従い、DSP16bに音響処理XEbおよび調整処理ZJb(ディレイタイムDTjb-LS=0)を行う際と同様のバッファ使用状態を設定するように指示するとともに、これから引き渡すテスト信号を通過させ、その出力信号をスピーカ1LS用の音信号として出力部17bに出力するように指示する。この指示に従い、DSP16bは音響処理XEbおよび調整処理ZJb(ディレイタイムDTjb-LS=0)を行う際と同様のバッファ使用状態で待機する。
 その後、制御部12aはテスト信号をHDMIトランスミッタ14aに引き渡す。HDMIトランスミッタ14aは制御部12aから受け取ったテスト信号を、HDMIケーブル81bの信号線LNTMDSを介してAVアンプ304bに出力する。
 AVアンプ304bのHDMIレシーバ13bは、HDMIケーブル81bの信号線LNTMDSを介してAVアンプ304aから入力されてくるテスト信号をDSP16bに引き渡す。DSP16bはHDMIレシーバ13bからテスト信号を受け取ると、先の制御部12bの指示に従い、そのテスト信号を通過させ、出力信号を出力部17bに引き渡す。出力部17bはDSP16bから引き渡された音信号をスピーカ1LSに出力する。スピーカ1LSは出力部17bから入力された音信号に従い放音を行う。
 スピーカ1LSから放音された音はマイク101により拾音され、AVアンプ304aのオーディオ入力端子10に出力される。AVアンプ304aはマイク101からオーディオ入力端子10経由で入力された音信号を制御部12aに引き渡す。制御部12aはテスト信号をHDMIトランスミッタ14aに引き渡した時刻と、入力部18からそのテスト信号に応じた音信号を受け取った時刻との差をスピーカ1LSに関するラウンドトリップ時間YLSとして算出する。
 AVアンプ304aはスピーカ1LSに関するラウンドトリップ時間YLSの算出と同様の処理を、AVアンプ304bに接続されている他のスピーカ、すなわちスピーカ1RSに関しても行い、スピーカ1RSに関するラウンドトリップ時間YRSを算出する。
 図12は、上記のように算出される各スピーカに応じたラウンドトリップ時間の例を示した図である。ただし、図12においては、音信号がDSP16aから出力部17aに出力されたタイミングから、音信号に従った音がAVアンプ304aに接続された各スピーカから放音されるタイミングまでの時間と、音信号がDSP16bから出力部17bに出力されたタイミングから、音信号に従った音がAVアンプ304bに接続された各スピーカから放音されるタイミングまでの時間は、無視できる程度に短いため、図示を省略している。また、図12においては、音がマイク101により拾音され、オーディオ入力端子10および入力部18を経由して制御部12aに引き渡されるまでの時間も無視できる程度に短いため、図示を省略している。また、図12において、各スピーカから視聴者LSNまでの音の伝達に要する時間をzc-#(ただし、「#」は各スピーカの記号であるC、L、R、LS、RSおよびSWのいずれかを示す)で示している。なお、図12は概ねAVアンプ304aを通過する音信号のラウンドトリップ時間が、AVアンプ304bを通過する音信号のラウンドトリップ時間より短い場合を例として示しているが、その他の場合も、以下に述べるDTja-#およびDTjb-#の算出方法は同じである。
 図12に示される各スピーカに関するラウンドトリップ時間Y#の間の差は、AVアンプ304aを音信号が通過する際に要する時間とAVアンプ304bを音信号が通過する際に要する時間との差に起因するAVアンプ間の時間差である。制御部12aは、それらの時間Y#の間の差が解消するように、以下の算出式に従い、調整処理ZJaのためのディレイタイムDTja-#および調整処理ZJbのためのディレイタイムDTjb-#を各々算出する。
 DTja-#=Ymax-Y#または
 DTjb-#=Ymax-Y#(ただし、YmaxはAVアンプ304aまたはAVアンプ304bに接続されているスピーカの各々に関するランドトリップ時間のうち最大のもの)
 上記のように算出されたディレイタイムDTja-#およびディレイタイムDTjb-#に従い調整処理ZJaおよび調整処理ZJbが行われる結果、図13に示すように、AVアンプ304aからスピーカに対し音信号が出力されるタイミングと、AVアンプ304bからスピーカに対し音信号が出力されるタイミングが一致することになる。
 音響システム750においても音響システム450における場合と同様に、AVアンプ304aからスピーカに対し音信号が出力されるタイミングと、AVアンプ304aからAVアンプ304b経由でスピーカに対し音信号が出力されるタイミングが一致する。その結果、居室90内において視聴者LSNにとって望ましい音場が作り上げられる。
 上述したディレイタイムDTja-#およびディレイタイムDTjb-#は、各スピーカと視聴者LSNとの間の距離が同一となるように各スピーカが居室90内に配置されている場合においてAVアンプ304aが算出するディレイタイムDTja-#およびディレイタイムDTjb-#である。音響システム750においては、各スピーカと視聴者LSNとの間の距離が同一でない場合であっても、上述のように算出されるディレイタイムDTja-#およびディレイタイムDTjb-#を用いることで、別途の調整処理を要することなく、各スピーカから放音される音が視聴者LSNに到達するタイミングが一致する。
 図14は、各スピーカと視聴者LSNとの間の距離がまちまちである場合において、AVアンプ304aにより算出される各スピーカに応じたラウンドトリップ時間の例を示した図である。図14に示される各スピーカに関するラウンドトリップ時間Y#の間の差は、AVアンプ304aを音信号が通過する際に要する時間とAVアンプ304bを音信号が通過する際に要する時間との差に起因するAVアンプ間の時間差と、各スピーカから視聴者LSNまでの距離差に起因するスピーカ間の時間差の両方が合算されたものである。制御部12aは、それらの時間Y#の間の差が解消するように、上述した算出式に従い、調整処理ZJaのためのディレイタイムDTja-#および調整処理ZJbのためのディレイタイムDTjb-#を各々算出する。
 上記のように算出されたディレイタイムDTja-#およびディレイタイムDTjb-#に従い調整処理ZJaおよび調整処理ZJbが行われる結果、図15に示すように、各スピーカから放音される同じタイミングで再生されるべき音が視聴者LSNに到達するタイミングが一致することになる。
 <変形例>
 上述した第5乃至第8実施形態は本発明の技術的思想の範囲内で様々に変形することができる。以下にそれらの変形の例を示す。なお、以下において、AVアンプ4a、AVアンプ104a、AVアンプ204aおよびAVアンプ304aを総称して「マスタアンプ」と呼び、AVアンプ4b、AVアンプ104b、AVアンプ204bおよびAVアンプ304bを総称して「スレーブアンプ」と呼ぶ。
(第1変形例)
 第1変形例においては、上述した第5実施形態もしくは第7実施形態と、第6実施形態もしくは第8実施形態が組み合わされた構成が採用される。
 すなわち、第5実施形態および第7実施形態においては、マスタアンプの記憶部19に遅延パターンテーブルの形で記憶されている各種AVアンプの各再生モードに応じた時間データに従い、遅延処理ZXaおよび遅延処理ZXbにおけるディレイタイムの特定が行われる。
 一方、第6実施形態においては、遅延パターンテーブルを用いず、マスタアンプがテスト信号を出力し、それに対する応答信号が入力されるまでの時間をマスタアンプが計測し、それらの計測結果に基づき遅延処理ZXaおよび遅延処理ZXbにおけるディレイタイムの特定が行われる。
 第1変形例においては、それらが組み合わされ、計測により特定された時間Xaおよび時間Xb’が時間データに代えて遅延パターンテーブルに記憶され、その後のディレイタイムの特定に利用される。
 第1変形例によれば、予め遅延パターンテーブルに時間データを記憶しておく必要がなく、またいったん計測により時間Xaおよび時間Xb’が特定されるとそれらの時間を示すデータが記憶され再利用可能となるため、同じ再生モードにおける計測を繰り返す必要がない。
(第2変形例)
 上述した第5実施形態もしくは第7実施形態においては、各種AVアンプに関する時間データがマスタアンプの記憶部19に遅延パターンテーブルの形で記憶されており、スレーブアンプの時間データがマスタアンプにおいて遅延パターンテーブルから読み出されて使用される。
 これに対し、第2変形例においては、マスタアンプは自機の各再生モードに応じた時間データを記憶するのみで、他のAVアンプの時間データは記憶していない。一方、第2変形例におけるスレーブアンプは、記憶部を備え、自機の各再生モードに応じた時間データを記憶している。
 第2変形例において、マスタアンプはディレイタイムの特定の際に、スレーブアンプに対し時間データの要求を行う。その要求に応じてスレーブアンプはマスタアンプに対し、記憶している自機の時間データを送信する。
 マスタアンプは、記憶部19に記憶している自機の時間データと、スレーブアンプから受信したスレーブアンプの時間データとに従い、遅延処理ZXaおよび遅延処理ZXbにおけるディレイタイムの特定を行う。
 第2変形例によれば、各AVアンプは自機の時間データを記憶するのみでよく、マスタアンプが他の様々なAVアンプの時間データを記憶する必要がない。
 上述した第8実施形態においては、スピーカ毎にラウンドトリップ時間の計測が行われ、各スピーカに応じたディレイタイムによる遅延処理が調整処理ZJaおよび調整処理ZJbとして実行される構成が採用されているが、各スピーカと視聴者LSNとの間の距離に差がない場合、図13に示されるように、同じAVアンプに接続されている各スピーカに応じたラウンドトリップ時間は同一となり、従ってそれらのスピーカに出力される音信号に関し行われる調整処理のディレイタイムも同一となる。従って、各スピーカと視聴者LSNとの間の距離に差がない場合、AVアンプ304aに接続されているいずれか1つのスピーカに関するラウンドトリップ時間と、AVアンプ304bに接続されているいずれか1つのスピーカに関するラウンドトリップ時間の計測のみを行い、それらのラウンドトリップ時間に基づき、各スピーカに出力される音信号に関するディレイタイムの算出を行う構成が採用されてもよい。
(第3変形例)
 第3変形例においては、上述した第8実施形態においてスレーブアンプのDSP16bにおいて行われる調整処理ZJbが、マスタアンプ(例えば、DSP15a)において行われる。すなわち、スレーブアンプから各スピーカに出力される音信号の出力タイミングの調整が、マスタアンプからスレーブアンプに対する各スピーカに応じた音信号の出力タイミングの調整により実現される。
 第3変形例によれば、上述した第8実施形態における場合と比較し、スレーブアンプにおける処理負荷が軽減されるため、スレーブアンプのリソースをより多く音響処理ZEbに用いることができる。
(その他の変形例)
 上述した第5実施形態、第6実施形態および第7実施形態の説明においては、各スピーカと視聴者LSNとの間に距離差がないものとしたが、各スピーカと視聴者LSNとの間に距離差がある場合、その距離差に起因する音の到達タイミングのずれを低減するためのスピーカ毎の遅延処理が行われる構成が採用されてもよい。その場合、マスタアンプがオーディオ入力端子を備え、視聴者LSNの位置に配置されたマイクから出力される音信号を受け付け可能とし、第8実施形態における場合と同様にテスト信号に応じた音を各スピーカから放音させて各スピーカに応じたラウンドトリップ時間の計測を行うことにより、各スピーカから放音される音が視聴者LSNに達するタイミングを一致させるように、スピーカ毎のディレイタイムを決定すればよい。
 また、上述した第5実施形態、第6実施形態および第7実施形態においては、音信号がマスタアンプの出力部17aを通過するために要する時間と、音信号がスレーブアンプの出力部17bを通過するために要する時間との差は通常無視できる程度に小さいものとしたが、その差が無視できない程度に大きい場合、例えばマスタアンプが、その通過に要する時間を示す時間データをAVアンプ毎に予め記憶し、もしくは外部の装置から取得し、それらの時間データに示される時間をも考慮して、ディレイタイムDTxaおよびDTxbの算出を行う構成が採用されてもよい。
 また、上述した第5実施形態乃至第8実施形態においては、プレーヤ3から出力される音信号は5.1チャンネルの音信号であるものとしたが、マスタアンプが取得する音信号のチャンネル数はいずれのチャンネル数であってもよい。また、上述した第5実施形態乃至第8実施形態において用いられるスピーカシステムのチャンネル数もまた、5.1チャンネルに限られず、他の様々なチャンネル数のスピーカシステムが本発明において採用可能である。
 また、上述した第5実施形態乃至第8実施形態において示したマスタアンプとスレーブアンプとの間の各種信号の入出力に用いる信号線の種類は例示であって、十分な伝送速度が得られる限り、他の種類の信号線が用いられてもよい。例えば、制御信号の入出力において、HDMIケーブル81内の信号線のうち信号線LNCECを用いる代わりに、信号線LNARCや信号線LNTMDSを用いてもよい。また、マスタアンプがスレーブアンプの機種IDを取得するために、HDMIケーブル81bが備えるDDC(Display Data Channel)信号線LNDDC(EDIDの伝送に利用される信号線)を用いてスレーブアンプのEDIDを受信してもよい。
 また、上記した第5実施形態乃至第8実施形態においては、プレーヤ3とマスタアンプ、およびマスタアンプとスレーブアンプとの間の信号の伝送はHDMI規格に従い行われるものとしたが、これらの音響装置間の信号の伝送方式はHDMI規格に従ったものに限られず、他の規格に従った伝送方式が採用されてもよい。
 また、上述した第5乃至第7実施形態において、マスタアンプにおいて行われる遅延処理ZXaは音響処理ZEaの後に行われるものとしたが、遅延処理ZXaは音響処理ZEaの前に行われてもよい。同様に、上述した第7実施形態において、AVアンプ204bにおいて行われる遅延処理ZXb’は音響処理ZEbの前に行われてもよい。
 また、上述した第5実施形態乃至第8実施形態においては、マスタアンプにおいて必要に応じてデコード処理ZDの実行された音信号の一部がマスタアンプによる音響処理を施されることなくスレーブアンプに送信される構成が採用されているが、例えばマスタアンプにおいて音響処理ZEaの一部もしくは全部を行った後の音信号の一部もしくは全部をマスタアンプがスレーブアンプに送信する構成が採用されてもよい。また、プレーヤ3からマスタアンプに入力される音信号がエンコードされている場合、マスタアンプがデコード処理ZDを行う前のエンコードされた音信号をスレーブアンプに送信し、スレーブアンプにおいて、マスタアンプと並列的にデコード処理が行われる構成が採用されてもよい。
 それらの場合、遅延処理のディレイタイムを特定するために所要時間を比較すべき処理の内容が上述した第5実施形態乃至第8実施形態と異なるものとなる。例えば、マスタアンプからスレーブアンプに対し、音響処理ZEaの一部が施された音信号が送信される場合、時間Xaは、スレーブアンプに対し送信される音信号に施されない音響処理ZEaの部分に要する時間(デバイス処理時間zeaの後半のみ)となる。
 また、マスタアンプからスレーブアンプに対し、デコード処理ZDが行われる前のエンコードされた音信号が送信される場合、時間Xbにデコードのためのデバイス処理時間が加算されることになる。
 上記のように、マスタアンプとスレーブアンプの音信号に対する処理の分担は様々に変更可能であり、それに応じてディレイタイムの特定のために比較すべき時間Xaおよび時間Xb(もしくは時間Xb’)は異なり得る。要すれば、マスタアンプの総デバイス処理時間とスレーブアンプの総デバイス処理時間との差に起因する音信号のスピーカへの出力タイミングのずれが解消するように、制御部12aにより遅延処理のディレイタイムが決定される限り、どの処理のためのデバイス処理時間が比較対象とされてもよい。
 また、上述した第5実施形態乃至第8実施形態においては、スピーカ1C、スピーカ1L、スピーカ1Rおよびサブウーファ1SWがマスタアンプに接続され、マスタアンプはそれらのスピーカに応じたチャンネルの音信号を処理し、スピーカLSおよびスピーカRSがスレーブアンプに接続され、スレーブアンプはそれらのスピーカに応じたチャンネルの音信号を処理するものとしたが、いずれのスピーカがマスタアンプおよびスレーブアンプのいずれに接続されるか、またいずれの音信号がマスタアンプおよびスレーブアンプのいずれにより処理されるかは任意に変更可能である。
 また、上述した第5実施形態乃至第8実施形態の説明においては、マスタアンプおよびスレーブアンプのオーディオ出力端子にはスピーカが接続されているものとしたが、マスタアンプおよびスレーブアンプのオーディオ出力端子に接続される音響装置はスピーカに限られない。例えば、図16は、第5実施形態にかかる音響システム450において、AVアンプ4aのオーディオ出力端子6a-2および6a-3にスピーカ1Lおよびスピーカ1Rを接続する代わりに、プリメインアンプ40のオーディオ入力端子(図示略)を接続した例を示した図である。この例において、スピーカ1Lおよびスピーカ1Rは、プリメインアンプ40のオーディオ出力端子(図示略)に各々接続されている。
 図16に示した例において、AVアンプ4aの出力部17aは、スピーカ1Cもしくはサブウーファ1SWが接続されているオーディオ出力端子6a-1および6a-4に対しては、必要に応じてスピーカ駆動レベルへの増幅を行なった後、音信号の出力を行なう。一方、出力部17aは、プリメインアンプ40が接続されているオーディオ出力端子6a-2および6a-3に対しては、増幅を行なうことなく音信号の出力を行なう。プリメインアンプ40は、AVアンプ4aから入力された音信号をスピーカ駆動レベルへ増幅した後、スピーカ1Lおよびスピーカ1Rに各々出力する。その結果、音信号がプリメインアンプ40を通過するために要する時間が十分に短い限り、視聴者LSNにとって望ましい音場が作り上げられる。
 このように、本発明にかかるマスタアンプおよびスレーブアンプのオーディオ出力端子に接続される音響装置は如何なる種別の音響装置でもよく、それらの音響装置に対する音信号の出力タイミングが調整される結果、それらの音響装置を音信号が通過するために要する時間の差が十分に短い限り、視聴者LSNにとって望ましい音場が作り上げられる。
 また、上述した第5実施形態乃至第8実施形態においては、マスタアンプとともに1台のスレーブアンプが連係動作する場合につき説明したが、マスタアンプとともに複数のスレーブアンプが連係動作する場合にも本発明は適用可能である。
 また、上述した第5実施形態乃至第8実施形態においては、マスタアンプとスレーブアンプが行う音響処理としてシネマモード、ナイトシネマモード、テレビモード、ゲームモード、ミュージックモードといった再生モードに応じた音響処理を例示したが、それらはあくまでマスタアンプおよびスレーブアンプにおいて行われる音響処理の一例であって、他の如何なる音響処理がマスタアンプおよびスレーブアンプにおいて行われてもよい。
 また、上述した第5実施形態乃至第8実施形態においては、マスタアンプにおいてデコーダ用のDSP15aとポストプロセッサ用のDSP16aが区分されている構成が採用されているが、それらは一体であってもよい。すなわち、同じDSPもしくはDSP群がデコーダおよびポストプロセッサの機能を果たしてもよい。また、例えばデコーダ用のDSP15aがデコーダ処理ZDのみを行い、遅延処理ZXbを行うための個別のDSPを設けるなど、DSPもしくはDSP群をどのように区分し、それらのDSPもしくはDSP群にどのような処理を割り当てるかは任意に変更可能である。
 本出願は、2012年3月26日出願の日本特許出願、特願2012-069369、及び2012年7月27日出願の日本特許出願、特願2012-167113に基づくものであり、その内容はここに参照として取り込まれる。
 本発明によれば、AVアンプに内蔵された音響処理用のプロセッサを有効活用することで、より望ましい音を聴者に提供することが可能である。
また、本発明によれば、音響コンテンツを各々にスピーカが接続された複数のAVアンプを用いて再生する際に、音信号が各AVアンプを通過するために要する時間の差に起因する聴者への音の到達タイミングの意図せぬずれを低減することが可能である。
1…スピーカ、2…リモートコントローラ、3…プレーヤ、4…AVアンプ、5…ビデオ出力端子、6…オーディオ出力端子、7…HDMI入力端子、8…HDMI出力端子、9…HDMI出力端子、11、15、16…DSP、12…制御部、17…出力部、18…入力部、19…記憶部、80…記録媒体、81…HDMIケーブル、90…居室、91…テレビ

Claims (14)

  1.  音響コンテンツを示す音信号を取得する音信号取得手段と、
     前記音信号取得手段により取得された音信号に音響効果を付加するための第1信号処理を施して、前記第1信号処理が施された音信号を出力する第1プロセッサと、
     前記音信号を取得し、当該音信号に音響効果を付加するための第2信号処理を施して、前記第2信号処理が施された音信号を出力する第2プロセッサを備える他のAVアンプに、当該第2信号処理を指示する制御信号を送信する送信手段と
     を備えるAVアンプ。
  2.  前記他のAVアンプの第2プロセッサの処理能力を示すデータを取得するデータ取得手段と、
     前記処理能力を示すデータに基づき前記制御信号を生成する制御手段と
     を備える請求項1に記載のAVアンプ。
  3.  前記データ取得手段は、前記他のAVアンプから前記処理能力を示すデータを取得する
     請求項2に記載のAVアンプ。
  4.  前記第1プロセッサは前記音信号に第3信号処理を施し、
     前記他のAVアンプの前記第2プロセッサは前記第3信号処理を施された音信号を取得し、前記第2信号処理を施す
     請求項1に記載のAVアンプ。
  5.  前記他のAVアンプの前記第2プロセッサは前記AVアンプから前記音信号を取得し、当該音信号にデコード処理を施す
     請求項1に記載のAVアンプ。
  6.  前記他のAVアンプは前記AVアンプからタイミング信号を受信し、前記第2プロセッサの処理のタイミングは前記タイミング信号に基づき、調整される
     請求項1に記載のAVアンプ。
  7.  前記第1プロセッサにより処理された音信号を出力する第1の出力手段と、
     前記音信号を、前記他のAVアンプに出力する第2の出力手段と、
     前記第1プロセッサの処理により処理され前記第1の出力手段から出力される音信号が前記第1プロセッサを通過するために要する時間を含む時間を示す第1の時間データと、前記他のAVアンプの前記第2プロセッサに処理され前記他のAVアンプから出力される音信号が前記他のAVアンプの前記第2プロセッサを通過するために要する時間を含む時間を示す第2の時間データとを取得し、
     前記第1の時間データおよび前記第2の時間データに基づき算出したディレイタイムで、前記第1の出力手段から音信号が出力されるタイミングもしくは前記第2の出力手段から音信号が出力されるタイミングを遅延させる指示を行なう制御手段と
     を備える
     請求項1に記載のAVアンプ。
  8.  前記第1プロセッサにより処理された音信号を出力する第1の出力手段と、
     前記音信号を、前記他のAVアンプに出力する第2の出力手段と、
     前記第1プロセッサに処理され前記第1の出力手段から出力される音信号が前記AVアンプを通過するために要する時間を含む時間を示す第1の時間データと、前記他のAVアンプの前記第2プロセッサにより処理され前記他のAVアンプから出力される音信号が前記他のAVアンプの前記第2プロセッサを通過するために要する時間を含む時間を示す第2の時間データとを取得し、
     前記第1の時間データおよび前記第2の時間データに基づき算出したディレイタイムで、前記第1の出力手段から音信号が出力されるタイミングもしくは前記他のAVアンプから音信号が出力されるタイミングを遅延させる指示を行なう制御手段と
     を備える
     請求項1に記載のAVアンプ。
  9.  前記制御手段は、テスト用の音信号が前記AVアンプを通過するために要する時間を計測することにより前記第1の時間データを取得し、
     前記制御手段は、テスト用の音信号が前記他のAVアンプを通過するために要する時間を計測することにより前記第2の時間データを取得する
     請求項7または8に記載のAVアンプ。
  10.  マイクから音信号の入力を受ける入力手段
     を備え、
     前記制御手段は、テスト用の音信号が前記AVアンプを通過し前記第1の出力手段に直接的もしくは間接的に接続されている第1スピーカと前記マイクとを経由して前記入力手段に到達するために要する時間を計測することにより前記第1の時間データを取得し、
     前記制御手段は、前記第2の出力手段から前記他のAVアンプに出力されたテスト用の音信号が前記他のAVアンプを通過し前記AVアンプに直接的もしくは間接的に接続されている第2スピーカと前記マイクとを経由して前記入力手段に到達するために要する時間を計測することにより前記第2の時間データを取得する
     請求項7または8に記載のAVアンプ。
  11.  音響コンテンツを示す音信号を取得する音信号取得手段と、
     前記音信号を取得し、当該音信号に音響効果を付加するための第1信号処理を施して、前記第1信号処理が施された音信号を出力する第1プロセッサを備える他のAVアンプから、前記音信号取得手段により取得された音信号に音響効果を付加するための第2信号処理を指示する制御信号を受信する受信手段と、
     前記音信号取得手段により取得された音信号に前記受信手段により受信された制御信号に指示された第2信号処理を施して、前記第2信号処理が施された音信号を出力する第2プロセッサと
     を備えるAVアンプ。
  12.  前記他のAVアンプに、前記第2プロセッサの処理能力を示すデータを送信する送信手段
     を備える請求項11に記載のAVアンプ。
  13.  前記第2プロセッサにより処理された音信号を出力する出力手段
    を備え、
     前記制御信号は前記出力手段が音信号を出力するタイミングの遅延を指示する
     請求項11に記載のAVアンプ。
  14.  音響コンテンツを示す音信号を取得する第1音信号取得手段と、
     前記第1音信号取得手段により取得された音信号に音響効果を付加するための第1信号処理を施して第1音信号を生成し、当該第1音信号を出力する第1プロセッサと、
     前記音信号に音響効果を付加するための第2信号処理を指示する制御信号を送信する送信手段と、
     を備える第1AVアンプと、
     前記音信号を取得する第2音信号取得手段と、
     前記制御信号を受信する受信手段と、
     前記第2音信号取得手段により取得された音信号に前記受信手段により受信された制御信号に指示された第2信号処理を施して第2音信号を生成し、当該第2音信号を出力する第2プロセッサと、
     を備える第2AVアンプと、
     を備えるAVシステム。
PCT/JP2013/058340 2012-03-26 2013-03-22 Avアンプ WO2013146602A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012-069369 2012-03-26
JP2012069369A JP2013201651A (ja) 2012-03-26 2012-03-26 Avアンプ
JP2012167113A JP2014027531A (ja) 2012-07-27 2012-07-27 Avアンプ
JP2012-167113 2012-07-27

Publications (1)

Publication Number Publication Date
WO2013146602A1 true WO2013146602A1 (ja) 2013-10-03

Family

ID=49259855

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/058340 WO2013146602A1 (ja) 2012-03-26 2013-03-22 Avアンプ

Country Status (1)

Country Link
WO (1) WO2013146602A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3968657A4 (en) * 2019-05-08 2023-06-07 D&M Holdings Inc. AUDIO DEVICE, AUDIO SYSTEM AND COMPUTER READABLE PROGRAM

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10285483A (ja) * 1997-04-03 1998-10-23 Nippon Hoso Kyokai <Nhk> テレビジョンの映像信号と音声信号の時間差測定方法および装置
JP2009246911A (ja) * 2008-04-01 2009-10-22 Onkyo Corp 音声再生システム、音声処理装置、ディスプレイ装置及びそれらのプログラム
JP2010004520A (ja) * 2008-05-23 2010-01-07 Yamaha Corp Avシステム
WO2010004649A1 (ja) * 2008-07-11 2010-01-14 パイオニア株式会社 遅延量決定装置、音像定位装置、遅延量決定方法、遅延量決定処理プログラム
JP2011124925A (ja) * 2009-12-14 2011-06-23 Sony Corp 出力制御装置、出力制御方法、プログラム、及び出力制御システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10285483A (ja) * 1997-04-03 1998-10-23 Nippon Hoso Kyokai <Nhk> テレビジョンの映像信号と音声信号の時間差測定方法および装置
JP2009246911A (ja) * 2008-04-01 2009-10-22 Onkyo Corp 音声再生システム、音声処理装置、ディスプレイ装置及びそれらのプログラム
JP2010004520A (ja) * 2008-05-23 2010-01-07 Yamaha Corp Avシステム
WO2010004649A1 (ja) * 2008-07-11 2010-01-14 パイオニア株式会社 遅延量決定装置、音像定位装置、遅延量決定方法、遅延量決定処理プログラム
JP2011124925A (ja) * 2009-12-14 2011-06-23 Sony Corp 出力制御装置、出力制御方法、プログラム、及び出力制御システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3968657A4 (en) * 2019-05-08 2023-06-07 D&M Holdings Inc. AUDIO DEVICE, AUDIO SYSTEM AND COMPUTER READABLE PROGRAM

Similar Documents

Publication Publication Date Title
JP5316189B2 (ja) Avシステム
US9602388B2 (en) Session terminal apparatus and network session system
KR100678929B1 (ko) 다채널 디지털 사운드 재생방법 및 장치
JP4487316B2 (ja) 映像信号並びにマルチチャネル音声信号の伝送信号処理装置およびこれを含む映像音声再生システム
US20140328485A1 (en) Systems and methods for stereoisation and enhancement of live event audio
US20090192638A1 (en) device for and method of generating audio data for transmission to a plurality of audio reproduction units
US20130201397A1 (en) Audio Control Module
JP2015126460A (ja) ソース機器
JP2009260458A (ja) 音響再生装置、および、これを含む映像音声視聴システム
JP2012050042A (ja) 情報処理装置、音響処理装置、音響処理システム、プログラムおよびゲームプログラム
JP5590186B2 (ja) Avシステム
WO2013146602A1 (ja) Avアンプ
JP2011130236A (ja) オーディオアンプ
JP2009246911A (ja) 音声再生システム、音声処理装置、ディスプレイ装置及びそれらのプログラム
JP6597248B2 (ja) システムおよび制御方法
JP2013201651A (ja) Avアンプ
US10209952B2 (en) Content reproduction device, content reproduction system, and control method for a content reproduction device
JP2014027531A (ja) Avアンプ
US20180183870A1 (en) Synchronization setting device and distribution system
JP6074899B2 (ja) 音データ処理装置
WO2010122802A1 (ja) 音声再生装置
JP5359563B2 (ja) 音声処理装置及びそのプログラム
JP5640320B2 (ja) 音声再生システム、音声処理装置及び音声処理プログラム
JP2011082717A (ja) 増幅装置およびそのプログラム
JP5126521B2 (ja) 音声再生システム、音声処理装置及びそのプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13767341

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13767341

Country of ref document: EP

Kind code of ref document: A1