WO2019208012A1 - 信号処理装置、チャネル設定方法、プログラム、スピーカシステム - Google Patents

信号処理装置、チャネル設定方法、プログラム、スピーカシステム Download PDF

Info

Publication number
WO2019208012A1
WO2019208012A1 PCT/JP2019/010683 JP2019010683W WO2019208012A1 WO 2019208012 A1 WO2019208012 A1 WO 2019208012A1 JP 2019010683 W JP2019010683 W JP 2019010683W WO 2019208012 A1 WO2019208012 A1 WO 2019208012A1
Authority
WO
WIPO (PCT)
Prior art keywords
speaker
speakers
signal processing
channel
user
Prior art date
Application number
PCT/JP2019/010683
Other languages
English (en)
French (fr)
Inventor
達也 玉木
義和 大浦
賢治 頼本
洋輔 佐村
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2020516096A priority Critical patent/JP7298599B2/ja
Priority to EP19793355.9A priority patent/EP3787318A4/en
Priority to CN201980020047.5A priority patent/CN111886881B/zh
Priority to US16/980,973 priority patent/US11356789B2/en
Publication of WO2019208012A1 publication Critical patent/WO2019208012A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2205/00Details of stereophonic arrangements covered by H04R5/00 but not provided for in any of its subgroups
    • H04R2205/024Positioning of loudspeaker enclosures for spatial sound reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved

Definitions

  • This technology relates to a signal processing device, a channel setting method, a program, and a speaker system, and more particularly to a channel setting technology for each speaker.
  • the channel of each speaker is determined in advance, and the determined channel may be printed on each speaker.
  • Examples of printing include “FL” for the left front speaker, “FR” for the right front speaker, “SUR L” for the left rear speaker, “SUR R” for the right rear speaker, and the like.
  • the user needs to arrange each speaker in a correct position in advance while comparing this print with the ideal layout diagram of the speaker shown in the instruction manual.
  • the channel setting is incorrect.
  • the basics are "whether the speaker should be placed based on the right / left for the user or the right / left for the acoustic system should be used as a reference". Since the general concept is not understood, there are many cases where the speaker is placed at an incorrect position, and as a result, channel setting is not performed correctly.
  • the channel is printed on the output terminal of the main unit, and the audio cable that connects the speaker is connected to the correct channel output terminal of the main unit Then, set the speaker channel.
  • the number of cases in which printing of the output channel is not noticed is reduced, but the work of connecting many wires to the correct speaker is complicated and the channel setting may be mistaken.
  • users who are not familiar with the right / left concept of speaker placement in such a system may not be able to set the channel correctly for the same reason as described above.
  • Patent Document 1 below is also known.
  • Patent Document 1 describes a method in which a master tone is once connected to a speaker, a test tone is reproduced from each speaker in an initial setup, and output channels of the reproduced speakers are set one by one. .
  • it is necessary to manually set channels for all connected speakers.
  • users who are not familiar with the right / left concept of speaker placement in such a system may not be able to set the channel correctly for the same reason as described above.
  • the signal processing apparatus receives a notification that a user has designated an operation from two of the N or more N speakers, and recognizes the two placement reference speakers.
  • a relative position recognition unit that performs processing for acquiring distance information between the speakers, and recognizes a relative positional relationship between the N speakers using the distance information between the two placement reference speakers and the speakers;
  • a channel setting unit that automatically sets the channel of each speaker based on the relative positional relationship recognized by the relative position recognition unit.
  • a multi-channel speaker system having three or more channels is assumed. For example, a surround sound system of 5 channels, 7 channels, or the like.
  • Two of the N speakers are detected by notification of a user's designated operation.
  • the distance information between the N speakers is grasped, and the relative positional relationship between the speakers is recognized.
  • the signal processing apparatus includes a channel signal processing unit that performs signal processing on an input audio signal and generates an N-channel audio signal to be supplied to each of the N speakers. It is conceivable that the processing unit generates an N-channel audio signal that is a transmission signal for each speaker based on the channel set by the channel setting unit.
  • the channel signal processing unit generates an audio signal of each channel of the surround sound system such as 5 channels and 7 channels. The generated audio signal of each channel is distributed to each speaker and transmitted according to the channel assignment of each speaker by the channel setting unit.
  • each of the N speakers is provided with an operation detection unit that detects a designation operation by a user, and the relative position recognition unit performs the operation on each speaker. It is conceivable that an instruction to activate the detection unit is given and a speaker that has notified detection by the operation detection unit during the activation period is recognized as an arrangement reference speaker.
  • Each speaker is provided with an operation detection unit using some kind of sensing device such as a touch sensor, a button, a microphone, and an optical sensor.
  • the relative position recognition unit of the signal processing device controls the operation detection unit of each speaker to be validated by the validation control. When an operation is detected during the validation period, it is recognized that there has been a designated operation by the user.
  • the relative position recognition unit recognizes the two arrangement reference speakers that have received the notification of the designation operation by the user as the front left speaker and the front right speaker. Can be considered. A front left speaker and a front right speaker that are arranged in front of the user when listening are determined as placement reference speakers.
  • the relative position recognition unit may distinguish the front left speaker and the front right speaker according to the order in which the two placement reference speakers are designated by the user. It is done. In both cases, the user operation is detected and recognized, but the user is prompted to operate in order. Then, the front left speaker and the front right speaker are determined according to the order.
  • the relative position recognition unit when the user performs a first designation operation, performs the operation on each speaker other than the speaker that has transmitted the notification of the designation operation. It is conceivable to give an instruction to validate the detection unit and wait for the second designation operation. When the first designated operation is detected, control is performed so that the designated operation is not notified from the speaker.
  • the relative position recognition unit may be configured to sequentially output test sound to each speaker in order to acquire distance information between the speakers. Test sound is output from one speaker, and the sound is collected by a microphone in the other speaker. Such test sound output is sequentially executed by all speakers.
  • each speaker includes a sound detection unit and is configured to be able to transmit test sound detection time information from other speakers.
  • the relative position recognition unit calculates a distance between the one speaker and the other speaker based on output start time information of the test sound from one speaker and detection time information from the other speaker. Can be considered. Since all the speakers are time-synchronized, for example, other speakers generate a file in which test sound is recorded together with time information, and transmit the file to the relative position recognition unit.
  • the signal processing device may include a virtual speaker setting unit that sets a virtual speaker arrangement based on the relative positional relationship recognized by the relative position recognition unit and the channel setting by the channel setting unit. It is done.
  • the virtual speaker is a speaker virtually arranged at a position different from the actual speaker arrangement.
  • the signal processing apparatus includes a channel signal processing unit that performs signal processing on an input audio signal and generates an N-channel audio signal to be supplied to each of the N speakers.
  • the processing unit may generate an N-channel audio signal that realizes the virtual speaker arrangement as a transmission signal for each speaker. That is, the channel signal processing unit performs processing for realizing the position and localization state of the sound output of each virtual speaker according to the setting of the virtual speaker, with respect to the audio signal of each channel transmitted to the actual speaker.
  • the virtual speaker setting unit displaces the placement position of the virtual speaker in the rotation direction according to the operation signal.
  • the virtual speaker arrangement position is displaced in the left rotation direction or the right rotation direction in accordance with the rotation operation in the left-right rotation direction by the user.
  • the sound output using the N speakers and the sound output using some of the N speakers are used for switching control. It is conceivable to include a speaker setting unit. For example, when the user designates one speaker in a state where all the speakers are used, sound output is performed only from the one speaker.
  • the signal processing apparatus receives notification that the user has designated operation from two of the N or more speakers, and the two placement reference speakers. To obtain distance information between the speakers, recognize the relative positional relationship of the N speakers using the distance information between the two placement reference speakers and the speakers, and based on the recognized relative positional relationship. Automatically set the channel of each speaker.
  • the signal processing device is provided with an information processing device, and the processing of the above procedure is executed.
  • the program according to the present technology is a program that causes an information processing apparatus to execute such processing.
  • the channel setting method of the present technology is realized in the signal processing device including the information processing device.
  • a speaker system according to the present technology includes the signal processing device and N speakers. As a result, a speaker system in which speaker arrangement and channel setting are easy and accurate is realized.
  • Speaker system configuration ⁇ 2.
  • Channel settings ⁇ 3.
  • Speaker layout change ⁇ 4.
  • Speaker switching ⁇ 5. Summary and Modification>
  • Speaker system configuration> a surround sound system capable of connecting three or more speakers is assumed, and the channels of the speakers can be set easily.
  • a surround sound system using four speakers 3 (3A, 3B, 3C, 3D) as shown in FIG. 1 will be described as an example.
  • the four speakers are collectively referred to as “speaker 3” when they are collectively referred to or not particularly distinguished.
  • they are expressed as “speaker 3A” to “speaker 3D”.
  • the channel of the speaker 3 four channels are assumed, which are a front L channel, a front R channel, a surround L channel, and a surround R channel, respectively. They are called “FL channel”, “FR channel”, “SL channel”, and “SR channel”, respectively.
  • 4 channels are an example for explanation, and cases of 5 channels, 5.1 channels, 7 channels, 7.1 channels, and the like are also conceivable.
  • the front left front L channel speaker is “FL speaker”
  • the front right front R channel speaker is “FR speaker”
  • the left rear surround L channel speaker is “ The “SL speaker” and the right rear surround R channel speaker”.
  • SR speaker For example, when the speaker 3A is set to the front L channel, it may be expressed as “FL speaker 3A”.
  • FIG. 1 shows an arrangement example of a surround sound system in a living room, for example.
  • the surround sound system of the embodiment is configured as a speaker system having a signal processing device 1 and speakers 3A, 3B, 3C, and 3D.
  • the speaker system may include a remote controller 5.
  • the speaker system is used for, for example, sound reproduction of video content displayed on the monitor device 9 such as a television receiver, or audio such as music and environmental sound even when the monitor device 9 does not display video. Used for playback.
  • a monitor device 9 is arranged at a position on the front side of the user, for example, in front of the sofa 8.
  • the signal processing device 1 is disposed in the vicinity of the monitor device 9.
  • the FL speaker 3A is arranged on the left side of the monitor device 9, and the FR speaker 3B is arranged on the right side.
  • An SL speaker 3C is arranged on the left rear side of the sofa 8, and an SR speaker 3D is arranged on the right rear side.
  • the above arrangement is a typical arrangement example of the monitor device 9 and the 4-channel speaker system. Of course, the actual arrangement varies depending on the user's preference, furniture arrangement, room size, room shape, etc.
  • the speakers 3A, 3B, 3C, 3D are connected to the FL channel, It is desirable that they are arranged at positions suitable for the FR channel, SL channel, and SR channel.
  • FIG. 2 shows a configuration example of the speaker system according to the embodiment.
  • the signal processing device 1 as a parent device and the speakers 3A, 3B, 3C, and 3D as child devices can communicate with each other.
  • the signal processing device 1 and each speaker 3 may be wirelessly communicated by a communication method such as Wi-Fi (registered trademark) or Bluetooth (registered trademark), or may be wired.
  • a communication method such as Wi-Fi (registered trademark) or Bluetooth (registered trademark)
  • LAN Local Area Network
  • USB Universal Serial Bus
  • a dedicated line including an audio line and a control line may be used.
  • Audio signals (digital audio signals or analog audio signals), control data, notification data, and the like are transmitted between the signal processing device 1 and the speaker 3 by these wireless or wired communications.
  • the speakers 3A, 3B, 3C, and 3D are synchronized in time via the signal processing device 1, for example.
  • the speakers 3A, 3B, 3C, and 3D may be capable of communicating with each other, and a configuration that does not particularly perform communication is also conceivable.
  • the speakers 3 ⁇ / b> A, 3 ⁇ / b> B, 3 ⁇ / b> C, and 3 ⁇ / b> D are channel-set (channel assigned) by the signal processing device 1.
  • the speakers 3A, 3B, 3C, and 3D have, for example, individual speaker IDs as identifiers, but basically have the same configuration and are not dedicated devices for a certain channel.
  • the speaker 3A can be used as any of an FL speaker, an FR speaker, an SL speaker, and an SR speaker.
  • the user may place the speaker 3A, 3B, 3C, 3D at a position around him / herself, for example, as shown in FIG.
  • Each speaker 3 is assigned a channel by the signal processing device 1 as will be described later, whereby a channel is determined from the viewpoint of the signal processing device 1.
  • the signal processing device 1 receives the audio signal from the sound source device 2, performs necessary signal processing, and transmits the audio signal distributed to each channel to the assigned speaker 3.
  • Each speaker 3 receives an audio signal of a corresponding channel from the signal processing device 1 and outputs an audio signal. As a result, 4-channel surround sound output is performed.
  • the sound source device 2 shown in FIG. 2 is, for example, a monitor device 9 or a playback device (audio player) not shown.
  • the sound source device 2 supplies L and R stereo channel audio signals (digital audio signals or analog audio signals) and multi-channel surround compatible audio signals to the signal processing device 1.
  • the signal processing device 1 performs distribution and generation of the audio signal of the channel corresponding to the installed speaker 3, and in this case, generates the audio signal of the FL channel, the FR channel, the SL channel, and the SR channel, It transmits to each speaker 3A, 3B, 3C, 3D.
  • Each speaker 3 includes a speaker unit 32, and the speaker unit 32 is driven by the transmitted audio signal to output audio.
  • Each speaker 3 includes a microphone 33 that can be used for channel setting described later.
  • FIG. 3 shows remote controllers 5 ⁇ / b> A and 5 ⁇ / b> B as examples of the remote controller 5.
  • the remote controllers 5A and 5B transmit user operation information to the signal processing device 1 by, for example, infrared rays or radio waves.
  • the remote controllers 5A and 5B are provided with operating elements 50 (50A and 50B) for rotating operation.
  • the operation element 50A is, for example, a rotary encoder, and is an operation element that can transmit information on the rotation operation amount.
  • the operation element 50B is a button.
  • the operation element 50B is an operation element that can instruct rotation of a predetermined angle by a single pressing operation. Details of the use of the operation member 50 for these rotation operations will be described later.
  • each speaker 3 as a slave unit can identify communication addressed to itself by a slave address given to its own speaker.
  • each speaker 3 includes its own identifier (speaker ID) in the transmission information, so that the signal processing device 1 can identify which speaker is the communication from each speaker 3.
  • the signal processing apparatus 1 includes a CPU (Central Processing Unit) 11, an output signal forming unit 12, an RF (Radio® Frequency) module 13, and a receiving unit 14.
  • CPU Central Processing Unit
  • RF Radio® Frequency
  • the output signal forming unit 12 performs processing related to the audio signal output to each speaker 3. For example, the output signal forming unit 12 cooperates with the CPU 11 to distribute the audio signal of each channel or to generate a channel audio signal, or to generate an audio signal to each speaker for virtual speaker output to be described later, for example, channel mixing. Signal processing including localization adjustment, delay, etc. is performed.
  • the output signal forming unit 12 also performs amplification processing, sound quality processing, equalizing, band filter processing and the like on the audio signal of each channel.
  • the output signal forming unit 12 may perform a process of generating an audio signal as a test tone used for channel setting.
  • the RF module 13 transmits audio signals and control signals to the speakers 3 and receives signals from the speakers 3. For this reason, the RF module 13 performs encoding processing and transmission processing for wireless transmission of the audio signal and control signal to be transmitted supplied from the CPU 11. The RF module 13 performs reception processing of signals transmitted from the speaker 3, decoding processing of received data, transfer to the CPU 11, and the like.
  • the receiving unit 14 receives the operation signal from the remote controller 5, demodulates / decodes the received operation signal, and transmits the operation information to the CPU 11.
  • the CPU 11 performs arithmetic processing on the audio signal supplied from the sound source device 2, channel setting processing, processing related to the virtual speaker, and the like.
  • the CPU 11 is provided with the functions shown in FIG. 5 by an installed program (software), and arithmetic processing as these functions is performed. That is, the CPU 11 has functions as a relative position recognition unit 11a, a channel setting unit 11b, a virtual speaker setting unit 11c, a channel signal processing unit 11d, and a use speaker setting unit 11e.
  • the relative position recognition unit 11a and the channel setting unit 11b perform processing for channel setting of each speaker 3 to be described later.
  • the relative position recognizing unit 11a receives notification that the user has designated operation from two of the N (three in this example) speakers 3, and sets the two placement reference speakers. Perform recognition processing. Further, the relative position recognition unit 11a performs processing for acquiring distance information between the speakers 3. Further, the relative position recognizing unit 11a performs processing for recognizing the relative positional relationship of the N (four) speakers 3 using the two placement reference speakers and the distance information between the speakers.
  • the channel setting unit 11b performs a process of automatically setting the channel of each speaker 3 based on the relative positional relationship recognized by the relative position recognition unit. The processing of these relative position recognition unit 11a and channel setting unit 11b will be described later in detail as channel setting processing.
  • the virtual speaker setting unit 11c performs a process of setting the virtual speaker arrangement based on the relative positional relationship recognized by the relative position recognition unit 11a and the channel setting by the channel setting unit 11b.
  • the virtual speaker is a speaker virtually arranged at a position different from the actual arrangement of the speakers 3.
  • Setting virtual speakers by the virtual speaker setting unit 11c means that predetermined processing is performed on the audio signal for each speaker 3 and sound output is performed at a position different from the actual arrangement of the speakers 3 in a localized state. is there. For example, when the user performs an operation of changing the virtual speaker position in the rotation direction using the remote controller 5, the virtual speaker setting unit 11 c also performs a process of changing the virtual speaker arrangement accordingly. Specific processing by the function as the virtual speaker setting unit 11c will be described in the description of channel setting and speaker arrangement change described later.
  • the channel signal processing unit 11 d generates an N-channel audio signal to be supplied to each of the N speakers 3 for the input audio signal in cooperation with the signal processing in the output signal forming unit 12. Perform the transfer process. In addition, the channel signal processing unit 11d performs N channel processing so as to achieve a localization state that realizes a virtual speaker as a transmission signal for each speaker 3 when the virtual speaker setting unit 11c sets the virtual speaker arrangement. The voice signal is generated in cooperation with the output signal forming unit 12.
  • the used speaker setting unit 11e performs a process of switching and controlling the sound output using the N speakers 3 and the sound output using some of the N speakers according to a user operation. For example, when the user designates one speaker in a state where all the speakers are used, sound output is performed only from the one speaker. Specifically, the information on the speakers used is delivered to the channel signal processing unit 11d, and the use channel audio signal is generated and the mute control for the unused channels is performed so that only the sound output from the speakers is performed. Let it run. Information on the speaker used as a user operation is detected by receiving, for example, information reception from the speaker 3 via the RF module 13. Of course, the use speaker setting unit 11e may perform processing correspondingly when the user performs an operation of designating the use speaker using the remote controller 5. A specific processing example using the function as the used speaker setting unit 11e will be described in the description of the used speaker switching.
  • the speaker 3 includes a CPU 31, a speaker unit 32, a microphone 33, a touch sensor 34, an RF module 35, an amplifier 36, and a microphone input unit 37.
  • the CPU 31 performs communication processing and control inside the speaker.
  • the RF module 35 is a module that performs wireless communication with the RF module 13 of the signal processing apparatus 1.
  • the RF module 35 receives and decodes the audio signal and control signal transmitted from the signal processing device 1, and transfers the decoded signal to the CPU 31.
  • the RF module 35 also encodes the control signal and notification signal transferred from the CPU 31 for wireless transmission, and performs processing for transmitting the encoded signal to the signal processing device 1.
  • the CPU 31 supplies the audio signal transmitted from the signal processing device 1 to the amplifier 36.
  • the amplifier 36 converts, for example, an audio signal as digital data transferred from the CPU 31 into an analog signal, amplifies it, and outputs it to the speaker unit 32. Thereby, sound output is executed from the speaker unit 32.
  • the amplifier 36 may output a digital audio signal.
  • the audio signal obtained by the microphone 33 is amplified by the microphone input unit 37, converted to digital audio data, for example, and supplied to the CPU 31.
  • the CPU 31 can store a microphone input voice signal together with time information (time stamp) in an internal RAM (Random Access Memory). Or CPU31 may memorize
  • the CPU 31 transfers the stored information to the RF module 35 at a predetermined timing, and causes the signal processing device 1 to transmit it.
  • the touch sensor 34 is a contact detection sensor formed as a touch pad or the like at a position where the user can easily touch, for example, the upper surface or the front surface of the housing of the speaker 3.
  • the touch operation of the user is detected by the touch sensor 34, and the detection information is transmitted to the CPU 31.
  • the CPU 31 detects that a touch operation has been performed, the CPU 31 causes the RF module 35 to transmit information on touch operation detection to the signal processing device 1.
  • the touch sensor 34 is an example of a device that detects a user operation on the speaker 3. Instead of the touch sensor 34 or in addition to the touch sensor 34, a device capable of detecting a user's operation and behavior such as an imaging device (camera), an operation button, and a capacitance sensor may be provided. An example in which the touch sensor 34 or the like is not provided by detecting the sound (contact sound) accompanying the touch operation with the microphone 33 is also conceivable.
  • the setting may be wrong. There are also users who don't understand the channel setting work or are troublesome. In such a state, a correct surround sound cannot be reproduced. In the present embodiment, it is possible to correctly set the output channels of all the speakers 3 only by touching some speakers 3 by the user.
  • FIG. 6A shows a state where the signal processing device 1 and the four speakers 3A, 3B, 3C, and 3D are installed as described with reference to FIG.
  • the user since the channel setting of each speaker 3 is not determined in advance, the user installs each speaker 3A, 3B, 3C, 3D at an arbitrary position without minding the channel setting. Naturally, the channels are not yet set for the respective speakers 3.
  • the signal processing device 1 which is the master unit and each speaker 3 is turned on, the signal processing device 1 and each speaker 3 are connected by wireless communication by, for example, WiFi or the like as shown in FIG. Be started.
  • the user touches the speaker 3A placed on the left side of the monitor device 9 as shown by a solid line H1 in FIG. 6B, and subsequently monitors the monitor device 9 as shown by a broken line H2 in accordance with the guidance of this speaker system.
  • the speaker system may play a guidance voice such as “Please touch the left speaker toward the front” as guidance, or display the message on the monitor device 9.
  • the user performs an operation of touching the touch sensor 34 of the left speaker 3A toward the front (arrow DRU).
  • the direction in which the user faces the monitor device 9 is the front.
  • the speaker system When it is detected that the user has performed an operation of touching the touch sensor 34 of the speaker 3A, for example, the speaker system performs guidance of “Please touch the right speaker toward the front”. In response to this, the user subsequently performs an operation of touching the touch sensor 34 of the speaker 3B.
  • a user who does not use the monitor device 9 is also assumed. Such a user may touch the front left speaker and the front right speaker in order according to the position and direction in which he / she usually listens.
  • FIG. 7A shows a state in which the speakers 3A and 3B are FL speakers and FR speakers.
  • the speaker system can specify the FL speaker 3A and the FR speaker 3B, and infer the user's listening direction as a relative positional relationship with respect to the set FL speaker 3A and the FR speaker 3B.
  • the speaker system automatically measures the distance between the speakers 3. It is assumed that time is synchronized between the signal processing device 1 as a parent device and each speaker 3 using a PTP (Precision Time Protocol) method or the like.
  • the distance between the speakers 3 is measured by detecting the test sound reproduced by one speaker 3 by another speaker 3 and measuring the arrival time. For example, as shown in FIG. 7A, test sounds reproduced by the speaker unit 32 of the FL speaker 3A are picked up by the microphones 33 mounted on the FR speakers 3B, 3C, and 3D, and stored together with time stamps (time information). .
  • the test sound may be output for a moment as an electronic sound having a predetermined frequency, for example.
  • a continuous sound such as one second or several seconds may be used.
  • any sound that can measure the arrival time may be used.
  • Such an operation is performed by changing the speaker 3 to be reproduced. That is, when the test sound is reproduced by the speaker 3A as shown in FIG. 7A and the test sound and time information are stored by the speakers 3B, 3C, and 3D, the test sound is reproduced by the speaker unit 32 of the speaker 3B as shown in FIG. 7B. The test sound is collected by the microphones 33 of the speakers 3A, 3C, and 3D, and the test sound and time information are stored. As a result, the distances between the speakers 3B-3A, between the speakers 3B-3C, and between the speakers 3B-3D indicated by broken lines are measured.
  • the test sound is reproduced by the speaker 3C, and the test sound and time information are stored by the speakers 3A, 3B, and 3D. Thereby, the distances between the speakers 3C-3A, between the speakers 3C-3B, and between the speakers 3C-3D are measured. Subsequently, the test sound is reproduced by the speaker 3D, and the test sound and time information are stored by the speakers 3A, 3B, and 3C. Thus, the distances between the speakers 3D-3A, between the speakers 3D-3B, and between the speakers 3D-3C are measured.
  • the distances between all combinations of the speakers 3 can be measured.
  • the time difference (distance) can be measured twice in one combination. It is desirable to reduce the measurement error by taking the average value of two times.
  • the test sound reproduction / storage process may be completed when the measurement for all the combinations is completed. For example, in the case of the above example, test sound reproduction from the speaker 3D may be omitted. Further, in this case, the speaker 3 that has already played back may not perform the storage process.
  • the speaker 3A since the speaker 3A can measure the distance between the speakers 3B, 3C, and 3D after its own reproduction is completed, the speaker 3A may not store the test sound from the speakers 3B and 3C. Does not have to be stored at the time of test sound reproduction from the speaker 3C.
  • the signal processing apparatus 1 can grasp that it is in the arrangement state of either FIG. 8A or FIG. 8B from the distance between the speakers 3.
  • 8A and 8B are arrangements in a mirror image relationship in which the distances between the speakers 3 are the same. Since the FL speaker 3A and the FR speaker 3B have already been specified, the speakers 3A and 3B are on the front side. Therefore, the signal processing apparatus 1 can specify that FIG. 8A is in the actual arrangement state. That is, by assuming that the remaining speakers 3 are located behind the FL speaker 3A and the FR speaker 3B, the possibility of the speaker arrangement of FIG. 8B can be eliminated.
  • the signal processing device 1 automatically sets the channels (SL, SR) of all the remaining speakers from the relative positional relationship between the speakers 3 thus determined (FIG. 8A) and the estimated user orientation. That is, as shown in FIG. 9A, the speaker 3C is automatically set to the SR channel and the speaker 3D is automatically set to the SL channel.
  • the signal processing apparatus 1 has been set with the FL speaker 3A, the FR speaker 3B, the SR speaker 3C, and the SL speaker 3D.
  • the FL channel, the FR channel, the SL channel, and the SR channel are assigned to the four speakers 3 that are arbitrarily arranged according to the arrangement positions.
  • the localization control based on the mixing ratio of the audio signals of each channel and the delay time setting according to the difference between the virtual speaker setting 4 and the position of the actual speaker 3 actually make the speakers 3A, 3B, 3C, An acoustic space that can be heard from the positions of the virtual speakers 4A, 4B, 4C, and 4D even though sound is emitted from 3D can be created.
  • a surround sound environment can be realized even when an appropriate speaker arrangement is not necessarily made in the surround sound system (or even when an appropriate arrangement cannot be performed due to room circumstances). For this reason, when the channel setting of the speaker 3 is performed as described above at the time of initial setup, the virtual speaker setting may be performed subsequently.
  • FIG. 10 shows processing from the time when communication between the signal processing device 1 and each speaker 3 is established and initial setup is started.
  • step S100 the CPU 11 of the signal processing device 1 instructs all the speakers 3 that are slave units to turn on the touch sensor.
  • the CPU 31 of each of the speakers 3A, 3B, 3C, and 3D turns on the touch sensor 34 in step S201, and starts processing of the monitoring loop in steps S202 and S203.
  • step S ⁇ b> 202 the CPU 31 checks whether there is a user operation on the touch sensor 34.
  • step S203 the CPU 31 checks whether there is an instruction to turn off the touch sensor from the signal processing device 1.
  • the CPU 11 of the signal processing device 1 performs guidance control in step S102 after issuing an instruction to turn on the touch sensor 34.
  • the user is controlled so that a guide output such as “Please touch the left speaker toward the front” is executed.
  • a voice signal of the message voice may be transmitted to some or all of the speakers 3 to output the voice.
  • the CPU 11 may instruct the CPU 31 to output guidance sound based on the sound source data. Further, the CPU 11 may instruct the monitor device 9 to execute guide display.
  • the CPU 11 waits for notification from the slave unit (speaker 3).
  • the CPU 31 of the speaker 3 disposed on the left front side detects the operation of the touch sensor in step S202. In this case, the CPU 31 of the speaker 3 notifies the signal processing device 1 that is the parent device that the touch operation has been detected in step S204. In step S205, the CPU 13 turns off the touch sensor.
  • step S103 the CPU 11 of the signal processing device 1 detects that the operation of the touch sensor 34 is detected from a certain speaker 3.
  • the process proceeds from step S103 to S104, and instructs each speaker to turn off the touch sensor.
  • the CPU 31 of the speaker 3 that has not performed the touch operation recognizes an instruction to turn off the touch sensor in step S203, and proceeds to step S205 to turn off the touch sensor.
  • step S105 the CPU 11 of the signal processing device 1 sets the speaker 3 that has transmitted the touch operation detection effect as an FL channel speaker.
  • the speaker 3A is set to an FL channel speaker.
  • step S106 the CPU 11 instructs the speakers 3B, 3C, and 3D other than the speaker 3A set to the FL channel to turn on the touch sensor 34, for example.
  • the CPU 11 of the FL speaker 3A does not particularly handle the control because it is not addressed to itself, but the other speakers 3B, 3C, and 3D recognize the touch sensor ON instruction again in step S201, The monitoring loop process of S202 and S203 is started.
  • the CPU 11 of the signal processing device 1 issues a second guidance control in step S107 after giving an instruction to turn on the touch sensor 34 in step S106. That is, the user is controlled so that a guide output such as “Please touch the right speaker toward the front” is executed.
  • the CPU 11 waits for notification from the slave unit (speaker 3).
  • the CPU 31 of the speaker 3 arranged on the right front side detects the operation of the touch sensor in step S202.
  • the CPU 31 of the speaker 3 notifies the signal processing device 1 that is the parent device that the touch operation has been detected in step S204. Then, the CPU 31 turns off the touch sensor in step S205.
  • step S108 the CPU 11 of the signal processing device 1 detects that the operation of the touch sensor 34 is detected from a certain speaker 3.
  • the CPU 11 proceeds from step S108 to S109, and instructs each speaker to turn off the touch sensor.
  • the CPU 31 of the speaker 3 that has not performed the touch operation recognizes an instruction to turn off the touch sensor in step S203, and proceeds to step S205 to turn off the touch sensor.
  • step S110 the CPU 11 of the signal processing device 1 sets the speaker 3 that has transmitted the touch operation detection effect to the FR channel speaker. For example, in the example of FIG. 6B, the speaker 3B is set to the FR channel speaker.
  • the CPU 11 of the signal processing device 1 and the CPU 31 of each speaker 3 proceed to the processing of FIG.
  • the processing of the CPU 11 is shown on the left side
  • the processing of the CPU 31 of the storage side speaker 3 and the playback side speaker 3 is shown on the right side.
  • the test sound is sequentially output using one speaker 3 as a reproduction-side speaker and the other three speakers 3 store sound and time information as storage-side speakers. Become.
  • the CPU 11 of the signal processing device 1 repeats the processes of steps S150, S151, and S152 as the loop process LP1 N times corresponding to the number of speakers 3.
  • step S150 the CPU 11 instructs the plurality of speakers 3 other than the i-th speaker to start storage.
  • step S151 the CPU 11 controls the i-th speaker 3 to reproduce a test sound from a specified time, for example.
  • step S152 the CPU 11 performs a process of receiving stored file information from a plurality of speakers 3 other than the i-th speaker. The CPU 11 repeats the above processing while sequentially incrementing the variable i.
  • the CPU 31 of the i-th speaker 3 performs processing as a reproduction-side speaker. That is, in step S260, in response to the test sound reproduction instruction in step S151 on the signal processing apparatus 1, the test sound reproduction is executed from the designated time.
  • Each CPU 31 of the plurality of speakers 3 other than the i-th performs processing as a storage-side speaker. That is, in step S250, the CPU 31 receives a storage start instruction in step S150 on the signal processing device 1 side, and starts storing sound and time information input by the microphone 33. Moreover, CPU31 will transmit a memory
  • the playback time of the test sound output from the playback speaker is 0.5 seconds.
  • the speaker 3 on the storage side receives a storage start instruction from the signal processing device 1 and stores an audio signal for a predetermined period, for example, 1 second. Each frame constituting the audio signal at this time includes a time stamp as current time information. Then, for example, an audio signal storage file for 1 second is generated and transmitted to the signal processing apparatus 1 in step S251.
  • the test sound reproduction start time (or control timing) instructed by the CPU 11 to the reproduction-side speaker 3 and the storage start time (or control timing) instructed to the storage-side speaker 3 are appropriately set, so that the signal
  • the storage file transmitted to the processing apparatus 1 has a period in which there is no test sound at the beginning (period in which silence or ambient noise is included), a test sound exists in the middle, and a test sound disappears again at the end.
  • the CPU 11 of the signal processing apparatus 1 that has received such a storage file detects the time when the test sound reaches the speaker 3 from the time stamp of the frame by specifying the first frame in which the test sound is stored. it can.
  • the CPU 31 may analyze the storage start time of the test sound detected by the microphone 33 and transmit only the time information to the information processing apparatus 1.
  • the CPU 11 of the signal processing device 1 performs the loop processing LP1 four times, thereby realizing the operation described in FIGS. 7A and 7B. As a result, the CPU 11 can receive the storage file from the speaker 3 that becomes the storage side at each time point, and can detect the sound arrival time at each speaker 3.
  • step S153 the CPU 11 calculates the distance between the speakers. For example, when the speaker 3A is set as the playback side and the speakers 3B, 3C, and 3D are set as the storage side, the CPU 11 calculates the speaker 3A- from the test sound output start time of the speaker 3A and the storage file received from the speakers 3B, 3C, and 3D. The voice arrival time between 3B, 3A-3C, and 3A-3D can be calculated. Accordingly, the distances between the speakers 3A-3B, 3A-3C, and 3A-3D can be calculated. With such calculation, the distance between the speakers 3 is obtained.
  • step S154 the CPU 11 performs coordinate calculation.
  • the position of each speaker 3 is mapped in a state where the specified distance between the speakers is expressed on the coordinates. Furthermore, since the FL speaker and the FR speaker are specified, these are set to the front. Thereby, the speaker arrangement relationship as shown in FIG. 8A is expressed on the coordinates.
  • step S155 the CPU 11 performs channel assignment according to the positions of all the speakers 3. This completes automatic channel setting. Thereafter, virtual speaker setting may be performed as step S156.
  • the user can place the speaker 3 without worrying about the output channel setting of the speaker 3.
  • inappropriate channel assignment to the arrangement state of the speakers 3 can be eliminated.
  • Speaker layout change speaker arrangement change when virtual speaker setting is performed will be described. Normally, the surround speaker system assumes that the user always listens in the same direction once set. On the other hand, in the present embodiment, the virtual speaker 4 is used so that the user can arbitrarily change the listening direction with a simple action.
  • FIG. 12A shows a model assuming a room such as a living-dining kitchen.
  • actual speakers 3A, 3B, 3C, and 3D are arranged at each corner as shown in the figure.
  • the virtual speaker 4 is set in a listening position of the user 100 in FIG. 12A, that is, in a state suitable for facing the monitor device 9 as indicated by an arrow DRU.
  • the virtual speaker 4 is expressed as virtual speakers 4FL, 4FR, 4SL, 4SR to indicate each channel.
  • the user 100 is placed in an appropriate surround sound environment.
  • the user can arbitrarily change (rotate) the arrangement of the virtual speakers 4 in accordance with the orientation of the user. Therefore, in the present embodiment, the user can rotate the placement of the virtual speaker 4 by an operation using the remote controller 5.
  • the remote controllers 5A and 5B are provided with operating elements 50 (50A and 50B) for rotating operation.
  • the user performs a rotation operation with the operation element 50.
  • the user operates the operation element 50 by the amount of rotation suitable for his / her direction.
  • the speaker system of the present embodiment changes the arrangement position of the virtual speaker 4 by the designated rotation amount.
  • FIG. 13 shows how the arrangement of the virtual speakers 4 is rotated.
  • FIG. 13A shows an arrangement state suitable when facing the arrow DRU direction.
  • the signal processing device 1 rotates the placement of the virtual speaker 4 as shown in FIG. 13B ⁇ FIG. 13C ⁇ FIG. 13D.
  • FIG. 13D shows a state where the arrangement position is rotated 90 degrees clockwise as viewed from FIG. 13A.
  • FIG. 13E shows a state where the arrangement position has been rotated 90 degrees clockwise as viewed from FIG. 13D.
  • the signal processing apparatus 1 rotates the arrangement of the virtual speakers 4 as shown in FIG. 13F ⁇ FIG. 13G ⁇ FIG. 13H.
  • the signal processing device 1 rotates the arrangement of the virtual speakers 4 counterclockwise accordingly.
  • the position of the virtual speaker 4 is rotated by a predetermined angle changing step by the user's operation of the remote controller 5. Then, the listening direction can be switched to a state suitable for the direction indicated by the arrow DRU without moving the actual position of the speaker 3. At this time, the angle changing step amount can be set freely, and the listening direction that can be handled is not limited by the arrangement state of the speaker 3.
  • the surround speaker system arranged in the living-dining kitchen has different listening directions when sitting on the sofa or listening from the kitchen. The listening direction can be easily changed according to the use case.
  • FIG. 12C it is possible to shift the virtual speaker 4 forward and backward as well as rotating.
  • the user 100 in the kitchen may be able to change the state of FIG. 12B from the state of FIG. 12B to the arrangement state of FIG.
  • FIG. 14 shows a processing example of the CPU 11 of the signal processing device 1 for rotation in the arrangement state as shown in FIG. FIG. 14 is mainly processed by the virtual speaker setting unit 11c in the CPU 11.
  • step S170 the CPU 11 monitors the user's rotation operation by the remote controller 5, for example. When the rotation operation is detected, the CPU 11 proceeds from step S170 to step S171, and determines the rotation operation amount and the rotation direction of the operation within the unit time.
  • step S ⁇ b> 172 the CPU 11 calculates the amount of movement of the virtual speaker 4, that is, the angle for rotational movement in this case, from the amount of rotation operation. For example, the number of steps corresponding to the minimum step angle that provides the arrangement resolution is calculated.
  • the CPU 11 determines the position after the change of the virtual speaker 4 in step S173. For example, a position (coordinate value) rotated and moved in an angle and a direction according to the rotation operation on the coordinates is determined as a position of the new virtual speakers 4FL, 4FR, 4SL, and 4SR.
  • the CPU 11 controls the signal processing so that a sound field is formed by the positions of the new virtual speakers 4FL, 4FR, 4SL, and 4SR.
  • coefficients for changing the localization state and delay time setting based on the mixing ratio of the audio signals of the respective channels output to the speakers 3A, 3B, 3C, and 3D are changed, and the sound by the actual speakers 3A, 3B, 3C, and 3D is changed.
  • An acoustic space according to the position of new virtual speakers 4FL, 4FR, 4SL, 4SR is created at the output. With this process, the virtual speaker 4 is rotationally moved.
  • step S175 the CPU 11 confirms whether or not the rotation operation is continuously performed by the user, and when it is continuously performed (for example, when the operation element 50A as the rotary encoder is continuously rotated). ) Returns to step S171 and performs the same processing. If the rotation operation is not continued, the CPU 11 ends the process of FIG. 14 from step S175. When the rotation operation is detected again, the CPU 11 starts the process of FIG. 14 again.
  • the arrangement of the virtual speakers 4 is rotated according to the user's operation. Thereby, the user can change the arrangement of the virtual speakers 4 with a high degree of freedom in accordance with his / her listening direction.
  • the arrangement of the virtual speakers 4 can be moved in the front-rear direction and the left-right direction as shown in FIG. What is necessary is just to change the process of the channel audio
  • Speaker switching> In the speaker system of the embodiment, after completion of the initial setup described above, the user selects an arbitrary speaker 3 to switch between a mode that outputs sound only from the selected speaker 3 and a mode that outputs sound from all the speakers 3. To be able to.
  • FIG. 15A shows a state where all of the speakers 3A, 3B, 3C and 3D are used
  • FIG. 15B shows a state where only the speaker 3C designated by the user is used.
  • a wide range in the room is set as the reproduction area AS1, which is suitable for normal listening in a surround sound environment.
  • the reproduction area AS1 which is suitable for normal listening in a surround sound environment.
  • sound output suitable for listening in the reproduction area AS2 around the kitchen is performed as shown in FIG. 15B.
  • switching operations using a smart phone or group creation / disbanding operation using the main unit buttons can be performed only by switching between the playback state of a single speaker and the surround playback state of all speakers. Is troublesome. In addition, it is difficult to intuitively select the speaker 3 in front of one's own eyes when playing alone. Furthermore, it is troublesome to frequently switch between both modes. Thus, in this embodiment, it is possible to easily select a speaker to be used with an intuitive operation.
  • the speaker 3 includes a touch sensor 34. Therefore, the touch sensor 34 can be used to specify a speaker to be used, and to switch between using all speakers and using a single speaker. For example, the user can perform a necessary operation by performing a long press touch on the touch sensor 34.
  • FIG. 16 shows a processing example of the CPU 11 of the signal processing apparatus 1.
  • the CPU 11 performs the process by using a function as the use speaker setting unit 11e.
  • step S180 in FIG. 16 the CPU 11 instructs all the speakers 3 (slave devices) to turn on the touch sensor 34. In each speaker 3, the touch sensor 34 is turned on accordingly.
  • step S181 the CPU 11 confirms whether or not there is a long press notification from any of the speakers 3. If there is no long press notification, the CPU 11 proceeds to step S185 and confirms the end instruction. For example, it is an instruction to end the audio output by the speaker system. If the end instruction is not detected, the confirmation of the long press notification in step S181 is continued.
  • the user When the user wants to switch from a state in which the normal four speakers 3 are used to a state in which only one nearby speaker 3 is used, the user performs a long press operation on the touch sensor 34 of the nearby speaker 3. Do. For example, touch for at least a predetermined time of about 1 to 2 seconds. In this case, the CPU 31 of the speaker 3 sends a long press notification to the signal processing device 1.
  • the CPU 11 proceeds from step S181 to S182, and branches the process depending on whether the current playback area limitation control is on or off.
  • This reproduction area limitation control means that the reproduction area is limited to be narrow by using only some of the speakers 3 as shown in FIG. 15B.
  • the CPU 11 proceeds to step S183 and turns on the reproduction area limitation control.
  • mute control is performed on each speaker 3 other than the speaker 3 that has transmitted the long press notification.
  • channel signal processing change control is performed to switch to a state in which only the speaker 3 that has sent the long press notification is used.
  • the channel signal processing is changed so that a monaural audio signal is transmitted to the speaker 3 that has sent the long press notification.
  • the CPU 31 of the speaker 3 to which the mute control is transmitted (the speaker 3 other than the long-pressed speaker 3) performs mute control of its own sound output. As a result, the audio output is stopped.
  • the signal processing device 1 transmits a monaural audio signal to the speaker 3 that has sent the long press notification. Accordingly, a monaural audio signal is output from only the speaker 3.
  • the monaural audio signal is supplied here as an example.
  • L and R2 channel audio signals may be generated and supplied to the speakers 3. In any case, audio output is performed only from the speaker 3 that the user has touched for a long time.
  • the user may perform a long press operation again. If the CPU 31 detects the long press notification and determines in step S182 that the reproduction area limitation control is currently being performed, it turns off the reproduction area limitation control in step S184. For this purpose, mute release control is performed for all the speakers 3. Also, channel signal processing change control is performed to return to the surround sound environment. As a result, the CPU 31 of the speaker 3 to which the mute release control is transmitted releases the mute control of its own sound output. As a result, all the speakers 3 are returned to the state of outputting sound. Then, the signal processing device 1 transmits the audio signal of the assigned channel to each speaker 3. Therefore, the original surround sound environment is restored.
  • step S185 the CPU 31 instructs the speakers 3 to turn off the touch sensor 34 in step S186 and ends the process. In each speaker 3, the touch sensor 34 is turned off accordingly.
  • FIG. 17 shows the above processing in time series.
  • FIG. 17 shows user operations and operations of the signal processing device 1 (CPU 11) and the speakers 3A, 3B, 3C, and 3D.
  • the CPU 31 of the speaker 3A detects this (S300) and notifies the signal processing device 1 of a long press (S301).
  • the CPU 11 of the signal processing apparatus 1 detects the long press notification in the process of step S181 and performs the process of step S183. That is, a mute instruction is transmitted to the speakers 3B, 3C, 3D.
  • the CPUs 31 of the speakers 3B, 3C, and 3D perform mute for their own audio output in response to the mute instruction (S350). Only the speaker 3 ⁇ / b> A performs audio output by an audio signal from the signal processing device 1. As a result, the reproduction area limitation control using the speaker 3A is turned on.
  • the operation for canceling the reproduction area limitation control is not limited to the long press touch on the speaker 3 being used, but may be a long press touch on another speaker 3.
  • the user may touch and hold the nearby speaker 3 for a long time. In that case, the processing of the CPU 31 proceeds to step S184, so that all the speakers 3 are also unmuted.
  • a processing example in which the operation when the reproduction area limitation control is turned off is limited to the touch operation of the speaker 3 in use can be considered.
  • a mode in which the user performs a long press touch on the touch sensor 34 provided on the top surface of the speaker 3 and the like, and a mode in which only the touched speaker 3 reproduces and a mode in which all the speakers are reproduced. Can be toggled. Therefore, when the user feels that playback is desired only from the speaker 3 in front of the user, the user switches to a state in which sound is output only from the selected speaker by an intuitive operation of simply touching the speaker 3 in front of the user. be able to. On the other hand, when the reproduction is performed only from the single speaker 3, the mode can be easily switched to the reproduction mode from all the speakers 3 by touching the touch sensor 34 of any speaker 3.
  • FIG. 18 shows another processing example of the CPU 11. Note that the same processes as those in FIG. 16 are denoted by the same step numbers and description thereof is omitted. Steps S180 to S186 are the same as those in FIG.
  • the CPU 11 monitors the short press notification in step S190 together with the long press notification in step S181.
  • a short press refers to a touch operation for a short time, for example, within 100 ms. If there is a short press notification from a certain speaker 3, the CPU 11 proceeds from step S190 to S191, and branches the process depending on whether the current playback area limitation control is on or off. If the reproduction area limitation control is off, nothing is done and the process returns to S181 via step S185.
  • step S191 the CPU 11 proceeds to step S192, and confirms whether or not the speaker 3 that has transmitted the short press notification is a mute-controlled speaker. If the notification is a short press from the speaker 3 during the mute control, the CPU 11 proceeds to step S193 and transmits an instruction to cancel the mute to the speaker 3. In response to this, the CPU 31 of the speaker 3 that has transmitted the short press notification cancels mute and resumes audio output.
  • the CPU 11 of the signal processing device 1 also changes the channel signal processing so that sound output is performed by some speakers that are currently unmuted. As a result, the speaker 3 that the user presses briefly during the playback area limited control is added to the audio playback.
  • the CPU 11 proceeds to step S194 and mutes the speaker 3 Send instructions.
  • the CPU 31 of the speaker 3 that has transmitted a short press notification resumes mute and stops audio output.
  • the CPU 11 of the signal processing device 1 also changes the channel signal processing so as to be adapted to a state in which sound output is performed except for the speaker 3 instructed to mute. As a result, the speaker 3 that has been reproducing during the reproduction area limited control is also excluded from the audio reproduction when the user presses the speaker 3 for a short time.
  • FIG. 19 shows the above processing in time series.
  • FIG. 19 shows user operations and operations of the signal processing device 1 (CPU 11), speakers 3A, 3B, 3C, and 3D, as in FIG.
  • the CPU 31 of the speaker 3A detects this (S300) and notifies the signal processing device 1 of a long press (S301).
  • the CPU 11 of the signal processing device 1 detects the long press notification (S181), and transmits a mute instruction to the speakers 3B, 3C, and 3D as the process of step S183.
  • the CPUs 31 of the speakers 3B, 3C, and 3D perform mute for their own audio output in response to the mute instruction (S350). That is, the reproduction area limited control using the speaker 3A is turned on.
  • the speaker 3C when the speaker 3C is touched for a short time after this, the mute of the speaker 3C is also released, and reproduction by the speakers 3A, 3B, and 3C is performed.
  • the CPU 31 of the speaker 3A notifies the signal processing device 1 of a long press (S310).
  • the CPU 11 of the signal processing device 1 detects this long press notification in the process of step S181, and transmits a mute release instruction to all the speakers 3A, 3B, 3C, and 3D this time in step S184.
  • the audio signal of each channel is transmitted to each speaker 3.
  • the reproduction by the surround sound system using the speakers 3A, 3B, 3C, and 3D is resumed, and the reproduction area limitation control is turned off.
  • the reproduction area limited control shown in FIGS. 18 and 19 can use not only the single speaker 3 but also any number of speakers designated by the user by a short press touch. .
  • the user can intuitively select a state in which some of the speakers 3 are used with a more free selection.
  • the signal processing apparatus 1 receives the notification that the user has designated operation from two of the N speakers 3 that are three or more by the function of the relative position recognition unit 11a.
  • a process of recognizing the arrangement reference speakers (FL speaker and FR speaker) (S102 to S110 in FIG. 10), a process of acquiring distance information between each speaker 3 (S150 to S153 in FIG. 11), and two A process of recognizing the relative positional relationship of the N speakers using the arrangement reference speaker and the distance information between the speakers is performed (S154). Further, the signal processing device 1 performs channel setting (S155) for automatically setting the channel of each speaker 3 based on the recognized relative positional relationship by the function of the channel setting unit 11b.
  • the signal processing device 1 can determine the front direction of the user (listener), for example, by recognizing the FL speaker and the FR speaker as the arrangement reference speakers. Further, by obtaining distance information between the speakers 3, the relative positional relationship of the N speakers 5 can be obtained. Furthermore, since the arrangement reference speaker is specified, the actual speaker arrangement can be specified. Therefore, channel assignment can be automatically performed according to the speaker arrangement. For the user, it is only necessary to perform a designation operation by touching the front left speaker 3 and the front right speaker 3 in order in accordance with the guidance. With only this operation, each speaker 3 arbitrarily arranged by the user is automatically assigned to an appropriate channel. As a result, an appropriate channel setting is realized without bothering the user.
  • an appropriate channel setting is performed by an intuitive operation by simply touching the two speakers 3.
  • the environment which can perform optimal sound reproduction without a user's burden can be formed.
  • the procedure is simple. This technology can be applied to a speaker system in which three or more speakers 3 are connected. For example, even when the number of speakers to be connected is increased to 10 or 20, the output of all speakers 3 can be easily performed with the same operability. The channel can be set correctly.
  • the signal processing device 1 includes channel signal processing units (11d, 12) that perform signal processing on input audio signals and generate N-channel audio signals to be supplied to the N speakers 3.
  • the channel signal processing units (11d, 12) generate N-channel audio signals that are transmission signals for the respective speakers 3 based on the channels set by the channel setting unit 11b. Thereby, channel signal processing based on automatic channel assignment based on automatic recognition of speaker positional relationship is performed, and appropriate surround sound output is realized.
  • each of the N speakers 3 is formed with an operation detection unit (touch sensor 34) that detects a designation operation by the user. Then, the relative position recognition unit 11a of the signal processing device 1 instructs each speaker 3 to activate the operation detection unit (S100), and the speaker 3 that has notified the detection of the operation detection unit during the activation period.
  • the operation detection unit S100
  • the speaker 3 that has notified the detection of the operation detection unit during the activation period.
  • the touch sensor 34 of the speaker 3 functions when the CPU 11 wants to specify the FL speaker and the FR speaker as the arrangement reference speaker.
  • the CPU 11 can correctly recognize the operation notification of the touch sensor 34 when initial setup or the like is necessary as the designation operation of the FL speaker and the FR speaker.
  • the speaker 3 does not perform unnecessary power supply or operation detection processing to the operation detection unit. For this reason, temporarily enabling is useful for power saving and reduction of processing load.
  • Other aspects of the designation operation by the user are also conceivable.
  • a gesture recognition sensor mounted on each speaker 3 may be used, and the user may designate the speaker 3 by a gesture operation.
  • each speaker 3 may be provided with an operation detection unit using some kind of sensing device such as a button, a microphone, or an optical sensor.
  • the speaker 3 that produces the test sound is switched one after another by operating the remote controller 5, and the speaker 3 is designated by pressing the enter button when the test sound is produced from the desired speaker 3.
  • An operation such as doing is also conceivable.
  • the signal processing apparatus 1 recognizes the two arrangement reference speakers that have received the notification that the user has designated the operation as the front left speaker (FL speaker) and the front right speaker (FR speaker). did. By confirming the front left speaker and the front right speaker, it is possible to determine the orientation of the user during listening. As a result, in the state where the relative positional relationship of all the speakers is grasped, as an assumed speaker arrangement, it is determined which of the two arrangement states having a mirror surface relationship is an actual arrangement state, and the front left and right speakers 3 are used as a reference. In addition, the channel of each speaker can be set appropriately.
  • the placement reference speaker is not necessarily the FL speaker or the FR speaker. For example, the user may touch the surround speaker. However, since the FL speaker and the FR speaker are at least present and the position is easy for the user to understand, it is suitable for instructing the user to perform a touch operation and there are few mistakes in the touch operation. It is desirable that the speaker be a placement reference speaker.
  • the two placement reference speakers are distinguished from the front left speaker and the front right speaker according to the order in which the user performs the designation operation.
  • the front left speaker and the front right speaker can be clearly distinguished according to the operation order of the user's touch sensor 34. Thereby, even if each speaker 3 has the same configuration and the same touch sensor detection signal is transmitted, it is possible to accurately specify the FL speaker and the FR speaker.
  • the test sound output is sequentially executed for each speaker (LP1: S150 to S152 in FIG. 11). Thereby, the arrival time of sound from one speaker to each speaker can be measured, and thereby the distance between the speakers can be calculated.
  • all the speakers 3 are time-synchronized, and each speaker 3 includes a microphone 33 and is configured to transmit test sound detection time information from other speakers 3.
  • the signal processing device 1 calculates the distance between the one speaker and the other speaker from the output start time information of the test sound from the one speaker 3 and the detection time information from the other speaker (S153). Thereby, the distance between speakers can be calculated accurately.
  • the signal processing apparatus 1 includes a virtual speaker setting unit 11c that sets the arrangement of the virtual speakers 4 based on the relative positional relationship recognized by the relative position recognition unit 11a and the channel setting by the channel setting unit 11b. .
  • a virtual speaker setting unit 11c that sets the arrangement of the virtual speakers 4 based on the relative positional relationship recognized by the relative position recognition unit 11a and the channel setting by the channel setting unit 11b.
  • the virtual speaker 4 it is possible to form an acoustic space that simulates the output from the virtual speaker, which is different from the actual speaker arrangement.
  • the real speaker 3 can be installed in various positions. At this time, depending on the installation position of the speaker 3, there is a case where it is unclear which channel should be used, and channel setting may be very difficult.
  • the channel setting of the present embodiment even when the virtual speaker 4 is used, for example, it is only necessary to select two speakers 3 placed on both sides of the monitor device 9, so that the channel setting is not lost depending on the speaker installation position. .
  • the channel signal processing units (11d, 12) use N-channel audio signals for realizing the virtual speaker placement as transmission signals for the respective speakers 3. It is trying to generate. That is, processing for realizing the position and localization state of the sound output of each virtual speaker is performed on the audio signal of each channel transmitted to the actual speaker 3 in accordance with the setting of the virtual speaker.
  • positioning is formed with the audio
  • the virtual speaker setting unit 11c displaces the placement position of the virtual speaker 4 in the rotation direction in accordance with the operation signal (see FIG. 14).
  • the virtual speaker arrangement position is displaced in the left rotation direction or the right rotation direction in accordance with the rotation operation in the left-right rotation direction by the user.
  • an acoustic space in which virtual speakers are arranged in a direction desired by the user.
  • an optimal surround sound space can be provided according to the user's posture and orientation, the indoor location, and the like.
  • the viewing direction can be easily changed according to the user's usage scene without moving the position of the actual speaker 3 installed.
  • the user operation is not limited to the rotation operation. Button operations and direction operations are also assumed.
  • the signal processing device 1 switches the sound output using the N speakers and the sound output using some of the N speakers according to a user operation, and uses the speaker setting unit 11e.
  • An example including the above has been described (see FIGS. 16 to 19).
  • an optimal sound output can be provided by a simple operation according to the user's whereabouts, time zone, family situation, and the like.
  • the program according to the embodiment functions as the above-described relative position recognition unit 11a, channel setting unit 11b, virtual speaker setting unit 11c, channel signal processing unit 11d, and used speaker setting unit 11e, for example, CPU, DSP (Digital Signal Processor). ) Or the like, or a program that causes the information processing apparatus to execute as a device including these.
  • the program according to the embodiment includes a process of receiving notification that the user has designated operation from two of the N or more N speakers and recognizing the two placement reference speakers, Based on the processing for obtaining the distance information between the speakers, the processing for recognizing the relative positional relationship of the N speakers using the distance information between the two placement reference speakers and the speakers, and the recognized relative positional relationship,
  • This is a program for causing an information processing apparatus to execute processing for automatically setting the channel of each speaker.
  • the signal processing device 1 of the present disclosure can be realized.
  • Such a program can be recorded in advance in a hard disk drive (HDD) as a recording medium built in a device such as a computer device, a ROM in a microcomputer having a CPU, or the like.
  • a hard disk drive HDD
  • a flexible disk CD-ROM (Compact Disc Read Only Memory), MO (Magnet optical) disk, DVD (Digital Versatile Disc), Blu-ray Disc (Blu-ray Disc (registered trademark)), magnetic disk, semiconductor memory, It can be stored (recorded) temporarily or permanently in a removable recording medium such as a memory card.
  • a removable recording medium can be provided as so-called package software.
  • such a program can be downloaded from a removable recording medium to a personal computer or the like, or downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.
  • LAN Local Area Network
  • Such a program is suitable for providing a wide range of the signal processing apparatus 1 according to the embodiment. For example, by downloading a program to various audio devices, personal computers, portable information processing devices, mobile phones, game devices, video devices, PDAs (Personal Digital Assistants) equipped with arithmetic processing devices, It can be set as the signal processing apparatus 1 of an indication.
  • a program for example, by downloading a program to various audio devices, personal computers, portable information processing devices, mobile phones, game devices, video devices, PDAs (Personal Digital Assistants) equipped with arithmetic processing devices, It can be set as the signal processing apparatus 1 of an indication.
  • this technique can also take the following structures. (1) Receiving notification that the user has specified operation from two of the N or more N speakers, and processing for recognizing the two placement reference speakers, and obtaining distance information between the speakers A relative position recognizing unit for recognizing the relative positional relationship of the N speakers using the distance information between the two placement reference speakers and each speaker; A signal processing apparatus comprising: a channel setting unit that automatically sets a channel of each speaker based on the relative positional relationship recognized by the relative position recognition unit.
  • a channel signal processing unit that performs signal processing on the input audio signal and generates an N-channel audio signal to be supplied to each of the N speakers;
  • the signal processing apparatus according to (1), wherein the channel signal processing unit generates an N-channel audio signal serving as a transmission signal for each speaker based on the channel set by the channel setting unit.
  • Each of the N speakers has an operation detection unit that detects a user-designated operation, The relative position recognizing unit instructs each speaker to activate the operation detection unit, and recognizes a speaker that has notified the detection by the operation detection unit during the activation period as an arrangement reference speaker.
  • the signal processing device according to (1) or (2).
  • the relative position recognition unit The signal processing device according to any one of (1) to (6), wherein a test sound output is sequentially executed for each speaker in order to acquire distance information between the speakers.
  • All speakers are time synchronized, Each speaker is equipped with a voice detection unit and is configured to transmit test time detection time information from other speakers, The relative position recognizing unit calculates a distance between the one speaker and the other speaker from the output start time information of the test sound from the one speaker and the detection time information from the other speaker. ).
  • a channel signal processing unit that performs signal processing on the input audio signal and generates an N-channel audio signal to be supplied to each of the N speakers;
  • the channel signal processing unit generates an N-channel audio signal for realizing the virtual speaker arrangement as a transmission signal for each speaker when the virtual speaker setting unit is set by the virtual speaker setting unit (9) ).
  • the signal processing device according to any one of 11).
  • a relative position recognition unit for recognizing the relative positional relationship of the N speakers using distance information between the two placement reference speakers and each speaker;
  • a speaker system comprising: a channel setting unit that automatically sets a channel of each speaker based on the relative positional relationship recognized by the relative position recognition unit.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Stereophonic System (AREA)

Abstract

スピーカのチャネル設定を容易かつ正確に実行できるようにする。このため3台以上であるN台のスピーカと、各スピーカと通信可能な信号処理装置とを有するスピーカシステムである。信号処理装置は、N台のスピーカのうちの2台から、ユーザによる指定操作があったことの通知を受信して2台の配置基準スピーカを認識する処理と、各スピーカ間の距離情報を取得する処理とを行い、2台の配置基準スピーカ及び各スピーカ間の距離情報を用いてN台のスピーカの相対位置関係を認識する。そして認識した相対位置関係に基づいて、各スピーカのチャネルを自動設定する。

Description

信号処理装置、チャネル設定方法、プログラム、スピーカシステム
 本技術は信号処理装置、チャネル設定方法、プログラム、スピーカシステムに関し、特に各スピーカのチャネル設定の技術に関する。
 複数のスピーカを接続するサラウンド音響システムを使用する場合、ユーザは各スピーカのチャネル(出力チャネル)を正しく設定する必要がある。しかしながら普段からこういったシステムに慣れ親しんでいないユーザにとっては設定方法が分かりにくく、誤ったチャネル設定をしてしまうケースが多い。
 例えばスピーカを親機とワイヤレス接続する製品では、あらかじめ各スピーカのチャネルが決められており、決められたチャネルが各スピーカに印字してある場合がある。印字の例としては、例えば、左前のスピーカに「FL」、右前のスピーカに「FR」、左後ろのスピーカに「SUR L」、右後ろのスピーカに「SUR R」等とされる。ユーザはこの印字と、取扱説明書などに示されたスピーカの理想配置図を見比べながら、各スピーカをあらかじめ正しい位置へ配置する必要がある。
 しかし普段からこういったシステムに慣れ親しんでいないユーザが設置する場合、そもそもスピーカの印字や理想配置図の存在に気付かずに自由にスピーカを配置してしまうと、誤ったチャネル設定となる。更に、印字や理想配置図に気づいたユーザであっても、「自分にとっての右・左を基準にスピーカ配置するべきなのか、音響システムにとっての右・左を基準に置くべきなのか」という基本的な概念が分からないために、スピーカを誤った位置に配置してしまい、結果としてチャネル設定が正しく行われないケースも多い。
 また、主にスピーカを親機と有線接続する製品でとられる手法として、親機の出力端子にチャネルが印字されており、スピーカと接続する音声ケーブルを親機の正しいチャネル出力端子に接続することで、スピーカチャネル設定を行う。この場合、出力チャネルの印字に気づかないケースは少なくなるが、多くの配線を正しいスピーカと接続する作業は煩雑であり、チャネル設定を間違えてしまうことがある。また、こういったシステムでのスピーカ配置の右・左の概念に慣れないユーザにおいては、上述と同様の理由でチャネル設定を正しく行えないケースもある。
 スピーカのチャネル設定に関しては、下記特許文献1も知られている。
特開2002-345100号公報
 特許文献1には、一旦親機とスピーカを接続した後で、初期セットアップにおいて各スピーカからテストトーンを再生し、テストトーン再生したスピーカの出力チャネルをひとつずつ設定していく方式が記載されている。
 ところがこの場合、接続した全スピーカに対して手動でチャネル設定を行う必要がある。また、こういったシステムでのスピーカ配置の右・左の概念に慣れないユーザにおいては、上述と同様の理由でチャネル設定を正しく行えないケースもある。
 そこで本技術では、サラウンドシステムのような複数のスピーカの配置を行う場合に、容易に、またシステムに慣れていないユーザによっても正確に、スピーカチャネル設定ができるようにすることを目的とする。
 本技術に係る信号処理装置は、3台以上であるN台のスピーカのうちの2台から、ユーザによる指定操作があったことの通知を受信して2台の配置基準スピーカを認識する処理と、各スピーカ間の距離情報を取得する処理とを行い、2台の配置基準スピーカ及び各スピーカ間の距離情報を用いてN台のスピーカの相対位置関係を認識する相対位置認識部と、
 前記相対位置認識部が認識した相対位置関係に基づいて、各スピーカのチャネルを自動設定するチャネル設定部とを備える。
 このような本技術では3チャネル以上の多チャネルスピーカシステムを想定する。例えば5チャネル、7チャネル等のサラウンド音響システムなどである。N台のスピーカのうち、2台についてはユーザの指定操作の通知によって検知する。またN台の各スピーカ間の距離情報を把握して、各スピーカの相対位置関係を認識する。
 上記した本技術に係る信号処理装置においては、入力された音声信号について信号処理を行い、前記N台の各スピーカに供給するNチャネルの音声信号を生成するチャネル信号処理部を備え、前記チャネル信号処理部は、前記チャネル設定部が設定したチャネルに基づいて、各スピーカのそれぞれに対する送信信号となるNチャネルの音声信号を生成することが考えられる。
 チャネル信号処理部により、例えば5チャネル、7チャネル等のサラウンド音響システムの各チャネルの音声信号を生成する。生成された各チャネルの音声信号は、チャネル設定部による各スピーカのチャネルアサインに従って、各スピーカに振り分けられて送信される。
 上記した本技術に係る信号処理装置においては、前記N台の各スピーカにはユーザによる指定操作を検知する操作検知部が形成されており、前記相対位置認識部は、各スピーカに対して前記操作検知部を有効化する指示を行うとともに、有効化期間中に操作検知部による検知を通知してきたスピーカを、配置基準スピーカと認識することが考えられる。
 各スピーカには、タッチセンサ、ボタン、マイクロホン、光センサなど、何らかのセンシングデバイスによる操作検知部を設ける。信号処理装置の相対位置認識部は、有効化制御により、各スピーカの操作検知部を有効化するように制御する。その有効化期間に操作検知がなされた場合に、ユーザによる指定操作があったと認識する。
 上記した本技術に係る信号処理装置においては、前記相対位置認識部は、ユーザによる指定操作があったことの通知を受信した2台の配置基準スピーカを前方左スピーカ及び前方右スピーカと認識することが考えられる。
 配置基準スピーカとしてユーザが聴取時に向く前方に配置される前方左スピーカ、前方右スピーカを判定する。
 上記した本技術に係る信号処理装置においては、前記相対位置認識部は、2台の配置基準スピーカは、ユーザによる指定操作があった順序により、前方左スピーカと前方右スピーカを区別することが考えられる。
 どちらもユーザ操作を検知しての認識となるが、ユーザが順番に操作するように促す。そしてその順序により前方左スピーカと前方右スピーカを判定する。
 上記した本技術に係る信号処理装置においては、前記相対位置認識部は、ユーザによる一回目の指定操作があった場合、当該指定操作の通知を送信してきたスピーカ以外の各スピーカに対して前記操作検知部を有効化する指示を行い、二回目の指定操作を待機することが考えられる。
 一回目の指定操作を検知してきた時点で、そのスピーカからは指定操作の通知を行わないように制御する。
 上記した本技術に係る信号処理装置においては、前記相対位置認識部は、各スピーカ間の距離情報の取得のために、各スピーカに対して順次テスト音出力を実行させることが考えられる。
 1つのスピーカからテスト音を出力させ、他のスピーカではマイクロホンで集音させる。このようなテスト音出力を順次全てのスピーカに実行させる。
 上記した本技術に係る信号処理装置においては、全スピーカは時刻同期がとられており、各スピーカは音声検知部を備えて他のスピーカからのテスト音の検出時刻情報を送信可能に構成されており、前記相対位置認識部は、一のスピーカからのテスト音の出力開始時刻情報と、他のスピーカからの検出時刻情報により、前記一のスピーカと前記他のスピーカの間の距離を算出することが考えられる。
 全てのスピーカは時刻同期がとられていることで、例えば他のスピーカは、テスト音を時刻情報とともに記録したファイルを生成し、相対位置認識部に送信する。
 上記した本技術に係る信号処理装置においては、前記相対位置認識部が認識した相対位置関係及び前記チャネル設定部によるチャネル設定に基づいて、仮想スピーカ配置を設定する仮想スピーカ設定部を備えることが考えられる。
 仮想スピーカは、実際のスピーカ配置とは異なる位置に仮想的に配置されたスピーカである。
 上記した本技術に係る信号処理装置においては、入力された音声信号について信号処理を行い、前記N台の各スピーカに供給するNチャネルの音声信号を生成するチャネル信号処理部を備え、前記チャネル信号処理部は、前記仮想スピーカ設定部により仮想スピーカ配置の設定が行われた場合、各スピーカのそれぞれに対する送信信号として、仮想スピーカ配置を実現するNチャネルの音声信号を生成することが考えられる。
 即ちチャネル信号処理部は、実際のスピーカへ送信する各チャネルの音声信号に対して、仮想スピーカの設定に応じて各仮想スピーカの音響出力の位置や定位状態を実現する処理を施す。
 上記した本技術に係る信号処理装置においては、前記仮想スピーカ設定部は、操作信号に応じて、仮想スピーカの配置位置を回転方向に変位させることが考えられる。
 例えばユーザの左右回転方向の回転操作に応じて仮想スピーカ配置位置が左回転方向又は右回転方向に変位されるようにする。
 上記した本技術に係る信号処理装置においては、ユーザ操作に応じて、前記N台のスピーカを用いた音響出力と、前記N台のうちの一部のスピーカを用いた音響出力を切り換え制御する使用スピーカ設定部を備えることが考えられる。
 例えば全てのスピーカを使用している状態で、ユーザが1台のスピーカを指定したら、その1台のスピーカのみから音響出力が行われるようにする。
 本技術に係るチャネル設定方法は、信号処理装置が、3台以上であるN台のスピーカのうちの2台から、ユーザによる指定操作があったことの通知を受信して2台の配置基準スピーカを認識し、各スピーカ間の距離情報を取得し、2台の配置基準スピーカ及び各スピーカ間の距離情報を用いてN台のスピーカの相対位置関係を認識し、認識した相対位置関係に基づいて、各スピーカのチャネルを自動設定する。
 信号処理装置において情報処理装置を備え、以上の手順の処理を実行するようにする。
 本技術に係るプログラムは、このような処理を情報処理装置に実行させるプログラムである。これにより本技術のチャネル設定方法を、情報処理装置を備えた信号処理装置において実現する。
 本技術に係るスピーカシステムは、上記の信号処理装置とN台のスピーカを有する。これにより、スピーカ配置やチャネル設定が容易かつ正確なスピーカシステムを実現する。
 本技術によれば、容易かつ正確にスピーカのチャネル設定が可能となる。特にスピーカシステムに慣れないユーザであっても容易に正しいチャネル設定ができ、適切な音響出力を得ることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の実施の形態のスピーカシステムの配置例の説明図である。 実施の形態のスピーカシステムの機器構成の説明図である。 実施の形態のスピーカシステムで用いられるリモートコントローラの説明図である。 実施の形態の信号処理装置及びスピーカの内部構成のブロック図である。 実施の形態の信号処理装置の機能構成の説明図である。 実施の形態のチャネル設定手順の説明図である。 実施の形態のチャネル設定手順の説明図である。 実施の形態のチャネル設定手順の説明図である。 実施の形態のチャネル設定手順及び仮想スピーカ設定の説明図である。 実施の形態のチャネル設定処理のフローチャートである。 実施の形態のチャネル設定処理のフローチャートである。 実施の形態のスピーカ配置方向変更の説明図である。 実施の形態のスピーカ配置方向変更の説明図である。 実施の形態の配置変更処理のフローチャートである。 実施の形態の使用スピーカ選択の説明図である。 実施の形態の使用スピーカ選択処理のフローチャートである。 実施の形態の使用スピーカ選択の動作の説明図である。 実施の形態の使用スピーカ選択処理のフローチャートである。 実施の形態の使用スピーカ選択の動作の説明図である。
 以下、実施の形態を次の順序で説明する。
<1.スピーカシステム構成>
<2.チャネル設定>
<3.スピーカ配置変更>
<4.使用スピーカ切替>
<5.まとめ及び変形例>
<1.スピーカシステム構成>
 実施の形態では、3台以上のスピーカを接続可能なサラウンド音響システムを想定し、スピーカのチャネルを簡便に設定できるようにする。
 以下では、図1のように、4台のスピーカ3(3A、3B、3C、3D)を用いるサラウンド音響システムを例にして説明していく。
 なお、4台のスピーカを総称する場合や特に区別しない場合は「スピーカ3」と表記する。またスピーカ個体を指す場合は、「スピーカ3A」~「スピーカ3D」と表記する。
 スピーカ3のチャネルとしては、4チャネルを想定し、それぞれフロントLチャネル、フロントRチャネル、サラウンドLチャネル、サラウンドRチャネルとする。それぞれ「FLチャネル」「FRチャネル」「SLチャネル」「SRチャネル」と呼ぶ。
 もちろん4チャネルとするのは説明上の一例で、5チャネル、5.1チャネル、7チャネル、7.1チャネルなどの場合も考えられる。
 各スピーカの設定されたチャネルを区別するためには、左前のフロントLチャネルのスピーカを「FLスピーカ」、右前のフロントRチャネルのスピーカを「FRスピーカ」、左後のサラウンドLチャネルのスピーカを「SLスピーカ」、右後のサラウンドRチャネルのスピーカを「SRスピーカ」と表記する。
 例えばスピーカ3Aが、フロントLチャネルに設定された場合は「FLスピーカ3A」というように表記する場合もある。
 図1は、例えばリビングルームでのサラウンド音響システムの配置例を示している。
 実施の形態のサラウンド音響システムは、信号処理装置1とスピーカ3A、3B、3C、3Dを有するスピーカシステムとして構成される。また当該スピーカシステムはリモートコントローラ5を備える場合もある。
 そして当該スピーカシステムは、例えばテレビジョン受像器等としてのモニタ装置9で表示する映像コンテンツの音響再生に用いられたり、或いはモニタ装置9で映像表示を行わない場合でも、音楽や環境音等のオーディオ再生に用いられる。
 ユーザの正面側となる位置、例えばソファー8の正面にモニタ装置9が配置される。そしてこの例ではモニタ装置9の近傍に信号処理装置1が配置されている。
 モニタ装置9の左側にFLスピーカ3A、右側にFRスピーカ3Bが配置されている。
 またソファー8の後方左側にSLスピーカ3C、後方右側にSRスピーカ3Dが配置されている。
 以上の配置は、モニタ装置9と4チャネルスピーカシステムの典型的な配置例である。もちろんユーザの好み、家具の配置、部屋の広さ、部屋の形状などにより、実際の配置は千差万別であるが、基本的には、スピーカ3A、3B、3C、3Dが、FLチャネル、FRチャネル、SLチャネル、SRチャネルとして適した位置に配置されることが望ましい。
 図2に実施の形態のスピーカシステムの構成例を示す。
 スピーカシステムは、親機としての信号処理装置1と、子機としてのスピーカ3A、3B、3C、3Dが通信可能とされている。
 なお、信号処理装置1と各スピーカ3の間は、例えばワイファイ(Wi-Fi:登録商標)やブルートゥース(Bluetooth:登録商標)等の通信方式による無線通信が行われるものでも良いし、有線接続されて、例えばLAN(Local Area Network)通信、USB(Universal Serial Bus)通信等が行われるものでも良い。もちろんオーディオ線や制御線を含む専用線で接続されても良い。
 信号処理装置1とスピーカ3の間は、これらの無線又は有線通信により、音声信号(デジタル音声信号又はアナログ音声信号)や、制御データ、通知データ等の伝送が行われる。また、各スピーカ3A、3B、3C、3Dは例えば信号処理装置1を介して時刻同期がとられる。
 各スピーカ3A、3B、3C、3D同士は、互いに通信可能としてもよいし、特に通信を行わない構成も考えられる。
 スピーカ3A、3B、3C、3Dは、信号処理装置1によってチャネル設定(チャネルアサイン)される。
 スピーカ3A、3B、3C、3Dは、例えば識別子としての個々のスピーカIDを有するが、基本的には同一の構成を備え、或るチャネルに対しての専用装置とされているわけではない。例えばスピーカ3Aは、FLスピーカ、FRスピーカ、SLスピーカ、SRスピーカのいずれとしてでも使用することができる。他のスピーカ3B、3C、3Dも同様である。
 従ってユーザは、各スピーカ3A、3B、3C、3Dの区別を意識せずに、例えば図1のように、自分の周囲となる位置に配置すればよい。
 各スピーカ3は、後述するように信号処理装置1によってチャネルアサインされることにより、それぞれ信号処理装置1からみてチャネルが確定される。
 信号処理装置1は、音源装置2からの音声信号を入力し、必要な信号処理を行い、各チャネルに振り分けた音声信号を、それぞれ割り当てたスピーカ3に送信する。各スピーカ3は、それぞれ信号処理装置1から該当のチャネルの音声信号を受信し、音声出力を行う。これにより4チャネルサラウンド音響出力が行われる。
 図2に示す音源装置2は、例えばモニタ装置9であったり、図示しない再生装置(オーディオプレーヤ)等であったりする。
 音源装置2は、L、Rステレオチャネルの音声信号(デジタル音声信号又はアナログ音声信号)や、多チャネルサラウンド対応の音声信号を信号処理装置1に供給する。
 信号処理装置1は、設置されたスピーカ3に対応したチャネルの音声信号の振り分けや生成を行って、この例の場合は、FLチャネル、FRチャネル、SLチャネル、SRチャネルの音声信号を生成し、各スピーカ3A、3B、3C、3Dに送信することになる。
 各スピーカ3はスピーカユニット32を備え、送信されてきた音声信号によりスピーカユニット32が駆動されて音声出力を行う。
 なお各スピーカ3は、後述するチャネル設定に用いることができるマイクロホン33を備えている。
 図3はリモートコントローラ5の例として、リモートコントローラ5A、5Bを示している。リモートコントローラ5A、5Bは、例えば赤外線や電波により、信号処理装置1にユーザの操作情報を送信する。
 本実施の形態の場合、リモートコントローラ5A、5Bは回転操作のための操作子50(50A、50B)を備えている。操作子50Aは例えばロータリーエンコーダとされ、回転操作量の情報を送信できる操作子とされる。操作子50Bはボタンとされ、例えば1回の押圧操作で所定角度の回転を指示できる操作子とされる。
 これらの回転操作の操作子50の使用に関して詳しくは後述する。
 図4により、信号処理装置1とスピーカ3の内部構成を説明する。なお、以下では信号処理装置1とスピーカ3の間は無線通信が行われるものとして説明していく。
 無線通信においては、子機である各スピーカ3は、自己のスピーカに与えられたスレーブアドレスにより、自己宛の通信を識別することができる。
 また各スピーカ3は送信情報に自己の識別子(スピーカID)を含むようにすることで、信号処理装置1は、各スピーカ3からの通信を、どのスピーカからの通信であるか識別できる。
 信号処理装置1はCPU(Central Processing Unit)11、出力信号形成部12、RF(Radio Frequency)モジュール13、受信部14を有する。
 出力信号形成部12は、各スピーカ3に対して出力する音声信号に関する処理を行う。例えば出力信号形成部12はCPU11と連携して、各チャネルの音声信号の振り分け又はチャネル音声信号の生成処理や、後述する仮想スピーカ出力のための各スピーカへの音声信号の生成処理、例えばチャネルミキシング、定位調整、遅延等を含む信号処理を行う。また出力信号形成部12は、各チャネルの音声信号について増幅処理、音質処理、イコライジング、帯域フィルタ処理等も行う。
 また出力信号形成部12は、チャネル設定の際に用いるテストトーンとしての音声信号を発生する処理を行う場合もある。
 RFモジュール13は、各スピーカ3に対する音声信号や制御信号の送信や、各スピーカ3からの信号の受信を行う。
 このためRFモジュール13は、CPU11から供給された送信すべき音声信号や制御信号の無線送信用のエンコード処理や送信処理を行う。またRFモジュール13は、スピーカ3から送信されてきた信号の受信処理及び受信データのデコード処理、CPU11への転送等を行う。
 受信部14は、リモートコントローラ5からの操作信号を受信し、受信した操作信号を復調/デコードしてCPU11に操作情報を伝える。
 CPU11は音源装置2から供給された音声信号に対する演算処理や、チャネル設定処理、仮想スピーカに関する処理等を行う。
 本実施の形態の場合、CPU11には、実装されたプログラム(ソフトウエア)により図5に示す機能が設けられ、これら機能としての演算処理が行われる。即ちCPU11は、相対位置認識部11a、チャネル設定部11b、仮想スピーカ設定部11c、チャネル信号処理部11d、使用スピーカ設定部11eとしての機能を備える。
 相対位置認識部11aとチャネル設定部11bは、後述する各スピーカ3のチャネル設定のための処理を行う。
 相対位置認識部11aは、設置されたN台(本例では4台)のスピーカ3のうちの2台から、ユーザによる指定操作があったことの通知を受信して2台の配置基準スピーカを認識する処理を行う。また相対位置認識部11aは、各スピーカ3間の距離情報を取得する処理を行う。さらに相対位置認識部11aは、2台の配置基準スピーカ及び各スピーカ間の距離情報を用いてN台(4台)のスピーカ3の相対位置関係を認識する処理を行う。
 チャネル設定部11bは、相対位置認識部が認識した相対位置関係に基づいて、各スピーカ3のチャネルを自動設定する処理を行う。
 これらの相対位置認識部11aとチャネル設定部11bの処理については、チャネル設定処理として詳しくは後述する。
 仮想スピーカ設定部11cは、相対位置認識部11aが認識した相対位置関係及びチャネル設定部11bによるチャネル設定に基づいて、仮想スピーカ配置を設定する処理を行う。仮想スピーカとは、実際のスピーカ3の配置とは異なる位置に仮想的に配置されたスピーカである。仮想スピーカ設定部11cにより仮想スピーカを設定するということは、各スピーカ3に対する音声信号に所定の処理を加え、実際のスピーカ3の配置とは異なる位置、定位状態での音響出力を行うということである。
 また仮想スピーカ設定部11cは、例えばユーザがリモートコントローラ5を用いて仮想スピーカ位置を回転方向に変更する操作を行った場合に、それに応じて仮想スピーカ配置を変更する処理も行う。
 仮想スピーカ設定部11cとしての機能による具体的処理については、後述のチャネル設定やスピーカ配置変更の説明において述べる。
 チャネル信号処理部11dは、出力信号形成部12での信号処理と連携して、入力された音声信号について、N台の各スピーカ3に供給するNチャネルの音声信号を生成し、RFモジュール13に転送する処理を行う。
 またチャネル信号処理部11dは、仮想スピーカ設定部11cにより仮想スピーカ配置の設定が行われた場合、各スピーカ3のそれぞれに対する送信信号として、仮想スピーカを実現する定位状態となるように処理したNチャネルの音声信号を生成する処理を、出力信号形成部12と連携して行う。
 使用スピーカ設定部11eは、ユーザ操作に応じて、N台のスピーカ3を用いた音響出力と、N台のうちの一部のスピーカを用いた音響出力を切り換え制御する処理を行う。
 例えば全てのスピーカを使用している状態で、ユーザが1台のスピーカを指定したら、その1台のスピーカのみから音響出力が行われるようにする。具体的にはチャネル信号処理部11dに使用スピーカの情報を受け渡して、使用スピーカによる音響出力のみが行われる状態となるように、使用チャネル音声信号の生成や、使用しないチャネルについてのミュート制御等を実行させる。
 ユーザ操作としての使用スピーカの情報は、例えばスピーカ3からの情報受信を、RFモジュール13を介して受け取ることで検知する。もちろん使用スピーカ設定部11eは、ユーザがリモートコントローラ5を用いて使用スピーカを指定する操作を行った場合に、対応して処理を行ってもよい。
 使用スピーカ設定部11eとしての機能による具体的処理例については、使用スピーカ切替の説明において述べる。
 図4に戻ってスピーカ3の構成を説明する。
 スピーカ3は、CPU31、スピーカユニット32、マイクロホン33、タッチセンサ34、RFモジュール35、増幅器36、マイク入力部37を有する。
 CPU31は通信処理やスピーカ内部の制御を行う。
 RFモジュール35は信号処理装置1のRFモジュール13との間で無線通信を行うモジュールである。RFモジュール35は、信号処理装置1から送信されてくる音声信号や制御信号の受信及びデコード処理を行い、それらのデコードした信号をCPU31に転送する。
 またRFモジュール35はCPU31から転送された制御信号や通知信号を無線送信用にエンコードし、信号処理装置1に対して送信する処理も行う。
 CPU31は、信号処理装置1から送信されてきた音声信号を増幅器36に供給する。
 増幅器36は、CPU31から転送されてきた例えばデジタルデータとしての音声信号をアナログ信号に変換し、増幅してスピーカユニット32に出力する。これによりスピーカユニット32から音響出力が実行される。
 なおスピーカユニット32がデジタル音声データにより直接駆動されるものである場合は、増幅器36はデジタル音声信号を出力すればよい。
 マイクロホン33によっては外部の音声が集音される。マイクロホン33で得られた音声信号はマイク入力部37で増幅され、例えばデジタル音声データに変換されてCPU31に供給される。
 CPU31は、例えば内部RAM(Random Access Memory)にマイク入力音声信号を時刻情報(タイムスタンプ)とともに音声信号を記憶することができる。或いはCPU31は、後述するテスト音としての特定の音声信号が検出された場合に、音声信号は記憶せずに時刻情報のみを記憶してもよい。
 CPU31は、記憶した情報を所定のタイミングで、RFモジュール35に転送し、信号処理装置1に送信させる。
 タッチセンサ34は、例えばスピーカ3の筐体の上面や正面など、ユーザが触れやすい位置にタッチパッドなどとして形成された接触検出センサである。
 タッチセンサ34によりユーザのタッチ操作が検出され、検出情報がCPU31に送信される。
 CPU31は、タッチ操作が行われたことを検知した場合、タッチ操作検知の情報をRFモジュール35によって信号処理装置1に送信させる。
 なおタッチセンサ34は、スピーカ3に対するユーザの操作を検出するデバイスの例である。タッチセンサ34に変えて、或いはタッチセンサ34に加えて、撮像装置(カメラ)や操作ボタン、静電容量センサ等、ユーザの操作や挙動を検出できるデバイスを備えても良い。
 またタッチ操作に伴う音(接触音)をマイクロホン33で検出するようにすることで、タッチセンサ34等を設けない例も考えられる。
<2.チャネル設定>
 以上の構成において実行される本実施の形態のチャネル設定について説明する。
 なお、説明の簡単化のため、各スピーカ3は同じ平面上に配置されるものとする。
 スピーカシステムのセットアップ時のスピーカ出力チャネルの設定をユーザが手動で行う場合、設定をまちがえてしまうことがある。またチャネル設定作業について理解していなかったり、面倒に思うユーザもいる。このような状態では正しいサラウンド音を再現できない。
 本実施の形態では、ユーザがいくつかのスピーカ3にタッチするだけで、全スピーカ3の出力チャネルを正しく設定できるようにする。
 図6~図9により、チャネル設定の手順を説明する。
 図6Aは例えば図1で説明したように信号処理装置1と4台のスピーカ3A、3B、3C、3Dが設置された状態を示している。
 本実施の形態のスピーカシステムは、各スピーカ3のチャネル設定が予め決められていないため、ユーザはチャネル設定を気にせずに各スピーカ3A、3B、3C、3Dを任意の位置に設置する。当然、各スピーカ3については、まだチャネル設定されていない状態である。
 この状態で、親機である信号処理装置1と各スピーカ3の電源を入れると、図示するように信号処理装置1と各スピーカ3間が例えばWiFiなどにより無線通信接続され、これにより初期セットアップが開始される。
 初期セットアップが始まると、ユーザは本スピーカシステムのガイダンスに従って、図6Bに実線H1で示すように、モニタ装置9の左側に置いたスピーカ3Aにタッチし、続いて破線H2で示すようにモニタ装置9の右側に置いたスピーカ3Bにタッチする。
 例えばスピーカシステムはガイダンスとして、「正面に向かって左側のスピーカにタッチしてください」等のガイド音声を流してもよいし、当該メッセージをモニタ装置9に表示してもよい。
 ユーザはこれに応じて、前方(矢印DRU)に向かって左のスピーカ3Aのタッチセンサ34にタッチする操作を行う。通常、ユーザがモニタ装置9に向く方向が前方となる。
 ユーザが例えばスピーカ3Aのタッチセンサ34にタッチする操作を行ったことを検知したら、続いてスピーカシステムは「正面に向かって右側のスピーカにタッチしてください」という内容のガイダンスを行う。
 ユーザはこれに応じて、続いてスピーカ3Bのタッチセンサ34にタッチする操作を行う。
 なお、モニタ装置9を用いないユーザも想定される。そのようなユーザは、自分が普段聴取する位置と方向に合わせて、前方左、前方右のスピーカに順にタッチするようにすればよい。
 以上のようにユーザが順に2台のスピーカ3A、3Bにタッチしたら、スピーカシステムは、このスピーカ3A、3Bを、FLスピーカ、FRスピーカとして設定する。図7Aには、スピーカ3A、3BがFLスピーカ、FRスピーカとされた状態を示している。
 ここまで、スピーカシステムはFLスピーカ3A、FRスピーカ3Bを特定するとともに、ユーザの聴取時の向きを、設定したFLスピーカ3A、FRスピーカ3Bに対する相対的な位置関係として推測することができる。
 続いてスピーカシステムは、各スピーカ3間の距離を自動測定する。親機である信号処理装置1と各スピーカ3の間は、PTP(Precision Time Protocol)方式などを用いて時刻同期しておくものとする。
 スピーカ3間の距離測定は、1つのスピーカ3で再生したテスト音を他のスピーカ3で検出し、到達時間を計測することで行う。
 例えば図7Aに示すように、FLスピーカ3Aのスピーカユニット32で再生するテスト音を、FRスピーカ3B、スピーカ3C、3Dに搭載したマイクロホン33によってそれぞれ収音してタイムスタンプ(時刻情報)とともに記憶する。
 この場合、再生側のスピーカ3Aの再生時刻情報と、他のスピーカ3B、3C、3Dのそれぞれの記憶した時刻情報の差分から、破線で示すスピーカ3A-3B間、スピーカ3A-3C間、スピーカ3A-3D間の各距離が測定できることになる。
 テスト音は、例えば所定周波数の電子音などとして一瞬だけ出力すれば良い。もちろん1秒間、数秒間など継続した音でもよい。いずれにしても、到達時間が計測できる音であれば良い。
 このような動作を、再生するスピーカ3を変更して行っていく。
 即ち図7Aのようにスピーカ3Aでテスト音の再生、スピーカ3B、3C、3Dでテスト音及び時刻情報の記憶を行ったら、続いて図7Bのようにスピーカ3Bのスピーカユニット32でテスト音の再生を行い、スピーカ3A、3C、3Dのマイクロホン33でテスト音を収音し、テスト音及び時刻情報の記憶を行う。これにより破線で示すスピーカ3B-3A間、スピーカ3B-3C間、スピーカ3B-3D間の各距離を測定する。
 さらに図示しないが、続いてスピーカ3Cでテスト音の再生、スピーカ3A、3B、3Dでテスト音及び時刻情報の記憶を行う。これによりスピーカ3C-3A間、スピーカ3C-3B間、スピーカ3C-3D間の各距離を測定する。
 また続いてスピーカ3Dでテスト音の再生、スピーカ3A、3B、3Cでテスト音及び時刻情報の記憶を行う。これによりスピーカ3D-3A間、スピーカ3D-3B間、スピーカ3D-3C間の各距離を測定する。
 以上により、全てのスピーカ3の組み合わせの間での距離を計測できる。
 なお、上記のようにテスト音の再生/記憶を行うと、1つの組み合わせにおいて、2回、時刻差分(距離)が計測できることになる。2回の平均値をとることで、測定誤差を低減することが望ましい。
 また、より初期セットアップの効率化をはかる場合は、全ての組み合わせでの測定が完了した時点でテスト音再生/記憶の処理を終えても良い。例えば上記例の場合、スピーカ3Dからのテスト音再生は省略してもよい。さらにこの場合、すでに再生を行ったスピーカ3は、記憶処理を行わなくてもよい。例えばスピーカ3Aは、自己の再生終了後に各スピーカ3B、3C、3Dとの間の距離が測定できるため、スピーカ3B、3Cからのテスト音再生時に記憶を行わなくてもよいし、同様にスピーカ3Bは、スピーカ3Cからのテスト音再生時に記憶を行わなくてもよい。
 全スピーカ3間の距離を測定し終えると、各スピーカ3の位置関係が決定される。
 即ち信号処理装置1は、各スピーカ3間の距離から、図8A又は図8Bのいずれかの配置状態であることが把握できる。図8Aと図8Bは各スピーカ3間の距離が同じとなる鏡像の関係にある配置である。
 そしてすでにFLスピーカ3AとFRスピーカ3Bが特定されているため、スピーカ3A、3Bが前方側であり、従って信号処理装置1は、図8Aが実際の配置状態であると特定できる。
 つまりFLスピーカ3AとFRスピーカ3Bに対して残りのスピーカ3はユーザの後方に位置すると仮定することで、図8Bのスピーカ配置の可能性を排除できる。
 信号処理装置1は、このように定まった各スピーカ3同士の相対位置関係(図8A)と、推定したユーザ向きから、残りのすべてのスピーカのチャネル(SL,SR)を自動設定する。
 つまり図9Aに示すように、スピーカ3CをSRチャネル、スピーカ3DをSLチャネルに自動設定する。
 以上で信号処理装置1はFLスピーカ3A、FRスピーカ3B、SRスピーカ3C、SLスピーカ3Dとの設定ができたことになる。つまり任意に配置された4台のスピーカ3について、それぞれ配置位置に応じて、FLチャネル、FRチャネル、SLチャネル、SRチャネルを割り当てたことになる。
 なお、例えば米国特許第9749769号明細書に記載のように任意の位置に仮想スピーカを生成し、その位置からあたかも音が聞こえてくるかのようにする技術がある。
 このような技術を用いることで、図9Bに示すように、実物のスピーカ3A、3B、3C、3Dとは異なる位置に仮想スピーカ4(4A、4B、4C、4D)を生成し、生成した仮想スピーカ4A、4B、4C、4Dに対してチャネルを割り振ることが出来る。
 またより単純には、各チャネル音声信号のミキシング比率による定位制御や、仮想スピーカ設定4と実物のスピーカ3の位置の差分に応じた遅延時間設定によっても、実際にはスピーカ3A、3B、3C、3Dから音を出しているのに、仮想スピーカ4A、4B、4C、4Dの位置から聞こえてくるような音響空間を作ることができる。
 このような仮想スピーカ設定を行うと、サラウンド音響システムとしては必ずしも適切なスピーカ配置がなされていない場合(或いは部屋の事情により適切な配置ができない場合)でも、よりサラウンド音響環境を実現できる。
 このため、初期セットアップの際に上述のようにスピーカ3のチャネル設定を行ったら、続けて仮想スピーカ設定も行うようにしてもよい。
 上記のチャネル設定を実現するための信号処理装置1及びスピーカ3の処理を図10、図11で説明する。
 図10では左側に信号処理装置1の処理、右側に各スピーカ3の処理を示している。信号処理装置1の処理は、CPU11における主に相対位置認識部11a、チャネル設定部11bの機能により実行される処理となる。またスピーカ3の処理はCPU31の処理として示している。
 また図10は、信号処理装置1及び各スピーカ3の通信が確立され、初期セットアップが開始された時点からの処理を示している。
 信号処理装置1のCPU11は、ステップS100として、子機である各スピーカ3の全てに、タッチセンサオンを指示する。
 これに応じて各スピーカ3A、3B、3C、3DのそれぞれCPU31は、ステップS201でタッチセンサ34をオンとし、ステップS202、S203の監視ループの処理を開始する。CPU31はステップS202では、タッチセンサ34に対するユーザ操作の有無をチェックする。またCPU31はステップS203では、信号処理装置1からのタッチセンサオフの指示の有無をチェックする。
 信号処理装置1のCPU11は、タッチセンサ34のオンの指示を出した後、ステップS102でガイダンス制御を行う。即ちユーザに「正面に向かって左側のスピーカにタッチしてください」等のガイド出力が実行されるように制御する。例えばこのようなメッセージ音声の音声信号を、一部又は全部のスピーカ3に送信して、音声出力させてもよい。或いはスピーカ3がガイダンス音源データを記憶するように構成されている場合、CPU11はCPU31に指示して当該音源データによるガイダンス音声を出力させてもよい。さらにCPU11は、モニタ装置9に対してガイド表示を実行するように指示してもよい。
 そしてCPU11はステップS103で子機(スピーカ3)からの通知を待機する。
 ガイダンスに従って、ユーザが左前方のスピーカ3にタッチすることで、その左前方に配置されていたスピーカ3のCPU31は、ステップS202でタッチセンサの操作を検知することになる。
 その場合、当該スピーカ3のCPU31はステップS204でタッチ操作を検知した旨を親機である信号処理装置1に通知する。そしてCPU13はステップS205でタッチセンサをオフとする。
 信号処理装置1のCPU11は、あるスピーカ3からタッチセンサ34の操作検知の旨を検知したら、ステップS103からS104に進み、各スピーカにタッチセンサオフを指示する。
 これによって、タッチ操作が行われなかったスピーカ3のCPU31は、ステップS203でタッチセンサオフの指示を認識することになり、ステップS205に進んでタッチセンサをオフとする。
 続いて信号処理装置1のCPU11は、ステップS105で、タッチ操作検知の旨を送信してきたスピーカ3を、FLチャネルのスピーカに設定する。例えば図6Bの例では、スピーカ3AをFLチャネルのスピーカに設定した状態である。
 次にステップS106でCPU11は、FLチャネルに設定した例えばスピーカ3A以外のスピーカ3B、3C、3Dに対して、タッチセンサ34のオンを指示する。
 この場合、FLスピーカ3AのCPU11は、自己宛でない制御であることで特に対応処理を行わないが、他のスピーカ3B、3C、3Dは、再びステップS201でタッチセンサオンの指示を認識し、ステップS202,S203の監視ループ処理を開始することになる。
 信号処理装置1のCPU11は、ステップS106でタッチセンサ34のオンの指示を出した後、ステップS107で2回目のガイダンス制御を行う。即ちユーザに「正面に向かって右側のスピーカにタッチしてください」等のガイド出力が実行されるように制御する。そしてCPU11はステップS108で子機(スピーカ3)からの通知を待機する。
 ガイダンスに従って、ユーザが右前方のスピーカ3にタッチすることで、その右前方に配置されていたスピーカ3のCPU31は、ステップS202でタッチセンサの操作を検知することになる。
 その場合、当該スピーカ3のCPU31はステップS204でタッチ操作を検知した旨を親機である信号処理装置1に通知する。そしてCPU31はステップS205でタッチセンサをオフとする。
 信号処理装置1のCPU11は、あるスピーカ3からタッチセンサ34の操作検知の旨を検知したら、ステップS108からS109に進み、各スピーカにタッチセンサオフを指示する。
 これによって、タッチ操作が行われなかったスピーカ3のCPU31は、ステップS203でタッチセンサオフの指示を認識することになり、ステップS205に進んでタッチセンサをオフとする。
 続いて信号処理装置1のCPU11は、ステップS110で、タッチ操作検知の旨を送信してきたスピーカ3を、FRチャネルのスピーカに設定する。例えば図6Bの例では、スピーカ3BをFRチャネルのスピーカに設定した状態である。
 続いて信号処理装置1のCPU11及び各スピーカ3のCPU31は、図11の処理に進む。図11では左側にCPU11の処理、右側に記憶側スピーカ3と再生側スピーカ3のCPU31の処理を示している。
 図7A、図7Bで説明したように、以降、順次1つのスピーカ3を再生側スピーカとしてテスト音を出力させ、他の3つのスピーカ3が記憶側スピーカとして音声及び時刻情報の記憶を行うことになる。
 このため、信号処理装置1のCPU11は、ループ処理LP1としてステップS150、S151、S152の処理を、スピーカ3の数に相当するN回繰り返す。
 CPU11は、ステップS150では第i番目以外の複数のスピーカ3に対して、記憶開始を指示する。
 またステップS151でCPU11は、第i番目のスピーカ3に対して、例えば指定時刻からテスト音を再生させる制御を行う。
 さらにステップS152でCPU11は、第i番目以外の複数のスピーカ3から、記憶したファイル情報の受信処理を行う。
 CPU11は、以上の処理を、変数iを順次インクリメントしながら繰り返す。
 またそのようなCPU11の処理に対応して、第i番目とされたスピーカ3のCPU31は、再生側スピーカとしての処理を行う。
 即ちステップS260で、信号処理装置1側のステップS151によるテスト音再生指示を受けて、指定された時刻からテスト音再生を実行する。
 第i番目以外の複数のスピーカ3のそれぞれのCPU31は、記憶側スピーカとしての処理を行う。即ちCPU31は、ステップS250で、信号処理装置1側のステップS150による記憶開始指示を受けて、マイクロホン33によって入力される音と時刻情報の記憶を開始する。
 またCPU31は、所定時間の記憶を終了したらステップS251で、記憶ファイルを親機である信号処理装置1に送信する。
 例えば仮に再生側スピーカが出力するテスト音の再生時間が0.5秒の時間長であるとする。
 記憶側となったスピーカ3は、例えば信号処理装置1からの記憶開始指示を受けて、例えば1秒など、所定期間の音声信号記憶を行う。このときの音声信号を構成する各フレームには現在の時刻情報としてタイムスタンプが含まれる。そして例えば1秒間の音声信号記憶ファイルを生成し、ステップS251で信号処理装置1に送信する。
 従って、CPU11が再生側のスピーカ3に指示するテスト音再生開始時刻(又は制御タイミング)と、記憶側のスピーカ3に指示する記憶開始時刻(又は制御タイミング)が適切に設定されることで、信号処理装置1に送信される記憶ファイルは、最初にテスト音がない期間(無音又は周囲雑音が含まれる期間)があり、途中、テスト音が存在し、最後に再びテスト音がなくなるようなファイルとする。
 このような記憶ファイルを受信した信号処理装置1のCPU11では、テスト音が記憶された最初のフレームを特定することで、当該フレームのタイムスタンプから、テスト音がそのスピーカ3に到達した時刻を検出できる。
 なお、先に述べたように、CPU31が、マイクロホン33によって検知したテスト音の記憶開始時刻を解析し、その時刻情報のみを情報処理装置1に送信してもよい。
 信号処理装置1のCPU11が、ループ処理LP1を4回行うことで、図7A、図7Bで説明した動作が実現される。
 そしてこれによってCPU11は、各時点で記憶側となったスピーカ3からの記憶ファイルを受信し、各スピーカ3での音声到達時刻を検出できる。
 ステップS153でCPU11は、各スピーカ間の距離計算を行う。
 例えばスピーカ3Aを再生側、スピーカ3B、3C、3Dを記憶側としたときに、CPU11は、スピーカ3Aのテスト音出力開始時刻と、スピーカ3B、3C、3Dから受信した記憶ファイルから、スピーカ3A-3B間、3A-3C間、3A-3D間の音声到達時間を計算できる。従ってスピーカ3A-3B間、3A-3C間、3A-3D間の距離が算出できる。
 このような計算で、各スピーカ3間の距離を求める。
 ステップS154でCPU11は座標計算を行う。各スピーカ3間の距離が特定されたことで、座標上において、特定されたスピーカ間距離が表現される状態で各スピーカ3の位置をマッピングする。さらにFLスピーカ、FRスピーカが特定されていることで、これらが前方となるようにする。
 これにより、座標上で図8Aのようなスピーカ配置関係が表現されることになる。
 そしてステップS155でCPU11は、全てのスピーカ3の位置に応じてチャネルアサインを行う。
 以上で、チャネル自動設定が完了する。
 この後、ステップS156として仮想スピーカ設定を行うようにしてもよい。
 例えば初期セットアップの際に以上の処理が行われることで、ユーザはスピーカ3の出力チャネル設定を気にせずスピーカ3を配置できる。またスピーカ3の配置状態に対して不適切なチャネルアサインが行われることも解消できる。
<3.スピーカ配置変更>
 次に仮想スピーカ設定が行われた場合におけるスピーカ配置変更について説明する。
 通常、サラウンドスピーカシステムは、一度セッティングを行うと、ユーザが常に同じ向きを向いて聴取することを想定している。これに対して本実施の形態では、仮想スピーカ4を用いることで、簡単なアクションでユーザが聴取方向を任意に変更することができるようにする。
 図12Aは、リビングダイニングキッチンのような室内を想定したモデルを示している。例えば実際のスピーカ3A、3B、3C、3Dが図のように各角部に配置されているとする。この状態で、図12Aのユーザ100の聴取位置、即ち矢印DRUのようにモニタ装置9を向く場合に適した状態で、仮想スピーカ4が設定されているとする。
 なお仮想スピーカ4については、各チャネルを示すために仮想スピーカ4FL、4FR、4SL、4SRと表記する。
 この図12Aの状態でユーザ100は適切なサラウンド音響環境に置かれている。
 一方図12Bのようにユーザ100が矢印DRU1方向に向いている状態や、キッチンにいてモニタ装置9を見ることで矢印DRU2のような聴取方向となっている状態を想定する。その場合、例えば図12Aのような仮想スピーカ4の配置は適切な状態ではなくなっていることになる。
 そこで、例えば図示するように仮想スピーカ4FL、4FR、4SL、4SRの配置を回転方向に移動させるようにする。
 すると矢印DRU1を向くユーザ100にとって適切なサラウンド音響環境となる。またユーザ100がキッチンにいてモニタ装置9を見ることで矢印DRU2を向く状態になっているとしても、比較的適した音響環境となる。
 このように、ユーザの向きに合わせて、ユーザが任意に仮想スピーカ4の配置を変更(回転)させることができるとよい。
 そこで本実施の形態では、リモートコントローラ5を用いた操作で、ユーザが仮想スピーカ4の配置を回転させることができるようにする。
  図3に示したようにリモートコントローラ5A、5Bには回転操作のための操作子50(50A、50B)が設けられている。ユーザは操作子50により回転操作を行う。ユーザは自分の向きに適した回転量だけ、操作子50を操作する。
 これに応じて本実施の形態のスピーカシステムは、仮想スピーカ4の配置位置を指定された回転量だけ変更させる。
 図13に仮想スピーカ4の配置を回転させる様子を示している。
 例えば図13Aは矢印DRU方向に向くときに適した配置状態である。
 ユーザが右回り(時計回り)の回転操作を行うことに応じて信号処理装置1は、図13B→図13C→図13Dのように仮想スピーカ4の配置を回転させる。図13Dは図13Aからみて時計回りに90度、配置位置が回転した状態である。
 図13Eは、図13Dからみてさらに時計回りに90度、配置位置が回転した状態である。また図13Eからユーザが右回りの回転操作を行った場合、信号処理装置1は図13F→図13G→図13Hのように仮想スピーカ4の配置を回転させる。
 もちろんユーザが操作子50により左回り(反時計回り)の操作を行った場合、それに応じて信号処理装置1は反時計回りに仮想スピーカ4の配置を回転させる。
 このようにユーザのリモートコントローラ5の操作によって、あらかじめ決めた角度変更ステップずつ仮想スピーカ4の位置を回転させる。
 すると、実際のスピーカ3の位置を移動させずに、矢印DRUで示す方向に適した状態に聴取方向を切り替えることができる。
 このとき、角度変更ステップ量は自由に設定でき、スピーカ3の配置状況によって、対応できる聴取方向が制限されることがない。
 この仕組みを用いることで、例えば図12A、図12Bで示したように、リビングダイニングキッチンに配置したサラウンドスピーカシステムで、ソファーに座って聴取するときや、キッチンから聴取するときなど、聴取方向が異なるユースケースに合わせて簡単に聴取方向を変更できるようになる。
 なお、図12Cのように仮想スピーカ4を、回転だけではなく前後にシフトすることも可能である。例えばキッチンにいるユーザ100にとって、より適したサラウンド音響環境を創出できるように、ユーザによる前後や左右の操作を可能として、図12Bの状態から図12Cの配置状態に変更できるようにしてもよい。
 図13のような配置状態の回転のための信号処理装置1のCPU11の処理例を図14に示す。図14はCPU11において主に仮想スピーカ設定部11cによる処理となる。
 CPU11はステップS170で例えばリモートコントローラ5によるユーザの回転操作を監視する。
 回転操作を検知した場合、CPU11はステップS170からS171に進み、単位時間内の操作の回転操作量及び回転方向を判定する。
 ステップS172でCPU11は回転操作量から仮想スピーカ4の移動量、つまりこの場合は回転移動させる角度を計算する。例えば配置の分解能となる最小のステップ角に対して何ステップ分の角度、回転させるかを計算する。
 回転角度を決定したら、ステップS173でCPU11は、仮想スピーカ4の変更後の位置を決定する。例えば座標上で、回転操作に応じた角度及び方向に回転移動させた位置(座標値)を、新たな仮想スピーカ4FL、4FR、4SL、4SRの位置として決定する。
 そしてステップS174でCPU11は、その新たな仮想スピーカ4FL、4FR、4SL、4SRの位置による音場が形成されるように、信号処理を制御する。
 つまり各スピーカ3A、3B、3C、3Dに出力する各チャネルの音声信号についてのミキシング比率による定位状態や遅延時間設定等のための係数変更を行い、実際のスピーカ3A、3B、3C、3Dによる音響出力で新たな仮想スピーカ4FL、4FR、4SL、4SRの位置による音響空間が創出されるようにする。この処理により、仮想スピーカ4の回転移動が行われることになる。
 ステップS175ではCPU11は、継続してユーザによる回転操作が行われているか否かを確認し、継続して行われている場合(例えばロータリーエンコーダとしての操作子50Aが続けて回されている場合など)は、ステップS171に戻って、同様の処理を行う。
 回転操作が継続されていなければ、CPU11はステップS175から図14の処理を終える。再度回転操作を検知したら、CPU11は再び図14の処理を開始する。
 以上の処理により、ユーザの操作に応じて仮想スピーカ4の配置が回転される。これによりユーザは自分の聴取方向に合わせて、高い自由度で仮想スピーカ4の配置を変更できる。
 なお、図12Cのように仮想スピーカ4の配置を前後方向や左右方向に移動可能とする場合も、同様にユーザの前後操作や左右操作に応じて、新たな仮想スピーカ4の配置を設定し、それに応じたチャネル音声信号の処理を変化させれば良い。
<4.使用スピーカ切替>
 実施の形態のスピーカシステムでは、上述の初期セットアップ完了後に、ユーザが任意のスピーカ3を選択することで、選択したスピーカ3からのみ音を出すモードと、全スピーカ3から音を出すモードを切り替えることができるようにする。
 例えば図15Aはスピーカ3A、3B、3C、3Dの全てを使用する状態、図15Bはユーザが指定したスピーカ3Cのみを使用する状態を示している。
 例えば図15Aの状態では室内の広い範囲を再生エリアAS1とすることで通常にサラウンド音響環境で聴取する場合に適している。一方、例えば朝早くキッチンに一人でいるときなどに、比較的小さい音量で音楽等を聴取したい場合もある。その場合は、キッチン近くに配置したスピーカ3Cを指定することで、図15Bのようにキッチン周辺の再生エリアAS2での聴取に適した音出力が行われるようにする。
 ただし、このような単体スピーカでの再生状態と、全スピーカでのサラウンド再生状態を相互に切り替えるのみ、スマートホンなどを用いた切換え操作や、本体ボタンを用いたグループ作成/解散操作などを行うことは面倒である。
 また、単体で鳴らすときに自分の目の前のスピーカ3を直感的に選択するのが難しい。
 さらに両モードを頻繁に切り替えるのが面倒である。
 そこで本実施の形態では、直感的な動作で容易に使用するスピーカ選択を行うことができるようにする。
 スピーカ3はタッチセンサ34を備える。そこでタッチセンサ34を用いて、使用するスピーカの指定を行うことができると共に、全スピーカ使用と単独スピーカ使用を切り替えることができるようにする。
 例えばユーザがタッチセンサ34に対する長押しタッチを行うことで必要な操作ができるようにする。
 このための信号処理装置1の処理例を図16、図17で説明する。
 図16は信号処理装置1のCPU11の処理例である。CPU11は使用スピーカ設定部11eとしての機能により当該処理を行う。
 CPU11は図16のステップS180で、全てのスピーカ3(子機)に対して、タッチセンサ34のオンを指示する。各スピーカ3では、これに従ってタッチセンサ34がオンとされる。
 ステップS181でCPU11は、スピーカ3のいずれかから長押し通知があったか否かを確認する。
 長押し通知がない場合は、CPU11はステップS185に進んで終了指示を確認する。例えばスピーカシステムによる音声出力の終了などの指示である。
 終了指示が検出されていなければステップS181での長押し通知の確認を継続する。
 ユーザは、通常の4台のスピーカ3を使用する状態から、近くの1つのスピーカ3のみを使用する状態に切り替えたいと思った場合、近くのスピーカ3のタッチセンサ34に対して長押し操作を行う。例えば1~2秒程度の所定時間以上、触れるようにする。
 この場合、当該スピーカ3のCPU31は、信号処理装置1に対して長押し通知を送ってくる。
 あるスピーカ3からの長押し通知があった場合、CPU11はステップS181からS182に進み、現在再生エリア限定制御がオンであるかオフであるかにより処理を分岐する。
 この再生エリア限定制御とは、図15Bのように、一部のスピーカ3のみを使用することで再生エリアを狭く限定することをいう。
 再生エリア限定制御がオフであるとき、つまり全てのスピーカ3を使用して通常のサラウンド音響による再生を行っている場合は、CPU11はステップS183に進み、再生エリア限定制御をオンとする。このために、長押し通知を送信してきたスピーカ3以外の各スピーカ3に対してミュート制御を行う。
 また、長押し通知を送ってきたスピーカ3のみを使用する状態に切り替えるためのチャネル信号処理の変更制御を行う。例えば長押し通知を送ってきたスピーカ3に対して、モノラル音声信号を送信する状態とするようにチャネル信号処理を変更する。
 これにより、ミュート制御が送信されたスピーカ3(長押しがされたスピーカ3以外のスピーカ3)のCPU31は、自身の音響出力のミュート制御を行う。これにより音声出力が停止される。一方、長押し通知を送ってきたスピーカ3に対して信号処理装置1はモノラル音声信号を送信する。従って、当該スピーカ3のみからモノラル音声信号が出力される状態となる。
 なお、ここでモノラル音声信号を供給するのは一例である。例えば1台のスピーカ3が複数のスピーカユニット32を備えて単独でステレオ出力するものである場合、L、R2チャネルの音声信号を生成して、当該スピーカ3に供給してもよい。
 いずれにしても、ユーザが長押しタッチしたスピーカ3のみから音声出力が行われる状態となる。
 また、ユーザは、再生エリア限定制御を行っている状態から、元のサラウンド音響環境に戻したいと思った場合は、再度長押し操作を行えば良い。
 CPU31は、長押し通知を検知し、ステップS182において現在再生エリア限定制御中と判断した場合、ステップS184で再生エリア限定制御をオフにする。
 このために、全てのスピーカ3に対してミュート解除制御を行う。
 またサラウンド音響環境に戻すようにチャネル信号処理の変更制御を行う。
 これにより、ミュート解除制御が送信されたスピーカ3のCPU31は、自身の音響出力のミュート制御を解除する。これにより全てのスピーカ3が音声出力を行う状態に戻される。そして、信号処理装置1は各スピーカ3に対して、それぞれアサインしたチャネルの音声信号を送信する。従って、元のサラウンド音響環境に戻されることになる。
 ステップS185で終了指示を検知した場合、CPU31は、ステップS186で、各スピーカ3に対してタッチセンサ34のオフ指示を行って処理を終える。各スピーカ3では、これに従ってタッチセンサ34がオフとされる。
 以上の処理を時系列で表したものが図17である。
 図17は、ユーザの操作と、信号処理装置1(CPU11)、スピーカ3A、3B、3C、3Dの動作を示している。
 ユーザがスピーカ3Aに長押しタッチしたとする。スピーカ3AのCPU31はこれを検知し(S300)、信号処理装置1に対して長押し通知を行う(S301)。
 信号処理装置1のCPU11は、上記のステップS181の処理でこの長押し通知を検知し、ステップS183の処理を行う。つまりスピーカ3B、3C、3Dに対してミュート指示を送信する。スピーカ3B、3C、3Dの各CPU31は、ミュート指示に応じて自己の音声出力についてのミュートを実行する(S350)。
 スピーカ3Aのみは、信号処理装置1からの音声信号により音声出力を行う。これによりスピーカ3Aを使用する再生エリア限定制御がオンとなる。
 その後のある時点でユーザが、再度スピーカ3Aに対して長押しタッチを行ったとする。
 これによりスピーカ3AのCPU31はこれを検知したら(S310)、信号処理装置1に対して長押し通知を行う(S311)。
 信号処理装置1のCPU11は、上記のステップS181の処理でこの長押し通知を検知し、今度はステップS184の処理を行うことになる。つまり全スピーカ3A、3B、3C、3Dに対してミュート解除指示を送信する。スピーカ3B、3C、3Dの各CPU31は、ミュート解除指示に応じて自己の音声出力についてのミュートを終了する(S351)。スピーカ3Aは、元々ミュートしていないので、特にミュート解除指示に対応しなくても良い。
 そして信号処理装置1からは、各スピーカ3に対してそれぞれのチャネルの音声信号が伝送される。これによりスピーカ3A、3B、3C、3Dを使用するサラウンド音響システムによる再生が再開され、再生エリア限定制御がオフとなる。
 なお、再生エリア限定制御を解除する際の操作は、使用中のスピーカ3に対する長押しタッチに限らず、他のスピーカ3の長押しタッチでもよい。ユーザは、再生エリア限定制御を解除したいときに、近くにあるスピーカ3を長押しタッチすればよい。その場合、CPU31の処理はステップS184に進むことで、全てのスピーカ3もミュートが解除されることになる。
 但し、再生エリア限定制御をオフとする場合の操作は、使用中のスピーカ3のタッチ操作に限定するような処理例も考えられる。
 以上のように、スピーカ3の天面などに設けられたタッチセンサ34に対してユーザが長押しタッチを行うことで、触られたスピーカ3からのみ再生するモードと、全スピーカから再生されるモードをトグル切換えできる。
 従ってユーザは、目の前のスピーカ3からのみ再生したいと感じた時は、目の前のスピーカ3にタッチするだけの直感的な操作で、選択操作されたスピーカからのみ音を出す状態に切り替えることができる。
 また逆に、単一のスピーカ3からのみ再生している時に、任意のスピーカ3のタッチセンサ34にタッチすることで、全スピーカ3から再生するモードに簡単に切り替えることができる。
 図18はCPU11の他の処理例を示している。なお図16と同一の処理については同一のステップ番号を付し、説明を省略する。ステップS180~S186は図16と同一である。
 この図18の例は、CPU11は、ステップS181の長押し通知とともに、ステップS190で短押し通知の監視を行う。短押しとは、例えば100ms以内などの短い時間のタッチ操作を言う。
 あるスピーカ3からの短押し通知があった場合、CPU11はステップS190からS191に進み、現在再生エリア限定制御がオンであるかオフであるかにより処理を分岐する。再生エリア限定制御がオフであれば、特に何もせずに、ステップS185を介してS181に戻る。
 ステップS191で再生エリア限定制御がオンである場合は、CPU11はステップS192に進み、短押し通知を送信してきたスピーカ3が、ミュート制御中のスピーカであるか否かを確認する。
 ミュート制御中のスピーカ3からの短押し通知であった場合、CPU11はステップS193に進み、そのスピーカ3に対してミュート解除の指示を送信する。
 これに応じて短押し通知を送信したスピーカ3のCPU31は、ミュートを解除し、音声出力を再開する状態とする。
 信号処理装置1のCPU11はまた、現在ミュート解除されている一部のスピーカによって音声出力が行われる状態となるように、チャネル信号処理を変更する。
 これにより、再生エリア限定制御中に、ユーザが短押ししたスピーカ3が音声再生に加わることになる。
 一方、ミュート制御をしていないスピーカ3、つまり再生エリア限定制御中にも出力を行っているスピーカ3からの短押し通知であった場合、CPU11はステップS194に進み、そのスピーカ3に対してミュート指示を送信する。
 これに応じて短押し通知を送信したスピーカ3のCPU31は、ミュートを再開し、音声出力を停止する。
 信号処理装置1のCPU11はまた、ミュート指示したスピーカ3を除いて音声出力を行う状態に適応させるようにチャネル信号処理を変更する。
 これにより、再生エリア限定制御中に再生を行っていたスピーカ3も、ユーザが短押ししすることで、音声再生から除かれることになる。
 以上の処理を時系列で表したものが図19である。図19は先の図17と同様に、ユーザの操作と、信号処理装置1(CPU11)、スピーカ3A、3B、3C、3Dの動作を示している。
 ユーザがスピーカ3Aに長押しタッチしたとする。スピーカ3AのCPU31はこれを検知し(S300)、信号処理装置1に対して長押し通知を行う(S301)。
 信号処理装置1のCPU11は、長押し通知を検知し(S181)、ステップS183の処理としてスピーカ3B、3C、3Dに対してミュート指示を送信する。スピーカ3B、3C、3Dの各CPU31は、ミュート指示に応じて自己の音声出力についてのミュートを実行する(S350)。つまりスピーカ3Aを使用する再生エリア限定制御がオンとなる。
 その後のある時点でユーザが、スピーカ3Bに対して短押しタッチを行ったとする。
 スピーカ3BのCPU31はこれを検知すると(S370)、信号処理装置1に対して短押し通知を行う(S371)。
 信号処理装置1のCPU11は、ステップS190で短押し通知を検知し、ステップS193の処理を行う。つまりスピーカ3Bにミュート解除を指示する。スピーカ3BのCPU31は、これに応じてミュート解除する(S372)。
 これによりスピーカ3A、3Bによる再生が行われる状態となる。
 なお図示していないが、例えばこの後にスピーカ3Cに短押しタッチが行われると、スピーカ3Cもミュートが解除され、スピーカ3A、3B、3Cによる再生が行われる状態となる。
 スピーカ3Bが再生に加えられた後、図示のように再度スピーカ3Bに対する短押しタッチが行われたとする。
 スピーカ3BのCPU31はこれを検知すると(S380)、信号処理装置1に対して短押し通知を行う(S381)。
 信号処理装置1のCPU11は、ステップS190で短押し通知を検知し、この場合はステップS194の処理を行う。つまりスピーカ3Bにミュートを指示する。スピーカ3BのCPU31は、これに応じてミュート制御を行う(S382)。
 これにより再びスピーカ3Aのみによる再生が行われる状態となる。
 その後、ユーザがスピーカ3Aに対して長押しタッチを行ったとする。
 これによりスピーカ3AのCPU31は信号処理装置1に対して長押し通知を行う(S310)。
 信号処理装置1のCPU11は、上記のステップS181の処理でこの長押し通知を検知し、今度はステップS184で、全スピーカ3A、3B、3C、3Dに対してミュート解除指示を送信する。
 そして信号処理装置1からは、各スピーカ3に対してそれぞれのチャネルの音声信号が伝送される。これによりスピーカ3A、3B、3C、3Dを使用するサラウンド音響システムによる再生が再開され、再生エリア限定制御がオフとなる。
 以上のように、図18,図19の再生エリア限定制御は、単一のスピーカ3を用いるのみでなく、ユーザが短押しタッチで指定する任意の数のスピーカを使用できるようにしたものである。
 これにより、ユーザは直感的に、より自由な選択で一部のスピーカ3を使用する状態を選択できることになる。
 なお、以上ではユーザの操作態様として長押しタッチ、短押しタッチを挙げたが、これに限定されるものでないことは言うまでもない。
 但し、スピーカ選択の操作が、スピーカ自体に対する何らかの操作を行うものとすることが直感的な選択操作の実現ためには望ましい。
<5.まとめ及び変形例>
 以上の実施の形態では次のような効果が得られる。
 実施の形態の信号処理装置1は、相対位置認識部11aの機能により、3台以上であるN台のスピーカ3のうちの2台からユーザによる指定操作があったことの通知を受信して2台の配置基準スピーカ(FLスピーカとFRスピーカ)を認識する処理(図10のS102~S110)と、各スピーカ3間の距離情報を取得する処理(図11のS150~S153)と、2台の配置基準スピーカ及び各スピーカ間の距離情報を用いてN台のスピーカの相対位置関係を認識する処理(S154)を行う。また信号処理装置1はチャネル設定部11bの機能により、認識した相対位置関係に基づいて、各スピーカ3のチャネルを自動設定するチャネル設定(S155)を行う。
 このようなチャネル設定処理においては、信号処理装置1は、ます配置基準スピーカとしてのFLスピーカとFRスピーカを認識することで、例えばユーザ(聴取者)の正面方向を決めることができる。
 また各スピーカ3間の距離情報を得ることで、N台の各スピーカ5の相対位置関係を求めることができる。
 さらに配置基準スピーカが特定されていることで、実際のスピーカ配置が特定できる。従って、そのスピーカ配置に従ってチャネルアサインを自動的に行うことができる。
 ユーザにとっては、ガイダンスに沿って、前方左のスピーカ3と前方右のスピーカ3に順にタッチ等による指定操作を行えばよいのみである。この操作のみで、ユーザが任意に配置した各スピーカ3が、それぞれ適切なチャネルに自動的にアサインされる。これにより、ユーザに面倒をかけずに適切なチャネル設定が実現される。さらには、ユーザがチャネルに関する知識を持っていなくとも、2つのスピーカ3にタッチするだけの直感操作で、適切なチャネル設定が行われる。これにより、ユーザの負担なく最適な音響再生ができる環境を形成できる。
 またユーザの操作としては、全スピーカ3に対してタッチ操作する必要が無いため、手順が簡単である。
 この技術は3つ以上のスピーカ3を接続するスピーカシステムに適用可能であり、例えば、接続するスピーカ数が10個、20個と増えたケースにおいても、同じ操作性で簡単に全スピーカ3の出力チャネルを正しく設定できる。
 実施の形態の信号処理装置1は、入力された音声信号について信号処理を行い、N台の各スピーカ3に供給するNチャネルの音声信号を生成するチャネル信号処理部(11d、12)を備える。チャネル信号処理部(11d、12)は、チャネル設定部11bが設定したチャネルに基づいて、各スピーカ3のそれぞれに対する送信信号となるNチャネルの音声信号を生成する。
 これにより、スピーカ位置関係の自動認識に基づいた自動チャネルアサインに基づくチャネル信号処理が行われ、適切なサラウンド音響出力が実現される。
 実施の形態では、N台の各スピーカ3にはユーザによる指定操作を検知する操作検知部(タッチセンサ34)が形成されている。そして信号処理装置1の相対位置認識部11aは、各スピーカ3に対して操作検知部を有効化する指示を行う(S100)とともに、有効化期間中に操作検知部の検知を通知してきたスピーカ3を、配置基準スピーカと認識する(S102~S110)。即ち配置基準スピーカの特定のために、CPU11(相対位置認識部11b)は、各スピーカ3のタッチセンサ34を一時的に有効化するように制御している。
 これにより、CPU11が配置基準スピーカとしてFLスピーカ、FRスピーカを特定したいときにスピーカ3のタッチセンサ34が機能する。従ってCPU11は初期セットアップなどの必要なときのタッチセンサ34の操作通知を、正しくFLスピーカ、FRスピーカの指定操作であると認識できる。
 なお、それ以外のとき、例えば初期セットアップ時以外の通常時は、タッチセンサ34の操作検知は無用とするのであれば、スピーカ3は操作検知部に不要な電源供給や操作検知処理を行わなくてよいため、一時的に有効化することは省電力及び処理負担の削減に有用である。
 ユーザによる指定操作の態様は、他にも考えられる。
 例えば各スピーカ3に搭載したジェスチャ認識センサを用い、ユーザがジェスチャ操作でスピーカ3を指定するようにしてもよい。
 その他にも、各スピーカ3には、ボタン、マイクロホン、光センサなど、何らかのセンシングデバイスによる操作検知部を設けることが考えられる。
 また、センシングデバイスを設けない場合でも、リモートコントローラ5の操作などにより、テスト音が出るスピーカ3を次々に切り替え、所望のスピーカ3からテスト音が出た時に決定ボタンを押すことでスピーカ3を指定するというような操作も考えられる。
 実施の形態の信号処理装置1は、ユーザによる指定操作があったことの通知を受信した2台の配置基準スピーカを前方左スピーカ(FLスピーカ)及び前方右スピーカ(FRスピーカ)と認識するようにした。
 前方左スピーカと前方右スピーカを確定させることで、聴取時のユーザの向きが判断できる。これにより、全スピーカの相対位置関係を把握した状態で、想定されるスピーカ配置として、鏡面関係にある2つの配置状態の内、どちらが実際の配置状態かを判定し、前方左右のスピーカ3を基準に、各スピーカのチャネルを適切に設定できる。
 なお、配置基準スピーカとするのは必ずしもFLスピーカ、FRスピーカでなくてもよい。例えばサラウンドスピーカをユーザにタッチさせるようにしても良い。
 ただFLスピーカ、FRスピーカが少なくとも存在すること、及びユーザにとってわかりやすい位置であることから、ユーザへのタッチ操作の指示に好適であり、タッチ操作のミスも殆どないと考えられるため、FLスピーカ、FRスピーカを配置基準スピーカとすることが望ましい。
 実施の形態では、2台の配置基準スピーカは、ユーザによる指定操作があった順序により、前方左スピーカと前方右スピーカを区別するようにした。
 ユーザのタッチセンサ34の操作順により、明確に前方左スピーカと前方右スピーカを判別することができる。これにより、各スピーカ3は同一の構成で同一のタッチセンサ検出信号が送信されてくるものであっても、正確にFLスピーカ、FRスピーカを特定できる。
 実施の形態では、ユーザによる一回目の指定操作があった場合、当該指定操作の通知を送信してきたスピーカ3以外の各スピーカ3に対して操作検知部を有効化する指示を行い、二回目の指定操作を待機するようにした(S106~S108)。
 これにより、ユーザが同じスピーカ3を2回タッチしたような場合に、当該スピーカ3が無用の通知を信号処理装置1に送らないようにすることができる。
 実施の形態では、各スピーカ3間の距離情報の取得のために、各スピーカに対して順次テスト音出力を実行させるようにした(図11のLP1:S150~S152)。
 これにより1つのスピーカから各スピーカへの音の到達時間を計測でき、これによってスピーカ間距離を計算できる。
 実施の形態では全スピーカ3は時刻同期がとられており、各スピーカ3はマイクロホン33を備えて他のスピーカ3からのテスト音の検出時刻情報を送信可能に構成されている。信号処理装置1は、一のスピーカ3からのテスト音の出力開始時刻情報と、他のスピーカからの検出時刻情報により、一のスピーカと他のスピーカの間の距離を算出する(S153)。これによりスピーカ間距離を正確に計算できる。
 実施の形態の信号処理装置1は、相対位置認識部11aが認識した相対位置関係及びチャネル設定部11bによるチャネル設定に基づいて仮想スピーカ4の配置を設定する仮想スピーカ設定部11cを備えるようにした。
 仮想スピーカ4を設定することで実際のスピーカ配置とは異なる、仮想スピーカによる出力を模した音響空間を形成することができる。
 また仮想スピーカ4を生成するシステムでは、実スピーカ3を様々な位置に設置できる。この時、スピーカ3の設置位置によっては、どのチャネルとするべきか迷うケースがありチャネル設定がとても困難になることがある。本実施の形態のチャネル設定により、仮想スピーカ4を用いる場合でも、例えばモニタ装置9の両サイドに置いた2つのスピーカ3を選択するだけで良いため、スピーカ設置位置によってチャネル設定を迷うことが無くなる。
 実施の形態では、チャネル信号処理部(11d、12)は仮想スピーカ4の配置の設定が行われた場合、各スピーカ3のそれぞれに対する送信信号として、仮想スピーカ配置を実現するNチャネルの音声信号を生成するようにしている。
 即ち実際のスピーカ3へ送信する各チャネルの音声信号に対して、仮想スピーカの設定に応じて各仮想スピーカの音響出力の位置や定位状態を実現する処理を施す。
 これにより、実際のスピーカから出力される音声により、仮想スピーカ配置による音響空間が形成される。従って、室内の形状、ユーザの好みや家具の配置などに応じたスピーカ配置位置などにより、最適なサラウンド効果が得られないようなスピーカ配置がなされていた場合でも、適切な音響空間をユーザに提供できる。
 実施の形態では、仮想スピーカ設定部11cは、操作信号に応じて、仮想スピーカ4の配置位置を回転方向に変位させる例を述べた(図14参照)。
 例えばユーザの左右回転方向の回転操作に応じて仮想スピーカ配置位置が左回転方向又は右回転方向に変位されるようにする。
 これにより、ユーザが希望する方向性で仮想スピーカが配置された音響空間を提供できることになる。例えばユーザの姿勢や向き、室内での居場所などに応じて、最適なサラウンド音響空間を提供できる。 
 もちろん設置した実スピーカ3の位置を移動しなくても、ユーザの使用シーンに合わせて簡単に視聴方向を変更することができる。
 なおユーザの操作は回転操作に限られない。ボタン操作、方向操作なども想定される。
 実施の形態の信号処理装置1は、ユーザ操作に応じて、N台のスピーカを用いた音響出力と、N台のうちの一部のスピーカを用いた音響出力を切り換え制御する使用スピーカ設定部11eを備える例を述べた(図16~図19参照)。
 これにより、ユーザが希望する状態の音響空間を提供できる。例えばユーザの居場所、時間帯、家族の状況などに応じて、最適な音響出力を簡易な操作で提供できる。
 具体的には実施の形態では、スマートホンなどによる操作なしで、目の前のスピーカを直接選ぶだけで、ユーザの使用シーンに合わせて再生エリアを制御することができる。
 実施の形態のプログラムは、上述の相対位置認識部11a、チャネル設定部11b、仮想スピーカ設定部11c、チャネル信号処理部11d、使用スピーカ設定部11eとしての機能を、例えばCPU、DSP(Digital Signal Processor)等、或いはこれらを含むデバイスとして情報処理装置に実行させるプログラムである。
 即ち実施の形態のプログラムは、3台以上であるN台のスピーカのうちの2台からユーザによる指定操作があったことの通知を受信して2台の配置基準スピーカを認識する処理と、各スピーカ間の距離情報を取得する処理と、2台の配置基準スピーカ及び各スピーカ間の距離情報を用いてN台のスピーカの相対位置関係を認識する処理と、認識した相対位置関係に基づいて、各スピーカのチャネルを自動設定する処理とを情報処理装置に実行させるプログラムである。
 このようなプログラムにより、本開示の信号処理装置1を実現できる。
 このようなプログラムはコンピュータ装置等の機器に内蔵されている記録媒体としてのHDD(Hard Disk Drive)や、CPUを有するマイクロコンピュータ内のROM等に予め記録しておくことができる。
 あるいはまた、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magnet optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
 また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
 またこのようなプログラムによれば、実施の形態の信号処理装置1の広範な提供に適している。例えば演算処理装置を備えた各種オーディオ機器、パーソナルコンピュータ、携帯型情報処理装置、携帯電話機、ゲーム機器、ビデオ機器、PDA(Personal Digital Assistant)等にプログラムをダウンロードすることで、これらの機器を、本開示の信号処理装置1とすることができる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
 なお本技術は以下のような構成も採ることができる。
 (1)
 3台以上であるN台のスピーカのうちの2台から、ユーザによる指定操作があったことの通知を受信して2台の配置基準スピーカを認識する処理と、各スピーカ間の距離情報を取得する処理とを行い、2台の配置基準スピーカ及び各スピーカ間の距離情報を用いてN台のスピーカの相対位置関係を認識する相対位置認識部と、
 前記相対位置認識部が認識した相対位置関係に基づいて、各スピーカのチャネルを自動設定するチャネル設定部と、を備えた
 信号処理装置。
 (2)
 入力された音声信号について信号処理を行い、前記N台の各スピーカに供給するNチャネルの音声信号を生成するチャネル信号処理部を備え、
 前記チャネル信号処理部は、前記チャネル設定部が設定したチャネルに基づいて、各スピーカのそれぞれに対する送信信号となるNチャネルの音声信号を生成する
 上記(1)に記載の信号処理装置。
 (3)
 前記N台の各スピーカにはユーザによる指定操作を検知する操作検知部が形成されており、
 前記相対位置認識部は、各スピーカに対して前記操作検知部を有効化する指示を行うとともに、有効化期間中に前記操作検知部による検知を通知してきたスピーカを、配置基準スピーカと認識する
 上記(1)又は(2)に記載の信号処理装置。
 (4)
 前記相対位置認識部は、ユーザによる指定操作があったことの通知を受信した2台の配置基準スピーカを前方左スピーカ及び前方右スピーカと認識する
 上記(3)に記載の信号処理装置。
 (5)
 前記相対位置認識部は、2台の配置基準スピーカは、ユーザによる指定操作があった順序により、前方左スピーカと前方右スピーカを区別する
 上記(4)に記載の信号処理装置。
 (6)
 前記相対位置認識部は、ユーザによる一回目の指定操作があった場合、当該指定操作の通知を送信してきたスピーカ以外の各スピーカに対して前記操作検知部を有効化する指示を行い、二回目の指定操作を待機する
 上記(5)に記載の信号処理装置。
 (7)
 前記相対位置認識部は、
 各スピーカ間の距離情報の取得のために、各スピーカに対して順次テスト音出力を実行させる
 上記(1)乃至(6)のいずれかに記載の信号処理装置。
 (8)
 全スピーカは時刻同期がとられており、
 各スピーカは音声検知部を備えて他のスピーカからのテスト音の検出時刻情報を送信可能に構成されており、
 前記相対位置認識部は、一のスピーカからのテスト音の出力開始時刻情報と、他のスピーカからの検出時刻情報により、前記一のスピーカと前記他のスピーカの間の距離を算出する
 上記(7)に記載の信号処理装置。
 (9)
 前記相対位置認識部が認識した相対位置関係及び前記チャネル設定部によるチャネル設定に基づいて仮想スピーカ配置を設定する仮想スピーカ設定部を備えた
 上記(1)乃至(8)のいずれかに記載の信号処理装置。
 (10)
 入力された音声信号について信号処理を行い、前記N台の各スピーカに供給するNチャネルの音声信号を生成するチャネル信号処理部を備え、
 前記チャネル信号処理部は、前記仮想スピーカ設定部により仮想スピーカ配置の設定が行われた場合、各スピーカのそれぞれに対する送信信号として、仮想スピーカ配置を実現するNチャネルの音声信号を生成する
 上記(9)に記載の信号処理装置。
 (11)
 前記仮想スピーカ設定部は、操作信号に応じて、仮想スピーカの配置位置を回転方向に変位させる
 上記(9)又は(10)に記載の信号処理装置。
 (12)
 ユーザ操作に応じて、前記N台のスピーカを用いた音響出力と、前記N台のうちの一部のスピーカを用いた音響出力を切り換え制御する使用スピーカ設定部を備えた
 上記(1)乃至(11)のいずれかに記載の信号処理装置。
 (13)
 信号処理装置が行うチャネル設定方法として、
 3台以上であるN台のスピーカのうちの2台から、ユーザによる指定操作があったことの通知を受信して2台の配置基準スピーカを認識し、
 各スピーカ間の距離情報を取得し、
 2台の配置基準スピーカ及び各スピーカ間の距離情報を用いてN台のスピーカの相対位置関係を認識し、
 認識した相対位置関係に基づいて、各スピーカのチャネルを自動設定する
 チャネル設定方法。
 (14)
 3台以上であるN台のスピーカのうちの2台から、ユーザによる指定操作があったことの通知を受信して2台の配置基準スピーカを認識する処理と、
 各スピーカ間の距離情報を取得する処理と、
 2台の配置基準スピーカ及び各スピーカ間の距離情報を用いてN台のスピーカの相対位置関係を認識する処理と、
 認識した相対位置関係に基づいて、各スピーカのチャネルを自動設定する処理と、
 を情報処理装置に実行させるプログラム。
 (15)
 3台以上であるN台のスピーカと、
 各スピーカと通信可能な信号処理装置とを有し、
 前記信号処理装置は、
 前記N台のスピーカのうちの2台から、ユーザによる指定操作があったことの通知を受信して2台の配置基準スピーカを認識する処理と、各スピーカ間の距離情報を取得する処理とを行い、2台の配置基準スピーカ及び各スピーカ間の距離情報を用いてN台のスピーカの相対位置関係を認識する相対位置認識部と、
 前記相対位置認識部が認識した相対位置関係に基づいて、各スピーカのチャネルを自動設定するチャネル設定部と、を備えた
 スピーカシステム。
 1…信号処理装置、3…スピーカ、4…仮想スピーカ、5…リモートコントローラ、11,31…CPU、11a…相対位置認識部、11b…チャネル設定部、11c…仮想スピーカ設定部、11d…チャネル信号処理部、11e…使用スピーカ設定部、12…出力信号形成部、13,35…RFモジュール、14…受信部、32…スピーカユニット、33…マイクロホン、34…タッチセンサ

Claims (15)

  1.  3台以上であるN台のスピーカのうちの2台から、ユーザによる指定操作があったことの通知を受信して2台の配置基準スピーカを認識する処理と、各スピーカ間の距離情報を取得する処理とを行い、2台の配置基準スピーカ及び各スピーカ間の距離情報を用いてN台のスピーカの相対位置関係を認識する相対位置認識部と、
     前記相対位置認識部が認識した相対位置関係に基づいて、各スピーカのチャネルを自動設定するチャネル設定部と、を備えた
     信号処理装置。
  2.  入力された音声信号について信号処理を行い、前記N台の各スピーカに供給するNチャネルの音声信号を生成するチャネル信号処理部を備え、
     前記チャネル信号処理部は、前記チャネル設定部が設定したチャネルに基づいて、各スピーカのそれぞれに対する送信信号となるNチャネルの音声信号を生成する
     請求項1に記載の信号処理装置。
  3.  前記N台の各スピーカにはユーザによる指定操作を検知する操作検知部が形成されており、
     前記相対位置認識部は、各スピーカに対して前記操作検知部を有効化する指示を行うとともに、有効化期間中に前記操作検知部による検知を通知してきたスピーカを、配置基準スピーカと認識する
     請求項1に記載の信号処理装置。
  4.  前記相対位置認識部は、ユーザによる指定操作があったことの通知を受信した2台の配置基準スピーカを前方左スピーカ及び前方右スピーカと認識する
     請求項3に記載の信号処理装置。
  5.  前記相対位置認識部は、2台の配置基準スピーカは、ユーザによる指定操作があった順序により、前方左スピーカと前方右スピーカを区別する
     請求項4に記載の信号処理装置。
  6.  前記相対位置認識部は、ユーザによる一回目の指定操作があった場合、当該指定操作の通知を送信してきたスピーカ以外の各スピーカに対して前記操作検知部を有効化する指示を行い、二回目の指定操作を待機する
     請求項5に記載の信号処理装置。
  7.  前記相対位置認識部は、
     各スピーカ間の距離情報の取得のために、各スピーカに対して順次テスト音出力を実行させる
     請求項1に記載の信号処理装置。
  8.  全スピーカは時刻同期がとられており、
     各スピーカは音声検知部を備えて他のスピーカからのテスト音の検出時刻情報を送信可能に構成されており、
     前記相対位置認識部は、一のスピーカからのテスト音の出力開始時刻情報と、他のスピーカからの検出時刻情報により、前記一のスピーカと前記他のスピーカの間の距離を算出する
     請求項7に記載の信号処理装置。
  9.  前記相対位置認識部が認識した相対位置関係及び前記チャネル設定部によるチャネル設定に基づいて仮想スピーカ配置を設定する仮想スピーカ設定部を備えた
     請求項1に記載の信号処理装置。
  10.  入力された音声信号について信号処理を行い、前記N台の各スピーカに供給するNチャネルの音声信号を生成するチャネル信号処理部を備え、
     前記チャネル信号処理部は、前記仮想スピーカ設定部により仮想スピーカ配置の設定が行われた場合、各スピーカのそれぞれに対する送信信号として、仮想スピーカ配置を実現するNチャネルの音声信号を生成する
     請求項9に記載の信号処理装置。
  11.  前記仮想スピーカ設定部は、操作信号に応じて、仮想スピーカの配置位置を回転方向に変位させる
     請求項9に記載の信号処理装置。
  12.  ユーザ操作に応じて、前記N台のスピーカを用いた音響出力と、前記N台のうちの一部のスピーカを用いた音響出力を切り換え制御する使用スピーカ設定部を備えた
     請求項1に記載の信号処理装置。
  13.  信号処理装置が行うチャネル設定方法として、
     3台以上であるN台のスピーカのうちの2台から、ユーザによる指定操作があったことの通知を受信して2台の配置基準スピーカを認識し、
     各スピーカ間の距離情報を取得し、
     2台の配置基準スピーカ及び各スピーカ間の距離情報を用いてN台のスピーカの相対位置関係を認識し、
     認識した相対位置関係に基づいて、各スピーカのチャネルを自動設定する
     チャネル設定方法。
  14.  3台以上であるN台のスピーカのうちの2台から、ユーザによる指定操作があったことの通知を受信して2台の配置基準スピーカを認識する処理と、
     各スピーカ間の距離情報を取得する処理と、
     2台の配置基準スピーカ及び各スピーカ間の距離情報を用いてN台のスピーカの相対位置関係を認識する処理と、
     認識した相対位置関係に基づいて、各スピーカのチャネルを自動設定する処理と、
     を情報処理装置に実行させるプログラム。
  15.  3台以上であるN台のスピーカと、
     各スピーカと通信可能な信号処理装置とを有し、
     前記信号処理装置は、
     前記N台のスピーカのうちの2台から、ユーザによる指定操作があったことの通知を受信して2台の配置基準スピーカを認識する処理と、各スピーカ間の距離情報を取得する処理とを行い、2台の配置基準スピーカ及び各スピーカ間の距離情報を用いてN台のスピーカの相対位置関係を認識する相対位置認識部と、
     前記相対位置認識部が認識した相対位置関係に基づいて、各スピーカのチャネルを自動設定するチャネル設定部と、を備えた
     スピーカシステム。
PCT/JP2019/010683 2018-04-24 2019-03-14 信号処理装置、チャネル設定方法、プログラム、スピーカシステム WO2019208012A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020516096A JP7298599B2 (ja) 2018-04-24 2019-03-14 信号処理装置、チャネル設定方法、プログラム、スピーカシステム
EP19793355.9A EP3787318A4 (en) 2018-04-24 2019-03-14 SIGNAL PROCESSING DEVICE, CHANNEL SETTING PROCEDURE, PROGRAM AND SPEAKER SYSTEM
CN201980020047.5A CN111886881B (zh) 2018-04-24 2019-03-14 信号处理装置、声道设置方法、记录介质以及扬声器系统
US16/980,973 US11356789B2 (en) 2018-04-24 2019-03-14 Signal processing device, channel setting method, and speaker system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018082949 2018-04-24
JP2018-082949 2018-04-24

Publications (1)

Publication Number Publication Date
WO2019208012A1 true WO2019208012A1 (ja) 2019-10-31

Family

ID=68294480

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/010683 WO2019208012A1 (ja) 2018-04-24 2019-03-14 信号処理装置、チャネル設定方法、プログラム、スピーカシステム

Country Status (5)

Country Link
US (1) US11356789B2 (ja)
EP (1) EP3787318A4 (ja)
JP (1) JP7298599B2 (ja)
CN (1) CN111886881B (ja)
WO (1) WO2019208012A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210377687A1 (en) * 2020-06-02 2021-12-02 Sagemcom Broadband Sas Centralized processing of an incoming audio stream
US11356789B2 (en) 2018-04-24 2022-06-07 Sony Corporation Signal processing device, channel setting method, and speaker system
EP4207803A4 (en) * 2020-09-18 2024-02-21 Huawei Tech Co Ltd METHOD, SYSTEM, ELECTRONIC DEVICE AND STORAGE MEDIUM FOR DETERMINING THE ROLE OF A SPEAKER SOUND CHANNEL

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05122800A (ja) * 1991-10-28 1993-05-18 Sony Corp 音響装置
JP2002345100A (ja) 2001-05-22 2002-11-29 Funai Electric Co Ltd Avアンプおよびavアンプの出力端子のチャンネル設定方法
JP2004241820A (ja) * 2003-02-03 2004-08-26 Denon Ltd マルチチャンネル再生装置
WO2006131894A2 (en) * 2005-06-09 2006-12-14 Koninklijke Philips Electronics N.V. A method of and system for automatically identifying the functional positions of the loudspeakers of an audio-visual system
US20140161265A1 (en) * 2005-09-02 2014-06-12 Harman International Industries, Incorporated Self-calibration loudspeaker system
US20150381296A1 (en) * 2014-06-25 2015-12-31 Cheng Yih Jenq Wireless transmission of sound signals to multiple discrete speakers
US9749769B2 (en) 2014-07-30 2017-08-29 Sony Corporation Method, device and system
JP2017184174A (ja) * 2016-03-31 2017-10-05 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3909749B2 (ja) 2001-12-25 2007-04-25 アルパイン株式会社 オーディオ用音場調整装置
WO2012164444A1 (en) * 2011-06-01 2012-12-06 Koninklijke Philips Electronics N.V. An audio system and method of operating therefor
US9277321B2 (en) * 2012-12-17 2016-03-01 Nokia Technologies Oy Device discovery and constellation selection
WO2014175668A1 (ko) * 2013-04-27 2014-10-30 인텔렉추얼디스커버리 주식회사 오디오 신호 처리 방법
ES2931952T3 (es) 2013-05-16 2023-01-05 Koninklijke Philips Nv Un aparato de procesamiento de audio y el procedimiento para el mismo
US10285075B2 (en) * 2013-06-06 2019-05-07 The Boeing Company Device identification via peer exchange
DE102015106114B4 (de) 2015-04-21 2017-10-26 D & B Audiotechnik Gmbh Verfahren und einrichtung zur positionserkennung von lautsprecherboxen einer lautsprecherboxenanordnung
US9854362B1 (en) 2016-10-20 2017-12-26 Sony Corporation Networked speaker system with LED-based wireless communication and object detection
CN107396250A (zh) 2017-09-15 2017-11-24 深圳市禾音视频科技有限公司 基于杜比实现的集成式智能影院系统
JP7298599B2 (ja) 2018-04-24 2023-06-27 ソニーグループ株式会社 信号処理装置、チャネル設定方法、プログラム、スピーカシステム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05122800A (ja) * 1991-10-28 1993-05-18 Sony Corp 音響装置
JP2002345100A (ja) 2001-05-22 2002-11-29 Funai Electric Co Ltd Avアンプおよびavアンプの出力端子のチャンネル設定方法
JP2004241820A (ja) * 2003-02-03 2004-08-26 Denon Ltd マルチチャンネル再生装置
WO2006131894A2 (en) * 2005-06-09 2006-12-14 Koninklijke Philips Electronics N.V. A method of and system for automatically identifying the functional positions of the loudspeakers of an audio-visual system
US20140161265A1 (en) * 2005-09-02 2014-06-12 Harman International Industries, Incorporated Self-calibration loudspeaker system
US20150381296A1 (en) * 2014-06-25 2015-12-31 Cheng Yih Jenq Wireless transmission of sound signals to multiple discrete speakers
US9749769B2 (en) 2014-07-30 2017-08-29 Sony Corporation Method, device and system
JP2017184174A (ja) * 2016-03-31 2017-10-05 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3787318A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11356789B2 (en) 2018-04-24 2022-06-07 Sony Corporation Signal processing device, channel setting method, and speaker system
US20210377687A1 (en) * 2020-06-02 2021-12-02 Sagemcom Broadband Sas Centralized processing of an incoming audio stream
US11924622B2 (en) * 2020-06-02 2024-03-05 Sagemcom Broadband Sas Centralized processing of an incoming audio stream
EP4207803A4 (en) * 2020-09-18 2024-02-21 Huawei Tech Co Ltd METHOD, SYSTEM, ELECTRONIC DEVICE AND STORAGE MEDIUM FOR DETERMINING THE ROLE OF A SPEAKER SOUND CHANNEL

Also Published As

Publication number Publication date
US20210037331A1 (en) 2021-02-04
JPWO2019208012A1 (ja) 2021-04-30
CN111886881A (zh) 2020-11-03
US11356789B2 (en) 2022-06-07
JP7298599B2 (ja) 2023-06-27
CN111886881B (zh) 2022-11-25
EP3787318A1 (en) 2021-03-03
EP3787318A4 (en) 2021-06-30

Similar Documents

Publication Publication Date Title
JP6668661B2 (ja) パラメータ制御装置およびパラメータ制御プログラム
JP4643987B2 (ja) スマートスピーカ
JP7298599B2 (ja) 信号処理装置、チャネル設定方法、プログラム、スピーカシステム
JP2006524003A (ja) イヤピース遠隔コントローラを有するパーソナルオーディオシステム
US10773165B2 (en) Gaming peripheral with intelligent audio control
US9769585B1 (en) Positioning surround sound for virtual acoustic presence
WO2015162923A1 (ja) 再生装置及び再生方法
US11758326B2 (en) Wearable audio device within a distributed audio playback system
US11272312B2 (en) Non-transitory computer-readable medium having computer-readable instructions and system
JP6111611B2 (ja) オーディオアンプ
CN109379490A (zh) 音频播放方法、装置、电子设备及计算机可读介质
US20240036810A1 (en) Playing Media Content in Response to Detecting Items Having Corresponding Media Content Associated Therewith
JP2018019205A (ja) 給湯器の遠隔制御システム
JP7306384B2 (ja) 情報処理装置、情報処理方法、プログラム
US20220382508A1 (en) Playback Device with Conforming Capacitive Touch Sensor Assembly
WO2006107074A1 (ja) 携帯端末装置
KR20100076442A (ko) 미디어 재생 시스템, 미디어 재생기의 제어 스위치가 장착된 휴대용 출력기 및 그의 제어 방법
JP2014107764A (ja) 位置情報取得装置、およびオーディオシステム
JP6587281B2 (ja) 音響システム、音響機器、及び端末装置
JP2023508901A (ja) 不可視スピーカによる仮想効果音のためのシステムと方法
JP2016021640A (ja) オーディオ装置およびオーディオシステム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19793355

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020516096

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019793355

Country of ref document: EP

Effective date: 20201124