WO2019049245A1 - オーディオシステム、オーディオ機器、及びオーディオ機器の制御方法 - Google Patents

オーディオシステム、オーディオ機器、及びオーディオ機器の制御方法 Download PDF

Info

Publication number
WO2019049245A1
WO2019049245A1 PCT/JP2017/032159 JP2017032159W WO2019049245A1 WO 2019049245 A1 WO2019049245 A1 WO 2019049245A1 JP 2017032159 W JP2017032159 W JP 2017032159W WO 2019049245 A1 WO2019049245 A1 WO 2019049245A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio
audio device
time
signal
audio signal
Prior art date
Application number
PCT/JP2017/032159
Other languages
English (en)
French (fr)
Inventor
正和 白井
祐希 末光
治 小原
太 室永
岩下 和裕
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to EP17924184.9A priority Critical patent/EP3681177A4/en
Priority to PCT/JP2017/032159 priority patent/WO2019049245A1/ja
Priority to JP2019540187A priority patent/JP7024794B2/ja
Priority to US15/921,711 priority patent/US10390138B2/en
Publication of WO2019049245A1 publication Critical patent/WO2019049245A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/765Media network packet handling intermediate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/003Digital PA systems using, e.g. LAN or internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/005Audio distribution systems for home, i.e. multi-room use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved

Definitions

  • the present invention relates to an audio system, an audio device, and a control method of the audio device.
  • Patent Document 1 discloses a technique for converting an input audio signal of one or more input channels into an output audio signal of an output channel number larger than the input channel number to perform multi-channel reproduction.
  • the present invention has been made in view of the above situation, and its object is to provide an audio system capable of extending the number of channels of an audio signal received from the outside and redistributing it to another audio device with a simple configuration. , An audio device, and a control method of the audio device.
  • An audio system includes a first audio device for receiving a first audio signal of a first number of channels, and a second audio device connected to the first audio device via a network.
  • the first audio device generates a second audio signal of a second number of channels larger than the first number of channels based on the first audio signal received from the outside of the first audio device;
  • a communication unit for transmitting a third audio signal corresponding to a part of channels in the second audio signal generated by the signal processing unit to the second audio device.
  • An audio device generates, based on a first audio signal of a first channel number received from the outside of the audio device, a second audio signal of a second channel number greater than the first channel number.
  • a signal processing unit, and a third audio signal corresponding to a part of channels in the second audio signal generated by the signal processing unit to an external audio device connected to the audio device via the network And a communication unit.
  • a control method of an audio device a second audio of a second number of channels larger than the first number of channels based on a first audio signal of a first number of channels received from the outside of the audio device.
  • the number of channels of the audio signal received from the outside can be extended and re-distributed to another audio device with a simple configuration.
  • FIG. 1 is a schematic view showing a logical network configuration of an audio system according to an embodiment of the present invention. It is a figure which shows the operation screen for selecting the room which reproduces
  • FIG. 7 is a diagram schematically showing the delivery time of an audio signal in the network configuration shown in FIG. 6; It is a flowchart which shows the operation example of the audio system which concerns on this embodiment. It is a flowchart which shows the operation example of the audio system which concerns on this embodiment. It is a flowchart which shows the operation example of the delay time setting process in the audio system which concerns on this embodiment. It is a block diagram which shows the structure of the audio equipment which concerns on this embodiment. It is a block diagram which shows the structure of the audio equipment which concerns on this embodiment.
  • FIG. 1 is a schematic view showing a physical network configuration of an audio system 1 according to the present embodiment.
  • the audio system 1 includes a controller 10, a content server 20, a router 30, and a plurality of audio devices. Although the number of audio devices is not limited, six audio devices 101 to 104, 201, and 301 are shown in FIG. 1 as an example. In the following, when describing the functions common to the audio devices 101 to 104, 201, and 301, each audio device will be referred to as "audio device 100".
  • the content server 20 and the router 30 are each connected to a network, and the controller 10 and each audio device 100 are connected to the network via the router 30.
  • FIG. 2 is a schematic view showing a logical network configuration of the audio system 1 according to the present embodiment.
  • the controller 10, the content server 20, and the audio devices 100 mutually transmit and receive audio signals and commands (commands) via the network 2.
  • the place where each audio device 100 is installed is not particularly limited, but in FIG. 2, as one example, the audio devices 101 to 104 are installed in the living room (R1), and the audio device 201 is installed in the kitchen (R2) In the example, the audio device 301 is installed in the server room (R3).
  • the controller 10 is an operation terminal operated by a user, such as a smartphone, a tablet, a personal computer, etc., and has a communication function connectable to the network 2.
  • the controller 10 transmits various commands (requests) to the content server 20 and each audio device 100 based on the user's operation.
  • the controller 10 operates an operation screen (see FIG. 3) for selecting a room in which the content is to be reproduced (sound output), an operation screen for selecting a sound source in which the content is stored (refer to FIG. 4)
  • An operation screen (see FIG. 5) or the like for selecting the content to be displayed is displayed.
  • the controller 10 transmits an instruction according to the content selected by the user on each operation screen to the content server 20 and each audio device 100.
  • the controller 10 may display an operation screen for selecting the audio device 100 that reproduces (sounds) the content. Further, the controller 10 may store content playable by an audio device and have a function as a sound source.
  • the content server 20 is a server that stores and manages content to be provided to users, and has a communication function that can be connected to the network 2. Further, the content server 20 is connected via the network 2 to various sound sources such as the controller 10, a television, a radio, a CD (Compact Disc (registered trademark), Internet distribution, etc.).
  • the content provided to the user by the content server 20 includes music, audio such as television and radio, and the like.
  • the content server 20 distributes (outputs) music data and audio data to a predetermined audio device 100 based on an operation of the controller 10 (see FIG. 5) of the user.
  • a data signal of data (music data, audio data, etc.) of content distributed by the content server 20 to the audio device 100 is referred to as an "audio signal".
  • an audio signal For example, when the user uses the controller 10 to select a music file (for example, "Song B") stored inside the content server 20, the content server 20 sets the audio signal corresponding to "Song B" to a predetermined value. It distributes to the audio device 100.
  • a program for example, "program A”
  • the content server 20 performs, for example, streaming of an audio signal of "program A" broadcasted on the Internet radio. Deliver to 100.
  • the content server 20 may be included in the audio device 100 (for example, the audio device 301 described later).
  • the audio device 100 may store content (audio signal) inside (storage unit 16 described later), or content via a storage medium (for example, CD, USB (Universal Serial Bus (registered trademark))). You may save (audio signal).
  • the network 2 includes a wireless local area network (LAN), a wired LAN, a wide area network (WAN), and the like, and functions as a signal transmission path between the controller 10, the content server 20, and each audio device 100.
  • LAN wireless local area network
  • WAN wide area network
  • the network 2 may be configured by Wi-Fi (Wireless-Fidelity (registered trademark)).
  • the audio devices 101 to 104, 201, and 301 have the same configuration.
  • each of the audio devices 101 to 104, 201, and 301 may have a function as a distribution server that receives the audio signal distributed from the content server 20 and distributes the received audio signal to other audio devices.
  • a network configuration in which the audio device 301 functions as a distribution server will be described as an example.
  • the audio device 301 (third audio device) receives the audio signal AS1 (first audio signal) distributed from the content server 20, and receives the received audio signal AS1 as an audio device 101 (first audio device), 201 (first 4) Deliver to audio equipment).
  • FIG. 7 is a block diagram showing the configuration of the audio device 101.
  • the audio device 101 includes a wireless LAN communication unit 11, a signal transfer unit 12, a signal processing unit 13, a power amplifier 14, a control unit 15, and a storage unit 16. Speakers 41 ⁇ / b> L and 41 ⁇ / b> R are connected to the power amplifier 14. The speakers 41L and 41R may be included in the audio device 101.
  • the signal transfer unit 12 includes a signal reception unit 121, a signal output unit 122, a signal input unit 123, and a signal distribution unit 124, and transfers an audio signal in a predetermined signal format (for example, PCM (Pulse Code Modulation) format) Do.
  • a predetermined signal format for example, PCM (Pulse Code Modulation) format
  • the control unit 15 includes a CPU (Central Processing Unit) and a memory.
  • the CPU controls each part of the audio device 101 and executes various information processing and signal processing.
  • the memory holds various programs (including the audio system program 15A) and data. In addition, a work area of the CPU is secured in the memory.
  • the control unit 15 controls, for example, the operations of the wireless LAN communication unit 11, the signal transfer unit 12, and the signal processing unit 13 (signal processing means) by the audio system program 15A.
  • the control unit 15 also transmits and receives various signals and commands to / from the controller 10, the content server 20, and each audio device 100 via the network 2.
  • the wireless LAN communication unit 11 performs wireless communication with the controller 10, the content server 20, and each audio device 100.
  • the audio device 101 may include a wired LAN communication unit, and the wired LAN communication unit may perform wired communication with the controller 10, the content server 20, and each audio device 100.
  • the signal reception unit 121 receives the audio signal AS1 output from the content server 20 via the wireless LAN communication unit 11, and the signal output unit 122 receives the audio signal AS1 as a signal processing unit. Transfer to 13.
  • the signal input unit 123 receives the audio signal AS4 (third audio signal) output from the signal processing unit 13, and the signal distribution unit 124 receives the received audio signal AS4 from the wireless LAN communication unit. Distribution (redistribution) to the audio devices 102 (second audio device), 103 (fifth audio device), and 104 (sixth audio device) through 11.
  • the signal processing unit 13 is configured by a digital signal processor (DSP), and performs digital signal processing on the audio signal AS1 transferred from the signal transfer unit 12.
  • the signal processing unit 13 includes a channel expansion unit 131 and a signal generation unit 132.
  • the signal processing unit 13 is provided outside the wireless LAN communication unit 11 and the signal transfer unit 12.
  • the signal processing unit 13 is provided in an IC chip different from the IC chip on which the signal transfer unit 12 is mounted.
  • the channel expansion unit 131 performs channel expansion processing to convert (expand) the audio signal AS1 of the first channel number into the audio signal AS2 (second audio signal) of the second channel number larger than the first channel number.
  • the channel expansion unit 131 converts (expands) the two-channel audio signal AS1 into a 4.1-channel audio signal AS2.
  • a channel expansion process can apply a well-known technique (for example, refer US Patent 7003467).
  • the signal generation unit 132 uses the audio signal AS3 (AS3 (L), AS3 (R)) (fourth audio signal) for the audio device 101 and the audio device 102 based on the audio signal AS2 generated by the channel expansion process. , 103, and 104.
  • a signal generation process is performed to generate audio signals AS4 (AS4 (L), AS4 (R), AS4 (W)) (third audio signal) for 103, 104.
  • the signal generation unit 132 outputs the generated audio signal AS3 (AS3 (L), AS3 (R)) to the power amplifier 14.
  • the power amplifier 14 amplifies the audio signals AS3 (AS3 (L), AS3 (R)) and outputs the amplified audio signals to the speakers (41L, 41R).
  • the speakers 41 (41L, 41R) output (discharge) the audio signals AS3 (AS3 (L), AS3 (R)) received from the power amplifier 14 as sounds.
  • the signal generation unit 132 also outputs the generated audio signal AS4 (AS4 (L), AS4 (R), AS4 (W)) to the signal transfer unit 12.
  • the signal transfer unit 12 transmits the audio signals AS4 (AS4 (L), AS4 (R), AS4 (W)) input from the signal generation unit 132 to the signal input unit 123, the signal distribution unit 124, and the wireless LAN communication unit 11. Distributed (re-distributed) to the audio devices 102, 103, and 104 via
  • the signal processing unit 13 may further execute signal processing such as effect processing suitable for a sound field or effect processing suitable for multi-channels.
  • signal processing such as effect processing suitable for a sound field or effect processing suitable for multi-channels.
  • the audio signal AS3 has characteristics different from those of the audio signal AS1 even when the number of channels (for example, 2 channels) is the same as that of the audio signal AS1, and thus effects processing You can get the effect according to the
  • the audio signal AS3 may be the same signal as the audio signal AS1 output from the content server 20.
  • the signal processing unit 13 outputs the audio signal AS1 output from the content server 20 to the power amplifier 14 as an audio signal AS3.
  • the audio device 102 performs known signal processing on the audio signal AS 4 (L) received from the audio device 101 and outputs the signal to the speaker 42.
  • the speaker 42 outputs the audio signal AS4 (L) received from the audio device 102 as a sound.
  • the audio device 103 performs known signal processing on the audio signal AS 4 (R) received from the audio device 101, and outputs the signal to the speaker 43.
  • the speaker 43 outputs the audio signal AS4 (R) received from the audio device 103 as a sound.
  • the audio device 104 performs known signal processing on the audio signal AS 4 (W) received from the audio device 101 and outputs the signal to the speaker 44.
  • the speaker 44 outputs the audio signal AS4 (W) received from the audio device 104 as a sound.
  • the speakers 41L and 41R function as front speakers
  • the speakers 42 and 43 function as rear speakers
  • the speaker 44 is a subwoofer It functions as a speaker. Thereby, surround reproduction is realized in the living room (R1).
  • the audio device 301 distributes the audio signal AS1 (for example, 2 channels) received from the content server 20 to the audio devices 101 and 201 as described above, and performs well-known signal processing on the received audio signal AS1. , And output to the speakers 51L, 51R.
  • the speaker 51L outputs the audio signal AS1 (L) as sound
  • the speaker 51R outputs the audio signal AS1 (R) as sound.
  • the server room (R3) in which the audio device 301 is installed stereo reproduction is realized by the speakers 51L and 51R.
  • the audio device 201 receives the audio signal AS1 (for example, two channels) distributed from the audio device 301, performs known signal processing on the received audio signal AS1, and outputs the signal to the speakers 61L and 61R.
  • the speaker 61L outputs the audio signal AS1 (L) as sound
  • the speaker 61R outputs the audio signal AS1 (R) as sound.
  • stereo reproduction is realized by the speakers 61L and 61R.
  • the audio system 1 has a function that each audio device 100 reproduces the content in synchronization.
  • synchronization between the audio devices 101 to 104, 201, and 301 allows the same content in the living room (R1), the kitchen (R2), and the server room (R3). Synchronized and played.
  • the control unit 15 (see FIG. 7) of each audio device 100 includes a distribution time calculation unit 151 and a delay time calculation unit 152.
  • the distribution time calculation unit 151 calculates, for example, the time (distribution time) required for the audio device 100 to reproduce (output to a speaker) after the content (audio signal) is output from the distribution server to the audio device 100.
  • the delay time calculation unit 152 calculates the time (delay time) required for the audio device 100 to synchronize with another audio device 100.
  • the network configuration shown in FIG. 6 will be specifically described below as an example.
  • FIG. 8 is a diagram schematically showing the delivery time of the audio signal in the network configuration shown in FIG.
  • t1 is a distribution time (first distribution time) of an audio signal from the audio device 301 (distribution server) to the audio device 101, specifically, for example, an audio signal is an audio device 301 (distribution server)
  • T2 is the delivery time of the audio signal from the audio device 301 to the audio device 201 (the fourth delivery time), specifically, for example, The time required from the audio signal being output from the audio device 301 to being reproduced by the audio device 201 is indicated by “t3”, the processing time of the audio signal in the audio device 301 (distribution server), specifically, for example , After the audio device 301 receives the audio signal AS1 It shows the time required to play in (audio device 301).
  • t12 is a distribution time (second distribution time) of an audio signal from the audio device 101 to the audio device 102, specifically, for example, an audio signal is output from the audio device 101 and then reproduced by the audio device 102.
  • T13 indicates the delivery time of the audio signal from the audio device 101 to the audio device 103 (third delivery time), specifically, for example, an audio signal is output from the audio device 101
  • T14 is the delivery time of the audio signal from the audio device 101 to the audio device 104, specifically, for example, an audio signal is output from the audio device 101. And then played on the audio device 104 It shows the time required to.
  • t1 + t12 is a distribution time of an audio signal from the audio device 301 to the audio device 102, specifically, for example, an audio signal is output from the audio device 301 (distribution server) and then reproduced by the audio device 102.
  • T1 + t13 indicates the distribution time of the audio signal from the audio device 301 to the audio device 103, specifically, for example, the audio signal is output from the audio device 301 and then reproduced by the audio device 103.
  • T1 + t14 is a delivery time of an audio signal from the audio device 301 to the audio device 104, specifically, for example, an audio signal is output from the audio device 301 and then reproduced by the audio device 104. And It shows the time required to.
  • each delivery time can be calculated using a known technique, and is calculated based on communication results such as Ping response time, for example.
  • Each delivery time includes a transmission time in a network (for example, a wireless LAN), a processing time of signal processing, and the like.
  • a network for example, a wireless LAN
  • processing time of signal processing and the like.
  • the audio system 1 starts the reproduction start time of each audio device 100 based on the time required for the audio device 100 (the distribution server) to output the audio signal and to reproduce the audio signal 100 the longest.
  • the delay time "T” (T1, T2, T3, T12, T13, T14) for adjustment is set.
  • Each audio device 100 reproduces an audio signal based on each set delay time “T”.
  • the content for example, "Song B”
  • the user can be simultaneously reproduced in the living room (R1), the kitchen (R2), and the server room (R3). Details of the process of setting the delay time (delay time setting process) will be described later.
  • FIG. 6 are flowcharts showing an operation example of the audio system 1.
  • the audio devices 101 to 104 are installed in the living room (R1)
  • the audio device 201 is installed in the kitchen (R2)
  • a distribution server in the server room (R3) The case where a functional audio device 301 is disposed is taken as an example.
  • the user selects a room (or audio device) in which the content is to be reproduced on the operation screen of the controller 10 shown in FIG. 3 (S101).
  • a room or audio device
  • the user selects a living room (R1) and a kitchen (R2) (see FIG. 3).
  • the controller 10 includes the audio devices 101 to 104 installed in the living room (R1) and the audio devices 201 installed in the kitchen (R2). And an instruction (delivery start request) for starting delivery of the audio signal to the audio device 301 installed in the server room (R3) (S101).
  • the user selects a sound source in which the content is stored or the like on the operation screen shown in FIG. 4 of the controller 10 (S102).
  • the user has selected the content server 20 (see FIG. 4).
  • the content server 20 it is assumed that music files that can be played back by the audio device 100 are stored.
  • the controller 10 transmits, to the content server 20, an instruction (distribution start request) for starting distribution of the audio signal (S102).
  • the audio devices 101 to 104, 201, and 301 communicate with each other to configure (establish) a network (distribution network) for distributing (transmitting and receiving) audio signals (S103).
  • the audio device 301 distributed server
  • the audio devices 101 to 104 and 201 are for synchronizing the reproduction of the content in each of the audio devices 101 to 104, 201, and 301.
  • the process (delay time setting process) is executed (S104). The delay time setting process will be described below with reference to FIGS. 8 and 11.
  • the distribution time calculation unit 151 (see FIG. 7) of the audio device 101 calculates the distribution time “t12” of the audio device 102 based on the communication result etc.
  • the distribution time "t13" and the distribution time “t14" of the audio device 104 are calculated (S201).
  • the delivery time calculation unit 151 may further adjust the calculated delivery time according to the topology (path) of the delivery network. Specifically, for example, in the case of a low delay and stable route such as Ethernet (registered trademark) (wired), the delivery time is adjusted short, and in the case of an unstable route such as Wi-Fi (wireless) Adjust the delivery time longer.
  • the delivery time calculation unit 151 of the audio device 101 determines the delivery time with the longest delivery time among the delivery times “t12”, “t13”, and “t14” as the maximum delivery time “Tmax” (S202).
  • the audio device 301 requests the audio devices 101 and 201 managed (monitored) by the audio device 301 to notify the distribution time (S203).
  • the audio device 201 receives the request from the audio device 301, the audio device 201 notifies the audio device 301 of the distribution time "t2" of the audio signal from the audio device 301 to the audio device 201 (S204).
  • the distribution time “t1 + Tmax” is the sum of the distribution time “t1” of the audio signal from the audio device 301 to the audio device 101 and the maximum distribution time “Tmax”. (Total delivery time) is notified to the audio device 301 (S205).
  • the delay time calculation unit 152 (see FIG. 7) of the audio device 301 requires the acquired distribution times “t2” and “t1 + Tmax” and the time required for the own device (audio device 301) to receive and reproduce the audio signal AS1.
  • the delay time “T1” first delay time
  • “T2” second delay time
  • “T3” third time of each of the audio devices 101, 201, and 301 based on the time (processing time “t3”)
  • the delay time) is calculated (decided) (S206).
  • the delay time calculation unit 152 of the audio device 301 is the longest among the distribution time “t2”, the distribution time “t1 + Tmax”, and the processing time “t3”, and the above-mentioned target audio device
  • the difference between the time (distribution time or processing time) is determined as the delay time (“T1”, “T2”, “T3”) of the target audio device.
  • the delay time “T2” is determined as "0”
  • the delay time "T1” is determined as "t2- (t1 + Tmax)”
  • the delay time "T3” is determined as "T2". It is determined to be t2-t3.
  • the delay time “T1” is determined to “0”
  • the delay time “T2” is determined to “(t1 + Tmax) -t2”
  • the delay time “T3” is determined. Is determined as “(t1 + Tmax) ⁇ t3”.
  • the delay time “T3” is determined to “0”
  • the delay time “T1” is determined to "t3-t1”
  • the delay time "T2” is "t3. Decide to -t2.
  • the delay time calculation unit 152 of the audio device 301 notifies the calculated delay time "T1" to the audio device 101, notifies the calculated delay time "T2" to the audio device 201, and calculates the calculated delay time "T3".
  • the control unit 15 of the device (audio device 301) is notified (S207).
  • control unit 15 sets the delay time (standby time) in the audio device 301 to "T3" (S208).
  • the control unit 15 sets the delay time (waiting time) in the audio device 201 to "T2" (S209).
  • the delay time calculation unit 152 (see FIG. 7) of the audio device 101 obtains the delay time “T1”, the delay time “T1", the maximum delivery time “Tmax”, and the delivery times "t12", “t13", "
  • the delay time "T11” in the audio device 101 and the delay times "T12” (fourth delay time) in the audio devices 102, 103, and 104 managed (monitored) by the audio device 101 based on t14 "and” T13 ". (Fifth delay time) and "T14" are calculated (determined) (S210).
  • the delay time calculation unit 152 of the audio device 101 determines the delay time “T11” to be “T1 + Tmax”, determines the delay time “T12” to be “T1 + Tmax-t12", and determines the delay time "T13". It is determined that "T1 + Tmax-t13", and the delay time "T14” is determined as "T1 + Tmax-t14”.
  • the delay time calculation unit 152 of the audio device 101 notifies each of the calculated delay times “T12”, “T13”, and “T14” to each of the audio devices 102, 103, and 104 (S211).
  • the control unit 15 (see FIG. 7) of the audio device 101 sets the delay time (standby time) in the audio device 101 to "T11" ("T1 + Tmax") (S212).
  • the control unit 15 (see FIG. 7) of the device 102 sets the delay time (standby time) in the audio device 102 to "T12" ("T1 + Tmax-t12") (S213)
  • the control unit 15 (see FIG. 7) of the audio device 103 sets the delay time (standby time) in the audio device 103 to "T13" ("T1 + Tmax-t13") (S214)
  • the above-mentioned delay time setting process may be executed dynamically during content distribution as well as at the start of content distribution. Specifically, for example, when the communication record or the like changes during delivery of the content, or when the time required for each audio device 100 to receive and reproduce the audio signal changes, these changes are At the time of detection, the above-mentioned delay time setting process may be executed again.
  • the user selects the content to be reproduced on the operation screen shown in FIG. 5 of the controller 10 (S105).
  • the controller 10 transmits an instruction (reproduction request) for reproducing "Song B" to the content server 20 (S105).
  • the content server 20 receives the reproduction request from the controller 10, the content server 20 distributes the audio signal AS1 corresponding to "Song B" to the audio device 301 (distribution server) (S106).
  • the audio signal distributed by the content server 20 is, for example, an audio signal of two channels.
  • the audio device 301 Upon receiving the audio signal AS1 from the content server 20, the audio device 301 distributes the audio signal AS1 to each of the audio device 101 and the audio device 201 (S107 in FIG. 10).
  • the signal transfer unit 12 transfers the audio signal AS1 to the signal processing unit 13 (see FIG. 7) (S108).
  • the channel expansion unit 131 of the signal processing unit 13 executes channel expansion processing to convert the two-channel audio signal AS 1 into a 4.1-channel audio signal AS 2.
  • the signal generation unit 132 executes signal generation processing based on the audio signal AS2 to generate audio signals AS3 (AS3 (L) and AS3 (R)) for two channels for the audio device 101, and audio devices 102 and 103, Audio signals AS4 (AS4 (L), AS4 (R), AS4 (W)) of 2.1 channels for 104 are generated (S110).
  • the signal transfer unit 12 distributes (redistributes) the received audio signal AS4 to each of the audio devices 102, 103, and 104 (S111).
  • the audio device 301 receives the audio signal AS1 from the content server 20 (S107), the audio device 101 receives the audio signal AS1 from the audio device 301 (S108), and the audio device 201 is an audio device
  • the audio signal AS1 is received from 301 (S109), and the audio devices 102, 103, and 104 receive the audio signal AS4 from the audio device 101 (S112).
  • the audio devices 301, 201, 101, 102, 103, and 104 respectively have the delay times “T3”, “T2”, “T11”, “T12”, and “T13” set in the delay time setting process (S104).
  • the received audio signal is reproduced based on "T14".
  • the audio device 301 outputs the audio signal AS1 to the speakers 51L and 51R (see FIG. 6) after the delay time "T3" has elapsed (S113).
  • the audio device 201 outputs the audio signal AS1 to the speakers 61L and 61R (see FIG. 6) after the delay time "T2" has elapsed (S116).
  • the audio device 101 outputs the audio signal AS3 to the speakers 41L and 41R (see FIG.
  • the audio device 102 outputs the audio signal AS4 (L) to the speaker 42 (see FIG. 6) after the delay time "T1 + Tmax-t12" has elapsed (S115).
  • the audio device 103 outputs the audio signal AS4 (R) to the speaker 43 (see FIG. 6) after the delay time "T1 + Tmax-t13" has elapsed (S115).
  • the audio device 104 outputs the audio signal AS 4 (W) to the speaker 44 (see FIG. 6) after the delay time “T1 + Tmax ⁇ t14” elapses (S 115).
  • the surround reproduction of "Song B” in the living room (R1), the stereo reproduction of "Song B” in the kitchen (R2), and the stereo reproduction of "Song B” in the server room (R3) are synchronized. To be executed. Further, according to the above processing, synchronized reproduction with another audio device 100 becomes possible even when the processing time "t3" in the audio device 301 functioning as a distribution server is the longest. For this reason, for example, in order to match with the video delay of a television connected to the audio device 100 (lip sync), the output of the speaker is intentionally delayed.
  • the audio device 101 performs audio of the second channel number (for example, 4.1 channels) based on the audio signal of the first channel number (for example, 2 channels) distributed from the outside.
  • An audio device 102 generates an audio signal AS4 (AS4 (L), AS4 (R), AS4 (W)) corresponding to a part of channels (for example, 2.1 channels) in the audio signal AS2 generated and generated. It is distributed (re-distributed) to 103 and 104. Thereby, the number of channels of the audio signal acquired from the outside can be extended and re-distributed by a simple configuration. In addition, surround reproduction can be realized by a simple configuration.
  • the audio device 101 may also output audio signals AS3 (AS3 (L) and AS3 (R)) corresponding to a part of channels (two channels) of the generated audio signal AS2 to the speakers 41L and 41R.
  • the audio device 101 performs a channel expansion process (S110) and a signal generation process (S110) by the signal processing unit 13 (signal processing means) and a delay time setting process by the control unit 15 based on the audio system program 15A.
  • the audio system program 15A may be installed from various recording media regardless of types such as optical and magnetic, and may be downloaded via the Internet.
  • the audio system 1 according to the present invention is not limited to the above-described embodiment, and may have the following configuration.
  • the audio system 1 includes the distribution server (audio device 301) that manages (monitors) the audio devices 101 and 201.
  • the distribution server may be omitted.
  • the audio system 1 configures a distribution network by the audio devices 101 to 104.
  • the audio device 101 manages (monitors) the audio devices 102, 103, and 104, and the delay times “T11”, “T12”, “T13”, and “T14 of the audio devices 101, 102, 103, and 104”.
  • By calculating “1”, synchronous reproduction (surround reproduction) in the audio devices 101, 102, 103, and 104 is realized.
  • the audio device 101 manages (monitors) the three audio devices 102, 103, and 104.
  • the audio system 1 according to the present invention is not limited to this.
  • the device 101 may be configured to manage (monitor) only one audio device 102. In this configuration, for example, in the delay time setting process (S205) shown in FIG. 11, the distribution time "t12" of the audio device 102 may be notified to the audio device 301 (distribution server).
  • the audio device 301 is configured to function as a distribution server, but the audio system 1 according to the present invention is not limited to this.
  • the audio device 101 or the audio device 201 functions as a distribution server It may be a configuration.
  • the audio devices 301 and 101 calculate the delay time, and set the delay time in the audio devices 101, 102, 103, 104, 201, and 301.
  • the audio system according to the present invention 1 is not limited to this.
  • information on the calculated delay time may be added to the audio signal to be distributed to each of the audio devices 101, 102, 103, 104, 201, and 301.
  • the reproduction time (sound emission time) of the audio signal may be calculated based on the delay time, and the time stamps indicating the reproduction time may be notified to each of the audio devices 101, 102, 103, 104, 201, and 301.
  • the time stamps indicating the reproduction time may be notified to each of the audio devices 101, 102, 103, 104, 201, and 301.
  • And may be assigned to audio signals to be distributed to the respective audio devices 101, 102, 103, 104, 201, and 301.
  • each audio apparatus 100 has mutually the same structure (refer FIG. 7), the audio system 1 which concerns on this invention is not limited to this.
  • the signal processing unit 13 may not include the channel expansion unit 131 and the signal generation unit 132 in the configuration shown in FIG. In this configuration, the signal processing unit 13 performs only known digital signal processing.
  • the audio device 100 is not limited to the configuration shown in FIG.
  • FIG. 12 is a block diagram showing another configuration of the audio device 100.
  • the power amplifier 14 and the speakers 41L and 41R shown in FIG. 7 are connected to the audio device 101 via a network (for example, wireless).
  • the power amplifier 14 is assumed to be included in the audio device 101a.
  • the channel expansion unit 131 converts (expands) the two-channel audio signal AS1 into the 4.1-channel audio signal AS2.
  • the signal generation unit 132 is configured to generate the audio signals AS4 (AS4 (L / R), AS4 (L), AS4 (R), AS4 (W) for the audio devices 101a, 102, 103, and 104 based on the audio signal AS2. ))).
  • Each audio signal AS 4 (AS 4 (L / R), AS 4 (L), AS 4 (R), AS 4 (W)) is distributed to each audio device 101 a, 102, 103, 104 via the wireless LAN communication unit 11 ( Re-delivery).
  • the audio device 101 distributes all audio signals including the audio signal reproduced by the own device (audio device 101) and the channel-expanded audio signal as the audio signal AS4 to the outside of the audio device 101. May be
  • the channel expansion unit 131 of the present embodiment may convert (expand) the two-channel audio signal AS1 into a 5.1-channel, 6.1-channel, or 7.1-channel audio signal AS2.
  • the audio device 101 shown in FIG. 6 further includes a center speaker (not shown), and the channel expansion unit 131 has two channels of audio signal AS1.
  • the audio signal AS2 may be converted (expanded) into one-channel audio signal AS2, and the signal generator 132 may generate the audio signals AS3 and AS4 and the one-channel audio signal for the center speaker.
  • the audio device 101 may further distribute an audio signal (for example, two channels) to another external audio device 100 (for example, stereo device). That is, the audio device 101 may function as a distribution server.
  • the audio device 101 converts the 2-channel audio signal AS1 distributed from the audio device 301 (distribution server) into, for example, a 6.1-channel audio signal AS2, and the 2-channel audio signal AS3 is converted to the audio device 101.
  • the audio signal AS4 of 2.1 channels may be distributed to the audio devices 102 to 104, and the audio signal AS4 of 2 channels may be distributed to the above-mentioned stereo device.
  • the audio device 101 converts the two-channel audio signal AS1 into, for example, a 4.1-channel audio signal AS2, and the two-channel audio signal AS3 is reproduced by the audio device 101.
  • Audio signal AS4 may be distributed to the audio devices 102 to 104, and the two-channel audio signal AS1 received from the audio device 301 (distribution server) may be distributed (transferred) to the stereo device without signal processing. .
  • control unit 15 of the present embodiment may be realized by software as described above, or hardware such as a field programmable gate array (FPGA) application specific integrated circuit (ASIC), application specific standard product (ASSP), etc.
  • FPGA field programmable gate array
  • ASIC application specific integrated circuit
  • ASSP application specific standard product
  • the hardware circuit may be realized, or the software and these hardware circuits may be realized in cooperation.
  • the audio device 100 may have, for example, the configuration shown in FIG. That is, based on the first audio signal AS1 of the first channel number received from the outside of the audio device 100, the audio device 100 generates the second audio signal of the second channel number larger than the first channel number.
  • the third audio signal AS4 corresponding to a part of channels in the second audio signal generated by the section 13 and the signal processing section 13 is connected to the other audio apparatus 100 connected to the audio apparatus 100 via the network.
  • a wireless LAN communication unit 11 for transmitting the information.
  • the audio device 100 can be realized as a control device.
  • the controller comprises at least one processor and at least one memory.
  • the memory stores a plurality of instructions (programs) to be executed by the processor.
  • the program includes a channel expansion process (S110), a signal generation process (S110), and a delay time setting process (S104) which are executed by the processor.
  • the control device (audio device 100) may execute the program stored in advance in the memory, or may sequentially download the program stored in the cloud server to the control device and execute the program. . Further, the control device (audio device 100) may execute the program stored in the cloud server on the cloud without downloading the program to the control device.
  • the processor may be configured by a CPU or may be configured by a DSP.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

オーディオシステムは、第1チャンネル数の第1オーディオ信号を受信する第1オーディオ機器と、前記第1オーディオ機器にネットワークを介して接続された第2オーディオ機器と、を含み、前記第1オーディオ機器は、前記第1オーディオ機器の外部から受信した前記第1オーディオ信号に基づいて、前記第1チャンネル数より多い第2チャンネル数の第2オーディオ信号を生成する信号処理部と、前記信号処理部で生成された前記第2オーディオ信号における一部のチャンネルに対応する第3オーディオ信号を前記第2オーディオ機器に送信する通信部と、を含む。

Description

オーディオシステム、オーディオ機器、及びオーディオ機器の制御方法
 本発明は、オーディオシステム、オーディオ機器、及びオーディオ機器の制御方法に関する。
 従来、複数のオーディオ機器をネットワークで接続し、複数のオーディオ機器で同一コンテンツを再生させるオーディオシステムが提案されている。例えば特許文献1には、マスタからオーディオ信号が入力されるセンタースピーカ、メインスピーカ、及びサブウーファースピーカと、マスタに無線接続されたスレーブからオーディオ信号が入力されるリアスピーカとにより、5.1チャンネルのマルチチャンネル再生を行うホームシアターシステムが開示されている。また特許文献2には、1以上の入力チャンネル数の入力オーディオ信号を、入力チャンネル数より多い出力チャンネル数の出力オーディオ信号に変換してマルチチャンネル再生を行う技術が開示されている。
特表2008-503147号公報 特許第5328637号公報
 しかし、上記従来の技術では、外部から受信したオーディオ信号のチャンネル数を拡張してマルチチャンネル再生を行うための構成が複雑化するという問題がある。
 本発明は、上記実情に鑑みてなされたものであり、その目的は、簡易な構成により、外部から受信したオーディオ信号のチャンネル数を拡張して他のオーディオ機器に再配信することができるオーディオシステム、オーディオ機器、及びオーディオ機器の制御方法を提供することにある。
 本発明の一態様に係るオーディオシステムは、第1チャンネル数の第1オーディオ信号を受信する第1オーディオ機器と、前記第1オーディオ機器にネットワークを介して接続された第2オーディオ機器と、を含み、前記第1オーディオ機器は、前記第1オーディオ機器の外部から受信した前記第1オーディオ信号に基づいて、前記第1チャンネル数より多い第2チャンネル数の第2オーディオ信号を生成する信号処理部と、前記信号処理部で生成された前記第2オーディオ信号における一部のチャンネルに対応する第3オーディオ信号を前記第2オーディオ機器に送信する通信部と、を含む。
 本発明の一態様に係るオーディオ機器は、当該オーディオ機器の外部から受信した第1チャンネル数の第1オーディオ信号に基づいて、前記第1チャンネル数より多い第2チャンネル数の第2オーディオ信号を生成する信号処理部と、前記信号処理部で生成された前記第2オーディオ信号における一部のチャンネルに対応する第3オーディオ信号を当該オーディオ機器にネットワークを介して接続された外部のオーディオ機器に送信する通信部と、を含む。
 本発明の一態様に係るオーディオ機器の制御方法は、当該オーディオ機器の外部から受信した第1チャンネル数の第1オーディオ信号に基づいて、前記第1チャンネル数より多い第2チャンネル数の第2オーディオ信号に生成するステップと、生成した前記第2オーディオ信号における一部のチャンネルに対応する第3オーディオ信号を当該オーディオ機器にネットワークを介して接続された外部のオーディオ機器に送信するステップと、を含む。
 本発明に係るオーディオシステム、オーディオ機器、及びオーディオ機器の制御方法によれば、簡易な構成により、外部から受信したオーディオ信号のチャンネル数を拡張して他のオーディオ機器に再配信することができる。
本実施形態に係るオーディオシステムの物理的なネットワーク構成を示す概略図である。 本実施形態に係るオーディオシステムの論理的なネットワーク構成を示す概略図である。 本実施形態に係るコントローラにおける、コンテンツを再生する部屋を選択するための操作画面を示す図である。 本実施形態に係るコントローラにおける、コンテンツが保存等されている音源を選択するための操作画面を示す図である。 本実施形態に係るコントローラにおける、再生するコンテンツを選択するための操作画面を示す図である。 本実施形態に係るオーディオシステムのネットワーク構成の一例を示す図である。 本実施形態に係るオーディオ機器の構成を示すブロック図である。 図6に示すネットワーク構成において、オーディオ信号の配信時間を模式的に示す図である。 本実施形態に係るオーディオシステムの動作例を示すフローチャートである。 本実施形態に係るオーディオシステムの動作例を示すフローチャートである。 本実施形態に係るオーディオシステムにおける遅延時間設定処理の動作例を示すフローチャートである。 本実施形態に係るオーディオ機器の構成を示すブロック図である。 本実施形態に係るオーディオ機器の構成を示すブロック図である。
 本発明の実施形態について、図面を用いて以下に説明する。図1は、本実施形態に係るオーディオシステム1の物理的なネットワーク構成を示す概略図である。オーディオシステム1は、コントローラ10と、コンテンツサーバ20と、ルータ30と、複数のオーディオ機器と、を含んでいる。オーディオ機器の数は限定されないが、図1では一例として、6台のオーディオ機器101~104、201、301を示している。尚、以下では、オーディオ機器101~104、201、301に共通する機能を説明する場合には、各オーディオ機器を「オーディオ機器100」と称するものとする。コンテンツサーバ20及びルータ30はそれぞれ、ネットワークに接続されており、コントローラ10及び各オーディオ機器100はルータ30を介してネットワークに接続されている。
 図2は、本実施形態に係るオーディオシステム1の論理的なネットワーク構成を示す概略図である。コントローラ10とコンテンツサーバ20と各オーディオ機器100とは、ネットワーク2を介して相互にオーディオ信号及びコマンド(命令)の送受信を行う。各オーディオ機器100が設置される場所は特に限定されないが、図2では一例として、オーディオ機器101~104がリビングルーム(R1)に設置されており、オーディオ機器201がキッチン(R2)に設置されており、オーディオ機器301がサーバルーム(R3)に設置されている例を示している。
 コントローラ10は、例えばスマートフォン、タブレット、パーソナルコンピュータ等のユーザが操作する操作端末であり、ネットワーク2に接続可能な通信機能を有している。コントローラ10は、ユーザの操作に基づいて、コンテンツサーバ20及び各オーディオ機器100に各種命令(要求)を送信する。例えば、コントローラ10は、コンテンツを再生(放音)する部屋を選択するための操作画面(図3参照)、コンテンツが保存等されている音源を選択するための操作画面(図4参照)、再生するコンテンツを選択するための操作画面(図5参照)等を表示する。コントローラ10は、上記各操作画面においてユーザが選択した内容に応じた命令を、コンテンツサーバ20及び各オーディオ機器100に送信する。尚、図3に示す各部屋の情報と、各部屋に設置されているオーディオ機器100の情報(識別情報、IPアドレス等)とは互いに対応付けられて、コントローラ10、コンテンツサーバ20、オーディオ機器100等に登録されている。尚、コントローラ10は、コンテンツを再生(放音)するオーディオ機器100を選択するための操作画面を表示しても良い。また、コントローラ10は、オーディオ機器で再生可能なコンテンツを保存し、音源としての機能を有してもよい。
 コンテンツサーバ20は、ユーザに提供するコンテンツを保存及び管理するサーバであり、ネットワーク2に接続可能な通信機能を有している。またコンテンツサーバ20は、ネットワーク2を介して、コントローラ10、テレビ、ラジオ、CD(Compact Disc:登録商標)、インターネット配信等の各種音源に接続されている。コンテンツサーバ20がユーザに提供するコンテンツには、音楽や、テレビ及びラジオ等の音声等が含まれる。コンテンツサーバ20は、ユーザのコントローラ10(図5参照)における操作に基づいて、音楽データや音声データを所定のオーディオ機器100に配信(出力)する。尚、本明細書では、コンテンツサーバ20がオーディオ機器100に配信するコンテンツのデータ(音楽データ、音声データ等)のデータ信号を、「オーディオ信号」と称す。例えば、ユーザがコントローラ10を用いてコンテンツサーバ20の内部に保存されている音楽ファイル(例えば「曲B」)を選択した場合、コンテンツサーバ20は、「曲B」に対応するオーディオ信号を所定のオーディオ機器100に配信する。またユーザがコントローラ10を用いてインターネットラジオの番組(例えば「番組A」)を選択した場合、コンテンツサーバ20は、インターネットラジオ放送される「番組A」のオーディオ信号を例えばストリーミング方式で所定のオーディオ機器100に配信する。尚、コンテンツサーバ20は、オーディオ機器100(例えば、後述のオーディオ機器301)に含まれてもよい。例えば、オーディオ機器100は、内部(後述の記憶部16)にコンテンツ(オーデイオ信号)を保存しても良いし、記憶媒体(例えば、CD、USB(Universal Serial Bus:登録商標))を介してコンテンツ(オーデイオ信号)を保存しても良い。
 ネットワーク2は、無線LAN(Local Area Network)、有線LAN、WAN(Wide Area Network)等を含み、コントローラ10とコンテンツサーバ20と各オーディオ機器100との間の信号伝達経路として機能する。例えばコントローラ10がスマートフォン又はタブレットの場合は、ネットワーク2は、Wi-Fi(Wireless-Fidelity:登録商標)で構成されてもよい。
 次に、オーディオ機器100の構成について説明する。各オーディオ機器101~104、201、301は互いに同一の構成を有している。また、各オーディオ機器101~104、201、301は、コンテンツサーバ20から配信されたオーディオ信号を受信し、受信したオーディオ信号を他のオーディオ機器に配信する配信サーバとしての機能を有してもよい。ここでは、図6に示すように、オーディオ機器301が配信サーバとして機能するネットワーク構成を例に挙げて説明する。
 オーディオ機器301(第3オーディオ機器)は、コンテンツサーバ20から配信されたオーディオ信号AS1(第1オーディオ信号)を受信し、受信したオーディオ信号AS1をオーディオ機器101(第1オーディオ機器)、201(第4オーディオ機器)に配信する。
 図7は、オーディオ機器101の構成を示すブロック図である。オーディオ機器101は、無線LAN通信部11、信号転送部12、信号処理部13、パワーアンプ14、制御部15、及び、記憶部16を含んでいる。パワーアンプ14にはスピーカ41L、41Rが接続されている。スピーカ41L、41Rは、オーディオ機器101に含まれてもよい。信号転送部12は、信号受信部121、信号出力部122、信号入力部123、及び信号配信部124を含んでおり、オーディオ信号を所定の信号形式(例えばPCM(Pulse Code Modulation)形式)で転送する。尚、各オーディオ機器100は、図7に示すオーディオ機器101と同一の構成を有している。以下では、各オーディオ機器100において、オーディオ機器101と同一の構成要素には図7に示す構成要素と同一の符号を付して説明する。
 制御部15は、CPU(Central Processing Unit)及びメモリを含んでいる。CPUはオーディオ機器101の各部を制御したり、各種の情報処理及び信号処理を実行したりする。メモリは、各種のプログラム(オーディオシステムプログラム15Aを含む)やデータを保持する。またメモリには、CPUの作業領域も確保される。制御部15は、オーディオシステムプログラム15Aにより、例えば、無線LAN通信部11、信号転送部12、及び信号処理部13(信号処理手段)の動作を制御する。また制御部15は、ネットワーク2を介して、コントローラ10、コンテンツサーバ20、及び各オーディオ機器100と各種信号や命令の送受信を行う。
 無線LAN通信部11は、コントローラ10、コンテンツサーバ20、及び各オーディオ機器100と無線通信を行う。図示はしないが、オーディオ機器101は有線LAN通信部を含み、有線LAN通信部が、コントローラ10、コンテンツサーバ20、及び各オーディオ機器100と有線通信を行ってもよい。
 信号転送部12では、信号受信部121が、コンテンツサーバ20から出力されたオーディオ信号AS1を、無線LAN通信部11を介して受信し、信号出力部122が、受信したオーディオ信号AS1を信号処理部13に転送する。また信号転送部12では、信号入力部123が信号処理部13から出力されたオーディオ信号AS4(第3オーディオ信号)を受信し、信号配信部124が、受信したオーディオ信号AS4を、無線LAN通信部11を介してオーディオ機器102(第2オーディオ機器)、103(第5オーディオ機器)、104(第6オーディオ機器)に配信(再配信)する。
 信号処理部13は、デジタル・シグナル・プロセッサ(DSP)で構成されており、信号転送部12から転送されたオーディオ信号AS1に対してデジタル信号処理を行う。信号処理部13は、チャンネル拡張部131及び信号生成部132を含んでいる。また信号処理部13は、無線LAN通信部11及び信号転送部12の外部に設けられている。例えば、信号処理部13は、信号転送部12が搭載されるICチップとは異なるICチップに設けられている。
 チャンネル拡張部131は、第1チャンネル数のオーディオ信号AS1を、第1チャンネル数より多い第2チャンネル数のオーディオ信号AS2(第2オーディオ信号)に変換(拡張)するチャンネル拡張処理を実行する。ここでは例えば、チャンネル拡張部131は、2チャンネルのオーディオ信号AS1を、4.1チャンネルのオーディオ信号AS2に変換(拡張)する。チャンネル拡張処理は、周知の技術(例えば、米国特許第7003467号公報参照)を適用することができる。
 信号生成部132は、チャンネル拡張処理により生成されたオーディオ信号AS2に基づいて、オーディオ機器101用のオーディオ信号AS3(AS3(L)、AS3(R))(第4オーディオ信号)と、オーディオ機器102、103、104用のオーディオ信号AS4(AS4(L)、AS4(R)、AS4(W))(第3オーディオ信号)とを生成する信号生成処理を実行する。信号生成部132は、生成したオーディオ信号AS3(AS3(L)、AS3(R))を、パワーアンプ14に出力する。パワーアンプ14は、オーディオ信号AS3(AS3(L)、AS3(R))を増幅してスピーカ(41L、41R)に出力する。スピーカ41(41L、41R)は、パワーアンプ14から受信したオーディオ信号AS3(AS3(L)、AS3(R))を音響として出力(放音)する。
 また信号生成部132は、生成したオーディオ信号AS4(AS4(L)、AS4(R)、AS4(W))を、信号転送部12に出力する。信号転送部12は、信号生成部132から入力されたオーディオ信号AS4(AS4(L)、AS4(R)、AS4(W))を、信号入力部123、信号配信部124及び無線LAN通信部11を介してオーディオ機器102、103、104に配信(再配信)する。
 信号処理部13は、さらに、音場に適したエフェクト処理やマルチチャンネルに適したエフェクト処理等の信号処理を実行してもよい。このようなエフェクト処理が実行された場合、オーディオ信号AS3は、オーディオ信号AS1と同じチャンネル数(例えば2チャンネル)となる場合であっても、オーディオ信号AS1とは異なる特性を有するものとなり、エフェクト処理に応じた効果を得ることができる。尚、上記エフェクト処理等が実行されない場合、オーディオ信号AS3は、コンテンツサーバ20から出力されたオーディオ信号AS1と同一の信号であってもよい。この場合、信号処理部13は、コンテンツサーバ20から出力されたオーディオ信号AS1を、オーディオ信号AS3としてパワーアンプ14に出力する。
 オーディオ機器102は、オーディオ機器101から受信したオーディオ信号AS4(L)に周知の信号処理を施し、スピーカ42に出力する。スピーカ42は、オーディオ機器102から受信したオーディオ信号AS4(L)を音響として出力する。オーディオ機器103は、オーディオ機器101から受信したオーディオ信号AS4(R)に周知の信号処理を施し、スピーカ43に出力する。スピーカ43は、オーディオ機器103から受信したオーディオ信号AS4(R)を音響として出力する。オーディオ機器104は、オーディオ機器101から受信したオーディオ信号AS4(W)に周知の信号処理を施し、スピーカ44に出力する。スピーカ44は、オーディオ機器104から受信したオーディオ信号AS4(W)を音響として出力する。
 図6に示すように、オーディオ機器101~104が設置されたリビングルーム(R1)では、スピーカ41L、41Rがフロントスピーカとして機能し、スピーカ42、43がリアスピーカとして機能し、スピーカ44がサブウーファースピーカとして機能する。これにより、リビングルーム(R1)では、サラウンド再生が実現される。
 オーディオ機器301(図6参照)は、上記のようにコンテンツサーバ20から受信したオーディオ信号AS1(例えば2チャンネル)をオーディオ機器101、201に配信するとともに、受信したオーディオ信号AS1に周知の信号処理を施し、スピーカ51L、51Rに出力する。スピーカ51Lはオーディオ信号AS1(L)を音響として出力し、スピーカ51Rはオーディオ信号AS1(R)を音響として出力する。オーディオ機器301が設置されたサーバルーム(R3)では、スピーカ51L、51Rによりステレオ再生が実現される。
 オーディオ機器201(図6参照)は、オーディオ機器301から配信されたオーディオ信号AS1(例えば2チャンネル)を受信し、受信したオーディオ信号AS1に周知の信号処理を施し、スピーカ61L、61Rに出力する。スピーカ61Lはオーディオ信号AS1(L)を音響として出力し、スピーカ61Rはオーディオ信号AS1(R)を音響として出力する。オーディオ機器201が設置されたキッチン(R2)では、スピーカ61L、61Rによりステレオ再生が実現される。
 ここで、本実施形態に係るオーディオシステム1は、各オーディオ機器100が同期してコンテンツを再生する機能を有している。図6のネットワーク構成を例に挙げれば、各オーディオ機器101~104、201、301が同期することにより、リビングルーム(R1)とキッチン(R2)とサーバルーム(R3)とにおいて、同一のコンテンツが同期して再生される。上記機能を実現するために、各オーディオ機器100の制御部15(図7参照)は、配信時間算出部151及び遅延時間算出部152を含んでいる。配信時間算出部151は、例えばコンテンツ(オーディオ信号)が配信サーバからオーディオ機器100に出力されてから、オーディオ機器100が再生(スピーカに出力)するまでに要する時間(配信時間)を算出する。遅延時間算出部152は、オーディオ機器100が他のオーディオ機器100と同期を取るために要する時間(遅延時間)を算出する。以下、図6に示すネットワーク構成を例に挙げて具体的に説明する。図8は、図6に示すネットワーク構成において、オーディオ信号の配信時間を模式的に示す図である。
 図8において、「t1」は、オーディオ機器301(配信サーバ)からオーディオ機器101までのオーディオ信号の配信時間(第1配信時間)、具体的には例えば、オーディオ信号がオーディオ機器301(配信サーバ)から出力されてからオーディオ機器101で再生されるまでに要する時間を示し、「t2」は、オーディオ機器301からオーディオ機器201までのオーディオ信号の配信時間(第4配信時間)、具体的には例えば、オーディオ信号がオーディオ機器301から出力されてからオーディオ機器201で再生されるまでに要する時間を示し、「t3」は、オーディオ機器301(配信サーバ)におけるオーディオ信号の処理時間、具体的には例えば、オーディオ機器301がオーディオ信号AS1を受信してから自機器(オーディオ機器301)で再生するまでに要する時間を示している。また、「t12」は、オーディオ機器101からオーディオ機器102までのオーディオ信号の配信時間(第2配信時間)、具体的には例えば、オーディオ信号がオーディオ機器101から出力されてからオーディオ機器102で再生されるまでに要する時間を示し、「t13」は、オーディオ機器101からオーディオ機器103までのオーディオ信号の配信時間(第3配信時間)、具体的には例えば、オーディオ信号がオーディオ機器101から出力されてからオーディオ機器103で再生されるまでに要する時間を示し、「t14」は、オーディオ機器101からオーディオ機器104までのオーディオ信号の配信時間、具体的には例えば、オーディオ信号がオーディオ機器101から出力されてからオーディオ機器104で再生されるまでに要する時間を示している。また、「t1+t12」は、オーディオ機器301からオーディオ機器102までのオーディオ信号の配信時間、具体的には例えば、オーディオ信号がオーディオ機器301(配信サーバ)から出力されてからオーディオ機器102で再生されるまでに要する時間を示し、「t1+t13」は、オーディオ機器301からオーディオ機器103までのオーディオ信号の配信時間、具体的には例えば、オーディオ信号がオーディオ機器301から出力されてからオーディオ機器103で再生されるまでに要する時間を示し、「t1+t14」は、オーディオ機器301からオーディオ機器104までのオーディオ信号の配信時間、具体的には例えば、オーディオ信号がオーディオ機器301から出力されてからオーディオ機器104で再生されるまでに要する時間を示している。尚、配信時間は、周知の技術を用いて算出することができ、例えば、Pingの応答時間等の通信実績に基づいて算出される。また各配信時間には、ネットワーク(例えば無線LAN)における伝送時間、及び、信号処理の処理時間等が含まれる。例えば、オーディオ機器101の配信時間「t1」には、オーディオ機器301からオーディオ機器101までのネットワークにおけるオーディオ信号の伝送時間と、オーディオ機器101内部における、周知のデジタル信号処理、チャンネル拡張処理、及び信号生成処理等の処理時間とが含まれる。
 オーディオシステム1は、オーディオ信号がオーディオ機器301(配信サーバ)から出力されてから各オーディオ機器100で再生されるまでに要する時間が最も長くなる時間に基づいて、各オーディオ機器100の再生開始時間を調整するための遅延時間「T」(T1、T2、T3、T12、T13、T14)を設定する。各オーディオ機器100は、設定された各遅延時間「T」に基づいて、オーディオ信号を再生する。これにより、ユーザが選択したコンテンツ(例えば「曲B」)を、リビングルーム(R1)とキッチン(R2)とサーバルーム(R3)とにおいて、同時に再生することが可能となる。遅延時間を設定する処理(遅延時間設定処理)の詳細については後述する。
 次に、オーディオシステム1の動作例について説明する。図9~図11は、オーディオシステム1の一動作例を示すフローチャートである。ここでは、図6に示すように、リビングルーム(R1)にオーディオ機器101~104が設置されており、キッチン(R2)にオーディオ機器201が設置されており、サーバルーム(R3)に配信サーバとして機能するオーディオ機器301が配置されている場合を例に挙げる。
 先ず、ユーザは、コントローラ10の図3に示す操作画面において、コンテンツを再生する部屋(又はオーディオ機器)を選択する(S101)。ここでは、ユーザがリビングルーム(R1)とキッチン(R2)とを選択したと仮定する(図3参照)。尚、ここでは、オーディオ機器301(配信サーバ)が配置された部屋(R3)においてもコンテンツが再生されるように設定された場合を例に挙げるが、該部屋ではコンテンツが再生されないように設定されても良い。ユーザがリビングルーム(R1)とキッチン(R2)とを選択すると、コントローラ10は、リビングルーム(R1)に設置されているオーディオ機器101~104と、キッチン(R2)に設置されているオーディオ機器201と、サーバルーム(R3)に設置されているオーディオ機器301とに、オーディオ信号の配信を開始するための命令(配信開始要求)を送信する(S101)。
 次に、ユーザは、コントローラ10の図4に示す操作画面において、コンテンツが保存等されている音源を選択する(S102)。ここでは、ユーザがコンテンツサーバ20を選択したと仮定する(図4参照)。尚、コンテンツサーバ20には、オーディオ機器100で再生可能な音楽ファイルが保存されているものとする。ユーザがコンテンツサーバ20を選択すると、コントローラ10は、コンテンツサーバ20に、オーディオ信号の配信を開始するための命令(配信開始要求)を送信する(S102)。次に、オーディオ機器101~104、201、301は、相互に通信を行って、オーディオ信号を配信(送受信)するためのネットワーク(配信ネットワーク)を構成(確立)する(S103)。
 配信ネットワークが構成されると(S103)、オーディオ機器301(配信サーバ)と、オーディオ機器101~104、201とは、各オーディオ機器101~104、201、301におけるコンテンツの再生の同期を取るための処理(遅延時間設定処理)を実行する(S104)。以下、遅延時間設定処理について、図8及び図11を用いて説明する。
 遅延時間設定処理が開始されると、先ず、オーディオ機器101の配信時間算出部151(図7参照)が、通信実績等に基づいて、オーディオ機器102における配信時間「t12」と、オーディオ機器103における配信時間「t13」と、オーディオ機器104における配信時間「t14」とを算出する(S201)。尚、配信時間算出部151は、さらに、上記算出した配信時間を、配信ネットワークのトポロジー(経路)に応じて調整してもよい。具体的には例えば、Ethernet(登録商標)(有線)のように低遅延で安定した経路の場合は、上記配信時間を短く調整し、Wi-Fi(無線)のように安定しない経路の場合は、上記配信時間を長く調整する。また、インフラストラクチャネットワークのような構成(例えば、アクセスポイントが集中管理する構成)の場合は、経路上にアクセスポイントという処理時間の不確定要素があるため、上記配信時間を長く調整し、メッシュネットワークやP2Pのような構成(例えば、オーディオ機器同士が直接通信できるような構成)の場合は、経路上に不確定要素が少ないため、上記配信時間を短く調整する。次に、オーディオ機器101の配信時間算出部151は、配信時間「t12」、「t13」、「t14」の内、最も時間が長い配信時間を最大配信時間「Tmax」に決定する(S202)。
 次に、オーディオ機器301は、オーディオ機器301が管理(監視)するオーディオ機器101、201に対して、配信時間を通知するよう要求する(S203)。オーディオ機器201は、オーディオ機器301から上記要求を受信すると、オーディオ機器301からオーディオ機器201までのオーディオ信号の配信時間「t2」をオーディオ機器301に通知する(S204)。また、オーディオ機器101は、オーディオ機器301から上記要求を受信すると、オーディオ機器301からオーディオ機器101までのオーディオ信号の配信時間「t1」と、最大配信時間「Tmax」とを合計した配信時間「t1+Tmax」(合計配信時間)をオーディオ機器301に通知する(S205)。
 オーディオ機器301の遅延時間算出部152(図7参照)は、取得した配信時間「t2」、「t1+Tmax」と、自機器(オーディオ機器301)がオーディオ信号AS1を受信してから再生するまでに要する時間(処理時間「t3」)とに基づいて、オーディオ機器101、201、301それぞれの遅延時間「T1」(第1遅延時間)、「T2」(第2遅延時間)、「T3」(第3遅延時間)を算出(決定)する(S206)。具体的には、オーディオ機器301の遅延時間算出部152は、配信時間「t2」と、配信時間「t1+Tmax」と、処理時間「t3」とのうち最も長い時間と、対象となるオーディオ機器の上記時間(配信時間又は処理時間)との差を、対象となるオーディオ機器の遅延時間(「T1」、「T2」、「T3」)に決定する。例えば、配信時間「t2」が最も長い場合は、遅延時間「T2」を「0」に決定し、遅延時間「T1」を「t2-(t1+Tmax)」に決定し、遅延時間「T3」を「t2-t3」に決定する。また例えば、配信時間「t1+Tmax」が最も長い場合は、遅延時間「T1」を「0」に決定し、遅延時間「T2」を「(t1+Tmax)-t2」に決定し、遅延時間「T3」を「(t1+Tmax)-t3」に決定する。また例えば、処理時間「t3」が最も長い場合は、遅延時間「T3」を「0」に決定し、遅延時間「T1」を「t3-t1」に決定し、遅延時間「T2」を「t3-t2」に決定する。オーディオ機器301の遅延時間算出部152は、算出した遅延時間「T1」をオーディオ機器101に通知し、算出した遅延時間「T2」をオーディオ機器201に通知し、算出した遅延時間「T3」を自機器(オーディオ機器301)の制御部15に通知する(S207)。
 オーディオ機器301の制御部15(図7参照)は、遅延時間「T3」を取得すると、オーディオ機器301における遅延時間(待機時間)を「T3」に設定する(S208)。また、オーディオ機器201の制御部15(図7参照)は、遅延時間「T2」を取得すると、オーディオ機器201における遅延時間(待機時間)を「T2」に設定する(S209)。
 オーディオ機器101の遅延時間算出部152(図7参照)は、遅延時間「T1」を取得すると、遅延時間「T1」と最大配信時間「Tmax」と各配信時間「t12」、「t13」、「t14」とに基づいて、オーディオ機器101における遅延時間「T11」と、オーディオ機器101が管理(監視)するオーディオ機器102、103、104における遅延時間「T12」(第4遅延時間)、「T13」(第5遅延時間)、「T14」とを算出(決定)する(S210)。具体的には、オーディオ機器101の遅延時間算出部152は、遅延時間「T11」を「T1+Tmax」に決定し、遅延時間「T12」を「T1+Tmax-t12」に決定し、遅延時間「T13」を「T1+Tmax-t13」に決定し、遅延時間「T14」を「T1+Tmax-t14」に決定する。オーディオ機器101の遅延時間算出部152は、算出した遅延時間「T12」、「T13」、「T14」のそれぞれを、オーディオ機器102、103、104のそれぞれに通知する(S211)。
 オーディオ機器101の制御部15(図7参照)は、遅延時間「T11」を算出すると、オーディオ機器101における遅延時間(待機時間)を「T11」(「T1+Tmax」)に設定し(S212)、オーディオ機器102の制御部15(図7参照)は、遅延時間「T12」を取得すると、オーディオ機器102における遅延時間(待機時間)を「T12」(「T1+Tmax-t12」)に設定し(S213)、オーディオ機器103の制御部15(図7参照)は、遅延時間「T13」を取得すると、オーディオ機器103における遅延時間(待機時間)を「T13」(「T1+Tmax-t13」)に設定し(S214)、オーディオ機器104の制御部15(図7参照)は、遅延時間「T14」を取得すると、オーディオ機器104における遅延時間(待機時間)を「T14」(「T1+Tmax-t14」)に設定する(S215)。以上のようにして、各オーディオ機器101~104、201、301の遅延時間を設定する。尚、上記遅延時間設定処理(S104)は、コンテンツの配信開始時だけでなく、コンテンツの配信中に動的に実行してもよい。具体的には例えば、コンテンツの配信中に、通信実績等が変化した場合や、各オーディオ機器100がオーディオ信号を受信してから再生するまでに要する時間が変化した場合等において、これらの変化を検知した時点で、再度、上記遅延時間設定処理を実行してもよい。
 図9に戻り、上記遅延時間設定処理(S104)が終了すると、ユーザは、コントローラ10の図5に示す操作画面において、再生するコンテンツを選択する(S105)。ここでは、ユーザが「曲B」の音楽ファイルを選択したと仮定する(図5参照)。ユーザが「曲B」を選択すると、コントローラ10は、コンテンツサーバ20に、「曲B」を再生するための命令(再生要求)を送信する(S105)。コンテンツサーバ20は、コントローラ10から再生要求を受信すると、「曲B」に対応するオーディオ信号AS1を、オーディオ機器301(配信サーバ)に配信する(S106)。尚、コンテンツサーバ20が配信するオーディオ信号は、例えば2チャンネルのオーディオ信号である。
 オーディオ機器301は、コンテンツサーバ20からオーディオ信号AS1を受信すると、オーディオ信号AS1をオーディオ機器101及びオーディオ機器201のそれぞれに配信する(図10のS107)。
 オーディオ機器101は、オーディオ機器301からオーディオ信号AS1を受信すると、信号転送部12(図7参照)がオーディオ信号AS1を信号処理部13(図7参照)に転送する(S108)。信号処理部13のチャンネル拡張部131は、オーディオ信号AS1を受信すると、チャンネル拡張処理を実行して、2チャンネルのオーディオ信号AS1を4.1チャンネルのオーディオ信号AS2に変換し、信号処理部13の信号生成部132は、オーディオ信号AS2に基づいて信号生成処理を実行して、オーディオ機器101用の2チャンネルのオーディオ信号AS3(AS3(L)、AS3(R))と、オーディオ機器102、103、104用の2.1チャンネルのオーディオ信号AS4(AS4(L)、AS4(R)、AS4(W))とを生成する(S110)。次に、信号転送部12は、信号処理部13からオーディオ信号AS4を受信すると、受信したオーディオ信号AS4をオーディオ機器102、103、104のそれぞれに配信(再配信)する(S111)。
 上記のように、オーディオ機器301は、コンテンツサーバ20からオーディオ信号AS1を受信し(S107)、オーディオ機器101は、オーディオ機器301からオーディオ信号AS1を受信し(S108)、オーディオ機器201は、オーディオ機器301からオーディオ信号AS1を受信し(S109)、オーディオ機器102、103、104は、オーディオ機器101からオーディオ信号AS4を受信する(S112)。
 オーディオ機器301、201、101、102、103、104は、それぞれ、遅延時間設定処理(S104)で設定された遅延時間「T3」、「T2」、「T11」、「T12」、「T13」、「T14」に基づいて、受信したオーディオ信号を再生する。例えば、オーディオ機器301は、オーディオ信号AS1を受信してから遅延時間「T3」経過後にスピーカ51L、51R(図6参照)に出力する(S113)。オーディオ機器201は、オーディオ信号AS1を受信してから遅延時間「T2」経過後にスピーカ61L、61R(図6参照)に出力する(S116)。オーディオ機器101は、オーディオ信号AS1を受信してから遅延時間「T1+Tmax」経過後にオーディオ信号AS3をスピーカ41L、41R(図6参照)に出力する(S114)。オーディオ機器102は、オーディオ信号AS4(L)を受信してから遅延時間「T1+Tmax-t12」経過後にスピーカ42(図6参照)に出力する(S115)。オーディオ機器103は、オーディオ信号AS4(R)を受信してから遅延時間「T1+Tmax-t13」経過後にスピーカ43(図6参照)に出力する(S115)。オーディオ機器104は、オーディオ信号AS4(W)を受信してから遅延時間「T1+Tmax-t14」経過後にスピーカ44(図6参照)に出力する(S115)。
 以上の処理により、リビングルーム(R1)における「曲B」のサラウンド再生と、キッチン(R2)における「曲B」のステレオ再生と、サーバルーム(R3)における「曲B」のステレオ再生とが同期して実行される。また、以上の処理によれば、特に、配信サーバとして機能するオーディオ機器301における処理時間「t3」が最も長くなる場合であっても、他のオーディオ機器100との同期再生が可能となる。このため、例えば、オーディオ機器100に接続されたテレビの映像遅延に合わせる(リップシンク)ために、スピーカの出力を意図的に遅延させる場合などに好適である。
 本実施形態に係るオーディオシステム1によれば、オーディオ機器101は、外部から配信された第1チャンネル数(例えば2チャンネル)のオーディオ信号に基づいて第2チャンネル数(例えば4.1チャンネル)のオーディオ信号AS2を生成し、生成したオーディオ信号AS2における一部のチャンネル(例えば2.1チャンネル)に対応するオーディオ信号AS4(AS4(L)、AS4(R)、AS4(W))をオーディオ機器102、103、104に配信(再配信)している。これにより、簡易な構成により、外部から取得したオーディオ信号のチャンネル数を拡張して再配信することができる。また、簡易な構成により、サラウンド再生を実現することができる。また、オーディオ機器101は、生成したオーディオ信号AS2の一部のチャンネル(2チャンネル)に対応するオーディオ信号AS3(AS3(L)、AS3(R))をスピーカ41L、41Rに出力してもよい。
 ここで、オーディオ機器101は、オーディオシステムプログラム15Aに基づいて、信号処理部13(信号処理手段)によるチャンネル拡張処理(S110)及び信号生成処理(S110)と、制御部15による遅延時間設定処理(S104)とを実行するコンピュータである。オーディオシステムプログラム15Aは、光学的、磁気的等の種類を問わず、様々な記録媒体からインストールされてよく、インターネットを介してダウンロードされてもよい。
 本発明に係るオーディオシステム1は上述の実施形態に限定されず、以下の構成であってもよい。
 上述の実施形態では、オーディオシステム1が、オーディオ機器101、201を管理(監視)する配信サーバ(オーディオ機器301)を含む構成であるが、本発明に係るオーディオシステム1はこれに限定されず、配信サーバが省略された構成であってもよい。例えば、ユーザが、コントローラ10の図3に示す操作画面において、リビングルーム(R1)のみを選択した場合、オーディオシステム1は、オーディオ機器101~104により配信ネットワークを構成する。この構成では、オーディオ機器101が、オーディオ機器102、103、104を管理(監視)して、オーディオ機器101、102、103、104の遅延時間「T11」、「T12」、「T13」、「T14」を算出することにより、オーディオ機器101、102、103、104における同期再生(サラウンド再生)が実現される。
 また、上述の実施形態では、オーディオ機器101が、3台のオーディオ機器102、103、104を管理(監視)する構成であるが、本発明に係るオーディオシステム1はこれに限定されず、例えばオーディオ機器101は、1台のオーディオ機器102のみを管理(監視)する構成であってもよい。この構成では、例えば図11に示す遅延時間設定処理(S205)において、オーディオ機器102における配信時間「t12」を、オーディオ機器301(配信サーバ)に通知すればよい。
 また、上述の実施形態では、オーディオ機器301が配信サーバとして機能する構成であるが、本発明に係るオーディオシステム1はこれに限定されず、例えばオーディオ機器101又はオーディオ機器201が配信サーバとして機能する構成であってもよい。
 また、上述の実施形態では、オーディオ機器301、101が遅延時間を算出し、オーディオ機器101、102、103、104、201、301において遅延時間を設定する構成であるが、本発明に係るオーディオシステム1はこれに限定されない。例えば、算出した遅延時間の情報を、各オーディオ機器101、102、103、104、201、301に配信するオーディオ信号に付与してもよい。また、遅延時間に基づいてオーディオ信号の再生時刻(放音時刻)を算出し、再生時刻を指示するタイムスタンプを、各オーディオ機器101、102、103、104、201、301に通知してもよいし、各オーディオ機器101、102、103、104、201、301に配信するオーディオ信号に付与してもよい。
 また、上述の実施形態では、各オーディオ機器100が互いに同一の構成(図7参照)を有しているが、本発明に係るオーディオシステム1はこれに限定されない。例えば、オーディオ機器102、103、104、201、301は、図7に示す構成において、信号処理部13がチャンネル拡張部131及び信号生成部132を含まない構成であってもよい。この構成の場合、信号処理部13は、周知のデジタル信号処理のみを行う。
 本実施形態に係るオーディオ機器100は図7に示した構成に限定されない。図12は、オーディオ機器100の他の構成を示すブロック図である。図12に示す構成では、図7に示すパワーアンプ14及びスピーカ41L、41Rが、ネットワーク(例えば無線)を介してオーディオ機器101に接続されている。尚、パワーアンプ14はオーディオ機器101aに含まれるものとする。上記構成では、例えば、チャンネル拡張部131は、2チャンネルのオーディオ信号AS1を、4.1チャンネルのオーディオ信号AS2に変換(拡張)する。信号生成部132は、オーディオ信号AS2に基づいて、オーディオ機器101a、102、103、104用のそれぞれのオーディオ信号AS4(AS4(L/R)、AS4(L)、AS4(R)、AS4(W))を生成する。各オーディオ信号AS4(AS4(L/R)、AS4(L)、AS4(R)、AS4(W))は、無線LAN通信部11を介して各オーディオ機器101a、102、103、104に配信(再配信)される。このように、オーディオ機器101は、自機器(オーディオ機器101)で再生するオーディオ信号と、チャンネル拡張したオーディオ信号とを含む全てのオーディオ信号を、オーディオ信号AS4として、オーディオ機器101の外部に配信してもよい。
 本実施形態のチャンネル拡張部131は、2チャンネルのオーディオ信号AS1を、5.1チャンネル、6.1チャンネル、又は、7.1チャンネルのオーディオ信号AS2に変換(拡張)してもよい。例えば、5.1チャンネルのサラウンド再生を実現する場合は、図6に示すオーディオ機器101が、さらに、センタースピーカ(図示せず)を備え、チャンネル拡張部131が2チャンネルのオーディオ信号AS1を、5.1チャンネルのオーディオ信号AS2に変換(拡張)し、信号生成部132が、オーディオ信号AS3、AS4と、センタースピーカ用の1チャンネルのオーディオ信号とを生成すればよい。
 図6に示すネットワーク構成において、オーディオ機器101が、さらに、他の外部のオーディオ機器100(例えばステレオ機器)にオーディオ信号(例えば2チャンネル)を配信しても良い。すなわち、オーディオ機器101が、配信サーバとして機能してもよい。この場合、オーディオ機器101は、オーディオ機器301(配信サーバ)から配信された2チャンネルのオーディオ信号AS1を、例えば6.1チャンネルのオーディオ信号AS2に変換し、2チャンネルのオーディオ信号AS3をオーディオ機器101で再生し、2.1チャンネルのオーディオ信号AS4をオーディオ機器102~104に配信し、2チャンネルのオーディオ信号AS4を上記ステレオ機器に配信すればよい。また他の方法として、オーディオ機器101は、2チャンネルのオーディオ信号AS1を、例えば4.1チャンネルのオーディオ信号AS2に変換し、2チャンネルのオーディオ信号AS3をオーディオ機器101で再生し、2.1チャンネルのオーディオ信号AS4をオーディオ機器102~104に配信し、オーディオ機器301(配信サーバ)から受信した2チャンネルのオーディオ信号AS1を、信号処理を施さずに上記ステレオ機器に配信(転送)してもよい。
 本実施形態の制御部15における各種処理は、上述のようにソフトウェアにより実現されても良いし、FPGA(Field Programmable Gate Array)ASIC(Application Specific Integrated Circuit)、ASSP(Application Specific Standard Product)等のハードウェア回路により実現されてもよいし、ソフトウェアとこれらハードウェア回路とが協働して実現されてもよい。
 以上のように、本実施形態に係るオーディオ機器100は、例えば図13に示す構成を備えてもよい。すなわち、オーディオ機器100は、当該オーディオ機器100の外部から受信した第1チャンネル数の第1オーディオ信号AS1に基づいて、第1チャンネル数より多い第2チャンネル数の第2オーディオ信号を生成する信号処理部13と、信号処理部13で生成された第2オーディオ信号における一部のチャンネルに対応する第3オーディオ信号AS4を、当該オーディオ機器100にネットワークを介して接続された外部の他のオーディオ機器100に送信する無線LAN通信部11と、を含んでいる。これにより、簡易な構成により、外部から受信したオーディオ信号のチャンネル数を拡張して他のオーディオ機器に再配信することができる。
 また、本実施形態に係るオーディオ機器100は、制御装置として実現することができる。例えば、制御装置は、少なくとも1つのプロセッサと、少なくとも1つのメモリとを備えている。上記メモリには、上記プロセッサにより実行される複数の命令(プログラム)が格納される。例えば、上記プログラムには、上記プロセッサにより実行される、チャンネル拡張処理(S110)、信号生成処理(S110)、遅延時間設定処理(S104)が含まれる。制御装置(オーディオ機器100)は、上記メモリに予め格納された上記プログラムを実行してもよいし、クラウドサーバに保存された上記プログラムを、逐次、当該制御装置にダウンロードして実行してもよい。また、制御装置(オーディオ機器100)は、クラウドサーバに格納された上記プログラムを、当該制御装置にダウンロードせず、クラウド上で実行してもよい。尚、上記プロセッサは、CPUで構成されても良いし、DSPで構成されても良い。
 以上、本発明の実施形態について説明したが、本発明は上記各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲内で上記各実施形態から当業者が適宜変更した形態も本発明の技術的範囲に含まれることは言うまでもない。

Claims (17)

  1.  第1チャンネル数の第1オーディオ信号を受信する第1オーディオ機器と、
     前記第1オーディオ機器にネットワークを介して接続された第2オーディオ機器と、
     を含み、
     前記第1オーディオ機器は、
     前記第1オーディオ機器の外部から受信した前記第1オーディオ信号に基づいて、前記第1チャンネル数より多い第2チャンネル数の第2オーディオ信号を生成する信号処理部と、
     前記信号処理部で生成された前記第2オーディオ信号における一部のチャンネルに対応する第3オーディオ信号を前記第2オーディオ機器に送信する通信部と、を含む、
     ことを特徴とするオーディオシステム。
  2.  前記信号処理部は、前記第2オーディオ信号に基づいて、前記第1オーディオ機器用の第4オーディオ信号と、前記第2オーディオ信号用の前記第3オーディオ信号とを生成する、
     ことを特徴とする請求項1に記載のオーディオシステム。
  3.  前記第1オーディオ機器及び前記第2オーディオ機器にネットワークを介して接続された第3オーディオ機器及び第4オーディオ機器をさらに含み、
     前記第3オーディオ機器は、前記第1オーディオ機器及び前記第4オーディオ機器に前記第1オーディオ信号を送信し、
     前記第1オーディオ機器は、前記第3オーディオ機器から前記第1オーディオ機器までの前記第1オーディオ信号の第1配信時間と、前記第1オーディオ機器から前記第2オーディオ機器までの前記第3オーディオ信号の第2配信時間とを合計した合計配信時間を前記第3オーディオ機器に通知し、
     前記第4オーディオ機器は、前記第3オーディオ機器から前記第4オーディオ機器までの前記第1オーディオ信号の第3配信時間を前記第3オーディオ機器に通知し、
     前記第3オーディオ機器は、さらに、前記合計配信時間と前記第3配信時間とに基づいて、前記第1オーディオ機器が前記第4オーディオ信号を再生するための第1遅延時間と、前記第4オーディオ機器が前記第1オーディオ信号を再生するための第2遅延時間と、を算出し、
     前記第1オーディオ機器は、さらに、前記第1遅延時間に基づいて、前記第2オーディオ機器が前記第3オーディオ信号を再生するための第4遅延時間を算出する、
     ことを特徴とする請求項2に記載のオーディオシステム。
  4.  前記第1オーディオ機器及び前記第2オーディオ機器にネットワークを介して接続された、第3オーディオ機器、第4オーディオ機器、及び、第5オーディオ機器をさらに含み、
     前記第3オーディオ機器は、前記第3オーディオ機器の外部から受信した前記第1オーディオ信号を、前記第1オーディオ機器及び前記第4オーディオ機器に送信し、
     前記第1オーディオ機器は、前記第3オーディオ信号を前記第2オーディオ機器及び前記第5オーディオ機器に送信し、
     前記第1オーディオ機器は、前記第3オーディオ機器から前記第1オーディオ機器までの前記第1オーディオ信号の第1配信時間と、前記第1オーディオ機器から前記第2オーディオ機器までの前記第3オーディオ信号の第2配信時間と、前記第1オーディオ機器から前記第5オーディオ機器までの前記第3オーディオ信号の第3配信時間と、を算出するとともに、算出した前記第2配信時間及び前記第3配信時間のうち時間が長い配信時間を最大配信時間に決定し、算出した前記第1配信時間と決定した前記最大配信時間とを合計した合計配信時間を前記第3オーディオ機器に通知し、
     前記第4オーディオ機器は、前記第3オーディオ機器から前記第4オーディオ機器までの前記第1オーディオ信号の第4配信時間を前記第3オーディオ機器に通知し、
     前記第3オーディオ機器は、さらに、前記合計配信時間と前記第4配信時間と前記第3オーディオ機器が前記第1オーディオ信号を受信してから再生するまでに要する処理時間とに基づいて、前記第1オーディオ機器が前記第4オーディオ信号を再生するための第1遅延時間と、前記第4オーディオ機器が前記第1オーディオ信号を再生するための第2遅延時間と、前記第3オーディオ機器が前記第1オーディオ信号を再生するための第3遅延時間と、を算出し、
     前記第1オーディオ機器は、さらに、前記第1遅延時間と前記最大配信時間とに基づいて、前記第2オーディオ機器が前記第3オーディオ信号を再生するための第4遅延時間と、前記第5オーディオ機器が前記第3オーディオ信号を再生するための第5遅延時間とを算出する、
     ことを特徴とする請求項2に記載のオーディオシステム。
  5.  前記第1オーディオ機器は、前記第3オーディオ機器から前記第1オーディオ信号を受信してから、前記第1遅延時間と前記最大配信時間とを合計した合計時間だけ経過した後に、前記第1オーディオ信号を再生し、
     前記第2オーディオ機器は、前記第1オーディオ機器から前記第3オーディオ信号を受信してから、前記合計時間から前記第2配信時間を減算した時間だけ経過した後に、前記第3オーディオ信号を再生し、
     前記第5オーディオ機器は、前記第1オーディオ機器から前記第3オーディオ信号を受信してから、前記合計時間から前記第3配信時間を減算した時間だけ経過した後に、前記第3オーディオ信号を再生し、
     前記第4オーディオ機器は、前記第3オーディオ機器から前記第1オーディオ信号を受信してから、前記第2遅延時間だけ経過した後に、前記第1オーディオ信号を再生し、
     前記第3オーディオ機器は、前記第1オーディオ信号を受信してから、前記第3遅延時間だけ経過した後に、前記第1オーディオ信号を再生する、
     ことを特徴とする請求項4に記載のオーディオシステム。
  6.  前記第3オーディオ機器は、
     前記第4配信時間と前記合計配信時間と前記処理時間とのうち前記第4配信時間が最も長い場合は、前記第2遅延時間を「0」に決定し、前記第1遅延時間を、前記第4配信時間から前記合計配信時間を減算した時間に決定し、前記第3遅延時間を、前記第4配信時間から前記処理時間を減算した時間に決定し、
     前記第4配信時間と前記合計配信時間と前記処理時間とのうち前記合計配信時間が最も長い場合は、前記第1遅延時間を「0」に決定し、前記第2遅延時間を、前記合計配信時間から前記第4配信時間を減算した時間に決定し、前記第3遅延時間を、前記合計配信時間から前記処理時間を減算した時間に決定し、
     前記第4配信時間と前記合計配信時間と前記処理時間とのうち前記処理時間が最も長い場合は、前記第3遅延時間を「0」に決定し、前記第1遅延時間を、前記処理時間から前記第1配信時間を減算した時間に決定し、前記第2遅延時間を、前記処理時間から前記第4配信時間を減算した時間に決定する、
     ことを特徴とする請求項4又は5に記載のオーディオシステム。
  7.  前記第1オーディオ機器から前記第3オーディオ信号が入力される、第6オーディオ機器をさらに含み、
     前記第1オーディオ機器、前記第2オーディオ機器、前記第5オーディオ機器、及び、前記第6オーディオ機器によりサラウンド再生を行うとともに、
     前記第1オーディオ機器、前記第2オーディオ機器、前記第3オーディオ機器、前記第4オーディオ機器、前記第5オーディオ機器、及び、前記第6オーディオ機器が、同一コンテンツを同期して再生する、
     ことを特徴とする請求項6に記載のオーディオシステム。
  8.  ユーザから、コンテンツを再生するオーディオ機器と、再生するコンテンツとを選択する操作を受け付ける操作端末をさらに含む、
     ことを特徴とする請求項1から7の何れか1項に記載のオーディオシステム。
  9.  前記第1オーディオ機器にネットワークを介して接続された外部のオーディオ機器をさらに含み、
     前記第1オーディオ機器は、前記第3オーディオ信号を前記第2オーディオ機器に送信するとともに、前記第1オーディオ信号を前記外部のオーディオ機器に送信する、
     ことを特徴とする請求項1に記載のオーディオシステム。
  10.  当該オーディオ機器の外部から受信した第1チャンネル数の第1オーディオ信号に基づいて、前記第1チャンネル数より多い第2チャンネル数の第2オーディオ信号を生成する信号処理部と、
     前記信号処理部で生成された前記第2オーディオ信号における一部のチャンネルに対応する第3オーディオ信号を当該オーディオ機器にネットワークを介して接続された外部のオーディオ機器に送信する通信部と、を含む、
     ことを特徴とするオーディオ機器。
  11.  前記信号処理部は、前記第2オーディオ信号に基づいて、当該オーディオ機器用の第4オーディオ信号と、前記外部のオーディオ信号用の前記第3オーディオ信号とを生成する、
     ことを特徴とする請求項10に記載のオーディオ機器。
  12.  当該オーディオ機器は、前記第4オーディオ信号を再生するとともに、前記第3オーディオ信号を前記外部のオーディオ機器に送信する、
     ことを特徴とする請求項11に記載のオーディオ機器。
  13.  前記通信部は、当該オーディオ機器の外部から前記第1オーディオ信号を受信するとともに、前記第3オーディオ信号を前記外部のオーディオ機器に送信し、
     当該オーディオ機器は、さらに、前記通信部により受信された前記第1オーディオ信号を前記信号処理部に転送するとともに、前記信号処理部により生成された前記第3オーディオ信号を前記通信部に出力する信号転送部を含み、
     前記信号処理部は、前記通信部及び前記信号転送部の外部に設けられている、
     ことを特徴とする請求項11又は12に記載のオーディオ機器。
  14.  前記外部のオーディオ機器は当該オーディオ機器に無線により接続されている、
     ことを特徴とする請求項10から13の何れか1項に記載のオーディオ機器。
  15.  前記外部のオーディオ機器における前記第3オーディオ信号の再生に同期して、前記第4オーディオ信号を再生する、
     ことを特徴とする請求項11から13の何れか1項に記載のオーディオ機器。
  16.  前記第3オーディオ信号を、当該オーディオ機器の外部の第1外部オーディオ機器に送信するとともに、前記第1オーディオ信号を、当該オーディオ機器の外部の第2外部オーディオ機器に送信する、
     ことを特徴とする請求項10に記載のオーディオ機器。
  17.  当該オーディオ機器の外部から受信した第1チャンネル数の第1オーディオ信号に基づいて、前記第1チャンネル数より多い第2チャンネル数の第2オーディオ信号に生成するステップと、
     生成した前記第2オーディオ信号における一部のチャンネルに対応する第3オーディオ信号を当該オーディオ機器にネットワークを介して接続された外部のオーディオ機器に送信するステップと、を含む、
     ことを特徴とするオーディオ機器の制御方法。
PCT/JP2017/032159 2017-09-06 2017-09-06 オーディオシステム、オーディオ機器、及びオーディオ機器の制御方法 WO2019049245A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP17924184.9A EP3681177A4 (en) 2017-09-06 2017-09-06 AUDIO SYSTEM, AUDIO DEVICE, AND METHOD OF CONTROLLING AN AUDIO DEVICE
PCT/JP2017/032159 WO2019049245A1 (ja) 2017-09-06 2017-09-06 オーディオシステム、オーディオ機器、及びオーディオ機器の制御方法
JP2019540187A JP7024794B2 (ja) 2017-09-06 2017-09-06 オーディオシステム、オーディオ機器、及びオーディオ機器の制御方法
US15/921,711 US10390138B2 (en) 2017-09-06 2018-03-15 Audio system, audio apparatus, and control method for audio apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/032159 WO2019049245A1 (ja) 2017-09-06 2017-09-06 オーディオシステム、オーディオ機器、及びオーディオ機器の制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/921,711 Continuation US10390138B2 (en) 2017-09-06 2018-03-15 Audio system, audio apparatus, and control method for audio apparatus

Publications (1)

Publication Number Publication Date
WO2019049245A1 true WO2019049245A1 (ja) 2019-03-14

Family

ID=65518392

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/032159 WO2019049245A1 (ja) 2017-09-06 2017-09-06 オーディオシステム、オーディオ機器、及びオーディオ機器の制御方法

Country Status (4)

Country Link
US (1) US10390138B2 (ja)
EP (1) EP3681177A4 (ja)
JP (1) JP7024794B2 (ja)
WO (1) WO2019049245A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7412091B2 (ja) * 2019-05-08 2024-01-12 株式会社ディーアンドエムホールディングス オーディオ装置およびオーディオシステム
US11464072B2 (en) * 2019-11-14 2022-10-04 Carrier Corporation Synchronized mesh audio communications
JP7440293B2 (ja) * 2020-02-27 2024-02-28 株式会社ディーアンドエムホールディングス Avアンプ装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5328637B2 (ja) 1971-11-25 1978-08-16
JP2008503147A (ja) 2004-06-16 2008-01-31 サムスン エレクトロニクス カンパニー リミテッド マルチチャンネルオーディオシステム
JP2008522468A (ja) * 2004-11-18 2008-06-26 ナショナル・ユニバーシティ・オブ・アイルランド・ガルウェイ ネットワーク上のマルチチャネルスピーカの同期
JP2012161088A (ja) * 2012-04-03 2012-08-23 Yamaha Corp データ配信システムおよび中継装置
JP2015530825A (ja) * 2012-08-31 2015-10-15 ドルビー ラボラトリーズ ライセンシング コーポレイション 種々の聴取環境におけるオブジェクトに基づくオーディオのレンダリング及び再生のためのシステム
JP2016106485A (ja) * 2011-07-19 2016-06-16 ソノズ インコーポレイテッド スピーカーの配置方向に応じた音声の整形

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005006069A (ja) * 2003-06-12 2005-01-06 Alpine Electronics Inc ネットワークシステム、その電子機器、音声再生システム、データ送受信方法及び音声再生方法
US20050063551A1 (en) * 2003-09-18 2005-03-24 Yiou-Wen Cheng Multi-channel surround sound expansion method
US7483538B2 (en) * 2004-03-02 2009-01-27 Ksc Industries, Inc. Wireless and wired speaker hub for a home theater system
US7356152B2 (en) * 2004-08-23 2008-04-08 Dolby Laboratories Licensing Corporation Method for expanding an audio mix to fill all available output channels
JP5049652B2 (ja) * 2006-09-07 2012-10-17 キヤノン株式会社 通信システム、データの再生制御方法、コントローラ、コントローラの制御方法、アダプタ、アダプタの制御方法、およびプログラム
US8788080B1 (en) * 2006-09-12 2014-07-22 Sonos, Inc. Multi-channel pairing in a media system
EP2093757A4 (en) * 2007-02-20 2012-02-22 Panasonic Corp MULTIPLEX DECODING DEVICE, MULTIPLEX DECODING METHOD, PROGRAM, AND SEMICONDUCTOR INTEGRATED CIRCUIT
US8477950B2 (en) * 2009-08-24 2013-07-02 Novara Technology, LLC Home theater component for a virtualized home theater system
US8837529B2 (en) * 2010-09-22 2014-09-16 Crestron Electronics Inc. Digital audio distribution
CN106375921B (zh) * 2012-04-26 2020-07-14 搜诺思公司 媒体系统中的多通道配对
KR20140017338A (ko) * 2012-07-31 2014-02-11 인텔렉추얼디스커버리 주식회사 오디오 신호 처리 장치 및 방법
PL3429233T3 (pl) * 2013-07-30 2020-11-16 Dts, Inc. Dekoder matrycowy z panoramowaniem parami o stałej mocy
WO2015081293A1 (en) * 2013-11-27 2015-06-04 Dts, Inc. Multiplet-based matrix mixing for high-channel count multichannel audio
US9313591B2 (en) * 2014-01-27 2016-04-12 Sonos, Inc. Audio synchronization among playback devices using offset information
JP6668636B2 (ja) * 2015-08-19 2020-03-18 ヤマハ株式会社 オーディオシステムおよびオーディオ機器
JP6451596B2 (ja) * 2015-10-30 2019-01-16 ヤマハ株式会社 オーディオ装置およびオーディオ機器
US9924291B2 (en) * 2016-02-16 2018-03-20 Sony Corporation Distributed wireless speaker system
US9860670B1 (en) * 2016-07-15 2018-01-02 Sonos, Inc. Spectral correction using spatial calibration

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5328637B2 (ja) 1971-11-25 1978-08-16
JP2008503147A (ja) 2004-06-16 2008-01-31 サムスン エレクトロニクス カンパニー リミテッド マルチチャンネルオーディオシステム
JP2008522468A (ja) * 2004-11-18 2008-06-26 ナショナル・ユニバーシティ・オブ・アイルランド・ガルウェイ ネットワーク上のマルチチャネルスピーカの同期
JP2016106485A (ja) * 2011-07-19 2016-06-16 ソノズ インコーポレイテッド スピーカーの配置方向に応じた音声の整形
JP2012161088A (ja) * 2012-04-03 2012-08-23 Yamaha Corp データ配信システムおよび中継装置
JP2015530825A (ja) * 2012-08-31 2015-10-15 ドルビー ラボラトリーズ ライセンシング コーポレイション 種々の聴取環境におけるオブジェクトに基づくオーディオのレンダリング及び再生のためのシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3681177A4

Also Published As

Publication number Publication date
JPWO2019049245A1 (ja) 2019-12-12
US20190075398A1 (en) 2019-03-07
JP7024794B2 (ja) 2022-02-24
US10390138B2 (en) 2019-08-20
EP3681177A4 (en) 2021-03-17
EP3681177A1 (en) 2020-07-15

Similar Documents

Publication Publication Date Title
JP6577082B2 (ja) サテライトボリュームコントロール
US11812253B2 (en) Wireless multi-channel headphone systems and methods
JP7176033B2 (ja) 複数のメディア再生プロトコルを有するシステムにおけるグループ化
JP6290265B2 (ja) オーディオコンテンツを事前準備する方法
JP6105757B2 (ja) ハウスホールド再生デバイスの自動設定
JP6157648B2 (ja) ハウスホールド再生デバイスの自動設定
JP6177318B2 (ja) 装置の再生の不履行からの回復と再分配
JP2019215554A (ja) 再生デバイスと再生キューとの関連付け
JP6148737B2 (ja) モバイルソースメディアコンテンツへのアクセス
JP7024794B2 (ja) オーディオシステム、オーディオ機器、及びオーディオ機器の制御方法
US20220240012A1 (en) Systems and methods of distributing and playing back low-frequency audio content
US20240069853A1 (en) Techniques for Extending the Lifespan of Playback Devices
JP4967945B2 (ja) 端末装置およびデータ配信システム
JP5397495B2 (ja) データ配信システムおよび中継装置
EP3486789A1 (en) Content reproduction device, content reproduction system, and method for controlling content reproduction device
EP3477887A1 (en) Synchronization setting device, distribution system, synchronization setting method, and program
US20240236604A9 (en) Wireless Multi-Channel Headphone Systems and Methods

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17924184

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019540187

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017924184

Country of ref document: EP

Effective date: 20200406