WO2018235182A1 - 情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法 - Google Patents

情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法 Download PDF

Info

Publication number
WO2018235182A1
WO2018235182A1 PCT/JP2017/022800 JP2017022800W WO2018235182A1 WO 2018235182 A1 WO2018235182 A1 WO 2018235182A1 JP 2017022800 W JP2017022800 W JP 2017022800W WO 2018235182 A1 WO2018235182 A1 WO 2018235182A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
arrangement
audio
unit
audio devices
Prior art date
Application number
PCT/JP2017/022800
Other languages
English (en)
French (fr)
Inventor
知子 二宮
和也 虫壁
須山 明彦
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to JP2019524765A priority Critical patent/JPWO2018235182A1/ja
Priority to PCT/JP2017/022800 priority patent/WO2018235182A1/ja
Priority to CN201780092382.7A priority patent/CN110786023B/zh
Priority to EP17914636.0A priority patent/EP3644625A4/en
Publication of WO2018235182A1 publication Critical patent/WO2018235182A1/ja
Priority to US16/719,025 priority patent/US11172295B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/003Digital PA systems using, e.g. LAN or internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/005Audio distribution systems for home, i.e. multi-room use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/007Monitoring arrangements; Testing arrangements for public address systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved

Definitions

  • One embodiment of the present invention relates to an information processing apparatus, an information processing system, an information processing program, and an information processing method, and in particular, an information processing apparatus, an information processing system, an information processing program, and an information processing method for specifying an arrangement of audio devices. .
  • Patent Document 1 there is a multi-channel audio system having a plurality of channels and provided with a number of speakers corresponding to these channels.
  • the signal processing unit of the amplifier unit performs the channel assignment process in order to create a multi-channel playback environment. Thereby, in the multi-channel audio system, it is determined which of the plurality of (seven) speakers to be used is the speaker (determines the positions of the plurality of speakers).
  • the user places a microphone at each of the left and right front and rear of the viewing position, and the microphone picks up the measurement sound output from each speaker.
  • the collected sound data collected by the microphones are used to measure the distance between each microphone and each speaker. Based on these distances, the multi-channel audio system determines which position a plurality of speakers are.
  • the multi-channel audio system (information processing apparatus) of Patent Document 1 uses a microphone to specify positions of a plurality of speakers (sound devices). And this multi-channel audio system requires four measurements for each of the multiple speakers. Also, in this multi-channel audio system, one microphone is used, and the user places the microphones in order at four points in front, rear, left, and right of the viewing position. In such a multi-channel audio system, the number of measurements is large, and the movement of the microphone by the user takes time to specify the positions of a plurality of speakers. As a result, in the multi-channel audio system of Patent Document 1, there is a possibility that the construction work of the multi-channel reproduction environment becomes complicated.
  • an object of the present invention is to provide an information processing apparatus, an information processing system, an information processing program, and an information processing method capable of specifying the arrangement of audio devices more easily.
  • An information processing apparatus includes a plurality of output units for outputting a detection signal to a plurality of audio devices, and a plurality of response signals output from the plurality of audio devices receiving the detection signal.
  • a reception unit for receiving respective arrangements of the audio devices, a storage unit for storing arrangement data indicating the arrangement of the plurality of audio devices, and the plurality of sounds included in the arrangement data including the arrangement received by the reception unit
  • a position specifying processing unit for assigning the assignment to any one of the devices and storing the assignment assigned to the placement data in the storage unit.
  • the arrangement of acoustic devices can be specified more easily.
  • FIG. 1 is a block diagram showing the configuration of an information processing system 10 according to an embodiment of the present invention.
  • FIG. 2 is a schematic view showing an example of a space (living room r1 and bedroom r2) in which the information processing system 10 is configured.
  • the information processing device 4 specifies the audio devices 3A to 3F which are targets of content distribution. Then, in the information processing device 4, the information processing program, and the information processing system 10, the arrangement of the audio devices that are targets of content distribution is specified, and the channel setting of these audio devices is performed.
  • the information processing system 10 includes an audio player 1, an AV receiver 2, a plurality of audio devices 3A to 3F, and an information processing device 4.
  • the information processing system 10 is, for example, indoors having a plurality of spaces, and outputs content (music) to be reproduced by the audio player 1 from one or a plurality of audio devices 3A to 3F.
  • the plurality of audio devices 3A to 3F can move to one space (room) or another space. That is, the plurality of audio devices 3A to 3F are not always arranged at the same position in the same space. Therefore, the information processing system 10 is configured to appropriately identify the audio devices 3A to 3F arranged in the space desired by the user, and output appropriate content from the audio devices 3A to 3F.
  • the information processing apparatus 4 when the information processing apparatus 4 is operated by the user, where in the space the acoustic devices arranged in the space desired by the user among the plurality of audio devices 3A to 3F are arranged Figure out.
  • the audio player 1 is an apparatus for reproducing content, such as a CD player or a DVD player.
  • the audio player 1 is disposed in the living room r1, as shown in FIG.
  • the audio player 1 is connected to the AV receiver 2 via wireless or wired.
  • the audio player 1 transmits the reproduced content to the AV receiver 2.
  • the audio player 1 is not limited to the example disposed in the living room r1, and may be disposed in the bedroom r2. Further, the information processing system 10 may include a plurality of audio players 1.
  • the AV receiver 2 constructs a wireless LAN using a router having a wireless access point function.
  • the AV receiver 2 is connected to, for example, the audio player 1, the plurality of audio devices 3A to 3F, and the information processing apparatus 4 via a wireless LAN.
  • the AV receiver 2 is in the living room r1 and is disposed near the television 5.
  • the AV receiver 2 is not limited to the example arrange
  • the AV receiver 2 is not limited to the example of acquiring the content from the audio player 1, and may download the content (for example, the Internet radio) from the content server via the Internet, for example. Further, the AV receiver 2 may be connected to the plurality of audio devices 3A to 3F via a LAN cable. Also, the AV receiver 2 may have the function of the audio player 1.
  • the plurality of audio devices 3A to 3F are devices having, for example, a speaker or a speaker function.
  • the plurality of acoustic devices 3A to 3F are disposed in a plurality of different indoor spaces, for example, a living room r1 and a bedroom r2.
  • the plurality of audio devices 3A to 3F output sounds based on the signals output from the AV receiver 2.
  • the plurality of audio devices 3A to 3F are connected to the AV receiver 2 via wireless or wired communication.
  • the information processing device 4 is, for example, a portable mobile terminal such as a smartphone.
  • the user transmits and receives information to and from the AV receiver 2 using a dedicated application downloaded to the information processing device 4 in advance.
  • FIG. 3 is a block diagram showing the configuration of each audio device.
  • FIG. 4 is a block diagram showing the configuration of the AV receiver 2.
  • the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D is arranged.
  • the first acoustic device 3A, the second acoustic device 3B, the third acoustic device 3C, and the fourth acoustic device 3D are disposed at different positions in the living room r1.
  • the fifth audio device 3E and the sixth audio device 3F are disposed in the bedroom r2.
  • Each of the fifth acoustic device 3E and the sixth acoustic device 3F is disposed at different positions in the bedroom r2.
  • the plurality of acoustic devices 3A to 3F are not limited to the number and arrangement shown in the present embodiment.
  • the first acoustic device 3A will be described as an example.
  • the other acoustic devices (the second acoustic device 3B, the third acoustic device 3C, the fourth acoustic device 3D, the fifth acoustic device 3E, and the sixth acoustic device 3F) all have the same configuration and function.
  • the first audio device 3A includes a CPU 31, a communication unit 32, a RAM 33, a ROM 34, and a speaker 35.
  • the first audio device 3A further includes a microphone 36.
  • the CPU 31 controls the communication unit 32, the RAM 33, the ROM 34, the speaker 35, and the microphone 36.
  • the communication unit 32 is, for example, a wireless communication unit conforming to the Wi-Fi standard.
  • the communication unit 32 communicates with the AV receiver 2 via a router with a wireless access point.
  • the communication unit 32 is also communicable with the information processing apparatus 4 as well.
  • the ROM 34 is a storage medium.
  • the ROM 34 stores an operation program for the CPU 31.
  • the CPU 31 performs various processes by reading the program stored in the ROM 34 to the RAM 33 and executing the program.
  • the speaker 35 has a D / A converter that converts a digital audio signal into an analog audio signal, and an amplifier that amplifies the audio signal.
  • the speaker 35 outputs a sound (for example, music or the like) based on a signal input from the AV receiver 2 via the communication unit 32.
  • the microphone 36 receives an index signal (for example, a test sound) output from the information processing device 4.
  • the microphone 36 picks up a test sound which is an indexing signal output from the information processing device 4.
  • the CPU 31 outputs, for example, a beep as a response signal.
  • the response signal is output from the speaker 35.
  • the response signal is not limited to the test sound.
  • the CPU 31 may transmit the response signal as data to the information processing device 4 directly or via the communication unit 32.
  • the response signal may be light or both a test sound and light.
  • the first acoustic device 3A has a light emitting element such as an LED, and the CPU 31 causes the light emitting element to emit light as a response signal.
  • the AV receiver 2 includes a CPU 21, a content input unit 22, a communication unit 23, a DSP 24, a ROM 25, and a RAM 26.
  • the CPU 21 controls the content input unit 22, the communication unit 23, the DSP 24, the ROM 25 and the RAM 26.
  • the content input unit 22 communicates with the audio player 1 by wire or wirelessly.
  • the content input unit 22 acquires content from the audio player 1.
  • the communication unit 23 is, for example, a wireless communication unit conforming to the Wi-Fi standard.
  • the communication unit 23 communicates with each of the plurality of audio devices 3A to 3F via a router with a wireless access point.
  • the communication unit 23 directly communicates with each of the plurality of audio devices 3A to 3F.
  • the DSP 24 performs various signal processing on the signal input to the content input unit 22.
  • the DSP 24 receives data encoded as a content signal, the DSP 24 decodes the encoded data and performs signal processing such as extracting an audio signal.
  • the ROM 25 is a storage medium.
  • the ROM 25 stores an operation program for the CPU 21.
  • the CPU 21 performs various processes by reading out the program stored in the ROM 25 to the RAM 26 and executing the program.
  • the ROM 25 stores information of a plurality of audio devices 3A to 3F.
  • FIG. 5 is a correspondence table showing an example of information of the plurality of audio devices 3A to 3F stored in the ROM 25. As shown in FIG. Information such as an IP address, a MAC address, an arrangement place (arrangement), and a channel is stored in association with each other in each of the plurality of audio devices 3A to 3F.
  • the communication unit 23 receives data from the information processing device 4.
  • the content input unit 22 acquires the content of the audio player 1 based on the received data. Then, based on the content received by the content input unit 22 from the audio player 1, the communication unit 23 transmits audio data to each of the plurality of audio devices 3A to 3F.
  • the communication unit 23 also transmits and receives data to and from the information processing device 4.
  • the information processing device 4 receives a setting operation or the like from the user
  • the information processing device 4 transmits a start notification to the AV receiver 2.
  • the communication unit 23 receives the start notification transmitted from the information processing device 4.
  • the communication unit 23 transmits the sound collection start notification to the plurality of audio devices 3A to 3F such that the microphones 36 of the plurality of sound devices 3A to 3F are in the sound collection state.
  • the information processing device 4 transmits an end notification to the AV receiver 2 by a timeout or a user operation.
  • the communication unit 23 receives an end notification from the information processing device 4.
  • the communication unit 23 When the microphones 36 of the plurality of audio devices 3A to 3F are in the sound collection state, the communication unit 23 performs the plurality of sounds so that the microphones 36 of the plurality of audio devices 3A to 3F are in the sound collection stop state.
  • the sound collection end notification is transmitted to each of the devices 3A to 3F.
  • an IP address (local address) unique to each of the first audio device 3A, the second audio device 3B, the third audio device 3C, the fourth audio device 3D, the fifth audio device 3E and the sixth audio device 3F. is assigned.
  • the IP addresses of the first audio device 3A, the second audio device 3B, the third audio device 3C, the fourth audio device 3D, the fifth audio device 3E, and the sixth audio device 3F are assigned by the AV receiver 2.
  • the IP addresses of the first audio device 3A, the second audio device 3B, the third audio device 3C, the fourth audio device 3D, the fifth audio device 3E, and the sixth audio device 3F may be assigned by a router or the like. .
  • each of the first acoustic device 3A, the second acoustic device 3B, the third acoustic device 3C, the fourth acoustic device 3D, the fifth acoustic device 3E, and the sixth acoustic device 3F has a MAC address that is unique identification information have.
  • the individual identification information may be other identification information such as a serial number or an ID number.
  • the IP address and the MAC address are previously associated with the plurality of audio devices 3A to 3F in one-to-one correspondence. The associated information is stored in the AV receiver 2.
  • the information processing device 4 is, for example, a portable mobile terminal such as a smartphone.
  • FIG. 6 is a block diagram showing the configuration of the information processing device 4.
  • the information processing device 4 includes a CPU 40, a storage unit 41, a display unit 42, an output unit 43, a reception unit 44, a position specification processing unit 45, a channel assignment unit 46, and a RAM 47.
  • the information processing apparatus 4 has the function and structure which exist in a smart phone besides the above-mentioned structure.
  • the information processing device 4 may be any device that can be operated by the user, such as a tablet, a smart watch, or a PC.
  • the CPU 40 performs various processes by, for example, reading out a program stored in the storage unit 41 with the RAM 47 and executing the program.
  • the output unit 43 transmits an indexing signal for determining the arrangement of the plurality of acoustic devices 3A to 3F existing in a predetermined space, and transmits a detection signal to the audio device having received the indexing signal.
  • the output unit 43 may include a speaker, a light emitting element, an infrared transmitter, an antenna, or the like to output sound, light, infrared light, or a signal.
  • the output unit 43 outputs a sound, for example, a beep as an index signal from the speaker.
  • the output unit 43 includes a plurality of audio devices (for example, the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D disposed in a predetermined space (for example, the living room r1).
  • the beep sound of a size that can be picked up only) is output.
  • only the audio devices for example, the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D
  • only the audio devices that can collect the beep sound are targets of indexing It becomes.
  • the index signal is not limited to sound only, and may be light or infrared light.
  • the output unit 43 causes the light emitting element to emit light.
  • the output unit 43 outputs an infrared ray from the infrared transmitter.
  • the output unit 43 outputs a detection signal to a plurality of audio devices (for example, the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D). More specifically, the output unit 43 directly connects the audio device (for example, the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D) to be indexed or the AV receiver 2 Output a detection signal via The output unit 43 transmits a detection signal directly to the audio device (for example, the first audio device 3A) desired by the user or via the AV receiver 2.
  • the output unit 43 transmits a start notification notifying the start of the indexing process and an end notification notifying the end of the indexing process to the plurality of audio devices 3A to 3F directly or via the AV receiver 2.
  • each of the plurality of audio devices 3A to 3F sets the microphone 36 in the sound collection state or the sound collection stop state.
  • the storage unit 41 stores various programs to be executed by the CPU 40.
  • the storage unit 41 also stores arrangement data indicating the arrangement of the plurality of audio devices 3A to 3F in the space.
  • the arrangement data is data in which the plurality of audio devices 3A to 3F, the space, and the arrangement are associated with each other.
  • the storage unit 41 stores the plurality of audio devices 3A to 3F and the spaces in which the plurality of audio devices 3A to 3F are arranged in association with each other by the allocation process.
  • the storage unit 41 is an arrangement data in which the living room r1 is associated with the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D arranged in the living room r1. I remember.
  • the storage unit 41 stores arrangement data in which the fifth sound device 3E and the sixth sound device 3F arranged in the bedroom r2 are associated with the bedroom r2.
  • the arrangement is, for example, information indicating where in the living room r1 the first acoustic device 3A, the second acoustic device 3B, the third acoustic device 3C, and the fourth acoustic device 3D are disposed.
  • each of the plurality of audio devices 3A to 3F and the arrangement of each of the plurality of audio devices 3A to 3F are stored in association with each other by the position specifying process.
  • the display unit 42 has a screen for displaying an application downloaded by the information processing device 4, for example, an LCD (Liquid Crystal Display).
  • the user can operate the application by tapping or sliding on the screen.
  • the display unit 42 displays a layout diagram based on the layout data.
  • FIG. 7 is an explanatory view showing an example of a layout displayed on the display unit 42.
  • the first acoustic device 3A, the second acoustic device 3B, the third acoustic device 3C, and the fourth acoustic device 3D disposed in the living room r1
  • a correspondence table corresponding to the arrangement and channel to be selected later is displayed.
  • a simplified diagram (layout diagram) imitating the living room r1 is displayed below the screen.
  • Arrangement locations A1 to A4 indicating the arrangement of the audio equipment are displayed in the arrangement diagram.
  • the user operates the screen such that the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D correspond to the arrangement locations A1 to A4, respectively,
  • the first acoustic device 3A, the second acoustic device 3B, the third acoustic device 3C, and the fourth acoustic device 3D are associated with the arrangement location.
  • the reception unit 44 formed of a touch panel is output from a plurality of audio devices (for example, the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D) that receives the detection signal.
  • a plurality of audio devices for example, the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D
  • the respective arrangements of the first acoustic device 3A, the second acoustic device 3B, the third acoustic device 3C, and the fourth acoustic device 3D are received.
  • the response signal is a sound
  • the user determines which acoustic device the audio device (for example, the first audio device 3A) outputting the sound is.
  • the user selects on the screen which arrangement location A1 to A4 the audio device (for example, the first audio device 3A) outputting the sound is present.
  • the audio devices 3A to 3F are displayed line by line. The user selects one of the arrangement locations A1 to A4 for each of the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D from the pull-down list or the like.
  • the receiving unit 44 receives the center position. More specifically, the reception unit 44 receives the center position by the user performing a touch operation on any of the layout drawings on the lower side of the screen illustrated in FIG. 7.
  • the position specifying processing unit 45 assigns the arrangement received by the reception unit 44 to any one of the plurality of audio devices 3A to 3F included in the arrangement data, and stores the arrangement allocated to the arrangement data in the storage unit 41. Let That is, the position specifying processing unit 45 receives each of the first acoustic device 3A, the second acoustic device 3B, the third acoustic device 3C, and the fourth acoustic device 3D received by the receiving unit 44 in the row of the arrangement illustrated in FIG.
  • the storage unit 41 stores the arrangement data in which the arrangement places A1 to A4 assigned to the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D are associated. .
  • the channel allocation unit 46 receives the center position received by the reception unit 44 in the audio devices to be allocated (for example, the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D).
  • a channel is allocated to each of the plurality of audio devices (for example, the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D).
  • the channel assignment unit 46 makes a plurality of audio devices A channel corresponding to the first center position is assigned to each of (for example, the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D).
  • the center position received by the receiving unit 44 is stored in the storage unit 41.
  • the information processing device 4 is configured to transmit the content of the channel to the AV receiver 2.
  • the center position received by the receiving unit 44 is stored in the storage unit 41.
  • a place where the television 5 is disposed in the living room r1 can be set as the center position.
  • the information processing device 4 sets the channel of the audio device disposed on the left side toward the center position as the channel FL.
  • the AV receiver 2 sets the channel of the audio equipment disposed on the right side toward the center position to the channel FR.
  • the center position is at the front, the channel of the audio equipment disposed on the rear left is set to the channel SL. Also, the channel of the audio equipment disposed on the rear right side is set to the channel SR.
  • the user can operate the information processing device 4 to set the position of the television 5 as the center position. Since the storage unit 41 stores the center position, the user does not have to input the center position again when using the information processing system 10 next time. As a result, in the information processing apparatus 4 and the information processing system 10 of the present embodiment, the time for channel setting can be shortened.
  • acoustic devices for example, the first acoustic device 3A, the second acoustic device 3B, and the third acoustic device 3) disposed in a space desired by the user, for example, the living room r1.
  • the device 3C and the fourth audio device 3D can be specified.
  • the arrangement of the specified audio devices for example, the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D) It can be detected.
  • the information processing apparatus 4 and the information processing system 10 can more easily specify the arrangement of the audio devices 3A to 3F.
  • the specified acoustic devices for example, the first acoustic device 3A, the second acoustic device 3B, the third acoustic device 3C, and the like
  • the center position for example, the first acoustic device 3A, the second acoustic device 3B, the third acoustic device 3C, and the like
  • the channel setting of the fourth audio device 3D can be appropriately made.
  • the information processing apparatus 4 can realize the various functions described above by an information processing program executed by the CPU 40 existing in the information processing apparatus 4. By executing the information processing program, the arrangement of the audio devices 3A to 3F can be specified more easily.
  • FIG. 8 is a flowchart showing the operation of the information processing system 10.
  • the storage unit 24 of the AV receiver 2 associates each of the plurality of audio devices 3A to 3F with an IP address and a MAC address corresponding to each of the plurality of audio devices 3A to 3F. Data is stored. Further, the information processing device 4 can receive the data. Further, as shown in FIG. 2, the user carries the information processing device 4 and operates the information processing device 4 at the center of the living room r1. Furthermore, the user can view the correspondence table shown in FIG. 5 on the screen. The center position desired by the user is the position where the television 5 is disposed.
  • the information processing system 10 performs an indexing process for indexing an audio device to be indexed among the plurality of audio devices 3A to 3F (step S11).
  • the information processing system 10 is determined to be an index target among the plurality of audio devices 3A to 3F (step S12: YES).
  • the audio device for example, the first audio device 3A, the second audio device 3B, and the third audio device 3C
  • the position specifying process is performed on the fourth audio device 3D (step S13). Then, when the arrangement of the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D is specified, the information processing system 10 receives the center position and sets the channel. Perform (step S14).
  • the information processing system 10 ends the process (shifts to RETURN) to the audio device that has not been determined to be an index target (step S12: NO), for example, the fifth audio device 3E and the sixth audio device 3F. .
  • FIG. 9 is a flowchart showing operations of the information processing device 4 and the audio devices 3A to 3F in the indexing process of the information processing system 10.
  • the user operates the application on the screen to set the information processing system 10 to the processing start state.
  • the output unit 43 of the information processing device 4 transmits the start notification to the plurality of audio devices 3A to 3F via the AV receiver 2 (step S21).
  • the information processing device 4 sets a timeout (for example, 5 seconds) for stopping the start notification.
  • Each of the plurality of audio devices 3A to 3F receives the start notification (step S22).
  • Each of the plurality of audio devices 3A to 3F enables the microphone 36 to pick up sound.
  • each of the plurality of audio devices 3A to 3F notifies the information processing apparatus 4 of a sound collection preparation notification indicating that the microphone 36 is set to be capable of collecting sound via the AV receiver 2 (step S23). ).
  • the information processing device 4 receives the sound collection preparation notification (step S24)
  • the information processing device 4 transmits an indexing signal (test sound) from the output unit 43 (step S25).
  • the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D disposed in the living room r1 pick up the index signal (Ste S26).
  • the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D receive an index signal reception notification indicating that an index signal has been collected, directly or via the AV receiver 2 It transmits to the processing apparatus 4 (step S27).
  • the information processing device 4 receives the index signal reception notification (step S28).
  • the information processing device 4 causes the display unit 42 to display the first acoustic device 3A, the second acoustic device 3B, the third acoustic device 3C, and the fourth acoustic device 3D that have received the indexing signal.
  • the information processing device 4 stops the indexing signal by time-out or manually by the user (step S29).
  • the information processing device 4 notifies the end notification to the plurality of audio devices 3A to 3F via the AV receiver 2 (step S30).
  • the plurality of audio devices 3A to 3F receive the end notification (step S31), and stop the sound collection state of the microphone 36 in the information processing system 10.
  • the fifth acoustic device 3E and the sixth acoustic device 3F disposed in the bedroom r2 do not pick up the index signal.
  • the fifth audio device 3E and the sixth audio device 3F notify the information processing device 4 via the AV receiver 2 that the index signal is not collected.
  • the information processing apparatus 4 specifies only the audio device which collected the index signal, the audio devices which are not collected (here, the fifth audio device 3E and the sixth audio device 3F) It is not necessary to notify the device 4 that sound is not collected.
  • the audio device that has received the indexing signal is the target of the indexing, so that the user can easily identify the audio device in the space as appropriate.
  • the arrangement of the audio equipment can be specified more easily.
  • FIG. 10 is a flowchart showing the operations of the information processing device 4 and the audio device (here, the first audio device 3A) in the position specifying process of the information processing system 10.
  • the user selects one of the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D shown in FIG. 7 (step S41). More specifically, the user selects a section or a row of audio equipment to be set.
  • the receiving unit 44 receives, for example, an input of the first audio device 3A selected by the user (step S42).
  • the output unit 43 of the information processing device 4 transmits a detection signal to the first audio device 3A received by the reception unit 44 via the AV receiver 2 (step S43).
  • the first audio device 3A receives the detection signal (step S44), and outputs a response signal (step S45).
  • the user can specify where the first audio device 3A is disposed by a response signal (for example, a beep sound).
  • the first audio device 3A is disposed on the left side of the television 5.
  • the first audio device 3A is disposed on the front left side of the user.
  • the user operates the application on the screen to select, for example, the placement location A1 from the pull-down list so that the placement of the first audio device 3A becomes the placement location A1 (step S46).
  • the accepting unit 44 of the information processing device 4 accepts that the arrangement of the first audio device 3A is the arrangement place A1 (step S47).
  • the position specifying processing unit 45 associates the first acoustic device 3A with the arrangement place A1 (step S48).
  • the storage unit 41 stores data in which the first audio device 3A and the arrangement place A1 are associated with each other (step S49).
  • the information processing apparatus 4 can be used to identify each arrangement. That is, in the information processing method of the present embodiment, among the plurality of audio devices 3A to 3F, the position of the audio device to be indexed can be easily identified. As a result, the information processing method according to the embodiment can specify the arrangement of the audio equipment more easily.
  • FIG. 11 is a flowchart showing the operation of the information processing device 4 in the channel setting process of the information processing system 10.
  • the temporary center position (second center position) is stored in advance in the storage unit 41 in the storage unit 41.
  • the receiving unit 44 receives the center position selected by the user (step S51).
  • the center position is a position where the television 5 shown in FIG. 2 is disposed. In the living room r1, as shown in FIG. 2, the television 5 side is the front, the wall side facing the front where the television 5 is disposed is the rear, and the television 5 is the center toward the front.
  • the center position received by the receiving unit 44 is stored in the storage unit 41 as a first center position (step S52).
  • the channel assignment unit 46 includes the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D.
  • a channel is assigned to each (step S54).
  • the channel assignment unit 46 stores the first center position as the second center position in the storage unit 41 (step S55).
  • an audio device to be indexed for example, the first audio device 3A, the second audio device 3B, the third audio device 3C, and the fourth audio device 3D.
  • Channels are assigned.
  • the information processing device 4 can efficiently and efficiently set the channels of the plurality of audio devices.
  • the information processing apparatus 4 records the video or photograph of the space using the existing camera function, analyzes the video data or photograph, and specifies the arrangement of the plurality of audio devices 3A to 3F. Good.
  • the response signal may be voice. This makes it easier for the user to detect the placement location. In the information processing system 10 of the present embodiment, when the response signal is voice, the user can more easily specify the audio device.

Abstract

情報処理装置(1)は、出力部(43)と、受付部(44)と、記憶部(41)と、位置特定処理部(45)とを備える。出力部(43)は、複数の音響機器(3A~3F)に検出信号を出力する。受付部(44)、複数の音響機器(3A~3F)から出力される応答信号を基に、複数の音響機器(3A~3F)のそれぞれの配置を受け付ける。記憶部(41)は、複数の音響機器(3A~3F)の配置を示す配置データを記憶する。位置特定処理部(45)は、受付部(44)で受け付けた配置を配置データに含まれる複数の音響機器(3A~3F)のうちのいずれか1つに割り当て、配置データに割り当てられた配置を記憶部(41)に記憶させる。

Description

情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法
 本発明の一実施形態は、情報処理装置、情報処理システム、情報処理プログラム及び情報処理方法に関し、特に音響機器の配置を特定する情報処理装置、情報処理システム、情報処理プログラム及び情報処理方法である。
 従来、複数のチャンネルを有し、これらのチャンネルに対応する数のスピーカを備えるマルチチャンネルオーディオシステムがある(例えば、特許文献1)。
 マルチチャンネルオーディオシステムでは、マルチチャンネル再生環境を構築するために、アンプ装置の信号処理ユニットがチャンネル割り当て処理を実行する。これにより、マルチチャンネルオーディオシステムでは、使用する複数(9個)のスピーカがどの位置のスピーカであるかを判定する(複数のスピーカの位置を判定する)。
 チャンネル割り当て処理では、ユーザがマイクを視聴位置の左右前後のそれぞれに配置し、各スピーカから出力された測定音をマイクが収音する。マイクによって収音された収音データを使用して、各マイクの位置と各スピーカとの距離が測定される。マルチチャンネルオーディオシステムは、これらの距離に基づいて、複数のスピーカがどの位置のスピーカであるかを判定する。
国際公開2008/126161号
 特許文献1のマルチチャンネルオーディオシステム(情報処理装置)は、複数のスピーカ(音響機器)の位置を特定するためにマイクを使用する。そして、このマルチチャンネルオーディオシステムは、複数のスピーカのそれぞれに対して4回の測定を必要とする。また、このマルチチャンネルオーディオシステムでは、1つのマイクを使用し、ユーザが視聴位置の前後左右の4点に順に配置する。このようなマルチチャンネルオーディオシステムでは、測定回数が多く、かつユーザによるマイクの移動によって、複数のスピーカの位置を特定するのに時間がかかってしまう。この結果、特許文献1のマルチチャンネルオーディオシステムでは、マルチチャンネル再生環境の構築作業が煩雑になる虞がある。
 そこで、本発明の目的は、より簡易に音響機器の配置を特定することができる、情報処理装置、情報処理システム、情報処理プログラム及び情報処理方法を提供することにある。
 本発明の一実施形態に係る情報処理装置は、複数の音響機器に検出信号を出力する出力部と、前記検出信号を受け取った前記複数の音響機器から出力される応答信号を基に、前記複数の音響機器のそれぞれの配置を受け付ける受付部と、前記複数の音響機器の配置を示す配置データを記憶する記憶部と、前記受付部で受け付けた前記配置を前記配置データに含まれる前記複数の音響機器のうちのいずれか1つに割り当て、前記配置データに割り当てられた前記配置を前記記憶部に記憶させる位置特定処理部とを備える。
 本発明の一実施形態によれば、より簡易に音響機器の配置を特定することができる。
情報処理システムの構成を示すブロック図である。 情報処理システムが構成される空間の一例を示す概略図である。 音響機器の構成を示すブロック図である。 AVレシーバの構成を示すブロック図である。 複数の音響機器の情報の一例を示す対応表である。 情報処理装置の構成を示すブロック図である。 表示部に表示される配置図の一例を示す説明図である。 情報処理システムの動作を示すフローチャートである。 情報処理システムの割出処理における情報処理装置及び各音響機器の動作を示すフローチャートである。 情報処理システムの音響機器の位置特定処理における情報処理装置及び音響機器の動作を示すフローチャートである。 情報処理システムのチャンネル割当処理における情報処理装置の動作を示すフローチャートである。
 本発明の一実施形態に係る情報処理装置4、情報処理プログラム、及び情報処理システム10に関して、図面を参照して説明する。
 最初に、情報処理システム10を図1及び図2を参照して説明する。図1は、本発明の一実施形態に係る情報処理システム10の構成を示したブロック図である。図2は、情報処理システム10が構成される空間(リビングルームr1及び寝室r2)の一例を示す概略図である。
 本実施形態の情報処理装置4、情報処理プログラム及び情報処理システム10では、情報処理装置4によって、コンテンツの配信の対象となる音響機器3A~3Fが特定される。そして、情報処理装置4、情報処理プログラム及び情報処理システム10では、コンテンツの配信の対象である音響機器の配置が特定され、これらの音響機器のチャンネル設定が行われる。
 情報処理システム10は、図1に示すように、オーディオプレーヤ1と、AVレシーバ2と、複数の音響機器3A~3Fと、情報処理装置4とを備えている。情報処理システム10は、例えば、複数の空間を有する屋内であって、オーディオプレーヤ1が再生するコンテンツ(楽曲)を1乃至複数の音響機器3A~3Fから出力する。複数の音響機器3A~3Fは、1つの空間(部屋)内、又は別の空間に移動可能である。つまり、複数の音響機器3A~3Fは、常に同じ空間の同じ位置に配置されているとは限らない。そこで、情報処理システム10は、適宜、ユーザが所望する空間に配置されている音響機器3A~3Fを特定し、音響機器3A~3Fから適切なコンテンツが出力するように構成されている。情報処理システム10では、情報処理装置4がユーザに操作されることで、複数の音響機器3A~3Fのうちユーザが所望する空間に配置されている音響機器が空間内のどこに配置されているかを割り出す。
 オーディオプレーヤ1は、コンテンツを再生する機器、例えば、CDプレーヤ又はDVDプレーヤ、である。本実施形態の情報処理システム10では、オーディオプレーヤ1は、図2に示すように、リビングルームr1に配置されている。オーディオプレーヤ1は、無線又は有線を介してAVレシーバ2と接続されている。オーディオプレーヤ1は、再生したコンテンツをAVレシーバ2に送信する。なお、オーディオプレーヤ1は、リビングルームr1に配置されている例に限定されず、寝室r2に配置されていてもよい。また、情報処理システム10は、複数のオーディオプレーヤ1を備えていてもよい。
 AVレシーバ2は、無線アクセスポイント機能を有するルータを使用して、無線LANを構築する。AVレシーバ2は、例えば、無線LAN経由で、オーディオプレーヤ1、複数の音響機器3A~3F及び情報処理装置4と接続されている。
 AVレシーバ2は、例えば、図2に示すように、リビングルームr1内にあって、テレビ5の近傍に配置されている。なお、AVレシーバ2は、テレビ5の近傍に配置されている例に限定されず、寝室r2など、屋内に配置されていればよい。
 なお、AVレシーバ2は、オーディオプレーヤ1からコンテンツを取得する例に限らず、例えば、インターネットを介してコンテンツサーバからコンテンツ(例えば、インターネットラジオ)をダウンロードしてもよい。また、AVレシーバ2は、LANケーブルを介して複数の音響機器3A~3Fと接続されていてもよい。また、AVレシーバ2は、オーディオプレーヤ1の機能の有していてもよい。
 複数の音響機器3A~3Fは、例えばスピーカ又はスピーカ機能を有する機器である。複数の音響機器3A~3Fは、屋内の複数の異なる空間、例えばリビングルームr1及び寝室r2に配置されている。複数の音響機器3A~3Fは、AVレシーバ2から出力された信号に基づいて音を出力する。複数の音響機器3A~3Fは、無線又は有線を介してAVレシーバ2と接続されている。
 情報処理装置4は、例えば、スマートフォンなどの携帯可能なモバイル端末である。ユーザは、情報処理装置4に予めダウンロードした専用アプリを使用して、AVレシーバ2との間で情報を送受信する。
 次に、本実施形態に係るAVレシーバ2、複数の音響機器3A~3F及び情報処理装置4の詳細について、説明する。図3は、各音響機器の構成を示すブロック図である。図4は、AVレシーバ2の構成を示すブロック図である。
 複数(6つ)の音響機器3A~3Fのうち、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3Dは、図2に示すように、リビングルームr1に配置されている。第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3Dのそれぞれは、リビングルームr1内の異なる位置に配置されている。また、複数の音響機器3A~3Fのうち、第5音響機器3E及び第6音響機器3Fは寝室r2に配置されている。第5音響機器3E及び第6音響機器3Fのそれぞれは、寝室r2内の異なる位置に配置されている。なお、複数の音響機器3A~3Fは、本実施形態に示される数及び配置に限定されない。
 ここで、図3において、第1音響機器3Aを例として説明する。なお、他の音響機器(第2音響機器3B、第3音響機器3C、第4音響機器3D、第5音響機器3E及び第6音響機器3F)はすべて同じ構成及び機能を有する。第1音響機器3Aは、CPU31と、通信部32と、RAM33と、ROM34と、スピーカ35とを備えている。また、第1音響機器3Aは、マイク36を更に備えている。
 CPU31は、通信部32、RAM33、ROM34、スピーカ35及びマイク36を制御する。
 通信部32は、例えばWi-Fi規格に準じた無線通信部である。通信部32は、無線アクセスポイント付きのルータを介して、AVレシーバ2と通信する。また、通信部32は、同じく、情報処理装置4とも通信可能である。
 ROM34は、記憶媒体である。ROM34は、CPU31の動作用プログラムを記憶している。CPU31は、ROM34に記憶されているプログラムをRAM33に読み出して実行することにより、各種処理を行う。
 スピーカ35は、デジタルのオーディオ信号をアナログのオーディオ信号に変換するD/Aコンバータ及びオーディオ信号を増幅するアンプを有する。スピーカ35は、AVレシーバ2から通信部32を介して入力された信号に基づく音(例えば、楽曲など)を出力する。
 マイク36は、情報処理装置4が出力した割出信号(例えば、テスト音)を受け取る。言い換えると、マイク36は、情報処理装置4から出力された割出信号であるテスト音を収音する。マイク36が該テスト音を収音すると、CPU31は、応答信号として例えばビープ音を出力する。なお、応答信号は、スピーカ35から出力される。
 なお、応答信号は、テスト音だけに限定されない。CPU31は、応答信号を、直接又は通信部32を介して情報処理装置4にデータとして送信してもよい。また、応答信号は、光、又はテスト音と光の両方でもよい。この場合、第1音響機器3Aは、LED等の発光素子を有して、CPU31は、該発光素子を応答信号として発光させる。
 AVレシーバ2は、図4に示すように、CPU21と、コンテンツ入力部22と、通信部23と、DSP24と、ROM25と、RAM26とを備えている。
 CPU21は、コンテンツ入力部22、通信部23、DSP24、ROM25及びRAM26を制御する。
 コンテンツ入力部22は、オーディオプレーヤ1と有線又は無線で通信する。コンテンツ入力部22は、オーディオプレーヤ1から、コンテンツを取得する。
 通信部23は、例えばWi-Fi規格に準じた無線通信部である。通信部23は、無線アクセスポイント付きのルータを介して、複数の音響機器3A~3Fのそれぞれと通信する。なお、AVレシーバ2がルータ機能を有する場合、通信部23は、複数の音響機器3A~3Fのそれぞれと直接通信する。
 DSP24は、コンテンツ入力部22に入力された信号に対して各種の信号処理を実行する。DSP24は、コンテンツの信号としてエンコードされたデータを受信した場合、該エンコードされたデータをデコードして、オーディオ信号を取り出す等の信号処理を実行する。
 ROM25は、記憶媒体である。ROM25は、CPU21の動作用プログラムを記憶している。CPU21は、ROM25に記憶されているプログラムをRAM26に読み出して実行することにより、各種処理を行う。
 また、ROM25は、複数の音響機器3A~3Fの情報を記憶している。図5は、ROM25に記憶されている複数の音響機器3A~3Fの情報の一例を示す対応表である。複数の音響機器3A~3Fのそれぞれは、IPアドレス、MACアドレス、配置場所(配置)、チャンネルなどの情報が互いに対応づけられて記憶されている。
 通信部23は、情報処理装置4からデータを受信する。コンテンツ入力部22は、受信したデータに基づくオーディオプレーヤ1のコンテンツを取得する。そして、通信部23は、コンテンツ入力部22がオーディオプレーヤ1から受け取ったコンテンツを基に、複数の音響機器3A~3Fのそれぞれにオーディオデータを送信する。
 また、通信部23は、情報処理装置4とデータを送受信する。情報処理装置4は、ユーザから設定操作等を受け付けると、AVレシーバ2に開始通知を送信する。通信部23は、情報処理装置4から送信された開始通知を受信する。そして、通信部23は、開始通知を受信すると、複数の音響機器3A~3Fのマイク36が収音状態になるように、複数の音響機器3A~3Fに収音開始通知を送信する。さらに、情報処理装置4は、タイムアウト又はユーザの操作によって、終了通知をAVレシーバ2に送信する。通信部23は、情報処理装置4からの終了通知を受信する。複数の音響機器3A~3Fのそれぞれのマイク36が収音状態である場合、複数の音響機器3A~3Fのそれぞれのマイク36が収音停止状態になるように、通信部23は、複数の音響機器3A~3Fのそれぞれに収音の終了通知を送信する。
 ところで、第1音響機器3A、第2音響機器3B、第3音響機器3C、第4音響機器3D、第5音響機器3E及び第6音響機器3Fのそれぞれには、固有のIPアドレス(ローカルアドレス)が割り当てられている。第1音響機器3A、第2音響機器3B、第3音響機器3C、第4音響機器3D、第5音響機器3E及び第6音響機器3FのIPアドレスは、AVレシーバ2によって割り当てられる。なお、第1音響機器3A、第2音響機器3B、第3音響機器3C、第4音響機器3D、第5音響機器3E及び第6音響機器3FのIPアドレスは、ルータ等によって割り当てられてもよい。
 また、第1音響機器3A、第2音響機器3B、第3音響機器3C、第4音響機器3D、第5音響機器3E及び第6音響機器3Fのそれぞれは、固有の個体識別情報であるMACアドレスを有している。なお、個体識別情報は、他にもシリアル番号又はID番号等、識別情報であればよい。IPアドレスとMACアドレスは、予め複数の音響機器3A~3Fと一対一に対応づけられている。対応付けられた情報は、AVレシーバ2に記憶されている。
 情報処理装置4は、例えば、スマートフォンなどの携帯可能なモバイル端末である。図6は、情報処理装置4の構成を示すブロック図である。情報処理装置4は、CPU40、記憶部41と、表示部42と、出力部43と、受付部44と、位置特定処理部45と、チャンネル割当部46と、RAM47とを備える。また、情報処理装置4は、上述の構成のほか、スマートフォンに既存する機能及び構成を有している。
 なお、情報処理装置4は、タブレット、スマートウォッチ又はPCなど、ユーザによる操作可能な機器であればよい。
 CPU40は、例えば、記憶部41に記憶されているプログラムをRAM47で読み出して実行することにより、各種処理を行う。
 出力部43は、所定の空間に存在する複数の音響機器3A~3Fの空間内の配置を割り出すための割出信号を送信し、割出信号を受け付けた音響機器に検出信号を送信さする。出力部43は、スピーカ、発光素子、赤外線送信機又はアンテナなどを有して、音、光、赤外線、又は信号を出力することができる。本実施形態の情報処理装置4では、出力部43は、割出信号として音、例えばビープ音、をスピーカから出力する。出力部43は、所定の空間(例えば、リビングルームr1)に配置されている複数の音響機器(例えば、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3D)だけが収音できる大きさの該ビープ音を出力する。これにより、情報処理システム10では、ビープ音を収音できた音響機器(例えば、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3D)のみが割り出しの対象となる。
 なお、割出信号は、音だけに限定されず、光又は赤外線などでもよい。例えば、割出信号が光の場合、出力部43は、発光素子を発光させる。また、割出信号が赤外線の場合、出力部43は、赤外線送信機から赤外線を出力する。
 さらに、出力部43は、複数の音響機器(例えば、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3D)に検出信号を出力する。より詳細には、出力部43は、割り出しの対象となる音響機器(例えば、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3D)に直接又はAVレシーバ2を介して検出信号を出力する。出力部43は、ユーザが所望する音響機器(例えば、第1音響機器3A)に直接又はAVレシーバ2を介して検出信号を送信する。
 また、出力部43は、割り出し処理の開始を通知する開始通知及び割り出し処理の終了を通知する終了通知を直接又はAVレシーバ2を介して複数の音響機器3A~3Fに送信する。これにより、複数の音響機器3A~3Fのそれぞれは、マイク36を収音状態又は収音停止状態に設定する。
 記憶部41は、CPU40によって実行される各種プログラムを記憶している。また、記憶部41は、複数の音響機器3A~3Fの空間内の配置を示す配置データを記憶する。配置データは、複数の音響機器3A~3Fと、空間と、配置とが互いに対応づけられデータである。記憶部41は、割り当て処理によって、複数の音響機器3A~3Fのそれぞれと、複数の音響機器3A~3Fのそれぞれが配置されている空間とが対応付けられて記憶する。例えば、記憶部41は、リビングルームr1に配置されている第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3Dとリビングルームr1とが対応付けられた配置データを記憶している。また、記憶部41は、寝室r2に配置されている第5音響機器3E及び第6音響機器3Fと寝室r2とが対応付けられた配置データを記憶している。
 配置は、例えば、リビングルームr1のどこに、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3Dが配置されているかを示す情報である。記憶部41には、位置特定処理によって、複数の音響機器3A~3Fのそれぞれと、複数の音響機器3A~3Fのそれぞれの配置とが対応付けられて記憶される。
 表示部42は、情報処理装置4がダウンロードしたアプリを表示するための画面、例えばLCD(Liquid Crystal Display)を有する。ユーザは、画面上でタップ又はスライド等をすることで、アプリを操作することができる。
 表示部42は、配置データに基づいた配置図を表示する。図7は、表示部42に表示される配置図の一例を示す説明図である。図7に示すように、表示部42の画面の上方には、リビングルームr1内に配置されている第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3Dが後に選択される配置とチャンネルとに対応づけられた対応表が表示されている。また、画面の下方には、リビングルームr1を模した簡易図(配置図)が表示されている。配置図には、音響機器の配置を示す配置場所A1~A4が表示されている。これにより、ユーザは、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3Dを、配置場所A1~A4と一対一に対応するように画面を操作して、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3Dと配置場所とを対応づける。
 例えば、タッチパネルからなる受付部44は、検出信号を受け取った複数の音響機器(例えば、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3D)から出力される応答信号を基に例えば、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3Dのそれぞれの配置を受け付ける。例えば、応答信号が音の場合、ユーザは、音を出力している音響機器(例えば、第1音響機器3A)がどの音響機器であるか判断する。そして、ユーザは、音を出力している音響機器(例えば、第1音響機器3A)が配置場所A1~A4のいずれの配置に存在するかを画面上で選択する。表示部42の画面には、図7に示すように、音響機器3A~3Fのそれぞれが一行ずつ表示されている。ユーザは、プルダウンリスト等から、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3Dのそれぞれに配置場所A1~A4のいずれかを選択する。
 また、受付部44は、センタ位置を受け付ける。より詳細には、受付部44は、ユーザが図7に示す画面下方の配置図のいずれかをタッチ操作することで、センタ位置を受け付ける。
 位置特定処理部45は、受付部44で受け付けた配置を配置データに含まれる複数の音響機器3A~3Fのうちのいずれか1つに割り当て、配置データに割り当てられた配置を記憶部41に記憶させる。つまり、位置特定処理部45は、図5に示す配置の列に、受付部44が受け付けた、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3Dのそれぞれの配置場所A1~A4を割り当てる。そして、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3Dのそれぞれに割り当てられた配置場所A1~A4が対応付けられた配置データを記憶部41に記憶させる。
 チャンネル割当部46は、割り当ての対象となる音響機器(例えば、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3D)に、受付部44で受け付けたセンタ位置に対応して、複数の音響機器(例えば、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3D)のそれぞれにチャンネルを割り当てる。また、チャンネル割当部46は、受付部44で新たに受け付けたセンタ位置である第1センタ位置と記憶部41に記憶されているセンタ位置である第2センタ位置とが異なる場合、複数の音響機器(例えば、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3D)のそれぞれに、前記第1センタ位置に対応するチャンネルを割り当てる。受付部44が受け付けたセンタ位置は、記憶部41に記憶される。なお、情報処理装置4は、チャンネルのコンテンツがAVレシーバ2に送信されるように構成されていることが好ましい。
 また、受付部44が受け付けたセンタ位置は、記憶部41に記憶される。本実施形態の情報処理システム10では、図2に示すように、リビングルームr1において、例えばテレビ5が配置されている場所をセンタ位置とすることができる。本実施形態の情報処理システム10において、情報処理装置4は、センタ位置に向かって左側に配置される音響機器のチャンネルをチャンネルFLに設定する。また、AVレシーバ2は、センタ位置に向かって右側に配置される音響機器のチャンネルをチャンネルFRに設定する。さらに、センタ位置を前方とした場合、後方の左側に配置される音響機器のチャンネルをチャンネルSLに設定する。また、後方の右側に配置される音響機器のチャンネルをチャンネルSRに設定する。
 さらに、ユーザが、情報処理装置4を操作して、テレビ5の位置をセンタ位置として、設定することが可能である。記憶部41がセンタ位置を記憶することで、次回情報処理システム10を使用する際に、ユーザが再びセンタ位置を入力する必要がない。この結果、本実施形態の情報処理装置4及び情報処理システム10では、チャンネル設定に係る時間を短縮することができる。
 本実施形態の情報処理装置4及び情報処理システム10では、ユーザが所望する空間、例えばリビングルームr1に配置されている音響機器(例えば、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3D)を特定することができる。また、本実施形態の情報処理装置4及び情報処理システムでは、特定した音響機器(例えば、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3D)の配置を検出することができる。この結果、本実施形態の情報処理装置4及び情報処理システム10は、より簡易に音響機器3A~3Fの配置を特定することができる。また、本実施形態の情報処理装置4及び情報処理システム10では、センタ位置を指定することで、特定した音響機器(例えば、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3D)のチャンネル設定が適宜可能になる。
 ところで、情報処理装置4は、情報処理装置4に既存のCPU40が実行する情報処理プログラムにより上述の各種機能を実現することができる。情報処理プログラムを実行することで、より簡易に音響機器3A~3Fの配置を特定することができる。
 ここで、情報処理システム10における動作を図8~図11を参照して説明する。図8は、情報処理システム10の動作を示すフローチャートである。なお、前提条件として、AVレシーバ2の記憶部24には、複数の音響機器3A~3Fのそれぞれと、複数の音響機器3A~3Fのそれぞれに対応するIPアドレス及びMACアドレスとが対応づけられたデータが記憶されている。また、情報処理装置4は、該データを受信することができる。また、ユーザは、図2に示すように、情報処理装置4を携帯して、リビングルームr1の中心で情報処理装置4を操作する。さらに、ユーザは、図5に示す対応表を画面でみることができる。また、ユーザが所望するセンタ位置は、テレビ5が配置されている位置とする。
 情報処理システム10は、複数の音響機器3A~3Fのうち、割り出しの対象となる音響機器を割り出す割出処理を行う(ステップS11)。情報処理システム10は、複数の音響機器3A~3Fのうち、割り出しの対象と判断された(ステップS12:YES)音響機器、例えば第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3Dに対して、位置特定処理を行う(ステップS13)。そして、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3Dの配置が特定されると、情報処理システム10は、センタ位置を受け付けて、チャンネルの設定処理を行う(ステップS14)。
 なお、情報処理システム10は、割り出しの対象と判断されなかった(ステップS12:NO)音響機器、例えば第5音響機器3E及び第6音響機器3Fに対して、処理を終了(RETURNに移行)する。
 情報処理システム10における、割出処理を説明する。図9は情報処理システム10の割出処理における情報処理装置4及び各音響機器3A~3Fの動作を示すフローチャートである。ユーザは、画面上のアプリを操作して、情報処理システム10を処理開始状態に設定する。情報処理装置4の出力部43は、開始通知をAVレシーバ2を介して複数の音響機器3A~3Fに送信する(ステップS21)。このとき、情報処理装置4は、開始通知を停止させるタイムアウト(例えば、5秒)を設定しておく。複数の音響機器3A~3Fのそれぞれは、開始通知を受信する(ステップS22)。複数の音響機器3A~3Fのそれぞれは、マイク36を収音可能な状態にする。そして複数の音響機器3A~3Fのそれぞれは、マイク36が収音可能な状態に設定されていることを示す収音準備通知を、AVレシーバ2を介して情報処理装置4に通知する(ステップS23)。情報処理装置4が収音準備通知を受け取ると(ステップS24)、情報処理装置4は、出力部43から割出信号(テスト音)を送信する(ステップS25)。
 複数の音響機器3A~3Fのうち、リビングルームr1に配置されている第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3Dが割出信号を収音する(ステップS26)。第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3Dは、割出信号を収音したこを示す割出信号受信通知を直接又はAVレシーバ2を介して情報処理装置4に送信する(ステップS27)。情報処理装置4は、割出信号受信通知を受信する(ステップS28)。このとき、情報処理装置4は、表示部42に、割出信号を受信した第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3Dを表示させる。情報処理装置4は、タイムアウト又はユーザの手動により、割出信号を停止する(ステップS29)。情報処理装置4は、AVレシーバ2を介して終了通知を複数の音響機器3A~3Fに通知する(ステップS30)。複数の音響機器3A~3Fは、終了通知を受信して(ステップS31)、マイク36の情報処理システム10での収音状態を停止させる。
 一方、寝室r2に配置されている第5音響機器3E及び第6音響機器3Fは、割出信号を収音しない。第5音響機器3E及び第6音響機器3Fは、割出信号を収音していないことをAVレシーバ2を介して情報処理装置4に通知する。なお、情報処理装置4は、割出信号を収音した音響機器のみを特定するので、収音していない音響機器(ここでは、第5音響機器3E及び第6音響機器3F)は、情報処理装置4に収音していないことを通知しなくてもよい。
 本実施形態の情報処理方法において、割出信号を受信した音響機器だけが割り出しの対象となることで、ユーザは、適宜、空間内の音響機器を容易に特定することができる。この結果、本実施形態の情報処理方法では、より簡易に音響機器の配置を特定することができる。
 次に、位置特定処理について、図10を参照して説明する。図10は、情報処理システム10の位置特定処理における、情報処理装置4及び音響機器(ここでは、第1音響機器3A)の動作を示すフローチャートである。ユーザは、図7に示す第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3Dのいずれかを選択する(ステップS41)。より詳細には、ユーザが設定しようとするセクション又は音響機器の行を選択する。受付部44は、ユーザによって選択された、例えば第1音響機器3Aの入力を受け付ける(ステップS42)。情報処理装置4の出力部43は、受付部44が受け付つけた第1音響機器3Aに検出信号をAVレシーバ2を介して送信する(ステップS43)。第1音響機器3Aは、検出信号を受信し、(ステップS44)、応答信号を出力する(ステップS45)。
 ここで、ユーザは、応答信号(例えば、ビープ音)によって、第1音響機器3Aがどの場所に配置されているかを特定することができる。本実施形態の情報処理システム10において、第1音響機器3Aは、テレビ5の左側に配置されている。言い換えると、第1音響機器3Aは、ユーザの正面左側に配置されている。ユーザは、画面上のアプリを操作して、第1音響機器3Aの配置が配置場所A1となるように例えばプルダウンリストから配置場所A1を選択する(ステップS46)。情報処理装置4の受付部44は、第1音響機器3Aの配置が配置場所A1であることを受け付ける(ステップS47)。
 位置特定処理部45は、第1音響機器3Aと配置場所A1とを対応づける(ステップS48)。記憶部41は、第1音響機器3Aと配置場所A1とが対応付けられたデータを記憶する(ステップS49)。
 本実施形態の情報処理方法において、ユーザがビープ音を出力している音響機器を容易に特定することができ、情報処理装置4を使用して、それぞれの配置を特定することができる。つまり、本実施形態の情報処理方法では、複数の音響機器3A~3Fのうち、割り出しの対象となる音響機器の位置が容易に特定できる。この結果、実施形態の情報処理方法は、より簡易に音響機器の配置を特定することができる。
 チャンネル設定処理について、図11を参照して説明する。図11は、情報処理システム10のチャンネル設定処理における情報処理装置4の動作を示すフローチャートである。前提条件として、記憶部41には、予め仮のセンタ位置(第2センタ位置)が記憶部41に記憶されている。
 受付部44は、ユーザによって選択されたセンタ位置を受け付ける(ステップS51)。なお、センタ位置は、図2に示すテレビ5が配置されている位置とする。リビングルームr1において、図2に示すように、テレビ5側が前方、テレビ5が配置されている前方と対向する壁側を後方とし、前方に向かってテレビ5を中心に左右とする。受付部44が受け付けたセンタ位置は、第1センタ位置として記憶部41に記憶される(ステップS52)。第1センタ位置と第2センタ位置とが異なる場合(ステップS53:No)、チャンネル割当部46は、第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3Dのそれぞれにチャンネルを割り当てる(ステップS54)。チャンネル割当部46は、第1センタ位置を第2センタ位置として記憶部41に記憶させる(ステップS55)。
 本実施形態の情報処理方法では、センタ位置が入力されることで、割り出しの対象となる音響機器、例えば第1音響機器3A、第2音響機器3B、第3音響機器3C及び第4音響機器3Dのチャンネルが割り当てられる。この結果、本実施形態の情報処理処理では情報処理装置4が、適宜、効率よく複数の音響機器のチャンネルの設定を行うことができる。
 なお、情報処理装置4は、既存のカメラ機能を使用して、空間のビデオ又は写真と記録し、このビデオデータ又は写真を解析して、複数の音響機器3A~3Fの配置を特定してもよい。
 また、応答信号は、音声であってもよい。これにより、ユーザがより配置場所を検出しやすくなる。本実施形態の情報処理システム10において、応答信号が音声の場合、ユーザがより容易に音響機器を特定することができる。
10…情報処理システム
3A、3B、3C、3D、3E、3F…音響機器
4…情報処理装置
41…記憶部
42…表示部
43…出力部
44…受付部
45…位置特定処理部
46…チャンネル割当部

Claims (13)

  1.  複数の音響機器に検出信号を出力する出力部と、
     前記検出信号を受け取った前記複数の音響機器から出力される応答信号を基に、前記複数の音響機器のそれぞれの配置を受け付ける受付部と、
     前記複数の音響機器の配置を示す配置データを記憶する記憶部と、
     前記受付部で受け付けた前記配置を前記配置データに含まれる前記複数の音響機器のうちのいずれか1つに割り当て、前記配置データに割り当てられた前記配置を前記記憶部に記憶させる位置特定処理部と、
     を備える、
     情報処理装置。
  2.  前記受付部は、センタ位置を受け付けるように構成され、
     前記受付部で受け付けた前記センタ位置に対応して、前記複数の音響機器のそれぞれにチャンネルを割り当てるチャンネル割当部を更に備える、
     請求項1に記載の情報処理装置。
  3.  前記センタ位置は、前記記憶部に記憶され、
     前記チャンネル割当部は、前記受付部で新たに受け付けたセンタ位置である第1センタ位置と前記記憶部に記憶されているセンタ位置である第2センタ位置とが異なる場合、前記複数の音響機器のそれぞれに、前記第1センタ位置に対応するチャンネルを割り当てるように構成される、
     請求項2に記載の情報処理装置。
  4.  前記出力部は、所定の空間に存在する前記複数の音響機器を割り出す割出信号を送信し、前記割出信号を受け付けた音響機器に前記検出信号を送信するように構成される、
     請求項1乃至3のいずれか一項に記載の情報処理装置。
  5.  前記配置データに基づいた配置図を表示する表示部を備え、
     ユーザによって前記配置図を使用した操作を受け付けることで前記配置を受け付けるように構成される、
     請求項1乃至4のいずれか一項に記載の情報処理装置。
  6.  請求項1乃至5のいずれか一項に記載の情報処理装置と、
     前記情報処理装置から出力された前記検出信号を受け取った場合、前記応答信号を出力する前記複数の音響機器と、
     を備える、
     情報処理システム。
  7.  前記応答信号が音声である、
     請求項6に記載の情報処理システム。
  8.  複数の音響機器に検出信号を出力するステップと、
     前記検出信号を受け取った前記複数の音響機器から出力される応答信号を基に、前記複数の音響機器のそれぞれの配置を受付部に受け付けるステップと、
     前記受付部で受け付けた前記配置を記憶部に記憶されている配置データのいずれか1つに割り当てるステップと、
     前記配置データに割り当てられた前記配置を前記記憶部に記憶させるステップと、
     を備える、
     情報処理プログラム。
  9.  複数の音響機器に検出信号を出力し、
     前記検出信号を受け取った前記複数の音響機器から出力される応答信号を基に、前記複数の音響機器のそれぞれの配置を受付部で受け付け、
     前記複数の音響機器の配置を示す配置データを記憶部に記憶し、
     前記受付部で受け付けた前記配置を、前記記憶部に記憶されている前記配置データに含まれる前記複数の音響機器のうちのいずれか1つに割り当て、
     前記配置データに割り当てられた前記配置を前記記憶部に記憶させる、
     情報処理方法。
  10.  センタ位置を前記受付部で受け付け、
     前記受付部で受け付けた前記センタ位置に対応して、前記複数の音響機器のそれぞれにチャンネルを割り当てる、
     請求項9に記載の情報処理方法。
  11.  前記センタ位置を前記記憶部に記憶し、
     前記受付部で新たに受け付けたセンタ位置である第1センタ位置と前記記憶部に記憶されているセンタ位置である第2センタ位置とが異なる場合、前記複数の音響機器のそれぞれに、前記第1センタ位置に対応するチャンネルを割り当てる、
     請求項10に記載の情報処理方法。
  12.  所望の空間に存在する前記複数の音響機器を割り出す割出信号を送信し、
     前記割出信号を受け付けた音響機器に前記検出信号を送信する、
     請求項9乃至11のいずれか一項に記載の情報処理方法。
  13.  前記配置データに基づいた配置図を表示部に表示し、
     ユーザによって前記配置図を使用した操作を受け付けることで前記配置を受け付ける、
     請求項9乃至12のいずれか一項に記載の情報処理方法。
PCT/JP2017/022800 2017-06-21 2017-06-21 情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法 WO2018235182A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019524765A JPWO2018235182A1 (ja) 2017-06-21 2017-06-21 情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法
PCT/JP2017/022800 WO2018235182A1 (ja) 2017-06-21 2017-06-21 情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法
CN201780092382.7A CN110786023B (zh) 2017-06-21 2017-06-21 信息处理装置、信息处理系统、记录介质及信息处理方法
EP17914636.0A EP3644625A4 (en) 2017-06-21 2017-06-21 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING PROGRAM AND INFORMATION PROCESSING METHOD
US16/719,025 US11172295B2 (en) 2017-06-21 2019-12-18 Information processing device, information processing system, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/022800 WO2018235182A1 (ja) 2017-06-21 2017-06-21 情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/719,025 Continuation US11172295B2 (en) 2017-06-21 2019-12-18 Information processing device, information processing system, and information processing method

Publications (1)

Publication Number Publication Date
WO2018235182A1 true WO2018235182A1 (ja) 2018-12-27

Family

ID=64735575

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/022800 WO2018235182A1 (ja) 2017-06-21 2017-06-21 情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法

Country Status (5)

Country Link
US (1) US11172295B2 (ja)
EP (1) EP3644625A4 (ja)
JP (1) JPWO2018235182A1 (ja)
CN (1) CN110786023B (ja)
WO (1) WO2018235182A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004241820A (ja) * 2003-02-03 2004-08-26 Denon Ltd マルチチャンネル再生装置
JP2005523611A (ja) * 2002-04-17 2005-08-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Gps受信器を有するスピーカ
WO2008126161A1 (ja) 2007-03-06 2008-10-23 Pioneer Corporation マルチチャンネル再生システムのチャンネル割り当て装置及び方法
JP2016502344A (ja) * 2012-11-28 2016-01-21 クゥアルコム・インコーポレイテッドQualcomm Incorporated 協調的サウンドシステムのための画像生成

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003164000A (ja) * 2001-11-28 2003-06-06 Foster Electric Co Ltd スピーカ装置
KR100905966B1 (ko) * 2002-12-31 2009-07-06 엘지전자 주식회사 홈시어터의 오디오 출력 조정 장치 및 그 방법
JP2007214897A (ja) * 2006-02-09 2007-08-23 Kenwood Corp 音響システム
US20120113224A1 (en) * 2010-11-09 2012-05-10 Andy Nguyen Determining Loudspeaker Layout Using Visual Markers
JP2013058967A (ja) * 2011-09-09 2013-03-28 Yamaha Corp 音響信号処理装置
WO2015009748A1 (en) * 2013-07-15 2015-01-22 Dts, Inc. Spatial calibration of surround sound systems including listener position estimation
US9380399B2 (en) * 2013-10-09 2016-06-28 Summit Semiconductor Llc Handheld interface for speaker location
US9432791B2 (en) * 2013-12-11 2016-08-30 Harman International Industries, Inc. Location aware self-configuring loudspeaker
EP3197182B1 (en) * 2014-08-13 2020-09-30 Samsung Electronics Co., Ltd. Method and device for generating and playing back audio signal
WO2016037155A1 (en) * 2014-09-04 2016-03-10 PWV Inc Speaker discovery and assignment
KR101620721B1 (ko) * 2014-10-02 2016-05-12 유한회사 밸류스트릿 복수의 모바일 기기를 이용한 다채널 오디오 할당 및 사용자 제스쳐 인식에 의한 오디오 데이터 컨트롤 방법 및 장치
EP3024253A1 (en) * 2014-11-21 2016-05-25 Harman Becker Automotive Systems GmbH Audio system and method
US20160309277A1 (en) * 2015-04-14 2016-10-20 Qualcomm Technologies International, Ltd. Speaker alignment
US20160309258A1 (en) * 2015-04-15 2016-10-20 Qualcomm Technologies International, Ltd. Speaker location determining system
KR102444075B1 (ko) * 2015-06-09 2022-09-16 삼성전자주식회사 전자 장치, 주변 기기 및 그 제어 방법
CN104967953B (zh) * 2015-06-23 2018-10-09 Tcl集团股份有限公司 一种多声道播放方法和系统
US10003903B2 (en) * 2015-08-21 2018-06-19 Avago Technologies General Ip (Singapore) Pte. Ltd. Methods for determining relative locations of wireless loudspeakers
CN105163241B (zh) * 2015-09-14 2018-04-13 小米科技有限责任公司 音频播放方法及装置、电子设备
US9820048B2 (en) * 2015-12-26 2017-11-14 Intel Corporation Technologies for location-dependent wireless speaker configuration
US9794720B1 (en) * 2016-09-22 2017-10-17 Sonos, Inc. Acoustic position measurement
CN106488363B (zh) * 2016-09-29 2020-09-22 Tcl通力电子(惠州)有限公司 音频输出系统的声道分配方法及装置
US10595122B2 (en) * 2017-06-15 2020-03-17 Htc Corporation Audio processing device, audio processing method, and computer program product

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005523611A (ja) * 2002-04-17 2005-08-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Gps受信器を有するスピーカ
JP2004241820A (ja) * 2003-02-03 2004-08-26 Denon Ltd マルチチャンネル再生装置
WO2008126161A1 (ja) 2007-03-06 2008-10-23 Pioneer Corporation マルチチャンネル再生システムのチャンネル割り当て装置及び方法
JP2016502344A (ja) * 2012-11-28 2016-01-21 クゥアルコム・インコーポレイテッドQualcomm Incorporated 協調的サウンドシステムのための画像生成

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3644625A4

Also Published As

Publication number Publication date
JPWO2018235182A1 (ja) 2020-04-23
CN110786023A (zh) 2020-02-11
US20200128326A1 (en) 2020-04-23
EP3644625A1 (en) 2020-04-29
EP3644625A4 (en) 2021-01-27
CN110786023B (zh) 2021-12-28
US11172295B2 (en) 2021-11-09

Similar Documents

Publication Publication Date Title
EP3352475B1 (en) Computer-readable program, audio controller, and wireless audio system
JP2011004077A (ja) スピーカ位置検出システム及びスピーカ位置検出方法
US20170257703A1 (en) Content Playback Device, Content Playback Method, and Non-Transitory Computer-Readable Storage Medium
US20230292049A1 (en) Method for Reproducing Content
JP2016152557A (ja) 収音システム及び収音設定方法
WO2018235182A1 (ja) 情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法
US20040184617A1 (en) Information apparatus, system for controlling acoustic equipment and method of controlling acoustic equipment
US11163525B2 (en) Audio system construction method, information control device, and audio system
US11050579B2 (en) Distribution destination specifying device and distribution destination specifying method
JP6597248B2 (ja) システムおよび制御方法
US10728665B2 (en) Audio device, audio system, and channel distribution method
WO2016056540A1 (ja) 指示装置、プログラム、指示システム、及び指示方法
KR101399915B1 (ko) 자동 마이크신호 설정수단이 구비된 전관방송시스템
US20110119718A1 (en) Content reproduction apparatus, controller, content reproduction system, communication method, and reproduction apparatus determination method
WO2018173191A1 (ja) 情報処理装置、チャンネル配信システム、チャンネル配信方法、及びチャンネル配信プログラム
US20220303707A1 (en) Terminal and method for outputting multi-channel audio by using plurality of audio devices
KR20170008180A (ko) 모듈형 방송 설비 통합 제어 시스템 및 방법
EP3537728A1 (en) Connection state determination system for speakers, acoustic device, and connection state determination method for speakers
JP2017204756A (ja) 音信号出力装置、プログラム、および音信号処理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17914636

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019524765

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017914636

Country of ref document: EP

Effective date: 20200121