KR20230166372A - A sound system and a method of controlling the sound system for sound optimization - Google Patents

A sound system and a method of controlling the sound system for sound optimization Download PDF

Info

Publication number
KR20230166372A
KR20230166372A KR1020220066273A KR20220066273A KR20230166372A KR 20230166372 A KR20230166372 A KR 20230166372A KR 1020220066273 A KR1020220066273 A KR 1020220066273A KR 20220066273 A KR20220066273 A KR 20220066273A KR 20230166372 A KR20230166372 A KR 20230166372A
Authority
KR
South Korea
Prior art keywords
sound
signal
audio output
output devices
subject
Prior art date
Application number
KR1020220066273A
Other languages
Korean (ko)
Other versions
KR102649882B1 (en
Inventor
고경석
오태경
이현철
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020220066273A priority Critical patent/KR102649882B1/en
Publication of KR20230166372A publication Critical patent/KR20230166372A/en
Application granted granted Critical
Publication of KR102649882B1 publication Critical patent/KR102649882B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/13Application of wave-field synthesis in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

본 발명은 복수의 음향 출력 기기로 이루어지는 사운드 시스템에 대한 것으로, 상기 복수의 음향 출력 기기 중 제1 기기는 레이더 신호를 방사하고, 상기 복수의 음향 출력 기기 중 어느 하나는 상기 복수의 음향 출력 기기에 수신된 레이더 신호에 관련된 데이터들을 수집하며, 상기 어느 하나의 음향 출력 기기는, 상기 제1 기기로부터 직접 또는 피사체에 의해 반사되어 상기 복수의 음향 출력 기기에 수신된 레이더 신호들 및 상기 제1 기기에 다시 수신된 레이더 신호에 근거하여, 상기 복수의 음향 출력 기기 각각에 대한 상기 피사체와의 이격 거리와 방향들을 산출하며, 산출된 이격 거리와 방향들에 근거하여 상기 피사체의 위치를 검출하며, 상기 검출된 피사체의 위치에 근거하여 상기 복수의 음향 출력 기기 각각의 음향 신호 출력을 제어하는 것을 특징으로 한다. The present invention relates to a sound system consisting of a plurality of sound output devices, wherein a first device among the plurality of sound output devices emits a radar signal, and one of the plurality of sound output devices transmits a radar signal to the plurality of sound output devices. Collects data related to received radar signals, and the one audio output device receives radar signals directly from the first device or reflected by a subject to the plurality of audio output devices and to the first device. Based on the re-received radar signal, the separation distance and directions from the subject for each of the plurality of audio output devices are calculated, and the location of the subject is detected based on the calculated separation distance and directions, and the detection The sound signal output of each of the plurality of sound output devices is controlled based on the position of the subject.

Description

사운드 시스템 및 음향 최적화를 위한 그 사운드 시스템의 제어 방법{A SOUND SYSTEM AND A METHOD OF CONTROLLING THE SOUND SYSTEM FOR SOUND OPTIMIZATION}A sound system and a method of controlling the sound system for sound optimization {A SOUND SYSTEM AND A METHOD OF CONTROLLING THE SOUND SYSTEM FOR SOUND OPTIMIZATION}

본 발명은 복수의 음향 출력 기기로 이루어지는 사운드 시스템에 대한 것으로, 음향이 최적화되는 영역(스윗스팟(Sweet Spot))의 형성을 제어하는 사운드 시스템 및 그 사운드 시스템의 제어 방법에 대한 것이다.The present invention relates to a sound system consisting of a plurality of sound output devices, a sound system that controls the formation of an area (sweet spot) where sound is optimized, and a method of controlling the sound system.

하나 또는 서로 인접하게 배치된 두 개의 스피커를 이용하여 음향을 제공하였던 과거와는 달리, 현재에는 통신 기술의 발달로 거리에 제한 없이 복수의 음향 출력 기기를 서로 연결할 수 있게 되면서, 공간 내의 서로 다른 이격된 위치에 배치된 복수의 음향 출력 기기를 통해 입체적인 음향을 제공하는 서라운드 사운드(surround sound) 시스템과 같은 사운드 시스템이 등장하였다. Unlike the past, when sound was provided using one or two speakers placed adjacent to each other, today, with the development of communication technology, it is possible to connect multiple sound output devices to each other without distance restrictions, allowing for different separations within the space. Sound systems such as surround sound systems that provide three-dimensional sound through a plurality of sound output devices arranged in specific positions have emerged.

이러한 사운드 시스템의 경우 통상적으로 메인 음향 출력 기기와, 상기 메인 음향 출력 기기와 연결되는 적어도 하나의 서브 음향 출력 기기로 형성될 수 있으며, 상기 메인 음향 출력 기기와 적어도 하나의 서브 음향 출력 기기가 서로 다른 위치에서 서로 다른 채널의 음향을 출력함으로써 사용자에게 보다 현실감있는 고품질의 사운드를 제공할 수 있다. In the case of such a sound system, it may typically be formed of a main sound output device and at least one sub sound output device connected to the main sound output device, and the main sound output device and at least one sub sound output device are different from each other. By outputting sounds from different channels at different locations, it is possible to provide users with more realistic, high-quality sound.

한편 이처럼 복수의 음향 출력 기기를 이용하여 음향을 출력하는 경우, 상기 복수의 음향 출력 기기에서 출력되는 음향 신호의 지향성이나 음장, 음향의 위상(phase) 등에 의하여 공간 내에서 각 음향 출력 기기에서 출력되는 음향들이 최적의 밸런스로 제공될 수 있는 영역이 형성될 수 있다. 이러한 영역을 스윗 스팟(Sweet Spot)이라고 하며, 통상적으로 스윗 스팟은 각 음향 출력 기기에 의하여 형성되는 사운드 청취 존(zone) 내에서, 각 음향 출력 기기가 지향하는 방향의 교차점, 예를 들어 상기 사운드 청취 존의 중심 부분에 형성될 수 있다. On the other hand, when sound is output using a plurality of sound output devices, the directivity of the sound signal output from the plurality of sound output devices, the sound field, the phase of the sound, etc. are output from each sound output device in the space. An area in which sounds can be provided with optimal balance can be formed. This area is called the sweet spot, and typically the sweet spot is the intersection of the directions each sound output device is oriented within the sound listening zone formed by each sound output device, for example, the sound It can be formed in the central part of the listening zone.

이에 사운드 청취 존 내에서, 스윗 스팟에 사용자가 위치하는지 여부에 따라 사용자에게 제공되는 음향의 품질이 크게 달라질 수 있다. 그러나 통상적으로는 스윗 스팟은 각 음향 출력 기기의 설정 상태에 따라 형성되는 것으로, 사용자가 미리 설정한 상태에 따라 고정된 위치에 형성될 수밖에 없었으며, 이에 사용자는 미리 설정된 바에 의해 형성되는 스윗 스팟 영역으로 이동하여 사운드를 청취하거나, 또는 사용자가 자신이 원하는 위치로 스윗 스팟 영역을 이동시키기 위하여 직접 각 음향 출력 기기의 지향성, 음장 또는 위상을 제어하여야 한다는 문제가 있다. 따라서 사용자의 위치에 따라 자동으로 스윗 스팟을 제공하고자 하는 사회적 니즈(needs)가 발생하게 되었다. Accordingly, within the sound listening zone, the quality of sound provided to the user may vary greatly depending on whether the user is located in the sweet spot. However, normally, the sweet spot is formed according to the setting state of each sound output device, and it had no choice but to be formed at a fixed position according to the state preset by the user, so the user had to use the sweet spot area formed by the preset bar. There is a problem that the user must directly control the directivity, sound field, or phase of each sound output device in order to listen to the sound or move the sweet spot area to the user's desired location. Therefore, a social need arose to automatically provide a sweet spot depending on the user's location.

한편 이러한 사회적 니즈에 의하여, 사용자의 위치에 따라 스윗 스팟의 위치를 변경할 수 있는 기술 등이 개발되었으나, 이러한 기술은 사용자가 착용한 지정된 무선기기를 검출하고 검출된 무선기기에 근거하여 사용자의 위치를 추정하는 것으로, 상기 지정된 무선기기의 위치에 따라 스윗 스팟이 형성되는 것이지 사용자의 위치에 따라 스윗 스팟이 형성되는 것이 아니라는 문제가 있다. 즉, 사용자가 특정 무선기기를 착용하지 않은 경우 사용자의 위치에 따른 스윗 스팟을 형성하기 어렵다는 문제가 있다.Meanwhile, in response to these social needs, technologies that can change the location of the sweet spot according to the user's location have been developed, but these technologies detect the designated wireless device worn by the user and determine the user's location based on the detected wireless device. As an estimate, there is a problem that the sweet spot is formed according to the location of the designated wireless device, but not according to the user's location. In other words, there is a problem that it is difficult to form a sweet spot according to the user's location when the user is not wearing a specific wireless device.

본 발명은 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 하는 것으로, 사용자의 위치를 자동으로 검출하고 검출된 사용자의 위치에 따라 스윗 스팟을 형성할 수 있는 사운드 시스템 및 그 사운드 시스템의 제어 방법을 제공하는 것이다.The present invention aims to solve the above-described problems and other problems, and provides a sound system capable of automatically detecting the user's location and forming a sweet spot according to the detected user's location, and a control method of the sound system. It is provided.

상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 본 발명의 실시 예에 따른 사운드 시스템은, 복수의 음향 출력 기기 중 제1 기기는 레이더 신호를 방사하고, 상기 복수의 음향 출력 기기 중 어느 하나는 상기 복수의 음향 출력 기기에 수신된 레이더 신호에 관련된 데이터들을 수집하며, 상기 어느 하나의 음향 출력 기기는, 상기 제1 기기로부터 직접 또는 피사체에 의해 반사되어 상기 복수의 음향 출력 기기에 수신된 레이더 신호들 및 상기 제1 기기에 다시 수신된 레이더 신호에 근거하여, 상기 복수의 음향 출력 기기 각각에 대한 상기 피사체와의 이격 거리와 방향들을 산출하며, 산출된 이격 거리와 방향들에 근거하여 상기 피사체의 위치를 검출하며, 상기 검출된 피사체의 위치에 근거하여 상기 복수의 음향 출력 기기 각각의 음향 신호 출력을 제어하는 것을 특징으로 한다. In order to achieve the above or other objects, according to one aspect of the present invention, in a sound system according to an embodiment of the present invention, a first device among a plurality of sound output devices emits a radar signal, and one of the plurality of sound output devices emits a radar signal. One collects data related to radar signals received by the plurality of audio output devices, and the one audio output device receives the data directly from the first device or reflected by a subject to the plurality of audio output devices. Based on the received radar signals and the radar signal received again by the first device, the separation distance and directions from the subject for each of the plurality of audio output devices are calculated, and based on the calculated separation distances and directions Detecting the position of the subject and controlling sound signal output of each of the plurality of sound output devices based on the detected position of the subject.

일 실시 예에 있어서, 상기 어느 하나의 음향 출력 기기는, 다른 음향 출력 기기들과의 무선 통신을 통해 상기 다른 음향 출력 기기들 각각의 위치를 검출하고, 검출된 각 음향 출력 기기의 위치들에 근거하여 사운드 청취 존을 형성하며, 상기 피사체는, 상기 형성된 사운드 청취 존 내에 위치하는 것을 특징으로 한다. In one embodiment, the one audio output device detects the location of each of the other audio output devices through wireless communication with other audio output devices, and based on the positions of each detected audio output device, A sound listening zone is formed, and the subject is located within the formed sound listening zone.

일 실시 예에 있어서, 상기 수신된 레이더 신호에 관련된 데이터는,특정 음향 출력 기기에 레이더 신호들이 수신된 시각, 수신된 레이더 신호들의 세기, 레이더 신호들이 수신된 도래각들의 정보를 포함하는 것을 특징으로 한다. In one embodiment, the data related to the received radar signal includes information on the time when the radar signals were received by a specific audio output device, the intensity of the received radar signals, and the angles of arrival at which the radar signals were received. do.

일 실시 예에 있어서, 상기 어느 하나의 음향 출력 기기는, 상기 사운드 청취 존의 형상에 따라 상기 복수의 음향 출력 기기 각각에 기 설정된 제1 도래각 범위를 설정하고, 상기 복수의 음향 출력 기기 각각에 수신된 레이더 신호들 중 상기 제1 도래각 범위 내의 도래각을 가지는 레이더 신호들만을 추출하는 것을 특징으로 한다. In one embodiment, the one sound output device sets a preset first angle of arrival range to each of the plurality of sound output devices according to the shape of the sound listening zone, and sets a first angle of arrival range to each of the plurality of sound output devices. Among the received radar signals, only radar signals having an angle of arrival within the first angle of arrival range are extracted.

일 실시 예에 있어서, 상기 어느 하나의 음향 출력 기기는, 상기 복수의 음향 출력 기기 각각에 수신된 레이더 신호들 중 기 설정된 임계값 이상의 세기를 가지는 레이더 신호들만을 더 추출하고, 상기 레이더 신호들의 세기에 따라, 상기 더 추출된 레이더 신호들 중 상기 제1 기기로부터 직접 수신된 레이더 신호와 상기 피사체에 의해 반사되어 음향 출력 기기에 수신된 레이더 신호를 검출하는 것을 특징으로 한다. In one embodiment, the one audio output device further extracts only radar signals having an intensity greater than a preset threshold among the radar signals received by each of the plurality of audio output devices, and further extracts the intensity of the radar signals. Accordingly, among the further extracted radar signals, a radar signal directly received from the first device and a radar signal reflected by the subject and received by an audio output device are detected.

일 실시 예에 있어서, 상기 어느 하나의 음향 출력 기기는, 상기 레이더 신호의 방사 시각, 상기 레이더 신호가 상기 제1 기기에 수신된 귀환 시각에 근거하여 상기 레이더 신호가 상기 피사체에 도달할 때까지의 시간인 피사체 도달 시간을 산출하고, 상기 복수의 음향 출력 기기 각각에 대하여, 상기 제1 기기로부터 직접 수신된 레이더 신호인 제1 신호의 수신 시각과, 상기 피사체에 의해 반사되어 수신된 레이더 신호인 제2 신호의 수신 시각을 검출 및, 상기 방사 시각에 근거하여 상기 제1 신호의 수신 시간과 상기 제2 신호의 수신 시간을 산출하며, 상기 제1 신호 수신 시간과 상기 제2 신호 수신 시간에 근거하여 상기 레이더 신호가 피사체를 경유함에 따라 더 소요된 시간인 반사파 도달 시간을 산출하고, 상기 피사체 도달 시간과 상기 반사파 도달 시간의 시간차에 대응하는 거리와, 상기 제2 신호가 각 음향 출력 기기에 수신된 도래각(Angle Of Arrival)에 근거하여 상기 피사체의 위치를 검출하는 것을 특징으로 한다. In one embodiment, the one sound output device is configured to provide a time interval until the radar signal reaches the subject based on the radiation time of the radar signal and the return time at which the radar signal is received by the first device. The subject arrival time, which is time, is calculated, and for each of the plurality of audio output devices, the reception time of the first signal, which is a radar signal directly received from the first device, and the first signal, which is the radar signal reflected and received by the subject, are calculated. 2. Detect the reception time of the signal, calculate the reception time of the first signal and the reception time of the second signal based on the emission time, and calculate the reception time of the first signal and the reception time of the second signal based on the first signal reception time and the second signal reception time. The reflected wave arrival time, which is the time taken longer as the radar signal passes through the subject, is calculated, a distance corresponding to the time difference between the subject arrival time and the reflected wave arrival time, and the second signal is received by each audio output device. It is characterized by detecting the position of the subject based on the angle of arrival.

일 실시 예에 있어서, 상기 복수의 음향 출력 기기는, 서로 간에 시간 동기화가 이루어지며, 상기 레이더 신호의 방사 시각에 대한 정보가 공유되는 것을 특징으로 한다. In one embodiment, the plurality of audio output devices are time synchronized with each other, and information about the radiation time of the radar signal is shared.

일 실시 예에 있어서, 상기 어느 하나의 음향 출력 기기는, 상기 검출된 피사체의 위치에 근거하여 상기 복수의 음향 출력 기기 각각에서 출력되는 음향 신호의 볼륨(volume), 음장 및 위상(phase) 중 적어도 하나를 제어하는 것을 특징으로 한다. In one embodiment, the one sound output device may determine at least one of the volume, sound field, and phase of the sound signal output from each of the plurality of sound output devices based on the detected location of the subject. It is characterized by controlling one.

일 실시 예에 있어서, 상기 어느 하나의 음향 출력 기기는, 상기 복수의 음향 출력 기기 각각에, 상기 사운드 청취 존 외부에 대응하는 제2 도래각 범위를 설정하고, 상기 복수의 음향 출력 기기 각각에 수신된 레이더 신호들 중 상기 제2 도래각 범위 내의 도래각을 가지는 레이더 신호들에 근거하여 상기 복수의 음향 출력 기기 각각의 주변에 형성된 벽의 형상을 검출하는 것을 특징으로 한다. In one embodiment, the one sound output device sets a second angle of arrival range corresponding to outside the sound listening zone to each of the plurality of sound output devices, and receives the sound from each of the plurality of sound output devices. The shape of a wall formed around each of the plurality of sound output devices is detected based on radar signals having an angle of arrival within the second angle of arrival range among the radar signals.

일 실시 예에 있어서, 상기 어느 하나의 음향 출력 기기는, 상기 레이더 신호의 방사 시각, 상기 제2 도래각 범위 내의 도래각을 가지는 레이더 신호가 상기 제1 기기에 수신된 귀환 시각에 근거하여 상기 제1 기기 주변의 벽 형상을 검출하고, 상기 복수의 음향 출력 기기 중 상기 제2 도래각 범위 내의 도래각을 가지며 기 설정된 세기 이상의 세기를 가지는 레이더 신호를 수신한 음향 출력 기기를 검출하며, 검출된 음향 출력 기기가 상기 제1 기기로부터 직접 수신된 레이더 신호인 제1 신호의 수신 시각과, 상기 방사 시각에 근거하여 상기 제1 신호의 수신 시간을 산출하고, 상기 제2 도래각 범위 내의 도래각을 가지는 레이더 신호들 중 주변의 벽에 반사되어 수신된 레이더 신호인 제2 신호의 수신 시각과 상기 방사 시각에 근거하여 상기 제2 신호의 수신 시간을 산출하며, 산출된 제1 신호의 수신 시간에 대응하는 거리와, 상기 제2 신호의 수신 시간에 대응하는 거리에 근거하여 타원 그래프를 산출 및 산출된 타원 그래프에 근거하여 상기 검출된 음향 출력 기기와 상기 제1 기기 사이의 벽 형상을 검출하는 것을 특징으로 한다. In one embodiment, the one sound output device is configured to output the first signal based on the radiation time of the radar signal and the return time at which the radar signal having an angle of arrival within the second angle of arrival range is received by the first device. 1 Detecting the shape of a wall around the device, detecting an audio output device among the plurality of audio output devices that has received a radar signal with an angle of arrival within the second angle of arrival range and an intensity greater than a preset intensity, and detecting the detected sound An output device calculates the reception time of the first signal based on the reception time of the first signal, which is a radar signal directly received from the first device, and the radiation time, and has an angle of arrival within the second angle of arrival range. Among the radar signals, the reception time of the second signal, which is a radar signal received by being reflected from a surrounding wall, is calculated based on the reception time and the radiation time, and the reception time of the second signal corresponding to the calculated reception time of the first signal is calculated. Calculating an elliptical graph based on the distance and the distance corresponding to the reception time of the second signal, and detecting the shape of the wall between the detected sound output device and the first device based on the calculated elliptical graph. do.

일 실시 예에 있어서, 상기 복수의 음향 출력 기기는, 적어도 하나의 마스터 기기와 적어도 하나의 슬레이브 기기로 형성되며, 상기 어느 하나의 음향 출력 기기는, 상기 마스터 기기임을 특징으로 한다. In one embodiment, the plurality of audio output devices are formed of at least one master device and at least one slave device, and one of the audio output devices is the master device.

일 실시 예에 있어서, 상기 마스터 기기는, 상기 기 설정된 시간이 경과되면, 상기 제1 기기를 다른 음향 출력 기기로 변경하고, 상기 피사체의 위치를 다시 검출하는 것을 특징으로 한다. In one embodiment, when the preset time elapses, the master device changes the first device to another audio output device and detects the location of the subject again.

일 실시 예에 있어서, 상기 마스터 기기는, 슬레이브 기기들과의 무선 통신을 통해 마스터 기기의 위치를 기준으로 각 슬레이브 기기의 위치를 검출하고, 검출된 마스터 기기와 슬레이브 기기들의 위치들에 근거하여 사운드 청취 존을 형성하며, 상기 기 설정된 시간 간격은, 상기 사운드 청취 존의 크기 및 형상에 근거하여 서로 달라지는 것을 특징으로 한다. In one embodiment, the master device detects the location of each slave device based on the location of the master device through wireless communication with the slave devices, and generates sound based on the detected positions of the master device and slave devices. A listening zone is formed, and the preset time interval is characterized in that it varies based on the size and shape of the sound listening zone.

일 실시 예에 있어서, 상기 마스터 기기는, 상기 사운드 청취 존의 활성화 여부에 따라 상기 사운드 청취 존 주변의 다른 기기의 구동을 제한하며, 상기 사운드 청취 존의 활성화는, 상기 사운드 청취 존 내의 피사체 검출 여부에 따라 결정되는 것을 특징으로 한다. In one embodiment, the master device limits the operation of other devices around the sound listening zone depending on whether the sound listening zone is activated, and activation of the sound listening zone determines whether a subject in the sound listening zone is detected. It is characterized by being determined according to .

일 실시 예에 있어서, 상기 다른 기기는, 로봇 청소기이며, 상기 마스터 기기는, 상기 사운드 청취 존의 크기 및 형상에 대한 정보를 상기 로봇 청소기에 전송하여, 상기 사운드 청취 존에 상기 로봇 청소기가 진입하는 것을 제한하는 것을 특징으로 한다. In one embodiment, the other device is a robot cleaner, and the master device transmits information about the size and shape of the sound listening zone to the robot cleaner, so that the robot cleaner enters the sound listening zone. It is characterized by limiting.

상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 본 발명의 실시 예에 따른 사운드 시스템의 제어 방법은, 상기 복수의 음향 출력 기기가 서로 간에 무선 통신을 수행하여, 서로의 위치를 검출 및 검출된 위치들에 근거하여 사운드 청취 존을 형성하는 제1 단계와, 상기 복수의 음향 출력 기기 중 기 설정된 순서에 따른 제1 기기가 레이더 신호를 방사하는 제2 단계와, 상기 복수의 음향 출력 기기 중 어느 하나의 음향 출력 기기가, 상기 제1 기기에서 레이더 신호가 방사된 방사 시각, 상기 레이더 신호가 상기 제1 기기에 수신된 귀환 시각에 근거하여 상기 레이더 신호가 사운드 청취 존 내에 위치한 피사체에 도달할 때까지의 시간인 피사체 도달 시간을 산출하는 제3 단계와, 상기 어느 하나의 음향 출력 기기가, 상기 복수의 음향 출력 기기 중 적어도 하나에 대하여, 상기 제1 기기로부터 직접 수신된 레이더 신호인 제1 신호의 수신 시각과, 상기 피사체에 의해 반사되어 수신된 레이더 신호인 제2 신호의 수신 시각을 검출하는 제4 단계와, 상기 어느 하나의 음향 출력 기기가, 상기 복수의 음향 출력 기기 중 적어도 하나에 대하여, 상기 검출된 제1 신호의 수신 시각과 상기 제2 신호의 수신 시각에 근거하여, 상기 레이더 신호가 상기 피사체를 경유함에 따라 더 소요된 시간인 반사파 도달 시간을 산출하는 제5 단계와, 상기 어느 하나의 음향 출력 기기가, 상기 복수의 음향 출력 기기 중 적어도 하나에 대하여, 상기 피사체 도달 시간과 상기 반사파 도달 시간의 시간차에 대응하는 거리와 상기 제2 신호가 수신된 방향에 근거하여 상기 피사체의 위치를 검출하는 제6 단계 및, 상기 어느 하나의 음향 출력 기기가, 상기 검출된 피사체의 위치에 따라 상기 복수의 음향 출력 기기 각각에서 출력되는 음향 신호의 볼륨, 음장 및 위상(phase) 중 적어도 하나를 제어하는 제7 단계를 포함하는 것을 특징으로 한다. According to one aspect of the present invention in order to achieve the above or other objects, a method of controlling a sound system according to an embodiment of the present invention includes the plurality of sound output devices performing wireless communication with each other to detect each other's positions. and a first step of forming a sound listening zone based on the detected positions, a second step of the first device among the plurality of sound output devices emitting radar signals according to a preset order, and the plurality of sound output devices. One of the devices is configured to transmit the radar signal to a subject located within a sound listening zone based on the radiation time at which the radar signal is emitted from the first device and the return time at which the radar signal is received by the first device. A third step of calculating the subject arrival time, which is the time until the object arrives, and wherein the one audio output device is a radar signal directly received from the first device with respect to at least one of the plurality of audio output devices. A fourth step of detecting the reception time of the first signal and the reception time of the second signal, which is a radar signal reflected and received by the subject, and wherein any one of the audio output devices is at least one of the plurality of audio output devices. For one, a fifth step of calculating the reflected wave arrival time, which is the time it takes longer for the radar signal to pass through the subject, based on the reception time of the detected first signal and the reception time of the second signal; , the one audio output device, with respect to at least one of the plurality of audio output devices, based on the distance corresponding to the time difference between the arrival time of the subject and the arrival time of the reflected wave and the direction in which the second signal was received. A sixth step of detecting the position of the subject, and wherein the one audio output device determines among the volume, sound field, and phase of the audio signal output from each of the plurality of audio output devices according to the detected position of the subject. It is characterized by comprising a seventh step of controlling at least one.

일 실시 예에 있어서, 상기 제4 단계는, 상기 어느 하나의 음향 출력 기기가, 상기 복수의 음향 출력 기기 중 적어도 하나에 대하여, 상기 사운드 청취 존의 형상에 따라 상기 복수의 음향 출력 기기 각각에 기 설정된 제1 도래각 범위를 설정하는 제4-1 단계와, 상기 어느 하나의 음향 출력 기기가, 상기 복수의 음향 출력 기기 중 적어도 하나에 수신된 레이더 신호들 중 상기 제1 도래각 범위 내의 도래각을 가지는 레이더 신호들만을 추출하는 제4-2 단계와, 상기 어느 하나의 음향 출력 기기가, 상기 복수의 음향 출력 기기 중 적어도 하나에 수신된 레이더 신호들 중 기 설정된 임계값 이상의 세기를 가지는 레이더 신호들만을 더 추출하는 제4-3 단계 및, 상기 어느 하나의 음향 출력 기기가, 상기 복수의 음향 출력 기기 중 적어도 하나에 수신된 레이더 신호들 중, 상기 레이더 신호들의 세기에 근거하여 상기 제1 신호 및 제2 신호를 검출하는 제4-4 단계를 더 포함하는 것을 특징으로 한다. In one embodiment, in the fourth step, the one sound output device is installed on each of the plurality of sound output devices according to the shape of the sound listening zone with respect to at least one of the plurality of sound output devices. Step 4-1 of setting a set first angle of arrival range, wherein the one audio output device selects an angle of arrival within the first angle of arrival range among radar signals received by at least one of the plurality of audio output devices. A 4-2 step of extracting only radar signals having a radar signal having an intensity greater than a preset threshold among the radar signals received by at least one of the plurality of audio output devices. A 4-3 step of further extracting only the first signal, and wherein the one audio output device selects the first signal based on the strength of the radar signals among the radar signals received by at least one of the plurality of audio output devices. and a 4-4 step of detecting the second signal.

일 실시 예에 있어서, 상기 어느 하나의 음향 출력 기기가, 기 설정된 시간이 경과되면 상기 기 설정된 순서에 따라 상기 제1 기기를 다른 음향 출력 기기로 변경하는 제8 단계 및, 상기 어느 하나의 음향 출력 기기가, 상기 제2 단계 내지 상기 제7 단계를 다시 수행하여, 상기 변경된 제1 기기에서 방사된 레이더 신호에 따른 피사체의 위치를 다시 검출하고, 검출된 피사체 위치에 따라 상기 복수의 음향 출력 기기 각각에서 출력되는 음향 신호를 제어하는 제9 단계를 더 포함하며, 상기 기 설정된 시간은, 상기 사운드 청취 존의 크기 및 형상 중 적어도 하나에 따라 달라지는 것을 특징으로 한다. In one embodiment, an eighth step in which the one sound output device changes the first device to another sound output device according to the preset order when a preset time has elapsed, and the one sound output device The device performs the second to seventh steps again to re-detect the position of the subject according to the radar signal emitted from the changed first device, and each of the plurality of sound output devices according to the detected position of the subject. It further includes a ninth step of controlling the sound signal output from, wherein the preset time varies depending on at least one of the size and shape of the sound listening zone.

일 실시 예에 있어서, 상기 제6 단계는, 상기 어느 하나의 음향 출력 기기가, 상기 복수의 음향 출력 기기 각각에, 상기 사운드 청취 존 외부에 대응하는 제2 도래각 범위를 설정하는 제6-1 단계 및, 상기 어느 하나의 음향 출력 기기가, 상기 복수의 음향 출력 기기 각각에 수신된 레이더 신호들 중 상기 제2 도래각 범위 내의 도래각을 가지는 레이더 신호들에 근거하여, 상기 복수의 음향 출력 기기 각각의 주변에 형성된 벽의 형상을 검출하는 제6-2 단계를 더 포함하는 것을 특징으로 한다. In one embodiment, the sixth step is step 6-1, wherein the one sound output device sets a second angle of arrival range corresponding to outside the sound listening zone for each of the plurality of sound output devices. A step, wherein the one sound output device, based on radar signals having an angle of arrival within the second angle of arrival range among the radar signals received by each of the plurality of sound output devices, the plurality of sound output devices. It is characterized in that it further includes a 6-2 step of detecting the shape of the wall formed around each.

일 실시 예에 있어서, 상기 제6-2 단계는, 상기 어느 하나의 음향 출력 기기가, 상기 레이더 신호의 방사 시각, 상기 제2 도래각 범위 내의 도래각을 가지는 레이더 신호가 상기 제1 기기에 수신된 귀환 시각에 근거하여 상기 제1 기기 주변의 벽 형상을 검출하는 a 단계와, 상기 어느 하나의 음향 출력 기기가, 상기 복수의 음향 출력 기기 중 상기 제2 도래각 범위 내의 도래각을 가지며 기 설정된 세기 이상의 세기를 가지는 레이더 신호를 수신한 음향 출력 기기를 검출하는 b 단계와, 상기 어느 하나의 음향 출력 기기가, 상기 검출된 음향 출력 기기가 상기 제1 기기로부터 직접 수신된 레이더 신호인 제1 신호의 수신 시각과, 상기 방사 시각에 근거하여 상기 제1 신호의 수신 시간을 산출하는 c 단계와, 상기 어느 하나의 음향 출력 기기가, 상기 제2 도래각 범위 내의 도래각을 가지는 레이더 신호들 중 주변의 벽에 반사되어 수신된 레이더 신호인 제3 신호의 수신 시각과 상기 방사 시각에 근거하여 상기 제3 신호의 수신 시간을 산출하는 d 단계와, 상기 어느 하나의 음향 출력 기기가, 산출된 제1 신호의 수신 시간에 대응하는 거리와, 상기 제3 신호의 수신 시간에 대응하는 거리에 근거하여 타원 그래프를 산출하는 e 단계 및, 상기 어느 하나의 음향 출력 기기가, 상기 타원 그래프에 근거하여 상기 검출된 음향 출력 기기와 상기 제1 기기 사이의 벽 형상을 검출하는 f 단계를 더 포함하는 것을 특징으로 한다.In one embodiment, in step 6-2, the one audio output device receives a radar signal having a radiation time of the radar signal and an angle of arrival within the second angle of arrival range to the first device. a step of detecting the shape of a wall around the first device based on the returned time, and wherein one of the audio output devices has an angle of arrival within the second angle of arrival range among the plurality of audio output devices and is preset. Step b of detecting an audio output device that has received a radar signal with an intensity greater than or equal to the intensity, and wherein the one audio output device detects a first signal, wherein the detected audio output device is a radar signal received directly from the first device. A step c of calculating the reception time of the first signal based on the reception time and the emission time, and the one audio output device detects peripheral radar signals having an angle of arrival within the second angle of arrival range. A step d of calculating the reception time of the third signal based on the reception time of the third signal, which is a radar signal received after being reflected from the wall, and the radiation time, and the one of the audio output devices, the calculated first Step e of calculating an elliptical graph based on the distance corresponding to the reception time of the signal and the distance corresponding to the reception time of the third signal, and the one of the audio output devices detecting the detection based on the elliptical graph It is characterized in that it further comprises a step f of detecting the shape of the wall between the sound output device and the first device.

본 발명에 따른 사운드 시스템 및 그 사운드 시스템의 제어 방법에 대해 설명하면 다음과 같다.The sound system and the control method of the sound system according to the present invention will be described as follows.

본 발명의 실시 예들 중 적어도 하나에 의하면, 본 발명은 사용자가 특정 무선기기를 소지하지 않은 경우에도, 사용자의 위치를 자동으로 추적하고 추적된 사용자의 위치에 따라 스윗 스팟의 위치 및 형상을 다르게 형성할 수 있다는 효과가 있다. According to at least one of the embodiments of the present invention, the present invention automatically tracks the user's location even when the user does not possess a specific wireless device and forms the location and shape of the sweet spot differently depending on the tracked user's location. The effect is that you can do it.

또한 본 발명의 실시 예들 중 적어도 하나에 의하면, 본 발명은 각각의 음향 출력 기기 주변의 벽 형상 및, 인접한 음향 출력 기기 사이의 벽 형상을 검출하고 검출된 벽 형상을 고려하여 사용자의 위치에 따른 스윗 스팟을 형성할 수 있다는 효과가 있다.In addition, according to at least one of the embodiments of the present invention, the present invention detects the shape of the wall around each sound output device and the shape of the wall between adjacent sound output devices, and takes the detected wall shape into consideration to provide sweetness according to the user's location. It has the effect of forming a spot.

도 1은 본 발명의 실시 예에 따른 음향 출력 시스템에서 다른 음향 출력 기기들을 제어 및 관리하는 마스터 기기의 구성을 도시한 블록도이다.
도 2는 본 발명의 실시 예에 따른 음향 출력 시스템에서 마스터 기기에 연결되는 음향 출력 기기(슬레이브 기기)의 구성을 도시한 블록도이다.
도 3은 본 발명의 실시 예에 따른 음향 출력 시스템에서 사용자의 위치를 추적하고 추적된 사용자의 위치에 따른 스윗 스팟을 형성하는 동작 과정을 도시한 흐름도이다.
도 4는 본 발명의 실시 예에 따른 음향 출력 시스템에서, 마스터 기기와 슬레이브 기기들로 형성되는 사운드 청취 존의 예를 도시한 예시도이다.
도 5는, 상기 도 3의 동작 과정 중, 음향 출력 기기에 수신된 기준 기기의 레이더 신호에 근거하여 피사체와 음향 출력 기기 사이의 거리를 산출하는 동작 과정을 도시한 흐름도이다.
도 6은, 상기 도 5의 동작 과정에 따라 제1 신호와 제2 신호, 기준 신호 송출 시각과 기준 신호 재귀 시각에 따라 음향 출력 기기와 피사체 사이의 거리를 산출하는 예를 도시한 예시도이다.
도 7은, 상기 도 3의 동작 과정에서, 음향 출력 기기가 수신한 기준 기기의 레이더 신호들 중 유효 신호들을 필터링하는 예를 도시한 예시도이다.
도 8a 및 도 8b는 본 발명의 실시 예에 따른 사운드 시스템에서, 피사체의 이동에 따라 스윗 스팟의 크기 및 위치가 변경되는 예를 도시한 예시도이다.
도 9는 본 발명의 실시 예에 따른 사운드 시스템에서, 음향 출력 기기에서 송출되는 레이더 신호에 의해 주변 벽의 형상이 검출되는 예를 도시한 예시도이다.
도 10은 본 발명의 실시 예에 따른 사운드 시스템에서, 음향 출력 기기에서 송출되는 레이더 신호에 의해 주변 벽의 형상이 검출되는 동작 과정을 도시한 흐름도이다.
도 11은, 도 10의 동작 과정 중, 인접한 다른 음향 출력 기기가 레이더 신호를 수신한 시간에 따라 기준 기기와 상기 다른 음향 출력 기기 사이에 형성되는 타원 그래프의 예를 도시한 예시도이다.
도 12a 및 도 12b는 본 발명의 실시 예에 따른 사운드 시스템에서, 마스터 기기의 위치를 기준으로 슬레이브 기기들에 채널들이 각각 설정되는과정 및 예를 도시한 흐름도 및 예시도이다.
도 13은 본 발명의 실시 예에 따른 사운드 시스템에서, 사운드 청취존에 근거하여 주변의 다른 기기의 동작이 제어되는 예를 도시한 예시도이다.
Figure 1 is a block diagram showing the configuration of a master device that controls and manages other audio output devices in an audio output system according to an embodiment of the present invention.
Figure 2 is a block diagram showing the configuration of an audio output device (slave device) connected to a master device in an audio output system according to an embodiment of the present invention.
Figure 3 is a flowchart showing an operation process of tracking a user's location and forming a sweet spot according to the tracked user's location in an audio output system according to an embodiment of the present invention.
Figure 4 is an exemplary diagram illustrating an example of a sound listening zone formed by a master device and a slave device in an audio output system according to an embodiment of the present invention.
FIG. 5 is a flowchart showing the operation process of calculating the distance between the subject and the sound output device based on the radar signal of the reference device received by the sound output device during the operation process of FIG. 3.
FIG. 6 is an exemplary diagram illustrating an example of calculating the distance between an audio output device and a subject according to the first signal, the second signal, the reference signal transmission time, and the reference signal return time according to the operation process of FIG. 5.
FIG. 7 is an exemplary diagram illustrating an example of filtering effective signals among radar signals of a reference device received by an audio output device in the operation process of FIG. 3.
FIGS. 8A and 8B are diagrams illustrating an example in which the size and position of a sweet spot change according to the movement of a subject in a sound system according to an embodiment of the present invention.
Figure 9 is an example diagram illustrating an example in which the shape of a surrounding wall is detected by a radar signal transmitted from a sound output device in a sound system according to an embodiment of the present invention.
Figure 10 is a flowchart showing an operation process in which the shape of a surrounding wall is detected by a radar signal transmitted from a sound output device in a sound system according to an embodiment of the present invention.
FIG. 11 is an exemplary diagram showing an example of an elliptical graph formed between a reference device and another adjacent audio output device according to the time when the other adjacent audio output device receives a radar signal during the operation process of FIG. 10.
FIGS. 12A and 12B are flowcharts and examples showing a process and example of setting channels in slave devices based on the location of the master device in a sound system according to an embodiment of the present invention.
Figure 13 is an example diagram illustrating an example in which the operation of other nearby devices is controlled based on the sound listening zone in a sound system according to an embodiment of the present invention.

본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다It should be noted that the technical terms used in this specification are only used to describe specific embodiments and are not intended to limit the present invention. Additionally, as used herein, singular expressions include plural expressions, unless the context clearly dictates otherwise. The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves.

본 명세서에서, "구성된다." 또는 "포함한다." 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.As used herein, “consists of.” or “including.” Terms such as these should not be construed as necessarily including all of the various components or steps described in the specification, and some of the components or steps may not be included, or additional components or steps may be included. It should be interpreted to include more.

또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. Additionally, when describing the technology disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the technology disclosed in this specification, the detailed description will be omitted.

또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 또한 이하에서 설명되는 각각의 실시 예들 뿐만 아니라, 실시 예들의 조합은 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물 내지 대체물로서, 본 발명의 사상 및 기술 범위에 해당될 수 있음은 물론이다.In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes. In addition, each embodiment described below, as well as a combination of embodiments, are changes, equivalents, or substitutes included in the spirit and technical scope of the present invention, and of course, may fall within the spirit and technical scope of the present invention. .

도 1은 본 발명의 실시 예에 따른 음향 출력 시스템에서 다른 음향 출력 기기들을 제어 및 관리하는 마스터 기기의 구성을 도시한 블록도이다. 이 경우 상기 본 발명의 실시 예에 따른 음향 출력 시스템은 복수의 음향 출력 기기들을 포함할 수 있으며, 상기 마스터 기기는 상기 복수의 음향 출력 기기 중 어느 하나일 수 있다. Figure 1 is a block diagram showing the configuration of a master device that controls and manages other audio output devices in an audio output system according to an embodiment of the present invention. In this case, the sound output system according to the embodiment of the present invention may include a plurality of sound output devices, and the master device may be any one of the plurality of sound output devices.

도 1을 참조하여 살펴보면, 상기 마스터 기기(100)는, 무선 통신부(110)와 위치 산출부(120), 음향 출력부(130)와 사용자 입력부(140), 메모리(150), 마스터 제어부(160)를 포함하여 구성될 수 있다. 도 1에서 도시된 구성요소들은 음향 출력 기기를 구현하는 데 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 마스터 기기(100)는 위에서 열거된 구성요소들 보다 많거나 또는 적은 구성요소들을 가질 수 있다. Referring to FIG. 1, the master device 100 includes a wireless communication unit 110, a location calculation unit 120, an audio output unit 130, a user input unit 140, a memory 150, and a master control unit 160. ) may be configured to include. The components shown in FIG. 1 are not essential for implementing an audio output device, so the master device 100 described herein may have more or fewer components than those listed above.

보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는 마스터 기기(100)와 다른 음향 출력 기기들 또는 주변 기기들 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 이를 위해 상기 무선 통신부(110)는 근거리 통신을 위한 근거리 통신부(111)를 구비할 수 있으며, 상기 근거리 통신부(111)는 다양한 근거리 통신 기술 중 적어도 하나를 이용하여 마스터 기기와 주변의 다른 기기들 사이의 무선 통신을 지원할 수 있다. More specifically, among the components, the wireless communication unit 110 may include one or more modules that enable wireless communication between the master device 100 and other audio output devices or peripheral devices. To this end, the wireless communication unit 110 may be provided with a short-range communication unit 111 for short-distance communication, and the short-range communication unit 111 uses at least one of various short-range communication technologies between the master device and other nearby devices. can support wireless communication.

일 예로 상기 근거리 통신부(111)는 블루투스나 적외선 통신, UWB(Ultra Wideband) 기술을 이용한 통신이 가능한 통신부일 수 있다. 또한 상기 근거리 통신부(111)는 상기 적어도 하나의 근거리 통신 기술을 이용하여 IOT(Internet Of Thing) 통신이 가능하도록 형성될 수 있다. As an example, the short-range communication unit 111 may be a communication unit capable of communication using Bluetooth, infrared communication, or UWB (Ultra Wideband) technology. Additionally, the short-range communication unit 111 may be configured to enable IOT (Internet of Thing) communication using the at least one short-range communication technology.

그리고 무선 통신부(110)는 피사체의 탐지를 위한 기 설정된 전파(이하 레이더 신호)를 방사 및, 피사체에 의해 반사된 레이더 신호를 수신하도록 형성되는 레이더(radar)부(112)를 포함할 수 있다. 이 경우 상기 레이더부는 기 설정된 파장(예 : 10 ~ 100cm의 파장)을 가지는 극초단파를 레이더 신호로 방사 및 수신하도록 형성될 수 있다. Additionally, the wireless communication unit 110 may include a radar unit 112 that radiates a preset radio wave (hereinafter referred to as a radar signal) for detecting a subject and receives a radar signal reflected by the subject. In this case, the radar unit may be configured to emit and receive microwaves having a preset wavelength (e.g., a wavelength of 10 to 100 cm) as a radar signal.

한편 무선 통신부(110)는 상기 근거리 통신부(111)의 근거리 통신을 위한 무선 신호 및 상기 레이더 신호를 송출하고 수신하기 위한 안테나부(113)를 구비할 수 있다. 이 경우 상기 안테나부(113)는 복수의 안테나를 구비할 수 있으며, 상기 복수의 안테나는 상기 근거리 통신용 무선 신호 뿐만 아니라 상기 레이더 신호를 모두 송수신할 수 있도록 형성될 수 있다. Meanwhile, the wireless communication unit 110 may be provided with an antenna unit 113 for transmitting and receiving radio signals for short-range communication and the radar signal of the short-range communication unit 111. In this case, the antenna unit 113 may be provided with a plurality of antennas, and the plurality of antennas may be configured to transmit and receive both the radar signal as well as the wireless signal for short-distance communication.

여기서 상기 안테나부(113)의 안테나들은, 각 안테나에 신호가 수신되는 각도, 즉 도래각(Angle Of Arrival, AOA)이 서로 달라지도록 각 안테나가 서로 간에 일정 간격을 두고 배치될 수 있다. 이 경우 각 안테나에서 신호가 수신되는 각도, 즉 도래각의 차이가 발생할 수 있으며, 이러한 도래각의 차이는 신호 발신원이 위치한 방향 검출을 위해 이용될 수 있다.Here, the antennas of the antenna unit 113 may be arranged at a certain distance from each other so that the angle at which signals are received by each antenna, that is, the angle of arrival (AOA), is different. In this case, there may be a difference in the angle at which the signal is received from each antenna, that is, the angle of arrival, and this difference in angle of arrival can be used to detect the direction in which the signal source is located.

한편 위치 산출부(120)는 상기 무선 통신부(110)에서 수신된 신호들에 근거하여 상기 마스터 기기(100)와 각 음향 출력 기기 사이의 거리들 및 각 음향 출력 기기가 배치된 방향들을 산출할 수 있다. Meanwhile, the location calculation unit 120 can calculate the distances between the master device 100 and each audio output device and the directions in which each audio output device is located based on the signals received from the wireless communication unit 110. there is.

일 예로 위치 산출부(120)는, 제1 음향 출력 기기에서 송출된 무선 신호를 송출한 시각 및, 상기 송출된 무선 신호를 제2 음향 출력 기기가 수신한 시각을 검출하여, 상기 무선 신호가 상기 제2 음향 출력 기기에 전달되기까지 소요된 시간을 검출할 수 있다. 그리고 검출된 시간에 근거하여 제1 음향 출력 기기와 제2 음향 출력 기기 사이의 거리를 검출하고, 상기 제2 음향 출력 기기의 복수의 안테나 각각에 수신된 신호 도래각(AOA)들에 근거하여 상기 제2 음향 출력 기기를 기준으로 상기 제1 음향 출력 기기가 배치된 방향을 산출할 수 있다. As an example, the location calculation unit 120 detects the time at which the wireless signal transmitted from the first audio output device is transmitted and the time at which the second audio output device receives the transmitted wireless signal, so that the wireless signal is The time taken to be transmitted to the second audio output device can be detected. And detect the distance between the first audio output device and the second audio output device based on the detected time, and based on the signal angles of arrival (AOA) received at each of the plurality of antennas of the second audio output device. The direction in which the first audio output device is placed can be calculated based on the second audio output device.

이 경우 상기 제1 음향 출력 기기는, 마스터 기기(100) 주변에 배치된 슬레이브 기기 일 수 있다. 그리고 상기 제2 음향 출력 기기는 마스터 기기(100)일 수 있다. 즉, 마스터 기기(100)는, 각 슬레이브 기기와의 일대일 신호 교환을 통해, 마스터 기기(100)를 기준으로 복수의 슬레이브 기기 각각이 배치된 방향 및 거리를 산출할 수 있으며, 산출된 거리 및 방향에 근거하여 각 슬레이브 기기들의 위치를 결정할 수 있다. 그리고 결정된 슬레이브 기기들의 위치는 마스터 제어부(160)가 사운드 청취 존(zone)을 형성하는데 이용될 수 있다.In this case, the first audio output device may be a slave device placed around the master device 100. And the second audio output device may be the master device 100. That is, the master device 100 can calculate the direction and distance in which each of the plurality of slave devices is placed based on the master device 100 through one-to-one signal exchange with each slave device, and the calculated distance and direction Based on this, the location of each slave device can be determined. And the determined locations of the slave devices can be used by the master control unit 160 to form a sound listening zone.

한편 상기 위치 산출부(160)는 마스터 기기(100) 또는 어느 하나의 슬레이브 기기에서 방사되는 레이더 신호에 근거하여 상기 사운드 청취 존 내에 위치하는 사용자, 즉 피사체의 위치를 검출하기 위한 구성을 더 포함할 수 있다. 이하 사운드 청취 존 내에 위치하는 사용자를 "피사체"라고 하기로 한다. Meanwhile, the location calculation unit 160 may further include a configuration for detecting the location of a user, that is, a subject, located within the sound listening zone based on a radar signal emitted from the master device 100 or any one slave device. You can. Hereinafter, the user located within the sound listening zone will be referred to as the “subject.”

예를 들어 마스터 기기(100)가 레이더 신호를 방사하는 경우, 마스터 기기(100)에서 방사된 레이더 신호는 피사체에 반사되어 마스터 기기(100)에 다시 수신되거나 또는 적어도 하나의 다른 음향 출력 기기에 수신될 수 있다. 이 경우 상기 레이더 신호는 피사체 뿐만 아니라 적어도 하나의 다른 음향 출력 기기에 반사될 수 있는데, 이 경우 상기 반사된 레이더 신호는 이동한 거리, 즉 피반사체의 위치에 따라 그 크기가 달라질 수 있다. For example, when the master device 100 emits a radar signal, the radar signal emitted from the master device 100 is reflected by the subject and received back to the master device 100 or received by at least one other audio output device. It can be. In this case, the radar signal may be reflected not only from the subject but also from at least one other audio output device. In this case, the size of the reflected radar signal may vary depending on the distance traveled, that is, the location of the reflected object.

예를 들어 상기 피사체가 사운드 청취 존 내에 있는 경우라면, 다른 음향 출력 기기보다 피사체가 상기 마스터 기기(100)에 근접한 위치에 있을 수 있다. 따라서 피사체에 의해 반사된 레이더 신호가, 다른 음향 출력 기기에서 반사된 신호보다 그 세기가 클 수 있다. 또한 상기 피사체에 의해 반사된 레이더 신호의 경우 상기 사운드 청취존의 내부로부터 수신될 수 있다. 즉, 반사되어 수신되는 레이더 신호의 크기 및 레이더 신호가, 기 설정된 각도 내에서 수신될 수 있다. 따라서 레이더 신호가 수신된 각도, 즉 도래각(AOA)에 근거하여 피사체에서 반사된 레이더 신호인지, 또는 다른 음향 출력 기기에서 반사된 레이더 신호인지의 판별이 가능할 수 있다. For example, if the subject is within a sound listening zone, the subject may be closer to the master device 100 than other sound output devices. Therefore, the intensity of the radar signal reflected by the subject may be greater than that of the signal reflected from other audio output devices. Additionally, the radar signal reflected by the subject may be received from the inside of the sound listening zone. That is, the size of the reflected and received radar signal and the radar signal can be received within a preset angle. Therefore, it may be possible to determine whether the radar signal is a radar signal reflected from a subject or a radar signal reflected from another sound output device based on the angle at which the radar signal is received, that is, the angle of arrival (AOA).

따라서 위치 산출부(120)는 각 음향 출력 기기에 수신된 레이더 신호들 중, 도래각에 근거하여 유효한 레이더 신호들만을 검출할 수 있다. 또한 상기 수신되는 레이더 신호들 중, 신호의 세기에 근거하여 유효한 레이더 신호들만을 검출할 수 있다. 이러한 유효 신호 검출을 위해 위치 산출부(120)는 수신된 반사 신호들을 기 설정된 임계값에 따라 크기를 기준으로 필터링하거나 또는 기 설정된 도래각 범위(AOA 레인징(ranging))에 근거하여 필터링하기 위한 신호 검출부(122)를 포함할 수 있다.Therefore, the position calculation unit 120 can detect only valid radar signals based on the angle of arrival among the radar signals received by each audio output device. Additionally, among the received radar signals, only valid radar signals can be detected based on signal strength. To detect such effective signals, the position calculation unit 120 filters the received reflected signals based on size according to a preset threshold or filters based on a preset angle of arrival range (AOA ranging). It may include a signal detection unit 122.

여기서 상기 기 설정된 임계값 및 상기 기 설정된 도래각 범위는, 상기 사운드 청취존의 크기나 주변의 각 음향 출력 기기 등의 위치, 또는 인접한 벽의 위치 등에 따라 달라질 수 있다. 예를 들어 상기 기 설정된 도래각 범위는 인접한 다른 음향 출력 기기들이 배치된 방향에 따라 결정될 수 있다. Here, the preset threshold value and the preset angle of arrival range may vary depending on the size of the sound listening zone, the location of each nearby sound output device, or the location of an adjacent wall, etc. For example, the preset angle of arrival range may be determined according to the direction in which other adjacent audio output devices are arranged.

일 예로, 사운드 청취 존의 중심을 지향하는 제1 음향 출력 기기를 기준으로, 제2 음향 출력 기기가 상기 제1 음향 출력 기기의 좌측 45도(135도) 방향에 위치하고, 제3 음향 출력 기기가 상기 제1 음향 출력 기기의 우측 45도(45도) 방향에 위치하는 경우, 상기 제1 음향 출력 기기를 기준으로 상기 제2 음향 출력 기기가 배치된 방향과 제3 음향 출력 기기가 배치된 방향은 90도의 사이각을 형성할 수 있다. 이 경우 상기 마스터 기기(100)는 상기 제1 음향 출력 기기에, 상기 사이각에 대응하는 최대 45도에서 135도까지의 도래각 범위를 설정할 수 있다. 즉, 인접한 음향 출력 기기들이 배치된 방향들에 따라 상기 도래각 범위가 결정될 수 있다. For example, with respect to the first sound output device oriented at the center of the sound listening zone, the second sound output device is located 45 degrees (135 degrees) to the left of the first sound output device, and the third sound output device is When located 45 degrees to the right of the first audio output device, the direction in which the second audio output device is located and the direction in which the third audio output device is located relative to the first audio output device are An included angle of 90 degrees can be formed. In this case, the master device 100 may set an angle of arrival range from a maximum of 45 degrees to 135 degrees corresponding to the included angle to the first audio output device. That is, the angle of arrival range can be determined depending on the directions in which adjacent audio output devices are arranged.

따라서 사운드 청취 존의 크기나 형상이 다른 경우, 인접한 음향 출력 기기들이 배치된 방향들이 서로 달라질 수 있다. 그러므로 상기 사운드 청취 존의 크기나 형상에 따라 각 음향 출력 기기에 설정되는 도래각 범위가 서로 달라질 수 있다. Therefore, when the size or shape of the sound listening zone is different, the directions in which adjacent sound output devices are arranged may be different. Therefore, the angle of arrival range set for each sound output device may vary depending on the size or shape of the sound listening zone.

한편 본 발명의 실시 예에 따른 사운드 시스템의 마스터 기기(100)의 메모리(150)에는 서로 다른 사운드 청취 존의 크기나 형상에 대응하는 복수의 기 설정된 임계값 및 상기 도래각 범위가 저장될 수도 있다. 이 경우 위치 산출부(120)는 마스터 제어부(160)의 제어에 따라, 검출된 사운드 청취 존의 크기나 형상에 근거하여 기 저장된 복수의 기 설정된 임계값 중 어느 하나 및, 기 저장된 복수의 도래각 범위 중 어느 하나를 신호 검출부(122)에 설정할 수 있다.Meanwhile, a plurality of preset threshold values and the angle of arrival range corresponding to the size or shape of different sound listening zones may be stored in the memory 150 of the master device 100 of the sound system according to an embodiment of the present invention. . In this case, the position calculation unit 120, under the control of the master control unit 160, determines one of a plurality of pre-stored threshold values based on the size or shape of the detected sound listening zone and a plurality of pre-stored angles of arrival. Any one of the ranges can be set in the signal detection unit 122.

한편 상기 임계값 및 제한된 도래각의 적정값을 결정하기 위해 상기 위치 산출부(120)는 인공지능부(121)를 더 포함할 수 있다. 여기서 상기 인공지능부(121)는 미리 다양한 사운드 청취존의 크기나 형상 및, 다양한 주변 환경에 대한 학습 데이터들에 근거하여 미리 학습이 이루어진 상태일 수 있다. 이 경우 인공지능부(121)는, 각 음향 출력 기기들 간의 거리 및 방향에 따라 검출된 사운드 청취 존의 크기 및 형상, 그리고 주변 환경을 감지한 결과에 근거하여, 상기 학습에 따라 최적의 임계값 및 도래각 범위를 결정할 수 있다. Meanwhile, the position calculation unit 120 may further include an artificial intelligence unit 121 to determine an appropriate value of the threshold and the limited angle of arrival. Here, the artificial intelligence unit 121 may be trained in advance based on learning data about the size or shape of various sound listening zones and various surrounding environments. In this case, the artificial intelligence unit 121 determines the optimal threshold value according to the learning, based on the size and shape of the sound listening zone detected according to the distance and direction between each sound output device and the result of detecting the surrounding environment. and the angle of arrival range can be determined.

상기 인공지능부(121)는 인공 지능 기술에 기반하여 정보들을 처리하는 역할을 수행하는 것으로, 정보의 학습, 정보의 추론, 정보의 지각, 자연 언어의 처리 중 적어도 하나를 수행하는 하나 이상의 모듈을 포함할 수 있다. The artificial intelligence unit 121 serves to process information based on artificial intelligence technology, and includes one or more modules that perform at least one of information learning, information inference, information perception, and natural language processing. It can be included.

여기서 학습은 상기 머신 러닝(machine running) 기술을 통해 이루어질 수 있다. 상기 머신 러닝 기술은 적어도 하나의 알고리즘에 근거하여, 대규모의 정보들을 수집 및 학습하고, 학습된 정보를 바탕으로 정보를 판단 및 예측하는 기술이다. 정보의 학습이란 정보들의 특징, 규칙, 판단 기준 등을 파악하여, 정보와 정보 사이의 관계를 정량화하고, 정량화된 패턴을 이용하여 새로운 데이터들을 예측하는 동작이다.Here, learning can be achieved through the machine learning (machine running) technology. The machine learning technology is a technology that collects and learns large-scale information based on at least one algorithm, and judges and predicts information based on the learned information. Learning information is the operation of identifying the characteristics, rules, and judgment standards of information, quantifying the relationship between information, and predicting new data using the quantified patterns.

이러한 머신 러닝 기술이 사용하는 알고리즘은 통계학에 기반한 알고리즘이 될 수 있으며, 예를 들어, 트리 구조 형태를 예측 모델로 사용하는 의사 결정 나무(decision tree), 생물의 신경 네트워크 구조와 기능을 모방하는 인공 신경망(neural network), 생물의 진화 알고리즘에 기반한 유전자 프로그래밍(genetic programming), 관측된 예를 군집이라는 부분집합으로 분배하는 군집화(Clustering), 무작위로 추출된 난수를 통해 함수값을 확률로 계산하는 몬테카를로 방법(Montercarlo method) 등이 될 수 있다. The algorithms used by these machine learning techniques can be algorithms based on statistics, for example, decision trees that use tree-structured forms as predictive models, or artificial intelligence that mimics the structure and function of neural networks in living things. Neural network, genetic programming based on biological evolution algorithms, clustering, which distributes observed examples into subsets called clusters, and Monte Carlo, which calculates function values as probabilities through randomly extracted random numbers. It may be a method (Montercarlo method), etc.

상기 머신 러닝 기술의 한 분야로써, 딥러닝 기술은 인공 신경망 알고리즘을 이용하여, 정보들을 학습, 판단, 처리 중 적어도 하나를 수행하는 기술이다. 인공 신경망은 레이어와 레이어 사이를 연결하고, 레이어와 레이어 사이의 데이터를 전달하는 구조를 가질 수 있다. 이러한 딥러닝 기술은 병렬 연산에 최적화된 GPU(graphic processing unit)를 이용하여 인공 신경망을 통하여 방대한 양의 정보를 학습할 수 있다. As a field of machine learning technology, deep learning technology is a technology that performs at least one of learning, judging, and processing information using an artificial neural network algorithm. An artificial neural network may have a structure that connects layers and transmits data between layers. This deep learning technology can learn a vast amount of information through an artificial neural network using GPU (graphic processing unit) optimized for parallel computation.

한편, 본 명세서에서, 인공지능부(121)는 마스터 제어부(160)와 동일한 구성요소로도 이해될 수 있다. 이 경우, 본 명세서에서 설명되는 인공지능부(121)에서 수행되는 기능은, 마스터 제어부(160)에서 수행된다고 표현되어도 무방할 수 있다.Meanwhile, in this specification, the artificial intelligence unit 121 may be understood as the same component as the master control unit 160. In this case, the functions performed by the artificial intelligence unit 121 described in this specification may be expressed as being performed by the master control unit 160.

또한 위치 산출부(120)는 수신된 신호에 근거하여 거리를 산출하는 거리 산출부(123)를 포함할 수 있다. 상기 거리 산출부(123)는 상기 신호 검출부(122)에서 검출된 유효 신호가 수신된 시각과, 상기 유효 신호가 송출된 시각의 차이, 즉 도달 시간과, 광속(C)에 근거하여 상기 유효 신호가 전송된 거리, 즉 피사체와 음향 출력 기기 사이의 이격 거리 또는 상기 유효 신호를 송출한 음향 기기와의 이격 거리를 산출할 수 있다.Additionally, the location calculator 120 may include a distance calculator 123 that calculates the distance based on the received signal. The distance calculation unit 123 calculates the effective signal based on the difference between the time when the valid signal detected by the signal detection unit 122 is received and the time when the valid signal is transmitted, that is, the arrival time, and the speed of light (C). The transmitted distance, that is, the separation distance between the subject and the audio output device or the separation distance from the audio device that transmitted the effective signal, can be calculated.

한편, 상술한 설명에서는 마스터 기기(100)에서 방사된 레이더 신호에 의해 마스터 기기(100)와 사운드 청취 존 내 피사체 간의 거리를 위치 산출부(120)가 산출하는 예를 설명하였으나, 상기 마스터 기기(100)에서 방사된 레이더 신호에 근거하여, 다른 음향 출력 기기들, 즉 슬레이브 기기들 각각과 피사체 사이의 거리를 산출할 수도 있음은 물론이다. Meanwhile, in the above description, an example has been described in which the location calculation unit 120 calculates the distance between the master device 100 and the subject in the sound listening zone using the radar signal emitted from the master device 100, but the master device ( Of course, based on the radar signal emitted from 100), the distance between each of the other audio output devices, that is, the slave devices, and the subject can be calculated.

일 예로, 마스터 기기(100)에서 레이더 신호가 방사되는 경우, 레이더 신호는 제1 슬레이브 기기에 직접 수신될 수 있다(제1 신호). 여기서 상기 제1 슬레이브 기기는 마스터 기기(100)에 인접한 슬레이브 기기일 수 있다. 또한 레이더 신호는 피사체에 의해 반사되어 제1 슬레이브 기기에 수신될 수 있다(제2 신호). 뿐만 아니라 마스터 기기(100) 외에 4개의 슬레이브 기기가 있는 것을 가정하면 상기 방사된 레이더 신호는, 제1 슬레이브 기기보다 마스터 기기로부터 더 먼 거리에 배치된 제2, 제3 및 제4 슬레이브 기기에 각각 반사될 수 있다. 그리고 반사된 레이더 신호들이 상기 제1 슬레이브 기기에 각각 수신될 수 있다(제3 신호, 제4 신호, 제5 신호). For example, when a radar signal is emitted from the master device 100, the radar signal may be directly received by the first slave device (first signal). Here, the first slave device may be a slave device adjacent to the master device 100. Additionally, the radar signal may be reflected by the subject and received by the first slave device (second signal). In addition, assuming that there are four slave devices in addition to the master device 100, the emitted radar signal is transmitted to the second, third, and fourth slave devices located at a greater distance from the master device than the first slave device, respectively. It can be reflected. And the reflected radar signals can be respectively received by the first slave device (third signal, fourth signal, and fifth signal).

이러한 경우 상기 제1 슬레이브 기기는, 자신이 수신한 레이더 신호들(제1 신호 내지 제5 신호)의 세기들, 각 레이더 신호가 수신된 도래각들 및 각 레이더 신호들이 수신된 수신 시각들에 대한 정보를 상기 마스터 기기(100)로 전송할 수 있다. 그러면 마스터 기기(100)는 제1 슬레이브 기기에서 수신된 정보들을 위치 산출부(120)에 입력할 수 있다. 그리고 위치 산출부(120)는 신호 검출부(122)를 통해 제1 슬레이브 기기가 수신한 레이더 신호의 크기들 및 레이더 신호의 도래각들에 따라 유효 신호들을 검출할 수 있다. In this case, the first slave device is responsible for the strengths of the radar signals (first to fifth signals) received by the first slave device, the angles of arrival at which each radar signal was received, and the reception times at which each radar signal was received. Information can be transmitted to the master device 100. Then, the master device 100 can input the information received from the first slave device into the location calculation unit 120. And the location calculation unit 120 can detect valid signals according to the amplitudes of the radar signal and the angles of arrival of the radar signal received by the first slave device through the signal detection unit 122.

이 경우 피사체에 의한 반사 없이, 마스터 기기(100)로부터 직접 전송된 레이더 신호(제1 신호)의 경우 그 세기가 가장 강할 수 있다. 그리고 사운드 청취 존 내에 피사체가 위치하는 경우, 제2 내지 제4 슬레이브 기기보다 상기 피사체가 제1 슬레이브 기기에 더 가까울 수 있다. 따라서 제2 내지 제4 슬레이브 기기에서 반사된 레이더 신호(제3 신호 내지 제5 신호)보다, 상기 피사체에서 반사되어 수신된 마스터 기기(100)의 레이더 신호(제2 신호)가, 상기 마스터 기기(100)로부터 직접 수신된 제1 신호 다음으로 강한 세기를 가질 수 있다. 따라서 신호 검출부(122)는 기 설정된 신호 임계값에 근거하여 필터링을 수행하고, 필터링 수행 결과에 따라 상기 제1 신호 및 제2 신호를 유효 신호들로 검출할 수 있다. In this case, the strength of the radar signal (first signal) transmitted directly from the master device 100 without reflection by the subject may be the strongest. And when a subject is located within the sound listening zone, the subject may be closer to the first slave device than to the second to fourth slave devices. Therefore, the radar signal (second signal) of the master device 100 reflected and received from the subject is better than the radar signal (third signal to fifth signal) reflected from the second to fourth slave devices, and the master device ( It may have the strongest intensity next to the first signal received directly from 100). Accordingly, the signal detection unit 122 may perform filtering based on a preset signal threshold and detect the first signal and the second signal as valid signals according to the filtering result.

그리고 신호 검출부(122)는 검출된 제1 신호 및 제2 신호를 그 세기에 따라 분류할 수 있다. 이 경우 가장 강한 세기를 가지는 제1 신호가 마스터 기기(100)로부터 직접 수신된 신호로 구분될 수 있고, 그 다음 세기를 가지는 제2 신호가 피사체에 의해 반사되어 수신된 제2 신호로 구분될 수 있다. And the signal detection unit 122 may classify the detected first and second signals according to their strengths. In this case, the first signal with the strongest intensity may be classified as a signal received directly from the master device 100, and the second signal with the next intensity may be classified as a second signal received after being reflected by the subject. there is.

그러면 위치 산출부(120)는 상기 제1 신호 및 제2 신호가 수신된 수신 시각들을 검출할 수 있다. 여기서 상기 제2 신호는 마스터 기기(100)에서 방사된 레이더 신호가 피사체에 반사되어 바로 제1 음향 출력 기기에서 수신되는 신호로서, 레이더 신호가 상기 마스터 기기(100)로부터 피사체까지 이동한 이후에, 다시 피사체로부터 제1 음향 출력 기기로 이동한 신호일 수 있다. 따라서 상기 마스터 기기(100)에서 레이더 신호가 방사된 시각으로부터 제2 신호가 제1 음향 출력 기기에서 수신될 때까지의 시간, 즉 제2 신호의 도달 시간은, 레이더 신호가 상기 마스터 기기(100)로부터 피사체까지 이동하는데 소요된 시간을 포함할 수 있다. Then, the location calculation unit 120 can detect the reception times at which the first signal and the second signal were received. Here, the second signal is a signal received by the first audio output device when the radar signal emitted from the master device 100 is reflected by the subject. After the radar signal moves from the master device 100 to the subject, It may be a signal that has moved from the subject to the first audio output device. Therefore, the time from the time the radar signal is emitted from the master device 100 until the second signal is received by the first audio output device, that is, the arrival time of the second signal, is the time when the radar signal is transmitted to the master device 100. It may include the time taken to move from the subject to the subject.

한편 상기 마스터 기기(100)로부터 피사체까지 레이더 신호가 이동한 시간은, 상기 마스터 기기(100)에서 방사된 레이더 신호가, 상기 마스터 기기(100)에 다시 수신된 시간, 즉 귀환 시간에 근거하여 산출될 수 있다. 이 경우 상기 귀환 시간은, 레이더 신호가 마스터 기기(100)와 피사체 사이를 왕복하는데 소요된 시간이므로, 상기 귀환 시간의 절반에 해당하는 시간이 상기 레이더 신호가 마스터 기기(100)로부터 피사체에 도달하는데 소요되는 시간일 수 있다. Meanwhile, the time that the radar signal travels from the master device 100 to the subject is calculated based on the time when the radar signal emitted from the master device 100 is received again by the master device 100, that is, the return time. It can be. In this case, the return time is the time it takes for the radar signal to travel back and forth between the master device 100 and the subject, so the time corresponding to half of the return time is for the radar signal to reach the subject from the master device 100. It may take some time.

따라서 위치 산출부(120)는 마스터 제어부(100)의 제어에 따라 상기 제2 신호의 도달 시간으로부터 상기 귀환 시간의 절반에 해당하는 시간을 차감할 수 있다. 그러면 레이더 신호가 피사체로부터 제1 음향 출력 기기에 도달하는데 소요된 시간이 산출될 수 있다. 그러면 거리 산출부(123)는 산출된 시간에 근거하여 피사체와 제1 음향 출력 기기 사이의 거리를 산출할 수 있다. Accordingly, the position calculation unit 120 may subtract a time corresponding to half of the return time from the arrival time of the second signal under the control of the master control unit 100. Then, the time it takes for the radar signal to reach the first audio output device from the subject can be calculated. Then, the distance calculation unit 123 can calculate the distance between the subject and the first audio output device based on the calculated time.

한편 상기 제2 신호의 도래각에 근거하여 상기 피사체가 위치한 방향이 결정될 수 있다. 따라서 위치 산출부(120)는 상기 제2 신호의 도래각과, 상기 산출된 피사체와 제1 음향 출력 기기 사이의 거리에 근거하여 상기 제1 음향 출력 기기를 기준으로 피사체의 위치를 결정할 수 있다.Meanwhile, the direction in which the subject is located may be determined based on the angle of arrival of the second signal. Accordingly, the position calculation unit 120 may determine the position of the subject with respect to the first sound output device based on the angle of arrival of the second signal and the calculated distance between the subject and the first sound output device.

이와 유사한 방식으로 위치 산출부(120)는 제2 내지 제4 슬레이브 기기 각각을 기준으로 피사체의 위치를 검출할 수 있다. 그리고 각 음향 출력 기기를 기준으로 산출된 피사체의 위치를 마스터 제어부(160)에 입력할 수 있다. 그러면 마스터 제어부(160)는 상기 산출된 피사체의 위치를 기준으로 스윗 스팟이 형성되도록 음향 출력부(130) 및 연결된 각 슬레이브 기기들의 음향 출력을 제어할 수 있다. 이 경우 마스터 제어부(160)는 상기 피사체의 위치에 따른 스윗 스팟의 형성을 위해, 음향 출력부(130) 및 연결된 각 슬레이브 기기들 각각에서 출력되는 음향의 음장 및 위상을 제어할 수 있다.In a similar manner, the location calculation unit 120 may detect the location of the subject based on each of the second to fourth slave devices. Additionally, the position of the subject calculated based on each audio output device can be input to the master control unit 160. Then, the master control unit 160 can control the sound output of the sound output unit 130 and each connected slave device so that a sweet spot is formed based on the calculated position of the subject. In this case, the master control unit 160 may control the sound field and phase of the sound output from the sound output unit 130 and each of the connected slave devices to form a sweet spot according to the position of the subject.

한편, 음향 출력부(130)는 상기 마스터 제어부(160)의 제어에 따라 음향 신호를 출력할 수 있다. 이를 위해 상기 음향 출력부(130)는 적어도 하나의 스피커를 포함할 수 있으며, 상기 마스터 제어부(160)의 제어에 따라 출력되는 음향의 음장 또는 위상을 변경할 수 있다. Meanwhile, the audio output unit 130 may output an audio signal under the control of the master control unit 160. To this end, the sound output unit 130 may include at least one speaker, and may change the sound field or phase of the sound output under the control of the master control unit 160.

그리고 사용자 입력부(140)는 사용자로부터 정보를 입력받기 위한 것으로, 리모트 컨트롤러 또는 적어도 하나의 버튼이나 스위치 등 적어도 하나의 입력 수단을 포함할 수 있다. Additionally, the user input unit 140 is for receiving information from a user and may include at least one input means such as a remote controller or at least one button or switch.

한편 상기 사용자 입력부(140)는 사용자의 음성을 입력받기 위한 마이크로폰을 더 포함할 수 있다. 이 경우 상기 사용자 입력부(140)는 마이크로폰을 통해 입력되는 사용자의 음성을 인식하기 위한 음성 인식부(도시되지 않음)를 더 포함할 수 있으며, 상기 음성 인식부를 통해 인식된 사용자의 음성은 사용자로부터 입력되는 정보로서 마스터 제어부(160)에 입력될 수 있으며, 마스터 제어부(160)에서 분석되어 사용자의 제어 명령으로 처리될 수 있다.Meanwhile, the user input unit 140 may further include a microphone for receiving the user's voice. In this case, the user input unit 140 may further include a voice recognition unit (not shown) for recognizing the user's voice input through a microphone, and the user's voice recognized through the voice recognition unit is input from the user. This information can be input to the master control unit 160, analyzed by the master control unit 160, and processed as a user's control command.

또한, 메모리(150)는 상기 마스터 기기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(150)는 마스터 기기(100)에서 구동되는 응용 프로그램(application program), 마스터 기기(100)의 동작을 위한 데이터들과 명령어들을 저장할 수 있다. 이를 위해 메모리(150)는 상기 위치 산출부(120)의 제어를 위한 데이터들 및 명령어들을 저장할 수 있으며, 상기 위치 산출부(120)에서 산출된 각 슬레이브 기기들의 위치에 대한 정보(거리 및 방향)를 저장할 수 있다. 또한 각 슬레이브 기기를 기준으로 산출된 피사체의 위치를 저장할 수 있으며, 마스터 기기(100) 및 각 슬레이브 기기에서 레이더 신호가 방사되는 시각들 및 레이더 신호가 방사되는 순서들에 대한 정보를 저장할 수 있다. 또한 메모리(150)는 각 슬레이브 기기로부터 전송되는 데이터들을 저장할 수 있다. Additionally, the memory 150 stores data supporting various functions of the master device 100. The memory 150 may store an application program running on the master device 100, data and commands for operating the master device 100. For this purpose, the memory 150 can store data and commands for controlling the location calculation unit 120, and information (distance and direction) about the location of each slave device calculated by the location calculation unit 120. can be saved. In addition, the location of the subject calculated based on each slave device can be stored, and information about the times at which radar signals are emitted from the master device 100 and each slave device and the order in which the radar signals are emitted can be stored. Additionally, the memory 150 can store data transmitted from each slave device.

한편 마스터 제어부(160)는 마스터 기기(100)의 전반적인 동작을 제어할 수 있다. 일 예로 마스터 제어부(160)는 음향 출력부(130) 및 연결된 적어도 하나의 슬레이브 기기 각각에서 출력되는 음향의 출력을 제어할 수 있다. 또한 무선 통신부(110)를 제어하여 송출 또는 방사되는 무선 신호들을 제어하고, 각 슬레이브 기기와의 무선 통신을 통해 각 슬레이브 기기로부터 전송되는 데이터들을 수신할 수 있다. Meanwhile, the master control unit 160 can control the overall operation of the master device 100. As an example, the master control unit 160 may control the output of sound output from the sound output unit 130 and each of at least one connected slave device. Additionally, the wireless communication unit 110 can be controlled to control wireless signals transmitted or radiated, and data transmitted from each slave device can be received through wireless communication with each slave device.

또한 그리고 위치 산출부(120)를 제어하여 상기 송출 또는 방사된 무선 신호에 대하여 각 슬레이브 기기로부터 전송되는 정보들에 근거하여 각 슬레이브 기기의 위치 및 각 슬레이브 기기를 기준으로 피사체의 위치를 산출할 수 있다. 그리고 산출된 피사체의 위치에 근거하여, 출력되는 음향의 음장 및 위상 중 적어도 하나가 변경되도록 상기 음향 출력부(130) 및 연결된 적어도 하나의 슬레이브 기기를 제어할 수 있다.In addition, the location calculation unit 120 can be controlled to calculate the location of each slave device and the location of the subject based on each slave device based on information transmitted from each slave device regarding the transmitted or radiated wireless signal. there is. And based on the calculated position of the subject, the sound output unit 130 and at least one connected slave device can be controlled so that at least one of the sound field and phase of the output sound is changed.

한편 도 2는 본 발명의 실시 예에 따른 음향 출력 시스템에서 마스터 기기(100)에 연결되는 음향 출력 기기(슬레이브 기기)의 구성을 도시한 블록도이다.Meanwhile, Figure 2 is a block diagram showing the configuration of an audio output device (slave device) connected to the master device 100 in the audio output system according to an embodiment of the present invention.

도 2를 참조하여 살펴보면, 상기 슬레이브 기기(200)는, 무선 통신부(210), 음향 출력부(220), 메모리(230), 사용자 입력부(240) 및 슬레이브 제어부(250)를 포함하여 구성될 수 있다. 도 2에서 도시된 구성요소들은 음향 출력 기기를 구현하는 데 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 슬레이브 기기(200)는 위에서 열거된 구성요소들 보다 많거나 또는 적은 구성요소들을 가질 수 있다. Referring to FIG. 2, the slave device 200 may be configured to include a wireless communication unit 210, an audio output unit 220, a memory 230, a user input unit 240, and a slave control unit 250. there is. The components shown in FIG. 2 are not essential for implementing an audio output device, so the slave device 200 described herein may have more or fewer components than those listed above.

먼저 무선 통신부(210)는 다른 슬레이브 기기와 마스터 기기(100) 또는 주변 기기들 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 이를 위해 상기 무선 통신부(210)는 근거리 통신을 위한 근거리 통신부(211)를 구비할 수 있으며, 상기 근거리 통신부(211)는 다양한 근거리 통신 기술 중 적어도 하나를 이용하여 주변의 다른 기기들 사이의 무선 통신을 지원할 수 있다. First, the wireless communication unit 210 may include one or more modules that enable wireless communication between other slave devices and the master device 100 or peripheral devices. To this end, the wireless communication unit 210 may be provided with a short-range communication unit 211 for short-range communication, and the short-range communication unit 211 uses at least one of various short-range communication technologies to communicate wirelessly with other nearby devices. can support.

또한 무선 통신부(210)는 피사체의 탐지를 위한 레이더 신호를 방사 및, 피사체에 의해 반사된 레이더 신호를 수신하도록 형성되는 레이더부(212)를 포함할 수 있다. 이 경우 상기 레이더부(212)는 기 설정된 파장을 가지는 극초단파를 레이더 신호로 방사 및 수신하도록 형성될 수 있다. Additionally, the wireless communication unit 210 may include a radar unit 212 configured to emit a radar signal for detecting a subject and receive a radar signal reflected by the subject. In this case, the radar unit 212 may be configured to emit and receive microwaves having a preset wavelength as radar signals.

한편 무선 통신부(210)는 상기 근거리 통신부(211)의 근거리 통신을 위한 무선 신호 및 상기 레이더 신호를 송출하고 수신하기 위한 안테나부(213)를 구비할 수 있다. 이 경우 상기 안테나부(213)는 복수의 안테나를 구비할 수 있으며, 상기 복수의 안테나는 상기 근거리 통신용 무선 신호 뿐만 아니라 상기 레이더 신호를 모두 송수신할 수 있도록 형성될 수 있다. Meanwhile, the wireless communication unit 210 may be provided with an antenna unit 213 for transmitting and receiving radio signals for short-distance communication and the radar signal of the short-range communication unit 211. In this case, the antenna unit 213 may be provided with a plurality of antennas, and the plurality of antennas may be configured to transmit and receive both the radar signal as well as the wireless signal for short-distance communication.

여기서 상기 안테나부(213)의 안테나들은, 각 안테나에 신호가 수신되는 각도, 즉 도래각(Angle Of Arrival, AOA)이 서로 달라지도록 각 안테나가 서로 간에 일정 간격을 두고 배치될 수 있다. 이 경우 각 안테나에서 신호가 수신되는 각도, 즉 도래각의 차이가 발생할 수 있으며, 이러한 도래각의 차이는 신호 발신원이 위치한 방향 검출을 위해 이용될 수 있다. Here, the antennas of the antenna unit 213 may be arranged at a certain distance from each other so that the angle at which signals are received by each antenna, that is, the angle of arrival (AOA), is different. In this case, there may be a difference in the angle at which the signal is received from each antenna, that is, the angle of arrival, and this difference in angle of arrival can be used to detect the direction in which the signal source is located.

한편, 음향 출력부(220)는 상기 슬레이브 제어부(250)의 제어에 따라 음향 신호를 출력할 수 있다. 이를 위해 상기 음향 출력부(230)는 적어도 하나의 스피커를 포함할 수 있으며, 상기 슬레이브 제어부(250)의 제어에 따라 출력되는 음향의 음장 또는 위상을 변경할 수 있다. Meanwhile, the audio output unit 220 may output an audio signal under the control of the slave control unit 250. To this end, the sound output unit 230 may include at least one speaker, and may change the sound field or phase of the output sound under control of the slave control unit 250.

그리고 사용자 입력부(240)는 사용자로부터 정보를 입력받기 위한 것으로, 리모트 컨트롤러 또는 적어도 하나의 버튼이나 스위치 등 적어도 하나의 입력 수단을 포함할 수 있다. Additionally, the user input unit 240 is for receiving information from a user and may include at least one input means such as a remote controller or at least one button or switch.

또한, 메모리(230)는 상기 슬레이브 기기(200)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(230)는 슬레이브 기기(200)에서 구동되는 응용 프로그램, 슬레이브 기기(200)의 동작을 위한 데이터들과 명령어들을 저장할 수 있다. 그리고 메모리(230)는 다른 음향 출력 기기, 즉 마스터 기기(100) 및 각 슬레이브 기기(200)에서 레이더 신호가 방사되는 시각들 및 레이더 신호가 방사되는 순서들에 대한 정보를 저장할 수 있다. 또한 메모리(230)는 안테나부(213)에서 각 레이더 신호들이 수신되는 시각과 각 레이더 신호의 도래각에 대한 정보를 저장할 수 있다. Additionally, the memory 230 stores data supporting various functions of the slave device 200. The memory 230 may store application programs running on the slave device 200, data and commands for operating the slave device 200. In addition, the memory 230 can store information about the times at which radar signals are emitted from other audio output devices, that is, the master device 100 and each slave device 200, and the order in which the radar signals are emitted. Additionally, the memory 230 may store information about the time at which each radar signal is received by the antenna unit 213 and the angle of arrival of each radar signal.

한편 슬레이브 제어부(250)는 슬레이브 기기(200)의 전반적인 동작을 제어할 수 있다. 일 예로 슬레이브 제어부(250)는 마스터 기기(100)의 제어에 따라 음향 출력부(220)에서 출력되는 음향의 출력을 제어할 수 있다. 이 경우 슬레이브 제어부(250)는 상기 마스터 기기(100)의 제어에 따라 상기 출력되는 음향의 음장 및 위상 중 적어도 하나를 변경할 수 있다. 또한 무선 통신부(210)를 제어하여 송출 또는 방사되는 무선 신호들을 제어하고, 메모리(230)에 저장된 각 레이더 신호들이 수신되는 시각과 각 레이더 신호의 도래각에 대한 정보를 마스터 기기(100)에 전송할 수 있다.Meanwhile, the slave control unit 250 can control the overall operation of the slave device 200. As an example, the slave control unit 250 may control the output of sound output from the sound output unit 220 according to the control of the master device 100. In this case, the slave controller 250 may change at least one of the sound field and phase of the output sound according to the control of the master device 100. In addition, the wireless communication unit 210 is controlled to control wireless signals transmitted or radiated, and information about the time at which each radar signal stored in the memory 230 is received and the angle of arrival of each radar signal is transmitted to the master device 100. You can.

한편 상술한 설명에서는 마스터 기기(100)와 슬레이브 기기(200)의 구성을 다르게 설명하였으나, 본 발명의 실시 예에 따른 사운드 시스템은 복수의 마스터 기기(100)를 포함하여 이루어질 수도 있음은 물론이다. Meanwhile, in the above description, the configurations of the master device 100 and the slave device 200 are described differently, but it goes without saying that the sound system according to an embodiment of the present invention may include a plurality of master devices 100.

일 예로 상기 사운드 시스템은, 각각의 음향 출력 기기가 모두 마스터 기기(100)와 동일한 구성을 가질 수 있다. 이 경우 각 음향 출력 기기는 스스로 수신되는 레이더 신호에 근거하여 인접한 다른 음향 출력 기기와의 거리와 방향을 산출할 수 있으며, 사운드 청취존 내에 위치한 피사체와 자신과의 거리 및 상기 피사체가 위치한 방향을 검출할 수 있다. As an example, in the sound system, each sound output device may have the same configuration as the master device 100. In this case, each sound output device can calculate the distance and direction to other adjacent sound output devices based on the radar signal it receives, and detects the distance between itself and the subject located within the sound listening zone and the direction in which the subject is located. can do.

또한 각 음향 출력 기기가 피사체 및 다른 음향 출력 기기의 위치 검출을 위한 레이더 신호를 방사하는 시각은 상기 각 음향 출력 기기 간에 공유될 수 있으며, 상기 레이더 신호를 방사하는 순서 역시 공유될 수 있다. 그리고 각 음향 출력 기기 간에 레이더 신호들이 수신된 시각들 및 레이더 신호들이 수신된 도래각들에 대한 정보가 공유될 수 있다. 그리고 각 음향 출력 기기에서 산출되는 피사체의 위치 정보 역시 공유될 수 있다. 그리고 각 음향 출력 기기는, 서로 간에 협업을 통해 상기 공유된 피사체의 위치를 중심으로 스윗 스팟이 형성되도록, 각각 출력되는 음향의 음장 및 위상 등을 제어할 수 있다. Additionally, the time at which each audio output device emits a radar signal for detecting the position of a subject and other audio output devices can be shared between each audio output device, and the order of emitting the radar signal can also be shared. Additionally, information about the times at which radar signals were received and the angles of arrival at which radar signals were received can be shared between each audio output device. Additionally, the location information of the subject calculated from each audio output device can also be shared. In addition, each sound output device can control the sound field and phase of each sound output through collaboration with each other so that a sweet spot is formed around the location of the shared subject.

한편 설명의 편의상 이하의 설명에서는 본 발명의 실시 예에 따른 사운드 시스템이, 하나의 마스터 기기(100)를 포함하는 것을 가정하여 설명하기로 한다. 그러나 본 발명이 이에 한정되는 것이 아님은 물론이다. Meanwhile, for convenience of explanation, the following description will be made on the assumption that the sound system according to an embodiment of the present invention includes one master device 100. However, it goes without saying that the present invention is not limited to this.

이하에서는, 위에서 살펴본 마스터 기기(100) 및 적어도 하나의 슬레이브 기기(200)를 통하여 구현될 수 있는 본 발명의 실시 예에 따른 사운드 시스템의 제어 방법과 관련된 실시 예들에 대해 첨부된 도면을 참조하여 살펴보겠다. 본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.In the following, embodiments related to the control method of a sound system according to an embodiment of the present invention that can be implemented through the master device 100 and at least one slave device 200 discussed above will be discussed with reference to the attached drawings. Let me see. It is obvious to those skilled in the art that the present invention can be embodied in other specific forms without departing from the spirit and essential features of the present invention.

도 3은 본 발명의 실시 예에 따른 사운드 시스템에서 사용자의 위치를 추적하고 추적된 사용자의 위치에 따른 스윗 스팟을 형성하는 동작 과정을 도시한 흐름도이다. 그리고 도 4는 본 발명의 실시 예에 따른 사운드 시스템에서, 마스터 기기(100)와 슬레이브 기기들로 형성되는 사운드 청취 존의 예를 도시한 예시도이다. Figure 3 is a flowchart showing an operation process of tracking a user's location and forming a sweet spot according to the tracked user's location in a sound system according to an embodiment of the present invention. And Figure 4 is an exemplary diagram showing an example of a sound listening zone formed by the master device 100 and slave devices in a sound system according to an embodiment of the present invention.

먼저 도 3을 참조하여 살펴보면, 본 발명의 실시 예에 따른 사운드 시스템의 각 음향 출력 기기는 신호 교환을 통해 서로 간에 위치를 검출할 수 있다(S300). 이 경우 상기 각 음향 출력 기기는 UWB 등 근거리 통신부에서 송출되는 무선 신호를 이용한 통신을 이용하여 서로 간에 이격된 거리 및 방향을 검출할 수 있다. First, referring to FIG. 3, each sound output device of the sound system according to an embodiment of the present invention can detect each other's positions through signal exchange (S300). In this case, each of the audio output devices can detect the distance and direction from each other using communication using wireless signals transmitted from a short-range communication unit such as UWB.

예를 들어, 각 음향 출력 기기 중 어느 하나의 기기는 기 설정된 순서에 따라 연결된 다른 음향 출력 기기와 무선 통신을 연결하고, 무선 신호가 전달되는 시간 및 상기 무선 신호가 수신된 각도, 즉 도래각에 근거하여 상기 통신이 연결된 다른 음향 출력 기기의 위치를 검출할 수 있다. 여기서 상기 어느 하나의 기기는 마스터 기기(100)일 수 있으며, 상기 다른 하나의 기기는 슬레이브 기기일 수 있다. For example, one of each audio output device connects wireless communication with another audio output device connected according to a preset order, and is connected to the time when the wireless signal is transmitted and the angle at which the wireless signal is received, that is, the angle of arrival. Based on this, the location of another audio output device connected to the communication can be detected. Here, one of the devices may be the master device 100, and the other device may be a slave device.

한편 상기 마스터 기기(100)가, 순차적인 무선 통신을 통해 연결된 모든 슬레이브 기기의 위치를 검출하면, 검출된 슬레이브 기기들의 각 위치와 자신, 즉 마스터 기기(100)의 위치에 근거하여 사운드 청취 존을 형성할 수 있다(S302). 이 경우 마스터 기기(100)는, 검출된 자신의 위치와 각 슬레이브 기기의 위치를 꼭지점으로 하는 다각형을 형성할 수 있으며, 상기 마스터 기기(100)와 복수의 슬레이브 기기로 이루어지는 다각형으로 형성되는 가상의 공간이 상기 사운드 청취 존으로 형성될 수 있다. Meanwhile, when the master device 100 detects the positions of all slave devices connected through sequential wireless communication, it creates a sound listening zone based on the positions of each detected slave device and itself, that is, the position of the master device 100. It can be formed (S302). In this case, the master device 100 can form a polygon with its own detected location and the location of each slave device as its vertices, and a virtual polygon formed by the master device 100 and a plurality of slave devices is formed. A space may be formed as the sound listening zone.

일 예로 본 발명의 실시 예에 따른 사운드 시스템이 마스터 기기(100)와 4개의 슬레이브 기기(201, 202, 203, 204)로 이루어지는 경우, 사운드 청취 존(400)은, 도 4에서 보이고 잇는 바와 같이 상기 마스터 기기(100)와 각 슬레이브 기기(201 내지 204)를 꼭지점으로 하는 오각형 형태의 영역으로 형성될 수 있다. 이 경우 사운드 청취 존(400)은 사용자에게 입체 음향을 제공할 수 있는 영역이 될 수 있다. For example, when a sound system according to an embodiment of the present invention consists of a master device 100 and four slave devices 201, 202, 203, and 204, the sound listening zone 400 is as shown in FIG. 4. It may be formed as a pentagon-shaped area with the master device 100 and each slave device 201 to 204 as the vertex. In this case, the sound listening zone 400 may be an area that can provide three-dimensional sound to the user.

이 경우 마스터 기기(100)는 자신 및 각 슬레이브 기기에, 현재 형성된 사운드 청취 존의 형상에 따른 도래각 범위를 설정할 수 있다. In this case, the master device 100 can set an angle of arrival range for itself and each slave device according to the shape of the currently formed sound listening zone.

일 예로 마스터 기기(100)는 제1 슬레이브 기기(201)의 경우, 인접한 제2 슬레이브 기기(202)가 배치된 방향과 제4 슬레이브 기기(204)가 배치된 방향의 사이각에 근거하여 제1 슬레이브 기기(201)에 대응하는 도래각 범위를 설정할 수 있다. 또한 제2 슬레이브 기기(202)에 대하여, 인접한 제1 슬레이브 기기(201)가 배치된 방향과 마스터 기기(100)가 배치된 방향의 사이각에 근거하여 제2 슬레이브 기기(202)에 대응하는 도래각 범위를 설정할 수 있다. 그리고 마스터 기기(100) 자신은, 인접한 제2 슬레이브 기기(202)가 배치된 방향과 제3 슬레이브 기기(203)가 배치된 방향의 사이각에 근거하여 자신(마스터 기기(100))에 대응하는 도래각 범위를 설정할 수 있다. 이와 마찬가지로 제3 슬레이브 기기(203), 제4 슬레이브 기기(204)의 도래각 범위를 설정할 수 있다.As an example, in the case of the first slave device 201, the master device 100 determines the first slave device 201 based on the angle between the direction in which the adjacent second slave device 202 is placed and the direction in which the fourth slave device 204 is placed. The angle of arrival range corresponding to the slave device 201 can be set. In addition, with respect to the second slave device 202, the arrival corresponding to the second slave device 202 is based on the angle between the direction in which the adjacent first slave device 201 is placed and the direction in which the master device 100 is placed. Each range can be set. And the master device 100 itself corresponds to itself (the master device 100) based on the angle between the direction in which the adjacent second slave device 202 is placed and the direction in which the third slave device 203 is placed. You can set the angle of arrival range. Likewise, the angle of arrival range of the third slave device 203 and the fourth slave device 204 can be set.

여기서 상기 도래각 범위는 인공지능부(121)에 의해 결정될 수 있다. 이 경우 상기 인공지능부(121)는, 상술한 바와 같이 상기 인접한 다른 음향 출력 기기들이 배치된 방향들에 의해 설정되는 도래각 범위를 최대값으로 하고, 이보다 적은 범위를 기 학습된 결과로서 각 음향 출력 기기별로 결정할 수 있다.Here, the angle of arrival range may be determined by the artificial intelligence unit 121. In this case, the artificial intelligence unit 121 sets the angle of arrival range set by the directions in which the other adjacent sound output devices are arranged as the maximum value, as described above, and sets a smaller range as the maximum value, and each sound as a result of pre-learning. It can be decided for each output device.

한편 도 4에서 보이고 있는 바와 같이 사운드 청취 존이 형성된다고 하여도, 각 음향 출력 기기에서 출력되는 음향의 지향성, 음의 강약, 음장이나 위상 등으로 인해 사운드 청취 존 내에서도 각 음향 출력 기기에서 출력되는 음향들이 최적의 밸런스로 제공될 수 있는 영역이 형성될 수 있다. 이러한 영역을 스윗 스팟(Sweet Spot)이라고 한다. Meanwhile, even if a sound listening zone is formed as shown in FIG. 4, the sound output from each sound output device may be An area can be formed where these elements can be provided in an optimal balance. This area is called the sweet spot.

이에 본 발명의 실시 예에 따른 사운드 시스템은, 상기 사운드 청취 존 내에서 사용자의 위치에 따라 스윗 스팟을 형성할 수 있도록 실시간으로 상기 사운드 청취 존 내의 사용자 위치를 검출하고, 검출된 사용자의 위치에 따라 상기 스윗 스팟이 형성되는 영역이 변경될 수 있도록 한다. 이를 위해 본 발명의 실시 예에 따른 사운드 시스템을 형성하는 각 음향 출력 기기는 레이더 신호를 방사할 수 있도록 형성될 수 있으며, 상기 방사된 레이더 신호의 반사파에 근거하여 상기 사운드 청취존 내의 사용자를 검출할 수 있다. Accordingly, the sound system according to an embodiment of the present invention detects the user's position within the sound listening zone in real time so as to form a sweet spot according to the user's position within the sound listening zone, and according to the detected user's position. The area where the sweet spot is formed can be changed. To this end, each sound output device forming the sound system according to an embodiment of the present invention may be configured to emit a radar signal, and may detect a user in the sound listening zone based on a reflected wave of the emitted radar signal. You can.

이를 위해, 상기 사운드 시스템은 먼저 각 음향 출력 기기 간의 시각을 동기화할 수 있다(S304). 이 경우 마스터 기기(100)를 기준으로 각 슬레이브 기기들의 시각이 동기화될 수 있다. 그리고 상기 사운드 시스템을 구성하는 복수의 음향 출력 기기 중 적어도 하나가 레이더 신호를 방사할 수 있다(S306). 여기서 상기 레이더 신호를 방사하는 음향 출력 기기는 마스터 기기(100)에 의해 결정될 수 있으며, 레이더 신호를 방사하는 음향 출력 기기가 복수인 경우 상기 복수의 음향 출력 기기에서 레이더 신호가 방사되는 순서가 상기 마스터 기기(100)에 의해 결정될 수 있다. 즉, 마스터 기기(100)는 어느 하나의 음향 출력 기기가 레이더 신호를 방사하도록 제어할 수 있으며(S306), 여기서 상기 어느 하나의 음향 출력 기기는, 어느 하나의 슬레이브 기기 또는 자신이 될 수 있다. To this end, the sound system can first synchronize the time between each sound output device (S304). In this case, the time of each slave device may be synchronized based on the master device 100. And at least one of the plurality of sound output devices constituting the sound system may emit a radar signal (S306). Here, the sound output device emitting the radar signal may be determined by the master device 100, and when there are a plurality of sound output devices emitting the radar signal, the order in which the radar signal is emitted from the plurality of sound output devices is determined by the master device 100. It may be determined by the device 100. That is, the master device 100 can control any one audio output device to emit a radar signal (S306), where the one audio output device can be any one slave device or itself.

한편 상기 S306 단계에서 레이더 신호를 방사하는 기기는 기준 기기로 명명될 수 있다. 그리고 상기 S306 단계에서 기준 기기로부터 레이더 신호가 방사되면, 방사된 레이더 신호는 사운드 청취 존 내 사용자, 즉 피사체 및 기준 기기가 아닌 다른 음향 출력 기기에 반사될 수 있다. 이 경우 상기 기준 기기는 피사체 또는 다른 음향 출력 기기에서 반사된 레이더 신호를 수신할 수 있으며, 다른 음향 출력 기기는 피사체 또는 다른 음향 출력 기기에서 반사된 레이더 신호 또는 상기 기준 기기로에서 송출된 레이더 신호를 직접 수신할 수 있다. Meanwhile, the device that emits a radar signal in step S306 may be called a reference device. And when the radar signal is emitted from the reference device in step S306, the emitted radar signal may be reflected to the user in the sound listening zone, that is, the subject, and other sound output devices other than the reference device. In this case, the reference device may receive a radar signal reflected from the subject or another sound output device, and the other sound output device may receive a radar signal reflected from the subject or another sound output device or a radar signal transmitted from the reference device. You can receive it directly.

그러면 각 음향 출력 기기는, 상기 기준 기기로부터 직접 수신되거나 또는 반사되어 수신된 레이더 신호들에 대한 정보를 상기 마스터 기기에 전송할 수 있다. 또한 상기 기준 기기 역시 자신이 수신한 레이더 신호들에 대한 데이터를 상기 마스터 기기에 전송할 수 있다. 여기서 상기 수신된 레이더 신호들에 대한 데이터는, 수신된 레이더 신호의 세기, 레이더 신호가 수신된 각도(도래각), 레이더 신호가 수신된 시각의 정보를 포함할 수 있다. 따라서 마스터 기기(100)는 자신이 수신한 레이더 신호들의 데이터 및 각 슬레이브 기기에 수신된 레이더 신호들의 데이터들을 수집할 수 있다(S308). Then, each sound output device can transmit information about radar signals received directly or reflected from the reference device to the master device. Additionally, the reference device can also transmit data about the radar signals it received to the master device. Here, the data on the received radar signals may include information on the intensity of the received radar signal, the angle at which the radar signal was received (angle of arrival), and the time at which the radar signal was received. Accordingly, the master device 100 can collect data of radar signals received by itself and data of radar signals received by each slave device (S308).

그러면 마스터 기기(100)는 수집된 레이더 신호들의 데이터들에 근거하여 각 음향 출력 기기를 기준으로 사용자, 즉 레이더 신호를 반사시킨 피사체의 위치를 검출할 수 있다(S310). 이를 위해 마스터 기기(100)는 기준 기기에서 수신된 레이더 신호들의 데이터에 근거하여 상기 기준 기기와 피사체 사이의 거리 및 방향을 산출할 수 있다. 또한 상기 기준 기기와 피사체 사이에 레이더 신호가 왕복한 귀환 시간 및 상기 피사체에 의해 반사된 레이더 신호가 다른 음향 출력 기기에 수신된 시간에 근거하여, 상기 다른 음향 출력 기기와 상기 피사체 사이의 거리들을 산출할 수 있다. 또한 이를 반복하여 마스터 기기(100)를 포함하여 각 음향 출력 기기를 기준으로, 피사체까지의 거리들을 산출할 수 있다(S310). Then, the master device 100 can detect the location of the user, that is, the subject that reflected the radar signal, based on each audio output device based on the data of the collected radar signals (S310). To this end, the master device 100 may calculate the distance and direction between the reference device and the subject based on data of radar signals received from the reference device. In addition, based on the return time for the radar signal to travel back and forth between the reference device and the subject and the time when the radar signal reflected by the subject is received by the other sound output device, the distances between the other sound output device and the subject are calculated. can do. Additionally, by repeating this, the distances to the subject can be calculated based on each audio output device, including the master device 100 (S310).

또한 마스터 기기(100)는 각 음향 출력 기기에, 피사체에서 반사된 레이더 신호가 수신된 각도에 근거하여, 각 음향 출력 기기를 기준으로 피사체가 위치한 방향을 식별할 수 있다. 그리고 각 음향 출력 기기에서 식별된 피사체의 방향들과 상기 S310 단계에서 산출된 각 음향 출력 기기와 피사체까지의 거리들에 근거하여 사운드 청취 존 내에 위치한 피사체, 즉 사용자의 위치를 검출할 수 있다(S312). Additionally, the master device 100 may identify the direction in which the subject is located based on each sound output device, based on the angle at which the radar signal reflected from the subject is received. And, based on the directions of the subject identified in each sound output device and the distances between each sound output device and the subject calculated in step S310, the location of the subject located within the sound listening zone, that is, the user, can be detected (S312 ).

한편 사운드 청취 존 내 사용자의 위치가 검출되면, 마스터 기기(100)는 검출된 사용자의 위치를 기준으로 스윗 스팟을 형성할 수 있다(S314). 이를 위해 마스터 기기(100)는 마스터 기기(100)의 음향 출력부(130) 및 각 슬레이브 기기에서 출력되는 음향 신호의 볼륨(volume), 음장 및 위상 중 적어도 하나를 변경할 수 있다(S314). Meanwhile, when the user's location within the sound listening zone is detected, the master device 100 may form a sweet spot based on the detected user's location (S314). To this end, the master device 100 can change at least one of the volume, sound field, and phase of the sound signal output from the sound output unit 130 of the master device 100 and each slave device (S314).

이에 따라 본 발명의 실시 예에 따른 사운드 시스템은 사운드 청취 존 내의 사용자의 위치를 검출할 수 있으며, 검출된 사용자의 위치에 근거하여 스윗 스팟이 형성될 수 있다. 더욱이 본 발명은 상술한 바와 같이 음향 출력 기기에서 방사되는 레이더 신호에 근거하여 피사체의 위치를 검출하는 것으로, 사용자가 무선 신호를 송출하는 기기를 소지하지 않은 상태에서도 사용자의 위치를 검출할 수 있으며, 검출된 사용자의 위치에 따른 스윗 스팟을 형성할 수 있다. Accordingly, the sound system according to an embodiment of the present invention can detect the user's location within the sound listening zone, and a sweet spot can be formed based on the detected user's location. Moreover, as described above, the present invention detects the location of a subject based on a radar signal emitted from an audio output device, and the user's location can be detected even when the user does not possess a device that transmits a wireless signal. A sweet spot can be formed according to the detected user's location.

한편 마스터 기기(100)는 상기 기 설정된 시간 간격이 경과된 이후, 상기 기준 기기에서 다시 레이더 신호가 방사되도록 제어할 수 있다. 이 경우 상기 S306 단계 내지 S314 단계에 이르는 과정이 다시 수행될 수 있으며, 피사체의 위치가 다시 검출될 수 있다. Meanwhile, the master device 100 may control the reference device to emit a radar signal again after the preset time interval has elapsed. In this case, the process from steps S306 to S314 may be performed again, and the location of the subject may be detected again.

한편 마스터 기기(100)는 상기 도 3의 과정들에 따라 어느 하나의 음향 출력 기기에서 방사되는 레이더 신호에 근거하여 피사체의 위치가 검출되면, 기 설정된 시간 간격이 경과된 이후에 다른 음향 출력 기기에서 레이더 신호가 방사되도록 제어할 수 있다. 즉, 마스터 기기(100)는 기준 기기를 변경할 수 있다. 이 경우 마스터 기기(100)는, 변경된 기준 기기가 레이더 신호를 방사하도록 상기 변경된 기준 기기를 제어할 수 있으며, 이에 따라 상기 S306 단계 내지 S314 단계에 이르는 과정이 다시 수행될 수 있다. 이 경우 상기 변경된 기준 기기에서 방사되는 레이더 신호에 의하여 피사체의 위치가 다시 산출될 수 있다.Meanwhile, when the master device 100 detects the location of the subject based on the radar signal emitted from one sound output device according to the processes of FIG. 3, the other sound output device detects the location after a preset time interval has elapsed. Radar signals can be controlled to be emitted. That is, the master device 100 can change the reference device. In this case, the master device 100 may control the changed reference device so that it emits a radar signal, and accordingly, the process from steps S306 to S314 may be performed again. In this case, the location of the subject can be recalculated using the radar signal emitted from the changed reference device.

이처럼 본 발명은 특정 음향 출력 기기 또는 변경된 다른 음향 출력 기기에서 방사되는 레이더 신호를 이용하여 기 설정된 시간 간격마다 피사체, 즉 사운드 청취 존(400) 내의 사용자의 위치를 검출할 수 있다. 따라서 사용자가 이동하는 경우 사용자의 이동된 위치가 다시 산출될 수 있다. 이에 따라 본 발명의 사운드 시스템은 사용자의 위치를 실시간으로 추적 및, 추적된 사용자의 위치에 따라 스윗 스팟을 형성할 수 있다. In this way, the present invention can detect the location of the subject, that is, the user within the sound listening zone 400, at preset time intervals using radar signals emitted from a specific sound output device or another changed sound output device. Therefore, when the user moves, the user's moved location can be calculated again. Accordingly, the sound system of the present invention can track the user's location in real time and form a sweet spot according to the tracked user's location.

한편 상기 피사체(410)의 위치를 검출하는 기 설정된 시간 간격은 사운드 청취 존(400)의 크기 또는 형상에 근거하여 달라질 수 있다. 이 경우 상기 최적의 피사체 위치 검출 시간 간격은 다양한 사운드 청취 존의 크기 또는 형상에 대한 최적의 피사체 위치 검출 시간 간격들이 미리 학습된 인공지능알고리즘에 의해 결정될 수도 있다. 여기서 상기 학습된 인공지능 알고리즘은 상기 위치 산출부(120)에 구비된 인공지능부(121)에 탑재될 수 있다.Meanwhile, the preset time interval for detecting the position of the subject 410 may vary based on the size or shape of the sound listening zone 400. In this case, the optimal subject position detection time interval may be determined by an artificial intelligence algorithm in which the optimal subject position detection time intervals for the size or shape of various sound listening zones are learned in advance. Here, the learned artificial intelligence algorithm can be mounted on the artificial intelligence unit 121 provided in the location calculation unit 120.

도 5는, 상기 도 3의 동작 과정 중, 음향 출력 기기에 수신된 기준 기기의 레이더 신호에 근거하여 피사체와 음향 출력 기기 사이의 거리를 산출하는 S310 단계의 과정을 보다 세부적으로 도시한 흐름도이다. 그리고 도 6은 이러한 도 5의 동작 과정에 따라 기준 기기와 인접한 음향 출력 기기와 피사체 사이의 거리가 산출되는 개념을 설명하기 위한 예시도이다. FIG. 5 is a flowchart showing in more detail the process of step S310 of calculating the distance between the subject and the sound output device based on the radar signal of the reference device received by the sound output device during the operation process of FIG. 3. And FIG. 6 is an example diagram for explaining the concept of calculating the distance between a reference device, an adjacent audio output device, and a subject according to the operation process of FIG. 5.

먼저 도 5를 참조하여 살펴보면, 상기 도 3의 동작 과정 중, 수신된 레이더 신호들의 수신 시각들에 근거하여 각 음향 출력 기기와 사운드 청취 존 내 피사체 사이의 거리들을 산출하는 동작 과정이 시작되면, 마스터 기기(100)는 먼저 기준 기기에서 방사된 레이더 신호, 즉 기준 신호가 상기 피사체(410)에 반사되어 다시 기준 기기에 수신되는 시각, 즉 기준 신호 귀환 시각을 검출할 수 있다(S500). First, referring to FIG. 5, during the operation process of FIG. 3, when the operation process of calculating the distances between each sound output device and the subject in the sound listening zone based on the reception times of the received radar signals is started, the master The device 100 may first detect the time at which the radar signal emitted from the reference device, that is, the reference signal, is reflected by the subject 410 and received again by the reference device, that is, the reference signal return time (S500).

이 경우 상기 피사체(410)에 반사되어 다시 기준 기기에 수신되는 레이더 신호는, 기 설정된 도래각 범위 내에서 상기 기준 기기가 수신하는 레이더 신호들 중 가장 강한 레이더 신호일 수 있으며, 가장 먼저 수신되는 레이더 신호일 수 있다. 이는, 도 4에서 보이고 있는 바와 같이 사운드 청취 존(400)이 각 음향 출력 기기의 위치를 꼭지점으로 하는 다각형의 형태로 형성되므로, 사운드 청취 존(400) 내에 사용자가 있는 경우 사용자, 즉 피사체(410)가 상기 기준 기기에 가장 가까울 수 있기 때문이다. In this case, the radar signal reflected by the subject 410 and received again by the reference device may be the strongest radar signal among the radar signals received by the reference device within a preset angle of arrival range, and may be the radar signal received first. You can. This is because, as shown in FIG. 4, the sound listening zone 400 is formed in the form of a polygon with the position of each sound output device as a vertex. Therefore, if there is a user in the sound listening zone 400, the user, that is, the subject 410 ) may be closest to the reference device.

따라서 마스터 기기(100)는, 기 설정된 도래각 범위 내에서 상기 기준 기기가 수신한 레이더 신호들 중, 가장 강한 세기를 가지며 가장 먼저 수신된 레이더 신호의 수신 시각을 검출할 수 있다. Accordingly, the master device 100 can detect the reception time of the radar signal that has the strongest strength and is received first among the radar signals received by the reference device within a preset angle of arrival range.

그리고 상기 기준 신호 귀환 시각이 검출되면, 마스터 기기(100)는 상기 기준 기기가 기준 신호를 방사한 시각과 상기 기준 신호 귀환 시각의 차이를 산출하여, 상기 기준 신호가 방사된 이후 피사체에 의해 반사되어 다시 귀환할 때까지의 신호 왕복 시간, 즉 귀환 시간을 산출할 수 있다. 그리고 산출된 귀환 시간의 절반에 해당하는 시간을, 상기 기준 신호가 상기 기준 기기로부터 상기 피사체에 도달할 때까지의 시간, 즉 피사체 도달 시간으로 산출할 수 있다(S502). And when the reference signal return time is detected, the master device 100 calculates the difference between the time when the reference device emits the reference signal and the reference signal return time, and the reference signal is reflected by the subject after being emitted. The round trip time of the signal until it returns again, that is, the return time, can be calculated. And the time corresponding to half of the calculated return time can be calculated as the time until the reference signal reaches the subject from the reference device, that is, the subject arrival time (S502).

도 6을 참조하여 살펴보면, 기준 기기는 제1 슬레이브 기기(201)일 수 있다. 이 경우 상기 제1 슬레이브 기기(201)에서 방사된 레이더 신호는 사운드 청취 존(400)의 각 영역으로 방사될 수 있으며, 피사체(410) 또는 다른 음향 출력 기기에 반사되는 경우 다시 기준 기기 또는 다른 음향 출력 기기에 수신될 수 있다. Referring to FIG. 6 , the reference device may be the first slave device 201. In this case, the radar signal emitted from the first slave device 201 may be radiated to each area of the sound listening zone 400, and when reflected to the subject 410 or another sound output device, it may be transmitted back to the reference device or other sound output device. It can be received by an output device.

이를 살펴보면, 제1 슬레이브 기기(201)(기준 기기)에서 방사된 레이더 신호(기준 신호)(601)는 피사체(410)에 반사될 수 있으며, 상기 피사체(410)에 의해 반사된 레이더 신호(602)는 다시 제1 슬레이브 기기(201)에 수신될 수 있다. 이 경우 레이더 신호(601)가 방사된 후 피사체(410)에 의해 반사된 레이더 신호(602)가 수신되기까지의 시간이 레이더 신호가 피사체(410)까지 왕복하는 귀환 시간으로 검출될 수 있다. 그러면 마스터 기기(100)는 상기 귀환 시간의 절반에 해당하는 시간을, 상기 레이더 신호가 상기 피사체(410)까지 도달하는데 소요된 시간, 즉 피사체 도달 시간으로 산출할 수 있다. Looking at this, the radar signal (reference signal) 601 emitted from the first slave device 201 (reference device) may be reflected by the subject 410, and the radar signal 602 reflected by the subject 410 ) can be received again by the first slave device 201. In this case, the time from when the radar signal 601 is emitted until the radar signal 602 reflected by the subject 410 is received can be detected as the return time for the radar signal to travel back and forth to the subject 410. Then, the master device 100 can calculate the time corresponding to half of the return time as the time it takes for the radar signal to reach the subject 410, that is, the subject arrival time.

한편 마스터 기기(100)는 상기 기준 기기를 제외한 나머지 음향 출력 기기 중, 피사체(410)와의 거리를 산출할 어느 하나의 음향 출력 기기를 기 설정된 순서에 따라 선택할 수 있다(S504). 여기서 상기 기 설정된 순서에 따른 음향 출력 기기는 마스터 기기(100) 자신일 수도 있다. Meanwhile, the master device 100 may select one of the audio output devices to calculate the distance to the subject 410 among the remaining audio output devices excluding the reference device according to a preset order (S504). Here, the sound output device according to the preset order may be the master device 100 itself.

그러면 마스터 기기(100)는, 메모리(150)에 저장된 각 음향 출력 기기로부터 수집된 레이더 신호들의 수신 데이터들 중 상기 선택된 어느 하나의 음향 출력 기기로부터 수집된 레이더 신호들의 수신 데이터를 추출할 수 있다. Then, the master device 100 may extract the reception data of the radar signals collected from any one of the selected audio output devices among the reception data of the radar signals collected from each audio output device stored in the memory 150.

이 경우 도 6에서 보이고 있는 바와 같이, 기준 기기가 제1 슬레이브 기기(201)이고, 현재 선택된 음향 출력 기기가 제4 슬레이브 기기(204)임을 가정하면, 상기 추출된 레이더 신호들의 데이터는, 상기 제4 슬레이브 기기(204)에 직접 수신되는 레이더 신호(610), 피사체에 의해 반사되어 제4 슬레이브 기기(204)에 수신되는 레이더 신호(620), 그리고 제2 및 제3 슬레이브 기기(202, 203)에 각각 반사되어 제4 슬레이브 기기(204)에 수신되는 레이더 신호(630, 650), 마스터 기기(100)에 반사되어 제4 슬레이브 기기(204)에 수신되는 레이더 신호(640)의 수신 시각들 및 수신 각도, 그리고 신호 세기에 대한 정보를 포함할 수 있다. In this case, as shown in FIG. 6, assuming that the reference device is the first slave device 201 and the currently selected audio output device is the fourth slave device 204, the data of the extracted radar signals are the first slave device 201. 4 A radar signal 610 received directly by the slave device 204, a radar signal 620 reflected by the subject and received by the fourth slave device 204, and the second and third slave devices 202 and 203. The reception times of the radar signals 630 and 650 that are reflected and received by the fourth slave device 204, respectively, and the radar signal 640 that is reflected by the master device 100 and received by the fourth slave device 204, and It may include information about reception angle and signal strength.

그리고 마스터 기기(100)는 추출된 레이더 신호들의 수신 데이터로부터, 기 설정된 신호 크기 임계값 및 도래각 범위에 근거하여 적어도 하나의 유효 신호를 필터링할 수 있다(S506). 여기서 상기 유효 신호는 상기 기 설정된 임계값 이상의 크기를 가지는 신호일 수 있다. 또한 상기 기 설정된 도래각 범위 내에서 수신된 레이더 신호일 수 있다. 여기서 상기 기 설정된 신호 크기 임계값 및 상기 도래각 범위는 상기 도 3의 S302에서 형성된 사운드 청취 존의 크기 및 형상에 따라 결정될 수 있다.And the master device 100 may filter at least one valid signal from the received data of the extracted radar signals based on a preset signal size threshold and angle of arrival range (S506). Here, the valid signal may be a signal having a magnitude greater than or equal to the preset threshold. It may also be a radar signal received within the preset angle of arrival range. Here, the preset signal size threshold and the angle of arrival range may be determined according to the size and shape of the sound listening zone formed in S302 of FIG. 3.

또한 최적의 신호 크기 임계각 또는 도래각 범위를 결정하기 위해, 마스터 기기(100)는 다양한 환경에 따른 복수의 학습 데이터에 학습된 인공지능부(121)를 더 포함할 수 있다. 이 경우 상기 학습된 인공지능부(121)는 마스터 기기(100)를 기준으로 한 각 음향 출력 기기의 위치, 즉 각 음향 출력 기기와 마스터 기기(100) 사이의 거리들 및 마스터 기기(100)로부터 각 음향 출력 기기가 배치된 방향들에 근거하여 상기 사운드 청취 존의 크기 및 형상을 추정할 수 있고, 추정된 사운드 청취 존의 크기 및 형상에 근거하여 최적의 신호 크기 임계각 또는 도래각 범위를 결정할 수 있다. Additionally, in order to determine the optimal signal size critical angle or angle of arrival range, the master device 100 may further include an artificial intelligence unit 121 that is trained on a plurality of learning data according to various environments. In this case, the learned artificial intelligence unit 121 determines the location of each audio output device relative to the master device 100, that is, the distances between each audio output device and the master device 100, and the master device 100. The size and shape of the sound listening zone can be estimated based on the directions in which each sound output device is placed, and the optimal signal size critical angle or arrival angle range can be determined based on the estimated size and shape of the sound listening zone. there is.

한편 마스터 기기(100)는, 상기 필터링 결과, 상기 추출된 레이더 신호들의 수신 데이터로부터, 제1 신호 및 제2 신호를 검출할 수 있다(S508). 여기서 상기 제1 신호는 기 설정된 임계값 이상의 세기를 가지며, 기 설정된 도래각 범위 내에서 수신된 레이더 신호들 중, 현재 선택된 음향 출력 기기에 상기 기준 기기로부터 송출된 레이더 신호가 직접 수신된 신호(610)일 수 있다. 또한 상기 제2 신호는 상기 기준 기기로부터 송출된 레이더 신호가 피사체에 의해 반사된 이후 상기 현재 선택된 음향 출력 기기에 수신된 신호(620)일 수 있다. Meanwhile, the master device 100 may detect a first signal and a second signal from the received data of the extracted radar signals as a result of the filtering (S508). Here, the first signal has an intensity greater than a preset threshold, and among radar signals received within a preset angle of arrival range, the radar signal transmitted from the reference device is directly received by the currently selected audio output device (610) ) can be. Additionally, the second signal may be a signal 620 received by the currently selected audio output device after the radar signal transmitted from the reference device is reflected by the subject.

도 7은, 상기 도 5의 S506 단계에서, 기 설정된 도래각 범위 내에서 제4 슬레이브 기기(204)에 수신된 레이더 신호들 중 유효 신호들을 필터링하는 예를 도시한 예시도이다. FIG. 7 is an example diagram showing an example of filtering effective signals among radar signals received by the fourth slave device 204 within a preset angle of arrival range in step S506 of FIG. 5.

현재 선택된 음향 출력 기기, 즉 제4 슬레이브 기기(204)에 기 설정된 도래각 범위 내에서 수신된 레이더 신호들이 도 7에서 보이고 있는 바와같은 경우, 마스터 기기(100)는 먼저 상기 도 5의 S508 단계를 통해, 기 설정된 신호 세기 임계값(760) 이상의 세기를 가지는 신호들(710, 720)만을 추출할 수 있다. If the radar signals received within the angle of arrival range preset by the currently selected audio output device, that is, the fourth slave device 204, are as shown in FIG. 7, the master device 100 first performs step S508 of FIG. 5. Through this, only signals 710 and 720 having an intensity greater than a preset signal intensity threshold 760 can be extracted.

여기서 제2 슬레이브 기기(202), 마스터 기기(100) 및 제3 슬레이브 기기(203)에서 반사되어 제4 슬레이브 기기(204)에 수신된 레이더 신호들(630, 640, 650)은, 피사체(410)보다 제4 슬레이브 기기(204)로부터 먼 거리에 위치하므로, 상기 피사체(410)에 의해 반사된 제2 신호(620)보다 그 크기가 작을 수 있다. 즉, 상기 레이더 신호들(630, 640, 650)은 도 7에서 기 설정된 신호 임계값(760)보다 신호 세기가 약한 신호들(730, 740, 750)일 수 있으며, 해당 신호들은 상기 도 5의 S506 단계에서 필터링될 수 있다. Here, the radar signals 630, 640, and 650 reflected from the second slave device 202, the master device 100, and the third slave device 203 and received by the fourth slave device 204 are the subject 410. ), the size may be smaller than the second signal 620 reflected by the subject 410. That is, the radar signals 630, 640, and 650 may be signals 730, 740, and 750 whose signal strengths are weaker than the preset signal threshold 760 in FIG. 7, and the corresponding signals may be It may be filtered in step S506.

한편 상기 제1 신호(610)는, 반사 없이 기준 기기(201)에서 제4 슬레이브 기기(204)에 직접 수신된 신호로서, 기 설정된 도래각 범위 내에서 수신된 레이더 반사 신호들 중 그 세기가 가장 강한 신호일 수 있다. 그리고 상기 제2 신호(620)는 기준 신호가 상기 피사체(410)에 의해 반사되어 수신된 신호로서, 반사되어 수신된 레이더 신호들 중 세기가 가장 강한 신호일 수 있다. 이는 피사체(410)가 사운드 청취 존(400) 내에 위치하는 경우, 다른 음향 출력 기기보다 현재 선택된 음향 출력 기기(제4 슬레이브 기기(204))에 가장 가까운 곳에 위치하기 때문이다. Meanwhile, the first signal 610 is a signal received directly from the reference device 201 to the fourth slave device 204 without reflection, and its strength is the highest among radar reflection signals received within a preset angle of arrival range. This can be a strong signal. And the second signal 620 is a signal received by reflecting the reference signal by the subject 410, and may be the signal with the strongest intensity among the reflected and received radar signals. This is because, when the subject 410 is located within the sound listening zone 400, it is located closest to the currently selected sound output device (the fourth slave device 204) than to other sound output devices.

그러나 제2 신호(620)는 피사체(410)에 의해 반사된 신호이므로, 제1 신호(610)보다는 그 세기가 약한 신호일 수 있다. 따라서 마스터 기기(100)는 도 7과 같이 레이더 신호들이 수신된 경우, 가장 세기가 큰 신호(710)를 제1 신호(610)로 구분할 수 있다. 그리고 상기 가장 세기가 큰 신호(710)가 수신된 시각(711)을 상기 제1 신호(610) 수신 시각으로 검출할 수 있다. 또한 마스터 기기(100)는 두 번째로 세기가 큰 신호(720)를 제2 신호(620)로 구분할 수 있다. 그리고 상기 두 번째로 세기가 큰 신호(720)가 수신된 시각(721)을 상기 제2 신호(620) 수신 시각으로 검출할 수 있다.However, since the second signal 620 is a signal reflected by the subject 410, its intensity may be weaker than that of the first signal 610. Therefore, when radar signals are received as shown in FIG. 7, the master device 100 can distinguish the signal 710 with the greatest intensity as the first signal 610. And the time 711 at which the signal 710 with the highest intensity is received can be detected as the reception time of the first signal 610. Additionally, the master device 100 may distinguish the signal 720 with the second highest intensity as the second signal 620. And the time 721 at which the signal 720 with the second highest intensity was received can be detected as the reception time of the second signal 620.

이와 같이 도 5의 S508 단계의 검출 결과에 따라 제1 신호 수신 시각(711)과 제2 신호 수신 시각(721)이 검출되면, 마스터 기기(100)는 상기 제1 신호 수신 시각(711)과 제2 신호 수신 시각(721)에 근거하여 기준 기기에서 송출된 레이더 신호가 현재 선택된 음향 출력 기기, 즉 제4 슬레이브 기기(204)에 도달하는 반사파 도달 시간을 산출할 수 있다(S510).In this way, when the first signal reception time 711 and the second signal reception time 721 are detected according to the detection result of step S508 of FIG. 5, the master device 100 detects the first signal reception time 711 and the second signal reception time 711. 2 Based on the signal reception time 721, the reflected wave arrival time for the radar signal transmitted from the reference device to reach the currently selected audio output device, that is, the fourth slave device 204, can be calculated (S510).

일 예로 마스터 기기(100)는 기준 기기가 레이더 신호를 방사한 시각으로부터 제1 신호 수신 시각(711)에 이르는 시간에 근거하여 기준 기기에서 송출된 레이더 신호가 제4 슬레이브 기기(204)에 직접 도달하는데 소요되는 시간(제1 신호 수신 시간)을 산출할 수 있다. 그리고 상기 기준 기기가 레이더 신호를 방사한 시각으로부터 제2 신호 수신 시각(721)에 이르는 시간에 근거하여, 상기 기준 기기에서 송출된 레이더 신호가 피사체(410)에 반사되어 제4 슬레이브 기기(204)에 도달하는데 소요되는 시간(제2 신호 수신 시간)을 산출할 수 있다. 이 경우 제2 신호 수신 시간은, 레이더 신호가 피사체(410)를 경유하여 제4 슬레이브 기기(204)에 도달한 시간으로서, 상기 제1 신호 수신 시간보다 더 긴 시간일 수 있다. As an example, the master device 100 determines that the radar signal transmitted from the reference device directly reaches the fourth slave device 204 based on the time from the time the reference device emits the radar signal to the first signal reception time 711. The time required to do this (first signal reception time) can be calculated. And based on the time from the time the reference device emits the radar signal to the second signal reception time 721, the radar signal transmitted from the reference device is reflected to the subject 410 and is transmitted to the fourth slave device 204. The time required to reach (second signal reception time) can be calculated. In this case, the second signal reception time is the time when the radar signal reaches the fourth slave device 204 via the subject 410, and may be longer than the first signal reception time.

한편 마스터 기기(100)는 상기 제2 신호 수신 시간에서 상기 제1 신호 수신 시간을 차감할 수 있다. 이 경우 상기 레이더 신호가 직접 제4 슬레이브 기기(204)에 도달하는 시간보다, 상기 피사체(410)를 경유함에 따라 더 소요된 시간, 즉 반사파 도달 시간을 산출할 수 있다.Meanwhile, the master device 100 may subtract the first signal reception time from the second signal reception time. In this case, the time taken for the radar signal to pass through the subject 410 rather than the time it takes to directly reach the fourth slave device 204, that is, the reflected wave arrival time, can be calculated.

그러면 마스터 기기(100)는 상기 S510 단계에서 산출된 반사파 도달 시간으로부터 상기 기준 신호가 상기 피사체(410)에 도달할 때까지 소요된 시간, 즉 상기 S502 단계에서 산출된 피사체 도달 시간을 더 차감하여, 피사체(410)로부터 제4 슬레이브 기기(204)에 레이더 신호가 도달하기까지 소요된 시간을 산출할 수 있다. 그리고 산출된 시간과 광속(C)에 근거하여 상기 피사체(410)와 현재 선택된 음향 출력 기기(제4 슬레이브 기기(204)) 사이의 거리를 산출할 수 있다(S512). Then, the master device 100 further subtracts the time taken for the reference signal to reach the subject 410, that is, the subject arrival time calculated in step S502, from the reflected wave arrival time calculated in step S510, The time it takes for a radar signal to reach the fourth slave device 204 from the subject 410 can be calculated. And based on the calculated time and light speed (C), the distance between the subject 410 and the currently selected audio output device (fourth slave device 204) can be calculated (S512).

한편 상기 S514 단계에서, 현재 선택된 음향 출력 기기와 피사체(410) 사이의 거리가 산출되면, 마스터 기기(100)는 피사체(410)와의 거리가 산출되지 않은 음향 출력 기기가 있는지 여부를 체크할 수 있다(S514). 그리고 상기 S514 단계의 체크 결과, 피사체(410)와의 거리가 산출되지 않은 음향 출력 기기가 있는 경우라면, 마스터 기기(100)는 다음 순서에 따른 음향 출력 기기를 선택할 수 있다(S512). 여기서 상기 기 설정된 순서에 따른 음향 출력 기기는 마스터 기기(100) 자신일 수도 있다. Meanwhile, in step S514, when the distance between the currently selected audio output device and the subject 410 is calculated, the master device 100 can check whether there is an audio output device for which the distance to the subject 410 has not been calculated. (S514). And, as a result of the check in step S514, if there is an audio output device for which the distance to the subject 410 has not been calculated, the master device 100 can select the audio output device according to the following order (S512). Here, the sound output device according to the preset order may be the master device 100 itself.

반면 상기 S514 단계의 체크 결과, 모든 음향 출력 기기에 대하여 피사체(410)와의 거리가 산출된 경우라면, 마스터 기기(100)는 도 5의 동작 과정을 종료할 수 있다. 그러면 도 3의 S312 단계로 진행하여, 각 음향 출력 기기를 기준으로 피사체(410)가 위치한 방향을 검출할 수 있다. 이 경우 마스터 기기(100)는 피사체에 의해 반사되어 각 음향 출력 기기에 수신된 레이더 신호, 즉 제2 신호의 도래각에 근거하여 상기 각 음향 출력 기기를 기준으로 상기 피사체(410)가 위치한 방향을 판별할 수 있다. 그러면 마스터 기기(100)는 각 음향 출력 기기를 기준으로 피사체(410)까지의 거리와 방향을 검출할 수 있고, 검출된 거리 및 방향에 근거하여, 사운드 청취 존(400) 내에서 상기 피사체(410)의 위치를 검출할 수 있다.On the other hand, if, as a result of the check in step S514, the distance to the subject 410 is calculated for all audio output devices, the master device 100 can end the operation process of FIG. 5. Then, the process proceeds to step S312 of FIG. 3 and the direction in which the subject 410 is located can be detected based on each audio output device. In this case, the master device 100 determines the direction in which the subject 410 is located relative to each sound output device based on the angle of arrival of the radar signal reflected by the subject and received by each sound output device, that is, the second signal. It can be determined. Then, the master device 100 can detect the distance and direction to the subject 410 based on each sound output device, and based on the detected distance and direction, the subject 410 within the sound listening zone 400. ) can be detected.

한편 상술한 바와 같이 마스터 기기(100)는 사운드 청취 존(400) 내에서 피사체(410)의 위치를 검출하고, 검출된 피사체의 위치에 근거하여 스윗 스팟이 형성되도록, 자신을 포함하여 각 음향 출력 기기의 음향 출력을 제어할 수 있다. 이 경우 마스터 기기(100)는 기 설정된 시간 간격에 따라 기준 기기를 변경하면서, 또는 특정 기준 기기에서 송출되는 레이더 신호에 따른 피사체의 위치 검출을 반복하면서 상기 사운드 청취 존(400) 내에서의 피사체 위치를 실시간으로 검출할 수 있다. 그리고 마스터 기기(100)는 검출된 피사체의 위치에 따라 사운드 청취 존 내에서 스윗 스팟의 위치나 형태 또는 크기가 변경되도록 자신을 포함한 모든 음향 출력 기기에서 출력되는 음향을 제어할 수 있다. 이 경우 마스터 기기(100)는 각 음향 출력 기기(자신 포함)에서 출력되는 음향 신호의 볼륨, 즉 강약이나 음장 및 위상 중 적어도 하나를 변경하여 상기 스윗 스팟이 형성되는 위치나 형태 또는 크기를 변경할 수 있다. Meanwhile, as described above, the master device 100 detects the position of the subject 410 within the sound listening zone 400 and outputs each sound, including its own, so that a sweet spot is formed based on the position of the detected subject. You can control the sound output of the device. In this case, the master device 100 determines the location of the subject within the sound listening zone 400 while changing the reference device at preset time intervals or repeating detection of the location of the subject according to the radar signal transmitted from a specific reference device. can be detected in real time. In addition, the master device 100 can control sounds output from all sound output devices, including itself, so that the position, shape, or size of the sweet spot within the sound listening zone changes depending on the location of the detected subject. In this case, the master device 100 can change the position, shape, or size where the sweet spot is formed by changing the volume of the sound signal output from each sound output device (including itself), that is, at least one of the strength, sound field, and phase. there is.

도 8a 및 도 8b는 본 발명의 실시 예에 따른 사운드 시스템에서, 검출된 피사체의 위치에 따라 스윗 스팟의 위치와 크기 및 형상이 변경되는 예를 도시한 예시도들이다. FIGS. 8A and 8B are illustrations showing an example in which the position, size, and shape of the sweet spot change depending on the position of the detected subject in the sound system according to an embodiment of the present invention.

먼저 도 8a를 참조하여 살펴보면, 도 8a는 피사체(410), 즉 사운드 청취 존 내에 위치한 사용자가, 사운드 청취 존 우측에 위치한 예를 보이고 있는 것이다. 이 경우 마스터 기기(100)는 도 3 및 도 5에서 설명한 바와 같이, 자신 또는 어느 하나의 슬레이브 기기에서 레이더 신호가 방사되도록 제어하고, 피사체(410)에 의해 반사된 레이더 신호(제2 신호) 또는 반사 없이 직접 수신된 레이더 신호(제1 신호)에 근거하여 자신 또는 어느 하나의 슬레이브 기기를 기준으로 상기 피사체(410)까지의 거리 및 방향을 검출할 수 있다. First, referring to FIG. 8A, FIG. 8A shows an example where the subject 410, that is, a user located within the sound listening zone, is located on the right side of the sound listening zone. In this case, as described in FIGS. 3 and 5, the master device 100 controls the radar signal to be emitted from itself or one of the slave devices, and uses the radar signal (second signal) reflected by the subject 410 or Based on a radar signal (first signal) received directly without reflection, the distance and direction to the subject 410 can be detected based on the device itself or one of the slave devices.

또한 이러한 과정을 반복하여 모든 음향 출력 기기 각각을 기준으로 상기 피사체(410)까지의 거리 및 방향을 검출할 수 있다. 그리고 상기 각 음향 출력 기기 각각을 기준으로 산출된 피사체(410)까지의 거리들 및 방향들에 근거하여 피사체(410)의 위치가 산출되면, 산출된 피사체(410)의 위치를 중심으로 하는 스윗 스팟(800)이 형성되도록 자신을 포함한 모든 음향 출력 기기 각각의 음향 출력을 제어할 수 있다. Additionally, by repeating this process, the distance and direction to the subject 410 can be detected based on each sound output device. And when the position of the subject 410 is calculated based on the distances and directions to the subject 410 calculated based on each of the audio output devices, a sweet spot is created centered on the calculated position of the subject 410. It is possible to control the sound output of each sound output device including the self so that 800 is formed.

도 8a에서 보이고 있는 바와 같이, 피사체(410)의 위치가 사운드 청취 존의 우측인 경우, 피사체(410)에 인접한 제3 슬레이브 기기(203)는 다른 음향 출력 기기들에 비해 상대적으로 볼륨이 낮아지도록 제어될 수 있으며 음장이 짧아지도록 제어될 수 있다. 반면 피사체(410)로부터 멀리 떨어진 제1 슬레이브 기기(201)와 제2 슬레이브 기기(202)는 다른 음향 출력 기기들에 비해 상대적으로 볼륨이 높아지도록 제어될 수 있으며 음장이 길어지도록 제어될 수 있다. 또한 각 음향 출력 기기는 검출된 피사체(410)의 위치를 지향하도록 음향 신호의 위상이 제어될 수 있다. As shown in FIG. 8A, when the location of the subject 410 is on the right side of the sound listening zone, the third slave device 203 adjacent to the subject 410 adjusts the volume to be relatively low compared to other sound output devices. It can be controlled and the sound field can be controlled to be shortened. On the other hand, the first slave device 201 and the second slave device 202 that are far away from the subject 410 can be controlled to have a relatively high volume and a long sound field compared to other sound output devices. Additionally, the phase of the sound signal of each sound output device may be controlled to aim at the location of the detected subject 410.

한편 사용자는 위치를 이동할 수 있다. 이 경우 도 8b에서 보이고 있는 바와 같이, 사용자가 사운드 청취 존의 좌측으로 이동하면, 마스터 기기(100)는 기 설정된 시간 간격에 따라 변경된 기준 기기를 이용한 피사체의 위치 검출 과정, 특정 기준 기기에서 다시 송출된 레이더 신호에 따른 피사체의 위치 검출 과정에서 상기 변경된 피사체(410)의 위치를 검출할 수 있다. Meanwhile, the user can move the location. In this case, as shown in FIG. 8B, when the user moves to the left of the sound listening zone, the master device 100 detects the location of the subject using a reference device changed according to a preset time interval and transmits it again from a specific reference device. In the process of detecting the position of the subject according to the changed radar signal, the location of the changed subject 410 can be detected.

그러면 마스터 기기(100)는 변경된 피사체(410)의 위치에 따라 스윗 스팟(800)의 위치, 크기 및 형상이 변경되도록 각 음향 출력 기기(자신 포함)에서 출력되는 음향 신호를 제어할 수 있다. 이 경우 이동한 피사체(410)의 위치에 따라 피사체(410)와 가까워진 제1 슬레이브 기기(201)와 제2 슬레이브 기기(202)는 볼륨이 낮아지도록 제어될 수 있으며 음장이 짧아지도록 제어될 수 있다. 반면 피사체(410)와의 거리가 멀어진 제3 슬레이브 기기(203) 및 제4 슬레이브 기기(204)는 볼륨이 높아지도록 제어될 수 있으며 음장이 길어지도록 제어될 수 있다. 또한 각 음향 출력 기기는 변경된 피사체(410)의 위치를 지향하도록 음향 신호의 위상이 제어될 수 있다.Then, the master device 100 can control the sound signal output from each sound output device (including itself) so that the position, size, and shape of the sweet spot 800 are changed according to the changed position of the subject 410. In this case, depending on the location of the moving subject 410, the first slave device 201 and the second slave device 202 that are close to the subject 410 can be controlled to lower the volume and the sound field can be controlled to shorten. . On the other hand, the third slave device 203 and the fourth slave device 204 that are distant from the subject 410 can be controlled to increase the volume and to lengthen the sound field. Additionally, the phase of the sound signal of each sound output device may be controlled to aim at the changed location of the subject 410.

한편 상술한 설명에서는 각 음향 출력 기기가 사운드 청취 존 내에서 피사체의 위치를 검출하는 구성만을 설명하였으나, 상기 레이더 신호를 이용하여 각 음향 출력 기기 주변의 환경을 더 검출할 수도 있음은 물론이다. 예를 들어 본 발명의 사운드 시스템은, 각 음향 출력 기기에서 방사되는 레이더 신호들에 근거하여, 각 음향 출력 기기 주변의 벽 형상을 검출할 수도 있다. Meanwhile, in the above description, only the configuration in which each sound output device detects the position of the subject within the sound listening zone has been described. However, it goes without saying that the environment around each sound output device can be further detected using the radar signal. For example, the sound system of the present invention may detect the shape of the wall around each sound output device based on radar signals emitted from each sound output device.

도 9는 이처럼 본 발명의 실시 예에 따른 사운드 시스템에서, 음향 출력 기기에서 송출되는 레이더 신호에 의해 주변 벽의 형상이 검출되는 예를 도시한 예시도이다. 그리고 도 10은 본 발명의 실시 예에 따른 사운드 시스템에서, 음향 출력 기기에서 송출되는 레이더 신호에 의해 주변 벽의 형상이 검출되는 동작 과정을 도시한 흐름도이다. Figure 9 is an example diagram illustrating an example in which the shape of a surrounding wall is detected by a radar signal transmitted from a sound output device in a sound system according to an embodiment of the present invention. And Figure 10 is a flowchart showing an operation process in which the shape of a surrounding wall is detected by a radar signal transmitted from a sound output device in a sound system according to an embodiment of the present invention.

먼저 도 9를 참조하여 살펴보면, 도 9는 기준 기기가 제1 슬레이브 기기(201)인 경우에, 상기 제1 슬레이브 기기(201)에서 방사되는 레이더 신호가, 제1 슬레이브 기기(201) 주변의 벽 형상에 반사되는 예를 도시한 것이다. 이 경우 상기 제1 슬레이브 기기(201)에서 방사된 레이더 신호는, 제1 슬레이브 기기(201) 주변의 벽에 반사되어 제1 슬레이브 기기(201)에 다시 수신되거나, 또는 제1 슬레이브 기기(201)에 인접한 제2 슬레이브 기기(202)나 제4 슬레이브 기기(204)에 수신될 수 있다. 또는 상기 제1 슬레이브 기기(201)에서 방사된 레이더 신호는 인접한 제2 슬레이브 기기(202)나 제4 슬레이브 기기(204)에 직접 수신될 수도 있다.First, referring to FIG. 9, FIG. 9 shows that when the reference device is the first slave device 201, the radar signal emitted from the first slave device 201 is connected to the wall around the first slave device 201. This shows an example of reflection in a shape. In this case, the radar signal emitted from the first slave device 201 is reflected by the wall around the first slave device 201 and is received again by the first slave device 201, or the first slave device 201 It can be received by the second slave device 202 or the fourth slave device 204 adjacent to . Alternatively, the radar signal emitted from the first slave device 201 may be directly received by the adjacent second slave device 202 or fourth slave device 204.

한편 이처럼 기준 기기에 수신되거나 인접한 음향 출력 기기에 수신되는 레이더 신호들에 근거하여, 본 발명의 실시 예에 따른 사운드 시스템은 각 음향 출력 기기 주변에 형성된 벽의 형상을 검출할 수 있다. Meanwhile, based on radar signals received by the reference device or adjacent audio output devices, the sound system according to an embodiment of the present invention can detect the shape of the wall formed around each audio output device.

이를 위해 각 음향 출력 기기는 신호 교환을 통해 서로 간에 위치를 검출할 수 있다(S1000). 이 경우 상기 각 음향 출력 기기는 UWB 등 근거리 통신부에서 송출되는 무선 신호를 이용한 통신을 이용하여 서로 간에 이격된 거리 및 방향을 검출할 수 있다. 상기 S1000 단계는 상기 도 3의 S300 단계와 유사하게 각 음향 출력 기기가, 기 설정된 순서에 따라 다른 음향 출력 기기와 무선 통신을 연결하고, 무선 신호가 전달되는 시간 및 상기 무선 신호가 수신된 각도, 즉 도래각에 근거하여 상기 통신이 연결된 다른 음향 출력 기기의 위치를 검출하는 과정들을 반복하는 과정들을 포함할 수 있다. 그리고 이러한 과정을 통해 마스터 기기(100)는 모든 슬레이브 기기의 위치를 검출하고, 검출된 슬레이브 기기들의 각 위치와 자신, 즉 마스터 기기(100)의 위치에 근거하여 사운드 청취 존을 형성할 수 있다(S1002). To this end, each audio output device can detect each other's positions through signal exchange (S1000). In this case, each of the audio output devices can detect the distance and direction from each other using communication using wireless signals transmitted from a short-range communication unit such as UWB. In step S1000, similar to step S300 of FIG. 3, each audio output device connects wireless communication with other audio output devices according to a preset order, the time at which the wireless signal is transmitted and the angle at which the wireless signal is received, That is, it may include repeating the processes of detecting the position of another audio output device connected to the communication based on the angle of arrival. And through this process, the master device 100 can detect the positions of all slave devices and form a sound listening zone based on the positions of each detected slave device and itself, that is, the position of the master device 100 ( S1002).

이 경우 마스터 기기(100)는 자신 및 각 슬레이브 기기에, 현재 형성된 사운드 청취 존의 형상에 따른 도래각 범위를 설정할 수 있다. 이 경우 마스터 기기(100)는 각 음향 출력 기기에, 상기 사운드 청취 존에 대응하는 각도범위를 제외한 각도 범위를 벽 검출을 위한 도래각 범위로 설정할 수 있다.In this case, the master device 100 can set an angle of arrival range for itself and each slave device according to the shape of the currently formed sound listening zone. In this case, the master device 100 may set the angle range excluding the angle range corresponding to the sound listening zone as the angle of arrival range for wall detection in each sound output device.

즉, 제1 슬레이브 기기(201)의 경우, 인접한 제2 슬레이브 기기(202)가 배치된 방향과 제4 슬레이브 기기(204)가 배치된 방향의 사이각에 근거하여 사운드 청취 존에 대응하는 도래각 범위(제1 도래각 범위)를 설정할 수 있다. 그러면 마스터 기기(100)는 상기 사운드 청취 존에 대응하는 제1 도래각 범위를 제외한 나머지 각도 범위를 상기 벽 검출을 위한 도래각 범위(제2 도래각 범위)로 설정할 수 있다.That is, in the case of the first slave device 201, the angle of arrival corresponding to the sound listening zone is based on the angle between the direction in which the adjacent second slave device 202 is placed and the direction in which the fourth slave device 204 is placed. The range (first angle of arrival range) can be set. Then, the master device 100 can set the remaining angle range excluding the first angle of arrival range corresponding to the sound listening zone as the angle of arrival range (second angle of arrival range) for detecting the wall.

예를 들어 도 9에서 보이고 있는 바와 같이 사운드 청취 존(910)이 형성되고, 상기 제1 슬레이브 기기(201)가 상기 사운드 청취 존(910)의 중앙을 지향하는 경우라면, 상기 제1 슬레이브 기기(201)의 좌측 45도에서 우측 45도, 즉 45도에서 135도에 이르는 제1 도래각 범위가 상기 제1 슬레이브 기기(201)에 형성될 수 있다. 그러면 마스터 기기(100)는 상기 제1 도래각 범위를 제외한 나머지 각도 범위를 제2 도래각 범위로 설정할 수 있다. For example, as shown in FIG. 9, if a sound listening zone 910 is formed and the first slave device 201 is oriented toward the center of the sound listening zone 910, the first slave device ( 201), a first angle of arrival range from 45 degrees to the left to 45 degrees to the right, that is, from 45 degrees to 135 degrees, may be formed in the first slave device 201. Then, the master device 100 can set the remaining angle range excluding the first angle of arrival range as the second angle of arrival range.

따라서 각 음향 출력 기기들은, 레이더 신호가 수신되는 경우 수신된 레이더 신호가 제1 도래각 범위 내에서 수신되었는지 제2 도래각 범위 내에서 수신되었는지 여부에 따라 수신된 레이더 신호를 다르게 분류할 수 있다. 이 경우 제1 도래각 범위 내에서 수신된 레이더 신호들은 사운드 청취 존 내 피사체 검출을 위한 레이더 신호들로 분류될 수 있고, 제2 도래각 범위 내에서 수신된 레이더 신호들은 주변 벽 형상의 검출을 위한 레이더 신호들로 분류될 수 있다.Accordingly, when a radar signal is received, each sound output device may classify the received radar signal differently depending on whether the received radar signal is received within the first angle of arrival range or the second angle of arrival range. In this case, radar signals received within the first angle of arrival range can be classified as radar signals for detecting objects in the sound listening zone, and radar signals received within the second angle of arrival range can be classified as radar signals for detecting the shape of the surrounding wall. They can be classified as radar signals.

한편 상기 S1002 단계에서 사운드 청취 존이 형성되면 각 음향 출력 기기는 서로 간에 시각을 동기화할 수 있다(S1004). 이 경우 마스터 기기(100)를 기준으로 각 슬레이브 기기들의 시각이 동기화될 수 있다. 그러면 마스터 기기(100)는 상기 사운드 시스템을 구성하는 복수의 음향 출력 기기(자신 포함) 중 적어도 하나가 레이더 신호를 방사하도록 제어할 수 있다(S1006). Meanwhile, when the sound listening zone is formed in step S1002, each sound output device can synchronize the time with each other (S1004). In this case, the time of each slave device may be synchronized based on the master device 100. Then, the master device 100 can control at least one of the plurality of sound output devices (including itself) constituting the sound system to emit a radar signal (S1006).

한편 상기 S1006 단계에서 레이더 신호를 방사하는 기기는 기준 기기로 명명될 수 있다. 그리고 상기 S1006 단계에서 기준 기기로부터 레이더 신호가 방사되면, 방사된 레이더 신호는 도 9에서 보이고 있는 바와 같이 기준기기 주변의 벽에 반사될 수 있다. 그리고 반사된 레이더 신호가 기준 기기 또는 인접한 다른 음향 출력 기기들에 수신될 수 있다. 또한 상기 방사된 레이더 신호는 도 9에서 보이고 있는 바와 같이, 반사 없이 인접한 다른 음향 출력 기기들에 직접 수신될 수도 있다. Meanwhile, the device that emits a radar signal in step S1006 may be called a reference device. And when the radar signal is emitted from the reference device in step S1006, the emitted radar signal may be reflected on the wall around the reference device, as shown in FIG. 9. And the reflected radar signal can be received by the reference device or other adjacent audio output devices. Additionally, as shown in FIG. 9, the emitted radar signal may be directly received by other adjacent audio output devices without reflection.

그리고 상기 기준 기기 및 각 음향 출력 기기에서 수신된 레이더 신호들에 대한 데이터가 마스터 기기(100)에 수신될 수 있다. 이 경우 상기 레이더 신호들에 대한 데이터는 레이더 신호가 수신된 수신 시각, 도래각, 수신 세기등에 대한 정보를 포함할 수 있다. And data on radar signals received from the reference device and each audio output device may be received by the master device 100. In this case, the data about the radar signals may include information about the reception time, angle of arrival, and reception strength at which the radar signal was received.

그러면 마스터 기기(100)는 기준 기기가 수신한 레이더 신호들에 근거하여, 상기 기준 기기 주변의 벽과 상기 기준 기기 사이의 거리를 검출할 수 있다. 이 경우 기준 기기에서 레이더 신호가 방사된 시각과 벽에 반사된 레이더 신호(귀환 신호)가 기준 기기에 수신된 시각 사이의 시간, 즉 귀환 시간들에 근거하여 각 귀환 신호들에 대응하는 거리들을 산출할 수 있다. 이 경우 산출된 거리들은 상기 기준 기기로부터 기준 기기 주변의 벽 까지의 거리들일 수 있으며, 상기 거리들에 근거하여 상기 기준 기기 주변의 벽 형상이 검출될 수 있다(S1008). Then, the master device 100 can detect the distance between the reference device and a wall around the reference device, based on radar signals received by the reference device. In this case, the distances corresponding to each feedback signal are calculated based on the time between the time the radar signal is emitted from the reference device and the time the radar signal (return signal) reflected on the wall is received by the reference device, that is, return times. can do. In this case, the calculated distances may be the distances from the reference device to the wall around the reference device, and the shape of the wall around the reference device can be detected based on the distances (S1008).

한편 상기 S1008 단계에서 레이더 신호를 방사한 기준 기기 주변의 벽 형상이 검출되면, 마스터 기기는 상기 기준 기기로부터 일정 세기 이상의 레이더 신호를 수신한 음향 출력 기기를 검출할 수 있다(S1010). 이 경우, 음향 출력 기기가 상기 기준 기기에 가까울수록, 수신되는 레이더 신호의 세기가 강할 수 있다. 따라서 상기 S1010 단계에서는 기준 기기에 인접한 적어도 하나의 음향 출력 기기가 검출될 수 있다. 그러므로 도 9에서 보이고 있는 바와 같이, 제1 슬레이브 기기(201)가 기준 기기인 경우라면, 제1 슬레이브 기기(201)에 인접한 제2 슬레이브 기기(202) 또는 제4 슬레이브 기기(204)가 상기 S1010 단계에서 검출될 수 있다. Meanwhile, if the shape of a wall around the reference device that emits a radar signal is detected in step S1008, the master device can detect an audio output device that has received a radar signal of a certain intensity or more from the reference device (S1010). In this case, the closer the sound output device is to the reference device, the stronger the strength of the received radar signal may be. Therefore, in step S1010, at least one audio output device adjacent to the reference device may be detected. Therefore, as shown in FIG. 9, if the first slave device 201 is the reference device, the second slave device 202 or the fourth slave device 204 adjacent to the first slave device 201 is used in S1010. It can be detected at this stage.

상기 S1010 단계에서 적어도 하나의 음향 출력 기기가 검출되면, 마스터 기기(100)는 검출된 적어도 하나의 음향 출력 기기가 수신한 레이더 신호들 중, 기준 기기로부터 직접 수신된 레이더 신호(제1 신호)의 수신 시각을 검출할 수 있다. When at least one audio output device is detected in step S1010, the master device 100 selects the radar signal (first signal) received directly from the reference device among the radar signals received by the detected at least one audio output device. The reception time can be detected.

이 경우 반사 없이 기준 기기로부터 직접 수신되는 레이더 신호(제1 신호)는, 벽에 반사되어 수신되는 레이더 신호(제2 신호)보다 이동 거리가 짧으므로(직선거리), 상기 제2 신호보다 제1 신호가 먼저 다른 음향 출력 기기에 도달할 수 있다. 따라서 마스터 기기(100)는 상기 검출된 음향 출력 기기 각각에서, 가장 먼저 수신된 레이더 신호를 상기 제1 신호로 검출할 수 있으며, 상기 제1 신호가 수신된 시각을 검출할 수 있다. In this case, the radar signal (first signal) received directly from the reference device without reflection has a shorter moving distance (straight line distance) than the radar signal (second signal) received by reflecting off the wall, so the first signal is longer than the second signal. The signal may reach another audio output device first. Accordingly, the master device 100 can detect the radar signal received first as the first signal from each of the detected audio output devices, and can detect the time at which the first signal was received.

그리고 상기 기준 기기로부터 레이더 신호가 방사된 시각과 상기 제1 신호의 수신 시각의 차에 근거하여, 상기 검출된 각 음향 출력 기기까지 레이더 신호가 도달하는데 소요된 시간을 검출할 수 있다. 그리고 검출된 시간에 근거하여, 상기 검출된 적어도 하나의 음향 출력 기기와 상기 기준 기기 사이의 이격 거리들을 산출할 수 있다(S1012).And, based on the difference between the time when the radar signal is emitted from the reference device and the time when the first signal is received, the time taken for the radar signal to reach each detected sound output device can be detected. And based on the detected time, the separation distances between the at least one detected audio output device and the reference device can be calculated (S1012).

상기 S1012 단계에서, 적어도 하나의 음향 출력 기기와 상기 기준 기기 사이의 이격 거리들이 산출되면, 마스터 기기(100)는 검출된 음향 출력 기기 각각에 대해, 수신된 레이더 신호들 중 벽면에 반사된 이후에 수신된 신호(제2 신호)를 검출할 수 있다. In step S1012, when the separation distances between at least one audio output device and the reference device are calculated, the master device 100 selects the received radar signals after they are reflected on the wall for each detected audio output device. The received signal (second signal) can be detected.

이 경우, 상기 제2 신호는, 각 음향 출력 기기에 수신된 레이더 신호들 중 일정 세기 이상의 크기를 가지며, 상기 제1 신호 다음에 수신된 신호일 수 있다. 그러면 마스터 기기(100)는 상기 기준 기기에서 레이더 신호가 방사된 시각과 상기 제2 신호가 수신된 시각의 차이에 근거하여, 기준 기기에서 송출된 레이더 신호가 벽에 반사되어 각 음향 출력 기기에 수신될 때까지의 도달 소요 시간을 산출할 수 있다. In this case, the second signal may have a magnitude greater than a certain intensity among radar signals received by each audio output device and may be a signal received after the first signal. Then, based on the difference between the time when the radar signal was emitted from the reference device and the time when the second signal was received, the master device 100 causes the radar signal transmitted from the reference device to be reflected on the wall and received by each audio output device. The time it takes to reach it can be calculated.

그러면 마스터 기기(100)는, 각 음향 출력 기기 별로, 상기 산출된 기준 기기와의 이격 거리를 기준으로, 상기 제2 신호의 도달 소요 시간에 대응하는 거리에 대응하는 타원 그래프를 생성할 수 있다. 여기서 상기 타원 그래프는, 평면 상에서 서로 이격된 두 정점에서의 거리의 합이 일정한 점들의 자취를 나타내는 그래프일 수 있다. 이 경우 상기 두 정점은 각각 상기 S1010 단계에서 검출된 음향 출력 기기들 중 어느 하나와 상기 기준 기기일 수 있으며, 상기 두 정점 사이의 이격 거리는, 상기 어느 하나의 음향 출력 기기와 상기 기준 기기 사이의 이격 거리일 수 있다.Then, the master device 100 may generate, for each audio output device, an elliptical graph corresponding to the distance corresponding to the time required for the second signal to arrive, based on the calculated separation distance from the reference device. Here, the elliptical graph may be a graph representing traces of points where the sum of the distances from two vertices spaced apart from each other on a plane is constant. In this case, the two vertices may be one of the audio output devices detected in step S1010 and the reference device, and the separation distance between the two vertices is the distance between the one audio output device and the reference device. It could be the distance.

도 11은, 기준 기기가 제1 슬레이브 기기(201)인 경우에, 인접한 다른 음향 기기인 제4 슬레이브 기기(204) 사이의 벽 형상을 검출하기 위한 타원 그래프의 예를 도시한 예시도이다.FIG. 11 is an exemplary diagram illustrating an example of an elliptical graph for detecting the shape of a wall between a fourth slave device 204, which is another adjacent audio device, when the reference device is the first slave device 201.

도 11을 참조하여 살펴보면, 마스터 기기(100)는 기준 기기인 제1 슬레이브 기기(201)와, 상기 제1 슬레이브 기기(201)에 인접한 제4 슬레이브 기기(204)를 상기 S1010 단계에서 검출할 수 있다. 그리고 상기 S1012 단계에서 제4 슬레이브 기기(204)에 수신된 제1 신호의 수신 시각에 근거하여 상기 제1 슬레이브 기기(201)와 상기 제4 슬레이브 기기(204) 사이의 이격 거리(1110)를 산출할 수 있다. 그리고 산출된 이격 거리(1110)만큼 이격된 제1 슬레이브 기기(201)와 상기 제4 슬레이브 기기(204)를 기준으로, 제4 슬레이브 기기(204)에 수신된 제2 신호의 수신 시각에 따라 산출되는 거리에 따른 타원 그래프(1100)를 생성할 수 있다(S1014). Referring to FIG. 11, the master device 100 can detect the first slave device 201, which is a reference device, and the fourth slave device 204 adjacent to the first slave device 201 in step S1010. there is. And in step S1012, the separation distance 1110 between the first slave device 201 and the fourth slave device 204 is calculated based on the reception time of the first signal received by the fourth slave device 204. can do. And based on the first slave device 201 and the fourth slave device 204 spaced apart by the calculated separation distance 1110, it is calculated according to the reception time of the second signal received by the fourth slave device 204. An elliptical graph 1100 according to the distance can be generated (S1014).

이 경우 타원 그래프(1100)에서, P1(1101), P2(1102), P3(1103) 및 P5(1105)는 거리의 합이 모두 동일한 점들일 수 있다. 이 경우 마스터 기기(100)는 제1 슬레이브 기기(201)에 설정된 도래각 범위, 즉 사운드 청취 존 내에 대응하는 도래각 범위를 제외한 제2 도래각 범위에 근거하여 상기 타원 그래프(1100)의 일부를 필터링 할 수 있다. 따라서 제2 도래각 범위에서 수신된 레이더 신호들에 대응하는 P1(1101), P2(1102), 및 P3(1103)를 포함하는 타원 그래프(1100)의 일부가 벽 형상의 검출을 위해 추출될 수 있다. 즉, 사운드 청취 존 내의 영역에 해당하는 P5(1105)를 포함하는 타원 그래프 부분이 제외될 수 있다. 그리고 제2 도래각 범위에 해당하는 타원 그래프(1100)의 일부 형상을 따라 상기 제1 슬레이브 기기(201)와 상기 제4 슬레이브 기기(204) 사이의 벽 형상이 검출될 수 있다(S1016). In this case, in the elliptical graph 1100, P1 (1101), P2 (1102), P3 (1103), and P5 (1105) may all be points with the same sum of distances. In this case, the master device 100 creates a portion of the elliptical graph 1100 based on the second angle of arrival range set in the first slave device 201, that is, the second angle of arrival range excluding the angle of arrival range corresponding to the sound listening zone. You can filter. Therefore, a portion of the elliptic graph 1100 including P1 (1101), P2 (1102), and P3 (1103) corresponding to radar signals received in the second angle of arrival range can be extracted for detection of the wall shape. there is. That is, the portion of the elliptical graph including P5 (1105) corresponding to the area within the sound listening zone may be excluded. And the shape of the wall between the first slave device 201 and the fourth slave device 204 can be detected according to a partial shape of the elliptical graph 1100 corresponding to the second angle of arrival range (S1016).

한편 이처럼 타원 그래프를 이용한 벽 형상의 검출(S1014)은, 상기 S1010 단계에서 검출된 음향 출력 기기들 각각에 대하여 이루어질 수 있다. 그러면 마스터 기기(100)는 모든 음향 출력 기기 주변의 벽 형상이 검출되었는지 여부를 체크할 수 있다(S1018). 그리고 S1018 단계의 체크 결과, 모든 음향 출력 기기 주변의 벽 형상이 검출되는 경우, 각 음향 출력 기기들 주변의 벽 형상을 검출하는 도 10의 동작 과정을 종료할 수 있다. Meanwhile, detection of the wall shape using an elliptical graph (S1014) can be performed for each of the audio output devices detected in step S1010. Then, the master device 100 can check whether the shape of the walls around all sound output devices has been detected (S1018). And, as a result of the check in step S1018, if the shape of the wall around all sound output devices is detected, the operation process of FIG. 10 for detecting the shape of the wall around each sound output device can be ended.

반면, 상기 S1018 단계의 체크 결과, 모든 음향 출력 기기 주변의 벽 형상이 검출되지 않은 경우라면, 기 설정된 다음 순서에 따른 음향 출력 기기로 기준 기기를 변경 및, 변경된 기준 기기에서 레이더 신호가 방사되도록 제어할 수 있다(S1020). 그리고 상기 방사된 레이더 신호에 근거하여 상기 변경된 기준 기기 주변의 벽 형상을 검출하는 S1008 단계 내지, 변경된 기준 기기에 인접한 다른 음향 출력 기기들과 상기 기준 기기 사이의 벽 형상을 검출하는 S1016 단계에 이르는 과정을 다시 수행할 수 있다. On the other hand, if, as a result of the check in step S1018, the shape of the wall around all sound output devices is not detected, the reference device is changed to the sound output device according to the following preset order, and the radar signal is controlled to be emitted from the changed reference device. You can do it (S1020). And a process ranging from step S1008 of detecting the shape of a wall around the changed reference device based on the emitted radar signal to step S1016 of detecting the shape of a wall between the reference device and other sound output devices adjacent to the changed reference device. can be performed again.

한편 각 음향 출력 기기 주변의 벽 형상을 검출하는 도 10의 동작 과정은, 사운드 청취 존 내의 사용자 위치를 검출하는 도 3의 동작 과정과 동시에 진행될 수도 있음은 물론이다. 이 경우 상기 도 3에서 피사체(410) 위치를 검출하기 위한 레이더 신호를 방사하는 기준 기기는, 도 10에서 벽 형상의 검출을 위해 레이더 신호를 방사하는 기준 기기와 동일한 기준 기기일 수 있다. 뿐만 아니라, 상기 도 3에서 피사체(410) 위치를 검출하기 위해 방사되는 레이더 신호는 도 10에서 기준 기기 주변의 벽 형상 검출을 위해 방사되는 레이더 신호로도 사용될 수도 있음은 물론이다. Meanwhile, of course, the operation process of FIG. 10 for detecting the shape of the wall around each sound output device may be performed simultaneously with the operation process of FIG. 3 for detecting the user's location within the sound listening zone. In this case, the reference device that emits a radar signal for detecting the position of the subject 410 in FIG. 3 may be the same reference device as the reference device that emits a radar signal for detecting the wall shape in FIG. 10. In addition, of course, the radar signal emitted to detect the position of the subject 410 in FIG. 3 can also be used as a radar signal emitted to detect the shape of a wall around the reference device in FIG. 10.

이 경우 마스터 기기(100)는 각 음향 출력 기기에서 수신되는 레이더 신호들의 도래각에 근거하여, 수신된 레이더 신호가 피사체(410) 위치를 검출하기 위한 것인지(제1 도래각 범위 내 수신) 또는 벽 형상의 검출을 위한 것인지(제1 도래각 범위 외 수신, 즉, 제2 도래각 범위)를 구분할 수 있다.In this case, the master device 100 determines whether the received radar signal is for detecting the position of the subject 410 (received within the first angle of arrival range) or a wall based on the angle of arrival of the radar signals received from each audio output device. It is possible to distinguish whether it is for shape detection (reception outside the first angle of arrival range, that is, the second angle of arrival range).

한편 본 발명의 실시 예에 따른 사운드 시스템에서, 마스터 기기(100)는 자신 및 각 슬레이브 기기에 대하여 서로 다른 음향 채널을 설정할 수 있다. 이 경우 마스터 기기(100)는 자신의 위치를 중심으로 각 슬레이브 기기의 위치에 근거하여 서로 다른 음향 채널을 설정할 수 있다. Meanwhile, in the sound system according to an embodiment of the present invention, the master device 100 can set different sound channels for itself and each slave device. In this case, the master device 100 can set different sound channels based on its own location and the location of each slave device.

도 12a 및 도 12b는 본 발명의 실시 예에 따른 사운드 시스템에서, 마스터 기기의 위치를 기준으로 슬레이브 기기들에 채널들이 각각 설정되는과정 및 예를 도시한 흐름도 및 예시도이다. FIGS. 12A and 12B are flowcharts and examples showing a process and example of setting channels in slave devices based on the location of the master device in a sound system according to an embodiment of the present invention.

먼저 도 12a를 참조하여 살펴보면, 마스터 기기(100)는 슬레이브 기기들과의 무선 통신을 통해 각 슬레이브 기기들과의 이격 거리 및 각 슬레이브 기기가 위치한 방향을 검출할 수 있다. 그리고 검출된 이격 거리들 및 방향들에 근거하여 각 슬레이브 기기의 위치를 검출할 수 있다(S1200). 여기서 상기 S1200 단계는, 상기 도 3의 S300 단계 또는 도 10의 S1000 단계와 동일 또는 유사한 단계일 수 있다. First, referring to FIG. 12A, the master device 100 can detect the separation distance from each slave device and the direction in which each slave device is located through wireless communication with the slave devices. And the location of each slave device can be detected based on the detected separation distances and directions (S1200). Here, step S1200 may be the same or similar to step S300 of FIG. 3 or step S1000 of FIG. 10.

S1200 단계에서 각 슬레이브 기기의 위치가 검출되면, 마스터 기기(100)는 사운드 청취 존의 중심을 기준으로 각 슬레이브 기기의 위치들을 결정할 수 있다. 이 경우 마스터 기기(100)는 각 슬레이브 기기를, 사운드 청취 존의 중심을 기준으로 좌측에 있는지 우측에 있는지, 또는 사운드 청취 존의 전방에 있는지 후방에 있는지 여부를 검출할 수 있다(S1202). 이 경우 사운드 청취 존의 전방은 상기 사운드 청취 존의 중심이 상기 마스터 기기(100)를 지향하는 방향일 수 있다. When the location of each slave device is detected in step S1200, the master device 100 can determine the locations of each slave device based on the center of the sound listening zone. In this case, the master device 100 can detect whether each slave device is to the left or right of the center of the sound listening zone, or in front or behind the sound listening zone (S1202). In this case, the front of the sound listening zone may be in a direction where the center of the sound listening zone is oriented toward the master device 100.

따라서 도 12b의 좌측 도면과 같이 마스터 기기(100) 주변에 제1 슬레이브 기기(201) 내지 제4 슬레이브 기기(204)가 배치된 경우, 마스터 기기(100)는 상기 제1 슬레이브 기기(201) 및 제4 슬레이브 기기(204)가 사운드 청취 존 중심의 후방에 위치하는 것으로 결정할 수 있고, 상기 마스터 기기(100) 및 제2 슬레이브 기기(202)와 제3 슬레이브 기기(203)가, 상기 사운드 청취 존 중심의 전방에 위치하는 것으로 결정할 수 있다. 그리고 상기 제1 슬레이브 기기(201)와 제2 슬레이브 기기(202)가 사운드 청취 존 중심의 좌측에 위치하는 것으로 결정할 수 있고, 상기 제3 슬레이브 기기(203)와 제4 슬레이브 기기(204)가 사운드 청취 존 중심의 우측에 위치하는 것으로 결정할 수 있다.Therefore, when the first slave device 201 to the fourth slave device 204 are arranged around the master device 100 as shown in the left drawing of FIG. 12B, the master device 100 includes the first slave device 201 and It may be determined that the fourth slave device 204 is located behind the center of the sound listening zone, and the master device 100, the second slave device 202, and the third slave device 203 are located in the sound listening zone. It can be determined to be located in front of the center. In addition, it may be determined that the first slave device 201 and the second slave device 202 are located to the left of the center of the sound listening zone, and the third slave device 203 and the fourth slave device 204 are the sound listening zone. It can be determined to be located to the right of the center of the listening zone.

그러면 마스터 기기(100)는 상기 사운드 청취 존 중심을 기준으로 결정된 각 슬레이브 기기들의 위치에 근거하여 각각 서로 다른 음향 채널을 설정할 수 있다(S1204). 이 경우 마스터 기기(100)는 상기 S1202 단계에서 결정된 위치에 따라, 도 12b의 우측 도면에서 보이고 있는 바와 같이 각 음향 출력 기기의 음향 채널을 설정할 수 있다. Then, the master device 100 can set different sound channels based on the positions of each slave device determined based on the sound listening zone center (S1204). In this case, the master device 100 can set the sound channel of each sound output device according to the position determined in step S1202, as shown in the right drawing of FIG. 12B.

이 경우 도 12b의 우측 도면과 같이, 마스터 기기(100)는 자신에게 Forward 채널을 설정할 수 있다. 또한 사운드 청취 존 중심의 전방 좌측에 위치한 제2 슬레이브 기기(202)에는 Forward-Left 채널을, 사운드 청취 존 중심의 전방 우측에 위치한 제3 슬레이브 기기(203)에는 Forward-Right 채널을 설정할 수 있다. 그리고 사운드 청취 존 중심의 후방 좌측에 위치한 제1 슬레이브 기기(201)와 사운드 청취 존 중심의 후방 우측에 위치한 제4 슬레이브 기기(204)에는 각각 Rear-Left 채널과 Rear-Left 채널을 설정할 수 있다.In this case, as shown on the right side of FIG. 12B, the master device 100 can set a forward channel for itself. In addition, the Forward-Left channel can be set to the second slave device 202 located on the front left of the center of the sound listening zone, and the Forward-Right channel can be set to the third slave device 203 located on the front right of the center of the sound listening zone. Additionally, a Rear-Left channel and a Rear-Left channel can be set for the first slave device 201 located at the rear left side of the sound listening zone center and the fourth slave device 204 located at the rear right side of the sound listening zone center, respectively.

여기서 마스터 기기(100)는 다른 음향 출력 기기의 연결 여부를 더 확인할 수 있다. 일 예로 IOT 통신 결과로 새로운 음향 출력 기기가 더 연결되는 경우, 마스터 기기(100)는 새로운 음향 출력 기기를 더 포함하는 사운드 청취 존을 형성함과 동시에, 상기 새로운 음향 출력 기기의 위치에 근거하여새로운 음향 채널을 더 할당할 수도 있다.Here, the master device 100 can further check whether another audio output device is connected. As an example, when a new sound output device is connected as a result of IOT communication, the master device 100 forms a sound listening zone that further includes the new sound output device and at the same time creates a new sound output device based on the location of the new sound output device. Additional audio channels can also be assigned.

즉, 제5 슬레이브 기기가 제1 슬레이브 기기(201)와 제4 슬레이브 기기(204) 사이에 더 배치된 경우라면, 마스터 기기(100)는 상기 도 12a의 과정을 다시 수행하여, 새로 추가된 제5 슬레이브 기기에 대응하는 음향 채널을 더 설정할 수 있다. 이 경우 제5 슬레이브 기기는 사운드 청취 존 중심의 후방에 위치하므로, 마스터 기기(100)는 상기 제5 슬레이브 기기에 Rear 채널을 더 설정할 수 있다. That is, if the fifth slave device is further placed between the first slave device 201 and the fourth slave device 204, the master device 100 performs the process of FIG. 12A again and adds the newly added slave device 204. 5 You can further set the audio channel corresponding to the slave device. In this case, since the fifth slave device is located behind the center of the sound listening zone, the master device 100 can further set a rear channel to the fifth slave device.

한편 이처럼 새로운 음향 출력 기기가 더 추가되는 경우, 마스터 기기(100)는 새로운 음향 출력 기기를 포함하는 사운드 청취 존을 다시 생성할 수 있다. 이 경우 마스터 기기(100)는 도 3 및 도 10 중 적어도 하나에 근거하여 새로운 사운드 청취 존 내의 사용자 위치를 다시 검출하거나, 상기 새로 추가된 음향 출력 기기 주변의 벽 형상을 더 검출할 수 있다.Meanwhile, when more new sound output devices are added, the master device 100 can re-create a sound listening zone including the new sound output devices. In this case, the master device 100 may re-detect the user's location within the new sound listening zone based on at least one of FIGS. 3 and 10, or may further detect the shape of the wall around the newly added sound output device.

한편 본 발명의 실시 예에 따른 사운드 시스템은, 사운드 청취 존이 형성된 경우, 상기 사운되 청취 존이 활성화된 상태인지 여부에 따라, 사용자의 음악 감상을 방해하지 않도록 주변의 다른 기기들을 더 제어할 수도 있다. Meanwhile, when a sound listening zone is formed, the sound system according to an embodiment of the present invention may further control other nearby devices so as not to disturb the user's music enjoyment, depending on whether the sound listening zone is activated. there is.

도 13은 이처럼 본 발명의 실시 예에 따른 사운드 시스템에서, 사운드 청취존에 근거하여 주변의 다른 기기의 동작이 제어되는 예를 도시한 예시도이다. Figure 13 is an example diagram showing an example in which the operation of other nearby devices is controlled based on the sound listening zone in the sound system according to an embodiment of the present invention.

일 예로 마스터 기기(100)는, 자신 또는 사운드 청취 존을 형성하는 적어도 하나의 음향 출력 기기에서 음향 신호가 출력되는 상태인지 여부에 근거하여 상기 사운드 청취 존이 활성화된 상태인지 여부를 판별할 수 있다. 이 경우 상기 활성화된 사운드 청취 존은, 상기 사운드 청취 존을 형성하는 복수의 음향 출력 기기 중 적어도 하나에서 음향 신호가 출력되는 상태로서, 사용자가 상기 사운드 청취 존 내에서 음향 신호의 청취가 가능한 상태를 의미할 수 있다. As an example, the master device 100 may determine whether the sound listening zone is activated based on whether a sound signal is output from the master device 100 or from at least one sound output device forming the sound listening zone. . In this case, the activated sound listening zone is a state in which a sound signal is output from at least one of a plurality of sound output devices forming the sound listening zone, and a state in which the user can listen to the sound signal within the sound listening zone. It can mean.

이처럼 사운드 청취 존이 활성화된 상태인 경우, 마스터 기기(100)는 주변의 다른 기기들 중 소음을 유발할 수 있는 적어도 하나의 주변 기기를 검출할 수 있다. 예를 들어 상기 소음 유발 기기는, 에어컨이나 로봇 청소기와 같이, 구동시 일정 크기 이상의 소음을 발생시킬 수 있는 기기로서, 미리 지정되거나 또는 사용자에 의해 미리 설정된 기기일 수 있다. When the sound listening zone is activated in this way, the master device 100 can detect at least one peripheral device that may cause noise among other nearby devices. For example, the noise-generating device is a device that can generate noise above a certain level when operated, such as an air conditioner or robot vacuum cleaner, and may be a device that is specified in advance or preset by the user.

이 경우 도 13에서 보이고 있는 바와 같이, 사운드 청취 존이 활성화되면, 마스터 기기(100)는 주변의 소음 유발 기기(1300, 1310)에, 구동을 제한하는 제한 신호를 전송할 수 있다. 따라서 상기 제한 신호를 수신한 에어컨(1300)은 무음 모드로 동작 상태가 전환되거나 또는 구동이 정지될 수 있다. In this case, as shown in FIG. 13, when the sound listening zone is activated, the master device 100 may transmit a limit signal to limit operation to the surrounding noise-generating devices 1300 and 1310. Accordingly, the air conditioner 1300 that receives the limit signal may change its operating state to a silent mode or may stop operating.

한편 마스터 기기(100)는 상기 제한 신호를 수신한 로봇 청소기(1310)에 전송할 수 있다. 그러면 로봇 청소기(1310)는 구동을 정지하거나 또는 무음 모드로 동작 모드가 전환될 수 있다. Meanwhile, the master device 100 may transmit the limit signal to the robot cleaner 1310 that has received it. Then, the robot cleaner 1310 may stop driving or change its operation mode to a silent mode.

한편 상기 제한 신호는 상기 사운드 청취 존의 크기 및 위치에 대한 정보를 포함할 수 있다. 이 경우 상기 사운드 청취 존의 정보를 포함하는 제한 신호를 수신한 로봇 청소기(1310)는 상기 사운드 청취 존 영역으로의 진입이 제한될 수 있다. 즉, 마스터 기기(100)는 사운드 청취 존의 출입을 제한하는 제한 신호를 상기 로봇 청소기(1310)에 전송할 수 있으며, 이에 따라 상기 로봇 청소기(1310)의 사운드 청취 존 내 진입이 제한될 수 있다. Meanwhile, the limit signal may include information about the size and location of the sound listening zone. In this case, the robot cleaner 1310, which has received a restriction signal containing information on the sound listening zone, may be restricted from entering the sound listening zone area. That is, the master device 100 may transmit a restriction signal restricting entry into the sound listening zone to the robot cleaner 1310, and accordingly, entry of the robot cleaner 1310 into the sound listening zone may be restricted.

한편 상술한 설명에서는 음향 신호의 출력 여부에 따라 사운드 청취 존의 활성화 여부가 결정되는 구성만을 설명하였으나, 이와는 달리 피사체, 즉 사용자의 검출 여부에 따라 상기 활성화 여부가 결정될 수도 있음은 물론이다. 즉, 본 발명의 실시 예에 따른 마스터 기기(100)는 사운드 청취 존 내 사용자의 위치를 검출하고, 사용자가 검출되지 않은 경우 사운드 청취 존이 활성화되지 않은 것으로 판단할 수도 있다. Meanwhile, in the above description, only the configuration in which activation of the sound listening zone is determined depending on whether or not an audio signal is output is described. However, of course, otherwise, activation may be determined depending on whether the subject, that is, the user, is detected. That is, the master device 100 according to an embodiment of the present invention may detect the user's location within the sound listening zone and, if the user is not detected, determine that the sound listening zone is not activated.

이 경우 적어도 하나의 음향 출력 기기에서 음향이 출력되는 경우라고 할지라도 에어컨(1300)이 정상 동작 모드로 구동되거나, 또는 로봇 청소기(1310)가 사운드 청취 존 내로 진입하여 청소를 수행할 수 있다. 여기서 상기 사운드 청취 존 내에 다시 사용자가 검출되는 경우라면, 사운드 청취 존이 다시 활성화될 수 있으며, 이에 따라 에어컨(1300) 및 로봇 청소기(1310)의 동작이 다시 제한될 수 있다.In this case, even if sound is output from at least one sound output device, the air conditioner 1300 may be driven in a normal operation mode, or the robot vacuum cleaner 1310 may enter the sound listening zone and perform cleaning. Here, if the user is detected again in the sound listening zone, the sound listening zone may be activated again, and accordingly, the operations of the air conditioner 1300 and the robot vacuum cleaner 1310 may be restricted again.

한편 상술한 설명에서는 레이더 신호를 방사하는 기기가 상기 사운드 청취 존을 형성하는 음향 출력 기기 중 어느 하나의 기기로 설명하였으나, 이와는 달리 레이더 신호를 방사하는 방사 기기가 별도로 포함될 수도 있음은 물론이다. 그러면 상기 방사 기기에서 방사되는 레이더 신호에 근거하여, 본 발명의 실시 예에 따른 사운드 시스템을 형성하는 복수의 음향 출력 기기 각각의 위치가 검출될 수 있다. Meanwhile, in the above description, the device emitting a radar signal is described as one of the sound output devices forming the sound listening zone, but of course, a separate emitting device emitting a radar signal may be included. Then, based on the radar signal emitted from the radiation device, the location of each of the plurality of sound output devices forming the sound system according to an embodiment of the present invention can be detected.

이 경우 상기 방사 기기는 상기 사운드 청취 존 외부에 위치할 수도 있다. 그리고 상기 방사 기기에서 방사된 레이더 신호는 피사체에 의해 반사될 수 있으며 각 음향 출력 기기에 수신될 수 있다. 또한 상기 방사된 레이더 신호는 각 음향 출력 기기에 수신될 수 있다. 그리고 각 음향 출력 기기가 방사 기기로부터 직접 수신하거나 또는 피사체에 반사된 레이더 신호들을 수신한 데이터들은 마스터 기기(100)에 수집될 수 있다. In this case, the radiating device may be located outside the sound listening zone. In addition, the radar signal emitted from the radiating device may be reflected by the subject and received by each audio output device. Additionally, the emitted radar signal can be received by each audio output device. And data that each sound output device receives directly from the radiating device or receives radar signals reflected from the subject can be collected in the master device 100.

그러면 마스터 기기(100)는 수집된 데이터들로부터, 방사 기기에서 각 음향 출력 기기에 직접 수신된 제1 신호가 수신된 시각들을 검출할 수 있다. 그리고 피사체에 의해 반사되어 각 음향 출력 기기에 수신된 제2 신호가 수신된 시각들을 검출할 수 있다. 그리고 레이더 신호가 방사된 방사 시각으로부터 상기 제2 신호 수신 시각까지의 시간과, 상기 방사 시각으로부터 상기 제1 신호 수신 시각까지의 시간을 차감하여, 레이더 신호가 피사체를 경유함으로써 더 소요된 반사파 도달 시간을 각 음향 출력 기기에 대하여 산출할 수 있다. Then, the master device 100 can detect the times at which the first signal directly received from the radiating device to each audio output device is received from the collected data. Additionally, the times at which the second signal reflected by the subject and received by each audio output device can be detected. And the time from the radiation time when the radar signal was emitted to the second signal reception time and the time from the emission time to the first signal reception time were subtracted, so that the reflected wave arrival time taken by the radar signal passing through the subject was longer. can be calculated for each audio output device.

그리고 마스터 기기(100)는 각 음향 출력 기기에 대하여 산출된 반사파 도달 시간들에 근거하여 사운드 청취 존 내 피사체의 위치를 검출할 수 있다. 이 경우 마스터 기기(100)는 상기 반사파 도달 시간들 각각에 대응하는 거리들에 근거한 삼각 측량법 또는 상기 반사파 도달 시간들의 차이를 이용한 측위법(TDOA, Time Difference Of Arrival) 등을 이용할 수 있다.Additionally, the master device 100 can detect the location of the subject within the sound listening zone based on the reflected wave arrival times calculated for each sound output device. In this case, the master device 100 may use a triangulation method based on distances corresponding to each of the reflected wave arrival times or a positioning method (TDOA, Time Difference Of Arrival) using the difference in the reflected wave arrival times.

한편 상술한 설명에서는, 단지 사운드 청취 존 내에서 피사체를 검출하는 구성만을 언급하였으나, 마스터 기기(100)는 기 설정된 조건을 만족하는 경우에 한하여 상기 피사체를 검출할 수도 있음은 물론이다. Meanwhile, in the above description, only the configuration for detecting a subject within the sound listening zone is mentioned, but of course, the master device 100 can also detect the subject only if it satisfies preset conditions.

일 예로 상기 피사체는 일정 크기 이상의 크기를 가질 수 있다. 이 경우 피사체의 크기에 따라 레이더 신호가 반사되는 면적이 넓어지므로, 반사되는 레이더 신호의 크기가 기 설정된 임계값 이상의 크기를 가질 수 있다. 따라서 크기가 작은 강아지 등의 애완동물 등은 피사체로 검출되지 않을 수 있다. As an example, the subject may have a size greater than a certain size. In this case, since the area where the radar signal is reflected increases depending on the size of the subject, the size of the reflected radar signal may be greater than a preset threshold. Therefore, small pets such as dogs may not be detected as subjects.

또한 마스터 기기(100)는 적어도 하나의 센서를 이용하여 상기 피사체가 사람인지 아닌지 여부를 더 검출할 수도 있다. 일 예로 마스터 기기(100)는 적외선 센서를 이용하여 피사체의 온도를 검출하고, 검출된 온도가 기 설정된 온도 미만인 경우에는 피사체로 검출하지 않을 수도 있음은 물론이다. 즉 마스터 기기(100)는 '사람'을 피사체로 검출하기 위한 적어도 하나의 센서를 더 포함할 수 있으며, 상기 센서의 감지 결과에 근거하여 사운드 청취 존 내에서 상기 '피사체'를 검출할 수도 있다.Additionally, the master device 100 may further detect whether the subject is a person or not using at least one sensor. As an example, the master device 100 detects the temperature of the subject using an infrared sensor, and if the detected temperature is lower than a preset temperature, it may not detect the subject as a subject. That is, the master device 100 may further include at least one sensor for detecting a 'person' as a subject, and may detect the 'subject' within the sound listening zone based on the detection result of the sensor.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 마스터 기기(100)의 마스터 제어부(160)를 포함할 수도 있다. 따라서 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above-described present invention can be implemented as computer-readable code on a program-recorded medium. Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. It also includes those implemented in the form of carrier waves (e.g., transmission via the Internet). Additionally, the computer may include a master control unit 160 of the master device 100. Accordingly, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (20)

복수의 음향 출력 기기들에 의해 형성되는 사운드 시스템에 있어서,
상기 복수의 음향 출력 기기 중 제1 기기는 레이더 신호를 방사하고, 상기 복수의 음향 출력 기기 중 어느 하나는 상기 복수의 음향 출력 기기에 수신된 레이더 신호에 관련된 데이터들을 수집하며,
상기 어느 하나의 음향 출력 기기는,
상기 제1 기기로부터 직접 또는 피사체에 의해 반사되어 상기 복수의 음향 출력 기기에 수신된 레이더 신호들 및 상기 제1 기기에 다시 수신된 레이더 신호에 근거하여, 상기 복수의 음향 출력 기기 각각에 대한 상기 피사체와의 이격 거리와 방향들을 산출하며,
산출된 이격 거리와 방향들에 근거하여 상기 피사체의 위치를 검출하며, 상기 검출된 피사체의 위치에 근거하여 상기 복수의 음향 출력 기기 각각의 음향 신호 출력을 제어하는 것을 특징으로 하는 사운드 시스템.
In a sound system formed by a plurality of sound output devices,
A first device among the plurality of audio output devices emits a radar signal, and one of the plurality of audio output devices collects data related to the radar signal received by the plurality of audio output devices,
Any of the above audio output devices,
Based on radar signals received by the plurality of sound output devices directly from the first device or reflected by the subject and radar signals received back to the first device, the subject for each of the plurality of sound output devices Calculate the separation distance and directions,
A sound system characterized in that it detects the position of the subject based on the calculated separation distance and directions, and controls the sound signal output of each of the plurality of sound output devices based on the detected position of the subject.
제1항에 있어서,
상기 어느 하나의 음향 출력 기기는,
다른 음향 출력 기기들과의 무선 통신을 통해 상기 다른 음향 출력 기기들 각각의 위치를 검출하고, 검출된 각 음향 출력 기기의 위치들에 근거하여 사운드 청취 존을 형성하며,
상기 피사체는,
상기 형성된 사운드 청취 존 내에 위치하는 것을 특징으로 하는 사운드 시스템.
According to paragraph 1,
Any of the above audio output devices,
Detecting the location of each of the other audio output devices through wireless communication with other audio output devices, and forming a sound listening zone based on the positions of each detected audio output device,
The subject is,
A sound system, characterized in that located within the formed sound listening zone.
제2항에 있어서, 상기 수신된 레이더 신호에 관련된 데이터는,
특정 음향 출력 기기에 레이더 신호들이 수신된 시각, 수신된 레이더 신호들의 세기, 레이더 신호들이 수신된 도래각들의 정보를 포함하는 것을 특징으로 하는 사운드 시스템.
The method of claim 2, wherein data related to the received radar signal is:
A sound system comprising information on the time at which radar signals were received by a specific sound output device, the intensity of the received radar signals, and the angles of arrival at which the radar signals were received.
제3항에 있어서, 상기 어느 하나의 음향 출력 기기는,
상기 사운드 청취 존의 형상에 따라 상기 복수의 음향 출력 기기 각각에 기 설정된 제1 도래각 범위를 설정하고, 상기 복수의 음향 출력 기기 각각에 수신된 레이더 신호들 중 상기 제1 도래각 범위 내의 도래각을 가지는 레이더 신호들만을 추출하는 것을 특징으로 하는 사운드 시스템.
The method of claim 3, wherein any one of the audio output devices,
A preset first angle of arrival range is set for each of the plurality of sound output devices according to the shape of the sound listening zone, and an angle of arrival within the first angle of arrival range among the radar signals received by each of the plurality of sound output devices A sound system characterized in that it extracts only radar signals having .
제4항에 있어서, 상기 어느 하나의 음향 출력 기기는,
상기 복수의 음향 출력 기기 각각에 수신된 레이더 신호들 중 기 설정된 임계값 이상의 세기를 가지는 레이더 신호들만을 더 추출하고,
상기 레이더 신호들의 세기에 따라, 상기 더 추출된 레이더 신호들 중 상기 제1 기기로부터 직접 수신된 레이더 신호와 상기 피사체에 의해 반사되어 음향 출력 기기에 수신된 레이더 신호를 검출하는 것을 특징으로 하는 사운드 시스템.
The method of claim 4, wherein any one of the audio output devices,
Further extracting only radar signals having an intensity greater than a preset threshold among the radar signals received by each of the plurality of audio output devices,
A sound system that detects a radar signal received directly from the first device and a radar signal reflected by the subject and received by a sound output device among the further extracted radar signals, according to the intensity of the radar signals. .
제1항에 있어서, 상기 어느 하나의 음향 출력 기기는,
상기 레이더 신호의 방사 시각, 상기 레이더 신호가 상기 제1 기기에 수신된 귀환 시각에 근거하여 상기 레이더 신호가 상기 피사체에 도달할 때까지의 시간인 피사체 도달 시간을 산출하고,
상기 복수의 음향 출력 기기 각각에 대하여,
상기 제1 기기로부터 직접 수신된 레이더 신호인 제1 신호의 수신 시각과, 상기 피사체에 의해 반사되어 수신된 레이더 신호인 제2 신호의 수신 시각을 검출 및, 상기 방사 시각에 근거하여 상기 제1 신호의 수신 시간과 상기 제2 신호의 수신 시간을 산출하며,
상기 제1 신호 수신 시간과 상기 제2 신호 수신 시간에 근거하여 상기 레이더 신호가 피사체를 경유함에 따라 더 소요된 시간인 반사파 도달 시간을 산출하고,
상기 피사체 도달 시간과 상기 반사파 도달 시간의 시간차에 대응하는 거리와, 상기 제2 신호가 각 음향 출력 기기에 수신된 도래각(Angle Of Arrival)에 근거하여 상기 피사체의 위치를 검출하는 것을 특징으로 하는 사운드 시스템.
The method of claim 1, wherein any one of the audio output devices,
Calculate the subject arrival time, which is the time until the radar signal reaches the subject, based on the radiation time of the radar signal and the return time at which the radar signal is received by the first device,
For each of the plurality of audio output devices,
Detecting the reception time of the first signal, which is a radar signal directly received from the first device, and the reception time of the second signal, which is the radar signal received after being reflected by the subject, and detecting the first signal based on the radiation time Calculate the reception time of and the reception time of the second signal,
Based on the first signal reception time and the second signal reception time, the reflected wave arrival time, which is the time taken longer as the radar signal passes through the subject, is calculated,
Characterized in detecting the position of the subject based on the distance corresponding to the time difference between the subject arrival time and the reflected wave arrival time and the angle of arrival at which the second signal is received by each audio output device. sound system.
제1항에 있어서, 상기 복수의 음향 출력 기기는,
서로 간에 시간 동기화가 이루어지며, 상기 레이더 신호의 방사 시각에 대한 정보가 공유되는 것을 특징으로 하는 사운드 시스템.
The method of claim 1, wherein the plurality of audio output devices:
A sound system in which time synchronization is achieved and information on the radiation time of the radar signal is shared.
제1항에 있어서, 상기 어느 하나의 음향 출력 기기는,
상기 검출된 피사체의 위치에 근거하여 상기 복수의 음향 출력 기기 각각에서 출력되는 음향 신호의 볼륨(volume), 음장 및 위상(phase) 중 적어도 하나를 제어하는 것을 특징으로 하는 사운드 시스템.
The method of claim 1, wherein any one of the audio output devices,
A sound system, characterized in that controlling at least one of the volume, sound field, and phase of the sound signal output from each of the plurality of sound output devices based on the detected position of the subject.
제4항에 있어서, 상기 어느 하나의 음향 출력 기기는,
상기 복수의 음향 출력 기기 각각에, 상기 사운드 청취 존 외부에 대응하는 제2 도래각 범위를 설정하고, 상기 복수의 음향 출력 기기 각각에 수신된 레이더 신호들 중 상기 제2 도래각 범위 내의 도래각을 가지는 레이더 신호들에 근거하여 상기 복수의 음향 출력 기기 각각의 주변에 형성된 벽의 형상을 검출하는 것을 특징으로 하는 사운드 시스템.
The method of claim 4, wherein any one of the audio output devices,
For each of the plurality of sound output devices, a second angle of arrival range corresponding to an outside of the sound listening zone is set, and an angle of arrival within the second angle of arrival range is set among the radar signals received from each of the plurality of sound output devices. A sound system characterized in that it detects the shape of a wall formed around each of the plurality of sound output devices based on radar signals.
제9항에 있어서, 상기 어느 하나의 음향 출력 기기는,
상기 레이더 신호의 방사 시각, 상기 제2 도래각 범위 내의 도래각을 가지는 레이더 신호가 상기 제1 기기에 수신된 귀환 시각에 근거하여 상기 제1 기기 주변의 벽 형상을 검출하고,
상기 복수의 음향 출력 기기 중 상기 제2 도래각 범위 내의 도래각을 가지며 기 설정된 세기 이상의 세기를 가지는 레이더 신호를 수신한 음향 출력 기기를 검출하며,
검출된 음향 출력 기기가 상기 제1 기기로부터 직접 수신된 레이더 신호인 제1 신호의 수신 시각과, 상기 방사 시각에 근거하여 상기 제1 신호의 수신 시간을 산출하고,
상기 제2 도래각 범위 내의 도래각을 가지는 레이더 신호들 중 주변의 벽에 반사되어 수신된 레이더 신호인 제2 신호의 수신 시각과 상기 방사 시각에 근거하여 상기 제2 신호의 수신 시간을 산출하며,
산출된 제1 신호의 수신 시간에 대응하는 거리와, 상기 제2 신호의 수신 시간에 대응하는 거리에 근거하여 타원 그래프를 산출 및 산출된 타원 그래프에 근거하여 상기 검출된 음향 출력 기기와 상기 제1 기기 사이의 벽 형상을 검출하는 것을 특징으로 하는 사운드 시스템.
The method of claim 9, wherein any one of the audio output devices,
Detecting the shape of a wall around the first device based on the radiation time of the radar signal and the return time of the radar signal having an angle of arrival within the second angle of arrival range received by the first device,
Detecting an audio output device among the plurality of audio output devices that has received a radar signal having an angle of arrival within the second angle of arrival range and an intensity greater than a preset intensity,
The detected sound output device calculates the reception time of the first signal based on the reception time of the first signal, which is a radar signal directly received from the first device, and the emission time,
Calculate the reception time of the second signal based on the reception time and the radiation time of the second signal, which is a radar signal received after being reflected from a surrounding wall, among radar signals having an angle of arrival within the second angle of arrival range,
An elliptic graph is calculated based on the distance corresponding to the calculated reception time of the first signal and the distance corresponding to the reception time of the second signal, and based on the calculated elliptic graph, the detected audio output device and the first A sound system characterized by detecting the shape of the wall between devices.
제1항에 있어서,
상기 복수의 음향 출력 기기는,
적어도 하나의 마스터 기기와 적어도 하나의 슬레이브 기기로 형성되며,
상기 어느 하나의 음향 출력 기기는,
상기 마스터 기기임을 특징으로 하는 사운드 시스템.
According to paragraph 1,
The plurality of audio output devices,
It is formed by at least one master device and at least one slave device,
Any of the above audio output devices,
A sound system characterized by the master device.
제11항에 있어서, 상기 마스터 기기는,
상기 기 설정된 시간이 경과되면, 상기 제1 기기를 다른 음향 출력 기기로 변경하고, 상기 피사체의 위치를 다시 검출하는 것을 특징으로 하는 사운드 시스템.
The method of claim 11, wherein the master device:
A sound system characterized in that, when the preset time elapses, the first device is changed to another sound output device and the position of the subject is detected again.
제12항에 있어서,
상기 마스터 기기는,
슬레이브 기기들과의 무선 통신을 통해 마스터 기기의 위치를 기준으로 각 슬레이브 기기의 위치를 검출하고, 검출된 마스터 기기와 슬레이브 기기들의 위치들에 근거하여 사운드 청취 존을 형성하며,
상기 기 설정된 시간 간격은,
상기 사운드 청취 존의 크기 및 형상에 근거하여 서로 달라지는 것을 특징으로 하는 사운드 시스템.
According to clause 12,
The master device is,
Through wireless communication with slave devices, the location of each slave device is detected based on the location of the master device, and a sound listening zone is formed based on the detected positions of the master device and slave devices.
The preset time interval is,
A sound system characterized in that the sound listening zone varies based on the size and shape of the sound listening zone.
제13항에 있어서,
상기 마스터 기기는,
상기 사운드 청취 존의 활성화 여부에 따라 상기 사운드 청취 존 주변의 다른 기기의 구동을 제한하며,
상기 사운드 청취 존의 활성화는,
상기 사운드 청취 존 내의 피사체 검출 여부에 따라 결정되는 것을 특징으로 하는 사운드 시스템.
According to clause 13,
The master device is,
Limiting the operation of other devices around the sound listening zone depending on whether the sound listening zone is activated,
Activation of the sound listening zone is,
A sound system characterized in that it is determined depending on whether a subject is detected in the sound listening zone.
제14항에 있어서,
상기 다른 기기는,
로봇 청소기이며,
상기 마스터 기기는,
상기 사운드 청취 존의 크기 및 형상에 대한 정보를 상기 로봇 청소기에 전송하여, 상기 사운드 청취 존에 상기 로봇 청소기가 진입하는 것을 제한하는 것을 특징으로 하는 사운드 시스템.
According to clause 14,
The other devices mentioned above are:
It is a robot vacuum cleaner,
The master device is,
A sound system characterized in that it transmits information about the size and shape of the sound listening zone to the robot cleaner, thereby restricting the robot cleaner from entering the sound listening zone.
복수의 음향 출력 기기들에 의해 형성되는 사운드 시스템의 제어 방법에 있어서,
상기 복수의 음향 출력 기기가 서로 간에 무선 통신을 수행하여, 서로의 위치를 검출 및 검출된 위치들에 근거하여 사운드 청취 존을 형성하는 제1 단계;
상기 복수의 음향 출력 기기 중 기 설정된 순서에 따른 제1 기기가 레이더 신호를 방사하는 제2 단계;
상기 복수의 음향 출력 기기 중 어느 하나의 음향 출력 기기가, 상기 제1 기기에서 레이더 신호가 방사된 방사 시각, 상기 레이더 신호가 상기 제1 기기에 수신된 귀환 시각에 근거하여 상기 레이더 신호가 사운드 청취 존 내에 위치한 피사체에 도달할 때까지의 시간인 피사체 도달 시간을 산출하는 제3 단계;
상기 어느 하나의 음향 출력 기기가, 상기 복수의 음향 출력 기기 중 적어도 하나에 대하여, 상기 제1 기기로부터 직접 수신된 레이더 신호인 제1 신호의 수신 시각과, 상기 피사체에 의해 반사되어 수신된 레이더 신호인 제2 신호의 수신 시각을 검출하는 제4 단계;
상기 어느 하나의 음향 출력 기기가, 상기 복수의 음향 출력 기기 중 적어도 하나에 대하여, 상기 검출된 제1 신호의 수신 시각과 상기 제2 신호의 수신 시각에 근거하여, 상기 레이더 신호가 상기 피사체를 경유함에 따라 더 소요된 시간인 반사파 도달 시간을 산출하는 제5 단계;
상기 어느 하나의 음향 출력 기기가, 상기 복수의 음향 출력 기기 중 적어도 하나에 대하여, 상기 피사체 도달 시간과 상기 반사파 도달 시간의 시간차에 대응하는 거리와 상기 제2 신호가 수신된 방향에 근거하여 상기 피사체의 위치를 검출하는 제6 단계; 및,
상기 어느 하나의 음향 출력 기기가, 상기 검출된 피사체의 위치에 따라 상기 복수의 음향 출력 기기 각각에서 출력되는 음향 신호의 볼륨, 음장 및 위상(phase) 중 적어도 하나를 제어하는 제7 단계를 포함하는 것을 특징으로 하는 사운드 시스템 제어 방법.
In a method of controlling a sound system formed by a plurality of sound output devices,
A first step in which the plurality of audio output devices perform wireless communication with each other to detect each other's positions and form a sound listening zone based on the detected positions;
A second step in which a first device among the plurality of audio output devices emits a radar signal according to a preset order;
Any one of the plurality of audio output devices listens to the radar signal based on the emission time at which the radar signal is emitted from the first device and the return time at which the radar signal is received by the first device. A third step of calculating the subject arrival time, which is the time required to reach the subject located in the zone;
The one audio output device may, for at least one of the plurality of audio output devices, receive a reception time of a first signal, which is a radar signal directly received from the first device, and a radar signal reflected and received by the subject. a fourth step of detecting the reception time of the second signal;
The one audio output device transmits the radar signal to the subject based on the reception time of the detected first signal and the reception time of the second signal for at least one of the plurality of audio output devices. A fifth step of calculating the reflected wave arrival time, which is the time taken more as time goes by;
The one sound output device, with respect to at least one of the plurality of sound output devices, detects the subject based on the distance corresponding to the time difference between the subject arrival time and the reflected wave arrival time and the direction in which the second signal was received. A sixth step of detecting the location of; and,
A seventh step in which the one audio output device controls at least one of the volume, sound field, and phase of the audio signal output from each of the plurality of audio output devices according to the detected position of the subject. A sound system control method characterized by:
제16항에 있어서, 상기 제4 단계는,
상기 어느 하나의 음향 출력 기기가, 상기 복수의 음향 출력 기기 중 적어도 하나에 대하여, 상기 사운드 청취 존의 형상에 따라 상기 복수의 음향 출력 기기 각각에 기 설정된 제1 도래각 범위를 설정하는 제4-1 단계;
상기 어느 하나의 음향 출력 기기가, 상기 복수의 음향 출력 기기 중 적어도 하나에 수신된 레이더 신호들 중 상기 제1 도래각 범위 내의 도래각을 가지는 레이더 신호들만을 추출하는 제4-2 단계;
상기 어느 하나의 음향 출력 기기가, 상기 복수의 음향 출력 기기 중 적어도 하나에 수신된 레이더 신호들 중 기 설정된 임계값 이상의 세기를 가지는 레이더 신호들만을 더 추출하는 제4-3 단계; 및,
상기 어느 하나의 음향 출력 기기가, 상기 복수의 음향 출력 기기 중 적어도 하나에 수신된 레이더 신호들 중, 상기 레이더 신호들의 세기에 근거하여 상기 제1 신호 및 제2 신호를 검출하는 제4-4 단계를 더 포함하는 것을 특징으로 하는 사운드 시스템.
The method of claim 16, wherein the fourth step is,
Fourth, wherein the one sound output device sets, for at least one of the plurality of sound output devices, a first angle of arrival range preset to each of the plurality of sound output devices according to the shape of the sound listening zone. Level 1;
A 4-2 step in which the one audio output device extracts only radar signals having an angle of arrival within the first angle of arrival range among the radar signals received by at least one of the plurality of audio output devices;
A 4-3 step in which the one audio output device further extracts only radar signals having an intensity greater than a preset threshold among the radar signals received by at least one of the plurality of audio output devices; and,
Step 4-4 in which the one audio output device detects the first signal and the second signal among the radar signals received by at least one of the plurality of audio output devices based on the strength of the radar signals. A sound system further comprising:
제16항에 있어서,
상기 어느 하나의 음향 출력 기기가, 기 설정된 시간이 경과되면 상기 기 설정된 순서에 따라 상기 제1 기기를 다른 음향 출력 기기로 변경하는 제8 단계; 및,
상기 어느 하나의 음향 출력 기기가, 상기 제2 단계 내지 상기 제7 단계를 다시 수행하여, 상기 변경된 제1 기기에서 방사된 레이더 신호에 따른 피사체의 위치를 다시 검출하고, 검출된 피사체 위치에 따라 상기 복수의 음향 출력 기기 각각에서 출력되는 음향 신호를 제어하는 제9 단계를 더 포함하며,
상기 기 설정된 시간은,
상기 사운드 청취 존의 크기 및 형상 중 적어도 하나에 따라 결정되는 것을 특징으로 하는 사운드 시스템 제어 방법.
According to clause 16,
An eighth step in which one of the audio output devices changes the first device to another audio output device according to the preset order when a preset time has elapsed; and,
The one of the audio output devices performs the second to seventh steps again to re-detect the location of the subject according to the radar signal emitted from the changed first device, and re-detects the location of the subject according to the detected location of the subject. It further includes a ninth step of controlling the sound signal output from each of the plurality of sound output devices,
The preset time is,
A sound system control method, characterized in that determined according to at least one of the size and shape of the sound listening zone.
제16항에 있어서, 상기 제6 단계는,
상기 어느 하나의 음향 출력 기기가, 상기 복수의 음향 출력 기기 각각에, 상기 사운드 청취 존 외부에 대응하는 제2 도래각 범위를 설정하는 제6-1 단계; 및,
상기 어느 하나의 음향 출력 기기가, 상기 복수의 음향 출력 기기 각각에 수신된 레이더 신호들 중 상기 제2 도래각 범위 내의 도래각을 가지는 레이더 신호들에 근거하여, 상기 복수의 음향 출력 기기 각각의 주변에 형성된 벽의 형상을 검출하는 제6-2 단계를 더 포함하는 것을 특징으로 하는 사운드 시스템의 제어 방법.
The method of claim 16, wherein the sixth step is,
Step 6-1, wherein the one audio output device sets a second angle of arrival range corresponding to an outside of the sound listening zone to each of the plurality of audio output devices; and,
The one audio output device surrounds each of the plurality of audio output devices, based on radar signals having an angle of arrival within the second angle of arrival range among the radar signals received by each of the plurality of audio output devices. A method of controlling a sound system further comprising a 6-2 step of detecting the shape of a wall formed in .
제19항에 있어서, 상기 제6-2 단계는,
상기 어느 하나의 음향 출력 기기가, 상기 레이더 신호의 방사 시각, 상기 제2 도래각 범위 내의 도래각을 가지는 레이더 신호가 상기 제1 기기에 수신된 귀환 시각에 근거하여 상기 제1 기기 주변의 벽 형상을 검출하는 a 단계;
상기 어느 하나의 음향 출력 기기가, 상기 복수의 음향 출력 기기 중 상기 제2 도래각 범위 내의 도래각을 가지며 기 설정된 세기 이상의 세기를 가지는 레이더 신호를 수신한 음향 출력 기기를 검출하는 b 단계;
상기 어느 하나의 음향 출력 기기가, 상기 검출된 음향 출력 기기가 상기 제1 기기로부터 직접 수신된 레이더 신호인 제1 신호의 수신 시각과, 상기 방사 시각에 근거하여 상기 제1 신호의 수신 시간을 산출하는 c 단계;
상기 어느 하나의 음향 출력 기기가, 상기 제2 도래각 범위 내의 도래각을 가지는 레이더 신호들 중 주변의 벽에 반사되어 수신된 레이더 신호인 제3 신호의 수신 시각과 상기 방사 시각에 근거하여 상기 제3 신호의 수신 시간을 산출하는 d 단계;
상기 어느 하나의 음향 출력 기기가, 산출된 제1 신호의 수신 시간에 대응하는 거리와, 상기 제3 신호의 수신 시간에 대응하는 거리에 근거하여 타원 그래프를 산출하는 e 단계; 및,
상기 어느 하나의 음향 출력 기기가, 상기 타원 그래프에 근거하여 상기 검출된 음향 출력 기기와 상기 제1 기기 사이의 벽 형상을 검출하는 f 단계를 더 포함하는 것을 특징으로 하는 사운드 시스템의 제어 방법.
The method of claim 19, wherein step 6-2,
The one audio output device determines the shape of a wall around the first device based on the radiation time of the radar signal and the return time at which the radar signal having an angle of arrival within the second angle of arrival range is received by the first device. a step of detecting;
Step b, wherein the one audio output device detects an audio output device among the plurality of audio output devices that has received a radar signal having an angle of arrival within the second angle of arrival range and an intensity greater than a preset intensity;
The one audio output device calculates the reception time of the first signal based on the reception time of the first signal, where the detected audio output device is a radar signal directly received from the first device, and the emission time. step c;
The one of the audio output devices, based on the reception time and the emission time of a third signal, which is a radar signal received by being reflected from a surrounding wall, among radar signals having an angle of arrival within the second angle of arrival range, 3 Step d to calculate the reception time of the signal;
Step e, wherein the one of the audio output devices calculates an elliptical graph based on the distance corresponding to the calculated reception time of the first signal and the distance corresponding to the calculated reception time of the third signal; and,
A method for controlling a sound system, further comprising a step f in which the one sound output device detects a wall shape between the detected sound output device and the first device based on the elliptic graph.
KR1020220066273A 2022-05-30 2022-05-30 A sound system and a method of controlling the sound system for sound optimization KR102649882B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220066273A KR102649882B1 (en) 2022-05-30 2022-05-30 A sound system and a method of controlling the sound system for sound optimization

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220066273A KR102649882B1 (en) 2022-05-30 2022-05-30 A sound system and a method of controlling the sound system for sound optimization

Publications (2)

Publication Number Publication Date
KR20230166372A true KR20230166372A (en) 2023-12-07
KR102649882B1 KR102649882B1 (en) 2024-03-22

Family

ID=89163411

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220066273A KR102649882B1 (en) 2022-05-30 2022-05-30 A sound system and a method of controlling the sound system for sound optimization

Country Status (1)

Country Link
KR (1) KR102649882B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004343569A (en) * 2003-05-16 2004-12-02 Casio Comput Co Ltd Transmitter, radio communication system, acoustic device, acoustic system, transmitting method, radio communication method, channel setting method and sound reproducing method
KR20140034817A (en) * 2011-05-09 2014-03-20 디티에스, 인코포레이티드 Room characterization and correction for multi-channel audio
KR20160098649A (en) * 2015-02-10 2016-08-19 주식회사 이머시스 Sweet spot setting device for speaker and method thereof
KR20170109145A (en) * 2016-03-17 2017-09-28 주식회사 더울림 Speaker sound distribution apparatus and method thereof
KR101814190B1 (en) * 2017-08-04 2018-01-02 이윤배 Virtual Sound System

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004343569A (en) * 2003-05-16 2004-12-02 Casio Comput Co Ltd Transmitter, radio communication system, acoustic device, acoustic system, transmitting method, radio communication method, channel setting method and sound reproducing method
KR20140034817A (en) * 2011-05-09 2014-03-20 디티에스, 인코포레이티드 Room characterization and correction for multi-channel audio
KR20160098649A (en) * 2015-02-10 2016-08-19 주식회사 이머시스 Sweet spot setting device for speaker and method thereof
KR20170109145A (en) * 2016-03-17 2017-09-28 주식회사 더울림 Speaker sound distribution apparatus and method thereof
KR101814190B1 (en) * 2017-08-04 2018-01-02 이윤배 Virtual Sound System

Also Published As

Publication number Publication date
KR102649882B1 (en) 2024-03-22

Similar Documents

Publication Publication Date Title
CN107003393B (en) Method and apparatus for performing ultrasonic presence detection
US11934200B2 (en) Plurality of robot cleaner and a controlling method for the same
JP6760960B2 (en) Methods and systems for at least detecting the position of an object in space
CN107613428B (en) Sound processing method and device and electronic equipment
US11740625B2 (en) Plurality of autonomous mobile robots and controlling method for the same
JP2019121364A (en) Mobile cleaning robot artificial intelligence for situational awareness
US11169539B2 (en) Plurality of autonomous mobile robots and controlling method for the same
US20220022719A1 (en) Plurality of autonomous mobile robots and controlling method for the same
JP6330200B2 (en) SOUND SOURCE POSITION ESTIMATION DEVICE, MOBILE BODY, AND MOBILE BODY CONTROL METHOD
KR20200145642A (en) Method for projecting image video and robot implementing thereof
CN103366756A (en) Sound signal reception method and device
Younes et al. Catch me if you hear me: Audio-visual navigation in complex unmapped environments with moving sounds
KR20120045929A (en) Apparatus and method for relocation of robot
KR102280803B1 (en) Robot and operating method thereof
KR20130108474A (en) Using out-band information to improve wireless communications
CN109219964A (en) A kind of transmitting voice signal system and method based on ultrasound
KR20160096915A (en) Multi-purpose device including mobile terminal and sensing device using radio-wave based sensor
CN112334946A (en) Data processing method, data processing device, radar, equipment and storage medium
KR102649882B1 (en) A sound system and a method of controlling the sound system for sound optimization
US11179844B2 (en) Robot and method for localizing robot
CN115210804A (en) System and method for active noise elimination in open site
KR102433859B1 (en) A device and method for tracking user based on infrared signal detection
EP3662296A1 (en) Detecting location within a network
CN114783435A (en) Equipment control method and device, sound box equipment and storage medium
US20210168547A1 (en) Sound source localization for robot

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant