WO2016126039A1 - 소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템 - Google Patents

소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템 Download PDF

Info

Publication number
WO2016126039A1
WO2016126039A1 PCT/KR2016/000840 KR2016000840W WO2016126039A1 WO 2016126039 A1 WO2016126039 A1 WO 2016126039A1 KR 2016000840 W KR2016000840 W KR 2016000840W WO 2016126039 A1 WO2016126039 A1 WO 2016126039A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
data
providing
terminal
server
Prior art date
Application number
PCT/KR2016/000840
Other languages
English (en)
French (fr)
Inventor
김수환
김세윤
김민재
Original Assignee
서울대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교 산학협력단 filed Critical 서울대학교 산학협력단
Priority to US15/548,885 priority Critical patent/US10575090B2/en
Publication of WO2016126039A1 publication Critical patent/WO2016126039A1/ko
Priority to US16/740,852 priority patent/US10820093B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/08Mouthpieces; Microphones; Attachments therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/326Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic

Definitions

  • the present invention relates to a sound collection terminal, a sound providing terminal, a sound data processing server, and a sound data processing system using the same.
  • Sound is a longitudinal wave consisting of a mill phase formed by the relative compression of air as a medium and a small phase in which the air is relatively expanded, and is converted into an electrical signal using a microphone.
  • the sound converted into an electrical signal is processed by an analog / digital signal and amplified using a power amplifier to a desired volume level, and then provided to the outside through a speaker.
  • the conventional sound data processing system has only a role of collecting sound with a microphone, processing the collected sound, and providing the sound to the outside.
  • the prior art focuses on transmitting and receiving sound data and restoring sound from the microphone, such as processing and transmitting the collected sound and restoring it. Therefore, according to the related art, implementations such as finding a location of a source generating a sound or erasing a sound generated by a source are limited from the collected sound data.
  • This embodiment can overcome the limitations of the prior art to collect the sound to determine the location of the source generating the sound, to generate an alarm when a specific event occurs, to remove the noise emitted in a specific direction Further, an object thereof is to provide a sound data processing system capable of performing a public address and a remote call, and a terminal and a server used therein.
  • the sound data processing system is a system including a plurality of sound collection terminals and a server, wherein each sound collection terminal of the plurality of sound collection terminals has sound directing means for collecting sound with a directing direction; Supplementary data including positional data corresponding to its own position and directing direction data corresponding to the directing direction of the sound collecting means, and sound data corresponding to the sound collected by the sound collecting means are included in the network. And a communication module for transmitting through the server, wherein the server receives sound data and supplementary data transmitted through a network by a plurality of sound collecting terminals, and collects sound collected by the sound collecting means based on the sound data and supplementary data. Identify the location of the emitting source.
  • the sound data processing server includes supplementary data including a plurality of position data corresponding to positions of the plurality of sound collecting means and a plurality of directing direction data corresponding to the directing directions of the plurality of sound collecting means.
  • a communication unit for receiving sound data corresponding to sounds collected by the plurality of sound collection means from the network, a storage device for storing supplementary data and sound data, and emitting sound collected based on the sound data and supplementary data. It includes an operation unit for determining the location of the source (source).
  • the sound providing terminal has a directing direction and provides sound for providing a target sound at a target position, the position data corresponding to the position detected by the position detecting means and the direction corresponding to the directing direction detected by the direction detecting means.
  • the server for transmitting or intermittently transmitting the sound data and the server for receiving supplementary data at the change of the directing direction are the same server.
  • the sound data processing server includes a plurality of orientation data corresponding to the orientation directions of the plurality of position data corresponding to the positions of the plurality of sound providing terminals providing the sound to the target area and the plurality of sound providing means.
  • a plurality of sound collecting terminals can easily grasp the sound data formed by collecting the sound, and the positions of the sources that generate the sound from the positions and directions of the plurality of sound collecting terminals. do.
  • a plurality of sound collection terminals form sound data formed by collecting sound, and form attenuated sound signals capable of erasing sound from positions and directing directions of the plurality of sound collection terminals, and provide the sound.
  • the advantage is provided to the means that the sound can be attenuated.
  • FIG. 5 is a diagram showing the flow of information when the sound data processing system according to the present embodiment is implemented as a sound source positioning system.
  • Fig. 11 is a schematic diagram schematically showing the implementation of the sound data processing system according to the present embodiment as a public address system or a remote call system.
  • FIG. 12 is a diagram illustrating the flow of information when the sound data processing system according to the present embodiment is implemented as a noise reduction system.
  • Fig. 13 is a schematic diagram showing the outline of the fourth embodiment.
  • the sound providing unit 120 receives sound data, forms a sound corresponding to the sound data, and provides the sound to the outside.
  • the sound collecting means may be implemented as a loudspeaker, and may be used regardless of the frequency of the output sound such as a woofer speaker and a tweeter speaker. It is sufficient that the sound providing means can provide sound regardless of the type of the speaker unit.
  • the terminal 100 includes a sensor unit 130.
  • the sensor unit includes a temperature sensor 131, a humidity sensor 132, a gyro sensor 133, a timer 134, a position detection device 135, an altitude sensor 136, an acceleration sensor 137, and a geomagnetic sensor. And a sensor such as 138.
  • the sensors shown in the drawings are merely for illustrative purposes and may further include other sensors such as an ultrasonic sensor and an infrared sensor according to the embodiment.
  • the terminal may not include any one or more of the sensors shown.
  • both the sound collecting means and the sound providing means may have directivity.
  • the sound collecting means 110 may change the sound collected according to the direction of the direction, and the sound providing means may also vary the size of the sound provided according to the direction of direction.
  • the direction detecting means 138 transmits the direction data corresponding to the direction in which the sound collecting means and / or the sound providing means directs to the server.
  • the terminal may measure the tilt of the terminal by using the acceleration sensor 137 or a gyroscope sensor 133, and the terminal may transmit tilt data corresponding to the tilt.
  • Speed can be obtained by integrating the acceleration
  • displacement can be obtained by integrating the speed again. Therefore, acceleration or angular acceleration can be detected using the acceleration sensor and gyro sensor. If you do, you can get velocity, angular velocity, or displacement.
  • the terminal 100 may transmit tilt data, acceleration data, and angular acceleration data corresponding to tilt, acceleration, and angular acceleration measured by the acceleration sensor and / or gyro sensor to a server through a network.
  • the direction detecting means included in the smart phone is a direction in which the receiver R is located in the longitudinal direction of the smart phone as shown in FIG. 3.
  • the x direction is detected in the direction of the terminal.
  • the direction of the sound collecting means 110 is in the x direction
  • the direction of the sound providing means 120 is in the -z direction.
  • FIG. 5 is a diagram showing the flow of information when the sound data processing system according to the present embodiment is implemented as a sound source positioning system.
  • the terminals are sound collection terminals including sound collection means.
  • the sound collecting terminals form supplementary data including position data and direction data (510), and transmit the supplementary data to the server (512).
  • the supplementary data may further include terminal identification data.
  • the supplementary data may be transmitted along with the sound data or provided by the terminal to the server in response to a request of the server.
  • the server 200 stores the transmitted supplemental data in a storage device (see reference numeral 230 of FIG. 4) (520).
  • the calculating unit corrects the collection volume in the directing direction by multiplying the magnitude of the sound calculated by the sound collecting terminal by a weighting function f ⁇ that differently applies the specific gravity according to the directing direction.
  • the weighting function f ⁇ may be a function of an angle ⁇ between the straight line connecting the source and the sound collecting terminal and the direction in which the sound collecting means is directed.
  • the source S is located at P i, j , and the size of the sound calculated by the collection of N sound collection terminals is Sim 1, (i, j ), Sim 2, (i, j ), Sim 3, (i , j) , ..., Sim N, (i, j ) , and the volume of sound collected by sound collection terminals is actually Col 1, (i, j ), Col 2, (i, j ), Col 3 Let's say, (i, j) , ..., Col N, (i, j) .
  • the calculation unit 220 calculates errors between the sound volume calculated by the sound collection terminals and the sound volume actually collected when the source is located at each grid point.
  • the calculator 220 calculates a root mean square (RMS) for each error and determines the position of the source as the position where the smallest value is obtained from the calculated result.
  • RMS root mean square
  • the calculation unit 220 analyzes the amplitude of sound data collected by the sound collection terminals 100x, 100y, and 100z, and forms an equal amplitude region having a constant amplitude for each sound collection terminal.
  • the calculating part forms the equal amplitude area in consideration of the directing direction of the sound collecting means when forming the equal amplitude area.
  • the formed equal amplitude areas are extended to overlap each other, an area where all the equal amplitude areas overlap is obtained, and the corresponding area may be determined as the position of the source S.
  • the calculator 220 may transmit information on the shock event including the location of the sound source to the terminals within a predetermined distance from the source location (552).
  • FIG. 8 is a schematic diagram schematically showing that the sound data processing system according to the present embodiment is implemented as a noise reduction system
  • FIG. 9 is a diagram illustrating information when the sound data processing system according to the present embodiment is implemented as a noise reduction system.
  • the terminals shown as 100A, 100B, and 100C are terminals including sound collecting means and sound providing means, and the directing direction of the sound collecting means and the directing direction of the sound providing means are expressed as the same for each terminal. .
  • the same or similar parts as the above-described embodiment may be omitted for the sake of brevity and clarity.
  • the terminals 100A, 100B, and 100C form 810 supplementary data including position data, sound collecting means, and directing direction data of the sound providing means, and transmits them to the server ( 812).
  • the supplementary data may be transmitted when the location of the terminal or the direction of direction of the sound collecting means and / or sound providing means included in the terminal changes, or may be transmitted intermittently, and may be provided at the request of the server.
  • the server 200 receives the supplementary data and stores it in a storage device (see reference numeral 230 in FIG. 4) (820).
  • the terminals 100A, 100B, and 100C collect target sounds, which are sounds to cancel, form corresponding sound data (814), and transmit sound data to a server (816).
  • the server 200 receives the sound data and stores it in the storage device (830).
  • the calculator (refer to reference numeral 220 of FIG. 4) determines the target position T, which is the position of the source emitting the sound, by using the sound data and / or supplemental data (840).
  • the distance between the terminal 100 and the target position T ( d) should be identified and the phase of the sound provided by the terminal should be adjusted according to the identified distance.
  • the operation unit obtains the amplitude, frequency, and phase of the sound from the sound data corresponding to the target sound stored in the storage device, and calculates a distance difference between the source providing the sound and the terminal providing the canceling sound signal (850).
  • the calculating unit forms a decaying sound signal for each terminal having a frequency obtained from sound data and having a phase ⁇ at which a destructive interference occurs at a target point.
  • the calculator calculates an amplitude of the attenuation sound to attenuate the target sound according to the distance between the sound providing terminal and the target position. If the sound providing terminal and the attenuation sound having an excessively large amplitude compared to the target position are formed, the target sound is attenuated, but the attenuation sound can be propagated. This is because the target sound cannot be attenuated by going crazy. Therefore, the calculator calculates an amplitude corresponding to the distance between the sound providing terminal and the target position.
  • the storage device may store the output of the sound providing means of the sound providing means and the change of the sound providing efficiency according to the position and direction change of the sound providing means for each terminal.
  • the providing output of the sound providing means means an output capable of providing sound, and is typically measured by the output of a power amplifier included in the sound providing means. Therefore, the louder the sound providing output, the larger the volume can be provided.
  • the sound providing efficiency is the volume ratio of the sound provided to the target position as the angle between the direct line connecting the target position and the sound providing means and the directing direction of the sound providing means changes in the relationship between the direction of the sound providing means and the target position. It may mean.
  • a target position to provide sound and a sound providing means are spaced apart by a unit distance, and the volume provided to the target position is reduced by -3db when the angle is 45 degrees, and the target position when the angle is 90 degrees.
  • the volume provided can be reduced by -6db.
  • the storage device may store information about a rate of decrease in volume with respect to such a change in angle, for each terminal.
  • the calculating unit calculates an amplitude and a phase capable of canceling the target sound in consideration of the output of the sound providing means and the directing direction of the sound providing means.
  • the calculating unit forms (860) and transmits the tone sound signal data corresponding to the tone sound signal having the amplitude, frequency, and phase calculated for each terminal, and transmits it to the terminals (862).
  • the terminal participating in the step 812 of collecting sound and transmitting sound data is a terminal including a sound collecting means, and the terminal 862 receiving the attenuation sound signal data includes a sound providing means. It is a terminal. In another embodiment, even if the terminal does not include the sound providing means may be provided with the audible sound signal data from the server.
  • the terminal 100 may form a soft sound signal corresponding to the soft sound signal data and provide the target sound to the target position to cancel the target sound. If the target sound is noise that is not desired by the user, the present embodiment may be utilized as a noise attenuation system to attenuate unwanted noise.
  • FIG. 11 is a schematic diagram schematically showing the implementation of the sound data processing system according to the present embodiment as a public address system or a remote call system
  • FIG. 12 illustrates a sound transmission system using the sound data processing system according to the present embodiment.
  • the figure shows the flow of information when the system is implemented.
  • the terminals shown as 100A, 100B and 100C are terminals including sound providing means, hereinafter referred to as sound providing terminals.
  • the terminal 100x is a terminal including sound collecting means, and is called a sound collecting terminal.
  • the same or similar parts as the above-described embodiment may be omitted for the sake of brevity and clarity.
  • the sound collecting terminal 100x and the sound providing terminals form supplementary data 1210 and 1211 and transmit supplementary data to the server periodically and intermittently through the network (1212 and 1213).
  • the supplementary data may be provided to the server through the network in response to the request of the server.
  • the supplementary data includes position data and direction data of the sound collecting means and / or sound providing means, and may include identification information of the terminal and the like as described above.
  • it may include a target location (T) to which the sound to be delivered by the sound providing terminal to be delivered as supplementary data formed by the terminal and delivered to the server.
  • the sound collecting terminal collects sound using the sound collecting means, and forms sound data corresponding to the collected sound (1230).
  • the sound collection terminal 100x transmits sound data formed through the network N to the server 200 (1232), and the server 200 stores the received sound data in the storage device (1240).
  • the server 200 determines the sound providing terminals at the target location to which the sound is to be provided based on the supplementary data (1250). For example, the server 200 may select terminals located within a predetermined distance from the target location T from the location information included in the supplementary information. As another example, the server may select a terminal pointing to the target location from the direction information included in the supplementary information.
  • the server 200 processes the stored sound data (1260) and transmits the processed sound data to the sound providing terminal (1262).
  • the above processing refers to all processes of receiving a signal such as amplification, attenuation, filter, compression, etc. and outputting the signal regardless of digital and analog signal processing.
  • signal processing in the case of a remote call system, only the area corresponding to the human voice is extracted from the sound data and the remaining area may be removed to reduce the bandwidth of the transmitted sound. You can save resources.
  • the sound data after the sound data is formed, it may be compressed and transmitted with a constant compression codec.
  • Fig. 13 is a schematic diagram schematically showing the implementation of the sound data processing system according to the present embodiment as a teleconferencing system.
  • This embodiment is an embodiment in which the first embodiment, the second embodiment, and the third embodiment are combined together, and in the following description of the present embodiment, a brief and clear description of the same or similar parts as the above-described embodiment will be given. The description may be omitted for the sake of brevity.
  • Noise in the conference room where speaker 1 U1 is located may be canceled by practicing the second embodiment of the present invention.
  • the terminals 100A, 100B, and 100C collecting the sound provided by the speaker 1 provide the corresponding sound data to the server.
  • the server may grasp the location of the speaker 1 as the sound source according to the first embodiment of the present invention.
  • the server transmits sound data corresponding to the sound collected by the speaker 1 (U1) to the speaker 2 through the network, and the speaker 2 (U2) responds to the conversation of the speaker 1 (U1).
  • the provided sound data is collected by the terminal 100x and transmitted to the target location T through the network.

Landscapes

  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

본 실시예에 따른 소리 데이터 처리 시스템은, 복수의 소리 수집 단말들, 복수의 소리 제공 단말들과 서버를 포함하는 시스템으로, 복수의 소리 수집 단말과 소리 제공 단말들 중 각각의 소리 수집 단말과 소리 제공 단말은 위치와 지향 방향을 가지고 소리를 수집하는 소리 수집 수단과 위치와 지향 방향을 가지고 소리를 제공하는 소리 제공 수단, 소리 수집 수단과 소리 제공 수단의 위치를 검출하는 위치 검출 수단과, 지향 방향을 검출하는 방향 검출 수단 및 위치 검출 수단이 검출한 위치에 대응하는 위치 데이터와 방향 검출 수단이 검출한 지향 방향에 대응하는 지향 방향 데이터를 포함하는 보충 데이터(supplementary data) 및 소리 수집 수단이 수집한 소리에 대응하는 소리 데이터(sound data)를 네트워크를 통하여 전송하는 통신 모듈을 포함한다.

Description

소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템
본 발명은 소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템에 관한 것이다.
소리는 매질인 공기의 상대적 압축으로 형성되는 밀 페이즈와 공기가 상대적으로 팽창한 소 페이즈로 이루어진 종파로, 마이크(microphone)를 이용하여 전기적 신호로 전환된다. 전기적 신호로 전환된 소리는 아날로그/디지털 신호 처리되고 목적하는 음량이 되도록 전력 증폭기를 이용하여 증폭된 후, 스피커를 통하여 외부로 제공된다. 종래의 소리 데이터 처리 시스템은 마이크로폰으로 소리를 수집하고, 수집한 소리를 처리하여 외부로 제공하는 등의 역할에 그쳤다.
종래 기술은 마이크로 수집한 소리를 처리하여 전송하고, 이를 복원하는 것과 같이 소리 데이터를 송수신하고, 그로부터 소리를 복원하는 것에 초점을 집중하였다. 따라서 종래 기술에 의하면 수집한 소리 데이터로부터 소리를 발생하는 소스(source)의 위치를 찾거나, 소스(source)가 발생하는 소리를 소거하는 등의 실시는 제한적이다.
본 실시예는 이러한 종래 기술의 한계를 극복하여 소리를 수집하여 소리를 발생하는 소스의 위치를 파악하고, 특정한 이벤트가 발생하면 경보를 발생시킬 수 있으며, 특정한 방향에서 방사되는 소음을 제거할 수 있고, 나아가 공적 확성(Public Address) 및 원격 통화를 수행할 수 있는 소리 데이터 처리 시스템 및 이에 사용되는 단말 및 서버를 제공하는데 그 목적이 있다.
본 실시예에 의한 소리 데이터 처리 시스템은 복수의 소리 수집 단말들과 서버를 포함하는 시스템으로, 복수의 소리 수집 단말들 중 각각의 소리 수집 단말은 지향 방향을 가지고 소리를 수집하는 소리 수집 수단과, 자신의 위치에 대응하는 위치 데이터와 소리 수집 수단의 지향 방향에 대응하는 지향 방향 데이터를 포함하는 보충 데이터(supplementary data) 및 소리 수집 수단이 수집한 소리에 대응하는 소리 데이터(sound data)를 네트워크를 통하여 전송하는 통신 모듈을 포함하며, 서버는 복수의 소리 수집 단말들이 네트워크를 통하여 전송된 소리 데이터들과 보충 데이터들을 수신하고, 소리 데이터들 및 보충 데이터들에 기반하여 소리 수집 수단이 수집한 소리를 방출하는 소스(source)의 위치를 파악한다.
본 실시예에 의한 소리 수집 단말은 지향 방향을 가지고 소리를 수집하는 소리 수집 수단과, 자신의 위치에 대응하는 위치 데이터와 지향 방향에 대응하는 지향 방향 데이터를 포함하는 보충 데이터(supplementary data) 및 소리 수집 수단이 수집한 소리에 대응하는 소리 데이터(sound data)를 네트워크를 통하여 전송하는 통신 모듈을 포함하며, 보충 데이터는 위치 또는 지향 방향의 변화시에 전송되거나, 간헐적으로 전송되며, 소리 데이터와 보충 데이터는 동일한 서버로 전송된다.
*본 실시예에 의한 소리 데이터 처리 서버는 복수의 소리 수집 수단들의 위치들에 대응하는 복수의 위치데이터들 및 복수의 소리 수집 수단들의 지향 방향들에 대응하는 복수의 지향방향 데이터들을 포함하는 보충 데이터들과 복수의 소리 수집 수단들이 수집한 소리에 대응하는 소리 데이터들을 네트워크로부터 수신하는 통신부와 보충 데이터들과 소리 데이터들이 저장되는 저장장치와 및 소리 데이터들 및 보충 데이터에 기반하여 수집한 소리를 방출하는 소스(source)의 위치를 파악하는 연산부를 포함한다.
본 실시예에 의한 소리 데이터 처리 시스템은 복수의 소리 제공 단말들과 서버를 포함하는 시스템으로, 복수의 소리 제공 단말들 중 각각의 소리 제공 단말은 지향 방향을 가지고 타겟 위치에 소리를 제공하는 소리 제공 수단과, 자신의 현재 위치에 대응하는 위치 데이터와 지향 방향에 대응하는 지향 방향 데이터를 포함하는 보충 데이터(supplementary data)를 네트워크를 통하여 전송하고, 네트워크로부터 소리 제공 수단이 제공하는 소리에 대응하는 소리 데이터(sound data)를 전송 받는 통신 모듈을 포함하며, 서버는 네트워크를 통하여 복수의 소리 제공 단말들이 전송한 보충 데이터들을 수신하고, 보충 데이터들에 기반하여 소리 제공 단말들이 타겟 위치에 소리를 제공하도록 네트워크를 통하여 소리 데이터들을 전송한다.
본 실시예에 따른 소리 제공 단말은 지향 방향을 가지고 타겟 위치에 소리를 제공하는 소리 제공 수단과, 위치 검출 수단이 검출한 위치에 대응하는 위치 데이터와 방향 검출 수단이 검출한 지향 방향에 대응하는 지향 방향 데이터를 포함하는 보충 데이터(supplementary data)를 네트워크를 통하여 전송하고, 네트워크로부터 소리 제공 수단이 제공하는 소리에 대응하는 소리 데이터(sound data)를 전송받는 통신 모듈을 포함하며, 보충 데이터는 위치 또는 지향 방향의 변화시에 전송되거나, 간헐적으로 전송되며, 소리 데이터를 전송하는 서버와 보충 데이터를 수신하는 서버는 동일한 서버이다.
본 실시예에 따른 소리 데이터 처리 서버는, 타겟 영역에 소리를 제공하는 복수의 소리 제공 단말들의 위치들에 대응하는 복수의 위치데이터들 및 복수의 소리 제공 수단들의 지향 방향들에 대응하는 복수의 지향 방향 데이터들을 포함하는 보충 데이터들을 네트워크로부터 수신하고, 복수의 소리 수집 수단들이 제공하는 소리에 대응하는 소리 데이터들을 전송하는 통신부와 보충 데이터들과 소리 데이터들이 저장되는 저장장치와 및 보충 데이터에 기반하여 타겟 영역에 소리를 제공하는 소리 제공 단말을 결정하는 연산부를 포함한다.
본 실시예에 의하면 복수의 소리 수집 단말이 소리를 수집하여 형성된 소리 데이터와 상기 복수의 소리 수집 단말들의 위치들 및 지향방향들로부터 상기 소리를 발생하는 소스의 위치를 용이하게 파악할 수 있다는 장점이 제공된다.
또한, 본 실시예에 의하면 복수의 소리 수집 단말이 소리를 수집하여 형성된 소리 데이터와 상기 복수의 소리 수집 단말들의 위치들 및 지향방향들로부터 소리를 소거할 수 있는 감쇠 소리 신호를 형성하고 이를 소리 제공 수단에 제공하여 소리를 감쇠할 수 있다는 장점이 제공된다.
또한, 본 실시예에 의하면 복수의 소리 제공 단말이 특정한 소리를 타겟 위치에 제공하여 원격지 사이에서 원격 통화를 수행하거나, 공적인 확성(Public Address)을 수행할 수 있다는 장점이 제공된다.
도 1은 본 실시예에 따른 소리 데이터 처리 시스템을 설명하기 위한 개요도이다.
도 2는 단말의 구조를 개요적으로 도시한 블록도이다.
도 3은 단말을 스마트 폰으로 구현하는 경우를 예시한 도면이다.
도 4는 본 실시예에 의한 서버의 개요를 도시한 블록도이다.
도 5는 본 실시예에 따른 소리 데이터 처리 시스템을 소리 소스 위치파악 시스템으로 실시하는 경우에 정보의 흐름을 도시한 도면이다.
도 6은 서버의 연산부가 소리 소스의 위치를 파악하는 방법의 일 예를 예시한 도면이다.
도 7은 소리 소스의 위치를 파악하는 다른 실시예를 도시한 도면이다.
도 8은 본 실시예 따른 소리 데이터 처리 시스템을 소음 제거 시스템으로 실시하는 것을 개요적으로 도시한 개요도이다.
도 9은 본 실시예에 따른 소리 데이터 처리 시스템을 소음 제거 시스템으로 실시하는 경우에 정보의 흐름을 도시한 도면이다.
도 10은 타겟 위치에 반대 위상을 가지는 상쇠 소리 신호를 제공하기 위하여 거리와 위상의 관계 개요를 도시한 도면이다.
도 11은 본 실시예 따른 소리 데이터 처리 시스템을 공적 확성(Public Address) 시스템 또는 원격 통화 시스템으로 실시하는 것을 개요적으로 도시한 개요도이다.
도 12은 본 실시예에 따른 소리 데이터 처리 시스템을 소음 제거 시스템으로 실시하는 경우에 정보의 흐름을 도시한 도면이다.
도 13은 제4 실시예의 개요를 도시한 개요도이다.
본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
“제1”, “제2” 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
본 개시의 실시예들을 설명하기 위하여 사용되는 “ 및/또는”이라는 표현은 각각 과 모두를 지칭하는 것으로 사용된다. 일 예로, “A 및/또는 B ”라는 기재는 “A, B 그리고 A와 B 모두”를 지칭하는 것으로 이해되어야 한다.
*본 개시의 실시예들을 설명하기 위하여 참조되는 도면은 설명의 편의 및 이해의 용이를 위하여 의도적으로 크기, 높이, 두께 등이 과장되어 표현되어 있으며, 비율에 따라 확대 또는 축소된 것이 아니다. 또한, 도면에 도시된 어느 구성요소는 의도적으로 축소되어 표현하고, 다른 구성요소는 의도적으로 확대되어 표현될 수 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
도 1은 본 실시예에 따른 소리 데이터 처리 시스템을 설명하기 위한 개요도이다. 도 1을 참조하면, 본 실시예에 따른 소리 데이터 처리 시스템(10)은 복수의 단말들(100A, 100B, 100C)과 서버(200)를 포함한다. 복수의 단말들은 소리 데이터 처리 시스템을 구현하는 실시예에 따라 소리 수집 단말 또는 소리 제공 단말이라고 명명될 수 있다.
복수의 단말들(100A, 100B, 100C)은 네트워크(N)을 통하여 서버(200)와 통신한다. 소리 수집 수단을 포함하는 단말들(100A, 100C)은 자신이 위치한 위치에 상응하는 위치 데이터와, 소리 수집 수단이 지향하는 방향에 상응하는 지향 방향 데이터를 네트워크를 통하여 서버에 전송한다. 소리 제공 수단을 포함하는 단말들(100A, 100B)은 자신의 위치들에 상응하는 위치 데이터들과 소리 제공 수단이 지향하는 방향에 상응하는 지향 방향 데이터를 네트워크를 통하여 서버에 전송한다. 소리 제공 수단과 소리 수집 수단을 모두 포함하는 단말(100A)이 있을 수 있으며 자신의 위치에 상응하는 위치 데이터와 소리 제공 수단이 지향하는 방향에 상응하는 지향 방향 데이터와 소리 수집 수단이 지향하는 방향에 상응하는 지향 방향 데이터를 서버에 전송할 수 있다.
각각의 단말은 일정한 위치에 고정되거나 자유로이 이동할 수 있다. 각각의 단말에 포함된 소리 수집 수단 및/또는 소리 제공 수단은 지향 방향이 고정되거나 지향 방향을 달리할 수 있다. 본 실시예에서 단말의 이동 여부, 지향 방향의 고정 여부는 문제되지 않으며 각 단말이 포함하는 소리 수집 수단 및/또는 소리 제공 수단의 위치와 지향 방향 데이터를 서버로 제공할 수 있으면 충분하다.
소리 수집 수단을 포함하는 단말들(100A, 100C)은 소리 수집 수단을 통하여 수집한 소리에 상응하는 소리 데이터를 네트워크(N)를 통하여 서버(200)에 제공한다. 소리 제공 수단을 포함하는 단말들(100A, 100B)은 소리 제공 수단으로 제공할 소리에 상응하는 소리 데이터를 네트워크를 통하여 제공받는다. 소리 데이터는 그에 상응하는 소리를 복원할 수 있는 데이터를 의미하며 아날로그/디지털 여부, 압축/비압축 여부와 같은 형식에 제한되지 않는다.
서버(200)는 복수의 단말들이 제공한 위치 정보와 소리 수집 수단 및/또는 소리 제공 수단의 지향 방향 데이터를 수신한다. 서버(200)는 실시예에 따라 소리 수집 수단을 포함하는 단말들(100A, 100C)로부터 각각 수집한 소리에 상응하는 소리 데이터를 전송받고 위치 정보, 소리 수집 수단의 지향 정보 등을 이용하여 소리를 발생하는 소스의 위치를 파악할 수 있다. 서버(200)는 실시예에 따라 필요한 경우 특정한 지향 방향을 갖는 소리 제공 수단을 포함하는 특정한 위치의 단말들(100A, 100B)에 소리 데이터를 전송하여 이 소리 데이터에 상응하는 소리를 제공하도록 할 수 있다.
네트워크(N)는 서버(200)와 단말들(100A, 100B, 100C) 사이에서 소리 데이터, 위치 데이터, 지향 방향 데이터 등이 전송될 수 있는 네트워크이다. 본 실시예에서의 네트워크(N)은 무선 또는 유선 네트워크등 종류에 국한되지 않는다.
도 2는 단말의 구조를 개요적으로 도시한 블록도이다. 도 2를 참조하면, 단말(100)은 소리 수집 수단(110), 소리 제공 수단(120), 센서부(130), 제어부(140) 및 통신 모듈(150)을 포함할 수 있다. 단말(100)은 실시예에 따라 소리 수집 수단(110)과 소리 제공 수단(120)을 모두 포함할 수 있으며, 소리 수집 수단(110)과 소리 제공 수단(120) 중 어느 하나만을 포함할 수 있다.
소리 수집 수단(110)은 소스(source)가 발생하는 소리를 수집하여 전기적 신호로 변환한다. 일 예로, 소리 수집 수단은 마이크(microphone)으로 구현할 수 있으며, 콘덴서 마이크(condenser microphone), 다이나믹 마이크(dynamic microphone), 리본 마이크(ribbon microphone), 탄소 마이크(carbon microphone), 피에조 마이크(piezoelectrice microphone), MEMS 마이크(Microelectromechanical system Microphone) 및 기재되지 않은 다른 마이크를 소리 수집 수단으로 사용할 수 있다.
소리 제공 수단(120)은 소리 데이터를 전송받고, 소리 데이터에 상응하는 소리를 형성하여 외부에 제공한다. 일 예로, 소리 수집 수단은 스피커(loudspeaker)로 구현할 수 있으며, 우퍼 스피커(woofer speaker), 트위터 스피커(tweeter speaker)등 출력하는 소리의 주파수에 무관하게 사용할 수 있다. 소리 제공 수단은 스피커 유닛의 종류와 무관하게 소리를 제공할 수 있으면 충분하다.
*단말(100)은 센서부(130)를 포함한다. 센서부는 도시된 바와 같이 온도 센서(131), 습도 센서(132), 자이로 센서(133), 타이머(134), 위치 검출 장치(135), 고도 센서(136), 가속도 센서(137) 및 지자기 센서(138)등의 센서를 포함할 수 있다. 도면에 도시된 센서들은 단순히 예시를 위한 것으로 실시예에 따라 초음파 센서와 적외선 센서등 다른 센서를 더 포함할 수 있다. 또한, 단말은 도시된 센서들 가운데 어느 하나 이상의 센서를 포함하지 않을 수도 있다.
일 실시예로, 소리 수집 수단이 소리를 발생하는 소스의 위치를 결정하고자 하는 경우에 소리의 진폭 감쇠율을 측정하는 것이 필요할 수 있다. 소리는 온도, 기압 조건이 변화함에 따라서 전파거리에 따른 진폭 감쇠율(amplitude attenuation ratio)이 달라지므로, 단말은 온도 센서로 측정한 온도, 습도 센서로 측정한 습도 및 고도 센서로 측정한 고도 또는 고도에 상응하는 기압 등을 측정하여 서버에 전송할 수 있다.
위치 검출 수단(135)은 GPS(Global Positioning System), GLONASS(GLObal NAvigation Satellite System) 및 Galileo 등의 항법 위성(Navigation satellite, 1)과 통신하여 단말의 현재 위치를 파악할 수 있다. 위치 검출 수단(135)은 이동 통신 기지국들(2)을 이용한 삼각 측량법으로 단말의 위치를 파악할 수 있다. 또한, 위치 검출 수단(135)은 Wi-Fi를 이용하여 단말의 위치를 파악할 수 있다. 단말(100)은 위치 검출 수단(135)이 검출한 단말의 위치에 상응하는 위치 데이터를 네트워크를 통하여 전송한다.
타이머(134)는 시간 데이터를 형성하여 서버에 전송할 수 있다. 다만, 위치 검출 장치(135)가 항법 위성(1)과 통신하여 단말의 현재 위치 뿐만 아니라 현재 시각 정보를 얻거나, 이동 통신 기지국과 통신하여 현재 시각 정보를 얻는 경우 등에는 단말이 타이머를 포함하지 않을 수 있다.
방향 검출 수단(138)은 지향 방향을 검출한다. 방향 검출 수단(138)은 단말의 지향 방향, 소리 수집 수단(110) 및 소리 제공 수단(120)의 지향 방향들 중 어느 하나 이상을 측정할 수 있다. 방향 검출 수단(138)의 일 예로, 방향 검출 수단(138)은 지자기 센서로 구현될 수 있다. 지자기 센서는 지구 자기를 측정하는 센서로, 이를 이용하여 방위를 측정하는 나침반등의 기능을 수행할 수 있다.
일 실시예로, 소리 수집 수단과 소리 제공 수단은 모두 지향성을 가질 수 있다. 소리 수집 수단(110)은 그 지향방향에 따라서 수집되는 소리를 달리할 수 있으며, 소리 제공 수단도 지향방향에 따라 제공되는 소리의 크기를 달리할 수 있다. 따라서 방향 검출 수단(138)은 소리 수집 수단 및/또는 소리 제공 수단이 지향하는 방향에 상응하는 지향 방향 데이터를 서버에 전송한다.
단말은 가속도 센서(137) 또는 자이로 센서(gyroscope sensor, 133)를 이용하여 단말의 기울어짐을 측정할 수 있으며 단말은 기울어짐에 상응하는 기울어짐 데이터를 전송할 수 있다. 가속도를 적분하면 속도를 얻을 수 있고, 속도를 다시 적분하면 변위를 획득할 수 있으므로, 가속도 센서, 자이로 센서를 이용하여 가속도 또는 각가속도를 검출하고, 타이머로 시간정보를 획득하여 소정의 시간동안 정적분을 수행하면 속도, 각속도 또는 변위를 구할 수 있다. 단말(100)은 가속도 센서 및/또는 자이로 센서가 측정한 기울어짐, 가속도 및 각가속도에 상응하는 기울어짐 데이터, 가속도 데이터 및 각가속도 데이터를 네트워크를 통하여 서버로 전송할 수 있다.
제어부(140)는 일 예로 중앙처리장치(CPU, Central Processing Unit) 및 메모리(Memory)를 포함한다. 제어부(140)는 센서부(130)에서 검출한 결과를 네트워크를 통하여 전송할 수 있도록 전환하고, 소리 수집 수단(110)이 수집한 소리에 상응하도록 소리 데이터를 형성한다. 제어부(140)는 서버가 제공한 소리 데이터를 소리 제공 수단(120)을 통하여 외부로 제공할 수 있도록 전환한다. 메모리(미도시)는 단말의 식별자를 저장하고 있을 수 있으며, 식별자에 상응하는 식별 데이터를 네트워크를 통하여 전송하게 할 수 있다.
통신 모듈(150)은 센서부(130), 소리 수집 수단(110)이 검출하거나 수집한 결과들에 상응하는 데이터들을 네트워크를 통하여 서버로 전송하거나, 서버로부터 데이터를 수신한다. 상술한 바와 같이 네트워크는 데이터들을 서버로 전송하고, 서버로부터 데이터들을 수신하면 충분하며, 통신 모듈(150)도 상기 네트워크에 상응하도록 데이터를 네트워크를 통하여 전송하고, 네트워크로부터 데이터를 수신할 수 있으면 충분하다.
일 구현예로, 단말(100)은 스마트 폰(smart phone) 또는 타블렛(tablet)으로 구현할 수 있다. 다른 구현예로, 단말(100)은 소리 수집 수단(110), 소리 제공 수단(120) 중 어느 하나 이상을 포함하며, 센서부에 포함된 센서 들을 포함하는 전용 단말로 구현할 수 있다.
도 3은 단말을 스마트 폰으로 구현하는 경우를 예시한 도면이다. 스마트 폰(S)으로 단말을 구현하는 경우에, 스마트 폰에 포함된 방향 검출 수단은 도 3에 도시된 바와 같이 스마트 폰의 길이 방향(longitudinal direction) 중 수화구(R)가 위치하는 방향인 -x 방향을 단말의 지향방향으로 검출하는 경우가 있을 수 있다. 그러나, 소리 수집 수단(110)이 지향하는 방향은 x 방향이며, 소리 제공 수단(120)이 지향하는 방향은 -z 방향이다.
소리 수집 수단(110) 및 소리 제공 수단(120)이 지향하는 방향은 스마트 폰 단말 기종 또는 타블렛 기종 마다 통일되어 있다. 서버가 단말의 기종별 소리 수집 수단 및/또는 소리 제공 수단의 포함여부, 지향 방향 정보를 저장하고 있으면, 서버는 단말이 단말의 식별 데이터와 방향 검출 수단이 검출하여 전송하는 지향 방향 데이터를 수신하면 수신한 데이터들로부터 스마트 폰 단말 및/또는 타블렛에 포함된 소리 수집 수단(110) 및/또는 소리 제공 수단의 지향 방향 정보를 파악할 수 있다.
본 명세서에서 사용되는 지향 방향 데이터는 방향 검출 수단이 직접소리 수집 수단과 소리 제공 수단이 지향하는 지향 방향을 검출하여 형성한 데이터와 단말의 지향 방향과 서버에 저장된 식별 데이터에 기초하여 얻어지는 소리 수집 수단 및/또는 소리 제공 수단의 지향 방향에 관한 데이터를 모두 포함하는 것이다.
다시 도 2를 참조하면, 단말은 소리 수집 수단이 수집한 소리에 상응하는 소리 데이터와 더불어 센서부(130)에 포함된 센서들이 검출한 값들에 상응하는 데이터들을 포함하는 보충 데이터(supplementary data)를 네트워크(N)를 통하여 서버에 전송한다. 보충 데이터는 위치 검출 장치가 검출한 단말의 현재 위치에 상응하는 위치 데이터, 방향 검출 수단(138)이 검출한 소리 수집 수단(110), 소리 제공 수단(120)의 지향 방향 데이터를 포함하며, 소리 수집 수단 및 소리 제공 수단의 성능과 현재 상태를 알 수 있는 단말의 식별 데이터, 온도 데이터, 습도 데이터들을 포함할 수 있다.
소리 수집 단말은 특정한 장소에 소리 수집 수단의 지향방향이 고정되도록 배치될 수 있다. 이러한 경우 위치 데이터 및 지향 방향 데이터를 포함하는 보충 데이터는 최초 소리 수집 단말이 배치될 때에 한하여 전송될 수 있다. 위와 달리 소리 수집 단말의 위치 및/또는 소리 수집 수단의 지향 방향 등을 포함하는 보충 데이터는 시간이 경과함에 따라 변화할 수 있다. 보충 데이터는 시간이 경과함에 따라 주기적으로 전송되거나, 위치 및/또는 지향 방향 등이 변화할 때마다 전송되거나, 또는 간헐적으로 전송될 수 있다. 또한, 보충 데이터는 서버의 요청이 있을 때 서버로 전송될 수 있다.
도 4는 본 실시예에 의한 서버(200)의 개요를 도시한 블록도이다. 도 4를 참조하면, 서버(200)는 통신부(210), 연산부(220) 및 저장장치(230)를 포함한다. 통신부(210)는 네트워크로부터 단말들이 제공한 소리 데이터 및/또는 보충 데이터를 수신하고, 네트워크를 통하여 단말로 소리 데이터 등을 전송한다.
저장장치(230)는 단말로부터 제공된 소리 데이터, 보충 데이터를 저장하고 단말로 제공될 소리 데이터 등의 데이터를 저장한다. 저장 장치(230)는 단말의 식별 번호에 따른 소리 수집 수단 및/또는 소리 제공 수단의 위치 및 지향 방향 정보를 저장할 수 있다.
연산부(220)는 단말로부터 제공된 소리 데이터, 보충 데이터로부터 단말이 수집한 소리를 제공하는 소스(source)의 위치를 파악하거나, 소스가 제공하는 소리를 감쇠(attenuate)하는 감쇠 소리 신호를 형성하는 등 필요한 연산을 수행한다. 보다 상세한 내용은 아래 실시예들을 통하여 설명된다.
제1 실시예
도 5는 본 실시예에 따른 소리 데이터 처리 시스템을 소리 소스 위치파악 시스템으로 실시하는 경우에 정보의 흐름을 도시한 도면이다. 본 실시예에 있어서, 단말들은 소리 수집 수단을 포함하는 소리 수집 단말들이다. 도 5를 참조하면, 소리 수집 단말들은 위치 데이터와 지향 방향 데이터를 포함하는 보충 데이터를 형성(510)하고, 형성된 보충 데이터를 서버에 전송한다(512). 위에서 설명된 바와 같이 단말이 스마트 폰, 타블렛 등이면 보충 데이터는 단말 식별 데이터를 더 포함할 수 있다. 도시되지 않았지만, 보충 데이터는 소리 데이터와 함께 전송될 수 있거나, 서버의 요청에 응답하여 단말이 서버로 제공할 수 있다. 서버(200)는 전송된 보충 데이터를 저장 장치(도 4의 도면부호 230 참조)에 저장한다(520).
소리 수집 단말(100)들은 소리 수집 수단으로 소리를 수집하여 소리 데이터를 형성(514)하고, 네트워크를 통하여 형성한 소리 데이터를 서버(200)로 전송한다(516). 서버(200)는 소리 수집 단말(100)이 전송한 소리 데이터를 서버의 저장장치에 저장한다.
서버는 보충 데이터와 소리 데이터에 기반하여 소리 수집 단말들이 수집하여 전송한 소리 소스(source)의 위치를 파악한다(540). 도 6은 서버의 연산부(220)가 소리 소스의 위치를 파악하는 방법의 일 예를 예시한 도면이다. 도 6을 참조하면, 연산부는 격자 형태로 구획된 영역을 가정하고, 상기 영역에 소리 수집 단말들(100x, 100y, 100z)을 배치한다. 소리 수집 단말들이 배치된 위치들 및 지향 방향들은 소리 수집 단말들이 전송한 보충 데이터들에 근거한다.
연산부(220)는 소리를 방출하는 소스(S)를 영역 내의 각각의 격자점들(P0,0, P0,1, ..., Pi,j)을 따라 이동하면서 소리 수집 단말들(100x, 100y, 100z)이 수집하는 소리의 크기를 연산한다. 일 실시예로, 연산부는 소스와 소리 수집 단말과의 거리에 기초하여 소리 수집 단말이 수집한 소리의 크기를 연산한다. 그러나, 소스(S)가 P0,0에 있을 때 단말 100x의 소리 수집 수단은 소스와 반대방향을 지향하며, 소스(S)가 P2,2에 있을 때 단말 100x와 소스와의 거리는 소스(S)가 P0,0에 있을 때와 동일하나, 소리 수집 수단은 소스를 지향한다. 이러한 두 경우에 소리 수집 단말은 비록 동일한 거리만큼 소스에서 이격되어 있으나, 동일한 음량으로 소리를 수집하지 않으므로 지향 방향에 따른 수집 음량의 차이를 보정할 필요가 있다.
연산부는 지향 방향에 따라 비중을 달리 인가하는 비중 함수(weighting function, fθ)를 소리 수집 단말이 수집하는 것으로 연산되는 소리의 크기에 곱하여 지향방향에 따른 수집 음량을 보정한다. 일 예로, 비중 함수(weighting function, fθ)는 소스와 소리 수집 단말을 잇는 일직선과 소리 수집 수단 지향 방향의 사이각(θ)에 대한 함수일 수 있다.
소스(S)가 Pi,j에 위치하고, N개의 소리 수집 단말이 수집하는 것으로 연산되는 소리의 크기를 Sim1,(i,j ), Sim2,(i,j ), Sim3,(i,j), ...,SimN,(i,j ) 라고 하고, 실제로 소리 수집 단말들 별로 수집한 소리 크기를 Col1,(i,j ), Col2,(i,j ), Col3,(i,j), ...,ColN,(i,j)라 하자. 연산부(220)는 소스가 각각의 격자점에 위치할 때마다 소리 수집 단말들이 수집하는 것으로 연산되는 소리 크기와 실제로 수집한 소리 크기의 오차(error)들을 연산한다. 연산부(220)는 각 오차들에 대한 RMS(Root Mean Square)를 연산하고 연산된 결과 중 가장 작은 값이 나오는 위치를 소스의 위치로 결정한다.
일 실시예로, 연산부(220)는 아래의 수학식 1을 연산하여 격자 내에서 연산된 Ei,j 값들 중 가장 작은 Ei,j 값이 얻어진 격자점을 소스의 위치로 결정한다.
Figure PCTKR2016000840-appb-M000001
일 실시예로, 소스의 위치를 결정하는 과정에서 단말에 포함된 소리 수집 수단의 감도(sensitivity)를 이용하여 소리 수집 수단이 수집한 소리의 크기를 보정할 수 있다. 저장 장치는 소리 수집 수단의 감도에 관한 정보를 단말별로 저장할 수 있다. 또한, 저장 장치는 소리 수집 수단과 소스를 잇는 직선과 소리 수집 수단의 지향 방향의 사이각의 변화에 대한 감도 변화에 대한 데이터를 단말별로 저장할 수 있다.
단말들이 보충 데이터로 단말의 식별 정보를 전송하면, 서버는 단말의 식별 정보를 이용하여 저장 장치에 저장된 소리 수집 수단의 감도를 획득하고, 이를 이용하여 소리 수집 수단이 수집한 소리의 크기를 보정할 수 있다.
도 7은 소스의 위치를 파악하는 다른 실시예를 도시한 도면이다. 도 7을 참조하면, 연산부(220)는 소리 수집 단말들(100x, 100y, 100z)이 수집한 소리 데이터의 진폭을 분석하고, 각 소리 수집 단말별로 일정한 진폭을 가지는 등진폭 영역을 형성한다. 연산부는 등진폭 영역을 형성할 때 소리 수집 수단의 지향 방향을 고려하여 등진폭 영역을 형성한다. 형성된 등진폭 영역이 서로 중첩되도록 확장하면 등진폭 영역이 모두 겹쳐지는 영역을 구할 수 있으며, 해당 영역을 소스(S)의 위치로 결정할 수 있다.
위에서 개시된 실시예들은 소리를 제공하는 소스와 소리 수집 단말들이 동일한 2차원 평면상에 배치되는 것을 예시하였으나, 이는 간단하고 명료한 설명을 위한 것일 따름으로, 소리를 제공하는 소스와 소리 수집 단말들은 3차원 공간 내에 자유로이 위치할 수 있다.
일 실시예에서, 연산부(220)는 소리 소스(S)의 위치를 파악할 수 있을 뿐 아니라 소리의 진폭 형태 및/ 또는 소리의 주파수도 파악할 수 있으며, 미리 정의된 진폭의 형태 및 주파수와 상응하는지 여부를 파악하여 정보를 제공할 수 있다. 일 예로, 파악된 진폭 형태가 델타 함수(Dirac-Delta Function)의 형태라면 폭발, 총기 발사 등의 충격 이벤트가 발생한 것으로 파악할 수 있다. 다른 예로, 소리의 주파수가 총기 발사 또는 폭발물의 폭발에서 발생하는 주파수와 서로 일치하거나 상응한다면 파악된 주파수를 이용하여 충격 이벤트가 발생한것으로 파악할 수 있다. 파악된 충격 이벤트들은 단발적이고, 매우 짧은 시간에 큰 진폭을 가지는 소리를 형성하는 것으로 특징지을 수 있으며, 이러한 충격 이벤트 들은 예시한 바와 같이 폭발, 총기 발사등이 있을 수 있다.
충격 이벤트 검출시 단말의 센서부(도 2의 도면부호 130 참조)에 포함된 가속도 센서(도 2 137 참조) 및 자이로 센서(도 2의 도면부호 133참조)로부터 진동을 검출한 보충 데이터로부터 충격의 규모를 파악하는 것도 가능하다(550).
연산부(220)는 충격 이벤트가 발생한 것으로 결정한 경우에는 소스의 위치로부터 일정 거리 이내에 있는 단말들에 소리 소스의 위치를 포함하는 충격 이벤트에 대한 정보를 전송할 수 있다(552).
제2 실시예
도 8은 본 실시예 따른 소리 데이터 처리 시스템을 소음 제거 시스템으로 실시하는 것을 개요적으로 도시한 개요도이고, 도 9은 본 실시예에 따른 소리 데이터 처리 시스템을 소음 제거 시스템으로 실시하는 경우에 정보의 흐름을 도시한 도면이다. 본 실시예에 있어서, 100A, 100B 및 100C로 도시된 단말들은 소리 수집 수단 및 소리 제공 수단을 포함하는 단말들이고, 각 단말별로 소리 수집 수단의 지향 방향과 소리 제공 수단의 지향 방향은 동일한 것으로 표현하였다. 본 실시예를 설명함에 있어서 위에서 설명된 실시예와 동일하거나 유사한 부분에 대하여는 간결하고 명확한 설명을 위하여 설명을 생략할 수 있다.
도 8 및 도 9를 참조하면, 단말들(100A, 100B, 100C)은 위치 데이터, 소리 수집 수단 및 소리 제공 수단의 지향 방향 데이터를 포함하는 보충 데이터를 형성(810)하고, 서버에 전송한다(812). 보충 데이터는 단말의 위치 또는 단말에 포함된 소리 수집 수단 및/또는 소리 제공 수단의 지향 방향의 변화시에 전송되거나, 간헐적으로 전송될 수 있고, 서버의 요청에 따라 제공될 수 있음은 설명한 바와 같다. 서버(200)는 보충 데이터를 수신하여 이를 저장장치(도 4의 도면부호 230참조)에 저장한다(820).
단말들(100A, 100B, 100C)이 상쇠할 소리인 타겟 소리를 수집하여 그에 상응하는 소리 데이터를 형성(814)하고, 소리 데이터들을 서버에 전송한다(816). 서버(200)는 소리 데이터를 수신하여 이를 저장장치에 저장(830)한다. 연산부(도 4의 도면부호 220 참조)는 소리 데이터 및/또는 보충 데이터를 이용하여 소리를 방출하는 소스의 위치인 타겟 위치(T)를 결정한다(840).
본 실시예에서, 도 10(a)에 도시된 바와 같이 소리가 소거되는 타겟 위치(T)에 점선으로 도시된 타겟 소리를 감쇠시키고자 하는 경우에 상기 타겟 소리와 동일한 주파수를 가지며 반대 위상(anti-phase)를 가지는 상쇠 소리(실선)를 제공하여 서로 상쇠 간섭(destructive interference)하도록 하여야 한다. 따라서 타겟 위치(T)에는 타겟 소리와 동일한 주파수를 가지고 반대 위상을 가지는 소리인 상쇠 소리 신호가 제공되어야 한다. 도 10(a)는 타겟 소리가 하나의 주파수를 가지는 경우만을 예시하고 있으나, 타겟 소리는 하나의 주파수를 가질 수도 있고, 여러 주파수 대역의 소리를 포함할 수 있다. 타겟 소리가 여러 주파수 대역의 소리를 포함하는 경우, 연산부는 주파수 영역 대를 파악할 수 있는 FFT(Fast Fourier Transform)모듈을 구동하여 타겟 소리에 포함된 주파수를 파악할 수 있다.
다만, 타겟 위치(T)에 반대 위상을 가지는 상쇠 소리 신호를 제공하기 위하여는 도 10(a) 및 도 10(b)에 도시된 바와 같이 단말(100)과 타겟 위치(T) 사이의 거리(d)를 파악하여야 하며, 파악된 거리에 따라 단말이 제공하는 소리의 위상을 조절하여야 한다.
연산부는 저장 장치에 저장된 타겟 소리에 상응하는 소리 데이터로부터 소리의 진폭, 주파수 및 위상을 구하고 소리를 제공하는 소스와 상쇠 소리 신호를 제공하는 단말과의 거리 차이를 구한다(850). 연산부는 소리 데이터로부터 구한 주파수를 가지고, 타겟 지점에서 상쇠 간섭이 이루어지는 위상(Φ)을 가지는 상쇠 소리 신호를 각 단말별로 형성한다. 또한, 연산부는 소리 제공 단말과 타겟 위치 사이의 거리에 따라 타겟 소리를 감쇠할 감쇠 소리의 진폭을 연산한다. 소리 제공 단말과 타겟 위치에 비하여 지나치게 큰 진폭을 가지는 감쇠소리를 형성하면 타겟 소리는 감쇠되나 오히려 감쇠 소리가 전파될 수 있고, 반대로 소리 제공 단말과 타겟 위치에 비하여 지나치게 작은 진폭을 가지는 감쇠소리를 형성하면 타겟 소리를 미쳐 감쇠할 수 없기 때문이다. 따라서, 연산부는 소리 제공 단말과 타겟 위치 사이의 거리에 상응하는 진폭을 연산한다.
일 실시예에서, 저장 장치(도 4의 도면부호 230 참조)는 소리 제공 수단의 소리 제공 수단의 출력 및 소리 제공 수단의 위치 및 지향 방향 변화에 따른 소리 제공 효율 변화를 단말별로 저장할 수 있다. 소리 제공 수단의 제공 출력이라 함은 소리를 제공할 수 있는 출력을 의미하며, 통상적으로 소리 제공 수단에 포함된 전력 증폭기의 출력으로 측정된다. 따라서 소리 제공 출력이 클수록 큰 음량을 제공할 수 있다. 소리 제공 효율이란 소리 제공 수단의 지향 방향과 타겟 위치와의 관계에서, 타겟 위치와 소리 제공 수단을 잇는 직선과 소리 제공 수단의 지향 방향의 사이각이 변화함에 따라 타겟 위치에 제공되는 소리의 음량비를 의미할 수 있다. 일 예로, 소리를 제공할 타겟 위치와 소리 제공 수단이 단위거리만큼 이격되어 있으며, 사이각이 45도인 경우에 타겟 위치에 제공되는 음량이 -3db 감소되고, 사이각이 90도인 경우에 타겟 위치에 제공되는 음량이 -6db 감소될 수 있다. 저장 장치는 이러한 사이각의 변화에 대한 음량의 감소 비율에 대한 정보를 각각의 단말별로 저장할 수 있다.
연산부는 소리 제공 수단의 출력 및 소리 제공 수단의 지향 방향을 고려하여 타겟 소리를 상쇠할 수 있는 진폭과 위상을 연산한다. 연산부는 각각의 단말별로 연산된 진폭, 주파수 및 위상을 가지는 상쇠 소리 신호에 대응하는 상쇠 소리 신호 데이터 들을 형성(860)하고, 단말들에 전송한다(862). 일 실시예로, 소리를 수집하여 소리 데이터를 전송하는 단계(812)에 참여하는 단말은 소리 수집 수단을 포함하는 단말이며, 상쇠 소리 신호 데이터를 전송받는 단말(862)은 소리 제공 수단을 포함하는 단말이다. 다른 실시예로, 비록 소리 제공 수단을 포함하지 않는 단말이라 하더라도 서버로부터 상쇠 소리 신호 데이터를 제공받을 수 있다.
단말(100)은 상쇠 소리 신호 데이터에 상응하는 상쇠 소리 신호를 형성하고, 타겟 위치에 제공하여 타겟 소리를 상쇠시킬 수 있다. 타겟 소리가 사용자가 원하지 않는 소음(noise)인 경우에는 본 실시예를 소음 감쇠 시스템으로 활용하여 원하지 않는 소음을 감쇠시킬 수 있다.
제3 실시예
도 11은 본 실시예 따른 소리 데이터 처리 시스템을 공적 확성(Public Address) 시스템 또는 원격 통화 시스템으로 실시하는 것을 개요적으로 도시한 개요도이고, 도 12은 본 실시예에 따른 소리 데이터 처리 시스템을 소리 전달 시스템으로 실시하는 경우에 정보의 흐름을 도시한 도면이다. 본 실시예에 있어서, 100A, 100B 및 100C로 도시된 단말들은 소리 제공 수단을 포함하는 단말들로, 이하에는 소리 제공 단말이라 한다. 또한, 단말 100x는 소리 수집 수단을 포함하는 단말로, 소리 수집 단말이라 한다. 본 실시예를 설명함에 있어서 위에서 설명된 실시예와 동일하거나 유사한 부분에 대하여는 간결하고 명확한 설명을 위하여 설명을 생략할 수 있다.
도 11 및 도 12를 참조하면, 소리 수집 단말(100x) 및 소리 제공 단말들은 보충 데이터를 형성(1210, 1211)하고, 네트워크를 통하여 주기적, 간헐적으로 보충 데이터를 서버로 전송한다(1212, 1213). 도시되지는 않았지만, 보충 데이터는 단말이 서버의 요청에 응답하여 네트워크를 통하여 서버에 제공할 수 있다. 보충 데이터는 위치 데이터 및 소리 수집 수단 및/또는 소리 제공 수단의 지향 방향 데이터를 포함하며, 단말의 식별 정보 등을 포함할 수 있음은 이미 설명한 바와 같다. 한편, 단말이 형성하여 서버에 전달하는 보충 데이터로 소리 제공 단말이 전달해야 하는 소리가 전달되어야 하는 타겟 위치(T)를 포함할 수도 있다.
소리 수집 단말은 소리 수집 수단을 이용하여 소리를 수집하고, 수집한 소리에 상응하는 소리 데이터를 형성한다(1230). 소리 수집 단말(100x)은 네트워크(N)를 통하여 형성한 소리 데이터를 서버(200)에 전송하고(1232), 서버(200)는 전송 받은 소리 데이터를 저장 장치에 저장한다(1240).
원격 통화 시스템을 실시하는 실시예에 의하면 소리 데이터는 원격지에 위치하는 사용자가 소리 수집 단말을 통하여 서버에 제공한 소리 데이터이다. 공적 확성 시스템을 실시예에 의하면 소리 데이터는 사용자가 서버에 직접 연결된 소리 수집 단말을 이용하여 제공한 소리 데이터이거나, 확성하고자 하는 영역에 있는 사람들의 이목을 집중시키기 위한 벨소리 등으로 서버의 저장 장치에 미리 저장된 소리 데이터일 수 있다.
서버(200)는 보충 데이터에 기반하여 소리를 제공하고자 하는 타겟 위치에 있는 소리 제공 단말들을 결정한다(1250). 일 예로, 서버(200)는 보충 정보에 포함된 위치 정보로부터 타겟 위치(T)로부터 일정 거리 이내에 위치하는 단말들을 선정할 수 있다. 다른 예로, 서버는 보충 정보에 포함된 지향 방향 정보로부터 타겟 위치를 지향하는 단말을 선정할 수 있다.
서버(200)는 저장된 소리 데이터를 프로세싱하고(1260) 프로세싱된 소리 데이터를 소리 제공 단말에 전송한다(1262). 상기한 프로세싱은 디지털 및 아날로그 신호처리를 불문하며, 증폭, 감쇠, 필터, 압축 등의 신호를 입력받아 신호를 출력하는 모든 과정을 통칭한다. 신호처리의 일 예로, 원격 통화 시스템의 경우에는 소리 데이터에 있어서 사람의 목소리에 해당하는 영역만을 추출하고 나머지 영역을 제거하여 전송되는 소리의 대역폭을 감소시킬 수 있으며, 주된 관심이 되는 대역만을 전송하여 자원을 절약할 수 있다. 다른 예로, 소리 데이터를 형성한 후, 이를 일정한 압축 코덱으로 압축하여 전송할 수 있다.
서버(200)는 이와 같이 처리된 소리 데이터를 소리 제공 단말(100A, 100B, 100C)에 제공한다(1262). 소리 데이터를 수신한 소리 제공 단말들(100A, 100B, 100C)은 소리 데이터에 상응하는 소리를 타겟 위치(T)에 제공한다. 공적 확성 시스템의 실시예에 있어서는 사용자(U)가 제공하는 소리가 프로세싱되어 타겟 위치에 제공된다. 원격 통화 시스템의 실시예에 있어서는 송화자인 사용자(U)가 제공하는 소리가 프로세싱되어 타겟 위치에 제공된다.
이전 실시예에서 이미 설명된 바와 같이, 저장장치(도 4 230참조)는 단말들의 식별 정보들에 대응하는 소리 제공 수단들의 출력 및 지향 방향 변화에 대한 소리 제공 효율 변화를 저장할 수 있다. 따라서 연산부는 보충 데이터에 포함된 식별 정보로부터 소리 제공 수단의 출력 및 지향 방향 변화에 대한 소리 제공 효율 변화 중 어느 하나 이상을 구하여 타겟 위치에 제공되는 소리의 진폭, 위상 및 주파수 중 어느 하나 이상을 연산할 수 있다.
제4 실시예
도 13은 본 실시예에 따른 소리 데이터 처리 시스템을 원격 회의 시스템으로 실시하는 것을 개요적으로 도시한 개요도이다. 본 실시예는, 제1 실시예, 제2 실시예, 그리고 제3 실시예가 같이 결합된 실시예로, 본 실시예를 설명함에 있어서 위에서 설명된 실시예와 동일하거나 유사한 부분에 대하여는 간결하고 명확한 설명을 위하여 설명이 생략될 수 있다.
화자1(U1)은 소음에 노출된 환경인 회의실에서 본 발명의 실시예에 의한 시스템을 이용하고 화자2(U2)는 기존의 단말을 사용하는 경우를 가정하고 화자1과 화자2는 서로 떨어져 있다고 가정한다.
화자 1(U1)이 위치한 회의실 내에 잡음은 본 발명의 제2 실시예를 실시하여 상쇠될 수 있다. 회의실 내의 화자1(U1)이 말을 하면 화자 1이 제공한 소리를 수집한 단말들(100A, 100B, 100C)은 그에 상응하는 소리 데이터를 서버에 제공한다. 서버는 본 발명의 제1 실시예에 따라 소리 소스인 화자 1의 위치를 파악할 수 있다.
서버는 제3 실시예와 같이 단말이 화자 1(U1)로부터 수집한 소리에 상응하는 소리 데이터를 네트워크를 통해서 화자2에게 전달하고, 화자 1(U1)의 대화에 대응하여 화자 2(U2)가 제공하는 소리 데이터는 단말 100x가 수집하여 네트워크를 통해서 타겟 위치(T)에 전달한다.
한편, 제3 실시예에서 서버가 저장하고 있는 타겟 위치 또는 영역은 제1 실시예에 의한 파악된 소리 소스의 위치에 국한되지 않으며 회의실내에 있는 모든 참석자들이 잘 들을 수 있어야 하는 경우에 타겟 위치 또는 영역은 회의실 전체가 될 수 있다. 또한, 화자 1(U1)이 이동하는 경우에는 그에 따라 타겟 위치가 시간에 따라 변화할 수도 있다.
본 발명에 대한 이해를 돕기 위하여 도면에 도시된 실시 예를 참고로 설명되었으나, 이는 실시를 위한 실시예로, 예시적인 것에 불과하며, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위에 의해 정해져야 할 것이다.
상기에 기재되어 있음

Claims (59)

  1. 복수의 소리 수집 단말들과 서버를 포함하는 시스템으로,
    상기 복수의 소리 수집 단말들 중 각각의 소리 수집 단말은 지향 방향을 가지고 소리를 수집하는 소리 수집 수단과, 자신의 위치에 대응하는 위치 데이터와 상기 소리 수집 수단의 지향 방향에 대응하는 지향 방향 데이터를 포함하는 보충 데이터(supplementary data) 및 상기 소리 수집 수단이 수집한 소리에 대응하는 소리 데이터(sound data)를 네트워크를 통하여 전송하는 통신 모듈을 포함하며,
    상기 서버는 상기 복수의 소리 수집 단말들이 상기 네트워크를 통하여 전송된 소리 데이터들과 보충 데이터들을 수신하고, 상기 소리 데이터들 및 상기 보충 데이터들에 기반하여 상기 소리 수집 수단이 수집한 소리를 방출하는 소스(source)의 위치를 파악하는 소리 데이터 처리 시스템.
  2. 제1항에 있어서,
    상기 각각의 소리 수집 단말은,
    상기 소리 수집 단말의 위치를 검출하는 위치 검출 수단과,
    상기 소리 수집 수단의 지향 방향을 검출하는 방향 검출 수단을 더 포함하는 소리 데이터 처리 시스템.
  3. 제1항에 있어서,
    상기 각각의 소리 수집 단말은,
    온도 센서, 습도 센서 및 고도 센서 중 어느 하나 이상을 더 포함하며,
    상기 보충 데이터는 상기 온도 센서가 측정한 온도에 대응하는 온도 데이터와, 상기 습도 센서가 측정한 습도에 대응하는 습도 데이터 및 상기 고도 센서가 측정한 고도에 대응하는 고도 데이터 중 어느 하나 이상을 더 포함하는 소리 데이터 처리 시스템.
  4. 제1항에 있어서,
    상기 보충 데이터는 소리 수집 단말의 식별 정보를 더 포함하고,
    상기 서버는 상기 소리 수집 단말의 식별 정보에 대응하는 소리 수집 수단의 감도 및 지향 방향 변화에 대한 소리 수집 수단 감도 변화 중 어느 하나 이상을 저장하는 저장장치를 더 포함하는 소리 데이터 처리 시스템.
  5. 제4항에 있어서,
    상기 서버는 상기 소리 수집 단말의 식별 정보로부터 소리 수집 수단의 감도를 구하고,
    구한 상기 소리 수집 수단의 감도에 기반하여 상기 소리 수집 수단이 수집한 소리를 방출하는 소스의 위치를 파악하는 소리 데이터 처리 시스템.
  6. 제1항에 있어서,
    상기 서버는 모의 시험(simulation)을 통하여 상기 소스의 위치를 파악하되, 상기 모의 시험은 상기 보충 데이터들로부터 상기 소리 수집 수단들의 위치들 및 지향방향들을 결정하고,
    상기 소스의 위치를 이동하면서 상기 소리 수집 수단과 상기 소스 사이의 거리와, 상기 소리 수집 수단의 지향 방향에 기초하여 소리 수집 수단들이 검출하는 소리 데이터들의 진폭의 크기를 연산하며,
    연산된 상기 진폭의 크기와 실제 소리 수집 수단들이 수집한 소리 데이터들 특성에 기초하여 소스의 위치를 연산하여 결정하는 소리 데이터 처리 시스템.
  7. 제1항에 있어서,
    상기 서버는 상기 복수의 소리 수집 단말들이 수집한 소리 데이터들로부터 소리의 진폭 및 주파수 중 어느 하나 이상을 연산하고, 연산된 소리의 진폭 및 주파수 중 어느 하나가 미리 정의된 이벤트의 진폭 또는 주파수를 포함하는 특성에 대응하면 경보를 전송하는 소리 데이터 처리 시스템.
  8. 제7항에 있어서,
    상기 서버는, 상기 연산된 소리의 진폭 및 주파수를 포함한 형태가 미리 정의된 이벤트의 진폭 및 주파수를 포함한 특성에 대응하면 상기 소스로부터 미리 정하여진 거리 이내에 위치하는 상기 소리 수집 단말들에 경보를 전송하는 소리 데이터 처리 시스템.
  9. 제1항에 있어서,
    상기 각각의 소리 수집 단말은 지향방향을 가지고 소리를 제공하는 소리 제공 수단을 더 포함하는 소리 데이터 처리 시스템.
  10. 제9항에 있어서,
    상기 서버는
    상기 소리 데이터들로부터 소리의 진폭들과 소리의 주파수들을 구하고,
    상기 보충 데이터들로부터 상기 소스와 상기 소리 수집 단말들과의 거리 차이들을 연산하며,
    연산된 상기 거리 차이들과 상기 소리의 주파수들 및 상기 소리 제공 수단의 지향방향으로부터 상기 소리를 감쇠(attenuate)할 수 있는 진폭과 주파수 및 위상을 가지는 감쇠 소리 신호에 상응하는 감쇠 소리 데이터를 각각의 소리 수집 단말들 별로 형성하는 소리 데이터 처리 시스템.
  11. 제10항에 있어서,
    상기 서버는 상기 네트워크로 상기 감쇠 소리 데이터를 전송하고, 상기 각각의 소리 수집 단말들은 상기 감쇠 소리 데이터에 상응하는 상기 감쇠 소리 신호를 상기 소리 제공 수단을 이용하여 외부로 제공하는 소리 데이터 처리 시스템.
  12. 제10항에 있어서,
    상기 소리 데이터 처리 시스템은 소음 감쇠 시스템으로 기능하는 소리 데이터 처리 시스템.
  13. 제1항에 있어서,
    상기 보충 데이터는 상기 위치 또는 상기 지향 방향의 변화시에 전송되거나, 간헐적으로 전송되거나 또는 상기 서버의 요청이 있는 경우에 전송되는 소리 데이터 처리 시스템.
  14. 지향 방향을 가지고 소리를 수집하는 소리 수집 수단;
    자신의 위치에 대응하는 위치 데이터와 상기 지향 방향에 대응하는 지향 방향 데이터를 포함하는 보충 데이터(supplementary data) 및 상기 소리 수집 수단이 수집한 소리에 대응하는 소리 데이터(sound data)를 네트워크를 통하여 전송하는 통신 모듈을 포함하며,
    상기 보충 데이터는 상기 위치 또는 상기 지향 방향의 변화시에 전송되거나, 간헐적으로 전송되며,
    상기 소리 데이터와 상기 보충 데이터는 동일한 서버로 전송되는 소리 수집 단말.
  15. 제14항에 있어서,
    상기 소리 수집 단말은,
    상기 소리 수집 단말의 위치를 검출하는 위치 검출 수단; 및
    상기 지향 방향을 검출하는 방향 검출 수단을 더 포함하는 소리 수집 단말.
  16. 제14항에 있어서,
    상기 소리 수집 단말은,
    온도 센서, 습도 센서, 고도 센서 중 어느 하나 이상을 더 포함하며,
    상기 보충 데이터는 상기 온도 센서가 측정한 온도에 대응하는 온도 데이터와, 상기 습도 센서가 측정한 습도에 대응하는 습도 데이터와, 상기 고도 센서가 측정한 고도에 대응하는 고도 데이터 중 어느 하나 이상을 더 포함하는 소리 수집 단말.
  17. 제14항에 있어서,
    상기 보충 데이터는 상기 소리 수집 단말의 식별 정보를 더 포함하는 소리 수집 단말.
  18. 제14항에 있어서,
    상기 소리 수집 단말은 지향방향을 가지고 외부에 소리를 제공하는 소리 제공 수단을 더 포함하는 소리 수집 단말.
  19. 제18항에 있어서,
    상기 보충 데이터는 상기 소리 제공 수단의 상기 지향 방향에 상응하는 지향 방향 데이터를 더 포함하는 소리 수집 단말.
  20. 제18항에 있어서,
    상기 소리 수집 단말은 상기 소리 제공 수단을 이용하여 경보 또는 소음을 감쇠하는 감쇠 소리를 외부에 제공하는 소리 수집 단말.
  21. 제14항에 있어서,
    상기 보충 데이터는 상기 서버의 요청이 있는 경우에 전송되는 소리 수집 단말.
  22. 복수의 소리 수집 수단들의 위치들에 대응하는 복수의 위치데이터들 및 상기 복수의 소리 수집 수단들의 지향 방향들에 대응하는 복수의 지향방향 데이터들을 포함하는 보충 데이터들과 상기 복수의 소리 수집 수단들이 수집한 소리에 대응하는 소리 데이터들을 네트워크로부터 수신하는 통신부;
    상기 보충 데이터들과 상기 소리 데이터들이 저장되는 저장장치; 및
    상기 소리 데이터들 및 상기 보충 데이터에 기반하여 상기 수집한 소리를 방출하는 소스(source)의 위치를 파악하는 연산부를 포함하는 소리 데이터 처리 서버.
  23. 제22항에 있어서,
    상기 보충 데이터들은,
    상기 소리 수집 단말들의 식별 정보들을 더 포함하며,
    상기 저장장치는 상기 단말들의 식별 정보들에 대응하는 소리 수집 수단들의 감도 및 지향 방향 변화에 대한 소리 수집 수단 감도 변화 중 어느 하나 이상을 저장하는 저장장치를 더 포함하는 소리 데이터 처리 서버.
  24. 제23항에 있어서,
    상기 서버는 상기 소리 수집 단말의 식별 정보로부터 상기 저장 장치에 저장된 소리 수집 수단의 감도 및 지향 방향 변화에 대한 소리 수집 수단 감도 변화 중 어느 하나 이상을 취득하고,
    취득한 상기 소리 수집 수단의 감도 및 지향 방향 변화에 대한 소리 수집 수단 감도 변화 중 어느 하나 이상에 기반하여 상기 소리 수집 수단이 수집한 소리를 방출하는 소스의 위치를 파악하는 소리 데이터 처리 서버.
  25. 제22항에 있어서,
    상기 연산부는 모의 시험(simulation)을 통하여 상기 소스의 위치를 파악하되, 상기 모의 시험은 상기 보충 데이터들로부터 상기 소리 수집 수단들의 위치들 및 지향방향들을 결정하고,
    상기 소스의 위치를 이동하면서 소리 수집 수단들이 검출하는 소리 데이터들의 진폭의 크기를 연산하며,
    연산된 상기 진폭의 크기와 실제 소리 수집 수단들이 수집한 소리 데이터들에 기초하여 소스의 위치를 연산하여 결정하는 소리 데이터 처리 서버.
  26. 제22항에 있어서,
    상기 연산부는 상기 소리 수집 단말들이 수집한 소리 데이터들로부터 소리의 진폭들을 구하고,
    상기 통신부는 구한 소리의 진폭들이 미리 정의된 이벤트의 진폭 형태에 대응하면 경보를 전송하는 소리 데이터 처리 서버.
  27. 제26항에 있어서,
    상기 서버는, 상기 연산된 소리의 진폭들이 미리 정의된 이벤트의 진폭 형태에 대응하면 상기 소스로부터 미리 정하여진 거리 이내에 위치하는 상기 소리 수집 단말들에 경보를 전송하는 소리 데이터 처리 서버.
  28. 제22항에 있어서,
    상기 통신부는,
    지향방향을 가지고 소리를 제공하는 소리 제공 수단을 더 포함하는 상기 소리 수집 단말들로부터 소리 데이터들과 상기 소리 제공 수단의 지향 방향에 상응하는 지향 방향 데이터들을 더 포함하는 보충 데이터들을 수신하고,
    상기 연산부는 상기 소리 데이터들로부터 상기 복수의 소리 수집 수단들이 수집한 소리의 주파수를 구하고,
    상기 위치 데이터들로부터 상기 복수의 소리 수집 수단들의 위치들을 결정한 후, 상기 소스의 위치로부터 상기 소스와 상기 복수의 소리 수집 수단들과의 거리들을 연산하고,
    연산된 상기 소스와 상기 복수의 소리 수집 수단들과의 거리들을 이용하여 상기 소리 수집 수단들이 수집한 소리를 감쇠(attenuate)할 수 있는 위상들을 연산하며,
    상기 소리 제공 수단을 더 포함하는 상기 소리 수집 단말들 별로 각각 상기 주파수와 상기 위상을 가지는 감쇠 소리(attenuation sound)들을 형성하는 소리 데이터 처리 서버.
  29. 제28항에 있어서,
    상기 통신부는 상기 네트워크를 통하여 상기 감쇠 소리들을 상기 소리 제공 수단을 더 포함하는 상기 소리 수집 단말들에 전송하는 소리 데이터 처리 서버.
  30. 제28항에 있어서,
    상기 연산부는 연산된 거리들로부터 상기 감쇠 소리의 진폭을 연산하는 소리 데이터 처리 서버.
  31. 제22항에 있어서,
    상기 보충 데이터들은,
    소리 제공 단말들의 식별 정보들을 더 포함하며,
    상기 저장장치는 상기 단말들의 식별 정보들에 대응하는 소리 제공 수단들의 출력 및 지향 방향 변화에 대한 소리 제공 효율 변화 중 어느 하나 이상을 저장하는 저장장치를 더 포함하는 소리 데이터 처리 서버.
  32. 제31항에 있어서,
    상기 연산부는 상기 식별 정보로부터 소리 제공 수단의 출력 및 지향 방향 변화에 대한 소리 제공 효율 변화 중 어느 하나 이상을 구하고,
    구한 상기 소리 제공 수단의 출력 및 지향 방향 변화에 대한 소리 제공 효율 변화 중 어느 하나 이상에 기반하여 상기 복수의 소리 수집 수단들이 수집한 소리를 감쇠하는 감쇠 소리의 진폭 및 위상 중 어느 하나 이상을 연산하는 소리 데이터 처리 서버.
  33. 복수의 소리 제공 단말들과 서버를 포함하는 시스템으로,
    상기 복수의 소리 제공 단말들 중 각각의 소리 제공 단말은 지향 방향을 가지고 타겟 위치에 소리를 제공하는 소리 제공 수단과, 자신의 현재 위치에 대응하는 위치 데이터와 상기 지향 방향에 대응하는 지향 방향 데이터를 포함하는 보충 데이터(supplementary data)를 네트워크를 통하여 전송하고, 상기 네트워크로부터 상기 소리 제공 수단이 제공하는 소리에 대응하는 소리 데이터(sound data)를 전송받는 통신 모듈을 포함하며,
    상기 서버는 상기 네트워크를 통하여 상기 복수의 소리 제공 단말들이 전송한 보충 데이터들을 수신하고, 상기 보충 데이터들에 기반하여 상기 소리 제공 단말들이 상기 타겟 위치에 소리를 제공하도록 상기 네트워크를 통하여 소리 데이터들을 전송하는 소리 데이터 처리 시스템.
  34. 제33항에 있어서,
    상기 각각의 소리 제공 단말은
    상기 각각의 소리 제공 단말의 위치를 검출하는 위치 검출 수단과,
    상기 지향 방향을 검출하는 방향 검출 수단을 더 포함하는 소리 데이터 처리 시스템.
  35. 제33항에 있어서,
    상기 각각의 소리 제공 단말은 소리를 수집하는 소리 수집 수단을 더 포함하는 소리 데이터 처리 시스템.
  36. 제33항에 있어서,
    상기 소리 데이터는 상기 서버에 저장되어 있거나, 상기 네트워크를 통하여 상기 복수의 소리 제공 단말들 중 어느 하나가 제공하거나 또는 소리 수집 수단을 통하여 직접 상기 서버로 제공되는 소리 데이터인 소리 데이터 처리 시스템.
  37. 제36항에 있어서,
    상기 소리 데이터는 상기 복수의 소리 제공 단말들로부터 원격지(remote place)에서 형성되어 제공되는 소리 데이터 처리 시스템.
  38. 제33항에 있어서,
    상기 보충 데이터는 소리 제공 단말의 식별 정보를 더 포함하고,
    상기 서버는 상기 단말의 식별 정보에 대응하는 소리 제공 수단의 출력 및 지향 방향 변화에 대한 소리 제공 효율 변화 중 어느 하나 이상을 저장하는 저장장치를 더 포함하는 소리 데이터 처리 시스템.
  39. 제38항에 있어서,
    상기 서버는 상기 소리 제공 단말의 상기 식별 정보로부터 소리 제공 수단의 출력 및 지향 방향 변화에 대한 소리 제공 효율 변화 중 어느 하나 이상을 구하고,
    구한 상기 소리 제공 수단의 출력 및 지향 방향 변화에 대한 소리 제공 효율 변화 중 어느 하나 이상에 기반하여 상기 타겟 위치에 제공되는 소리의 진폭, 위상 및 주파수 중 어느 하나 이상을 결정하는 소리 데이터 처리 시스템.
  40. 제33항에 있어서,
    상기 서버는
    수신한 보충 데이터들에 포함된 위치 데이터들로부터 상기 각각의 소리 제공 단말의 위치들을 파악하고, 수신한 보충 데이터들에 포함된 지향방향 데이터들로부터 각각의 소리 제공 단말에 포함된 소리 제공 수단의 지향 방향을 파악하며,
    상기 타겟 위치로부터 미리 정하여진 거리 이내에 있거나, 상기 타겟 위치를 포함하는 영역을 지향하는 소리 제공 단말에 상기 소리 데이터를 제공하는 소리 데이터 처리 시스템.
  41. 제33항에 있어서,
    상기 소리 데이터 처리 시스템은 원격 통화 시스템, 공적 확성(Public Address)시스템 중 어느 하나로 기능하는 소리 데이터 처리 시스템.
  42. 제33항에 있어서,
    상기 보충 데이터는 상기 위치 또는 상기 지향 방향의 변화시에 전송되거나, 간헐적으로 전송되거나 또는 상기 서버의 요청이 있는 경우에 전송되는 데이터 처리 시스템.
  43. 제33항에 있어서,
    상기 보충 데이터는 상기 타겟 위치에 관한 정보를 더 포함하는 소리 데이터 처리 시스템.
  44. 지향 방향을 가지고 타겟 위치에 소리를 제공하는 소리 제공 수단;
    상기 위치 검출 수단이 검출한 위치에 대응하는 위치 데이터와 상기 방향 검출 수단이 검출한 상기 지향 방향에 대응하는 지향 방향 데이터를 포함하는 보충 데이터(supplementary data)를 네트워크를 통하여 전송하고, 상기 네트워크로부터 상기 소리 제공 수단이 제공하는 소리에 대응하는 소리 데이터(sound data)를 전송받는 통신 모듈을 포함하며,
    상기 보충 데이터는 상기 위치 또는 상기 지향 방향의 변화시에 전송되거나, 간헐적으로 전송되며,
    상기 소리 데이터를 전송하는 서버와 상기 보충 데이터를 수신하는 서버는 동일한 서버인 소리 제공 단말.
  45. 제44항에 있어서,
    상기 소리 제공 단말은,
    상기 소리 제공 단말의 위치를 검출하는 위치 검출 수단; 및
    상기 지향 방향을 검출하는 방향 검출 수단을 더 포함하는 소리 제공 단말.
  46. 제44항에 있어서,
    상기 소리 제공 단말은 소리를 수집하는 소리 수집 수단을 더 포함하는 소리 제공 단말.
  47. 제46항에 있어서,
    상기 소리 데이터는 상기 복수의 소리 제공 단말들 중 어느 하나가 상기 소리 수집 수단을 통하여 수집한 소리 데이터인 소리 제공 단말.
  48. 제44항에 있어서,
    소리 수집 수단을 통하여 소리 데이터를 수집하는 상기 소리 제공 단말은 타겟 위치에 소리를 제공하는 상기 복수의 소리 제공 단말들로부터 원격지(remote place)에 위치하는 소리 제공 단말.
  49. 제44항에 있어서,
    상기 보충 데이터는 소리 제공 단말의 식별 정보를 더 포함하는 소리 제공 단말.
  50. 제44항에 있어서,
    상기 소리 제공 단말은 원격 통화 시스템, 공적 확성(Public Address)시스템 중 어느 하나에서 소리를 제공하는 단말로 기능하는 소리 제공 단말.
  51. 제44항에 있어서,
    상기 보충 데이터는 상기 서버의 요청이 있는 경우에 전송되는 소리 제공 단말.
  52. 제44항에 있어서,
    상기 보충 데이터는 상기 타겟 위치에 관한 정보를 더 포함하는 소리 제공 단말.
  53. 타겟 영역에 소리를 제공하는 복수의 소리 제공 단말들의 위치들에 대응하는 복수의 위치데이터들 및 상기 복수의 소리 제공 수단들의 지향 방향들에 대응하는 복수의 지향 방향 데이터들을 포함하는 보충 데이터들을 네트워크로부터 수신하고, 상기 복수의 소리 수집 수단들이 제공하는 소리에 대응하는 소리 데이터들을 전송하는 통신부;
    상기 보충 데이터들과 상기 소리 데이터들이 저장되는 저장장치; 및
    상기 보충 데이터에 기반하여 상기 타겟 영역에 소리를 제공하는 소리 제공 단말을 결정하는 연산부를 포함하는 소리 데이터 처리 서버.
  54. 제53항에 있어서,
    상기 소리 데이터는 상기 저장장치에 저장되어 있거나, 상기 네트워크를 통하여 상기 복수의 소리 제공 단말들 중 어느 하나가 제공하거나 또는 소리 수집 수단을 통하여 직접 상기 서버로 제공되는 소리 데이터인 소리 데이터 처리 서버.
  55. 제53항에 있어서,
    상기 소리 데이터는 상기 복수의 소리 제공 단말들로부터 원격지(remote place)에서 형성되어 제공되는 소리 데이터인 소리 데이터 처리 서버.
  56. 제53항에 있어서,
    상기 보충 데이터들은,
    상기 소리 제공 단말들의 식별 정보들을 더 포함하며,
    상기 저장장치는 상기 단말들의 식별 정보들에 대응하는 소리 제공 수단들의 출력 및 지향 방향 변화에 대한 소리 제공 효율 변화 중 어느 하나 이상을 저장하는 저장장치를 더 포함하는 소리 데이터 처리 서버.
  57. 제56항에 있어서,
    상기 연산부는 상기 식별 정보로부터 소리 제공 수단의 출력 및 지향 방향 변화에 대한 소리 제공 효율 변화 중 어느 하나 이상을 구하고,
    구한 상기 소리 제공 수단의 출력 및 지향 방향 변화에 대한 소리 제공 효율 변화 중 어느 하나 이상에 기반하여 상기 타겟 위치에 제공되는 소리의 진폭, 위상 및 주파수 중 어느 하나 이상을 연산하는 소리 데이터 처리 서버.
  58. 제53항에 있어서,
    상기 연산부는
    상기 보충 데이터들에 포함된 위치 데이터들로부터 상기 각각의 소리 제공 단말의 위치들을 파악하고, 상기 보충 데이터들에 포함된 지향방향 데이터들로부터 각각의 소리 제공 단말에 포함된 소리 제공 수단의 지향 방향을 파악하며,
    상기 타겟 위치로부터 미리 정하여진 거리 이내에 있거나, 상기 타겟 위치를 포함하는 영역을 지향하는 소리 제공 단말에 상기 소리 데이터를 제공하는 소리 데이터 처리 서버.
  59. 제53항에 있어서,
    상기 서버는 원격 통화 시스템, 공적 확성(Public Address)시스템 중 어느 하나에서 소리 데이터를 처리하는 서버인 소리 데이터 처리 서버.
PCT/KR2016/000840 2015-02-04 2016-01-27 소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템 WO2016126039A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/548,885 US10575090B2 (en) 2015-02-04 2016-01-27 Sound collecting terminal, sound providing terminal, sound data processing server, and sound data processing system using the same
US16/740,852 US10820093B2 (en) 2015-02-04 2020-01-13 Sound collecting terminal, sound providing terminal, sound data processing server, and sound data processing system using the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2015-0017367 2015-02-04
KR1020150017367A KR101581619B1 (ko) 2015-02-04 2015-02-04 소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/548,885 A-371-Of-International US10575090B2 (en) 2015-02-04 2016-01-27 Sound collecting terminal, sound providing terminal, sound data processing server, and sound data processing system using the same
US16/740,852 Division US10820093B2 (en) 2015-02-04 2020-01-13 Sound collecting terminal, sound providing terminal, sound data processing server, and sound data processing system using the same

Publications (1)

Publication Number Publication Date
WO2016126039A1 true WO2016126039A1 (ko) 2016-08-11

Family

ID=55088179

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/000840 WO2016126039A1 (ko) 2015-02-04 2016-01-27 소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템

Country Status (3)

Country Link
US (2) US10575090B2 (ko)
KR (1) KR101581619B1 (ko)
WO (1) WO2016126039A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3625525B1 (en) 2017-05-16 2022-02-09 Signify Holding B.V. Noise-flow monitoring and sound localization via intelligent lighting

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9226090B1 (en) * 2014-06-23 2015-12-29 Glen A. Norris Sound localization for an electronic call
KR101581619B1 (ko) * 2015-02-04 2015-12-30 서울대학교산학협력단 소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템
US11190880B2 (en) * 2018-12-28 2021-11-30 Sonion Nederland B.V. Diaphragm assembly, a transducer, a microphone, and a method of manufacture
EP3823315B1 (en) * 2019-11-18 2024-01-10 Panasonic Intellectual Property Corporation of America Sound pickup device, sound pickup method, and sound pickup program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001144669A (ja) * 1999-11-11 2001-05-25 Nec Corp 音源位置検出システム
KR20030046727A (ko) * 2001-12-06 2003-06-18 박규식 서브밴드 씨피에스피 알고리듬을 이용한 음원위치추정방법및 그 시스템
KR100722800B1 (ko) * 2006-02-28 2007-05-30 연세대학교 산학협력단 소리를 이용한 자기 위치 감지 장치 및 방법
KR20090078604A (ko) * 2008-01-15 2009-07-20 (주)펜앤프리 광대역 마이크로폰을 이용한 위치 측정 장치 및 방법
KR20110109620A (ko) * 2010-03-31 2011-10-06 주식회사 에스원 마이크로폰 모듈, 이를 이용한 음원 위치 측정 장치 및 그 방법

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004071130A1 (ja) * 2003-02-07 2004-08-19 Nippon Telegraph And Telephone Corporation 収音方法及び収音装置
US20060034469A1 (en) * 2004-07-09 2006-02-16 Yamaha Corporation Sound apparatus and teleconference system
DE102005057406A1 (de) * 2005-11-30 2007-06-06 Valenzuela, Carlos Alberto, Dr.-Ing. Verfahren zur Aufnahme einer Tonquelle mit zeitlich variabler Richtcharakteristik und zur Wiedergabe sowie System zur Durchführung des Verfahrens
KR101349268B1 (ko) * 2007-10-16 2014-01-15 삼성전자주식회사 마이크로폰 어레이를 이용한 음원 거리 측정 장치
US20100223552A1 (en) * 2009-03-02 2010-09-02 Metcalf Randall B Playback Device For Generating Sound Events
US10107639B2 (en) * 2009-09-15 2018-10-23 Microsoft Technology Licensing, Llc Audio output configured to indicate a direction
WO2011101708A1 (en) * 2010-02-17 2011-08-25 Nokia Corporation Processing of multi-device audio capture
JP5676292B2 (ja) * 2011-02-01 2015-02-25 Necカシオモバイルコミュニケーションズ株式会社 電子装置
US20150189455A1 (en) * 2013-12-30 2015-07-02 Aliphcom Transformation of multiple sound fields to generate a transformed reproduced sound field including modified reproductions of the multiple sound fields
KR101581619B1 (ko) * 2015-02-04 2015-12-30 서울대학교산학협력단 소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001144669A (ja) * 1999-11-11 2001-05-25 Nec Corp 音源位置検出システム
KR20030046727A (ko) * 2001-12-06 2003-06-18 박규식 서브밴드 씨피에스피 알고리듬을 이용한 음원위치추정방법및 그 시스템
KR100722800B1 (ko) * 2006-02-28 2007-05-30 연세대학교 산학협력단 소리를 이용한 자기 위치 감지 장치 및 방법
KR20090078604A (ko) * 2008-01-15 2009-07-20 (주)펜앤프리 광대역 마이크로폰을 이용한 위치 측정 장치 및 방법
KR20110109620A (ko) * 2010-03-31 2011-10-06 주식회사 에스원 마이크로폰 모듈, 이를 이용한 음원 위치 측정 장치 및 그 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3625525B1 (en) 2017-05-16 2022-02-09 Signify Holding B.V. Noise-flow monitoring and sound localization via intelligent lighting
EP3971541B1 (en) 2017-05-16 2023-05-03 Signify Holding B.V. Noise-flow monitoring and sound localization via intelligent lighting

Also Published As

Publication number Publication date
US20200154199A1 (en) 2020-05-14
US20180027324A1 (en) 2018-01-25
KR101581619B1 (ko) 2015-12-30
US10575090B2 (en) 2020-02-25
US10820093B2 (en) 2020-10-27

Similar Documents

Publication Publication Date Title
WO2016126039A1 (ko) 소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템
US20220038819A1 (en) Locating wireless devices
JP2008271465A (ja) 携帯通信端末、位置特定システム、位置特定サーバ
WO2012128500A1 (ko) 반경 내 호출 시스템 및 서비스 방법
JP2017118375A (ja) 電子機器及び音出力制御方法
US9832587B1 (en) Assisted near-distance communication using binaural cues
JP2013148576A (ja) 変調された背景音を利用して位置特定を行う携帯装置、コンピュータプログラム、および方法
CN107677992A (zh) 移动侦测方法、装置和监控设备
WO2016198132A1 (en) Communication system, audio server, and method for operating a communication system
US20080118081A1 (en) Method and Apparatus for Canceling a User's Voice
JP2007028134A (ja) 携帯電話機
CN105277936A (zh) 一种基于手机的测距系统和方法
Qiu et al. Silent whistle: Effective indoor positioning with assistance from acoustic sensing on smartphones
KR101673812B1 (ko) 소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템
US20170316803A1 (en) Apparatus, electronic device, system, method and computer program for capturing audio signals
KR101228749B1 (ko) 가청 주파수를 이용한 위치 감지 시스템, 방법 및 이를 이용한 기록 매체
CN111556394B (zh) 耳机
KR101595706B1 (ko) 소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템
US12112734B2 (en) Open active noise cancellation system
CN111492668B (zh) 用于在限定的空间内定位音频信号的发源点的方法和系统
KR100583873B1 (ko) 무선통신 단말기에서 목적지정보 제공 장치
US11137473B1 (en) Infra-sound array system for use in determining gun shots
Hoppe et al. Acoustic receivers for indoor smartphone localization
JP2017118376A (ja) 電子機器
Bingqian et al. An active sound localization method based on mobile phone

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16746780

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15548885

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16746780

Country of ref document: EP

Kind code of ref document: A1