KR101595706B1 - 소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템 - Google Patents

소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템 Download PDF

Info

Publication number
KR101595706B1
KR101595706B1 KR1020150137806A KR20150137806A KR101595706B1 KR 101595706 B1 KR101595706 B1 KR 101595706B1 KR 1020150137806 A KR1020150137806 A KR 1020150137806A KR 20150137806 A KR20150137806 A KR 20150137806A KR 101595706 B1 KR101595706 B1 KR 101595706B1
Authority
KR
South Korea
Prior art keywords
sound
data
terminal
terminals
server
Prior art date
Application number
KR1020150137806A
Other languages
English (en)
Inventor
김수환
김세윤
김민재
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020150137806A priority Critical patent/KR101595706B1/ko
Application granted granted Critical
Publication of KR101595706B1 publication Critical patent/KR101595706B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers

Abstract

본 실시예에 따른 소리 데이터 처리 시스템은, 복수의 소리 수집 단말들, 복수의 소리 제공 단말들과 서버를 포함하는 시스템으로, 복수의 소리 수집 단말과 소리 제공 단말들 중 각각의 소리 수집 단말과 소리 제공 단말은 위치와 지향 방향을 가지고 소리를 수집하는 소리 수집 수단과 위치와 지향 방향을 가지고 소리를 제공하는 소리 제공 수단, 소리 수집 수단과 소리 제공 수단의 위치를 검출하는 위치 검출 수단과, 지향 방향을 검출하는 방향 검출 수단 및 위치 검출 수단이 검출한 위치에 대응하는 위치 데이터와 방향 검출 수단이 검출한 지향 방향에 대응하는 지향 방향 데이터를 포함하는 보충 데이터(supplementary data) 및 소리 수집 수단이 수집한 소리에 대응하는 소리 데이터(sound data)를 네트워크를 통하여 전송하는 통신 모듈을 포함하며, 서버는 복수의 소리 수집 단말들이 네트워크를 통하여 전송된 소리 데이터들과 복수의 소리 수집 단말들과 복수의 소리 제공 단말들이 네트워크를 통해서 전송된 보충 데이터들을 수신하고, 소리 데이터들 및 보충 데이터들에 기반하여 소리 수집 수단이 수집한 소리를 방출하는 소스(source)의 위치를 파악하거나, 소음을 감쇠하거나, 특정한 영역에 소리를 제공한다.

Description

소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템{Sound Collecting Terminal, Sound Providing Terminal, Sound Data Processing Server and Sound Data Processing System using thereof}
본 발명은 소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템에 관한 것이다.
소리는 매질인 공기의 상대적 압축으로 형성되는 밀 페이즈와 공기가 상대적으로 팽창한 소 페이즈로 이루어진 종파로, 마이크(microphone)를 이용하여 전기적 신호로 전환된다. 전기적 신호로 전환된 소리는 아날로그/디지털 신호 처리되고 목적하는 음량이 되도록 전력 증폭기를 이용하여 증폭된 후, 스피커를 통하여 외부로 제공된다. 종래의 소리 데이터 처리 시스템은 마이크로폰으로 소리를 수집하고, 수집한 소리를 처리하여 외부로 제공하는 등의 역할에 그쳤다.
종래 기술은 마이크로 수집한 소리를 처리하여 전송하고, 이를 복원하는 것과 같이 소리 데이터를 송수신하고, 그로부터 소리를 복원하는 것에 초점을 집중하였다. 따라서 종래 기술에 의하면 수집한 소리 데이터로부터 소리를 발생하는 소스(source)의 위치를 찾거나, 소스(source)가 발생하는 소리를 소거하는 등의 실시는 제한적이다.
본 실시예는 이러한 종래 기술의 한계를 극복하여 소리를 수집하여 소리를 발생하는 소스의 위치를 파악하고, 특정한 이벤트가 발생하면 경보를 발생시킬 수 있으며, 특정한 방향에서 방사되는 소음을 제거할 수 있고, 나아가 공적 확성(Public Address) 및 원격 통화를 수행할 수 있는 소리 데이터 처리 시스템 및 이에 사용되는 단말 및 서버를 제공하는데 그 목적이 있다.
본 실시예에 의한 소리 데이터 처리 시스템은 복수의 소리 수집 단말들과 서버를 포함하는 시스템으로, 복수의 소리 수집 단말들 중 각각의 소리 수집 단말은 지향 방향을 가지고 소리를 수집하는 소리 수집 수단과, 자신의 위치에 대응하는 위치 데이터와 소리 수집 수단의 지향 방향에 대응하는 지향 방향 데이터를 포함하는 보충 데이터(supplementary data) 및 소리 수집 수단이 수집한 소리에 대응하는 소리 데이터(sound data)를 네트워크를 통하여 전송하는 통신 모듈을 포함하며, 서버는 복수의 소리 수집 단말들이 네트워크를 통하여 전송된 소리 데이터들과 보충 데이터들을 수신하고, 소리 데이터들 및 보충 데이터들에 기반하여 소리 수집 수단이 수집한 소리를 방출하는 소스(source)의 위치를 파악한다.
본 실시예에 의한 소리 수집 단말은 지향 방향을 가지고 소리를 수집하는 소리 수집 수단과, 자신의 위치에 대응하는 위치 데이터와 지향 방향에 대응하는 지향 방향 데이터를 포함하는 보충 데이터(supplementary data) 및 소리 수집 수단이 수집한 소리에 대응하는 소리 데이터(sound data)를 네트워크를 통하여 전송하는 통신 모듈을 포함하며, 보충 데이터는 위치 또는 지향 방향의 변화시에 전송되거나, 간헐적으로 전송되며, 소리 데이터와 보충 데이터는 동일한 서버로 전송된다.
*본 실시예에 의한 소리 데이터 처리 서버는 복수의 소리 수집 수단들의 위치들에 대응하는 복수의 위치데이터들 및 복수의 소리 수집 수단들의 지향 방향들에 대응하는 복수의 지향방향 데이터들을 포함하는 보충 데이터들과 복수의 소리 수집 수단들이 수집한 소리에 대응하는 소리 데이터들을 네트워크로부터 수신하는 통신부와 보충 데이터들과 소리 데이터들이 저장되는 저장장치와 및 소리 데이터들 및 보충 데이터에 기반하여 수집한 소리를 방출하는 소스(source)의 위치를 파악하는 연산부를 포함한다.
본 실시예에 의한 소리 데이터 처리 시스템은 복수의 소리 제공 단말들과 서버를 포함하는 시스템으로, 복수의 소리 제공 단말들 중 각각의 소리 제공 단말은 지향 방향을 가지고 타겟 위치에 소리를 제공하는 소리 제공 수단과, 자신의 현재 위치에 대응하는 위치 데이터와 지향 방향에 대응하는 지향 방향 데이터를 포함하는 보충 데이터(supplementary data)를 네트워크를 통하여 전송하고, 네트워크로부터 소리 제공 수단이 제공하는 소리에 대응하는 소리 데이터(sound data)를 전송 받는 통신 모듈을 포함하며, 서버는 네트워크를 통하여 복수의 소리 제공 단말들이 전송한 보충 데이터들을 수신하고, 보충 데이터들에 기반하여 소리 제공 단말들이 타겟 위치에 소리를 제공하도록 네트워크를 통하여 소리 데이터들을 전송한다.
본 실시예에 따른 소리 제공 단말은 지향 방향을 가지고 타겟 위치에 소리를 제공하는 소리 제공 수단과, 위치 검출 수단이 검출한 위치에 대응하는 위치 데이터와 방향 검출 수단이 검출한 지향 방향에 대응하는 지향 방향 데이터를 포함하는 보충 데이터(supplementary data)를 네트워크를 통하여 전송하고, 네트워크로부터 소리 제공 수단이 제공하는 소리에 대응하는 소리 데이터(sound data)를 전송받는 통신 모듈을 포함하며, 보충 데이터는 위치 또는 지향 방향의 변화시에 전송되거나, 간헐적으로 전송되며, 소리 데이터를 전송하는 서버와 보충 데이터를 수신하는 서버는 동일한 서버이다.
본 실시예에 따른 소리 데이터 처리 서버는, 타겟 영역에 소리를 제공하는 복수의 소리 제공 단말들의 위치들에 대응하는 복수의 위치데이터들 및 복수의 소리 제공 수단들의 지향 방향들에 대응하는 복수의 지향 방향 데이터들을 포함하는 보충 데이터들을 네트워크로부터 수신하고, 복수의 소리 수집 수단들이 제공하는 소리에 대응하는 소리 데이터들을 전송하는 통신부와 보충 데이터들과 소리 데이터들이 저장되는 저장장치와 및 보충 데이터에 기반하여 타겟 영역에 소리를 제공하는 소리 제공 단말을 결정하는 연산부를 포함한다.
본 실시예에 의하면 복수의 소리 수집 단말이 소리를 수집하여 형성된 소리 데이터와 상기 복수의 소리 수집 단말들의 위치들 및 지향방향들로부터 상기 소리를 발생하는 소스의 위치를 용이하게 파악할 수 있다는 장점이 제공된다.
또한, 본 실시예에 의하면 복수의 소리 수집 단말이 소리를 수집하여 형성된 소리 데이터와 상기 복수의 소리 수집 단말들의 위치들 및 지향방향들로부터 소리를 소거할 수 있는 감쇠 소리 신호를 형성하고 이를 소리 제공 수단에 제공하여 소리를 감쇠할 수 있다는 장점이 제공된다.
또한, 본 실시예에 의하면 복수의 소리 제공 단말이 특정한 소리를 타겟 위치에 제공하여 원격지 사이에서 원격 통화를 수행하거나, 공적인 확성(Public Address)을 수행할 수 있다는 장점이 제공된다.
도 1은 본 실시예에 따른 소리 데이터 처리 시스템을 설명하기 위한 개요도이다.
도 2는 단말의 구조를 개요적으로 도시한 블록도이다.
도 3은 단말을 스마트 폰으로 구현하는 경우를 예시한 도면이다.
도 4는 본 실시예에 의한 서버의 개요를 도시한 블록도이다.
도 5는 본 실시예에 따른 소리 데이터 처리 시스템을 소리 소스 위치파악 시스템으로 실시하는 경우에 정보의 흐름을 도시한 도면이다.
도 6은 서버의 연산부가 소리 소스의 위치를 파악하는 방법의 일 예를 예시한 도면이다.
도 7은 소리 소스의 위치를 파악하는 다른 실시예를 도시한 도면이다.
도 8은 본 실시예 따른 소리 데이터 처리 시스템을 소음 제거 시스템으로 실시하는 것을 개요적으로 도시한 개요도이다.
도 9은 본 실시예에 따른 소리 데이터 처리 시스템을 소음 제거 시스템으로 실시하는 경우에 정보의 흐름을 도시한 도면이다.
도 10은 타겟 위치에 반대 위상을 가지는 상쇠 소리 신호를 제공하기 위하여 거리와 위상의 관계 개요를 도시한 도면이다.
도 11은 본 실시예 따른 소리 데이터 처리 시스템을 공적 확성(Public Address) 시스템 또는 원격 통화 시스템으로 실시하는 것을 개요적으로 도시한 개요도이다.
도 12은 본 실시예에 따른 소리 데이터 처리 시스템을 소음 제거 시스템으로 실시하는 경우에 정보의 흐름을 도시한 도면이다.
도 13은 제4 실시예의 개요를 도시한 개요도이다.
본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
“제1”, “제2” 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
본 개시의 실시예들을 설명하기 위하여 사용되는 “ 및/또는”이라는 표현은 각각 과 모두를 지칭하는 것으로 사용된다. 일 예로, “A 및/또는 B ”라는 기재는 “A, B 그리고 A와 B 모두”를 지칭하는 것으로 이해되어야 한다.
*본 개시의 실시예들을 설명하기 위하여 참조되는 도면은 설명의 편의 및 이해의 용이를 위하여 의도적으로 크기, 높이, 두께 등이 과장되어 표현되어 있으며, 비율에 따라 확대 또는 축소된 것이 아니다. 또한, 도면에 도시된 어느 구성요소는 의도적으로 축소되어 표현하고, 다른 구성요소는 의도적으로 확대되어 표현될 수 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
도 1은 본 실시예에 따른 소리 데이터 처리 시스템을 설명하기 위한 개요도이다. 도 1을 참조하면, 본 실시예에 따른 소리 데이터 처리 시스템(10)은 복수의 단말들(100A, 100B, 100C)과 서버(200)를 포함한다. 복수의 단말들은 소리 데이터 처리 시스템을 구현하는 실시예에 따라 소리 수집 단말 또는 소리 제공 단말이라고 명명될 수 있다.
복수의 단말들(100A, 100B, 100C)은 네트워크(N)을 통하여 서버(200)와 통신한다. 소리 수집 수단을 포함하는 단말들(100A, 100C)은 자신이 위치한 위치에 상응하는 위치 데이터와, 소리 수집 수단이 지향하는 방향에 상응하는 지향 방향 데이터를 네트워크를 통하여 서버에 전송한다. 소리 제공 수단을 포함하는 단말들(100A, 100B)은 자신의 위치들에 상응하는 위치 데이터들과 소리 제공 수단이 지향하는 방향에 상응하는 지향 방향 데이터를 네트워크를 통하여 서버에 전송한다. 소리 제공 수단과 소리 수집 수단을 모두 포함하는 단말(100A)이 있을 수 있으며 자신의 위치에 상응하는 위치 데이터와 소리 제공 수단이 지향하는 방향에 상응하는 지향 방향 데이터와 소리 수집 수단이 지향하는 방향에 상응하는 지향 방향 데이터를 서버에 전송할 수 있다.
각각의 단말은 일정한 위치에 고정되거나 자유로이 이동할 수 있다. 각각의 단말에 포함된 소리 수집 수단 및/또는 소리 제공 수단은 지향 방향이 고정되거나 지향 방향을 달리할 수 있다. 본 실시예에서 단말의 이동 여부, 지향 방향의 고정 여부는 문제되지 않으며 각 단말이 포함하는 소리 수집 수단 및/또는 소리 제공 수단의 위치와 지향 방향 데이터를 서버로 제공할 수 있으면 충분하다.
소리 수집 수단을 포함하는 단말들(100A, 100C)은 소리 수집 수단을 통하여 수집한 소리에 상응하는 소리 데이터를 네트워크(N)를 통하여 서버(200)에 제공한다. 소리 제공 수단을 포함하는 단말들(100A, 100B)은 소리 제공 수단으로 제공할 소리에 상응하는 소리 데이터를 네트워크를 통하여 제공받는다. 소리 데이터는 그에 상응하는 소리를 복원할 수 있는 데이터를 의미하며 아날로그/디지털 여부, 압축/비압축 여부와 같은 형식에 제한되지 않는다.
서버(200)는 복수의 단말들이 제공한 위치 정보와 소리 수집 수단 및/또는 소리 제공 수단의 지향 방향 데이터를 수신한다. 서버(200)는 실시예에 따라 소리 수집 수단을 포함하는 단말들(100A, 100C)로부터 각각 수집한 소리에 상응하는 소리 데이터를 전송받고 위치 정보, 소리 수집 수단의 지향 정보 등을 이용하여 소리를 발생하는 소스의 위치를 파악할 수 있다. 서버(200)는 실시예에 따라 필요한 경우 특정한 지향 방향을 갖는 소리 제공 수단을 포함하는 특정한 위치의 단말들(100A, 100B)에 소리 데이터를 전송하여 이 소리 데이터에 상응하는 소리를 제공하도록 할 수 있다.
네트워크(N)는 서버(200)와 단말들(100A, 100B, 100C) 사이에서 소리 데이터, 위치 데이터, 지향 방향 데이터 등이 전송될 수 있는 네트워크이다. 본 실시예에서의 네트워크(N)은 무선 또는 유선 네트워크등 종류에 국한되지 않는다.
도 2는 단말의 구조를 개요적으로 도시한 블록도이다. 도 2를 참조하면, 단말(100)은 소리 수집 수단(110), 소리 제공 수단(120), 센서부(130), 제어부(140) 및 통신 모듈(150)을 포함할 수 있다. 단말(100)은 실시예에 따라 소리 수집 수단(110)과 소리 제공 수단(120)을 모두 포함할 수 있으며, 소리 수집 수단(110)과 소리 제공 수단(120) 중 어느 하나만을 포함할 수 있다.
소리 수집 수단(110)은 소스(source)가 발생하는 소리를 수집하여 전기적 신호로 변환한다. 일 예로, 소리 수집 수단은 마이크(microphone)으로 구현할 수 있으며, 콘덴서 마이크(condenser microphone), 다이나믹 마이크(dynamic microphone), 리본 마이크(ribbon microphone), 탄소 마이크(carbon microphone), 피에조 마이크(piezoelectrice microphone), MEMS 마이크(Microelectromechanical system Microphone) 및 기재되지 않은 다른 마이크를 소리 수집 수단으로 사용할 수 있다.
소리 제공 수단(120)은 소리 데이터를 전송받고, 소리 데이터에 상응하는 소리를 형성하여 외부에 제공한다. 일 예로, 소리 수집 수단은 스피커(loudspeaker)로 구현할 수 있으며, 우퍼 스피커(woofer speaker), 트위터 스피커(tweeter speaker)등 출력하는 소리의 주파수에 무관하게 사용할 수 있다. 소리 제공 수단은 스피커 유닛의 종류와 무관하게 소리를 제공할 수 있으면 충분하다.
단말(100)은 센서부(130)를 포함한다. 센서부는 도시된 바와 같이 온도 센서(131), 습도 센서(132), 자이로 센서(133), 타이머(134), 위치 검출 장치(135), 고도 센서(136), 가속도 센서(137) 및 지자기 센서(138)등의 센서를 포함할 수 있다. 도면에 도시된 센서들은 단순히 예시를 위한 것으로 실시예에 따라 초음파 센서와 적외선 센서등 다른 센서를 더 포함할 수 있다. 또한, 단말은 도시된 센서들 가운데 어느 하나 이상의 센서를 포함하지 않을 수도 있다.
일 실시예로, 소리 수집 수단이 소리를 발생하는 소스의 위치를 결정하고자 하는 경우에 소리의 진폭 감쇠율을 측정하는 것이 필요할 수 있다. 소리는 온도, 기압 조건이 변화함에 따라서 전파거리에 따른 진폭 감쇠율(amplitude attenuation ratio)이 달라지므로, 단말은 온도 센서로 측정한 온도, 습도 센서로 측정한 습도 및 고도 센서로 측정한 고도 또는 고도에 상응하는 기압 등을 측정하여 서버에 전송할 수 있다.
위치 검출 수단(135)은 GPS(Global Positioning System), GLONASS(GLObal NAvigation Satellite System) 및 Galileo 등의 항법 위성(Navigation satellite, 1)과 통신하여 단말의 현재 위치를 파악할 수 있다. 위치 검출 수단(135)은 이동 통신 기지국들(2)을 이용한 삼각 측량법으로 단말의 위치를 파악할 수 있다. 또한, 위치 검출 수단(135)은 Wi-Fi를 이용하여 단말의 위치를 파악할 수 있다. 단말(100)은 위치 검출 수단(135)이 검출한 단말의 위치에 상응하는 위치 데이터를 네트워크를 통하여 전송한다.
타이머(134)는 시간 데이터를 형성하여 서버에 전송할 수 있다. 다만, 위치 검출 장치(135)가 항법 위성(1)과 통신하여 단말의 현재 위치 뿐만 아니라 현재 시각 정보를 얻거나, 이동 통신 기지국과 통신하여 현재 시각 정보를 얻는 경우 등에는 단말이 타이머를 포함하지 않을 수 있다.
방향 검출 수단(138)은 지향 방향을 검출한다. 방향 검출 수단(138)은 단말의 지향 방향, 소리 수집 수단(110) 및 소리 제공 수단(120)의 지향 방향들 중 어느 하나 이상을 측정할 수 있다. 방향 검출 수단(138)의 일 예로, 방향 검출 수단(138)은 지자기 센서로 구현될 수 있다. 지자기 센서는 지구 자기를 측정하는 센서로, 이를 이용하여 방위를 측정하는 나침반등의 기능을 수행할 수 있다.
일 실시예로, 소리 수집 수단과 소리 제공 수단은 모두 지향성을 가질 수 있다. 소리 수집 수단(110)은 그 지향방향에 따라서 수집되는 소리를 달리할 수 있으며, 소리 제공 수단도 지향방향에 따라 제공되는 소리의 크기를 달리할 수 있다. 따라서 방향 검출 수단(138)은 소리 수집 수단 및/또는 소리 제공 수단이 지향하는 방향에 상응하는 지향 방향 데이터를 서버에 전송한다.
단말은 가속도 센서(137) 또는 자이로 센서(gyroscope sensor, 133)를 이용하여 단말의 기울어짐을 측정할 수 있으며 단말은 기울어짐에 상응하는 기울어짐 데이터를 전송할 수 있다. 가속도를 적분하면 속도를 얻을 수 있고, 속도를 다시 적분하면 변위를 획득할 수 있으므로, 가속도 센서, 자이로 센서를 이용하여 가속도 또는 각가속도를 검출하고, 타이머로 시간정보를 획득하여 소정의 시간동안 정적분을 수행하면 속도, 각속도 또는 변위를 구할 수 있다. 단말(100)은 가속도 센서 및/또는 자이로 센서가 측정한 기울어짐, 가속도 및 각가속도에 상응하는 기울어짐 데이터, 가속도 데이터 및 각가속도 데이터를 네트워크를 통하여 서버로 전송할 수 있다.
제어부(140)는 일 예로 중앙처리장치(CPU, Central Processing Unit) 및 메모리(Memory)를 포함한다. 제어부(140)는 센서부(130)에서 검출한 결과를 네트워크를 통하여 전송할 수 있도록 전환하고, 소리 수집 수단(110)이 수집한 소리에 상응하도록 소리 데이터를 형성한다. 제어부(140)는 서버가 제공한 소리 데이터를 소리 제공 수단(120)을 통하여 외부로 제공할 수 있도록 전환한다. 메모리(미도시)는 단말의 식별자를 저장하고 있을 수 있으며, 식별자에 상응하는 식별 데이터를 네트워크를 통하여 전송하게 할 수 있다.
통신 모듈(150)은 센서부(130), 소리 수집 수단(110)이 검출하거나 수집한 결과들에 상응하는 데이터들을 네트워크를 통하여 서버로 전송하거나, 서버로부터 데이터를 수신한다. 상술한 바와 같이 네트워크는 데이터들을 서버로 전송하고, 서버로부터 데이터들을 수신하면 충분하며, 통신 모듈(150)도 상기 네트워크에 상응하도록 데이터를 네트워크를 통하여 전송하고, 네트워크로부터 데이터를 수신할 수 있으면 충분하다.
일 구현예로, 단말(100)은 스마트 폰(smart phone) 또는 타블렛(tablet)으로 구현할 수 있다. 다른 구현예로, 단말(100)은 소리 수집 수단(110), 소리 제공 수단(120) 중 어느 하나 이상을 포함하며, 센서부에 포함된 센서 들을 포함하는 전용 단말로 구현할 수 있다.
도 3은 단말을 스마트 폰으로 구현하는 경우를 예시한 도면이다. 스마트 폰(S)으로 단말을 구현하는 경우에, 스마트 폰에 포함된 방향 검출 수단은 도 3에 도시된 바와 같이 스마트 폰의 길이 방향(longitudinal direction) 중 수화구(R)가 위치하는 방향인 -x 방향을 단말의 지향방향으로 검출하는 경우가 있을 수 있다. 그러나, 소리 수집 수단(110)이 지향하는 방향은 x 방향이며, 소리 제공 수단(120)이 지향하는 방향은 -z 방향이다.
소리 수집 수단(110) 및 소리 제공 수단(120)이 지향하는 방향은 스마트 폰 단말 기종 또는 타블렛 기종 마다 통일되어 있다. 서버가 단말의 기종별 소리 수집 수단 및/또는 소리 제공 수단의 포함여부, 지향 방향 정보를 저장하고 있으면, 서버는 단말이 단말의 식별 데이터와 방향 검출 수단이 검출하여 전송하는 지향 방향 데이터를 수신하면 수신한 데이터들로부터 스마트 폰 단말 및/또는 타블렛에 포함된 소리 수집 수단(110) 및/또는 소리 제공 수단의 지향 방향 정보를 파악할 수 있다.
본 명세서에서 사용되는 지향 방향 데이터는 방향 검출 수단이 직접소리 수집 수단과 소리 제공 수단이 지향하는 지향 방향을 검출하여 형성한 데이터와 단말의 지향 방향과 서버에 저장된 식별 데이터에 기초하여 얻어지는 소리 수집 수단 및/또는 소리 제공 수단의 지향 방향에 관한 데이터를 모두 포함하는 것이다.
다시 도 2를 참조하면, 단말은 소리 수집 수단이 수집한 소리에 상응하는 소리 데이터와 더불어 센서부(130)에 포함된 센서들이 검출한 값들에 상응하는 데이터들을 포함하는 보충 데이터(supplementary data)를 네트워크(N)를 통하여 서버에 전송한다. 보충 데이터는 위치 검출 장치가 검출한 단말의 현재 위치에 상응하는 위치 데이터, 방향 검출 수단(138)이 검출한 소리 수집 수단(110), 소리 제공 수단(120)의 지향 방향 데이터를 포함하며, 소리 수집 수단 및 소리 제공 수단의 성능과 현재 상태를 알 수 있는 단말의 식별 데이터, 온도 데이터, 습도 데이터들을 포함할 수 있다.
소리 수집 단말은 특정한 장소에 소리 수집 수단의 지향방향이 고정되도록 배치될 수 있다. 이러한 경우 위치 데이터 및 지향 방향 데이터를 포함하는 보충 데이터는 최초 소리 수집 단말이 배치될 때에 한하여 전송될 수 있다. 위와 달리 소리 수집 단말의 위치 및/또는 소리 수집 수단의 지향 방향 등을 포함하는 보충 데이터는 시간이 경과함에 따라 변화할 수 있다. 보충 데이터는 시간이 경과함에 따라 주기적으로 전송되거나, 위치 및/또는 지향 방향 등이 변화할 때마다 전송되거나, 또는 간헐적으로 전송될 수 있다. 또한, 보충 데이터는 서버의 요청이 있을 때 서버로 전송될 수 있다.
도 4는 본 실시예에 의한 서버(200)의 개요를 도시한 블록도이다. 도 4를 참조하면, 서버(200)는 통신부(210), 연산부(220) 및 저장장치(230)를 포함한다. 통신부(210)는 네트워크로부터 단말들이 제공한 소리 데이터 및/또는 보충 데이터를 수신하고, 네트워크를 통하여 단말로 소리 데이터 등을 전송한다.
저장장치(230)는 단말로부터 제공된 소리 데이터, 보충 데이터를 저장하고 단말로 제공될 소리 데이터 등의 데이터를 저장한다. 저장 장치(230)는 단말의 식별 번호에 따른 소리 수집 수단 및/또는 소리 제공 수단의 위치 및 지향 방향 정보를 저장할 수 있다.
연산부(220)는 단말로부터 제공된 소리 데이터, 보충 데이터로부터 단말이 수집한 소리를 제공하는 소스(source)의 위치를 파악하거나, 소스가 제공하는 소리를 감쇠(attenuate)하는 감쇠 소리 신호를 형성하는 등 필요한 연산을 수행한다. 보다 상세한 내용은 아래 실시예들을 통하여 설명된다.
제1 실시예
도 5는 본 실시예에 따른 소리 데이터 처리 시스템을 소리 소스 위치파악 시스템으로 실시하는 경우에 정보의 흐름을 도시한 도면이다. 본 실시예에 있어서, 단말들은 소리 수집 수단을 포함하는 소리 수집 단말들이다. 도 5를 참조하면, 소리 수집 단말들은 위치 데이터와 지향 방향 데이터를 포함하는 보충 데이터를 형성(510)하고, 형성된 보충 데이터를 서버에 전송한다(512). 위에서 설명된 바와 같이 단말이 스마트 폰, 타블렛 등이면 보충 데이터는 단말 식별 데이터를 더 포함할 수 있다. 도시되지 않았지만, 보충 데이터는 소리 데이터와 함께 전송될 수 있거나, 서버의 요청에 응답하여 단말이 서버로 제공할 수 있다. 서버(200)는 전송된 보충 데이터를 저장 장치(도 4의 도면부호 230 참조)에 저장한다(520).
소리 수집 단말(100)들은 소리 수집 수단으로 소리를 수집하여 소리 데이터를 형성(514)하고, 네트워크를 통하여 형성한 소리 데이터를 서버(200)로 전송한다(516). 서버(200)는 소리 수집 단말(100)이 전송한 소리 데이터를 서버의 저장장치에 저장한다.
서버는 보충 데이터와 소리 데이터에 기반하여 소리 수집 단말들이 수집하여 전송한 소리 소스(source)의 위치를 파악한다(540). 도 6은 서버의 연산부(220)가 소리 소스의 위치를 파악하는 방법의 일 예를 예시한 도면이다. 도 6을 참조하면, 연산부는 격자 형태로 구획된 영역을 가정하고, 상기 영역에 소리 수집 단말들(100x, 100y, 100z)을 배치한다. 소리 수집 단말들이 배치된 위치들 및 지향 방향들은 소리 수집 단말들이 전송한 보충 데이터들에 근거한다.
연산부(220)는 소리를 방출하는 소스(S)를 영역 내의 각각의 격자점들(P0,0, P0,1, ..., Pi,j)을 따라 이동하면서 소리 수집 단말들(100x, 100y, 100z)이 수집하는 소리의 크기를 연산한다. 일 실시예로, 연산부는 소스와 소리 수집 단말과의 거리에 기초하여 소리 수집 단말이 수집한 소리의 크기를 연산한다. 그러나, 소스(S)가 P0,0에 있을 때 단말 100x의 소리 수집 수단은 소스와 반대방향을 지향하며, 소스(S)가 P2,2에 있을 때 단말 100x와 소스와의 거리는 소스(S)가 P0,0에 있을 때와 동일하나, 소리 수집 수단은 소스를 지향한다. 이러한 두 경우에 소리 수집 단말은 비록 동일한 거리만큼 소스에서 이격되어 있으나, 동일한 음량으로 소리를 수집하지 않으므로 지향 방향에 따른 수집 음량의 차이를 보정할 필요가 있다.
연산부는 지향 방향에 따라 비중을 달리 인가하는 비중 함수(weighting function, fθ)를 소리 수집 단말이 수집하는 것으로 연산되는 소리의 크기에 곱하여 지향방향에 따른 수집 음량을 보정한다. 일 예로, 비중 함수(weighting function, fθ)는 소스와 소리 수집 단말을 잇는 일직선과 소리 수집 수단 지향 방향의 사이각(θ)에 대한 함수일 수 있다.
소스(S)가 Pi,j에 위치하고, N개의 소리 수집 단말이 수집하는 것으로 연산되는 소리의 크기를 Sim1,(i,j ), Sim2,(i,j ), Sim3,(i,j), ...,SimN,(i,j ) 라고 하고, 실제로 소리 수집 단말들 별로 수집한 소리 크기를 Col1,(i,j ), Col2,(i,j ), Col3,(i,j), ...,ColN,(i,j)라 하자. 연산부(220)는 소스가 각각의 격자점에 위치할 때마다 소리 수집 단말들이 수집하는 것으로 연산되는 소리 크기와 실제로 수집한 소리 크기의 오차(error)들을 연산한다. 연산부(220)는 각 오차들에 대한 RMS(Root Mean Square)를 연산하고 연산된 결과 중 가장 작은 값이 나오는 위치를 소스의 위치로 결정한다.
일 실시예로, 연산부(220)는 아래의 수학식 1을 연산하여 격자 내에서 연산된 Ei,j 값들 중 가장 작은 Ei,j 값이 얻어진 격자점을 소스의 위치로 결정한다.
Figure 112015094670512-pat00001
일 실시예로, 소스의 위치를 결정하는 과정에서 단말에 포함된 소리 수집 수단의 감도(sensitivity)를 이용하여 소리 수집 수단이 수집한 소리의 크기를 보정할 수 있다. 저장 장치는 소리 수집 수단의 감도에 관한 정보를 단말별로 저장할 수 있다. 또한, 저장 장치는 소리 수집 수단과 소스를 잇는 직선과 소리 수집 수단의 지향 방향의 사이각의 변화에 대한 감도 변화에 대한 데이터를 단말별로 저장할 수 있다.
단말들이 보충 데이터로 단말의 식별 정보를 전송하면, 서버는 단말의 식별 정보를 이용하여 저장 장치에 저장된 소리 수집 수단의 감도를 획득하고, 이를 이용하여 소리 수집 수단이 수집한 소리의 크기를 보정할 수 있다.
도 7은 소스의 위치를 파악하는 다른 실시예를 도시한 도면이다. 도 7을 참조하면, 연산부(220)는 소리 수집 단말들(100x, 100y, 100z)이 수집한 소리 데이터의 진폭을 분석하고, 각 소리 수집 단말별로 일정한 진폭을 가지는 등진폭 영역을 형성한다. 연산부는 등진폭 영역을 형성할 때 소리 수집 수단의 지향 방향을 고려하여 등진폭 영역을 형성한다. 형성된 등진폭 영역이 서로 중첩되도록 확장하면 등진폭 영역이 모두 겹쳐지는 영역을 구할 수 있으며, 해당 영역을 소스(S)의 위치로 결정할 수 있다.
위에서 개시된 실시예들은 소리를 제공하는 소스와 소리 수집 단말들이 동일한 2차원 평면상에 배치되는 것을 예시하였으나, 이는 간단하고 명료한 설명을 위한 것일 따름으로, 소리를 제공하는 소스와 소리 수집 단말들은 3차원 공간 내에 자유로이 위치할 수 있다.
일 실시예에서, 연산부(220)는 소리 소스(S)의 위치를 파악할 수 있을 뿐 아니라 소리의 진폭 형태 및/ 또는 소리의 주파수도 파악할 수 있으며, 미리 정의된 진폭의 형태 및 주파수와 상응하는지 여부를 파악하여 정보를 제공할 수 있다. 일 예로, 파악된 진폭 형태가 델타 함수(Dirac-Delta Function)의 형태라면 폭발, 총기 발사 등의 충격 이벤트가 발생한 것으로 파악할 수 있다. 다른 예로, 소리의 주파수가 총기 발사 또는 폭발물의 폭발에서 발생하는 주파수와 서로 일치하거나 상응한다면 파악된 주파수를 이용하여 충격 이벤트가 발생한것으로 파악할 수 있다. 파악된 충격 이벤트들은 단발적이고, 매우 짧은 시간에 큰 진폭을 가지는 소리를 형성하는 것으로 특징지을 수 있으며, 이러한 충격 이벤트 들은 예시한 바와 같이 폭발, 총기 발사등이 있을 수 있다.
충격 이벤트 검출시 단말의 센서부(도 2의 도면부호 130 참조)에 포함된 가속도 센서(도 2 137 참조) 및 자이로 센서(도 2의 도면부호 133참조)로부터 진동을 검출한 보충 데이터로부터 충격의 규모를 파악하는 것도 가능하다(550).
연산부(220)는 충격 이벤트가 발생한 것으로 결정한 경우에는 소스의 위치로부터 일정 거리 이내에 있는 단말들에 소리 소스의 위치를 포함하는 충격 이벤트에 대한 정보를 전송할 수 있다(552).
제2 실시예
도 8은 본 실시예 따른 소리 데이터 처리 시스템을 소음 제거 시스템으로 실시하는 것을 개요적으로 도시한 개요도이고, 도 9은 본 실시예에 따른 소리 데이터 처리 시스템을 소음 제거 시스템으로 실시하는 경우에 정보의 흐름을 도시한 도면이다. 본 실시예에 있어서, 100A, 100B 및 100C로 도시된 단말들은 소리 수집 수단 및 소리 제공 수단을 포함하는 단말들이고, 각 단말별로 소리 수집 수단의 지향 방향과 소리 제공 수단의 지향 방향은 동일한 것으로 표현하였다. 본 실시예를 설명함에 있어서 위에서 설명된 실시예와 동일하거나 유사한 부분에 대하여는 간결하고 명확한 설명을 위하여 설명을 생략할 수 있다.
도 8 및 도 9를 참조하면, 단말들(100A, 100B, 100C)은 위치 데이터, 소리 수집 수단 및 소리 제공 수단의 지향 방향 데이터를 포함하는 보충 데이터를 형성(810)하고, 서버에 전송한다(812). 보충 데이터는 단말의 위치 또는 단말에 포함된 소리 수집 수단 및/또는 소리 제공 수단의 지향 방향의 변화시에 전송되거나, 간헐적으로 전송될 수 있고, 서버의 요청에 따라 제공될 수 있음은 설명한 바와 같다. 서버(200)는 보충 데이터를 수신하여 이를 저장장치(도 4의 도면부호 230참조)에 저장한다(820).
단말들(100A, 100B, 100C)이 상쇠할 소리인 타겟 소리를 수집하여 그에 상응하는 소리 데이터를 형성(814)하고, 소리 데이터들을 서버에 전송한다(816). 서버(200)는 소리 데이터를 수신하여 이를 저장장치에 저장(830)한다. 연산부(도 4의 도면부호 220 참조)는 소리 데이터 및/또는 보충 데이터를 이용하여 소리를 방출하는 소스의 위치인 타겟 위치(T)를 결정한다(840).
본 실시예에서, 도 10(a)에 도시된 바와 같이 소리가 소거되는 타겟 위치(T)에 점선으로 도시된 타겟 소리를 감쇠시키고자 하는 경우에 상기 타겟 소리와 동일한 주파수를 가지며 반대 위상(anti-phase)를 가지는 상쇠 소리(실선)를 제공하여 서로 상쇠 간섭(destructive interference)하도록 하여야 한다. 따라서 타겟 위치(T)에는 타겟 소리와 동일한 주파수를 가지고 반대 위상을 가지는 소리인 상쇠 소리 신호가 제공되어야 한다. 도 10(a)는 타겟 소리가 하나의 주파수를 가지는 경우만을 예시하고 있으나, 타겟 소리는 하나의 주파수를 가질 수도 있고, 여러 주파수 대역의 소리를 포함할 수 있다. 타겟 소리가 여러 주파수 대역의 소리를 포함하는 경우, 연산부는 주파수 영역 대를 파악할 수 있는 FFT(Fast Fourier Transform)모듈을 구동하여 타겟 소리에 포함된 주파수를 파악할 수 있다.
다만, 타겟 위치(T)에 반대 위상을 가지는 상쇠 소리 신호를 제공하기 위하여는 도 10(a) 및 도 10(b)에 도시된 바와 같이 단말(100)과 타겟 위치(T) 사이의 거리(d)를 파악하여야 하며, 파악된 거리에 따라 단말이 제공하는 소리의 위상을 조절하여야 한다.
연산부는 저장 장치에 저장된 타겟 소리에 상응하는 소리 데이터로부터 소리의 진폭, 주파수 및 위상을 구하고 소리를 제공하는 소스와 상쇠 소리 신호를 제공하는 단말과의 거리 차이를 구한다(850). 연산부는 소리 데이터로부터 구한 주파수를 가지고, 타겟 지점에서 상쇠 간섭이 이루어지는 위상(Φ)을 가지는 상쇠 소리 신호를 각 단말별로 형성한다. 또한, 연산부는 소리 제공 단말과 타겟 위치 사이의 거리에 따라 타겟 소리를 감쇠할 감쇠 소리의 진폭을 연산한다. 소리 제공 단말과 타겟 위치에 비하여 지나치게 큰 진폭을 가지는 감쇠소리를 형성하면 타겟 소리는 감쇠되나 오히려 감쇠 소리가 전파될 수 있고, 반대로 소리 제공 단말과 타겟 위치에 비하여 지나치게 작은 진폭을 가지는 감쇠소리를 형성하면 타겟 소리를 미쳐 감쇠할 수 없기 때문이다. 따라서, 연산부는 소리 제공 단말과 타겟 위치 사이의 거리에 상응하는 진폭을 연산한다.
일 실시예에서, 저장 장치(도 4의 도면부호 230 참조)는 소리 제공 수단의 소리 제공 수단의 출력 및 소리 제공 수단의 위치 및 지향 방향 변화에 따른 소리 제공 효율 변화를 단말별로 저장할 수 있다. 소리 제공 수단의 제공 출력이라 함은 소리를 제공할 수 있는 출력을 의미하며, 통상적으로 소리 제공 수단에 포함된 전력 증폭기의 출력으로 측정된다. 따라서 소리 제공 출력이 클수록 큰 음량을 제공할 수 있다. 소리 제공 효율이란 소리 제공 수단의 지향 방향과 타겟 위치와의 관계에서, 타겟 위치와 소리 제공 수단을 잇는 직선과 소리 제공 수단의 지향 방향의 사이각이 변화함에 따라 타겟 위치에 제공되는 소리의 음량비를 의미할 수 있다. 일 예로, 소리를 제공할 타겟 위치와 소리 제공 수단이 단위거리만큼 이격되어 있으며, 사이각이 45도인 경우에 타겟 위치에 제공되는 음량이 -3db 감소되고, 사이각이 90도인 경우에 타겟 위치에 제공되는 음량이 -6db 감소될 수 있다. 저장 장치는 이러한 사이각의 변화에 대한 음량의 감소 비율에 대한 정보를 각각의 단말별로 저장할 수 있다.
연산부는 소리 제공 수단의 출력 및 소리 제공 수단의 지향 방향을 고려하여 타겟 소리를 상쇠할 수 있는 진폭과 위상을 연산한다. 연산부는 각각의 단말별로 연산된 진폭, 주파수 및 위상을 가지는 상쇠 소리 신호에 대응하는 상쇠 소리 신호 데이터 들을 형성(860)하고, 단말들에 전송한다(862). 일 실시예로, 소리를 수집하여 소리 데이터를 전송하는 단계(812)에 참여하는 단말은 소리 수집 수단을 포함하는 단말이며, 상쇠 소리 신호 데이터를 전송받는 단말(862)은 소리 제공 수단을 포함하는 단말이다. 다른 실시예로, 비록 소리 제공 수단을 포함하지 않는 단말이라 하더라도 서버로부터 상쇠 소리 신호 데이터를 제공받을 수 있다.
단말(100)은 상쇠 소리 신호 데이터에 상응하는 상쇠 소리 신호를 형성하고, 타겟 위치에 제공하여 타겟 소리를 상쇠시킬 수 있다. 타겟 소리가 사용자가 원하지 않는 소음(noise)인 경우에는 본 실시예를 소음 감쇠 시스템으로 활용하여 원하지 않는 소음을 감쇠시킬 수 있다.
제3 실시예
도 11은 본 실시예 따른 소리 데이터 처리 시스템을 공적 확성(Public Address) 시스템 또는 원격 통화 시스템으로 실시하는 것을 개요적으로 도시한 개요도이고, 도 12은 본 실시예에 따른 소리 데이터 처리 시스템을 소리 전달 시스템으로 실시하는 경우에 정보의 흐름을 도시한 도면이다. 본 실시예에 있어서, 100A, 100B 및 100C로 도시된 단말들은 소리 제공 수단을 포함하는 단말들로, 이하에는 소리 제공 단말이라 한다. 또한, 단말 100x는 소리 수집 수단을 포함하는 단말로, 소리 수집 단말이라 한다. 본 실시예를 설명함에 있어서 위에서 설명된 실시예와 동일하거나 유사한 부분에 대하여는 간결하고 명확한 설명을 위하여 설명을 생략할 수 있다.
도 11 및 도 12를 참조하면, 소리 수집 단말(100x) 및 소리 제공 단말들은 보충 데이터를 형성(1210, 1211)하고, 네트워크를 통하여 주기적, 간헐적으로 보충 데이터를 서버로 전송한다(1212, 1213). 도시되지는 않았지만, 보충 데이터는 단말이 서버의 요청에 응답하여 네트워크를 통하여 서버에 제공할 수 있다. 보충 데이터는 위치 데이터 및 소리 수집 수단 및/또는 소리 제공 수단의 지향 방향 데이터를 포함하며, 단말의 식별 정보 등을 포함할 수 있음은 이미 설명한 바와 같다. 한편, 단말이 형성하여 서버에 전달하는 보충 데이터로 소리 제공 단말이 전달해야 하는 소리가 전달되어야 하는 타겟 위치(T)를 포함할 수도 있다.
소리 수집 단말은 소리 수집 수단을 이용하여 소리를 수집하고, 수집한 소리에 상응하는 소리 데이터를 형성한다(1230). 소리 수집 단말(100x)은 네트워크(N)를 통하여 형성한 소리 데이터를 서버(200)에 전송하고(1232), 서버(200)는 전송 받은 소리 데이터를 저장 장치에 저장한다(1240).
원격 통화 시스템을 실시하는 실시예에 의하면 소리 데이터는 원격지에 위치하는 사용자가 소리 수집 단말을 통하여 서버에 제공한 소리 데이터이다. 공적 확성 시스템을 실시예에 의하면 소리 데이터는 사용자가 서버에 직접 연결된 소리 수집 단말을 이용하여 제공한 소리 데이터이거나, 확성하고자 하는 영역에 있는 사람들의 이목을 집중시키기 위한 벨소리 등으로 서버의 저장 장치에 미리 저장된 소리 데이터일 수 있다.
서버(200)는 보충 데이터에 기반하여 소리를 제공하고자 하는 타겟 위치에 있는 소리 제공 단말들을 결정한다(1250). 일 예로, 서버(200)는 보충 정보에 포함된 위치 정보로부터 타겟 위치(T)로부터 일정 거리 이내에 위치하는 단말들을 선정할 수 있다. 다른 예로, 서버는 보충 정보에 포함된 지향 방향 정보로부터 타겟 위치를 지향하는 단말을 선정할 수 있다.
서버(200)는 저장된 소리 데이터를 프로세싱하고(1260) 프로세싱된 소리 데이터를 소리 제공 단말에 전송한다(1262). 상기한 프로세싱은 디지털 및 아날로그 신호처리를 불문하며, 증폭, 감쇠, 필터, 압축 등의 신호를 입력받아 신호를 출력하는 모든 과정을 통칭한다. 신호처리의 일 예로, 원격 통화 시스템의 경우에는 소리 데이터에 있어서 사람의 목소리에 해당하는 영역만을 추출하고 나머지 영역을 제거하여 전송되는 소리의 대역폭을 감소시킬 수 있으며, 주된 관심이 되는 대역만을 전송하여 자원을 절약할 수 있다. 다른 예로, 소리 데이터를 형성한 후, 이를 일정한 압축 코덱으로 압축하여 전송할 수 있다.
서버(200)는 이와 같이 처리된 소리 데이터를 소리 제공 단말(100A, 100B, 100C)에 제공한다(1262). 소리 데이터를 수신한 소리 제공 단말들(100A, 100B, 100C)은 소리 데이터에 상응하는 소리를 타겟 위치(T)에 제공한다. 공적 확성 시스템의 실시예에 있어서는 사용자(U)가 제공하는 소리가 프로세싱되어 타겟 위치에 제공된다. 원격 통화 시스템의 실시예에 있어서는 송화자인 사용자(U)가 제공하는 소리가 프로세싱되어 타겟 위치에 제공된다.
이전 실시예에서 이미 설명된 바와 같이, 저장장치(도 4 230참조)는 단말들의 식별 정보들에 대응하는 소리 제공 수단들의 출력 및 지향 방향 변화에 대한 소리 제공 효율 변화를 저장할 수 있다. 따라서 연산부는 보충 데이터에 포함된 식별 정보로부터 소리 제공 수단의 출력 및 지향 방향 변화에 대한 소리 제공 효율 변화 중 어느 하나 이상을 구하여 타겟 위치에 제공되는 소리의 진폭, 위상 및 주파수 중 어느 하나 이상을 연산할 수 있다.
제4 실시예
도 13은 본 실시예에 따른 소리 데이터 처리 시스템을 원격 회의 시스템으로 실시하는 것을 개요적으로 도시한 개요도이다. 본 실시예는, 제1 실시예, 제2 실시예, 그리고 제3 실시예가 같이 결합된 실시예로, 본 실시예를 설명함에 있어서 위에서 설명된 실시예와 동일하거나 유사한 부분에 대하여는 간결하고 명확한 설명을 위하여 설명이 생략될 수 있다.
화자1(U1)은 소음에 노출된 환경인 회의실에서 본 발명의 실시예에 의한 시스템을 이용하고 화자2(U2)는 기존의 단말을 사용하는 경우를 가정하고 화자1과 화자2는 서로 떨어져 있다고 가정한다.
화자 1(U1)이 위치한 회의실 내에 잡음은 본 발명의 제2 실시예를 실시하여 상쇠될 수 있다. 회의실 내의 화자1(U1)이 말을 하면 화자 1이 제공한 소리를 수집한 단말들(100A, 100B, 100C)은 그에 상응하는 소리 데이터를 서버에 제공한다. 서버는 본 발명의 제1 실시예에 따라 소리 소스인 화자 1의 위치를 파악할 수 있다.
서버는 제3 실시예와 같이 단말이 화자 1(U1)로부터 수집한 소리에 상응하는 소리 데이터를 네트워크를 통해서 화자2에게 전달하고, 화자 1(U1)의 대화에 대응하여 화자 2(U2)가 제공하는 소리 데이터는 단말 100x가 수집하여 네트워크를 통해서 타겟 위치(T)에 전달한다.
한편, 제3 실시예에서 서버가 저장하고 있는 타겟 위치 또는 영역은 제1 실시예에 의한 파악된 소리 소스의 위치에 국한되지 않으며 회의실내에 있는 모든 참석자들이 잘 들을 수 있어야 하는 경우에 타겟 위치 또는 영역은 회의실 전체가 될 수 있다. 또한, 화자 1(U1)이 이동하는 경우에는 그에 따라 타겟 위치가 시간에 따라 변화할 수도 있다.
본 발명에 대한 이해를 돕기 위하여 도면에 도시된 실시 예를 참고로 설명되었으나, 이는 실시를 위한 실시예로, 예시적인 것에 불과하며, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위에 의해 정해져야 할 것이다.
1: 항법 위성 2: 기지국 3: Wi-Fi AP
10: 소리 데이터 처리 시스템
100, 100A, 100B, 100C, 100x, 100y, 100z: 단말
110: 소리 수집 수단 120: 소리 제공 수단
130: 센서부 131: 온도 센서
132: 습도 센서 133: 자이로 센서
134: 타이머 135:위치 검출 장치
136: 고도 센서 137: 가속도 센서
138: 방향 검출 수단 140: 제어부
150: 통신 모듈 200: 서버
210: 통신부 220: 연산부
230: 저장장치
N: 네트워크 T: 타겟 위치
S: 소스 R: 수화구

Claims (2)

  1. 복수의 소리 수집 단말들과 서버를 포함하는 시스템으로,
    상기 복수의 소리 수집 단말들 중 각각의 소리 수집 단말은 지향 방향을 가지고 소리를 수집하는 소리 수집 수단과, 자신의 위치에 대응하는 위치 데이터와 상기 소리 수집 수단의 지향 방향에 대응하는 지향 방향 데이터를 포함하는 보충 데이터(supplementary data) 및 상기 소리 수집 수단이 수집한 소리에 대응하는 소리 데이터(sound data)를 네트워크를 통하여 전송하는 통신 모듈을 포함하며,
    상기 서버는 상기 복수의 소리 수집 단말들이 상기 네트워크를 통하여 전송된 소리 데이터들과 보충 데이터들을 수신하고, 상기 소리 데이터들 및 상기 보충 데이터들에 기반하여 상기 소리 수집 수단이 수집한 소리를 방출하는 소스(source)의 위치를 파악하며,
    상기 서버는 상기 복수의 소리 수집 단말들이 수집한 소리 데이터들로부터 소리의 진폭 및 주파수 중 어느 하나 이상을 연산하고, 연산된 소리의 진폭 및 주파수 중 어느 하나가 미리 정의된 이벤트의 진폭 또는 주파수를 포함하는 특성에 대응하면 경보를 전송하고,
    상기 서버는, 상기 연산된 소리의 진폭 및 주파수를 포함한 형태가 미리 정의된 이벤트의 진폭 및 주파수를 포함한 특성에 대응하면 상기 소스로부터 미리 정하여진 거리 이내에 위치하는 상기 소리 수집 단말들에 경보를 전송하는 소리 데이터 처리 시스템.
  2. 복수의 소리 수집 수단들의 위치들에 대응하는 복수의 위치데이터들 및 상기 복수의 소리 수집 수단들의 지향 방향들에 대응하는 복수의 지향방향 데이터들을 포함하는 보충 데이터들과 상기 복수의 소리 수집 수단들이 수집한 소리에 대응하는 소리 데이터들을 네트워크로부터 수신하는 통신부;
    상기 보충 데이터들과 상기 소리 데이터들이 저장되는 저장장치; 및
    상기 소리 데이터들 및 상기 보충 데이터에 기반하여 상기 수집한 소리를 방출하는 소스(source)의 위치를 파악하는 연산부를 포함하며,
    상기 연산부는 상기 소리 수집 단말들이 수집한 소리 데이터들로부터 소리의 진폭들을 구하고,
    상기 통신부는 구한 소리의 진폭들이 미리 정의된 이벤트의 진폭 형태에 대응하면 경보를 전송하며,
    상기 연산된 소리의 진폭들이 미리 정의된 이벤트의 진폭 형태에 대응하면 상기 소스로부터 미리 정하여진 거리 이내에 위치하는 상기 소리 수집 단말들에 경보를 전송하는 소리 데이터 처리 서버.
KR1020150137806A 2015-09-30 2015-09-30 소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템 KR101595706B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150137806A KR101595706B1 (ko) 2015-09-30 2015-09-30 소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150137806A KR101595706B1 (ko) 2015-09-30 2015-09-30 소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020150017367A Division KR101581619B1 (ko) 2015-02-04 2015-02-04 소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템

Publications (1)

Publication Number Publication Date
KR101595706B1 true KR101595706B1 (ko) 2016-02-18

Family

ID=55458161

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150137806A KR101595706B1 (ko) 2015-09-30 2015-09-30 소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템

Country Status (1)

Country Link
KR (1) KR101595706B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007104546A (ja) * 2005-10-07 2007-04-19 National Institute Of Advanced Industrial & Technology 安全管理装置
US20100189273A1 (en) * 2002-10-03 2010-07-29 Audio-Technica U.S., Inc. Method and apparatus for remote control of an audio source such as a wireless microphone system
KR20110109620A (ko) * 2010-03-31 2011-10-06 주식회사 에스원 마이크로폰 모듈, 이를 이용한 음원 위치 측정 장치 및 그 방법
EP2599329A2 (en) * 2010-07-26 2013-06-05 1/6 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for multi-microphone location-selective processing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100189273A1 (en) * 2002-10-03 2010-07-29 Audio-Technica U.S., Inc. Method and apparatus for remote control of an audio source such as a wireless microphone system
JP2007104546A (ja) * 2005-10-07 2007-04-19 National Institute Of Advanced Industrial & Technology 安全管理装置
KR20110109620A (ko) * 2010-03-31 2011-10-06 주식회사 에스원 마이크로폰 모듈, 이를 이용한 음원 위치 측정 장치 및 그 방법
EP2599329A2 (en) * 2010-07-26 2013-06-05 1/6 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for multi-microphone location-selective processing

Similar Documents

Publication Publication Date Title
US11051105B2 (en) Locating wireless devices
US10820093B2 (en) Sound collecting terminal, sound providing terminal, sound data processing server, and sound data processing system using the same
US8755536B2 (en) Stabilizing directional audio input from a moving microphone array
Höflinger et al. Acoustic self-calibrating system for indoor smartphone tracking (assist)
EP3470870B1 (en) Automated user/sensor location recognition to customize audio performance in a distributed multi-sensor environment
US9131041B2 (en) Using an auxiliary device sensor to facilitate disambiguation of detected acoustic environment changes
US20120063270A1 (en) Methods and Apparatus for Event Detection and Localization Using a Plurality of Smartphones
JP2012502596A5 (ko)
US9729970B2 (en) Assembly and a method for determining a distance between two sound generating objects
US10932079B2 (en) Acoustical listening area mapping and frequency correction
Aguilera et al. Broadband acoustic local positioning system for mobile devices with multiple access interference cancellation
KR101673812B1 (ko) 소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템
US20240053153A1 (en) Target Localization Using AC Magnetic Fields
US11095980B2 (en) Smart speaker system with microphone room calibration
Qiu et al. Silent whistle: Effective indoor positioning with assistance from acoustic sensing on smartphones
KR101595706B1 (ko) 소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템
KR101616361B1 (ko) 장거리 음향표적 위치추정 장치 및 방법
KR20230107218A (ko) 거리 측정 방법, 장치, 시스템, 스마트설비와 컴퓨터 판독 가능한 저장 매체
US11137473B1 (en) Infra-sound array system for use in determining gun shots
JP6532284B2 (ja) 音響特性測定装置、方法およびプログラム
KR102265743B1 (ko) 위치 측정 시스템, 음향신호 발생장치 및 위치측정 단말장치
CN112098942B (zh) 一种智能设备的定位方法和智能设备
Bingqian et al. An active sound localization method based on mobile phone
JP5267015B2 (ja) 受信機、絶対方位検出システム、及び絶対方位検出方法
US20230308827A1 (en) Spatial Audio Guided By Ultra Wideband User Localization

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190201

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200203

Year of fee payment: 5