KR100777221B1 - 격자형 스피커 시스템 및 그 시스템에서의 음향 처리 방법 - Google Patents

격자형 스피커 시스템 및 그 시스템에서의 음향 처리 방법 Download PDF

Info

Publication number
KR100777221B1
KR100777221B1 KR1020050033563A KR20050033563A KR100777221B1 KR 100777221 B1 KR100777221 B1 KR 100777221B1 KR 1020050033563 A KR1020050033563 A KR 1020050033563A KR 20050033563 A KR20050033563 A KR 20050033563A KR 100777221 B1 KR100777221 B1 KR 100777221B1
Authority
KR
South Korea
Prior art keywords
sound
sound processing
individual
main
unit
Prior art date
Application number
KR1020050033563A
Other languages
English (en)
Other versions
KR20050044881A (ko
Inventor
장성주
장선연
Original Assignee
한국정보통신대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국정보통신대학교 산학협력단 filed Critical 한국정보통신대학교 산학협력단
Priority to KR1020050033563A priority Critical patent/KR100777221B1/ko
Publication of KR20050044881A publication Critical patent/KR20050044881A/ko
Application granted granted Critical
Publication of KR100777221B1 publication Critical patent/KR100777221B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60CVEHICLE TYRES; TYRE INFLATION; TYRE CHANGING; CONNECTING VALVES TO INFLATABLE ELASTIC BODIES IN GENERAL; DEVICES OR ARRANGEMENTS RELATED TO TYRES
    • B60C13/00Tyre sidewalls; Protecting, decorating, marking, or the like, thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60CVEHICLE TYRES; TYRE INFLATION; TYRE CHANGING; CONNECTING VALVES TO INFLATABLE ELASTIC BODIES IN GENERAL; DEVICES OR ARRANGEMENTS RELATED TO TYRES
    • B60C13/00Tyre sidewalls; Protecting, decorating, marking, or the like, thereof
    • B60C2013/005Physical properties of the sidewall rubber
    • B60C2013/006Modulus; Hardness; Loss modulus or "tangens delta"

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

본 발명은 격자형 스피커 시스템 및 그 시스템에서의 음향 처리 방법에 관한 것이다. 이러한 격자형 스피커 시스템은 외부로 음향을 출력하는 스피커를 각각 포함하는 복수의 개별 음향처리부; 및 복수의 개별 음향처리부와 각각 무선 또는 유선으로 접속되어 복수의 개별 음향처리부의 스피커를 독립적으로 구동 제어하며, 재생 파일에 따라서 음향 출력할 개별 음향처리부를 복수의 개별 음향처리부 중에서 선택하여 재생 파일을 재생하여 음향을 출력하도록 제어하는 메인 음향처리부를 포함한다. 여기서, 복수의 개별 음향처리부에 각각 포함된 복수의 스피커가 격자형으로 배치되어 있는 것을 특징으로 한다. 대안으로, 복수의 개별 음향처리부는 사용자까지의 위치 및 거리를 측정하여 메인 음향처리부로 각각 출력하고, 메인 음향처리부는 복수의 개별 음향처리부에서 각각 측정된 사용자까지의 거리 정보에 기반하여 복수의 개별 음향처리부에서의 재생 동작을 제어하는 것을 특징으로 한다. 본 발명에 따르면, 다수의 음원을 독립적으로 사용하여 재생함으로써 음의 혼합 효과 및 공간적 전이효과를 제공할 수 있고, 사용자의 위치 이동에 맞추어 음향 재생 위치를 변경함으로써 자동으로 스위트 스폿(sweet spot)을 조절해 줄 수 있다.
격자형 스피커 시스템, 음향처리, 동기화, 위치기반 음향처리, 입체 음향

Description

격자형 스피커 시스템 및 그 시스템에서의 음향 처리 방법{GRID SPEAKER SYSTEM AND AUDIO PROCESSING METHOD IN THE SAME}
도 1은 본 발명의 제1 실시 예에 따른 격자형 스피커 시스템의 개략적인 블록도이다.
도 2는 본 발명의 제1 실시 예에 따라 도 1에 도시된 개별 음향처리부의 일예를 나타낸 도면이다.
도 3은 본 발명의 제1 실시 예에 따라 도 1에 도시된 메인 음향처리부의 일예를 나타낸 도면이다.
도 4는 본 발명의 제1 실시 예에 따른 격자형 스피커 시스템에서의 음향처리 방법의 개략적인 흐름도이다.
도 5는 본 발명의 실시예에 따른 격자형 스피커 시스템이 적용되는 지능형 디지털 벽면의 예를 도시한 도면으로, (a)는 정면도이고, (b)는 측면도이다.
도 6은 본 발명의 제2 실시 예에 따라 도 1에 도시된 집합적 음성인식 시스템의 개별 음성인식부의 일예를 나타낸 도면이다.
도 7은 본 발명의 제2 실시 예에 따라 도 1에 도시된 메인 음향처리부의 일예를 나타낸 도면이다.
도 8은 본 발명의 제2 실시 예에 따른 격자형 스피커 시스템에서의 위치기반 음향처리 방법의 개략적인 흐름도이다.
본 발명은 스피커 시스템에 관한 것으로, 보다 구체적으로는 격자형으로 배치된 다수의 스피커를 사용하여 다양한 음향을 제공하는 격자형 스피커 시스템 및 그 시스템에서의 음향 처리 방법에 관한 것이다.
최근 사람들은 게임을 하거나 영화를 볼 때 실제와 같은 상황에 자신이 그 내용 속에 빠져든 것 같은 착각을 느끼곤 한다. 이런 실재감은 3차원 영상 기술 또는 영상 특수 효과의 많은 발전 때문에 이루어지고 있다. 그러나, 영상에서 주는 효과만으로 실재감을 높여주는 것은 아니다. 보는 것 못지 않게 듣는 것 또한 중요한데, 그런 음향기술에 있어서도 최근까지 많은 발전을 해오고 있다.
입체 음향은 사람에게 듣는 것으로 공간감각적인 착각을 불러 일으키게 한다. 예를 들면, 게임에서 총소리가 멀리서 들리거나 가까이서 들리게 하는 효과로 사용자가 전장(war field)에 있는 것 같은 느낌을 주며, 영화에서 좌우로만 들리는 스테레오 효과와 더불어 주위를 감싸는 서라운드(surround) 효과로 2차원이라는 제약의 영화 화면에, 보는 사람들이 들어와 있는 듯한 착각을 느끼게 해주기도 한다.
이렇게 입체 음향은 영상이 갖는 한계를 극복하게 해주는 아주 중요한 요소이다. 이러한 음향효과를 제공하기 위해서는 다양한 스피커 시스템들이 필요하다.
일반적인 스테레오의 원리는 왼쪽과 오른쪽의 소리가 분리되는 것을 이용해 서 단순히 볼륨을 높였다 줄였다 하는 것이다. 예를 들면 자동차가 오른쪽에서 왼쪽으로 지나가는 사운드의 표현은 오른쪽 볼륨을 크게 했다가 왼쪽으로 지나갈 때 오른쪽 볼륨을 줄이고 왼쪽 볼륨을 높이는 것이다. 돌비 스테레오는 기존의 스테레오가 표현하지 못했던 앞·뒤의 소리 이동성까지 표현할 수 있는 시스템이다. 돌비 스테레오는 4채널 방식으로, 프론트 스피커 2개, 센터 스피커, 서라운드(리어) 스피커로 이루어져 있다. 이러한 입체음향에서는 음의 분리도가 상당히 중요한데, 분리도(dB)가 높을수록 훨씬 입체적인 음이 나온다.
입체음향은 공간적 단서와 관련이 있으며 공간적 단서는 두 귀에 도달하는 소리의 시간차(ITD; Interaural Time Difference)에 의해 표현된다. 사람이 음원의 위치에 대한 방향성을 인지할 수 있는 이유는 두 귀에 들어오는 소리에 시간차가 있기 때문 가까운 방향 쪽에 있는 귀가 먼저 그 소리를 들음으로써 음원의 방향을 알 수 있다. 사람이 음원의 위치를 느낄 수 있는 또 하나의 단서는 두 귀에 도달하는 소리의 세기차이며 이를 통해 소리의 위치감과 거리감을 알 수 있다.
입체음을 생성하는 방법과 관련하여 중요한 두 가지 개념들로는 머리전달함수와 공간 전달함수가 있다. 머리 전달함수(HTRF;Head-Related Transfer Function)는 무향실 내에서 가짜 머리를 이용하여 여러 각도에서 배치한 스피커에서 나오는 음들을 녹음하여 푸리에(Fourier) 변환한 것이며, 이러한 머리 전달 함수는 소리가 들어오는 각도에 따라 달라지기 때문에 여러 위치에서 나오는 음들에 대해 머리 전달 함수를 측정하고 이를 데이터베이스로 구축한다. 공간 전달함수(RTF;Room Transfer Function)는 특정 장소에 따른 공간의 크기, 구조, 벽 또는 천 정 재질 등에 의해 음원에 대한 직접음, 초기 반사음, 잔향 패턴 및 잔향 시간 등이 달라진다. 특정 장소의 효과를 생성하기 위해서는 무반향실이 아닌 특정 실내에서 머리 전달 함수를 측정해야 하며 특정한 장소에서 측정한 머리 전달 함수를 공간 전달 함수라고 한다.
음향을 녹음하고 재생하는 과정에서 사용되는 디지털 기술은 컴퓨터의 도움이 필요하다. 컴퓨터에서 처리하기 위해 사운드 입력 부분에서 ADC(Analog-to-Digital Converter)를 이용하여 디지털 신호로 바꾼 후 다양한 디지털 시그널 프로세싱 과정을 통하여 입체음향 생성에 필요한 처리를 행한 후, 다시 소리를 듣기 위해서 사운드 출력 부분에서 DAC(Digital-to-Analog Converter)를 이용하여 출력한다.
스테레오 사운드와 입체음향을 생성하고 출력하는 기존의 기술들은 두 개 혹은 제한된 숫자의 스피커들을 이용하여 특수한 방식으로 녹음한 사운드를 주로 디지털 신호처리 기술에 의해 사운드 시그널의 시간차 및 세기를 조정하여 출력하는 방식을 취하고 있다. 이는 실제 세계에서 사람이 입체감 있는 소리를 듣는 방식을 시뮬레이트하고 있는 것이며 따라서, 인간의 귀에 자연스러운 완벽한 실감음향을 재현하는 데는 한계가 있다.
따라서 본 발명의 목적은, 격자형으로 배열된 다수의 스피커를 사용하여 독립된 다수의 음원 발생에 의해 다양한 형태의 입체 효과, 다수 음원 혼합 효과 및 사용자의 위치에 기반한 음향 효과를 제공할 수 있는 격자형 스피커 시스템 및 그 시스템에서의 음향 처리 방법을 제공하는 데 있다.
상기한 목적을 달성하기 위하여 본 발명의 특징에 따른 스피커 시스템은,
외부로 음향을 출력하는 스피커를 각각 포함하는 복수의 개별 음향처리부; 및 상기 복수의 개별 음향처리부와 각각 무선 또는 유선으로 접속되어 상기 복수의 개별 음향처리부의 스피커를 독립적으로 구동 제어하며, 재생 파일에 따라서 음향 출력할 개별 음향처리부를 상기 복수의 개별 음향처리부 중에서 선택하여 상기 재생 파일을 재생하여 음향을 출력하도록 제어하는 메인 음향처리부를 포함하며, 상기 복수의 개별 음향처리부는 시간상으로 상기 메인 음향처리부에 각각 동기되어 동작하는 것을 특징으로 한다.
삭제
여기서, 상기 복수의 개별 음향처리부에 각각 포함된 복수의 스피커가 격자형으로 배치되어 있는 것을 특징으로 한다.
삭제
상기 복수의 개별 음향처리부는 사용자의 위치 및 음원으로부터의 거리를 측정하여 상기 메인 음향처리부로 각각 출력하고,
또한, 상기 메인 음향처리부는 상기 복수의 개별 음향처리부에서 각각 측정된 사용자까지의 거리 정보에 기반하여 상기 복수의 개별 음향처리부에서의 재생 동작을 제어하는 것을 특징으로 한다.
본 발명의 다른 특징에 따른 스피커 시스템에서의 음향처리 방법은,
a) 음향 출력이 가능한 스피커를 각각 포함하는 복수의 개별 음향처리부 중에서 재생할 파일에 따라 재생 제어할 개별 음향처리부를 선택하는 단계; 및 b) 상기 복수의 개별 음향처리부를 제어하는 메인 음향처리부가 상기 선택된 개별 음향처리부를 각각 제어하여 상기 파일 재생이 독립적으로 수행되도록 하는 단계를 포함하며, 상기 메인 음향처리부는 상기 a) 단계 전에, 상기 복수의 개별 음향처리부가 시간상으로 각각 동기되어 동작하도록 제어하는 것을 특징으로 한다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였다. 명세서 전체를 통하여 유사한 부분에 대해서는 동일한 도면 부호를 붙였다.
이하, 본 발명의 실시 예에 따른 격자형 스피커 시스템에 대해서 상세하게 설명한다.
도 1은 본 발명의 제1 실시 예에 따른 격자형 스피커 시스템의 개략적인 블록도이다.
도 1에 도시된 바와 같이, 본 발명의 제1 실시 예에 따른 격자형 스피커 시스템은 다수의 개별 음향처리부(100-1, 100-2, …, 100-N) 및 메인 음향처리부(200)를 포함한다.
개별 음향처리부(100-1, 100-2, …, 100-N)는 그 각각이 격자형 스피커 시스템의 각 모듈을 구성하고, 개별적으로 음향을 재생 또는 생성하여 출력한다. 이 때, 개별 음향처리부(100-1, 100-2, …, 100-N)와 메인 음향처리부(200)는 각각 유선 또는 무선으로 접속될 수 있으며, 본 발명의 제1 실시 예에서는 무선으로 접속 된 것으로 가정하여 설명한다.
또한, 개별 음향처리부(100-1, 100-2, …, 100-N)는 첨부한 도 5에 도시된 바와 같이, 각각 하나의 모듈을 형성하고, 이러한 모듈들이 디지털 벽면을 형성할 수 있도록 격자형으로 배치된다. 도 5의 (a)는 정면에서 봤을 때의 형태이고, b)는 측면에서 봤을 때의 형태를 나타낸다.
한편, 메인 음향처리부(200)는 인터넷 등의 네트워크를 통해 외부와 연결되어 외부의 서버로부터 음악 파일 등을 다운로드하거나 또는 외부 저장매체나 내부 기억장치 등에 저장된 음악 파일 등을 개별 음향처리부(100-1, 100-2, …, 100-N)로 전달하고, 또한 개별 음향처리부(100-1, 100-2, …, 100-N)가 음향 처리를 위해 서로 동기될 수 있도록 동기화 알고리즘을 수행한다.
도 2는 본 발명의 제1 실시 예에 따라 도 1에 도시된 개별 음향처리부(100-N)의 일예를 나타낸 도면이다.
도 2에 도시된 바와 같이, 본 발명의 제1 실시 예에 따른 개별 음향처리부(100-N)는 무선 인터페이스부(110-N), 저장부(120-N), 동기화부(130-N), 음향제어부(140-N) 및 스피커(150-N)를 포함한다.
무선 인터페이스부(110-N)는 개별 음향처리부(100-N)가 메인 음향처리부(200)와 무선 통신을 통하여 정보 교환이 가능하도록 한다. 이러한 무선 인터페이스부(110-N)로는 무선랜, 블루투스(Bluetooth) 등이 사용될 수 있다.
저장부(120-N)는 개별 음향처리부(100-N)에서 처리하기 위한 각종의 프로그램, 데이터 등과, 무선 인터페이스부(110-N)을 통해 메인 음향처리부(200)로부터 전송된 각종의 파일, 음향 데이터 등을 받아서 저장한다.
동기화부(130-N)는 개별 음향처리부(100-N)가 메인 음향처리부(200)에 시간적으로 동기되어 개별 음향처리부(100-N)의 개별적 제어는 물론 집합적 제어가 가능하도록 한다. 이를 위해 동기화부(130-N)는 개별 음향처리부(100-N)의 시간을 메인 음향처리부(200)와 같은 시간으로 유지하도록 동작한다.
음향제어부(140-N)는 무선 인터페이스부(110-N), 저장부(120-N) 및 동기화부(140-N)에 접속되어 메인 음향처리부(200)의 제어에 따라 개별 음향처리부(100-N)이 개별 음향 처리 동작을 수행하도록 전반적인 제어를 수행한다. 음향제어부(140-N)는 저장부(120-N)에 저장된 파일을 재생하여 스피커(150-N)를 통해 소리가 출력되도록 하며, 동기화부(130-N)를 참조하여 다른 개별 음향처리부들과 동기되어 다양한 입체 음향 효과를 발생할 수 있도록 한다.
상기에서는 하나의 개별 음향처리부(100-N)의 구성에 대해서만 설명하였지만, 나머지 개별 음향처리부(100-1, 100-2, …, 100-N-1)들도 상기한 개별 음향처리부(100-N)와 마찬가지로 구성될 수 있다.
도 3은 본 발명의 제1 실시 예에 따라 도 1에 도시된 메인 음향처리부(200)의 일예를 나타낸 도면이다.
도 3에 도시된 바와 같이, 본 발명의 제1 실시 예에 따른 메인 음향처리부(200)는 매체 인터페이스부(210), 메인 저장부(220), 무선 인터페이스부(230) 및 메인 음향제어부(240)를 포함한다.
매체 인터페이스부(210)는 인터넷 등의 네트워크를 통해 메인 음향처리부 (200)가 외부의 서버에 접속이 가능하도록 하고, 또한 CD, DVD, FDD 등의 저장매체에 대핸 액세스가 가능하도록 하는 인터페이스를 제공한다.
메인 저장부(220)는 메인 음향제어부(240)가 메인 음향처리부(200)를 제어하는데 사용되는 각종 프로그램, 데이터 등을 저장하고, 또한 매체 인터페이스부(210)를 통해 외부로부터 전송된 음악 파일 등을 저장한다.
무선 인터페이스부(230)는 메인 음향처리부(200)가 개별 음향처리부(100-N)와 무선 통신을 통하여 정보 교환이 가능하도록 한다. 이러한 무선 인터페이스부(230)로는 무선랜, 블루투스(Bluetooth) 등이 사용될 수 있다.
메인 음향제어부(240)는 매체 인터페이스부(210), 메인 저장부(220) 및 무선 인터페이스부(230)를 제어하여, 외부로부터 다운로드받거나 또는 내부에 저장된 음악 파일이나 음향 등이 개별 음향처리부(100-1, 100-2, …, 100-N)에 의해 각각 독립적으로 또는 집합적으로 다양한 입체 음향 효과를 갖는 스피커 시스템이 되도록 제어한다.
한편, 메인 음향처리부(200)는 개별 음향처리부(100-1, 100-2, …, 100-N)가 일관된 음향 처리를 하여 다양한 형태의 음향을 재생할 수 있도록 서로 시간적으로 동기를 맞추어야 한다. 이를 위해서 메인 음향처리부(200)와 개별 음향처리부(100-1, 100-2, …, 100-N)는 NTP(Network Time Portocol)를 사용한다. 이 NTP는 컴퓨터 클라이언트나 서버의 시간을 다른 서버나 라디오 또는 위성 수신기와 같은 참조할 수 있는 타임 소스 또는 모뎀에 동기화하는 데 사용되는 것으로, Coordinated Universal Time(UTC)에 동기화된 프라이머리 서버와 관련하여, NTP는 대개 LAN 상에서는 1 ms 이내, WAN 상에서는 10ms 이내의 클라이언트 정확성을 제공한다.
한편, 상기한 메인 음향처리부(200)가 개별 음향처리부(100-1, 100-2, …, 100-N)와는 별도로 독립적으로 구성되는 것으로 설명하였지만, 본 발명의 기술적 범위는 여기에 한정되지 않고, 메인 음향처리부(200)가 개별 음향처리부(100-1, 100-2, …, 100-N) 중 어느 하나의 구성요소로 내장되어 구비될 수 있으며, 이 경우에는 개별 음향처리부(100-1, 100-2, …, 100-N)에 각각 구비되는 무선 인터페이스(110-N)들이 서로 다른 식별자(ID)를 가지고 서로 무선 통신을 수행할 수 있도록 동작한다.
이하, 본 발명의 제1 실시 예에 따른 격자형 스피커 시스템에서의 음향처리 방법에 대해 첨부된 도 4를 참조하여 설명한다.
먼저, 본 발명의 제1 실시 예에 따른 음향처리를 위해 메인 음향처리부(200)와 개별 음향처리부(100-1, 100-2, …, 100-N)는 메인 음향처리부(200)로부터의 주기적인 브로드캐스팅(broadcasting) 신호에 의해 시간이 서로 동기되어 같은 시간을 유지한다. 이것은 개별 음향처리부(100-1, 100-2, …, 100-N)에 있는 동기화부(130-N)에 의해 수행된다.
그 후, 메인 음향처리부(200)는 매체 인터페이스부(210)를 통해 음악 소스를 갖고 있는 서버로부터 특정 음악 파일 또는 음향 파일 등을 다운로드받거나 또는 CD, DVD, FDD 등에 저장된 음악 파일 또는 음향 파일 등을 받거나 또는 메인 저장부(220)에 저장된 음악 파일 또는 음향 파일 등을 읽어서 재생을 위한 음향 처리를 시작한다(S100).
다음, 메인 음향처리부(200)는 개별 음향처리부(100-1, 100-2, …, 100-N) 중에서 해당 파일을 재생하여야 하는 개별 음향처리부를 선정한다(S110). 예를 들어, 스테레오 음향은 격자형으로 배치된 개별 음향처리부(100-1, 100-2, …, 100-N)의 중앙 부분을 중심으로 하여 오른쪽과 왼쪽이 서로 다른 영역의 음향을 재생하여야 하므로 이러한 음향처리를 위해 서로 다른 개별 음향처리부(100-1, 100-2, …, 100-N)가 선정된다. 또한, 숲속의 새들이 하나의 영상에 흩어져 있을 때, 각각의 새들이 내는 소리를 개별 음향처리부에 있는 스피커(150-N)를 통해 독립적으로 재생하는 다수의 음원 효과를 내기 위해서 개별 음향처리부(100-1, 100-2, …, 100-N)를 선정한다. 여기서는 설명의 편의를 위해서 개별 음향처리부(100-1, 100-2, …, 100-N) 중에서 두 개의 개별 음향처리부(100-1, 100-N)가 선정된 것으로 가정하여 설명한다.
그 후, 메인 음향처리부(200)는 선정된 개별 음향처리부(100-1, 100-N)에 재생 파일과 해당 파일의 음향 처리를 위한 명령을 전달한다(S120-1, S120-M).
한편, 메인 음향처리부(200)로부터 재생 파일과 해당 파일의 음향 처리 명령을 전달받은 개별 음향처리부(100-1, 100-N)는 수신한 재생 파일을 저장부(120-N)에 저장하고(S130, S130), 저장된 해당 파일을 각각 재생한다(S140, S140).
이 때, 메인 음향처리부(200)는 개별 음향처리부(100-1, 100-M)로 음향처리 명령을 줄 때, 파일을 재생할 시간 등도 함께 지정하여 줌으로써 개별 음향처리부(100-1, 100-M)에서 전체적으로 일관된 음향 처리가 수행될 수 있도록 한다.
이것은 메인 음향처리부(200)와 개별 음향처리부(100-1, 100-2, …, 100-N)가 미리 정해진 프로토콜에 따라 통신을 하며 필요한 데이터를 주고 받음으로써 이루어질 수 있다.
이러한 프로토콜로는 오버헤드(overhead)가 적고, 프로토콜의 전송과 처리의 시간이 빠른 프로토콜이 적당하며, IP를 포함하는 프로토콜 중 하나인 UDP(User Datagram Protocol)가 양호하게 사용될 수 있다. 이 UDP는 핸드쉐이크를 거치지 않으므로 그 구조가 매우 간단하고, 처리 속도 또한 빨라서 보통은 멀티미디어 데이터 전송에 사용된다.
메인 음향처리부(200)와 개별 음향처리부(100-1, 100-2, …, 100-N)가 프로토콜에 의해 주고 받는 패킷은 다음의 [표 1]과 같이 구성될 수 있다.
[표 1]
Figure 112005021110363-pat00001
먼저, 셀 ID는 개별 음향처리부(100-1, 100-2, …, 100-N) 각각을 하나의 셀로 보고 각 셀마다 구분이 가능한 ID를 부여한 것이다. 이러한 셀 ID는 여러 가지 방식으로 할당할 수 있으나, 본 발명의 실시예에서는 각 셀이 격자형으로 배치되어 있는 것에 기초하여 행의 순서와 열의 순서를 나타내도록 부여한다. 즉, 행에 대해서 0부터 126까지의 행을 나타낼 수 있고, 열에 대해서도 0부터 126까지의 열을 표현할 수 있다.
예를 들어 1행 5열에 있는 셀의 ID는 '0h0004'로 부여한다. 여기서, 0h는 ID가 16진수임을 나타내고, 그 다음의 00이 1행임을 나타내고, 그 다음의 04가 5열을 나타낸다.
다음, 타입(type)은 패킷을 전달하는 데이터의 목적에 따라 그 길이와 내용이 틀리므로, 형태에 따라 다른 처리를 할 수 있도록 구분짓는 필드이다. 타입은 그 형태에 따라 설정 타입, 제어 타입, 데이터 타입, 오류 타입 등으로 분류된다. 설정 타입은 메인 음향처리부(200)와 개별 음향처리부(100-1, 100-2, …, 100-N) 사이의 시간 동기를 위한 타입이고, 제어 타입은 파일 또는 각종의 음향 등을 재생하기 위한 제어 신호 전송을 위한 타입이며, 데이터 타입은 사용자의 위치 관련 처리를 위한 타입이고, 오류 타입은 패킷 전송시 오류가 발행했을 때를 위한 타입이다. 이러한 타입은 패킷을 발행하여 전송하는 측이 이미 정해져 있다.
다음, 타임 스탬프(time stamp)1과 타임 스탬프2는 해당 패킷을 전송하는 시간과 관련된 정보가 저장된다.
데이터 필드는 음향 제어에 관한 정보가 들어가며, 재생될 파일 이름, 재생되고 있는 파일의 위치, 볼륨의 크기, 재생되어야 할 파일의 위치, 재생될 시간 등의 정보가 이에 해당된다.
한편, 상기에서는 메인 음향처리부(200)가 하나의 재생 파일을 개별 음향처리부(100-1, 100-N)로 전송하고, 음향처리를 수행하도록 하는 것으로만 설명하였지만, 본 발명의 기술적 범위는 여기에 한정되지 않고, 하나의 재생 파일을 여러 개의 개별 음향처리부가 서로 다른 시간에 각각 재생하도록 할 수도 있고, 또한 여러 재생 파일을 각각의 개별 음향처리부가 서로 다른 파일을 동일한 시간 또는 서로 다른 시간에 각각 재생하도록 할 수도 있다. 이러한 복잡한 음향처리 및 재생 방법은 상기한 도 1 내지 도 4를 참조하는 경우 본 기술분야의 당업자에 의해 쉽게 이해될 것이다.
한편, 상기에서는 메인 음향처리부(200)와 개별 음향처리부(100-1, 100-2, …, 100-N)가 사용자의 위치와는 무관하게 음향처리를 수행하는 것에 대해서 설명하였으나, 본 발명의 기술적 범위는 여기에 한정되지 않고, 다음의 제2 실시 예와 같이 사용자의 위치에 기반하여 음향처리를 수행하도록 할 수 있다.
도 6은 본 발명의 제2 실시 예에 따라 도 1에 도시된 집합적 음성인식 시스템의 개별 음성인식부(100-M)의 일예를 나타낸 도면이다.
도 6에 도시된 바와 같이, 본 발명의 제2 실시 예에 따른 개별 음향처리부(100-M)는 무선 인터페이스부(110-M), 저장부(120-M), 동기화부(130-M), 위치 센서(140-M), 거리측정 및 음향제어부(150-M) 및 스피커(160-M)를 포함한다.
무선 인터페이스부(110-M), 저장부(120-M), 동기화부(130-M) 및 스피커(160-M)는 상기한 제1 실시 예에서 설명한 무선 인터페이스부(110-N), 저장부(120-N), 동기화부(130-N) 및 스피커(150-N)과 동일한 기능을 수행하므로 여기에서는 상세한 설명을 생략하고, 제2 실시 예에서 새로이 추가되는 부분에 대해서만 설명한다.
위치 센서(140-M)는 개별 음향처리부(100-M)의 전면에 위치한 사용자의 위치를 인식하여 사용자까지의 거리를 측정하여 대응되는 정보로 출력한다.
거리측정 및 음향제어부(150-M)는 무선 인터페이스부(110-M), 저장부(120-M) 및 동기화부(140-M)에 접속되어 메인 음향처리부(200)의 제어에 따라 개별 음향처 리부(100-M)가 개별 음향 처리 동작을 수행하도록 전반적인 제어를 수행하여, 저장부(120-M)에 저장된 파일을 재생하여 스피커(160-N)를 통해 소리가 출력되도록 하며, 동기화부(130-M)를 참조하여 다른 개별 음향처리부들과 동기되어 다양한 입체 음향 효과를 발생할 수 있도록 한다. 또한, 거리측정 및 음향제어부(150-M)는 위치 센서(140-M)에 접속되어 위치 센서(140-M)가 개별 음향처리부(100-M)의 전면에 위치한 사용자까지의 위치 및 거리를 측정하여 메인 음향처리부(200)로 무선으로 전달하도록 제어한다.
상기에서는 하나의 개별 음향처리부(100-M)의 구성에 대해서만 설명하였지만, 나머지 개별 음향처리부(100-1, 100-2, …, 100-M-1)들도 상기한 개별 음향처리부(100-M)와 마찬가지로 구성될 수 있다.
한편, 도 1에 도시된 메인 음향처리부(200)도 상기한 제1 실시예에서와 마찬기지로 개별 음향처리부(100-1, 100-2, …, 100-M)와는 별도로 독립적으로 구성되거나 또는 개별 음향처리부(100-1, 100-2, …, 100-M) 중 어느 하나의 구성요소로 내장되어 구비될 수 있으며, 이 경우에는 개별 음향처리부(100-1, 100-2, …, 100-M)에 각각 구비되는 무선 인터페이스(110-M)들이 서로 다른 식별자(ID)를 가지고 서로 무선 통신을 수행할 수 있도록 동작한다.
도 7은 본 발명의 제2 실시 예에 따라 도 1에 도시된 메인 음향처리부(200)의 일예를 나타낸 도면이다.
여기에서는 제1 실시 예에서의 메인 음향처리부(200)와의 혼동을 피하기 위해 메인 음향처리부(400)로 도면 참조부호를 변경하여 설명한다.
도 7에 도시된 바와 같이, 본 발명의 제2 실시 예에 따른 메인 음향처리부(400)는 매체 인터페이스부(410), 메인 저장부(420), 무선 인터페이스부(430) 및 위치기반 음향제어부(440)를 포함한다.
매체 인터페이스부(410), 메인 저장부(420) 및 무선 인터페이스(430)는 상기한 제1 실시 예에서의 매체 인터페이스부(210), 메인 저장부(220) 및 무선 인터페이스부(230)와 동일한 기능을 수행하므로 여기에서는 설명의 편의를 위해 상세한 기능 설명을 생략하고, 제1 실시 예의 경우와 다른 부분에 대해서만 설명한다.
위치기반 음향제어부(440)는 매체 인터페이스부(410), 메인 저장부(420) 및 무선 인터페이스부(430)를 제어하여, 외부로부터 다운로드받거나 또는 내부에 저장된 음악 파일이나 음향 등이 개별 음향처리부(100-1, 100-2, …, 100-M)에 의해 각각 독립적으로 또는 집합적으로 다양한 입체 음향 효과를 갖는 스피커 시스템이 되도록 제어한다. 또한, 위치기반 음향제어부(440)는 개별 음향처리부(100-1, 100-2, …, 100-M)가 일관된 음향 처리를 하여 다양한 형태의 음향을 재생할 수 있도록 서로 시간적으로 동기를 맞추어야 한다. 이를 위해서 위치기반 음향제어부(440)와 개별 음향처리부(100-1, 100-2, …, 100-M)는 NTP(Network Time Portocol)을 사용한다.
또한, 위치기반 음향제어부(440)는 개별 음향처리부(100-1, 100-2, …, 100-M)에서 각각 측정된 사용자까지의 거리 정보들에 기초하여 사용자의 정확한 위치를 추정한 후, 추정된 위치를 기반으로 하여 개별 음향처리부(100-1, 100-2, …, 100-M)에서의 다양한 음향처리가 수행되도록 제어한다. 예를 들어, 하나의 파일을 개 별 음향처리부(100-1, 100-2, …, 100-M)에서 각각 재생하는 중에, 사용자가 이동하여 그 위치가 변경되면 사용자의 위치 이동이 개별 음향처리부(100-1, 100-2, …, 100-M)에 의해 측정되어 전달되어 이동되는 사용자의 위치에 기반하여 개별 음향처리부(100-1, 100-2, …, 100-M)에서 음향처리가 될 수 있도록 제어한다.
이하, 본 발명의 제2 실시 예에 따른 격자형 스피커 시스템에서의 위치기반 음향처리 방법에 대해 첨부된 도 8을 참조하여 설명한다.
먼저, 본 발명의 제2 실시 예에 따른 위치기반의 음향처리를 위해 메인 음향처리부(400)와 개별 음향처리부(100-1, 100-2, …, 100-M)는 메인 음향처리부(400)로부터의 주기적인 브로드캐스팅(broadcasting) 신호에 의해 시간이 서로 동기되어 같은 시간을 유지한다. 이것은 개별 음향처리부(100-1, 100-2, …, 100-M)에 있는 동기화부(130-M)에 의해 수행된다.
그 후, 메인 음향처리부(400)는 매체 인터페이스부(410)를 통해 음악 소스를 갖고 있는 서버로부터 특정 음악 파일 또는 음향 파일 등을 다운로드받거나 또는 CD, DVD, FDD 등에 저장된 음악 파일 또는 음향 파일 등을 받거나 또는 메인 저장부(420)에 저장된 음악 파일 또는 음향 파일 등을 읽어서 재생을 위한 음향 처리를 시작한다(S200).
다음, 메인 음향처리부(400)는 개별 음향처리부(100-1, 100-2, …, 100-M) 중에서 해당 파일을 재생하여야 하는 개별 음향처리부를 사용자의 위치에 기반하여 선정한다(S210). 예를 들어, 사용자가 격자형으로 배치된 개별 음향처리부(100-1, 100-2, …, 100-M)의 중앙 부분에 위치한 경우에는 사용자가 위치한 중앙 부분을 중심으로 하여 오른쪽과 왼쪽이 서로 다른 영역의 음향을 재생하여야 하므로 이러한 음향처리를 위해 서로 다른 개별 음향처리부(100-1, 100-2, …, 100-M)가 선정된다. 또한, 숲속의 새들이 하나의 영상에 흩어져 있을 때, 각각의 새들이 내는 소리를 개별 음향처리부에 있는 스피커(160-M)를 통해 독립적으로 재생하는 다수의 음원 효과를 내기 위해서 개별 음향처리부(100-1, 100-2, …, 100-M)를 선정한다. 여기서는 설명의 편의를 위해서 개별 음향처리부(100-1, 100-2, …, 100-M) 중에서 두 개의 개별 음향처리부(100-1, 100-2)가 선정된 것으로 가정하여 설명한다.
다음, 메인 음향처리부(400)는 사용자의 위치가 이동될 수 있으므로, 이를 위하여 모든 개별 음향처리부(100-1, 100-2, …, 100-M)에 재생 파일을 전달하고(S220-1), 상기 단계(S210)에서 선정된 개별 음향처리부(100-1, 100-2)에는 전달된 파일의 음향 처리를 수행하도록 명령을 전달(S220-2). 이 때, 상기 단계(S220-1, S220-2)는 동시에 이루어질 수 있다. 즉, 재생 파일과 재생해야할 개별 음향처리부(100-1, 100-2)를 지정하여 함께 전달하여도 좋다.
한편, 메인 음향처리부(400)로부터 재생 파일을 전달받은 모든 개별 음향처리부(100-1, 100-2, …, 100-M)는 수신한 재생파일을 각 저장부(120-M)에 저장한다(S230).
다음, 재생 파일의 음향처리 명령을 전달받은 개별 음향처리부(100-1, 100-2)는 수신한 재생 파일을 각각 재생하여 각 스피커(160-M)를 통해 사용자에게 출력한다(S240).
이 때, 메인 음향처리부(400)는 개별 음향처리부(100-1, 100-2)로 음향처리 명령을 줄 때, 파일을 재생할 시간 등도 함께 지정하여 줌으로써 개별 음향처리부(100-1, 100-2)에서 전체적으로 일관된 음향 처리가 수행될 수 있도록 한다.
이와 같이, 메인 음향처리부(400)에 의해 입체 음향의 처리가 수행되는 도중에 사용자가 이동하여 그 위치가 변경되는 경우, 개별 음향처리부(100-1, 100-2, …, 100-M)에서는 각각 위치 센서(140-M)와 거리측정 및 음향제어부(150-M)에 의해 사용자의 변경된 위치가 측정되고 이러한 정보가 메인 음향처리부(400)의 위치기반 음향제어부(440)로 각각 전달된다(S250-1, S250-2, …, S250-M-1, S250-M).
그러면, 메인 음향처리부(400)의 위치기반 음향제어부(440)는 개별 음향처리부(100-1, 100-2, …, 100-M)로부터 전달된 사용자의 위치 정보로부터 사용자의 위치 이동 여부를 판단하고(S260), 만약 사용자가 이동하여 그 위치가 변경된 것으로 판단되면 이동된 사용자의 위치에 기반하여 음향처리를 수행해야할 개별 음향처리부(100-1, 100-2, …, 100-M)를 재선정한다(S270). 여기에서는 이동한 사용자의 위치에 기반하여 재선정되는 개별 음향처리부가 100-M-1, 100-M 2개인 것으로 가정하여 설명한다.
다음, 메인 음향처리부(400)는 재선정한 개별 음향처리부(100-M-1, 100-M)에게 재생 파일에 대한 음향처리후 재생을 명령함과 동시에, 이미 파일을 재생하여 음향 출력을 수행하고 있으면서 상기 재선정 단계(S270)에서 재선정되지 못한 개별 음향처리부(100-1, 100-2)에게는 재생 동작을 중지하라는 명령을 전달한다(S280-2).
따라서, 개별 음향처리부(100-M-1, 100-M)는 저장된 파일을 재생하여 스피커 (160-M)를 통해 사용자에게 음향 출력하고(S290-1), 개별 음향처리부(100-1, 100-2)는 재생하고 있는 동작을 중지한다(S290-2).
상기에서는 한 번의 사용자 위치 변경이 측정된 경우의 처리에 대해서만 기술하였으나, 개별 음향처리부(100-1, 100-2, …, 100-M)에 의해 주기적으로 측정되는 사용자의 위치가 계속 변경되는 경우에는 그 사용자 위치의 변경이 메인 음향처리부(400)로 계속 보고되고, 그에 따라 사용자의 변경되는 위치에 기반하여 음향 출력을 수행하는 개별 음향처리부(100-1, 100-2, …, 100-M) 또한 계속적으로 재선정되는 동작이 반복되어 처리된다.
또한, 상기에서는 사용자의 위치 이동에 따라 재생중인 개별 음향처리부(100-1, 100-2)가 그 재생동작을 한 번에 중지하고, 또한 이동된 사용자의 위치에 기반하여 새로 선정된 개별 음향처리부(100-M-1, 100-M)가 갑자기 파일을 재생하는 것으로 기술하였으나, 본 발명의 기술적 범위는 여기에 한정되지 않고, 재생을 중지하는 개별 음향처리부(100-1, 100-2)가 순차적으로 재생 볼륨을 줄여가면서 재생을 중지하고, 재생을 시작하는 개별 음향처리부(100-M-1, 100-M)가 재생 볼륨을 점차적으로 증가시키면서 재생을 시작하는 것으로 하여도 좋다.
비록, 본 발명이 가장 실제적이며 바람직한 실시 예를 참조하여 설명되었지만, 본 발명은 상기 개시된 실시 예에 한정되지 않으며, 후술되는 특허 청구범위 내에 속하는 다양한 변형 및 등가물들도 포함한다.
본 발명에 따르면, 다수의 음원을 독립적으로 사용하여 재생함으로써 혼합 효과를 제공할 수 있다.
또한, 사용자의 위치 이동에 맞추어 음향 재생 위치를 변경함으로써 자동으로 최적화된 입체음향을 즐길 수 있는 스위트 스폿(sweet spot)을 조절해 줄 수 있다.
또한, 사용자의 위치 이동 없이도 음원을 이동시킬 수가 있어서 다양한 음향 전이 효과를 제공할 수 있다.

Claims (16)

  1. 외부로 음향을 출력하는 스피커를 각각 포함하는 복수의 개별 음향처리부; 및
    상기 복수의 개별 음향처리부와 각각 무선 또는 유선으로 접속되어 상기 복수의 개별 음향처리부의 스피커를 독립적으로 구동 제어하며, 재생 파일에 따라서 음향 출력할 개별 음향처리부를 상기 복수의 개별 음향처리부 중에서 선택하여 상기 재생 파일을 재생하여 음향을 출력하도록 제어하는 메인 음향처리부
    를 포함하며,
    상기 복수의 개별 음향처리부는 시간상으로 상기 메인 음향처리부에 각각 동기되어 동작하는
    것을 특징으로 하는 스피커 시스템.
  2. 제1항에 있어서,
    상기 복수의 개별 음향처리부에 각각 포함된 복수의 스피커가 격자형으로 배치되어 있는 것을 특징으로 하는 스피커 시스템.
  3. 삭제
  4. 제1항에 있어서,
    상기 각 복수의 개별 음향처리부는,
    상기 메인 음향처리부로부터 전송되는 상기 재생 파일을 저장하는 저장부;
    상기 메인 음향처리부와 시간 동기가 맞도록 제어하는 동기화부; 및
    상기 저장부 및 동기화부에 접속되며, 상기 메인 음향처리부의 제어에 따라 상기 저장부에 저장된 재생 파일을 재생하여 해당하는 음향으로 상기 스피커를 통해 출력하는 음향제어부
    를 포함하는 스피커 시스템.
  5. 제1항에 있어서,
    상기 메인 음향처리부는,
    네트워크 또는 외부 매체로부터 재생 파일을 다운로드받는 매체 인터페이스부;
    상기 매체 인터페이스부를 통해 다운로드된 재생 파일을 저장하는 메인 저장부; 및
    상기 매체 인터페이스부 및 메인 저장부에 접속되며, 상기 메인 저장부에 저장된 재생 파일을 재생할 개별 음향처리부를 상기 복수의 개별 음향처리부 중에서 선택하여 독립적으로 또는 집합적으로 상기 재생 파일을 재생하도록 제어하는 메인 음향제어부
    를 포함하는 스피커 시스템.
  6. 제1항에 있어서,
    상기 복수의 개별 음향처리부는 사용자까지의 거리를 측정하여 상기 메인 음향처리부로 각각 출력하고,
    상기 메인 음향처리부는 상기 복수의 개별 음향처리부에서 각각 측정된 사용자의 위치 및 음원으로부터의 거리 정보에 기반하여 상기 복수의 개별 음향처리부에서의 재생 동작을 제어하는
    것을 특징으로 하는 스피커 시스템.
  7. 제6항에 있어서,
    상기 복수의 개별 음향처리부는
    상기 메인 음향처리부로부터 전송되는 상기 재생 파일을 저장하는 저장부;
    상기 메인 음향처리부와 시간 동기가 맞도록 제어하는 동기화부;
    상기 사용자의 위치 및 음원으로부터의 거리를 측정하여 대응되는 정보로 출력하는 위치 센서; 및
    상기 저장부 및 동기화부에 접속되어 상기 메인 음향처리부의 제어에 따라 상기 저장부에 저장된 재생 파일을 재생하여 해당하는 음향으로 상기 스피커를 통해 출력하고, 상기 위치 센서에 연결되어 상기 사용자의 위치 및 음원으로부터의 거리를 측정하도록 제어하는 거리측정 및 음향제어부
    를 포함하는 스피커 시스템.
  8. 제6항에 있어서,
    상기 메인 음향처리부는,
    네트워크 또는 외부 매체로부터 재생 파일을 다운로드받는 매체 인터페이스부;
    상기 매체 인터페이스부를 통해 다운로드된 재생 파일을 저장하는 메인 저장부; 및
    상기 매체 인터페이스부 및 메인 저장부에 접속되어 상기 메인 저장부에 저장된 재생 파일을 재생할 개별 음향처리부를 상기 복수의 개별 음향처리부 중에서 선택하여 독립적으로 또는 집합적으로 상기 재생 파일을 재생하도록 제어하며, 상기 복수의 개별 음향처리부에서 각각 측정되어 전달되는 사용자의 위치 및 음원으로부터의 거리 정보에 기초하여 판단된 사용자의 위치에 기반하여 상기 재생 파일을 재생할 개별 음향처리부를 선택하여 제어하는 위치기반 음향제어부
    를 포함하는 스피커 시스템.
  9. 제8항에 있어서,
    상기 위치기반 음향제어부는 상기 사용자의 위치 이동에 따라 상기 재생 파일을 재생하는 개별 음향처리부를 상기 복수의 개별 음향처리부 중에서 재선정하는 것을 특징으로 하는 스피커 시스템.
  10. 제2항 또는 제4항 내지 제9항 중 어느 한 항에 있어서,
    상기 복수의 개별 음향처리부 및 메인 음향처리부에는 무선으로 서로 정보를 송수신할 수 있는 무선 인터페이스부가 더 포함되는 것을 특징으로 하는 스피커 시스템.
  11. 제10항에 있어서,
    상기 메인 음향처리부가 상기 복수의 개별 음향처리부 중 어느 하나에 구비되고,
    상기 복수의 개별 음향처리부에 각각 포함된 무선 인터페이스부는 서로 정보 송수신이 가능한
    것을 특징으로 하는 스피커 시스템.
  12. a) 음향 출력이 가능한 스피커를 각각 포함하는 복수의 개별 음향처리부 중에서 재생할 파일에 따라 재생 제어할 개별 음향처리부를 선택하는 단계; 및
    b) 상기 복수의 개별 음향처리부를 제어하는 메인 음향처리부가 상기 선택된 개별 음향처리부를 각각 제어하여 상기 파일 재생이 독립적으로 수행되도록 하는 단계
    를 포함하며,
    상기 메인 음향처리부는 상기 a) 단계 전에, 상기 복수의 개별 음향처리부가 시간상으로 각각 동기되어 동작하도록 제어하는
    것을 특징으로 하는 스피커 시스템에서의 음향처리 방법.
  13. 삭제
  14. 제12항에 있어서,
    상기 b) 단계 후에,
    i) 상기 복수의 개별 음향처리부로부터 각각 사용자까지 측정된 거리 정보를 수신하는 단계;
    ii) 상기 수신된 거리 정보에 의해 상기 사용자의 위치가 변경되었는 지의 여부를 판단하는 단계;
    iii) 상기 사용자의 위치가 변경된 것으로 판단되는 경우, 상기 재생 파일을 재생할 개별 음향처리부를 상기 복수의 개별 음향처리부 중에서 새로이 선정하는 단계; 및
    iv) 상기 새로이 선정된 개별 음향처리부를 각각 제어하여 상기 변경된 사용자의 위치에 기반하여 상기 파일 재생이 독립적으로 수행되도록 하는 단계
    를 더 포함하는 스피커 시스템에서의 음향처리 방법.
  15. 제14항에 있어서,
    상기 iv) 단계에서,
    상기 사용자의 위치 변경 전에 상기 파일을 재생하고 있던 개별 음향처리부 중에서 상기 새로이 선정된 개별 음향처리부에 속하지 않은 개별 음향처리부는 상 기 파일 재생 동작을 중지하도록 제어되는 것을 특징으로 하는 스피커 시스템에서의 음향처리 방법.
  16. 제15항에 있어서,
    상기 새로이 선정된 개별 음향처리부가 재생 볼륨을 점차적으로 증가시키면서 상기 파일 재생을 시작하고,
    상기 파일 재생 동작을 중지하는 개별 음향처리부는 상기 재생 볼륨을 점차적으로 감소시키면서 상기 파일 재생 동작을 중지하는
    것을 특징으로 하는 스피커 시스템에서의 음향처리 방법.
KR1020050033563A 2005-04-22 2005-04-22 격자형 스피커 시스템 및 그 시스템에서의 음향 처리 방법 KR100777221B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050033563A KR100777221B1 (ko) 2005-04-22 2005-04-22 격자형 스피커 시스템 및 그 시스템에서의 음향 처리 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050033563A KR100777221B1 (ko) 2005-04-22 2005-04-22 격자형 스피커 시스템 및 그 시스템에서의 음향 처리 방법

Publications (2)

Publication Number Publication Date
KR20050044881A KR20050044881A (ko) 2005-05-13
KR100777221B1 true KR100777221B1 (ko) 2007-11-19

Family

ID=37244706

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050033563A KR100777221B1 (ko) 2005-04-22 2005-04-22 격자형 스피커 시스템 및 그 시스템에서의 음향 처리 방법

Country Status (1)

Country Link
KR (1) KR100777221B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101132661B1 (ko) 2009-09-23 2012-04-03 에스케이플래닛 주식회사 복수의 골전도스피커를 이용한 출력시스템 및 방법, 그 골전도스피커
CN105959878A (zh) * 2016-05-18 2016-09-21 广东欧珀移动通信有限公司 立体声音响系统的控制方法及装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8675880B2 (en) * 2006-03-31 2014-03-18 Koninklijke Philips N.V. Device for and a method of processing data
KR100918695B1 (ko) * 2007-12-11 2009-09-22 주식회사 케이티 입체 음향 재생 서비스 제공 방법 및 시스템
KR100954385B1 (ko) * 2007-12-18 2010-04-26 한국전자통신연구원 개인화된 머리전달함수를 이용한 3차원 오디오 신호 처리장치 및 그 방법과, 그를 이용한 고현장감 멀티미디어 재생시스템
CN104506996B (zh) * 2015-01-15 2017-09-26 谭希妤 一种基于紫蜂协议的广场舞音乐播放装置和其使用方法
KR20200037003A (ko) 2018-09-28 2020-04-08 삼성디스플레이 주식회사 표시 장치와 그의 구동 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001025084A (ja) 1999-07-07 2001-01-26 Matsushita Electric Ind Co Ltd スピーカー装置
KR20010098484A (ko) * 2000-04-11 2001-11-08 추후기재 디지털 무선 프레미스 오디오 시스템 및 그 동작 방법
KR20040097506A (ko) * 2003-05-12 2004-11-18 한국스프라이트 주식회사 통합 무선스피커 시스템

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001025084A (ja) 1999-07-07 2001-01-26 Matsushita Electric Ind Co Ltd スピーカー装置
KR20010098484A (ko) * 2000-04-11 2001-11-08 추후기재 디지털 무선 프레미스 오디오 시스템 및 그 동작 방법
KR20040097506A (ko) * 2003-05-12 2004-11-18 한국스프라이트 주식회사 통합 무선스피커 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101132661B1 (ko) 2009-09-23 2012-04-03 에스케이플래닛 주식회사 복수의 골전도스피커를 이용한 출력시스템 및 방법, 그 골전도스피커
CN105959878A (zh) * 2016-05-18 2016-09-21 广东欧珀移动通信有限公司 立体声音响系统的控制方法及装置

Also Published As

Publication number Publication date
KR20050044881A (ko) 2005-05-13

Similar Documents

Publication Publication Date Title
JP7389081B2 (ja) 三次元拡張オーディオを提供するシステム及び方法
EP1266541B1 (en) System and method for optimization of three-dimensional audio
KR100777221B1 (ko) 격자형 스피커 시스템 및 그 시스템에서의 음향 처리 방법
AU2001239516A1 (en) System and method for optimization of three-dimensional audio
JP2009509185A (ja) 同期音声データ処理のための音声データ処理装置及び方法
JP2002505818A (ja) 人工音響環境を生成するためのシステム
US11223920B2 (en) Methods and systems for extended reality audio processing for near-field and far-field audio reproduction
US11683654B2 (en) Audio content format selection
JP2001275194A (ja) スピーカーシステム、情報送信装置及びスピーカー装置
JP2007124380A (ja) 立体音響出力システム、立体音響出力方法及び立体音響出力用プログラム
JP2001186599A (ja) 音場創出装置
KR20240070334A (ko) 격자형 스피커 시스템 및 그 시스템에서의 음향 처리 방법
Hoose Creating Immersive Listening Experiences with Binaural Recording Techniques
WO2023085186A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
KR20190097799A (ko) 다중 렌더링 방식을 이용하는 입체 음향 생성 장치 및 입체 음향 생성 방법, 그리고 입체 음향 재생 장치 및 입체 음향 재생 방법
Miller III Recording immersive 5.1/6.1/7.1 surround sound, compatible stereo, and future 3D (with height)
Sousa The development of a'Virtual Studio'for monitoring Ambisonic based multichannel loudspeaker arrays through headphones
KR20110072973A (ko) 개방형 음장제공시스템 및 음장제공방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20120111

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20131212

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee