KR20050044881A - Grid speaker system and audio processing method in the same - Google Patents

Grid speaker system and audio processing method in the same Download PDF

Info

Publication number
KR20050044881A
KR20050044881A KR1020050033563A KR20050033563A KR20050044881A KR 20050044881 A KR20050044881 A KR 20050044881A KR 1020050033563 A KR1020050033563 A KR 1020050033563A KR 20050033563 A KR20050033563 A KR 20050033563A KR 20050044881 A KR20050044881 A KR 20050044881A
Authority
KR
South Korea
Prior art keywords
sound
sound processing
individual
main
individual sound
Prior art date
Application number
KR1020050033563A
Other languages
Korean (ko)
Other versions
KR100777221B1 (en
Inventor
장성주
장선연
Original Assignee
한국정보통신대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국정보통신대학교 산학협력단 filed Critical 한국정보통신대학교 산학협력단
Priority to KR1020050033563A priority Critical patent/KR100777221B1/en
Publication of KR20050044881A publication Critical patent/KR20050044881A/en
Application granted granted Critical
Publication of KR100777221B1 publication Critical patent/KR100777221B1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60CVEHICLE TYRES; TYRE INFLATION; TYRE CHANGING; CONNECTING VALVES TO INFLATABLE ELASTIC BODIES IN GENERAL; DEVICES OR ARRANGEMENTS RELATED TO TYRES
    • B60C13/00Tyre sidewalls; Protecting, decorating, marking, or the like, thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60CVEHICLE TYRES; TYRE INFLATION; TYRE CHANGING; CONNECTING VALVES TO INFLATABLE ELASTIC BODIES IN GENERAL; DEVICES OR ARRANGEMENTS RELATED TO TYRES
    • B60C13/00Tyre sidewalls; Protecting, decorating, marking, or the like, thereof
    • B60C2013/005Physical properties of the sidewall rubber
    • B60C2013/006Modulus; Hardness; Loss modulus or "tangens delta"

Abstract

본 발명은 격자형 스피커 시스템 및 그 시스템에서의 음향 처리 방법에 관한 것이다. 이러한 격자형 스피커 시스템은 외부로 음향을 출력하는 스피커를 각각 포함하는 복수의 개별 음향처리부; 및 복수의 개별 음향처리부와 각각 무선 또는 유선으로 접속되어 복수의 개별 음향처리부의 스피커를 독립적으로 구동 제어하며, 재생 파일에 따라서 음향 출력할 개별 음향처리부를 복수의 개별 음향처리부 중에서 선택하여 재생 파일을 재생하여 음향을 출력하도록 제어하는 메인 음향처리부를 포함한다. 여기서, 복수의 개별 음향처리부에 각각 포함된 복수의 스피커가 격자형으로 배치되어 있는 것을 특징으로 한다. 대안으로, 복수의 개별 음향처리부는 사용자까지의 위치 및 거리를 측정하여 메인 음향처리부로 각각 출력하고, 메인 음향처리부는 복수의 개별 음향처리부에서 각각 측정된 사용자까지의 거리 정보에 기반하여 복수의 개별 음향처리부에서의 재생 동작을 제어하는 것을 특징으로 한다. 본 발명에 따르면, 다수의 음원을 독립적으로 사용하여 재생함으로써 음의 혼합 효과 및 공간적 전이효과를 제공할 수 있고, 사용자의 위치 이동에 맞추어 음향 재생 위치를 변경함으로써 자동으로 스위트 스폿(sweet spot)을 조절해 줄 수 있다. The present invention relates to a lattice speaker system and a sound processing method in the system. The grid speaker system includes a plurality of individual sound processing units each including a speaker for outputting sound to the outside; And a plurality of individual sound processing units connected to each other wirelessly or by wire, respectively, to independently drive and control the speakers of the plurality of individual sound processing units, and select the individual sound processing unit to output the sound according to the playback file from among the plurality of individual sound processing units. It includes a main sound processor for controlling to reproduce the sound output. Here, the plurality of speakers each included in the plurality of individual sound processing units is characterized in that arranged in a grid. Alternatively, the plurality of individual sound processors measure the position and distance to the user, respectively, and output them to the main sound processor, and the main sound processor is based on the distance information to the user, respectively measured by the plurality of individual sound processors. It is characterized by controlling the reproduction operation in the sound processor. According to the present invention, it is possible to provide sound mixing effects and spatial transition effects by independently using a plurality of sound sources, and to automatically generate sweet spots by changing the position of sound reproduction according to the movement of the user. I can adjust it.

Description

격자형 스피커 시스템 및 그 시스템에서의 음향 처리 방법{GRID SPEAKER SYSTEM AND AUDIO PROCESSING METHOD IN THE SAME}GRID SPEAKER SYSTEM AND AUDIO PROCESSING METHOD IN THE SAME}

본 발명은 스피커 시스템에 관한 것으로, 보다 구체적으로는 격자형으로 배치된 다수의 스피커를 사용하여 다양한 음향을 제공하는 격자형 스피커 시스템 및 그 시스템에서의 음향 처리 방법에 관한 것이다.TECHNICAL FIELD The present invention relates to a speaker system, and more particularly, to a grid speaker system for providing various sounds using a plurality of speakers arranged in a grid, and a sound processing method in the system.

최근 사람들은 게임을 하거나 영화를 볼 때 실제와 같은 상황에 자신이 그 내용 속에 빠져든 것 같은 착각을 느끼곤 한다. 이런 실재감은 3차원 영상 기술 또는 영상 특수 효과의 많은 발전 때문에 이루어지고 있다. 그러나, 영상에서 주는 효과만으로 실재감을 높여주는 것은 아니다. 보는 것 못지 않게 듣는 것 또한 중요한데, 그런 음향기술에 있어서도 최근까지 많은 발전을 해오고 있다.Recently, when people play a game or watch a movie, they often feel that they are immersed in the content in a realistic situation. This realism is made possible due to many advances in 3D imaging technology or video special effects. However, the effect of the video alone does not enhance the realism. Listening is no less important than seeing, and there have been many advances in the sound technology until recently.

입체 음향은 사람에게 듣는 것으로 공간감각적인 착각을 불러 일으키게 한다. 예를 들면, 게임에서 총소리가 멀리서 들리거나 가까이서 들리게 하는 효과로 사용자가 전장(war field)에 있는 것 같은 느낌을 주며, 영화에서 좌우로만 들리는 스테레오 효과와 더불어 주위를 감싸는 서라운드(surround) 효과로 2차원이라는 제약의 영화 화면에, 보는 사람들이 들어와 있는 듯한 착각을 느끼게 해주기도 한다.Stereo sound is what we hear to arouse the sense of space. For example, in the game, gunshots can be heard from afar or near, giving the user the feeling of being in a war field, with a surround effect that surrounds the left and right in a movie, as well as a surround effect. It also makes people feel as if they are in the movie screen, which is limited by dimensions.

이렇게 입체 음향은 영상이 갖는 한계를 극복하게 해주는 아주 중요한 요소이다. 이러한 음향효과를 제공하기 위해서는 다양한 스피커 시스템들이 필요하다.This stereo sound is a very important factor to overcome the limitations of the image. Various speaker systems are needed to provide this acoustic effect.

일반적인 스테레오의 원리는 왼쪽과 오른쪽의 소리가 분리되는 것을 이용해서 단순히 볼륨을 높였다 줄였다 하는 것이다. 예를 들면 자동차가 오른쪽에서 왼쪽으로 지나가는 사운드의 표현은 오른쪽 볼륨을 크게 했다가 왼쪽으로 지나갈 때 오른쪽 볼륨을 줄이고 왼쪽 볼륨을 높이는 것이다. 돌비 스테레오는 기존의 스테레오가 표현하지 못했던 앞·뒤의 소리 이동성까지 표현할 수 있는 시스템이다. 돌비 스테레오는 4채널 방식으로, 프론트 스피커 2개, 센터 스피커, 서라운드(리어) 스피커로 이루어져 있다. 이러한 입체음향에서는 음의 분리도가 상당히 중요한데, 분리도(dB)가 높을수록 훨씬 입체적인 음이 나온다. The general principle of stereo is to simply turn up and down the volume by separating the left and right sounds. For example, the sound that a car passes from right to left is to increase the volume on the right and then to the right to decrease the volume on the left and to increase the volume on the left. Dolby Stereo is a system that can express the front and rear sound mobility that the stereo could not express. Dolby Stereo is a four-channel system consisting of two front speakers, a center speaker and a surround (rear) speaker. In this stereophonic sound, the separation of sounds is very important. The higher the separation (dB), the more three-dimensional sound comes out.

입체음향은 공간적 단서와 관련이 있으며 공간적 단서는 두 귀에 도달하는 소리의 시간차(ITD; Interaural Time Difference)에 의해 표현된다. 사람이 음원의 위치에 대한 방향성을 인지할 수 있는 이유는 두 귀에 들어오는 소리에 시간차가 있기 때문 가까운 방향 쪽에 있는 귀가 먼저 그 소리를 들음으로써 음원의 방향을 알 수 있다. 사람이 음원의 위치를 느낄 수 있는 또 하나의 단서는 두 귀에 도달하는 소리의 세기차이며 이를 통해 소리의 위치감과 거리감을 알 수 있다. Stereophonic sound is related to spatial cues, and spatial cues are expressed by the time difference between sounds reaching two ears (ITD). The reason that a person can recognize the direction of the sound source is because there is a time difference between the sounds coming from both ears, so the ear in the near direction first hears the sound to determine the direction of the sound source. Another clue that a person can feel the location of the sound source is the difference in the intensity of the sound reaching the two ears, through which the location and distance of the sound can be known.

입체음을 생성하는 방법과 관련하여 중요한 두 가지 개념들로는 머리전달함수와 공간 전달함수가 있다. 머리 전달함수(HTRF;Head-Related Transfer Function)는 무향실 내에서 가짜 머리를 이용하여 여러 각도에서 배치한 스피커에서 나오는 음들을 녹음하여 푸리에(Fourier) 변환한 것이며, 이러한 머리 전달 함수는 소리가 들어오는 각도에 따라 달라지기 때문에 여러 위치에서 나오는 음들에 대해 머리 전달 함수를 측정하고 이를 데이터베이스로 구축한다. 공간 전달함수(RTF;Room Transfer Function)는 특정 장소에 따른 공간의 크기, 구조, 벽 또는 천정 재질 등에 의해 음원에 대한 직접음, 초기 반사음, 잔향 패턴 및 잔향 시간 등이 달라진다. 특정 장소의 효과를 생성하기 위해서는 무반향실이 아닌 특정 실내에서 머리 전달 함수를 측정해야 하며 특정한 장소에서 측정한 머리 전달 함수를 공간 전달 함수라고 한다.Two important concepts related to the method of generating stereophonic sound are the head transfer function and the space transfer function. Head-Related Transfer Function (HTRF) is a Fourier-transformed recording of notes from speakers placed at various angles using a fake head in an anechoic chamber. Because it depends on, we measure the head transfer function for notes coming from different locations and build it into a database. The room transfer function (RTF) changes the direct sound, the initial reflection sound, the reverberation pattern, and the reverberation time for the sound source according to the size, structure, wall, or ceiling material of the room according to a specific place. In order to create the effect of a specific place, the hair transfer function must be measured in a specific room, not in an anechoic chamber, and the hair transfer function measured in a specific place is called a space transfer function.

음향을 녹음하고 재생하는 과정에서 사용되는 디지털 기술은 컴퓨터의 도움이 필요하다. 컴퓨터에서 처리하기 위해 사운드 입력 부분에서 ADC(Analog-to-Digital Converter)를 이용하여 디지털 신호로 바꾼 후 다양한 디지털 시그널 프로세싱 과정을 통하여 입체음향 생성에 필요한 처리를 행한 후, 다시 소리를 듣기 위해서 사운드 출력 부분에서 DAC(Digital-to-Analog Converter)를 이용하여 출력한다.The digital technology used to record and play sound requires the assistance of a computer. In order to process in computer, the sound input part converts to digital signal by using ADC (Analog-to-Digital Converter), performs various digital signal processing to process stereo sound, and then outputs sound to hear sound again. In the part, it outputs using DAC (Digital-to-Analog Converter).

스테레오 사운드와 입체음향을 생성하고 출력하는 기존의 기술들은 두 개 혹은 제한된 숫자의 스피커들을 이용하여 특수한 방식으로 녹음한 사운드를 주로 디지털 신호처리 기술에 의해 사운드 시그널의 시간차 및 세기를 조정하여 출력하는 방식을 취하고 있다. 이는 실제 세계에서 사람이 입체감 있는 소리를 듣는 방식을 시뮬레이트하고 있는 것이며 따라서, 인간의 귀에 자연스러운 완벽한 실감음향을 재현하는 데는 한계가 있다.Existing technologies for generating and outputting stereo sound and stereoscopic sound output the sound recorded in a special way using two or a limited number of speakers mainly by adjusting the time difference and intensity of the sound signal by digital signal processing technology. Is taking. This simulates the way a person hears a three-dimensional sound in the real world, and thus there is a limit to the reproduction of the perfect realistic sound that is natural to the human ear.

따라서 본 발명의 목적은, 격자형으로 배열된 다수의 스피커를 사용하여 독립된 다수의 음원 발생에 의해 다양한 형태의 입체 효과, 다수 음원 혼합 효과 및 사용자의 위치에 기반한 음향 효과를 제공할 수 있는 격자형 스피커 시스템 및 그 시스템에서의 음향 처리 방법을 제공하는 데 있다.Accordingly, an object of the present invention, by generating a plurality of independent sound sources using a plurality of speakers arranged in a lattice grid type that can provide various types of stereoscopic effects, multiple sound source mixing effects and sound effects based on the user's location The present invention provides a speaker system and a sound processing method in the system.

상기한 목적을 달성하기 위하여 본 발명의 특징에 따른 스피커 시스템은,Speaker system according to the characteristics of the present invention to achieve the above object,

외부로 음향을 출력하는 스피커를 각각 포함하는 복수의 개별 음향처리부; 및 상기 복수의 개별 음향처리부와 각각 무선 또는 유선으로 접속되어 상기 복수의 개별 음향처리부의 스피커를 독립적으로 구동 제어하며, 재생 파일에 따라서 음향 출력할 개별 음향처리부를 상기 복수의 개별 음향처리부 중에서 선택하여 상기 재생 파일을 재생하여 음향을 출력하도록 제어하는 메인 음향처리부를 포함한다.A plurality of individual sound processing units each including a speaker for outputting sound to the outside; And a plurality of individual sound processing units connected to the plurality of individual sound processing units wirelessly or by wire, respectively, to independently drive and control the speakers of the plurality of individual sound processing units, and to select an individual sound processing unit to output sound according to a playback file. It includes a main sound processor for controlling to output the sound by playing the playback file.

여기서, 상기 복수의 개별 음향처리부에 각각 포함된 복수의 스피커가 격자형으로 배치되어 있는 것을 특징으로 한다.Here, the plurality of speakers each included in the plurality of individual sound processing units is characterized in that arranged in a grid.

또한, 상기 복수의 개별 음향처리부는 각각 시간상으로 상기 메인 음향처리부에 동기되어 동작하는 것을 특징으로 한다.The plurality of individual sound processing units may be operated in synchronization with the main sound processing unit, respectively, in time.

상기 복수의 개별 음향처리부는 사용자의 위치 및 음원으로부터의 거리를 측정하여 상기 메인 음향처리부로 각각 출력하고,The plurality of individual sound processing units respectively measure the position of the user and the distance from the sound source and output to the main sound processing unit,

또한, 상기 메인 음향처리부는 상기 복수의 개별 음향처리부에서 각각 측정된 사용자까지의 거리 정보에 기반하여 상기 복수의 개별 음향처리부에서의 재생 동작을 제어하는 것을 특징으로 한다.The main sound processor may control reproduction operations of the plurality of individual sound processors based on distance information measured by the plurality of individual sound processors, respectively.

본 발명의 다른 특징에 따른 스피커 시스템에서의 음향처리 방법은,A sound processing method in a speaker system according to another aspect of the present invention,

a) 음향 출력이 가능한 스피커를 각각 포함하는 복수의 개별 음향처리부 중에서 재생할 파일에 따라 재생 제어할 개별 음향처리부를 선택하는 단계; 및 b) 상기 복수의 개별 음향처리부를 제어하는 메인 음향처리부가 상기 선택된 개별 음향처리부를 각각 제어하여 상기 파일 재생이 독립적으로 수행되도록 하는 단계를 포함한다.a) selecting an individual sound processor to control playback according to a file to be reproduced among a plurality of individual sound processors each including a speaker capable of outputting sound; And b) the main sound processor controlling the plurality of individual sound processors respectively controlling the selected individual sound processors so that the file reproduction is performed independently.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였다. 명세서 전체를 통하여 유사한 부분에 대해서는 동일한 도면 부호를 붙였다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention. Like parts are designated by like reference numerals throughout the specification.

이하, 본 발명의 실시 예에 따른 격자형 스피커 시스템에 대해서 상세하게 설명한다. Hereinafter, a grid speaker system according to an exemplary embodiment of the present invention will be described in detail.

도 1은 본 발명의 제1 실시 예에 따른 격자형 스피커 시스템의 개략적인 블록도이다.1 is a schematic block diagram of a grid speaker system according to a first embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 제1 실시 예에 따른 격자형 스피커 시스템은 다수의 개별 음향처리부(100-1, 100-2, …, 100-N) 및 메인 음향처리부(200)를 포함한다.As shown in FIG. 1, the grid speaker system according to the first exemplary embodiment of the present invention may include a plurality of individual sound processors 100-1, 100-2,..., 100 -N and a main sound processor 200. Include.

개별 음향처리부(100-1, 100-2, …, 100-N)는 그 각각이 격자형 스피커 시스템의 각 모듈을 구성하고, 개별적으로 음향을 재생 또는 생성하여 출력한다. 이 때, 개별 음향처리부(100-1, 100-2, …, 100-N)와 메인 음향처리부(200)는 각각 유선 또는 무선으로 접속될 수 있으며, 본 발명의 제1 실시 예에서는 무선으로 접속된 것으로 가정하여 설명한다.The individual sound processing units 100-1, 100-2, ..., 100-N each constitute each module of the lattice speaker system, and individually reproduce or generate sound and output the sound. In this case, the individual sound processing units 100-1, 100-2,..., 100 -N and the main sound processing unit 200 may be connected by wires or wirelessly, respectively. Explain that it has been done.

또한, 개별 음향처리부(100-1, 100-2, …, 100-N)는 첨부한 도 5에 도시된 바와 같이, 각각 하나의 모듈을 형성하고, 이러한 모듈들이 디지털 벽면을 형성할 수 있도록 격자형으로 배치된다. 도 5의 (a)는 정면에서 봤을 때의 형태이고, b)는 측면에서 봤을 때의 형태를 나타낸다.In addition, the individual sound processing units 100-1, 100-2,..., 100 -N each form one module, as shown in the accompanying FIG. 5, and the lattice so that these modules can form a digital wall surface. Is placed in the mold. (A) of FIG. 5 shows the form when it sees from the front, and b) shows the form when it sees from the side.

한편, 메인 음향처리부(200)는 인터넷 등의 네트워크를 통해 외부와 연결되어 외부의 서버로부터 음악 파일 등을 다운로드하거나 또는 외부 저장매체나 내부 기억장치 등에 저장된 음악 파일 등을 개별 음향처리부(100-1, 100-2, …, 100-N)로 전달하고, 또한 개별 음향처리부(100-1, 100-2, …, 100-N)가 음향 처리를 위해 서로 동기될 수 있도록 동기화 알고리즘을 수행한다.On the other hand, the main sound processing unit 200 is connected to the outside through a network such as the Internet to download music files, etc. from an external server, or the individual sound processing unit 100-1 to the music files stored in an external storage medium or internal storage device, etc. , 100-2, ..., 100-N), and also performs a synchronization algorithm so that the individual sound processing units 100-1, 100-2, ..., 100-N can be synchronized with each other for sound processing.

도 2는 본 발명의 제1 실시 예에 따라 도 1에 도시된 개별 음향처리부(100-N)의 일예를 나타낸 도면이다.2 is a diagram illustrating an example of the individual sound processor 100 -N shown in FIG. 1 according to the first embodiment of the present invention.

도 2에 도시된 바와 같이, 본 발명의 제1 실시 예에 따른 개별 음향처리부(100-N)는 무선 인터페이스부(110-N), 저장부(120-N), 동기화부(130-N), 음향제어부(140-N) 및 스피커(150-N)를 포함한다.As shown in FIG. 2, the individual sound processor 100 -N according to the first exemplary embodiment of the present invention includes a wireless interface unit 110 -N, a storage unit 120 -N, and a synchronization unit 130 -N. , A sound control unit 140 -N, and a speaker 150 -N.

무선 인터페이스부(110-N)는 개별 음향처리부(100-N)가 메인 음향처리부(200)와 무선 통신을 통하여 정보 교환이 가능하도록 한다. 이러한 무선 인터페이스부(110-N)로는 무선랜, 블루투스(Bluetooth) 등이 사용될 수 있다. The wireless interface unit 110 -N allows the individual sound processing unit 100 -N to exchange information with the main sound processing unit 200 through wireless communication. The wireless interface unit 110 -N may be a wireless LAN, Bluetooth, or the like.

저장부(120-N)는 개별 음향처리부(100-N)에서 처리하기 위한 각종의 프로그램, 데이터 등과, 무선 인터페이스부(110-N)을 통해 메인 음향처리부(200)로부터 전송된 각종의 파일, 음향 데이터 등을 받아서 저장한다.The storage unit 120 -N includes various programs, data, and the like for processing by the individual sound processor 100 -N, various files transmitted from the main sound processor 200 through the wireless interface unit 110 -N, Receive and store sound data.

동기화부(130-N)는 개별 음향처리부(100-N)가 메인 음향처리부(200)에 시간적으로 동기되어 개별 음향처리부(100-N)의 개별적 제어는 물론 집합적 제어가 가능하도록 한다. 이를 위해 동기화부(130-N)는 개별 음향처리부(100-N)의 시간을 메인 음향처리부(200)와 같은 시간으로 유지하도록 동작한다.The synchronization unit 130 -N allows the individual sound processing unit 100 -N to be synchronized with the main sound processing unit 200 in time to enable individual control of the individual sound processing units 100 -N as well as collective control. To this end, the synchronization unit 130 -N operates to maintain the time of the individual sound processing unit 100 -N at the same time as the main sound processing unit 200.

음향제어부(140-N)는 무선 인터페이스부(110-N), 저장부(120-N) 및 동기화부(140-N)에 접속되어 메인 음향처리부(200)의 제어에 따라 개별 음향처리부(100-N)이 개별 음향 처리 동작을 수행하도록 전반적인 제어를 수행한다. 음향제어부(140-N)는 저장부(120-N)에 저장된 파일을 재생하여 스피커(150-N)를 통해 소리가 출력되도록 하며, 동기화부(130-N)를 참조하여 다른 개별 음향처리부들과 동기되어 다양한 입체 음향 효과를 발생할 수 있도록 한다. The sound control unit 140 -N is connected to the air interface unit 110 -N, the storage unit 120 -N, and the synchronization unit 140 -N, and is controlled by the individual sound processing unit 100 under the control of the main sound processing unit 200. -N) performs overall control to perform the individual sound processing operations. The sound control unit 140 -N plays a file stored in the storage unit 120 -N to output sound through the speaker 150 -N, and other individual sound processing units by referring to the synchronization unit 130 -N. It can be synchronized with the controller to generate various stereo sound effects.

상기에서는 하나의 개별 음향처리부(100-N)의 구성에 대해서만 설명하였지만, 나머지 개별 음향처리부(100-1, 100-2, …, 100-N-1)들도 상기한 개별 음향처리부(100-N)와 마찬가지로 구성될 수 있다.Although only the configuration of one individual sound processing unit 100 -N has been described above, the other individual sound processing units 100-1, 100-2,..., 100 -N-1 are also described above. It can be configured similarly to N).

도 3은 본 발명의 제1 실시 예에 따라 도 1에 도시된 메인 음향처리부(200)의 일예를 나타낸 도면이다.3 is a diagram illustrating an example of the main sound processor 200 shown in FIG. 1 according to the first embodiment of the present invention.

도 3에 도시된 바와 같이, 본 발명의 제1 실시 예에 따른 메인 음향처리부(200)는 매체 인터페이스부(210), 메인 저장부(220), 무선 인터페이스부(230) 및 메인 음향제어부(240)를 포함한다.As shown in FIG. 3, the main sound processor 200 according to the first embodiment of the present invention may include a media interface unit 210, a main storage unit 220, a wireless interface unit 230, and a main sound control unit 240. ).

매체 인터페이스부(210)는 인터넷 등의 네트워크를 통해 메인 음향처리부(200)가 외부의 서버에 접속이 가능하도록 하고, 또한 CD, DVD, FDD 등의 저장매체에 대핸 액세스가 가능하도록 하는 인터페이스를 제공한다.The media interface unit 210 provides an interface that allows the main sound processor 200 to be connected to an external server through a network such as the Internet, and to allow access to storage media such as CD, DVD, FDD, and the like. do.

메인 저장부(220)는 메인 음향제어부(240)가 메인 음향처리부(200)를 제어하는데 사용되는 각종 프로그램, 데이터 등을 저장하고, 또한 매체 인터페이스부(210)를 통해 외부로부터 전송된 음악 파일 등을 저장한다.The main storage unit 220 stores various programs, data, etc. used by the main sound control unit 240 to control the main sound processing unit 200, and also includes a music file transmitted from the outside through the media interface unit 210. Save it.

무선 인터페이스부(230)는 메인 음향처리부(200)가 개별 음향처리부(100-N)와 무선 통신을 통하여 정보 교환이 가능하도록 한다. 이러한 무선 인터페이스부(230)로는 무선랜, 블루투스(Bluetooth) 등이 사용될 수 있다.The wireless interface unit 230 enables the main sound processing unit 200 to exchange information through wireless communication with the individual sound processing units 100 -N. The wireless interface unit 230 may be a wireless LAN, Bluetooth (Bluetooth) and the like.

메인 음향제어부(240)는 매체 인터페이스부(210), 메인 저장부(220) 및 무선 인터페이스부(230)를 제어하여, 외부로부터 다운로드받거나 또는 내부에 저장된 음악 파일이나 음향 등이 개별 음향처리부(100-1, 100-2, …, 100-N)에 의해 각각 독립적으로 또는 집합적으로 다양한 입체 음향 효과를 갖는 스피커 시스템이 되도록 제어한다.The main sound control unit 240 controls the media interface unit 210, the main storage unit 220, and the wireless interface unit 230, so that music files or sounds downloaded from the outside or stored therein are stored in the individual sound processing unit 100. -1, 100-2, ..., 100-N) to control a speaker system having various stereoscopic sound effects independently or collectively.

한편, 메인 음향처리부(200)는 개별 음향처리부(100-1, 100-2, …, 100-N)가 일관된 음향 처리를 하여 다양한 형태의 음향을 재생할 수 있도록 서로 시간적으로 동기를 맞추어야 한다. 이를 위해서 메인 음향처리부(200)와 개별 음향처리부(100-1, 100-2, …, 100-N)는 NTP(Network Time Portocol)를 사용한다. 이 NTP는 컴퓨터 클라이언트나 서버의 시간을 다른 서버나 라디오 또는 위성 수신기와 같은 참조할 수 있는 타임 소스 또는 모뎀에 동기화하는 데 사용되는 것으로, Coordinated Universal Time(UTC)에 동기화된 프라이머리 서버와 관련하여, NTP는 대개 LAN 상에서는 1 ms 이내, WAN 상에서는 10ms 이내의 클라이언트 정확성을 제공한다.On the other hand, the main sound processing unit 200 must synchronize with each other in time so that the individual sound processing unit (100-1, 100-2, ..., 100-N) can reproduce a variety of sounds by performing a consistent sound processing. To this end, the main sound processor 200 and the individual sound processors 100-1, 100-2, ..., 100-N use NTP (Network Time Portocol). This NTP is used to synchronize the time of a computer client or server to another server or to a reference time source or modem, such as a radio or satellite receiver, in relation to a primary server synchronized to Coordinated Universal Time (UTC). However, NTP typically provides client accuracy of less than 1 ms over LAN and less than 10 ms over WAN.

한편, 상기한 메인 음향처리부(200)가 개별 음향처리부(100-1, 100-2, …, 100-N)와는 별도로 독립적으로 구성되는 것으로 설명하였지만, 본 발명의 기술적 범위는 여기에 한정되지 않고, 메인 음향처리부(200)가 개별 음향처리부(100-1, 100-2, …, 100-N) 중 어느 하나의 구성요소로 내장되어 구비될 수 있으며, 이 경우에는 개별 음향처리부(100-1, 100-2, …, 100-N)에 각각 구비되는 무선 인터페이스(110-N)들이 서로 다른 식별자(ID)를 가지고 서로 무선 통신을 수행할 수 있도록 동작한다. Meanwhile, although the main sound processor 200 is described as being configured independently from the individual sound processors 100-1, 100-2, ..., 100-N, the technical scope of the present invention is not limited thereto. The main sound processor 200 may be provided as a component of any one of the individual sound processors 100-1, 100-2, ..., 100-N, and in this case, the individual sound processor 100-1. , 100-2,..., 100 -N respectively operate to allow wireless communication with each other with different identifiers (IDs).

이하, 본 발명의 제1 실시 예에 따른 격자형 스피커 시스템에서의 음향처리 방법에 대해 첨부된 도 4를 참조하여 설명한다.Hereinafter, a sound processing method in a grid speaker system according to a first embodiment of the present invention will be described with reference to FIG. 4.

먼저, 본 발명의 제1 실시 예에 따른 음향처리를 위해 메인 음향처리부(200)와 개별 음향처리부(100-1, 100-2, …, 100-N)는 메인 음향처리부(200)로부터의 주기적인 브로드캐스팅(broadcasting) 신호에 의해 시간이 서로 동기되어 같은 시간을 유지한다. 이것은 개별 음향처리부(100-1, 100-2, …, 100-N)에 있는 동기화부(130-N)에 의해 수행된다.First, the main sound processing unit 200 and the individual sound processing units 100-1, 100-2,..., 100 -N for the sound processing according to the first embodiment of the present invention have a period from the main sound processing unit 200. The time is synchronized with each other by the conventional broadcasting signal to maintain the same time. This is performed by the synchronization unit 130-N in the individual sound processing units 100-1, 100-2, ..., 100-N.

그 후, 메인 음향처리부(200)는 매체 인터페이스부(210)를 통해 음악 소스를 갖고 있는 서버로부터 특정 음악 파일 또는 음향 파일 등을 다운로드받거나 또는 CD, DVD, FDD 등에 저장된 음악 파일 또는 음향 파일 등을 받거나 또는 메인 저장부(220)에 저장된 음악 파일 또는 음향 파일 등을 읽어서 재생을 위한 음향 처리를 시작한다(S100).Thereafter, the main sound processor 200 downloads a specific music file or sound file from the server having a music source through the media interface unit 210 or downloads a music file or sound file stored in a CD, DVD, FDD, or the like. Receiving or reading the music file or sound file stored in the main storage unit 220 and starts the sound processing for reproduction (S100).

다음, 메인 음향처리부(200)는 개별 음향처리부(100-1, 100-2, …, 100-N) 중에서 해당 파일을 재생하여야 하는 개별 음향처리부를 선정한다(S110). 예를 들어, 스테레오 음향은 격자형으로 배치된 개별 음향처리부(100-1, 100-2, …, 100-N)의 중앙 부분을 중심으로 하여 오른쪽과 왼쪽이 서로 다른 영역의 음향을 재생하여야 하므로 이러한 음향처리를 위해 서로 다른 개별 음향처리부(100-1, 100-2, …, 100-N)가 선정된다. 또한, 숲속의 새들이 하나의 영상에 흩어져 있을 때, 각각의 새들이 내는 소리를 개별 음향처리부에 있는 스피커(150-N)를 통해 독립적으로 재생하는 다수의 음원 효과를 내기 위해서 개별 음향처리부(100-1, 100-2, …, 100-N)를 선정한다. 여기서는 설명의 편의를 위해서 개별 음향처리부(100-1, 100-2, …, 100-N) 중에서 두 개의 개별 음향처리부(100-1, 100-N)가 선정된 것으로 가정하여 설명한다.Next, the main sound processor 200 selects an individual sound processor to reproduce a corresponding file among the individual sound processors 100-1, 100-2, ..., 100-N (S110). For example, the stereo sound should reproduce the sound of the areas different from the right and the left, centering on the center portion of the individual sound processing units 100-1, 100-2, ..., 100-N arranged in a grid. Different sound processing units 100-1, 100-2, ..., 100-N are selected for this sound processing. In addition, when the birds in the forest are scattered in one image, the individual sound processor 100 to produce a plurality of sound source effects to independently reproduce the sound of each bird through the speaker 150-N in the individual sound processing unit 100 -1, 100-2, ..., 100-N). For convenience of description, it is assumed that two separate sound processing units 100-1 and 100 -N are selected from the individual sound processing units 100-1, 100-2,.

그 후, 메인 음향처리부(200)는 선정된 개별 음향처리부(100-1, 100-N)에 재생 파일과 해당 파일의 음향 처리를 위한 명령을 전달한다(S120-1, S120-M).Thereafter, the main sound processor 200 transmits a playback file and a command for sound processing of the corresponding file to the selected individual sound processors 100-1 and 100-N (S120-1 and S120-M).

한편, 메인 음향처리부(200)로부터 재생 파일과 해당 파일의 음향 처리 명령을 전달받은 개별 음향처리부(100-1, 100-N)는 수신한 재생 파일을 저장부(120-N)에 저장하고(S130, S130), 저장된 해당 파일을 각각 재생한다(S140, S140).Meanwhile, the individual sound processing units 100-1 and 100-N receiving the play file and the sound processing command of the file from the main sound processing unit 200 store the received play file in the storage unit 120-N ( S130 and S130, and reproduces the stored file (S140 and S140), respectively.

이 때, 메인 음향처리부(200)는 개별 음향처리부(100-1, 100-M)로 음향처리 명령을 줄 때, 파일을 재생할 시간 등도 함께 지정하여 줌으로써 개별 음향처리부(100-1, 100-M)에서 전체적으로 일관된 음향 처리가 수행될 수 있도록 한다.At this time, when the main sound processing unit 200 gives sound processing commands to the individual sound processing units 100-1 and 100-M, the main sound processing unit 200 also designates the time to play the file, and so on. To ensure that a consistent sound processing is performed throughout.

이것은 메인 음향처리부(200)와 개별 음향처리부(100-1, 100-2, …, 100-N)가 미리 정해진 프로토콜에 따라 통신을 하며 필요한 데이터를 주고 받음으로써 이루어질 수 있다.This may be achieved by the main sound processor 200 and the individual sound processors 100-1, 100-2, ..., 100-N communicating according to a predetermined protocol and exchanging necessary data.

이러한 프로토콜로는 오버헤드(overhead)가 적고, 프로토콜의 전송과 처리의 시간이 빠른 프로토콜이 적당하며, IP를 포함하는 프로토콜 중 하나인 UDP(User Datagram Protocol)가 양호하게 사용될 수 있다. 이 UDP는 핸드쉐이크를 거치지 않으므로 그 구조가 매우 간단하고, 처리 속도 또한 빨라서 보통은 멀티미디어 데이터 전송에 사용된다. As such a protocol, a protocol that has a low overhead, a protocol that has a high speed of transmission and processing of a protocol, is suitable, and User Datagram Protocol (UDP), which is one of protocols including IP, may be preferably used. Since UDP does not go through a handshake, its structure is very simple, and its processing speed is high, so it is usually used for multimedia data transmission.

메인 음향처리부(200)와 개별 음향처리부(100-1, 100-2, …, 100-N)가 프로토콜에 의해 주고 받는 패킷은 다음의 [표 1]과 같이 구성될 수 있다.Packets transmitted and received by the main sound processor 200 and the individual sound processors 100-1, 100-2, ..., 100-N by a protocol may be configured as shown in Table 1 below.

[표 1]TABLE 1

먼저, 셀 ID는 개별 음향처리부(100-1, 100-2, …, 100-N) 각각을 하나의 셀로 보고 각 셀마다 구분이 가능한 ID를 부여한 것이다. 이러한 셀 ID는 여러 가지 방식으로 할당할 수 있으나, 본 발명의 실시예에서는 각 셀이 격자형으로 배치되어 있는 것에 기초하여 행의 순서와 열의 순서를 나타내도록 부여한다. 즉, 행에 대해서 0부터 126까지의 행을 나타낼 수 있고, 열에 대해서도 0부터 126까지의 열을 표현할 수 있다.First, the cell ID is to view each of the individual sound processing units 100-1, 100-2,. Such cell IDs can be assigned in various ways. However, in the embodiment of the present invention, the cell IDs are assigned to indicate the order of the rows and the order of the columns based on the arrangement of the cells in a grid. That is, a row from 0 to 126 can be represented for a row, and a column from 0 to 126 can be represented for a column.

예를 들어 1행 5열에 있는 셀의 ID는 '0h0004'로 부여한다. 여기서, 0h는 ID가 16진수임을 나타내고, 그 다음의 00이 1행임을 나타내고, 그 다음의 04가 5열을 나타낸다.For example, the ID of the cell in the first row and the fifth column is '0h0004'. Here, 0h indicates that ID is a hexadecimal number, next 00 indicates 1 row, and next 04 indicates 5 columns.

다음, 타입(type)은 패킷을 전달하는 데이터의 목적에 따라 그 길이와 내용이 틀리므로, 형태에 따라 다른 처리를 할 수 있도록 구분짓는 필드이다. 타입은 그 형태에 따라 설정 타입, 제어 타입, 데이터 타입, 오류 타입 등으로 분류된다. 설정 타입은 메인 음향처리부(200)와 개별 음향처리부(100-1, 100-2, …, 100-N) 사이의 시간 동기를 위한 타입이고, 제어 타입은 파일 또는 각종의 음향 등을 재생하기 위한 제어 신호 전송을 위한 타입이며, 데이터 타입은 사용자의 위치 관련 처리를 위한 타입이고, 오류 타입은 패킷 전송시 오류가 발행했을 때를 위한 타입이다. 이러한 타입은 패킷을 발행하여 전송하는 측이 이미 정해져 있다.Next, the type is a field that can be distinguished so that different types of processing can be performed depending on the type because the length and content of the packet are different. Types are classified into setting types, control types, data types, and error types according to their types. The setting type is a type for time synchronization between the main sound processing unit 200 and the individual sound processing units 100-1, 100-2, ..., 100-N, and the control type is for reproducing a file or various sounds. It is a type for control signal transmission, a data type is a type for location related processing of a user, and an error type is a type for when an error is issued during packet transmission. This type has already been determined by the side that issues and transmits the packet.

다음, 타임 스탬프(time stamp)1과 타임 스탬프2는 해당 패킷을 전송하는 시간과 관련된 정보가 저장된다. Next, time stamp 1 and time stamp 2 store information related to the time at which the packet is transmitted.

데이터 필드는 음향 제어에 관한 정보가 들어가며, 재생될 파일 이름, 재생되고 있는 파일의 위치, 볼륨의 크기, 재생되어야 할 파일의 위치, 재생될 시간 등의 정보가 이에 해당된다.The data field contains information on sound control, and information such as a file name to be played, a file position to be played, a volume size, a file position to be played and a time to be played back corresponds to this.

한편, 상기에서는 메인 음향처리부(200)가 하나의 재생 파일을 개별 음향처리부(100-1, 100-N)로 전송하고, 음향처리를 수행하도록 하는 것으로만 설명하였지만, 본 발명의 기술적 범위는 여기에 한정되지 않고, 하나의 재생 파일을 여러 개의 개별 음향처리부가 서로 다른 시간에 각각 재생하도록 할 수도 있고, 또한 여러 재생 파일을 각각의 개별 음향처리부가 서로 다른 파일을 동일한 시간 또는 서로 다른 시간에 각각 재생하도록 할 수도 있다. 이러한 복잡한 음향처리 및 재생 방법은 상기한 도 1 내지 도 4를 참조하는 경우 본 기술분야의 당업자에 의해 쉽게 이해될 것이다.In the above description, the main sound processing unit 200 transmits one playback file to the individual sound processing units 100-1 and 100 -N and performs sound processing. However, the technical scope of the present invention is described herein. Not limited to, it is also possible to have a plurality of individual sound processing unit to play one playback file each at a different time, and each of the individual sound processing unit to play different playback files at the same time or at different times, respectively You can also play it. Such complex sound processing and reproducing methods will be readily understood by those skilled in the art when referring to FIGS. 1 to 4 described above.

한편, 상기에서는 메인 음향처리부(200)와 개별 음향처리부(100-1, 100-2, …, 100-N)가 사용자의 위치와는 무관하게 음향처리를 수행하는 것에 대해서 설명하였으나, 본 발명의 기술적 범위는 여기에 한정되지 않고, 다음의 제2 실시 예와 같이 사용자의 위치에 기반하여 음향처리를 수행하도록 할 수 있다.In the above description, the main sound processing unit 200 and the individual sound processing units 100-1, 100-2, ..., 100-N have been described to perform sound processing regardless of the position of the user. The technical scope is not limited thereto, and the sound processing may be performed based on the location of the user as in the following second embodiment.

도 6은 본 발명의 제2 실시 예에 따라 도 1에 도시된 집합적 음성인식 시스템의 개별 음성인식부(100-M)의 일예를 나타낸 도면이다.FIG. 6 is a diagram illustrating an example of an individual speech recognition unit 100 -M of the collective speech recognition system illustrated in FIG. 1 according to the second embodiment of the present invention.

도 6에 도시된 바와 같이, 본 발명의 제2 실시 예에 따른 개별 음향처리부(100-M)는 무선 인터페이스부(110-M), 저장부(120-M), 동기화부(130-M), 위치 센서(140-M), 거리측정 및 음향제어부(150-M) 및 스피커(160-M)를 포함한다.As shown in FIG. 6, the individual sound processing unit 100 -M according to the second embodiment of the present invention may include a wireless interface unit 110 -M, a storage unit 120 -M, and a synchronization unit 130 -M. , A position sensor 140 -M, a distance measuring and sound control unit 150 -M, and a speaker 160 -M.

무선 인터페이스부(110-M), 저장부(120-M), 동기화부(130-M) 및 스피커(160-M)는 상기한 제1 실시 예에서 설명한 무선 인터페이스부(110-N), 저장부(120-N), 동기화부(130-N) 및 스피커(150-N)과 동일한 기능을 수행하므로 여기에서는 상세한 설명을 생략하고, 제2 실시 예에서 새로이 추가되는 부분에 대해서만 설명한다.The wireless interface unit 110 -M, the storage unit 120 -M, the synchronization unit 130 -M, and the speaker 160 -M are stored in the wireless interface unit 110 -N described in the first embodiment. Since the same function as that of the unit 120 -N, the synchronization unit 130 -N, and the speaker 150 -N is omitted here, the detailed description thereof will be omitted and only the newly added portion of the second embodiment will be described.

위치 센서(140-M)는 개별 음향처리부(100-M)의 전면에 위치한 사용자의 위치를 인식하여 사용자까지의 거리를 측정하여 대응되는 정보로 출력한다.The position sensor 140 -M recognizes the position of the user located in front of the individual sound processor 100 -M, measures the distance to the user, and outputs the corresponding information.

거리측정 및 음향제어부(150-M)는 무선 인터페이스부(110-M), 저장부(120-M) 및 동기화부(140-M)에 접속되어 메인 음향처리부(200)의 제어에 따라 개별 음향처리부(100-M)가 개별 음향 처리 동작을 수행하도록 전반적인 제어를 수행하여, 저장부(120-M)에 저장된 파일을 재생하여 스피커(160-N)를 통해 소리가 출력되도록 하며, 동기화부(130-M)를 참조하여 다른 개별 음향처리부들과 동기되어 다양한 입체 음향 효과를 발생할 수 있도록 한다. 또한, 거리측정 및 음향제어부(150-M)는 위치 센서(140-M)에 접속되어 위치 센서(140-M)가 개별 음향처리부(100-M)의 전면에 위치한 사용자까지의 위치 및 거리를 측정하여 메인 음향처리부(200)로 무선으로 전달하도록 제어한다.The distance measurement and sound control unit 150 -M is connected to the air interface unit 110 -M, the storage unit 120 -M, and the synchronization unit 140 -M, and the individual sound is controlled under the control of the main sound processor 200. The processor 100-M performs overall control to perform an individual sound processing operation, reproduces a file stored in the storage 120-M, and outputs a sound through the speaker 160-N. 130-M) can be synchronized with other individual sound processing units to generate various stereoscopic sound effects. In addition, the distance measurement and sound control unit 150-M is connected to the position sensor 140-M so that the position sensor 140-M can be positioned to a user located in front of the individual sound processing unit 100-M. The measurement is controlled to be wirelessly transmitted to the main sound processor 200.

상기에서는 하나의 개별 음향처리부(100-M)의 구성에 대해서만 설명하였지만, 나머지 개별 음향처리부(100-1, 100-2, …, 100-M-1)들도 상기한 개별 음향처리부(100-M)와 마찬가지로 구성될 수 있다.Although only the configuration of one individual sound processing unit 100 -M has been described above, the other individual sound processing units 100-1, 100-2,..., 100 -M-1 are also described above. It can be configured similarly to M).

한편, 도 1에 도시된 메인 음향처리부(200)도 상기한 제1 실시예에서와 마찬기지로 개별 음향처리부(100-1, 100-2, …, 100-M)와는 별도로 독립적으로 구성되거나 또는 개별 음향처리부(100-1, 100-2, …, 100-M) 중 어느 하나의 구성요소로 내장되어 구비될 수 있으며, 이 경우에는 개별 음향처리부(100-1, 100-2, …, 100-M)에 각각 구비되는 무선 인터페이스(110-M)들이 서로 다른 식별자(ID)를 가지고 서로 무선 통신을 수행할 수 있도록 동작한다. Meanwhile, the main sound processor 200 shown in FIG. 1 may also be configured independently from the individual sound processors 100-1, 100-2, ..., 100-M as in the first embodiment. Each of the individual sound processing units 100-1, 100-2,..., 100 -M may be provided as a built-in component. In this case, the individual sound processing units 100-1, 100-2,. Each of the wireless interfaces 110 -M included in the -M) operates with a different identifier ID to perform wireless communication with each other.

도 7은 본 발명의 제2 실시 예에 따라 도 1에 도시된 메인 음향처리부(200)의 일예를 나타낸 도면이다.7 is a diagram illustrating an example of the main sound processor 200 shown in FIG. 1 according to the second embodiment of the present invention.

여기에서는 제1 실시 예에서의 메인 음향처리부(200)와의 혼동을 피하기 위해 메인 음향처리부(400)로 도면 참조부호를 변경하여 설명한다.Here, in order to avoid confusion with the main sound processor 200 in the first embodiment, the reference numerals are changed to the main sound processor 400.

도 7에 도시된 바와 같이, 본 발명의 제2 실시 예에 따른 메인 음향처리부(400)는 매체 인터페이스부(410), 메인 저장부(420), 무선 인터페이스부(430) 및 위치기반 음향제어부(440)를 포함한다.As shown in FIG. 7, the main sound processor 400 according to the second embodiment of the present invention includes a media interface unit 410, a main storage unit 420, a wireless interface unit 430, and a location-based sound control unit ( 440).

매체 인터페이스부(410), 메인 저장부(420) 및 무선 인터페이스(430)는 상기한 제1 실시 예에서의 매체 인터페이스부(210), 메인 저장부(220) 및 무선 인터페이스부(230)와 동일한 기능을 수행하므로 여기에서는 설명의 편의를 위해 상세한 기능 설명을 생략하고, 제1 실시 예의 경우와 다른 부분에 대해서만 설명한다.The media interface unit 410, the main storage unit 420, and the wireless interface 430 are the same as the media interface unit 210, the main storage unit 220, and the wireless interface unit 230 in the first embodiment. Since a function is performed, a detailed description of the function is omitted here for convenience of description, and only a part different from the case of the first embodiment will be described.

위치기반 음향제어부(440)는 매체 인터페이스부(410), 메인 저장부(420) 및 무선 인터페이스부(430)를 제어하여, 외부로부터 다운로드받거나 또는 내부에 저장된 음악 파일이나 음향 등이 개별 음향처리부(100-1, 100-2, …, 100-M)에 의해 각각 독립적으로 또는 집합적으로 다양한 입체 음향 효과를 갖는 스피커 시스템이 되도록 제어한다. 또한, 위치기반 음향제어부(440)는 개별 음향처리부(100-1, 100-2, …, 100-M)가 일관된 음향 처리를 하여 다양한 형태의 음향을 재생할 수 있도록 서로 시간적으로 동기를 맞추어야 한다. 이를 위해서 위치기반 음향제어부(440)와 개별 음향처리부(100-1, 100-2, …, 100-M)는 NTP(Network Time Portocol)을 사용한다. The location-based sound controller 440 controls the media interface unit 410, the main storage unit 420, and the wireless interface unit 430 so that music files or sounds downloaded from the outside or stored therein are stored in individual sound processing units ( 100-1, 100-2, ..., 100-M) to control the speaker system having various stereoscopic sound effects independently or collectively. In addition, the location-based sound control unit 440 needs to synchronize with each other so that the individual sound processing units 100-1, 100-2, ..., 100-M can reproduce various types of sounds by performing a consistent sound processing. To this end, the location-based sound control unit 440 and the individual sound processing units 100-1, 100-2,..., 100 -M use NTP (Network Time Portocol).

또한, 위치기반 음향제어부(440)는 개별 음향처리부(100-1, 100-2, …, 100-M)에서 각각 측정된 사용자까지의 거리 정보들에 기초하여 사용자의 정확한 위치를 추정한 후, 추정된 위치를 기반으로 하여 개별 음향처리부(100-1, 100-2, …, 100-M)에서의 다양한 음향처리가 수행되도록 제어한다. 예를 들어, 하나의 파일을 개별 음향처리부(100-1, 100-2, …, 100-M)에서 각각 재생하는 중에, 사용자가 이동하여 그 위치가 변경되면 사용자의 위치 이동이 개별 음향처리부(100-1, 100-2, …, 100-M)에 의해 측정되어 전달되어 이동되는 사용자의 위치에 기반하여 개별 음향처리부(100-1, 100-2, …, 100-M)에서 음향처리가 될 수 있도록 제어한다.In addition, the location-based sound controller 440 estimates the exact location of the user based on the distance information to the user measured by the respective sound processor 100-1, 100-2, ..., 100-M, respectively, Based on the estimated position, various sound processing in the individual sound processing units 100-1, 100-2, ..., 100-M is performed. For example, if a user moves and changes its position while playing one file in each of the individual sound processing units 100-1, 100-2,. The sound processing is performed by the individual sound processing units 100-1, 100-2, ..., 100-M based on the position of the user who is measured, transmitted, and moved by 100-1, 100-2, ..., 100-M). To be controlled.

이하, 본 발명의 제2 실시 예에 따른 격자형 스피커 시스템에서의 위치기반 음향처리 방법에 대해 첨부된 도 8을 참조하여 설명한다.Hereinafter, a position-based sound processing method in a lattice speaker system according to a second embodiment of the present invention will be described with reference to FIG. 8.

먼저, 본 발명의 제2 실시 예에 따른 위치기반의 음향처리를 위해 메인 음향처리부(400)와 개별 음향처리부(100-1, 100-2, …, 100-M)는 메인 음향처리부(400)로부터의 주기적인 브로드캐스팅(broadcasting) 신호에 의해 시간이 서로 동기되어 같은 시간을 유지한다. 이것은 개별 음향처리부(100-1, 100-2, …, 100-M)에 있는 동기화부(130-M)에 의해 수행된다.First, the main sound processor 400 and the individual sound processors 100-1, 100-2, ..., 100-M for the location-based sound processing according to the second embodiment of the present invention is the main sound processor 400 The time is synchronized with each other by the periodic broadcasting signal from the same time. This is performed by the synchronization unit 130-M in the individual sound processing units 100-1, 100-2, ..., 100-M.

그 후, 메인 음향처리부(400)는 매체 인터페이스부(410)를 통해 음악 소스를 갖고 있는 서버로부터 특정 음악 파일 또는 음향 파일 등을 다운로드받거나 또는 CD, DVD, FDD 등에 저장된 음악 파일 또는 음향 파일 등을 받거나 또는 메인 저장부(420)에 저장된 음악 파일 또는 음향 파일 등을 읽어서 재생을 위한 음향 처리를 시작한다(S200).Thereafter, the main sound processor 400 downloads a specific music file or sound file from a server having a music source through the media interface unit 410 or stores a music file or sound file stored in a CD, DVD, FDD, or the like. Receiving or reading the music file or sound file stored in the main storage unit 420 and starts the sound processing for reproduction (S200).

다음, 메인 음향처리부(400)는 개별 음향처리부(100-1, 100-2, …, 100-M) 중에서 해당 파일을 재생하여야 하는 개별 음향처리부를 사용자의 위치에 기반하여 선정한다(S210). 예를 들어, 사용자가 격자형으로 배치된 개별 음향처리부(100-1, 100-2, …, 100-M)의 중앙 부분에 위치한 경우에는 사용자가 위치한 중앙 부분을 중심으로 하여 오른쪽과 왼쪽이 서로 다른 영역의 음향을 재생하여야 하므로 이러한 음향처리를 위해 서로 다른 개별 음향처리부(100-1, 100-2, …, 100-M)가 선정된다. 또한, 숲속의 새들이 하나의 영상에 흩어져 있을 때, 각각의 새들이 내는 소리를 개별 음향처리부에 있는 스피커(160-M)를 통해 독립적으로 재생하는 다수의 음원 효과를 내기 위해서 개별 음향처리부(100-1, 100-2, …, 100-M)를 선정한다. 여기서는 설명의 편의를 위해서 개별 음향처리부(100-1, 100-2, …, 100-M) 중에서 두 개의 개별 음향처리부(100-1, 100-2)가 선정된 것으로 가정하여 설명한다.Next, the main sound processor 400 selects an individual sound processor to reproduce the corresponding file from among the individual sound processors 100-1, 100-2, ..., 100-M based on the position of the user (S210). For example, when the user is located in the center of the individual sound processing units 100-1, 100-2,..., 100 -M arranged in a grid, the right and left sides of each other are centered on the center of the user. Since the sound of the different areas must be reproduced, different individual sound processing units 100-1, 100-2,..., 100 -M are selected for this sound processing. In addition, when the birds in the forest are scattered in one image, the individual sound processor 100 to produce a plurality of sound source effects to independently reproduce the sound of each bird through the speaker (160-M) in the individual sound processing unit 100 -1, 100-2, ..., 100-M). For convenience of explanation, it is assumed that two individual sound processing units 100-1 and 100-2 are selected from the individual sound processing units 100-1, 100-2,.

다음, 메인 음향처리부(400)는 사용자의 위치가 이동될 수 있으므로, 이를 위하여 모든 개별 음향처리부(100-1, 100-2, …, 100-M)에 재생 파일을 전달하고(S220-1), 상기 단계(S210)에서 선정된 개별 음향처리부(100-1, 100-2)에는 전달된 파일의 음향 처리를 수행하도록 명령을 전달(S220-2). 이 때, 상기 단계(S220-1, S220-2)는 동시에 이루어질 수 있다. 즉, 재생 파일과 재생해야할 개별 음향처리부(100-1, 100-2)를 지정하여 함께 전달하여도 좋다.Next, since the main sound processor 400 may move the user's position, the main sound processor 400 transfers the playback file to all the individual sound processors 100-1, 100-2, ..., 100-M (S220-1). In operation S220-2, a command is transmitted to the individual sound processing units 100-1 and 100-2 selected in the step S210 to perform sound processing of the transferred file. At this time, the steps (S220-1, S220-2) may be performed at the same time. That is, the reproduction file and the individual sound processing units 100-1 and 100-2 to be reproduced may be designated and delivered together.

한편, 메인 음향처리부(400)로부터 재생 파일을 전달받은 모든 개별 음향처리부(100-1, 100-2, …, 100-M)는 수신한 재생파일을 각 저장부(120-M)에 저장한다(S230).Meanwhile, all of the individual sound processing units 100-1, 100-2,..., 100 -M that have received the playback file from the main sound processing unit 400 store the received playback file in each storage unit 120 -M. (S230).

다음, 재생 파일의 음향처리 명령을 전달받은 개별 음향처리부(100-1, 100-2)는 수신한 재생 파일을 각각 재생하여 각 스피커(160-M)를 통해 사용자에게 출력한다(S240).Next, the individual sound processing units 100-1 and 100-2 receiving the sound processing command of the play file play the received play files, respectively, and output them to the user through each speaker 160 -M (S240).

이 때, 메인 음향처리부(400)는 개별 음향처리부(100-1, 100-2)로 음향처리 명령을 줄 때, 파일을 재생할 시간 등도 함께 지정하여 줌으로써 개별 음향처리부(100-1, 100-2)에서 전체적으로 일관된 음향 처리가 수행될 수 있도록 한다.At this time, when the main sound processing unit 400 gives sound processing commands to the individual sound processing units 100-1 and 100-2, the main sound processing unit 400-1 also designates the time to play the file, and so on. To ensure that a consistent sound processing is performed throughout.

이와 같이, 메인 음향처리부(400)에 의해 입체 음향의 처리가 수행되는 도중에 사용자가 이동하여 그 위치가 변경되는 경우, 개별 음향처리부(100-1, 100-2, …, 100-M)에서는 각각 위치 센서(140-M)와 거리측정 및 음향제어부(150-M)에 의해 사용자의 변경된 위치가 측정되고 이러한 정보가 메인 음향처리부(400)의 위치기반 음향제어부(440)로 각각 전달된다(S250-1, S250-2, …, S250-M-1, S250-M).As such, when the user moves while the stereo sound processing is performed by the main sound processing unit 400 and its position is changed, the individual sound processing units 100-1, 100-2,. The user's changed position is measured by the position sensor 140 -M and the distance measuring and sound control unit 150 -M, and the information is transmitted to the position-based sound control unit 440 of the main sound processor 400 (S250). -1, S250-2, ..., S250-M-1, S250-M).

그러면, 메인 음향처리부(400)의 위치기반 음향제어부(440)는 개별 음향처리부(100-1, 100-2, …, 100-M)로부터 전달된 사용자의 위치 정보로부터 사용자의 위치 이동 여부를 판단하고(S260), 만약 사용자가 이동하여 그 위치가 변경된 것으로 판단되면 이동된 사용자의 위치에 기반하여 음향처리를 수행해야할 개별 음향처리부(100-1, 100-2, …, 100-M)를 재선정한다(S270). 여기에서는 이동한 사용자의 위치에 기반하여 재선정되는 개별 음향처리부가 100-M-1, 100-M 2개인 것으로 가정하여 설명한다.Then, the location-based sound controller 440 of the main sound processor 400 determines whether the user's location is moved from the user's location information transmitted from the individual sound processors 100-1, 100-2, ..., 100-M. (S260), if it is determined that the position is changed by the user's movement, the individual sound processing units 100-1, 100-2, ..., 100-M to perform sound processing based on the moved user's position are re-elected. Determine (S270). In this case, it is assumed that two separate sound processing units are re-selected based on the location of the moved user, 100-M-1 and 100-M.

다음, 메인 음향처리부(400)는 재선정한 개별 음향처리부(100-M-1, 100-M)에게 재생 파일에 대한 음향처리후 재생을 명령함과 동시에, 이미 파일을 재생하여 음향 출력을 수행하고 있으면서 상기 재선정 단계(S270)에서 재선정되지 못한 개별 음향처리부(100-1, 100-2)에게는 재생 동작을 중지하라는 명령을 전달한다(S280-2).Next, the main sound processing unit 400 commands the re-selected individual sound processing units 100-M-1 and 100-M to perform the sound processing after the sound processing for the playback file, and simultaneously plays the file to perform sound output. While not reselected in the reselection step (S270), the individual sound processor 100-1, 100-2 transmits a command to stop the playback operation (S280-2).

따라서, 개별 음향처리부(100-M-1, 100-M)는 저장된 파일을 재생하여 스피커(160-M)를 통해 사용자에게 음향 출력하고(S290-1), 개별 음향처리부(100-1, 100-2)는 재생하고 있는 동작을 중지한다(S290-2).Therefore, the individual sound processing units 100-M-1 and 100-M reproduce the stored file and output the sound to the user through the speaker 160-M (S290-1), and the individual sound processing units 100-1 and 100. -2) stops the playback operation (S290-2).

상기에서는 한 번의 사용자 위치 변경이 측정된 경우의 처리에 대해서만 기술하였으나, 개별 음향처리부(100-1, 100-2, …, 100-M)에 의해 주기적으로 측정되는 사용자의 위치가 계속 변경되는 경우에는 그 사용자 위치의 변경이 메인 음향처리부(400)로 계속 보고되고, 그에 따라 사용자의 변경되는 위치에 기반하여 음향 출력을 수행하는 개별 음향처리부(100-1, 100-2, …, 100-M) 또한 계속적으로 재선정되는 동작이 반복되어 처리된다.In the above description, only the processing in the case where one user position change is measured is described. However, when the position of the user periodically measured by the individual sound processing units 100-1, 100-2, ..., 100-M is continuously changed. In the following, a change of the user's position is continuously reported to the main sound processor 400, and accordingly, an individual sound processor 100-1, 100-2, ..., 100-M that performs sound output based on the user's changed position. ) The reselection operation is processed repeatedly.

또한, 상기에서는 사용자의 위치 이동에 따라 재생중인 개별 음향처리부(100-1, 100-2)가 그 재생동작을 한 번에 중지하고, 또한 이동된 사용자의 위치에 기반하여 새로 선정된 개별 음향처리부(100-M-1, 100-M)가 갑자기 파일을 재생하는 것으로 기술하였으나, 본 발명의 기술적 범위는 여기에 한정되지 않고, 재생을 중지하는 개별 음향처리부(100-1, 100-2)가 순차적으로 재생 볼륨을 줄여가면서 재생을 중지하고, 재생을 시작하는 개별 음향처리부(100-M-1, 100-M)가 재생 볼륨을 점차적으로 증가시키면서 재생을 시작하는 것으로 하여도 좋다.In addition, in the above, the individual sound processing units 100-1 and 100-2, which are being reproduced in accordance with the movement of the user's position, stop the reproduction operation at once, and are newly selected individual sound processing units based on the moved user's position. Although (100-M-1, 100-M) described as suddenly reproducing a file, the technical scope of the present invention is not limited thereto, and the individual sound processing units 100-1 and 100-2 which stop playback are The playback may be stopped while the playback volume is sequentially decreased, and the individual sound processing units 100-M-1 and 100-M which start playback may start playback while gradually increasing the playback volume.

비록, 본 발명이 가장 실제적이며 바람직한 실시 예를 참조하여 설명되었지만, 본 발명은 상기 개시된 실시 예에 한정되지 않으며, 후술되는 특허 청구범위 내에 속하는 다양한 변형 및 등가물들도 포함한다.Although the present invention has been described with reference to the most practical and preferred embodiments, the present invention is not limited to the above-described embodiments, but includes various modifications and equivalents within the scope of the following claims.

본 발명에 따르면, 다수의 음원을 독립적으로 사용하여 재생함으로써 혼합 효과를 제공할 수 있다.According to the present invention, a mixing effect can be provided by reproducing using a plurality of sound sources independently.

또한, 사용자의 위치 이동에 맞추어 음향 재생 위치를 변경함으로써 자동으로 최적화된 입체음향을 즐길 수 있는 스위트 스폿(sweet spot)을 조절해 줄 수 있다.In addition, by changing the position of the sound reproduction in accordance with the user's position movement can adjust the sweet spot (automatically optimized sweet spot) to enjoy the stereoscopic sound.

또한, 사용자의 위치 이동 없이도 음원을 이동시킬 수가 있어서 다양한 음향 전이 효과를 제공할 수 있다.In addition, the sound source can be moved even without the user's position shift, thereby providing various sound transition effects.

도 1은 본 발명의 제1 실시 예에 따른 격자형 스피커 시스템의 개략적인 블록도이다.1 is a schematic block diagram of a grid speaker system according to a first embodiment of the present invention.

도 2는 본 발명의 제1 실시 예에 따라 도 1에 도시된 개별 음향처리부의 일예를 나타낸 도면이다.2 is a diagram illustrating an example of an individual sound processor illustrated in FIG. 1 according to a first embodiment of the present invention.

도 3은 본 발명의 제1 실시 예에 따라 도 1에 도시된 메인 음향처리부의 일예를 나타낸 도면이다.3 is a diagram illustrating an example of the main sound processor shown in FIG. 1 according to the first embodiment of the present invention.

도 4는 본 발명의 제1 실시 예에 따른 격자형 스피커 시스템에서의 음향처리 방법의 개략적인 흐름도이다.4 is a schematic flowchart of a sound processing method of a grid speaker system according to a first embodiment of the present invention.

도 5는 본 발명의 실시예에 따른 격자형 스피커 시스템이 적용되는 지능형 디지털 벽면의 예를 도시한 도면으로, (a)는 정면도이고, (b)는 측면도이다.FIG. 5 is a diagram illustrating an example of an intelligent digital wall to which a lattice speaker system according to an exemplary embodiment of the present invention is applied, wherein (a) is a front view and (b) is a side view.

도 6은 본 발명의 제2 실시 예에 따라 도 1에 도시된 집합적 음성인식 시스템의 개별 음성인식부의 일예를 나타낸 도면이다.6 is a diagram illustrating an example of an individual voice recognition unit of the collective voice recognition system shown in FIG. 1 according to the second embodiment of the present invention.

도 7은 본 발명의 제2 실시 예에 따라 도 1에 도시된 메인 음향처리부의 일예를 나타낸 도면이다.7 is a diagram illustrating an example of the main sound processor shown in FIG. 1 according to the second embodiment of the present invention.

도 8은 본 발명의 제2 실시 예에 따른 격자형 스피커 시스템에서의 위치기반 음향처리 방법의 개략적인 흐름도이다.8 is a schematic flowchart of a location-based sound processing method in a lattice speaker system according to a second embodiment of the present invention.

Claims (16)

외부로 음향을 출력하는 스피커를 각각 포함하는 복수의 개별 음향처리부; 및A plurality of individual sound processing units each including a speaker for outputting sound to the outside; And 상기 복수의 개별 음향처리부와 각각 무선 또는 유선으로 접속되어 상기 복수의 개별 음향처리부의 스피커를 독립적으로 구동 제어하며, 재생 파일에 따라서 음향 출력할 개별 음향처리부를 상기 복수의 개별 음향처리부 중에서 선택하여 상기 재생 파일을 재생하여 음향을 출력하도록 제어하는 메인 음향처리부Wirelessly or wired to the plurality of individual sound processing units, respectively, to independently drive and control the speakers of the plurality of individual sound processing units, and select an individual sound processing unit to output sound according to a playback file by selecting from the plurality of individual sound processing units Main sound processing unit for controlling the sound output by playing the playback file 를 포함하는 스피커 시스템. Speaker system comprising a. 제1항에 있어서,The method of claim 1, 상기 복수의 개별 음향처리부에 각각 포함된 복수의 스피커가 격자형으로 배치되어 있는 것을 특징으로 하는 스피커 시스템.And a plurality of speakers each included in the plurality of individual sound processing units are arranged in a grid. 제1항에 있어서,The method of claim 1, 상기 복수의 개별 음향처리부는 각각 시간상으로 상기 메인 음향처리부에 동기되어 동작하는 것을 특징으로 하는 스피커 시스템. And the plurality of individual sound processing units operate in synchronization with the main sound processing unit, respectively, in time. 제1항에 있어서,The method of claim 1, 상기 각 복수의 개별 음향처리부는,Each of the plurality of individual sound processing units, 상기 메인 음향처리부로부터 전송되는 상기 재생 파일을 저장하는 저장부;A storage unit for storing the playback file transmitted from the main sound processor; 상기 메인 음향처리부와 시간 동기가 맞도록 제어하는 동기화부; 및A synchronization unit for controlling time synchronization with the main sound processing unit; And 상기 저장부 및 동기화부에 접속되며, 상기 메인 음향처리부의 제어에 따라 상기 저장부에 저장된 재생 파일을 재생하여 해당하는 음향으로 상기 스피커를 통해 출력하는 음향제어부A sound control unit is connected to the storage unit and the synchronization unit, and reproduces the playback file stored in the storage unit under the control of the main sound processing unit and outputs the corresponding sound through the speaker as a corresponding sound. 를 포함하는 스피커 시스템.Speaker system comprising a. 제1항에 있어서,The method of claim 1, 상기 메인 음향처리부는,The main sound processing unit, 네트워크 또는 외부 매체로부터 재생 파일을 다운로드받는 매체 인터페이스부;A media interface unit for downloading a playback file from a network or an external medium; 상기 매체 인터페이스부를 통해 다운로드된 재생 파일을 저장하는 메인 저장부; 및A main storage unit for storing the playback file downloaded through the media interface unit; And 상기 매체 인터페이스부 및 메인 저장부에 접속되며, 상기 메인 저장부에 저장된 재생 파일을 재생할 개별 음향처리부를 상기 복수의 개별 음향처리부 중에서 선택하여 독립적으로 또는 집합적으로 상기 재생 파일을 재생하도록 제어하는 메인 음향제어부A main sound interface connected to the media interface unit and the main storage unit, the main sound control unit configured to select the individual sound processing unit to play back the playback file stored in the main storage unit from the plurality of individual sound processing units and to play the play file independently or collectively; Sound control unit 를 포함하는 스피커 시스템.Speaker system comprising a. 제1항에 있어서,The method of claim 1, 상기 복수의 개별 음향처리부는 사용자까지의 거리를 측정하여 상기 메인 음향처리부로 각각 출력하고,The plurality of individual sound processing units respectively measure the distance to the user and outputs to the main sound processing unit, 상기 메인 음향처리부는 상기 복수의 개별 음향처리부에서 각각 측정된 사용자의 위치 및 음원으로부터의 거리 정보에 기반하여 상기 복수의 개별 음향처리부에서의 재생 동작을 제어하는 The main sound processor controls playback operations in the plurality of individual sound processors based on the position information of the user and the distance information from the sound source respectively measured by the plurality of individual sound processors. 것을 특징으로 하는 스피커 시스템.Speaker system, characterized in that. 제6항에 있어서,The method of claim 6, 상기 복수의 개별 음향처리부는 The plurality of individual sound processing unit 상기 메인 음향처리부로부터 전송되는 상기 재생 파일을 저장하는 저장부;A storage unit for storing the playback file transmitted from the main sound processor; 상기 메인 음향처리부와 시간 동기가 맞도록 제어하는 동기화부; A synchronization unit for controlling time synchronization with the main sound processing unit; 상기 사용자의 위치 및 음원으로부터의 거리를 측정하여 대응되는 정보로 출력하는 위치 센서; 및A position sensor for measuring a position of the user and a distance from a sound source and outputting the corresponding information; And 상기 저장부 및 동기화부에 접속되어 상기 메인 음향처리부의 제어에 따라 상기 저장부에 저장된 재생 파일을 재생하여 해당하는 음향으로 상기 스피커를 통해 출력하고, 상기 위치 센서에 연결되어 상기 사용자의 위치 및 음원으로부터의 거리를 측정하도록 제어하는 거리측정 및 음향제어부Is connected to the storage unit and the synchronization unit and reproduces the playback file stored in the storage unit under the control of the main sound processing unit and outputs through the speaker with a corresponding sound, and connected to the position sensor and the user's location and sound source Distance measurement and sound control unit to control the distance from the 를 포함하는 스피커 시스템.Speaker system comprising a. 제6항에 있어서,The method of claim 6, 상기 메인 음향처리부는,The main sound processing unit, 네트워크 또는 외부 매체로부터 재생 파일을 다운로드받는 매체 인터페이스부;A media interface unit for downloading a playback file from a network or an external medium; 상기 매체 인터페이스부를 통해 다운로드된 재생 파일을 저장하는 메인 저장부; 및A main storage unit for storing the playback file downloaded through the media interface unit; And 상기 매체 인터페이스부 및 메인 저장부에 접속되어 상기 메인 저장부에 저장된 재생 파일을 재생할 개별 음향처리부를 상기 복수의 개별 음향처리부 중에서 선택하여 독립적으로 또는 집합적으로 상기 재생 파일을 재생하도록 제어하며, 상기 복수의 개별 음향처리부에서 각각 측정되어 전달되는 사용자의 위치 및 음원으로부터의 거리 정보에 기초하여 판단된 사용자의 위치에 기반하여 상기 재생 파일을 재생할 개별 음향처리부를 선택하여 제어하는 위치기반 음향제어부Connected to the media interface unit and the main storage unit to control an individual sound processing unit to play back the playback file stored in the main storage unit from among the plurality of individual sound processing units to independently or collectively play the playback file; Location-based sound control unit for selecting and controlling the individual sound processor to play the playback file based on the user's position determined based on the user's position and distance information from the sound source, respectively measured and delivered by a plurality of individual sound processor 를 포함하는 스피커 시스템.Speaker system comprising a. 제8항에 있어서,The method of claim 8, 상기 위치기반 음향제어부는 상기 사용자의 위치 이동에 따라 상기 재생 파일을 재생하는 개별 음향처리부를 상기 복수의 개별 음향처리부 중에서 재선정하는 것을 특징으로 하는 스피커 시스템.The speaker system, characterized in that the position-based sound control unit reselects the individual sound processing unit for reproducing the playback file in accordance with the user's position movement from the plurality of individual sound processing unit. 제2항 내지 제9항 중 어느 한 항에 있어서,The method according to any one of claims 2 to 9, 상기 복수의 개별 음향처리부 및 메인 음향처리부에는 무선으로 서로 정보를 송수신할 수 있는 무선 인터페이스부가 더 포함되는 것을 특징으로 하는 스피커 시스템.The plurality of individual sound processor and the main sound processor further comprises a wireless interface unit for transmitting and receiving information to each other wirelessly. 제10항에 있어서,The method of claim 10, 상기 메인 음향처리부가 상기 복수의 개별 음향처리부 중 어느 하나에 구비되고,The main sound processor is provided in any one of the plurality of individual sound processor, 상기 복수의 개별 음향처리부에 각각 포함된 무선 인터페이스부는 서로 정보 송수신이 가능한 Wireless interface units included in the plurality of individual sound processing units may transmit and receive information with each other. 것을 특징으로 하는 스피커 시스템.Speaker system, characterized in that. a) 음향 출력이 가능한 스피커를 각각 포함하는 복수의 개별 음향처리부 중에서 재생할 파일에 따라 재생 제어할 개별 음향처리부를 선택하는 단계; 및a) selecting an individual sound processor to control playback according to a file to be reproduced among a plurality of individual sound processors each including a speaker capable of outputting sound; And b) 상기 복수의 개별 음향처리부를 제어하는 메인 음향처리부가 상기 선택된 개별 음향처리부를 각각 제어하여 상기 파일 재생이 독립적으로 수행되도록 하는 단계b) a main sound processor controlling the plurality of individual sound processors respectively controlling the selected individual sound processors so that the file reproduction is performed independently. 를 포함하는 스피커 시스템에서의 음향처리 방법.Sound processing method in a speaker system comprising a. 제12항에 있어서,The method of claim 12, 상기 a) 단계 전에, Before step a), 상기 메인 음향처리부는 상기 복수의 개별 음향처리부가 각각 시간상으로 동기되어 동작하도록 제어하는 단계를 더 포함하는 스피커 시스템에서의 음향처리 방법.The main sound processor further comprises the step of controlling the plurality of individual sound processor to operate in synchronization with each other in time. 제12항 또는 제13항에 있어서,The method according to claim 12 or 13, 상기 b) 단계 후에,After step b), i) 상기 복수의 개별 음향처리부로부터 각각 사용자까지 측정된 거리 정보를 수신하는 단계;i) receiving distance information measured from each of the plurality of individual sound processors to a user; ii) 상기 수신된 거리 정보에 의해 상기 사용자의 위치가 변경되었는 지의 여부를 판단하는 단계;ii) determining whether the location of the user has been changed by the received distance information; iii) 상기 사용자의 위치가 변경된 것으로 판단되는 경우, 상기 재생 파일을 재생할 개별 음향처리부를 상기 복수의 개별 음향처리부 중에서 새로이 선정하는 단계; 및iii) if it is determined that the user's position has changed, newly selecting an individual sound processor to play the playback file from among the plurality of individual sound processors; And iv) 상기 새로이 선정된 개별 음향처리부를 각각 제어하여 상기 변경된 사용자의 위치에 기반하여 상기 파일 재생이 독립적으로 수행되도록 하는 단계iv) controlling each of the newly selected individual sound processing units to independently play the file based on the changed position of the user. 를 더 포함하는 스피커 시스템에서의 음향처리 방법.Sound processing method in the speaker system further comprising. 제14항에 있어서,The method of claim 14, 상기 iv) 단계에서,In step iv), 상기 사용자의 위치 변경 전에 상기 파일을 재생하고 있던 개별 음향처리부 중에서 상기 새로이 선정된 개별 음향처리부에 속하지 않은 개별 음향처리부는 상기 파일 재생 동작을 중지하도록 제어되는 것을 특징으로 하는 스피커 시스템에서의 음향처리 방법.The individual sound processing unit which does not belong to the newly selected individual sound processing unit among the individual sound processing units which were playing the file before changing the position of the user is controlled to stop the file playing operation. . 제15항에 있어서,The method of claim 15, 상기 새로이 선정된 개별 음향처리부가 재생 볼륨을 점차적으로 증가시키면서 상기 파일 재생을 시작하고, The newly selected individual sound processing unit starts playing the file while gradually increasing the playback volume, 상기 파일 재생 동작을 중지하는 개별 음향처리부는 상기 재생 볼륨을 점차적으로 감소시키면서 상기 파일 재생 동작을 중지하는 The individual sound processor which stops the file play operation stops the file play operation while gradually decreasing the play volume. 것을 특징으로 하는 스피커 시스템에서의 음향처리 방법.A sound processing method in a speaker system, characterized in that.
KR1020050033563A 2005-04-22 2005-04-22 Grid speaker system and audio processing method in the same KR100777221B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050033563A KR100777221B1 (en) 2005-04-22 2005-04-22 Grid speaker system and audio processing method in the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050033563A KR100777221B1 (en) 2005-04-22 2005-04-22 Grid speaker system and audio processing method in the same

Publications (2)

Publication Number Publication Date
KR20050044881A true KR20050044881A (en) 2005-05-13
KR100777221B1 KR100777221B1 (en) 2007-11-19

Family

ID=37244706

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050033563A KR100777221B1 (en) 2005-04-22 2005-04-22 Grid speaker system and audio processing method in the same

Country Status (1)

Country Link
KR (1) KR100777221B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009078558A1 (en) * 2007-12-18 2009-06-25 Electronics And Telecommunications Research Institute Apparatus and method for processing 3d audio signal based on hrtf, and highly realistic multimedia playing system using the same
KR100918695B1 (en) * 2007-12-11 2009-09-22 주식회사 케이티 Method and system for providing a stereophonic sound playback service
KR101370373B1 (en) * 2006-03-31 2014-03-05 코닌클리케 필립스 엔.브이. A device for and a method of processing data
CN104506996A (en) * 2015-01-15 2015-04-08 谭希妤 Square dance music playing array based on Zigbee protocol
US11729547B2 (en) 2018-09-28 2023-08-15 Samsung Display Co., Ltd. Display device with integrated sound generators

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101132661B1 (en) 2009-09-23 2012-04-03 에스케이플래닛 주식회사 System and method for output using multiple bone conduction speaker, and bone conduction speaker thereof
CN105959878B (en) * 2016-05-18 2018-03-30 广东欧珀移动通信有限公司 The control method and device of stereo component system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001025084A (en) 1999-07-07 2001-01-26 Matsushita Electric Ind Co Ltd Speaker system
US6684060B1 (en) * 2000-04-11 2004-01-27 Agere Systems Inc. Digital wireless premises audio system and method of operation thereof
KR20040097506A (en) * 2003-05-12 2004-11-18 한국스프라이트 주식회사 System for uniting wireless speaker

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101370373B1 (en) * 2006-03-31 2014-03-05 코닌클리케 필립스 엔.브이. A device for and a method of processing data
KR100918695B1 (en) * 2007-12-11 2009-09-22 주식회사 케이티 Method and system for providing a stereophonic sound playback service
WO2009078558A1 (en) * 2007-12-18 2009-06-25 Electronics And Telecommunications Research Institute Apparatus and method for processing 3d audio signal based on hrtf, and highly realistic multimedia playing system using the same
CN104506996A (en) * 2015-01-15 2015-04-08 谭希妤 Square dance music playing array based on Zigbee protocol
CN104506996B (en) * 2015-01-15 2017-09-26 谭希妤 A kind of square dance music player based on ZigBee protocol and its application method
US11729547B2 (en) 2018-09-28 2023-08-15 Samsung Display Co., Ltd. Display device with integrated sound generators

Also Published As

Publication number Publication date
KR100777221B1 (en) 2007-11-19

Similar Documents

Publication Publication Date Title
JP7389081B2 (en) System and method for providing three-dimensional enhanced audio
EP1266541B1 (en) System and method for optimization of three-dimensional audio
KR100777221B1 (en) Grid speaker system and audio processing method in the same
AU2001239516A1 (en) System and method for optimization of three-dimensional audio
US20060062401A1 (en) Smart speakers
CA2578797A1 (en) Method and apparatus for producing a phantom three-dimensional sound space with recorded sound
JP2009509185A (en) Audio data processing apparatus and method for synchronous audio data processing
JP2002505818A (en) System for generating artificial acoustic environment
US11683654B2 (en) Audio content format selection
US20200196080A1 (en) Methods and Systems for Extended Reality Audio Processing for Near-Field and Far-Field Audio Reproduction
JP2001275194A (en) Speaker system, information transmitter and speaker unit
JP2007124380A (en) Stereophonic output system, stereophonic output method, and program for stereophonic output
KR20210133601A (en) System and Method for Sound Interaction according to Spatial Movement through Parallel Output of Sound
WO2023085186A1 (en) Information processing device, information processing method, and information processing program
US20230421981A1 (en) Reproducing device, reproducing method, information processing device, information processing method, and program
Tan Binaural recording methods with analysis on inter-aural time, level, and phase differences
CN104717522A (en) System and method for carrying out playing with multiple video devices synchronized with one audio device
Miller III Recording immersive 5.1/6.1/7.1 surround sound, compatible stereo, and future 3D (with height)
Sousa The development of a'Virtual Studio'for monitoring Ambisonic based multichannel loudspeaker arrays through headphones
KR20110072973A (en) Open system and method for providing sound field

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20120111

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20131212

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee