KR100636167B1 - Wireless audio system using virtual sound algorithm - Google Patents
Wireless audio system using virtual sound algorithm Download PDFInfo
- Publication number
- KR100636167B1 KR100636167B1 KR1020040069999A KR20040069999A KR100636167B1 KR 100636167 B1 KR100636167 B1 KR 100636167B1 KR 1020040069999 A KR1020040069999 A KR 1020040069999A KR 20040069999 A KR20040069999 A KR 20040069999A KR 100636167 B1 KR100636167 B1 KR 100636167B1
- Authority
- KR
- South Korea
- Prior art keywords
- audio
- channel
- algorithm
- virtual sound
- audio signal
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
- G11B20/10527—Audio or video recording; Data buffering arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/06—Receivers
- H04B1/16—Circuits
- H04B1/20—Circuits for coupling gramophone pick-up, recorder output, or microphone to receiver
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
- G11B20/10527—Audio or video recording; Data buffering arrangements
- G11B2020/10537—Audio or video recording
- G11B2020/10592—Audio or video recording specifically adapted for recording or reproducing multichannel signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2205/00—Details of stereophonic arrangements covered by H04R5/00 but not provided for in any of its subgroups
- H04R2205/021—Aspects relating to docking-station type assemblies to obtain an acoustical effect, e.g. the type of connection to external loudspeakers or housings, frequency improvement
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Stereophonic System (AREA)
Abstract
가상음향 알고리즘을 이용한 무선 오디오 시스템이 개시된다. 본발명에 따른 오디오 시스템은, 입력 오디오 신호로부터 소정의 가상음향 알고리즘에 따라 음장이 확장된 복수 채널의 오디오 신호를 생성하고 생성된 복수 채널의 오디오 신호를 무선랜(WLAN) 프로토콜에 따라 송신하는 오디오 송신부 및 오디오 송신부에서 송신된 복수 채널의 오디오 신호를 무선으로 수신하고 수신된 복수 채널의 오디오 신호를 해당 채널별 스피커로 분배하여 재생하는 오디오 수신부를 포함한다. 본발명에 따르면 두 개의 스피커가 장착된 하나의 무선 유닛과 배치 환경에 맞게 최적화된 가상음향 알고리즘을 통해서 넓어진 음장과 멀티채널 입체 음향을 구현할 수 있다.A wireless audio system using a virtual acoustic algorithm is disclosed. An audio system according to the present invention generates an audio signal of a plurality of channels in which a sound field is expanded according to a predetermined virtual sound algorithm from an input audio signal and transmits the generated multiple channel audio signal according to a WLAN protocol. And an audio receiver configured to wirelessly receive the audio signals of the plurality of channels transmitted from the transmitter and the audio transmitter, and to distribute and reproduce the received audio signals of the plurality of channels to the corresponding speaker for each channel. According to the present invention, a wider sound field and a multi-channel stereo sound can be realized through one wireless unit equipped with two speakers and a virtual sound algorithm optimized for a deployment environment.
Description
도1은 본발명의 일실시예에 따른 오디오 시스템의 블록도이다.1 is a block diagram of an audio system according to an embodiment of the present invention.
도2a는 도1의 오디오 시스템에서 제1 가상음향 처리부를 설명하는 도면이다. FIG. 2A is a diagram illustrating a first virtual sound processor in the audio system of FIG. 1.
도2b는 도2a의 제1 가상음향 처리부가 사용된 오디오 시스템의 구성도이다.FIG. 2B is a configuration diagram of an audio system in which the first virtual sound processor of FIG. 2A is used.
도2c는 도2a의 제1 가상음향 처리부가 사용된 오디오 시스템의 청취 공간이다. FIG. 2C is a listening space of an audio system in which the first virtual sound processor of FIG. 2A is used.
도3a는 도1의 오디오 시스템에서 제2 가상음향 처리부를 설명하는 도면이다. FIG. 3A is a diagram for describing a second virtual sound processor in the audio system of FIG. 1.
도3b는 도3a의 제2 가상음향 처리부가 사용된 오디오 시스템의 구성도이다. FIG. 3B is a configuration diagram of an audio system in which the second virtual sound processor of FIG. 3A is used.
도3c는 도3a의 제2 가상음향 처리부가 사용된 오디오 시스템의 청취 공간이다. FIG. 3C is a listening space of an audio system in which the second virtual sound processor of FIG. 3A is used.
도4a는 도1의 오디오 시스템에서 제3 가상음향 처리부를 설명하는 도면이다.FIG. 4A illustrates a third virtual sound processor in the audio system of FIG. 1.
도4b는 도4a의 제3 가상음향 처리부가 사용된 오디오 시스템의 제1 청취 공간이다. 4B is a first listening space of an audio system in which the third virtual sound processor of FIG. 4A is used.
도4c는 도4a의 제3 가상음향 처리부가 사용된 오디오 시스템의 제2 청취 공간이다. 4C is a second listening space of the audio system in which the third virtual sound processor of FIG. 4A is used.
본발명은 무선으로 오디오 신호를 송수신하는 오디오 시스템에 관한 것으로서, 보다 상세하게는 가상음향 알고리즘을 이용한 무선 오디오 시스템이 개시되어 있다. The present invention relates to an audio system for wirelessly transmitting and receiving an audio signal, and more particularly, to a wireless audio system using a virtual sound algorithm is disclosed.
일반적으로, 무선 오디오 시스템은 두개의 무선 스피커들을 각각 별도의 유닛으로 구성하여 리어 레프트(Rear Left) 스피커 및 리어 라이트(Rear Right) 스피커로 이용한다. 이 때, 각각의 무선 스피커는 RF(Radio Frequency) 수신 모듈을 필요로 한다. In general, a wireless audio system configures two wireless speakers as separate units and uses them as rear left speakers and rear right speakers. At this time, each wireless speaker requires a radio frequency (RF) receiving module.
RF 수신 모듈의 갯수를 줄이기 위하여 하나의 RF 수신 유닛에 두개의 스피커들을 장착하면 스피커들에서 재생되는 음향의 음장이 좁아진다. 왜냐하면, 스피커가 오디오 신호를 방출하는 최대각은 물리적으로 제한되어 있기 때문이다. In order to reduce the number of RF receiving modules, mounting two speakers in one RF receiving unit narrows the sound field of the sound reproduced in the speakers. This is because the maximum angle at which the speaker emits an audio signal is physically limited.
따라서, 종래의 무선 오디오 시스템은 무선 스피커마다 별도의 RF 수신 모듈이 구비되어야 하므로 비경제적이고, 하나의 RF 수신 유닛에 스피커들을 장착하면 스피커들이 재생하는 음향의 음장이 좁아지며, 리어(rear) 스피커로 구현된 무선 스피커를 프론트(front) 스피커 겸용으로 사용할 수 없다는 문제점이 있다. Therefore, the conventional wireless audio system is inexpensive because a separate RF receiving module must be provided for each wireless speaker, and when the speakers are mounted in one RF receiving unit, the sound field of the sound reproduced by the speakers is narrowed, and the rear speaker is used. There is a problem that the implemented wireless speaker cannot be used as a front speaker.
본발명이 이루고자 하는 기술적 과제는 무선 오디오 시스템에 있어서 가상음향 알고리즘을 사용함으로써 하나의 유닛에 장착되어 RF 수신 모듈을 공유하는 복수의 스피커들이 확장된 음장을 형성하는 오디오 시스템을 제공하는 데 있다. SUMMARY OF THE INVENTION The present invention has been made in an effort to provide an audio system in which a plurality of speakers mounted in one unit and sharing an RF reception module form an extended sound field by using a virtual sound algorithm in a wireless audio system.
상기의 기술적 과제를 달성하기 위한 본발명의 일실시예에 따른 오디오 시스템은, 입력 오디오 신호로부터 소정의 가상음향 알고리즘에 따라 음장이 확장된 복수 채널의 오디오 신호를 생성하고 상기 생성된 복수 채널의 오디오 신호를 무선랜(WLAN) 프로토콜에 따라 송신하는 오디오 송신부 및 상기 오디오 송신부에서 송신된 복수 채널의 오디오 신호를 무선으로 수신하고, 상기 수신된 복수 채널의 오디오 신호를 해당 채널별 스피커로 분배하여 재생하는 오디오 수신부를 포함한다. An audio system according to an embodiment of the present invention for achieving the above technical problem, generates a multi-channel audio signal of the sound field is expanded according to a predetermined virtual sound algorithm from the input audio signal and the generated multi-channel audio An audio transmitter for transmitting a signal according to a WLAN protocol and a plurality of channels of audio signals transmitted by the audio transmitter are wirelessly received, and the audio signals of the plurality of channels are distributed to and reproduced by a speaker for each channel. It includes an audio receiver.
이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명하기로 한다. Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings.
도1은 본발명의 일실시예에 따른 오디오 시스템의 블록도이다. 도1을 참조하면 오디오 시스템은 오디오 송신부(100) 및 오디오 수신부(150)를 포함한다. 1 is a block diagram of an audio system according to an embodiment of the present invention. Referring to FIG. 1, an audio system includes an
오디오 송신부(100)는 A/D 컨버터부(110), 멀티플렉서부(115), 가상음향 처리부(120) 알고리즘 선택부(125), WLAN 변조부(130), RF 변조부(135), 제1 증폭부(140) 및 송신 안테나(145)를 포함한다. The
A/D 컨버터(Analogue to Digital Converter)부(110)는 Lin 단자 및 Rin 단자로 입력되는 아나로그 멀티채널 오디오 신호를 디지털 멀티채널 오디오 신호로 변환한다.An A /
멀티플렉서(multiplexer)부(115)는 I2S(Inter-IC Sound) 버스를 통해 디지털 멀티채널 오디오 신호를 입력받는다. I2S는 CD 플레이어, DSP(Digital Signal Processer), 디지털 TV 음향 등 디지털 오디오 장치 및 기술을 위한 직렬 버스 설계이다. I2S 설계에서는 오디오 데이터를 클럭 신호와 분리하여 처리한다. 따라서, I2S 버스는 시분할 다중화 데이터 채널을 위한 회선 하나, 워드 선택용 회선 하나 및 클럭 회선 하나 등 모두 세 개의 직렬 버스 회선으로 구성된다. The
멀티플렉서부(115)는 또한 A/D 컨버터부(100-1)에서 변환된 디지털 멀티채널 오디오 신호를 입력받는다. The
멀티플렉서부(115)는 I2S 버스를 통해 입력된 디지털 멀티채널 오디오 신호 및 A/D 컨버터부(100-1)에서 입력된 디지털 멀티채널 오디오 신호 중에서 어느 하나의 멀티채널 오디오 신호를 선택하여 가상음향 처리부(120)로 전송한다. The
가상 음향 처리부(120)는 입력 오디오 신호로부터 소정의 가상음향 알고리즘에 따라 음장이 확장된 복수 채널의 오디오 신호를 생성한다. 예를 들면, 가상 음향 처리부(120)는 입력되는 5.1채널의 오디오 신호로부터 소정의 가상음향 알고리즘에 따라 음장이 확장된 2채널의 오디오 신호를 생성한다. 2채널의 오디오 신호를 생성하는 것은 오디오 수신부(150)에 장착된 스피커들(180, 185)의 갯수가 두개이기 때문이다. The
소정의 가상음향 알고리즘은 기본적으로 오디오 수신부(150)의 스피커들(180, 185)에서 재생되는 음향의 음장을 확장하는 알고리즘이다. 음장이란 음상들의 배치로 인하여 생기는 가상의 공간으로서 가청 주파수의 음파가 존재하는 공간이다. 음상이란 스피커에서 재생되는 음향의 촛점이 맺히는 곳으로서 인간이 지각하는 감각상의 음원이다. 음원이란 실제 물리적으로 음향을 발생하는 객체나 위치 이다. The predetermined virtual sound algorithm is basically an algorithm for extending the sound field of the sound reproduced by the
가상음향 처리부(120)가 사용하는 가상음향 알고리즘은 머리 전달함수(Head Related Transfer Function: HRTF)를 이용함으로써 생성할 수 있다. 이하에서 머리 전달함수에 대하여 설명한다. The virtual sound algorithm used by the
입체음향이란 음원이 발생한 공간에 위치하지 않은 청취자가 음향을 들었을 때 방향감, 거리감 및 공간감을 지각할 수 있도록 음향에 공간 정보를 부가한 음향이다. 이러한 입체음향은 재생 방식에 따라 서라운드(Surround) 타입의 멀티채널 방식 및 바이노럴(Binaural) 타입의 2채널 방식으로 분류된다. Stereophonic sound is a sound in which spatial information is added to a sound so that a listener who is not located in a space where a sound source is generated can perceive a sense of direction, distance, and spatial feeling when the sound is heard. Such stereophonic sound is classified into a surround type multichannel method and a binaural type 2 channel method according to a reproduction method.
바이노럴(Binaural) 타입의 2채널 입체음향을 생성하는 방식은 녹음에 의한 방식과 필터링에 의한 방식이 있다. 필터링에 의한 방식에서는 머리 전달함수가 필터로 사용된다. 필터링에 의한 방식은 머리 전달함수와 단순음향을 컨볼루션(Convolution)하여 원하는 공간상의 위치에 음상을 정위시키는 방식이다. There are two methods of generating a binaural two-channel stereophonic sound by recording and filtering. In the filtering method, the head transfer function is used as the filter. The filtering method is a method of concatenating a head transfer function and a simple sound to position a sound image at a desired spatial location.
머리 전달함수는 무향실 내에서 더미헤드를 중심으로 구의 형태로 여러 각도에 배치한 스피커로부터 백색 잡음(White Noise)과 같은 임펄스 신호를 방사시켜 더미헤드의 양쪽 귀에 장착한 마이크로폰으로 측정한 임펄스 응답을 푸리에(Fourier) 변환한 것이다. The head transfer function emits an impulse signal, such as white noise, from a speaker placed at various angles in the form of a sphere around a dummy head in an anechoic chamber, and measures the impulse response measured by microphones mounted on both ears of the dummy head. (Fourier) Converted.
음파가 음원으로부터 사람의 두 귀에 도달하는 경로는 공기 속을 직접 통과하거나, 반사, 산란, 회절 등에 의해 귀에 도착하고, 그 후 머리와 귀 바퀴에 의한 반사, 회절, 공진 등의 과정을 통하게 된다. 이러한 경로를 통하는 음파는 변화가 되며 청각시스템에 의해서 원하는 정보가 추출된다. 머리 전달함수란 이러한 경로 를 하나의 함수(시스템)로 생각하여 미리 측정한 전달함수라 할 수 있다. 이러한 머리전달함수는 단일 음원에 대하여 정의된다. The path of sound waves from the sound source to the two ears of a person passes directly through the air or arrives at the ears by reflection, scattering, diffraction, and the like, and then through reflection, diffraction, resonance, etc. by the head and ear wheels. The sound waves through this path are changed and the desired information is extracted by the auditory system. The head transfer function is a transfer function measured in advance by thinking of this path as a function (system). This head transfer function is defined for a single sound source.
음원에 대한 공간성을 지각할 수 있는 것은 각 개인의 머리 전달계의 고유 특성에 의해서 두 귀에 입사된 두 신호차이가 발생하기 때문이다. 이 두 신호차의 특성에 대한 정보는 머리 전달함수에 내포되어 있어서 이를 이용하면 입체화되지 않은 단순한 음향에 공간적 정보가 부가된 바이노럴 타입의 입체음을 생성할 수 있다.The spatiality of the sound source can be perceived because two signal differences incident on the two ears occur due to the unique characteristics of the head delivery system of each individual. Information about the characteristics of the two signal differences is contained in the head transfer function, and by using this, it is possible to generate a binaural type stereoscopic sound with spatial information added to a simple non-stereoscopic sound.
머리 전달함수는 입사하는 각도에 따라 달라지기 때문에 여러 위치에서 임펄스에 대한 머리 전달함수를 측정하고 이를 DB로 구축하는 것이 필요하다. 그리고, DB로부터 원하는 위치에 해당하는 머리 전달함수를 선택하여 단순음과 컨볼루션 연산을 수행하여 해당 위치에 음상을 정위한다. Since the head transfer function depends on the angle of incidence, it is necessary to measure the head transfer function for the impulse at various positions and construct it as a DB. Then, the head transfer function corresponding to the desired position is selected from the DB to perform simple sound and convolution operation to locate the sound image at the corresponding position.
MIT Media Lab은 케마르(Knowles Electronic Manikin for Auditory Research: KEMAR) 더미헤드를 사용하여 710 지점에서 측정한 머리전달함수 DB를 인터넷으로 공개했다. 한국 전자통신 연구소(Electronics and Telecommunications Research Institute: ETRI)는 노이만(Neumann) 더미헤드를 사용하여 머리전달함수의 DB를 구축했다. The MIT Media Lab published the head transfer function database, measured at 710 points, using the Knowles Electronic Manikin for Auditory Research (KEMAR) dummy head over the Internet. The Electronics and Telecommunications Research Institute (ETRI) built a database of head transfer functions using Neumann dummy heads.
특정 실내에서 측정한 머리 전달함수를 공간 전달함수(Room Transfer Function : RTF)라고 하며, 이를 이용하면 그 실내의 음장 특성을 생성할 수 있다.The head transfer function measured in a specific room is called a room transfer function (RTF), and using this, a sound field characteristic of the room can be generated.
가상음향 처리부(120)는 여러개의 가상음향 알고리즘들을 구비하고 있다. 가상음향 처리부(120)가 구비한 가상음향 알고리즘들은 모두 기본적으로는 오디오 수 신부(150)의 스피커들(180, 185)에서 재생되는 음향의 음장을 확장하는 알고리즘들이다. 그리고, 가상음향 처리부(120)가 구비한 가상음향 알고리즘들은 각각 오디오 수신부(150)의 용도, 배치에 따라 최적화된 알고리즘들이다. 각각의 구체적인 용도, 배치에 관한 설명은 후술한다. The
알고리즘 선택부(125)는 가상음향 처리부(120)가 구비한 가상음향 알고리즘들 중에서 가상음향 처리부(120)에서 사용될 알고리즘을 선택한다. 즉, 청취자는 오디오 수신부(150)의 용도, 배치에 따라 알고리즘 선택부(125)에서 원하는 가상음향 알고리즘을 선택하고, 가상음향 처리부(120)는 선택된 가상음향 알고리즘에 따라 입력 오디오 신호를 변환하는 것이다. The
알고리즘 선택부(125)는 스위치로 구현하는 것이 가능하다. 또한, 알고리즘 선택부(125)는 하나의 알고리즘을 선택하는 것도 가능하고, 둘 이상의 알고리즘을 선택하는 것도 가능하다. 둘 이상의 알고리즘이 선택되면 가상음향 처리부(120)에 입력된 오디오 신호에 각각의 알고리즘을 병렬적으로 적용한다. 이에 대한 구체적 설명은 후술한다. The
가상음향 처리부(120)가 가상음향 알고리즘들을 자체적으로 구비하지 않고 다른 모듈에 구비된 가상음향 알고리즘을 사용하는 것도 가능하다. It is also possible for the
WLAN 변조부(130)는 가상음향 처리부(120)에서 생성된 복수 채널의 오디오 신호를 무선랜(Wireless Local Area Network: WLAN) 프로토콜에 따라 변조하여 복수 채널의 베이스밴드(baseband) 신호를 생성한다. 무선랜은 전파나 적외선 전송방식을 이용하는 근거리통신망(LAN)을 말하고, 무선랜 프로토콜로는 IEEE 802.11, 블 루투스(Bluetooth) 등이 있다. The WLAN modulator 130 generates a baseband signal of a plurality of channels by modulating a plurality of channels of audio signals generated by the
RF 변조부(135)는 WLAN 변조부(130)에서 생성된 복수 채널의 베이스밴드 신호를 반송파에 실어서 복수 채널의 RF(Radio Frequency) 신호로 변조한다. 제1 증폭부(140)는 RF 변조부(135)에서 변조된 복수채널의 RF 신호를 증폭한다. 송신 안테나(145)는 제1 증폭부(140)에서 증폭된 복수 채널의 RF 신호를 무선으로 송신한다. The RF modulator 135 mounts the baseband signals of the plurality of channels generated by the
오디오 수신부(150)는 수신 안테나(160), RF 복조부(165), WLAN 복조부(170), 제2 증폭부(175), 제1 스피커(180) 및 제2 스피커(185)를 포함한다. The
수신 안테나(160)는 송신 안테나(145)에서 무선으로 송신된 복수채널의 RF 신호를 수신한다. RF 복조부(165)는 수신 안테나(160)에서 수신된 복수채널의 RF 신호들을 복조하여 복수 채널의 베이스밴드 신호를 추출한다. WLAN 복조부(170)는 RF 복조부(150-2)에서 추출된 복수 채널의 베이스밴드 신호를 WLAN 변조부(130)에서 사용된 WLAN 프로토콜에 따라 복조한다. 제2 증폭부(175)는 WLAN 복조부(150-3)에서 복조된 복수 채널의 오디오 신호를 증폭한다. 제1 스피커(180) 및 제2 스피커(185)는 제2 증폭부(175)에서 증폭된 복수 채널의 오디오 신호 중에서 해당 채널의 오디오 신호를 재생한다. The receiving
오디오 수신부(150)는 하나의 유닛으로 구현 가능하다. 오디오 수신부(150)는 단 하나의 수신 안테나(160)를 구비하면서 두 개의 스피커(180, 185)를 장착하고 있다. 즉, 제1 스피커(180) 및 제2 스피커(185)는 수신 안테나(160)를 공유한다. The
제1 스피커(180) 및 제2 스피커(185)에서 재생되어 청취되는 음향은 가상음향 처리부(120)에서 사용된 가상음향 알고리즘의 영향을 받는다. 그 결과 제1 스피커(180) 및 제2 스피커(185)에서 재생되어 청취되는 음향은 기본적으로 음장이 확장된다. 이에 따라, 두 개의 스피커(180, 185)를 하나의 무선 유닛(150)에 장착함으로 인해 음장이 좁아진다는 문제점이 해결된다. The sound reproduced and listened to by the
또한, 제1 스피커(180) 및 제2 스피커(185)에서 재생되어 청취되는 음향은 알고리즘 선택부(130)에서 선택된 알고리즘에 따라 각각 차별화된다. In addition, sounds reproduced and listened to by the
도2a는 도1의 오디오 시스템에서 제1 가상음향 처리부(120)를 설명하는 도면이다. 도2a를 참조하면, 제1 가상음향 처리부(120)는 프론트 레프트(Front Left: 이하 FL) 채널의 오디오 신호, 프론트 라이트(Front Right: 이하 FR) 채널의 오디오 신호, 센터(Center) 채널의 오디오 신호, 리어 레프트(Rear Left: 이하 RL) 채널의 오디오 신호(204) 및 리어 라이트(Rear Right: 이하 RR) 채널의 오디오 신호(205)를 수신한다. 즉, 제1 가상음향 처리부(120-1)의 입력 오디오 신호는 5.1채널의 오디오 신호이다. FIG. 2A is a diagram illustrating the first
제1 가상음향 처리부(120-1)는 입력된 5.1채널의 오디오 신호 중에서 RL 채널 및 RR 채널의 오디오 신호에 제1 가상음향 알고리즘을 적용하여 음장이 확장된 2채널의 오디오 신호(214, 215)를 생성한다. The first virtual sound processor 120-1 applies the first virtual sound algorithm to the audio signals of the RL channel and the RR channel among the 5.1-channel audio signals, and the two-channel audio signals 214 and 215 of which the sound field is extended. Create
FL 채널의 오디오 신호(201), FR 채널의 오디오 신호(202) 및 센터 채널의 오디오 신호(203)는 제1 가상음향 알고리즘이 적용되지 않고 바이패스된다. The
도2b는 도2a의 제1 가상음향 처리부(120-1)가 사용된 오디오 시스템의 구성 도이다. 도2b를 참조하면, 오디오 시스템은 오디오 송신부(100) 및 오디오 수신부(150) 이외에 FL 스피커(221), FR 스피커(222), 센터 스피커(223), 서브우퍼(230)를 구비한다. FIG. 2B is a diagram illustrating an audio system in which the first virtual sound processor 120-1 of FIG. 2A is used. Referring to FIG. 2B, the audio system includes an
제1 가상음향 처리부(120-1)에서 바이패스된 FL 채널의 오디오 신호(211), FR 채널의 오디오 신호(212), 센터 채널의 오디오 신호(213)는 각각 유선 FL 스피커(221), 유선 FR 스피커(222) 및 유선 센터 스피커(213)를 통해 재생되고, 서브우퍼(230)를 통해서도 음향이 재생된다. The audio signal 211 of the FL channel, the audio signal 212 of the FR channel, and the audio signal 213 of the center channel bypassed by the first virtual sound processor 120-1 are respectively
오디오 수신부(150)는 오디오 송신부(100)에서 무선으로 송신된 2채널의 오디오 신호를 수신한다. 수신된 2채널의 오디오 신호는 채널별로 오디오 수신부(150)의 제1 스피커(180) 및 제2 스피커(185)에 분배되어 재생된다. The
도2c는 도2a의 제1 가상음향 처리부(120-1)가 사용된 오디오 시스템의 청취 공간이다. 도2c를 참조하면, 오디오 수신부(150)는 제1 청취 위치(250)의 후방에 배치되어 있다. FIG. 2C illustrates a listening space of an audio system in which the first virtual sound processor 120-1 of FIG. 2A is used. Referring to FIG. 2C, the
도2c의 청취 공간에 있어서, 오디오 수신부(150)의 두 개의 스피커(180, 185)는 하나의 무선 유닛(150)에 장착되어 있으나 제1 청취 위치에서(250)에서 청취되는 음향은 마치 두 개의 스피커(180, 185)가 일정 간격만큼 떨어져서 배치되어 있을 때의 음향과 같다. 즉, 무선 스피커 장치(150)의 두 개의 스피커(180, 185)는 각각 일정 간격만큼 떨어져서 배치된 RL 스피커 및 RR 스피커의 기능을 수행한다. In the listening space of FIG. 2C, the two
이것은 제1 가상음향 알고리즘이 기본적으로 무선 스피커 장치(150)의 스피커들(180, 185)에서 재생되는 음향의 음장을 확장하기 때문이다. This is because the first virtual sound algorithm basically expands the sound field of the sound reproduced in the
제1 가상음향 알고리즘은 오디오 수신부(150)의 용도가 리어 스피커일 때 사용된다. RL 채널의 오디오 신호(204) 및 RR 채널의 오디오 신호(205)를 제1 가상음향 알고리즘에 따라 처리하여 후방에 배치된 오디오 수신부(150)를 통해 재생함으로써 일정 간격을 두고 배치된 RL 채널의 스피커 및 RR 채널의 스피커로 사용하는 것이다. 이에 따라 청취자는 FL 스피커(221), FR 스피커(222), 센터 스피커(223)에서 재생되는 음향 및 오디오 수신부(150)에서 재생되는 음향을 이용하여 제1 청취 위치(250)에서 5.1채널의 가상 입체음향을 감상한다.The first virtual sound algorithm is used when the purpose of the
도3a는 도1의 오디오 시스템에서 제2 가상음향 처리부(120-2)를 설명하는 도면이다. 도3a를 참조하면, 제2 가상음향 처리부(120-2)는 FL 채널의 오디오 신호(201), FR 채널의 오디오 신호(202), 센터 채널의 오디오 신호(203), RL 채널의 오디오 신호(204) 및 RR 채널의 오디오 신호(205)를 수신한다. 즉, 제2 가상음향 처리부(120-2)는 5.1채널의 오디오 신호를 수신한다. FIG. 3A is a diagram for describing a second virtual sound processor 120-2 in the audio system of FIG. 1. Referring to FIG. 3A, the second virtual sound processor 120-2 may include an
제2 가상음향 처리부(120-2)는 입력된 5.1채널의 오디오 신호에 제2 가상음향 알고리즘을 적용하여 음장이 확장된 2채널의 오디오 신호를 생성한다. 제1 가상음향 처리부(120-1)는 5.1채널의 오디오 신호를 입력받아 음장이 확장된 2채널의 오디오 신호(214, 215)뿐만 아니라 FL 채널의 오디오 신호, FR 채널의 오디오 신호 및 센터 채널의 오디오 신호도 출력하지만, 제2 가상음향 처리부(120-2)는 같은 5.1채널의 오디오 신호를 입력받아 음장이 확장된 2채널의 오디오 신호(311, 312)만을 출력한다. The second virtual sound processor 120-2 generates a two-channel audio signal having an extended sound field by applying the second virtual sound algorithm to the input 5.1-channel audio signal. The first virtual sound processor 120-1 receives an audio signal of 5.1 channels and receives an audio signal of the FL channel, an FR signal, and a center channel, as well as two
도3b는 도3a의 제2 가상음향 처리부(120-2)가 사용된 오디오 시스템의 구성 도이다. 도3b를 참조하면, 오디오 수신부(150)는 오디오 송신부(100)에서 무선으로 송신된 2채널의 오디오 신호를 수신한다. 수신된 2채널의 오디오 신호는 채널별로 오디오 수신부(150)의 제1 스피커(180) 및 제2 스피커(185)에 분배되어 재생된다. FIG. 3B is a diagram illustrating an audio system in which the second virtual sound processor 120-2 of FIG. 3A is used. Referring to FIG. 3B, the
제2 가상음향 처리부(120-2)에서 처리되어 출력된 2채널 오디오 신호는 각각 채널별로 오디오 수신부(150)의 제1 스피커(180) 및 제2 스피커(185)로 분배되어 재생된다. The two-channel audio signal processed and output by the second virtual sound processor 120-2 is distributed and reproduced to the
도3c는 도3a의 제2 가상음향 처리부(120-2)가 사용된 오디오 시스템의 청취 공간이다. 도 3c를 참조하면, 오디오 수신부(150)는 제2 청취 위치(260)의 전방에 배치되어 있다. FIG. 3C illustrates a listening space of an audio system in which the second virtual sound processor 120-2 of FIG. 3A is used. Referring to FIG. 3C, the
도3c의 청취 공간에 있어서, 오디오 수신부(150)의 두 개의 스피커들(180, 185)이 하나의 무선 유닛에 장착되어 있고 오디오 수신부(150)의 스피커들(180, 185) 이외에 별도의 스피커가 구비되어 있다. In the listening space of FIG. 3C, two
그러나, 제2 청취 위치(260)에서 청취되는 음향은 마치 제2 가상음향 처리부(120-2)에 입력된 5.1채널 오디오 신호에 대한 각 채널별 스피커가 일정 간격만큼 떨어져서 배치되어 있을 때의 음향과 같다. 즉, 오디오 수신부(150)의 두 개의 스피커들(180, 185)은 각각 일정 간격만큼 떨어져서 배치된 FL 스피커, FR 스피커, 센터 스피커, RL 스피커, RR 스피커의 기능을 수행한다. However, the sound to be heard at the
이것은 제2 가상음향 알고리즘이 기본적으로 오디오 수신부(150)의 두 개의 스피커(180, 185)에서 재생되는 음향의 음장을 확장하기 때문이다. 그리고, 나아가 제2 가상음향 알고리즘은 제2 가상음향 처리부(120-2)에서 생성된 2채널의 오디오 신호가 오디오 수신부(150)의 스피커들(180, 185)을 통해 재생되면 제2 가상음향 처리부(120-2)에 입력된 5.1채널의 오디오 신호가 재생되는 것과 같은 효과를 내게 하는 알고리즘이기 때문이다. This is because the second virtual sound algorithm basically expands the sound field of the sound reproduced by the two
제2 가상음향 처리부(120-2)는 5.1채널의 오디오 신호(201 내지 205)를 재생하는 스피커들을 오디오 수신부(150) 하나로 대체하고자 할 때 사용된다. 5.1채널의 오디오 신호(201 내지 205)를 제2 가상음향 알고리즘에 따라 처리하여 전방에 배치된 오디오 수신부(150)를 통해 재생함으로써 일정 간격을 두고 배치된 5.1채널의 스피커들로 사용하는 것이다. 이에 따라 청취자는 오디오 수신부(150)에서 재생되는 음향을 이용하여 제2 청취 위치(260)에서 5.1채널의 가상 입체음향을 감상한다.The second virtual sound processor 120-2 is used to replace the speakers for reproducing the 5.1-channel audio signals 201 to 205 with one
도4a는 도1의 오디오 시스템에서 제3 가상음향 처리부(120-3)를 설명하는 도면이다. 도4a를 참조하면, 제3 가상음향 처리부(120-3)는 FL 채널의 오디오 신호(201), FR 채널의 오디오 신호(202), 센터 채널의 오디오 신호(203),RL 채널의 오디오 신호(204) 및 RR 채널의 오디오 신호(205)를 수신한다.4A is a diagram illustrating a third virtual sound processor 120-3 in the audio system of FIG. 1. Referring to FIG. 4A, the third virtual sound processor 120-3 may include the
제3 가상음향 처리부(120-3)는 입력된 5.1채널의 오디오 신호에 대하여 제3 가상음향 알고리즘 및 제2 가상음향 알고리즘을 병렬적으로 적용한다. The third virtual sound processor 120-3 applies the third virtual sound algorithm and the second virtual sound algorithm in parallel to the input 5.1 channel audio signal.
즉, 제3 가상음향 처리부(120-3)에 입력된 5.1채널의 오디오 신호(201 내지 205)는 제3 가상음향 알고리즘에 따라 음장이 확장된 2채널의 오디오 신호(411, 412)로 생성되고, 이와 병렬적으로 제2 가상음향 알고리즘에 따라 음장이 확장된 2채널의 오디오 신호(413, 414)로 생성된다. 따라서 제3 가상음향 처리부(120-4)의 출력 오디오 신호는 총 4채널의 오디오 신호(411 내지 414)가 된다. That is, the 5.1-channel audio signals 201 to 205 input to the third virtual sound processor 120-3 are generated as two-channel audio signals 411 and 412 having an extended sound field according to the third virtual sound algorithm. In parallel with this, the sound field is generated as two-channel audio signals 413 and 414 according to the second virtual sound algorithm. Accordingly, the output audio signal of the third virtual sound processor 120-4 becomes an audio signal 411 to 414 having a total of four channels.
제3 가상음향 알고리즘에 따라 생성된 2채널의 오디오 신호(411, 412)는 각 채널별 유선 스피커를 통해 재생된다. The two-channel audio signals 411 and 412 generated according to the third virtual sound algorithm are reproduced through wired speakers for each channel.
유선 스피커와 무선 스피커의 위치 및 구조에 따라 가상음향 알고리즘의 상수가 다르므로 유선 스피커에 대해서는 무선 스피커에 대한 제2 가상음향 알고리즘과는 상이한 제3 가상음향 알고리즘을 사용한다. 가상음향 알고리즘에 의해 확장되는 음장은 가상음향 알고리즘의 상수에 의존적이다. Since the constant of the virtual acoustic algorithm is different according to the location and structure of the wired speaker and the wireless speaker, a third virtual sound algorithm different from the second virtual sound algorithm for the wireless speaker is used for the wired speaker. The sound field extended by the virtual acoustic algorithm depends on the constant of the virtual acoustic algorithm.
제3 가상음향 알고리즘과 병렬적으로 사용되는 제2 가상음향 알고리즘은 도3a 내지 도3c에서 설명한 제2 가상음향 알고리즘과 같다. The second virtual sound algorithm used in parallel with the third virtual sound algorithm is the same as the second virtual sound algorithm described with reference to FIGS. 3A to 3C.
도4b는 도4a의 제3 가상음향 처리부(120-3)가 사용된 오디오 시스템의 제1 청취 공간이다. 도 4b를 참조하면, 유선 스피커들인 FL 스피커(221), FR 스피커(222) 및 센터 스피커(223)가 제1 청취 위치(250)의 전방에 배치되어 있다. 이러한 청취 공간은 도2c의 청취 공간에서 오디오 수신부(150)가 제거된 것과 같다. 4B is a first listening space of an audio system in which the third virtual sound processor 120-3 of FIG. 4A is used. Referring to FIG. 4B, the
제3 가상음향 처리부(120-3)에서 제3 가상음향 알고리즘에 의해 생성된 2채널의 오디오 신호(411, 412)는 유선 FL 스피커(221) 및 유선 FR 스피커(222)에서 재생된다. The two-channel audio signals 411 and 412 generated by the third virtual sound algorithm in the third virtual sound processor 120-3 are reproduced by the wired
이때, 제1 청취 위치(250)에서 청취되는 음향은 마치 제3 가상음향 처리부(120-3)에 입력된 5.1채널 오디오 신호에 대한 각 채널별 스피커가 일정 간격만큼 떨어져서 배치되어 있을 때의 음향과 같다. 즉, 두 개의 유선 스피커들(221, 222)은 각각 일정 간격만큼 떨어져서 배치된 FL 스피커, FR 스피커, 센터 스피커, RL 스피커, RR 스피커의 기능을 수행한다. At this time, the sound listened to at the
이것은 제3 가상음향 알고리즘이 기본적으로 두 개의 유선 스피커(221, 222)에서 재생되는 음향의 음장을 확장하기 때문이다. 그리고, 나아가 제3 가상음향 알고리즘은 제3 가상음향 처리부(120-2)에서 생성된 2채널의 오디오 신호(411, 412)가 두 개의 유선 스피커들(221, 222)을 통해 재생되면 제3 가상음향 처리부(120-2)에 입력된 5.1채널의 오디오 신호(201 내지 205)가 재생되는 것과 같은 효과를 내게 하는 알고리즘이기 때문이다. This is because the third virtual sound algorithm basically expands the sound field of the sound reproduced by the two
도4c는 도4a의 제3 가상음향 처리부가 사용된 오디오 시스템의 제2 청취 공간이다. 도4c를 참조하면, 도4c의 청취 공간은 도3c의 청취공간과 같다. 4C is a second listening space of the audio system in which the third virtual sound processor of FIG. 4A is used. Referring to FIG. 4C, the listening space of FIG. 4C is the same as the listening space of FIG. 3C.
제3 가상음향 처리부(120-3)는 도2c의 청취 공간에서 계속해서 5.1채널의 가상 입체음향을 청취하는 것은 물론이고 이동이 용이한 오디오 수신부(150)를 이용하여 별개의 청취 공간에서도 5.1채널의 가상 입체음향을 청취하고자 할 때 사용된다. The third virtual sound processor 120-3 continuously listens to the 5.1-channel virtual stereo sound in the listening space of FIG. 2C as well as the 5.1-channel in the separate listening space by using the
즉, 제1 청취 공간인 거실에서 제1 청취 위치(250)의 전방에 유선 스피커들(221 내지 223)을 배치하고 후방에 오디오 수신부(150)를 배치하여 오디오 수신부(150)를 가상의 RL 스피커 및 가상의 RR 스피커로 사용하던 중에, 오디오 수신부(150)를 제2 청취 공간인 안방으로 이동시켜서 제2 청취 위치(260)의 전방에 오디오 수신부(150)를 배치하여 오디오 수신부(150)를 가상의 5.1채널 스피커들로 사용하는 것이다. 이에 따라, 거실에 있는 청취자 및 안방에 있는 청취자 모두 5.1채널의 가상 입체 음향을 감상한다. That is, the
가상음향 처리부(120)가 입력 오디오 신호에 어떤 알고리즘을 적용할 것인지는 알고리즘 선택부(125)에서 선택한다. 즉, 청취자는 알고리즘 선택부(125)를 이용하여제1 가상음향 알고리즘 내지 제3 가상음향 알고리즘 중에서 원하는 알고리즘을 선택하고, 가상음향 처리부(120)는 입력 오디오 신호에 알고리즘 선택부(125)에서 선택된 가상음향 알고리즘을 적용한다. 도4a 내지 도4c에서 설명한 바와 같이 두 개 이상의 가상음향 알고리즘을 동시에 선택하는 것도 가능하다. The
청취자는 오디오 수신부(150)의 용도, 배치에 최적화된 가상음향 알고리즘을 선택하고, 가상음향 처리부(120)는 입력 오디오 신호에 선택된 가상음향 알고리즘을 적용함으로써 오디오 수신부(150)는 다목적으로 사용된다. The listener selects a virtual sound algorithm optimized for the purpose and arrangement of the
이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far I looked at the center of the preferred embodiment for the present invention. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.
상술한 바와 같이 본 발명에 따르면, 무선 오디오 시스템에 있어서 하나의 무선 유닛에 2개의 스피커를 장착하고 스피커의 용도와 배치에 따라 각각 최적화된 가상음향 알고리즘을 선택하여 사용함으로써 넓어진 음장과 멀티채널 입체 음향을 구현할 수 있다. As described above, according to the present invention, a wider sound field and multichannel stereo sound are provided by mounting two speakers in one wireless unit in a wireless audio system and selecting and using an optimized virtual sound algorithm according to the use and arrangement of the speakers. Can be implemented.
그리고, 오디오 수신부는 리어 스피커 또는 프론트 스피커로 겸용할 수 있다. 따라서, 청취자는 오디오 수신부를 원하는 위치에 배치하고 적절한 가상음향 알고리즘을 선택함으로써 오디오 수신부를 다목적으로 사용할 수 있다. The audio receiver may serve as a rear speaker or a front speaker. Thus, the listener can use the audio receiver versatilely by placing the audio receiver in a desired position and selecting the appropriate virtual sound algorithm.
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040069999A KR100636167B1 (en) | 2004-09-02 | 2004-09-02 | Wireless audio system using virtual sound algorithm |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040069999A KR100636167B1 (en) | 2004-09-02 | 2004-09-02 | Wireless audio system using virtual sound algorithm |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20060021146A KR20060021146A (en) | 2006-03-07 |
KR100636167B1 true KR100636167B1 (en) | 2006-10-19 |
Family
ID=37128118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020040069999A KR100636167B1 (en) | 2004-09-02 | 2004-09-02 | Wireless audio system using virtual sound algorithm |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100636167B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102316627B1 (en) * | 2020-08-04 | 2021-10-22 | 한양대학교 산학협력단 | Device for speech dereverberation based on weighted prediction error using virtual acoustic channel expansion based on deep neural networks |
-
2004
- 2004-09-02 KR KR1020040069999A patent/KR100636167B1/en not_active IP Right Cessation
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102316627B1 (en) * | 2020-08-04 | 2021-10-22 | 한양대학교 산학협력단 | Device for speech dereverberation based on weighted prediction error using virtual acoustic channel expansion based on deep neural networks |
WO2022031061A1 (en) * | 2020-08-04 | 2022-02-10 | 한양대학교 산학협력단 | Wpe-based reverberation removal apparatus using deep neural network-based virtual channel extension |
US11790929B2 (en) | 2020-08-04 | 2023-10-17 | Iucf-Hyu (Industry-University Cooperation Foundation Hanyang University) | WPE-based dereverberation apparatus using virtual acoustic channel expansion based on deep neural network |
Also Published As
Publication number | Publication date |
---|---|
KR20060021146A (en) | 2006-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3435156B2 (en) | Sound image localization device | |
US5619582A (en) | Enhanced concert audio process utilizing a synchronized headgear system | |
CN103053180B (en) | For the system and method for audio reproduction | |
JP3435141B2 (en) | SOUND IMAGE LOCALIZATION DEVICE, CONFERENCE DEVICE USING SOUND IMAGE LOCALIZATION DEVICE, MOBILE PHONE, AUDIO REPRODUCTION DEVICE, AUDIO RECORDING DEVICE, INFORMATION TERMINAL DEVICE, GAME MACHINE, COMMUNICATION AND BROADCASTING SYSTEM | |
KR101116081B1 (en) | Headphone for spatial sound reproduction | |
US8154588B2 (en) | Participant audio enhancement system | |
JP2012505617A (en) | Method for rendering binaural stereo in a hearing aid system and hearing aid system | |
CN101998222A (en) | Device for and method of processing audio data | |
JPS63224599A (en) | Stereo processing unit | |
WO2012140435A1 (en) | Microphone assembly | |
JP2000138998A (en) | Audio processing unit and audio reproduction method | |
US6990210B2 (en) | System for headphone-like rear channel speaker and the method of the same | |
US9980049B2 (en) | Speaker for reproducing surround sound | |
US10028058B2 (en) | VSR surround sound tube headphone | |
KR100636167B1 (en) | Wireless audio system using virtual sound algorithm | |
US11863949B2 (en) | Directional sound recording and playback | |
JP3422296B2 (en) | Directional loudspeaker | |
US7050596B2 (en) | System and headphone-like rear channel speaker and the method of the same | |
JP2002291100A (en) | Audio signal reproducing method, and package media | |
JP4635730B2 (en) | Audio rack | |
JP2000333297A (en) | Stereophonic sound generator, method for generating stereophonic sound, and medium storing stereophonic sound | |
US6983054B2 (en) | Means for compensating rear sound effect | |
TW519849B (en) | System and method for providing rear channel speaker of quasi-head wearing type earphone | |
Aarts | On the design and psychophysical assessment of loudspeaker systems. | |
RU2321187C1 (en) | Spatial sound acoustic system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20120927 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20130927 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20140929 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20150925 Year of fee payment: 10 |
|
LAPS | Lapse due to unpaid annual fee |