KR100705930B1 - Apparatus and method for implementing stereophonic - Google Patents

Apparatus and method for implementing stereophonic Download PDF

Info

Publication number
KR100705930B1
KR100705930B1 KR1020060049893A KR20060049893A KR100705930B1 KR 100705930 B1 KR100705930 B1 KR 100705930B1 KR 1020060049893 A KR1020060049893 A KR 1020060049893A KR 20060049893 A KR20060049893 A KR 20060049893A KR 100705930 B1 KR100705930 B1 KR 100705930B1
Authority
KR
South Korea
Prior art keywords
sound
modeling
time delay
reflected
initial reflection
Prior art date
Application number
KR1020060049893A
Other languages
Korean (ko)
Inventor
최택성
윤대희
박영철
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020060049893A priority Critical patent/KR100705930B1/en
Application granted granted Critical
Publication of KR100705930B1 publication Critical patent/KR100705930B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)

Abstract

본 발명은 입체음향을 구현하기 위해 필요한 HRTF(Head Relater Transfer Function)필터링의 연산 과정을 줄이면서 효과적으로 입체음향을 재생할 수 있도록 하는 입체 음향 구현 방법 및 장치에 관한 것이다.The present invention relates to a stereoscopic sound implementation method and apparatus for effectively reproducing stereoscopic sound while reducing the computation process of HRTF (Head Relater Transfer Function) filtering required to implement stereoscopic sound.

본 발명에 따른 입체 음향 구현 방법은, 직접음의 감쇄특성을 모델링하는 단계; 초기 반사음이 반사되어 청취자의 귀에 들어가는 시간지연을 모델링하는 단계; 상기 초기 반사음의 공간감이 형성되는 소정의 대칭각도에서 펄스 귀간의 시간지연을 모델링하는 단계; 상기 반사되는 음의 감쇄특성을 모델링하는 단계; 상기 직접음과 반사음을 합성하여 출력하는 단계를 포함하는 것을 특징으로 한다.According to the present invention, there is provided a method of implementing stereo sound, comprising: modeling attenuation characteristics of direct sound; Modeling a time delay at which the early reflections are reflected and enter the listener's ears; Modeling a time delay between pulse ears at a predetermined symmetry angle at which a spatial feeling of the initial reflection sound is formed; Modeling the attenuation characteristics of the reflected sound; And synthesizing and outputting the direct sound and the reflected sound.

HRTF HRTF

Description

입체 음향 구현 장치 및 방법{apparatus and method for implementing stereophonic}Apparatus and method for implementing stereophonic

도 1은 본 발명의 실시 예에 따른 입체 음향 구현 장치를 나타내는 도면.1 is a view showing a three-dimensional sound implementing apparatus according to an embodiment of the present invention.

도 2는 본 발명의 실시 예에 따른 입체 음향 구현 장치를 상세하게 나타내는 도면.2 is a view showing in detail the device for implementing a stereo sound according to an embodiment of the present invention.

도 3은 본 발명의 실시 예에 따른 쉘빙 필터의 구성을 나타내는 도면.3 is a view showing the configuration of a shelving filter according to an embodiment of the present invention.

도 4는 본 발명의 실시 예에 따른 입체 음향 구현 방법을 나타내는 플로우 차트. 4 is a flowchart illustrating a method of implementing stereo sound according to an embodiment of the present invention.

본 발명은 입체음향을 구현하기 위해 필요한 HRTF(Head Relater Transfer Function)필터링의 연산 과정을 줄이면서 효과적으로 입체음향을 재생할 수 있도록 하는 입체 음향 구현 방법 및 장치에 관한 것이다.The present invention relates to a stereoscopic sound implementation method and apparatus for effectively reproducing stereoscopic sound while reducing the computation process of HRTF (Head Relater Transfer Function) filtering required to implement stereoscopic sound.

입체 음향은 인간의 두 귀로 들을 수 있는 원리를 기반으로 한다. 두 귀가 인식하는 두 신호로부터 3차원 공간에서 음원의 위치를 찾을 수 있는 충분한 정보를 추출할 수 있다. 이러한 인간의 청각 시스템을 연구하는 분야가 음향심리학 (psychoacoustics)이다.Stereo sound is based on the principle that two human ears can hear. From the two signals recognized by both ears, enough information can be extracted to locate the sound source in three-dimensional space. The field of study of these human auditory systems is psychoacoustics.

입체 음향 재생은 실제 음장(sound field)을 디지털적으로 재생하는 것을 목표로한다. 이를 위해, 청취자에게 서로 다른 각도로 도달하는 사운드를 분석하여 리스닝 규(listening cue), 예를 들어, 양쪽 귀로 느끼는 사운드의 세기의 차(Interaural Intensity Difference:IID)신호, 양쪽 귀로 전달되는 사운드의 시간 차(Interaural Time Difference:이하 ITD로 지칭)신호 혹은 도달된 사운드에 대해 필터 역할을 하는 외이 효과(outer ear effect)를 다시 만들 필요가 있다. Stereo sound reproduction aims to digitally reproduce the actual sound field. To do this, it analyzes the sound reaching the listener at different angles and listens to the listening cue, for example, the Interaural Intensity Difference (IID) signal of both ears, and the time of the sound delivered to both ears. It is necessary to recreate the outer ear effect, which acts as a filter on the differential (Interaural Time Difference) signal or the sound reached.

사운드 큐들이 다시 만들어지면, 이들을 합성하여 입체 음향을 생성한다. 이때 사용되는 것이 머리전달함수(Head Relater Transfer Function:이하 HRTF로 지칭)이다.When the sound cues are recreated, they are synthesized to produce stereo sound. At this time, the head transfer function (Head Relater Transfer Function: hereinafter referred to as HRTF).

상기 HRTF는 음원으로부터의 귀의 고막으로 전달되는 경로를 모델링한 필터 계수로서, 음원과 청취자의 머리와의 상대적인 위치에 따라 그 값이 달라진다. The HRTF is a filter coefficient modeling a path transmitted from the sound source to the ear drum, and its value varies depending on the relative position between the sound source and the head of the listener.

보통 HRTF는 청취자의 양쪽 귀에 마이크로폰을 장착하고 그 위치를 알고있는 장소에 스피커를 설치한 다음, 스피커를 통해 사운드를 생성하여 마이크로폰을 통해 수신된 신호를 녹음하고 원 신호와 수신된 신호와의 임펄스 응답을 비교하여 얻어지며, HRTF는 헤드폰과 같이 두 채널로 재생하는 시스템에서는 직접 청취자의 귀로 출력되어 입체 음향 효과를 재생한다.Normally, HRTF puts microphones in the listener's ears and places the speakers in a location where the location is known, then generates sound through the speakers to record the signals received through the microphones and impulse responses between the original and received signals. The HRTF is obtained by comparing the two-channel system, such as headphones, to be output directly to the listener's ear to reproduce the stereoscopic sound effect.

이와 같이, 초기 반사음을 이용하여 HRTF 필터링을 거쳐 3차원 입체 음향을 만드는 기법을 OHL기법이라고 한다.As described above, a technique of generating three-dimensional stereo sound through HRTF filtering using early reflections is called an OHL technique.

하지만, 종래에는 상기 OHL기법을 구현하기 위해서는 직접음의 입사각도에 따라 각각 많은 연산량의 Imgage source method를 구해야 되는 문제점이 발생한다.However, conventionally, in order to implement the OHL technique, a problem arises in that a large amount of Imgage source method should be obtained according to the incident angle of the direct sound.

또한 상기 문제점을 줄이기 위해 Imgage source method를 오프라인에서 구현하려면 직접음의 방향이 바뀌게 되기 때문에 초기 반사음의 시간지연, 이득값, 방향정보가 모두 메모리에 저장되어야 하며 이는 많은 메모리 용량을 필요로 하는 문제점으로 발생한다.In addition, in order to reduce the above problems, the direct sound direction is changed to implement the Imgage source method offline. Therefore, the time delay, the gain value, and the direction information of the initial reflection sound must be stored in the memory, which requires a large memory capacity. Occurs.

또한, 3차원 오디오를 실현하기 위한 직접음의 HRTF 필터링부를 실시간 구현해야되는데 이는 모든 직접음의 방향에서 각각 5개의 HRTF 필터링이 필요하며 이는 많은 연산량을 필요로 하기 때문에 저전력이 요구되는 휴대 단말기에서 실시간 구현이 불가능하게 된다.In addition, the HRTF filtering unit of the direct sound for realizing three-dimensional audio must be implemented in real time, which requires five HRTF filtering in each direction of the direct sound, which requires a large amount of computation, and thus requires a real time in a mobile terminal requiring low power. Implementation is impossible.

본 발명의 목적은 입체음향을 구현하기 위해 초기 반사음을 이용한 HRTF 필터링의 연산 과정과 메모리 사용량을 줄이면서 저전력의 휴대 단말기에서 효과적으로 입체 음향을 재생할 수 있도록 하는 입체 음향 구현 방법 및 장치를 제공하는 것이다.An object of the present invention is to provide a method and apparatus for implementing stereophonic sound to effectively reproduce stereophonic sound in a low-power portable terminal while reducing the computation process and memory usage of HRTF filtering using early reflection sound to implement stereophonic sound.

상기와 같은 목적을 달성하기 위한 본 발명의 실시 예에 따른 입체 음향 구현 방법은, 직접음의 감쇄특성을 모델링하는 단계; According to an aspect of the present invention, there is provided a method of implementing a stereo sound, including: modeling attenuation characteristics of direct sound;

초기 반사음이 반사되어 청취자의 귀에 들어가는 시간지연을 모델링하는 단계; Modeling a time delay at which the early reflections are reflected and enter the listener's ears;

상기 초기 반사음의 공간감이 형성되는 소정의 대칭각도에서 펄스 귀간의 시 간지연을 모델링하는 단계; Modeling a time delay between pulse ears at a predetermined symmetry angle at which the spatial reflection of the initial reflection sound is formed;

상기 반사되는 음의 감쇄특성을 모델링하는 단계; 상기 직접음과 반사음을 합성하여 출력하는 단계를 포함하는 것을 특징으로 한다.Modeling the attenuation characteristics of the reflected sound; And synthesizing and outputting the direct sound and the reflected sound.

또한 상기와 같은 목적을 달성하기 위한 본 발명의 실시 예에 따른 입체 음향 구현 장치는, 직접음의 방향을 모델링하기 위한 HRTF 필터링부와; In addition, the three-dimensional sound implementation apparatus according to an embodiment of the present invention for achieving the above object, HRTF filtering unit for modeling the direction of the direct sound;

초기 반사음의 시간지연을 모델링하는 시간지연(TD) 모델링부와; A time delay (TD) modeling unit for modeling a time delay of the initial reflection sound;

상기 초기 반사음의 입사각도에 따라 시간지연을 모델링하는 ITD 모델링부와; An ITD modeling unit modeling a time delay according to an incident angle of the initial reflection sound;

상기 반사되는 음의 감쇄특성을 모델링하는 스펙트럼 발생부(Spectrum Generation)를 포함하는 것을 특징으로 한다.It characterized in that it comprises a spectrum generation unit (Spectrum Generation) for modeling the attenuation characteristics of the reflected sound.

이하 첨부된 도면을 참조하여 본 발명의 실시 예를 설명하면 다음과 같다.Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 실시 예에 따른 입체 음향 구현 장치를 나타내는 도면이며, 도 2는 본 발명의 실시 예에 따른 입체 음향 구현 장치를 상세하게 나타내는 도면이다.1 is a view showing a three-dimensional sound implementation apparatus according to an embodiment of the present invention, Figure 2 is a view showing in detail a three-dimensional sound implementation apparatus according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 직접음의 방향을 모델링하기 위한 HRTF 필터링부(10)와; 초기 반사음의 시간지연을 모델링하는 시간지연(TD) 모델링부(20)와; 초기 반사음의 입사각도에 따라 시간지연을 모델링하는 ITD 모델링부(30)와; 초기 반사음의 감쇄특성을 모델링하는 스펙트럼 발생부(Spectrum Generation)(40)를 포함하여 구성된다.1 and 2, the HRTF filtering unit 10 for modeling the direction of the direct sound; A time delay (TD) modeling unit 20 for modeling a time delay of the initial reflection sound; An ITD modeling unit 30 modeling a time delay according to the incident angle of the initial reflection sound; Spectrum Generation (40) for modeling the attenuation characteristics of the early reflection sound is configured.

상기 HRTF 필터링부(10)는 직접음이 특정각도에서 청취자까지 도달하는데 겪 는 음의 감쇄특성을 모델링한다. 즉, 음원이 청취자의 귀까지 도달하는데 겪게되는 임펄스 응답을 모델링하며 이는 3차원 오디오를 위하여 음원을 사용자가 원하는 위치에서 재생되도록 한다.The HRTF filtering unit 10 models the attenuation characteristics of the sound experienced when the direct sound reaches the listener at a specific angle. In other words, it models the impulse response that a sound source experiences in reaching the listener's ear, which allows the sound source to be played at a desired location for 3D audio.

상기 시간지연(Time Difference:TD) 모델링부(20)는 초기 반사음이 반사되어 청취자의 귀에 도달하는 시간지연을 모델링한다. The time delay (TD) modeling unit 20 models a time delay in which the initial reflection sound is reflected and reaches the listener's ear.

여기서 반사음이란 음원이 천장, 바닥, 벽면에 반사되어 청취자에게 도달하는 음으로써 경로가 길기 때문에 직접음보다 더 늦게 청취자의 귀에 도달하므로 딜레이 라인으로 이를 모델링하게 된다.In this case, the reflected sound reaches the listener's ear later than the direct sound because the sound source is reflected on the ceiling, floor, and wall and reaches the listener. Therefore, it is modeled as a delay line.

여기서, 본 발명에서는 15~30msec의 시간지연을 사용하였으며 상기 지연시간은 시스템에 따라 변경될 수 있다. Here, in the present invention, a time delay of 15 to 30 msec is used, and the delay time may be changed according to a system.

상기 ITD 모델링부(30)는 일반적으로 O도에서는 양쪽 귀간의 시간 차이가 없으나 O도가 아닌 모든 입사각도에 대해서는 시간차이가 발생하기 때문에 초기 반사음의 입사 각도에 따른 왼쪽과 오른쪽 귀간의 시간지연을 모델링한다.The ITD modeling unit 30 generally models the time delay between the left and right ear according to the incident angle of the initial reflection sound because there is no time difference between both ears in O degree, but time difference occurs for all incident angles other than O degree. do.

본 발명에서는 초기 반사음의 공간감형성이 가장 잘 되는 대칭되는 각도(90도, -90도)에서 입사되는 펄스의 귀간의 시간지연을 모델링하며, 입사각도에 따른 ITD는 다음의 수학식1로 계산된다.In the present invention, modeling the time delay between the ear of the incident pulse at the symmetrical angle (90 degrees, -90 degrees) that the spatial desensitization of the initial reflection sound is best, ITD according to the incident angle is calculated by the following equation .

Figure 112006039262754-pat00001
Figure 112006039262754-pat00001

여기서

Figure 112006039262754-pat00002
는 귀간의 거리이고 ,
Figure 112006039262754-pat00003
는 소리의 속도를 의미한다.here
Figure 112006039262754-pat00002
Is the distance between ears,
Figure 112006039262754-pat00003
Means the speed of sound.

만약 90도에서 15 샘플(sample)정도의 시간지연이 발생되면, -90도에 대해서는 90도에서 사용된 15 샘플의 시간지연을 귀간에 바꾸어 적용하면 되기 때문에 별도의 연산이 필요없게 된다.If a time delay of about 15 samples is generated at 90 degrees, the time delay of 15 samples used at 90 degrees is applied to the ear at -90 degrees, so that no additional calculation is required.

상기 스펙트럼 발생부(Spectrum Generation)(40)는 반사음이 특정각도에서 청취자까지 도달하는데 겪는 음의 감쇄특성을 모델링한다.The spectrum generation unit 40 models the attenuation characteristics of the sound that is experienced when the reflected sound reaches the listener at a specific angle.

이는 90도,-90도의 HRTF 필터링을 통해 반사음의 방향을 모델링 할 수 있으며, 본 발명에서는 그 연산량을 줄이기 위해 HRTF를 도 3과 같은 1차의 쉘빙 필터(Shelving filter)(40-1)로 근사화하며 상기 쉘빙 필터의 시스템 응답(system response)은 다음의 수학식 2와 같이 계산된다.This can be modeled the direction of the reflection sound through the HRTF filtering of 90 degrees, -90 degrees, in the present invention to approximate the HRTF to the first-order Shelving filter (40-1) as shown in Figure 3 to reduce the amount of computation The system response of the shelving filter is calculated by Equation 2 below.

Figure 112006039262754-pat00004
Figure 112006039262754-pat00004

여기서,

Figure 112006039262754-pat00005
은 다음의 수학식 3으로 계산되며,
Figure 112006039262754-pat00006
Figure 112006039262754-pat00007
로 계산되면, 상기 G는 G in dB for low frequency를 의미한다.here,
Figure 112006039262754-pat00005
Is calculated by the following equation,
Figure 112006039262754-pat00006
Is
Figure 112006039262754-pat00007
When calculated as, G means G in dB for low frequency.

Figure 112006039262754-pat00008
Figure 112006039262754-pat00008

또한 고주파를 컷(cut)하는 컷오프 주파수 파라미터는 다음의 수학식 4로 계산되며, 한개의 쉘빙 필터 계수

Figure 112006039262754-pat00009
를 가지고 HRTF를 모델링 할 수 있다.In addition, the cutoff frequency parameter for cutting the high frequency is calculated by the following equation (4), and one shelving filter coefficient
Figure 112006039262754-pat00009
You can model HRTF with

Figure 112006039262754-pat00010
Figure 112006039262754-pat00010

따라서 초기 반사음의 입사각도를 모든 직접음의 임의의 방향에서 90도, -90도로 고정하기 때문에 두 개의 초기 반사음만을 사용하여 연산량을 줄일 수 있으며, 또한 1차 쉘빙 필터를 이용하여 한개의 필터계수로 모델링 하기 때문에 초기 반사음의 필터링에 해당하는 연산이 하나의 곱셈 연산으로 대치되어 연산량을 크게 줄일 수 있다.Therefore, since the incident angle of the initial reflection sound is fixed at 90 degrees and -90 degrees in any direction of all direct sounds, it is possible to reduce the calculation amount by using only two initial reflection sounds, and to use one filter coefficient using the first shelving filter. Because of the modeling, the operation corresponding to the filtering of the early reflections is replaced by one multiplication operation, which can greatly reduce the amount of computation.

또한 직접음의 입사각도에 따라 각기 다른 초기 반사음의 입사 지연시간, 이득값, 방향정보를 메모리에 저장하고 있어야 하지만, 본 발명에서는 초기 반사음의 입사각도를 모든 직접음의 임의의 방향에서 90도, -90도로 고정하기 때문에 최소로 정해진 한 개의 버퍼만을 사용할 수 있어 효율적으로 메모리 사용량을 줄일 수 있다.In addition, although the incident delay time, the gain value, and the direction information of the initial reflection sound which are different according to the incidence angle of the direct sound should be stored in the memory, in the present invention, the incidence angle of the initial reflection sound is 90 degrees in any direction of the direct sound. Because it is fixed at -90 degrees, only a minimum of one buffer can be used, which effectively reduces memory usage.

도 4는 본 발명의 실시 예에 따른 입체 음향 구현 방법을 나타내는 플로우 차트이다. 4 is a flowchart illustrating a method of implementing stereoscopic sound according to an exemplary embodiment of the present invention.

도 4를 참조하면, 3차원 오디오를 실현하기 위해 특정각도에서 청취자까지 도달하는 직접음의 감쇄특성을 모델링한다(S11).Referring to FIG. 4, in order to realize 3D audio, attenuation characteristics of the direct sound reaching the listeners at a specific angle are modeled (S11).

즉, HRTF 필터링부(10)를 통해 직접음의 임의의 방향에서 90도, -90도의 각도에서 청취자까지 도달하는데 겪는 음의 감쇄특성을 모델링한다.That is, the HRTF filtering unit 10 models the sound attenuation characteristics experienced to reach the listeners at an angle of 90 degrees and -90 degrees in any direction of the direct sound.

이후, 초기 반사음이 반사되어 청취자의 귀에 들어가는 시간지연을 모델링하고(S12), 초기 반사음으로 공간감형성이 가장 잘 되는 대칭되는 각도(90도,-90도)의 펄스의 귀간의 시간지연을 모델링한다(S13).Afterwards, the time delay between the reflection of the initial reflection sound and the listener's ear is modeled (S12), and the time delay between the ear delay of the symmetrical angle (90 degrees, -90 degrees), which is the best spatial shaping with the initial reflection sound. (S13).

즉, 시간지연(TD) 모델링부(20)에서는 초기 반사음이 반사되어 청취자의 귀에 도달하는 시간지연을 모델링하고, ITD 모델링부(30)에서는 초기 반사음으로 공간감 형성이 가장 잘 되는 대칭각도인 (90도,-90도)의 펄스의 귀간의 시간지연을 모델링한다.That is, the time delay (TD) modeling unit 20 models the time delay in which the initial reflection sound is reflected and reaches the listener's ear, and in the ITD modeling unit 30, the symmetry angle at which spatial feeling is best formed as the initial reflection sound is (90). Model the time delay between the pulses of the pulse (Fig.

따라서, 기존에 4개의 초기 반사음을 적용한 방법과는 달리 본 발명에서는 초기 반사음의 공간감 형성이 잘 되는 대칭각도인 (90도,-90도)의 반사음을 모델링하기 때문에 기존 방법보다 연산량이 줄어들게 된다.Therefore, unlike the conventional method of applying the four initial reflections, the present invention reduces the computational amount compared to the conventional method because the modeling of the reflections of the symmetry angle (90 degrees, -90 degrees), which is a good spatial formation of the initial reflection sounds.

또한 초기 반사음의 입사각도를 모든 직접음의 임의의 방향에서 90도, -90도로 고정하기 때문에 최소로 정해진 한 개의 버퍼만을 사용할 수 있어 효율적으로 메모리 사용량을 줄일 수 있게 된다.In addition, since the incident angle of the initial reflection sound is fixed at 90 degrees or -90 degrees in any direction of all direct sounds, only a single buffer can be used, thereby effectively reducing memory usage.

이후, 반사음이 특정각도에서 청취자까지 도달하는데 겪는 음의 감쇄특성을 모델링한다(S14).Thereafter, the attenuation characteristic of the sound that is experienced when the reflected sound reaches the listener at a specific angle is modeled (S14).

상기 반사음의 감쇄특성은 스펙트럼 발생부(40)를 통해 이루어지며, HRTF 필터링부(10)에서 모델링되어 출력되는 직접음과 상기 스펙트럼 발생부(40)에서 출력되는 반사음을 좌측신호(L)와 우측신호(R)로 별개로 합성하여 두 채널의 신호로 최종 출력한다(S15).The attenuation characteristic of the reflected sound is made through the spectrum generator 40, and the direct sound modeled by the HRTF filtering unit 10 and the reflected sound output from the spectrum generator 40 are left and right. The signal R is separately synthesized and finally output as signals of two channels (S15).

이와 같이, 본 발명은 초기 반사음을 이용한 OHL기법 중 HRTF 필터링 부분의 연산량과 메모리 사용량을 줄이면서 3차원 오디오를 출력할 수 있는 장점이 있다.As described above, the present invention has the advantage of outputting three-dimensional audio while reducing the amount of computation and memory usage of the HRTF filtering portion of the OHL technique using the early reflection sound.

상기 OHL기법은 본 발명이 속하는 기술분야의 당업자에게 이미 공지되었거나, 사용되고 있으므로 이에 대한 상세한 설명은 생략한다.Since the OHL technique is already known or used by those skilled in the art to which the present invention pertains, a detailed description thereof will be omitted.

이제까지 본 발명에 대하여 그 실시 예를 중심으로 살펴보았으며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 본질적 기술 범위 내에서 상기 본 발명의 상세한 설명과 다른 형태의 실시 예들을 구현할 수 있을 것이다. 여기서 본 발명의 본질적 기술범위는 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been described with reference to the embodiments, and those skilled in the art to which the present invention pertains may implement embodiments of the present invention in a different form from the detailed description of the present invention within the essential technical scope of the present invention. Could be. Here, the essential technical scope of the present invention is shown in the claims, and all differences within the equivalent range will be construed as being included in the present invention.

본 발명에 따른 입체 음향 구현 방법 및 장치에 의하면, 1차의 쉘빙 필터를 사용하여 연산량을 줄이고, 초기 반사음의 입사각도를 모든 직접음의 임의의 방향에서 90도, -90도로 고정하여 불필요한 메모리 사용량을 줄이면서 저전력의 휴대단말기에서 효과적으로 3차원 입체음향을 구현할 수 있는 효과가 있다.According to the method and apparatus for implementing the stereo sound according to the present invention, the amount of computation is reduced by using the first shelving filter, and the unnecessary angle of memory is fixed by fixing the incident angle of the initial reflection sound by 90 degrees and -90 degrees in any direction of all direct sounds. It is possible to effectively implement three-dimensional stereophonic sound in a low-power portable terminal while reducing the cost.

Claims (7)

직접음의 감쇄특성을 모델링하는 단계; Modeling attenuation characteristics of the direct sound; 초기 반사음이 반사되어 청취자의 귀에 들어가는 시간지연을 모델링하는 단계;Modeling a time delay at which the early reflections are reflected and enter the listener's ears; 상기 초기 반사음의 공간감이 형성되는 소정의 대칭각도에서 펄스 귀간의 시간지연을 모델링하는 단계;Modeling a time delay between pulse ears at a predetermined symmetry angle at which a spatial feeling of the initial reflection sound is formed; 상기 반사되는 음의 감쇄특성을 모델링하는 단계;Modeling the attenuation characteristics of the reflected sound; 상기 직접음과 반사음을 합성하여 출력하는 단계를 포함하는 것을 특징으로 하는 입체 음향 구현 방법.And synthesizing the direct sound and the reflected sound and outputting the synthesized sound. 제 1항에 있어서, The method of claim 1, 상기 펄스 귀간의 시간지연 모델링은 대칭각도인 90도, -90도 각도의 HRTF 필터링을 통해 반사음의 방향을 모델링하며, 상기 대칭각도는 변경가능한 것을 특징으로 하는 입체 음향 구현 방법.The time delay modeling of the pulse ear modeling the direction of the reflected sound through the HRTF filtering of 90 degrees, -90 degrees symmetry angle, the symmetry angle is characterized in that the changeable. 제 1항에 있어서, The method of claim 1, 상기 소정의 대칭각도에서 입사되는 초기 반사음을 소정의 시간 지연값을 이용하여 시간을 지연하는 것을 특징으로 하는 입체 음향 구현 방법.3. The method of claim 3, wherein the initial reflection sound incident at the predetermined symmetry angle is delayed by using a predetermined time delay value. 직접음의 방향을 모델링하기 위한 HRTF 필터링부와; HRTF filtering unit for modeling the direction of the direct sound; 초기 반사음의 시간지연을 모델링하는 시간지연(TD) 모델링부와;A time delay (TD) modeling unit for modeling a time delay of the initial reflection sound; 상기 초기 반사음의 입사각도에 따라 시간지연을 모델링하는 ITD 모델링부와;An ITD modeling unit modeling a time delay according to an incident angle of the initial reflection sound; 상기 반사되는 음의 감쇄특성을 모델링하는 스펙트럼 발생부(Spectrum Generation)를 포함하는 것을 특징으로 하는 입체 음향 구현 장치.And a spectrum generation unit for modeling the attenuation characteristics of the reflected sound. 제 4항에 있어서, The method of claim 4, wherein 상기 ITD 모델링부는 소정의 입사각도에 따른 초기 반사음의 시간지연을
Figure 112006039262754-pat00011
, (
Figure 112006039262754-pat00012
는 귀간의 거리이고 ,
Figure 112006039262754-pat00013
는 소리의 속도를 의미) 의 수식에 의해 계산하는 것을 특징으로 하는 입체 음향 구현 장치.
The ITD modeling unit delays the time delay of the initial reflection sound according to a predetermined incident angle.
Figure 112006039262754-pat00011
, (
Figure 112006039262754-pat00012
Is the distance between ears,
Figure 112006039262754-pat00013
Is a speed of sound).
제 4항에 있어서, The method of claim 4, wherein 상기 스펙트럼 발생부(Spectrum Generation)는 1차의 쉘빙 필터(Shelving filter)를 이용하여 반사음을 모델링하는 것을 특징으로 하는 입체 음향 구현 장치.The spectrum generation unit (3) is a stereoscopic sound generation apparatus, characterized in that for modeling the reflected sound using a shelving filter (Shelving filter). 제 6항에 있어서, The method of claim 6, 상기 쉘핑 필터 계수는
Figure 112006039262754-pat00014
수식으로 계산되는 것을 특징으로 하는 입체 음향 구현 장치.
The shelf filter coefficient is
Figure 112006039262754-pat00014
Apparatus for stereophonic sound, characterized in that calculated by the formula.
KR1020060049893A 2006-06-02 2006-06-02 Apparatus and method for implementing stereophonic KR100705930B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060049893A KR100705930B1 (en) 2006-06-02 2006-06-02 Apparatus and method for implementing stereophonic

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060049893A KR100705930B1 (en) 2006-06-02 2006-06-02 Apparatus and method for implementing stereophonic

Publications (1)

Publication Number Publication Date
KR100705930B1 true KR100705930B1 (en) 2007-04-13

Family

ID=38161442

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060049893A KR100705930B1 (en) 2006-06-02 2006-06-02 Apparatus and method for implementing stereophonic

Country Status (1)

Country Link
KR (1) KR100705930B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010047701A (en) * 1999-11-23 2001-06-15 정명세 Method for implementing transaural filter for sound localization
KR100574868B1 (en) 2003-07-24 2006-04-27 엘지전자 주식회사 Apparatus and Method for playing three-dimensional sound
KR100606734B1 (en) 2005-02-04 2006-08-01 엘지전자 주식회사 Method and apparatus for implementing 3-dimensional virtual sound

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010047701A (en) * 1999-11-23 2001-06-15 정명세 Method for implementing transaural filter for sound localization
KR100574868B1 (en) 2003-07-24 2006-04-27 엘지전자 주식회사 Apparatus and Method for playing three-dimensional sound
KR100606734B1 (en) 2005-02-04 2006-08-01 엘지전자 주식회사 Method and apparatus for implementing 3-dimensional virtual sound

Similar Documents

Publication Publication Date Title
EP1266541B1 (en) System and method for optimization of three-dimensional audio
EP2661912B1 (en) An audio system and method of operation therefor
EP0966179B1 (en) A method of synthesising an audio signal
JP4633870B2 (en) Audio signal processing method
US7391876B2 (en) Method and system for simulating a 3D sound environment
AU2001239516A1 (en) System and method for optimization of three-dimensional audio
AU5666396A (en) A four dimensional acoustical audio system
US6738479B1 (en) Method of audio signal processing for a loudspeaker located close to an ear
CA2744429C (en) Converter and method for converting an audio signal
EP3090573B1 (en) Generating binaural audio in response to multi-channel audio using at least one feedback delay network
Kim et al. Control of auditory distance perception based on the auditory parallax model
US6990210B2 (en) System for headphone-like rear channel speaker and the method of the same
US10440495B2 (en) Virtual localization of sound
WO2018185733A1 (en) Sound spatialization method
US7050596B2 (en) System and headphone-like rear channel speaker and the method of the same
KR100705930B1 (en) Apparatus and method for implementing stereophonic
JP2001346298A (en) Binaural reproducing device and sound source evaluation aid method
Tonges An augmented Acoustics Demonstrator with Realtime stereo up-mixing and Binaural Auralization
US6983054B2 (en) Means for compensating rear sound effect
WO2002025999A2 (en) A method of audio signal processing for a loudspeaker located close to an ear
GB2369976A (en) A method of synthesising an averaged diffuse-field head-related transfer function
Teschl Binaural sound reproduction via distributed loudspeaker systems
Sandgren Implementation of a development and testing environment for rendering 3D audio scenes
KR20060026234A (en) 3d audio playback system and method thereof
Linkwitz Hearing Spatial Detail in Stereo Recordings (Hören von räumlichem Detail bei Stereo Aufnahmen)

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee