KR20060004528A - Apparatus and method for creating 3d sound having sound localization function - Google Patents

Apparatus and method for creating 3d sound having sound localization function Download PDF

Info

Publication number
KR20060004528A
KR20060004528A KR1020040053673A KR20040053673A KR20060004528A KR 20060004528 A KR20060004528 A KR 20060004528A KR 1020040053673 A KR1020040053673 A KR 1020040053673A KR 20040053673 A KR20040053673 A KR 20040053673A KR 20060004528 A KR20060004528 A KR 20060004528A
Authority
KR
South Korea
Prior art keywords
sound
input
speaker
stereoscopic
headphone
Prior art date
Application number
KR1020040053673A
Other languages
Korean (ko)
Other versions
KR100566131B1 (en
Inventor
김풍민
김현석
김진욱
이동우
이인호
최용석
구정모
이명철
신동선
김종우
Original Assignee
주식회사 이머시스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이머시스 filed Critical 주식회사 이머시스
Priority to KR1020040053673A priority Critical patent/KR100566131B1/en
Priority to US11/175,326 priority patent/US7599498B2/en
Priority to JP2005201960A priority patent/JP2006025439A/en
Publication of KR20060004528A publication Critical patent/KR20060004528A/en
Application granted granted Critical
Publication of KR100566131B1 publication Critical patent/KR100566131B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S1/005For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Abstract

본 발명은 사용자 또는 그래픽 정보로부터 소리객체의 위치정보를 추출하여 재생 소리가 3차원 공간상에 정위되도록 하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for extracting location information of a sound object from user or graphic information so that playback sounds are located in a three-dimensional space.

본 발명은 원음(1)을 원하는 위치에 위치시키기 위한 위치정보가 입력되는 위치 정보 수신 장치(2, 3); 상기 원음(1)과, 상기 위치 정보 수신 장치(2,3)로부터 입력된 위치 정보와, HRTF DB를 이용하여 원하는 위치에 음상이 형성되도록 변환하는 3차원 사운드 합성기(4); 상기 3차원 사운드 합성기(4)의 출력을 수신하여, 스피커 재생인지 또는 헤드폰 재생인지의 선택 결과에 따라, 헤드폰 재생이면 상기 출력을 헤드폰(7)으로 전달하는 선택장치(5); 상기 선택장치(5)에서의 선택 결과가 스피커 재생이면, 상기 출력을 스피커로 재생할 때에 발생하는 크로스토크를 제거하여 스피커(8)로 출력하는 입체음향 가속기(6)를 포함한다.The present invention provides position information receiving apparatuses 2 and 3 to which position information for positioning the original sound 1 at a desired position is input; A three-dimensional sound synthesizer (4) for converting the original sound (1), the position information input from the position information receiving apparatuses (2, 3), and an HRTF DB to form a sound image at a desired position; A selection device (5) which receives the output of the three-dimensional sound synthesizer (4) and delivers the output to the headphone (7) in the case of headphone reproduction according to a selection result of whether speaker reproduction or headphone reproduction; If the selection result in the selection device 5 is speaker reproduction, a stereophonic accelerator 6 for outputting to the speaker 8 by removing the crosstalk generated when the output is reproduced by the speaker is included.

이상과 같은 본 발명을 이용하면, 헤드폰 재생시와 스피커 재생시 모두에 대하여 사용자 또는 게임/그래픽 정보에서 추출된 3차원 위치나 이동 경로의 입력으로 음상 정위가 가능하게 된다.According to the present invention as described above, the stereoscopic positioning is possible by input of the three-dimensional position or the movement path extracted from the user or game / graphic information for both the headphone playback and the speaker playback.

입체음향, 음상정위, HRTFStereo sound, sound stereo, HRTF

Description

음상 정위 기능을 가진 입체 음향을 생성하는 장치 및 방법{Apparatus and Method for Creating 3D Sound Having Sound Localization Function}Apparatus and Method for Creating 3D Sound Having Sound Localization Function}

도1은 본 발명의 구성의 개략도.1 is a schematic diagram of a configuration of the present invention.

도2는 본 발명에 적용되는 위치 정위를 가진 입체 음향의 합성 방법을 도시함.Figure 2 shows a method of synthesizing stereo sound having a positioning applied to the present invention.

도3은 본 발명에 적용되는 입체음향 가속기의 사용유무에 따른 사운드의 범위를 도시함.Figure 3 shows the range of sound depending on the presence or absence of the stereoacoustic accelerator applied to the present invention.

*도면의 주요부분에 대한 부호의 설명** Description of the symbols for the main parts of the drawings *

1 : 원음 2, 3 : 위치 정보1: original sound 2, 3: location information

4 : 3차원 사운드 합성기 5 : 선택기4: 3D Sound Synthesizer 5: Selector

6 : 입체 음향 가속기6: stereo accelerator

본 발명은 사용자 또는 그래픽 정보로부터 소리객체의 위치정보를 추출하여 재생 소리가 3차원 공간상에 정위되도록 하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for extracting location information of a sound object from user or graphic information so that playback sounds are located in a three-dimensional space.

임의의 3차원 공간상에 음상을 정위하기 위해서 인간이 소리의 위치를 판별 하는 원리를 함수화한 HRTF(Head Related Transfer Function) DB가 사용된다. HRTF DB는 인간을 중심으로 3차원 공간상의 여러 지점으로부터 발산되는 소리가 인간의 고막 또는 귀 입구, 또는 인간의 청각부의 일부분까지의 전달체계를 데이터베이스화한 것으로 방향성이 없는 음원을 HRTF DB를 통해 처리하면 이어폰 재생환경에서 소리가 특정위치에서 발생되는 것처럼 느낄 수 있도록 위치감(음상정위)을 부여할 수 있다.In order to locate a sound image in an arbitrary three-dimensional space, a HRTF (Head Related Transfer Function) DB is used, which is a function of the principle of determining the position of sound. HRTF DB is a database of the transmission system of sound emitted from various points in 3D space centered on human being to human eardrum or ear inlet or part of human auditory part. This can give a sense of position (sound stereotactic) to feel as if the sound is generated at a specific location in the earphone playback environment.

그러나 일반적으로 휴대용 단말기(휴대폰, PDA. MP3폰 등)에서는 소리를 사용자가 지정하는 3차원 공간상에 위치시키는 방법이 없고, 음원 파일 자체에는 3차원 위치정보가 없으므로 휴대용 단말기에서의 사운드 재생에서는 사용자의 위치 지정 또는 게임/그래픽에 따른 위치 및 이동 경로 지정과 연동하여 3차원적으로 특정 위치에 소리객체가 존재하는 것처럼 재생하거나 특정 이동 경로를 따라 소리객체가 이동하는 것처럼 재생하지 못하고, 원음을 단순히 재생하거나 단순한 효과처리만을 하여 재생한다.In general, however, there is no method of placing sound in a three-dimensional space designated by a user in a portable terminal (mobile phone, PDA, MP3 phone, etc.), and since the sound source file itself does not have three-dimensional location information, a user plays a sound in a portable terminal. It can't play as if the sound object exists at a specific position in three dimensions or moves as the sound object moves along a specific movement path in conjunction with the positioning of the game or the position and movement path according to the game / graphic. Play back by simply processing or simply effecting it.

따라서 스테레오가 지원되는 휴대 단말기 환경에서 사용자 또는 게임/그래픽에서 소리 객체가 3차원적으로 위치 또는 이동하는 효과음이 필요한 경우에도 이를 처리할 수 없다.Therefore, even in a mobile terminal environment in which stereo is supported, even if a sound object needs to be moved or moved three-dimensionally in a user or game / graphic, it cannot be processed.

한편, 설령 3차원적으로 음상정위 처리를 할 수 있어 소리객체가 특정 위치에 존재하거나 이동하는 것처럼 처리할 수 있다고 하더라도, 헤드폰 재생 환경과 스피커 재생 환경이 입체음향 재생 관점에서 매우 상이하기 때문에 두 재생 환경를 모두 만족하는 입체음향 처리가 불가능하였다.On the other hand, even if the stereoscopic stereoscopic processing can be performed in three dimensions so that the sound object can be processed as if it exists or moves in a specific position, the two reproductions are performed because the headphone reproduction environment and the speaker reproduction environment are very different in terms of stereophonic sound reproduction. It was not possible to process stereophonic sound that satisfies all the environments.

시 말하면, 헤드폰으로 재생되는 입체 음향을 스피커로 출력하게 되면, 스피커에서 사람의 귀로 가는 신호 중 교차되는 신호인 크로스토크로 인하여 음상이 사람의 머리와 두 개의 스피커 사이에서만 형성되게 되어, 스피커 재생환경에서 입체음향의 품질을 떨어지게 된다. In other words, when the stereo sound reproduced by the headphones is output to the speaker, the sound image is formed only between the human head and the two speakers due to the crosstalk, which is an intersecting signal from the speaker to the human ear. The quality of the stereo sound is degraded.

본 발명은 상기의 종래기술의 문제점을 감안하여, 헤드폰 재생시와 스피커 재생시 모두에 대하여 사용자 또는 게임/그래픽 정보에서 추출된 3차원 위치나 이동경로의 입력으로 음상 정위가 가능하게 하는 방법과 이 방법을 위한 장치를 제공한다.SUMMARY OF THE INVENTION In view of the problems of the prior art, the present invention provides a method for enabling sound image positioning by input of a three-dimensional position or a movement path extracted from a user or game / graphic information for both headphone playback and speaker playback. It provides a device for.

보다 구체적으로 설명하면, 본 발명은 사용자 또는 게임/그래픽 정보에서 추출된 3차원 위치나 이동경로를 입력으로, 재생하고자 하는 원음과 3차원 좌표로부터 3차원 스테레오 사운드를 합성하고, 스피커 재생환경 또는 헤드폰 재생환경에 따라 입체 처리에 사용되는 시스템의 파라메터를 변경하여 3차원 사운드를 재생할 수 있도록 하는 방법 및 장치를 제공한다. In more detail, the present invention synthesizes a three-dimensional stereo sound from the original sound and the three-dimensional coordinates to be reproduced by inputting a three-dimensional position or a movement path extracted from the user or game / graphic information, and speaker playback environment or headphones The present invention provides a method and apparatus for reproducing three-dimensional sound by changing parameters of a system used for stereoscopic processing according to a reproduction environment.

이제, 본 발명의 구성을 도1을 참고로 하여 설명하도록 한다.Now, the configuration of the present invention will be described with reference to FIG.

사운드를 원하는 곳에 위치시키기(음상정위) 위해서는 원음(1)을 사용자가 입력하는 3차원 위치정보(2) 또는 게임이나 그래픽과 맵핑된 위치정보(3)를 이용하여, 3차원 사운드 합성기(4)를 통해 비로소 3차원 공간에 위치한 사운드로 합성된다.In order to position the sound (describation), the 3D sound synthesizer 4 uses the 3D position information 2 input by the user or the position information 3 mapped to a game or graphic. It is finally synthesized into sound located in three-dimensional space.

이제, 스피커 재생과 헤드폰 재생에 따라 다른 처리를 하는데, 스피커 재생 또는 헤드폰 재생인지의 선택(재생모드의 선택)은 선택기(5)에 의해 이루어진다. 선택기(5)는 사용자가 휴대용 단말기의 외부 스위치 선택 또는 화면상의 메뉴 선택 등에 의해 선택되는 재생모드에 따라, 헤드폰(7)에 의한 재생의 경우에는 별도의 부가 처리 없이 재생하고 스피커(8)에 의한 재생의 경우에는 특수한 신호처리를 하는 장치(이하에서 설명하는 스피커용 입체음향 가속기(6))를 거쳐서 스피커(8)로 재생을 해야 한다.Now, different processing is performed in accordance with speaker reproduction and headphone reproduction, and selection of whether speaker reproduction or headphone reproduction (selection of reproduction mode) is made by the selector 5. The selector 5 reproduces without additional processing in the case of the reproduction by the headphone 7 in accordance with the reproduction mode selected by the user by the external switch selection of the portable terminal or the menu selection on the screen. In the case of the reproduction, reproduction should be performed by the speaker 8 via a device that performs a special signal processing (stereoacoustic accelerator 6 for the speaker described below).

다시 말하면, 3차원 사운드 합성기(4)에서 출력되는 음향은 헤드폰(7)으로 들을 때는 입체음향을 느낄 수 있지만, 이 출력을 추가적인 처리과정이 없이 스피커(8)로 출력하게 되면, 스피커(8)에서 사람의 귀로 가는 신호 중 교차되는 신호인 크로스토크로 인하여 도3의 상단에서와 같이 음상이 사람의 머리와 두 개의 스피커 사이에서만 형성되게 되어, 스피커 재생환경에서 입체음향의 품질이 떨어지게 된다. 그래서 스피커(8)로 출력할 때 크로스토크 되는 신호를 제거하기 위해 양 스피커 출력에 크로스토크를 상쇄시킬 수 있는 신호를 합쳐 출력하게 되고, 이 과정을 거치면 도3의 하단에서와 같이 스피커(8)로 청취를 하여도 음상의 왜곡이 적어 입체음향의 청취가 가능해진다.In other words, the sound output from the three-dimensional sound synthesizer 4 may feel three-dimensional sound when listening to the headphone 7, but if this output is output to the speaker 8 without further processing, the speaker 8 Due to the crosstalk, which is a signal intersecting among the signals going to the human ear, the sound image is formed only between the human head and the two speakers as shown in the upper part of FIG. 3, so that the stereoscopic sound quality is degraded in the speaker reproduction environment. Thus, in order to remove the crosstalk signal when outputting to the speaker 8, a signal capable of canceling the crosstalk is combined and output to both speaker outputs. After this process, the speaker 8 as shown in the lower part of FIG. Even if you listen to the sound, the distortion of the sound image is less, and the stereo sound can be heard.

이제, 3차원 사운드 합성기(4)과 입체 음향 가속기(6)에 대하여 구체적으로 설명하기로 한다.Now, the three-dimensional sound synthesizer 4 and the stereo sound accelerator 6 will be described in detail.

먼저 3차원 사운드 합성기(4)에 대하여 설명하기로 한다.First, the three-dimensional sound synthesizer 4 will be described.

3차원 사운드 합성기(4)에서는 도2에서와 같이 3차원 좌표정보를 가지고 사 운드가 3차원 공간상에 위치하도록 사운드를 합성한다. 도2는 사운드가 3차원 공간상에 위치하도록 사운드를 합성하는 방법으로 어떠한 위치정보도 갖지 않은 일반 음원을 입력으로 했을 때, 사운드 위치정보 블록에서 사용자의 입력 또는 3차원 좌표정보로부터 HRTF DB에서 해당 위치정보를 갖는 데이터를 찾을 수 있는 수평각, 고도각으로 좌표값을 환산하고, 이 값을 통해 HRTF DB로부터 얻은 해당 위치의 데이터와 원음을 콘볼루션 연산을 수행하게 되면 합성된 사운드의 위치 블록과 같이 사운드 위치정보 블록에서 지정한 위치에 음상이 형성되게 된다.In the 3D sound synthesizer 4, as shown in FIG. 2, the sound is synthesized so that the sound is located in the 3D space with the 3D coordinate information. Figure 2 is a method of synthesizing the sound so that the sound is located in the three-dimensional space, when a general sound source without any position information as an input, the sound from the user input in the location information block or from the three-dimensional coordinate information from HRTF DB When the coordinate value is converted into the horizontal angle and the altitude angle where the data having the position information can be found, and the data and original sound of the corresponding position obtained from the HRTF DB are convoluted through this value, it is like the position block of the synthesized sound. Sound image is formed at the position designated in the sound position information block.

이제, 마지막으로 입체 음향 가속기(6)에 대하여 설명하기로 한다.Now, finally, the stereo accelerator 6 will be described.

위에서 설명한 바와 같이, 음향을 스피커(8)에서 재생하는 경우에는 크로스토크를 제거해 주는 입체음향 가속기(6)에서의 처리과정(이하에서는 "eXTX"라고 칭함)이 필요한데, 이하에서는 설명의 편의상 스피커가 L, R의 2채널인 경우에 대해 설명하기로 한다.As described above, when sound is reproduced from the speaker 8, a process (hereinafter referred to as "eXTX") in the stereo acoustic accelerator 6 which removes cross talk is required. The case of two channels of L and R will be described.

eXTX에서 쓰이는 필터(Q)는 2입력 2출력이며 다음과 같이 도출할 수 있다. 3D음향소스(X)는 스피커출력(V)을 통해 최종적으로 귀에서의 음압(d)으로 청취자가 인식하게 되며, 여기서 스피커에서의 음압과 귀에서의 음압사이의 관계식은 수학식 1과 같이 표현된다.The filter (Q) used in eXTX is 2 input 2 output and can be derived as follows. The 3D sound source (X) is finally recognized by the listener as the sound pressure (d) at the ear through the speaker output (V), where the relation between the sound pressure at the speaker and the sound pressure at the ear is expressed as in Equation 1. do.

아래의 수학식 1에서 Hv 는 Transaural 시스템에서의 스피커 출력으로 귀에서의 음압(d)과 같다고 볼 수 있으며, A는 스피커와 사람의 두 귀간의 거리 중 가까운 거리의 신호특성이며 S는 먼 거리, 즉 교차되는 신호특성이다.In Equation 1 below, Hv is the speaker output in the Transaural system and can be regarded as the sound pressure in the ear (d), A is the signal characteristic of the distance between the speaker and the human ear, and S is the far distance, That is, the signal characteristics are crossed.

Figure 112004030510018-PAT00001
Figure 112004030510018-PAT00001

헤드폰 청취의 경우 입력 3D음향과 귀에서 듣는 음향과의 관계식은 아래의 수학식 2와 같다.In the case of headphone listening, the relationship between the input 3D sound and the sound heard in the ear is expressed by Equation 2 below.

Figure 112004030510018-PAT00002
Figure 112004030510018-PAT00002

여기서 x는 헤드폰용 신호로 귀에서의 음압이다.Where x is the headphone signal, the sound pressure at the ear.

그리고, 스피커 청취의 경우 입력 3D음향과 귀에서 듣는 음향과의 관계식은 아래의 수학식 3과 같이 표현된다.In the case of speaker listening, the relationship between the input 3D sound and the sound heard in the ear is expressed by Equation 3 below.

Figure 112004030510018-PAT00003
Figure 112004030510018-PAT00003

결국, 스피커 청취시에도 헤드폰의 경우과 같은 결과를 얻기 위하여 크로스토크를 제거하기 위한 Transaural 시스템의 역함수로 구성된 eXTX의 필터 (Q)는 아래의 수학식 4와 같다.As a result, the filter (Q) of the eXTX, which is composed of the inverse function of the Transaural system for removing crosstalk to obtain the same result as in the case of the headphones, is expressed by Equation 4 below.

Figure 112004030510018-PAT00004
Figure 112004030510018-PAT00004

eXTX에서 Q의 구현은 좌우스피커간의 거리와 스피커와 청취자의 귀축 중앙과의 거리를 이용하여 구현한다. HRTF(Head Related Transfer Function) 모델을 이용하여 스피커와 귀간의 왼쪽 스피커에서 왼쪽 귀로/오른쪽 스피커에서 오른쪽 귀로 입사되는 신호인 직접 경로(Direct path)와 왼쪽 스피커에서 오른쪽 귀로/오른쪽 스피커에서 왼쪽 귀로 입사되는 신호인 교차 경로(Cross path)의 거리를 구한 후, HRTF에서 추출된 파라미터 a와 b를 적용하여 신호처리를 수행하며 그 수식은 특정 주파수에서 다음과 같이 표현된다.The implementation of Q in the eXTX is achieved using the distance between the left and right speakers and the distance between the center of the speaker and the listener's ear axis. Using the HRTF (Head Related Transfer Function) model, the direct path, which is a signal from the left speaker to the left ear / right speaker to the right ear, between the speaker and the ear, and from the left speaker to the right ear / right speaker to the left ear After obtaining the distance of the cross path which is a signal, signal processing is performed by applying parameters a and b extracted from the HRTF, and the expression is expressed as follows at a specific frequency.

Figure 112004030510018-PAT00005
Figure 112004030510018-PAT00005

위 수학식 5에서 파라미터 a는 직접 경로와 교차경로 간의 게인 비율이며, b는 직접 경로와 교차경로 간의 지연(delay)이다.In Equation 5, parameter a is a gain ratio between the direct path and the cross path, and b is a delay between the direct path and the cross path.

이상에서는 본 발명의 바람직한 실시 예를 설명하였으나, 본 발명은 이 실시 예에 한정되는 것이 아니라 본 발명의 정신을 벗어나지 않는 범위 내에서 다양한 변형이 가능하다는 점을 유의해야 한다.Although the preferred embodiment of the present invention has been described above, it should be noted that the present invention is not limited to this embodiment and various modifications can be made without departing from the spirit of the present invention.

예를 들면, 이상에서는 본 발명이 휴대용 단말기에 사용되는 것으로 기재하였으나, 본 발명은 음향기기(오디오, 미니콤포너트, 카세트 등)와 영상기기(TV, 캠코더 등)를 포함하는 다양한 미디어 장치의 음향처리부에도 적용이 가능하다.For example, while the present invention has been described as being used in a portable terminal, the present invention provides a sound of various media devices including audio equipment (audio, mini-component, cassette, etc.) and video equipment (TV, camcorder, etc.). It is also applicable to the processing unit.

이상과 같은 본 발명을 이용하면, 헤드폰 재생시와 스피커 재생시 모두에 대하여 사용자 또는 게임/그래픽 정보에서 추출된 3차원 위치나 이동경로의 입력으로 음상 정위가 가능하게 된다.According to the present invention as described above, the stereoscopic positioning is possible by input of the three-dimensional position or the movement path extracted from the user or game / graphic information for both the headphone playback and the speaker playback.

Claims (14)

원음(1)을 원하는 위치에 위치시키기 위한 위치정보가 입력되는 위치 정보 수신 장치(2, 3);Position information receiving devices 2 and 3 to which position information for positioning the original sound 1 at a desired position is input; 상기 원음(1)과, 상기 위치 정보 수신 장치(2, 3)으로부터 입력된 위치 정보와, HRTF DB를 이용하여 원하는 위치에 음상이 형성되도록 변환하는 3차원 사운드 합성기(4);A three-dimensional sound synthesizer (4) for converting the original sound (1), position information input from the position information receiving devices (2, 3), and HRTF DB to form a sound image at a desired position; 상기 3차원 사운드 합성기(4)의 출력을 수신하여, 스피커 재생인지 또는 헤드폰 재생인지의 선택 결과에 따라, 헤드폰 재생이면 상기 출력을 헤드폰(7)으로 전달하는 선택장치(5);A selection device (5) which receives the output of the three-dimensional sound synthesizer (4) and delivers the output to the headphone (7) in the case of headphone reproduction according to a selection result of whether speaker reproduction or headphone reproduction; 상기 선택장치(5)에서의 선택 결과가 스피커 재생이면, 상기 출력을 스피커로 재생할 때에 발생하는 크로스토크를 제거하여 스피커(8)로 출력하는 입체음향 가속기(6)를 포함하는 것을 특징으로 하는 음상정위 기능을 가진 입체 음향 형성 장치.If the selection result in the selection device 5 is speaker reproduction, the sound image comprises a stereo sound accelerator 6 which outputs to the speaker 8 by removing the crosstalk generated when the output is reproduced by the speaker. Stereo shaping device with stereotactic function. 제1항에 있어서, 상기 입력되는 위치는 시간에 따라 변하는 이동경로상의 위치인 것을 특징으로 하는 음상정위 기능을 가진 입체 음향 형성 장치.The stereoscopic sound forming apparatus of claim 1, wherein the input position is a position on a moving path that changes with time. 제1항에 있어서, 상기 입력되는 위치는 사용자에 의해 입력되는 것을 특징으로 하는 음상정위 기능을 가진 입체 음향 형성 장치.The stereoscopic sound forming apparatus of claim 1, wherein the input position is input by a user. 제1항에 있어서, 상기 입력되는 위치는 게임에서 입력되는 것을 특징으로 하는 음상정위 기능을 가진 입체 음향 형성 장치.The stereoscopic sound forming apparatus of claim 1, wherein the input position is input in a game. 제1항에 있어서, 상기 입력되는 위치는 그래픽에서 입력되는 것을 특징으로 하는 음상정위 기능을 가진 입체 음향 형성 장치.The stereoscopic sound forming apparatus of claim 1, wherein the input position is input in a graphic. 제1항에 있어서, 상기 입체 음향 형성 장치는 휴대용 단말기에 사용되는 것을 특징으로 하는 음상정위 기능을 가진 입체 음향 형성 장치.The stereoscopic sound forming apparatus having a stereotactic function according to claim 1, wherein the stereoscopic sound forming apparatus is used in a portable terminal. 제1항에 있어서, 상기 입체 음향 형성 장치는 미디어 장치의 음향처리부에 사용되는 것을 특징으로 하는 음상정위 기능을 가진 입체 음향 형성 장치.The stereoscopic sound forming apparatus having a stereotactic function according to claim 1, wherein the stereoscopic sound forming apparatus is used in a sound processing unit of a media device. 원음(1)을 원하는 위치에 위치시키기 위한 위치정보가 입력되는 위치 정보 수신 단계;A location information receiving step of inputting location information for positioning the original sound 1 at a desired location; 상기 원음(1)과, 상기 위치 정보 수신 단계로부터 입력된 위치 정보와, HRTF DB를 이용하여 원하는 위치에 음상이 형성되도록 변환하는 3차원 사운드 합성 단계;A three-dimensional sound synthesis step of converting the original sound (1), position information input from the position information receiving step, and HRTF DB to form a sound image at a desired position; 상기 3차원 사운드 합성 단계의 출력을 수신하여, 스피커 재생인지 또는 헤드폰 재생인지의 선택 결과에 따라, 헤드폰 재생이면 상기 출력을 헤드폰(7)으로 전달하는 선택 단계;A selection step of receiving the output of the three-dimensional sound synthesis step and delivering the output to the headphone (7) in the case of headphone playback according to a selection result of whether speaker playback or headphone playback; 상기 선택 단계에서의 선택 결과가 스피커 재생이면, 상기 출력을 스피커로 재생할 때에 발생하는 크로스토크를 제거하여 스피커(8)로 출력하는 입체음향 가속 단계를 포함하는 것을 특징으로 하는 음상정위 기능을 가진 입체 음향 형성 방법.If the selection result in the selection step is speaker reproduction, the stereoscopic sound acceleration step of removing the crosstalk generated when the output is reproduced to the speaker and outputting the stereo sound to the speaker 8; Sound formation method. 제8항에 있어서, 상기 입력되는 위치는 시간에 따라 변하는 이동경로상의 위치인 것을 특징으로 하는 음상정위 기능을 가진 입체 음향 형성 방법.The stereoscopic sound forming method of claim 8, wherein the input position is a position on a moving path that changes with time. 제8항에 있어서, 상기 입력되는 위치는 사용자에 의해 입력되는 것을 특징으로 하는 음상정위 기능을 가진 입체 음향 형성 방법.The stereoscopic sound forming method of claim 8, wherein the input position is input by a user. 제8항에 있어서, 상기 입력되는 위치는 게임에서 입력되는 것을 특징으로 하는 음상정위 기능을 가진 입체 음향 형성 방법.9. The method of claim 8, wherein the input position is input in a game. 제8항에 있어서, 상기 입력되는 위치는 그래픽에서 입력되는 것을 특징으로 하는 음상정위 기능을 가진 입체 음향 형성 방법.The stereoscopic sound forming method of claim 8, wherein the input position is input in a graphic. 제8항에 있어서, 상기 입체 음향 형성 방법은 휴대용 단말기에 사용되는 것을 특징으로 하는 입체 음향 형성 방법.The method of claim 8, wherein the stereo sound forming method is used in a portable terminal. 제8항에 있어서, 상기 입체 음향 형성 방법은 미디어 장치의 음향처리부에 사용되는 것을 특징으로 하는 입체 음향 형성 장치.The stereoscopic sound forming apparatus according to claim 8, wherein the stereoscopic sound forming method is used in a sound processing unit of a media device.
KR1020040053673A 2004-07-09 2004-07-09 Apparatus and Method for Creating 3D Sound Having Sound Localization Function KR100566131B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020040053673A KR100566131B1 (en) 2004-07-09 2004-07-09 Apparatus and Method for Creating 3D Sound Having Sound Localization Function
US11/175,326 US7599498B2 (en) 2004-07-09 2005-07-07 Apparatus and method for producing 3D sound
JP2005201960A JP2006025439A (en) 2004-07-09 2005-07-11 Apparatus and method for creating 3d sound

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040053673A KR100566131B1 (en) 2004-07-09 2004-07-09 Apparatus and Method for Creating 3D Sound Having Sound Localization Function

Publications (2)

Publication Number Publication Date
KR20060004528A true KR20060004528A (en) 2006-01-12
KR100566131B1 KR100566131B1 (en) 2006-03-30

Family

ID=37116821

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040053673A KR100566131B1 (en) 2004-07-09 2004-07-09 Apparatus and Method for Creating 3D Sound Having Sound Localization Function

Country Status (1)

Country Link
KR (1) KR100566131B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100667001B1 (en) * 2006-02-21 2007-01-10 삼성전자주식회사 Sweet spot maintenance method and device for binaural sound listening in dual speaker hand phone
CN103945301A (en) * 2014-04-24 2014-07-23 Tcl集团股份有限公司 Audio system balance adjustment method and device
US8923536B2 (en) 2007-01-25 2014-12-30 Samsung Electronics Co., Ltd. Method and apparatus for localizing sound image of input signal in spatial position
KR200487178Y1 (en) 2017-12-07 2018-09-20 (주)공구모아 Device For Stink-proof Of Sinkhole

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100667001B1 (en) * 2006-02-21 2007-01-10 삼성전자주식회사 Sweet spot maintenance method and device for binaural sound listening in dual speaker hand phone
US8923536B2 (en) 2007-01-25 2014-12-30 Samsung Electronics Co., Ltd. Method and apparatus for localizing sound image of input signal in spatial position
CN103945301A (en) * 2014-04-24 2014-07-23 Tcl集团股份有限公司 Audio system balance adjustment method and device
CN103945301B (en) * 2014-04-24 2018-04-17 Tcl集团股份有限公司 A kind of sound system balance adjusting method and device
KR200487178Y1 (en) 2017-12-07 2018-09-20 (주)공구모아 Device For Stink-proof Of Sinkhole

Also Published As

Publication number Publication date
KR100566131B1 (en) 2006-03-30

Similar Documents

Publication Publication Date Title
KR100878457B1 (en) Sound image localizer
US5459790A (en) Personal sound system with virtually positioned lateral speakers
KR101512992B1 (en) A device for and a method of processing audio data
US7599498B2 (en) Apparatus and method for producing 3D sound
US8488820B2 (en) Spatial audio processing method, program product, electronic device and system
US8442244B1 (en) Surround sound system
US9788134B2 (en) Method for processing of sound signals
JP2002209300A (en) Sound image localization device, conference unit using the same, portable telephone set, sound reproducer, sound recorder, information terminal equipment, game machine and system for communication and broadcasting
KR20180102596A (en) Synthesis of signals for immersive audio playback
EP3895451A1 (en) Method and apparatus for processing a stereo signal
US11221820B2 (en) System and method for processing audio between multiple audio spaces
CN109587601A (en) The system that sound is movable into and out listener head using virtual acoustic system
JP2018110366A (en) 3d sound video audio apparatus
US20170272889A1 (en) Sound reproduction system
JP2003009296A (en) Acoustic processing unit and acoustic processing method
WO2022004421A1 (en) Information processing device, output control method, and program
US10440495B2 (en) Virtual localization of sound
KR20050064442A (en) Device and method for generating 3-dimensional sound in mobile communication system
KR100566131B1 (en) Apparatus and Method for Creating 3D Sound Having Sound Localization Function
JP5281695B2 (en) Acoustic transducer
KR100574868B1 (en) Apparatus and Method for playing three-dimensional sound
KR102058228B1 (en) Method for authoring stereoscopic contents and application thereof
KR19980031979A (en) Method and device for 3D sound field reproduction in two channels using head transfer function
US20230011591A1 (en) System and method for virtual sound effect with invisible loudspeaker(s)
JP6972858B2 (en) Sound processing equipment, programs and methods

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130325

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140320

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160309

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170707

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20180921

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20190318

Year of fee payment: 14