KR100718160B1 - 혼선제거장치 및 방법 - Google Patents

혼선제거장치 및 방법 Download PDF

Info

Publication number
KR100718160B1
KR100718160B1 KR1020060045342A KR20060045342A KR100718160B1 KR 100718160 B1 KR100718160 B1 KR 100718160B1 KR 1020060045342 A KR1020060045342 A KR 1020060045342A KR 20060045342 A KR20060045342 A KR 20060045342A KR 100718160 B1 KR100718160 B1 KR 100718160B1
Authority
KR
South Korea
Prior art keywords
crosstalk
parallax
function
unit
removal function
Prior art date
Application number
KR1020060045342A
Other languages
English (en)
Inventor
김영태
김상욱
김정호
고상철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020060045342A priority Critical patent/KR100718160B1/ko
Priority to US11/704,269 priority patent/US8958584B2/en
Application granted granted Critical
Publication of KR100718160B1 publication Critical patent/KR100718160B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)

Abstract

혼선제거장치 및 방법이 개시된다. 복수의 채널 각각의 오디오 신호로부터 혼선을 제거하는 본 발명에 의한 혼선제거장치는, 청취자의 위치를 인식하는 위치 인식부와, 상기 인식된 위치에 대한 혼선제거함수를 산출하는 산출부 및 상기 산출된 결과를 이용하여 상기 혼선을 제거하는 필터링부를 포함하는 것이 바람직하다.

Description

혼선제거장치 및 방법 {Apparatus and method for crosstalk cancellation}
도 1의 (a)는 청취자가 최적청취영역에 위치하는 경우를 나타낸 도면이고, 도 1의 (b)는 청취자가 최적청취영역을 벗어난 경우를 나타낸 도면이다.
도 2는 본 발명에 의한 혼선제거장치를 설명하기 위한 블록도이다.
도 3은 도 2에 도시된 필터링부(220)의 본 발명에 의한 바람직한 일 실시예의 블록도이다.
도 4a 및 도 4b는 도 2에 도시된 위치 인식부(230) 및 필터갱신요부 검사부(240)의 동작을 설명하기 위한 참고도들이다.
도 5a 및 도 5b는 도 2에 도시된 저장부(250), 독출부(260) 및 산출부(270)의 동작을 설명하기 위한 참고도들이다.
도 6은 도 2에 도시된 산출부(270)의 본 발명에 의한 제1 실시예(270A)의 블록도이다.
도 7은 도 2에 도시된 산출부(270)의 본 발명에 의한 제2 실시예(270B)의 블록도이다.
도 8은 본 발명에 의한 혼선제거방법을 설명하기 위한 플로우챠트이다.
도 9는 도 8에 도시된 제830 단계에 대한 본 발명에 의한 제1 실시예(830A)의 플로우챠트이다.
도 10은 도 8에 도시된 제830 단계에 대한 본 발명에 의한 제2 실시예(830B)의 플로우챠트이다.
본 발명은 혼선(crosstalk) 제거에 관한 것으로, 보다 상세하게는, 복수의 채널 각각의 오디오 신호로부터 혼선을 제거하는 혼선제거장치 및 방법에 관한 것이다.
복수의 채널 각각의 오디오 신호를 청취하는 청취자는 최적청취영역에 위치할 경우에 한해, 최상의 입체 음향 효과를 느낄 수 있다. 여기서, 최적청취영역이란 청취자가 그 오디오 신호로부터 혼선(crosstalk)을 인지할 수 없는 영역을 의미하고, 혼선이란 복수의 채널 각각의 오디오 신호가 스피커를 거쳐 두 귀로 전달되는 도중 서로 섞이는 현상을 의미한다.
도 1의 (a)는 청취자(110)가 최적청취영역(150)에 위치한 경우를 나타낸 도면이고, 도 1의 (b)는 청취자가 최적청취영역을 벗어난 경우를 나타낸 도면이다. 여기서, 식별번호 140은 실제 음원이 아닌, 청취자가 음원으로서 느끼는 가상적인 객체 즉, 가상 음원을 의미한다. 이러한 가상 음원(140)의 위치는 최적청취영역(150)의 결정시 고려되어야 한다.
도시된 바에서, 청취자(110)는 가상 음원(140)이 좌측 스피커(120)와 우측 스피커(130)의 중간 지점에 위치하는 것으로 인지하고자 한다고 가정한다. 이 경 우, 청취자(110)가 도 1의 (a)에 도시된 바와 같이 최적청취영역(150)에 위치한다면, 청취자(110)는 가상 음원(140)이 좌측 스피커(120)와 우측 스피커(140)의 중간 지점에 위치하는 것으로 인지한다. 그에 반해, 청취자(110)가 도 1의 (b)에 도시된 바와 같이 최적청취영역(150)에서 벗어난다면, 청취자(110)는 가상 음원(140)이 좌측 스피커(120)에 치우쳐 위치하는 것으로 인지한다.
결국, 최적청취영역(150)에서 벗어난 청취자(110)는 여전히 혼선을 느끼게 되므로, 종래의 혼선제거장치는 청취자(110)의 움직임에 적응적이지 못하다는 문제점을 갖는다.
본 발명이 이루고자 하는 기술적 과제는, 복수의 채널 각각의 오디오 신호로부터 혼선을 제거하는 필터를 청취자의 움직임에 적응적으로 갱신하는 혼선제거장치를 제공하는 데 있다.
본 발명이 이루고자 하는 다른 기술적 과제는, 복수의 채널 각각의 오디오 신호로부터 혼선을 제거하는 필터를 청취자의 움직임에 적응적으로 갱신하는 혼선제거방법을 제공하는 데 있다.
본 발명이 이루고자 하는 또 다른 기술적 과제는, 복수의 채널 각각의 오디오 신호로부터 혼선을 제거하는 필터를 청취자의 움직임에 적응적으로 갱신하는 컴퓨터 프로그램을 저장하는 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다.
상기 과제를 이루기 위해, 복수의 채널 각각의 오디오 신호로부터 혼선을 제 거하는 본 발명에 의한 혼선제거장치는, 청취자의 위치를 인식하는 위치 인식부와, 상기 인식된 위치에 대한 혼선제거함수를 산출하는 산출부 및 상기 산출된 결과를 이용하여 상기 혼선을 제거하는 필터링부를 포함하는 것이 바람직하다.
상기 다른 과제를 이루기 위해, 복수의 채널 각각의 오디오 신호로부터 혼선을 제거하는 본 발명에 의한 혼선제거방법은, 청취자의 위치를 인식하는 (a) 단계와, 상기 인식된 위치에 대한 혼선제거함수를 구하는 (b) 단계 및 상기 구해진 결과를 이용하여 상기 혼선을 제거하는 (c) 단계를 포함하는 것이 바람직하다.
상기 또 다른 과제를 이루기 위해, 복수의 채널 각각의 오디오 신호로부터 혼선을 제거하는 컴퓨터 프로그램을 저장하는 본 발명에 의한 컴퓨터로 읽을 수 있는 기록매체는, 청취자의 위치를 인식하는 (a) 단계와, 상기 인식된 위치에 대한 혼선제거함수를 구하는 (b) 단계 및 상기 구해진 결과를 이용하여 상기 혼선을 제거하는 (c) 단계를 수행하는 컴퓨터 프로그램을 저장하는 것이 바람직하다.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 그 첨부 도면을 설명하는 내용을 참조하여야만 한다.
이하, 본 발명에 의한 혼선제거장치 및 방법을 첨부한 도면들을 참조하여 다음과 같이 설명한다.
도 2는 본 발명에 의한 혼선제거장치를 설명하기 위한 블록도로서, 스테레오 생성부(210), 필터링부(220), 위치 인식부(230), 필터갱신요부 검사부(240), 저장부(250), 독출부(260), 산출부(270), 및 필터 갱신부(280)를 포함한다.
스테레오 생성부(210)는 입력 단자 IN 1을 통해 입력된 모노(mono) 방식의 오디오 신호를 이용하여, 스테레오(stereo) 방식의 오디오 신호(L1, R1)를 생성한다.
필터링부(220)는 스테레오 생성부(210)에서 생성된 오디오 신호(L1, R1)로부터 혼선을 제거하고, 혼선이 제거된 그 오디오 신호(L2, R2)를 각각 출력단자 OUT 1, OUT 2를 통해 출력한다. 이 때, 출력단자 OUT 1, OUT 2 각각은 두 개의 스피커 각각에 연결된 것이 바람직하다. 본 명세서 상에서, '혼선을 제거한다' 함은 복수의 스피커를 통해 출력될 복수의 오디오 신호(예를 들어, L2, R2)간에 혼선이 발생되지 않도록, 복수의 오디오 신호(예를 들어, L1, R1)를 처리하는 것을 의미한다. 한편, 도 2는 설명의 편의를 위해 도시된 것으로서, 복수의 채널은 두 채널이라 가정하였다.
필터링부(220)는 필터(filter)를 구비하며, 그러한 필터를 이용하여 혼선을 제거한다. 이러한 필터는 디지털 필터인 것이 바람직하다. 한편, 필터링부(220)에 구비된 필터의 전달함수는 이하, 혼선제거함수라 명명한다. 최적청취영역은 이러한 혼선제거함수에 따라 결정되고, 혼선제거함수는 후술할 머리전달함수에 따라 결정된다.
위치 인식부(230)는 청취자의 위치를 인식한다. 구체적으로, 위치 인식부(230)는 청취자의 머리가 어느 위치에 위치하는지 인식한다. 이를 위해, 위치 인식부(230)는 카메라와 같은 촬상 수단(미 도시)을 이용하여 청취자를 촬영하고, 청취자의 그 촬영된 영상에서의 위치 정보를 획득하는 것이 바람직하다. 이 때, 그 획득된 위치 정보는 2차원 정보이다. 또한, 위치 인식부(230)는 그 촬상 수단(미 도시)과 청취자간의 거리에 관한 정보도 획득하는 것이 바람직하다. 이로써, 위치 인식부(230)는 청취자의 위치를 3차원적으로 인식할 수 있다. 본 출원인이 "가상 입체음향을 위한 청취자 머리위치 추적방법 및 장치"라는 제목의 특허출원번호 제10-2006-0028207호를 통해 개시한 머리위치 추적 장치는 그러한 위치 인식부(230)의 일 례가 될 수 있다.
필터갱신요부 검사부(240)는 필터링부(220)에 구비된 필터의 갱신이 필요한지의 여부를 검사한다. 보다 구체적으로, 필터갱신요부 검사부(240)는 혼선제거함수의 갱신이 필요한지의 여부를 검사한다.
이를 위해, 필터갱신요부 검사부(240)는 위치 인식부(230)에서 인식된 위치가 소정 위치인지의 여부를 검사한다. 보다 구체적으로, 필터갱신요부 검사부(240)는 위치 인식부(230)에서 인식된 위치가 최적청취영역에 존재하는지의 여부를 검사할 수 있다. 또는, 필터갱신요부 검사부(240)는 위치 인식부(230)에서 인식된 위치가 최적청취영역 내에 설정된 필터유지영역에 존재하는지의 여부를 검사할 수도 있다.
저장부(250)는 하나 이상의 위치 각각에 대한 머리전달함수 또는 혼선제거함수를 저장한다. 여기서, 각각의 위치는 머리의 위치를 의미한다. 이 때, 머리 중심에 대한 좌측 귀, 우측 귀의 위치는 미리 모델링된 것이 바람직하다. 즉, 머리 중심의 위치, 좌측 귀의 위치, 우측 귀의 위치간의 관계는 고정된 것이 바람직하다.
머리전달함수, 혼선제거함수, 및 저장부(250)에 대해 구체적으로 설명하면 다음과 같다.
본 발명의 제1 실시예에 의하면, 저장부(250)는 하나 이상의 위치 각각에 대한 머리전달함수를 저장한다. 본 명세서 상에서, 머리전달함수는 복수의 스피커를 통해 출력될 복수의 오디오 신호(x1, x2)와 청취자의 두 귀에 도달하는 복수의 오디오 신호(y1, y2)간의 관계를 다음의 수학식 1과 같이 나타내는 함수를 의미한다.
Figure 112006035185743-pat00001
여기서, x1은 좌측 스피커를 통해 출력될 오디오 신호를 의미하고, x2는 우측 스피커를 통해 출력될 오디오 신호를 의미하고, y1은 좌측 귀에 도달하는 오디오 신호를 의미하고, y2는 우측 귀에 도달하는 오디오 신호를 의미한다.
또한,
Figure 112006035185743-pat00002
은 좌측 스피커로 출력될 오디오 신호(x1)와 좌측 귀에 도달하는 오디오 신호(y1)간의 관계를 나타내는 머리전달함수를 의미하고,
Figure 112006035185743-pat00003
는 좌측 스피커로 출력될 오디오 신호(x1)와 우측 귀에 도달하는 오디오 신호(y2)간의 관계를 나타내는 머리전달함수를 의미하고,
Figure 112006035185743-pat00004
은 우측 스피커로 출력될 오디오 신호(x2)와 좌측 귀에 도달하는 오디오 신호(y1)간의 관계를 나타내는 머리전달함수를 의미하고,
Figure 112006035185743-pat00005
는 우측 스피커로 출력될 오디오 신호(x2)와 우측 귀에 도달하는 오디오 신호(y2)간의 관계를 나타내는 머리전달함수를 의미한다.
한편, 머리전달함수는 위치(p), 및 주파수(f)의 함수(HRTF : Head Related Transfer Function)일 수도 있으나, 이하, 설명의 편의상, 위치(p), 및 시간(t)의 함수(HRIR : Head Related Impulse Response)라고 가정한다. 여기서, HRTF는 HRIR의 푸리에 변환(Fourier Transform)된 결과를 의미하고, 위치(p)는 3차원으로 표현되는 것이 바람직하다.
본 발명의 제2 실시예에 의하면, 저장부(250)는 하나 이상의 위치 각각에 대한 혼선제거함수를 저장한다. 수학식 1로부터, 혼선제거함수는 다음의 수학식 2와 같이, 머리전달함수의 역함수로서 표현된다.
Figure 112006035185743-pat00006
독출부(260)는 필터갱신요부 검사부(240)에서 검사된 결과에 응답하여 동작하는 것이 바람직하다. 보다 구체적으로, 독출부(260)는 그 인식된 위치가 최적청취영역에 존재하지 않는다고 검사되면, 동작할 수 있다. 또는, 독출부(260)는 그 인식된 위치가 필터유지영역에 존재하지 않는다고 검사되면, 동작할 수도 있다. 이러한 독출부(260)의 구체적인 동작은 다음과 같다.
본 발명의 제1 실시예에 의하면, 독출부(260)는 위치 인식부(230)에서 인식된 위치에 상응하는 머리전달함수를 저장부(250)에서 독출한다. 만일, 저장부(250)에 그 인식된 위치에 대한 머리전달함수가 존재한다면, 독출부(260)는 그 인식된 위치에 대한 머리전달함수를 독출한다. 그에 반해, 저장부(250)에 그 인식된 위치에 대한 머리전달함수가 존재하지 않는다면, 독출부(260)는 그 인식된 위치와 일직 선상에 위치한 복수의 위치 각각에 대한 머리전달함수를 독출할 수 있다.
본 발명의 제2 실시예에 의하면, 독출부(260)는 위치 인식부(230)에서 인식된 위치에 상응하는 혼선제거함수를 저장부(250)에서 독출한다. 만일, 저장부(250)에 그 인식된 위치에 대한 혼선제거함수가 존재한다면, 독출부(260)는 그 인식된 위치에 대한 혼선제거함수를 독출한다. 그에 반해, 저장부(250)에 그 인식된 위치에 대한 혼선제거함수가 존재하지 않는다면, 독출부(260)는 그 인식된 위치와 일직선상에 위치한 복수의 위치 각각에 대한 혼선제거함수를 독출할 수 있다. 한편, 본 명세서 상에서, '그 인식된 위치에 대한 혼선제거함수'란, 그 인식된 위치가 최적청취영역 내의 소정 위치 예를 들어, 최적청취영역의 중심이 되도록 하는 혼선제거함수를 의미한다.
본 발명의 제1 실시예에 의한 산출부(270)의 동작은 다음과 같다.
독출부(260)가 그 인식된 위치에 대한 머리전달함수를 독출한다면, 산출부(270)는 그 독출된 머리전달함수의 역함수를 산출하고, 산출된 결과를 그 인식된 위치에 대한 혼선제거함수로서 출력한다.
그에 반해, 독출부(260)가 그 인식된 위치와 일직선상에 위치한 복수의 위치 각각에 대한 머리전달함수를 독출한다면, 산출부(270)는 그 독출된 머리전달함수를 이용하여 그 인식된 위치에 대한 머리전달함수를 보간(interpolate)한다. 그 후, 산출부(270)는 그 보간된 머리전달함수의 역함수를 산출하고, 산출된 결과를 그 인식된 위치에 대한 혼선제거함수로서 출력한다.
한편, 본 발명의 제2 실시예에 의한 산출부(270)의 동작은 다음과 같다.
독출부(260)가 그 인식된 위치에 대한 혼선제거함수를 독출한다면, 산출부(260)는 그 독출된 결과를 입력하고, 입력된 그 독출된 결과를 그대로 출력한다.
그에 반해, 독출부(260)가 그 인식된 위치와 일직선상에 위치한 복수의 위치 각각에 대한 혼선제거함수를 독출한다면, 산출부(270)는 그 독출된 혼선제거함수를 이용하여 그 인식된 위치에 대한 혼선제거함수를 보간(interpolate)하고, 그 보간된 혼선제거함수를 출력한다.
필터 갱신부(280)는 필터의 혼선제거함수를 산출부(270)로부터 입력된 혼선제거함수로 갱신한다.
도 3은 도 2에 도시된 필터링부(220)의 본 발명에 의한 바람직한 일 실시예의 블록도로서, 복수의 필터(305), 제1 결합부(310), 및 제2 결합부(320)로 이루어진다. 여기서, 입력 단자 IN 2, IN 3은 스테레오 생성부(210)에서 생성된 오디오 신호(L1, R1)이 입력되는 단자를 의미한다.
복수의 필터(305)는 혼선제거함수
Figure 112006035185743-pat00007
를 이용하여 오디오 신호 L1으로부터 혼선을 제거하고, 혼선제거함수
Figure 112006035185743-pat00008
을 이용하여 오디오 신호 L1으로부터 혼선을 제거하고, 혼선제거함수
Figure 112006035185743-pat00009
을 이용하여 오디오 신호 R1으로부터 혼선을 제거하고, 혼선제거함수
Figure 112006035185743-pat00010
을 이용하여 오디오 신호 R1으로부터 혼선을 제거한다.
제1 결합부(310)는 혼선제거함수
Figure 112006035185743-pat00011
을 이용하여 혼선이 제거된 결과로부터 혼선제거함수
Figure 112006035185743-pat00012
을 이용하여 혼선이 제거된 결과를 감산하고, 감산된 결과를 오디오 신호 L2로서 출력 단자 OUT 1을 통해 출력한다.
제2 결합부(320)는 혼선제거함수
Figure 112006035185743-pat00013
을 이용하여 혼선이 제거된 결과로부터 혼선제거함수
Figure 112006035185743-pat00014
를 이용하여 혼선이 제거된 결과를 감산하고, 감산된 결과를 오디오 신호 R2로서 출력 단자 OUT 2를 통해 출력한다.
도 4a 및 도 4b는 도 2에 도시된 위치 인식부(230) 및 필터갱신요부 검사부(240)의 동작을 설명하기 위한 참고도들이다.
위치 인식부(230)는 촬상 수단(460, 470)을 이용하여 청취자(410)를 촬영하고, 청취자(410)의 그 촬영된 영상에서의 위치 정보를 획득할 수 있다. 또한, 위치 인식부(230)는 그 촬상 수단(460, 470)과 청취자(410)간의 거리에 관한 정보도 획득할 수 있다.
청취자(410)가 도 4a에 도시된 바와 같이 최적청취영역(450)에 위치한다면, 청취자(410)는 가상 음원(440)이 좌측 스피커(420)와 우측 스피커(430)의 중간 지점에 위치하는 것으로 인지할 수 있다. 그에 반해, 청취자(410)가 도 4a에 도시된 바와 달리 최적청취영역(450)에서 벗어난다면, 청취자(410)는 가상 음원(410)이 좌측 스피커(420) 또는 우측 스피커(430)에 치우친 것으로 인지하게 된다.
그러므로, 필터링부(220)의 필터가 청취자(410)의 움직임에 적응적으로 갱신된다면 즉, 혼선제거함수가 청취자(410)의 움직임에 적응적으로 갱신된다면, 아무리 이동 반경이 큰 청취자(410)라 할지라도, 청취자(410)는 가상 음원(410)이 좌측 스피커(420)와 우측 스피커(430)의 중간 지점에 위치하는 것으로 인지할 수 있다.
이를 위해, 필터갱신요부 검사부(240)는, 그 인식된 위치가 변경될 때마다 독출부(260)의 동작을 지시할 수도 있고, 그 인식된 위치가 최적청취영역(450)에서 벗어날 경우 독출부(260)의 동작을 지시할 수도 있다.
또는, 필터갱신요부 검사부(240)는, 그 인식된 위치가 필터유지영역(480)을 벗어날 경우 독출부(260)의 동작을 지시할 수도 있다. 여기서, 필터유지영역(480)이란 도 4b에 도시된 바와 같이, 최적청취영역(450)의 내부에 설정된 영역을 의미한다. 이 경우, 필터갱신요부 검사부(240)는 그 인식된 위치가 필터유지영역(480)에 존재하는지 검사할 수 있고, 그 결과, 그 인식된 위치가 필터유지영역(480)에 존재하지 않는다고 검사되면, 독출부(260)의 동작을 지시한다.
도 5a 및 도 5b는 도 2에 도시된 저장부(250), 독출부(260) 및 산출부(270)의 동작을 설명하기 위한 참고도들이다. 도시된 바에서, 식별번호 510은 최적청취영역(450)을 포함한 임의의 영역을 의미하고, 식별번호 530은 위치 인식부(230)에서 인식된 위치를 의미한다.
본 발명의 제1 실시예에 의하면, 저장부(250)는 하나 이상의 위치(520) 각각에 대한 머리전달함수를 저장한다. 그에 반해, 본 발명의 제2 실시예에 의하면, 저장부(250)는 하나 이상의 위치(520) 각각에 대한 혼선제거함수를 저장한다.
도 5b를 본 발명의 제1 실시예의 관점에서 설명하면, 저장부(250)에는 그 인식된 위치(530)에 대한 머리전달함수가 존재하지 않으며, 독출부(260)는 그 인식된 위치(530)와 일직선상에 위치한 두 위치(520) 각각에 대한 머리전달함수를 독출한다.
이 경우, 산출부(270)는 두 개의 그 독출된 머리전달함수를 이용하여 그 인 식된 위치(530)에 대한 머리전달함수를 보간한다. 만일, d1과 d2가 동일하다면, 산출부(270)는 두 개의 그 독출된 머리전달함수를 평균하고, 평균한 결과를 그 인식된 위치(530)에 대한 머리전달함수로서 결정한다.
한편, 도 5b를 본 발명의 제2 실시예의 관점에서 설명하면, 저장부(250)에는 그 인식된 위치(530)에 대한 혼선제거함수가 존재하지 않으며, 독출부(260)는 그 인식된 위치(530)와 일직선상에 위치한 두 위치(520) 각각에 대한 혼선제거함수를 독출한다.
이 경우, 산출부(270)는 두 개의 그 독출된 혼선제거함수를 이용하여 그 인식된 위치(530)에 대한 혼선제거함수를 보간한다. 만일, d1과 d2가 동일하다면, 산출부(270)는 두 개의 그 독출된 혼선제거함수를 평균하고, 평균한 결과를 그 인식된 위치(530)에 대한 혼선제거함수로서 결정한다.
도 6은 도 2에 도시된 산출부(270)의 본 발명에 의한 제1 실시예(270A)의 블록도로서, 시차 제거부(610), 머리전달함수 보간부(620), 시차 산출부(630), 시차 생성부(640), 및 혼선제거함수 산출부(650)로 이루어진다.
시차 제거부(610)는 입력 단자 IN 4를 통해 입력된 그 독출된 머리전달함수 각각에서 시차(ITD: Inter-aural Time Difference)를 제거한다. 동일한 음원이라도 그 음원의 소리가 좌측 귀에 도달하는 데 소요되는 시간과 우측 귀에 도달하는 데 소요되는 시간은 상이할 수 있다. 즉, 동일한 음원이라도 그 음원의 소리는 좌측 귀와 우측 귀에 시차를 두고 도달할 수 있다. 이러한 시차는 청취자의 위치 특히, 음원에 대한 청취자의 상대적인 위치에 따라 다르다. 다만, 본 명세서 상에서 음원 의 위치는 설명의 편의상, 고정되어 있다고 가정한다. 결국, 저장부(250)에 저장된 머리전달함수는 그러한 시차가 고려되어 결정된 머리전달함수이다. 즉, 머리 위치가 동일한 그 저장된 머리전달함수
Figure 112006035185743-pat00015
,
Figure 112006035185743-pat00016
,
Figure 112006035185743-pat00017
,
Figure 112006035185743-pat00018
에서, "
Figure 112006035185743-pat00019
,
Figure 112006035185743-pat00020
"와 "
Figure 112006035185743-pat00021
,
Figure 112006035185743-pat00022
"간에는 시차가 존재할 수 있다. 이처럼, "
Figure 112006035185743-pat00023
,
Figure 112006035185743-pat00024
"와 "
Figure 112006035185743-pat00025
,
Figure 112006035185743-pat00026
"간에 시차가 존재할 수 있다는 것은, 저장부(250)에 저장된 모든 머리전달함수에 대해 마찬가지이다. 시차 제거부(610)는 그 독출된 머리전달함수 각각마다 시차를 제거한다.
머리전달함수 보간부(620)는 시차가 제거된 그 머리전달함수를 이용하여, 그 인식된 위치에 대한 머리전달함수를 보간한다. 즉, 머리전달함수 보간부(620)에서 수행되는 보간은 시간 영역상의 보간이 아닌, 공간 영역상의 보간임이 바람직하다.
시차 산출부(630)는 그 인식된 위치에 관한 정보를 입력 단자 IN 6을 통해 입력한다. 그 후, 시차 산출부(630)는 그 인식된 위치에서 발생 가능한 시차를 산출한다. 즉, 시차 산출부(630)는 그 인식된 위치에 청취자의 머리가 위치할 경우, 그 청취자의 좌측 귀와 우측 귀간에 발생할 것으로 예상되는 시차를 산출한다.
시차 생성부(640)는 그 산출된 시차를 그 보간된 머리전달함수에 생성한다. 이로써, 그 보간된 머리전달함수의 "
Figure 112006035185743-pat00027
,
Figure 112006035185743-pat00028
"와 "
Figure 112006035185743-pat00029
,
Figure 112006035185743-pat00030
"간에는 그 산출된 시차가 존재하게 된다.
혼선제거함수 산출부(650)는 그 산출된 시차가 존재하는 그 생성된 머리전달함수의 역함수를 산출하고, 산출된 역함수를 그 인식된 위치에 대한 혼선제거함수로서 출력 단자 OUT 3을 통해 출력한다.
도 7은 도 2에 도시된 산출부(270)의 본 발명에 의한 제2 실시예(270B)의 블록도로서, 시차 제거부(710), 혼선제거함수 보간부(720), 시차 산출부(730), 및 시차 생성부(740)로 이루어진다.
시차 제거부(610)는 입력 단자 IN 5를 통해 입력된 그 독출된 혼선제거함수 각각에서 시차를 제거한다. 저장부(250)에 저장된 머리전달함수가 시차가 고려되어 결정된 머리전달함수인 것과 마찬가지로, 저장부(250)에 저장된 혼선제거함수는 그러한 시차가 고려되어 결정된 혼선제거함수이다. 즉, 머리 위치가 동일한 그 저장된 혼선제거함수
Figure 112006035185743-pat00031
,
Figure 112006035185743-pat00032
,
Figure 112006035185743-pat00033
,
Figure 112006035185743-pat00034
에서, "
Figure 112006035185743-pat00035
,
Figure 112006035185743-pat00036
"와 "
Figure 112006035185743-pat00037
,
Figure 112006035185743-pat00038
"간에는 시차가 존재할 수 있다. 이처럼, "
Figure 112006035185743-pat00039
,
Figure 112006035185743-pat00040
"와 "
Figure 112006035185743-pat00041
,
Figure 112006035185743-pat00042
"간에는 시차가 존재할 수 있다는 것은, 저장부(250)에 저장된 모든 혼선제거함수에 대해 마찬가지이다. 시차 제거부(610)는 그 독출된 혼선제거함수 각각마다 시차를 제거한다.
혼선제거함수 보간부(620)는 시차가 제거된 그 혼선제거함수를 이용하여, 그 인식된 위치에 대한 혼선제거함수를 보간한다. 즉, 혼선제거함수 보간부(620)에서 수행되는 보간은 시간 영역상의 보간이 아닌, 공간 영역상의 보간임이 바람직하다.
시차 산출부(630)는 그 인식된 위치에 관한 정보를 입력 단자 IN 7을 통해 입력한다. 그 후, 시차 산출부(630)는 그 인식된 위치에서 발생 가능한 시차를 산출한다. 즉, 시차 산출부(630)는 그 인식된 위치에 청취자의 머리가 위치할 경우, 그 청취자의 좌측 귀와 우측 귀간에 발생할 것으로 예상되는 시차를 산출한다.
시차 생성부(640)는 그 산출된 시차를 그 보간된 혼선제거함수에 생성한다. 이로써, 그 보간된 혼선제거함수의 "
Figure 112006035185743-pat00043
,
Figure 112006035185743-pat00044
"와 "
Figure 112006035185743-pat00045
,
Figure 112006035185743-pat00046
"간에는 시차가 존재하게 된다. 또한, 시차 생성부(640)는 그 산출된 시차를 그 보간된 혼선제거함수에 생성하고, 생성된 결과를 그 인식된 위치에 대한 혼선제거함수로서 출력 단자 OUT 4를 통해 출력한다.
도 8은 본 발명에 의한 혼선제거방법을 설명하기 위한 플로우챠트로서, 복수의 채널 각각의 오디오 신호로부터 혼선을 제거하는 필터를 청취자의 움직임에 적응적으로 갱신하는 단계들(제810~ 850 단계들)로 이루어진다.
위치 인식부(230)는 청취자의 위치를 인식한다(제810 단계).
제810 단계 후에, 필터갱신요부 검사부(240)는 제810 단계에서 인식된 위치가 최적청취영역에 존재하는가 판단한다(제820 단계). 이러한 제820 단계는, 도시된 바와 같이, 제810 단계에서 인식된 위치가 최적청취영역에 존재하는가를 판단할 수도 있고, 도시된 바와 달리, 제810 단계에서 인식된 위치가 필터유지영역에 존재하는가를 판단할 수도 있다.
제820 단계에서 존재하지 않는다고 판단되면, 산출부(270)는 제810 단계에서 인식된 위치에 대한 혼선제거함수를 구한다(제830 단계). 제830 단계 후에, 필터 갱신부(280)는 필터의 혼선제거함수를 제830 단계에서 구해진 혼선제거함수로 갱신한다(제840 단계).
제840 단계 후에, 또는 제820 단계에서 존재한다고 판단되면, 필터링부(220)는 필터의 혼선제거함수를 이용하여, 복수의 채널 각각의 오디오 신호로부터 혼선을 제거한다(제850 단계).
도 9는 도 8에 도시된 제830 단계에 대한 본 발명에 의한 제1 실시예(830A)의 플로우챠트로서, 제810 단계에서 인식된 위치에 대한 혼선제거함수를 구하는 단계들(제910~ 960 단계들)로 이루어진다.
독출부(260)는 제810 단계에서 인식된 위치에 상응하는 하나 이상의 머리전달함수를 저장부(250)에서 독출한다(제910 단계).
제910 단계 후에, 시차 제거부(610)는 제910 단계에서 독출된 머리전달함수 각각에서 시차를 제거하고(제920 단계), 머리전달함수 보간부(620)는 그 시차가 제거된 머리전달함수를 이용하여, 제810 단계에서 인식된 위치에 대한 머리전달함수를 보간한다(제930 단계).
제930 단계 후에, 시차 산출부(630)는 제810 단계에서 인식된 위치에서 발생 가능한 시차를 구하고(제940 단계), 시차 생성부(640)는 제940 단계에서 구해진 시차를 제930 단계에서 보간된 머리전달함수에 생성한다(제950 단계).
제950 단계 후에, 혼선제거함수 산출부(650)는 제950 단계에서 생성된 머리전달함수의 역함수를 구하고, 구해진 역함수를 제810 단계에서 인식된 위치에 대한 혼선제거함수로서 결정하고 제840 단계로 진행한다(제960 단계).
도 10은 도 8에 도시된 제830 단계에 대한 본 발명에 의한 다른 실시예(830B)의 플로우챠트로서, 제810 단계에서 인식된 위치에 대한 혼선제거함수를 구하는 단계들(제1010~ 1050 단계들)로 이루어진다.
독출부(260)는 제810 단계에서 인식된 위치에 상응하는 하나 이상의 혼선제거함수를 저장부(250)에서 독출한다(제1010 단계).
제1010 단계 후에, 시차 제거부(610)는 제1010 단계에서 독출된 혼선제거함수 각각에서 시차를 제거하고(제1020 단계), 혼선제거함수 보간부(620)는 그 시차가 제거된 혼선제거함수를 이용하여, 제810 단계에서 인식된 위치에 대한 혼선제거함수를 보간한다(제1030 단계).
제1030 단계 후에, 시차 산출부(630)는 제810 단계에서 인식된 위치에서 발생 가능한 시차를 구하고(제1040 단계).
제1040 단계 후에, 시차 생성부(640)는 제1040 단계에서 구해진 시차를 제1030 단계에서 보간된 혼선제거함수에 생성하고, 생성된 결과를 제810 단계에서 인식된 위치에 대한 혼선제거함수로서 결정하고 제840 단계로 진행한다(제1050 단계).
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브 (예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상 도면과 명세서에서 최적 실시예들이 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의 미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
이상에서 설명한 바와 같이, 본 발명에 의한 혼선제거장치 및 방법은, 복수의 채널 각각의 오디오 신호로부터 혼선을 제거하는 필터를 청취자의 움직임에 적응적으로 갱신하므로, 청취자가 움직이더라도 청취자가 혼선을 느낄 수 없도록 하는 효과를 갖는다. 그러므로, 본 발명에 의하면, 청취자는 음원이 항상 일정한 위치에 있는 것으로 인지할 수 있다. 이로써, 본 발명은 청취자에게 고품질의 입체 음향을 제공하는 효과를 갖는다. 나아가, 본 발명은 하나 이상의 위치 각각에 대한 머리전달함수(또는 혼선제거함수)를 미리 저장하고, 그 하나 이상의 위치 이외의 위치에 대한 머리전달함수(또는 혼선제거함수)는 그 저장된 머리전달함수(또는 혼선제거함수)를 이용하여 보간하므로, 가능한 모든 위치 각각에 대한 머리전달함수(또는 혼선제거함수)가 아닌 일부 위치에 대한 머리전달함수(또는 혼선제거함수)만 미리 저장하고 있을지라도, 청취자의 위치가 어느 위치인지에 관계없이 그 위치에 적응적으로 필터를 갱신하는 효과를 갖는다.

Claims (15)

  1. 복수의 채널 각각의 오디오 신호로부터 혼선을 제거하는 혼선제거장치에 있어서,
    청취자의 위치를 인식하는 위치 인식부;
    상기 인식된 위치에 대한 혼선제거함수를 산출하는 산출부; 및
    상기 산출된 결과를 이용하여 상기 혼선을 제거하는 필터링부를 포함하는 것을 특징으로 하는 혼선제거장치.
  2. 제1 항에 있어서, 상기 혼선제거장치는
    상기 인식된 위치가 최적청취영역에 존재하는지 검사하는 검사부를 더 포함하고,
    상기 산출부는 상기 검사된 결과에 응답하여 동작하는 것을 특징으로 하는 혼선제거장치.
  3. 제1 항에 있어서, 상기 혼선제거장치는
    상기 인식된 위치가 최적청취영역 내에 설정된 필터유지영역에 존재하는지 검사하는 검사부를 더 포함하고,
    상기 산출부는 상기 검사된 결과에 응답하여 동작하는 것을 특징으로 하는 혼선제거장치.
  4. 제1 항에 있어서, 상기 혼선제거장치는
    하나 이상의 위치 각각에 대한 머리전달함수를 저장하는 저장부; 및
    상기 인식된 위치에 상응하는 하나 이상의 머리전달함수를 상기 저장된 머리전달함수에서 독출하는 독출부를 더 포함하고,
    상기 산출부는 상기 독출된 머리전달함수를 이용하여 상기 인식된 위치에 대한 머리전달함수를 보간하고, 보간된 결과를 이용하여 상기 혼선제거함수를 산출하는 것을 특징으로 하는 혼선제거장치.
  5. 제4 항에 있어서, 상기 산출부는
    상기 독출된 머리전달함수에서 시차를 제거하는 시차 제거부;
    상기 시차가 제거된 머리전달함수를 이용하여 상기 인식된 위치에 대한 머리전달함수를 보간하는 머리전달함수 보간부;
    상기 인식된 위치에서 발생 가능한 시차를 산출하는 시차 산출부;
    상기 산출된 시차를 상기 보간된 머리전달함수에 생성하는 시차 생성부; 및
    상기 시차가 생성된 머리전달함수를 이용하여 상기 혼선제거함수를 산출하는 혼선제거함수 산출부를 포함하는 것을 특징으로 하는 혼선제거장치.
  6. 제1 항에 있어서, 상기 혼선제거장치는
    하나 이상의 위치 각각에 대한 혼선제거함수를 저장하는 저장부; 및
    상기 인식된 위치에 상응하는 하나 이상의 혼선제거함수를 상기 저장된 혼선제거함수에서 독출하는 독출부를 더 포함하고,
    상기 산출부는 상기 독출된 혼선제거함수를 이용하여 상기 인식된 위치에 대한 혼선제거함수를 보간하고, 상기 필터링부는 상기 보간된 결과를 이용하여 상기 혼선을 제거하는 것을 특징으로 하는 혼선제거장치.
  7. 제6 항에 있어서, 상기 산출부는
    상기 독출된 혼선제거함수에서 시차를 제거하는 시차 제거부;
    상기 시차가 제거된 혼선제거함수를 이용하여 상기 인식된 위치에 대한 혼선제거함수를 보간하는 혼선제거함수 보간부;
    상기 인식된 위치에서 발생 가능한 시차를 산출하는 시차 산출부; 및
    상기 산출된 시차를 상기 보간된 혼선제거함수에 생성하는 시차 생성부를 포함하고,
    상기 필터링부는 상기 시차가 생성된 혼선제거함수를 이용하여 상기 혼선을 제거하는 것을 특징으로 하는 혼선제거장치.
  8. 복수의 채널 각각의 오디오 신호로부터 혼선을 제거하는 혼선제거방법에 있어서,
    (a) 청취자의 위치를 인식하는 단계;
    (b) 상기 인식된 위치에 대한 혼선제거함수를 구하는 단계; 및
    (c) 상기 구해진 결과를 이용하여 상기 혼선을 제거하는 단계를 포함하는 것을 특징으로 하는 혼선제거방법.
  9. 제8 항에 있어서, 상기 혼선제거방법은
    상기 (a) 단계 후에, 상기 인식된 위치가 최적청취영역에 존재하는가 판단하는 단계; 및
    상기 인식된 위치가 최적청취영역에 존재하지 않는다고 판단되면, 상기 (b) 단계로 진행하는 단계를 더 포함하는 것을 특징으로 하는 혼선제거방법.
  10. 제8 항에 있어서, 상기 혼선제거방법은
    상기 (a) 단계 후에, 상기 인식된 위치가 최적청취영역 내에 설정된 필터유지영역에 존재하는가 판단하는 단계; 및
    상기 인식된 위치가 상기 필터유지영역에 존재하지 않는다고 판단되면, 상기 (b) 단계로 진행하는 단계를 더 포함하는 것을 특징으로 하는 혼선제거방법.
  11. 제8 항에 있어서, 상기 혼선제거방법은
    상기 인식된 위치에 상응하는 하나 이상의 머리전달함수를 미리 마련된 머리전달함수에서 독출하는 단계를 더 포함하고,
    상기 (b) 단계는 상기 독출된 머리전달함수를 이용하여 상기 인식된 위치에 대한 머리전달함수를 보간하고, 보간된 결과를 이용하여 상기 혼선제거함수를 구하 는 것을 특징으로 하는 혼선제거방법.
  12. 제11 항에 있어서, 상기 (b) 단계는
    상기 독출된 머리전달함수에서 시차를 제거하는 단계;
    상기 시차가 제거된 머리전달함수를 이용하여 상기 인식된 위치에 대한 머리전달함수를 보간하는 단계;
    상기 인식된 위치에서 발생 가능한 시차를 구하는 단계;
    상기 구해진 시차를 상기 보간된 머리전달함수에 생성하는 단계; 및
    상기 시차가 생성된 머리전달함수를 이용하여 상기 혼선제거함수를 구하는 단계를 포함하는 것을 특징으로 하는 혼선제거방법.
  13. 제8 항에 있어서, 상기 혼선제거방법은
    상기 인식된 위치에 상응하는 하나 이상의 혼선제거함수를 미리 마련된 혼선제거함수에서 독출하는 단계를 더 포함하고,
    상기 (b) 단계는 상기 독출된 혼선제거함수를 이용하여 상기 인식된 위치에 대한 혼선제거함수를 보간하고, 상기 (c) 단계는 상기 보간된 결과를 이용하여 상기 혼선을 제거하는 것을 특징으로 하는 혼선제거방법.
  14. 제13 항에 있어서, 상기 (b) 단계는
    상기 독출된 혼선제거함수에서 시차를 제거하는 단계;
    상기 시차가 제거된 혼선제거함수를 이용하여 상기 인식된 위치에 대한 혼선제거함수를 보간하는 단계;
    상기 인식된 위치에서 발생 가능한 시차를 구하는 단계; 및
    상기 구해진 시차를 상기 보간된 혼선제거함수에 생성하는 단계를 포함하고,
    상기 (c) 단계는 상기 시차가 생성된 혼선제거함수를 이용하여 상기 혼선을 제거하는 것을 특징으로 하는 혼선제거방법.
  15. 복수의 채널 각각의 오디오 신호로부터 혼선을 제거하는 혼선제거방법에 있어서,
    (a) 청취자의 위치를 인식하는 단계;
    (b) 상기 인식된 위치에 대한 혼선제거함수를 구하는 단계; 및
    (c) 상기 구해진 결과를 이용하여 상기 혼선을 제거하는 단계를 포함하는 혼선제거방법을 수행하는 컴퓨터 프로그램을 저장하는 컴퓨터로 읽을 수 있는 기록매체.
KR1020060045342A 2006-05-19 2006-05-19 혼선제거장치 및 방법 KR100718160B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020060045342A KR100718160B1 (ko) 2006-05-19 2006-05-19 혼선제거장치 및 방법
US11/704,269 US8958584B2 (en) 2006-05-19 2007-02-09 Apparatus, method, and medium for removing crosstalk

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060045342A KR100718160B1 (ko) 2006-05-19 2006-05-19 혼선제거장치 및 방법

Publications (1)

Publication Number Publication Date
KR100718160B1 true KR100718160B1 (ko) 2007-05-14

Family

ID=38270741

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060045342A KR100718160B1 (ko) 2006-05-19 2006-05-19 혼선제거장치 및 방법

Country Status (2)

Country Link
US (1) US8958584B2 (ko)
KR (1) KR100718160B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2031905A3 (en) * 2007-08-31 2010-02-17 Samsung Electronics Co., Ltd. Sound processing apparatus and sound processing method thereof
WO2014021492A1 (ko) * 2012-07-30 2014-02-06 건국대학교 산학협력단 공간 분할을 이용한 위치 의존형 누화 제거 방법

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7640000B2 (en) * 2005-12-10 2009-12-29 Electronics And Telecommunications Research Institute Apparatus and method for cancellation of partially overlapped crosstalk signals
EP2326108B1 (en) * 2009-11-02 2015-06-03 Harman Becker Automotive Systems GmbH Audio system phase equalizion
JP5964311B2 (ja) 2010-10-20 2016-08-03 ディーティーエス・エルエルシーDts Llc ステレオイメージ拡張システム
US11140502B2 (en) * 2013-03-15 2021-10-05 Jawbone Innovations, Llc Filter selection for delivering spatial audio
US10419870B1 (en) * 2018-04-12 2019-09-17 Sony Corporation Applying audio technologies for the interactive gaming environment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040103168A (ko) * 2003-05-31 2004-12-08 주식회사 대우일렉트로닉스 스피커 시스템
KR20050053313A (ko) * 2003-12-02 2005-06-08 소니 가부시끼 가이샤 음장 재생장치 및 음장 공간 재생 시스템

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3258195B2 (ja) * 1995-03-27 2002-02-18 シャープ株式会社 音像定位制御装置
US6243476B1 (en) * 1997-06-18 2001-06-05 Massachusetts Institute Of Technology Method and apparatus for producing binaural audio for a moving listener
JP4735920B2 (ja) 2001-09-18 2011-07-27 ソニー株式会社 音響処理装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040103168A (ko) * 2003-05-31 2004-12-08 주식회사 대우일렉트로닉스 스피커 시스템
KR20050053313A (ko) * 2003-12-02 2005-06-08 소니 가부시끼 가이샤 음장 재생장치 및 음장 공간 재생 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2031905A3 (en) * 2007-08-31 2010-02-17 Samsung Electronics Co., Ltd. Sound processing apparatus and sound processing method thereof
WO2014021492A1 (ko) * 2012-07-30 2014-02-06 건국대학교 산학협력단 공간 분할을 이용한 위치 의존형 누화 제거 방법

Also Published As

Publication number Publication date
US20070269061A1 (en) 2007-11-22
US8958584B2 (en) 2015-02-17

Similar Documents

Publication Publication Date Title
KR100718160B1 (ko) 혼선제거장치 및 방법
JP6466968B2 (ja) インフォームド空間のフィルタリングに基づく矛盾しない音響場面再生のためのシステムおよび装置および方法
US11968520B2 (en) Efficient spatially-heterogeneous audio elements for virtual reality
US9674629B2 (en) Multichannel sound reproduction method and device
CN106576203B (zh) 确定和使用房间优化传输函数
EP2502228B1 (en) An apparatus and a method for converting a first parametric spatial audio signal into a second parametric spatial audio signal
KR100739798B1 (ko) 청취 위치를 고려한 2채널 입체음향 재생 방법 및 장치
US9749767B2 (en) Method and apparatus for reproducing stereophonic sound
US10492017B2 (en) Audio signal processing apparatus and method
EP1830604A1 (en) Acoustic image locating device
CN111434126B (zh) 信号处理装置和方法以及程序
US11317233B2 (en) Acoustic program, acoustic device, and acoustic system
US9807534B2 (en) Device and method for decorrelating loudspeaker signals
KR100647338B1 (ko) 최적 청취 영역 확장 방법 및 그 장치
KR20060026730A (ko) 청취 위치를 고려한 2채널 가상 음향 재생 방법 및 장치
CN102812731A (zh) 用于再现三维声音的方法和设备
US20070121951A1 (en) Method and apparatus to reproduce expanded sound using mono speaker
JPH08182100A (ja) 音像定位方法および音像定位装置
KR20220038478A (ko) 공간 변환 도메인에서 음장 표현을 처리하기 위한 장치, 방법 또는 컴퓨터 프로그램
JP5754595B2 (ja) トランスオーラルシステム
US8923536B2 (en) Method and apparatus for localizing sound image of input signal in spatial position
KR101546849B1 (ko) 주파수 영역에서의 음장효과 생성 방법 및 장치
Villegas et al. Pure-data-based transaural filter with range control
Renhe DESC9115: Digital Audio Systems-Final Project

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130429

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140429

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150429

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160428

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20170427

Year of fee payment: 11

LAPS Lapse due to unpaid annual fee