KR100598003B1 - 오디오 신호 처리 방법 및 장치 - Google Patents

오디오 신호 처리 방법 및 장치 Download PDF

Info

Publication number
KR100598003B1
KR100598003B1 KR1020007010622A KR20007010622A KR100598003B1 KR 100598003 B1 KR100598003 B1 KR 100598003B1 KR 1020007010622 A KR1020007010622 A KR 1020007010622A KR 20007010622 A KR20007010622 A KR 20007010622A KR 100598003 B1 KR100598003 B1 KR 100598003B1
Authority
KR
South Korea
Prior art keywords
audio
signals
signal
frequency domain
impulse response
Prior art date
Application number
KR1020007010622A
Other languages
English (en)
Other versions
KR20010042169A (ko
Inventor
맥그라쓰데이비드스텐리
맥키그아담리차드
디킨즈글랜노먼
카트라이트리차드제임스
레일리앤드류피터
Original Assignee
레이크 테크놀로지 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AUPP2595A external-priority patent/AUPP259598A0/en
Priority claimed from AUPP2709A external-priority patent/AUPP270998A0/en
Priority claimed from AUPP2710A external-priority patent/AUPP271098A0/en
Priority claimed from AUPP7164A external-priority patent/AUPP716498A0/en
Application filed by 레이크 테크놀로지 리미티드 filed Critical 레이크 테크놀로지 리미티드
Publication of KR20010042169A publication Critical patent/KR20010042169A/ko
Application granted granted Critical
Publication of KR100598003B1 publication Critical patent/KR100598003B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S3/004For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Algebra (AREA)
  • Stereophonic System (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Signal Processing Not Specific To The Method Of Recording And Reproducing (AREA)
  • Input Circuits Of Receivers And Coupling Of Receivers And Audio Equipment (AREA)

Abstract

청취자 주위의 소정 지점에 위치한 가상 오디오 소스 열(series)을 나타내는 입력 오디오 신호 열을 처리하여 청취자 주위에 위치한 스피커 장치들을 통해 재생하기 위한 오디오 출력 신호들의 감소된 집합을 생성하기 위한 방법에 있어서, (a) 입력 오디오 신호들 각각 및 오디오 출력 신호들 각각에 대하여: (i) 입력 오디오 신호들을, 초기 사운드(initial sound) 및 상응하는 가상 오디오 소스의 임펄스 응답을 위한 조기 반영들(early reflections)을 실질적으로 상응하는 스피커 장치로 매핑하여 초기 응답 열을 형성하기 위한 상응하는 임펄스 응답의 초기 헤드 부분(head portion)과 함께 콘볼루션하는 단계; (b) 입력 오디오 신호들 각각 및 오디오 출력 신호들 각각에 대하여: (i) 오디오 입력 신호들로부터 결합된 혼합물(mix)을 형성하는 단계; 및 (ii) 단일 콘볼루션 테일(convolution tail)을 결정하는 단계; (iii) 결합된 혼합물을 단일 콘볼루션 테일과 함께 콘볼루션하여 결합된 테일 응답을 형성하는 단계; 및 (c) 오디오 출력 신호들 각각에 대하여: (i) 상응하는 초기 응답 열 및 상응하는 결합된 테일 응답을 결합하여 오디오 출력 신호를 형성하는 단계를 구비하는 것을 특징으로 하는 오디오 신호 열 처리 방법.

Description

오디오 신호 처리 방법 및 장치{Audio signal processing method and apparatus}
본 발명은 오디오 신호 처리 분야에 관한 것이며, 특히 입력 오디오 신호를 임펄스 응답 함수들 또는 그와 같은 것들과 함께 콘볼루션하기 위한 효과적인 콘볼루션 방법을 개시한다.
국제 PCT 출원 번호 제 PCT/AU93/00330호로서 발명의 명칭은 "고정밀 고효율의 디지털 필터(Digital Filter Having High Accuracy and Efficiency)"이며 본 출원인에 의하여 출원된 특허출원에서, 정확한 임펄스 응답 함수의 효과적인 긴 구간 콘볼루션(long convolution)이 가능할 뿐만 아니라 매우 낮은 레이턴시(latency)를 갖는 콘볼루션 프로세스가 개시되어 있다.
오디오 신호에 "색"을 추가하여, 예를 들어 헤드폰을 통해 재생할 경우 신호가 "머리 밖에서" 들리는 것과 같은 효과를 내도록 하기 위하여 임펄스 응답 함수의 콘볼루션이 사용된다는 것이 알려졌다. 불행하게도, 콘볼루션 프로세스는 고속 푸리에 변환(FFT)과 같은 진보된 알고리즘을 채택하는 기술을 적용하더라도 과도한 계산 시간을 요구한다. 다중 채널들이 독립적으로 콘볼루션 되어야 할 경우 이러한 계산 사양은 증가되는데, 이러한 경우는 최대 서라운드 사운드 기능이 요구될 경우 와 유사하다. 현재의 디지털 신호 프로세서(DSP)들은 신호를 완전히 콘볼루션하기 위한 자원들을 제공할 수 없는데, 특히 콘볼루션의 레이턴시 내에 실시간의 제약이 부가되는 경우에는 더욱 그러하다.
그러므로, 콘볼루션 프로세스의 전체 품질은 실질적으로 유지하면서도 전 콘볼루션 시스템의 프로세스 사양을 감소시킬 필요가 있었다.
본 발명의 일 측면에 따르면, 청취자 주위의 소정 지점에 위치한 가상 오디오 소스 열(series)을 나타내는 입력 오디오 신호 열을 처리하여 청취자 주위에 위치한 스피커 장치들을 통해 재생하기 위한 오디오 출력 신호들의 감소된 집합을 생성하기 위한 방법이 개시된다. 본 발명의 일 측면에 따른 오디오 신호 열 처리 방법은, (a) 입력 오디오 신호들 각각 및 오디오 출력 신호들 각각에 대하여: (i) 입력 오디오 신호들을, 초기 사운드(initial sound) 및 상응하는 가상 오디오 소스의 임펄스 응답을 위한 조기 반영들(early reflections)을 실질적으로 상응하는 스피커 장치로 매핑하여 초기 응답 열을 형성하기 위한 상응하는 임펄스 응답의 초기 헤드 부분(head portion)과 함께 콘볼루션하는 단계; (b) 입력 오디오 신호들 각각 및 오디오 출력 신호들 각각에 대하여: (i) 오디오 입력 신호들로부터 결합된 혼합물(mix)을 형성하는 단계; 및 (ii) 단일 콘볼루션 테일(convolution tail)을 결정하는 단계; (iii) 결합된 혼합물을 단일 콘볼루션 테일과 함께 콘볼루션하여 결합된 테일 응답을 형성하는 단계; 및 (c) 오디오 출력 신호들 각각에 대하여: (i) 상응하는 초기 응답 열 및 상응하는 결합된 테일 응답을 결합하여 오디오 출력 신호 를 형성하는 단계를 구비하는 것을 특징으로 한다.
단일 콘볼루션 테일은 상응하는 임펄스 응답들의 테일들을 결합하여 형성될 수 있다. 또는, 단일 콘볼루션 테일은 가상 스피커 테일 임펄스 응답들 중 선택된 하나일 수 있다. 이상적으로는, 본 발명의 일면에 따른 오디오 신호 열 처리방법은, 임펄스 응답 함수들을 사전 처리하는 단계들을 더 구비하는데, 그 단계들은 다음과 같다. 즉, (a) 상응하는 임펄스 응답 함수들의 집합을 구성하는 단계; (b) 상기 임펄스 응답 함수들을 다수 개의 세그먼트들(segment)로 분주하는 단계; 및 (c) 상기 세그먼트들 중 소정 수의 세그먼트들에 대하여, 상기 세그먼트들의 말단부에서 임펄스 응답치를 감소시키는 단계들이다.
바람직하게는, 입력 오디오 신호들은 주파수 도메인으로 이동되고(translated), 콘볼루션은 주파수 도메인에서 수행되는 것이 바람직하다. 임펄스 응답 함수들은, 고주파 계수들을 0으로 만들고 0으로 된 고주파 계수들이 사용되는 승산 단계들은 삭제함으로 해서 주파수 도메인 내에서 단순화될 수 있다.
바람직하게는, 콘볼루션은 저 레이턴시(low latency) 콘볼루션 프로세스를 이용하여 수행된다. 바람직하게는, 저 레이턴시 콘볼루션 프로세스는, 입력 오디오 신호들의 제 1 소정의 중첩 블록 크기의 부분을 상응하는 주파수 도메인 입력 계수 블록들로 변환하는 단계; 임펄스 응답 신호들의 제 2 소정의 블록 크기의 부분을 상응하는 주파수 도메인 임펄스 계수 블록들로 변환하는 단계; 주파수 도메인 입력 계수 블록들의 각각을 상응하는 주파수 도메인 임펄스 계수 블록들의 소정 원소들(ones)과 함께 소정 방법으로 결합하여, 결합된 출력 블록들을 생성하는 단 계; 결합된 출력 블록들의 소정 원소들을 상호 가산하여 오디오 출력 신호들 각각을 위한 주파수 도메인 출력 응답들을 생성하는 단계; 주파수 도메인 출력 응답들을 상응하는 시간 도메인 오디오 출력 신호들로 변환하는 단계; 시간 도메인 오디오 출력 신호들의 부분을 폐기(discarding)하는 단계; 및 시간 도메인 오디오 출력 신호들의 남아 있는 부분을 출력하는 단계들을 포함할 수 있다.
본 발명의 다른 측면에 따르면, 청취자 주위의 소정 지점에 위치한 가상 오디오 소스 열을 나타내는 입력 오디오 신호 열을 처리하여 청취자 주위에 위치한 스피커 장치들을 통해 재생하기 위한 오디오 출력 신호들의 감소된 집합을 생성하기 위한 방법이 개시되는데, 본 발명의 다른 측면에 따른 이 방법은, (a) 상응하는 가상 오디오 소스를 상응하는 스피커 장치로 매핑하는 임펄스 응답 함수 열을 형성하는 단계; (b) 임펄스 응답 함수들을 다수 개의 세그먼트들로 분주하는 단계; 및 (c) 세그먼트들 중 소정 수의 세그먼트들에 대하여, 세그먼트들의 말단부에서 임펄스 응답치를 감소시켜 변형된 임펄스 응답들을 생성하는 단계; 및 (d) 입력 오디오 신호들 각각 및 오디오 출력 신호들 각각에 대하여: (i) 입력 오디오 신호들을, 상응하는 가상 오디오 소스를 상응하는 스피커 장치로 실질적으로 매핑하는 상응하는 변형된 임펄스 응답의 부분들과 함께 콘볼루션하는 단계를 구비하는 것을 특징으로 한다.
본 발명의 또다른 측면에 따르면, 상이한 제 1 사운드 소스들로부터의 오디오 신호들을 나타내는 다중 오디오 신호들을 동시에 콘볼루션하여 제 2 출력 사운드 소스 열로부터의 투사(projection)를 위한 오디오 환경(environment)을 시물레 이션하기 위한 방법이 개시되는데, 본 발명의 또다른 측면에 따른 이 방법은, (a) 다중 오디오 신호들 각각을, 오디오 환경 내에 위치할 때 실질적으로 제 1 사운드 소스들을 매핑하는 임펄스 응답 함수의 초기 부분과 함께 독립적으로 필터링하는 단계; 및 (b) 다중 오디오 신호들을, 임펄스 응답 함수들의 후속 부분들로부터 형성된 반사적(reverberation) 테일 필터를 가지고 결합된 반사적 테일 필터링하는 단계를 구비하는 것을 특징으로 한다.
필터링은 주파수 도메인 내의 콘볼루션에 의하여 발생할 수 있으며, 오디오 신호들은 우선 그 주파수 도메인으로 변환되는 것이 바람직하다. 입력 오디오 신호 열은 좌측 프론트 채널 신호, 우측 프론트 채널 신호, 프론트 중앙 채널 신호, 좌측 백(back) 채널 신호, 및 우측 백 채널 신호를 포함할 수 있다. 오디오 출력 신호들은 좌측 및 우측 헤드폰 출력 신호들을 구비할 수 있다.
본 발명은 다수의 상이한 방법으로 실장될 수 있다. 예를 들면, 시디-롬(CD-ROM) 플레이어 유니트 내에 위치한 스킵 방지형 프로세서(skip protection processor) 유니트를 이용하거나, 변형된 디지털-아날로그 컨버터의 형태를 구비하는 전용 집적 회로를 이용하거나, 아날로그-디지털 컨버터 및 디지털-아날로그 컨버터 간에 연결된 디에스피(DSP) 프로세서를 이용하여 실장될 수 있다. 또는, 본 발명은 사운드 출력 신호 발생기 및 한 쌍의 헤드폰 간에 연결된 개별적으로 분리 가능한 외부 장치를 이용하여 실장될 수도 있으며, 이 때의 사운드 출력 신호들은 외부 장치에 의하여 처리될 수 있도록 디지털 형태를 갖는다.
다른 변형에는 임펄스 응답 함수를 선결된 방식으로 변형하기 위한 가변 콘 트롤을 사용하는 것이 포함될 수 있다.
본 발명의 기술 범위에 포함될 수 있는 다른 형태들이 존재하지만, 본 발명의 바람직한 형태는 다음의 첨부된 도면을 참조하여 예시적 방법으로 설명될 것인데, 이 설명은 예시에 지나지 않는 것이다. 도면들은 다음과 같다.
도 1은 신호 열을 2 개의 헤드폰 출력 채널로 매핑하기 위한 콘볼루션 프로세스의 전 과정을 개략적으로 보여주는 도면이다.
도 2는 통상적인 중첩 및 저장 고속 푸리에 변환(FFT)을 도시하는 도면이다.
도 3은 바람직한 실시예에서 사용되는 저 레이턴시 프로세스를 도시하는 도면이다.
도 4는 포괄적(generic) 주파수 도메인 콘볼루션 프로세스를 구조적으로 예시하는 도면이다.
도 5는 도 4에 도시된 프로세스의 제 1 간략화를 도시하는 도면이다.
도 6은 헤드폰의 좌측 귀로 입력되는 입력 신호열의 이상적 처리를 도시하는 도면이다.
도 7은 도 6에 도시된 처리 요구 사항(requirement)의 제 1 간략화를 도시하는 도면이다.
도 8은 도 7에 도시된 장치를 저 레이턴시 콘볼루션을 이용하여 주파수 도메인에서 실장하는 것을 더 상세하게 도시하는 도면이다.
도 9는 주파수 도메인 계수를 유도하기 위한 일반 합성 프로세스를 도시하는 도면이다.
도 10은 주파수 도메인 계수 생성 과정의 변형된 형태를 도시하는 도면이다.
도 11은 고주파 오디오 데이터까지 바람직한 실시예를 확장하는 것을 도시하는 도면이다.
도 12는 현존하는 CD 플레이어의 스킵 방지 기능을 대신하여 오디오 처리 회로가 사용되는 실시예를 도시하는 도면이다.
도 13은 디지털-아날로그 컨버터와 같은 IC 패키지 내에 오디오 처리 회로가 사용되는 실시예를 도시하는 도면이다.
도 14는 디지털-아날로그 컨버터 이전의 신호 사슬(signal chain) 내에 오디오 처리 회로가 사용되는 실시예를 도시하는 도면이다.
도 15는 아날로그-디지털 컨버터 및 디지털-아날로그 컨버터와 함께 오디오 처리 회로가 사용되는 실시예를 도시하는 도면이다.
도 16은 도 17에 도시된 회로에 선택적 디지털 입력을 추가하기 위하여 확장하는 것을 도시하는 도면이다.
도 17은 본 발명의 가능한 물리적 실시예를 다수 도시하는 도면이다.
바람직한 실시예에서, 각 귀에 해당하는 입력 신호들을 임펄스 응답 함수들과 함께 전-길이 콘볼루션(full-long convolution)한 것을 근사화하여 출력들이 헤드폰을 통해 재생될 수 있도록 좌측 및 우측 귀들로 합산될 수 있도록 하는 것이 바람직하다.
도 1로 돌아가면, 좌측 프론트, 중앙 프론트, 우측 프론트, 좌측 서라운드, 우측 서라운드, 및 각각 포괄적으로 2로 지칭되는 저주파 효과 채널들을 구비하는 신호들의 6 입력 돌비(Dolby) 서라운드 사운드 집합을 전체 콘볼루션하는 프로세스가 도시되어 있다. 각 채널에, 좌측 및 우측 임펄스 응답 함수가 적용된다. 그러므로, 좌측 프론트 채널(3)에 대하여, 대응하는 좌측 프론트 임펄스 응답 함수(4)가 좌측 신호와 함께 콘볼루션된다(6). 좌측 임펄스 응답 함수(4)는, 이상적 위치에 놓인 좌측 프론트 채널 스피커로부터의 이상화된 스파이크(spike) 출력에 대한 응답으로서, 좌측 귀에 의하여 수신될 임펄스 응답이다. 출력(7)은 합산되어(10) 헤드폰의 좌측 채널 신호가 된다.
유사하게, 좌측 채널 스피커의 우측 귀를 위한 대응하는 임펄스 응답(5)은 좌측 프론트 신호와 함께 콘볼루션되어(8) 출력(9)을 생성하는데, 출력(9)은 합산되어(11) 좌측 채널로 전송된다. 유사한 프로세스가 다른 신호들 각각을 위하여 일어난다.
그러므로, 도 1에 도시된 장치는 6개의 입력 신호들을 위해 대략 12개의 콘볼루션 단계를 요구한다. 이러한 많은 단계의 콘볼루션은 디에스피(DSP) 칩에는 매우 부담이 되는 요소일 수 있으며 특히 바람직한 긴 구간 콘볼루션(long convolution)이 사용되는 디에스피(DSP) 칩에서는 더욱 그러하다.
도 2로 돌아가면, 일반적인 "중첩 및 저장(overlap and save)" 콘볼루션 프로세스가 도시되어 있는데, "중첩 및 저장" 콘볼루션 프로세스는 존 프로아키스(John Proakis) 및 디미티스 마놀라키스(Dimitis Manolakis)의 저서로서 맥밀란 출판 회사(McMillan Publishing Company)에서 1992년에 발행된 "디지털 신호 처리(Digital Signal Processing)"이라는 통상적인 저술에 자세히 설명되어 있다.
도 2에서 도시하는 통상적인 "중첩 및 저장" 방법(20) 내에서, 입력 신호(21)는 디지털화되고 N 개의 샘플 블록(22)들로 분주되는데, 여기서 N은 보통 2의 멱(power)이다. 유사하게, 길이가 N인 임펄스 응답(23)은 일반적으로 바람직한 환경 치수(environmental measurements)를 설정함으로써 결정되고, 0들을 덧붙여 길이가 2N으로 된다. 제 1 매핑(24)이 임펄스 응답(23)의 2N 블록들에 인가되어, 실수부 및 허수부 계수들을 갖는 N 개의 복소수들을 형성한다. 그러면, 고속 푸리에 변환(FFT)이 인가되어 N 개의 주파수 계수들을 생성한다. 단계(24)는 시초(begins) 및 추후 사용되기 위하여 저장되는 상응하는 주파수 도메인 계수들(25)을 생성하기 이전에 1회 실시될 수 있다.
위와 같은 단계가 수행된 후에, 입력 오디오의 길이가 2N인 블록들이 채택되고, 다시 고속 푸리에 변환(FFT)이 인가되어 2N 실수 입력치에 상응하는 주파수 도메인 데이터(28)를 결정한다. 그 다음, 데이터들의 집합 2개가 요소-대-요소(element-by-element)로 승산되어(30) 주파수 도메인 데이터(31)를 생성한다. 그러면, 역 푸리에 변환이 인가되어 2N 실수치들을 생성하는데, 첫 번째 N(34)은 폐기되고 두 번째 N(35)은 출력 오디오의 출력치(36)가 된다. 도 2에 도시된 프로세스는 일반적인 주파수 도메인 콘볼루션 프로세스로 잘 알려져 있다. 그렇지만, 불행히도 입력 데이터들이 블록으로 취합되어야 하는 제한요소 때문에, 및 고속 푸리에 변환(FFT) 프로세스는 한정되는 시간동안 일어나기 때문에(N의 값에 따라서, 처리 시간은 O(NlogN)이다), 초기 2N 입력치들이 제 1 고속 푸리에 변환(FFT)(27)에 인가되는 시점부터 후속 출력이 역 고속 푸리에 변환(FFT)(32)으로부터 출력되는 시점까지 특정 레이턴시 또는 지연이 존재한다. 이러한 지연 또는 레이턴시는 흔히 매우 바람직하지 않으며, 특히 실시간으로 모든 동작이 일어나야 하는 실시간 요구 사항이 충족되려면 더욱 바람직하지 않다.
언급된 바 있는 PCT 특허 출원번호 제 PCT/AU93/00330호에서, 특히 낮은 레이턴시를 갖는 콘볼루션 프로세스로서 실시간으로 사용되는데 적합한 콘볼루션 방법이 개시되었다. 독자들이 전술된 PCT 특허 출원을 참조하는 대신에, 도 3을 참조하여 저 레이턴시 프로세스에 대한 간략한 설명이 제시되는데, 도 3은 입력 신호가 고속 푸리에 변환(FFT) 주파수 도메인 중첩 프로세스(41)에 의해 우선 주파수 도메인으로 변환되는 저 레이턴시 프로세스의 기본 단계들을 예시한다(40). 주파수 도메인 데이터는 저장되고(42), 각 콘볼루션 "사이클(cycle)" 후에 후속 저장 블록들(예를 들어, 43, 44)에 전달된다. 주파수 도메인 데이터(예를 들어 42)는 우선 임펄스 응답 함수의 첫 번째 부분(first portion)에 상응하는 도메인 계수들(51)과 함께 상응하는 주파수 도메인 계수들(51)에 의하여 요소-대-요소로 승산된다(50).
동시에, 이전에 지연된 주파수 도메인 데이터(43)는 임펄스 응답 함수의 후속 부분에 상응하는 주파수 도메인 계수들(53)과 함께 승산된다(54). 또한, 이 단계는 임펄스 응답 함수의 나머지 동안 반복된다. 출력들은 요소-대-요소로 합산되 어(56) 전체 주파수 도메인 데이터를 생성하는데, 생성된 전체 주파수 도메인 데이터는 폐기된 데이터 절반과 함께 역 고속 푸리에 변환(FFT)되어 오디오 출력(58)을 생성한다. 도 3에 도시된 장치는 상당히 긴 구간의 콘볼루션을 저 레이턴시를 가지고 수행할 수 있도록 허용한다.
도 3에 도시된 일반적 프로세스는 도 1에 도시된 등가 전 프로세스(equivalent overall process)를 수행하는데도 사용될 수 있다. 이러한 과정이 도 4에 도시되어 있는데, 도 4에서 6 개의 입력 채널들(예를 들어 60) 각각은 우선 고속 푸리에 변환(FFT) 중첩 프로세스(61)를 이용하여 주파수 도메인으로 변환된다. 그러면, 각 채널들은 주파수 도메인에서 임펄스 응답 함수들에 상응하는 주파수 도메인 계수들과 결합된다(62). 주파수 도메인 프로세스(62)는 주파수 요소들을 서로 합산하여 좌측 및 우측 출력들(64, 65)을 형성하는 단계를 포함할 수도 있다. 최종적으로, 역 주파수 도메인 폐기 프로세스(66, 67)가 인가되어 좌측 및 우측 채널 출력들을 생성한다.
그러면, 수행되어야 할 콘볼루션의 횟수가 단순화되므로 요구되는 계산량이 실질적으로 감소하게 된다.
도 5로 돌아가면, 본 발명의 바람직한 실시예에서 수행되는 단순화의 일 형태가 도시되어 있는데, 이 형태에서 중앙 채널(70)은 이득 인자(71)에 의하여 승산되고 합산되어(72, 73) 각각 좌측 및 우측 채널이 된다. 유사하게, 저 주파수 효과 채널(71)의 일부가 다른 채널들 각각에 합산된다.
그러면, 신호들은 푸리에 변환 중첩 프로세서(75, 78)에 인가되고, 다수의 채널들은 계산적으로 집중적인(computationally intensive) 푸리에 변환 프로세스에 인가되는데, 푸리에 변환 프로세스는 6에서 4로 감소되었다. 그 다음, 주파수 도메인 프로세스(84)가 인가되어 출력들(79, 80)을 생성하는데, 출력들로부터 역 푸리에 변환 및 폐기 프로세스(82, 83)가 인가되어 좌측 및 우측 채널들을 남긴다.
도 6으로 돌아가면, 좌측 귀를 위하여 도 5에 도시된 프로세스를 수행한 후 발생하는 이상적인 전 결과물들이 개괄적으로 도시되어 있는데, 이 도면에는 4 개의 입력 신호들(90) 각각이 합산되어(95) 상응하는 출력 신호(96)를 생성하기 이전에 상응하는 전-길이(full length) 한정 임펄스 응답 필터(91-94)에 인가되는 것을 보여준다. 불행히도, 높은 레벨의 실현성을 얻기 위하여, 상당히 긴 임펄스 응답 함수들을 사용하는 것이 가끔 필요하다. 예를 들어, 대략 7000 개의 탭(tap)들을 갖는 탭 길이의 임펄스 응답 함수들은 일반적인 48kHz의 오디오 신호들에 생소하지 않다. 또한, 도 6에 도시된 장치에서, 초과적인 계산 요구사항들은 더 긴 길이를 갖는 필터들을 요구할 수 있다.
임펄스 응답 계수들의 자세히 분석하고, 다른 실험치들 몇 가지를 분석한 결과, 사운드 소스들을 정확히 국부화(localisation)하기 위해 필요한 모든 큐(cue)들은 직류 성분 및 최초 수 개의 반영들의 순서에서 얻어지며, 임펄스 응답의 나머지들은 음향 환경의 "크기" 및 "생동감"을 강조하기 위해서만 필요하다는 것이 알려졌다. 이러한 관찰 결과를 이용하여 각 응답들의 지시적(directional) 또는 "헤드(head)" 부분(예를 들어 최초의 1024 개의 탭들)을 반사적(reverberation) 또는 "테일(tail)" 부분으로부터 분리할 수 있다. "테일" 부분들은 상호 합산될 수 있는 데, 결과로 발생하는 필터는 개별 입력 신호들의 합산으로 여기될(excited) 수 있다. 이러한 단순화된 실장이 개괄적으로 도 7에 도시되어 있다(100). 헤드 필터들(101 내지 104)은 1024 탭의 짧은 필터들일 수 있고, 신호들은 합산되어(105) 대략 6000개의 탭들을 갖는 확장된 테일 필터에 공급되는데, 그 결과는 합산되어(109) 출력된다. 이러한 프로세스는 우측 귀를 위해서도 반복된다. 결합된 테일을 사용하면 다음 두 가지 방법에서 계산 요구량을 감소시킨다. 우선, 실시간으로 계산되어야 하는 콘볼루션 합산의 항들의 수가 명백히 감소한다. 이러한 항 수의 감소는 입력 채널들에 의하여 영향받는다. 두 번째로, 테일 필터 계산의 계산 레이턴시는 테일 필터의 첫 번째 탭을 헤드 필터들 각각의 최후 탭과 정렬할 수 있도록 짧기만 하면 된다. 중첩/가산, 중첩/저장, 또는 전술된 PCT 출원의 저 레이턴시 콘볼루션 알고리즘 등과 같은 블록 필터링 실장 기술이 사용되면, 이것은 선택적으로, 낮은 프레임 레이트(frame rate)에서 헤드들에 비하여 더 큰 블록들이 테일을 실장하기 위하여 사용될 수 있다는 것을 의미한다.
이제 도 8로 돌아가면, 도 8에는 도 7의 결합된 테일 시스템을 실장하는 주파수 도메인 처리의 전체 흐름도가 자세히 도시되어 있다. 도 8의 장치(110)는 도 5의 84와 같은 주파수 도메인 처리로서 동작하도록 의도된다. 전 시스템은 좌측 및 우측 채널들 각각의 출력을 위한 가산(111 및 112)을 포함한다. 4 개의 입력들은 프론트 좌측, 프론트 우측, 리어 좌측(rear left) 및 리어 우측이며, 입력들은 제 1 입력이 지연 저장 블록(113) 내에 저장되고 임펄스 응답(115)의 첫 번째 부분으로부터 유도된 주파수 도메인 계수들과 함께 승산되어(114) 그 출력이 합산기(111) 로 전송되는데, 이러한 과정은 입력들에 있어서 대칭적으로 수행된다. 우측 채널도 대칭적으로 처리되어 우측 채널 출력을 생성하는데, 본 명세서에서는 더 자세히 논의되지 않는다.
한 "사이클"이 수행된 후 지연된 블록(113)이 지연 블록(12)으로 전송된다. 디에스피(DSP) 프로그래밍 분야의 당업자들에게는 이러한 과정은 데이터 블록 포인터들을 단순히 재매핑(remapping)하는 과정을 구비한다는 것이 명백할 것이다. 다음 사이클동안, 계수들(121)은 블록(120) 내의 데이터와 함께 승산되고(122) 그 출력은 좌측 채널 합산기(111)로 전송된다. 계수들의 두 집합(115, 121)은 임펄스 응답 함수의 헤드 부분에 상응한다. 각 채널은 좌측 및 우측 출력 채널들을 위한 개별화된 헤드 함수들을 갖게 된다.
지연 블록들(120, 125, 126, 127)로부터 발생되는 출력들은 합산기(130)로 전송되는데, 합산된 결과는 지연 블록(131) 내에 저장된다. 지연 블록(131) 및 후속 지연 블록들(예를 들어 132, 133)들은 결합된 테일 필터를 실장하는데, 지연 블록(131)에 저장된 첫 번째 세그먼트는 계수들(137)과 함께 승산되어(136) 좌측 채널 합산기(111)로 전송되도록 실장한다. 후속 사이클에서, 지연 블록(131)은 블록(132)으로 전송되고, 유사한 프로세스가 수행되는데, 이러한 동작이 남아있는 지연 블록(예를 들어 133) 각각에 대해서도 수행된다. 마찬가지로, 우측 채널 역시 대칭적으로 처리된다.
전술된 논의로부터, 바람직한 실시예의 장치에서 사용되는 임펄스 응답 함수들 및 임펄스 응답 함수들의 부분들이 다수 개 존재한다는 것이 명백해진다. 주파 수 도메인 계수 블록들의 프로세스의 계산을 더욱더 최적화하는 것은 도 9를 참조하면서부터 지금부터 설명된다. 요구되는 주파수 도메인 계수들을 결정하기 위하여, 임펄스 응답(140)은 길이가 N인 다 수의 세그먼트들(141)로 분주된다. 각 세그먼트들에는 N 복소수 데이터를 향한 고속 푸리에 변환(FFT) 매핑이 적용되기(143) 이전에 N 개의 0의 값을 갖는 데이터 값들(142)들이 추가되어 그 값들을 N 개의 주파수 도메인 계수들(144)로 변환하도록 한다. 이러한 프로세스는 후속 주파수 도메인 계수들(145, 146, 147)들을 얻기 위하여 반복될 수 있다.
도 9에 도시된 세그먼트화(segmentation)를 사용하는 방법은 가끔 인공적인 고주파 도메인 성분들을 그 결과로서 발생시킨다. 이것은 세그먼트화 프로세스 및 세그먼트화 프로세스 및 고속 푸리에 변환의 상호작용으로서, 최종 데이터 값에 존재하는 불연속성(고속 푸리에 변환(FFT)은 데이터 크기의 주기적 모듈로(modulo)이다)을 근사화하는 주파수 성분들을 발생할 수 밖에 없는 상호작용의 직접적인 결과물이다. 결과물인 고속 푸리에 변환(FFT)은 가끔 이러한 불연속성의 결과로 실질적으로 존재하는 매우 높은 주파수 성분을 갖는다. 바람직한 실시예에서, 공정은 전술한 고주파수 성분을 계산의 실질적 양이 0의 주파수 도메인 성분들의 집합에 의하여 폐기될 수 있도록 하는 지점까지 감소시킬 수 있도록 수행되어야 한다. 대역 제한(band limited) 주파수 도메인 계수 블록들을 생성하는 프로세스는 도 10을 참조하여 논의된다.
최초 임펄스 응답(150) 역시 길이가 N인 세그먼트들(151)로 분주된다. 그러면, 각 세그먼트들에는 0이 추가되어 각 세그먼트의 길이가 2N이 된다(152). 그러 면, 데이터(152)는 경사진 말단 부분들(156, 157)을 포함하는 "윈도우(windowing)" 함수(153)에 의하여 승산된다(154). 양 말단부분들은 말단부 사이의 정보는 유지하면서 데이터 열(151)의 말단부들을 진폭이 0인 값들로 매핑하도록 설계된다. 결과적으로 발생하는 출력(159)은 두 지점(160, 161)의 0 값들을 포함한다. 그러면, 출력(159)은 실수 고속 푸리에 변환(FFT) 프로세스에 인가되어 주파수 도메인 계수(165)를 생성하는데, 주파수 도메인 계수(165)는 폐기될 수 있는 다수의 미미한 성분들(166)에 덧붙여 푸리에 변환의 저주파 도메인에 있는 다수의 더 큰 계수들(167)을 갖는다. 그러므로, 주파수 도메인 성분들(169)의 최종적인 부분 집합은 임펄스 응답 데이터의 상응하는 부분을 나타내는 주파수 도메인 성분들처럼 사용된다.
성분들(166)을 폐기한다는 것은, 콘볼루션 프로세스 동안 제한된 형태의 콘볼루션 처리만이 수행될 필요가 있으며 N 개의 복소수 계수들의 실질적인 갯수는 0이므로 그 복소수 계수들의 전체 집합을 승산하는 것이 불필요하다는 것을 의미한다. 또한, 이 사실은 콘볼루션 프로세스의 계산 요구량이 제한되는 증가된 효율 이득들로 나타난다. 덧붙여서, 이렇게 계수들을 폐기함으로써, 데이터 및 계수 저장 모두가 감소된다는 사실을 이용하면 알고리즘에 따른 메모리 요구량을 상당량 감소시키는 것이 역시 가능하다.
바람직한 한 실시예에서, N은 512이고, 헤드 필터들은 그 길이에서 1024 개의 탭들을 가지며, 테일 필터들은 6144 개의 탭들을 갖는다. 따라서, 헤드 필터들 각각은 계수들의 2 블록들로 구성되고(도 8에 도시된 바와 같이) 테일 필터들은 각 각 12 개의 계수 블록들로 구성된다. 이러한 바람직한 실시예에서, 모든 헤드 필터들 및 각 테일 필터의 첫 번째 4 개의 블록들은 계수 푸리에 변환의 완전 집합을 이용함으로써 실장되고, 각 테일 필터의 다음 4 개의 블록들은 주파수 성분들의 낮은 절반들만이 존재하는 계수 블록들을 이용함으로써 실장되며, 각 테일 필터의 나머지 4 개의 블록들은 주파수 성분의 낮은 4 분의 1 만이 존재하는 계수 블록들을 이용하여 실장된다.
바람직한 실시예는 고주파 오디오 입력들이 사용될 수 있는 상황으로까지 확장될 수 있으나, 저주파 계산 요구량을 유지하는 것이 바람직하다. 예를 들어, 현재 당업계에서 디지털 샘플들에 대하여 96KHz의 샘플링 레이트(sampling rate)를 채택하는 것은 통용되는데, 그러므로 동일한 레이트로 샘플링된 임펄스 응답들을 콘볼루션하는 것이 바람직하다. 도 11로 돌아가면, 더 낮은 임펄스 응답 샘플링 레이트를 이용하는 확장의 한 형태가 도시되어 있다. 본 장치에서, 96 KHz의 레이트를 갖는 입력 신호(170)는 지연 버퍼(171)로 전송된다. 또한, 입력 신호는 저역 통과 필터링되어(172) 인자 2 만큼 다운되어 레이트가 48KHz가 되며, 그 결과는 샘플링 레이트가 2 배가 되고(175) 저역 통과 필터링되기(176) 이전에 이미 개략적으로 설명된 시스템에 따라서 한정 임펄스 응답(FIR) 필터링된 후, 그 출력이 이득 인자(A)에 의하여 사전-승산되는(178) 지연 버퍼(171)로부터 출력되는 원조 지연된 입력 신호에 가산된다(177). 가산기(177)의 출력은 콘볼루션된 디지털 출력을 형성한다.
일반적으로, 만약 96KHz의 임펄스 응답이 h96(t)으로 표시된다면, 48KHz의 한 정 임펄스 응답(FIR) 계수들은 h48(t)로 표시되며 LowPass[h96(t)]로부터 구해질 수 있는데, 여기서 표시 방법 LowPass[h96(t)]는 원래의 임펄스 응답 h96(t)가 저역 통과 필터링되었음을 의미한다. 그러나, 도 11에 도시된 향상된 방법에 따르면, 만일 바람직한 응답이 h96(t)로 표시되고, 지연된 임펄스 응답이 A.δ(t-τ)로 표시된다면, 48KHz의 한정 임펄스 응답(FIR) 계수는 LowPass[h96(t)- A.δ(t-τ)]로부터 구해질 수 있다. 지연 인자 τ및 이득 인자 A를 선택하는 것은, 이득 요소(178)로부터 결과적으로 발생하는 신호가 96KHz의 음향 임펄스 응답의 직접-도착 부분(direct arrival part)내에 요구되는 고주파 성분을 생성하도록 정확한 도착 시간 및 진폭을 갖도록 이루어져야 한다. 또한, 지연 및 이득(Delay and Gain) 장치를 사용하는 대신에, 다중 광대역 형태의 및 광 주파수 형태의 반향들을 생성하도록 산재한(sparse) 한정 임펄스 응답(FIR)을 사용하는 것 역시 가능하다.
그러므로, 바람직한 실시예는 전(full) 콘볼루션 시스템의 특징들의 갯수를 실질적으로 유지하면서 계산량을 줄이는 콘볼루션 시스템을 제공한다는 것을 알 수 있다.
바람직한 실시예는 돌비 프로로직(Dolby Prologic), 돌비 디지털(AC-3) 및 디티에스(DTS)와 같은 다중-채널 디지털 입력 신호 또는 서라운드 사운드 입력 신호를 채택하고, 하나 이상의 헤드폰 셋을 출력으로 사용한다. 입력 신호는 전술된 기술들을 이용하여 양이적(兩耳的, binaurally)으로 처리되어, 광범위한 소스 매체들 상에서 헤드폰을 통하여 청취하는 감흥을 개선하여, 음향이 "머리 밖에서" 들리 는 것 같이 하거나 또는 증가된 서라운드 사운드 청취 효과를 제공한다.
"머리 밖에서" 들리는 것과 같은 효과를 생성하기 위한 처리 기술이 주어지면, 처리를 수행하기 위한 시스템은 여러 가지 상이한 실시예를 사용하도록 제공될 수 있다. 예를 들어, 여러 가지 상이한 물리적으로 가능성이 있는 실시예들이 채택 가능하고, 그 결과는 아날로그 또는 디지털 신호 처리 기법 또는 그 둘의 결합 기법을 사용하여 실장될 수 있다.
순전히 디지털로만 구성한 실장예에서, 입력 데이터는 디지털 타임-샘플 형태로 인가된다고 가정된다. 만약 이러한 실시예가 콤팩트 디스크(CD), 미니 디스크(MiniDisc), 디지털 비디오 디스크(DVD), 또는 디지털 오디오 테이프(DAT)와 같은 디지털 오디오 장치의 일부로써 실장되었으면, 입력 데이터는 이미 이러한 디지털 타임-샘플 형태를 띠게 된다. 만일 그 유니트가 자체적인 물리적 장치의 형태로 실장되었으면, 그 유니트는 디지털 수신기(SPDIF 또는 이와 유사한 것, 광학적 이건 전기적이건 관계없음)를 포함할 수 있다. 만약 본 발명이 아날로그 입력 신호만이 사용 가능한 형태로 실장되었다면, 이러한 아날로그 신호는 아날로그-디지털 변환기(ADC)를 사용하여 디지털화 되어야 한다.
그러면, 이러한 디지털 입력 신호는 몇 가지 형태의 디지털 신호 프로세서(DSP)에 의하여 처리된다. 사용될 수 있는 디지털 신호 프로세서(DSP)의 예들에는 다음과 같은 것들이 있다.
1. 그 작업 전용의 디지털 신호 프로세서(DSP)로서 설계된 세미-커스텀(semi-custom) 또는 전-커스텀(full-custom) 집적 회로.
2. 예를 들어, 모토롤라 DSP56002와 같은 프로그램 가능한 디지털 신호 프로세서(DSP) 칩.
3. 하나 또는 그 이상의 프로그램 가능한 논리 장치들
실시예가 특정 세트의 헤드폰들과 함께 사용되어야 하는 경우에는, 임펄스 응답 함수들의 필터링 과정이 더 인가되어 그 헤드폰들에 존재할지도 모르는 바람직하지 않은 주파수 응답 특성들을 보상하기 위하여 사용될 수 도 있다.
처리가 종료된 후에는, 스테레오 디지털 출력 신호들은 디지털-아날로그 변환기를 이용하여 아날로그 신호들로 변환되고, 필요하다면 증폭되며, 다른 회로들을 통하여 스테레오 헤드폰 출력 신호로 전송된다. 이러한 최종 스테이지는, 실시예가 내장형인 경우에는 오디오 장치 내에서 발생할 수도 있고 실시예가 개별 장치의 일부인 경우에는 그렇게 실장되어야 한다.
아날로그-디지털 변환기(ADC) 및/또는 디지털-아날로그 변환기(DAC)는 프로세서와 같은 동일 집적회로 상에 내장될 수도 있다. 어떤 실시예는 처리 과정을 일부 또는 전부가 아날로그 도메인에서 수행되도록 실장될 수도 있다. 실시예들은 "양이 효과 생성기(binauraliser)" 효과를 스위치 온 또는 스위치 오프할 수 있는 어떤 방법을 포함하는 것이 바람직하며, 상이한 헤드폰 세트들을 위한 이퀄라이저 세팅들 사이를 스위칭 하거나 또는 처리 작업이 수행되는 중에 다른 가변 기기 들을 제어할 수 있는 수단(아마도 출력 음량을 포함)을 내장할 수도 있다.
도 12에 도시된 제 1 실시예에서, 처리 과정은 스킵 방지형 아이시(IC)를 대체하는 휴대형 시디 또는 디브이디 플레이어 내에 내장된다. 현재 사용 가능한 많은 시디 플레이어들은 시디로부터 도출된 데이터를 임의 접근 메모리(RAM) 내에 저장하는 "스킵-방지(skip-protection)" 기능을 내장한다. 만약 "스킵 현상"이 감지되면, 즉, 오디오 스트림이 유니트가 트랙을 벗어나는 메커니즘에 의하여 중단되면, 유니트는 램(RAM)에 저장되어 있던 데이터를 이용하여 시디가 플레이를 계속하는 동안 데이터를 시디로부터 재독출한다. 이러한 스킵-방지 기능은 자주 전용 디지털 신호 프로세서(DSP)의 형태로 실장되는데, 이러한 디지털 신호 프로세서(DSP)는 램을 칩 내부에 내장하고 있거나 칩 외부에 구비한다.
이러한 실시예는 스킵 방지형 프로세서를 현존하는 설계에 최소한의 변동만을 가함으로 해서 대치하여 사용될 수 있도록 실장된다. 이러한 실장은 전-커스텀 집적 회로의 형태로 실장되기가 쉬운데, 이러한 집적 회로는 현존하는 스킵-방지형 프로세서 및 "머리 밖에서" 처리하는 실장의 기능을 모두 수행한다. 스킵-방지 기능을 위해 포함된 램의 일부는 HRTF 방식의 처리를 위한 "머리 밖에서" 효과를 주는 알고리즘을 수행하기 위하여 사용될 수도 있다. 스킵 방지형 프로세서의 구성 블록 중 다수는 본 발명을 위해 설명된 처리를 수행하기 위하여도 유용할 수 있다. 이러한 장치의 한 예시가 도 12에 도시되어 있다.
본 예시적 실시예에서는, 커스텀 디지털 신호 프로세서(DSP)(200)는 시디 또는 디브이디 플레이어(202) 내의 스킵-방지형 디지털 신호 프로세서(DSP)를 대체하여 제공된다. 커스텀 디지털 신호 프로세서(DSP)(200)는 디스크로부터 입력 데이터를 수신하고 스테레오 신호들을 디지털-아날로그 변환기(201)로 출력하는데, 디지털-아날로그 변환기(201)는 좌측 및 우측 스피커 출력들을 제공하기 위하여 증폭되 는(204, 205) 아날로그 출력들을 제공한다. 커스텀 디지털 신호 프로세서(DSP)는 보드 상의 램(206) 또는 선택적으로 요구 조건에 부합하는 보드 외부의 램(207)을 포함할 수 있다. 양이 효과 생성기 스위치(28)가 양이 효과를 턴온 및 턴오프 시키기 위하여 제공될 수 있다.
도 13에 도시된 제 2 실시예에서, 처리 기능은 디지털-아날로그 변환기(DAC)를 대체하는 디지털 오디오 장치(210)(시디, 미니디스크, 디브이디 또는 디에이티 플레이어와 같은) 내에 내장된다. 이러한 실장형태에서 신호 처리는 디지털-아날로그 변환기를 내장하는 전용 집적 회로(211)에 의하여 수행된다. 집적 회로(211)는 현존 설계에 사소한 변형만을 가하여도 디지털 오디오 장치 내에 용이하게 내장시킬 수 있는데 그 이유는 집적 회로가 현존하는 디지털-아날로그 변환기들과 거의 일치하게 호환(virtually pin compatible)될 수 있기 때문이다.
커스텀 아이시(211)는 보드 상의 디지털 신호 프로세서(DSP) 코어(212) 및 일반 디지털-아날로그 변환 설비(213)를 포함한다. 커스텀 아이시는 일반 디지털 데이터 출력을 수신하여, 스테레오 출력을 제공하기 위하여 디지털 신호 프로세서(DSP)(212) 및 디지털-아날로그 변환기(213)를 통하여 처리를 수행한다. 마찬가지로, 양이 효과를 제어하기 위한 양이 효과 생성기 스위치(214)가 제공되는 것이 요구될 수도 있다.
도 14에 도시된 제 3 실시예에서, 처리 기능은 디지털 신호열의 외부 스테이지(221) 형태로 디지털 오디오 장치(210)(시디, 미니디스크, 디브이디 또는 디에이티 플레이어와 같은) 내에 내장된다. 이러한 실장형태에서 신호 처리는 디지털 오 디오 장치 내에 탑재되고 디지털-아날로그 변환기(222) 이전에 스테레오 디지털 신호 열에 삽입되는 전용 또는 프로그램 가능한 디지털 신호 프로세서(DSP)(221)에 의하여 수행된다.
도 14에 도시된 제 3 실시예에서, 처리 기능은 아날로그 신호열의 외부 스테이지 형태로 오디오 장치(개인 카세트 플레이어 또는 스테레오 라디오 수신기(230)와 같은) 내에 내장된다. 이러한 실시예는 아날로그 입력 신호들을 이용하기 위하여 아날로그-디지털 변환기(232)를 사용한다. 이러한 실시예는 아날로그-디지털 변환기(232), 디지털 신호 프로세서(DSP)(233), 및 디지털-아날로그 변환기(234)를 내장하는 단일 집적 회로(231) 상에 제조되기가 쉽다. 집적 회로(231)는 또한 다른 아날로그 프로세서를 내장할 수도 있다. 아날로그 프로세서는 카세트 플레이어 및 유사한 장치들의 현존하는 설계 내의 아날로그 신호 열 내에 용이하게 추가될 수 있다.
도 16에 도시된 제 5 실시예에서, 처리 기능은 디지털 형태의 스테레오 입력과 함께 사용하기 위하여 외부 장치의 형태로 실장될 수도 있다. 본 실시예는 독자적인 기능을 갖는 물리적 유니트의 형태를 가지거나, 본 명세서에서 전술된 바와 같이 헤드폰 셋 내로 집적될 수도 있다. 본 실시예는 배터리를 사용할 수도 있고, 또는 외부 직류 전원 서플라이로부터 전력을 공급받을 수도 있다. 본 장치는 어떤 시디 및 디브이디 플레이어 또는 그와 유사한 광학적 또는 전기적 형태의 장치들 내로 디지털 스테레오 입력을 수신할 수 있다. 입력 형식은 SPDIF 또는 이와 유사한 것일 수 있고, 유니트는 돌비 디지털 AC-3, 또는 디티에스(DTS)와 같은 서라운 드 사운드 형식을 지원할 수도 있다. 본 장치는 또한 다음에 설명되는 바와 같이 아날로그 입력을 가질 수도 있다. 처리 과정은 커스텀 아이시(IC, 242)내의 디지털 신호 프로세서(DSP) 코어(241)에 의하여 수행된다. 디지털 신호 프로세서(DSP) 코어(241) 다음에는 디지털-아날로그 변환기(243)가 위치한다. 만약 디지털-아날로그 변환기가 헤드폰을 직접 구동시킬 수 없으면, 추가적인 증폭기들(246, 247)이 디지털-아날로그 변환기 다음에 추가된다. 본 발명의 이러한 실시예는 디지털-아날로그 변환기, 디지털-아날로그 변환기, 및 존재할 수 있는 헤드폰 증폭기 등을 내장하는 커스텀 집적 회로(242) 상에 실장될 수 있다.
또는, 본 실시예는 독자적인 물리적 유니트의 형태로 실장될 수도 있고, 또는 헤드폰 세트 내로 집적될 수도 있다. 본 실시예는 배터리를 사용할 수도 있고, 또는 외부 직류 전원 서플라이로부터 전력을 공급받을 수도 있다. 본 장치는 아날로그 스테레오 입력을 수신하여 수신된 신호를 아날로그-디지털 변환기를 통해 디지털 데이터로 변환한다. 그러면, 변환된 데이터는 디지털 신호 프로세서(DSP)를 이용하여 처리되고 디지털-아날로그 변환기를 통하여 다시 아날로그 데이터로 변환된다. 처리 과정 중 일부 또는 전부가 아날로그 도메인에서 수행될 수도 있다. 이러한 실시예는 디지털-아날로그 변환기, 디지털-아날로그 변환기, 및 존재할 수 있는 헤드폰 증폭기 및 요구되는 어떠한 형태의 아날로그 처리 회로 등을 내장하는 커스텀 집적 회로 상에 실장될 수 있다.
본 실시예는 청취자로 하여금 지각되는 거리 또는 사운드 소스의 환경을 변화시킬 수 있게 하는 거리 조절 또는 "배율(zoom)" 조절 기능을 내장할 수도 있다.
본 발명의 바람직한 실시예에서, 이러한 조절 기능은 슬라이더 조절기(slider control)의 형태로 실장된다. 이러한 조절 기능이 최소치로 조절되면, 사운드는 귀에서 매우 가까운 거리로부터 전달되는 것처럼 느껴지고, 사실상 양이 효과가 부여되지 않은 스테레오가 될 수 있다. 조절 기능이 최대치로 설정되면, 사운드는 먼 거리로부터 전달되는 것처럼 지각된다. 이렇듯 사운드의 지각되는 "머리 밖에서" 효과를 제어하기 위하여 조절 과정은 양 끝 값의 사이에서 이루어진다. 조절기를 최소 위치에서부터 최대치로 움직여가면, 사용자는 단순히 양이 효과 생성기 온-오프 스위치를 사용할 경우보다 양이 효과를 더 빨리 조절할 수 있다. 이러한 제어기의 실장은 상이한 거리를 위한 필터 응답의 상이한 집합을 이용하는 것을 포함한다.
슬라이더 메커니즘을 가지는 실시예의 예시들이 도 17에 도시된다. 선택적으로, 오디오 환경을 위하여 추가적인 제어기들이 더 제공될 수도 있다.
더 나아가, 어떤 실시예는 이전에 집적 회로를 포함하는 광범위한 응용례들에 적합한 개괄적인 집적 회로 솔루션의 형태로 실장될 수도 있다. 이러한 동일한 집적 회로는 헤드폰 출력을 갖는 오디오 장치의 거의 모든 개체에 내장될 수 있다. 이것은 또는 본 발명의 실장으로서 특히 생성되는 물리적 유니트 모두의 기초적인 구성 블록일 수 있다. 이러한 집적 회로는 아날로그-디지털 변환기, 디지털 신호 프로세서(DSP), 디지털-아날로그 변환기, 메모리 I2S 스테레오 디지털 오디오 입력, S/PDIF 디지털 오디오 입력, 헤드폰 증폭기 및 콘트롤 핀들 중 일부 또는 전부를 포함하여 장치가 상이한 모드들(예를 들어 아날로그 또는 디지털 입력)에서 동작하도록 허용할 수 있다.
당업자들에게는 다양한 변화 및/또는 변형이 폭넓게 진술된 본 발명의 기술적 사상과 기술 범위를 벗어나지 않은 채 특정 실시예 내에 나타난 본 발명에 가해지는 것이 가능하다는 것이 인식될 수 있을 것이다. 그러므로, 본 실시예들은 예시적인 관점에서 고려되어야 하며 한정적으로 고려되어서는 안 된다.

Claims (27)

  1. 청취자 주위의 소정 지점에 위치한 가상 오디오 소스 열(series)을 나타내는 입력 오디오 신호 열을 처리하여 청취자 주위에 위치한 스피커 장치들을 통해 재생하기 위한 오디오 출력 신호들의 감소된 집합을 생성하기 위한 방법에 있어서,
    (a) 상기 입력 오디오 신호들 각각 및 상기 오디오 출력 신호들 각각에 대하여:
    (i) 상기 입력 오디오 신호들을, 초기 사운드(initial sound) 및 상응하는 가상 오디오 소스의 임펄스 응답을 위한 조기 반영들(early reflections)을 실질적으로 상응하는 스피커 장치로 매핑하여 초기 응답 열을 형성하기 위한 상응하는 임펄스 응답의 초기 헤드 부분(head portion)과 함께 콘볼루션하는 단계;
    (b) 상기 입력 오디오 신호들 각각 및 상기 오디오 출력 신호들 각각에 대하여:
    (i) 상기 오디오 입력 신호들로부터 결합된 혼합물(mix)을 형성하는 단계; 및
    (ii) 단일 콘볼루션 테일(convolution tail)을 결정하는 단계;
    (iii) 상기 결합된 혼합물을 상기 단일 콘볼루션 테일과 함께 콘볼루션하여 결합된 테일 응답을 형성하는 단계; 및
    (c) 상기 오디오 출력 신호들 각각에 대하여:
    (i) 상응하는 초기 응답 열 및 상응하는 결합된 테일 응답을 결합하여 상기 오디오 출력 신호를 형성하는 단계를 구비하는 것을 특징으로 하는 오디오 신호 열 처리 방법.
  2. 제 1항에 있어서, 상기 단일 콘볼루션 테일은 상기 상응하는 임펄스 응답들의 테일들을 결합하여 형성되는 것을 특징으로 하는 오디오 신호 열 처리 방법.
  3. 제 1항에 있어서, 상기 임펄스 응답 함수들을:
    (a) 상응하는 임펄스 응답 함수들의 집합을 구성하는 단계;
    (b) 상기 임펄스 응답 함수들을 다수 개의 세그먼트들(segment)로 분주하는 단계; 및
    (c) 상기 세그먼트들 중 소정 수의 세그먼트들에 대하여, 상기 세그먼트들의 말단부에서 임펄스 응답치를 감소시키는 단계들을 이용하여 사전 처리(preprocessing)하는 단계를 더 구비하는 것을 특징으로 하는 오디오 신호 열 처리 방법.
  4. 제 1항 내지 제 3항 중 어느 한 항에 있어서, 상기 입력 오디오 신호들은 주파수 도메인으로 이동되고(translated), 상기 콘볼루션은 주파수 도메인에서 수행되는 것을 특징으로 하는 오디오 신호 열 처리 방법.
  5. 제 4항에 있어서, 상기 임펄스 응답 함수들은,
    고주파 계수들을 0으로 만들고 0으로 된 상기 고주파 계수들이 사용되는 승산 단계들은 삭제함으로 해서 주파수 도메인 내에서 단순화되는 것을 특징으로 하는 오디오 신호 열 처리 방법.
  6. 제 1항에 있어서, 상기 콘볼루션은 저 레이턴시(low latency) 콘볼루션 프로세스를 이용하여 수행되는 것을 특징으로 하는 오디오 신호 열 처리 방법.
  7. 제 6항에 있어서, 상기 저 레이턴시 콘볼루션 프로세스는,
    상기 입력 오디오 신호들의 제 1 소정의 중첩 블록 크기의 부분을 상응하는 주파수 도메인 입력 계수 블록들로 변환하는 단계;
    상기 임펄스 응답 신호들의 제 2 소정의 블록 크기의 부분을 상응하는 주파수 도메인 임펄스 계수 블록들로 변환하는 단계;
    상기 주파수 도메인 입력 계수 블록들의 상기 각각을 상기 상응하는 주파수 도메인 임펄스 계수 블록들의 소정 원소들(ones)과 함께 소정 방법으로 결합하여, 결합된 출력 블록들을 생성하는 단계;
    상기 결합된 출력 블록들의 소정 원소들을 상호 가산하여 상기 오디오 출력 신호들 각각을 위한 주파수 도메인 출력 응답들을 생성하는 단계;
    상기 주파수 도메인 출력 응답들을 상응하는 시간 도메인 오디오 출력 신호들로 변환하는 단계;
    상기 시간 도메인 오디오 출력 신호들의 부분을 폐기(discarding)하는 단계; 및
    상기 시간 도메인 오디오 출력 신호들의 남아 있는 부분을 출력하는 단계들을 포함하는 것을 특징으로 하는 오디오 신호 열 처리 방법.
  8. 청취자 주위의 소정 지점에 위치한 가상 오디오 소스 열을 나타내는 입력 오디오 신호 열을 처리하여 청취자 주위에 위치한 스피커 장치들을 통해 재생하기 위한 오디오 출력 신호들의 감소된 집합을 생성하기 위한 방법에 있어서,
    (a) 상응하는 가상 오디오 소스를 상응하는 스피커 장치로 매핑하는 임펄스 응답 함수 열을 형성하는 단계;
    (b) 상기 임펄스 응답 함수들을 다수 개의 세그먼트들로 분주하는 단계; 및
    (c) 상기 세그먼트들 중 소정 수의 세그먼트들에 대하여, 상기 세그먼트들의 말단부에서 임펄스 응답치를 감소시켜 변형된 임펄스 응답들을 생성하는 단계; 및
    (d) 상기 입력 오디오 신호들 각각 및 상기 오디오 출력 신호들 각각에 대하여:
    (i) 상기 입력 오디오 신호들을, 상응하는 가상 오디오 소스를 상응하는 스피커 장치로 실질적으로 매핑하는 상응하는 변형된 임펄스 응답의 부분들과 함께 콘볼루션하는 단계를 구비하는 것을 특징으로 하는 오디오 신호 열 처리 방법.
  9. 상이한 제 1 사운드 소스들로부터의 오디오 신호들을 나타내는 다중 오디오 신호들을 동시에 콘볼루션하여 제 2 출력 사운드 소스 열로부터의 투사(projection)를 위한 오디오 환경(environment)을 시물레이션하기 위한 방법에 있어서,
    (a) 상기 다중 오디오 신호들 각각을, 상기 오디오 환경 내에 위치할 때 실질적으로 제 1 사운드 소스들을 매핑하는 임펄스 응답 함수의 초기 부분과 함께 독립적으로 필터링하는 단계; 및
    (b) 상기 다중 오디오 신호들을, 상기 임펄스 응답 함수들의 후속 부분들로부터 형성된 반사적(reverberation) 테일 필터를 가지고 결합된 반사적 테일 필터링하는 단계를 구비하는 것을 특징으로 하는 오디오 환경 시물레이션 방법.
  10. 제 9항에 있어서, 상기 다중 오디오 신호들은 의도된(intended) 청취자를 감싸기 위한 결합된 서라운드 사운드 신호를 제공하는 것을 특징으로 하는 오디오 환경 시물레이션 방법.
  11. 제 10항에 있어서, 상기 필터링은 주파수 도메인 내의 콘볼루션에 의하여 발생하며, 상기 오디오 신호들은 우선 상기 주파수 도메인으로 변환되는 것을 특징으로 하는 오디오 환경 시물레이션 방법.
  12. 제 8항에 있어서, 상기 입력 오디오 신호 열은 좌측 프론트 채널 신호, 우측 프론트 채널 신호, 프론트 중앙 채널 신호, 좌측 백 채널 신호, 및 우측 백 채널 신호를 포함하는 것을 특징으로 하는 오디오 신호 열 처리 방법.
  13. 제 8항에 있어서, 상기 오디오 출력 신호들은 좌측 및 우측 헤드폰 출력 신호들을 구비하는 것을 특징으로 하는 방법.
  14. 제 8항에 있어서, 상기 방법은 시디-롬 플레이어 유니트 내에 위치한 스킵 방지형 프로세서를 사용하여 수행되는 것을 특징으로 하는 방법.
  15. 제 8항에 있어서, 상기 방법은 변형된 형태의 디지털-아날로그 변환기를 구비하는 전용 집적 회로를 사용하여 수행되는 것을 특징으로 하는 방법.
  16. 제 8항에 있어서, 상기 방법은 전용 또는 프로그램 가능한 디지털 신호 프로세서를 이용하여 수행되는 것을 특징으로 하는 방법.
  17. 제 8항에 있어서, 상기 방법은 아날로그-디지털 변환기 및 디지털-아날로그 변환기 간에 연결된 디지털 신호 프로세서에 의하여 아날로그 입력들에 대하여 수행되는 것을 특징으로 하는 방법.
  18. 제 8항에 있어서, 상기 방법은 사운드 출력 신호 발생기 및 헤드폰 쌍 사이에 연결된 개별적으로 분리 가능한 외부 장치 상의 스테레오 출력 신호들에 대하여 수행되며, 상기 사운드 출력 신호들은 상기 외부 장치에 의하여 처리되기 위하여 디지털 형태로 출력되는 것을 특징으로 하는 방법.
  19. 제 8항에 있어서, 임펄스 응답 함수들을 소정 방법으로 변경(alter)하기 위한 가변 콘트롤을 사용하는 단계를 더 구비하는 것을 특징으로 하는 방법.
  20. 제 8항에 의한 방법을 실장한 장치.
  21. 제 1항에 있어서, 상기 단일 콘볼루션 테일은 상기 상응하는 임펄스 응답들의 테일들의 집합으로부터 하나의 임펄스 응답을 선택함으로써 형성되는 것을 특징으로 하는 오디오 신호 열 처리 방법.
  22. 청취자 주위의 소정 지점에 위치한 가상 오디오 소스를 나타내는 입력 오디오 신호를 처리하여 청취자 주위에 위치한 스피커 장치들을 통해 재생하기 위한 오디오 출력 신호들의 감소된 집합을 생성하기 위한 방법에 있어서, 상기 방법은 상 기 스피커 장치들 각각에 대하여:
    (a) 저역-통과 필터링 및 감소 프로세스(decimation process)를 이용하여 입력 오디오 신호를 낮은 샘플링 레이트(sample rate)로 변환하여, 감소된 입력 신호를 생성하는 단계;
    (b) 상기 감소된 입력 신호에 필터링 프로세스를 인가하여, 감소된 필터링된 신호를 생성하는 단계;
    (c) 보간법(interpolation) 및 저역-통과 필터링 프로세스를 이용하여 상기 감소된 필터링된 신호를 원래의 높은 샘플링 레이트로 변환하여, 높은 샘플링-레이트의 필터링된 신호를 생성하는 단계;
    (d) 산재한(sparse) 필터링 프로세스를 상기 입력 오디오 신호에 인가하여, 산재한 필터링된 오디오 신호를 생성하는 단계;
    (e) 상기 높은 샘플링-레이트의 필터링된 신호 및 상기 산재한 필터링된 오디오 신호를 상호 합산하여 오디오 출력 신호를 생성하는 단계; 및
    (f) 상기 오디오 출력 신호를 상기 스피커 장치로 출력하는 단계를 구비하는 것을 특징으로 하는 오디오 신호 처리 방법.
  23. 제 22항에 있어서, 상기 산재한 필터링 프로세스는 단일 지연 요소 및 이득 함수로 구성되는 것을 특징으로 하는 오디오 신호 처리 방법.
  24. 제 22항에 있어서, 상기 산재한 필터링 프로세스는 지연 라인으로 구성되며, 다중 탭핑된(multiple tapped) 오디오 신호들은 이 지연 라인으로부터 수신되고, 상기 탭핑된 오디오 신호 각각은 이득 함수를 통하여 스케일링되고, 상기 이득 함수들의 출력들은 가산되어 상기 산재한 필터링된 오디오 신호를 생성하는 것을 특징으로 하는 오디오 신호 처리 방법.
  25. 청취자에 대하여 상응하는 상대적 지점에 위치한 복수 개의 오디오 사운드 소스들을 나타내는 입력 오디오 신호들을 처리하여, 청취자에게 상응하는 지점들에 대한 공간적 인상을 전달하여 나타내기 위한 하나 또는 그 이상의 출력 신호들을 생성하기 위한 방법에 있어서, 개별 출력 신호에 대하여,
    개별 제 1 필터들의 주파수 도메인 표현을 개별 입력 오디오 신호들의 주파수 도메인 표현에 적용하여 복수 개의 제 1 필터링된 신호들을 생성하는 제1 필터링된 신호 생성 단계;
    제 2 필터의 주파수 도메인 표현을 입력 오디오 신호들의 주파수 도메인 표현들의 혼합물(mix)에 적용하여 제 2 필터링된 신호를 생성하는 단계에 있어서, 제 2 필터 및 입력 오디오 신호들의 주파수 도메인 표현들의 혼합물의 주파수 도메인 표현을 위한 하나 또는 그 이상의 고주파 계수들은 적용과정에서 제외되는 것을 특징으로 하는 단계; 및
    제 1 필터링된 신호들 및 제 2 필터링된 신호를 결합하여 개별 출력 신호를 생성하는 단계를 구비하는 것을 특징으로 하는 오디오 신호 처리 방법.
  26. 제 25항에 있어서, 상기 제1 필터링된 신호 생성 단계에서,
    개별 제 1 필터들의 주파수 도메인 표현 및 개별 입력 오디오 신호들의 주파수 도메인 표현들의 하나 또는 그 이상의 고주파 계수들은 적용 과정에서 제외되는 것을 특징으로 하는 오디오 신호 처리 방법.
  27. 제 25항 또는 제 26항에 있어서, 제 1 필터들은 청취자에게 상응하는 지점들에 대한 공간적 인상을 전달하는 개별 임펄스 응답들의 헤드 부분에 상응하고, 제 2 필터는 개별 임펄스 응답들의 테일 부분들의 조합에 상응하는 것을 특징으로 하는 오디오 신호 처리 방법.
KR1020007010622A 1998-03-25 1999-01-06 오디오 신호 처리 방법 및 장치 KR100598003B1 (ko)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
AUPP2595A AUPP259598A0 (en) 1998-03-25 1998-03-25 Sound signal processing apparatus (PAT 51)
AUPP2595 1998-03-25
AUPP2709A AUPP270998A0 (en) 1998-03-31 1998-03-31 New variants on low-latency convolution - reduced computation requirement by sharing filter tails between multiple channels
AUPP2710A AUPP271098A0 (en) 1998-03-31 1998-03-31 New variants on low-latency convolution - reduced computation by using band-limited coefficients in the filter tails
AUPP2709 1998-03-31
AUPP2710 1998-03-31
AUPP7164A AUPP716498A0 (en) 1998-11-12 1998-11-12 Audio signal processing apparatus (pat 82)
AUPP7164 1998-11-12

Publications (2)

Publication Number Publication Date
KR20010042169A KR20010042169A (ko) 2001-05-25
KR100598003B1 true KR100598003B1 (ko) 2006-07-06

Family

ID=27424461

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020007010622A KR100598003B1 (ko) 1998-03-25 1999-01-06 오디오 신호 처리 방법 및 장치

Country Status (11)

Country Link
US (1) US6741706B1 (ko)
EP (1) EP1072089B1 (ko)
JP (3) JP2002508616A (ko)
KR (1) KR100598003B1 (ko)
CN (1) CN100353664C (ko)
AT (1) ATE501606T1 (ko)
AU (1) AU751900B2 (ko)
CA (1) CA2325482C (ko)
DE (1) DE69943265D1 (ko)
DK (1) DK1072089T3 (ko)
WO (1) WO1999049574A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101838623B1 (ko) * 2013-07-22 2018-03-14 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 룸 임펄스 응답에 따른 오디오 신호 처리 방법, 신호 처리 유닛, 오디오 인코더, 오디오 디코더, 및 바이너럴 렌더러

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2325482C (en) * 1998-03-25 2009-12-15 Lake Technology Limited Audio signal processing method and apparatus
AUPQ941600A0 (en) * 2000-08-14 2000-09-07 Lake Technology Limited Audio frequency response processing sytem
US8086448B1 (en) * 2003-06-24 2011-12-27 Creative Technology Ltd Dynamic modification of a high-order perceptual attribute of an audio signal
KR20050060789A (ko) * 2003-12-17 2005-06-22 삼성전자주식회사 가상 음향 재생 방법 및 그 장치
CA2560842C (en) * 2004-03-24 2013-12-10 That Corporation Configurable filter for processing television audio signals
US20050276430A1 (en) * 2004-05-28 2005-12-15 Microsoft Corporation Fast headphone virtualization
KR100644617B1 (ko) 2004-06-16 2006-11-10 삼성전자주식회사 7.1 채널 오디오 재생 방법 및 장치
NL1029251C2 (nl) * 2004-06-16 2007-08-14 Samsung Electronics Co Ltd Inrichting en methode voor het reproduceren van een 7.1 kanaal geluid.
GB0419346D0 (en) * 2004-09-01 2004-09-29 Smyth Stephen M F Method and apparatus for improved headphone virtualisation
KR101118214B1 (ko) 2004-09-21 2012-03-16 삼성전자주식회사 청취 위치를 고려한 2채널 가상 음향 재생 방법 및 장치
US7634092B2 (en) * 2004-10-14 2009-12-15 Dolby Laboratories Licensing Corporation Head related transfer functions for panned stereo audio content
US8718301B1 (en) * 2004-10-25 2014-05-06 Hewlett-Packard Development Company, L.P. Telescopic spatial radio system
KR100608025B1 (ko) * 2005-03-03 2006-08-02 삼성전자주식회사 2채널 헤드폰용 입체 음향 생성 방법 및 장치
DE102005010057A1 (de) 2005-03-04 2006-09-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines codierten Stereo-Signals eines Audiostücks oder Audiodatenstroms
WO2006126843A2 (en) 2005-05-26 2006-11-30 Lg Electronics Inc. Method and apparatus for decoding audio signal
JP4988717B2 (ja) 2005-05-26 2012-08-01 エルジー エレクトロニクス インコーポレイティド オーディオ信号のデコーディング方法及び装置
US20070044126A1 (en) * 2005-08-18 2007-02-22 Rockwell Collins, Inc. Wireless video entertainment system
KR101304797B1 (ko) 2005-09-13 2013-09-05 디티에스 엘엘씨 오디오 처리 시스템 및 방법
KR100857106B1 (ko) 2005-09-14 2008-09-08 엘지전자 주식회사 오디오 신호의 디코딩 방법 및 장치
KR100739776B1 (ko) 2005-09-22 2007-07-13 삼성전자주식회사 입체 음향 생성 방법 및 장치
NL1032538C2 (nl) 2005-09-22 2008-10-02 Samsung Electronics Co Ltd Apparaat en werkwijze voor het reproduceren van virtueel geluid van twee kanalen.
US20070110256A1 (en) * 2005-11-17 2007-05-17 Odi Audio equalizer headset
KR100739798B1 (ko) 2005-12-22 2007-07-13 삼성전자주식회사 청취 위치를 고려한 2채널 입체음향 재생 방법 및 장치
KR100677629B1 (ko) 2006-01-10 2007-02-02 삼성전자주식회사 다채널 음향 신호에 대한 2채널 입체 음향 생성 방법 및장치
JP5147727B2 (ja) 2006-01-19 2013-02-20 エルジー エレクトロニクス インコーポレイティド 信号デコーディング方法及び装置
KR20080110920A (ko) 2006-02-07 2008-12-19 엘지전자 주식회사 부호화/복호화 장치 및 방법
CN101379555B (zh) * 2006-02-07 2013-03-13 Lg电子株式会社 用于编码/解码信号的装置和方法
TWI447707B (zh) 2006-02-23 2014-08-01 Lg Electronics Inc 音頻訊號之處理方法及其裝置
KR100754220B1 (ko) 2006-03-07 2007-09-03 삼성전자주식회사 Mpeg 서라운드를 위한 바이노럴 디코더 및 그 디코딩방법
EP1999745B1 (en) 2006-03-30 2016-08-31 LG Electronics Inc. Apparatuses and methods for processing an audio signal
ATE543343T1 (de) * 2006-04-03 2012-02-15 Srs Labs Inc Tonsignalverarbeitung
US20080235006A1 (en) 2006-08-18 2008-09-25 Lg Electronics, Inc. Method and Apparatus for Decoding an Audio Signal
JP2008141524A (ja) * 2006-12-01 2008-06-19 Fujitsu Ten Ltd 音響処理装置
KR101368859B1 (ko) * 2006-12-27 2014-02-27 삼성전자주식회사 개인 청각 특성을 고려한 2채널 입체 음향 재생 방법 및장치
US8363843B2 (en) * 2007-03-01 2013-01-29 Apple Inc. Methods, modules, and computer-readable recording media for providing a multi-channel convolution reverb
DE102007051308B4 (de) * 2007-10-26 2013-05-16 Siemens Medical Instruments Pte. Ltd. Verfahren zum Verarbeiten eines Mehrkanalaudiosignals für ein binaurales Hörgerätesystem und entsprechendes Hörgerätesystem
EP2329492A1 (en) 2008-09-19 2011-06-08 Dolby Laboratories Licensing Corporation Upstream quality enhancement signal processing for resource constrained client devices
ES2385293T3 (es) 2008-09-19 2012-07-20 Dolby Laboratories Licensing Corporation Procesamiento de señales ascendentes para dispositivos clientes en una red inalámbrica de células pequeñas
TWI475896B (zh) 2008-09-25 2015-03-01 Dolby Lab Licensing Corp 單音相容性及揚聲器相容性之立體聲濾波器
EP2214425A1 (en) * 2009-01-28 2010-08-04 Auralia Emotive Media Systems S.L. Binaural audio guide
US8626810B2 (en) * 2009-05-15 2014-01-07 Texas Instruments Incorporated Method and system for finite impulse response (FIR) digital filtering
JP2011004264A (ja) * 2009-06-19 2011-01-06 Fujitsu Ltd ディジタル信号処理装置およびディジタル信号処理方法
EP2486736B1 (en) 2009-10-05 2022-04-13 Harman International Industries, Incorporated Multichannel audio system having audio channel compensation
DE102012200512B4 (de) 2012-01-13 2013-11-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Berechnen von Lautsprechersignalen für eine Mehrzahl von Lautsprechern unter Verwendung einer Verzögerung im Frequenzbereich
CN102523553B (zh) * 2012-01-29 2014-02-19 昊迪移通(北京)技术有限公司 一种针对移动终端设备并基于声源内容的全息音频方法和装置
US10321252B2 (en) * 2012-02-13 2019-06-11 Axd Technologies, Llc Transaural synthesis method for sound spatialization
CN104956689B (zh) 2012-11-30 2017-07-04 Dts(英属维尔京群岛)有限公司 用于个性化音频虚拟化的方法和装置
WO2014164361A1 (en) 2013-03-13 2014-10-09 Dts Llc System and methods for processing stereo audio content
CN108806704B (zh) 2013-04-19 2023-06-06 韩国电子通信研究院 多信道音频信号处理装置及方法
CN108810793B (zh) 2013-04-19 2020-12-15 韩国电子通信研究院 多信道音频信号处理装置及方法
US9369818B2 (en) 2013-05-29 2016-06-14 Qualcomm Incorporated Filtering with binaural room impulse responses with content analysis and weighting
US9431987B2 (en) * 2013-06-04 2016-08-30 Sony Interactive Entertainment America Llc Sound synthesis with fixed partition size convolution of audio signals
US9319819B2 (en) 2013-07-25 2016-04-19 Etri Binaural rendering method and apparatus for decoding multi channel audio
FR3012247A1 (fr) * 2013-10-18 2015-04-24 Orange Spatialisation sonore avec effet de salle, optimisee en complexite
CN104681034A (zh) 2013-11-27 2015-06-03 杜比实验室特许公司 音频信号处理
CN104768121A (zh) 2014-01-03 2015-07-08 杜比实验室特许公司 响应于多通道音频通过使用至少一个反馈延迟网络产生双耳音频
CN107750042B (zh) * 2014-01-03 2019-12-13 杜比实验室特许公司 响应于多通道音频通过使用至少一个反馈延迟网络产生双耳音频
JP6351538B2 (ja) * 2014-05-01 2018-07-04 ジーエヌ ヒアリング エー/エスGN Hearing A/S ディジタル音響信号用の多帯域信号プロセッサ
US9782672B2 (en) * 2014-09-12 2017-10-10 Voyetra Turtle Beach, Inc. Gaming headset with enhanced off-screen awareness
EP3259845B1 (en) * 2015-02-16 2019-09-18 Sound Devices, LLC High dynamic range analog-to-digital conversion with selective regression based data repair
WO2017053447A1 (en) * 2015-09-25 2017-03-30 Dolby Laboratories Licensing Corporation Processing high-definition audio data
US9734686B2 (en) * 2015-11-06 2017-08-15 Blackberry Limited System and method for enhancing a proximity warning sound
CN110089135A (zh) * 2016-10-19 2019-08-02 奥蒂布莱现实有限公司 用于生成音频映象的系统和方法
CN106875953B (zh) * 2017-01-11 2020-10-13 深圳市创成微电子有限公司 模拟混音音频处理方法及系统
CN107863095A (zh) 2017-11-21 2018-03-30 广州酷狗计算机科技有限公司 音频信号处理方法、装置和存储介质
CN108156561B (zh) * 2017-12-26 2020-08-04 广州酷狗计算机科技有限公司 音频信号的处理方法、装置及终端
CN108156575B (zh) 2017-12-26 2019-09-27 广州酷狗计算机科技有限公司 音频信号的处理方法、装置及终端
US11606663B2 (en) 2018-08-29 2023-03-14 Audible Reality Inc. System for and method of controlling a three-dimensional audio engine
CN109036457B (zh) 2018-09-10 2021-10-08 广州酷狗计算机科技有限公司 恢复音频信号的方法和装置
CN110312198B (zh) * 2019-07-08 2021-04-20 雷欧尼斯(北京)信息技术有限公司 用于数字影院的虚拟音源重定位方法及装置
WO2021138517A1 (en) 2019-12-30 2021-07-08 Comhear Inc. Method for providing a spatialized soundfield
JP7447533B2 (ja) 2020-02-19 2024-03-12 ヤマハ株式会社 音信号処理方法および音信号処理装置
CN113035215B (zh) * 2021-02-02 2022-12-13 昆山海菲曼科技集团有限公司 一种音频信号处理芯片及耳机

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5724200A (en) * 1980-07-18 1982-02-08 Matsushita Electric Ind Co Ltd Indirect-sound generating circuit
DE3118473A1 (de) * 1981-05-09 1982-11-25 TE KA DE Felten & Guilleaume Fernmeldeanlagen GmbH, 8500 Nürnberg Verfahren zur aufbereitung elektrischer signale mit einer digitalen filteranordnung
JPS62219898A (ja) * 1986-03-20 1987-09-28 Fujitsu Ltd 残響付加方式
JPS63503031A (ja) * 1986-10-30 1988-11-02 富士通株式会社 処理遅延が短かく且つ乗算数が少ないエコーキャンセラ
JPH01144814A (ja) * 1987-12-01 1989-06-07 Matsushita Electric Ind Co Ltd 音場再生装置
JP2945724B2 (ja) * 1990-07-19 1999-09-06 松下電器産業株式会社 音場補正装置
JP3064471B2 (ja) * 1991-03-29 2000-07-12 ソニー株式会社 直交変換符号化方法及び逆直交変換復号化装置
FR2688371B1 (fr) * 1992-03-03 1997-05-23 France Telecom Procede et systeme de spatialisation artificielle de signaux audio-numeriques.
EP1304797A3 (en) * 1992-07-07 2007-11-28 Dolby Laboratories Licensing Corporation Digital filter having high accuracy and efficiency
JP2870333B2 (ja) * 1992-11-26 1999-03-17 ヤマハ株式会社 音像定位制御装置
JP3335409B2 (ja) * 1993-03-12 2002-10-15 日本放送協会 残響付加装置
DE4328620C1 (de) * 1993-08-26 1995-01-19 Akg Akustische Kino Geraete Verfahren zur Simulation eines Raum- und/oder Klangeindrucks
US5438623A (en) 1993-10-04 1995-08-01 The United States Of America As Represented By The Administrator Of National Aeronautics And Space Administration Multi-channel spatialization system for audio signals
US5661812A (en) * 1994-03-08 1997-08-26 Sonics Associates, Inc. Head mounted surround sound system
WO1995031881A1 (en) * 1994-05-11 1995-11-23 Aureal Semiconductor Inc. Three-dimensional virtual audio display employing reduced complexity imaging filters
JP3366448B2 (ja) * 1994-07-25 2003-01-14 松下電器産業株式会社 車載用音場補正装置
US5596644A (en) * 1994-10-27 1997-01-21 Aureal Semiconductor Inc. Method and apparatus for efficient presentation of high-quality three-dimensional audio
JPH0928000A (ja) * 1995-07-12 1997-01-28 Matsushita Electric Ind Co Ltd 信号処理装置
JPH0937400A (ja) * 1995-07-20 1997-02-07 Victor Co Of Japan Ltd 音像定位制御装置
JP3577798B2 (ja) * 1995-08-31 2004-10-13 ソニー株式会社 ヘッドホン装置
JP2993418B2 (ja) * 1996-01-19 1999-12-20 ヤマハ株式会社 音場効果装置
JP3657340B2 (ja) * 1996-02-22 2005-06-08 日本放送協会 インパルス応答生成装置
JP3327114B2 (ja) * 1996-04-24 2002-09-24 ソニー株式会社 信号処理装置、信号記録装置及び信号再生装置
CA2325482C (en) * 1998-03-25 2009-12-15 Lake Technology Limited Audio signal processing method and apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101838623B1 (ko) * 2013-07-22 2018-03-14 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 룸 임펄스 응답에 따른 오디오 신호 처리 방법, 신호 처리 유닛, 오디오 인코더, 오디오 디코더, 및 바이너럴 렌더러
US10433097B2 (en) 2013-07-22 2019-10-01 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method for processing an audio signal in accordance with a room impulse response, signal processing unit, audio encoder, audio decoder, and binaural renderer
US10721582B2 (en) 2013-07-22 2020-07-21 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method for processing an audio signal in accordance with a room impulse response, signal processing unit, audio encoder, audio decoder, and binaural renderer
US10972858B2 (en) 2013-07-22 2021-04-06 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method for processing an audio signal in accordance with a room impulse response, signal processing unit, audio encoder, audio decoder, and binaural renderer
US11265672B2 (en) 2013-07-22 2022-03-01 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method for processing an audio signal in accordance with a room impulse response, signal processing unit, audio encoder, audio decoder, and binaural renderer
US11856388B2 (en) 2013-07-22 2023-12-26 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method for processing an audio signal in accordance with a room impulse response, signal processing unit, audio encoder, audio decoder, and binaural renderer

Also Published As

Publication number Publication date
JP2011083018A (ja) 2011-04-21
US6741706B1 (en) 2004-05-25
AU1743899A (en) 1999-10-18
EP1072089A1 (en) 2001-01-31
CA2325482A1 (en) 1999-09-30
JP4726875B2 (ja) 2011-07-20
DK1072089T3 (da) 2011-06-27
CN1294782A (zh) 2001-05-09
JP2008058984A (ja) 2008-03-13
DE69943265D1 (de) 2011-04-21
WO1999049574A1 (en) 1999-09-30
EP1072089B1 (en) 2011-03-09
AU751900B2 (en) 2002-08-29
KR20010042169A (ko) 2001-05-25
CA2325482C (en) 2009-12-15
EP1072089A4 (en) 2007-06-13
ATE501606T1 (de) 2011-03-15
CN100353664C (zh) 2007-12-05
JP2002508616A (ja) 2002-03-19

Similar Documents

Publication Publication Date Title
KR100598003B1 (ko) 오디오 신호 처리 방법 및 장치
KR100677119B1 (ko) 와이드 스테레오 재생 방법 및 그 장치
JP4477081B2 (ja) リスナーの周囲にある音源の空間的ひろがり感を増強するためのステレオヘッドホンデバイス内でのフィルタ効果の利用
US20050238176A1 (en) Binaural sound reproduction apparatus and method, and recording medium
WO1999040756A1 (fr) Ensemble casque d'ecoute
JP2008502200A (ja) ワイドステレオ再生方法及びその装置
JP4434707B2 (ja) デジタル信号処理装置及びデジタル信号処理方法、並びにヘッドホン装置
US6563869B1 (en) Digital signal processing circuit and audio reproducing device using it
JP2005157278A (ja) 全周囲音場創生装置、全周囲音場創生方法、及び全周囲音場創生プログラム
JPH09182200A (ja) 音像制御装置及び音像制御方法
JP4427915B2 (ja) 仮想音像定位処理装置
JPH09327100A (ja) ヘッドホン再生装置
JPH02161900A (ja) 車載用音響機器
WO1998030064A1 (en) Processing audio signals
JP2007189530A (ja) ノイズキャンセルヘッドホンおよびヘッドホンにおけるノイズキャンセル方法
JP2023066418A (ja) オブジェクトベースのオーディオ空間化器
ES2364471T3 (es) Procedimiento y aparato de procesamiento de señales de audio.
JP2023066419A (ja) オブジェクトベースのオーディオ空間化器
JPH09182199A (ja) 音像制御装置及び音像制御方法
JP2002044798A (ja) 音声再生装置
JPH06203056A (ja) デジタル演算装置の係数書き換え方法並びにそれを利用した音像定位制御装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130612

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140612

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150609

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160617

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170615

Year of fee payment: 12

EXPY Expiration of term