KR100333999B1 - 오디오 신호 처리 장치 및 오디오 신호 고속 재생 방법 - Google Patents

오디오 신호 처리 장치 및 오디오 신호 고속 재생 방법 Download PDF

Info

Publication number
KR100333999B1
KR100333999B1 KR1020000043783A KR20000043783A KR100333999B1 KR 100333999 B1 KR100333999 B1 KR 100333999B1 KR 1020000043783 A KR1020000043783 A KR 1020000043783A KR 20000043783 A KR20000043783 A KR 20000043783A KR 100333999 B1 KR100333999 B1 KR 100333999B1
Authority
KR
South Korea
Prior art keywords
audio
data
signal
processing apparatus
video
Prior art date
Application number
KR1020000043783A
Other languages
English (en)
Inventor
이시토쓰쿠루
마쓰모토마사하루
미야사카슈지
후지타다케시
카타야마다카시
스에요시마사히로
아베가즈타카
나카무라쓰요시
오토무라에이지
가와무라아키히사
Original Assignee
모리시타 요이찌
마쯔시다덴기산교 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP9239968A external-priority patent/JPH1188994A/ja
Priority claimed from JP02302398A external-priority patent/JP3986147B2/ja
Application filed by 모리시타 요이찌, 마쯔시다덴기산교 가부시키가이샤 filed Critical 모리시타 요이찌
Application granted granted Critical
Publication of KR100333999B1 publication Critical patent/KR100333999B1/ko

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/40Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • H04N5/602Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals for digital sound signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/66Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission for reducing bandwidth of signals; for improving efficiency of transmission
    • H04B1/665Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission for reducing bandwidth of signals; for improving efficiency of transmission using psychoacoustic properties of the ear, e.g. masking effect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4398Processing of audio elementary streams involving reformatting operations of audio signals

Abstract

블록 단위로 비트 스트림을 수신하며, 다수의 채널에 대해서 디코드된 오디오 데이터를 형성하기 위해서 비트 스트림의 한 블록을 디코딩하며, 다수의 채널 각각을 위한 디코드된 오디오 데이터를 메모리 장치에 저장하여, 다수의 채널 각각에 대해 디코드된 오디오 데이터를 다운 믹싱하기 위한 오디오 디코딩 장치가 제공된다. 오디오 디코딩 장치는 비트 스트림의 제 2의 블록이 디코드될 때 메모리부 내의 비트 스트림의 제 1의 블록에 대응하는 다수의 채널 각각을 위한 디코드된 오디오 데이터를 다운 믹싱하기 위한 동작부(operation section)을 포함한다.

Description

오디오 신호 처리 장치 및 오디오 신호 고속 재생 방법{audio signal processing device and audio signal high-rate reproduction method used for audio visual equipment}
발명의 분야
본 발명은 인코드된 비트 스트림을 PCM 데이터로 디코딩하기 위한 AV(오디오 시각) 장치에서 사용되는 오디오 디코딩 장치에 관한 것이다. 본 발명은 또한 신호 처리 장치, 음향 영상 정위 장치(sound image localizaton device), 음향 이미지 제어 방법, 오디오 신호 처리 장치, 및 AV 장비에서 또한 사용되는 오디오 신호 고속 재생 방법에 관한 것이다.
관련 기술의 설명
종래의 오디오 디코딩 장치(550)에 대해서 도 6, 도 7, 및 도 8을 참조하여 설명한다. 도 6은 종래의 오디오 디코딩 장치(550)의 구조를 도시한 블록도이다. 오디오 디코딩 장치(550)는 집적 반도체 장치(508)를 포함한다. 집적 반도체 장치(508)는 입력 비트 스트림 구문 분석기(bit stream syntax analyzer; 501), 지수부(exponential section) 디코더(502), 가수(mantissa) 데이터 비트 할당기(503), 가수부 디코더(504), IMDCT(505), 다운-믹스 연산기(down-mix calculator; 506), 및 내부 메모리 장치(507)를 포함한다. 집적 반도체 장치(508)는 외부 메모리 장치(500)와 데이터를 교환한다.
비트 스트림은 먼저 외부 메모리 장치(500)에 저장되고 이어서 입력 비트 스트림 구문 분석기(501)로 입력된다. 입력 비트 스트림 구문 분석기(501)는 비트 스트림의 구문을 분석하여 디코딩하는데 필요한 데이터를 추출한다. 이러한 데이터는 지수부 디코더(502)로 보내진다. 지수부 디코더(502)는 디코딩하는데 필요한 데이터로부터 주파수 영역(frequency domain)에 대한 지수 데이터를 형성하여, 이 지수 데이터를 가수 데이터 비트 할당기(503) 및 IMDCT(505)로 출력한다. 가수 데이터 비트 할당기(503)는 주파수 영역에 대한 지수 데이터 및 외부 메모리 장치(500)에 저장된 데이터로부터 가수 데이터 할당 양을 계산하여 이 가수 데이터 비트 할당 양을 가수부 디코더(mantissa section decoder; 504)로 출력한다. 가수부 디코더(504)는 가수 데이터 비트 할당 양으로부터 주파수 영역에 대한 가수 데이터를 형성하여 이 가수 데이터를 IMDCT(역 수정된 이산 코사인 변환기; 505)로 출력한다. IMDCT(505)는 지수 데이터 및 주파수 영역에 대한 가수 데이터로부터 시간 영역(time domain)의 디코드된 오디오 데이터를 형성하여, 이 디코드된 오디오 데이터를 외부 메모리 장치(500)에 저장한다. 다운-믹스 연산기(506)는 외부 메모리 장치(500)에 저장된 디코드된 오디오 데이터로부터 PCM 데이터를 형성하고 인터리빙(interleaving)을 수행한 후에 이 결과 데이터를 외부 메모리 장치(500)에 저장한다. 이때 PCM 데이터는 외부 메모리 장치(500)로부터 출력된다.
도 7은 도 6에 도시한 오디오 디코딩 장치(550)의 메모리 맵이다. 도 7에 도시한 메모리 맵은 한 블록의 PCM 데이터를 저장하기 위한 영역(600), 채널 0용으로한 블록의 디코드된 오디오 데이터를 저장하기 위한 영역(601), 채널 1용으로 한 블록의 디코드된 오디오 데이터를 저장하기 위한 영역(602), 채널 2용으로 한 블록의 디코드된 오디오 데이터를 저장하기 위한 영역(603), 채널 3용으로 한 블록의 디코드된 오디오 데이터를 저장하기 위한 영역(604), 채널 4용으로 한 블록의 디코드된 오디오 데이터를 저장하기 위한 영역(605), 및 채널 5용으로 한 블록의 디코드된 오디오 데이터를 저장하기 위한 영역(606)을 포함한다.
도 8은 각 채널에 대해서 한 블록의 인코드된 오디오 데이터를 디코딩하는 방법을 도시한 흐름도이다.
단계 S11에서, 레지스터(도시없음), 내부 메모리 장치(507)(도 6), 및 외부 메모리 장치(500)가 초기화된다. 단계 S12에서, 외부 메모리 장치(500)에 저장된 비트 스트림은 집적 메모리 장치(505)에 입력된다(인코드된 데이터 수령).
이어서, 단계 S13에서, 비트 스트림의 구문을 분석하여, 디코딩하는데 필요한 데이터를 추출한다(비트 스트림 분석). 단계 S14에서, 추출된 데이터를 사용하여 주파수 영역에 대한 지수 데이터를 형성한다. 단계 S15에서, 주파수 영역에 대한 지수 데이터를 사용하여 가수 데이터 비트 할당 양을 계산한다. 단계 S16에서, 가수 데이터 비트 할당 양을 사용하여 주파수 영역에 대한 가수 데이터를 형성한다. 단계 S17에서, 주파수 영역에 대한 가수 데이터 및 주파수 영역에 대한 지수데이터를 사용하여 디코드된 오디오 데이터를 형성한다. 단계 S18에서, 결과로 나온 디코드된 오디오 데이터는 외부 메모리 장치(500)에 저장된다.
상기 기술된 단계는 단계 S19에서 요구된 횟수에 대해 단계들이 반복되었나 확인될 때까지 한 블록 내에 포함된 채널수에 대해 수행된다. 결국, 한 블록 내에 포함된 채널수에 대응하는 개수의 디코드된 오디오 데이터가 형성되어 외부 메모리 장치(500)에 저장된다.
단계 S20에서, 외부 메모리 장치(500) 내의 각 채널에 대한 한 블록의 디코드된 오디오 데이터는 집적 반도체 장치(508)에 입력된다. 단계 S21에서, 각 채널에 대한 한 블록의 디코드된 오디오 데이터는 한 블록의 PCM 데이터로 변환된다(다운-믹스 연산). 단계 S22에서, 한 블록의 PCM 데이터는 외부 메모리 장치(500)로 입력된다.
종래의 오디오 디코더(600)에서, 한 블록의 PCM 데이터는 하나의 다운-믹스 계산에서 계산된다. 따라서, 다운-믹스 계산 전에 디코드된 오디오 데이터를 외부 메모리 장치(500)에 입력하고, 다운-믹스 계산 후에 PCM 데이터를 외부 메모리 장치(500)에 기록하기 위해 전송되는 데이터 양은 메모리 버스의 대부분을 점유할 정도로 크다. 이러한 점유는 외부 메모리 장치(500)에 의해서 수행되는 다른 처리에 악영향을 미친다.
종래의 신호 처리 장치에 대해 설명한다. 복수의 채널의 인코드된 데이터의 일부는 채널들이 공통으로 공유할 수 있다. 예를들면, 복수의 채널의 적어도 한 채널 내에 포함되어 있고 복수의 채널이 공유하는 고주파 대역의 인코드된 데이터를디코딩하여 고주파 대역의 디코드된 데이터를 형성한다. 각 채널에 대한 저주파 대역의 디코드된 데이터는 디코드되어 저주파 대역의 디코드된 데이터를 형성한다. 저주파 대역의 디코드된 데이터는 고주파 대역의 디코드된 데이터에 결합하여 각 채널에 대해 디코드된 데이터를 형성한다.
이러한 디코딩에 대해서 도 19, 도 20 및 도 21을 참조하여 설명한다.
도 20은 상기 기술된 신호 디코딩을 수행하는 종래의 신호 처리 장치(1350)의 블록도이다. 도 20에 도시한 바와 같이, 비트 스트림은 내부 메모리 장치(1301)에 임시로 저장되어, 비트 스트림 구문 분석기(1300)에 의해서 분석된다. 따라서, 필요한 데이터가 추출된다. 주파수 영역에 대한 지수 데이터는 추출된 데이터에 기초하여 지수부 디코더(1302)에 의해서 형성된다. 가수 데이터 비트 할당 양은 주파수 영역에 대한 지수 데이터에 기초하여 가수 데이터 비트 할당기(1303)에 의해서 결정된다. 가수 데이터는 가수 데이터 비트 할당 양에 기초하여 가수부 디코더(1304)에 의해서 형성된다. 주파수 영역 데이터는 지수부 디코더(1302) 및 가수부 디코더(1304)에 의해서 형성된 데이터에 기초하여 주파수 영역 데이터 형성 장치(1305)에 의해서 형성된다.
주파수 영역 데이터 형성 장치(1305)는 다음의 방식으로 임의의 채널용의 인코드된 데이터를 디코드한다. 복수의 채널 중 적어도 한 채널 내에 포함되고 복수의 채널이 공유하는 고주파 인코드된 데이터는 고주파 대역 디코드된 데이터를 얻도록 디코드되며, 고주파 대역 디코드된 데이터는 임의의 채널의 신호 전력에 관하여 엔코더에 의해서 얻어진 지정된 채널의 신호 전력의 비와 곱해진다. 결과는 임의의 채널에 대한 저주파 디코드된 데이터와 결합된다. 따라서, 임의의 채널에 대한 디코드된 데이터가 얻어진다.
얻어진 주파수 영역 디코드된 데이터는 주파수 영역-시간 영역 변환기(frequency domain-time domain converter; 1306)에 의해서 시간 영역 디코드된 데이터로 변환되고, 그 결과는 PCM 데이터로 변환되어 출력된다.
도 21은 임의의 채널에 대한 인코드된 데이터의 디코딩을 개략적으로 도시한 것이다.
단계 141에서, 지정된 채널(prescribed channel; 1400) 내의 데이터는 저주파 영역 디코드된 데이터 영역(1402) 및 복수의 채널이 공유하는 고주파 대역 디코드된 데이터 영역(1403)을 형성하도록 디코드된다. 단계 142에서, 고주파 대역 디코드된 데이터 영역(1403)은 임의의 채널(1401)에 대한 고주파 대역 디코드된 데이터(1404)에 관하여 엔코더에 의해서 얻어진 지정된 채널(1400)의 신호 파워의 비 α로 곱해져, 임의의 채널(1401)에 대한 고주파 디코드된 데이터(1404)를 형성하게 된다. 단계 143에서, 임의의 채널(1401)에 대한 저주파 대역 디코드된 데이터(1405)는 고주파 대역 디코드된 데이터(1404)에 결합되어 채널(1401)에 대한 디코드된 데이터를 형성한다.
복수의 채널이 공유하는 고주파 인코드된 데이터를 사용함으로써, 채널 각각에 대한 고주파 대역 인코드된 데이터를 전송하는 것은 필요하지 않다. 따라서, 전송 효율이 개선된다.
이러한 디코딩을 수행하기 위해서, 내부 메모리 장치(1301)에 저장된 비트스트림은(도 20) 비트 스트림으로부터 필요한 데이터를 추출하는 동안 복수의 포인터에 의해 지적되고 있다. 이러한 수행에 대해 도 19를 참조하여 설명한다.
지정된 채널(1400)이 디코드된다. 이어서, 비트 스트림(1200)에 포함된 임의의 채널(1401)에 대한 저주파 대역 인코드된 데이터의 가수부(1201) 및 지수부(1202)는 각각의 포인터(1203 및 1204)에 의해 지적되고 있으며 저주파 인코드된 데이터를 디코딩하도록 판독된다. 지정된 채널(1400)에 대한 고주파 대역 인코드된 데이터의 가수부(1201) 및 지수부(1202)는 각각의 포인터(1203 및 1024)에 의해 지적되고 있으며 고주파 인코드된 데이터를 디코하도록 판독된다.
따라서, 포인터(1203 및 1204)의 이동은 화살표(1205 및 1206)로 표시된 바와 같이 재 지적(rewind)하도록 제어될 필요가 있다. 더구나, 비트 스트림은 고주파 대역 인코드된 데이터를 공유하는 모든 채널 내의 데이터가 디코드될 때까지 메모리 장치에 저장될 필요가 있다. 고주파 대역 인코드된 데이터를 공유하는 모든 채널 내의 데이터의 디코딩은 비트 스트림을 저장할 만큼 충분히 큰 메모리 용량을 필요로 한다.
더구나, 통상의 저주파 대역 인코드된 데이터의 디코딩보다 큰 부담을 부과하는 고주파 대역 인코드된 데이터의 디코딩은 부담을 줄이도록 요구된다.
영화 및 방송 분야에서, 복수 채널(예를들면, 5.1 채널) 기록 및 재생은 디지털 오디오 압축 기술을 사용하여 수행된다. 그러나, 가정에서 복수 채널 오디오 신호의 재생은 대부분의 일반 가정용 TV는 2개 이하의 출력 채널을 갖고 있기 때문에 제한된다. 음향 필드 제어 혹은 음향 이미지 제어 기술을 사용하여, 2개 이하의오디오 재생 기능을 갖는 AV 장비에 의해서도 복수 채널 재생이 실현하는 것이 요구되어 왔다.
최근에, 예를들면 MDCT와 같은 주파수 영역 변환 기술은 오디오 압축 기술로서 종종 사용되었다. 여기서, 종래의 음향 이미지 제어 기술 및 주파수 영역-시간 영역 변환을 사용하는 오디오 압축 기술을 설명한다.
도 23은 종래의 음향 영상 정위 장치(sound image localization device)(음향 영상 재생기)(2500)의 기본 구조를 보인 블록도이다. 먼저, 스피커(2008-1 및 2008-2)를 사용하여 음향 영상을 청취자의 우측 및 전방에 정위하는(localizing) 방법에 대해 설명한다. 스피커(2008-1 및 2008-2)는 청취자(2010)에 대해서 전방에 정위된다. 도 23에 도시한 바와 같이, 음향 영상 정위 장치(2500)는 신호원(2004), 신호 분할기(2000), 신호 처리 장치(2001-1 및 2001-2), D/A 변환기(2007-1 및 2007-2), 및 제어 스피커(2008-1 및 2008-2)를 포함한다.
신호원(2004)은 PCM 오디오 신호 S(t)를 수신한다. 신호 분할기(2006)는 오디오 신호 S(t)를 좌측(L) 및 우측(R) 채널에 분배한다. 신호 처리 장치(2001-1)는 전송 특성 hL(n)을 갖는 디지털 필터이며, 신호 처리 장치(2001-2)는 전송 특성 hR(n)를 갖는 디지털 필터이다. 신호 처리 장치(2001-1)로부터 디지털 출력은 D/A 변환기(2007-1)에 의해서 아날로그 신호로 변환되어 도 23의 도면 좌측에 있는 제어 스피커(2008-1)로 보내진다. 신호 처리 장치(2001-2)로부터 디지털 출력은 D/A 변환기(2007-2)에 의해서 아날로그 신호로 변환되어 도 23의 도면 우측에 있는 제어 스피커(2008-2)로 보내진다.
도 24는 신호 처리 장치(2001-1)의 블록도이다. 신호 처리 장치(2001-2)는 동일 구조를 갖는다. 신호 처리 장치(2001-1)는 n개의 지연 회로(2011-1 내지 2011-n), n+1개의 승산기(2012-1 내지 2012-(n+1)), 및 가산기(2013)를 포함하는 FIR 필터이다. 승산기(2012-1 내지 2012-(n+1))는 지연 회로(2011-1 내지 2011-n)의 입력과 출력에 접속되고, 승산기(2012 내지 2012-(n+1))는 가산기(2013) 및 출력에 의해서 함께 가산된다.
도 22 및 도 24를 참조하여, 종래의 음향 영상 정위 장치(2500)는 다음과 같은 방식으로 동작한다. 도 23에서, 스피커(2008-1)와 청취자(2010)의 귀 사이의 전달함수를 '임펄스 응답(impulse response)'이라 언급하고, 스피커(2008-1)와 청취자(2010)의 좌측 귀간 임펄스 응답값은 h1(t)이다. 이하, 임펄스 응답을 사용하여 시간 영역에서 동작을 설명한다. 임펄스 응답 h1(t)은 보다 정확하게 오디오 신호가 스피커(2008-1)에 입력될 때 야기되는 청취자(2010)의 좌측 고막의 위치에서의 응답이다. 간단히 하기 위해서, 측정은 항상 귀에지 샘(ceruminous gland)의 입구에서 항상 수행된다. 동일 효과는 주파수 영역에 관하여 고찰될 때 얻어진다.
스피커(2008-1)와 청취자(2010)의 우측 귀간 임펄스 응답값은 h2(t)이다. 스피커(2008-2)와 청취자(2010)의 좌측 귀간 임펄스 응답값은 h3(t)이다. 스피커(2008-2)와 청취자(2010)의 우측 귀간 임펄스 응답값은 h4(t)이다. 스피커(2009)는 청취자(2010)의 우측 및 전방에 놓인 가상의 음향원으로서 가정한다. 가상 스피커(2009)와 청취자(2010)의 좌측 귀간 임펄스 응답의 값은 h5(t)이다. 가상의 스피커(2009)와 청취자(2010)의 우측 귀간 임펄스 응답의 값은 h6(t)이다.
이러한 구조에서, 신호원(2004)으로부터 오디오 신호 S(t)가 가상의 스피커(2009)로부터 출력될 때, 청취자(2010)의 좌측 귀에 도달하는 음향은 수학식 1로 표현되며, 청취자(2010)의 우측 귀에 도달하는 음향은 수학식 2로 표현된다.
L(t) = S(t) * h5(t)
R(t) = S(t) * h6(t)
수학식 1 및 수학식 2에서, '*' 기호는 콘볼루션(convolution) 연산을 나타낸다. 실제로, 스피커 및 이와같은 것의 전달함수가 곱해지나 이들 요소는 여기서 무시된다. 대안으로, 스피커 및 이와같은 것의 전달함수는 h5(t) 및 h6(t)에 포함되는 것으로 간주한다.
임펄스 응답 및 신호 S(t)는 이산 디지털 신호로 간주하고 다음과 같이 각각 표현된다.
L(t) → L(n)
R(t) → R(n)
h5(t) →h5(n)
h6(t) →h6(n)
S(t) → S(n)
상기 표현에서, 'n'은 정수를 나타낸다. T가 샘플링 시간일 때, 괄호 내의'n'은 보다 정확하게는 nT로 쓴다. 여기서 'T'는 생략된다.
수학식 1 및 수학식 2는 각각 수학식 3 및 수학식 4로 표현되며, 콘볼루션 연산을 나타내는 '*'는 '×'로 대치되고, 이것은 곱셈을 나타낸다.
L(n) = S(n) × h5(n)
R(n) = S(n) × h6(n)
스피커(2008-1 및 2008-2)로부터 출력되어 청취자(2010)의 좌측 귀에 도달하는 신호 S(t)는 수학식 5로 표현된다.
L'(t) = S(t) * hL(t) * h1(t) + S(t) * hR(t) * h3(t)
스피커(2008-1 및 2008-2)로부터 출력되어 청취자(2010)의 우측 귀에 도달하는 신호 S(t)는 수학식 6으로 표현된다.
R'(t) = S(t) * hL(t) * h2(t) + S(t) * hR(t) * h4(t)
수학식 5 및 수학식 6은 임펄스 응답을 사용하여 수학식 8 및 수학식 9로 표현된다.
L'(n) = S(n)×hL(n)×h1(n) + S(n)×hR(n)×h3(n)
R'(n) = S(n)×hL(n)×h2(n) + S(n)×hR(n)×h4(n)
여기서, hL(n)은 신호 처리 장치(2001-1)의 전송특성을 나타내며, hR(n)은 신호 처리 장치(2001-2)의 전송 특성을 나타낸다.
다음은 귀와 스피커간 전달함수가 동일할 때, 음향은 동일한 방향으로 출력된다는 전제하에 설명된 것으로 이 전제는 일반적으로 정확하다. 수학식 10이 가정될 때, 수학식 11이 생성된다.
L(n) = L'(n)
h5(n) = hL(n)×h1(n) + hR(n)×h3(n)
마찬가지로, 수학식 12가 가정될 때, 수학식 13이 생성된다.
R(n) = R'(n)
h6(n) = hL(n)×h2(n) + hR(n)×h4(n)
가상의 스피커(2009)가 있는 것으로 가정된 경우 청취자(2010)가 청취자(2010)의 우측 전방으로부터 지정된 음향을 들을 수 있도록 하기 위해서 hL(n) 및 hR(n)의 값은 수학식 11 및 수학식 13을 만족하도록 결정된다. 예를들면, 수학식 11 및 수학식 13이 주파수 영역으로 표현될 때, 콘볼루션 연산은 곱셈으로 대치되고, 다른 요소들은 임펄스 응답의 값들의 FFT를 수행함으로써 얻어진 전달함수로 대치된다. FIR 필터의 것들과는 다른 전달함수이므로, FIR 필터의 전달함수는 이들 두 개의 식에 의해서 구해진다.
신호 S(n) 및 콘볼루션된 hL(n)이 스피커(2008-1)로부터 출력되고 신호 S(n) 및 콘볼루션된 hR(n)이 방식으로 결정된 hL(n) 및 hR(n)을 사용하여 스피커(2008-2)로부터 출력되는 경우, 청취자(2010)는 가상의 스피커(2009)가 존재하는 것으로 가정된 경우 우측 전방으로부터 출력되는 음향을 느낀다. 도 24는 FIR 필터의 구조를 도시한 것이다. 도 24에 도시한 FIR 필터는 상기 기술된 신호 처리에 의해 임의의 위치에 음향 영상을 정위한다.
그러나, 상기 기술된 구조는 실제 헤드와 관련된(head-related) 전달함수를 실현하기 위해서, 채널 각각마다 제공되는 FIR 필터 및 여러 번 수행되는 콘볼루션 연산을 필요로 한다. 필터수 및/또는 채널수가 증가할 때, 연산 속도 및 하드웨어에 부과된 부담은 실제 사용에 과도하게 커지게 된다. FIR 필터의 탭수는 실제 사용에서 감소될 수 있으나, 어느 정도의 탭수는 헤드와 관련된 전달함수의 정밀성을 유지하기 위해서 필요하다. 탭수가 과도하게 작을 때, 음향 영상은 흐릿해지거나 음향의 질이 악화된다.
DVD(디지털 비디오 디스크)와 같은 압축된 형식의 비디오 데이터 및 오디오 데이터를 포함하는 매체를 재생하는 시스템에서, 비디오 및 오디오 입력 데이터는 복수의 패킷으로 분할된 후 다중화된다. 비디오 및 오디오는 이러한 입력 데이터로부터 비디오 데이터('비디오 신호'라고도 함) 및 오디오 데이터('오디오 신호'라고도 함)를 분리하고 이러한 분리된 데이터를 디코딩함으로써 재생된다. 종래의 시스템에 대해서 예로서 DVD를 사용하여 기술한다.
비디오 데이터는 MPEG2로 압축되어 3종류의 화상(picture) 데이터, 즉 I 화상, P 화상 및 B 화상을 포함한다. NTSC 기준에서, 각각의 화상은 필드 구조의 경우 1/60초의 단위로 기록되고 프레임 구조의 경우 1/30초 단위로 기록된다.
DVD에서 사용되는 일 예를 든 오디오 기준은 AC-3 및 MPEG-2BC를 포함한다. 이러한 기준에서, 하나의 프레임은 48kHz의 샘플링 주파수로 1536개의 오디오 샘플을 포함한다. 데이터는 32ms의 단위로 입력되는 상태에서 DVD에 기록된다.
상이한 시간 단위로 기록된 오디오 및 비디오 데이터를 재생하기 위해서, 데이터의 동기화가 필요하다. DVD의 경우, 비디오 및 오디오 데이터는 각 패킷에 부가된 프로그램 시간 스탬프(PTS)의 제어 하에서 출력을 위해 동기화된다. 즉, 비디오 데이터를 재생하기 위한 시간 및 비디오 데이터를 재생하기 위한 시간이 독립적으로 조정된다.
이러한 시스템에서 수행되는 고속 재생에 대해서 기술한다. 일반적으로, 다음의 방법이 고속으로 비디오 데이터를 재생하는데 사용된다.
(1-1) 단지 I 화상만을 재생(재생속도: 정상의 약 6 내지 7 배)
(1-2) I 및 P 화상만을 재생(재생속도: 정상의 약 1.5 내지 3배)
(1-3) I 및 P 화상과 B 화상의 일부를 재생(재생속도: 정상의 약 1 내지 1.5배)
화상의 각 형태의 수는 인코딩 방법, 비트 속도 및 그와 같은 것에 따라 변하기 때문에, 고속 재생을 위한 재생 속도는 일정하지 않으며 아마도 방법 (1-1),(1-2), 혹은 (1-3)에 의해서 약 1.5 내지 약 7배로 다양하게 된다.
다음의 방법은 고속에서 오디오 데이터를 재생하는데 사용된다.
(2-1) 출력 데이터를 솎아내어(thin out) 불연속 점을 평활하게(smooth) 한다.
(2-2) 무음 부분을 삭제한다.
방법 (2-1)에 따라서, 재생 속도는 고정된다. 그러므로, 비디오 데이터의 재생 속도가 오디오 데이터의 재생 속도보다 높을 때, 음향은 연속하지만, 비디오는 이 보다, 혹은 오디오 데이터보다 높은 속도로 재생될 수 없다. 비디오 데이터의 재생 속도가 오디오 데이터의 재생 속도보다 낮을 때, 음향은 연속하지 않게 된다.
방법 (2-2)은 비디오 데이터의 가장 높은 재생 속도(최대속도)까지 오디오 데이터의 재생속도를 높이기가 어렵고, 무음 부분을 검출하는 처리가 과중한 부담을 요구하는 문제 때문에 실제적으로 사용하기 곤란하다.
일반적으로, 기록 매체의 고속 재생은 장면 탐색을 위해서 소비자에 의해서 대부분이 사용된다. 종래에 사용될 수 있는 대부분에 DVD에서 오디오 데이터를 출력하지 않고 고속 재생으로 비디오 데이터만이 재생된다.
본 발명에 따르면, 오디오 디코딩 장치에 있어서, 블록단위로 비트 스트림을 수신하고, 한 블록의 비트 스트림을 디코딩하여 복수의 채널에 대한 디코드된 오디오 데이터를 형성하고, 복수의 채널 각각에 대한 디코드된 오디오 데이터를 메모리 장치에 저장함으로써, 복수의 채널 각각에 대해 디코드된 오디오 데이터를 다운-믹스하는 오디오 디코딩 장치가 제공된다. 오디오 디코딩 장치는 제 2의 블록의 비트 스트림이 디코드될 동안 메모리부 내의 제 1의 블록의 비트 스트림에 대응하는 복수의 채널 각각에 대한 디코드된 오디오 데이터를 다운-믹스하기 위한 연산부를 포함한다.
본 발명의 일 실시예에서, 제 2의 블록의 비트 스트림은 복수의 개별 디코딩 연산에 의해서 각 채널에 대한 디코드된 오디오 데이터로 변환되고, 연산부는 메모리부 내의 제 1의 블록의 비트 스트림에 대응하는 각 채널에 대한 디코드된 오디오 데이터를 분할하여, 이 분할된 디코드된 오디오 데이터를 디코딩 연산이 수행될 때마다 연속적으로 다운-믹스한다.
본 발명의 한 실시예에서, 제 2의 블록의 비트 스트림은 복수의 채널수만큼 디코딩 연산을 반복함으로써 각 채널에 대한 디코드된 오디오 데이터로 변환하고, 연산부는 메모리부 내의 제 1의 블록의 비트 스트림에 대응하는 각 채널에 대한 디코드된 오디오 데이터를 분할하고, 이 분할된 디코드된 오디오 데이터를 디코딩 연산이 수행될 때마다 연속적으로 다운-믹스한다.
본 발명의 한 실시예에서, 다운-믹스한 결과로서 얻어진 디코드된 오디오 데이터는 메모리부에 저장되고 이어서 출력된다.
본 발명의 또 다른 특징에 따르면, 오디오 디코딩 장치에 있어서, 복수 채널의 오디오 신호 각각을 주파수 영역의 데이터로 변환한 결과로서 얻어진 비트 스트림을 디코딩하고, 가수부 및 지수부로 표현되도록 상기 주파수 영역 데이터를 인코딩하는 오디오 디코딩 장치가 제공된다. 오디오 디코딩 장치는 비트 스트림의 구문을 분석하여, 디코딩하는데 필요한 데이터를 비트 스트림으로부터 추출하기 위한 비트 스트림 구문 분석기; 내부 메모리부에 저장된 데이터에 기초하여 오디오 신호에 대응하는 주파수 영역에 대한 지수 데이터를 형성하기 위한 지수부 디코더; 지수부 디코더로부터 출력된 지수 데이터로부터 가수 데이터 비트 할당 양을 계산하기 위한 가수 데이터 비트 할당기; 가수 데이터 비트 할당기로부터 출력된 데이터 비트 할당 양에 기초하여 오디오 신호에 대응하는 주파수 영역에 대한 가수 데이터를 형성하기 위한 가수부 디코더; 복수의 채널 각각에 대한 디코드된 오디오 데이터를 형성하기 위해서 지수부 디코더에 의해서 형성된 지수 데이터 및 가수부 디코더에 의해 형성된 가수 데이터의 주파수 영역-시간 영역 변환을 수행하기 위한 IMDCT부; 및 복수의 채널 각각에 대한 디코드된 오디오 데이터로부터 PCM 데이터를 형성하고 인터리빙에 의해 PCM 데이터를 처리하기 위한 다운-믹스 연산기를 포함한다. 비트 스트림, 디코드된 오디오 데이터 및 PCM 데이터는 외부 메모리부에 저장된다. 비트 스트림은 블록단위로 수신되며, 제 2의 블록의 비트 스트림이 디코드될 동안 PCM 데이터는 외부 메모리부에 저장된 제 1의 블록의 비트 스트림에 대응하는 복수의 채널 각각에 대한 디코드된 오디오 데이터로부터 형성된다.
본 발명의 일 실시예에서, 외부 메모리부는 PCM 데이터 저장 영역 및 복수의 채널 각각에 대응하는 디코드된 오디오 데이터 저장 영역을 포함한다. PCM 데이터 저장 영역은 복수의 채널의 데이터 양 × 복수 단위의 데이터를 포함하는 한 블록의 비트 스트림에 대응하는 PCM 데이터를 저장할 만큼 충분한 용량을 갖는다. 디코드된 오디오 데이터 저장 영역은 복수의 채널에 각각 대응하는 복수의 영역을 포함하며, 이들 복수의 영역 각각은 한 블록 이상의 비트 스트림에 대응하는 디코드된 오디오 데이터를 저장할 만큼 충분한 용량을 갖는다.
본 발명의 한 실시예에서, 오디오 디코딩 장치는 디코드된 오디오 데이터를 외부 메모리부에 기록하기 위해서 복수의 채널 각각에 대응하는 디코드된 오디오 데이터 기록 포인터; 디코드된 오디오 데이터를 외부 메모리부로부터 판독하기 위해서 복수의 채널 각각에 대응하는 디코드된 오디오 데이터 판독 포인터; PCM 데이터를 외부 메모리부에 기록하기 위한 PCM 기록 포인터; 및 디코드된 오디오 기록 포인터 및 디코드된 오디오 판독 포인터를 갱신하기 위해서, 복수의 채널 각각에 대응하는, 디코드된 오디오 데이터 저장 영역의 최종 어드레스 데이터 및 디코드된 오디오 데이터 포인터 복귀 데이터를 더 포함한다. 디코드된 오디오 데이터 기록 포인터 및 디코드된 오디오 데이터 판독 포인터는 각각의 채널에 대해 할당된 영역에서 개별적으로 갱신되며 계산된다.
본 발명의 일 실시예에서, 다운-믹스 연산기는 N 횟수의 개별 연산으로 복수의 채널 각각에 대해 디코드된 오디오 데이터를 처리한다.
본 발명의 또 다른 특징에 따르면, 신호 처리 장치에 있어서, 복수의 채널에 대한 인코드된 데이터를 포함하는 비트 스트림을 수신하고, 복수의 채널 중 적어도 한 채널에 포함되고 채널들이 공유하는 인코드된 데이터를 디코딩하여 공통의 디코드된 데이터를 형성하고, 한 채널씩 복수의 채널 각각에 고유한 채널 인코드된 데이터를 디코딩하여 채널 디코드된 데이터를 형성하고, 상기 채널 디코드된 데이터 및 상기 공통의 디코드된 데이터를 결합함으로써 복수의 채널 각각에 대한 디코드된 데이터를 형성하는 신호 처리 장치가 제공된다. 신호 처리 장치는 공통의 인코드된 데이터를 디코딩한 결과로서 형성된 공통의 디코드된 데이터를 저장하기 위한 메모리부; 및 상기 채널 인코드된 데이터가 디코드되어 채널 디코드된 데이터를 형성할 때마다 메모리부로부터 공통의 디코드된 데이터를 판독하여, 공통의 디코드된 데이터 및 채널 디코드된 데이터의 결합을 야기하는 제어부를 포함한다.
본 발명의 또 다른 특징에 따르면, 신호 처리 장치에 있어서, 복수의 채널에 대한 인코드된 데이터를 포함하는 비트 스트림을 수신하고, 복수의 채널 중 적어도 한 채널에 포함되고 채널들이 공유하는 인코드된 데이터를 디코딩하여 공통의 디코드된 데이터를 형성하고, 한 채널씩 복수의 채널 각각에 고유한 채널 인코드된 데이터를 디코딩하여 채널 디코드된 데이터를 형성하고, 상기 채널 디코드된 데이터 및 상기 공통의 디코드된 데이터를 결합함으로써 복수의 채널 각각에 대한 디코드된 데이터를 형성하는 신호 처리 장치가 제공된다. 신호 처리 장치는 공통의 인코드된 데이터를 디코딩할 동안 얻어진 중간 데이터를 저장하기 위한 메모리부; 및 상기 채널 인코드된 데이터가 디코드되어 채널 디코드된 데이터를 형성할 때마다 메모리부로부터 중간 데이터를 판독하여 이 중간 데이터로부터 공통의 디코드된 데이터를 형성하고, 이 공통의 디코드된 데이터 및 채널 디코드된 데이터의 결합을 야기하는 제어부를 포함한다.
본 발명의 또 다른 특징에 따르면, 복수의 채널의 오디오 신호 각각을 주파수 영역의 데이터로 변환한 결과로서 얻어진 비트 스트림을 디코딩하고 가수부 및 지수부로 표현되도록 상기 주파수 영역 데이터를 인코딩하고, 복수의 채널 중 적어도 한 채널에 포함되고 채널들이 공유하는 고주파 대역 인코드된 데이터를 디코딩하여 고주파 대역 디코드된 데이터를 형성하고, 복수의 채널 각각에 대한 저주파 대역 인코드된 데이터를 디코딩하여 저주파 대역의 디코드된 데이터를 형성하고, 상기 고주파 대역 디코드된 데이터 및 고주파 대역을 결합하여 복수의 채널 각각에 대한 디코드된 데이터를 형성하도록 한 신호 처리 장치가 제공된다. 신호 처리 장치는 비트 스트림의 구문을 분석하여 이 비트 스트림으로부터 디코딩하는데 필요한 데이터를 추출하기 위한 비트 스트림 구문 분석기; 디코딩하는데 필요한 데이터를 저장하기 위한 내부 메모리부; 이 내부 메모리부에 저장된 데이터에 기초하여 오디오 신호에 대응하는 주파수 영역에 대한 지수 데이터를 형성하기 위한 지수부 디코더; 지수부 디코더로부터 출력된 지수 데이터로부터 가수 데이터 비트 할당 양을 계산하기 위한 가수 데이터 비트 할당기; 가수 데이터 비트 할당기로부터 출력된 데이터 비트 할당 양에 기초하여 오디오 신호에 대응하는 주파수 영역에 대한 가수 데이터를 형성하기 위한 가수부 디코더; 및 지수부 디코더에 의해 형성된 지수 데이터 및 가수부 디코더에 의해 형성된 가수 데이터에 기초하여 복수의 채널 각각에 대한 고주파 대역 디코드된 데이터 및 저주파 대역 디코드된 데이터를 합성하고, 복수의 채널 각각에 대한 저주파 대역 디코드된 데이터 및 고주파 대역 디코드된 데이터를 결합하고, 복수의 채널 각각에 대한 디코드된 데이터를 형성하기 위해서 상기 결과로 나타난 데이터의 주파수 영역-시간 영역 변환을 수행하는 데이터 형성부를 포함한다. 고주파 대역 디코드된 데이터는 내부 메모리부에 저장되며, 복수의 채널 각각에 대한 저주파 대역 디코드된 데이터를 형성하기 위해서, 고주파 대역디코드된 데이터는 내부 메모리부로부터 판독되고, 저주파 대역 디코드된 데이터는 고주파 대역 디코드된 데이터와 결합된다.
본 발명의 일 실시예에서, 고주파 대역 디코드된 데이터는 압축되어 내부 메모리부에 저장된다.
본 발명의 또 다른 특징에 따르면, 신호 처리 장치에 있어서, 복수의 채널의 오디오 신호 각각을 주파수 영역의 데이터로 변환한 결과로서 얻어진 비트 스트림을 디코딩하고 가수부 및 지수부로 표현되도록 상기 주파수 영역 데이터를 인코딩하고, 복수의 채널 중 적어도 한 채널에 포함되고 채널들이 공유하는 고주파 대역 인코드된 데이터를 디코딩하여 고주파 대역 디코드된 데이터를 형성하고, 복수의 채널 각각에 대한 저주파 대역 인코드된 데이터를 디코딩하여 저주파 대역의 디코드된 데이터를 형성하고, 상기 고주파 대역 디코드된 데이터 및 고주파 대역을 결합하여 복수의 채널 각각에 대한 디코드된 데이터를 형성하도록 한 신호 처리 장치가 제공된다. 신호 처리 장치는 비트 스트림의 구문을 분석하여 이 비트 스트림으로부터 디코딩하는데 필요한 데이터를 추출하기 위한 비트 스트림 구문 분석기; 디코딩하는데 필요한 데이터를 저장하기 위한 내부 메모리부; 내부 메모리부에 저장된 데이터에 기초하여 오디오 신호에 대응하는 주파수 영역에 대한 지수 데이터를 형성하기 위한 지수부 디코더; 지수부 디코더로부터 출력된 지수 데이터로부터 가수 데이터 비트 할당 양을 계산하기 위한 가수 데이터 비트 할당기; 가수 데이터 비트 할당기로부터 출력된 데이터 비트 할당 양에 기초하여 오디오 신호에 대응하는 주파수 영역에 대한 가수 데이터를 형성하기 위한 가수부 디코더; 및 지수부 디코더에 의해 형성된 지수 데이터 및 가수부 디코더에 의해 형성된 가수 데이터에 기초하여 복수의 채널 각각에 대한 고주파 대역 디코드된 데이터 및 저주파 대역 디코드된 데이터를 합성하고, 복수의 채널 각각에 대한 저주파 대역 디코드된 데이터 및 고주파 대역 디코드된 데이터를 결합하고, 복수의 채널 각각에 대한 디코드된 데이터를 형성하기 위해서 상기 결과로 나타난 데이터의 주파수 영역-시간 영역 변환을 수행하는 데이터 형성부를 포함한다. 고주파 대역 인코드된 데이터를 디코딩할 동안 얻어진 중간 데이터는 내부 메모리부에 저장되며, 복수의 채널 각각에 대한 저주파 대역 디코드된 데이터를 형성하기 위해서, 중간 데이터는 내부 메모리부로부터 판독되고, 고주파 대역 디코드된 데이터는 중간 데이터로부터 형성되고 저주파 대역 디코드된 데이터는 고주파 대역 디코드된 데이터와 결합된다.
본 발명의 일 실시예에서, 고주파 대역 디코드된 데이터는 압축되어 내부 메모리부에 저장된다.
본 발명의 일 실시예에서, 중간 데이터는 지수부 디코더로부터 출력된 지수 데이터이다.
본 발명의 일 실시예에서, 중간 데이터는 가수 데이터 비트 할당기로부터 출력된 가수 데이터 비트 할당 양이다.
본 발명의 일 실시예에서, 중간 데이터는 가수부 디코더로부터 출력된 가수 데이터이다.
본 발명의 또 다른 특징에 따르면, 음향 영상 정위 장치는 오디오 신호를 출력하기 위한 신호원; 이 신호원으로부터 출력된 오디오 신호를 2개의 채널들에 대한 두 개의 디지털 오디오 신호들로 각각 분할하기 위한 신호 분할기; 2개의 디지털 신호 중 하나를 수신하여 제 1의 주파수 특성을 갖는 필터를 사용하여 시각적 음향 영상을 정위하기 위해 디지털 신호를 처리하는 제 1의 신호 처리 장치; 제 1의 신호 처리 장치로부터 출력된 디지털 신호를 아날로그 신호로 변환하기 위한 제 1의 D/A 변환기; 상기 신호 분할기로부터 얻어진 다른 디지털 신호를 수신하여 이 신호를 아날로그 신호로 변환하기 위한 제 2의 D/A 변환기; 제 1의 D/A 변환기에 의해 얻어진 오디오 신호를 지정된 공간 영역에 출력하기 위한 제 1의 제어 스피커; 및 상기 제 2의 D/A 변환기에 의해 얻어진 오디오 신호를 지정된 공간 영역에 출력하기 위한 제 2의 제어 스피커를 포함한다.
본 발명의 일 실시예에서, 제 1의 신호 처리 장치의 제 1의 주파수 특성은 제 1 및 제 2의 제어 스피커로부터 청취자의 좌우측 귀에 도달하는 음향이 가상의 음향 영상으로부터 청취자의 좌우측 귀에 도달하는 음향들간 차와 동일한 차이를 갖도록 결정된다.
본 발명의 또 다른 특징에 따르면, 음향 영상 정위 장치는 오디오 신호를 출력하기 위한 신호원; 제 2의 주파수 특성을 갖는 필터를 사용하여 상기 신호원으로부터 출력된 오디오 신호를 처리하기 위한 제 2의 신호 처리 장치; 제 2의 신호 처리 장치로부터 출력된 오디오 신호를 2개의 채널에 대한 두 개의 디지털 오디오 신호로 각각 분할하기 위한 신호 분할기; 2개의 디지털 신호 중 하나를 수신하여 제 1의 주파수 특성을 갖는 필터를 사용하여 시각적 음향 영상을 정위하기 위해 디지털 신호를 처리하는 제 1의 신호 처리 장치; 제 1의 신호 처리 장치로부터 출력된디지털 신호를 아날로그 신호로 변환하기 위한 제 1의 D/A 변환기; 상기 신호 분할기로부터 얻어진 다른 디지털 신호를 수신하여 이 신호를 아날로그 신호로 변환하기 위한 제 2의 D/A 변환기; 제 1의 D/A 변환기에 의해 얻어진 오디오 신호를 지정된 공간 영역에 출력하기 위한 제 1의 제어 스피커; 및 상기 제 2의 D/A 변환기에 의해 얻어진 오디오 신호를 지정된 공간 영역에 출력하기 위한 제 2의 제어 스피커를 포함한다.
본 발명의 일 실시예에서, 제 1의 신호 처리 장치의 제 1의 주파수 특성은 제1 및 제 2의 제어 스피커로부터 청취자의 좌우측 귀에 도달하는 음향이 시각적 음향 영상로부터 청취자의 좌우측 귀에 도달하는 음향들간 차와 동일한 차이를 갖도록 결정된다. 제 2의 신호 처리 장치의 제 2의 주파수 특성은 제 1의 신호 처리 장치의 제 1의 주파수 특성의 음향의 질, 음향 볼륨 변경 및 위상(phase) 특성 중 적어도 하나를 보정한다.
본 발명의 또 다른 특징에 따르면, 음향 영상 정위 장치는 주파수 영역의 오디오 신호를 출력하는 신호원; 제 3의 주파수 특성을 갖는 필터를 사용하여 상기 신호원으로부터 출력된 주파수 영역의 오디오 신호를 처리하기 위한 제 3의 신호 처리 장치; 제 3의 신호 처리 장치로부터 출력된 주파수 영역의 오디오 신호를 시간 영역의 오디오 신호로 변환하기 위한 주파수 영역-시간 영역 변환기; 제 2의 주파수 특성을 갖는 필터를 사용하여 상기 주파수 영역-시간 영역 변환기로부터 출력된 오디오 신호를 처리하기 위한 제 2의 신호 처리 장치; 상기 주파수 영역-시간 영역 변환기로부터 출력된 오디오 신호를 2개의 채널에 대한 두 개의 디지털 오디오 신호로 각각 분할하기 위한 신호 분할기; 2개의 디지털 신호 중 하나를 수신하여 제 1의 주파수 특성을 갖는 필터를 사용하여 시각적 음향 영상을 정위하기 위해 디지털 신호를 처리하는 제 1의 신호 처리 장치; 제 1의 신호 처리 장치로부터 출력된 디지털 신호를 아날로그 신호로 변환하기 위한 제 1의 D/A 변환기; 상기 신호 분할기로부터 얻어진 다른 디지털 신호를 수신하여 이 신호를 아날로그 신호로 변환하기 위한 제 2의 D/A 변환기; 제 1의 D/A 변환기에 의해 얻어진 오디오 신호를 지정된 공간 영역에 출력하기 위한 제 1의 제어 스피커; 및 상기 제 2의 D/A 변환기에 의해 얻어진 오디오 신호를 지정된 공간 영역에 출력하기 위한 제 2의 제어 스피커를 포함한다.
본 발명의 일 실시예에서, 제 1의 신호 처리 장치의 제 1의 주파수 특성은 제 1 및 제 2의 제어 스피커로부터 청취자의 좌우측 귀에 도달하는 음향이 시각적 음향 영상로부터 청취자의 좌우측 귀에 도달하는 음향들간 차와 동일한 차이를 갖도록 결정된다. 제 2의 신호 처리 장치의 제 3의 주파수 특성은 제 1의 신호 처리 장치의 제 1의 주파수 특성의 음향의 질, 음향 볼륨 변경 및 위상 특성 중 적어도 하나를 주파수 영역상에서 보정한다.
본 발명의 또 다른 특징에 따르면, 음향 영상 정위 장치는 주파수 영역의 오디오 신호를 출력하는 신호원; 제 3의 주파수 특성을 갖는 필터를 사용하여 상기 신호원으로부터 출력된 주파수 영역의 오디오 신호를 처리하기 위한 제 3의 신호 처리 장치; 제 3의 신호 처리 장치로부터 출력된 주파수 영역의 오디오 신호를 시간 영역의 오디오 신호로 변환하기 위한 주파수 영역-시간 영역 변환기; 상기 주파수 영역-시간 영역 변환기로부터 출력된 오디오 신호를 제 2의 주파수 특성을 갖는 필터를 사용하여 처리하는 제 2의 신호 처리 장치; 상기 제 2의 신호 처리 장치로부터 출력된 오디오 신호를 2개의 채널에 대한 두 개의 디지털 오디오 신호로 각각 분할하기 위한 신호 분할기; 2개의 디지털 신호 중 하나를 수신하여 제 1의 주파수 특성을 갖는 필터를 사용하여 시각적 음향 영상을 정위하기 위해 디지털 신호를 처리하는 제 1의 신호 처리 장치; 제 1의 신호 처리 장치로부터 출력된 디지털 신호를 아날로그 신호로 변환하기 위한 제 1의 D/A 변환기; 상기 신호 분할기로부터 얻어진 다른 디지털 신호를 수신하여 이 신호를 아날로그 신호로 변환하기 위한 제 2의 D/A 변환기; 제 1의 D/A 변환기에 의해 얻어진 오디오 신호를 지정된 공간 영역에 출력하기 위한 제 1의 제어 스피커; 및 상기 제 2의 D/A 변환기에 의해 얻어진 오디오 신호를 지정된 공간 영역에 출력하기 위한 제 2의 제어 스피커를 포함한다.
본 발명의 일 실시예에서, 제 1의 신호 처리 장치의 제 1의 주파수 특성은 제 1 및 제 2의 제어 스피커로부터 청취자의 좌우측 귀에 도달하는 음향이 시각적 음향 영상로부터 청취자의 좌우측 귀에 도달하는 음향들간 차와 동일한 차이를 갖도록 결정된다. 제 3의 신호 처리 장치의 제 3의 주파수 특성과 제 2의 신호 처리 장치의 제 2의 주파수 특성의 결합 주파수 특성은 제 1의 신호 처리 장치의 제 1의 주파수 특성의 음향의 질, 음향 볼륨 변경 및 위상 특성 중 적어도 하나를 주파수 영역상에서 보정한다.
본 발명의 또 다른 특징에 따르면, 음향 영상 제어 방법에 있어서, 청취자의 좌측의 공간과 청취자의 우측의 공간에 각각 제공된 제 1의 제어 스피커 및 제 2의제어 스피커를 사용하여, 신호원으로부터 오디오 신호에 대응하는 가상의 음향 영상의 위치에 음향 영상을 정위하는 음향 영상 제어 방법이 제공된다. 이 방법은 제 1의 제어 스피커로 입력될 신호를 처리하기 위한 신호 처리 장치를 제공하는 단계; 및 제 1 및 제 2의 제어 스피커로부터 청취자의 좌우측 귀에 도달하는 음향들이 가상의 음향 영상로부터 청취자의 좌우측 귀에 도달하는 음향들간 차와 동일한 차이를 갖는 상태를 제공하기 위한 주파수 특성 G(n)를 구하여, 가상의 음향 영상의 위치에 오디오 신호를 정위하기 위해서 신호 처리 장치에 주파수 특성 G(n)를 갖게 하는 단계를 포함한다.
본 발명의 일 실시예에서, 주파수 특성 G(n)는, 제 1의 제어 스피커와 청취자의 좌측귀간 임펄스 응답은 h1(t), 제 1의 제어 스피커와 청취자의 우측귀간 임펄스 응답은 h2(t), 제 2의 제어 스피커와 청취자의 좌측귀간 임펄스 응답은 h3(t), 제 2의 제어 스피커와 청취자의 우측 귀간 임펄스 응답은 h4(t)이며, 임의의 방향에 정위된 가상의 음향 영상은 가상의 스피커이며, 가상의 스피커와 청취자의 좌측귀간 임펄스 응답은 h5(t)이고, 가상의 스피커와 청취자의 우측귀간 임펄스 응답은 h6(t)일 때,
(1) 청취자의 좌측 귀에 도달하는 음향을 L(t) = S(t) * h5(t)로 구하고, 청취자의 우측 귀에 도달하는 음향을 R(t) = S(t) * h6(t)으로 구하는 단계, 여기서 오디오 신호 S(t)는 신호원으로부터 가상의 스피커로부터 출력된 것이며;
(2) 시간축의 신호 L(t), R(t), h5(t), h6(t) 및 s(t)를 이산 신호 L(n), R(n), h5(n), h6(n), 및 S(n)로 변환하는 단계;;
(3) L(n) = S(n) x h5(n) 및 R(n) = S(n) x h6(n)을 구하는 단계;
(4) 제 1의 제어 스피커로부터 출력되어 청취자의 좌측 귀에 도달하는 음향을 L'(t) = S(t) * hL(t) * h1(t) + S(t) * hR(t) * h3(t)에 의해서 계산하는 단계;
(5) 제 1의 제어 스피커로부터 출력되어 청취자의 우측 귀에 도달하는 음향을 R'(t) = S(t) * hL(t) * h2(t) + S(t) * hR(t) * h4(t)에 의해서 계산하는 단계;
(6) L'(t)을 L'(n) = S(n) x hL(n) x h1(n) + S(n) x hR(n) x h3(n)으로 변환하는 단계;
(7) R'(t)을 R'(n) = S(n) x hL(n) x h2(n) + S(n) x hR(n) x h4(n)로 변환하는 단계;
(8) L(n) = L'(n)이 h5(n) = hL(n) x h1(n) + hR(n) x h3(n)으로 가정되는 단계;
(9) R(n) = R'(n)이 `h6(n) = hL(n) x h2(n) + hR(n) x h4(n)으로 가정되는 단계; 및
(10) hL(n) 및 hR(n)이 단계 (8) 및 (9)로부터 계산되어 G(n) = hL(n)/hR(n)에 기초하여 G(n)을 구한다.
본 발명의 또 다른 특징에 따르면, 오디오 신호 처리 장치는 재생속도를 표시하기 위한 제어부; 오디오 신호와 비디오 신호를 멀티플렉싱한 결과로서 얻어진 입력 신호를 처리하여 오디오 신호 및 비디오 신호를 출력하는 입력 신호 처리 장치; 입력 신호 처리 장치에 의해서 출력된 오디오 신호를 임시로 저장하기 위한 오디오 스트림 버퍼; 입력 신호 처리 장치에 의해서 출력된 비디오 신호를 임시로 저장하기 위한 비디오 스트림 버퍼; 오디오 스트림 버퍼로부터 오디오 신호를 추출하여 출력 오디오 신호를 형성하기 위해 상기 오디오 신호를 처리하는 오디오 처리 장치; 비디오 스트림 버퍼로부터 비디오 신호를 추출하여 비디오 신호를 처리하고, 출력 비디오 신호를 형성하기 위해서 제어부로부터 명령에 응답하여 비디오 신호의 고속 재생을 수행하는 비디오 처리 장치; 및 오디오 스트림 버퍼의 상태를 감시하여, 오디오 스트림 버퍼의 빈 용량이 지정된 레벨보다 작아지게 된 때 오디오 처리 장치가 오디오 신호의 고속 재생을 수행하도록 데이터 입력 및 출력을 제어하는 버퍼 제어기를 포함한다.
본 발명의 또 다른 특징에 따르면, 오디오 신호 처리 장치는 재생속도를 표시하기 위한 제어부; 오디오 신호와 비디오 신호를 멀티플렉싱한 결과로서 얻어진 입력 신호를 처리하여 오디오 신호 및 비디오 신호를 출력하는 입력 신호 처리 장치; 입력 신호 처리 장치에 의해서 출력된 오디오 신호를 임시로 저장하기 위한 오디오 스트림 버퍼; 입력 신호 처리 장치에 의해서 출력된 비디오 신호를 임시로 저장하기 위한 비디오 스트림 버퍼; 오디오 스트림 버퍼로부터 오디오 신호를 추출하여 출력 오디오 신호를 형성하기 위해 상기 오디오 신호를 처리하는 오디오 처리 장치; 비디오 스트림 버퍼로부터 비디오 신호를 추출하여 비디오 신호를 처리하고, 출력 비디오 신호를 형성하기 위해서 제어부로부터 명령에 응답하여 비디오 신호의 고속 재생을 수행하는 비디오 처리 장치; 및 비디오 스트림 버퍼의 상태를 감시하여, 비디오 스트림 버퍼 내에 잔류한 데이터 양이 지정된 레벨보다 작아지게 된 때 오디오 처리 장치가 오디오 신호의 고속 재생을 수행하도록 데이터 입력 및 출력을 제어하는 버퍼 제어기를 포함한다.
본 발명의 또 다른 특징에 따르면, 오디오 신호 처리 장치는 재생속도를 표시하기 위한 제어부; 오디오 신호와 비디오 신호를 멀티플렉싱한 결과로서 얻어진 입력 신호를 처리하여 오디오 신호 및 비디오 신호를 출력하는 입력 신호 처리 장치; 입력 신호 처리 장치에 의해서 출력된 오디오 신호를 임시로 저장하기 위한 오디오 스트림 버퍼; 입력 신호 처리 장치에 의해서 출력된 비디오 신호를 임시로 저장하기 위한 비디오 스트림 버퍼; 오디오 스트림 버퍼로부터 오디오 신호를 추출하여 출력 오디오 신호를 형성하기 위해 상기 오디오 신호를 처리하는 오디오 처리 장치; 비디오 스트림 버퍼로부터 비디오 신호를 추출하여 비디오 신호를 처리하고, 출력 비디오 신호를 형성하기 위해서 제어부로부터 명령에 응답하여 비디오 신호의 고속 재생을 수행하는 비디오 처리 장치; 및 오디오 스트림 버퍼 및 비디오 스트림 버퍼의 상태를 감시하여, 오디오 버퍼의 빈 용량 혹은 비디오 스트림 버퍼 내에 잔류한 데이터 양이 지정된 레벨보다 작아지게 된 때 오디오 처리 장치가 오디오 신호의 고속 재생을 수행하도록 데이터 입력 및 출력을 제어하는 버퍼 제어기를 포함한다.
본 발명의 일 실시예에서, 오디오 신호 처리 장치에서 오디오 신호의 고속 재생을 수행하는 방법은 비디오 신호의 고속 재생을 수행할 동안 재생될 오디오 데이터의 양을 감소시키도록 오디오 스트림 버퍼의 내용을 간헐적으로소거(flushing)함으로써 오디오 신호를 솎아내는(thinning out) 단계를 포함한다.
본 발명의 일 실시예에서, 오디오 신호 처리 장치에서 오디오 신호의 고속 재생을 수행하는 방법은 비디오 신호의 고속 재생을 수행할 동안 재생될 오디오 데이터의 양을 감소시키도록, 지정된 시간 구간 동안, 입력 신호 처리 장치로부터 오디오 스트림 버퍼로 오디오 신호의 전송을 정지하는 단계를 포함한다.
본 발명의 일 실시예에서, 오디오 신호 처리 장치에서 오디오 신호의 고속 재생을 수행하는 방법은 비디오 신호의 고속 재생을 수행할 동안 재생될 오디오 데이터의 양을 감소시키도록, 오디오 스트림 버퍼로부터 오디오 처리 장치로 입력된 데이터의 지정된 양을 스킵하는 단계를 포함한다.
본 발명의 일 실시예에서, 오디오 신호 처리 장치에서 오디오 신호의 고속 재생을 수행하는 방법은 비디오 신호의 고속 재생을 수행할 동안 재생될 오디오 데이터의 양을 감소시키도록, 지정된 시간 구간 동안, 오디오 처리 장치로부터 오디오 신호의 출력을 정지하는 단계를 포함한다.
따라서, 여기 기술된 본 발명은 (1) 메모리 버스의 유용한 사용을 실현하는 오디오 디코딩 장치를 제공하며; (2) 디코딩이 완료될 때까지 메모리 장치가 모든 채널에 대한 인코드된 데이터를 저장할 필요 없이 모든 채널이 공유하는 인코드된 데이터의 디코딩 처리를 완화하는 신호 처리 장치를 제공하며; (3) 디지털 필터가 상당히 많은 탭을 사용할 때 얻어진 것과 유사한 정위 느낌의 수준을 소량의 연산으로 제공하는 음향 영상 정위 장치, 및 이러한 음향 영상 정위 장치를 사용하여 음향 영상을 제어하는 방법; (4) 신호 처리를 간단하게 하고, 거의 불연속한 음향없이 비디오 데이터의 재생 속도에 따라 오디오 데이터를 재생하는 오디오 신호 처리 장치, 및 이러한 오디오 신호 처리 장치를 사용하여 오디오 데이터의 고속 재생을 수행하는 방법을 제공하는 이점들을 가능하게 한다.
본 발명의 이들 및 다른 이점은 첨부한 도면을 참조하여 다음의 상세한 설명을 읽고 이해할 때 이 분야에 숙련된 자들에게 명백하게 될 것이다.
도 1은 본 발명에 따른 제 1의 예에서 오디오 디코딩 장치의 구조를 도시한 블록도.
도 2는 도 1에 도시한 오디오 디코딩 장치에서 사용할 수 있는 비트 스트림의 구조를 도시한 도면.
도 3은 도 1에 도시한 오디오 디코딩 장치에 사용할 수 있는 외부 메모리 장치의 메모리 맵을 도시한 도면.
도 4는 도 1에 도시한 오디오 디코딩 장치에 의해 외부 메모리 장치를 액세스하는 방식을 도시한 도면.
도 5는 도 1에 도시한 오디오 디코딩 장치의 동작을 도시한 흐름도.
도 6은 종래의 오디오 디코딩 장치의 구조를 도시한 블록도.
도 7은 도 6에 도시한 종래의 오디오 디코딩 장치에 사용할 수 있는 외부 메모리 장치의 메모리 맵을 도시한 도면.
도 8은 도 6에 도시한 종래의 오디오 디코딩 장치의 동작을 도시한 흐름도.
도 9는 본 발명에 따른 제 2의 예에서 신호 처리 장치의 구조를 도시한 블록도.
도 10은 도 9에 도시한 신호 처리 장치에서 가수부(mantissa section) 디코더의 동작을 도시한 흐름도.
도 11은 도 9에 도시한 신호 처리 장치에서 주파수 영역 데이터 형성 장치의 동작을 도시한 흐름도.
도 12는 본 발명에 따른 제 3의 예에서 신호 처리 장치의 가수부 디코더의 동작을 도시한 흐름도.
도 13은 본 발명에 따른 제 4의 예에서 신호 처리 장치의 지수부(exponential section) 디코더의 동작을 도시한 흐름도.
도 14는 제 4의 예에서 신호 처리 장치의 주파수 영역 데이터 형상 장치의 동작을 도시한 흐름도.
도 15는 본 발명에 따른 제 5의 예에서 신호 처리 장치의 가수 데이터 비트 할당기의 동작을 도시한 흐름도.
도 16은 제 5의 예에서 신호 처리 장치의 가수부 디코더의 동작을 도시한 흐름도.
도 17은 제 5의 예에서 신호 처리 장치의 주파수 영역 데이터 형성 장치의 동작을 도시한 흐름도.
도 18은 본 발명에 따른 신호 처리 장치에서 비트 스트림을 액세스하기 위한 포인터의 이동을 도시한 도면.
도 19는 종래의 신호 처리 장치에서 비트 스트림을 액세스하기 위한 포인터의 이동을 도시한 도면.
도 20은 종래의 신호 처리 장치의 구조를 도시한 블록도.
도 21은 신호 처리에서 고주파 대역의 결합된 채널들을 도시한 도면.
도 22는 본 발명에 따른 제 6의 예에서 음향 영상 정위 장치의 구조를 도시한 블록도.
도 23은 종래의 음향 영상 정위 장치의 동작을 도시한 블록도.
도 24는 본 발명에 따른 음향 영상 정위 장치에서 사용되는 FIR 필터의 구조를 도시한 블록도.
도 25는 L 채널에서 도 23에 도시한 종래의 신호 처리 장치의 주파수 특성을 도시한 그래프.
도 26은 L 채널에서 도 23에 도시한 종래의 신호 처리 장치의 필터 계수(시간 특성)를 도시한 그래프.
도 27은 R 채널에서 도 23에 도시한 종래의 신호 처리 장치의 주파수 특성을 도시한 그래프.
도 28은 R 채널에서 도 23에 도시한 종래의 신호 처리 장치의 필터 계수(시간 특성)를 도시한 그래프.
도 29는 도 22에 도시한 신호 처리 장치의 주파수 특성을 도시한 그래프.
도 30은 도 22에 도시한 신호 처리 장치의 필터 계수(시간 특성)를 도시한 그래프.
도 31은 본 발명에 따른 제 7의 예에서 음향 영상 정위 장치의 구조를 도시한 블록도.
도 32는 도 31에 도시한 신호 처리 장치의 주파수 특성을 도시한 그래프.
도 33은 도 31에 도시한 신호 처리 장치의 필터 계수(시간 특성)를 도시한 그래프.
도 34는 본 발명에 따른 제 8의 예에서 음향 영상 정위 장치의 구조를 도시한 블록도.
도 35는 도 34에 도시한 음향 영상 정위 장치의 신호 처리 장치를 도시한 블록도.
도 36은 본 발명에 따른 제 9의 예에서 음향 영상 정위 장치의 구조를 도시한 블록도.
도 37은 본 발명에 따른 제 10의 예에서 오디오 신호 처리 장치의 구조를 도시한 블록도.
도 38은 본 발명에 따른 제 11의 예에서 오디오 신호 처리 장치의 구조를 도시한 블록도.
도 39는 본 발명에 따른 제 12의 예에서 오디오 신호 처리 장치의 구조를 도시한 블록도.
도 40은 본 발명에 따른 오디오 신호 처리 장치의 오디오 스트림의 일부를 삭제하는 방법을 도시한 도면.
도 41은 본 발명에 따른 오디오 신호 처리 장치에서 오디오 스트림의 일부를 삭제하는 또 다른 방법을 도시한 도면.
도 42는 본 발명에 따른 오디오 신호 처리 장치에서 오디오 스트림의 일부를 삭제하는 또 다른 방법을 도시한 도면.
도 43은 본 발명에 따른 오디오 신호 처리 장치에서 오디오 스트림의 일부를 삭제하는 또 다른 방법을 도시한 도면.
도 44는 제 10 및 제 12의 예에서 오디오 신호 처리 장치의 오디오 스트림 버퍼 및 비디오 스트림 버퍼 내의 잔류한 데이터 양을 도시한 도면.
도 45는 제 11 및 제 12의 예에서 오디오 신호 처리 장치의 오디오 스트림 버퍼 및 비디오 스트림 버퍼 내의 잔류한 데이터 양을 도시한 도면.
* 도면의 주요 부분에 대한 부호의 설명 *
100 : 외부 메모리 장치 102 : 지수부 디코더
105 : IMDCT 장치 106 : 다운믹스 오퍼레이터
200 : PCM 데이터 저장영역 201 : 채널 0에 대해 디코드된 오디오
301 : 채널 0에 대해 디코드된 오디오 데이터
501 : 비트 스트림 구문 해석기 503 : 가수 데이터 비트 할당기
507 : 내부 메모리 장치
703 : 지수 데이터 (주파수 성분) 부 디코더
707 : 주파수 영역-시간 영역 변환기
1101 : 인코딩된 지수 데이터 1102 : 인코딩된 가수 데이터
1300 : 비트 스트림 구문 해석기 1303 : 가수 데이터 비트 할당기
1400 : 기본 채널 1403 : 고주파수 대역
1404 : 복수개의 채널에 의해 공유된 고주파수 대역
2001-1 : 신호 처리 장치 2004 : 신호원
2006 : 신호 분할기 2007-2 : D/A 변환기
3001A: 입력 스트림 3006 : 제어기
3003 : 오디오 스트림 버퍼 3007 : 오디오 처리 장치
3010 : 출력 비디오 신호
이하, 본 발명을 첨부된 도면을 참조하고 실시예를 통해 기재할 것이다.
(예 1)
본 발명에 따른 제 1의 실시예에서 오디오 디코딩 장치(1100)를 도 1, 2, 3, 4 및 5를 참조하여 기재할 것이다. 본 발명에 따른 오디오 디코딩 장치(1100)는 입력 비트 스트림을 주로 디코딩하고, 디코드된 데이터에 대해 IMDCT(Inverted Modified Discrete Cosine Transform; 역 변형 이산 코사인 변환)을 수행한다.
도 2는 오디오 디코딩 장치(1100)에 입력되고, 이 장치에 의해 디코드된 비트 스트림의 구조를 나타낸다. 비트 스트림은 동기 신호(SYNC), 에러 검출 신호(CRC), 시스템 정보 신호(SI), 스트림 정보 신호(BS1) 및 이들 신호 이후에 배열된 오디오 블록(AB0, AB1, AB2, AB3, AB4 및 AB5)을 포함한다.
각각의 오디오 블록(AB0, AB1, AB2, AB3, AB4 및 AB5)은 최대 6개의 채널에 대해 인코딩된 오디오 데이터를 포함한다.
이 채널들은 인코딩된 오디오 데이터로서 최대 50개의 서브-밴드에 대한 지수부(Exp) 및 가수부(Mant)(최대 253 지수부 및 253 가수부)를 포함하는 정규 채널을 포함한다.
정규 채널은 다음과 같이 수행된다. 1개의 채널에 대해 인코딩된 오디오 데이터 내에 포함된 최대 50개의 서브-밴드에 대한 지수부(Exp) 및 가수부(Mant)는 주파수 영역에 대한 지수 데이터 및 가수 데이터를 형성하도록 디코드된다. 주파수 영역에 대해 디코드된 데이터는 지수 데이터 및 가수 데이터를 기초하여 형성된다. 주파수 영역에 대한 디코드된 데이터는 주파수 영역 데이터를 시간 영역 데이터로 변환시키기 위해 IMDCT에 의해 처리됨으로써, 시간 영역에 대한 디코드된 오디오 데이터를 형성한다.
이 채널들은 고주파수 대역, 저주파수 대역 및 커플링 데이터(cpl)를 포함하는 기본 채널을 포함한다. 최대 50개의 서브-밴드에 대한 지수부(Exp) 및 가수부(Mant)는 커플링 데이터(cpl)에 의해 고주파수 대역에 대응하는 부분 및 저주파수 대역에 대응하는 부분으로 분할된다. 고주파수 대역에 대응하는 지수부(Exp) 및 가수부(Mant)는 기본 채널에 대한 인코딩된 오디오 데이터로부터 트래킹되고, 복수개의 다른 채널들 내의 인코딩된 오디오 데이터로 역시 공급된다.
이 채널들은 고주파수 대역으로부터 미리 분리된 저주파수 대역을 포함하는 커플링 채널을 포함한다. 이 커플링 채널은 저주파수 대역에 대응하는 지수부(Exp) 및 가수부(Mant)를 포함한다. 커플링 채널은 다음과 같이 수행된다. 저주파수 대역에 대응하는 지수부(Exp) 및 가수부(Mant)는 저주파수 대역에 대한 지수 데이터 및 가수 데이터를 형성하기 위해 디코드된다. 주파수 영역 데이터는 시간 영역 내에 디코드된 오디오 데이터를 형성하기 위해 시간 영역 데이터로 변환된다. 고주파수대역에 대한 디코드된 오디오 데이터는 기본 채널의 고주파수 대역에 대응하는 지수부(Exp) 및 가수부(Mant)에 기초하여 형성된다. 저주파수 대역에 대한 디코드된 오디오 데이터 및 고주파수 대역에 대한 디코드된 오디오 데이터는 함께 결합되어 1개의 채널에 대한 디코드된 오디오 데이터를 형성한다.
이 채널들은 원래 고주파수 대역을 포함하지 않고, 저주파수 대역을 포함하는 저 대역 채널을 포함한다. 저 대역 채널은 다음과 같이 수행된다. 저주파수 대역에 대응하는 지수부(Exp) 및 가수부(Mant)는 저주파수 대역에 대한 지수 데이터 및 가수 데이터를 형성하기 위해 디코드된다. 주파수 영역 데이터는 시간 영역 데이터로 변환된다. 따라서, 1개의 채널에 대해 디코드된 데이터가 형성된다.
본 명세서에서, 고주파수 대역에 대한 데이터는 역시 '고주파수 대역 데이터'라 칭하고, 저주파수 대역에 대한 데이터는 역시 '저주파수 대역 데이터'라 칭한다.
도 1은 제 1의 실시예에서 오디오 디코딩 장치(1100)의 블록도이다. 오디오 디코딩 장치(1100)는 집적 반도체 장치(108)를 포함한다. 집적 반도체 장치(108)는 입력 비트 스트림 구문 해석기(101), 지수부 디코더(102), 가수 데이터 비트 할당기(103), 가수부 디코더(104), 주파수 영역 데이터 합성 및 IMDCT 장치(105), 다운-믹스 오퍼레이터(106), 및 내부 메모리 장치(107)를 포함한다. 집적 반도체 장치(108)는 외부 메모리 장치(100)를 제외한 상기 부품들을 포함한다. 이 집적 반도체 장치(108)는 외부 메모리 장치(100)와 데이터를 교환한다.
입력 비트 스트림은 외부 메모리 장치(100)에 입력되고, 입력 비트 스트림구문 해석기(101)로 전송된다. 이 입력 비트 스트림 구문 해석기(101)는 비트 스트림의 구문을 분석하고, 1개의 블록으로부터 소정의 채널에 대한 지수부(Exp)를 추출하고, 지수부 디코더(102)에 지수부(Exp)를 출력한다.
지수부 디코더(102)는 지수부(Exp)에 기초하여 주파수 영역에 대한 지수 데이터를 형성하고, 주파수 영역에 대한 지수 데이터를 가수 데이터 비트 할당기(103) 및 주파수 영역 데이터 합성 및 IMDCT 장치(105)에 출력한다.
가수 데이터 비트 할당기(103)는 외부 메모리 장치(100) 내의 비트 스트림으로부터 판독된 1개의 블록의 소정의 채널에 대한 가수부(Mant) 및 주파수 영역에 대한 지수 데이터에 기초하여 데이터 비트 할당 양(각각의 서브-밴드에 대해 할당된 가수 데이터 비트의 양)을 산출한다. 이어서, 가수 데이터 비트 할당기(103)는 가수 데이터 비트 할당 양을 가수부 디코더(104)에 출력한다.
가수부 디코더(104)는 가수 데이터 비트 할당 양으로부터 주파수 영역에 대한 가수 데이터를 형성하고, 가수 데이터를 주파수 영역 데이터 합성 및 IMDCT 장치(105)에 출력한다.
주파수 영역 데이터 합성 및 IMDCT 장치(105)는 주파수 영역에 대한 지수 데이터 및 가수 데이터에 기초하여 주파수 영역에 대해 디코드된 데이터를 형성하고, 주파수 영역 데이터를 시간 영역 데이터로 변환시킨다. 따라서, 시간 영역에 대해 디코드된 오디오 데이터가 형성되어 외부 메모리 장치(100)에 저장된다.
시간 영역에 대해 디코드된 오디오 데이터는 한 채널씩을 원칙으로 얻어진다. 각각의 채널에 대해 시간 영역에서 디코드된 오디오 데이터는 다음과 같은 방식으로 외부 메모리 장치(100)에 저장된다.
정규 채널에 대해, 상기한 바와 같이, 최대 50개의 서브-밴드에 대한 지수부(Exp) 및 가수부(Mant)는 주파수 영역 데이터를 형성하기 위해 디코드된다. 주파수 영역 데이터는 시간 영역 데이터로 변환된다. 따라서, 디코드된 오디오 데이터가 형성된다.
기본 채널에 대해, 지수부(Exp) 및 가수부(Mant)는 주파수 영역 데이터를 형성하기 위해 디코드된다. 주파수 영역 데이터는 시간 영역 데이터로 변환된다. 따라서, 디코드된 오디오 데이터가 형성된다.
고주파수 대역으로부터 이미 분리된 커플링 채널에 대해, 이 커플링 채널 내에 포함된 저주파수 대역에 대응하는 지수부(Exp) 및 가수부(Mant) 및 또한 기본 채널 내에 포함된 고주파수 대역에 대응하는 지수부(Exp) 및 가수부(Mant)가 디코드된다. 디코드된 데이터에 기초하여, 모든 주파수 대역에 대한 데이터가 형성된다. 주파수 영역 데이터는 시간 영역 데이터로 변환된다. 따라서, 디코드된 오디오 데이터가 형성된다.
고주파수 대역을 원래 갖지 않는 저 대역 채널에 대해, 이 저 대역 채널 내에 포함된 저주파수 대역에 대응하는 지수부(Exp) 및 가수부(Mant)는 저주파수 대역에 대한 데이터를 형성하기 위해 디코드된다. 주파수 영역 데이터는 시간 영역 데이터로 변환된다. 따라서, 디코드된 오디오 데이터가 형성된다.
다운-믹스 오퍼레이터(106)는 외부 메모리 장치(100) 내의 각각의 채널에 대해 디코드된 오디오 데이터로부터 PCM 데이터를 형성한다. 각각의 채널에 대응하는PCM 데이터는 각각의 채널 내의 데이터의 양(다운-믹스)을 감소시키기 위해 인터리브시킴으로써 처리된다. 생성된 PCM 데이터는 저장되고, 이어서 외부 메모리 장치(100)로부터 출력된다.
본 실시예에서, 아래 상세히 기재하는 바와 같이, 제 1의 블록 내의 데이터가 디코딩되고, 모든 채널에 대해 디코드된 오디오 데이터는 외부 메모리 장치(100)에 저장된다. 제 2의 블록 내의 데이터를 디코딩하는 중간에, 제 1의 블록 내의 각각의 채널에 대해 디코드된 오디오 데이터는 복수개의 개별 동작에 의해 다운-믹스된다.
도 3은 외부 메모리 장치(100)의 메모리 맵이다. 이 외부 메모리 장치(100)는 1개의 블록에 대한 PCM 데이터를 저장하기 위한 영역(200), 채널 0에 대해 1.75 블록에 대해 디코드된 오디오 데이터를 저장하기 위한 영역(201), 채널 1에 대해 1.75 블록에 대해 디코드된 오디오 데이터를 저장하기 위한 영역(202), 채널 2에 대해 2.75 블록에 대해 디코드된 오디오 데이터를 저장하기 위한 영역(203), 채널 3에 대해 4.25 블록에 대해 디코드된 오디오 데이터를 저장하기 위한 영역(204), 채널 4에 대해 4 블록에 대해 디코드된 오디오 데이터를 저장하기 위한 영역(205) 및 채널 5에 대해 1.5 블록에 대해 디코드된 오디오 데이터를 저장하기 위한 영역(206)을 포함한다. 상기 영역들이 이러한 순서로 꼭 배열될 필요는 없다.
각각의 채널에 대응하는 저장 영역은 제 2의 블록 내의 데이터를 디코딩하는 중간에 복수개의 별개의 동작에 의해 다운-믹스될 제 1의 블록 내의 각각의 채널에 대해 디코드된 오디오 데이터에 대해 요구되는 최소 용량을 갖는다. 채널 3 내지 5에 대응하는 영역은 지연된 디코드된 오디오 데이터가 이들 채널 내에 사용되기 때문에 보다 큰 용량을 갖도록 설정된다.
도 3에 나타낸 메모리 맵의 일 예이다. 디코드된 오디오 데이터를 저장하기 위한 영역의 크기(즉, 메모리 용량)는 지연된 양 및 다른 조건에 따라 각각의 채널에 대해 적절히 설정될 수 있다. 예를들면, 지연된 디코드된 오디오 데이터가 어느 채널에도 사용되지 않은 경우, 각각의 채널의 용량은 본 발명을 최소로 수행할 수 있다. 따라서, 채널 0, 1 및 2는 1.75 블록의 영역을 갖도록 설정되고, 채널 3은 1.25 블록의 영역을 갖도록 설정되고, 채널 4는 1.00 블록의 영역을 갖도록 설정되고, 채널 5는 1.5 블록의 영역을 갖도록 설정된다.
도 4는 외부 메모리 장치(100)를 액세스하는 방법을 나타낸다. 여기서, 1개의 블록 내의 각각의 채널에 대해 디코드된 오디오 데이터는 일 예로써 4개의 별개의 동작에 의해 다운-믹스된다는 전제하에, 채널 0에 대해 디코드된 오디오 데이터 판독 포인터의 값의 트랜지션을 나타낸다. 디코드된 오디오 데이터 판독 포인터는 디코드된 오디오 데이터를 판독하기 위해 사용된다.
초기 설정 시에, 디코드된 오디오 데이터 판독 포인터는 0x1000h로 설정되고, 디코드된 오디오 데이터 저장 영역 내의 최종 어드레스 데이터는 0x1700h로 설정되고, 디코드된 오디오 데이터 포인터 복귀 데이터는 0x700h로 설정된다. 다운-믹스 동작 전의 전처리 단계로서 외부 메모리 장치(100)로부터 디코드된 오디오 데이터를 다운-믹스 오퍼레이터(106)로 입력하기 위해, 외부 메모리 장치(100) 내의 어드레스는 판독 동작을 수행하기 위해 디코드된 오디오 데이터 판독 포인터를 참조함으로써 결정된다. 판독 후, 디코드된 오디오 데이터 판독 포인터는 다음 판독 동작을 위해 갱신된다.
디코드된 오디오 데이터 판독 포인터는 다음과 같은 방식으로 갱신된다. 먼저, 판독된 데이터의 양(0x100h)은 디코드된 오디오 데이터 판독 포인터에 부가된다. 다음으로, 부가에 의해 얻어진 디코드된 오디오 데이터 판독 포인터가 외부 메모리 장치(100)의 할당된 저장 영역 내에 존재하는지 여부를 결정하기 위해, 디코드된 오디오 데이터 판독 포인터는 디코드된 오디오 데이터 저장 영역 내의 최종 어드레스 데이터와 비교된다. 포인터가 할당된 저장 영역에 존재할 때, 디코드된 오디오 데이터 판독 포인터는 그대로 사용된다. 이 포인터가 상기 영역밖에 있을 때(즉, 디코드된 오디오 데이터 판독 포인터가 할당된 저장 영역 내의 최종 어드레스 데이터와 동일하거나 또는 그보다 클 때), 디코드된 오디오 데이터 포인터 복귀 데이터(0x1700h)는 디코드된 오디오 데이터 판독 포인터로부터 감산되고, 생성된 값이 사용된다. 따라서, 디코드된 오디오 데이터 판독 포인터는 외부 메모리 장치(100)의 할당된 저장 영역 내에서 순환된다.
디코드된 오디오 데이터를 기록하기 위해 사용된 디코드된 오디오 데이터 기록 포인터는 마찬가지 방식으로 갱신된다. 먼저, 기록 데이터의 양은 대응하는 채널에 대해 디코드된 오디오 데이터 기록 포인터에 부가된다. 이어서, 생성된 디코드된 오디오 데이터 기록 포인터는 대응하는 채널에 대해 디코드된 오디오 데이터 저장 영역 내의 최종 어드레스 데이터와 비교된다. 디코드된 오디오 데이터 기록 포인터가 최종 어드레스 데이터와 동일하거나 또는 그보다 클 때, 대응하는 채널에대해 디코드된 오디오 데이터 포인터 복귀 데이터는 디코드된 오디오 데이터 기록 포인터로부터 감산된다. 따라서, 디코드된 오디오 데이터 기록 포인터는 외부 메모리 장치(100)의 할당된 저장 영역 내에서 순환된다.
디코드된 오디오 데이터 판독 포인터 및 디코드된 오디오 데이터 기록 포인터의 초기 값은 임의로 설정된다. IMDCT에 의해 형성된 디코드된 오디오 데이터가 기록되는 영역은 다운-믹스 동작에 대해 요구되는 디코드된 오디오 데이터가 판독되는 영역과 상이하게 만들어질 수 있다.
다른 채널 1 내지 5에 관하여, 디코드된 오디오 데이터 판독 포인터, 디코드된 오디오 데이터 기록 포인터, 디코드된 오디오 데이터의 저장 영역 내의 최종 어드레스 데이터 및 디코드된 오디오 데이터 포인터 복귀 데이터가 정의된다. 따라서, 채널 1 내지 5에 대해 디코드된 오디오 데이터가 기록 또는 판독된다.
도 5는 각각의 블록 대의 오디오 데이터의 디코딩을 조절하는 방법을 예시하는 흐름도이다. 이러한 방법에 따라, 제 1의 블록을 디코딩하는 중간에, 디코드된 오디오 데이터는 복수개의 별개의 동작에 의해 다운-믹스된다.
먼저, 단계 S11에서, 레지스터(도시하지 않음), 내부 메모리 장치(107) 및 외부 메모리 장치(100)가 초기화된다. 단계 S12에서, 비트 스트림이 입력 비트 스트림 구문 해석기(101)에 입력된다(인코딩된 데이터의 수용).
단계 S13에서, 비트 스트림의 구문은 제 2의 블록 내의 소정의 채널에 대해 지수부(Exp)를 추출하도록 분석된다. 단계 S14에서, 주파수 영역에 대한 지수 데이터는 추출된 데이터를 사용하여 (지수 데이터를 디코딩하여) 형성된다. 단계 S15에서, 가수 데이터 비트 할당 양은 단계 S14에서 형성된 주파수 용역에 대한 지수 데이터 및 비트 스트림으로부터 판독된 소정의 채널의 가수부(Mant)에 기초하여 산출된다. 단계 S16에서, 주파수 영역에 대한 가수 데이터는 가수 데이터 비트 할당 양을 사용하여 형성된다.
이어서, 단계 S1에서, 시간 영역 데이터로 변환되고, 외부 메모리 장치(100)에 저장되는, 제 1의 블록 내의 각각의 채널에 대해 디코드된 오디오 데이터가 다운-믹스 동작을 N회 수행함으로써 처리되었는지 여부가 결정된다. 상기한 바와 같이, 다운-믹스 동작은 N 회수의 별개의 동작에 의해 수행된다. 말하자면, 다운-믹스 동작이 완료되었는지 여부가 결정된다. 다운-믹스 동작이 단계 S1에서 N회 수행되지 않았을 때, 1/N 블록 내의 각각의 채널에 대해 디코드된 오디오 데이터는 단계 S2에서 하기 방식으로 외부 메모리 장치(100)로부터 판독된다. 디코드된 오디오 데이터는 디코드된 오디오 데이터 판독 포인터를 참조하여 각각의 채널에 대해 외부 메모리 장치(100)로부터 판독되지만, 판독 데이터의 양은 디코드된 오디오 데이터 판독 포인터에 부가되고, 생성된 디코드된 오디오 데이터 판독 포인터는 디코드된 오디오 데이터 저장 영역 내의 최종 어드레스 데이터와 비교된다. 디코드된 오디오 데이터 판독 포인터가 디코드된 오디오 데이터 저장 영역 내의 최종 어드레스 데이터와 동일하거나 또는 그보다 더 클 때, 디코드된 오디오 데이터 포인터 복귀 데이터는 디코드된 오디오 데이터 판독 포인터로부터 감산된다(갱신).
이어서, 단계 S3에서, 1/N 블록 내의 PCM 데이터는 1/N 블록 내의 각각의 채널에 대해 디코드된 오디오 데이터로부터 산출된다(다운-믹스 동작). 단계 S4에서,기록 동작은 PCM 데이터 저장 영역(200)의 선도 어드레스를 나타내는 PCM 데이터 기록 포인터를 참조하여 수행하고, 기록 데이터의 양이 PCM 기록 포인터에 부가된다.
단계 S1에서, 다운-믹스 동작이 N회 수행되었을 때, 단계 S2, S3 및 S4는 수행되지 않고, 단계 S17로 진행된다.
단계 S17에서, 주파수 영역에 대해 디코드된 데이터는 제 2의 블록 내의 주파수 영역에 대한 가수 데이터 및 지수 데이터로부터 형성되고, 주파수 영역 데이터는 시간 영역(주파수 영역 데이터 합성 및 IMDCT)에 대해 디코드된 오디오 데이터를 형성하기 위해 시간 영역 데이터로 변환된다. 단계 S18에서, 생성된 디코드된 오디오 데이터는 외부 메모리 장치(100) 내의 소정의 채널에 대한 저장 영역 내에 다음과 같은 방식으로 저장된다. 기록 동작은 저장 영역의 선도 어드레스를 나타내는 디코드된 오디오 데이터 기록 포인터를 참조하여 수행되지만, 기록 데이터의 양은 디코드된 오디오 데이터 기록 포인터에 부가되고, 디코드된 오디오 데이터 기록 포인터는 디코드된 오디오 데이터 저장 영역 내의 최종 어드레스 데이터와 비교된다. 디코드된 오디오 데이터 기록 포인터가 디코드된 오디오 데이터 저장 영역 내의 최종 어드레스 데이터와 동일하거나 또는 그보다 더 클 때, 디코드된 오디오 데이터 포인터 복귀 데이터는 디코드된 오디오 데이터 기록 포인터로부터 감산된다(갱신).
단계 S12 내지 S18 및 S2 내지 S4(필요할 경우)의 동작은 제 2의 블록 내의 각각의 채널에 대해 반복된다. 동작이 수행되는 시간마다, 제 2의 블록 내의 각각의 채널에 대해 인코딩된 오디오 데이터는 디코드된 오디오 데이터로 변환되고, 제 1의 블록 내의 각각의 채널에 대해 디코드된 오디오 데이터는 PCM 데이터로 변환될 1/N 블록에 의해 다운-믹스된다.
단계 S19에서, 단계 S12 내지 S18 및 S2 내지 S4(필요할 경우)의 동작이 제 2의 블록 내의 모든 채널에 대해 반복되었는지 여부가 결정된다. 동작이 모든 채널에 대해 반복되지 않았을 때, 처리는 단계 S13으로 되돌아간다. 동작이 모든 채널에 대해 반복되었을 때, 처리는 단계 S5로 진행된다.
단계 S5에서, 제 1의 블록 내의 각각의 채널에 대한 다운-믹스 동작이 하기 방식으로 N회 반복되었는지 여부가 결정된다. 제 2의 블록 내의 채널의 수는 N 값과 비교된다. 제 2의 블록 내의 채널의 수가 N 값과 동일하거나 또는 그보다 더 클 때, 다운-믹스 동작은 N회 수행되었다. 그러한 경우에, 처리는 단계 S12로 되돌아간다. 제 2의 블록 내의 채널의 수가 N 값 미만일 때, 다운-믹스 동작은 N회 수행되지 않았다. 그러한 경우에, 모든 채널이 처리되지는 않는다. 이러한 데이터는 단계 S6, S7 및 S8에서 처리된다.
단계 S6에서, 1/N 블록 내의 각각의 채널에서 디코드된 오디오 데이터는 외부 메모리 장치(100)로부터 판독된다. 단계 S7에서, 1/N 블록에 대한 PCM 데이터는 1/N 블록 내의 각각의 채널에 대해 디코드된 오디오 데이터로부터 산출된다(다운-믹스 동작). 단계 S8에서, 1/N 블록 내의 PCM 데이터는 외부 메모리 장치(100) 내의 PCM 데이터 저장 영역(200)의 1/N 블록에 저장된다.
상기한 바와 같이, 제 1의 실시예에서 오디오 디코딩 장치(1100)는 복수개의채널 각각에 대응하는 디코드된 오디오 데이터 기록 포인터, 복수개의 채널 각각에 대응하는 디코드된 오디오 데이터 판독 포인터, PCM 기록 포인터, 복수개의 채널 각각에 대응하는 디코드된 오디오 데이터 저장 영역 내의 최종 어드레스 데이터, 디코드된 오디오 데이터 포인터 복귀 데이터, PCM 데이터 저장 영역(200)의 1개의 블록, 및 복수개의 채널 각각에 대응하는 디코드된 오디오 데이터 저장 영역의 최소한 1개의 블록을 포함한다. 이러한 구조로 인해, 제 1의 블록 내의 각각의 채널에 대해 디코드된 오디오 데이터는 제 2의 블록 내의 각각의 채널에 대해 인코딩된 오디오 데이터가 디코드된 동안 N개의 별개의 동작에 의해 다운-믹스된다.
따라서, 집적 반도체 장치(108)와 외부 메모리 장치(100) 간에 한 번에 전송되는 데이터의 양이 감소되고, 따라서 메모리 버스를 사용하는 효율을 증가시킨다.
본 발명은 상기 실시예로 제한되지 않고, 다양한 방식으로 변경될 수 있다. 예를들면, 비트 스트림, 인코딩된 데이터 및 디코드된 데이터의 포맷 및 채널들의 수는 임의로 변경될 수 있다.
예를들면, 상기 실시예에서, 비트 스트림은 AC-3 표준에 따르고; 즉, 비트 스트림은 복수개의 블록을 포함하고, 각각의 블록은 6개의 채널(max) x 256개의 데이터(max)를 포함한다. 본 발명은 다른 표준에 따라 비트 스트림에 적용될 수 있고, 예를들면 비트 스트림은 8 채널(max) x 1024 데이터(max)를 포함한다. 그러한 경우, 데이터는 상기 실시예 중의 블록들이 프레임으로 대체된 상태에서 처리된다. 본 발명은 채널들, 데이터 및 블록들의 수가 다이내믹하게 변화하는 경우에 역시 적용될 수 있다. 부-대역의 수는 임의로 설정될 수 있다.
상기한 바와 같이, 본 발명에 따른 오디오 디코딩 장치는 복수개의 채널 각각에 대응하는 디코드된 오디오 데이터 기록 포인터, 복수개의 채널 각각에 대응하는 디코드된 오디오 데이터 판독 포인터, PCM 기록 포인터, 복수개의 채널 각각에 대응하는 디코드된 오디오 데이터 저장 영역 내의 최종 어드레스 데이터, 디코드된 오디오 데이터 포인터 복귀 데이터, PCM 데이터 저장 영역의 1개의 블록, 및 복수개의 채널 각각에 대응하는 디코드된 오디오 데이터 저장 영역의 최소한 1개의 블록을 포함한다. 이러한 구조로 인해, 오디오 블록 데이터의 다운-믹스 동작은 N개의 별개의 동작에 의해 수행되고, 그 동안 인코딩된 오디오 데이터는 오디오 블록 데이터가 디코딩되기 직전에 오디오 블록 데이터를 사용하여 디코드된다. 따라서, 외부 메모리 장치와 오디오 디코딩 장치 간에 전송되는 데이터의 양이 감소되고, 따라서 메모리 버스를 사용하는 효율을 증가시킨다.
(예 2)
본 발명에 따른 제 2의 실시예에서 신호 처리 장치(1200)를 도 9, 10, 11 및 18을 참조하여 기재할 것이다.
도 9를 참조하여, 신호 처리 장치(1200)의 구조 및 동작을 기재할 것이다.
신호 처리 장치(1200)에 입력된 비트 스트림은 먼저 다중 채널에 대응하는 각각의 오디오 신호들을 주파수 영역 데이터로 변환시키고, 가수부 및 지수부로 나타낼 수 있도록 주파수 영역 데이터를 인코딩함으로써 형성된다. 이러한 비트 스트림은 복수개의 채널에 대한 오디오 데이터를 포함한다.
이 채널들은 고주파수 대역 및 저주파수 대역을 포함하는 정규 채널을 포함한다. 이들 채널은 복수개의 다른 채널들에 의해 공유된 고주파수 대역 및 저주파수 대역을 포함하는(도 21에 나타낸 채널 1400) 기본 채널을 포함한다. 이들 채널은 고주파수 대역으로부터 미리 분리된 저주파수 대역을 포함하는 커플링 채널을 포함한다.
비트 스트림은 신호 처리 장치(1200) 밖에 제공된 외부 메모리 장치(700)에 입력된다. 입력 비트 스트림 구문 해석기(701)는 외부 메모리 장치(700) 내의 비트 스트림의 구문을 분석하고, 디코딩을 위해 요구되는 각각의 채널에 대한 지수부 등의 데이터를 추출한다. 추출된 데이터는 신호 처리 장치(1200)에 제공된 내부 메모리 장치(702) 내에 저장된다. 분석된 비트 스트림은 외부 메모리 장치(700)로부터 폐기될 수 있다.
이어서, 데이터는 비트 스트림 내의 각각의 채널에 대해 다음과 같은 방식으로 디코드된 오디오 데이터를 형성하도록 디코드된다.
주파수 영역에 대한 지수 데이터를 디코딩하기 위한 지수부 디코더(703)는 내부 메모리 장치(702)로부터 비트 스트림 내에 포함된 각각의 채널에 대해 지수부를 추출하고, 지수 데이터를 형성하기 위해 지수부를 디코딩한다. 지수 데이터는 내부 메모리 장치(702)의 동작 영역 내에 저장된다.
가수 데이터 비트 할당기(704)는 외부 메모리 장치(700) 내에 저장된 비트 스트림에 포함된 타겟 채널의 비트 할당을 나타내는 가수부 및 지수부 디코더(703)에 의해 형성된 타겟 채널에 대한 지수 데이터로부터 히어링 특성에 기초하여 비트 할당 양을 형성한다. 비트 할당 양에 기초하여, 가수부 디코더(705)는 주파수 영역에 대한 가수 데이터를 형성한다.
가수 데이터의 형성은 도 10의 흐름도에 나타낸 바와 같이 수행된다.
단계 S20에서, 타겟 채널이 고주파수 대역으로부터 이미 분리된 커플링 채널인지 여부를 결정한다. 타겟 채널이 커플링 채널일 때(단계 S20에서 '예'), 채널에 대한 저주파수 대역에 대해 인코딩된 데이터의 가수부는 가수 데이터를 형성하도록 디코딩되고, 가수 데이터는 단계 S24에서 내부 메모리 장치(702)의 동작 영역 내에 저장된다. 이어서, 데이터는 주파수 영역 데이터 형성 장치(706)에 의해 처리된다(도 9). 단계 S24에서 저장된 저주파수 대역에 대한 가수 데이터는 가수 데이터 및 지수 데이터가 이후에 기재되는 단계 S31에서 합성된 직후에 삭제될 수 있다.
타겟 채널이 단계 S20에서 커플링 채널이 아닐 때('아니오'), 처리는 단계 S21로 진행된다. 이러한 경우에, 타겟 채널은 고주파수 대역 및 저주파수 대역을 포함하는 정규 채널이거나, 또는 복수개의 다른 채널들에 의해 공유된 고주파수 대역 및 저주파수 대역을 포함하는 기본 채널이다. 단계 S21에서, 저주파수 대역에 대한 가수부 및 고주파수 대역에 대한 가수부는 저주파수 대역에 대한 가수 데이터 및 고주파수 대역에 대한 가수 데이터를 형성하도록 디코드된다. 생성된 데이터는 내부 메모리 장치(702)의 동작 영역 내에 저장된다.
이어서, 단계 S22에서, 타겟 채널이 복수개의 다른 채널들에 의해 공유된 고주파수 대역 및 저주파수 대역을 포함하는 기본 채널인지 여부가 결정된다. 타겟 채널이 단계 S22에서 기본 채널이 아닐 때('아니오'), 데이터는 주파수 영역 데이터 형성 장치(706)에 의해 처리된다. 타겟 채널이 단계 S22에서 기본 채널일 때('예'), 처리는 단계 S23으로 진행된다. 단계 S23에서, 단계 S21에서 형성된 기본 채널에 대한 고주파수 대역에 대한 가수 데이터는 내부 메모리 장치(702) 내에 다시 저장된다.
단계 S21 및 S23에서, 기본 채널에 대한 고주파수 대역에 대한 가수 데이터(도 21에서 채널 1400)는 내부 메모리 장치(702) 내의 2개의 상이한 영역에 기록된다. 이들 영역은 서로 상이하고 구별 가능하기 때문에, 2조각의 정확히 동일한 가수 데이터는 내부 메모리 장치(702) 내에 유지된다.
단계 S21에서 저장된 기본 채널에 대한 고주파수 대역에 대한 가수 데이터는 기본 채널에 대한 가수 데이터 및 지수 데이터가 이후에 기재되는 단계 S31에서 합성된 직후에 삭제될 수 있다. 이와는 대조적으로, 단계 S23에서 저장된 기본 채널에 대한 고주파수 대역에 대한 가수 데이터는 가수 데이터가 합성될 때까지 내부 메모리 장치(702) 내에 유지되고, 지수 데이터는 가수 데이터 및 지수 데이터의 합성이 기본 채널에 대한 고주파수 대역을 공유하는 모든 채널에 대해 완료될 때까지 내부 메모리 장치(702) 내에 유지된다.
주파수 영역 데이터 형성 장치(706)는 주파수 영역에 대해 디코드된 데이터를 형성하기 위해 가수부 디코더(706)에 의해 형성된 가수 데이터 및 지수부 디코더(703)에 의해 형성된 지수 데이터를 합성한다.
디코드된 데이터의 형성은 도 11의 흐름도에 나타낸 바와 같이 수행된다.
단계 S30에서, 타겟 채널이 고주파수 대역으로부터 이미 분리된 커플링 채널인지 여부를 결정한다. 타겟 채널이 커플링 채널이 아닐 때('아니오'), 즉, 타겟채널이 정규 채널이거나 또는 기본 채널일 때, 처리는 단계 S31로 진행된다. 단계 S31에서, 내부 메모리 장치(702) 내에 저장된 저주파수 대역에 대한 지수 데이터 및 가수 데이터가 합성되고, 내부 메모리 장치(702) 내에 저장된 고주파수 대역에 대한 지수 데이터 및 가수 데이터가 합성된다. 따라서, 고주파수 대역에 대한 데이터 및 저주파수 대역에 대한 데이터가 커플링된 경우에 디코드된 데이터, 즉, 주파수 영역에 대해 디코드된 데이터가 형성된다.
타겟 채널이 단계 S30에서 커플링 채널일 때('예'), 처리는 단계 S32로 진행된다. 단계 S32에서, 커플링 채널에 대한 저주파수 대역에 대한 지수 데이터 및 가수 데이터가 합성된다. 더욱이, 단계 S21에서 얻어진 기본 채널에 대한 고주파수 대역에 대한 가수 데이터 및 기본 채널에 대한 고주파수 대역에 대한 지수 데이터(단계 S21에서 얻어진 채널 1400)는 내부 메모리 장치(702)로부터 판독된다. 단계 S33에서, 기본 채널에 대한 고주파수 대역에 대한 지수 데이터 및 가수 데이터가 합성된다. 따라서, 단계 S31에서, 고주파수 대역에 대한 데이터 및 저주파수 대역에 대한 데이터가 커플링된 경우에 디코드된 데이터, 즉, 주파수 영역에 대해 디코드된 데이터가 형성된다.
이어서, 주파수 영역-시간 영역 변환기(707)는 PCM 데이터를 형성하기 위해 주파수 영역 데이터 형성 장치(706)에 의해 형성된 디코드된 데이터를 시간 영역 데이터로 변환시킨다.
본 실시예에서, 복수개의 채널에 의해 공유되는 고주파수 대역에 대한 가수부가 도 10의 단계 S21에서 디코드된 후, 얻어진 가수 데이터는 단계 S23에서 내부메모리 장치(702)에 저장된다. 각각의 채널에 대한 데이터를 디코딩하기 위해, 가수 데이터는 내부 메모리 장치(702)로부터 반복적으로 판독된다. 따라서, 외부 메모리 장치(700) 내의 비트 스트림은 고주파수 대역에 대해 인코딩된 데이터를 얻기 위해서만 액세스될 필요가 있다. 종래 장치에서 필요한 바와 같이, 고주파수 대역에 대해 인코딩된 데이터를 얻기 위해 외부 메모리 장치(700) 내의 비트 스트림을 반복적으로 액세스할 필요는 없다. 따라서, 고주파수 대역에 대한 디코드된 데이터의 형성이 완료될 때까지 외부 메모리 장치(700) 내의 비트 스트림을 유지할 필요는 없다. 외부 메모리 장치(700)는 통상적으로 요구되는 바의 대용량을 가질 필요는 없다. 더욱이, 고주파수 대역에 대해 디코드된 데이터의 형성이 한 번 요구되기 때문에, 전체 동작 양은 감소된다.
상기한 바와 같이, 외부 메모리 장치(700) 내의 비트 스트림은 고주파수 대역에 대해 인코딩된 데이터를 얻기 위해 일단 액세스된다. 따라서, 도 18에 나타낸 바와 같이, 비트 스트림(1200)으로부터 인코딩된 지수 데이터(1101) 및 인코딩된 가수 데이터(1102)를 판독하기 위한 포인터(1103)의 동작은 화살표(1104)로 나타낸 바와 같이 비교적 간단하다. 비트 스트림의 동일한 부분에서 인코딩된 데이터를 반복적으로 판독할 필요는 없다. 비트 스트림 내에 포함된 각각의 채널에 대해 인코딩된 데이터는 채널들 순으로 단순히 순차로 판독된다. 따라서, 포인터(1103)의 동작은 비교적 단순하고, 용이하게 조절된다.
(예 3)
본 발명에 따른 제 3의 실시예에서 신호 처리 장치를 도 9 및 12를 참조하여기재할 것이다. 제 3의 실시예에서 신호 처리 장치는 도 9에 나타낸 제 2의 실시예에서와 동일한 구조를 갖는다. 도 12에 나타낸 처리는 도 10에 나타낸 처리 대신에 수행되고, 이어서 도 11에 나타낸 처리가 수행된다. 제 3의 실시예에서 신호 처리 장치의 부품들은 제 2의 실시예의 것들과 동일한 참조 번호를 갖는다.
도 12에 나타낸 처리는 단계 S41이 단계 S22와 단계 S23 사이에서 수행된다는 점에서 도 10의 처리와 상이하다.
단계 S20에서, 타겟 채널이 고주파수 대역으로부터 이미 분리된 커플링 채널인지 여부를 결정한다. 타겟 채널이 커플링 채널일 때('예'), 이 채널에 대한 저주파수 대역에 대해 인코딩된 데이터의 가수부는 가수 데이터를 형성하기 위해 디코딩되고, 가수 데이터는 단계 S24에서 내부 메모리 장치(702)의 동작 영역 내에 저장된다. 이어서, 데이터는 주파수 영역 데이터 형성 장치(706)에 의해 처리된다(도 9).
타겟 채널이 단계 S20에서 커플링 채널이 아닐 때('아니오'), 처리는 단계 S21로 진행된다. 이러한 경우에, 타겟 채널은 고주파수 대역 및 저주파수 대역을 포함하는 정규 채널이거나, 또는 복수개의 다른 채널들에 의해 공유된 고주파수 대역 및 저주파수 대역을 포함하는 기본 채널이다. 단계 S21에서, 저주파수 대역에 대한 가수부 및 고주파수 대역에 대한 가수부는 저주파수 대역에 대한 가수 데이터 및 고주파수 대역에 대한 가수 데이터를 형성하도록 디코드된다. 생성된 데이터는 내부 메모리 장치(702)의 동작 영역 내에 저장된다.
이어서, 단계 S22에서, 타겟 채널이 복수개의 다른 채널들에 의해 공유된 고주파수 대역 및 저주파수 대역을 포함하는 기본 채널인지 여부가 결정된다. 타겟 채널이 단계 S22에서 기본 채널이 아닐 때('아니오'), 데이터는 주파수 영역 데이터 형성 장치(706)에 의해 처리된다. 타겟 채널이 단계 S22에서 기본 채널일 때('예'), 처리는 단계 S41로 진행된다. 단계 S41에서, 단계 S21에서 형성된 기본 채널에 대한 고주파수 대역에 대한 가수 데이터는 압축된다. 단계 S23에서, 고주파수 대역에 대한 압축된 가수 데이터는 내부 메모리 장치(702)의 동작 영역 내에 다시 저장된다.
가수 데이터가 단계 S21에서 기록되는 영역 및 가수 데이터가 단계 S23에서 기록되는 영역은 서로 상이하고 구별 가능하다.
단계 S21에서 기록된 가수 데이터는 기본 채널에 대한 가수 데이터 및 지수 데이터가 이후에 기재되는 단계 S31에서 합성된 직후에 삭제될 수 있다. 이와는 대조적으로 단계 S23에서 기록된 압축된 가수 데이터는 가수 데이터 및 지수 데이터의 합성이 기본 채널에 대해 고주파수 대역을 공유하는 모든 채널에 대해 완료될 때까지 내부 메모리 장치(702) 내에 유지된다.
주파수 영역 데이터 형성 장치(706)는 도 11의 흐름도에 나타낸 바와 같이, 주파수 영역에 대해 디코드된 데이터를 형성하기 위해 가수부 디코더(705)에 의해 형성된 가수 데이터 및 지수부 디코더(703)에 의해 형성된 지수 데이터를 합성한다. 합성 전에, 단계 S41에서 압축되고 단계 S23에서 내부 메모리 장치(702)에 기록된 기본 채널에 대한 고주파수 대역에 대한 가수 데이터는 내부 메모리 장치(702)로부터 판독되고, 원래의 가수 데이터로 확장된다. 확장된 데이터가 사용된다.
본 실시예에서, 고주파수 대역에 대한 가수 데이터는 압축된 후 내부 메모리 장치(702) 내에 저장된다. 따라서, 내부 메모리 장치(702)의 요구되는 용량은 감소된다.
(예 4)
본 발명에 따른 제 4의 실시예에서 신호 처리 장치는 도 13 및 14를 참조하여 기재할 것이다. 제 4의 실시예에서 신호 처리 장치는 도 9에 나타낸 제 2의 실시예와 동일한 구조를 가지며, 도 10, 13 및 14에 나타낸 바의 처리를 수행한다. 제 4의 실시예의 신호 처리 장치의 부품들은 제 2의 실시예의 것들과 동일한 참조 번호를 갖는다.
각각의 채널에 대한 가수부는 도 10에 나타낸 바와 같이 처리되고, 그의 설명은 생략할 것이다.
제 2의 실시예에서, 도 10 및 11에 나타낸 처리 전에, 각각의 타겟 채널에 대한 지수부가 판독 및 디코딩되기 전에, 생성된 지수 데이터는 내부 메모리 장치(702)의 동작 영역에 저장된다. 제 4의 실시예에서, 지수부의 그러한 디코딩은 도 13 및 14에 나타낸 처리 전에 수행되지 않는다. 지수부는 도 13에 나타낸 바와 같이 지수부 디코더(703)에 의해 디코드된다.
단계 S60에서, 타겟 채널이 고주파수 대역으로부터 이미 분리된 커플링 채널인지 여부를 결정한다. 타겟 채널이 커플링 채널일 때('예'), 이 채널에 대한 저주파수 대역에 대해 인코딩된 데이터의 지수부는 지수 데이터를 형성하도록 디코딩되고, 이 지수 데이터는 단계 S64에서 내부 메모리 장치(702)의 동작 영역 내에 저장된다. 이어서, 데이터는 주파수 영역 데이터 형성 장치(706)에 의해 처리된다(도 9).
타겟 채널이 단계 S60에서 커플링 채널이 아닐 때('아니오'), 처리는 단계 S61로 진행된다. 이러한 경우에, 타겟 채널은 고주파수 대역 및 저주파수 대역을 포함하는 정규 채널이거나, 또는 복수개의 다른 채널들에 의해 공유된 고주파수 대역 및 저주파수 대역을 포함하는 기본 채널이다. 단계 S61에서, 저주파수 대역에 대한 지수부 및 고주파수 대역에 대한 지수부는 저주파수 대역에 대한 지수 데이터 및 고주파수 대역에 대한 지수 데이터를 형성하도록 디코드된다. 생성된 데이터는 내부 메모리 장치(702)의 동작 영역 내에 저장된다.
이어서, 단계 S62에서, 타겟 채널이 기본 채널인지 여부가 결정된다. 타겟 채널이 단계 S62에서 기본 채널이 아닐 때('아니오'), 데이터는 주파수 영역 데이터 형성 장치(706)에 의해 처리된다. 타겟 채널이 단계 S62에서 기본 채널일 때('예'), 처리는 단계 S63으로 진행된다. 단계 S63에서, 단계 S61에서 형성된 고주파수 대역에 대한 지수 데이터는 내부 메모리 장치(702) 내에 다시 저장된다.
단계 S61 및 S63에서, 기본 채널에 대한 고주파수 대역에 대한 지수 데이터는 내부 메모리 장치(702) 내의 2개의 상이한 영역에 기록된다. 이들 영역은 서로 상이하고 구별 가능하기 때문에, 2조각의 정확히 동일한 지수 데이터는 내부 메모리 장치(702) 내에 유지된다.
단계 S61에서 기록된 고주파수 대역에 대한 지수 데이터는 기본 채널에 대한가수 데이터 및 지수 데이터가 이후에 기재되는 단계 S71에서 합성된 직후에 삭제될 수 있다. 이와는 대조적으로, 단계 S63에서 기록된 지수 데이터는 가수 데이터 및 지수 데이터의 합성이 기본 채널에 대한 고주파수 대역을 공유하는 모든 채널에 대해 완료될 때까지 내부 메모리 장치(702) 내에 유지된다.
이하, 주파수 영역에 대해 디코드된 데이터의 형성은 도 14의 흐름도에 예시된 바와 같이 수행된다.
단계 S70에서, 타겟 채널이 고주파수 대역으로부터 이미 분리된 커플링 채널인지 여부를 결정한다. 타겟 채널이 커플링 채널이 아닐 때('아니오'), 즉, 타겟 채널이 정규 채널이거나 또는 기본 채널일 때, 처리는 단계 S71로 진행된다. 단계 S71에서, 단계 S21에서 얻어진 지수 데이터 및 가수 데이터가 합성되고, 그로 인해 주파수 영역에 대해 디코드된 데이터를 형성한다. 보다 상세하게는, 저 주파수 대역에 대한 지수 데이터 및 가수 데이터가 합성되고, 고주파수 대역에 대한 지수 데이터 및 가수 데이터가 합성되고, 그로 인해 디코드된 데이터를 형성하며, 여기서 고주파수 대역 및 저주파수 대역이 커플링된다.
타겟 채널이 단계 S70에서 커플링 채널일 때('예'), 처리는 단계 S72로 진행된다. 단계 S72에서, 이 커플링 채널에 대한 저주파수 대역에 대한 지수 데이터 및 가수 데이터가 합성된다. 더욱이, 단계 S21에서 얻어진 기본 채널에 대한 고주파수 대역에 대한 가수 데이터 및 기본 채널에 대한 고주파수 대역에 대한 지수 데이터는 내부 메모리 장치(702)로부터 판독된다. 단계 S73에서, 기본 채널에 대한 고주파수 대역에 대한 지수 데이터 및 가수 데이터가 합성된다. 따라서, 단계 S71에서,고주파수 대역에 대한 데이터 및 저주파수 대역에 대한 데이터가 커플링된 경우에 디코드된 데이터, 즉, 주파수 영역에 대해 디코드된 데이터가 형성된다.
이어서, 주파수 영역-시간 영역 변환기(707)는 PCM 데이터를 형성하기 위해 주파수 영역 데이터 형성 장치(706)에 의해 형성된 디코드된 데이터를 시간 영역 데이터로 변환시킨다.
본 실시예에서, 복수개의 채널에 의해 공유되는 고주파수 대역에 대한 가수부가 도 10의 단계 S21에서 디코드된 후, 얻어진 가수 데이터는 단계 S23에서 내부 메모리 장치(702)에 저장된다. 더욱이, 복수개의 채널에 의해 공유되는 고주파수 대역에 대한 지수부가 단계 S61에서 디코드된 후, 얻어진 지수 데이터는 단계 S63에서 내부 메모리 장치(702)에 저장된다. 각각의 채널에 대한 데이터를 디코딩하기 위해, 가수 데이터 및 지수 데이터는 내부 메모리 장치(702)로부터 반복적으로 판독된다. 따라서, 전체 동작 양은 감소된다.
(예 5)
본 발명에 따른 제 5의 실시예에서 신호 처리 장치는 도 15, 16 및 17을 참조하여 기재할 것이다. 제 5의 실시예에서 신호 처리 장치는 도 9에 나타낸 제 2의 실시예와 동일한 구조를 가지며, 도 13 및 도 15 내지 17에 나타낸 바의 처리를 수행한다. 제 5의 실시예의 신호 처리 장치의 부품들은 제 2의 실시예의 것들과 동일한 참조 번호를 갖는다.
각각의 채널에 대한 지수부는 도 13에 나타낸 바와 같이 처리되고, 그의 설명은 생략할 것이다.
각각의 채널에 대한 가수부는 도 15 및 16에 나타낸 바와 같이 디코딩되고, 가수 데이터 및 지수 데이터는 도 17에 예시된 바와 같이 합성된다.
먼저, 가수 데이터 비트 할당기(704)에 의해 수행된 처리를 도 15를 참조하여 기재할 것이다.
단계 S80에서, 타겟 채널이 고주파수 대역으로부터 이미 분리된 커플링 채널인지 여부를 결정한다. 타겟 채널이 커플링 채널일 때('예'), 파워 스펙트럼 밀도는 이 채널에 대한 저주파수 대역의 지수 데이터로부터 얻어지고, 청각 특성에 기초한 비트 할당 양은 단계 S84에서 산출된다. 이어서, 데이터는 가수부 디코더(705)에 의해 처리된다.
타겟 채널이 단계 S80에서 커플링 채널이 아닐 때('아니오'), 처리는 단계 S81로 진행된다. 이러한 경우에, 타겟 채널은 고주파수 대역 및 저주파수 대역을 포함하는 정규 채널이거나, 또는 복수개의 다른 채널들에 의해 공유된 고주파수 대역 및 저주파수 대역을 포함하는 기본 채널이다. 단계 S81에서, 파워 스펙트럼 밀도는 채널에 대한 저주파수 대역 및 고주파수 대역에 대해 디코드된 지수 데이터로부터 얻어지고, 청각 특성에 기초한 저주파수 대역 및 고주파수 대역에 대한 비트 할당 양이 얻어진다.
다음으로, 단계 S82에서, 타겟 채널이 기본 채널인지 여부가 결정된다. 타겟 채널이 단계 S82에서 기본 채널이 아닐 때('아니오'), 데이터는 가수부 디코더(705)에 의해 처리된다. 타겟 채널이 단계 S82에서 기본 채널일 때('예'), 처리는 단계 S83으로 진행된다. 단계 S83에서, 단계 S81에서 얻어진 기본 채널에대한 고주파수 대역에 대한 비트 할당 양은 내부 메모리 장치(702)에 기록되고, 이어서, 데이터는 가수부 디코더(705)에 의해 처리된다.
단계 S63에서 기록된 기본 채널에 대한 고주파수 대역에 대한 비트 할당 양은 가수 데이터 및 지수 데이터의 합성이 기본 채널에 대한 고주파수 대역을 공유하는 모든 채널에 대해 완료될 때까지 내부 메모리 장치(702) 내에 유지된다.
가수부 디코더(705)에 의해 수행된 처리는 도 16을 참조하여 기재할 것이다.
단계 S90에서, 타겟 채널이 고주파수 대역으로부터 이미 분리된 커플링 채널인지 여부를 결정한다. 타겟 채널이 커플링 채널일 때('예'), 처리는 단계 S92로 진행된다. 단계 S92에서, 단계 S83에서 저장된 기본 채널에 대한 고주파수 대역에 대한 비트 할당 양은 내부 메모리 장치(702)로부터 판독된다. 이어서, 단계 S91에서, 기본 채널에 대한 고주파수 대역에 대한 가수 데이터가 고주파수 대역에 대한 비트 할당 양에 기초하여 형성된다. 더욱이, 커플링 채널에 대한 저주파수 대역에 대한 가수 데이터는 단계 S84에서 형성된 커플링 채널에 대한 저주파수 대역에 대한 비트 할당 양에 기초하여 형성된다.
타겟 채널이 단계 S90에서 커플링 채널이 아닐 때('아니오'), 처리는 단계 S91로 진행된다. 이러한 경우에, 타겟 채널은 고주파수 대역 및 저주파수 대역을 포함하는 정규 채널이거나, 또는 복수개의 다른 채널들에 의해 공유된 고주파수 대역 및 저주파수 대역을 포함하는 기본 채널이다. 단계 S91에서, 가수 데이터는 단계 S81에서 형성된 비트 할당 양에 기초하여 타겟 채널에 대해 형성되고, 이어서, 데이터는 주파수 영역 데이터 형성 장치(706)에 의해 처리된다(도 9).
다음으로, 주파수 영역 데이터 형성 장치(706)에 의해 디코드된 데이터의 형성을 도 17을 참조하여 기재할 것이다.
단계 S1000에서, 타겟 채널이 고주파수 대역으로부터 이미 분리된 커플링 채널인지 여부가 결정된다. 타겟 채널이 커플링 채널이 아닐 때('아니오'), 즉, 타겟 채널이 정규 채널이거나 또는 기본 채널일 때, 처리는 단계 S1001로 진행된다. 단계 S1001에서, 타겟 채널에 대한 지수 데이터가 내부 메모리 장치(702)로부터 판독된다. 지수 데이터는 가수부 디코더(705)에 의해 형성된 타겟 채널에 대해 가수 데이터와 함께 합성되고, 그로 인해 주파수 영역에 대해 디코드된 데이터를 형성한다.
타겟 채널이 단계 S1000에서 커플링 채널일 때('예'), 기본 채널에 대한 고주파수 대역에 대한 지수 데이터는 단계 S1002에서 내부 메모리 장치(702)로부터 판독된다. 이어서, 단계 S1003에서, 커플링 채널에 대한 저주파수 대역에 대한 지수 데이터 및 가수 데이터가 합성된다. 더욱이, 단계 S91에서 얻어진 기본 채널에 대한 고주파수 대역에 대한 가수 데이터 및 내부 메모리 장치(702)로부터 기본 채널에 대한 고주파수 대역에 대한 지수 데이터가 합성된다. 따라서, 단계 S1001에서, 고주파수 대역에 대한 데이터 및 저주파수 대역에 대한 데이터가 커플링된 경우에 디코드된 데이터, 즉, 주파수 영역에 대해 디코드된 데이터가 형성된다.
이어서, 주파수 영역-시간 영역 변환기(707)는 PCM 데이터를 형성하기 위해 주파수 영역 데이터 형성 장치(706)에 의해 형성된 디코드된 데이터를 시간 영역 데이터로 변환시킨다.
고주파수 대역으로부터 이미 분리된 커플링 채널 내의 데이터가 디코드된 경우에, 지수부 디코더(703) 및 가수 데이터 비트 할당기(704)에 의한 처리는 제거될 수 있다. 비트 할당 양을 나타내는 데이터는 가수 데이터의 약 1/2이기 때문에, 내부 메모리 장치(702)의 요구되는 용량은 감소된다. 결과적으로, 고주파수 대역으로부터 이미 분리된 커플링 채널 내의 데이터는 고속으로 처리될 수 있다.
고주파수 대역에 대해 인코딩된 데이터가 완료될 때까지 내부 메모리 장치(702) 내의 비트 스트림이 유지될 필요는 없다. 따라서, 내부 메모리 장치(702)의 요구되는 용량이 감소된다.
제 1 내지 제 5의 실시예는 적절히 조합될 수 있다. 이러한 경우에, 고주파수 대역으로부터 이미 분리된 커플링 채널 내의 데이터를 디코딩하기 위해, 주파수 영역에 대한 지수부 디코더(703)에 의한 처리만을 생략하거나, 가수 데이터 비트 할당기(704)에 의한 처리만을 생략하거나, 또는 주파수 영역에 대한 가수부 디코더(705)에 의한 처리만을 생략할 수 있다. 따라서, 전체 처리 속도가 개선된다.
상기한 바로부터 인식할 수 있듯이, 본 발명에 따른 신호 처리 장치는 하기 방식으로 복수개의 채널 각각에 대해 디코드된 데이터를 형성한다. 복수개의 채널에 대해 인코딩된 데이터를 포함하는 비트 스트림이 입력된다. 최소한 하나의 채널 내에 포함되고, 이 채널에 의해 공유되는 인코딩된 데이터는 공통된 디코드된 데이터를 형성하도록 디코드된다. 각각의 채널에 대해 본래 인코딩된 데이터는 채널 디코드된 데이터를 형성하기 위해 한 채널씩을 원칙으로 인코딩된다. 채널 디코드된데이터는 각각의 채널에 대해 디코드된 데이터를 형성하기 위해 공통된 디코드된 데이터와 함께 합성된다. 공통된 인코딩된 데이터를 공유하는 각각의 채널 내의 데이터는 고속으로 디코딩되고, 동작이 완료될 때까지 비트 스트림을 유지할 필요가 없다. 따라서, 데이터의 디코딩은 비트 스트림을 유지할 수 없는 신호 처리 장치에서 조차 실현된다.
(예 6)
본 발명에 따른 제 6의 실시예에서 음향 영상 정위 장치(2200)를 기재할 것이다. 도 22는 음향 영상 정위 장치(2200)의 전체적인 구조를 예시하는 블록도이다. 도 23에 관하여 이미 논의한 바와 동일한 부품들은 동일한 참조 번호로 나타내며, 그의 설명은 생략할 것이다.
이 음향 영상 정위 장치(2200)는 2 채널들 중의 하나(본 실시예에서 좌측 채널)에 제공된 단일 신호 처리 장치('제 1의 신호 처리 장치'라 칭함)(2001)를 포함한다. 제 1의 신호 처리 장치(2001)는 도 24에 나타낸 FIR 필터를 포함한다.
디지탈 변환된(PCM-변환된) 오디오 신호 S(t)가 신호원(2004A)에 입력될 때, 신호 분할기(2006)는 신호를 2개의 신호로 분할한다. 신호들 중의 하나는 D/A 변환기(2007-2)에 입력되고, 다른 신호는 제 1의 신호 처리 장치(2001)에 입력된다.
가상 스피커(2009)의 기능을 수행하기 위해 종래의 음향 영상 정위 장치(2500)(도 23)의 신호 처리 장치(2001-1 및 2001-2)의 주파수 특성이 H1(n) 및 HR(n)인 경우, 제 1의 신호 처리 장치(2001)의 주파수 특성은 H1(n)-HR(n)로 설정된다. 다시 말해, 청취자(2010)의 좌측 귀에 도달하는 음향과 청취자(2010)의 우측귀에 도달하는 음향의 차이는 전달 함수로서 제 1의 신호 처리 장치(2001)에서 설정된다. 본 실시예에서, 제 1의 신호 처리 장치(2001)의 주파수 특성은 주파수 영역 내에서 수행된 분할을 사용하여 얻어진다. 제 1의 신호 처리 장치(2001)의 주파수 특성은 여러 가지 방법, 예를들면 역전된 콘벌루션 동작을 사용하여 얻을 수도 있다. 임의의 이러한 방식에 의해, 유사한 효과가 얻어질 수 있다.
제 1의 신호 처리 장치(2001)의 G(n)으로서 나타낸 주파수 특성은 수학식 14에 의해 얻어진다.
G(n)=hL(n)/hR(n)
수학식 14에 따라, 제 1의 신호 처리 장치(2001)의 주파수 특성 G(n)은 종래의 음향 영상 정위 장치(2500)의 신호 처리 장치(2001-2)의 주파수 특성 hR(n)로 신호 처리 장치(2001-1)의 주파수 특성 hL(n)을 나눔으로써 얻어진다.
도 25는 신호 처리 장치(2001-1)의 주파수 특성의 일 예를 나타내고, 도 27은 신호 처리 장치(2001-2)의 주파수 특성의 일 예를 나타낸다. 도 29는 본 실시예에서 음향 영상 정위 장치(2200)의 제 1의 신호 처리 장치(2001)의 주파수 특성의 일 예를 나타낸다. 동작의 오버플로우를 피하기 위해, 제 1의 신호 처리 장치(2001)의 주파수 특성은 보다 높은 음향 레벨을 갖는 다른 주파수 특성에 의해 보다 낮은 음향 레벨을 갖는 도 25 및 27에 나타낸 주파수 특성들 중의 하나로 나남으로써 얻어진다. 즉, 분모는 보다 높은 음향 레벨을 갖는 것이고, 분자는 보다 낮은 음향 레벨을 갖는 것이다. 이러한 오버플로우를 유발하지 않는 동작 시스템이사용되는 경우에, 주파수 특성들 중의 하나가 분자 또는 분모일 수 있다.
도 26은 도 25에 나타낸 주파수 특성을 갖는 신호 처리 장치(2001-1)에 포함된 FIR 필터의 탭(tap) 계수의 일 예를 나타내고, 도 28은 도 27에 나타낸 주파수 특성을 갖는 신호 처리 장치(2001-2)에 포함된 FIR 필터의 탭 계수의 일 예를 나타낸다. 도 30은 도 29에 나타낸 주파수 특성을 갖는 제 1의 신호 처리 장치(2001)에 포함된 FIR 필터의 탭(tap) 계수의 일 예를 나타낸다. 이들 도면으로부터 인식할 수 있듯이, 종래의 음향 영상 정위 장치(2500)에서 신호 처리 장치(2001-1 및 2001-2)는 각각 약 128개의 탭(즉, 전체적으로 256 탭)을 요구하는 반면, 본 실시예에서 음향 영상 정위 장치(2200)의 제 1의 신호 처리 장치(2001)는 약 128 탭을 요구한다. 이러한 전송 특성을 갖는 제 1의 신호 처리 장치(2001)는 신호 분할기(2006)의 출력 신호와 함께 공급된다.
종래의 음향 영상 정위 장치(2500)에서, 청취자(2010)의 좌측 귀에 도달한 음향 YL(n) 및 청취자(2010)의 우측 귀에 도달한 음향 YR(n)은 각각 수학식 15 및 수학식 16으로 나타낸다.
YL(n) = S(n)×hL(n)×h1(n)+S(n)×hR(n)×h3(n)
YR(n) = S(n)×hL(n)×h2(n)+S(n)×hR(n)×h4(n)
본 실시예의 음향 영상 정위 장치(2200)에서, 청취자(2010)의 좌측 귀에 도달한 음향 Y'L(n) 및 청취자(2010)의 우측 귀에 도달한 음향 Y'R(n)은 각각 수학식17 및 수학식 18로 나타낸다.
Y'L(n) = S(n)×hL(n)/hR(n)×h1(n)+S(n)×h3(n)
Y'R(n) = S(n)×hL(n)/hR(n)×h2(n)+S(n)×h4(n)
수학식 15 및 수학식 16과 수학식 17 및 수학식 18 간의 비교는 음향 영상 정위 장치(2200)로 입력되는 신호가 종래의 음향 영상 정위 장치(2500)로 입력되는 신호의 하기의 수학식 19와 같은 식이 됨을 나타낸다:
1/hR(n)
따라서, 음향 영상 정위 장치(2200)로부터 출력 신호의 질은 수학식 19로 나타낸 전송 특성에 따라 종래 장치(2500)로부터 출력 신호를 필터링함으로써 얻어진 신호와 동일하다. 결과적으로, 높은 음향 영역 내의 음향은 동일해지는 경향이 있다. 그러나, 정위의 느낌은 변화하지 않기 때문에, 음향 영상을 정위하기 위한 방법은 음질이 중요하지 않은 경우에 효과적이다.
음향 영상 정위 장치(2200)는 보다 적은 양의 동작에 따라 종래의 음향 영상 정위 장치(2500)와 실질적으로 동일한 레벨의 정위 느낌을 제공한다.
제 1의 신호 처리 장치(2001)로부터 출력은 D/A 변환기(2007-1)에 전송되고, 신호 분할기(2006)에 의해 얻어진 2개의 신호중의 나머지는 D/A 변환기(2007-2)에 전송된다. D/A 변환기(2007-1 및 2007-2)로부터 출력은 각각 스피커(2008-1 및2008-2)로 전송되고, 이 스피커(2008-1 및 2008-2)는 소정의 영역에 음향을 출력한다. 따라서, 가상 음향 영상은 가상 스피커(2009)의 위치에서 일정하게 정위된다.
(예 7)
본 발명에 따른 제 7의 실시예에서 음향 영상 정위 장치(3100)를 기재할 것이다. 도 31은 음향 영상 정위 장치(3100)의 전체적인 구조를 예시하는 블록도이다. 도 22에 관하여 이미 논의한 바와 동일한 부품들은 동일한 참조 번호로 나타내며, 그의 설명은 생략할 것이다.
제 6의 실시예에서 음향 영상 정위 장치(2200)의 구조에 부가하여, 음향 영상 정위 장치(3100)는 신호원(2004A)과 신호 분할기(2006) 간에 제 2의 신호 처리 장치(2002)를 포함한다. 이 신호 처리 장치(2002)는 도 24에 나타낸 IIR 필터를 포함한다. 신호처리 장치(2002)의 주파수 특성은 이후에 기재할 것이다.
제 2의 신호 처리 장치(2002)에 의해 처리된 신호는 2개의 신호로 분할된다. 신호들 중의 하나는 D/A 변환기(2007-2)에 입력되고, 다른 신호는 제 1의 신호 처리 장치(2001)에 입력된다. 제 1의 신호 처리 장치(2001)는 도 24에 나타낸 FIR 필터를 포함한다.
제 1의 신호 처리 장치(2001)의 주파수 특성(전달 함수)은 제 6의 실시예의 음향 영상 정위 장치(2200)와 동일하게 설정된다. 제 7의 실시예에서 역시 제 1의 신호 처리 장치(2001)의 주파수 특성은 주파수 영역에서 수행된 분할을 사용하여 얻어진다. 제 1의 신호 처리 장치(2001)의 주파수 특성은 여러 가지 방법, 예를들면 역전된 콘벌루션 동작 등을 사용하여 얻을 수도 있다. 임의의 이러한 방식에 의해, 유사한 효과가 얻어질 수 있다.
제 2의 신호 처리 장치(2002)의 주파수 특성은 제 1의 신호 처리 장치(2001)의 주파수 특성이 얻어질 때 분모의 주파수 특성, 즉, 수학식 17, 수학식 18 및 수학식 20으로 표현된 hR(n)의 주파수 특성과 동일하게 설정된다.
Y'L(n) = S'(n)×hL(n)/hR(n)×h1(n) + S'(n)×h3(n)(수학식 17)
Y'R(n) = S'(n)×hL(n)/hR(n)×h2(n) + S'(n)×h4(n)(수학식 18)
S'(n) = S(n)×hR(n)
S'(n)을 수학식 17 및 수학식 18로 치환함으로써, Y'L(n) 및 Y'R(n)은 각각 수학식 21 및 수학식 22로 나타낸다.
Y'L(n) = S(n)×hL(n)×h1(n)+S(n)×hR(n)×h3(n)
Y'R(n) = S(n)×hL(n)×h2(n)+S(n)×hR(n)×h4(n)
수학식 21 및 수학식 22는 각각 수학식 15 및 수학식 16과 매치된다. 따라서, 본 실시예에서 음향 영상 정위 장치(3100)는 종래 장치(2500)와 동일한 레벨, 즉, 저, 중간 및 고 음향 영역 중의 임의의 영역의 전송 특성에 따른 임의의 현저한 음향 변화를 유발하지 않고, 음향원을 정위한다.
정위의 느낌은 제 1의 신호 처리 장치(2001)에 의해 실현되기 때문에, 제 2의 신호 처리 장치(2002)는 종래 장치(2500)에서보다 필터의 더 적은 수의 탭을 요구한다. 본 실시예에서 음향 영상 정위 장치(3100)는 32-탭 필터를 포함하는 신호 처리 장치(2002)와 동일한 수준의 음질을 실현한다.
도 32는 제 2의 신호 처리 장치(2002)에 포함된 FIR 필터의 주파수 특성의 일 예를 나타낸다. 도 33은 도 32에 나타낸 주파수 특성을 갖는 FIR 필터의 탭 계수의 일 예를 나타낸다. 음향 영상 정위 장치(3100)에 요구되는 동작의 양은 다음과 같이 종래 장치(2500)의 그것과 비교될 수 있다:
종래 장치 : 128 탭의 콘벌루션, 2회
제 7의 실시예: 128 탭의 콘벌루션 + 32 탭의 콘벌루션
따라서, 음향 영상 정위 장치(3100)는 동작 양의 약 5/8로, 종래 장치(2500)와 실질적으로 동일한 수준의 음질 및 정위 느낌을 제공한다.
제 1의 신호 처리 장치(2001)로부터 출력은 D/A 변환기(2007-1)에 전송되고, 신호 분할기(2006)에 의해 얻어진 2개의 신호중의 나머지는 D/A 변환기(2007-2)에 전송된다. D/A 변환기(2007-1 및 2007-2)로부터 출력은 각각 스피커(2008-1 및 2008-2)로 전송되고, 이어서 이 스피커(2008-1 및 2008-2)는 소정의 영역에 음향을 출력한다. 따라서, 가상 음향 영상은 가상 스피커(2009)의 위치에서 일정하게 정위된다.
(예 8)
본 발명에 따른 제 8의 실시예에서 음향 영상 정위 장치(3400)를 기재할 것이다. 도 34는 음향 영상 정위 장치(3400)의 전체적인 구조를 예시하는 블록도이다. 도 31에 관하여 이미 논의한 바와 동일한 부품들은 동일한 참조 번호로 나타내며, 그의 설명은 생략할 것이다.
제 8의 실시예에서 음향 영상 정위 장치(3400)는 신호원(2004A) 대신에, 주파수 영역에 대한 오디오 신호를 출력하기 위한 신호원(2004B)을 포함한다. 예를들면, 신호원(2004B)은 ATRAC(adaptive transform acoustic coding; 적응 변환 음향 코딩)에서 IMDCT 부품의 신호를 출력한다. 제 3의 신호 처리 장치(2003) 및 주파수 영역-시간 영역 변환기(2005)는 제 2의 신호 처리 장치(2002) 대신에 신호원(2004B)과 신호 분할기(2006) 사이에 제공된다.
제 1의 신호 처리 장치는 도 24에 나타낸 구조를 갖는 FIR 필터를 포함한다. 도 35는 제 3의 신호 처리 장치(2003)의 전형적인 구조를 나타낸다. 제 3의 신호 처리 장치(2003)는 승산 계수 a1, a2, … an으로 입력 신호 X1, X2, … Xn을 각각 승산하기 위한 승산기(2012-1, 2012-2, … 2012-n)를 포함한다. 이 승산기(2012-1, 2012-2, … 2012-n)는 신호 Y1, Y2, … Yn를 출력한다.
도 34로 돌아가서, 신호원(2004B)으로부터 출력된 주파수 영역에 대한 디지탈 오디오 신호는 제 3의 신호 처리 장치(2003)에 입력된다. 제 3의 신호 처리 장치(2003)는 음향 영상을 정위하기 위해 도 35에 나타낸 바와 같이 하나의 주파수 대역씩을 원칙으로 입력 신호를 처리한다. 다시 말해, 각각의 주파수 대역의 신호(X1, X2, … Xn)가 입력될 때, 이 신호들은 승산 계수 a1, a2, … an에 의해 승산된다. 승산기(2012-1, 2012-2, … 2012-n)의 이들 승산 계수 a1, a2, … an은 주파수 영역-시간 영역 변환기(2005)에 의해 사용되는 주파수 영역-시간 영역 변환 시스템에 의해 결정된다.
제 3의 신호 처리 장치(2003)에 의해 처리된 신호는 신호 분할기(2006)에 의해 2개의 신호로 분할된다. 신호들 중의 하나는 D/A 변환기(2007-2)에 입력되고, 다른 신호는 제 1의 신호 처리 장치(2001)에 입력된다.
제 1의 신호 처리 장치(2001)의 주파수 특성(전송 특성)은 제 6의 실시예에서와 동일하게 설정된다. 본 실시예에서, 제 1의 신호 처리 장치(2001)의 주파수 특성은 주파수 영역에서 수행된 분할을 사용하여 얻어진다. 제 1의 신호 처리 장치(2001)의 주파수 특성은 여러 가지 방법, 예를들면 역전된 콘벌루션 동작 등을 사용하여 얻을 수도 있다. 임의의 이러한 방식에 의해, 유사한 효과가 얻어질 수 있다.
제 3의 신호 처리 장치(2003)의 주파수 특성(전송 특성)은 수학식 14의 분모의 주파수 특성, 즉, 수학식 23, 수학식 24 및 수학식 25로 표현된 hR(n)의 주파수 특성과 동일하게 설정되는 것이 바람직하다.
Y'L(n) = S'(n)×hL(n)/hR(n)×h1(n)+S'(n)×h3(n)
Y'R(n) = S'(n)×hL(n)/hR(n)×h2(n)+S'(n)×h4(n)
S'(n) = S(n)×hR(n)
S'(n)을 수학식 23 및 수학식 24로 치환함으로써, Y'L(n) 및 Y'R(n)은 각각 수학식 26 및 수학식 27로 나타낸다.
Y'L(n) = S(n)×hL(n)×h1(n)+S(n)×hR(n)×h3(n)
Y'R(n) = S(n)×hL(n)×h2(n)+S(n)×hR(n)×h4(n)
수학식 26 및 수학식 27은 각각 수학식 15 및 수학식 16과 매치된다. 따라서, 본 실시예에서 음향 영상 정위 장치(3400)는 종래 장치(2500)와 동일한 수준의 전송 특성을 갖는다.
제 3의 신호 처리 장치(2003)는 복수개의 승산기를 포함하기 때문에, 동작 양은 주파수 영역-시간 영역 변환의 변환 길이에 의해 결정된다. 변환 길이가 m인 경우, 동작 양은 다음과 같다: 즉,
종래 장치 : 128 탭의 콘벌루션, 2회
= 128 x m x 2 = 256
제 8의 실시예: 128 탭의 콘벌루션 + m-차 승산기
= 128 x m + m = 129m
동작 양의 약 1/2로, 종래 장치(2500)와 실질적으로 동일한 수준의 음질 및 정위 느낌을 제공하는 음향 영상 정위 장치(3400)가 얻어질 수 있다.
제 1의 신호 처리 장치(2001)로부터 출력은 D/A 변환기(2007-1)에 전송되고, 신호 분할기(2006)에 의해 얻어진 2개의 신호중의 나머지는 D/A 변환기(2007-2)에 전송된다. D/A 변환기(2007-1 및 2007-2)로부터 출력은 각각 스피커(2008-1 및 2008-2)로 전송되고, 이어서 이 스피커(2008-1 및 2008-2)는 소정의 영역에 음향을출력한다. 따라서, 가상 음향 영상은 가상 스피커(2009)의 위치에서 일정하게 정위된다.
(예 9)
본 발명에 따른 제 9의 실시예에서 음향 영상 정위 장치(3600)를 기재할 것이다. 도 36은 음향 영상 정위 장치(3600)의 전체적인 구조를 예시하는 블록도이다. 도 22, 31 및 34에 관하여 이미 논의한 바와 동일한 부품들은 동일한 참조 번호로 나타내며, 그의 설명은 생략할 것이다.
제 9의 실시예에서 음향 영상 정위 장치(3600)는 제 3의 신호 처리 장치(2003), 주파수 영역-시간 영역 변환기(2005) 및 음향원(2004B)과 신호 분할기(2006) 사이에 제 2의 신호 처리 장치(2002)를 포함한다.
제 1의 신호 처리 장치(2001) 및 제 2의 신호 처리 장치(2002)는 각각 도 24에 나타낸 구조를 갖는 FIR 필터를 갖는다. 제 3의 신호 처리 장치(2003)는 도 25에 나타낸 주파수 특성을 갖는 FIR 필터를 갖는다.
도 36을 참조하여, 신호원(2004B)으로부터 출력된 주파수 영역에 대한 디지탈 오디오 신호는 제 3의 신호 처리 장치(2003)에 입력된다. 제 3의 신호 처리 장치(2003)는 음향 영상을 정위하기 위해 하나의 주파수 대역씩을 원칙으로 소정의 승산 계수에 따라 입력 신호를 처리한다. 제 3의 신호 처리 장치에 포함된 승산기의 승산 계수는 주파수 영역-시간 영역 변환기(2005)에 의해 결정된다.
제 3의 신호 처리 장치(2003)로부터 출력은 주파수 영역-시간 영역 변환기(2005)에 전송되고, 시간 영역 신호(PCM 오디오 신호)로 변환된다. 이어서,시간 영역 신호는 제 2의 신호 처리 장치(2002)에 전송된다. 제 2의 신호 처리 장치(2002)는 보다 적은 수의 탭을 갖는 FIR 필터를 사용하여 주파수 특성을 변환시킨다. 따라서, 제 2의 신호 처리 장치(2002)는 제 3의 신호 처리 장치(2003)에 의해 교정되지 않는 위상 성분, 음량 및 음질중의 최소한 하나를 시간축에 대해 교정한다.
제 2의 신호 처리 장치(2002)에 의해 얻어진 신호는 신호 분할기(2006)에 의해 2개의 신호로 분할된다. 신호들 중의 하나는 D/A 변환기(2007-2)에 입력되고, 다른 신호는 제 1의 신호 처리 장치(2001)에 입력된다.
제 6의 실시예에서와 마찬가지로, 제 1의 신호 처리 장치(2001)의 주파수 특성은 수학식 14에 의해 얻어진다. 제 2의 신호 처리 장치(2002)와 제 3의 신호 처리 장치(2003)의 주파수 특성들(전송 특성들)의 곱은 도 23에서 신호 처리 장치(2001-2)의 주파수 특성을 얻기 위한 수학식 14의 분모의 주파수 특성, 즉, 수학식 23, 수학식 24 및 수학식 25로 표현된 hR(n)의 주파수 특성과 동일하게 설정되는 것이 바람직하다.
Y'L(n) = S'(n)×hL(n)/hR(n)×h1(n)+S'(n)×h3(n)(수학식 23)
Y'R(n) = S'(n)×hL(n)/hR(n)×h2(n)+S'(n)×h4(n)(수학식 24)
S'(n) = S(n)×hR(n)(수학식 25)
S'(n)을 수학식 23 및 수학식 24로 치환함으로써, Y'L(n) 및 Y'R(n)은 각각 수학식 26 및 수학식 27로 나타낸다.
Y'L(n) = S(n)×hL(n)×h1(n)+S(n)×hR(n)×h3(n)(수학식 26)
Y'R(n) = S(n)×hL(n)×h2(n)+S(n)×hR(n)×h4(n)(수학식 27)
수학식 26 및 수학식 27은 각각 수학식 15 및 수학식 16과 매치된다. 따라서, 본 실시예에서 음향 영상 정위 장치(3600)는 종래 장치(2500)와 동일한 수준의 전송 특성을 갖는다.
제 3의 신호 처리 장치(2003)는 복수개의 승산기를 포함하기 때문에, 동작 양은 주파수 영역-시간 영역 변환의 변환 길이에 의해 결정된다. 변환 길이가 m인 경우, 동작 양은 다음과 같다: 즉,
종래 장치 : 128 탭의 콘벌루션, 2회
= 128 x m x 2 = 256
제 9의 실시예: 128 탭의 콘벌루션 + m-차 승산기
= 128 x m + m = 129m
동작 양의 약 1/2로, 종래 장치(2500)와 실질적으로 동일한 수준의 음질 및 정위 느낌을 제공하는 음향 영상 정위 장치(3600)가 얻어질 수 있다.
제 1의 신호 처리 장치(2001)로부터 출력은 D/A 변환기(2007-1)에 전송되고, 신호 분할기(2006)에 의해 얻어진 2개의 신호중의 나머지는 D/A 변환기(2007-2)에 전송된다. D/A 변환기(2007-1 및 2007-2)로부터 출력은 각각 스피커(2008-1 및 2008-2)로 전송되고, 이어서 이 스피커(2008-1 및 2008-2)는 소정의 영역에 음향을 출력한다. 따라서, 가상 음향 영상은 가상 스피커(2009)의 위치에서 일정하게 정위된다.
제 1의 신호 처리 장치(2001)의 주파수 특성은 주파수 영역에서 수행된 분할을 사용하여 얻어진다. 제 1의 신호 처리 장치(2001)의 주파수 특성은 여러 가지 방법, 예를들면 역전된 콘벌루션 동작에 의해 얻어질 수도 있다.
제 6, 7, 8 및 제 9의 실시예로부터 인식할 수 있듯이, 본 발명에 따른 음향 영상 정위 장치는 보다 적은 양의 동작으로 종래 장치와 동일한 수준의 정위 느낌을 제공한다.
본 발명에 따라, 동작 양은 복수개의 채널 각각에서 통상적으로 수행된 1개의 채널에서 신호 처리를 수행함으로써 감소된다.
음질 조정이 부가적으로 수행되는 경우에, 본 발명에 따른 음향 영상 정위 장치는 보다 적은 양의 동작으로 종래 장치와 동일한 수준의 음질을 실현시킨다.
음질 조정이 주파수 영역에 대해 수행되는 경우에, 본 발명에 따른 음향 영상 정위 장치는 보다 적은 양의 동작으로 종래 장치와 동일한 수준의 음질을 실현시킨다.
음질 조정이 주파수 영역 및 시간 영역에 대해 수행되는 경우에, 본 발명에 따른 음향 영상 정위 장치는 보다 적은 양의 동작으로 종래 장치와 동일한 수준의 음질을 실현시킨다.
(예 10)
본 발명에 따른 제 10 예에서 오디오 처리 장치(3700)는 도 37을 참조하여 기술된다. 도 37은 제 10 예의 오디오 신호 처리 장치(3700)를 예시하는 블록도이다. 오디오 신호 처리 장치(3700)는 입력 스트림 처리 장치(3002), 오디오 스트림 버퍼(3003), 비디오 스트림 버퍼(3004), 버퍼 제어기(3005A), 제어기(3006), 오디오 처리 장치(3007), 및 비디오 처리 장치(3008)를 포함한다.
입력 스트림 처리 장치(3002)에 입력되는 입력 스트림(3001)은 DVD 또는 등가 데이터로부터 출력된 데이터이다. 다시 말해서, 입력 스트림 처리 장치(3002)는 압축 및 다중화된 비디오 신호 또는 오디오 신호를 수신한다. 이 예에서, 입력 스트림(3001)은 DVD로부터 출력된 데이터 스트림이며, 비디오 데이터는 MPEG2와 일치하며 오디오 데이터는 간략하게 하기 위해서 AC03와 일치한다. 다른 형태의 데이터 스트림도 유사한 방식으로 사용될 수 있다.
입력 스트림(3001)이 입력 스트림 처리 장치(3002)에 입력될 때, 입력 스트림 처리 장치(3002)는 비디오 데이터 및 오디오 데이터를 추출하여 입력 스트림(3001)으로부터 재생되게 하며 비디오 데이터를 비디오 스트림 버퍼(3004)에 저장하며 오디오 데이터를 오디오 스트림 버퍼(3003)로 저장한다. 이 점에서, 버퍼 제어기(3005A)는 오디오 스트림 버퍼(3003)의 자유 용량을 감독한다.
보통의 재생 상태에서, 비디오 데이터가 비디오 처리 장치(3008)로 입력될 때, 비디오 처리 장치(3008)는 비디오 데이터를 출력 비디오 신호(3010)로 디코드한다. 오디오 데이터가 오디오 처리 장치(3007)로 입력될 때, 오디오 처리 장치(3007)는 오디오 데이터를 디코딩하며 그것을 출력 오디오 신호(3009)로 변환한다.
고속 재생 상태에서, 비디오 처리 장치(3008)는 소정의 속도로 고속 재생을 수행하기 위해서 제어기(3006)로부터 명령을 따른다. 고속 재생을 수행하기 위해서, 오디오 처리 장치(3007)는 음향 피치를 정상 재생 상태의 음향 피치로 이퀄라이즈하여 오디오 데이터 부를 폐기한다. 비디오 데이터가 MPEG2와 일치하는 경우에, 소정의 속도로 고속 재생을 하는 것은 다음 방식 중 하나로 수행된다.
(1-1) 1 화상만을 재생(재생 속도: 정상의 약 6-7 배)
(1-2) I 및 P 화상 재생(재생 속도: 정상의 약 1.5 내지 3 배)
(1-3) I 및 P 화상 및 B 화상의 일부를 재생(재생 속도: 정상의 1 내지 1.5 배)
(1-1), (1-2) 및 (1-3)과 이외의 다른 방법이 사용될 수도 있다.
고속 재생 중에, 버퍼 제어기(2005A)는 오디오 스트림 버퍼(3003)의 자유 용량을 관리한다. 정상 재생은 오디오 스트림 버퍼(3003)의 자유 용량이 소정의 값 W 보다 작아질 때까지 수행된다. 오디오 스트림 버퍼(3003)의 자유 용량이 소정의 값 W 보다 작아질 때, 버퍼 제어기(3005A)는 오디오 처리 장치(3007)에 나머지 자유 용량을 알린다. 소정의 값 W는 시스템에 따라 여러 값으로 설정될 수 있다. 이러한 예에서, 소정의 값 W는 0으로 설정된다. 소정의 값 W가 다른 값으로 설정될 때 제어는 그와 유사한 방식으로 수행된다.
오디오 스트림 버퍼(3003)의 자유 용량이 0이 될 때, 오디오 처리 장치(3007)는 출력 오디오 데이터의 일부를 소거함으로써 오디오 데이터의 고속 재생을 수행한다. 그러한 수행은 도 44를 참조하여 기술된다. 도 44는 재생하는 동안에 오디오 스트림 버퍼(3003) 및 비디오 스트림 버퍼(3004)의 상태를 도시한다. 음영진 부분(shaded part)은 데이터 영역을 표시하며 빈 부분은 사용 영역을 표시한다.
비디오 데이터가 고속으로 재생되며 오디오 스트림 버퍼(3003)의 자유 용량이 0이 되는 경우에, 오디오 스트림 버퍼(3003) 및 비디오 스트림 버퍼(3004)는 도 44의 상태(2)에 놓인다. 비디오 데이터가 비디오 스트림 버퍼(3004)에 머물게 되므로, 비디오 데이터가 비디오 처리 장치(3008)에 의해서 고속으로 재생된다. 오디오 스트림이 비디오 데이터의 재생 속도에 따라서 입력되므로, 정상 재생을 위해서 디코드되는 오디오 데이터의 양은 입력 데이터 양 보다 더 작다. 그러므로, 오디오 스트림 버퍼(3003)의 자유 용량은 0이 된다(상태 1).
오디오 스트림 버퍼(3003)의 자유 용량이 0이 될 때, 버퍼 제어기(3005A)는 그러한 정보를 오디오 처리 장치(3007)로 전송한다. 그에 응답하여, 오디오 처리 장치(3007)는 플러싱(flushing)에 의해서 오디오 데이터의 소정의 양을 폐기하며, 오디오 데이터의 폐기된 부분 바로 다음의 부분으로부터 정상 속도로 오디오 데이터를 디코딩하는 것을 재개한다.
이하, 폐기되는 소정의 데이터 양 및 폐기하는(즉, 소거) 방법이 설명된다.
(i) 오디오 스트림 버퍼를 소거(플러싱)
오디오 스트림 버퍼(3009)내의 데이터가 디코딩 전에 스트림을 부분적으로 적어지게 하기 위해서 오디오 스트림 버퍼(3003)을 소거함으로써 부분적으로 또는 전체적으로 간헐 플러시된다. 그러므로, 재생되는 오디오 데이터의 양은 고속 재생을 위해서 감소된다. 폐기되는 소정의 오디오 데이터 양은 사용된 시스템내의 오디오 스트림 버퍼(3003)의 크기보다 작은 임의의 양이다.
이러한 방식으로 재생된 오디오 데이터는 도 40에 도시된다. 도 40은 오디오스트림이 소거될 때 정상 재생될 때의 출력 오디오 스트림(1A)과 고속 재생될 때의 출력 오디오 스트림(1B)을 도시한다. 도 40에 도시된 예에서, 프레임(4)의 중간으로부터 프레임(7)의 중간으로 가는 데이터는 오디오 스트림 버퍼(3003)에 의해서 소거된다. 그 결과, 고속 재생동안에 디코드되는 출력 오디오 스트림(1B)은, 섹션(A)이 소거된 후에 출력 오디오 스트림(1A)과 같다. 이 경우에, 소거되는 프레임 수는 12(정상 재생)에서 8로 감소된다. 그러므로, 재생 속도는 정상의 12/8=1.5 배이다.
이러한 방법은 간단하며 비교적 실행하기가 쉽다. 그러나, 오디오 데이터가 프레임 단위로 처리될 수 없으므로, 바람직하지 않은 스트림 에러가 발생될 수 있다. 오디오 스트림 버퍼(3003)내의 내용이 전체적으로 소거되므로, 오디오 데이터는 다음 프레임에 대한 데이터가 입력될 때까지 출력될 수 없다.
(ⅱ) 출력 오디오 신호 재생
입력 처리 장치(3002)로부터 오디오 스트림 버퍼(3003)로 입력 스트림(3001)을 전송하는 것은 소정의 시간 주기동안 정지된다. 다시 말해서, 입력 스트림(3001)의 일부가 비전송에 의해 소거된다. 따라서, 재생되는 오디오 데이터 양은 고속 재생을 위해서 감소된다. 폐기되는 소정의 오디오 데이터 양은 시스템에 의해서 지지되는 비디오 데이터의 재생 속도에 의해서 결정된다. 비디오 재생 속도가 n 일 때 (보통 재생), (n-1) 오디오 프레임 이상인 오디오 데이터 양은 전송이 중지될 때마다 폐기될 필요가 있다.
이러한 방식으로 재생된 오디오 데이터는 도 41에 도시된다. 도 41은 정규재생의 출력 오디오 스트림(1A)과 고속 재생을 위해 입력 스트림(3001)의 전송을 제한함으로써 얻어진 출력 오디오 스트림(1B)을 도시한다. 도 41에 도시된 예에서, 프레임(4)의 중간으로부터 프레임(7)의 중간까지 데이터는 입력 스트림(3001)의 입력을 제한함으로써 소거된다. 그 결과, 고속 재생동안에 디코드되는 출력 오디오 스트림(1B)은 섹션(A)이 소거된 후에 출력 오디오 스트림(1A)과 같다. 이 경우에, 디코드되는 프레임의 수는 12(정상 재생)에서 8로 감소된다. 그러므로, 재생 속도는 정상의 12/8=1.5배이다.
이러한 방법은 간단하며 비교적 수행이 쉽다. 그러나, 오디오 데이터가 프레임간에 처리될 수 없으므로 바람직하지 않은 에러가 발생될 수 있다. 더욱이, 오디오 데이터는 다음 프레임에 대한 데이터가 입력될 때까지 출력될 수 없다.
(ⅲ) 출력 오디오 스트림을 스킵
하나 내지 여러 오디오 데이터의 프레임은 오디오 처리 장치(3007)에 의해서 프레임간에 스킵된다. 그러므로, 재생되어야 하는 오디오 데이터의 양은 고속 재생을 위해서 감소된다. 폐기되는 소정의 오디오 데이터 양은 시스템에 의해서 지지되는 비디오 데이터의 재생 속도에 의해서 결정된다. 비디오 재생 속도가 n 일 때 (정상 재생), (n-1) 오디오 프레임 이상인 오디오 데이터 양은 데이터가 스킵될 때마다 폐기될 필요가 있다.
이러한 방식으로 재생되는 오디오 데이터는 도 42에서 도시된다. 도 42는 정상 재생으로 출력 오디오 스트림(1A) 및 고속 재생을 위해 오디오 데이터를 부분적으로 스킵함으로써 획득된 출력 오디오 스트림(1B)을 도시한다. 도 42에 도시된 예에서, 프레임(4)으로부터 프레임(7)까지의 데이터가 오디오 데이터를 스킵함으로써 소거된다. 그 결과, 고속 재생 중에 소거되는 출력 오디오 스트림(1B)은 출력 오디오 스트림(1A)으로부터 섹션(A)을 소거한 결과와 같다. 이 경우에, 디코드되는 프레임의 수는 12(정상 재생)로부터 8로 감소된다. 그러므로, 재생된 속도는 정상의 12/8=1,5이다.
이러한 방법은 간단하며 비교적 처리하기가 쉽다. 더욱이, 오디오 데이터가 프레임간에 처리되므로, 스트림 에러가 발생되지 않는다.
(ⅳ) 오디오 데이터의 출력을 정지
하나 내지 여러 프레임 출력 또는 오디오 데이터는 오디오 처리 장치(3007)에 의해서 정지된다. 그러므로, 재생되는 오디오 데이터의 양은 고속 재생을 위해서 감소된다. 출력을 정지함으로써 폐기되는 소정의 오디오 데이터 양의 최소 값은 시스템에 의해서 지지되는 비디오 데이터의 재생 속도에 의해서 결정된다. 비디오 재생 속도가 n 일 때(정상 재생), (n-1) 오디오 프레임 이상인 오디오 데이터의 양은 출력이 정지될 때마다 폐기될 필요가 있다.
이러한 방식으로 재생되는 오디오 데이터는 도 43에 도시된다. 도 42는 정상 재생에서 출력 오디오 스트림(1A)과 고속 재생을 위한 오디오 데이터의 출력을 정지시키므로 획득된 출력 오디오 스트림(1B)를 도시한다. 도 43에 도시된 예에서, 프레임(4) 내지 프레임(7)의 데이터는 오디오 데이터의 출력을 정지시키므로 소거된다. 그 결과, 고속 재생 중에 디코드된 출력 오디오 스트림(1B)은 섹션(A)후에 출력 오디오 스트림(1A)으로부터 섹션(A)을 소거함으로써 얻어진 결과와 같다. 이경우에, 디코드된 프레임 수는 12(정상 재생)에서 8로 감소된다. 그러므로, 재생 속도는 정상의 12/8=1.5이다.
이 방법은 간단하며 비교적 수행하기가 쉽다. 더욱이, 오디오 데이터가 프레임간에 처리되므로, 스트림 에러는 발생되지 않는다.
전술된 바와 같이, 오디오 데이터의 고속 재생은 오디오 스트림 버퍼(3003)의 자유 용량이 0이 될 때마다 방법(ⅰ) 내지 (ⅳ)중 하나에 의해서 오디오 비디오 스트림의 일부를 폐기함으로써 비디오 데이터의 재생 속도를 변화시키지 않고도 비디오 데이터의 재생 속도에 따라서 수행된다. 전술된 방법(ⅰ) 내지 (ⅳ)는 음향 불연속을 감소시킨다. 따라서, 제 10의 예의 오디오 신호 처리 장치는 비디오 데이터의 재생 속도, 적은 음향 불연속 및 더 간단한 방식에 따라 고속으로 오디오 데이터를 재생한다.
(예 11)
본 발명에 따른 제 11의 예에서 오디오 신호 처리 장치(3800)는 도면을 참조하여 설명된다. 도 38은 제 11의 예에서 오디오 신호 처리 장치(3800)를 도시하는 블록도이다. 오디오 신호 처리 장치(3800)는 입력 스트림 처리 장치(3002), 오디오 스트림 버퍼(3002), 비디오 스트림 버퍼(3004), 버퍼 제어기(3005B), 제어기(3006), 오디오 처리 장치(3007) 및 비디오 처리 장치(3008)를 포함한다.
입력 스트림 처리 장치(3002)에 입력되는 입력 스트림(3001)은 DVD 또는 동일 데이터로부터 출력된 데이터이다. 다시 말해서, 입력 스트림 처리 장치(3002)는 압축 및 다중화되는 비디오 신호 또는 오디오 신호를 수신한다. 이러한 예에서, 입력 스트림(3001)은 DVD로부터 출력된 데이터 스트림이며, 비디오 데이터는 MPEG2와 일치하며 오디오 데이터는 간단히 하기 위해서 AC-3과 일치한다. 다른 형태의 데이터 스트림이 유사한 방식으로 사용될 수 있다.
입력 스트림(3001)이 입력 스트림 처리 장치(3002)로 입력될 때, 입력 스트림 처리 장치(3002)는 입력 스트림(3001)으로부터 재생되는 비디오 데이터 및 오디오 데이터를 추출하여 비디오 데이터를 비디오 스트림 버퍼(3004)에 저장하며 오디오 데이터를 오디오 스트림 버퍼(3003)에 저장한다. 이 점에서, 버퍼 제어기(3005B)는 비디오 스트림 버퍼(3004)내에서 남겨진 데이터 양을 관리한다.
정상 재생 상태에서, 비디오 데이터가 비디오 처리 장치(3008)에 입력되면, 비디오 처리 장치(3008)는 비디오 데이터를 입력 비디오 신호(3010)로 디코드한다. 오디오 데이터가 오디오 처리 장치(3007)로 입력될 때, 오디오 처리 장치(3007)는 오디오 데이터를 디코딩하여 출력 오디오 신호(3009)로 변환한다.
고속 재생 상태에서, 비디오 처리 장치(3000)는 소정의 속도로 고속 재생을 수행하기 위해서 제어기(3006)로부터 명령을 따른다. 오디오 처리 장치(3007)는 정상 재생을 수행한다. 비디오 데이터가 MPEG2와 일치할 때, 소정의 비율로 고속 재생하는 것은 다음 방식 중 하나로 수행된다.
(1-1) I 화상만을 재생(재생 속도: 정상의 약 6-7 배)
(1-2) I 및 P 화상을 재생(재생 속도: 정상의 1.5 내지 3 배)
(1-3) I 및 P 화상 및 B화상의 일부를 재생(재생 속도: 정상의 1 내지 1.5배)
(1-1), (1-2) 및 (1-3) 이외의 방법이 사용될 수 있다.
고속 재생동안에, 버퍼 제어기(3005B)는 비디오 스트림 버퍼(3004)내의 나머지 데이터 양을 관리한다. 정상 재생은 비디오 스트림 버퍼(3004)내의 나머지 데이터 양이 소정의 값(V) 보다 더 작을 때까지 수행된다. 비디오 스트림 버퍼(3004)내의 나머지 데이터 양이 소정의 값(V)보다 더 작을 때, 버퍼 제어기(3005B)는 오디오 처리 장치(3007)에 비디오 스트림 버퍼(3004)내의 나머지 데이터 양을 알린다. 소정의 값(V)은 시스템에 따라 여러 값으로 설정된다. 이 예에서, 소정의 값(V)은 0으로 설정된다. 제어는 소정의 값(V)이 다른 값으로 설정될 때와 유사하게 수행된다.
비디오 스트림 버퍼(3004)내의 나머지 데이터 양이 0이 될 때, 오디오 처리 장치(3007)는 출력 오디오 데이터의 일부를 소거함으로써 오디오 데이터의 고속 재생을 수행한다. 그러한 수행은 도 45를 참조하여 기술된다. 도 45는 재생하는 동안에 오디오 스트림 버퍼(3003) 및 비디오 스트림 버퍼(3004)를 도시한다. 음영진 부분은 데이터 영역을 표시하며, 빈 부분은 사용되는 영역을 표시한다.
비디오 데이터가 고속으로 재생되며 비디오 스트림 버퍼(3004)내의 나머지 데이터 양이 0이 되지 않을 때, 오디오 스트림 버퍼(3003) 및 비디오 스트림 버퍼(3004)는 도 45의 상태(2)에 놓인다. 오디오 스트림 버퍼(3003)의 자유 용량은 0이 아니며 비디오 스트림 버퍼(3004)내의 나머지 데이터 양은 0이 아니다. 단지 비디오 데이터만이 비디오 처리 장치(3008)에 의해서 고속으로 재생된다. 오디오 스트림이 비디오 데이터의 재생 속도에 따라서 입력되므로, 정상 재생을 위해 디코드되는 오디오 데이터의 양은 입력 데이터 양보다 더 작다. 오디오 스트림 버퍼(3003)내의 오디오 데이터가 처리되지 않으므로, 다음 비디오 스트림은 입력 스트림(3001)으로부터 추출될 수 있다. 그러므로, 비디오 스트림 버퍼(3004)내의 나머지 데이터 양은 0가 된다(상태 1).
비디오 스트림 버퍼(3004)내의 나머지 데이터 양이 0이 될 때, 버퍼 제어기(3005n)는 그러한 정보를 오디오 처리 장치(3007)로 전송한다. 이에 응답하여, 오디오 처리 장치(3007)는 오디오 데이터의 소정의 양을 폐기하며, 오디오 데이터 중 폐기된 부분 바로 다음의 부분으로부터 정상 속도로 오디오 데이터 디코딩을 재개한다.
이하, 폐기되거나 폐기되는 소정의 데이터 양이 기술된다.
(ⅰ) 오디오 스트림 버퍼를 소거(플러싱)
오디오 스트림 버퍼(3003)내의 데이터는 디코딩하기 전에 스트림을 부분적으로 줄이기 위해서 부분적으로 또는 전체적으로 플러시된다. 그러므로, 재생되는 오디오 데이터의 양은 고속 재생으로 감소된다. 소정의 폐기되는 오디오 데이터 양은 임의의 양으로서 사용되는 오디오 스트림 버퍼(3003)의 크기 보다 적다.
이러한 방식으로 재생된 오디오 데이터는 도 40에 도시된다. 도 40은 정상 재생의 출력 오디오 스트림(1A)과 오디오 스트림 버퍼(3003)가 소거될 때 획득되는 고속 재생에서 출력 오디오 스트림(1B)을 도시한다. 도 40에 도시된 예에서, 프레임(4)의 중간으로부터 프레임(7)의 중간까지 데이터는 오디오 스트림 버퍼(3003)를 소거함으로써 소거된다. 그 결과, 고속 재생 중에 디코드되는 출력 오디오스트림(1B)은 출력 오디오 스트림(1A)으로부터 섹션(A)을 소거함으로써 획득되는 결과와 같다. 이 경우에, 디코드되는 프레임 수는 오디오 스트림 버퍼(3003)를 소거함으로써 12(정상 재생)에서 8로 감소된다. 그러므로, 재생 속도는 정상의 12/8=1.5배 이다.
이러한 방법은 간단하며 비교적 수행이 쉽다. 그러나, 오디오 데이터가 프레임간에 처리될 수 없으므로, 바람직하지 않은 스트림 에러가 발생될 수 있다. 오디오 스트림 버퍼(3003)내의 내용이 전체적으로 소거되므로, 오디오 데이터는 다음 프레임에 대한 데이터가 입력될 때까지 출력될 수 없다.
(ⅱ) 입력 오디오 스트림을 제한
입력 스트림 처리 장치(3002)로부터 오디오 스트림 버퍼(3003)로 입력 스트림(3001)을 전송하는 것은 선정된 시간 주기동안에 정지된다. 다시 말해서, 입력 스트림(3001)의 일부가 비전송에 의해서 소거된다. 그러므로, 재생되는 오디오 데이터의 양은 고속 재생을 위해서 감소된다. 폐기되는 소정의 오디오 데이터 양(A)은 시스템에 의해서 지지되는 비디오 데이터의 재생 속도에 의해서 결정된다. 비디오 재생 속도가 n 일 때(정상 재생), (n 1) 오디오 프레임보다 큰 오디오 데이터의 양은 전송이 정지될 때마다 폐기될 필요가 있다.
이러한 방식으로 재생된 오디오 데이터는 도 41에 도시된다. 도 41은 정상 재생에서 출력 오디오 스트림(1A)과 고속 재생을 위한 입력 스트림(3001)의 입력을 재한함으로써 획득되는 출력 오디오 스트림(1B)을 도시한다. 도 41에 도시된 예에서, 프레임(4)의 중간으로부터 프레임(7)의 중간까지의 데이터는 입력스트림(3001)의 입력을 제한함으로써 소거된다. 그 결과로서, 고속 재생 중에 디코드되는 출력 오디오 스트림(1B)은 출력 오디오 스트림(1A)으로부터 섹션(A)을 소거함으로써 획득된 결과와 같다. 이 경우에, 디코드되는 프레임 수는 12(정상 재생)에서 8로 감소된다. 그러므로, 재생 속도는 정상의 12/8=1.5 배 이다.
이러한 방법은 간단하며 비교적 수행하기가 쉽다. 그러나, 오디오 데이터가 프레임간에 처리될 수 없으므로, 바람직하지 않은 스트림 에러가 바람직하지 않게 발생될 수 있다. 더욱이, 오디오 데이터는 다음 프레임의 데이터가 입력될 때까지 출력될 수 없다.
(ⅲ) 입력 오디오 스트림 스킵
하나 내지 여러 개의 오디오 데이터 프레임은 오디오 처리 장치(3007)에 의해서 프레임간에 스킵된다. 그러므로, 재생되는 오디오 데이터의 양은 고속 재생을 위해서 감소된다. 폐기되는 소정의 오디오 데이터 양은 시스템에 의해서 지지되는 비디오 데이터의 재생 속도에 의해서 결정된다. 비디오 재생 속도가 n (정상 재생) 일 때, (n-1) 오디오 프레임 이상인 오디오 데이터의 양은 데이터가 스킵될 때마다 폐기될 필요가 있다.
이러한 방식으로 재생된 오디오 데이터는 도 42에 도시된다. 도 42는 정상 재생시의 출력 오디오 스트림(1A)과 고속 재생을 위해 오디오 데이터를 부분적으로 스킵함으로써 획득되는 출력 오디오 스트림(1B)을 도시한다. 도 42에 도시된 예에서, 프레임(4) 내지 프레임(7)의 데이터는 오디오 데이터를 스킵함으로써 소거된다. 그 결과로서, 고속 재생 동안에 디코드되는 출력 오디오 스트림(1B)은 섹션(A)이 소거된 후에 출력 오디오 스트림(1A)와 같다. 이 경우에, 디코드되는 프레임의 수는 12(정상 재생)에서 8로 감소된다. 그러므로, 재생 속도는 정상의 12/8=1.5 배이다.
이러한 방법은 간단하며 비교적 수행이 쉽다. 더욱이, 오디오 데이터가 프레임간에 처리되므로, 스트림 에러는 발생되지 않는다.
(ⅳ) 오디오 데이터 출력 스킵
오디오 데이터의 여러 프레임 중 하나의 출력은 오디오 처리 장치(3007)에 의해서 정지된다. 그러므로, 재생되는 오디오 데이터의 양은 고속 재생을 위해서 감소된다. 출력을 정지함으로써 폐기되는 소정의 오디오 데이터 양의 최소 값은 시스템에 의해서 지지되는 비디오 데이터의 재생 속도에 의해서 결정된다. 비디오 재생 속도가 n 이면(정상 재생), (n-1) 오디오 프레임 이상의 오디오 데이터 양은 출력이 정지될 때마다 폐기될 필요가 있다.
이러한 방식으로 재생되는 오디오 데이터는 도 43에 도시된다. 도 43은 정상 재생의 출력 오디오 스트림(1A)과 고속 재생을 위해 오디오 데이터의 출력을 정지시키므로 획득된 출력 오디오 스트림(1B)을 도시한다. 도 43에 도시된 예에서, 프레임(4) 내지 프레임(7)의 데이터는 오디오 데이터의 출력을 정지시킴으로써 소거된다. 그 결과, 고속 재생동안에 디코드되는 출력 오디오 스트림(1B)은 출력 오디오 스트림(1A)으로부터 섹션(A)을 소거함으로써 획득되는 결과와 같게된다. 이 경우에, 디코드되는 프레임의 수는 12(정상 재생)에서 8로 감소된다. 그러므로, 재생 속도는 정상의 12/8=1.5 배이다.
이러한 방법은 간단하며 비교적 수행이 쉽다. 더욱이, 오디오 데이터가 프레임간에 처리되므로, 스트림 에러는 발생되지 않는다.
전술된 바와 같이, 오디오 데이터의 고속 재생은 비디오 스트림 버퍼(3004)내의 나머지 양이 0이 될 때마다 (ⅰ) 내지 (ⅳ) 방법 중 하나에 의해서 오디오 비디오 스트림의 일부를 폐기함으로써 비디오 데이터의 재생 속도를 변경시키지 않고도 비디오 데이터의 재생 속도에 따라서 수행된다. 전술된 방법(ⅰ) 내지 (ⅳ)는 음향 불연속을 감소시킨다. 따라서, 제 11의 예의 오디오 신호 처리 장치는 비디오 데이터의 재생 속도에 따라서 고속으로 오디오 데이터를 재생하며, 더 작은 음향 불연속을 갖으며 더 간단한 방식으로 재생한다.
(예 12)
본 발명에 따른 제 12의 예에서 오디오 신호 처리 장치(3900)는 도면을 참조하여 설명된다. 도 39는 제 12에의 오디오 신호 처리 장치(3900)를 예시하는 블록도이다. 오디오 신호 처리 장치(3900)는 입력 스트림 처리 장치(3002), 오디오 스트림 버퍼(3003), 비디오 스트림 버퍼(3004), 버퍼 제어기(3005C), 제어기(3006), 오디오 처리 장치(3007) 및 비디오 처리 장치(3008)를 포함한다.
입력 스트림 처리 장치(3002)에 입력되는 입력 스트림(3001)은 DVD로부터 출력된 데이터이거나 같은 데이터이다. 다시 말해서, 입력 스트림 처리 장치(3002)는 압축 및 다중화되는 비디오 또는 오디오 신호를 수신한다. 이 예에서, 입력 스트림(3001)은 DVD로부터 출력된 데이터 스트림이며, 비디오 데이터는 MPEG2와 일치하며 오디오 데이터는 간단히 하기 위해서 AC-3과 일치한다. 다른 유형의 데이터스트림이 유사한 방식으로 사용될 수 있다.
입력 스트림(3001)이 입력 스트림 처리 장치(3002)로 입력될 때, 입력 스트림 처리 장치(3002)는 입력 스트림(3001)으로부터 재생된 비디오 데이터 및 오디오 데이터를 추출하여 비디오 데이터를 비디오 스트림 버퍼(3004)로 저장하며 오디오 데이터를 오디오 스트림 버퍼(3003)로 저장한다. 이 점에서, 버퍼 제어기(3005C)는 비디오 스트림 버퍼(3004)내의 나머지 데이터 양 및 오디오 스트림 버퍼(3003)의 자유 용량을 관리한다.
정상 재생 상태에서, 비디오 데이터가 비디오 처리 장치(3008)로 입력될 때, 비디오 처리 장치(3008)는 비디오 데이터를 출력 비디오 신호(3010)로 디코드한다. 오디오 데이터가 오디오 처리 장치(3007)로 입력될 때, 오디오 처리 장치(3007)는 오디오 데이터를 디코딩하여 출력 오디오 신호(3009)로 변환한다.
고속 재생 상태에서, 비디오 처리 장치(3008)는 소정의 속도로 고속 재생을 수행하기 위해서 제어기(3006)로부터 명령을 따른다. 오디오 처리 장치(3007)는 정상 재생을 수행한다. 비디오 데이터가 MPEG2와 일치할 때, 소정의 비율로 고속 재생하는 것은 다음 방식 중 하나로 수행된다.
(1-1) 단지 I 영상 재생(재생 속도: 정상의 약 6-7 배)
(1-2) I 및 P 영상 재생( 재생 속도: 정상의 약 1.5 내지 3 배)
(1-3) I 및 P 영상 및 B 영상의 일부 재생( 재생 배율: 정상의 1 내지 1.5 배)
(1-1), (1-2) 및 (1-3) 이외의 다른 방법이 사용될 수 있다.
고속 재생 동안에, 버퍼 제어기(3005C)는 비디오 스트림 버퍼(3004)내의 나머지 데이터 양 및 오디오 스트림 버퍼(3003)의 자유 용량을 관리한다. 정상 재생은 비디오 스트림 버퍼(3004)내의 나머지 데이터 양이 선정된 값(V)보다 적거나 오디오 스트림 버퍼(3003)의 자유 용량이 선정된 값(W)보다 작게될 때 까지 형성된다. 비디오 스트림 버퍼(3004)내의 나머지 데이터 양이 선정된 값(V)보다 작게되거나 오디오 스트림 버퍼(3003)의 자유 용량이 선정된 값(W)보다 작아질 때 버퍼 제어기(3005C)는 오디오 처리 장치(3007)에 오디오 스트림 버퍼(3003) 또는 비디오 스트림 버퍼(3004)의 나머지 자유 용량을 알린다. 선정된 값(W 및 V)은 시스템에 따라서 여러 값으로 설정될 수 있다. 이러한 예에서, 선정된 값(W 및 V)은 0으로 설정된다. 선정된 값(W 및 V)이 다른 값으로 설정될 때 유사한 방식으로 제어가 수행된다.
비디오 스트림 버퍼(3004) 또는 오디오 스트림 버퍼(3003)내의 나머지 데이터 양이 0이 될 때, 오디오 처리 장치(3007)는 출력 오디오 데이터의 일부를 소거함으로써 오디오 데이터의 고속 재생을 수행한다. 그러한 수행은 도 44 및 도 45를 참조하여 기술된다. 도 44 및 도 45는 재생중의 오디오 스트림 버퍼(3003) 및 비디오 스트림 버퍼(3004)의 상태를 도시한다. 음영진 부분은 데이터 영역을 표시하며, 빈 부분은 사용되는 영역을 표시한다.
비디오 데이터가 고속으로 재생되며 비디오 스트림 버퍼(3004)내의 나머지 데이터 양이 0이 되지 않을 때, 오디오 스트림 버퍼(3004) 및 비디오 스트림 버퍼(3004)는 도 44 및 도 45의 상태(2)에 놓인다. 오디오 스트림 버퍼(3003)의 자유 용량은 0이 아니며, 비디오 스트림 버퍼(3004)내의 나머지 데이터 양이 0이 아니다. 비디오 데이터만이 비디오 처리 장치(3008)에 의해서 고속으로 재생된다. 오디오 스트림이 비디오 데이터의 재생 속도에 따라서 입력되므로, 정상 재생을 위해서 디코드되는 오디오 데이터의 양은 입력 데이터 양보다 적다. 따라서, 오디오 스트림 버퍼(3003)의 자유 용량은 도 44의 상태(1)에 도시된 바와 같이 0이 되거나, 비디오 스트림 버퍼(3004)내의 나머지 데이터 양은 도 45에 도시된 바와 같이 상태(1)에 도시된 바와 같이 0이 된다.
오디오 스트림 버퍼(3003)의 자유 용량 또는 비디오 스트림 버퍼(3004)내의 나머지 데이터 용량이 0이 될 때, 버퍼 제어기(3005C)는 그러한 정보를 오디오 처리 장치(3007)로 전송한다. 이에 응답하여, 오디오 처리 장치(3007)는 선정된 오디오 데이터의 양을 폐기하며, 오디오 데이터의 폐기된 부분 직후의 부분으로부터 정상 속도로 오디오 데이터 디코딩을 재개한다.
그후, 폐기되었으며 폐기되는 소정의 데이터 양은 후술된다.
(ⅰ) 오디오 스트림 버퍼(3003)의 소거
오디오 스트림 버퍼(3003)내의 데이터는 디코딩되기 전에 스트림을 부분적으로 엷게 하기 위해서 부분적으로 또는 전체적으로 플러시된다. 그러므로, 재생되는 오디오 데이터의 양은 고속 재생을 위해서 감소된다. 폐기되는 선정된 오디오 데이터 양(A)은 임의의 양으로서 사용된 시스템내의 오디오 스트림 버퍼(3003)의 크기보다 작다.
이러한 방식으로 재생된 오디오 데이터는 도 40에 도시된다. 도 40은 정상재생에서 출력 오디오 스트림(1A)과 오디오 스트림 버퍼(3003)를 소거시키는 결과로서 고속 재생에서 출력 오디오 스트림(1B)을 도시한다. 도 40에 도시된 예에서, 프레임(4)의 중간으로부터 프레임(7)의 중간까지 데이터는 오디오 스트림 버퍼(3003)를 소거함으로써 소거된다. 그 결과, 고속 재생동안에 디코드되는 출력 오디오 스트림(1B)은 출력 오디오 스트림(1A)으로부터 섹션(A)을 소거함으로서 획득된 결과와 같다. 이 경우에, 디코드되는 프레임의 수는 오디오 스트림 버퍼(3003)를 소거함으로써 12(정상 재생)로부터 8로 감소된다. 그러므로, 재생 속도는 정상의 12/8=1.5이다.
이러한 방법은 간단하며 비교적 수행하기가 쉽다. 그러나, 오디오 데이터가 프레임간에 처리될 수 있으므로, 바람직하지 않은 스트림 에러가 발생될 수 있다. 오디오 스트림 버퍼(3003)내의 내용이 전체적으로 소거되므로, 오디오 데이터는 다음 프레임의 데이터가 입력될 때까지 출력될 수 없다.
(ⅱ) 입력 오디오 스트림 제한
입력 스트림 처리 장치(3002)로부터 오디오 스트림 버퍼(3003)로 입력 스트림(3001)을 전송하는 것은 선정된 시간 주기동안 정지된다. 다시 말해서, 입력 스트림(3001)의 일부는 비전송에 의해서 소거된다. 그러므로, 재생되는 오디오 데이터의 양은 고속 재생을 위해서 감소된다. 폐기되는 선정된 오디오 데이터 양(A)은 시스템에 의해서 지지되는 비디오 데이터의 재생 속도에 의해서 결정된다. 비디오 재생 속도가 n 일 때 (정상 재생), 전송이 정지될 때마다 폐기되는 (n-1)의 오디오 프레임 이상인 오디오 데이터의 양은 폐기될 필요가 있다.
이러한 방식으로 재생되는 오디오 데이터는 도 41에 도시된다. 도 41은 정상 재생의 출력 오디오 스트림(1A)과 고속 재생을 위한 입력 스트림(3001)의 입력을 제한함으로써 획득되는 입력 오디오 스트림(1B)을 도시한다. 도 41에 도시된 예에서, 프레임(4)의 중간으로부터 프레임(7)의 중간까지 데이터는 입력 스트림(3001)의 입력을 제한함으로써 소거된다. 그 결과, 고속 재생 중에 디코드되는 출력 오디오 스트림(1B)은 출력 오디오 스트림(1A)으로부터 섹션(A)을 소거함으로써 획득된 결과와 같다. 이 경우에, 디코드되는 프레임의 수는 12(정상 재생)로부터 8로 감소된다. 그러므로, 재생 속도는 정상의 12/8=1.5 이다.
이러한 방식은 간단하며 수행하기에 비교적 쉽다. 그러나, 오디오 데이터가 프레임간에 처리될 수 있으므로, 바람직하지 않은 스트림 에러가 발생될 수 있다. 더욱이, 다음 프레임의 데이터가 입력될 때까지 오디오 데이터가 출력될 수 없다.
(ⅲ) 입력 오디오 스트림 스킵
오디오 데이터의 하나 내지 여러 프레임은 오디오 처리 장치(3007)에 의해서 프레임간에 스킵된다. 그러므로, 재생되는 오디오 데이터의 양은 고속 재생을 위해서 감소된다. 폐기되는 소정의 오디오 데이터 양은 시스템에 의해서 지지되는 비디오 데이터의 재생 속도에 의해서 결정된다. 비디오 재생 속도가 n(정상속도) 일 때, 데이터가 스킵될 때마다 (n-1) 오디오 프레임 이상인 오디오 데이터의 양이 폐기될 필요가 있다.
이러한 방식으로 재생된 오디오 데이터는 도 42에 도시된다. 도 42는 정상 재생에서 출력 오디오 스트림(1A)과 고속 재생을 위한 오디오 데이터를 부분적으로스킵함으로써 획득되는 출력 오디오 스트림(1D)을 도시한다. 도 42에 도시된 예에서, 프레임(4) 내지 프레임(7)의 데이터는 오디오 데이터를 스킵함으로써 소거된다. 그 결과, 고속 재생동안에 디코드되는 출력 오디오 스트림(1B)은 출력 오디오 스트림(1A)으로부터 섹션(A)을 소거함으로써 획득된 결과와 같다. 이 경우에, 디코드되는 프레임의 수는 12(정상 재생)로부터 8로 감소된다. 그러므로, 재생 속도는 정상의 12/8=1.5배이다.
이러한 방법은 간단하며 비교적 수행하기가 쉽다. 더욱이, 오디오 데이터가 프레임간에 처리되므로, 스트림 에러는 발생되지 않는다.
(ⅳ) 오디오 데이터의 출력 또는 하나 내지 여러 프레임이 오디오 처리 장치(3007)에 의해서 정지된다. 그러므로, 재생되는 오디오 데이터의 양은 고속 재생을 위해서 재생된다. 출력을 정지함으로써 폐기되는 소정의 오디오 데이터 양의 최소 값은 시스템에 의해서 지지되는 비디오 데이터의 재생속도에 의해서 결정된다. 비디오 재생 속도가 n 일 때(정상 속도), (n-1) 오디오 프레임 이상의 오디오 데이터의 양은 출력이 정지될 때마다 폐기될 필요가 있다.
이러한 방식으로 재생된 오디오 데이터는 도 43에 도시된다. 도 43은 정상 재생의 출력 오디오 스트림(1A)과 고속 재생을 위한 오디오 데이터의 출력을 정지시키므로 획득된 출력 오디오 스트림(1B)을 도시한다. 도 43에 도시된 예에서, 프레임(4) 내지 프레임(7)의 데이터는 오디오 데이터의 출력을 정지시키므로 소거된다. 그 결과, 고속 재생동안에 디코드되는 출력 오디오 스트림(1B)은 출력 오디오 스트림(1A)으로부터 섹션(A)을 소거함으로써 획득된 결과와 같다. 이 경우에, 디코드되는 프레임의 결과는 12(정상 재생)로부터 8로 감소된다. 그러므로, 재생 속도는 정상의 12/8=1.5배이다.
이러한 방법은 간단하며 비교적 수행이 쉽다. 더욱이, 오디오 데이터가 프레임간에 처리되므로, 스트림 에러는 발생되지 않는다.
전술된 바와 같이, 오디오 데이터의 고속 재생은 오디오 스트림 버퍼(3003)의 자유 용량이 0이 되거나 비디오 스트림 버퍼(3004)의 나머지 데이터 양이 0이 될 때마다 방법 (ⅰ) 내지 (ⅳ)중 하나에 의해서 오디오 비디오 스트림의 일부를 폐기함으로써 비디오 데이터의 재생 속도를 변경시키지 않고도 비디오 데이터의 속도에 따라서 수행된다. 전술된 방법 (ⅰ) 내지 (ⅳ)는 음향 불연속성을 감소시킨다. 따라서, 제 12의 예의 오디오 신호 처리 장치가 더 적은 음향 불연속성 및 더 간단한 방식을 갖는 비디오 데이터의 재생 속도에 따라 고속으로 오디오 데이터를 재생한다.
MPEG 표준과 일치한 데이터 스트림 내에 포함된 오디오 데이터 및 비디오 데이터는 하나의 칩에 분리되어 형성되는 LSI에 의해서 일반적으로 디코드된다. LSI가 하나의 동일 칩으로 형성된다 할지라도, 이러한 LSI는 다른 코어를 갖는 분리된 블록에 형성된다. 그러한 경우에, 버퍼 제어기는 오디오 스트림 버퍼(3003) 및 비디오 스트림 버퍼(3004)를 항상 관리할 수는 없다. 따라서, 버퍼 제어기는 오디오 스트림 버퍼(3003)(제 10 예에 대응함) 및 비디오 스트림 버퍼(3004)(제 11의 예에 대응함)중 하나를 관리한다. 오디오 데이터 및 비디오 데이터가 동일 LSI 칩에 의해서 디코드될 때, 버퍼 제어기(3005C)는 데이터 버스를 통해서 오디오 스트림 버퍼(3003) 및 비디오 스트림 버퍼(3004)를 관리할 수 있다.
제 10, 11 및 12의 예에서, 오디오 데이터가 프레임간에 소거될 때, 예를들면, 프레임 0 내지 프레임 i, 프레임 i+1,...프레임 k-1, 프레임 k 및 프레임 k+1에 대한 오디오 데이터가 입력되며 프레임 i+1, ...프레임 k-1에 대한 오디오 데이터는 소거되며, 프레임 i 및 k에 대한 오디오 데이터는 크로스 페이딩(cross-fading)에 의해서 처리된다.
제 10, 11 및 12의 예로부터 알 수 있듯이, 본 발명에 따른 오디오 신호 처리 장치는 오디오 스트림 버퍼의 자유 용량을 관리하며 사용 양이 소정의 양 보다 작아질 때 오디오 스트림의 소정의 양을 폐기한다. 그러므로, 오디오 신호 처리 장치는 더 적은 음향 불연속성을 갖는 비디오 데이터의 재생 속도에 따라서 그리고 유사한 방식으로 오디오 데이터를 재생한다.
그 대신에, 본 발명에 따른 오디오 신호 처리 장치는 비디오 스트림 버퍼내의 나머지 데이터 양을 관리할 수 있으며 나머지 데이터 양이 소정의 양보다 작아질 때 오디오 스트림의 선정된 양을 폐기할 수 있다. 그러므로, 오디오 신호 처리 장치는 더 적은 음향 불연속성으로 그리고 더 간단한 방식으로 비디오 데이터의 재생 속도에 따른 고속으로 오디오 데이터를 재생한다.
그 대신에, 본 발명에 따른 오디오 신호 처리 장치는 오디오 스트림 버퍼의 자유 용량 및 비디오 스트림 버퍼내의 나머지 데이터 양을 관리할 수 있다. 그러한 경우에, 오디오 신호 처리 장치는 오디오 스트림 버퍼의 자유 용량 및 비디오 스트림 버퍼내의 나머지 데이터 양이 소정의 양보다 작을 때 오디오 스트림의 선정된양을 폐기한다. 그러므로, 오디오 신호 처리 장치는 더 적은 음향 불연속성 및 더 간단한 방식으로 비디오 데이터의 재생에 따라 고속으로 오디오 데이터를 재생한다.
오디오 스트림의 선정된 양은 오디오 데이터를 줄이기 위해서 오디오 스트림 버퍼의 내용을 간헐적으로 플러싱함으로써 폐기된다.
그 대신에, 오디오 스트림의 선정된 양은 선정된 시간 주기동안에, 입력 스트림 처리 장치로부터 입력되는 오디오 신호를 오디오 스트림 버퍼로 전송되는 것으로부터 정지함으로써 폐기된다.
이에 대체해서, 오디오 스트림의 소정의 양은 오디오 처리 장치에 의해서 오디오 스트림으로부터 입력된 데이터의 선정된 양을 스킵함으로써 폐기된다.
이에 대체해서, 오디오 스트림의 선정된 양은 선정된 시간 주기동안, 오디오 처리 장치에 의한 오디오 신호의 출력을 정지함으로써 폐기된다.
전술된 방법 중 하나에 의해서, 재생되는 오디오 데이터는 고속 재생을 위해서 감소된다. 이러한 방식으로, 오디오 데이터의 고속 재생은 더 작은 음향 불연속성을 갖는 비디오 데이터의 재생 속도에 따라서 수행된다.
본 기술 분야에 숙련된 사람에게는 본 발명의 범위 및 취지에서 벗어나지 않는 한 여러 가지 다양한 수정이 쉽게 이루어질 수 있음이 명백하다. 따라서, 첨부된 청구 범위가 여기서 설명된 바와 같이 명세서에 제한되지만, 청구 범위는 넓게 해석될 수 있다.

Claims (15)

  1. 오디오 신호 처리 장치에 있어서,
    재생 속도를 표시하기 위한 제어부와,
    오디오 신호 및 비디오 신호를 다중화한 결과로서 얻어진 입력 신호를 처리하여 오디오 신호 및 비디오 신호를 출력하기 위한 입력 신호 처리 장치와,
    입력 신호 처리 장치에 의해서 출력된 오디오 신호를 일시적으로 저장하기 위한 오디오 스트림 버퍼와,
    입력 신호 처리 장치에 의해서 출력된 비디오 신호를 일시적으로 저장하기 위한 비디오 스트림 버퍼와,
    오디오 스트림 버퍼로부터 오디오 신호를 추출하여 출력 오디오 신호를 형성하기 위해서 오디오 신호를 처리하기 위한 오디오 처리 장치와,
    비디오 스트림 버퍼로부터 비디오 신호를 추출하여 비디오 신호를 처리하고, 출력 비디오 신호를 형성하도록 제어부로부터 명령에 응답하여 비디오 신호의 고속 재생을 수행하기 위한 비디오 처리 장치, 및
    오디오 스트림 버퍼의 프리 용량이 소정의 레벨보다 작게 되었을 때 오디오 처리 장치가 오디오 신호의 고속 재생을 수행하기 위해서 오디오 스트림 버퍼의 상태를 감시하고 데이터 입력 및 출력을 제어하기 위한 버퍼 제어기를 포함하는 오디오 신호 처리 장치.
  2. 오디오 신호 처리 장치에 있어서,
    재생 속도를 표시하기 위한 제어부와,
    오디오 신호 및 비디오 신호를 다중화한 결과로서 얻어진 입력 신호를 처리하고 오디오 신호 및 비디오 신호를 출력하기 위한 입력 신호 처리 장치와,
    입력 신호 처리 장치에 의해서 출력된 오디오 신호를 일시적으로 저장하기 위한 오디오 스트림 버퍼와,
    입력 신호 처리 장치에 의해서 출력된 비디오 신호를 일시적으로 저장하기 위한 비디오 스트림 버퍼와,
    오디오 스트림 버퍼로부터 오디오 신호를 추출하여 출력 오디오 신호를 형성하기 위해서 오디오 신호를 처리하기 위한 오디오 처리 장치와,
    비디오 스트림 버퍼로부터 비디오 신호를 추출하여 비디오 신호를 처리하고, 출력 비디오 신호를 형성하기 위해서 제어부로부터의 명령에 응답하여 비디오 신호의 고속 재생을 수행하기 위한 비디오 처리 장치, 및
    비디오 스트림 버퍼내의 나머지 데이터 양이 소정의 레벨보다 작게 되었을 때 오디오 처리 장치가 오디오 신호의 고속 재생을 수행하기 위해서 비디오 스트림 버퍼의 상태를 감시하고 데이터 입출력을 제어하기 위한 버퍼 제어기를 포함하는 오디오 신호 처리 장치.
  3. 오디오 신호 처리 장치에 있어서,
    재생 속도를 표시하기 위한 제어부와,
    오디오 신호 및 비디오 신호를 다중화한 결과로서 얻어진 입력 신호를 처리하여 오디오 신호 및 비디오 신호를 출력하기 위한 입력 신호 처리 장치와,
    입력 신호 처리 장치에 의해서 출력된 오디오 신호를 일시적으로 저장하기 위한 오디오 스트림 버퍼와,
    입력 신호 처리 장치에 의해서 출력된 비디오 신호를 일시적으로 저장하기 위한 비디오 스트림 버퍼와,
    출력 오디오 신호를 형성하기 위하여 오디오 스트림 버퍼로부터 오디오 신호를 추출하고 그 오디오 신호를 처리하기 위한 오디오 처리 장치와,
    비디오 스트림 버퍼로부터 비디오 신호를 추출하여 비디오 신호를 처리하고, 출력 비디오 신호를 형성하기 위해서 제어부로부터의 명령에 응답하여 비디오 신호의 고속 재생을 수행하기 위한 비디오 처리 장치, 및
    오디오 스트림 버퍼의 프리 용량 또는 비디오 스트림 버퍼내의 나머지 데이터 양이 소정의 레벨보다 작게 되었을 때 오디오 처리 장치가 오디오 신호의 고속 재생을 수행하도록 오디오 스트림 버퍼 및 비디오 스트림 버퍼의 상태를 감시하고 데이터 입출력을 제어하기 위한 버퍼 제어기를 포함하는 오디오 신호 처리 장치.
  4. 제 1항에 따른 오디오 신호 처리 장치 내에서의 오디오 신호의 고속 재생을 수행하기 위한 방법에 있어서,
    비디오 신호의 고속 재생을 수행하는 동안에 재생되는 오디오 데이터의 양을 감소시키기 위해서 오디오 스트림 버퍼내의 내용을 간헐적으로 플러싱(flushing)함으로써 오디오 신호를 솎아내는(thinning out) 단계를 포함하는 오디오 신호 고속 재생 수행 방법.
  5. 제 2항에 따른 오디오 신호 처리 장치 내에서의 오디오 신호의 고속 재생을 수행하기 위한 방법에 있어서,
    비디오 신호의 고속 재생을 수행하는 동안에 재생되는 오디오 데이터의 양을 감소시키기 위해서 오디오 스트림 버퍼내의 내용을 간헐적으로 플러싱함으로써 오디오 신호를 솎아내는 단계를 포함하는 오디오 신호 고속 재생 수행 방법.
  6. 제 3항에 따른 오디오 신호 처리 장치 내에서의 오디오 신호의 고속 재생을 수행하기 위한 방법에 있어서,
    비디오 신호의 고속 재생을 수행하는 동안에 재생되는 오디오 데이터의 양을 감소시키기 위해서 오디오 스트림 버퍼내의 내용을 간헐적으로 플러싱함으로써 오디오 신호를 솎아내는 단계를 포함하는 오디오 신호 고속 재생 수행 방법.
  7. 제 1항에 따른 오디오 신호 처리 장치 내에서의 오디오 신호의 고속 재생을 수행하기 위한 방법에 있어서,
    비디오 신호의 고속 재생을 수행하는 동안에 재생되는 오디오 데이터의 양을 감소시키기 위해서 입력 신호 처리 장치로부터의 오디오 신호를 오디오 스트림 버퍼에 전송하는 것을 소정의 시간 주기 동안 중지하는 단계를 포함하는 오디오 신호고속 재생 수행 방법.
  8. 제 2항에 따른 오디오 신호 처리 장치 내에서의 오디오 신호의 고속 재생을 수행하기 위한 방법에 있어서,
    비디오 신호의 고속 재생을 수행하는 동안에 재생되는 오디오 데이터의 양을 감소시키기 위해서 입력 신호 처리 장치로부터의 오디오 신호를 오디오 스트림 버퍼에 전송하는 것을 소정의 시간 주기 동안 중지하는 단계를 포함하는 오디오 신호 고속 재생 수행 방법.
  9. 제 3항에 따른 오디오 신호 처리 장치 내에서의 오디오 신호의 고속 재생을 수행하기 위한 방법에 있어서,
    비디오 신호의 고속 재생을 수행하는 동안에 재생되는 오디오 데이터의 양을 감소시키기 위해서 입력 신호 처리 장치로부터의 오디오 신호를 오디오 스트림 버퍼에 전송하는 것을 소정의 시간 주기 동안 중지하는 단계를 포함하는 오디오 신호 고속 재생 수행 방법.
  10. 제 1항에 따른 오디오 신호 처리 장치 내에서의 오디오 신호의 고속 재생을 수행하기 위한 방법에 있어서,
    비디오 신호의 고속 재생을 수행하는 동안에 재생되는 오디오 데이터의 양을 감소시키기 위해서 오디오 스트림 버퍼로부터 입력된 소정의 데이터 양을 오디오처리 장치로 스킵하는 단계를 포함하는 오디오 신호 고속 재생 수행 방법.
  11. 제 2항에 따른 오디오 신호 처리 장치 내에서의 오디오 신호의 고속 재생을 수행하기 위한 방법에 있어서,
    비디오 신호의 고속 재생을 수행하는 동안에 재생되는 오디오 데이터의 양을 감소시키기 위해서 오디오 스트림 버퍼로부터 입력된 소정의 데이터 양을 오디오 처리 장치로 스킵하는 단계를 포함하는 오디오 신호 고속 재생 수행 방법.
  12. 제 3항에 따른 오디오 신호 처리 장치 내에서의 오디오 신호의 고속 재생을 수행하기 위한 방법에 있어서,
    비디오 신호의 고속 재생을 수행하는 동안에 재생되는 오디오 데이터의 양을 감소시키기 위해서 오디오 스트림 버퍼로부터 입력된 소정의 데이터 양을 오디오 처리 장치로 스킵하는 단계를 포함하는 오디오 신호 고속 재생 수행 방법.
  13. 제 1항에 따른 오디오 신호 처리 장치 내에서의 오디오 신호의 고속 재생을 수행하기 위한 방법에 있어서,
    비디오 신호의 고속 재생을 수행하는 동안에 재생되는 오디오 데이터의 양을 감소시키기 위해서 오디오 처리 장치로부터 오디오 신호의 출력을 소정의 시간 주기 동안 중지하는 단계를 포함하는 오디오 신호 고속 재생 수행 방법.
  14. 제 2항에 따른 오디오 신호 처리 장치 내에서의 오디오 신호의 고속 재생을 수행하기 위한 방법에 있어서,
    비디오 신호의 고속 재생을 수행하는 동안에 재생되는 오디오 데이터의 양을 감소시키기 위해서 오디오 처리 장치로부터 오디오 신호의 출력을 소정의 시간 주기 동안 중지하는 단계를 포함하는 오디오 신호 고속 재생 수행 방법.
  15. 제 3항에 따른 오디오 신호 처리 장치 내에서의 오디오 신호의 고속 재생을 수행하기 위한 방법에 있어서,
    비디오 신호의 고속 재생을 수행하는 동안에 재생되는 오디오 데이터의 양을 감소시키기 위해서 오디오 처리 장치로부터 오디오 신호의 출력을 소정의 시간 주기 동안 중지하는 단계를 포함하는 오디오 신호 고속 재생 수행 방법.
KR1020000043783A 1997-04-11 2000-07-28 오디오 신호 처리 장치 및 오디오 신호 고속 재생 방법 KR100333999B1 (ko)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP9352097 1997-04-11
JP97-093521 1997-04-11
JP9352197 1997-04-11
JP97-093520 1997-04-11
JP9239968A JPH1188994A (ja) 1997-09-04 1997-09-04 音像定位装置及び音像制御方法
JP97-239968 1997-09-04
JP98-023023 1998-02-04
JP02302398A JP3986147B2 (ja) 1998-02-04 1998-02-04 音響信号処理装置及びオーディオ高速再生方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1019980013966A Division KR100296838B1 (ko) 1997-04-11 1998-04-11 음향영상정위장치및음향영상제어방법

Publications (1)

Publication Number Publication Date
KR100333999B1 true KR100333999B1 (ko) 2002-04-25

Family

ID=27457879

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1019980013966A KR100296838B1 (ko) 1997-04-11 1998-04-11 음향영상정위장치및음향영상제어방법
KR1020000043783A KR100333999B1 (ko) 1997-04-11 2000-07-28 오디오 신호 처리 장치 및 오디오 신호 고속 재생 방법

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1019980013966A KR100296838B1 (ko) 1997-04-11 1998-04-11 음향영상정위장치및음향영상제어방법

Country Status (7)

Country Link
US (2) US6356639B1 (ko)
EP (1) EP0871293B1 (ko)
KR (2) KR100296838B1 (ko)
CN (2) CN100334810C (ko)
DE (1) DE69841538D1 (ko)
ES (1) ES2340111T3 (ko)
TW (1) TW405328B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100636141B1 (ko) * 2004-04-30 2006-10-18 삼성전자주식회사 프로그래밍 기능을 가진 어플리케이션을 기록한 저장매체, 재생 장치 및 그 재생 방법

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6356639B1 (en) * 1997-04-11 2002-03-12 Matsushita Electric Industrial Co., Ltd. Audio decoding apparatus, signal processing device, sound image localization device, sound image control method, audio signal processing device, and audio signal high-rate reproduction method used for audio visual equipment
US6650659B1 (en) * 1998-02-27 2003-11-18 Sony Corporation Data transmitting method
CN1288622C (zh) * 2001-11-02 2006-12-06 松下电器产业株式会社 编码设备和解码设备
US6928104B2 (en) * 2002-07-18 2005-08-09 Interdigital Technology Corporation Scaling using gain factors for use in data detection for wireless code division multiple access communication systems
JP4045422B2 (ja) * 2002-07-23 2008-02-13 株式会社日立メディコ 画像処理装置
US8959016B2 (en) 2002-09-27 2015-02-17 The Nielsen Company (Us), Llc Activating functions in processing devices using start codes embedded in audio
US9711153B2 (en) 2002-09-27 2017-07-18 The Nielsen Company (Us), Llc Activating functions in processing devices using encoded audio and detecting audio signatures
JP2004194100A (ja) * 2002-12-12 2004-07-08 Renesas Technology Corp オーディオ復号再生装置
US20050096918A1 (en) * 2003-10-31 2005-05-05 Arun Rao Reduction of memory requirements by overlaying buffers
JP4207832B2 (ja) * 2004-04-16 2009-01-14 船井電機株式会社 デジタルデータ再生装置
US7471337B2 (en) * 2004-06-09 2008-12-30 Lsi Corporation Method of audio-video synchronization
JP5461835B2 (ja) 2005-05-26 2014-04-02 エルジー エレクトロニクス インコーポレイティド オーディオ信号の符号化/復号化方法及び符号化/復号化装置
TWI314722B (en) * 2005-06-30 2009-09-11 Lg Electronics Inc Apparatus for encoding and decoding audio signal and method thereof
US8185403B2 (en) 2005-06-30 2012-05-22 Lg Electronics Inc. Method and apparatus for encoding and decoding an audio signal
JP5227794B2 (ja) 2005-06-30 2013-07-03 エルジー エレクトロニクス インコーポレイティド オーディオ信号をエンコーディング及びデコーディングするための装置とその方法
AU2006266655B2 (en) 2005-06-30 2009-08-20 Lg Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
TWI333641B (en) * 2005-06-30 2010-11-21 Lg Electronics Inc Method and apparatus for encoding and decoding an audio signal
JP2007033507A (ja) * 2005-07-22 2007-02-08 Matsushita Electric Ind Co Ltd 音響再生装置
CN100420155C (zh) * 2005-08-03 2008-09-17 上海杰得微电子有限公司 宽带音频压缩编码器的频带组划分方法
US8577483B2 (en) 2005-08-30 2013-11-05 Lg Electronics, Inc. Method for decoding an audio signal
JP5231225B2 (ja) 2005-08-30 2013-07-10 エルジー エレクトロニクス インコーポレイティド オーディオ信号をエンコーディング及びデコーディングするための装置とその方法
KR100880643B1 (ko) 2005-08-30 2009-01-30 엘지전자 주식회사 오디오 신호의 디코딩 방법 및 장치
US7788107B2 (en) 2005-08-30 2010-08-31 Lg Electronics Inc. Method for decoding an audio signal
US7646319B2 (en) 2005-10-05 2010-01-12 Lg Electronics Inc. Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US7672379B2 (en) 2005-10-05 2010-03-02 Lg Electronics Inc. Audio signal processing, encoding, and decoding
EP1952112A4 (en) 2005-10-05 2010-01-13 Lg Electronics Inc METHOD AND DEVICE FOR SIGNAL PROCESSING AND CODING AND DECODING METHOD AND DEVICE THEREFOR
US7751485B2 (en) 2005-10-05 2010-07-06 Lg Electronics Inc. Signal processing using pilot based coding
KR100857112B1 (ko) 2005-10-05 2008-09-05 엘지전자 주식회사 신호 처리 방법 및 이의 장치, 그리고 인코딩 및 디코딩방법 및 이의 장치
US8068569B2 (en) 2005-10-05 2011-11-29 Lg Electronics, Inc. Method and apparatus for signal processing and encoding and decoding
US7696907B2 (en) 2005-10-05 2010-04-13 Lg Electronics Inc. Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US7840401B2 (en) 2005-10-24 2010-11-23 Lg Electronics Inc. Removing time delays in signal paths
KR100677622B1 (ko) * 2005-12-02 2007-02-02 삼성전자주식회사 오디오 파일의 이퀄라이저 설정 방법 및 이를 이용한오디오 파일 재생 방법
KR20070077652A (ko) * 2006-01-24 2007-07-27 삼성전자주식회사 적응적 시간/주파수 기반 부호화 모드 결정 장치 및 이를위한 부호화 모드 결정 방법
KR100904438B1 (ko) 2006-02-23 2009-06-24 엘지전자 주식회사 오디오 신호의 처리 방법 및 장치
US8392176B2 (en) 2006-04-10 2013-03-05 Qualcomm Incorporated Processing of excitation in audio coding and decoding
US9780912B2 (en) 2006-10-31 2017-10-03 Qualcomm Incorporated Method and apparatus for reducing overhead based on the ACK channel
JP4284370B2 (ja) * 2007-03-09 2009-06-24 株式会社東芝 ビデオサーバ及びビデオ編集システム
US8428957B2 (en) 2007-08-24 2013-04-23 Qualcomm Incorporated Spectral noise shaping in audio coding based on spectral dynamics in frequency sub-bands
KR101331537B1 (ko) * 2007-10-10 2013-11-20 삼성전자주식회사 디지털 미디어 방송 시스템에서 오디오 출력을 위한 장치및 방법
MX2010004220A (es) 2007-10-17 2010-06-11 Fraunhofer Ges Forschung Codificacion de audio usando mezcla descendente.
US9703784B2 (en) * 2007-12-24 2017-07-11 Sandisk Il Ltd. Mobile device and method for concurrently processing content according to multiple playlists
JP5396588B2 (ja) * 2008-06-16 2014-01-22 株式会社 Trigence Semiconductor デジタルスピーカー駆動装置,デジタルスピーカー装置,アクチュエータ,平面ディスプレイ装置及び携帯電子機器
US8359205B2 (en) 2008-10-24 2013-01-22 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US9667365B2 (en) 2008-10-24 2017-05-30 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US8121830B2 (en) * 2008-10-24 2012-02-21 The Nielsen Company (Us), Llc Methods and apparatus to extract data encoded in media content
US8508357B2 (en) 2008-11-26 2013-08-13 The Nielsen Company (Us), Llc Methods and apparatus to encode and decode audio for shopper location and advertisement presentation tracking
CA3094520A1 (en) 2009-05-01 2010-11-04 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to provide secondary content in association with primary broadcast media content
KR101196410B1 (ko) * 2009-07-07 2012-11-01 삼성전자주식회사 Tv 설치타입에 기초한 자동 환경 설정방법 및 이를 적용한 tv
US8515768B2 (en) * 2009-08-31 2013-08-20 Apple Inc. Enhanced audio decoder
US8073995B2 (en) * 2009-10-19 2011-12-06 Research In Motion Limited Efficient low-latency buffer
EP2706529A3 (en) * 2009-12-07 2014-04-02 Dolby Laboratories Licensing Corporation Decoding of multichannel audio encoded bit streams using adaptive hybrid transformation
TWI557723B (zh) * 2010-02-18 2016-11-11 杜比實驗室特許公司 解碼方法及系統
US8762158B2 (en) * 2010-08-06 2014-06-24 Samsung Electronics Co., Ltd. Decoding method and decoding apparatus therefor
US20120095729A1 (en) * 2010-10-14 2012-04-19 Electronics And Telecommunications Research Institute Known information compression apparatus and method for separating sound source
JP5609591B2 (ja) * 2010-11-30 2014-10-22 富士通株式会社 オーディオ符号化装置、オーディオ符号化方法及びオーディオ符号化用コンピュータプログラム
US9183842B2 (en) * 2011-11-08 2015-11-10 Vixs Systems Inc. Transcoder with dynamic audio channel changing
CN102949997B (zh) * 2012-09-18 2015-01-07 华东理工大学 一种用于吸收强化低碳烃水蒸气重整制氢的催化剂-吸收剂复合体及其制备方法
EP2782094A1 (en) * 2013-03-22 2014-09-24 Thomson Licensing Method and apparatus for enhancing directivity of a 1st order Ambisonics signal
US8804971B1 (en) 2013-04-30 2014-08-12 Dolby International Ab Hybrid encoding of higher frequency and downmixed low frequency content of multichannel audio
CN104754447B (zh) * 2013-12-31 2018-01-16 广州励丰文化科技股份有限公司 基于变轨声像的链接音效控制方法
CN104754443B (zh) * 2013-12-31 2018-01-12 广州励丰文化科技股份有限公司 基于变域声像的链接音效控制方法
CN104754448B (zh) * 2013-12-31 2018-02-16 广州励丰文化科技股份有限公司 变轨声像轨迹控制方法
CN104754450B (zh) * 2013-12-31 2018-01-19 广州励丰文化科技股份有限公司 基于变轨声像的音效控制方法
CN104754442B (zh) * 2013-12-31 2018-01-09 广州励丰文化科技股份有限公司 全景多通道声像控制方法
CN104754444B (zh) * 2013-12-31 2018-03-30 广州励丰文化科技股份有限公司 变域声像轨迹控制方法
CN104754449B (zh) * 2013-12-31 2018-02-16 广州励丰文化科技股份有限公司 基于变域声像的音效控制方法
CN104754451B (zh) * 2013-12-31 2018-01-19 广州励丰文化科技股份有限公司 定点声像轨迹控制方法
CN104754457B (zh) * 2013-12-31 2018-01-12 广州励丰文化科技股份有限公司 声像轨迹控制方法
CN104754458B (zh) * 2013-12-31 2018-01-19 广州励丰文化科技股份有限公司 链接音效控制方法
CN104754445B (zh) * 2013-12-31 2018-01-19 广州励丰文化科技股份有限公司 全景多通道声像轨迹控制方法
CN104240738B (zh) 2014-08-28 2018-05-11 杰发科技(合肥)有限公司 一种音效设置方法及电子装置
EP3392884A1 (en) * 2017-04-21 2018-10-24 audEERING GmbH A method for automatic affective state inference and an automated affective state inference system
WO2018216339A1 (ja) * 2017-05-23 2018-11-29 ソニー株式会社 情報処理装置及びその制御方法、並びに記録媒体
JP2020135110A (ja) * 2019-02-14 2020-08-31 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
CN110853657B (zh) * 2019-11-18 2022-05-13 北京小米智能科技有限公司 空间划分方法、装置及存储介质
CN117676450A (zh) * 2024-02-02 2024-03-08 苏州清听声学科技有限公司 一种车载虚拟声像的音频播放方法及系统

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01291526A (ja) 1988-05-19 1989-11-24 Fujitsu Ltd ビタビ復号器
US5208860A (en) * 1988-09-02 1993-05-04 Qsound Ltd. Sound imaging method and apparatus
US5029200A (en) 1989-05-02 1991-07-02 At&T Bell Laboratories Voice message system using synthetic speech
JP3275247B2 (ja) 1991-05-22 2002-04-15 日本電信電話株式会社 音声符号化・復号化方法
JP3053464B2 (ja) 1991-07-03 2000-06-19 富士通株式会社 音声符号化装置
JPH05199122A (ja) 1992-01-20 1993-08-06 Canon Inc 復号回路
US5384890A (en) 1992-09-30 1995-01-24 Apple Computer, Inc. Method and apparatus for providing multiple clients simultaneous access to a sound data stream
DE69433258T2 (de) * 1993-07-30 2004-07-01 Victor Company of Japan, Ltd., Yokohama Raumklangsignalverarbeitungsvorrichtung
US5583652A (en) * 1994-04-28 1996-12-10 International Business Machines Corporation Synchronized, variable-speed playback of digitally recorded audio and video
JP3622235B2 (ja) * 1994-08-26 2005-02-23 三菱電機株式会社 多重化データの復号装置
KR0174085B1 (ko) 1995-08-09 1999-04-01 조백제 다채널 오디오 복호화기의 복합 디코딩장치
TW447193B (en) 1996-12-09 2001-07-21 Matsushita Electric Ind Co Ltd Signal processing device
US6356639B1 (en) * 1997-04-11 2002-03-12 Matsushita Electric Industrial Co., Ltd. Audio decoding apparatus, signal processing device, sound image localization device, sound image control method, audio signal processing device, and audio signal high-rate reproduction method used for audio visual equipment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100636141B1 (ko) * 2004-04-30 2006-10-18 삼성전자주식회사 프로그래밍 기능을 가진 어플리케이션을 기록한 저장매체, 재생 장치 및 그 재생 방법

Also Published As

Publication number Publication date
KR19980081535A (ko) 1998-11-25
CN1208288A (zh) 1999-02-17
US6356639B1 (en) 2002-03-12
ES2340111T3 (es) 2010-05-28
CN100334810C (zh) 2007-08-29
EP0871293A3 (en) 2002-05-29
CN1529419A (zh) 2004-09-15
US6823310B2 (en) 2004-11-23
TW405328B (en) 2000-09-11
KR100296838B1 (ko) 2001-10-25
DE69841538D1 (de) 2010-04-22
EP0871293A2 (en) 1998-10-14
EP0871293B1 (en) 2010-03-10
US20020035407A1 (en) 2002-03-21

Similar Documents

Publication Publication Date Title
KR100333999B1 (ko) 오디오 신호 처리 장치 및 오디오 신호 고속 재생 방법
AU2006228821B2 (en) Device and method for producing a data flow and for producing a multi-channel representation
KR101251426B1 (ko) 디코딩 명령으로 오디오 신호를 인코딩하기 위한 장치 및방법
US6460016B1 (en) Audio decoding device for decoding coded audio information with multiple channels
US7069223B1 (en) Compressed code decoding device and audio decoding device
KR20110110093A (ko) 디코딩 장치, 디코딩 방법, 인코딩 장치, 인코딩 방법, 및 편집 장치
US5870703A (en) Adaptive bit allocation of tonal and noise components
KR100331368B1 (ko) 디지털전송용시스템,송신기,수신기,전송매체,전송방법,복합음성신호
US20070297624A1 (en) Digital audio encoding
KR19980032760A (ko) 오디오 서라운드 신호를 처리하는 시스템
US20010047256A1 (en) Multi-format recording medium
JP4831115B2 (ja) 音声符号化方法及び音声復号方法
US6463405B1 (en) Audiophile encoding of digital audio data using 2-bit polarity/magnitude indicator and 8-bit scale factor for each subband
EP0734019A1 (en) Information processing method, information processing device and media
KR20060134973A (ko) 오디오 cd 기록 장치 및 방법, 및 오디오 cd
WO2003013152A2 (en) Recording and playing back multiple programs
KR100224582B1 (ko) Mpeg-2 오디오의 에러 검출 장치 및 방법
EP2357645A1 (en) Music detecting apparatus and music detecting method
JPH07181996A (ja) 情報処理方法、情報処理装置、及びメディア
JP2006148542A (ja) 3次元音場情報再生装置及びプログラム

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130318

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20140320

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20160318

Year of fee payment: 15

FPAY Annual fee payment

Payment date: 20170302

Year of fee payment: 16

EXPY Expiration of term