KR101168473B1 - 오디오 인코딩 시스템 - Google Patents

오디오 인코딩 시스템 Download PDF

Info

Publication number
KR101168473B1
KR101168473B1 KR1020097005452A KR20097005452A KR101168473B1 KR 101168473 B1 KR101168473 B1 KR 101168473B1 KR 1020097005452 A KR1020097005452 A KR 1020097005452A KR 20097005452 A KR20097005452 A KR 20097005452A KR 101168473 B1 KR101168473 B1 KR 101168473B1
Authority
KR
South Korea
Prior art keywords
transient
data
quantization
frame
codebook
Prior art date
Application number
KR1020097005452A
Other languages
English (en)
Other versions
KR20090041439A (ko
Inventor
유리 유
Original Assignee
디지털 라이즈 테크놀로지 씨오., 엘티디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US11/558,917 external-priority patent/US8744862B2/en
Application filed by 디지털 라이즈 테크놀로지 씨오., 엘티디 filed Critical 디지털 라이즈 테크놀로지 씨오., 엘티디
Publication of KR20090041439A publication Critical patent/KR20090041439A/ko
Application granted granted Critical
Publication of KR101168473B1 publication Critical patent/KR101168473B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • G10L19/025Detection of transients or attacks for time/frequency resolution switching
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • G10L19/038Vector quantisation, e.g. TwinVQ audio

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Signal Processing Not Specific To The Method Of Recording And Reproducing (AREA)
  • Diaphragms For Electromechanical Transducers (AREA)
  • Amplifiers (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Abstract

오디오 신호의 인코딩을 위한 시스템, 방법 및 기술 중에서, 프레임으로 분할된, 샘플화된 오디오 신호가 얻어진 시스템, 방법 및 기술이 제공된다. 프레임들 중 한 프레임 내의 과도현상의 위치를 확인하고, 변환 데이터 샘플이 과도현상을 포함하는 프레임의 다른 부분에 대한 다른 분해능에서의 필터링을 포함하여, 프레임 데이터에서 멀티-분해능 필터 뱅크 분석을 수행함으로써 얻어진다. 양자화 데이터는 음향심리학적 모델에 근거를 둔 비트의 가변 수를 이용하여 변환 데이터 샘플을 양자화하여 생성되고, 양자화 데이터는 양자화 데이터의 크기에 근거를 둔 가변-길이 세그먼트로 분류된다. 코드북은 가변-길이 세그먼트의 각각에 할당되고, 가변-길이 세그먼트의 각각에서의 양자화 데이터는 그런 가변-길이 세그먼트에 할당된 코드북을 이용하여 인코딩된다.

Description

오디오 인코딩 시스템{AUDIO ENCODING SYSTEM}
이 출원은 차례로 "가변 분해능 필터링(Variable-Resolution Filtering)"이라는 표제의 2006년 8월 18일에 출원한 미국 가출원번호 60/822,760('760 출원)의 이익을 요구하는, "프레임-기반 데이터의 가변 분해능 프로세싱(Variable-Resolution Processing of Frame-Based Data)"이라는 표제의 2006년 11월 12일에 출원된 미국특허출원번호 11/558,917의 일부계속출원('917 출원)이며; 차례로 "멀티채널 디지털 오디오 코딩을 위한 장치 및 방법(Apparatus and Methods for Multichannel Digital Audio Coding)"이라는 표제의, 2004년 9월 17일에 출원된 미국 가출원번호 60/610,674의 이익을 주장하는, "멀티채널 디지털 오디오 코딩을 위한 장치 및 방법(Apparatus and Methods for Multichannel Digital Audio Coding)"이라는 표제의, 미국특허출원번호 11/029,722의 일부계속출원('722 출원)이고; 또한 '760 출원의 이익을 직접 주장한다. 상기 출원들의 각각은 참고에 의해 자세히 개시되어 여기에 통합된다.
기술분야
본 발명은 오디오 신호를 인코딩하기 위한 시스템, 방법 및 기술에 관계된다.
오디오 신호의 인코딩을 위한 다양한 다른 기술이 존재한다. 그러나, 성능, 질 및 압축에서의 개선이 지속적으로 바람직하다.
다른 기술 중에서, 본 발명은 이 필요에 의하여, 과도현상 프레임(transient frames) 내의 가변 분해능(variable resolution)을 이용하고 양자화 데이터(quantization data)의 크기(magnitude)에 기반을 둔 가변-길이 코드북 세그먼트(variable-length code book segments)를 생성하는 전반적인 오디오 인코딩 기술을 제공함으로써 다룬다.
따라서, 한 측면에서, 본 발명은 오디오 신호를 인코딩하기 위한 시스템, 방법 및 기술에 관련된다. 프레임으로 분할된, 샘플화된 오디오 신호가 얻어진다. 프레임들 중 한 프레임 내의 과도현상(transient)의 위치를 확인하고, 과도현상을 포함하는 프레임의 다른 부분에 대한 다른 분해능에서의 필터링하는 것을 포함하는, 프레임 데이터에서 멀티-분해능 필터 뱅크 분석을 수행함으로써 변환 데이터 샘플이 얻어진다. 양자화 데이터는 음향심리학적(psychoacoustical) 모델에 근거를 둔 비트(bit)의 가변수(variable number)를 이용하여 변환 데이터 샘플을 양자화하여 생성되고, 양자화 데이터는 양자화 데이터의 크기에 근거를 둔 가변-길이 세그먼트로 분류된다. 코드북은 각각의 가변-길이 세그먼트에 할당되고, 각각의 가변-길이 세그먼트에서의 양자화 데이터는 그런 가변-길이 세그먼트에 할당된 코드북을 이용하여 인코딩된다.
상기 배열의 덕택으로, 그런 데이터를 적은 수의 비트를 이용하여 나타내면서 동시에 오디오 데이터를 더 정확하게 인코딩하는 것이 수시로 가능하다.
상기 개요는 단지 본 발명의 특정 양상의 간단한 설명을 제공하는 것만을 예정한다. 본 발명은 청구항 및 동반된 도면과 관련하여 바람직한 구체예의 다음의 상세한 설명을 참조하여 더 완전하게 이해될 것이다.
도 1은 본 발명의 대표적인 구체예에 따른 오디오 신호 인코더의 블록도이다.
도 2는 본 발명의 대표적인 구체예에 따라 코드북 세그먼트의 초기 세트를 확인하고 코드북 세그먼트를 일치시키는 과정을 설명하는 순서도이다.
도 3은 본 발명의 대표적인 구체예에 따라 확인된 대응하는 코드북을 가진 코드북 세그먼트로 분할된 일련의 양자화 인덱스의 예를 설명한다.
도 4는 본 발명의 대표적인 구체예에 따라, 도 3에 도시된 분할(segmentation)에서 세그먼트를 삭제한 후에 코드북 세그먼트로 양자화 인덱스를 분할한 결과이다.
도 5는 양자화 세그먼트가 양자화 유닛에 직접 대응하는, 종래의 양자화 인덱스 분할의 결과를 설명한다.
도 6은 양자화 인덱스가 효율적인 방법으로 함께 분류되는, 본 발명의 대표적인 구체예에 따른 양자화 인덱스 분할의 결과를 설명한다.
본 발명은 예를 들면 연속적인 저장 또는 전송을 위한, 오디오 신호를 인코딩하기 위한 시스템, 방법 및 기술에 관계한다. 본 발명이 이용될 수도 있는 적용분야는 다음을 포함하나, 이에 제한되지 않는다: 디지털 오디오 뉴스방송, 디지털 텔레비전 (위성 방송, 지상파 방송(terrestrial broadcasting) 및/또는 케이블 방송), 홈시어터, 디지털 시어터, 레이저 비디오 디스크 플레이어, 인터넷상의 콘텐츠 스트리밍 및 개인 오디오 플레이어.
도 1은 본 발명의 대표적인 구체예에 따른 오디오 신호 인코딩 시스템(10)의 블록도이다. 대표적인 부-구체예에서, 도 1에 설명된 개별적인 부분 또는 구성요소는, 하기에서 설명한 대로, 전체적으로 컴퓨터에서 실행할 수 있는 코드로 실행된다. 그러나, 다른 구체예에서, 그런 부분 또는 구성요소의 일부 또는 전체는 여기에서 기술된 것과 다른 방법 중 하나로 실행될 수도 있다.
먼저, 원래 오디오 신호의 시간 샘플과 대응하는, PCM(Pulse-Coded Modulation) 신호(12)는 프레임 분할부(frame segmentation section; 14)로 입력된다. 이 점에 있어서는, 원래 오디오 신호는 전형적으로 정규 스테레오(ordinary stereo)를 위한 좌우 채널, 서라운드 사운드를 위한 5~7 정상 채널(normal channel) 및 하나의 저주파수 효과(low-frequency effect; LFE) 채널 등과 같은, 다수의 채널을 포함할 것이다. LFE 채널은 전형적으로 정상 채널보다 높은 제한된 대역폭(예를 들면, 120Hz 미만)과 볼륨을 가진다. 이 설명을 통하여, 주어진 채널 구성(configuration)은 x, y로 표시되며, x는 정상 채널의 수를 나타내고 y는 LFE 채널의 수를 나타낸다. 따라서, 정규 스테레오는 2.0으로 표시되고 전형적인 종래 의 서라운드 사운드는 5.1, 6.1 또는 7.1로 표시될 것이다.
본 발명의 바람직한 구체예는 64.3까지 채널 구성을 지원하고 적어도 24 비트의 정확도를 가지는, 44.1kHz 및 48kHz를 포함하는, 8 킬로헤르트(kHz)에서 192 kHz까지의 주파수를 샘플화한다. 일반적으로 말하면, 여기서 다르게 언급한 것을 제외하고, 각 채널은 다른 채널과 독립적으로 프로세싱된다.
PCM 신호(12)는 외부 소스에서 시스템(10)으로 입력될 수도 있고 또는 원래 오디오 신호를 샘플링하는 등과 같이 시스템(10)에 의해 내부에 생성될 수도 있다.
프레임 분할부(14)에서, 각 채널을 위한 PCM 샘플(12)은 시간영역에서 일련의 인접하는 프레임으로 분할된다. 이 점에 있어서, 프레임은 본 발명의 기술에서 프로세싱을 위한 기본적인 데이터 유닛으로 여겨진다. 바람직하게, 각 그런 프레임은 비교적 작은 세트의 프레임 사이에서 선택된, 샘플의 고정된(fixed) 수를 가지며, 어떤 특정한 시간 간격을 위한 선택된 프레임 크기는 예를 들면 샘플링 속도 및 프레임 사이에서 허용될(tolerated) 수 있는 지연(delay) 양 등에 의존적이다. 더 바람직하게, 각 프레임은 128, 256, 512 또는 1,024 샘플을 포함하며, 지연의 감소가 중요한 상황을 제외하고 더 long 프레임이 더 바람직하다. 하기에서 토론된 예의 대부분에서, 각 프레임이 1,024 샘플로 구성된 것으로 추정된다. 그러나, 그런 예로 제한되는 것은 아니다.
프레임 분할부(14)에서 출력된 각 프레임의 데이터 샘플은 PCM 샘플의 입력 프레임이, 바람직하게 신호 에너지의 급격한 상승(sudden and quick rise) (공격(attack)) 또는 하락으로 정의되는, 신호 과도현상(signal transient)을 포함하 는지 여부를 결정하는, 과도현상 분석부(transient analysis section ;16)로 입력된다. 그런 탐지에 기반을 두고, 각 프레임은 과도현상 프레임(즉, 과도현상을 포함하는 프레임) 또는 준정상(quasistationary) 프레임(즉, 과도현상을 포함하지 않는 프레임)으로 분류된다. 게다가, 과도현상 분석부(16)는 각 과도 신호의 위치 및 지속기간을 확인하고 나서, "과도현상 세그먼트(transient segment)"를 확인하기 위하여 그 정보를 이용한다. '722 출원에서 기술된 모든 과도현상-탐지 기술을 포함하여, 어떤 공지된 과도현상-탐지 방법도 채용될 수 있다.
여기서 이용된 것처럼, 용어 "과도현상 세그먼트(transient segment)"는 동일 또는 유사한 통계적인 성질을 가지는 신호의 일부를 의미한다. 따라서, 준정상 프레임은 일반적으로 하나의 과도현상 세그먼트로 이루어져 있고, 반면에 과도현상 프레임은 일반적으로 둘 또는 세 개의 과도현상 세그먼트로 이루어져 있다. 예를 들면 단지 한 번의 과도현상의 상승 또는 하락이 프레임에서 발생하면, 과도현상 프레임이 일반적으로 2개의 과도현상 세그먼트를 가질 것이다: 하나는 상승 또는 하락 전의 프레임의 일부를 커버하며 다른 하나는 상승 또는 하락 후의 프레임의 일부를 커버한다. 상승 및 하락 둘 다 과도현상 프레임에서 발생하면, 3개의 과도현상 세그먼트가 일반적으로 존재하고, 각각은 상승 및 하락에 의해 분할된 프레임의 일부를 각각 커버한다. 그러고 나서 프레임-기반 데이터 및 과도현상-탐지 정보가 필터 뱅크(filter bank; 18)에 제공된다.
가변-분해능 분석 필터 뱅크(18)는 서브밴드 신호로 각 채널 오디오의 오디오 PCM 샘플을 분해하고, 이때 서브밴드(subband)의 성질은 이용되는 변환 기술에 의존적이다. 이 점에 있어서, 다양한 다른 변환 기술이 필터 뱅크(18)에 의해 이용될 수도 있더라도, 바람직한 구체예에서 단일(unitary) 및 정현파(sinusoidal)에 기초를 두어 변환된다. 더 바람직하게, 필터 뱅크(18)는 '722 출원에서 더 상세히 기술한 것처럼, 이산여현변환(Discrete Cosine Transform; DCT) 또는 변환이산여현변환(Modified Discrete Cosine Transform; MDCT)을 이용한다. 여기에 기술된 예의 대부분에서, MDCT가 이용되는 것으로 추정된다. 그러므로, 바람직한 구체예에서, 서브밴드 신호는, 각 MDCT 블록을 위해, 서브밴드의 다른 주파수에 각각 대응하는, 다수의 서브밴드 샘플을 구성하고; 게다가 변환의 단일 본질에 때문에, 서브밴드 샘플의 수는 MDCT에 의해 처리된 시간영역 샘플의 수와 동일하다.
게다가, 바람직한 구체예에서, 필터 뱅크(18)의 시간-주파수 분해능은 과도현상 분석부(16)에서 수신된 과도현상 탐지 결과에 기반을 두고 제어된다. 더 바람직하게, 필터 뱅크(18)는 '917 출원에서 기술된 기술을 이용한다.
일반적으로 말하면, 그 기술은 각 준정상 프레임을 커버하는 단일 long 변환 블록 및 각 과도현상 프레임을 커버하는 다수의 동일한 short 변환 블록을 이용한다. 대표적인 예에서, 프레임 크기는 1,024 샘플이고, 각 준정상 프레임은 (1,024 샘플의) 단일 일차 블록으로 이루어져 있는 것으로 여겨지고, 각 과도현상 프레임은 (각각 128 샘플을 가지는) 8개의 일차 블록으로 이루어져 있는 것으로 여겨진다. 경계효과(boundary effect)를 피하기 위하여, MDCT 블록은 일차 블록보다 더 길고, 더 바람직하게, 일차 블록 크기의 두 배이며, 그래서 long MDCT 블록은 2,048 샘플로 이루어져 있고 short MDCT 블록은 256 샘플로 이루어져 있다.
MDCT를 적용하기 전에, 윈도 함수(window function)가 개별적인 필터의 주파수 반응을 형성할 목적으로 각 MDCT 블록에 적용된다. 완벽한 재구성(reconstruction) 필요조건을 만족시키기 위하여, 그것의 특정 형상이 바람직하게 인접 프레임에 이용된 윈도 함수에 의존하더라도, 단일의 long MDCT 블록만 준정상 프레임을 위해 이용되기 때문에, 단일 윈도 함수가 이용된다. 반면에, 종래 기술과 달리, 바람직한 구체예의 기술은 단일 과도현상 프레임 내에서 다른 윈도 함수를 이용한다. 더 바람직하게, 과도현상 프레임 안에서 적어도 두 수준의 분해능을 제공하도록, 윈도 함수가 선택되며, 반면 프레임 안에서 단일 변환 (예를 들면, MDCT) 블록 크기가 이용된다.
그 결과, 예를 들면, (더 낮은 주파수-영역 분해능의 코스트(cost)에서) 더 높은 시간영역 분해능이 과도현상 신호 근처에서 달성될 수 있고, (더 낮은 시간영역 분해능의 코스트에서) 더 높은 주파수-영역 분해능이 과도현상 프레임의 다른 (즉, 더 정지하는(more stationary)) 부분에서 달성될 수 있다. 게다가, 변환 블록 크기 변수를 고정하여, 일반적으로 프로세싱 구조를 복잡하게 하지 않고 상기 이점이 달성될 수 있다.
바람직한 구체예에서, 종래 윈도 함수 이외에, 다음의 새로운 "brief" 윈도 함수 WIN_SHORT_BRIEF2BRIEF를 도입한다:
Figure 112009015927681-pct00001
여기서, S는 short 일차 블록 크기 (예를 들면, 128 샘플)이며 B는 brief 블록 크기(예를 들면, B=32)이다. '917 출원에서 상세히 기술한 것처럼, 완벽한 재구성 필요조건을 만족하기 위해 추가의 전환 윈도 함수(transition window functions)가 바람직하게 이용된다.
'917 출원에서 상세히 기술한 것처럼, 다른 특정한 형태의 "brief" 윈도 참수가 대신에 이용될 수 있다. 그러나, 발명의 바람직한 구체예에서, 이용된 "brief" 윈도 함수는 과도현상 프레임의 다른 (예를 들면, 더 정지하는(more stationary)) 부분에서 이용된 다른 윈도 함수에 비해, 변환 블록의 더 작은 부분에서 더 많은 집중된 그 에너지를 가진다. 실제로, 특정 구체예에서, 많은 함수값은 0이고, 그로 인하여 샘플 값의 중앙 블록 ,또는 일차 블록을 보존한다.
재결합 크로스오버부(recombination crossover section; 20)에서, 현재 채널의 현재 프레임을 위한 서브밴드 샘플은 바람직하게 동일한 서브밴드에 대응하는 동일한 과도현상 세그먼트 내의 샘플을 함께 분류하기 위하여 재배열된다. long MDCT (즉, 준정상 프레임)을 가지는 프레임에서, 서브밴드 샘플은 이미 주파수 오름차수(ascending order)로, 예를 들면, 서브밴드 0에서 서브밴드 1023까지 배열된다. MDCT의 서브밴드 샘플이 자연순(natural order)으로 배열되기 때문에, 재결합 크로스오버는 long MDCT를 가진 프레임에 적용되지 않는다.
그러나, 프레임이 nNumBlocksPerFrm short MDCT block(즉, 과도현상 프레임)으로 구성되면, 각 short MDCT를 위한 서브밴드 샘플은 주파수-오름차수로, 예를 들면, 서브밴드 0에서 서브밴드 127까지 배열된다. 그런 서브밴드 샘플의 그룹은, 차례로, 시간순으로 배열되고, 그로 인하여 0에서 1023까지의 서브밴드 샘플의 자연순을 형성한다.
재결합 크로스오버부(20)에서, 재결합 크로스오버는, 각 과도현상 세그먼트에서 같은 주파수를 가지는 샘플을 함께 배열하고 주파수-오름차수로 그것들을 배열하여, 이들 서브밴드 샘플에 적용된다. 그 결과는 수시로 전송(transmission)을 위해 요구된 비트의 수를 감소시킨 것이다.
3개의 과도현상 세그먼트 및 8개의 short MDCT 블록을 가지는 프레임을 위한 자연순의 예는 다음과 같다:
과도현상
세그먼트
0 1 2
MDCT 0 1 2 3 4 5 6 7




임계
밴드
(critical band)



0

0 128 256 384 512 640 768 896
1 129 257 385 513 641 769 897
2 130 258 386
3 131 259

1

4 132
5 133
6
7
?
?
?

n

86 214
87
?
?
?
127 255 383 511 639 767 896 1023
다시 한번, 자연순에서의 서브밴드 샘플을 위한 선형 배열(liner sequence)은 [0...1023]이다. 재결합 크로스오버의 적용 후의 대응하는 데이터 배열은 다음과 같다:
과도현상
세그먼트
0 1 2
MDCT 0 1 2 3 4 5 6 7


임계
밴드





0

0 1 256 257 258 640 641 642
2 3 259 300 301 643 644 645
4 5 302 303
6 7 305

1

8 9
10 11
12
14
?
?
?

n

172 173
174
?
?
?
254 255 637 638 639 1024 1022 1023
재결합 크로스오버 순서에서의 서브밴드 샘플을 위한 선형 배열은 [0, 2, 4,…, 254, 1, 3, 5,…, 255, 256, 259, 302,…, 637,…]이다.
여기에 이용된 것처럼, "임계밴드(critical band)"는 인간 귀의 주파수 분해능, 즉, 인간 귀가 다른 주파수를 구별할 수 없는 범위 내의 대역폭(bandwidth) Δf를 의미한다. 대역폭 Δf는 주파수 f에 따라 상승하고, f와 Δf사이의 관계는 거의 지수함수(exponential)이다. 각 임계밴드를 필터 뱅크의 다수의 인접한 서브밴드 샘플로 나타낼 수 있다. 예를 들면, short (128-샘플) MDCT를 위한 임계밴드는 전형적으로 가장 낮은 주파수에서의 폭에 4 서브밴드 샘플에서 가장 높은 주파수에서의 폭에 42 서브밴드 샘플까지의 범위를 갖는다.
음향심리학적 모델(32)은 인간 귀의 잡음 마스킹 임계값(noise-masking thneshold)을 제공한다. 음향심리학적 모델(32)을 밑받침하는 기본 개념은 인간 청각 시스템에 임계값이 있다는 것이다. 이 값(마스킹 임계값) 미만에서, 오디오 신호를 들을 수 없다. 그 결과, 디코터(decoder)에 이 부분의 정보를 전송하는 것은 불필요하다. 음향심리학적 모델(32)의 목적은 이 임계값을 제공하기 위한 것이다.
기존의 일반적인 음향심리학적 모델은 MPGE로부터의 두 음향심리학적 모델과 같이, 이용될 수 있다. 본 발명의 바람직한 구체예에서, 음향심리학적 모델(32)은 (하기에서 정의한 것처럼) 각 양자화 유닛을 위한 마스킹 임계값을 출력한다.
선택적인 합/차(sum/difference) 인코더(22)는 특정 조인트 채널 인코딩 기술(joint channel encoding technique)을 이용한다. 바람직하게, 인코더(22)는 다 음과 같이 합/차 채널 쌍으로 좌/우 채널 쌍의 서브밴드 샘플을 변환시킨다:
합 채널(Sum channel)=0.5*(좌 채널+우 채널); 및
차 채널(Difference channel)=0.5*(좌 채널-우 채널).
따라서, 디코딩 동안, 좌/우 채널에서의 서브밴드 샘플의 재구성은 다음과 같다:
좌 채널 = 합 채널 + 차 채널; 및
우 채널 = 합 채널 - 차 채널.
선택적인 조인트 세기 인코더(Optional joint intensity encoder; 24)는 높은 주파수에서 인간 귀의 청각 이미지 로컬화 특성(acoustic image localization characteristic)을 이용해서 조인트 채널에서 고주파 구성요소를 인코딩한다. 음향심리학적 모델은 각 주파수 구성요소보다 고주파에서 인간의 귀가 공간 청각적 이미지를 감지하는 것이 좌/우 오디오 신호의 상대 강도에 의해 대부분 정의됨을 나타낸다. 이것은 조인트 세기 인코딩(joint intensity encoding)의 이론상 기초이다. 다음은 조인트 세기 인코딩을 위한 간단한 기술이다.
결합될 둘 이상 채널을 위해, 대응 서브밴드 샘플은 채널을 통해 추가되고 전체가 조인트 서브밴드 샘플로 불리는, 본래 소스 채널의 하나(예를 들면, 좌 채널)에서 서브밴드 샘플을 대체한다. 그러고 나서, 각 양자화 유닛을 위해, 각 채널의 각 양자화 유닛을 위한 기준화 인자를 유지하면서, 그런 원래 소스 채널의 전력에 일치하도록 전력(power)이 조정된다. 마지막으로, 전력이 조정된 조인트 서브밴드 샘플 및 각 채널에서의 양자화 유닛을 위한 기준화 인자가 유지되고 전송된다. 예를 들면, ES가 소스 채널에서의 조인트 양자화 유닛의 전력이고, Ej가 조인트 채널의 조인트 양자화 유닛의 전력이면, 다음과 같이 척도 인자(scale factor)를 산출할 수 있다:
Figure 112009015927681-pct00002
글로벌 비트 할당부(global bit allocation section; 34)는 각 양자화 유닛에 다수의 비트를 할당한다. 이 점에 있어서, "양자화 유닛"은 바람직하게 주파수 영역에서의 임계밴드 및 시간영역에서의 과도현상 세그먼트에 의해 경계 지어진 서브밴드의 랙탱글(rectangle)로 이루어져 있다. 이 랙탱글에서의 모든 서브밴드 샘플은 동일한 양자화 유닛에 속한다.
예를 들면, 본 발명의 바람직한 구체예에 두 가지 유형의 서브밴드 샘플 배열순서(즉, 자연순 및 크로스오버순)가 있기 때문에, 이 샘플의 일련 번호는 다르지만, 그들은 바람직하게 역시 같은 그룹의 서브밴드 샘플을 나타낸다. 한 예에서, 첫 번째 양자화 유닛은 서브밴드 샘플 0, 1, 2, 3, 128, 129, 130 및 131로 이루어진다. 그러나, 첫 번째 양자화 유닛의 서브밴드 샘플의 일련 번호는 0, 1, 2, 3, 4, 5, 6 및 7이 된다. 다른 일련 번호의 두 그룹은 동일한 서브밴드 샘플을 나타낸다.
각 마스킹 임계값보다 더 낮은 값으로 양자화 잡음 전력(quantization noise power)을 감소하기 위하여, 글로벌 비트 할당부(34)는 프레임에 있는 양자화 유닛 중 각 프레임을 위해 이용가능한 비트 모두를 배부한다. 바람직하게, 각 양자화 유닛의 양자화 잡음 전력 및 그것에 할당된 수의 비트를 양자화 유닛의 양자화 스텝 크기를 조정해서 통제된다.
예를 들면, 워터 필링(water-filling) 등을 포함하여, 기존의 다양한 비트-할당 기술 중 어떤 것도 이용될 수도 있다. 워터 필링 기술에서, (1) 최대 NMR(Noise to Mask Ratio)를 가진 양자화 유닛을 확인한다; (2) 이 양자화 유닛에 할당된 양자화 스텝 크기를 감소하고, 그로 인하여 양자화 소음을 줄인다; 및 그러고 나서 (3) 모든 양자화 유닛의 NMR이 1 (또는 미리 설정한 다른 임계값) 이하가 될 때까지, 또는 현재 프레임에서 허용되는 비트가 소진될 때까지 상기 두 단계를 반복한다.
상술한 것처럼, 양자화부(quantization section; 26)는 바람직하게 글로벌 비트 할당부(34)에 의해 제공된 균일한 양자화 스텝 크기를 이용하여 직접(straightforward manner) 각 양자화 유닛에서의 샘플을 양자화해서, 서브밴드 샘플을 양자화한다. 그러나, 글로벌 비트 할당부(34)에 대응하는 조정과 함께, 다른 어떤 양자화 기술이 대신 이용될 수도 있다.
코드북 선별기(36)는 그런 양자화 인덱스의 로컬 통계적 특성으로 양자화 인덱스를 분류하거나 분할하고, 각 양자화 인덱스의 그런 그룹에 할당하기 위하여 코드북 라이브러리에서 코드북을 선택한다. 본 발명의 바람직한 구체예에서, 분할 및 코드북 선택은 실질적으로 동시에 발생한다.
본 발명의 바람직한 구체예에서, (하기에서 추가로 상세히 논의되는) 양자화 인덱스 인코더(28)는 각 개별 세그먼트를 위해 코드북 선별기(36)에 의해 선택된 코드북을 이용해서 양자화 인덱스에 허프판 인코딩(Huffman encoing)을 실행한다. 더 바람직하게, 각 채널의 서브밴드 샘플 양자화 인덱스에서 허프만 인코딩이 실행된다. 또한 더 바람직하게, 두 그룹의 코드북(각각 준정상 프레임을 위한 것과 과도현상 프레임을 위한 것)은 서브밴드 샘플 양자화 인덱스에 허프만 인코딩을 실행하도록 이용되며, 각 그룹의 코드북은 9 허프만 코드북으로 이루어진다. 그러므로, 바람직한 구체예에서 주어진 프레임을 위한 양자화 인덱스에 인코딩을 실행하도록 9 허프만 코드북까지 이용될 수 있다. 그런 코드북의 성질은 바람직하게 다음과 같다:
코드북
인덱스(mnHS)
디멘션 양자화 인덱스 범위 미드트레드
(midtread)
준정상
코드북 그룹
과도현상
코드북 그룹
0 0 0 보존 보존 보존
1 4 -1, 1 Yes HuffDec10_81×4 HuffDec19_81×4
2 2 -2, 2 Yes HuffDec11_25×2 HuffDec20_25×2
3 2 -4, 4 Yes HuffDec12_81×2 HuffDec21_81×2
4 2 -8, 8 Yes HuffDec13_289×2 HuffDec22_289×2
5 1 -15, 15 Yes HuffDec14_31×1 HuffDec23_31×1
6 1 -31, 31 Yes HuffDec15_63×1 HuffDec24_63×1
7 1 -63, 63 Yes HuffDec16_127×1 HuffDec25_127×1
8 1 -127, 127 Yes HuffDec17_255×1 HuffDec26_255×1
9 1 -255, 255 No HuffDec18_256×1 HuffDec27_256×1
(산술 코드(arithmetic code)와 같은) 엔트로피 코딩의 다른 유형은 본 발명의 다른 구체예에서 실행된다. 그러나, 본 예에서 허프만 인코딩이 이용된 것으로 추정된다. 여기에서 이용된 것처럼, "허프만" 인코딩은 코딩 기술이 원래 허프만 알고리즘과 동일하든 아니든 상관없이, 덜 일반적인 소스 심벌로 이용된 것보다 더 짧은(shorter) 일련의 비트를 이용하는 더 일반적인 소스 심벌을 표현하기 위해 추 정된 심벌 확률(symbol probabilities)을 이용하는 어떤 프리픽스 2진 코드(prefix binary code)를 처리하도록 예정된다.
양자화 인덱스 인코더(28)에 의해 수행될 예기된 인코딩(anticipated encoding)의 측면에서, 본 발명의 바람직한 구체예에서의 코드북 선별기(36)의 목적은 각 채널의 분류 인덱스의 세그먼트를 선택하고 각 세그먼트에 어떤 코드북을 적용할 것인지를 결정하기 위한 것이다. 첫 단계는 과도현상 분석부(16)에 의해 확인된 프레임 유형(준정상 또는 과도현상)에 기초를 두고 어떤 그룹의 코드북을 이용할지를 확인하기 위한 것이다. 그러고 나서, 특정 코드북 및 세그먼트가 다음 방식으로 바람직하게 선택된다.
종래의 오디오 신호 프로세싱 알고리즘에서, 엔트로피 코드북의 적용범위는 양자화 유닛과 동일하여, 엔트로피 코드북은 양자화 유닛에서의 최대 양자화 인덱스에 의해 정의된다. 따라서, 더 최적화하기 위한 가능성이 없다.
대조적으로, 본 발명의 바람직한 구체예에서는 코드북 선택은 양자화 유닛 경계를 무시하고, 대신 적당한 코드북과 그것이 적용될 세그먼트를 동시에 선택한다. 더 바람직하게, 양자화 인덱스는 그들의 로컬 통계적 성질에 의해 세그먼트로 분할된다. 코드북의 적용 범위는 이들 세그먼트의 엣지(edge)에 의해 정의된다. 코드북 세그먼트와 대응 코드북을 확인하기 위한 기술의 예를 도 2에 도시된 순서도를 참조하여 설명한다.
초기에, 단계(82)에서 코드북 세그먼트와 대응하는 코드북의 초기 세트가 선택된다. 이 단계는 예를 들면, 클러스터링 기술(clustering techniques)을 이용하 거나 주어진 크기의 코드북에 의해서만 수용될 수 있는 연속 간격(continuous interval) 안의 양자화 인덱스를 함께 분류하는 등의 다양한 다른 방법에 의해 실행될 수도 있다. 이 후자에 있어서, 적용가능한 코드북 그룹 (예를 들면, 9개의 다른 코드북) 중에서, 주요 차이점은 수용될 수 있는 최대 양자화 인덱스이다. 그러므로, 코드북 선택은 일차적으로 고려 중인 양자화 인덱스 전부의 크기를 수용할 수 있는 코드북을 선택하는 것을 포함한다. 그러므로, 단계(82)의 한 접근은 더 큰 코드북이 요구되거나 또는 더 작은 코드북이 이용될 수 있을 때까지 첫 번째 양자화 인덱스를 수용하고 나서 그 양자화 인덱스를 계속 이용할 가장 작은 코드북으로 시작하는 것이다.
좌우간, 이 단계(82)의 결과는 코드북 세그먼트와 대응 코드북의 초기 순서를 제공하기 위한 것이다. 한 예는 도 3에 도시된 세그먼트 101~113를 포함한다. 여기서, 각 코드 세그먼트 101-103는 그 수직 높이로 나타낸 할당된 코드북에서 그 수평 길이로 나타난 길이를 가진다.
다음으로, 단계(83)에서 코드북 세그먼트는 필요에 의해 또는 바람직하게, 다시 양자화 인덱스의 크기에 근거를 두고 결합된다. 이 점에 있어서, 코드북 세그먼트가 바람직하게 자유경계(arbitrary boundaries)를 가질 수 있기 때문에, 이들 경계의 위치는 전형적으로 디코더로 전달되어야 한다. 따라서, 만약 단계(82) 후에 코드북 세그먼트의 수가 너무 크면, 특정 표준(85)을 만족할 때까지 작은 코드북 세그먼트의 일부를 삭제하는 것이 바람직하다.
바람직한 구체예에서, 소거법(elimination method)은 작은 코드북 세그먼트 를 고려 중인 코드북 세그멘트의 좌우 측에 (가장 작은 코드북에 대응하는) 가장 작은 코드북 인덱스를 가지는 코드북 세그먼트와 결합하는 것이다. 도 4는 이 단계(83)를 도 3에 도시된 코드북 분할에 적용한 결과의 예를 제공한다. 이 경우, 세그먼트 121을 제공하기 위해 세그먼트 102는 세그먼트 101 및 세그먼트 103과 결합하고, 세그먼트 104와 106은 세그먼트 122를 제공하기 위해 세그먼트 105와 결합하며, 세그먼트 110과 111은 세그먼트 125를 제공하기 위하여 세그먼트 109와 결합하고, 세그먼트 113은 세그먼트 126을 제공하기 위해 세그먼트 112와 결합한다. 만약 코드북 인덱스가 0이면(예를 들면, 세그먼트 108), 어떤 양자화 인덱스도 전달될 필요가 없어서, 그런 분리된 코드북 세그먼트는 바람직하게 거부되지 않는다. 그러므로, 본 예에서 코드북 세그먼트 108은 거부되지 않는다.
도 2에 도시된 것처럼, 최종 표준(85)이 만족할 때까지 단계(83)은 바람직하게 반복하여 적용된다. 특정 구체예에 따라서, 최종 표준은 총계의 세그먼트가 특정 최대를 초과하지 않고, 각 세그먼트가 최소 길이를 가지며, 및/또는 참조된 코드북의 총계가 특정 최대를 초과하지 않는 것 등을 포함할 수도 있다. 이 반복 과정에서, 삭제할 다음 세그먼트는 예를 들면, 가장 작은 기존의 세그먼트, 코드북 인덱스가 최소량으로, 비트 수로 최소 투영된(projected) 증가량으로, 또는 (예를 들면, 세그먼트의 길이 및 그 코드북 인덱스에서 필요한 증가량의 함수로서) 얻어질 전체 순이익량으로 증가될 수 있는 세그먼트 등과 같은, 다양한 다른 표준에 기반을 두고 선택될 수도 있다.
도 5에 설명된 것처럼, 종래의 분할과 도 6에 도시된 본 발명에 따른 분할을 비교할 때 이 기술의 이점은 평가될 수 있다. 도 5에서, 양자화 인덱스는 대응하는 우측 경계 161-163을 가지는, 4개의 양자화 세그먼트 151-154로 분할된다. 종래의 접근방법에 따라, 양자화 세그먼트 151-154는 양자화 유닛에 직접 대응한다. 이 예에서, 최대 양자화 인덱스 171은 양자화 유닛 154에 속한다. 그러므로, 양자화 유닛 154를 위해 큰 코드북(예를 들면, 코드북 c)이 선택되어야 한다. 양자화 유닛 154의 양자화 인덱스의 대부분이 작기 때문에, 그것은 현명한 선택이 아니다.
대조적으로, 본 발명의 기술을 적용하면, 동일한 양자화 인덱스는 상기에서 기술된 기술을 이용하여 코드북 세그먼트 181-184로 분할된다. 그 결과, 최대 양자화 인덱스 171은 (이미 그것이 속하는 다른 양자화 인덱스의 크기에 기반을 둔 코드북 세그먼트 c을 할당한) 코드북 세그먼트 183에서 양자화 인덱스로 분류된다. 이 양자화 인덱스 171은 아직도 같은 크기의 코드북(예를 들면, 코드북 c)을 요구하더라도, 다른 큰 양자화 인덱스로 이 코드북을 공유한다. 다시 말하면, 이 큰 코드북은 이 코드북 세그먼트 183에서 양자화 인덱스의 통계적 성질에 일치된다. 게다가, 코드북 세그먼트 184 내의 양자화 인덱스 모두가 작기 때문에, 그러면 그것에서 양자화 인덱스의 통계적 성질과 코드북을 일치한, 더 작은 코드북(예를 들면, 코드북 a)은 그것을 위해 선택된다. 용이하게 평가된 것처럼, 코드북 선택의 기술은 양자화 인덱스를 전달하기 위하여 이용된 비트 수를 줄일 수 있다.
그러나, 상기에서 언급된 대로, 이 기술을 이용함에 있어 관련된 일부 "추가 코스트"가 있다. 종래의 기술은 일반적으로 그들의 적용 범위가 양자화 유닛과 동일하기 때문에, 디코더로 코드북 인덱스의 부가 정보(side information)를 전달하 는 것만을 요구한다. 그러나, 본 기술은 일반적으로 적용 범위 및 양자화 유닛이 전형적으로 독립적이기 때문에, 코드북 인덱스의 부가 정보의 전달뿐만 아니라, 디코더로 적용 범위의 전달을 요구한다. 이 문제를 언급하기 위해, 특정 구체예에서 있다 하더라도 단지 드물게 발생할, 만약 그런 "추가 코스트"가 보상될 수 없다면, 본 기술은 (즉, 단순히 양자화 세그먼트의 양자화 유닛을 이용하는) 종래의 접근방법으로는 실패한다. 상기에서 언급한 대로, 이 문제를 언급하는 한 접근은 허용된 통계적 성질의 상태 하에서 가능한 큰 코드북 세그먼트로 분할하는 것이다.
코드북 선별기(36)에 의한 프로세싱을 완료하자마자, 비트 스트림((bit stream) 내에 포함시키기 위해 세그먼트의 수, 각 세그먼트의 길이 (각 코드북을 위한 적용 범위), 및 각 세그먼트를 위해 선택된 코드북 인덱스가 멀티플렉서(multiplexer; 45)에 바람직하게 제공된다.
양자화 인덱스 인코더(28)는 코드북 선별기(36)에 의해 선택된 세그먼트 및 대응 코드북을 이용하여 양자화 인덱스에 압축 인코딩(compression encoding)을 실행한다. (코드북 인텍스 9에 대응하는) 코드북 HuffDec18 _256x1 및 코드북 HuffDec27_256x1에서의 최대 양자화 인덱스, 즉, 255는 ESCAPE를 나타낸다. 양자화 인덱스가 잠재적으로 2 코드표의 최대 범위를 초과하기 수 있기 때문에, 그런 더 큰 인덱스는 다음과 같이 표현되는 q를 가지고, 재귀적인 인코딩(recursive encoding)을 이용하여 인코딩된다:
q = m * 255 + r
여기서, m은 q의 몫(quotient)이고 r은 q의 나머지(remainder)이다. 나머지 r은 코드북 인덱스 9에 대응하는 허프만 코드북을 이용하여 인코딩되고, 반면 몫 q는 비트 스트림으로 직접 패키지(package)된다. 허프만 코드북은 바람직하게 몫 q의 패키징을 위해 이용된 비트의 수에 인코딩을 실행하기 위하여 이용된다.
코드북 HuffDec18 _256x1와 코드북 HuffDec27 _256x1이 미드트레드(midtread)가 아니기 때문에, 절대값이 전달될 때, 추가 비트가 신호를 나타내기 위해 전달된다. 코드북에 일치하는 코드북 인덱스 1 내지 8에 대응하는 코드북이 미드트레드(midtread)이기 때문에, 허프만 디코딩 후에 양자화 인덱스 신호를 재구성하기 위해 오프셋(offset)이 추가된다.
상술한 부가 정보 전부 및 단일 비트 스트림(60)으로 어떤 사용자-정의된 보조 정보와 함께, 모든 허프만 코드를 멀티플렉서(45)가 패키지한다. 게다가, 에러 코드는 오디오 데이터의 현재 프레임을 위해 삽입된다. 바람직하게, 인코더(10)가 오디오 데이터 전부를 패키지한 후, 마지막 단어(32 비트)에서의 모든 아이들 비트(idle bits)가 1로 세팅된다. 디코더의 측면에서, 만약 모든 아이들 비트가 1이 아니면, 현재 프레임에서 에러가 선언되고 에러 처리 절차가 개시된다.
발명의 바람직한 구체예에서, 보조 데이터가 에러-탐지 코드 뒤에 있기 때문에, 코드 에러-탐지가 완료된 후에 디코더는 다음 오디오 프레임을 위해 멈추고 기다릴 수 있다. 즉, 보조 데이터에는 디코딩에 아무 효력도 없고 디코더에 의해 처리될 필요가 없다. 그 결과, 보조 데이터의 정의 및 이해는 사용자에 의해 전적으로 결정될 수 있고, 그로 인하여 사용자에게 상당한 융통성을 줄 수 있다.
각 프레임을 위한 출력 프레임은 바람직하게 다음과 같다:
프레임 헤더 동기화 워드(synchronization word)(바람직하게, Q7FFF)
샘플 비율, 정상 채널의 수, LFE 채널의 수 등과 같은, 오디오 신호의 설명
정상체널: 1 내지 64 전체 정상 채널을 위한 오디오 데이터
LFE 채널: 0 내지 3 전체 LFE 채널을 위한 오디오 데이터
에러 탐지 오디오 데이터의 현재 프레임을 위한 에러-탐지 코드
검출되면, 에러-처리 프로그램이 작동함
보조 데이터 시간코드 및/또는 어떤 다른 사용자-정의된 정보
각 정상 채널을 위한 데이터 구조는 바람직하게 다음과 같다.
윈도 배열
(window sequence)
윈도 함수 인덱스 MDCT 윈도 함수를 나타낸다
과도현상 세그먼트의 수 과도현상 프레임만을 위해 이용되는-과도현상 세그먼트의 수를 나타낸다
과도현상 세그먼트 길이 과도현상 프레임만을 위해 이용되는-과도현상 세그먼트의 길이를 나타낸다
허프만 코드북 인텍스 및 적용범위 코드북 수 각 과도현상 세그먼트가 이용하는 허프만 코드북의 수
적용범위 각 허프만 코드북의 적용범위
코드북 인덱스 각 허프만 코드북의 코드북 인덱스
서브밴드 샘플 양자화 인덱스 모든 서브밴드 샘플의 양자화 인덱스
양자화단계 크기 인덱스 각 양자화 유닛의 양자화 단계 크기 인덱스
합/차 인코딩 결정 디코더가 양자화 유닛의 샘플에 합/차 디코딩하는지를 나타낸다
조인트 세기 코팅 척도 인자 인덱스 소스 채널에서 조인트 양자화 유닛의 서브밴드 샘플을 재구성하는데 이용될 척도 인자를 위한 인덱스
각 LFE 채널을 위한 데이터 구조는 바람직하게 다음과 같다:
허프만 코드북 인덱스 및 적용범위
코드북 수 코드북 수를 지시한다
적용범위 각 허프만 코드북의 적용범위
코드북 인덱스 각 허프만 코드북의 코드북 인덱스
서브밴드 샘플 양자화 인덱스 전체 서브밴드 샘플의 양자화 인덱스
양자화 단계 크기 인덱스 각 양자화 유닛의 양자화 단계 크기 인덱스
명확하게 다르게 지시된 경우를 제외하고, 일반적으로 말하면, 여기에 기술된 시스템, 방법 및 기술은 하나 이상의 프로그램가능한 다목적 컴퓨팅 장치의 사 용으로 실행될 수 있다. 그런 장치는 전형적으로 , 예를 들면 공통 버스(common bus)를 통해, 서로 상호연결된 예를 들어 다음의 구성의 적어도 일부를 포함할 것이다: 하나 이상의 중앙 처리 장치(CPUs); 읽기전용 메모리(ROM); 랜덤 엑서스 메모리(RAM); (예를 들면, 직렬 포트, 병렬 포트, USB 연결 또는 팜웨어 연결 등과 같은, 하드웨어 연결부를 사용하여, 또는 블루투스(Bluetooth) 또는 802.11 프로토콜 등과 같은, 무선 프로토콜을 사용하여) 다른 장치와 인터페이스하는 입/출력 소프트웨어 및 회로; (예를 들면, 이더넷(Ethernet) 카드 등과 같은 하드웨어 연결부, CDMA(code division multiple access), GSM(Global System for Mobile communication), 블루투스, 802.11 프로토콜, 또는 다른 셀룰러-기반 시스템 또는 비셀룰러-기반 시스템 등과 같은 무선 프로토콜을 사용하여) 하나 이상의, 본 발명의 많은 구체예에서 차례로, 인터넷 또는 다른 네트워크와 연결하는, 네트워크를 연결하는 하나 이상의 네트워크에 연결하기 위한 소프트웨어 및 회로; (음극선관 디스플레이(Cathode Ray Tube Display), 액정디스플레이(liquid crystal display), 유기발광디스플레이(organic light-emitting display), 중합발광디스플레이(polymeric light-emitting display) 또는 다른 박막디스플레이와 같은) 디스플레이; (하나 이상의 스피커, 헤드폰 세트 및 프린터 등과 같은) 다른 출력 장치; (마우스, 터치패드, 태블릿(tablet), 터치-민감 디스플레이, 또는 다른 포인팅 장치(pointing device), 키보드, 키패드, 마이크로폰 및 스캐너 등과 같은) 하나 이상의 입력 장치; (하드디스크 드라이브와 같은) 대용량 저장 유닛; 리얼 타임 클락(real time clock); (RAM, 자기디스크, 자기테이프, 광자기디스크(opto-magnetic disk), 광학디스크 등에서 읽고 쓰는 것과 같은) 삭제가능한 저장 판독/기록 장치(removable storage read/write device); 및 (예를 들면, 팩스를 보내거나, 다이얼 호출 연결을 통해 인터넷 또는 다른 전산 네트워크에 연결하기 위한) 모뎀. 작동 중에, 그런 범용 컴퓨터에 의해 실행된 한도까지, 상기 방법 및 기능을 실행하기 위한 처리 단계는 전형적으로, 초기에 (하드디스크 등과 같은) 대용량 저장장치에 저장되고, RAM으로 다운로드되고 나서 RAM에서 나와 CPU에 의해 실행된다. 그러나, 어떤 경우에, 처리 단계는 RAM 또는 ROM에 처음에 저장된다.
본 발명을 실행함에 사용되는 적당한 장치는 다양한 납품업자에게 얻어질 수도 있다. 각종 구체예에서, 다른 유형의 장치는 업무의 크기 및 복합성에 따라서 이용된다. 적당한 장치는 단독으로 사용되거나, 네트워크에 유선으로 연결되거나 네트워크에 무선으로 연결되든지, 본체 컴퓨터, 멀티프로세서 컴퓨터, 워크스테이션, 퍼스널 컴퓨터, 및 PDA, 무선전화 또는 다른 장비나 장치와 같은 소형 컴퓨터를 포함한다. 네트워크로 독립, 배선에 의하고는 또는 네트워크에 무선으로 연결해 PDAs와 같은 본체 컴퓨터, 다중 처리기 컴퓨터, 워크스테이션, 개인용 컴퓨터 및 소규모 컴퓨터조차 무선 전화 또는 다른 어떤 기구 또는 장치 포함한다.
게다가, 다목적 프로그램가능한 장치가 상기에 기술되더라도, 다른 구체예에서 하나 이상의 특정-목적 프로세서 또는 컴퓨터가 대신하여 (또는 부가하여) 사용된다. 일반적으로, 다르게 명확하게 기술된 것을 제외하고, 어떤 상술한 기능성도 공지된 설계교환에 기초하여 선택된 특정 실시와 함께, 소프트웨어, 하드웨어, 팜웨어 또는 이들의 조합으로 실행될 수 있다. 좀 더 구체적으로, 기술필드에서 숙련 된 자에 의해 용이하게 평가되는 것처럼, 상술한 기능성이 고정된, 미리 결정된 또는 논리적인 방식으로 구현되어, (예를 들면, 소프트웨어 또는 팜웨어) 프로그래밍, 로직 구성요소(하드웨어)의 적당한 배열 또는 둘의 조합을 통해 기능성이 성취될 수 있다.
본 발명은 또한 본 발명의 방법 및 기능성을 수행하기 위해 프로그램 지시가 저장된 기계 판독가능한 매체와 관련된다는 것을 이해해야 한다. 그런 매체는, 예로, 자기디스크, 자기데이크, CD ROM 및 DVD ROM과 같은 광학 판독가능한 매체, 또는 PCMCIA 카드, 각종 메모리카드, USB 메모리 장치와 같은 반도체 메모리 등을 포함한다. 각 경우에, 매체는 소형 디스크 드라이브 또는 소형 디스크, 디스켓, 카세트, 카트리지, 카드, 스틱 등과 같은 이동가능한 아이템의 형태를 취할 수도 있고, 또는 컴퓨터 또는 다른 장치에 제공된 하드 디스크 드라이브, ROM 또는 RAM과 같은 비교적 더 큰 또는 부동 아이템의 형식을 취할 수도 있다.
상기 묘사는 1차적으로 전자 컴퓨터 및 장치를 강조한다. 그러나 전자, 광학, 생물학 및 화학 처리의 어떤 조합든지 이용하는 장치와 같은, 어떤 다른 전산 장치 또는 다른 유형의 장치가 대신 사용될 수도 있다.
추가 고려사항.
상기 구체예는 오디오 데이터의 프로세싱에 관계된다. 그러나, 본 발명의 기술은 또한 비디오 데이터, (지진, 날씨, 방사선 등의)센서 데이터, 경제 데이터 또는 다른 관찰가능하거나 측정가능한 데이터 등과 같은, 다른 유형의 데이터를 프로 세싱하는 것에 관련하여 사용될 수도 있음을 이해해야 한다.
본 발명의 몇몇 다른 구체예가 상술되어 있고, 각 그런 구체예는 특정 특징을 포함하는 것으로 기술되었다. 그러나, 어떤 단일 구체예에 대한 논의와 관련하여 기술된 특징이 그 구체예로 제한되지 않지만 기술필드에서 숙련된 자에 의해 이해되는 것처럼, 어떤 다른 구체예에도 다양한 조합으로 포함 및/또는 배열될 수도 있다.
유사하게, 상기 논의에서, 기능은 특정한 모듈 또는 구성요소에 때때로 귀속된다. 그러나, 특정 구성요소 또는 모듈을 위한 필요를 완전히 제거 및/또는 새로운 구성요소 또는 모듈의 추가가 필요한 어떠한 경우에, 기능은 어떤 다른 모듈 또는 구성요소 중에서 원하는 대로 일반적으로 재분배될 수도 있다. 기술필드에서 숙련된 자에 의해 이해되는 것처럼, 기능의 정확한 분배는 발명의 특정한 구체예에 관하여, 공지된 설계 교환에 따라 바람직하게 형성될 수 있다.
따라서, 본 발명은 그 대표적인 구체예 및 첨부된 도면에 관하여 상세히 기술되었더라도, 본 발명의 정신 및 범위를 벗어나지 않고 다양하게 본 발명을 채택 및 변형할 수 있는 것은 기술필드에서 숙련된 자에게 자명하다. 그러므로, 발명은 도면에 도시되고 상기에서 기술된 정확한 구체예로 제한되지 않는다. 오히려, 발명의 정신에서 떠나지 않는 그런 모든 변형이 여기에 첨부된 청구항에 의해서만 제한되는 그 범위 안에서 고려되는 것으로 예정된다.

Claims (20)

  1. (a) 프레임으로 분할된 샘플화된 오디오 신호를 얻는 단계;
    (b) 한 프레임 내에서 과도현상의 위치를 확인하는 단계;
    (c) 과도현상을 포함하는 상기 한 프레임의 다른 부분을 위한 다른 분해능에서 필터링하는 것을 포함하여, 프레임 데이터에서 멀티-분해능 필터 뱅크 분석을 수행하여 변환 데이터 샘플을 생성하는 단계;
    (d) 음향심리학적 모델에 기반을 둔 가변 수의 비트를 이용하여 상기 변환 데이터 샘플을 양자화하여 양자화 데이터를 생성하는 단계;
    (e) 상기 양자화 데이터의 크기에 기반을 둔 가변-길이 세그먼트로 상기 양자화 데이터를 분류하는 단계;
    (f) 상기 가변-길이 세그먼트의 각각에 코드북을 할당하는 단계; 및
    (g) 상기 가변-길이 세그먼트를 설정하기 위해 할당된 코드북을 이용하여 각 상기 가변-길이 세그먼트에서 상기 양자화 데이터를 인코딩하는 단계
    를 포함하고,
    상기 다른 분해능에서 필터링하는 것은 상기 과도현상을 포함하는 상기 한 프레임 내의 다른 변환 블록에 다른 윈도 함수를 이용하는 것을 포함하며, 상기 다른 윈도우 함수는 상기 과도현상을 포함하는 상기 한 프레임에서 사용되는 다른 윈도 함수와 비교하여 변환 블록의 더 작은 부분에 집중된 더 많은 에너지를 갖는 브리프 윈도 함수(brief window function)를 포함하고,
    상기 브리프 윈도 함수는,
    Figure 112012005148083-pct00009
    로 정의되고, S는 쇼트 일차 블록 크기, B는 브리프 블록 크기인, 오디오 신호를 인코딩하는 방법.
  2. 제1항에 있어서,
    상기 변환 데이터 샘플은 (ⅰ) 다른 두 채널을 위한 대응하는 데이터 값의 합계, 및 (ⅱ) 다른 두 채널을 위한 데이터 값 사이의 차의 적어도 하나를 포함하는 것을 특징으로 하는, 오디오 신호를 인코딩하는 방법.
  3. 제1항에 있어서,
    상기 변환 데이터 샘플의 적어도 일부는 조인트 세기 인코딩된 것을 특징으로 하는, 오디오 신호를 인코딩하는 방법.
  4. 제1항에 있어서,
    상기 변환 데이터 샘플은 변환이산여현변환(Modified Discrete Cosine Transform)을 수행하여 생성된 것을 특징으로 하는, 오디오 신호를 인코딩하는 방법.
  5. 제1항에 있어서,
    상기 과도현상을 포함하는 상기 한 프레임 내에서의 필터링은 다수의 동일-크기의 연속 변환 블록 각각에 필터 뱅크를 적용하는 것을 포함하는 것을 특징으로 하는, 오디오 신호를 인코딩하는 방법.
  6. 제5항에 있어서,
    상기 과도현상을 포함하는 상기 한 프레임 내에서의 필터링은 과도현상을 포함하지 않은 변환 블록에 적용하는 윈도 함수와 다른 윈도 함수를 과도현상을 포함하는 변환 블록의 하나에 적용하는 것을 포함하는 것을 특징으로 하는, 오디오 신호를 인코딩하는 방법.
  7. 제1항에 있어서,
    상기 단계 (g)에서의 인코딩은
    탐지된 과도현상 신호를 포함하지 않는 프레임을 위한 9 코드북을 포함하는 제1 코드북 그룹 및 탐지된 과도현상 신호를 포함하는 프레임을 위한 9 코드북을 포함하는 제2 코드북 그룹을 이용한, 허프만 인코딩을 포함하는 것을 특징으로 하는, 오디오 신호를 인코딩하는 방법.
  8. 제1항에 있어서,
    상기 단계 (e)는 상기 양자화 데이터의 더 짧은 세그먼트를 인접 세그먼트와 결합하는 반복 기술을 포함하는 것을 특징으로 하는, 오디오 신호를 인코딩하는 방법.
  9. 제1항에 있어서,
    상기 양자화 데이터는 각각의 복수의 양자화 유닛 안에서 각 샘플로 고정된 수의 비트를 할당하여 생성되며, 다른 양자화 유닛은 샘플당 다른 수의 비트를 가지고, 가변-길이 세그먼트는 상기 양자화 유닛에 독립적인 것을 특징으로 하는, 오디오 신호를 인코딩하는 방법.
  10. 제1항에 있어서,
    상기 단계 (e) 및 (f)는 동시에 수행되는 것을 특징으로 하는, 오디오 신호를 인코딩하는 방법.
  11. 오디오 신호를 인코딩하기 위한 컴퓨터-실행가능한 처리 단계를 저장하는 컴퓨터-판독 매체로서, 상기 처리 단계는,
    (a) 프레임으로 분할된 샘플화된 오디오 신호를 얻는 단계;
    (b) 한 프레임 내에서 과도현상의 위치를 확인하는 단계;
    (c) 과도현상을 포함하는 상기 한 프레임의 다른 부분을 위한 다른 분해능에서 필터링하는 것을 포함하여, 프레임 데이터에서 멀티-분해능 필터 뱅크 분석을 수행하여 변환 데이터 샘플을 생성하는 단계;
    (d) 음향심리학적 모델에 기반을 둔 가변 수의 비트를 이용하여 상기 변환 데이터 샘플을 양자화하여 양자화 데이터를 생성하는 단계;
    (e) 상기 양자화 데이터의 크기에 기반을 둔 가변-길이 세그먼트로 상기 양자화 데이터를 분류하는 단계;
    (f) 상기 가변-길이 세그먼트의 각각에 코드북을 할당하는 단계; 및
    (g) 상기 가변-길이 세그먼트를 설정하기 위해 할당된 코드북을 이용하여 각 상기 가변-길이 세그먼트에서 양자화 데이터를 인코딩하는 단계
    를 포함하고,
    상기 다른 분해능에서 필터링하는 것은 상기 과도현상을 포함하는 상기 한 프레임 내의 다른 변환 블록에 다른 윈도 함수를 이용하는 것을 포함하며, 상기 다른 윈도우 함수는 상기 과도현상을 포함하는 상기 한 프레임에서 사용되는 다른 윈도 함수와 비교하여 변환 블록의 더 작은 부분에 집중된 더 많은 에너지를 갖는 브리프 윈도 함수를 포함하고,
    상기 브리프 윈도 함수는,
    Figure 112012005148083-pct00010
    로 정의되고, S는 쇼트 일차 블록 크기, B는 브리프 블록 크기인, 컴퓨터-판독 매체.
  12. 제11항에 있어서,
    상기 변환 데이터 샘플은 (ⅰ) 다른 두 채널을 위한 대응하는 데이터 값의 합계 및 (ⅱ) 다른 두 채널을 위한 데이터 값 사이의 차의 적어도 하나를 포함하는 것을 특징으로 하는 컴퓨터-판독 매체.
  13. 제11항에 있어서,
    상기 변환 데이터 샘플의 적어도 일부는 조인트 세기 인코딩된 것을 특징으로 하는 컴퓨터-판독 매체.
  14. 제11항에 있어서,
    상기 변환 데이터 샘플은 변환이산여현변환(Modified Discrete Cosine Transform)을 수행하여 생성된 것을 특징으로 하는 컴퓨터-판독 매체.
  15. 제11항에 있어서,
    상기 과도현상을 포함하는 상기 한 프레임 내에서의 필터링은 다수의 동일-크기의 연속 변환 블록 각각에 필터 뱅크를 적용하는 것을 포함하는 것을 특징으로 하는 컴퓨터-판독 매체.
  16. 제15항에 있어서,
    상기 과도현상을 포함하는 상기 한 프레임 내에서의 필터링은 과도현상을 포함하지 않은 변환 블록에 적용하는 윈도 함수와 다른 윈도 함수를 과도현상을 포함하는 변환 블록의 하나에 적용하는 것을 포함하는 것을 특징으로 하는 컴퓨터-판독 매체.
  17. 제11항에 있어서,
    상기 단계 (g)에서의 인코딩은 탐지된 과도현상 신호를 포함하지 않는 프레임을 위한 9 코드북을 포함하는 제1 코드북 그룹 및 탐지된 과도현상 신호를 포함하는 프레임을 위한 9 코드북을 포함하는 제2 코드북 그룹을 이용한, 허프만 인코딩을 포함하는 것을 특징으로 하는 컴퓨터-판독 매체.
  18. 제11항에 있어서,
    상기 단계 (e)는 상기 양자화 데이터의 더 짧은 세그먼트를 인접 세그먼트와 결합하는 반복 기술을 포함하는 것을 특징으로 하는 컴퓨터-판독 매체.
  19. 제11항에 있어서,
    상기 양자화 데이터는 각각의 복수의 양자화 유닛 안에서 각 샘플로 고정된 수의 비트를 할당하여 생성되며, 다른 양자화 유닛이 샘플당 다른 수의 비트를 가지고, 가변-길이 세그먼트는 상기 양자화 유닛에 독립적인 것을 특징으로 하는 컴퓨터-판독 매체.
  20. 제11항에 있어서,
    상기 단계 (e) 및 (f)는 동시에 수행되는 것을 특징으로 하는 컴퓨터-판독 매체.
KR1020097005452A 2006-08-18 2007-08-17 오디오 인코딩 시스템 KR101168473B1 (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US82276006P 2006-08-18 2006-08-18
US60/822,760 2006-08-18
US11/558,917 2006-11-12
US11/558,917 US8744862B2 (en) 2006-08-18 2006-11-12 Window selection based on transient detection and location to provide variable time resolution in processing frame-based data
US11/669,346 2007-01-31
US11/669,346 US7895034B2 (en) 2004-09-17 2007-01-31 Audio encoding system
PCT/CN2007/002489 WO2008022564A1 (en) 2006-08-18 2007-08-17 Audio encoding system

Publications (2)

Publication Number Publication Date
KR20090041439A KR20090041439A (ko) 2009-04-28
KR101168473B1 true KR101168473B1 (ko) 2012-07-26

Family

ID=39110402

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020097005452A KR101168473B1 (ko) 2006-08-18 2007-08-17 오디오 인코딩 시스템
KR1020127005062A KR101401224B1 (ko) 2006-08-18 2007-08-17 오디오 신호를 디코딩하기 위한 장치, 방법, 및 컴퓨터-판독가능 매체
KR1020097005454A KR101161921B1 (ko) 2006-08-18 2007-08-17 오디오 디코딩

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020127005062A KR101401224B1 (ko) 2006-08-18 2007-08-17 오디오 신호를 디코딩하기 위한 장치, 방법, 및 컴퓨터-판독가능 매체
KR1020097005454A KR101161921B1 (ko) 2006-08-18 2007-08-17 오디오 디코딩

Country Status (7)

Country Link
US (1) US7895034B2 (ko)
EP (2) EP2054881B1 (ko)
JP (2) JP5162589B2 (ko)
KR (3) KR101168473B1 (ko)
AT (2) ATE486347T1 (ko)
DE (2) DE602007010158D1 (ko)
WO (1) WO2008022564A1 (ko)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8332216B2 (en) * 2006-01-12 2012-12-11 Stmicroelectronics Asia Pacific Pte., Ltd. System and method for low power stereo perceptual audio coding using adaptive masking threshold
KR101435411B1 (ko) * 2007-09-28 2014-08-28 삼성전자주식회사 심리 음향 모델의 마스킹 효과에 따라 적응적으로 양자화간격을 결정하는 방법과 이를 이용한 오디오 신호의부호화/복호화 방법 및 그 장치
CN101918999B (zh) 2007-11-12 2013-11-13 尼尔森(美国)有限公司 执行音频水印嵌入以及水印检测和提取的方法和设备
JP5404418B2 (ja) * 2007-12-21 2014-01-29 パナソニック株式会社 符号化装置、復号装置および符号化方法
US8457951B2 (en) * 2008-01-29 2013-06-04 The Nielsen Company (Us), Llc Methods and apparatus for performing variable black length watermarking of media
CN102081926B (zh) * 2009-11-27 2013-06-05 中兴通讯股份有限公司 格型矢量量化音频编解码方法和系统
CN102222505B (zh) * 2010-04-13 2012-12-19 中兴通讯股份有限公司 可分层音频编解码方法系统及瞬态信号可分层编解码方法
CN102419977B (zh) * 2011-01-14 2013-10-02 展讯通信(上海)有限公司 瞬态音频信号的判别方法
CN103460287B (zh) 2011-04-05 2016-03-23 日本电信电话株式会社 音响信号的编码方法、解码方法、编码装置、解码装置
JP6218855B2 (ja) 2013-01-29 2017-10-25 フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. 摩擦音または破擦音のオンセットまたはオフセットの時間的近接性における増大した時間分解能を使用するオーディオエンコーダ、オーディオデコーダ、システム、方法およびコンピュータプログラム
EP3605532B1 (en) 2013-05-24 2021-09-29 Dolby International AB Audio encoder
JP2017009663A (ja) * 2015-06-17 2017-01-12 ソニー株式会社 録音装置、録音システム、および、録音方法
WO2017064264A1 (en) 2015-10-15 2017-04-20 Huawei Technologies Co., Ltd. Method and appratus for sinusoidal encoding and decoding
US9762382B1 (en) * 2016-02-18 2017-09-12 Teradyne, Inc. Time-aligning a signal
CN105790854B (zh) * 2016-03-01 2018-11-20 济南中维世纪科技有限公司 一种基于声波的短距离数据传输方法及装置
CN114499690B (zh) * 2021-12-27 2023-09-29 北京遥测技术研究所 一种星载激光通信终端地面模拟装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006030289A1 (en) * 2004-09-17 2006-03-23 Digital Rise Technology Co., Ltd. Apparatus and methods for multichannel digital audio coding

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3902948A1 (de) * 1989-02-01 1990-08-09 Telefunken Fernseh & Rundfunk Verfahren zur uebertragung eines signals
DE4020656A1 (de) 1990-06-29 1992-01-02 Thomson Brandt Gmbh Verfahren zur uebertragung eines signals
GB9103777D0 (en) 1991-02-22 1991-04-10 B & W Loudspeakers Analogue and digital convertors
JP3413691B2 (ja) * 1994-08-16 2003-06-03 ソニー株式会社 情報符号化方法及び装置、情報復号化方法及び装置、並びに情報記録媒体及び情報送信方法
US5956674A (en) 1995-12-01 1999-09-21 Digital Theater Systems, Inc. Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
US5812971A (en) * 1996-03-22 1998-09-22 Lucent Technologies Inc. Enhanced joint stereo coding method using temporal envelope shaping
US5848391A (en) 1996-07-11 1998-12-08 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Method subband of coding and decoding audio signals using variable length windows
JP3318824B2 (ja) * 1996-07-15 2002-08-26 ソニー株式会社 デジタル信号符号化処理方法、デジタル信号符号化処理装置、デジタル信号記録方法、デジタル信号記録装置、記録媒体、デジタル信号伝送方法及びデジタル信号伝送装置
US6266003B1 (en) * 1998-08-28 2001-07-24 Sigma Audio Research Limited Method and apparatus for signal processing for time-scale and/or pitch modification of audio signals
US6357029B1 (en) * 1999-01-27 2002-03-12 Agere Systems Guardian Corp. Joint multiple program error concealment for digital audio broadcasting and other applications
US6226608B1 (en) * 1999-01-28 2001-05-01 Dolby Laboratories Licensing Corporation Data framing for adaptive-block-length coding system
JP3518737B2 (ja) * 1999-10-25 2004-04-12 日本ビクター株式会社 オーディオ符号化装置、オーディオ符号化方法、及びオーディオ符号化信号記録媒体
AU2001276588A1 (en) * 2001-01-11 2002-07-24 K. P. P. Kalyan Chakravarthy Adaptive-block-length audio coder
US6983017B2 (en) * 2001-08-20 2006-01-03 Broadcom Corporation Method and apparatus for implementing reduced memory mode for high-definition television
JP3815323B2 (ja) * 2001-12-28 2006-08-30 日本ビクター株式会社 周波数変換ブロック長適応変換装置及びプログラム
JP2003216188A (ja) * 2002-01-25 2003-07-30 Matsushita Electric Ind Co Ltd オーディオ信号符号化方法、符号化装置、及び記憶媒体
JP2003233397A (ja) * 2002-02-12 2003-08-22 Victor Co Of Japan Ltd オーディオ符号化装置、オーディオ符号化プログラム及びオーディオ符号化データ伝送装置
US7328150B2 (en) 2002-09-04 2008-02-05 Microsoft Corporation Innovations in pure lossless audio compression
US7516064B2 (en) * 2004-02-19 2009-04-07 Dolby Laboratories Licensing Corporation Adaptive hybrid transform for signal analysis and synthesis
US7548819B2 (en) 2004-02-27 2009-06-16 Ultra Electronics Limited Signal measurement and processing method and apparatus
JP4271602B2 (ja) * 2004-03-04 2009-06-03 富士通株式会社 転送データの正当性を判定する装置および方法
JP2005268912A (ja) * 2004-03-16 2005-09-29 Sharp Corp フレーム補間のための画像処理装置およびそれを備えた表示装置
CN1677490A (zh) * 2004-04-01 2005-10-05 北京宫羽数字技术有限责任公司 一种增强音频编解码装置及方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006030289A1 (en) * 2004-09-17 2006-03-23 Digital Rise Technology Co., Ltd. Apparatus and methods for multichannel digital audio coding

Also Published As

Publication number Publication date
KR101161921B1 (ko) 2012-07-03
EP2054881B1 (en) 2010-10-27
EP2054883B1 (en) 2010-10-27
KR20090041439A (ko) 2009-04-28
EP2054881A4 (en) 2009-09-09
KR20120032039A (ko) 2012-04-04
EP2054883A4 (en) 2009-09-09
US7895034B2 (en) 2011-02-22
ATE486346T1 (de) 2010-11-15
JP5162589B2 (ja) 2013-03-13
US20070124141A1 (en) 2007-05-31
KR101401224B1 (ko) 2014-05-28
KR20090042972A (ko) 2009-05-04
JP2010501089A (ja) 2010-01-14
EP2054881A1 (en) 2009-05-06
DE602007010158D1 (de) 2010-12-09
WO2008022564A1 (en) 2008-02-28
EP2054883A1 (en) 2009-05-06
JP2010501090A (ja) 2010-01-14
DE602007010160D1 (de) 2010-12-09
JP5162588B2 (ja) 2013-03-13
ATE486347T1 (de) 2010-11-15

Similar Documents

Publication Publication Date Title
KR101168473B1 (ko) 오디오 인코딩 시스템
EP2028648B1 (en) Multi-channel audio encoding and decoding
US8255234B2 (en) Quantization and inverse quantization for audio
US7299190B2 (en) Quantization and inverse quantization for audio
JP2019080347A (ja) パラメトリック・マルチチャネル・エンコードのための方法
EP1734511A2 (en) Entropy coding by adapting coding between level and run-length/level modes
KR101679083B1 (ko) 2개의 블록 변환으로의 중첩 변환의 분해
KR101736705B1 (ko) 오디오 신호를 위한 비트 할당 방법 및 장치
CN100489965C (zh) 音频编码系统
EP2697795B1 (en) Adaptive gain-shape rate sharing
EP2993665A1 (en) Method and apparatus for coding or decoding subband configuration data for subband groups
RU2797457C1 (ru) Определение кодирования параметров пространственного звука и соответствующего декодирования
EP1228507B1 (en) A method of reducing memory requirements in an ac-3 audio encoder

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150423

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160707

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170717

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180717

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190702

Year of fee payment: 8