KR20070059849A - 오디오 신호의 부호화 및 복호화 방법, 오디오 신호의부호화 및 복호화 장치 - Google Patents

오디오 신호의 부호화 및 복호화 방법, 오디오 신호의부호화 및 복호화 장치 Download PDF

Info

Publication number
KR20070059849A
KR20070059849A KR1020060049043A KR20060049043A KR20070059849A KR 20070059849 A KR20070059849 A KR 20070059849A KR 1020060049043 A KR1020060049043 A KR 1020060049043A KR 20060049043 A KR20060049043 A KR 20060049043A KR 20070059849 A KR20070059849 A KR 20070059849A
Authority
KR
South Korea
Prior art keywords
audio signal
context
symbols
bitplane
decoding
Prior art date
Application number
KR1020060049043A
Other languages
English (en)
Other versions
KR101237413B1 (ko
Inventor
레이 미아오
오은미
김중회
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US11/634,251 priority Critical patent/US8224658B2/en
Priority to JP2008544254A priority patent/JP5048680B2/ja
Priority to PCT/KR2006/005228 priority patent/WO2007066970A1/en
Priority to EP06823935.9A priority patent/EP1960999B1/en
Priority to CN201110259904.2A priority patent/CN102306494B/zh
Priority to CN2006101645682A priority patent/CN101055720B/zh
Publication of KR20070059849A publication Critical patent/KR20070059849A/ko
Application granted granted Critical
Publication of KR101237413B1 publication Critical patent/KR101237413B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0017Lossless audio signal coding; Perfect reconstruction of coded audio signal by transmission of coding error
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding

Abstract

오디오 신호의 부호화 및 복호화 방법, 오디오 신호의 부호화 및 복호화 장치가 개시된다. 오디오 신호의 부호화 방법은 입력된 오디오 신호를 주파수 영역으로 변환하는 단계; 상기 주파수 영역으로 변환된 오디오 신호를 양자화하는 단계; 및 상기 양자화된 오디오 신호를 비트플레인 코딩(bitplane coding) 방식으로 부호화 할 때, 상위 비트플레인의 복수의 심볼들을 대표하는 컨텍스트(context)를 사용해 부호화하는 단계를 포함한다. 따라서, 본 발명에 따르면, 오디오 신호를 비트플레인 코딩 방식으로 부호화 할 때, 상위 비트플레인의 복수의 심볼들을 대표하는 컨텍스트를 사용해 부호화함으로써, 메모리에 저장된 코드 북의 사이즈를 줄이면서도 효과적인 부호화를 수행할 수 있도록 한다.

Description

오디오 신호의 부호화 및 복호화 방법, 오디오 신호의 부호화 및 복호화 장치{Method and apparatus for encoding/decoding audio signal}
도 1은 본 발명의 오디오 신호의 부호화 방법을 설명하기 위한 일 실시예의 플로차트이다.
도 2는 계층 구조로 부호화된 비트스트림을 구성하는 프레임의 구조도의 일 예이다.
도 3은 도 2의 부가 정보의 상세 구조도에 대한 일 예이다.
도 4는 도 1에 도시된 제14 단계를 설명하기 위한 일 실시예의 플로차트이다.
도 5는 도 4에 도시된 제30 단계를 설명하기 위한 참고도이다.
도 6은 도 4에 도시된 제32 단계를 설명하기 위한 컨텍스트의 일 예를 나타내는 참고도이다.
도 7은 오디오 신호에 대해 호프만 코딩을 하기 위해 수도 코드(Pseudo Code)로 표현한 일 예의 도면이다.
도 8은 본 발명의 오디오 신호의 복호화 방법을 설명하기 위한 일 실시예의 플로차트이다.
도 9는 도 8에 도시된 제50 단계를 설명하기 위한 일 실시예의 플로차트이 다.
도 10은 본 발명의 오디오 신호의 부호화 장치를 설명하기 위한 일 실시예의 블록도이다.
도 11은 도 10에 도시된 부호화부를 설명하기 위한 일 실시예의 블록도이다.
도 12는 본 발명의 오디오 신호의 복호화 장치를 설명하기 위한 일 실시예의 블록도이다.
<도면의 주요 부호에 대한 간단한 설명>
100: 변환부 110: 심리 음향 모델부
120: 양자화부 130: 부호화부
200: 매핑부 210: 컨텍스트 결정부
220: 엔트로피 부호화부 300: 복호화부
310: 역양자화부 320: 역변환부
본 발명은 오디오 신호의 부호화 및 복호화에 관한 것으로, 보다 상세하게는 오디오 데이터의 부호화 또는 복호화 시의 코드북의 사이즈를 최소화할 수 있도록 하는 오디오 신호의 부호화 및 복호화 방법, 오디오 신호의 부호화 및 복호화 장치에 관한 것이다.
최근 디지털 신호처리 기술의 발달에 의해 오디오 신호는 디지털 데이터로 저장되고 재생되는 경우가 대부분이다. 디지털 오디오 저장/재생 장치는 아날로그 오디오 신호를 샘플링하고 양자화하여 디지탈 신호인 PCM(Pulse Code Modulation) 오디오 데이터로 변환하여 CD, DVD와 같은 정보저장매체에 저장해둔 다음 사용자가 필요로 할 때 이를 재생해서 들을 수 있도록 해준다. 디지털 방식에 의한 오디오 신호의 저장/복원 방식은 LP(Long-Play Record), 마그네틱 테이프와 같은 아날로그 저장/복원 방식에 비해 음질을 크게 향상시켰고 저장 기간에 따른 열화 현상을 현저히 감소시켰으나 디지털 데이터의 크기가 적지 않아 저장 및 전송이 원할하지 못한 문제점이 있었다.
이와 같은 문제점을 해결하기 위해, 디지털 오디오 신호의 크기를 줄이기 위한 다양한 압축 방식이 사용되고 있다. ISO (International Standard Organization)에 의해 표준화 작업이 이루어진 MPEG/audio(Moving Pictures Expert Group)나 Dolby사에 의해 개발된 AC-2/AC-3는 인간의 심리음향 모델(Psychoacoustic Model)을 이용하여 데이터의 양을 줄이는 방법을 채용하였고 그 결과 신호의 특성에 관계없이 효율적으로 데이터의 양을 줄일 수 있었다.
종래에는 변환 및 양자화된 오디오 신호를 부호화하는 단계에서, 엔트로피 부호화 및 복호화를 수행할 경우에, 부호화 및 복호화 방식으로서 컨텍스트 기반의 부호화 및 복호화 방식을 사용할 수 있는데, 이러한 컨텍스트 기반 하에서 부호화 및 복호화를 위한 코드북이 필요하게 된다. 그러나, 이러한 적정한 코드북을 구비하기 위해서는 메모리 사이즈가 커져야 한다는 문제점이 야기된다.
따라서, 본 발명의 목적은 부호화를 위한 코드북 사이즈를 최소화하면서도 부호화 및 복호화 효율을 향상시킬 수 있는 오디오 신호의 부호화 및 복호화 방법, 그 부호화 및 복호화 장치를 제공하는데 있다.
상기의 과제를 이루기 위해, 본 발명에 의한 오디오 신호의 부호화 방법은 입력된 오디오 신호를 주파수 영역으로 변환하는 단계; 상기 주파수 영역으로 변환된 오디오 신호를 양자화하는 단계; 및 상기 양자화된 오디오 신호를 비트플레인 코딩(bitplane coding) 방식으로 부호화 할 때, 상위 비트플레인의 복수의 심볼들을 대표하는 컨텍스트(context)를 사용해 부호화하는 단계를 포함한다.
상기의 다른 과제를 이루기 위해, 본 발명에 의한 오디오 신호의 복호화 방법은 비트플레인 코딩(bitplane coding) 방식으로 부호화된 오디오 신호를 복호화 할 때, 상위 비트플레인의 복수의 심볼들을 대표하는 컨텍스트(context)를 사용해 부호화된 오디오 신호를 복호화하는 단계; 상기 복호화된 오디오 신호를 역양자화하는 단계; 및 상기 역양자화된 오디오 신호를 역변환하는 단계를 포함한다.
상기의 다른 과제를 이루기 위해, 본 발명에 의한 오디오 신호의 부호화 장치는 입력된 오디오 신호를 주파수 영역으로 변환하는 변환부; 상기 주파수 영역으로 변환된 오디오 신호를 양자화하는 양자화부; 및 상기 양자화된 오디오 신호를 비트플레인 코딩(bitplane coding) 방식으로 부호화 할 때, 상위 비트플레인의 복수의 심볼들을 대표하는 컨텍스트(context)를 사용해 부호화하는 부호화부를 포함한다.
상기의 다른 과제를 이루기 위해, 본 발명에 의한 오디오 신호의 복호화 장치는 비트플레인 코딩(bitplane coding) 방식으로 부호화된 오디오 신호를 복호화 할 때, 상위 비트플레인의 복수의 심볼들을 대표하는 컨텍스트(context)를 사용해 부호화된 오디오 신호를 복호화하는 복호화부; 상기 복호화된 오디오 신호를 역양자화하는 역양자화부; 및 상기 역양자화된 오디오 신호를 역변환하는 역변환부를 포함한다.
이하, 본 발명에 의한 오디오 신호의 부호화 방법을 첨부된 도면을 참조하여 상세히 설명한다.
도 1은 본 발명의 오디오 신호의 부호화 방법을 설명하기 위한 일 실시예의 플로차트이다.
입력된 오디오 신호를 주파수 영역으로 변환한다(제10 단계). 시간 영역의 오디오 신호인 PCM(Pulse Coded Modulation) 오디오 데이터를 입력받아, 심리 음향모델에 관한 정보를 참조하여 주파수 영역의 신호로 변환한다. 시간 영역에서는 인간이 인지하는 오디오 신호의 특성의 차이가 그리 크지 않지만, 변환을 통해 얻어진 주파수 영역의 오디오 신호는 인간의 심리 음향모델에 따라 각 주파수 대역에서 인간이 느낄 수 있는 신호와 느낄 수 없는 신호의 특성 차이가 크기 때문에 각 주파수 대역 별로 할당되는 비트수를 다르게 함으로써 압축의 효율을 높일 수 있다. 본 실시예는 주파수 영역으로의 변환 중 MDCT(Modified Discrete Cosine transform) 변환을 수행한다.
제10 단계 후에, 주파수 영역으로 변환된 오디오 신호를 양자화한다(제12 단 계). 인간이 들어도 느끼지 못하도록 각 대역의 양자화 잡음의 크기가 마스킹 문턱치보다 작도록 각 대역의 오디오 신호들을 대응하는 스케일 팩터 정보를 기초로 스칼라 양자화하여 양자화 샘플들을 출력한다.
제12 단계 후에, 양자화된 오디오 신호를 비트플레인 코딩(bitplane coding) 방식으로 부호화 할 때, 상위 비트플레인의 복수의 심볼들을 대표하는 컨텍스트(context)를 사용해 부호화한다(제14 단계). 본 발명에 따르면, 각 계층에 해당하는 양자화된 샘플들을 비트 플레인 부호화 방식을 사용하여 부호화한다.
도 2는 계층 구조로 부호화된 비트스트림을 구성하는 프레임의 구조도의 일 예이다. 도 2를 참조하면, 본 발명에 따른 비트스트림의 프레임은 양자화 샘플과 부가 정보를 계층 구조에 맵핑시켜 부호화되어 있다. 즉, 하위 계층의 비트스트림이 상위 계층의 비트스트림에 포함되어 있는 계층 구조를 가진다. 각 계층에 필요한 부가 정보들은 계층 별로 나뉘어서 부호화된다.
비트스트림의 선두에는 헤더 정보가 저장된 헤더 영역이 마련되고, 계층 0의 정보가 패킹되어 있다. 각 계층 정보로는 부가 정보와 부호화된 오디오 데이터가 저장되어 있다. 가령, 계층 2 정보로 부가 정보 2와 부호화된 양자화 샘플들이 저장되어 있다. 여기서, N은 1 보다 크거나 같은 정수이다.
도 3은 부가 정보의 상세 구조도에 대한 일 예이다. 도 3을 참조하면, 임의의 계층 정보로는 부가 정보와 부호화된 양자화 샘플들이 저장되어 있고, 본 실시예에서 부가 정보는 허프만(huffman) 코딩 모델 정보, 양자화 팩터 정보, 채널에 대한 부가 정보와 기타 부가 정보를 포함한다. 허프만 코딩 모델 정보는 대응하는 계층에 속하는 양자화 샘플들의 부호화에 사용되거나 복호화에 사용되어야 할 허프만 코딩 모델에 대한 인덱스 정보를 말한다. 양자화 팩터 정보는 대응하는 계층에 속하는 오디오 데이터를 양자화하거나 역영자화하기 위한 양자화 스텝 사이즈를 알려준다. 채널에 대한 부가 정보란 M/S stereo와 같은 채널에 대한 정보를 말한다. 기타 부가 정보는 M/S stereo의 채용 여부에 대한 플래그 정보 등을 말한다.
도 4는 도 1에 도시된 제14 단계를 설명하기 위한 일 실시예의 플로차트이다.
양자화된 오디오 신호의 복수개의 양자화 샘플들을 비트플레인 상에 매핑한다(제30 단계). 복수개의 양자화 샘플들을 비트 플레인 상에 매핑시켜 이진 데이터로 나타내고 이진 데이터의 최상위비트(msb:most significant bit)들로 구성된 심볼부터 최하위 비트(lsb:least significant bit)들로 구성된 심볼의 순서로 해당 계층에 할당된 비트 범위 내에서 부호화한다. 비트 플레인 상에서 중요한 정보는 먼저 부호화하고 상대적으로 덜 중요한 정보는 나중에 부호화함으로써, 부호화 과정에서 각 계층에 해당하는 비트율과 계층별 주파수 대역을 고정하여 버디 효과라고 부르는 왜곡(distortion)을 줄이기 위함이다.
도 5는 도 4에 도시된 제30 단계를 설명하기 위한 참고도이다. 도 5에서 보는 바와 같이, 양자화 샘플들 9, 2, 4, 0을 비트 플레인에 매핑하면 각각 1001b, 0010b, 0100b, 0000b의 이진 데이터로 표시된다. 즉, 본 실시예에서 비트 플레인 상에서 부호화 단위가 되는 부호화 블럭의 크기는 4*4이다. 양자화 샘플들의 각각에 대한 같은 순위의 비트들의 집합을 심볼이라 칭한다. 최상위비트들 msb로 구성 된 심볼은 "1000b"이고, 그 다음 비트들 msb-1로 구성된 심볼은 "0010b"이며, 그 다음 비트들 msb-2로 구성된 심볼은 "0100b"이고, 최하위비트들 msb-3로 구성된 심볼은 "1000b"이다.
제30 단계 후에, 부호화하고자 하는 현재 비트플레인의 상측에 있는 상위 비트플레인의 복수의 심볼들을 대표하는 컨텍스트를 결정한다(제32 단계). 여기서, 컨텍스트는 부호화를 위해 필요한 상위 비트플레인의 심볼을 의미한다.
제32 단계는 상위 비트플레인의 심볼들의 이진 데이터들 중 "1"의 숫자가 세 개 이상인 심볼들을 대표하는 컨텍스트를 부호화를 위한 상위 비트플레인의 심벌로서 결정한다. 예를 들어, 4비트로 이루어진 상위 비트플레인의 심볼의 이진 데이터가 "0111", "1011", "1101", "1110" 또는 "1111" 중 어느 하나라고 할 때, 심볼 내의 "1"의 숫자가 3개 이상임을 확인할 수 있다. 이와 같이, 심볼들의 이진 데이터들 중 "1"의 숫자가 세 개 이상인 심볼들을 대표하는 하나의 심볼을 컨텍스트로서 결정한다.
한편, 제32 단계는 상위 비트플레인의 심볼들의 이진 데이터들 중 "1"의 숫자가 두 개인 심볼들을 대표하는 컨텍스트를 부호화를 위한 상위 비트플레인의 심벌로서 결정할 수도 있다. 예를 들어, 4비트로 이루어진 상위 비트플레인의 심볼의 이진 데이터가 "0011", "0101", "0110", "1001", "1010" 또는 "1100" 중 어느 하나라고 할 때, 심볼 내의 "1"의 숫자가 2개임을 확인할 수 있다. 이와 같이, 심볼들의 이진 데이터들 중 "1"의 숫자가 2 개인 심볼들을 대표하는 하나의 심볼을 컨텍스트로서 결정한다.
한편, 제32 단계는 상위 비트플레인의 심볼들의 이진 데이터들 중 "1"의 숫자가 한 개인 심볼들을 대표하는 컨텍스트를 부호화를 위한 상위 비트플레인의 심벌로서 결정할 수도 있다. 예를 들어, 4비트로 이루어진 상위 비트플레인의 심볼의 이진 데이터가 "0001", "0010", "0100" 또는 "1000" 중 어느 하나라고 할 때, 심볼 내의 "1"의 숫자가 1개임을 확인할 수 있다. 이와 같이, 심볼들의 이진 데이터들 중 "1"의 숫자가 1 개인 심볼들을 대표하는 하나의 심볼을 컨텍스트로서 결정한다.
도 6은 도 4에 도시된 제32 단계를 설명하기 위한 컨텍스트의 일 예를 나타내는 참고도이다. 도 6의 "Step 1"에서는 이진 데이터 중 "1"의 숫자가 3개 이상인 경우에, 이를 대표하는 컨텍스트로서 "0111", "1011", "1101", "1110" 또는 "1111" 중 어느 하나를 결정한 일 예를 나타내고 있다. 또한 도 6의 "Step 2"에서는 이진 데이터 중 "1"의 숫자가 2개인 경우에, 이를 대표하는 컨텍스트로서 "0011", "0101", "0110", "1001", "1010" 또는 "1100" 중 어느 하나를 결정하고, 이진 데이터 중 "1"의 숫자가 3개 이상인 경우에, 이를 대표하는 컨텍스트로서 "0111", "1011", "1101", "1110" 또는 "1111" 중 어느 하나를 결정한 일 예를 나타내고 있다. 도 6에서 알 수 있는 바와 같이, 종래에는 상위 비트플레인의 심벌들 각각에 대한 코드북을 각각 구비해야 했다. 즉, 심벌이 4비트로 구성되어 있다면, 16개의 종류로 심벌이 나뉘어져 있지만, 본원발명에 따르면, 도 6의 "Step 2"의 과정을 거쳐 상위 비트플레인의 심벌을 대표하는 컨텍스트를 결정하게 되면, 7개의 심벌로만 나뉘어져 있기 때문에 필요한 코드북의 사이즈를 줄일 수 있다.
도 7은 오디오 신호에 대해 호프만 코딩을 하기 위해 수도 코드(Pseudo Code)로 표현한 일 예의 도면이다. 도 7를 살펴보면, "upper_vector_mapping();"를 사용해, 상위 비트플레인의 복수의 심볼들을 대표하는 컨텍스트를 결정하기 위한 코드가 예시되어 있다.
제32 단계 후에, 결정된 컨텍스트를 사용해, 현재 비트플레인의 심벌에 대해 부호화한다(제34 단계).
특히, 결정된 컨텍스트를 사용해, 현재 비트플레인의 심벌에 대해 허프만 코딩(huffman coding)을 수행하는 것을 특징으로 한다.
허프만 부호화를 위한 허프만 모델 정보, 즉 코드북 인덱스는 [표 1]과 같다.
Figure 112006038612369-PAT00001
[표 1]에 따르면, 같은 중요도(significance)(본 실시예에서는 msb)에 대해서도 두 개의 모델이 존재하는 것을 볼 수 있는데 이는 서로 다른 분포를 보이는 양자화 샘플들에 대해 두 개의 모델을 생성했기 때문이다.
도 5의 예를 [표 1]에 따라 부호화하는 과정을 보다 구체적으로 설명하면 다음과 같다.
심벌의 비트수가 4 이하일 경우 본 발명에 따른 허프만 부호화는 [수학식 1]에 따른다.
허프만 코드값
= HuffmanCodebook[코드북 인덱스][상위 비트 플레인][심볼]
즉, 허프만 부호화는 3 개의 입력변수로서, 코드북 인덱스, 상위 비트 플레인 및 심볼을 가진다. 코드북 인덱스는 [표 1]로부터 얻어진 값을 말하며, 상위 비트 플레인은 비트 플레인 상에서 현재 부호화하고자 하는 심볼의 바로 위의 심벌을 가리킨다. 여기서, 전술한 제32 단계에서 결정된 컨텍스트가 상위 비트플레이인의 심벌로서 입력된다. 심볼은 현재 부호화하고자 하는 비트플레인의 이진 데이터를 말한다.
도 5의 예에서 허프만 모델은 msb가 4이므로 13-16 또는 17-20이 선택된다. 부호화될 부가 정보가 7이라면,
msb들로 구성된 심벌의 코드북 인덱스는 16,
msb-1들로 구성된 심벌의 코드북 인덱스는 15,
msb-2들로 구성된 심벌의 코드북 인덱스는 14,
msb-3들로 구성된 심벌의 코드북 인덱스는 13
이 된다.
한편, 최상위 심벌인 msb은 상위 비트 플레인의 데이터를 가지고 있지 않으므로 상위 비트플레인 값을 0이라 가정하면, HuffmanCodebook[16][0b][1000b]의 코드로 부호화된다. msb-1들로 구성된 심벌은 상위 비트 플레인이 1000b이므로 HuffmanCodebook[15][1000b][0010b]의 코드로 부호화된다. msb-2들로 구성된 심벌은 상위 비트 플레인이 0010b이므로 HuffmanCodebook[14][0010b][0100b]의 코드로 부호화된다. msb-3들로 구성된 심벌은 상위 비트 플레인이 0100b이므로 HuffmanCodebook[13][0100b][1000b]의 코드로 부호화된다.
심벌 단위로 부호화한 다음, 부호화된 총 비트수를 카운트하고 사용가능한 비트수와 비교하여 부호화된 비트수가 해당 계층에서 사용가능한 비트수를 초과할 경우 부호화를 중지한다. 부호화되지 못하고 남겨진 비트는 다음 계층에 여유 공간이 생길 때 부호화하여 집어넣는다. 해당 계층에 할당된 양자화 샘플들을 모두 부호화하고 나서도 사용가능한 비트수가 남을 경우, 즉 여유 공간이 생길 경우에는 하위 계층에서 부호화되지 못하고 남은 양자화 샘플을 부호화한다.
한편, msb들로 구성된 심벌의 비트수가 5 이상일 경우에는 현재 비트 플래인 상의 위치를 이용해 허프만 코드값을 결정한다. 즉, 중요도가 5 이상일 경우에는 각각의 비트 플래인 상의 데이터는 통계적으로 큰 차이를 보이지 않기 때문에 모두 동일한 허프만 모델을 사용하여 허프만 부호화한다. 즉, 비트 플래인 당 하나의 허프만 모델이 존재한다.
중요도가 5 이상일 경우(심벌의 비트수가 5 이상일 경우) 본 발명에 따른 허프만 부호화는 [수학식 2]에 따른다.
허프만 코드값 = 20+bpl
여기서, bpl은 현재 코딩하고자 하는 비트 플래인의 인덱스를 가리키며, 따 라서 1 이상의 정수값을 가진다. 20은 [표 1]의 부가 정보 8에 대응하는 허프만 모델의 마지막 인덱스가 20이므로 인덱스가 21부터 시작되도록 하기 위해 더해주는 값이다. 따라서 코딩 밴드에 대한 부가 정보는 단순히 중요도만을 나타낸다. 아래의 [표 2]에서 허프만 모델은 현재 부호화하고자 하는 비트 플레인의 인덱스에 따라 결정된다.
Figure 112006038612369-PAT00002
한편, 부가 정보 중 양자화 팩터 정보와 허프만 모델 정보는 대응하는 코딩 밴드에 대해 차분 부호화(DPCM)를 수행한다. 양자화 팩터 정보를 부호화할 때 차분 부호화의 초기값은 프레임의 헤더 정보에 8 bit로 표현된다. 허프만 모델 정보에 대한 차분 부호화의 초기값은 0으로 세팅한다.
비트율을 조정하기 위해서는, 즉 scalabilty를 적용할 경우 한 프레임에 해당하는 비트스트림을 각 계층에서 사용가능한 비트수를 고려하여 잘라줌으로써 적은 데이터만으로도 복호화할 수 있게 된다.
한편, 결정된 컨텍스트를 사용해, 현재 비트플레인의 심벌에 대해 산술 코딩(arithmetic coding)을 수행할 수도 있다. 산술 코딩을 통해서 부호화할 경우에는 코드북이 아닌 확률테이블을 이용하여 부호화를 수행하게 된다. 이때 코드북 인덱스 및 결정된 컨텍스트를 동일하게 사용하며 ArithmeticFrequencyTable[][][]로 확률테이블이 필요하다. 각 차원의 입력 변수는 허프만 방식과 동일하며 테이블은 주어진 심볼이 발생할 확률을 나타낸다. 예를 들어 ArithmeticFrequencyTable[3][0][1]의 값이 0.5일 경우에는 코드북 인덱스가 3이며 컨텍스트가 0일 경우에 1의 심볼이 발생할 확률이 0.5임을 나타낸다. 보통 고정 소수점 연산을 위해 확률테이블은 소정의 값을 곱하여 정수로 표현한다.
이하, 본 발명에 의한 오디오 신호의 복호화 방법을 첨부된 도면을 참조하여 상세히 설명한다.
도 8은 본 발명의 오디오 신호의 복호화 방법을 설명하기 위한 일 실시예의 플로차트이다.
비트플레인 코딩(bitplane coding) 방식으로 부호화된 오디오 신호를 복호화 할 때, 상위 비트플레인의 복수의 심볼들을 대표하는 컨텍스트(context)를 사용해, 오디오 신호를 복호화한다(제50 단계).
도 9는 도 8에 도시된 제50 단계를 설명하기 위한 일 실시예의 플로차트이다.
결정된 컨텍스트를 사용해, 현재 비트플레인의 심벌에 대해 복호화한다(제70 단계). 부호화된 비트스트림은 부호화 단계에서 결정된 컨텍스트를 사용해 부호화된 것이다. 이런 계층 구조로 부호화된 오디오 데이터로 구성된 비트스트림을 수신하여 프레임 별로 마련된 헤더 정보를 복호화한다. 그 후, 첫번째 계층에 상응하는 스케일 팩터 정보 및 코딩 모델 정보를 포함하는 부가 정보를 복호화한다. 그후, 코딩 모델 정보를 참조하여 최상위 비트들로 구성된 심벌에서부터 최하위 비트들로 구성된 심벌의 순서로 심벌 단위로 복호화한다.
특히, 결정된 컨텍스트를 사용해, 오디오 신호에 대해 허프만 디코딩(huffman decoding)을 수행하는 것을 특징으로 한다. 허프만 디코딩 과정은 전술한 허프만 코딩의 역과정을 수행하는 것이다.
한편, 결정된 컨텍스트를 사용해, 오디오 신호에 대해 산술 디코딩(arithmetic decoding)을 수행할 수도 있다. 산술 디코딩 과정은 전술한 산술 코딩 과정의 역과정이다.
제70 단계 후에, 복호화된 심벌이 배열된 비트 플레인으로부터 양자화된 샘플을 추출한다(제72 단계). 각 계층에 대한 양자화 샘플을 구한다.
한편, 제50 단계 후에, 복호화된 오디오 신호를 역양자화한다(제52 단계). 구해진 양자화 샘플을 스케일 팩터 정보를 참조하여 역양자화한다.
제52 단계 후에, 역양자화된 오디오 신호를 역변환한다(제54 단계). 복원된 샘플을 주파수/시간 매핑하여 시간 영역의 PCM 오디오 데이터로 변환하여 출력한다. 본 실시예에서는 MDCT에 따른 역변환을 수행한다.
한편, 상술한 본 발명의 방법 발명은 컴퓨터에서 읽을 수 있는 코드/명령들(instructions)/프로그램으로 구현될 수 있고, 매체, 예를 들면 컴퓨터로 읽을 수 있는 기록 매체를 이용하여 상기 코드/명령들/프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는 마그네틱 저장 매체(예를 들어, 롬, 플로피 디스크, 하드디스크, 마그네틱 테이프 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장 매체를 포함한다. 또한, 본 발명의 실시예들은 컴퓨터로 읽을 수 있는 코드를 내장하는 매체(들)로서 구현되어, 네트워크를 통해 연결된 다수개의 컴퓨터 시스템들이 분배되어 처리 동작하도록 할 수 있다. 본 발명을 실현하는 기능적인 프로그램들, 코드들 및 코드 세그먼트(segment)들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 쉽게 추론될 수 있다.
이하, 본 발명에 의한 오디오 신호의 부호화 장치를 첨부된 도면을 참조하여 상세히 설명한다.
도 10은 본 발명의 오디오 신호의 부호화 장치를 설명하기 위한 일 실시예의 블록도로서, 변환부(100), 심리음향 모델부(110), 양자화부(120) 및 부호화부(130)로 구성된다.
변환부(100)는 시간 영역의 오디오 신호인 PCM(Pulse Coded Modulation) 오디오 데이터를 입력받아 심리음향 모델부(110)로부터의 제공되는 심리음향모델에 관한 정보를 참조하여 주파수 영역의 신호로 변환한다. 시간 영역에서는 인간이 인지하는 오디오 신호의 특성의 차이가 그리 크지 않지만, 변환을 통해 얻어진 주파수 영역의 오디오 신호는 인간의 심리음향모델에 따라 각 주파수 대역에서 인간이 느낄 수 있는 신호와 느낄 수 없는 신호의 특성 차이가 크기 때문에 각 주파수 대역 별로 할당되는 비트수를 다르게 함으로써 압축의 효율를 높일 수 있다. 본 실시예에서 변환부(100)는 MDCT(Modified Discrete Cosine transform) 변환을 수행한다.
심리음향 모델부(110)는 어택(attack) 감지 정보, 등 심리음향모델에 관한 정보를 변환부(100)로 제공하는 한편, 변환부(100)에 의해 변환된 오디오 신호를 적절한 서브 밴드의 신호들로 묶고 각 신호들의 상호작용으로 인해 발생되는 마스킹현상을 이용하여 각 서브 밴드에서의 마스킹 문턱치(masking threshold)를 계산하여 양자화부(120)로 제공한다. 마스킹 문턱치란 오디오 신호들의 상호 작용으로 인해 인간이 들어도 느끼지 못하는 신호의 최대 크기를 말한다. 본 실시예에서 심리음향 모델부(110)는 BMLD(binaural masking level depression)를 이용하여 스테레오 성분에 대한 마스킹 문턱치 등을 계산한다.
양자화부(120)는 인간이 들어도 느끼지 못하도록 각 대역의 양자화 잡음의 크기가 심리음향 모델부(110)에서 제공된 마스킹 문턱치보다 작도록 각 대역의 오디오 신호들을 대응하는 스케일 팩터 정보를 기초로 스칼라 양자화하여 양자화 샘플들을 출력한다. 즉, 양자화부(120)는 심리음향 모델부(110)에서 계산된 마스킹 문턱치와 각 대역에서 발생하는 잡음(noise)의 비율인 NMR (Noise-to-Mask Ratio)를 이용하여 전 대역의 NMR 값이 0 dB 이하가 되도록 양자화한다. NMR 값이 0 dB 이하라는 것은 양자화 잡음을 인간이 들을 수 없음을 의미한다.
부호화부(130)는 양자화된 오디오 신호를 비트플레인 코딩(bitplane coding) 방식으로 부호화 할 때, 상위 비트플레인의 복수의 심볼들을 대표하는 컨텍스트(context)를 사용해 부호화한다. 부호화부(130)는 각 계층에 속하는 양자화 샘플들 및 부가 정보를 부호화하여 계층 구조로 패킹한다. 부가 정보는 각 계층에 해당하는 스케일 밴드 정보, 코딩 밴드 정보, 그 스케일 팩터 정보 및 코딩 모델 정보를 포함한다. 스케일 밴드 정보와 코딩 밴드 정보는 헤더 정보로서 패킹되어 복호화 장치로 전송될 수도 있고, 각 계층마다의 부가 정보로서 부호화되고 패킹되어 복호화 장치로 전송될 수도 있으며, 복호화 장치에 미리 저장되어 있음으로 인해 전송되지 않을 수도 있다. 보다 구체적으로, 부호화부(130)는 첫 번째 계층에 상응하는 스케일 팩터 정보 및 코딩 모델 정보를 포함하는 부가 정보를 부호화하는 한편, 첫 번째 계층에 상응하는 코딩 모델 정보를 참조하여 최상위 비트들로 구성된 심벌에서부터 최하위 비트들로 구성된 심벌의 순서로 심벌 단위로 부호화한다. 다음으로 두 번째 계층에 대해서도 동일한 과정을 반복한다. 즉, 미리 결정된 복수개의 계층에 대한 부호화가 완료될 때까지 계층을 증가시키면서 부호화한다. 본 실시예에서 부호화부(130)는 스케일 팩터 정보와 코딩 모델 정보는 차분 부호화하고, 양자화 샘플을 부호화한다. 스케일 밴드 정보는 오디오 신호의 주파수 특성에 따라, 보다 적절하게 양자화를 수행하기 위한 정보로, 주파수 영역을 복수개의 밴드로 나누고 각 밴드에 적합한 스케일 팩터를 할당하였을 때 각 계층에 대응하는 스케일 밴드를 알려주는 정보를 말한다. 이에, 각 계층은 적어도 하나의 스케일 밴드에 속하게 된다. 각 스케일 밴드는 할당된 하나의 스케일 팩터를 가진다. 코딩 밴드 정보 또한 오디오 신호의 주파수 특성에 따라 보다 적절하게 부호화를 수행하기 위한 정보로, 주파수 영역을 복수개의 밴드로 나누고 각 밴드에 적합한 코딩 모델을 할당하였을 때 각 계층에 대응하는 코딩 밴드를 알려주는 정보를 말한다. 스케일 밴드와 코딩 밴드는 실험에 의해 적절히 나누어지며 대응하는 스케일 팩터와 코딩 모델이 결정된다.
도 11은 도 10에 도시된 부호화부(130)를 설명하기 위한 일 실시예의 블록도로서, 매핑부(200), 컨텍스트 결정부(210) 및 엔트로피 부호화부(220)로 구성된다.
매핑부(200)는 양자화된 오디오 신호의 복수개의 양자화 샘플들을 비트플레인 상에 매핑하고, 매핑한 결과를 컨텍스트 결정부(210)로 출력한다. 매핑부(200)는 복수개의 양자화 샘플들을 비트 플레인 상에 매핑시켜 이진 데이터로 나타낸다.
컨텍스트 결정부(210)는 상위 비트플레인의 복수의 심볼들을 대표하는 컨텍스트를 결정한다. 컨텍스트 결정부(210)는 복수의 심볼들의 이진 데이터들 중 "1"의 숫자가 세 개 이상인 심볼들을 대표하는 컨텍스트를 결정하는 것을 특징으로 한다. 또한, 컨텍스트 결정부(210)는 복수의 심볼들의 이진 데이터들 중 "1"의 숫자가 두 개인 심볼들을 대표하는 컨텍스트를 결정하는 것을 특징으로 한다. 또한, 컨텍스트 결정부(210)는 복수의 심볼들의 이진 데이터들 중 "1"의 숫자가 한 개인 심볼들을 대표하는 컨텍스트를 결정하는 것을 특징으로 한다.
예를 들어, 도 6에 도시된 바와 같이, "Step 1"에서는 이진 데이터 중 "1"의 숫자가 3개 이상인 경우에, 이를 대표하는 컨텍스트로서 "0111", "1011", "1101", "1110" 또는 "1111" 중 어느 하나를 결정한 일 예를 나타내고 있고, "Step 2"에서는 이진 데이터 중 "1"의 숫자가 2개인 경우에, 이를 대표하는 컨텍스트로서 "0011", "0101", "0110", "1001", "1010" 또는 "1100" 중 어느 하나를 결정하고, 이진 데이터 중 "1"의 숫자가 3개 이상인 경우에, 이를 대표하는 컨텍스트로서 "0111", "1011", "1101", "1110" 또는 "1111" 중 어느 하나를 결정한 일 예를 나타내고 있다.
엔트로피 부호화부(220)는 결정된 컨텍스트를 사용해, 현재 비트플레인의 심벌에 대해 부호화한다.
특히, 엔트로피 부호화부(220)는 결정된 컨텍스트를 사용해, 현재 비트플레인의 심벌에 대해 허프만 코딩(huffman coding)을 수행하는 것을 특징으로 한다. 허프만 코딩 과정은 전술한 방법발명에서 설명하였으므로, 상세한 설명은 생략한다.
또한, 엔트로피 부호화부(220)는 결정된 컨텍스트를 사용해, 현재 비트플레인의 심벌에 대해 산술 코딩(arithmetic coding)을 수행하는 것을 특징으로 한다. 산술 코딩 과정은 전술한 방법발명에서 설명하였으므로, 상세한 설명은 생략한다.
이하, 본 발명에 의한 오디오 신호의 복호화 장치를 첨부된 도면을 참조하여 상세히 설명한다.
도 12는 본 발명의 오디오 신호의 복호화 장치를 설명하기 위한 일 실시예의 블록도로서, 복호화부(300), 역양자화부(310) 및 역변환부(320)로 구성된다.
복호화부(300)는 비트플레인 코딩(bitplane coding) 방식으로 부호화된 오디오 신호를 복호화 할 때, 상위 비트플레인의 복수의 심볼들을 대표하는 컨텍스트(context)를 사용해 오디오 신호를 복호화하고, 복호화한 결과를 역양자화부(310)로 출력한다. 복호화부(300)는 결정된 컨텍스트를 사용해, 현재 비트플레인의 심벌에 대해 복호화하고, 복호화된 심벌이 배열된 비트 플레인으로부터 양자화된 샘플을 추출한다. 부호화된 비트스트림은 부호화 단계에서 결정된 컨텍스트를 사용해 부호화된 것이다. 복호화부(300)는 이런 계층 구조로 부호화된 오디오 데이터로 구성된 비트스트림을 수신하여 프레임 별로 마련된 헤더 정보를 복호화한다. 그 후, 복호화부(300)는 첫번째 계층에 상응하는 스케일 팩터 정보 및 코딩 모델 정보를 포함하는 부가 정보를 복호화한다. 그후, 복호화부(300)는 코딩 모델 정보를 참조하여 최상위 비트들로 구성된 심벌에서부터 최하위 비트들로 구성된 심벌의 순서로 심벌 단위로 복호화한다.
특히, 복호화부(300)는 결정된 컨텍스트를 사용해, 오디오 신호에 대해 허프만 디코딩(huffman decoding)을 수행하는 것을 특징으로 한다. 허프만 디코딩 과정은 전술한 허프만 코딩의 역과정을 수행하는 것이다.
한편, 복호화부(300)는 결정된 컨텍스트를 사용해, 오디오 신호에 대해 산술 디코딩(arithmetic decoding)을 수행할 수도 있다. 산술 디코딩 과정은 전술한 산술 코딩 과정의 역과정이다.
역양자화부(310)는 복호화된 오디오 신호를 역양자화하고, 역양자화된 결과를 역변환부(320)로 출력한다. 역양자화부(310)는 각 계층의 양자화 샘플을 대응하는 스케일 팩터 정보에 따라 역양자화하여 복원한다.
역변환부(320)는 역양자화된 오디오 신호를 역변환한다. 역변환부(320)는 복원된 샘플을 주파수/시간 매핑하여 시간 영역의 PCM 오디오 데이터로 변환하여 출력한다. 본 실시예에서 역변환부(320)는 MDCT에 따른 역변환을 수행한다.
이러한 본원 발명인 오디오 신호의 부호화 및 복호화 방법, 오디오 신호의 부호화 및 복호화 장치는 이해를 돕기 위하여 도면에 도시된 실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위에 의해 정해져야 할 것이다.
전술한 바와 같이, 오디오 신호의 부호화 및 복호화 방법, 오디오 신호의 부호화 및 복호화 장치는 오디오 신호를 비트플레인 코딩 방식으로 부호화 할 때, 상위 비트플레인의 복수의 심볼들을 대표하는 컨텍스트를 사용해 부호화함으로써, 메모리에 저장된 코드 북의 사이즈를 줄이면서도 효과적인 부호화를 수행할 수 있는 효과를 제공한다.

Claims (24)

  1. 입력된 오디오 신호를 주파수 영역으로 변환하는 단계;
    상기 주파수 영역으로 변환된 오디오 신호를 양자화하는 단계; 및
    상기 양자화된 오디오 신호를 비트플레인 코딩(bitplane coding) 방식으로 부호화 할 때, 상위 비트플레인의 복수의 심볼들을 대표하는 컨텍스트(context)를 사용해 부호화하는 단계를 포함하는 것을 특징으로 하는 오디오 신호의 부호화 방법.
  2. 제1항에 있어서, 상기 상위 비트플레인의 복수의 심볼들을 대표하는 컨텍스트(context)를 사용해 부호화하는 단계는
    상기 양자화된 오디오 신호의 복수개의 양자화 샘플들을 비트플레인 상에 매핑하는 단계; 및
    상기 상위 비트플레인의 상기 복수의 심볼들을 대표하는 컨텍스트를 결정하는 단계; 및
    상기 결정된 컨텍스트를 사용해, 현재 비트플레인의 심벌에 대해 부호화하는 단계를 포함하는 것을 특징으로 하는 오디오 신호의 부호화 방법.
  3. 제2항에 있어서, 상기 복수의 심볼들을 대표하는 컨텍스트를 결정하는 단계는
    상기 복수의 심볼들의 이진 데이터들 중 "1"의 숫자가 세 개 이상인 심볼들을 대표하는 컨텍스트를 결정하는 것을 특징으로 하는 오디오 신호의 부호화 방법.
  4. 제2항에 있어서, 상기 복수의 심볼들을 대표하는 컨텍스트를 결정하는 단계는
    상기 복수의 심볼들의 이진 데이터들 중 "1"의 숫자가 두 개인 심볼들을 대표하는 컨텍스트를 결정하는 것을 특징으로 하는 오디오 신호의 부호화 방법.
  5. 제2항에 있어서, 상기 복수의 심볼들을 대표하는 컨텍스트를 결정하는 단계는
    상기 복수의 심볼들의 이진 데이터들 중 "1"의 숫자가 한 개인 심볼들을 대표하는 컨텍스트를 결정하는 것을 특징으로 하는 오디오 신호의 부호화 방법.
  6. 제2항에 있어서, 상기 현재 비트플레인의 심벌에 대해 부호화하는 단계는
    상기 결정된 컨텍스트를 사용해, 상기 현재 비트플레인의 심벌에 대해 허프만 코딩(huffman coding)을 수행하는 것을 특징으로 하는 오디오 신호의 부호화 방법.
  7. 제2항에 있어서, 상기 현재 비트플레인의 심벌에 대해 부호화하는 단계는
    상기 결정된 컨텍스트를 사용해, 상기 현재 비트플레인의 심벌에 대해 산술 코딩(arithmetic coding)을 수행하는 것을 특징으로 하는 오디오 신호의 부호화 방법.
  8. 제1항 내지 제7항 중 어느 한 항의 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  9. 비트플레인 코딩(bitplane coding) 방식으로 부호화된 오디오 신호를 복호화 할 때, 상위 비트플레인의 복수의 심볼들을 대표하는 컨텍스트(context)를 사용해 상기 오디오 신호를 복호화하는 단계;
    상기 복호화된 오디오 신호를 역양자화하는 단계; 및
    상기 역양자화된 오디오 신호를 역변환하는 단계를 포함하는 것을 특징으로 하는 오디오 신호의 복호화 방법.
  10. 제9항에 있어서, 상기 오디오 신호를 복호화하는 단계는
    상기 결정된 컨텍스트를 사용해, 현재 비트플레인의 심벌에 대해 복호화하는 단계; 및
    상기 복호화된 심벌이 배열된 비트 플래인으로부터 양자화된 샘플을 추출하는 단계를 포함하는 것을 특징으로 하는 오디오 신호의 복호화 방법.
  11. 제9항에 있어서, 상기 오디오 신호를 복호화하는 단계는
    상기 결정된 컨텍스트를 사용해, 상기 오디오 신호에 대해 허프만 디코딩(huffman decoding)을 수행하는 것을 특징으로 하는 오디오 신호의 복호화 방법.
  12. 제9항에 있어서, 상기 오디오 신호를 복호화하는 단계는
    상기 결정된 컨텍스트를 사용해, 상기 오디오 신호에 대해 산술 디코딩(arithmetic decoding)을 수행하는 것을 특징으로 하는 오디오 신호의 복호화 방법.
  13. 제9항 내지 제12항 중 어느 한 항의 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  14. 입력된 오디오 신호를 주파수 영역으로 변환하는 변환부;
    상기 주파수 영역으로 변환된 오디오 신호를 양자화하는 양자화부; 및
    상기 양자화된 오디오 신호를 비트플레인 코딩(bitplane coding) 방식으로 부호화 할 때, 상위 비트플레인의 복수의 심볼들을 대표하는 컨텍스트(context)를 사용해 부호화하는 부호화부를 포함하는 것을 특징으로 하는 오디오 신호의 부호화 장치.
  15. 제14항에 있어서, 상기 부호화부는
    상기 양자화된 오디오 신호의 복수개의 양자화 샘플들을 비트플레인 상에 매 핑하는 매핑부; 및
    상기 상위 비트플레인의 상기 복수의 심볼들을 대표하는 컨텍스트를 결정하는 컨텍스트 결정부; 및
    상기 결정된 컨텍스트를 사용해, 현재 비트플레인의 심벌에 대해 부호화하는 엔트로피 부호화부를 포함하는 것을 특징으로 하는 오디오 신호의 부호화 장치.
  16. 제15항에 있어서, 상기 컨텍스트 결정부는
    상기 복수의 심볼들의 이진 데이터들 중 "1"의 숫자가 세 개 이상인 심볼들을 대표하는 컨텍스트를 결정하는 것을 특징으로 하는 오디오 신호의 부호화 장치.
  17. 제15항에 있어서, 상기 컨텍스트 결정부는
    상기 복수의 심볼들의 이진 데이터들 중 "1"의 숫자가 두 개인 심볼들을 대표하는 컨텍스트를 결정하는 것을 특징으로 하는 오디오 신호의 부호화 장치.
  18. 제15항에 있어서, 상기 컨텍스트 결정부는
    상기 복수의 심볼들의 이진 데이터들 중 "1"의 숫자가 한 개인 심볼들을 대표하는 컨텍스트를 결정하는 것을 특징으로 하는 오디오 신호의 부호화 장치.
  19. 제15항에 있어서, 상기 엔트로피 부호화부는
    상기 결정된 컨텍스트를 사용해, 상기 현재 비트플레인의 심벌에 대해 허프 만 코딩(huffman coding)을 수행하는 것을 특징으로 하는 오디오 신호의 부호화 장치.
  20. 제15항에 있어서, 상기 엔트로피 부호화부는
    상기 결정된 컨텍스트를 사용해, 상기 현재 비트플레인의 심벌에 대해 산술 코딩(arithmetic coding)을 수행하는 것을 특징으로 하는 오디오 신호의 부호화 장치.
  21. 비트플레인 코딩(bitplane coding) 방식으로 부호화된 오디오 신호를 복호화 할 때, 상위 비트플레인의 복수의 심볼들을 대표하는 컨텍스트(context)를 사용해 상기 오디오 신호를 복호화하는 복호화부;
    상기 복호화된 오디오 신호를 역양자화하는 역양자화부; 및
    상기 역양자화된 오디오 신호를 역변환하는 역변환부를 포함하는 것을 특징으로 하는 오디오 신호의 복호화 장치.
  22. 제21항에 있어서, 상기 복호화부는
    상기 결정된 컨텍스트를 사용해, 현재 비트플레인의 심벌에 대해 복호화하고, 상기 복호화된 심벌이 배열된 비트 플래인으로부터 양자화된 샘플을 추출하는 것을 특징으로 하는 오디오 신호의 복호화 장치.
  23. 제21항에 있어서, 상기 복호화부는
    상기 결정된 컨텍스트를 사용해, 상기 오디오 신호에 대해 허프만 디코딩(huffman decoding)을 수행하는 것을 특징으로 하는 오디오 신호의 복호화 장치.
  24. 제21항에 있어서, 상기 복호화부는
    상기 결정된 컨텍스트를 사용해, 상기 오디오 신호에 대해 산술 디코딩(arithmetic decoding)을 수행하는 것을 특징으로 하는 오디오 신호의 복호화 장치.
KR1020060049043A 2005-12-07 2006-05-30 오디오 신호의 부호화 및 복호화 방법, 오디오 신호의부호화 및 복호화 장치 KR101237413B1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
US11/634,251 US8224658B2 (en) 2005-12-07 2006-12-06 Method, medium, and apparatus encoding and/or decoding an audio signal
JP2008544254A JP5048680B2 (ja) 2005-12-07 2006-12-06 オーディオ信号の符号化及び復号化方法、オーディオ信号の符号化及び復号化装置
PCT/KR2006/005228 WO2007066970A1 (en) 2005-12-07 2006-12-06 Method, medium, and apparatus encoding and/or decoding an audio signal
EP06823935.9A EP1960999B1 (en) 2005-12-07 2006-12-06 Method and apparatus encoding an audio signal
CN201110259904.2A CN102306494B (zh) 2005-12-07 2006-12-07 对音频信号编码和解码的方法和设备
CN2006101645682A CN101055720B (zh) 2005-12-07 2006-12-07 对音频信号编码和解码的方法和设备

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US74288605P 2005-12-07 2005-12-07
US60/742,886 2005-12-07

Publications (2)

Publication Number Publication Date
KR20070059849A true KR20070059849A (ko) 2007-06-12
KR101237413B1 KR101237413B1 (ko) 2013-02-26

Family

ID=38356105

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060049043A KR101237413B1 (ko) 2005-12-07 2006-05-30 오디오 신호의 부호화 및 복호화 방법, 오디오 신호의부호화 및 복호화 장치

Country Status (6)

Country Link
US (1) US8224658B2 (ko)
EP (1) EP1960999B1 (ko)
JP (1) JP5048680B2 (ko)
KR (1) KR101237413B1 (ko)
CN (2) CN101055720B (ko)
WO (1) WO2007066970A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100136899A (ko) * 2009-06-19 2010-12-29 삼성전자주식회사 컨텍스트 기반의 산술 부호화 장치 및 방법과 산술 복호화 장치 및 방법

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2183851A1 (fr) * 2007-08-24 2010-05-12 France Telecom Codage/decodage par plans de symboles, avec calcul dynamique de tables de probabilites
KR101756834B1 (ko) 2008-07-14 2017-07-12 삼성전자주식회사 오디오/스피치 신호의 부호화 및 복호화 방법 및 장치
KR101456495B1 (ko) 2008-08-28 2014-10-31 삼성전자주식회사 무손실 부호화/복호화 장치 및 방법
WO2010086342A1 (en) * 2009-01-28 2010-08-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder, method for encoding an input audio information, method for decoding an input audio information and computer program using improved coding tables
KR101622950B1 (ko) * 2009-01-28 2016-05-23 삼성전자주식회사 오디오 신호의 부호화 및 복호화 방법 및 그 장치
EP2491553B1 (en) * 2009-10-20 2016-10-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder, method for encoding an audio information, method for decoding an audio information and computer program using an iterative interval size reduction
CN102792370B (zh) 2010-01-12 2014-08-06 弗劳恩霍弗实用研究促进协会 使用描述有效状态值及区间边界的散列表的音频编码器、音频解码器、编码音频信息的方法及解码音频信息的方法
KR101676477B1 (ko) * 2010-07-21 2016-11-15 삼성전자주식회사 컨텍스트 기반의 무손실 부호화 장치 및 방법, 그리고 복호화 장치 및 방법
EP2469741A1 (en) * 2010-12-21 2012-06-27 Thomson Licensing Method and apparatus for encoding and decoding successive frames of an ambisonics representation of a 2- or 3-dimensional sound field
WO2013002585A2 (ko) * 2011-06-28 2013-01-03 삼성전자 주식회사 엔트로피 부호화/복호화 방법 및 장치
CN106409299B (zh) 2012-03-29 2019-11-05 华为技术有限公司 信号编码和解码的方法和设备
WO2015069177A1 (en) * 2013-11-07 2015-05-14 Telefonaktiebolaget L M Ericsson (Publ) Methods and devices for vector segmentation for coding
EP3324406A1 (en) 2016-11-17 2018-05-23 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for decomposing an audio signal using a variable threshold
EP3324407A1 (en) * 2016-11-17 2018-05-23 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for decomposing an audio signal using a ratio as a separation characteristic
US10950251B2 (en) * 2018-03-05 2021-03-16 Dts, Inc. Coding of harmonic signals in transform-based audio codecs
EP4283877A3 (en) * 2018-06-21 2024-01-10 Sony Group Corporation Encoder and encoding method, decoder and decoding method, and program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE511186C2 (sv) * 1997-04-11 1999-08-16 Ericsson Telefon Ab L M Förfarande och anordning för att koda datasekvenser
SE512291C2 (sv) 1997-09-23 2000-02-28 Ericsson Telefon Ab L M Inbäddad DCT-baserad stillbildskodningsalgoritm
AUPQ982400A0 (en) 2000-09-01 2000-09-28 Canon Kabushiki Kaisha Entropy encoding and decoding
JP2002368625A (ja) 2001-06-11 2002-12-20 Fuji Xerox Co Ltd 符号量予測装置、符号化選択装置および符号化装置ならびにその方法
US7110941B2 (en) * 2002-03-28 2006-09-19 Microsoft Corporation System and method for embedded audio coding with implicit auditory masking
JP3990949B2 (ja) 2002-07-02 2007-10-17 キヤノン株式会社 画像符号化装置及び画像符号化方法
KR100908117B1 (ko) * 2002-12-16 2009-07-16 삼성전자주식회사 비트율 조절가능한 오디오 부호화 방법, 복호화 방법,부호화 장치 및 복호화 장치
KR100561869B1 (ko) 2004-03-10 2006-03-17 삼성전자주식회사 무손실 오디오 부호화/복호화 방법 및 장치
KR101050261B1 (ko) * 2004-07-14 2011-07-19 에이전시 포 사이언스, 테크놀로지 앤드 리서치 콘텍스트 기반의 신호 엔코딩 및 디코딩
US7161507B2 (en) * 2004-08-20 2007-01-09 1St Works Corporation Fast, practically optimal entropy coding
US7196641B2 (en) * 2005-04-26 2007-03-27 Gen Dow Huang System and method for audio data compression and decompression using discrete wavelet transform (DWT)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100136899A (ko) * 2009-06-19 2010-12-29 삼성전자주식회사 컨텍스트 기반의 산술 부호화 장치 및 방법과 산술 복호화 장치 및 방법
KR20170035855A (ko) * 2009-06-19 2017-03-31 삼성전자주식회사 컨텍스트 기반의 산술 복호화 장치 및 방법
US9959879B2 (en) 2009-06-19 2018-05-01 Samsung Electronics Co., Ltd. Context-based arithmetic encoding apparatus and method and context-based arithmetic decoding apparatus and method

Also Published As

Publication number Publication date
KR101237413B1 (ko) 2013-02-26
EP1960999A1 (en) 2008-08-27
JP5048680B2 (ja) 2012-10-17
JP2009518934A (ja) 2009-05-07
CN102306494B (zh) 2014-07-02
CN101055720A (zh) 2007-10-17
CN102306494A (zh) 2012-01-04
US20070127580A1 (en) 2007-06-07
US8224658B2 (en) 2012-07-17
CN101055720B (zh) 2011-11-02
EP1960999B1 (en) 2013-07-03
EP1960999A4 (en) 2010-05-12
WO2007066970A1 (en) 2007-06-14

Similar Documents

Publication Publication Date Title
KR101237413B1 (ko) 오디오 신호의 부호화 및 복호화 방법, 오디오 신호의부호화 및 복호화 장치
US6675148B2 (en) Lossless audio coder
US7974840B2 (en) Method and apparatus for encoding/decoding MPEG-4 BSAC audio bitstream having ancillary information
KR100908117B1 (ko) 비트율 조절가능한 오디오 부호화 방법, 복호화 방법,부호화 장치 및 복호화 장치
USRE46082E1 (en) Method and apparatus for low bit rate encoding and decoding
JP4925671B2 (ja) デジタル信号の符号化/復号化方法及びその装置並びに記録媒体
JP2006011456A (ja) 低ビット率符号化/復号化方法及び装置並びにコンピュータ可読媒体
JPH10285042A (ja) ビット率の調節可能なオーディオデータ符号化/復号化方法及び装置
KR20070037945A (ko) 오디오 신호의 부호화/복호화 방법 및 장치
US20040181395A1 (en) Scalable stereo audio coding/decoding method and apparatus
KR101015497B1 (ko) 디지털 데이터의 부호화/복호화 방법 및 장치
KR100682915B1 (ko) 다채널 신호 부호화/복호화 방법 및 장치
JP3353868B2 (ja) 音響信号変換符号化方法および復号化方法
KR100300887B1 (ko) 디지털 오디오 데이터의 역방향 디코딩 방법
KR100754389B1 (ko) 음성 및 오디오 신호 부호화 장치 및 방법
KR100928966B1 (ko) 저비트율 부호화/복호화방법 및 장치
Ghido et al. Accounting for companding nonlinearities in lossless audio compression
KR20040051369A (ko) 비트율 조절가능한 오디오 부호화 방법, 복호화 방법,부호화 장치 및 복호화 장치
KR100940532B1 (ko) 저비트율 복호화방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160128

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170125

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee