KR20070028373A - 음성음악 복호화 장치 및 음성음악 복호화 방법 - Google Patents

음성음악 복호화 장치 및 음성음악 복호화 방법 Download PDF

Info

Publication number
KR20070028373A
KR20070028373A KR1020067024640A KR20067024640A KR20070028373A KR 20070028373 A KR20070028373 A KR 20070028373A KR 1020067024640 A KR1020067024640 A KR 1020067024640A KR 20067024640 A KR20067024640 A KR 20067024640A KR 20070028373 A KR20070028373 A KR 20070028373A
Authority
KR
South Korea
Prior art keywords
sound source
quantized
information
lsp
decoding
Prior art date
Application number
KR1020067024640A
Other languages
English (en)
Inventor
가오루 사토
도시유키 모리이
도모후미 야마나시
Original Assignee
마츠시타 덴끼 산교 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마츠시타 덴끼 산교 가부시키가이샤 filed Critical 마츠시타 덴끼 산교 가부시키가이샤
Publication of KR20070028373A publication Critical patent/KR20070028373A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

스케일러블 부호화 방식에 있어서 프레임 소거의 은폐 처리로 생성되는 복호화 신호의 품질 향상을 꾀할 수 있는 음성 음악 복호화 장치에 관한 것이다.
이 음성음악 복호화 장치에서는, 프레임 손실 검출부(152)는 부호화 정보가 정상적으로 수신되고 있는지 어떤지를 판정하고, 판정 결과를 나타내는 프레임 손실 정보를 생성한다. 제 1 복호화부(153)는, 프레임 손실 정보에 따라 직전 프레임의 제 1 부호화 정보와 현재 프레임의 제 1 부호화 정보와 현재 프레임의 제 2 부호화 정보에서 적어도 1 개 이상의 부호화 정보를 복호화시에 이용한다. 제 2 복호화부(154)는, 프레임 손실 정보에 따라, 직전 프레임의 제 1 부호화 정보와 현재 프레임의 제 1 부호화 정보와 직전 프레임의 제 2 부호화 정보와 현재 프레임의 제 2 부호화 정보에서 적어도 1개 이상의 부호화 정보를 복호화시에 이용한다. 가산기(155)는, 제 1 복호화부(153)로부터 출력된 복호화 신호와 제 2 복호화부(154)로부터 출력된 복호화 신호를 가산한다.

Description

음성음악 복호화 장치 및 음성음악 복호화 방법{AUDIO/MUSIC DECODING DEVICE AND AUDIO/MUSIC DECODING METHOD}
본 발명은 음성음악(樂音) 신호를 부호화해서 전송하는 통신 시스템에 있어서 사용되는 음성음악 복호화 장치 및 음성음악 복호화 방법에 관한 것이다.
디지털 무선 통신이나, 인터넷 통신으로 대표되는 패킷 통신, 혹은 음성 축적 등의 분야에 있어서는, 전파 등의 전송로 용량이나 기억 매체의 유효 이용을 꾀하기 위해, 음성 신호의 부호화/복호화 기술이 불가결하며, 지금까지 많은 음성 부호화/복호화 방식이 개발되어 왔다. 그 중에서, CELP 방식의 음성 부호화/복호화 방식이 주류 방식으로서 실용화되어 있다 (예를 들면, 비특허 문헌 1 참조).
CELP 방식의 음성 부호화 장치는, 미리 기억된 음성 모델에 기초하여 입력 음성을 코드화한다. 구체적으로는, 디지털화된 음성 신호를 10~20 ms정도의 프레임으로 단락지어, 프레임마다 음성 신호의 선형 예측 분석을 행하고, 선형 예측 계수와 선형 예측 잔차 벡터를 구해, 선형 예측 계수와 선형 예측 잔차 벡터를 각각 개별적으로 부호화한다. 그리고, 낮은 비트레이트(bit rate)의 통신을 실행하기 위해서는, 기억할 수 있는 음성 모델의 양이 한정되기 때문에, 종래의 CELP 타입의 음성 부호화/복호화 방식은 주로 발성음의 모델을 기억하고 있다.
또, 인터넷 통신과 같은 패킷을 전송하는 통신 시스템에서는, 네트워크 상태로 인해 패킷 손실이 일어나기 때문에, 부호화 정보의 일부가 손실된 경우라 하더라도 부호화 정보의 나머지의 일부로부터 음성, 음악을 복호화할 수 있는 것이 바람직하다. 마찬가지로, 통신 용량에 따라 비트레이트를 변화시키는 가변 레이트 통신 시스템에 있어서는, 통신 용량이 저하했을 때, 부호화 정보의 일부만을 전송함으로써 통신용량의 부담을 경감시키는 일이 용이한 것이 바람직하다. 이와 같이, 부호화 정보의 전부 또는 부호화 정보의 일부만을 이용해 음성, 음악을 복호화할 수 있는 기술로서 최근, 스케일러블(scalable) 부호화 기술이 주목을 받고 있다. 종래에도 몇가지 스케일러블 부호화 방식이 개시되어 있다(예를 들면, 특허 문헌 1 참조).
스케일러블 부호화 방식은, 일반적으로, 기본 레이어와 복수의 확장 레이어로 이루어지며, 각 레이어는 기본 레이어를 가장 하위의 레이어로 하여 계층 구조를 형성하고 있다. 그리고, 각 레이어에서는, 보다 하위 레이어의 입력 신호와 출력 신호의 차(差)인 잔차 신호에 대해 부호화가 행해진다. 이 구성을 이용하여, 모든 레이어의 부호화 정보 또는 하위 레이어의 부호화 정보만을 이용해서 음성 음악을 복호화할 수 있다.
또, 상기 패킷을 전송하는 통신 시스템에서는, 패킷 손실 등으로 인해 복호화 장치 측에서 부호화 정보를 수신할 수 없는 경우, 소실 보상(은폐) 처리를 행함 으로써 복호화 음성 신호의 열화를 어느 정도 억제할 수 있다. 예를 들면, ITU-T권고 G. 729등에서는 복호화 알고리즘의 일부로서 프레임 소거의 은폐 방법이 규정되어 있다.
소실 보상(은폐) 처리는, 일반적으로, 사전에 수신한 프레임에 포함되어 있는 부호화 정보를 바탕으로 현재 프레임을 재생한다. 예를 들면, 손실한 프레임의 직전 프레임에 포함되어 있는 부호화 정보를 손실한 프레임의 부호화 정보로서 이용하거나, 직전의 프레임에 포함되어 있는 부호화 정보를 이용해 생성하는 복호화 신호의 에너지를 서서히 감쇠시키는 등의 방법을 이용하여, 손실한 프레임의 복호화 음성 신호를 만들어 낸다.
[특허 문헌 1] 특허공개평성 10-97295호 공보
[비특허 문헌 1]
M.R.Schroeder, B.S.Atal, "Code Excited Linear Prediction: High Quality Speech at Low Bit Rate", IEEE proc., ICASSP'85 pp.937-940
발명의 개시
발명이 해결하려고 하는 과제
그렇지만, 종래의 소실 보상(은폐) 처리에 있어서는, 손실한 프레임의 직전 프레임에 포함되어 있는 부호화 정보를 이용하여 복호화 음성 신호를 재생할 뿐이어서, 복호화 음성 신호의 열화는 어느 정도 억제할 수 있지만, 복호화 음성 신호의 품질은 충분하다고는 말할 수 없다. 또, 스케일러블 부호화 방식에 있어서는, 일반적으로, 기본 레이어의 부호화 정보의 중요도는 높으며, 기본 레이어의 부호화 정보가 프레임 소실로 인해 잃게 된 경우, 직전 프레임에 포함되어 있는 부호화 정보를 이용해 복호화 음성 신호를 재생하는 것 만으로는, 충분한 품질의 복호화 음성 신호를 얻을 수는 없다.
본 발명의 목적은 스케일러블 부호화 방식에 있어서, 프레임 소실이 발생하여 부호화 정보가 없어진 경우라 하더라도, 충분한 품질의 복호화 음성 신호를 얻을 수 있는 음성음악 복호화 장치 및 음성음악 복호화 방법을 제공하는 것이다.
과제를 해결하기 위한 수단
본 발명의 음성음악 복호화 장치는, 스케일러블 부호화를 이용하여 복수 계층으로 구성된 부호화 정보를 복호화하여 복호화 신호를 생성하는 음성음악 복호화 장치로서, 수신된 프레임의 상기 각 계층의 부호화 정보가 정상인지 아닌지를 판정하고, 판정 결과인 프레임 손실 정보를 생성하는 프레임 손실 검출 수단과, 상기 프레임 손실 정보에 따라 상기 수신된 부호화 정보와 과거에 수신된 복수의 부호화 정보로부터 각 계층의 복호화에 이용하는 부호화 정보를 결정하고, 결정한 부호화 정보를 이용해 복호화를 행함으로써 복호화 신호를 생성하는 상기 계층과 동일한 수(數)의 복호화 수단을 구비하는 구성을 취한다.
본 발명의 음성음악 복호화 방법은, 스케일러블 부호화를 이용하여 복수 계층으로 구성된 부호화 정보를 복호화하여 복호화 신호를 생성하는 음성음악 복호화 방법으로서, 수신된 프레임의 상기 각 계층의 부호화 정보가 정상인지 아닌지를 판 정하고, 판정 결과인 프레임 손실 정보를 생성하는 프레임 손실 검출 공정과, 상기 프레임 손실 정보에 따라 상기 수신된 부호화 정보와 과거에 수신된 복수의 부호화 정보로부터 각 계층의 복호화에 이용하는 부호화 정보를 결정하고, 결정한 부호화 정보를 이용해 복호화를 행함으로써 복호화 신호를 생성하는 상기 계층과 동일한 수(數)의 복호화 공정을 구비하는 방법을 취한다.
발명의 효과
본 발명에 의하면, 과거에 얻어진 부호화 정보에 추가하여, 다른 부호화부에 의해 얻어진 부호화 정보를 이용해 복호화 신호를 얻음으로써, 과거에 얻어진 부호화 정보만을 이용하는 경우에 비해, 복호화 음성 신호의 품질 향상을 꾀할 수 있다.
도 1은 본 발명의 실시예 1에 따른 부호화 장치 및 복호화 장치의 구성을 나타내는 블록도,
도 2는 본 발명의 실시예 1에 따른 제 1 부호화부의 내부 구성을 나타내는 블록도,
도 3은 적응 음원 래그(lag)를 결정하는 처리를 설명하기 위한 도면,
도 4는 고정 음원 벡터를 결정하는 처리를 설명하기 위한 도면,
도 5는 본 발명의 실시예 1에 따른 제 1 국소(局所) 복호화부의 내부 구성을 나타내는 블록도,
도 6은 본 발명의 실시예 1에 따른 제 2 부호화부의 내부 구성을 나타내는 블록도,
도 7은 적응 음원 래그를 결정하는 처리에 대해 간단하게 설명하기 위한 도면,
도 8은 본 발명의 실시예 1에 따른 제 1 복호화부의 내부 구성을 나타내는 블록도,
도 9는 본 발명의 실시예 1에 따른 제 2 복호화부의 내부 구성을 나타내는 블록도,
도 10은 본 발명의 실시예 1에 따른 부호화 정보 조작부의 내부 구성을 나타내는 블록도,
도 11은 본 발명의 실시예 1에 따른 부호화 정보 조작부의 내부 구성을 나타내는 블록도,
도 12는 본 발명의 실시예 1에 따른 프레임 손실 정보 및 복호화부에서 이용하는 파라미터를 나타내는 도면,
도 13은 제 2 부호화 정보를 추가함으로써 품질이 향상하는 원리를 시각적으로 설명하기 위한 도면,
도 14a는 본 발명의 실시예 2에 따른 음성음악 송신 장치의 구성을 나타내는 블록도,
도 14b는 본 발명의 실시예 2에 따른 음성음악 수신장치의 구성을 나타내는 블록도.
발명을 실시하기 위한 최선의 형태
본 발명의 골자는, 복수의 부호화부로 구성되는 스케일러블 부호화 방식에 있어서, 각각의 부호화부로부터 부호화 정보를 출력해 복호화 장치측에 전송하고, 부호화 정보가 손실없이 전송되었는지 어떤지를 복호화 장치측에서 판정하여, 부호화 정보의 손실이 검출된 경우에는, 손실한 프레임의 직전 프레임의 부호화 정보에 추가하여, 다른 부호화부로부터 출력된 부호화 정보를 이용해 복호화를 행함으로써, 복호화 음성 신호의 품질향상을 꾀하는 것이다.
이하, 본 발명의 실시예에 대해서, 첨부 도면을 참조하여 상세히 설명한다.
또한, 이때 CELP 방식의 음성음악 부호화/복호화를 행하는 경우를 예로 들어 설명한다.
(실시예 1)
도 1은 본 발명의 실시예 1에 따른 부호화 장치(100) 및 복호화 장치(150)의 주요한 구성을 나타내는 블록도이다.
부호화 장치(100)는 제 1 부호화부(101)와, 제 1 국소(局所) 복호화부(102)와, 가산기(103)와, 제 2 부호화부(104)와, 판정부(105)와, 다중화부(106)로 주로 구성된다. 또, 복호화 장치(150)는 다중화 분리부(151)와, 프레임 손실 검출부(152)와, 제 1 복호화부(153)와, 제 2 복호화부(154)와, 가산기(155)로 주로 구 성된다. 부호화 장치(100)로부터 출력되는 부호화 정보는 전송로(130)를 경유하여 복호화 장치(150)에 전송된다.
이하에서 부호화 장치(100)의 각 부의 처리에 대해 설명한다. 제 1 부호화부(101)와 가산기(103)에는 입력 신호인 음성음악 신호가 입력된다.
제 1 부호화부(101)는 입력된 음성음악 신호로부터 CELP 방식의 음성음악 부호화 방법을 이용하여 제 1 부호화 정보를 구하고, 구한 제 1 부호화 정보를 제 1 국소 복호화부(102)와 다중화부(106)에 출력한다.
제 1 국소 복호화부(102)는 제 1 부호화부(101)로부터 출력된 제 1 부호화 정보를 CELP 방식의 음성음악 복호화 방법을 이용해서 제 1 복호화 신호로 복호화하고, 이 복호화에 의해 구해지는 복호화 신호를 가산기(103)에 출력한다.
가산기(103)는 입력된 음성음악 신호에 제 1 국소 복호화부(102)로부터 출력된 제 1 복호화 신호를 극성 반전시킨 뒤 가산하고, 가산 결과인 잔차 신호를 제 2 부호화부(104)에 출력한다.
제 2 부호화부(104)는 가산기(103)로부터 출력된 잔차 신호로부터, CELP 방식의 음성음악 부호화 방법을 이용해, 제 2 부호화 정보를 구하고, 구한 제 2 부호화 정보를 다중화부(106)에 출력한다.
판정부(105)는 후술하는 방법을 이용하여 플래그(flag) 정보를 생성하고, 이것을 다중화부(106)에 출력한다. 여기서, 「플래그 정보」란, 복호화 장치(150)에 있어서, 제 1 부호화 정보의 손실이 검출된 경우, 제 1 복호화부(153)가 복호화에 이용하는 부호화 정보로서 제 2 부호화 정보를 포함시키는지 포함시키지 않는지를 지시하는 정보이다. 여기서는, 플래그 정보로서 「0」 또는 「1」의 값을 이용한다. 플래그 정보가 「0」인 경우, 제 1 복호화부(153)는 이전 프레임의 제 1 부호화 정보만을 이용해 복호화를 행하고, 플래그 정보가 「1」인 경우, 제 1 복호화부(153)는 이전 프레임의 제 1 부호화 정보와 제 2 부호화 정보를 이용해서 복호화를 행한다.
다중화부(106)는 제 1 부호화부(101)로부터 출력된 제 1 부호화 정보와, 제 2 부호화부(104)로부터 출력된 제 2 부호화 정보와, 판정부(105)로부터 출력된 플래그 정보를 다중화하여 다중화 정보로서 전송로(130)에 출력한다.
본 명세서에서는, 부호화 장치(100)에 있어서, 프레임 단위로 음성음악 신호의 부호화 처리를 행하고, 1 프레임의 제 1 부호화 정보와 제 2 부호화 정보를 각각 1개의 패킷에 격납하여 전송하는 것을 상정하고 있다. 따라서, 1개의 프레임에는 제 1 부호화 정보가 격납된 패킷 및 제 2 부호화 정보가 격납된 패킷의 2개의 패킷이 존재한다. 상기 2개의 패킷은 1 프레임마다 복호화 장치(150)에 전송되고, 패킷 손실이 발생한 경우, 제 1 부호화 정보와 제 2 부호화 정보 중의 적어도 1개 이상의 부호화 정보가 없어진다.
다음에, 복호화 장치(150)의 각 부의 처리에 대해 설명한다. 다중화 분리부(151)는 부호화 장치(100)로부터 전송된 다중화 정보를, 제 1 부호화 정보, 제 2 부호화 정보 및 플래그 정보로 분리하고, 분리된 제 1 및 제 2 부호화 정보를 프레임 손실 검출부(152)에 출력하고, 플래그 정보를 제 1 복호화부(153)에 출력한다.
프레임 손실 검출부(152)는 다중화 분리부(151)로부터 출력된 제 1 및 제 2 부호화 정보가 정상적으로 수신되어 있는지 어떤지를 판정하고, 판정 결과를 나타내는 프레임 손실 정보를 생성한다. 또한, 프레임 손실의 검출 방법으로서 예를 들면, 패킷에 첨부되어 있는 식별 정보를 감시하는 방법이 알려져 있다. 예를 들면, 패킷의 시퀀스 번호(패킷 번호), 패킷이 생성된 시각을 나타내는 타임 스탬프 등, 패킷에 첨부되어 있는 식별 정보를 수신측에서 감시하고, 이러한 식별 정보의 불연속성을 검지함으로써, 패킷의 손실을 검출한다. 식별 정보로서, 예를 들면, 통신 프로토콜의 TCP/IP의 시퀀스 번호, UDP/IP의 시퀀스 번호, 타임 스탬프 정보 등을 이용할 수 있다.
여기에서는, 프레임 손실 정보로서 「0」~「3」의 값을 이용한다. 프레임 손실 정보는, 제 1 부호화 정보와 제 2 부호화 정보가 모두 정상적으로 수신되지 않았을 경우에 「0」의 값을 취하고, 제 1 부호화 정보는 정상적으로 수신되고 제 2 부호화 정보는 정상적으로 수신되지 않았을 경우에 「1」의 값을 취하고, 제 2 부호화 정보는 정상적으로 수신되고 제 1 부호화 정보는 정상적으로 수신되지 않았을 경우에 「2」의 값을 취하고, 제 1 부호화 정보와 제 2 부호화 정보가 모두 정상적으로 수신되었을 경우에 「3」의 값을 취한다. 다음에, 프레임 손실 검출부(152)는 프레임 손실 정보를 제 1 복호화부(153)와 제 2 복호화부(154)에 출력한다. 다음에, 프레임 손실 검출부(152)는 정상적으로 수신된 부호화 정보를 대응하는 복호화부에 출력한다. 구체적으로는, 프레임 손실 검출부(152)는, 프레임 손실 정보가 「1」 또는 「3」인 경우(제 1 부호화 정보가 정상적으로 수신된 경우), 제 1 부호화 정보를 제 1 복호화부(153)에 출력하고, 프레임 손실 정보가 「2」 또는 「3」인 경우(제 2 부호화 정보가 정상적으로 수신된 경우), 제 2 부호화 정보를 제 2 복호화부(154)에 출력한다.
제 1 복호화부(153)는, 다중화 분리부(151)로부터 플래그 정보를 입력하고, 프레임 손실 검출부(152)로부터 프레임 손실 정보를 입력한다. 또, 제 1 복호화부(153)는 직전 프레임의 제 1 부호화 정보를 기억하는 버퍼를 내부에 구비하여, 현재 프레임의 제 1 부호화 정보가 정상적으로 수신되지 않았을 경우는, 버퍼에 기억되어 있는 직전 프레임의 제 1 부호화 정보를 복호화 시에 이용한다.
다음에, 제 1 복호화부(153)는 프레임 손실 정보를 참조하여, 프레임 손실 정보가 「1」 또는 「3」인 경우(제 1 부호화 정보가 정상적으로 수신된 경우)는, 프레임 손실 검출부(152)로부터 제 1 부호화 정보를 입력하여, CELP 방식의 음성음악 복호화 방법을 이용해서 제 1 부호화 정보를 복호화하고, 프레임 손실 정보가 「0」인 경우는, CELP 방식의 음성음악 복호화 방법을 이용해서 직전 프레임의 제 1 부호화 정보를 복호화하고, 프레임 손실 정보가 「2」인 경우는, 제 2 복호화부(154)로부터 제 2 부호화 정보를 입력하여, CELP 방식의 음성음악 복호화 방법을 이용해서 제 2 부호화 정보와 직전 프레임의 제 1 부호화 정보에서 구해지는 부호화 정보를 복호화한다. 또한, 제 1 복호화부(153)는, 플래그 정보가 「0」인 경우는 제 2 부호화 정보를 사용하지 않는다.
이와 같이, 본 실시예에서는, 제 1 부호화 정보가 정상적으로 수신된 경우는 제 1 부호화 정보를 복호화하고, 제 1 부호화 정보가 정상적으로 수신되지 않았을 경우는 직전의 프레임에 포함되어 있는 제 1 부호화 정보를 복호화한다. 또, 본 실시예에서는, 제 2 부호화 정보가 정상적으로 수신되고, 제 1 부호화 정보가 정상적으로 수신되지 않았을 경우는, 직전의 프레임에 포함되어 있는 제 1 부호화 정보에 추가하여 제 2 부호화 정보를 이용함으로써, 더욱 복호화 신호의 품질 향상을 꾀하고 있다.
다음에, 제 1 복호화부(153)는, 복호화에 의해 구해진 제 1 복호화 신호를 가산기(155)에 출력한다. 또, 제 1 복호화부(153)는 프레임 손실 정보가 「1」 또는 「3」인 경우, 제 1 부호화 정보를 제 2 복호화부(154)에 출력한다. 또, 제 1 복호화부(153)는 프레임 손실 정보가 「0」 또는 「2」인 경우, 직전 프레임의 제 1 부호화 정보를 제 2 복호화부(154)에 출력한다.
또한, 제 1 복호화부(153)에 있어서의 구체적인 부호화 정보의 복호화 방법에 대해서는 후술한다.
제 2 복호화부(154)는 프레임 손실 검출부(152)로부터 프레임 손실 정보를 입력한다. 또, 제 2 복호화부(154)는 직전 프레임의 제 2 부호화 정보를 기억하는 버퍼를 내부에 구비하고, 현재 프레임의 제 2 부호화 정보가 정상적으로 수신되지 않았을 경우는, 버퍼에 기억되어 있는 직전 프레임의 제 2 부호화 정보를 복호화 시에 이용한다.
다음에, 제 2 복호화부(154)는 프레임 손실 정보를 참조하여, 프레임 손실 정보가 「3」인 경우는 프레임 손실 검출부(152)로부터 제 2 부호화 정보를 입력하여, CELP 방식의 음성음악 복호화 방법을 이용해 제 2 부호화 정보를 복호화하고, 프레임 손실 정보가 「2」인 경우는 프레임 손실 검출부(152)로부터 제 2 부호화 정보를 입력하고, 제 1 복호화부(153)로부터 직전 프레임의 제 1 부호화 정보를 입력하여, CELP 방식의 음성음악 복호화 방법을 이용해 제 2 부호화 정보와 직전 프레임의 제 1 부호화 정보에서 구해지는 부호화 정보를 복호화하고, 프레임 손실 정보가 「1」인 경우는 제 1 복호화부(153)로부터 제 1 부호화 정보를 입력하여, CELP 방식의 음성음악 복호화 방법을 이용해 제 1 부호화 정보와 직전 프레임의 제 2 부호화 정보에서 구해지는 부호화 정보를 복호화하고, 프레임 손실 정보가 「0」인 경우는 제 1 복호화부(153)로부터 직전 프레임의 제 1 부호화 정보를 입력하여, CELP 방식의 음성음악 복호화 방법을 이용해 직전 프레임의 제 1 부호화 정보와 직전 프레임의 제 2 부호화 정보에서 구해지는 부호화 정보를 복호화한다.
이와 같이, 제 2 복호화부(154)는 제 2 부호화 정보가 정상적으로 수신되었을 경우는 제 2 부호화 정보와, 제 1 부호화 정보 또는 직전 프레임의 제 1 부호화 정보를 이용해 복호화를 행하고, 제 2 부호화 정보가 정상적으로 수신되지 않았을 경우는, 직전 프레임의 제 2 부호화 정보와, 제 1 부호화 정보 또는 직전 프레임의 제 1 부호화 정보를 이용해서 복호화를 행한다.
다음에, 제 2 복호화부(154)는 복호화에 의해 구해진 제 2 복호화 신호를 가산기(155)에 출력한다. 또, 제 2 복호화부(154)는 프레임 손실 정보가 「2」인 경우 제 2 부호화 정보를 제 1 복호화부(153)에 출력한다.
또한, 제 2 복호화부(154)에 있어서의 구체적인 부호화 정보의 복호화 방법에 대해서는 후술한다.
가산기(155)는 제 1 복호화부(153)로부터 제 1 복호화 신호를, 제 2 복호화 부(154)로부터 제 2 복호화 신호를 입력하여, 제 1 복호화 신호와 제 2 복호화 신호를 가산하고, 가산 결과인 복호화 신호를 출력 신호로서 출력한다.
다음에, 부호화 장치(100)의 제 1 부호화부(101)의 내부 구성에 대해 설명한다. 도 2는 제 1 부호화부(101)의 내부 구성을 나타내는 블록도이다. 제 1 부호화부(101)는 입력되는 음성음악 신호를 N샘플씩 단락지어(N은 자연수), N샘플을 1 프레임으로 하여 프레임마다 부호화를 행한다.
제 1 부호화부(101)의 입력 신호는, 사전 처리부(201)에 입력된다. 사전 처리부(201)는 DC성분을 없애는 하이패스 필터 처리나 후속하는 부호화 처리의 성능 개선으로 이어질만한 파형 정형 처리나 프리엠퍼시스(preemphasis) 처리를 행하고, 이러한 처리 후의 신호(Xin)를 LSP 분석부(202) 및 가산기(205)에 출력한다.
LSP 분석부(202)는 Xin를 이용해 선형 예측 분석을 행하고, 분석 결과인 LPC(선형 예측 계수)를 LSP(Line Spectral Pairs)로 변환하고, 변환 결과를 제 1 LSP로서 LSP 양자화부(203)와 판정부(105)에 출력한다.
LSP 양자화부(203)는 LSP 분석부(202)로부터 출력된 제 1 LSP의 양자화 처리를 행하고, 양자화된 제 1 LSP(제 1 양자화 LSP)를 합성 필터(204)에 출력한다. 또, LSP 양자화부(203)는 제 1 양자화 LSP를 나타내는 제 1 양자화 LSP 부호(L1)를 다중화부(214)에 출력한다.
합성 필터(204)는 제 1 양자화 LSP에 기초하는 필터 계수에 의해, 후술하는 가산기(211)로부터 출력되는 구동 음원에 대해 필터 합성을 행함으로써 합성 신호를 생성하고, 합성 신호를 가산기(205)에 출력한다.
가산기(205)는 합성 신호의 극성을 반전시켜 Xin에 가산함으로써 오차 신호를 산출하고, 오차 신호를 청각 보정부(212)에 출력한다.
적응 음원 코드북(206)은, 과거에 가산기(211)에 의해 출력된 구동 음원을 버퍼에 기억하고 있으며, 파라미터 결정부(213)로부터 출력되는 신호에 의해 특정되는 잘라내는 위치에서 1 프레임 분의 샘플을 버퍼에서 잘라내어, 제 1 적응 음원 벡터로서 곱셈기(209)에 출력한다. 또, 적응 음원 코드북(206)은 가산기(211)로부터 구동 음원을 입력할 때마다 버퍼의 업데이터를 행한다.
양자화 이득 생성부(207)는 파라미터 결정부(213)로부터 출력되는 신호를 이용하여, 제 1 양자화 적응 음원 이득과 제 1 양자화 고정 음원 이득을 결정하고, 이들을 각각 곱셈기(209)와 곱셈기(210)에 출력한다.
고정 음원 코드북(208)은 파라미터 결정부(213)로부터 출력된 신호에 의해 특정되는 형상을 가지는 벡터를 제 1 고정 음원 벡터로서 곱셈기(210)에 출력한다.
곱셈기(209)는 양자화 이득 생성부(207)로부터 출력된 제 1 양자화 적응 음원 이득을 적응 음원 코드북(206)으로부터 출력된 제 1 적응 음원 벡터에 곱하여, 가산기(211)에 출력한다. 곱셈기(210)는 양자화 이득 생성부(207)로부터 출력된 제 1 양자화 고정 음원 이득을 고정 음원 코드북(208)으로부터 출력된 제 1 고정 음원 벡터에 곱하여, 가산기(211)에 출력한다.
가산기(211)는 이득 곱셈 후의 제 1 적응 음원 벡터와 제 1 고정 음원 벡터를 각각 곱셈기(209)와 곱셈기(210)로부터 입력하여, 이득 곱셈 후의 제 1 적응 음원 벡터와 제 1 고정 음원 벡터를 가산하고, 가산 결과인 구동 음원을 합성 필 터(204) 및 적응 음원 코드북(206)에 출력한다. 또한, 적응 음원 코드북(206)에 입력된 구동 음원은 버퍼에 기억된다.
청각 보정부(212)는 가산기(205)로부터 출력된 오차 신호에 대해서 청각적인 보정을 행하여, 부호화 왜곡으로서 파라미터 결정부(213)에 출력한다.
파라미터 결정부(213)는 청각 보정부(212)로부터 출력되는 부호화 왜곡을 최소로 하는 제 1 적응 음원 래그를 적응 음원 코드북(206)에서 선택하고, 선택 결과를 나타내는 제 1 적응 음원 래그 부호(A1)를 다중화부(214)에 출력한다.
여기서, 「제 1 적응 음원 래그」란, 제 1 적응 음원 벡터를 잘라내는 위치이며, 상세한 설명은 후술한다. 또, 파라미터 결정부(213)는 청각 보정부(212)로부터 출력되는 부호화 왜곡을 최소로 하는 제 1 고정 음원 벡터를 고정 음원 코드북(208)에서 선택하고, 선택 결과를 나타내는 제 1 고정 음원 벡터 부호(F1)를 다중화부(214)에 출력한다. 또, 파라미터 결정부(213)는 청각 보정부(212)로부터 출력되는 부호화 왜곡을 최소로 하는 제 1 양자화 적응 음원 이득과 제 1 양자화 고정 음원 이득을 양자화 이득 생성부(207)에서 선택하고, 선택 결과를 나타내는 제 1 양자화 음원 이득 부호(G1)를 다중화부(214)에 출력한다.
다중화부(214)는 LSP 양자화부(203)로부터 제 1 양자화 LSP 부호(L1)를 입력하고, 파라미터 결정부(213)로부터 제 1 적응 음원 래그 부호(A1), 제 1 고정 음원 벡터 부호(F1) 및 제 1 양자화 음원 이득 부호(G1)를 입력하고, 이러한 정보를 다중화하여 제 1 부호화 정보로서 출력한다.
다음에, LSP 양자화부(203)가 제 1 양자화 LSP를 결정하는 처리를, 제 1 양 자화 LSP 부호(L1)에 할당하는 비트수를 「8」로 하여, 제 1 LSP를 벡터 양자화하는 경우를 예로 들어 간단하게 설명한다.
LSP 양자화부(203)는, 미리 작성된 256 종류의 제 1 LSP 코드 벡터 lsp1 (l1)(i)가 격납된 제 1 LSP 코드북를 구비한다. 여기서, l1는 제 1 LSP 코드 벡터에 붙여진 인덱스이며 0~255의 값을 취한다. 또, 제 1 LSP 코드 벡터 lsp1 ( l1 )(i)는 N차원의 벡터이며, i는 0~N-1의 값을 취한다. LSP 양자화부(203)는 LSP 분석부(202)로부터 출력된 제 1 LSPα(i)를 입력한다. 여기서, 제 1 LSPα(i)는 N차원의 벡터이다.
다음에, LSP 양자화부(203)는, 식(1)을 이용하여 제 1 LSPα(i)와 제 1 LSP 코드 벡터lsp1 ( l1 )(i)의 제곱 오차 er1를 구한다.
Figure 112006086182803-PCT00001
다음에, LSP 양자화부(203)는 모든l1에 대해 제곱 오차er1를 구하고, 제곱 오차er1가 최소가 되는 l1의 값(l1min)을 결정한다. 다음에, LSP 양자화부(203)는 l1min를 제 1 양자화 LSP 부호(L1)로서 다중화부(214)에 출력하고, 또, lsp1 ( l1min )(i)를 제 1 양자화 LSP로서 합성 필터(204)에 출력한다.
이와 같이, LSP 양자화부(203)에 의해 구해지는lsp1 ( l1min )(i)가 「제 1 양자화 LSP」이다.
다음에, 파라미터 결정부(213)가 제 1 적응 음원 래그를 결정하는 처리에 대해 도 3을 이용해서 설명한다. 도 3에 있어서, 버퍼(301)는 적응 음원 코드북(206)이 구비하는 버퍼이며, 위치(302)는 제 1 적응 음원 벡터의 잘라내는 위치이며, 벡터(303)는 잘라내어진 제 1 적응 음원 벡터이다. 또, 수치 「41」, 「296」은 잘라내는 위치(302)를 이동시키는 범위의 하한과 상한에 대응하고 있다.
잘라내는 위치(302)를 이동시키는 범위는, 제 1 적응 음원 래그를 나타내는 부호(A1)에 할당하는 비트수를 「8」이라고 할 경우, 「256」길이의 범위(예를 들면, 41~296)로 설정할 수 있다. 또, 잘라내는 위치(302)를 이동시키는 범위는 임의로 설정할 수 있다.
파라미터 결정부(213)는 잘라내는 위치(302)를 설정된 범위내에서 이동시켜, 순차적으로, 적응 음원 코드북(206)에 잘라내는 위치(302)를 지시한다. 다음에, 적응 음원 코드북(206)은 파라미터 결정부(213)에 의해 지시된 잘라내는 위치(302)를 이용해, 제 1 적응 음원 벡터(303)를 프레임 길이만큼 잘라내고, 잘라낸 제 1 적응 음원 벡터를 곱셈기(209)에 출력한다. 다음에, 파라미터 결정부(213)는 모든 잘라내는 위치(302)에서 제 1 적응 음원 벡터(303)를 잘라낸 경우에 대해서, 청각 보정부(212)로부터 출력되는 부호화 왜곡을 구하여, 부호화 왜곡이 최소가 되는 잘라내는 위치(302)를 결정한다.
이와 같이, 파라미터 결정부(213)에 의해 구해진 버퍼의 잘라내는 위치(302)가 「제 1 적응 음원 래그」이다.
다음에, 파라미터 결정부(213)는 부호화 왜곡을 최소로 하는 제 1 적응 음원 래그를 나타내는 제 1 적응 음원 래그 부호(A1)를 다중화부(214)에 출력한다.
다음에, 파라미터 결정부(213)가 제 1 고정 음원 벡터를 결정하는 처리에 대해 도 4를 이용해서 설명한다. 또한, 여기서는 제 1 고정 음원 벡터 부호(F1)에 할당하는 비트수를 「12」로 하는 경우를 예를 들어 설명한다.
도 4에 있어서, 트랙(401), (402), (403)은 각각 단위 펄스(진폭 값이 1)를 1개 생성한다. 또, 곱셈기(404), (405), (406)는 트랙(401), (402), (403)에서 생성되는 단위 펄스에 극성을 붙인다. 가산기(407)는 생성된 3개의 단위 펄스를 가산하는 가산기이며, 벡터(408)는 3개의 단위 펄스로 구성되는 「제 1 고정 음원 벡터」이다.
각 트랙은 단위 펄스를 생성할 수 있는 위치가 다르며, 도 4에 있어서는, 트랙(401)은{0,3,6,9,12,15,18,21}의 8군데 중 어딘가에, 트랙(402)은 {1,4,7,10,13,16,19,22}의 8군데 중 어딘가에, 트랙(403)은 {2,5,8,11,14,17, 20,23}의 8군데 중 어딘가에, 각각 단위 펄스를 1개씩 생성하는 구성으로 되어 있다.
다음에, 생성된 단위 펄스는 각각 곱셈기(404), (405), (406)에 의해 극성이 붙여지고, 가산기(407)에 의해 3개의 단위 펄스가 가산되어, 가산 결과인 제 1 고정 음원 벡터(408)가 구성된다.
도 4의 예에서는, 각 단위 펄스에 대해서 위치가 8가지, 극성이 정(正), 부(負)의 2가지이므로, 위치 정보 3비트, 극성 정보 1비트가 각 단위 펄스를 표현하는데 이용된다. 따라서, 합계 12비트의 고정 음원 코드북이 된다. 파라미터 결정부(213)는 3개의 단위 펄스의 생성 위치와 극성을 이동시켜, 순차적으로 생성 위치와 극성을 고정 음원 코드북(208)에 지시한다. 다음에, 고정 음원 코드북(208)은 파라미터 결정부(213)에 의해 지시된 생성 위치와 극성을 이용하여 제 1 고정 음원 벡터(408)를 구성하고, 구성된 제 1 고정 음원 벡터(408)를 곱셈기(210)에 출력한다. 다음에, 파라미터 결정부(213)는 모든 생성 위치와 극성의 조합에 대해서, 청각 보정부(212)로부터 출력되는 부호화 왜곡을 구해 부호화 왜곡이 최소가 되는 생성 위치와 극성의 조합을 결정한다. 다음에, 파라미터 결정부(213)는 부호화 왜곡이 최소가 되는 생성 위치와 극성의 조합을 나타내는 제 1 고정 음원 벡터 부호(F1)를 다중화부(214)에 출력한다.
다음에, 파라미터 결정부(213)가 양자화 이득 생성부(207)에서 생성되는 제 1 양자화 적응 음원 이득과 제 1 양자화 고정 음원 이득을 결정하는 처리를, 제 1 양자화 음원 이득 부호(G1)에 할당하는 비트수를 「8」로 하는 경우를 예로 설명한다. 양자화 이득 생성부(207)는 미리 작성된 256 종류의 제 1 음원 이득 코드 벡터gain1 ( k1 )(i)가 격납된 제 1 음원 이득 코드북를 구비한다. 여기서, k1은 제 1 음원 이득 코드 벡터에 붙은 인덱스이며 0~255의 값을 취한다. 또, 제 1 음원 이득 코드 벡터gain1 ( k1 )(i)는 2 차원의 벡터이며, i는 0~1의 값을 취한다. 파라미터 결정부(213)는 k1의 값을 0에서 255까지, 순차적으로, 양자화 이득 생성부(207)에 지시한다. 양자화 이득 생성부(207)는 파라미터 결정부(213)에 의해 지시된 k1를 이용하여 제 1 음원 이득 코드북에서 제 1 음원 이득 코드 벡터gain1 ( k1 )(i)를 선택하고, gain1 ( k1 )(0)를 제 1 양자화 적응 음원 이득으로서 곱셈기(209)에 출력하고, 또, gain1 (k1)(1)를 제 1 양자화 고정 음원 이득으로서 곱셈기(210)에 출력한다.
이와 같이, 양자화 이득 생성부(207)에 의해 구해지는gain1 ( k1 )(0)가 「제 1 양자화 적응 음원 이득」이며, gain1 ( k1 )(1)이 「제 1 양자화 고정 음원 이득」이다. 파라미터 결정부(213)는 모든 k1에 대해 청각 보정부(212)로부터 출력되는 부호화 왜곡을 구하고, 부호화 왜곡이 최소가 되는 k1의 값(k1min)을 결정한다. 다음에, 파라미터 결정부(213)는 k1min를 제 1 양자화 음원 이득 부호(G1)로서 다중화부(214)에 출력한다.
다음에, 제 1 국소 복호화부(102)의 내부 구성에 대해 도 5에 나타내는 블록도를 이용해 설명한다. 도 5에 있어서, 제 1 국소 복호화부(102)에 입력된 제 1 부호화 정보는, 다중화 분리부(501)에 의해 개개의 부호(L1, A1, G1, F1) 로 분리 된다. 분리된 제 1 양자화 LSP 부호(L1)는 LSP 복호화부(502)에 출력되고, 분리된 제 1 적응 음원 래그 부호(A1)는 적응 음원 코드북(505)에 출력되고, 분리된 제 1 양자화 음원 이득 부호(G1)는 양자화 이득 생성부(506)에 출력되고, 분리된 제 1 고정 음원 벡터 부호(F1)는 고정 음원 코드북(507)에 출력된다.
LSP 복호화부(502)는 다중화 분리부(501)로부터 출력된 제 1 양자화 LSP 부호(L1)에서 제 1 양자화 LSP를 복호화하고, 복호화 한 제 1 양자화 LSP를 합성 필터(503)와 제 2 부호화부(104)와 판정부(105)에 출력한다.
적응 음원 코드북(505)은, 다중화 분리부(501)로부터 출력된 제 1 적응 음원 래그 부호(A1)로 지정되는 잘라내는 위치에서 1 프레임 분의 샘플을 버퍼에서 잘라내고, 잘라낸 벡터를 제 1 적응 음원 벡터로서 곱셈기(508)에 출력한다. 또, 적응 음원 코드북(505)은 제 1 적응 음원 래그 부호(A1)로 지정되는 잘라내는 위치를 제 1 적응 음원 래그로서 제 2 부호화부(104)에 출력한다. 또, 적응 음원 코드북(505)은 가산기(510)로부터 구동 음원을 입력할 때마다 버퍼의 업데이트를 행한다.
양자화 이득 생성부(506)는 다중화 분리부(501)로부터 출력된 제 1 양자화 음원 이득 부호(G1)로 지정되는 제 1 양자화 적응 음원 이득과 제 1 양자화 고정 음원 이득을 복호화하고, 제 1 양자화 적응 음원 이득을 곱셈기(508)에 출력하고, 제 1 양자화 고정 음원 이득을 곱셈기(509)에 출력한다.
고정 음원 코드북(507)은 다중화 분리부(501)로부터 출력된 제 1 고정 음원 벡터 부호(F1)로 지정되는 제 1 고정 음원 벡터를 생성하여, 곱셈기(509)에 출력한 다.
곱셈기(508)는 제 1 적응 음원 벡터에 제 1 양자화 적응 음원 이득을 곱셈하여 가산기(510)에 출력한다. 곱셈기(509)는 제 1 고정 음원 벡터에 제 1 양자화 고정 음원 이득을 곱셈하여 가산기(510)에 출력한다.
가산기(510)는 곱셈기(508),(509)로부터 출력된 이득 곱셈 후의 제 1 적응 음원 벡터와 제 1 고정 음원 벡터를 가산하여 구동 음원을 생성해, 구동 음원을 합성 필터(503) 및 적응 음원 코드북(505)에 출력한다. 또한, 적응 음원 코드북(505)에 입력된 구동 음원은 버퍼에 기억된다.
합성 필터(503)는 가산기(510)로부터 출력된 구동 음원과 LSP 복호화부(502)에 의해 복호화된 필터 계수를 이용해 필터 합성을 행하고, 합성 신호를 후(後)처리부(504)에 출력한다.
후처리부(504)는 합성 필터(503)로부터 출력된 합성 신호에 대해서, 포만트 강조나 피치 강조 등 음성의 주관적인 품질을 개선하는 처리나, 정상 잡음의 주관적 품질을 개선하는 처리 등을 가하여, 제 1 복호화 신호로서 출력한다.
다음에, 제 2 부호화부(104)의 내부 구성에 대해, 도 6에 나타내는 블록도를 이용해 설명한다. 제 2 부호화부(104)는 입력되는 잔차 신호를 N샘플씩 단락지어(N는 자연수), N샘플을 1 프레임으로 하여 프레임마다 부호화를 행한다.
제 2 부호화부(104)의 입력 신호는 전(前)처리부(601)에 입력된다. 전처리부(601)는 DC성분을 없애는 하이패스 필터 처리나 후속하는 부호화 처리의 성능 개선으로 이어질만한 파형 정형 처리나 프리엠퍼시스 처리를 행하고, 이러한 처리 후 의 신호(Xin)를 LSP 분석부(602) 및 가산기((605))에 출력한다.
LSP 분석부(602)는 Xin를 이용해 선형 예측 분석을 행하고, 분석 결과인 LPC(선형 예측 계수)를 LSP로 변환하고, 변환 결과를 제 2 LSP로서 LSP 양자화부(603)에 출력한다.
LSP 양자화부(603)는 제 1 양자화 LSP와 LSP 분석부(602)로부터 제 2 LSP를 입력한다. 다음에, LSP 양자화부(603)는 제 1 양자화 LSP의 극성을 반전시켜 제 2 LSP에 가산함으로써 잔차 LSP를 산출한다. 다음에, LSP 양자화부(603)는 잔차 LSP의 양자화 처리를 행하고, 양자화된 잔차 LSP(양자화 잔차 LSP)와 제 1 양자화 LSP를 가산함으로써 제 2 양자화 LSP를 산출한다. 다음에, LSP 양자화부(603)는 제 2 양자화 LSP를 합성 필터(604)에 출력함과 동시에 양자화 잔차 LSP를 나타내는 제 2 양자화 LSP 부호(L2)를 다중화부(614)에 출력한다. 또, LSP 양자화부(603)는 양자화 잔차 LSP를 판정부(105)에 출력한다.
합성 필터(604)는 제 2 양자화 LSP에 기초하는 필터 계수를 이용하여, 후술하는 가산기(611)로부터 출력되는 구동 음원에 대해서 필터 합성을 행함으로써 합성 신호를 생성해, 합성 신호를 가산기(605)에 출력한다.
가산기(605)는 합성 신호의 극성을 반전시켜 Xin에 가산함으로써 오차 신호를 산출하고, 오차 신호를 청각 보정부(612)에 출력한다.
적응 음원 코드북(606)은 과거에 가산기(611)에 의해 출력된 구동 음원을 버퍼에 기억하고 있으며, 또, 제 1 적응 음원 래그와 파라미터 결정부(613)로부터 출력되는 신호에 의해 특정되는 잘라내는 위치에서 1 프레임 분의 샘플을 버퍼에서 잘라내어, 제 2 적응 음원 벡터로서 곱셈기(609)에 출력한다. 또, 적응 음원 코드북(606)은 가산기(611)로부터 구동 음원을 입력할 때마다 버퍼의 업데이터를 행한다.
양자화 이득 생성부(607)는 파라미터 결정부(613)로부터 출력되는 신호를 이용하여, 제 2 양자화 적응 음원 이득과 제 2 양자화 고정 음원 이득을 결정하고, 이들을 각각 곱셈기(609)와 곱셈기 (610)에 출력한다.
고정 음원 코드북(608)은 파라미터 결정부(613)로부터 출력되는 신호에 의해 특정되는 형상을 가지는 벡터를 제 2 고정 음원 벡터로서 곱셈기(610)에 출력한다.
곱셈기(609)는 양자화 이득 생성부(607)로부터 출력된 제 2 양자화 적응 음원 이득을, 적응 음원 코드북(606)으로부터 출력된 제 2 적응 음원 벡터에 곱하여, 가산기(611)에 출력한다. 곱셈기(610)는 양자화 이득 생성부(607)로부터 출력된 제 2 양자화 고정 음원 이득을, 고정 음원 코드북(608)으로부터 출력된 제 2 고정 음원 벡터에 곱하여, 가산기(611)에 출력한다.
가산기(611)는 이득 곱셈 후의 제 2 적응 음원 벡터와 제 2 고정 음원 벡터를 각각 곱셈기(609)와 곱셈기(610)로부터 입력하여, 이들을 가산하고, 가산 결과인 구동 음원을 합성 필터(604) 및 적응 음원 코드북(606)에 출력한다. 또한, 적응 음원 코드북(606)에 입력된 구동 음원은 버퍼에 기억된다.
청각 보정부(612)는 가산기(605)로부터 출력된 오차 신호에 대해서 청각적인 보정을 하여, 부호화 왜곡으로서 파라미터 결정부(613)에 출력한다.
파라미터 결정부(613)는 청각 보정부(612)로부터 출력되는 부호화 왜곡을 최 소로 하는 제 2 적응 음원 래그를 적응 음원 코드북(606)에서 선택하고, 선택 결과를 나타내는 제 2 적응 음원 래그 부호(A2)를 다중화부(614)에 출력한다. 여기서, 「제 2 적응 음원 래그」란, 제 2 적응 음원 벡터를 잘라내는 위치이며, 상세한 설명은 후술한다. 또, 파라미터 결정부(613)는 청각 보정부(612)로부터 출력되는 부호화 왜곡을 최소로 하는 제 2 고정 음원 벡터를 고정 음원 코드북(608)에서 선택하고, 선택 결과를 나타내는 제 2 고정 음원 벡터 부호(F2)를 다중화부(614)에 출력한다. 또, 파라미터 결정부(613)는 청각 보정부(612)로부터 출력되는 부호화 왜곡을 최소로 하는 제 2 양자화 적응 음원 이득과 제 2 양자화 고정 음원 이득을 양자화 이득 생성부(607)에서 선택하고, 선택 결과를 나타내는 제 2 양자화 음원 이득 부호(G2)를 다중화부(614)에 출력한다.
다중화부(614)는 LSP 양자화부(603)로부터 제 2 양자화 LSP 부호(L2)를 입력하고, 파라미터 결정부(613)로부터 제 2 적응 음원 래그 부호(A2), 제 2 고정 음원 벡터 부호(F2) 및 제 2 양자화 음원 이득 부호(G2)를 입력하여, 이러한 정보를 다중화하여 제 2 부호화 정보로서 출력한다.
다음에, LSP 양자화부(603)가 제 2 양자화 LSP를 결정하는 처리를, 제 2 양자화 LSP 부호(L2)에 할당하는 비트수를 「8」로 하여, 잔차 LSP를 벡터 양자화하는 경우를 예로 들어 간단하게 설명한다.
LSP 양자화부(603)는 미리 작성된 256 종류의 제 2 LSP 코드 벡터 lspres (l2)(i)가 격납된 제 2 LSP 코드북를 구비한다. 여기서, l2는 제 2 LSP 코드 벡터에 부여된 인덱스이며 0~255의 값을 취한다. 또, 제 2 LSP 코드 벡터 lspres (l2)(i)는 N차원의 벡터이며, i는 0~N-1의 값을 취한다. LSP 양자화부(603)는 LSP 분석부(602)로부터 출력된 제 2 LSPα(i)를 입력한다. 여기서, 제 2 LSPα(i)는 N차원의 벡터이다. 또, LSP 양자화부(603)는 제 1 국소 복호화부(102)로부터 출력된 제 1 양자화 LSPlsp1 ( l1min )(i)를 입력한다. 여기서, 제 1 양자화 LSPlsp1 (l1min)(i)는 N차원의 벡터이며, i는 0~N-1의 값을 취한다.
다음에, LSP 양자화부(603)는 식(2)를 이용하여 잔차 LSPres(i)를 구한다.
Figure 112006086182803-PCT00002
다음에, LSP 양자화부(603)는 식(3)을 이용하여 잔차 LSPres(i)와 제 2 LSP 코드 벡터lspres ( l2 )(i)의 제곱 오차 er2를 구한다.
Figure 112006086182803-PCT00003
다음에, LSP 양자화부(603)는 전부의 l2에 대해 제곱 오차er2를 구하고, 제곱 오차er2가 최소가 되는 l2의 값l2min)을 결정한다. 다음에, LSP 양자화부(603)는 l2min를 제 2 양자화 LSP 부호(L2)로서 다중화부(614)에 출력한다.
다음에, LSP 양자화부(603)는 식(4)를 이용하여 제 2 양자화 LSPlsp2(i)를 구한다.
Figure 112006086182803-PCT00004
다음에, LSP 양자화부(603)는 제 2 양자화 LSPlsp2(i)를 합성 필터(604)에 출력한다.
이와 같이, LSP 양자화부(603)에 의해 구해지는lsp2(i) 가 「제 2 양자화 LSP」이며, 제곱 오차 er2가 최소가 되는lspres ( l2min )(i)가 「양자화 잔차 LSP」이다.
다음에, 파라미터 결정부(613)가 제 2 적응 음원 래그를 결정하는 처리에 대해 도 7을 이용해 설명한다. 도 7에 있어서, 버퍼(701)는 적응 음원 코드북(606)이 구비하는 버퍼이며, 위치(702)는 제 2 적응 음원 벡터의 잘라내는 위치이며, 벡터(703)는 잘라내어진 제 2 적응 음원 벡터이다. 또, 「t」는 제 1 적응 음원 래그이며, 또, 수치 「41」, 「296」은, 파라미터 결정부(213)가 제 1 적응 음원 래그의 탐색을 행하는 범위의 하한과 상한에 대응하고 있다. 또, 「t-16」, 「t+15」는 제 2 적응 음원 벡터의 잘라내는 위치를 이동시키는 범위의 하한과 상한에 대응하고 있다.
잘라내는 위치(702)를 이동시키는 범위는 제 2 적응 음원 래그를 나타내는 부호(A2)에 할당하는 비트수를 「5」라고 할 경우, 「32」의 길이의 범위(예를 들 면, t-16~t+15)로 설정할 수 있다. 또, 잘라내는 위치(702)를 이동시키는 범위는 임의로 설정할 수 있다.
파라미터 결정부(613)는 제 1 국소 복호화부(102)로부터 제 1 적응 음원 래그 「t」를 입력하고, 잘라내는 위치(702)를 이동시키는 범위를 t-16~t+15로 설정한다. 다음에, 파라미터 결정부(613)는 잘라내는 위치(702)를 설정된 범위내에서 이동시켜, 순차적으로, 적응 음원 코드북(606)에 잘라내는 위치(702)를 지시한다. 다음에, 적응 음원 코드북(606)은 파라미터 결정부(613)에 의해 지시된 잘라내는 위치(702)를 이용해, 제 2 적응 음원 벡터(703)를 프레임의 길이만큼 잘라내고, 잘라낸 제 2 적응 음원 벡터(703)를 곱셈기(609)에 출력한다. 다음에, 파라미터 결정부(613)는 전부의 잘라내는 위치(702)에서 제 2 적응 음원 벡터(703)를 잘라낸 경우에 대해, 청각 보정부(612)로부터 출력되는 부호화 왜곡을 구하고, 부호화 왜곡이 최소가 되는 잘라내는 위치(702)를 결정한다.
이와 같이, 파라미터 결정부(613)에 의해 구해지는 버퍼의 잘라내는 위치(702)가 t+γ인 경우, γ(γ는 -16~15 중의 어느것인가의 값)가 「제 2 적응 음원 래그」이다. 따라서, 제 2 복호화부(154)에서 제 2 적응 음원 벡터(703)를 잘라내려면, 제 1 적응 음원 래그 t와 제 2 적응 음원 래그γ를 가산하고, 가산 결과 t+γ 를 잘라내는 위치(702)로 함으로써 제 2 적응 음원 래그(703)를 잘라낸다.
다음에, 파라미터 결정부(613)는 부호화 왜곡을 최소로 하는 제 2 적응 음원 래그를 나타내는 제 2 적응 음원 래그 부호(A2)를 다중화부(614)에 출력한다.
또한, 파라미터 결정부(613)는 파라미터 결정부(213)가 제 1 고정 음원 벡터 부호(F1)를 결정하는 처리와 동일한 처리를 이용하여, 제 2 고정 음원 벡터 부호(F2)를 결정한다.
또, 파라미터 결정부(613)는 파라미터 결정부(213)가 제 1 양자화 음원 이득 부호(G1)를 결정하는 처리와 동일한 처리를 이용하여, 제 2 양자화 음원 이득 부호(G2)를 결정한다.
다음에, 판정부(105)가 플래그 정보를 생성하는 처리에 대해 설명한다. 판정부(105)는 제 1 부호화부(101)로부터 제 1 LSP, 제 1 국소 복호화부(102)로부터 제 1 양자화 LSP, 제 2 부호화부(104)로부터 양자화 잔차 LSP를 입력한다. 또, 판정부(105)는 이전 프레임의 제 1 양자화 LSP를 기억하는 버퍼를 내부에 구비한다.
다음에, 판정부(105)는 식(5)을 이용하여, 제 1 LSP와 이전 프레임 제 1 양자화 LSP의 제곱 오차 er3를 구한다.
Figure 112006086182803-PCT00005
여기서,α(i)는 제 1 LSP이며, lsppre1(i)는 버퍼에 기억되어 있는 이전 프레임 제 1 양자화 LSP이다.
다음에, 판정부(105)는 식(6)를 이용하여, 제 1 LSP와, 이전 프레임 제 1 양자화 LSP와, 양자화 잔차 LSP를 가산한 벡터의 제곱 오차 er4를 구한다.
Figure 112006086182803-PCT00006
여기서, lspres(i)는 양자화 잔차 LSP이다.
다음에, 판정부(105)는 제곱 오차 er3와 제곱 오차 er4의 대소(大小) 비교를 행하고, 제곱 오차 er3이 작을 경우, 플래그 정보는 「0」의 값을 취하고, 제곱 오차 er4가 작은 경우, 플래그 정보는 「1」의 값을 취한다. 다음에, 판정부(105)는 플래그 정보를 다중화부(106)에 출력한다. 다음에, 판정부(105)는 제 1 국소 복호화부(102)로부터 입력한 제 1 양자화 LSP를 버퍼에 기억함으로써, 버퍼의 업데이트를 행한다. 기억된 제 1 양자화 LSP는, 다음 프레임에 있어서, 이전 프레임 제 1 양자화 LSP로서 이용된다.
이와 같이, 이전 프레임 제 1 부호화 정보만을 이용했을 경우와, 이전 프레임 제 1 부호 정보와 양자화 잔차 LSP를 이용했을 경우를 비교하여, 어느 경우가 보다 제 1 LSP에 가까운 값을 얻을 수 있는지에 관한 정보를 플래그 정보로서 복호화 장치측에 전송함으로써, 복호화 장치측에서 제 1 부호화 정보의 손실이 검출된 경우, 제 1 복호화부에 있어서, 이전 프레임 제 1 부호화 정보만을 이용해 복호화를 행할지, 이전 프레임 제 1 부호화 정보와 양자화 잔차 LSP를 이용해 복호화를 행하는지를 지시할 수 있다.
다음에, 제 1 복호화부(153)의 내부 구성에 대해 도 8에 나타내는 블록도를 이용해 설명한다. 도 8에 있어서, 제 1 부호화 정보가 손실없이 전송되고 있는 경우, 제 1 복호화부(153)에 입력된 제 1 부호화 정보는, 다중화 분리부(801)에 의해 개개의 부호(L1, A1, G1, F1)로 분리된다. 분리된 제 1 양자화 LSP 부호(L1)는 LSP 복호화부(802)에 출력되고, 분리된 제 1 적응 음원 래그 부호(A1)는 적응 음원 코드북(805)에 출력되고, 분리된 제 1 양자화 음원 이득 부호(G1)는 양자화 이득 생성부(806)에 출력되고, 분리된 제 1 고정 음원 벡터 부호(F1)는 고정 음원 코드북(807)에 출력된다.
LSP 복호화부(802)는 다중화 분리부(151)로부터 플래그 정보를 입력하고, 부호화 정보 조작부(811)로부터 프레임 손실 정보를 입력한다. LSP 복호화부(802)는, 프레임 손실 정보가「1」 또는 「3」인 경우, 다중화 분리부(801)로부터 제 1 양자화 LSP 부호(L1)를 입력하여, 제 1 양자화 LSP 부호(L1)에서 제 1 양자화 LSP를 복호화한다. LSP 복호화부(802)는, 프레임 손실 정보가 「0」인 경우, 부호화 정보 조작부(811)로부터 이전 프레임 제 1 양자화 LSP를 입력하여, 이것을 제 1 양자화 LSP로 한다. LSP 복호화부(802)는 프레임 손실 정보가 「2」인 경우, 부호화 정보 조작부(811)로부터 이전 프레임 제 1 양자화 LSP와 양자화 잔차 LSP를 입력하고, 이들을 가산한 가산 결과를 제 1 양자화 LSP로 한다. 그러나, LSP 복호화부(802)는 플래그 정보가 「0」인 경우는 양자화 잔차 LSP를 사용하지 않는다. 다음에, LSP 복호화부(802)는 상기 제 1 양자화 LSP를 합성 필터(803)와 부호화 정보 조작부(811)에 출력한다. 부호화 정보 조작부(811)에 출력된 제 1 양자화 LSP는 다음 프레임의 복호화 처리시에 이전 프레임 제 1 양자화 LSP로서 이용된다.
적응 음원 코드북(805)은 과거에 가산기(810)에 의해 출력된 구동 음원을 버퍼에 기억하고 있다. 적응 음원 코드북(805)은 부호화 정보 조작부(811)로부터 프레임 손실 정보를 입력한다. 적응 음원 코드북(805)은 프레임 손실 정보가 「1」 혹은 「3」인 경우, 다중화 분리부(801)로부터 제 1 적응 음원 래그 부호(A1)를 입력하고, 제 1 적응 음원 래그 부호(A1)로 지정되는 잘라내는 위치에서 1 프레임 분의 샘플을 버퍼에서 잘라내고, 잘라낸 벡터를 제 1 적응 음원 벡터로 한다. 적응 음원 코드북(805)은 프레임 손실 정보가 「0」인 경우, 부호화 정보 조작부(811)로부터 이전 프레임 제 1 적응 음원 래그를 입력하고, 이전 프레임 제 1 적응 음원 래그로 지정되는 잘라내는 위치에서 1 프레임 분의 샘플을 버퍼에서 잘라내고, 잘라낸 벡터를 제 1 적응 음원 벡터로 한다. 적응 음원 코드북(805)은 프레임 손실 정보가「2」인 경우, 부호화 정보 조작부(811)로부터 이전 프레임 제 1 적응 음원 래그와 제 2 적응 음원 래그를 입력하고, 이들을 가산한 가산 결과에 의해 지정되는 잘라내는 위치에서 1 프레임 분의 샘플을 버퍼에서 잘라내고, 잘라낸 벡터를 제 1 적응 음원 벡터로 한다.
다음에, 적응 음원 코드북(805)은 제 1 적응 음원 벡터를 곱셈기(808)에 출력한다. 또, 적응 음원 코드북(805)은 제 1 적응 음원 벡터의 잘라내는 위치를 제 1 적응 음원 래그로서 부호화 정보 조작부(811)에 출력한다. 부호화 정보 조작부(811)에 출력된 제 1 적응 음원 래그는 다음 프레임의 복호화 처리시에 이전 프레임 제 1 적응 음원 래그로서 이용된다. 또, 적응 음원 코드북(805)은 가산기(810)로부터 구동 음원을 입력할 때마다 버퍼의 업데이트를 행한다.
양자화 이득 생성부(806)는 부호화 정보 조작부(811)로부터 프레임 손실 정보를 입력한다. 양자화 이득 생성부(806)는, 프레임 손실 정보가 「1」 또는 「3」인 경우, 다중화 분리부(801)로부터 제 1 양자화 음원 이득 부호(G1)를 입력하 고, 제 1 양자화 음원 이득 부호(G1)로 지정되는 제 1 양자화 적응 음원 이득과 제 1 양자화 고정 음원 이득을 복호화한다. 양자화 이득 생성부(806)는 프레임 손실 정보가 「0」인 경우, 부호화 정보 조작부(811)로부터 이전 프레임 제 1 양자화 적응 음원 이득과 이전 프레임 제 1 양자화 적응 음원 이득을 입력하고, 이들을 제 1 양자화 적응 음원 이득과 제 1 양자화 고정 음원 이득으로 한다. 양자화 이득 생성부(806)는, 프레임 손실 정보가 「2」인 경우, 부호화 정보 조작부(811)로부터 이전 프레임 제 1 양자화 적응 음원 이득과 이전 프레임 제 1 양자화 고정 음원 이득과 제 2 양자화 적응 음원 이득과 제 2 양자화 고정 음원 이득을 입력하고, 이전 프레임 제 1 양자화 적응 음원 이득과 제 2 양자화 적응 음원 이득을 가산하고, 가산 결과에 0.5를 곱한 곱셈 결과를 제 1 양자화 적응 음원 이득으로 하고, 또, 이전 프레임 제 1 양자화 고정 음원 이득과 제 2 양자화 고정 음원 이득을 가산하고, 가산 결과에 0.5를 곱한 곱셈 결과를 제 1 양자화 고정 음원 이득으로 한다. 다음에, 양자화 이득 생성부(806)는, 제 1 양자화 적응 음원 이득을 곱셈기(808)와 부호화 정보 조작부(811)에 출력하고, 제 1 양자화 고정 음원 이득을 곱셈기(809)와 부호화 정보 조작부(811)에 출력한다. 부호화 정보 조작부(811)에 출력된 제 1 양자화 적응 음원 이득과 제 1 양자화 고정 음원 이득은, 다음 프레임의 복호화 처리 시에 이전 프레임 제 1 양자화 적응 음원 이득과 이전 프레임 제 1 양자화 고정 음원 이득으로서 이용된다.
고정 음원 코드북(807)은 부호화 정보 조작부(811)로부터 프레임 손실 정보를 입력한다. 고정 음원 코드북(807)은, 프레임 정보가 「1」 또는 「3」인 경우, 다중화 분리부(801)로부터 제 1 고정 음원 벡터 부호(F1)를 입력하고, 제 1 고정 음원 벡터 부호(F1)로 지정되는 제 1 고정 음원 벡터를 생성한다. 고정 음원 코드북(807)은, 프레임 정보가 「0」 또는 「2」인 경우, 부호화 정보 조작부(811)로부터 이전 프레임 제 1 고정 음원 벡터를 입력하고, 이것을 제 1 고정 음원 벡터로 한다. 다음에, 고정 음원 코드북(807)은, 제 1 고정 음원 벡터를 곱셈기(809)와 부호화 정보 조작부(811)에 출력한다. 부호화 정보 조작부(811)에 출력된 제 1 고정 음원 벡터는 다음 프레임의 복호화 처리시에 이전 프레임 제 1 고정 음원 벡터로서 이용된다.
곱셈기(808)는 제 1 적응 음원 벡터에 제 1 양자화 적응 음원 이득을 곱셈하여 가산기(810)에 출력한다. 곱셈기(809)는 제 1 고정 음원 벡터에 제 1 양자화 고정 음원 이득을 곱셈하여 가산기(810)에 출력한다.
가산기(810)는 곱셈기(808),(809)로부터 출력된 이득 곱셈 후의 제 1 적응 음원 벡터와 제 1 고정 음원 벡터를 가산해, 구동 음원을 생성하고, 구동 음원을 합성 필터 (803)와 적응 음원 코드북(805)에 출력한다.
합성 필터(803)는 가산기(810)으로부터 출력된 구동 음원과 LSP 복호화부(802)에 의해 복호화된 필터 계수를 이용해 필터 합성을 행하고, 합성 신호를 후처리부(804)에 출력한다.
후처리부(804)는 합성 필터(803)로부터 출력된 합성 신호에 대해서, 포만트 강조나 피치 강조 등 음성의 주관적인 품질을 개선하는 처리나, 정상 잡음의 주관적 품질을 개선하는 처리 등을 가하여, 제 1 복호화 신호로서 출력한다.
부호화 정보 조작부(811)는 각종 파라미터를 기억하는 버퍼를 내부에 구비하고, 이전 프레임에서 구해진 제 1 양자화 LSP(이전 프레임 제 1 양자화 LSP)와, 이전 프레임에서 구해진 제 1 적응 음원 래그(이전 프레임 제 1 적응 음원 래그)와, 이전 프레임에서 구해진 제 1 양자화 적응 음원 이득(이전 프레임 제 1 양자화 적응 음원 이득)과, 이전 프레임에서 구해진 제 1 양자화 고정 음원 이득(이전 프레임 제 1 양자화 고정 음원 이득)과, 이전 프레임에서 구해진 제 1 고정 음원 벡터(이전 프레임 제 1 고정 음원 벡터)를 버퍼에 기억하고 있다.
부호화 정보 조작부(811)는 프레임 손실 검출부(152)로부터 프레임 손실 정보를 입력한다. 다음에, 부호화 정보 조작부(811)는, 프레임 손실 정보가 「2」인 경우, 제 2 복호화부(154)로부터 양자화 잔차 LSP와 제 2 적응 음원 래그와 제 2 양자화 적응 음원 이득과 제 2 양자화 고정 음원 이득을 입력한다. 다음에, 부호화 정보 조작부(811)는 프레임 손실 정보를 LSP 복호화부(802)와 적응 음원 코드북(805)과 양자화 이득 생성부(806)와 고정 음원 코드북(807)에 출력한다. 부호화 정보 조작부(811)는, 프레임 손실 정보가 「0」인 경우, LSP 복호화부(802)에 이전 프레임 제 1 양자화 LSP를, 적응 음원 코드북(805)에 이전 프레임 제 1 적응 음원 래그를, 양자화 이득 생성부(806)에 이전 프레임 제 1 양자화 적응 음원 이득과 이전 프레임 제 1 양자화 고정 음원 이득을, 고정 음원 코드북(807)에 이전 프레임 제 1 고정 음원 벡터를 출력한다. 부호화 정보 조작부(811)는, 프레임 손실 정보가 「2」인 경우, LSP 복호화부(802)에 이전 프레임 제 1 양자화 LSP와 양자화 잔차 LSP를, 적응 음원 코드북(805)에 이전 프레임 제 1 적응 음원 래그와 제 2 적응 음원 래그를, 양자화 이득 생성부(806)에 이전 프레임 제 1 양자화 적응 음원 이득과 전 프레임 제 1 양자화 고정 음원 이득과 제 2 양자화 적응 음원 이득과 제 2 양자화 고정 음원 이득을, 고정 음원 코드북(807)에 이전 프레임 제 1 고정 음원 벡터를 출력한다.
다음에, 부호화 정보 조작부(811)는 현재 프레임에서의 복호화 처리에 이용된 제 1 양자화 LSP를 LSP 복호화부(802)로부터, 제 1 적응 음원 래그를 적응 음원 코드북(805)으로부터, 제 1 양자화 적응 음원 이득과 제 1 양자화 고정 음원 이득을 양자화 이득 생성부(806)로부터, 제 1 고정 음원 벡터를 고정 음원 코드북(807)으로부터 입력한다. 다음에, 부호화 정보 조작부(811)는, 프레임 손실 정보가 「1」 또는 「3」인 경우, 제 1 양자화 LSP와 제 1 적응 음원 래그와 제 1 양자화 적응 음원 이득과 제 1 양자화 고정 음원 이득을 제 2 복호화부(154)에 출력하고, 프레임 손실 정보가 「0」 또는 「2」인 경우, 버퍼에 기억되어 있는 이전 프레임 제 1 양자화 LSP와 이전 프레임 제 1 적응 음원 래그를 제 2 복호화부(154)에 출력한다.
부호화 정보 조작부(811)는, 이상의 처리가 종료한 후, 현재 프레임에서의 복호화 처리에 이용된 제 1 양자화 LSP를 이전 프레임 제 1 양자화 LSP로서, 제 1 적응 음원 래그를 이전 프레임 제 1 적응 음원 래그로서, 제 1 양자화 적응 음원 이득을 이전 프레임 제 1 양자화 적응 음원 이득으로서, 제 1 양자화 고정 음원 이득을 이전 프레임 제 1 양자화 고정 음원 이득으로서, 제 1 고정 음원 벡터를 이전 프레임 제 1 고정 음원 이득으로서 버퍼에 기억시켜, 버퍼의 업데이터를 행한다.
다음에, 제 2 복호화부(154)의 내부 구성에 대해 도 9에 나타내는 블록도를 이용해 설명한다. 도 9에 있어서, 제 2 부호화 정보가 손실없이 전송되어 있는 경우, 제 2 복호화부(154)에 입력된 제 2 부호화 정보는 다중화 분리부(901)에 의해 개개의 부호(L2, A2, G2, F2) 로 분리된다. 분리된 제 2 양자화 LSP 부호(L2)는 LSP 복호화부(902)에 출력되고, 분리된 제 2 적응 음원 래그 부호(A2)는 적응 음원 코드북(905)에 출력되고, 분리된 제 2 양자화 음원 이득 부호(G2)는 양자화 이득 생성부(906)에 출력되고, 분리된 제 2 고정 음원 벡터 부호(F2)는 고정 음원 코드북(907)에 출력된다.
LSP 복호화부(902)는 부호화 정보 조작부(911)로부터 프레임 손실 정보를 입력한다. LSP 복호화부(902)는, 프레임 손실 정보가 「3」인 경우, 부호화 정보 조작부(911)로부터 제 1 양자화 LSP를 입력하고, 또, 다중화 분리부(901)로부터 제 2 양자화 LSP 부호(L2)를 입력하여, 제 2 양자화 LSP 부호(L2)에서 양자화 잔차 LSP를 복호화하여, 제 1 양자화 LSP와 양자화 잔차 LSP를 가산한 가산 결과를 제 2 양자화 LSP로 한다. LSP 복호화부(902)는, 프레임 손실 정보가 「1」인 경우, 부호화 정보 조작부(911)로부터 제 1 양자화 LSP와 이전 프레임 양자화 잔차 LSP를 입력하여, 제 1 양자화 LSP와 이전 프레임 양자화 잔차 LSP를 가산한 가산 결과를 제 2 양자화 LSP로 한다. 프레임 손실 정보가 「2」인 경우, 부호화 정보 조작부(911)로부터 이전 프레임 제 1 양자화 LSP를 입력하고, 또, 다중화 분리부(901)로부터 제 2 양자화 LSP 부호(L2)를 입력하여, 제 2 양자화 LSP 부호(L2)에서 양자화 잔차 LSP를 복호화하여, 이전 프레임 제 1 양자화 LSP와 양자화 잔차 LSP를 가 산한 가산 결과를 제 2 양자화 LSP로 한다. LSP 복호화부(902)는, 프레임 손실 정보가 「0」인 경우, 부호화 정보 조작부(911)로부터 이전 프레임 제 1 양자화 LSP와 이전 프레임 양자화 잔차 LSP를 입력하여, 이전 프레임 제 1 양자화 LSP와 이전 프레임 양자화 잔차 LSP를 가산한 가산 결과를 제 2 양자화 LSP로 한다.
다음에, LSP 복호화부(902)는 상기 제 2 양자화 LSP를 합성 필터((903))에 출력한다. 다음에, LSP 복호화부(902)는, 프레임 손실 정보가 「2」 또는 「3」인 경우, 제 2 양자화 LSP 부호(L2)를 복호화하여 구한 양자화 잔차 LSP를 부호화 정보 조작부(911)에 출력하고, 프레임 손실 정보가 「0」 또는 「1」인 경우, 이전 프레임 양자화 잔차 LSP를 부호화 정보 조작부(911)에 출력한다. 부호화 정보 조작부(911)에 출력된 양자화 잔차 LSP 또는 이전 프레임 양자화 잔차 LSP는, 다음 프레임의 복호화 처리 시에 이전 프레임 양자화 잔차 LSP로서 이용된다.
적응 음원 코드북(905)은, 과거에 가산기(910)에 의해 출력된 구동 음원을 버퍼에 기억하고 있다. 적응 음원 코드북(905)은 부호화 정보 조작부(911)로 부터 프레임 손실 정보를 입력한다. 적응 음원 코드북(905)은, 프레임 손실 정보가 「3」인 경우, 부호화 정보 조작부(911)로부터 제 1 적응 음원 래그를 입력하고, 또, 다중화 분리부(901)로부터 제 2 적응 음원 래그 부호(A2)를 입력하여, 제 1 적응 음원 래그와 제 2 적응 음원 래그 부호(A2)를 가산한 가산 결과에 의해 지정되는 잘라내는 위치에서 1 프레임 분의 샘플을 버퍼에서 잘라내고, 잘라낸 벡터를 제 2 적응 음원 벡터로 한다. 적응 음원 코드북(905)은, 프레임 손실 정보가 「1」인 경우, 부호화 정보 조작부(911)로부터 제 1 적응 음원 래그와 이전 프레임 제 2 적 응 음원 래그를 입력하여, 이러한 적응 음원 래그를 가산한 가산 결과에 의해 지정되는 잘라내는 위치에서 1 프레임 분의 샘플을 버퍼에서 잘라내고, 잘라낸 벡터를 제 2 적응 음원 벡터로 한다. 적응 음원 코드북(905)은, 프레임 손실 정보가 「2」인 경우, 부호화 정보 조작부(911)로부터 이전 프레임 제 1 적응 음원 래그를 입력하고 또, 다중화 분리부(901)로부터 제 2 적응 음원 래그 부호(A2)를 입력하여, 이전 프레임 제 1 적응 음원 래그와 제 2 적응 음원 래그 부호(A2)를 가산한 가산 결과에 의해 지정되는 잘라내는 위치에서 1 프레임 분의 샘플을 버퍼에서 잘라내고, 잘라낸 벡터를 제 2 적응 음원 벡터로 한다. 적응 음원 코드북(905)은, 프레임 손실 정보가 「0」인 경우, 부호화 정보 조작부(911)로부터 이전 프레임 제 1 적응 음원 래그와 이전 프레임 제 2 적응 음원 래그를 입력하여, 이러한 적응 음원 래그를 가산한 가산 결과에 의해 지정되는 잘라내는 위치에서 1 프레임 분의 샘플을 버퍼에서 잘라내고, 잘라낸 벡터를 제 2 적응 음원 벡터로 한다.
다음에, 적응 음원 코드북(905)은 제 2 적응 음원 벡터를 곱셈기(908)에 출력한다. 또, 적응 음원 코드북(905)은, 프레임 손실 정보가 「2」 또는 「3」인 경우, 제 2 적응 음원 래그 부호(A2)를 제 2 적응 음원 래그로서 부호화 정보 조작부(911)에 출력하고, 프레임 손실 정보가 「0」 또는 「1」인 경우, 이전 프레임 제 2 적응 음원 래그를 부호화 정보 조작부(911)에 출력한다. 부호화 정보 조작부(911)에 출력된 제 2 적응 음원 래그 또는 이전 프레임 제 2 적응 음원 래그는 다음 프레임의 복호화 처리시에 이전 프레임 제 2 적응 음원 래그로서 이용된다. 또, 적응 음원 코드북(905)는 가산기(910)로부터 구동 음원을 입력할 때마다 버퍼 의 업데이터를 행한다.
양자화 이득 생성부(906)는 부호화 정보 조작부(911)로부터 프레임 손실 정보를 입력한다. 양자화 이득 생성부(906)는 프레임 손실 정보가 「2」 또는 「3」인 경우, 다중화 분리부(901)로부터 제 2 양자화 음원 이득 부호(G2)를 입력하여, 제 2 양자화 음원 이득 부호(G2)로 지정되는 제 2 양자화 적응 음원 이득과 제 2 양자화 고정 음원 이득을 복호화한다. 양자화 이득 생성부(906)는, 프레임 손실 정보가 「1」인 경우, 부호화 정보 조작부(911)로부터 제 1 양자화 적응 음원 이득과 제 1 양자화 고정 음원 이득과 이전 프레임 제 2 양자화 적응 음원 이득과 이전 프레임 제 2 양자화 고정 음원 이득을 입력하여, 제 1 양자화 적응 음원 이득과 이전 프레임 제 2 양자화 적응 음원 이득을 가산하고, 가산 결과에 0.5를 곱한 곱셈 결과를 제 2 양자화 적응 음원 이득으로 하고, 제 1 양자화 고정 음원 이득과 이전 프레임 제 2 양자화 고정 음원 이득을 가산하고, 가산 결과에 0.5를 곱한 곱셈 결과를 제 2 양자화 고정 음원 이득으로 한다. 양자화 이득 생성부(906)는, 프레임 손실 정보가 「0」인 경우, 부호화 정보 조작부(911)로부터 이전 프레임 제 2 양자화 적응 음원 이득과 이전 프레임 제 2 양자화 적응 음원 이득을 입력하고, 이들을 제 2 양자화 적응 음원 이득과 제 2 양자화 고정 음원 이득으로 한다.
다음에, 양자화 이득 생성부(906)는 제 2 양자화 적응 음원 이득을 곱셈기(908)와 부호화 정보 조작부(911)에 출력하고, 제 2 양자화 고정 음원 이득을 곱셈기(909)와 부호화 정보 조작부(911)에 출력한다. 부호화 정보 조작부(911)에 출력된 제 2 양자화 적응 음원 이득과 제 2 양자화 고정 음원 이득은, 다음 프레임의 복호화 처리시에 이전 프레임 제 2 양자화 적응 음원 이득과 이전 프레임 제 2 양자화 고정 음원 이득으로서 이용된다.
고정 음원 코드북(907)은 부호화 정보 조작부(911)로부터 프레임 손실 정보가 입력한다. 고정 음원 코드북(907)은, 프레임 정보가 「2」 또는 「3」인 경우, 다중화 분리부(901)로부터 제 2 고정 음원 벡터 부호(F2)를 입력하여, 제 2 고정 음원 벡터 부호(F2)로 지정되는 제 2 고정 음원 벡터를 생성한다. 고정 음원 코드북(907)은, 프레임 정보가 「0」 또는 「1」인 경우, 부호화 정보 조작부(911)로부터 이전 프레임 제 2 고정 음원 벡터를 입력하여, 이것을 제 2 고정 음원 벡터로 한다. 다음에, 고정 음원 코드북(907)은 제 2 고정 음원 벡터를 곱셈기(909)와 부호화 정보 조작부(911)에 출력한다. 부호화 정보 조작부(911)에 출력된 제 2 고정 음원 벡터는, 다음 프레임의 복호화 처리 시에 전 프레임 제 2 고정 음원 벡터로서 이용된다.
곱셈기(908)는 제 2 적응 음원 벡터에 제 2 양자화 적응 음원 이득을 곱셈하여 가산기(910)에 출력한다. 곱셈기((909))는, 제 2 고정 음원 벡터에 제 2 양자화 고정 음원 이득을 곱셈하여 가산기(910)에 출력한다.
가산기(910)는 곱셈기(908),(909)로부터 출력된 이득 곱셈 후의 제 2 적응 음원 벡터와 제 2 고정 음원 벡터를 가산해 구동 음원을 생성하고, 구동 음원을 합성 필터(903)와 적응 음원 코드북(905)에 출력한다.
합성 필터(903)는 가산기(910)로부터 출력된 구동 음원과, LSP 복호화부(902)에 의해 복호화 된 필터 계수를 이용해 필터 합성을 행하고, 합성 신호를 후처리부(904)에 출력한다.
후처리부(904)는 합성 필터(903)로부터 출력된 합성 신호에 대해서, 포만트 강조나 피치 강조 등 음성의 주관적인 품질을 개선하는 처리나, 정상 잡음의 주관적 품질을 개선하는 처리 등을 가하여, 제 2 복호화 신호로서 출력한다.
부호화 정보 조작부(911)는 각종 파라미터를 기억하는 버퍼를 내부에 구비하고, 이전 프레임에서 구해진 양자화 잔차 LSP(이전 프레임 양자화 잔차 LSP)와, 이전 프레임에서 구해진 제 2 적응 음원 래그(이전 프레임 제 2 적응 음원 래그)와 이전 프레임에서 구해진 제 2 양자화 적응 음원 이득(이전 프레임 제 2 양자화 적응 음원 이득)과, 이전 프레임에서 구해진 제 2 양자화 고정 음원 이득(이전 프레임 제 2 양자화 고정 음원 이득)과, 이전 프레임에서 구해진 제 2 고정 음원 벡터(이전 프레임 제 2 고정 음원 벡터)를 버퍼에 기억하고 있다.
부호화 정보 조작부(911)는 프레임 손실 검출부(152)로부터 프레임 손실 정보를 입력한다. 부호화 정보 조작부(911)는, 프레임 손실 정보가 「1」 또는 「3」인 경우, 제 1 복호화부(153)로부터 제 1 양자화 LSP와 제 1 적응 음원 래그와 제 1 양자화 적응 음원 이득과 제 1 양자화 고정 음원 이득을 입력한다. 부호화 정보 조작부(911)는, 프레임 손실 정보가 「0」 또는 「2」인 경우, 제 1 복호화부(153)로부터 이전 프레임 제 1 양자화 LSP와 이전 프레임 제 1 적응 음원 래그를 입력한다. 다음에, 부호화 정보 조작부(911)는 프레임 손실 정보를 LSP 복호화부(902)와 적응 음원 코드북(905)과 양자화 이득 생성부(906)와 고정 음원 코드북(907)에 출력한다. 부호화 정보 조작부(911)는, 프레임 손실 정보가 「0」인 경 우, LSP 복호화부(902)에 이전 프레임 제 1 양자화 LSP와 이전 프레임 양자화 잔차 LSP를, 적응 음원 코드북(905)에 이전 프레임 제 1 적응 음원 래그와 이전 프레임 제 2 적응 음원 래그를, 양자화 이득 생성부(906)에 이전 프레임 제 2 양자화 적응 음원 이득과 이전 프레임 제 2 양자화 고정 음원 이득을, 고정 음원 코드북(907)에 이전 프레임 제 2 고정 음원 벡터를 출력한다. 부호화 정보 조작부(911)는, 프레임 손실 정보가 「1」인 경우, LSP 복호화부(902)에 제 1 양자화 LSP와 이전 프레임 양자화 잔차 LSP를, 적응 음원 코드북(905)에 제 1 적응 음원 래그와 이전 프레임 제 2 적응 음원 래그를, 양자화 이득 생성부(906)에 제 1 양자화 적응 음원 이득과 제 1 양자화 고정 음원 이득과 이전 프레임 제 2 양자화 적응 음원 이득과 이전 프레임 제 2 양자화 고정 음원 이득을, 고정 음원 코드북(907)에 이전 프레임 제 2 고정 음원 벡터를 출력한다. 부호화 정보 조작부(911)는, 프레임 손실 정보가 「2」인 경우, LSP 복호화부(902)에 이전 프레임 제 1 양자화 LSP를, 적응 음원 코드북(905)에 이전 프레임 제 1 적응 음원 래그를 출력한다. 부호화 정보 조작부(911)는, 프레임 손실 정보가 「3」인 경우, LSP 복호화부(902)에 제 1 양자화 LSP를, 적응 음원 코드북(905)에 제 1 적응 음원 래그를 출력한다.
다음에, 부호화 정보 조작부(911)는 현재 프레임에서의 복호화 처리에 이용된 양자화 잔차 LSP를 LSP 복호화부(902)로부터, 제 2 적응 음원 래그를 적응 음원 코드북(905)로부터, 제 2 양자화 적응 음원 이득과 제 2 양자화 고정 음원 이득을 양자화 이득 생성부(906)로부터, 제 2 고정 음원 벡터를 고정 음원 코드북(907)으로부터 입력한다. 다음에, 부호화 정보 조작부(911)는, 프레임 손실 정보가 「2」 인 경우, 양자화 잔차 LSP와 제 2 적응 음원 래그와 제 2 양자화 적응 음원 이득과 제 2 양자화 고정 음원 이득을 제 1 복호화부(153)에 출력한다.
부호화 정보 조작부(911)는, 이상의 처리가 종료한 후, 현재 프레임에서의 복호화 처리에 이용된 양자화 잔차 LSP를 이전 프레임 양자화 잔차 LSP로서, 제 2 적응 음원 래그를 이전 프레임 제 2 적응 음원 래그로서, 제 2 양자화 적응 음원 이득을 이전 프레임 제 2 양자화 적응 음원 이득으로서, 제 2 양자화 고정 음원 이득을 이전 프레임 제 2 양자화 고정 음원 이득으로서, 제 2 고정 음원 벡터를 이전 프레임 제 2 고정 음원 이득으로서 버퍼에 기억하여, 버퍼의 업데이터를 행한다.
이와 같이, 제 1 복호화부(153), 제 2 복호화부(154)에 있어서, 제 1 부호화 정보, 제 2 부호화 정보, 이전 프레임 제 1 부호화 정보, 이전 프레임 제 2 부호화 정보 중에서, 프레임 손실 정보에 따라 복호화에 이용하는 파라미터를 적절하게 선택함으로써, 부호화 정보의 손실 상태에 적합한 복호화를 행할 수가 있어, 품질좋은 복호화 신호를 얻을 수 있다.
다음에, 부호화 정보 조작부(811)의 내부 구성에 대해 도 10에 나타내는 블록도를 이용해 설명한다. 프레임 손실 정보 분배부(1001)는 프레임 손실 검출부(152)로부터 프레임 손실 정보를 입력하여, 이것을 제 1 부호화 정보 분배부(1002), 부호화 정보 기억부(1003), 제 2 부호화 정보 분배부(1004), LSP 복호화부(802), 적응 음원 코드북(805), 양자화 이득 생성부(806) 및 고정 음원 코드북(807)에 출력한다.
제 1 부호화 정보 분배부(1002)는, 프레임 손실 정보 분배부(1001)로부터 프 레임 손실 정보를 입력한다. 다음에, 제 1 부호화 정보 분배부(1002)는, LSP 복호화부(802)로부터 제 1 양자화 LSP를, 적응 음원 코드북(805)으로부터 제 1 적응 음원 래그를, 양자화 이득 생성부(806)로부터 제 1 양자화 적응 음원 이득과 제 1 양자화 고정 음원 이득을, 고정 음원 코드북(807)으로부터 제 1 고정 음원 벡터를 입력한다. 다음에, 제 1 부호화 정보 분배부(1002)는, 제 1 양자화 LSP, 제 1 적응 음원 래그, 제 1 고정 음원 벡터, 제 1 양자화 적응 음원 이득 및 제 1 양자화 고정 음원 이득을 부호화 정보 기억부(1003)에 출력한다. 다음에, 제 1 부호화 정보 분배부(1002)는, 프레임 손실 정보가 「1」 또는 「3」인 경우, 제 1 양자화 LSP와 제 1 적응 음원 래그와 제 1 고정 음원 벡터와 제 1 양자화 적응 음원 이득과 제 1 양자화 고정 음원 이득을 제 2 복호화부(154)에 출력한다.
부호화 정보 기억부(1003)는 프레임 손실 정보 분배부(1001)로부터 프레임 손실 정보를 입력한다. 또, 부호화 정보 기억부(1003)는, 이전 프레임의 제 1 양자화 LSP, 제 1 적응 음원 래그, 제 1 고정 음원 벡터, 제 1 양자화 적응 음원 이득 및 제 1 양자화 고정 음원 이득을 기억하는 버퍼를 내부에 구비한다. 다음에, 부호화 정보 기억부(1003)는, 프레임 손실 정보가 「0」 또는 「2」인 경우, 이전 프레임 제 1 양자화 LSP를 LSP 복호화부(802)에 출력하고, 이전 프레임 제 1 적응 음원 래그를 적응 음원 코드북(805)에 출력하고, 이전 프레임 제 1 고정 음원 벡터를 고정 음원 코드북(807)에 출력하고, 이전 프레임 제 1 양자화 적응 음원 이득과 이전 프레임 제 1 양자화 고정 음원 이득을 양자화 이득 생성부(806)에 출력한다. 또, 부호화 정보 기억부(1003)는, 프레임 손실 정보가 「0」 또는 「2」인 경우, 이전 프레임 제 1 양자화 LSP와 이전 프레임 제 1 적응 음원 래그를 제 2 복호화부(154)에 출력한다. 다음에, 부호화 정보 기억부(1003)는, 제 1 부호화 정보 분배부(1002)로부터 제 1 양자화 LSP, 제 1 적응 음원 래그, 제 1 고정 음원 벡터, 제 1 양자화 적응 음원 이득 및 제 1 양자화 고정 음원 이득을 입력한다. 다음에, 부호화 정보 기억부(1003)는, 제 1 양자화 LSP, 제 1 적응 음원 래그, 제 1 고정 음원 벡터, 제 1 양자화 적응 음원 이득 및 제 1 양자화 고정 음원 이득을 버퍼에 기억함으로써, 버퍼의 업데이터를 행한다. 기억된 제 1 양자화 LSP, 제 1 적응 음원 래그, 제 1 고정 음원 벡터, 제 1 양자화 적응 음원 이득 및 제 1 양자화 고정 음원 이득은, 다음 프레임에 있어서, 이전 프레임 제 1 양자화 LSP, 이전 프레임 제 1 적응 음원 래그, 이전 프레임 제 1 고정 음원 벡터, 이전 프레임 제 1 양자화 적응 음원 이득 및 이전 프레임 제 1 양자화 고정 음원 이득으로서 이용된다.
제 2 부호화 정보 분배부(1004)는 프레임 손실 정보 분배부(1001)로부터 프레임 손실 정보를 입력한다. 다음에, 제 2 부호화 정보 분배부(1004)는, 프레임 손실 정보가 「2」인 경우, 제 2 복호화부(154)로부터 양자화 잔차 LSP, 제 2 적응 음원 래그, 제 2 양자화 적응 음원 이득 및 제 2 양자화 고정 음원 이득을 입력한다. 다음에, 제 2 부호화 정보 분배부(1004)는, 프레임 손실 정보가 「2」인 경우, 양자화 잔차 LSP를 LSP 복호화부(802)에 출력하고, 제 2 적응 음원 래그를 적응 음원 코드북(805)에 출력하고, 제 2 양자화 적응 음원 이득과 제 2 양자화 고정 음원 이득을 양자화 이득 생성부(806)에 출력한다.
다음에, 부호화 정보 조작부(911)의 내부 구성에 대해 도 11에 나타내는 블 록도를 이용해 설명한다. 프레임 손실 정보 분배부(1101)는, 프레임 손실 검출부(152)로부터 프레임 손실 정보를 입력하고, 이것을 제 1 부호화 정보 분배부(1102), 부호화 정보 기억부(1103), 제 2 부호화 정보 분배부(1104), LSP 복호화부(902), 적응 음원 코드북(905), 양자화 이득 생성부(906) 및 고정 음원 코드북(907)에 출력한다.
제 1 부호화 정보 분배부(1102)는 프레임 손실 정보 분배부(1101)로부터 프레임 손실 정보를 입력한다. 다음에, 제 1 부호화 정보 분배부(1102)는, 프레임 손실 정보가 「1」 또는 「3」인 경우, 제 1 복호화부(153)로부터 제 1 양자화 LSP, 제 1 적응 음원 래그, 제 1 양자화 적응 음원 이득 및 제 1 양자화 고정 음원 이득을 입력한다. 또, 제 1 부호화 정보 분배부(1102)는, 프레임 손실 정보가 「0」 또는 「2」인 경우, 제 1 복호화부(153)로부터 이전 프레임 제 1 양자화 LSP와 이전 프레임 제 1 적응 음원 래그를 입력한다. 다음에, 제 1 부호화 정보 분배부(1102)는, 프레임 손실 정보가 「1」 또는 「3」인 경우, 제 1 양자화 LSP를 LSP 복호화부(902)에 출력하고, 제 1 적응 음원 래그를 적응 음원 코드북(905)에 출력한다. 또, 제 1 부호화 정보 분배부(1102)는, 프레임 손실 정보가 「1」인 경우, 제 1 양자화 적응 음원 이득과 제 1 양자화 고정 음원 이득을 양자화 이득 생성부(906)에 출력한다. 또, 제 1 부호화 정보 분배부(1102)는, 프레임 손실 정보가 「0」 또는 「2」인 경우, 이전 프레임 제 1 양자화 LSP를 LSP 복호화부(902)에 출력하고, 이전 프레임 제 1 적응 음원 래그를 적응 음원 코드북(905)에 출력한다.
제 2 부호화 정보 분배부(1104)는 프레임 손실 정보 분배부(1101)로부터 프 레임 손실 정보를 입력한다. 다음에, 제 2 부호화 정보 분배부(1104)는, LSP 복호화부(902)로부터 양자화 잔차 LSP를, 적응 음원 코드북(905)으로부터 제 2 적응 음원 래그를, 양자화 이득 생성부(906)로부터 제 2 양자화 적응 음원 이득과 제 2 양자화 고정 음원 이득을, 고정 음원 코드북(907)으로부터 제 2 고정 음원 벡터를 입력한다. 다음에, 제 2 부호화 정보 분배부(1104)는, 양자화 잔차 LSP, 제 2 적응 음원 래그, 제 2 고정 음원 벡터, 제 2 양자화 적응 음원 이득 및 제 2 양자화 고정 음원 이득을 부호화 정보 기억부(1103)에 출력한다. 다음에, 제 2 부호화 정보 분배부(1104)는, 프레임 손실 정보가 「2」인 경우, 양자화 잔차 LSP, 제 2 적응 음원 래그, 제 2 양자화 적응 음원 이득 및 제 2 양자화 고정 음원 이득을 제 1 복호화부(153)에 출력한다.
부호화 정보 기억부(1103)는 프레임 손실 정보 분배부(1101)로부터 프레임 손실 정보를 입력한다. 또, 부호화 정보 기억부(1103)는, 이전 프레임의 양자화 잔차 LSP, 제 2 적응 음원 래그, 제 2 고정 음원 벡터, 제 2 양자화 적응 음원 이득 및 제 2 양자화 고정 음원 이득을 기억하는 버퍼를 내부에 구비한다. 다음에, 부호화 정보 기억부(1103)는, 프레임 손실 정보가 「0」 또는 「1」인 경우, 이전 프레임 양자화 잔차 LSP를 LSP 복호화부(902)에 출력하고, 이전 프레임 제 2 적응 음원 래그를 적응 음원 코드북(905)에 출력하고, 이전 프레임 제 2 고정 음원 벡터를 고정 음원 코드북(907)에 출력하고, 이전 프레임 제 2 양자화 적응 음원 이득과 이전 프레임 제 2 양자화 고정 음원 이득을 양자화 이득 생성부(906)에 출력한다. 다음에, 부호화 정보 기억부(1103)는, 제 2 부호화 정보 분배부(1104)로부터 양자 화 잔차 LSP, 제 2 적응 음원 래그, 제 2 고정 음원 벡터, 제 2 양자화 적응 음원 이득 및 제 2 양자화 고정 음원 이득을 입력한다. 다음에, 부호화 정보 기억부(1103)는, 양자화 잔차 LSP, 제 2 적응 음원 래그, 제 2 고정 음원 벡터, 제 2 양자화 적응 음원 이득 및 제 2 양자화 고정 음원 이득을 버퍼에 기억함으로써 버퍼의 업데이터를 행한다. 기억된 양자화 잔차 LSP, 제 2 적응 음원 래그, 제 2 고정 음원 벡터, 제 2 양자화 적응 음원 이득 및 제 2 양자화 고정 음원 이득은, 다음 프레임에 있어서, 이전 프레임 양자화 잔차 LSP, 이전 프레임 제 2 적응 음원 래그, 이전 프레임 제 2 고정 음원 벡터, 이전 프레임 제 2 양자화 적응 음원 이득 및 이전 프레임 제 2 양자화 고정 음원 이득으로서 이용된다.
도 12는 프레임 손실 정보, 및 제 1 복호화부(153)와 제 2 복호화부(154)가 프레임 손실 정보에 따라 복호화에 이용하는 파라미터의 종류를 나타낸 도면이다. 또한, 프레임 손실 정보와 이에 대응하는 제 1 부호화 정보 상태와 제 2 부호화 정보 상태를 아울러 나타낸다. 또한, 도 12에 있어서, 「lsp」는 제 1 양자화 LSP, 「p_lsp」는 이전 프레임 제 1 양자화 LSP를, 「lag」는 제 1 적응 음원 래그를, 「p_lag」는 이전 프레임 제 1 적응 음원 래그를, 「sc」는 제 1 고정 음원 벡터를, 「p_sc」는 이전 프레임 제 1 고정 음원 벡터를, 「ga」는 제 1 양자화 적응 음원 이득을, 「p_ga」는 이전 프레임 제 1 양자화 적응 음원 이득을, 「gs」는 제 1 양자화 고정 음원 이득을, 「p_gs」는 이전 프레임 제 1 양자화 고정 음원 이득을, 「d_lsp」는 양자화 잔차 LSP를, 「p_d_lsp」는 이전 프레임 양자화 잔차 LSP를, 「d_lag」는 제 2 적응 음원 래그를, 「p_d_lag」는 이전 프레임 제 2 적응 음 원 래그를, 「e_sc」는 제 2 고정 음원 벡터를, 「p_e_sc」는 이전 프레임 제 2 고정 음원 벡터를, 「e_ga」는 제 2 양자화 적응 음원 이득을, 「p_e_ga」는 이전 프레임 제 2 양자화 적응 음원 이득을, 「e_gs」는 제 2 양자화 고정 음원 이득을, 「p_e_gs」는 이전 프레임 제 2 양자화 고정 음원 이득을 각각 나타낸다.
또, 도 12에 있어서, 「정상 수신」은 부호화 정보가 정상적으로 수신된 상태를 나타내고, 「손실」은 정상적으로 수신되지 않은(손실한) 상태를 나타낸다.
프레임 손실 정보가 「3」인 경우, 제 1 부호화 정보, 제 2 부호화 정보 모두 정상 수신되므로, 제 1 복호화부(153)와 제 2 복호화부(154)는, 수신된 제 1 부호화 정보와 제 2 부호화 정보를 이용해 복호화를 행한다. 즉, 프레임 손실을 고려하지 않는 통상의 복호화를 행한다.
프레임 손실 정보가 「2」인 경우, 제 1 부호화 정보가 정상 수신되지 않기 때문에, 제 1 복호화부(153)와 제 2 복호화부(154)는, 제 1 부호화 정보 대신에 이전 프레임의 제 1 부호화 정보를 이용해 복호화를 행한다. 또, 제 1 복호화부(153)는, 이전 프레임의 제 1 부호화 정보에 추가하여, 제 2 부호화 정보를 이용해 복호화를 행함으로써 복호화 신호의 품질 향상을 꾀하고 있다.
프레임 손실 정보가 「1」인 경우, 제 2 부호화 정보가 정상 수신되지 않기 때문에, 제 2 복호화부(154)는 제 2 부호화 정보 대신에 이전 프레임의 제 2 부호화 정보를 이용해 복호화를 행한다.
프레임 손실 정보가 「0」인 경우, 제 1 부호화 정보, 제 2 부호화 정보 모두 정상 수신되지않기 때문에, 제 1 복호화부(153)와 제 2 복호화부(154)는 제 1 부호화 정보와 제 2 부호화 정보 대신에 이전 프레임의 제 1 부호화 정보와 이전 프레임의 제 2 부호화 정보를 이용해 복호화를 행한다.
도 13은 제 1 부호화 정보가 정상 수신되지 않은 경우, 제 1 복호화부(153)가, 이전 프레임 제 1 부호화 정보에 추가하여, 제 2 부호화 정보를 이용해 복호화를 행함으로써, 복호화 신호의 품질 향상을 꾀하는 것이 가능함을 시각적으로 설명하는 도면이다.
여기서는, 제 1 복호화부(153)의 LSP 복호화부(802)가 제 1 양자화 LSP를 구하는 경우를 예로 들어 설명한다. 또, 설명을 간단하게 하기 위해서, 제 1 양자화 LSP는 이차원의 벡터라고 한다.
도 13에 있어서, 참조 부호(1300)는 제 1 양자화 LSP와 양자화 잔차 LSP와 제 1 LSP를 모식적으로 나타낸 그래프이다. 여기서, 「X」는 제 1 LSP를 나타내고, 긴 쪽의 화살표는 제 1 양자화 LSP를 나타내며, 짧은 쪽의 화살표는 양자화 잔차 LSP를 나타낸다. 제 1 양자화 LSP는 제 1 부호화 정보에, 양자화 잔차 LSP는 제 2 부호화 정보에 포함된다.
또, 참조 부호(1301)는 제 1 양자화 LSP와 이전 프레임 제 1 양자화 LSP와 제 1 LSP를 모식적으로 나타낸 그래프이다. 여기서, 「X」은 제 1 LSP를 나타내고, 점선의 화살표는 제 1 양자화 LSP를 나타내고, 실선의 화살표는 이전 프레임 제 1 양자화 LSP를 나타낸다. 즉, 제 1 부호화 정보(제 1 양자화 LSP)가 정상 수신되지 않아, LSP 복호화부(802)가, 이전 프레임 제 1 양자화 LSP만을 이용해 제 1 양자화 LSP를 구하는(이전 프레임 제 1 양자화 LSP를 제 1 양자화 LSP로 함) 경우 를 나타낸다.
또, 참조 부호(1302)는 제 1 양자화 LSP와 이전 프레임 제 1 양자화 LSP와 양자화 잔차 LSP와 제 1 LSP를 모식적으로 나타낸 그래프이다. 여기서, 「X」은 제 1 LSP를 나타내고, 점선의 화살표는 제 1 양자화 LSP를 나타내고, 긴 쪽의 실선 화살표는 이전 프레임 제 1 양자화 LSP를 나타내고, 짧은 쪽의 실선의 화살표는 양자화 잔차 LSP를 나타낸다. 즉, 제 1 부호화 정보(제 1 양자화 LSP)가 정상 수신되지 않아, LSP 복호화부(802)가, 이전 프레임 제 1 양자화 LSP와 양자화 잔차 LSP를 가산하고, 가산한 결과를 제 1 양자화 LSP로 하는 경우를 나타낸다.
제 1 양자화 LSP와 이전 프레임 제 1 양자화 LSP간의 상관(相關)이 높고, 오차가 작을 경우, 이전 프레임 제 1 양자화 LSP만을 이용하는 수법(1301)에 비해, 이전 프레임 제 1 양자화 LSP와 양자화 잔차 LSP를 이용하는 수법(1302)이, 구하는 제 1 양자화 LSP가 제 1 LSP (「X」)에 가까워진다.
그렇지만, 제 1 양자화 LSP와 이전 프레임 제 1 양자화 LSP간의 상관이 낮고 오차가 클 경우, 이전 프레임 제 1 양자화 LSP와 양자화 잔차 LSP를 이용하는 수법 쪽이, 구하는 제 1 양자화 LSP가 반드시 제 1 LSP(「X」)에 가까워지는 것은 아니다(1303). 그래서, 이전 프레임 제 1 양자화 LSP만을 이용하는 수법과, 이전 프레임 제 1 양자화 LSP와 양자화 잔차 LSP를 이용하는 수법과의 양쪽의 수법에 대해서, 실제로 프레임 단위로 제 1 양자화 LSP를 구하고, 비교하여, 어느 수법의 제 1 양자화 LSP가 제 1 LSP에 가까워지는지를 프레임 단위로 출력하는 실험을 실시했다. 8초 전후의 음성 신호를 8 샘플 이용하여 실험을 행한 결과, 8 샘플 전부에 대해서, 후자의 수법이 제 1 LSP에 가까워지는 프레임수가 많다고 하는 결과를 얻을 수 있었다. 또, 특히 유성(有聲) 구간에 있어서, 상기 경향이 강하게 나타나는 것을 알았다.
또한, 본 실시예에서는 부호화 장치(100)가 2개의 부호화부를 가지는 경우를 예로 들어 설명했지만, 부호화부의 수는 이것으로 한정되지 않으며, 3개 이상이어도 좋다.
또, 본 실시예에서는 복호화 장치(150)가 2개의 복호화부를 가지는 경우를 예로 들어 설명했지만, 복호화부의 수는 이것으로 한정되지 않으며, 3개 이상이어도 좋다.
또, 본 실시예에서는 프레임 손실 정보가 「0」인 경우, 제 1 복호화부(153)는 이전 프레임의 제 1 부호화 정보만을 이용해 복호화를 행하는 경우에 대해 설명했지만, 제 1 복호화부(153)가, 이전 프레임의 제 1 부호화 정보에 추가하여, 이전 프레임의 제 2 부호화 정보를 이용해 복호화를 행하는 경우에 대해서도 본 발명은 적용할 수가 있으며, 본 실시예와 동일한 작용·효과를 얻을 수 있다. 이 경우, 프레임 손실 정보가 「2」인 경우의 제 1 복호화부(153)의 복호화 방법과 동일한 방법으로 제 1 복호화 신호를 구할 수 있다.
또, 본 실시예에서는 플래그 정보를 이용해, 제 1 복호화부(153)가 복호화에 이용하는 부호화 정보에 제 2 부호화 정보를 포함시키는지 포함시키지 않는지를 지시하는 경우에 대해 설명했지만, 플래그 정보를 이용하지 않고, 제 1 복호화부(153)가 복호화에 이용하는 부호화 정보에 제 2 부호화 정보를 반드시 포함시키 는 경우에 대해서도 본 발명은 적용할 수가 있으며, 본 실시예와 동일한 작용,효과를 얻을 수 있다.
또, 본 실시예에서는 제 1 복호화부(153)와 제 2 복호화부(154)가, 이전 프레임의 부호화 정보를 그대로 현재 프레임의 부호화 정보로서 이용하여 복호화 신호를 생성하는 경우에 대해 설명했지만, 현재 프레임에서 생성되는 구동 음원이 이전 프레임에서 생성된 구동 음원에 비해 약간 감쇠하도록, 이전 프레임의 부호화 정보에, 어느 일정한 감쇠율을 곱해서 구동 음원을 구하여, 복호화 신호를 생성해도 좋다. 예를 들면, 프레임 손실 정보가 「2」인 경우, 양자화 이득 생성부(806)는, 구한 제 1 양자화 적응 음원 이득(제 1 양자화 고정 음원 이득)에, 어느 일정한 감쇠율(예를 들면, 0.9)을 곱셈하고, 곱셈 결과를 제 1 양자화 적응 음원 이득(제 1 양자화 고정 음원 이득)으로서 출력함으로써, 현재 프레임에서 생성되는 구동 음원을 감쇠시킬 수 있다.
또, 본 실시예에서는, 프레임 손실 정보가 「2」인 경우, 양자화 이득 생성부(806)는 이전 프레임 제 1 양자화 적응 음원 이득(이전 프레임 제 1 양자화 고정 음원 이득)과 제 2 양자화 적응 음원 이득(제 2 양자화 고정 음원 이득)을 가산하고, 가산 결과에 0.5를 곱한 결과를 제 1 양자화 적응 음원 이득(제 1 양자화 고정 음원 이득)으로 하는 경우에 대해 설명했지만, 이전 프레임 제 1 양자화 적응 음원 이득(이전 프레임 제 1 양자화 고정 음원 이득)과 제 2 양자화 적응 음원 이득(제 2 양자화 고정 음원 이득)을 어느 일정한 비율로 서로 더하여 제 1 양자화 적응 음원 이득(제 1 양자화 고정 음원 이득)을 구해도 좋다. 예를 들면, 식(7)을 이용하 여, 제 1 양자화 적응 음원 이득(제 1 양자화 고정 음원 이득) b_gain을 구할 수 있다.
Figure 112006086182803-PCT00007
여기서, p_gain는 이전 프레임 제 1 양자화 적응 음원 이득(이전 프레임 제 1 양자화 고정 음원 이득)이며, e_gain는 제 2 양자화 적응 음원 이득(제 2 양자화 고정 음원 이득)이며, β는 0에서 1까지의 어느것인가의 값을 취한다. 또, β의 값은 임의로 설정할 수 있다.
또, 본 실시예에서는, 프레임 손실 정보가 「1」인 경우, 양자화 이득 생성부(906)는 제 1 양자화 적응 음원 이득(제 1 양자화 고정 음원 이득)과 이전 프레임 제 2 양자화 적응 음원 이득(이전 프레임 제 2 양자화 고정 음원 이득)을 가산하고, 가산 결과에 0.5를 곱한 결과를 제 2 양자화 적응 음원 이득(제 2 양자화 고정 음원 이득)으로 하는 경우에 대해 설명했지만, 상기와 같은 방법을 이용해 제 2 양자화 적응 음원 이득(제 2 양자화 고정 음원 이득)을 구해도 좋다.
또, 본 실시예에서는 프레임 손실 정보로서 10진수를 이용하는 경우를 예로 들어 설명했지만, 프레임 손실 정보로서 2진수를 이용하는 경우에 대해서도 본 발명은 적용할 수가 있으며, 본 실시예와 동일한 작용,효과를 얻을 수 있다. 예를 들면, 2개의 부호화 정보(제 1~2 부호화 정보)의 상태를 2진수를 가지고 표현하는 경우, 정상적으로 수신되고 있는 상태를 「1」, 정상적으로 수신되고 있지 않은 상태를 「0」으로 나타냄으로써, 2자리수의 2진수(「00」~「11」)로 프레임 손실 정 보를 표현할 수 있다.
또, 본 실시예에서는, 고정 음원 코드북(208)이 생성하는 고정 음원 벡터가 펄스에 의해 형성되고 있는 경우에 대해 설명했지만, 고정 음원 벡터를 형성하는 펄스가 확산 펄스인 경우에 대해서도 본 발명은 적용할 수가 있으며, 본 실시예와 동일한 작용,효과를 얻을 수 있다.
또, 본 실시예에서는, 부호화부/복호화부가 CELP 타입의 음성음악 부호화/복호화 방법인 경우에 대해 설명했지만, 부호화부/복호화부가 CELP 타입 이외의 음성음악 부호화/복호화 방법(예를 들면, 펄스부호변조, 예측 부호화, 벡터 양자화, 보코더)인 경우에 대해서도 본 발명은 적용할 수가 있으며, 본 실시예와 동일한 작용,효과를 얻을 수 있다. 또, 음성음악 부호화/복호화 방법이 각각의 부호화부/복호화부에 있어서 다른 음성음악 부호화/복호화 방법인 경우에 대해서도 본 발명은 적용할 수가 있으며, 본 실시예와 동일한 작용·효과를 얻을 수 있다.
(실시예 2)
도 14a는 상기 실시예 1에서 설명한 부호화 장치를 포함한, 본 발명의 실시예 2에 따른 음성음악 송신 장치의 구성을 나타내는 블록도이다.
음성음악 신호(1401)는 입력장치(1402)에 의해 전기적 신호로 변환되어 A/D변환 장치(1403)에 출력된다. A/D변환 장치(1403)는 입력장치(1402)로부터 출력된 (아날로그) 신호를 디지털 신호로 변환하여, 음성음악 부호화 장치(1404)에 출력한다. 음성음악 부호화 장치(1404)는, 도 1에 나타낸 부호화 장치(100)를 실장하고, A/D변환 장치(1403)로부터 출력된 디지털 음성음악 신호를 부호화하고, 부호화 정보를 RF변조 장치(1405)에 출력한다. RF변조 장치(1405)는 음성음악 부호화 장치(1404)로부터 출력된 부호화 정보를 전파 등의 전파(傳播) 매체에 실어 송출하기 위한 신호로 변환해 송신 안테나(1406)에 출력한다. 송신 안테나(1406)는 RF 변조 장치(1405)로부터 출력된 출력 신호를 전파(RF신호)로서 송출한다. 또한, 도면중에 RF신호(1407)는 송신 안테나 (1406)로부터 송출된 전파(RF신호)를 나타낸다.
이상이 음성음악 신호 송신 장치의 구성 및 동작이다.
도 14b는 상기 실시예 1에서 설명한 복호화 장치를 포함한 본 발명의 실시예 2에 따른 음성음악 수신장치의 구성을 나타내는 블록도이다.
RF신호(1408)는 수신 안테나(1409)에 의해 수신되어 RF 복조 장치(1410)에 출력된다. 또한, 도면 중 RF신호(1408)는 수신 안테나(1409)에 수신된 전파를 나타내며, 전파로(傳播路)에 있어서 신호의 감쇠나 잡음의 중첩이 없으면 RF신호(1407)와 완전히 동일한 것이 된다.
RF복조 장치(1410)는 수신 안테나(1409)로부터 출력된 RF신호에서 부호화 정보를 복조하여, 음성음악 복호화 장치(1411)에 출력한다. 음성음악 복호화 장치(1411)는 도 1에 나타낸 복호화 장치(150)를 실장하고, RF복조 장치(1410)로부터 출력된 부호화 정보에서 음성음악 신호를 복호하여, D/A변환 장치(1412)에 출력한다. D/A변환 장치(1412)는 음성음악 복호화 장치(1411)로부터 출력된 디지털 음성음악 신호를 아날로그의 전기적 신호로 변환해 출력장치(1413)에 출력한다. 출력장치(1413)는 전기적 신호를 공기의 진동으로 변환하여 음파로서 인간의 귀에 들리 도록 출력한다. 또한, 도면 중 참조 부호(1414)는 출력된 음파를 나타낸다.
이상이 음성음악 신호 수신장치의 구성 및 동작이다.
무선 통신 시스템에 있어서의 기지국 장치 및 통신 단말장치에, 상기와 같은 음성음악 신호 송신 장치 및 음성음악 신호 수신장치를 구비함으로써, 고품질의 출력 신호를 얻을 수 있다.
이와 같이, 본 실시예에 의하면, 본 발명에 따른 부호화 장치 및 복호화 장치를 음성음악 신호 송신 장치 및 음성음악 신호 수신장치에 실장할 수 있다.
본 발명에 따른 부호화 장치 및 복호화 장치는, 상기의 실시예 1~2로 한정되지 않으며, 여러 가지로 변형하여 실시하는 것이 가능하다.
본 발명에 따른 부호화 장치 및 복호화 장치는, 이동 통신 시스템에 있어서의 이동 단말장치 및 기지국 장치에 탑재하는 것도 가능하며, 이에 의해 상기와 같은 작용, 효과를 가지는 이동 단말장치 및 기지국 장치를 제공할 수 있다.
또한, 여기에서는, 본 발명을 하드웨어로 구성하는 경우를 예를 들어 설명했지만, 본 발명은 소프트웨어로 실현되는 것도 가능하다.
본 명세서는, 2004년 5월 24일에 출원한 특허출원 2004-153997에 기초하는 것이다. 그 내용은 모두 여기에 포함시켜 놓는다.
본 발명에 따른 부호화 장치 및 복호화 장치는 부호화 정보를 잃어버린 경우라 하더라도, 품질 좋은 복호화 음성 신호를 얻는 효과를 가지며, 음성음악 신호를 부호화해서 전송하는 통신 시스템에 있어서 사용되는 음성음악 부호화 장치 및 음성음악 복호화 방법 등으로서 유용하다.

Claims (16)

  1. 스케일러블 부호화를 이용하여, 복수 계층으로 구성된 부호화 정보를 복호화하여 복호화 신호를 생성하는 음성음악 복호화 장치로서,
    수신된 프레임의 상기 각 계층의 부호화 정보가 정상인지 아닌지를 판정하고, 판정 결과인 프레임 손실 정보를 생성하는 프레임 손실 검출 수단과,
    상기 프레임 손실 정보에 따라 상기 수신된 부호화 정보와 과거에 수신된 복수의 부호화 정보로부터 각 계층의 복호화에 이용하는 부호화 정보를 결정하고, 결정한 부호화 정보를 이용해 복호화를 행함으로써 복호화 신호를 생성하는, 상기 계층과 동일한 수의 복호화 수단
    을 구비하는 음성음악 복호화 장치.
  2. 제 1 항에 있어서,
    상기 제i계층 (i는 2이상의 정수)의 복호화 수단은, 제i계층에 있어서 프레임 손실이 검출되었을 경우, 수신된 제(i+1) 계층 이후의 부호화 정보와 이전 프레임의 제i계층의 부호화 정보로부터 적어도 1개 이상의 부호화 정보를 선택하고, 선택한 부호화 정보를 이용해 복호화를 행함으로써 복호화 신호를 생성하는 음성음악 복호화 장치.
  3. 제 1 항에 있어서,
    상기 제 1 계층의 복호화 수단은, 제 1 계층의 부호화 정보가 정상적으로 수신되지 않은 경우, 제 2 계층의 부호화 정보와 이전 프레임의 제 1 계층의 부호화 정보로부터 적어도 1개 이상의 부호화 정보를 선택하고, 선택한 부호화 정보를 이용해 복호화를 행함으로써 복호화 신호를 생성하는 음성음악 복호화 장치.
  4. 제 1 항에 있어서,
    상기 프레임 손실 정보는 부호화 정보의 수신 상태를 수치에 의해 표현한 것인 음성음악 복호화 장치.
  5. 제 1 항에 있어서,
    상기 프레임 손실 정보는 부호화 정보의 수신 상태를 2진수에 의해 표현한 것인 음성음악 복호화 장치.
  6. 제 1 항에 있어서,
    적어도 1개의 상기 복호화 수단은 CELP 타입의 음성음악 복호화 방법을 이용하여 복호화를 행하는 음성음악 복호화 장치.
  7. 제 6 항에 있어서,
    CELP 타입의 상기 복호화 수단은, 양자화 LSP 부호를 복호화하여 양자화 LSP를 생성하는 LSP 복호화 수단과, 적응 음원 래그 부호를 복호화하여 적응 음원 벡터를 생성하는 적응 음원 벡터 생성 수단과, 고정 음원 벡터 부호를 복호화하여 고정 음원 벡터를 생성하는 고정 음원 벡터 생성 수단과, 양자화 음원 이득 부호를 복호화하여 양자화 적응 음원 이득과 양자화 고정 음원 이득을 생성하는 양자화 음원 이득 생성 수단과, 제i계층의 부호화 정보가 정상적으로 수신되지 않은 경우, 제 (i+1) 계층 이후의 부호화 정보와 이전 프레임의 제i계층의 부호화 정보에 포함되어 있는 복수의 양자화 LSP 부호로부터 적어도 1개 이상의 양자화 LSP 부호를 선택하는 부호화 정보 조작 수단을 구비하고,
    상기 LSP 복호화 수단은, 상기 부호화 정보 조작 수단에 의해 선택된 양자화 LSP 부호를 이용해 복호화를 행하여, 양자화 LSP를 생성하는 음성음악 복호화 장치.
  8. 제 7 항에 있어서,
    상기 LSP 복호화 수단은 상기 부호화 정보 조작 수단에 의해 선택된 양자화 LSP 부호를 복호화함으로써 얻어지는 양자화 LSP를 모두 가산하고, 가산 결과를 양자화 LSP로 하는 음성음악 복호화 장치.
  9. 제 7 항에 있어서,
    상기 부호화 정보 조작 수단은, 제i계층의 부호화 정보가 정상적으로 수신되지 않은 경우, 제(i+1) 계층 이후의 부호화 정보와 이전 프레임의 제i계층의 부호화 정보에 포함되어 있는 복수의 적응 음원 래그 부호로부터 적어도 한 개 이상의 적응 음원 래그 부호를 선택하고,
    상기 적응 음원 벡터 생성 수단은, 상기 부호화 정보 조작 수단에 의해 선택된 적응 음원 래그 부호를 이용해 복호화를 행하여, 적응 음원 벡터를 생성하는 음성음악 복호화 장치.
  10. 제 7 항에 있어서,
    상기 적응 음원 벡터 생성 수단은, 상기 부호화 정보 조작 수단에 의해 선택된 적응 음원 래그 부호를 복호화함으로써 얻어지는 적응 음원 래그를 모두 가산하고, 가산 결과를 이용하여 적응 음원 벡터를 생성하는 음성음악 복호화 장치.
  11. 제 7 항에 있어서,
    상기 부호화 정보 조작 수단은, 제i계층의 부호화 정보가 정상적으로 수신되지 않은 경우, 제 (i+1) 계층 이후의 부호화 정보와 이전 프레임의 제i계층의 부호화 정보에 포함되어 있는 복수의 양자화 음원 이득 부호로부터 적어도 1개 이상의 양자화 음원 이득 부호를 선택하고,
    상기 양자화 음원 이득 생성 수단은, 선택된 양자화 음원 이득 부호를 이용해 복호화를 행하여, 양자화 적응 음원 이득과 양자화 고정 음원 이득을 생성하는 음성음악 복호화 장치.
  12. 제 7 항에 있어서,
    상기 양자화 음원 이득 생성 수단은, 상기 부호화 정보 조작 수단에 의해 선택된 양자화 적응 음원 이득 부호를 복호화함으로써 얻어지는 양자화 적응 음원 이득을 어느 일정한 비율로 전부 가산하고, 가산 결과를 양자화 적응 음원 이득으로 하고, 또, 양자화 고정 음원 이득을 어느 일정한 비율로 전부 가산하고, 가산 결과를 양자화 고정 음원으로 하는 음성음악 복호화 장치.
  13. 청구항 1에 기재한 음성음악 복호화 장치를 구비하는 음성음악 신호 수신 장치.
  14. 청구항 13에 기재한 음성음악 신호 수신장치를 구비하는 기지국 장치.
  15. 청구항 13에 기재한 음성음악 신호 수신장치를 구비하는 통신 단말 장치.
  16. 스케일러블 부호화에 의해 복수 계층으로 구성된 부호화 정보를 복호화하여 복호화 신호를 생성하는 음성음악 복호화 방법으로서,
    수신된 프레임의 상기 각 계층의 부호화 정보가 정상인지 아닌지를 판정하고, 판정 결과인 프레임 손실 정보를 생성하는 프레임 손실 검출 공정과,
    상기 프레임 손실 정보에 따라 상기 수신된 부호화 정보와 과거에 수신된 복수의 부호화 정보로부터 각 계층의 복호화에 이용하는 부호화 정보를 결정하고, 결정한 부호화 정보를 이용해 복호화를 행함으로써 복호화 신호를 생성하는, 상기 계층과 동일한 수의 복호화 공정
    을 구비하는 음성음악 복호화 방법.
KR1020067024640A 2004-05-24 2005-05-13 음성음악 복호화 장치 및 음성음악 복호화 방법 KR20070028373A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2004-00153997 2004-05-24
JP2004153997A JP4445328B2 (ja) 2004-05-24 2004-05-24 音声・楽音復号化装置および音声・楽音復号化方法

Publications (1)

Publication Number Publication Date
KR20070028373A true KR20070028373A (ko) 2007-03-12

Family

ID=35428593

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067024640A KR20070028373A (ko) 2004-05-24 2005-05-13 음성음악 복호화 장치 및 음성음악 복호화 방법

Country Status (8)

Country Link
US (1) US8255210B2 (ko)
EP (1) EP1750254B1 (ko)
JP (1) JP4445328B2 (ko)
KR (1) KR20070028373A (ko)
CN (1) CN1957399B (ko)
CA (1) CA2567788A1 (ko)
DE (1) DE602005026802D1 (ko)
WO (1) WO2005114655A1 (ko)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006120931A1 (ja) * 2005-05-11 2006-11-16 Matsushita Electric Industrial Co., Ltd. 符号化装置、復号化装置及びこれらの方法
EP1990800B1 (en) 2006-03-17 2016-11-16 Panasonic Intellectual Property Management Co., Ltd. Scalable encoding device and scalable encoding method
JP4551472B2 (ja) * 2006-05-25 2010-09-29 パイオニア株式会社 デジタル音声データ処理装置及び処理方法
US20090248404A1 (en) * 2006-07-12 2009-10-01 Panasonic Corporation Lost frame compensating method, audio encoding apparatus and audio decoding apparatus
JP5289319B2 (ja) * 2006-10-20 2013-09-11 フランス・テレコム 隠蔽フレーム(パケット)を生成するための方法、プログラムおよび装置
CN101583995B (zh) 2006-11-10 2012-06-27 松下电器产业株式会社 参数解码装置、参数编码装置以及参数解码方法
JP4504389B2 (ja) 2007-02-22 2010-07-14 富士通株式会社 隠蔽信号生成装置、隠蔽信号生成方法および隠蔽信号生成プログラム
JP5377287B2 (ja) * 2007-03-02 2013-12-25 パナソニック株式会社 ポストフィルタ、復号装置およびポストフィルタ処理方法
CN100583649C (zh) * 2007-07-23 2010-01-20 华为技术有限公司 矢量编/解码方法、装置及流媒体播放器
JP2009047914A (ja) * 2007-08-20 2009-03-05 Nec Corp 音声復号化装置、音声復号化方法、音声復号化プログラムおよびプログラム記録媒体
US8527265B2 (en) * 2007-10-22 2013-09-03 Qualcomm Incorporated Low-complexity encoding/decoding of quantized MDCT spectrum in scalable speech and audio codecs
CN101588341B (zh) 2008-05-22 2012-07-04 华为技术有限公司 一种丢帧隐藏的方法及装置
KR101261677B1 (ko) 2008-07-14 2013-05-06 광운대학교 산학협력단 음성/음악 통합 신호의 부호화/복호화 장치
US9026434B2 (en) 2011-04-11 2015-05-05 Samsung Electronic Co., Ltd. Frame erasure concealment for a multi rate speech and audio codec
CN103280222B (zh) * 2013-06-03 2014-08-06 腾讯科技(深圳)有限公司 音频编码、解码方法及其系统
JP5981408B2 (ja) * 2013-10-29 2016-08-31 株式会社Nttドコモ 音声信号処理装置、音声信号処理方法、及び音声信号処理プログラム
CN103646647B (zh) * 2013-12-13 2016-03-16 武汉大学 混合音频解码器中帧差错隐藏的谱参数代替方法及系统
FR3024582A1 (fr) * 2014-07-29 2016-02-05 Orange Gestion de la perte de trame dans un contexte de transition fd/lpd
CN112750419B (zh) * 2020-12-31 2024-02-13 科大讯飞股份有限公司 一种语音合成方法、装置、电子设备和存储介质
CN113724716B (zh) * 2021-09-30 2024-02-23 北京达佳互联信息技术有限公司 语音处理方法和语音处理装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1097295A (ja) 1996-09-24 1998-04-14 Nippon Telegr & Teleph Corp <Ntt> 音響信号符号化方法及び復号化方法
DE69721595T2 (de) 1996-11-07 2003-11-27 Matsushita Electric Industrial Co., Ltd. Verfahren zur Erzeugung eines Vektorquantisierungs-Codebuchs
KR100886062B1 (ko) 1997-10-22 2009-02-26 파나소닉 주식회사 확산 펄스 벡터 생성 장치 및 방법
FR2774827B1 (fr) * 1998-02-06 2000-04-14 France Telecom Procede de decodage d'un flux binaire representatif d'un signal audio
KR100351484B1 (ko) 1998-06-09 2002-09-05 마츠시타 덴끼 산교 가부시키가이샤 음성 부호화 장치, 음성 복호화 장치, 음성 부호화 방법 및 기록 매체
US6188980B1 (en) * 1998-08-24 2001-02-13 Conexant Systems, Inc. Synchronized encoder-decoder frame concealment using speech coding parameters including line spectral frequencies and filter coefficients
US6775649B1 (en) * 1999-09-01 2004-08-10 Texas Instruments Incorporated Concealment of frame erasures for speech transmission and storage system and method
US6584438B1 (en) * 2000-04-24 2003-06-24 Qualcomm Incorporated Frame erasure compensation method in a variable rate speech coder
JP3628268B2 (ja) 2001-03-13 2005-03-09 日本電信電話株式会社 音響信号符号化方法、復号化方法及び装置並びにプログラム及び記録媒体
US6996522B2 (en) * 2001-03-13 2006-02-07 Industrial Technology Research Institute Celp-Based speech coding for fine grain scalability by altering sub-frame pitch-pulse
US7590525B2 (en) * 2001-08-17 2009-09-15 Broadcom Corporation Frame erasure concealment for predictive speech coding based on extrapolation of speech waveform
US7848921B2 (en) 2004-08-31 2010-12-07 Panasonic Corporation Low-frequency-band component and high-frequency-band audio encoding/decoding apparatus, and communication apparatus thereof
US7783480B2 (en) 2004-09-17 2010-08-24 Panasonic Corporation Audio encoding apparatus, audio decoding apparatus, communication apparatus and audio encoding method
KR100612889B1 (ko) 2005-02-05 2006-08-14 삼성전자주식회사 선스펙트럼 쌍 파라미터 복원 방법 및 장치와 그 음성복호화 장치

Also Published As

Publication number Publication date
EP1750254B1 (en) 2011-03-09
JP4445328B2 (ja) 2010-04-07
CN1957399B (zh) 2011-06-15
WO2005114655A1 (ja) 2005-12-01
DE602005026802D1 (de) 2011-04-21
US20070271101A1 (en) 2007-11-22
JP2005338200A (ja) 2005-12-08
CA2567788A1 (en) 2005-12-01
EP1750254A4 (en) 2007-10-03
EP1750254A1 (en) 2007-02-07
US8255210B2 (en) 2012-08-28
CN1957399A (zh) 2007-05-02

Similar Documents

Publication Publication Date Title
KR20070028373A (ko) 음성음악 복호화 장치 및 음성음악 복호화 방법
EP1157375B1 (en) Celp transcoding
JP4263412B2 (ja) 音声符号変換方法
US7840402B2 (en) Audio encoding device, audio decoding device, and method thereof
US20060173677A1 (en) Audio encoding device, audio decoding device, audio encoding method, and audio decoding method
US20020077812A1 (en) Voice code conversion apparatus
US7978771B2 (en) Encoder, decoder, and their methods
JPH10187197A (ja) 音声符号化方法及び該方法を実施する装置
JPWO2006025313A1 (ja) 音声符号化装置、音声復号化装置、通信装置及び音声符号化方法
JP2004138756A (ja) 音声符号化装置、音声復号化装置、音声信号伝送方法及びプログラム
JPH09152896A (ja) 声道予測係数符号化・復号化回路、声道予測係数符号化回路、声道予測係数復号化回路、音声符号化装置及び音声復号化装置
JP4365653B2 (ja) 音声信号送信装置、音声信号伝送システム及び音声信号送信方法
JP4236675B2 (ja) 音声符号変換方法および装置
JP4578145B2 (ja) 音声符号化装置、音声復号化装置及びこれらの方法
JP3050978B2 (ja) 音声符号化方法
JP3232701B2 (ja) 音声符号化方法
JP2005215502A (ja) 符号化装置、復号化装置、およびこれらの方法
JPH05165497A (ja) コード励振線形予測符号化器及び復号化器
JP2004020676A (ja) 音声符号化/復号化方法及び音声符号化/復号化装置
JPH034300A (ja) 音声符号化復号化方式
JPH06195098A (ja) 音声符号化方法
JP2004020675A (ja) 音声符号化/復号化方法及び音声符号化/復号化装置
JP2004198522A (ja) 適応符号帳の更新方法、音声符号化装置及び音声復号化装置

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid