KR101259203B1 - 음성 부호화 장치와 음성 부호화 방법, 무선 통신 이동국 장치 및 무선 통신 기지국 장치 - Google Patents

음성 부호화 장치와 음성 부호화 방법, 무선 통신 이동국 장치 및 무선 통신 기지국 장치 Download PDF

Info

Publication number
KR101259203B1
KR101259203B1 KR1020077024701A KR20077024701A KR101259203B1 KR 101259203 B1 KR101259203 B1 KR 101259203B1 KR 1020077024701 A KR1020077024701 A KR 1020077024701A KR 20077024701 A KR20077024701 A KR 20077024701A KR 101259203 B1 KR101259203 B1 KR 101259203B1
Authority
KR
South Korea
Prior art keywords
signal
channel
prediction
correlation
monaural
Prior art date
Application number
KR1020077024701A
Other languages
English (en)
Other versions
KR20080003839A (ko
Inventor
고지 요시다
Original Assignee
파나소닉 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 파나소닉 주식회사 filed Critical 파나소닉 주식회사
Publication of KR20080003839A publication Critical patent/KR20080003839A/ko
Application granted granted Critical
Publication of KR101259203B1 publication Critical patent/KR101259203B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

모노럴-스테레오·스케일러블 구성을 가지는 음성 부호화에 있어서, 효율적으로 스테레오 음성을 부호화할 수 있는 음성 부호화 장치. 이 장치에서는, 상관도 비교부(304)가, 제 1 ch 음성 신호로부터 제 1 ch의 채널내 상관(제 1 ch내의 과거 신호와 현재 신호의 상관도)을 산출함과 동시에, 제 2 ch 음성 신호로부터 제 2 ch의 채널내 상관(제 2 ch내의 과거 신호와 현재 신호의 상관도)을 산출하여, 제 1 ch의 채널내 상관과 제 2 ch의 채널내 상관을 비교하여, 보다 큰 상관을 가지는 채널을 선택하고, 선택부(305)가, 상관도 비교부(304)에서의 선택 결과에 따라, 제 1 ch내 예측부(307)로부터 출력되는 제 1 ch 예측 신호, 또는, 제 1 ch 신호 생성부(311)로부터 출력되는 제 1 ch 예측 신호의 어느쪽인가를 선택하여, 감산기(303) 및 제 1 ch 예측 잔차 신호 부호화부(308)에 출력한다.

Description

음성 부호화 장치와 음성 부호화 방법, 무선 통신 이동국 장치 및 무선 통신 기지국 장치{AUDIO ENCODING DEVICE AND AUDIO ENCODING METHOD}
본 발명은 음성 부호화 장치 및 음성 부호화 방법에 관한 것으로서, 특히, 스테레오 음성을 위한 음성 부호화 장치 및 음성 부호화 방법에 관한 것이다.
이동체 통신이나 IP 통신에서의 전송 대역의 광대역화, 서비스의 다양화에 수반하여, 음성 통신에 있어서 고(高)음질화, 고(高)현장감화의 요구가 높아지고 있다. 예를 들면, 향후 화상 전화 서비스에 있어서의 핸즈프리(Hands free) 형태로의 통화, TV 회의에 있어서의 음성 통신, 다지점에서 복수 화자(話者)가 동시에 회화를 행하는 등의 다지점 음성 통신, 현장감을 보유한 채 주위의 소리 환경을 전송할 수 있는 등의 음성 통신 등의 수요가 증가할 것으로 전망된다. 그 경우, 모노럴(monaural) 신호보다 현장감이 있고, 또 복수 화자의 발화(發話) 위치를 인식할 수 있는 스테레오 음성에 의한 음성 통신을 실현하는 것이 희망된다. 이러한 스테레오 음성에 의한 음성 통신을 실현하기 위해서는, 스테레오 음성의 부호화가 필수이다.
또, IP 네트워크 상에서의 음성 데이터 통신에 있어서, 네트워크 상의 트래픽 제어나 멀티캐스트 통신의 실현을 위해, 스케일러블(Scalable) 구성을 가지는 음성 부호화가 희망되고 있다. 스케일러블 구성이란, 수신측에서 부분적인 부호화 데이터를 가지고도 음성 데이터의 복호가 가능한 구성을 말한다.
따라서, 스테레오 음성을 부호화해 전송할 경우에도, 스테레오 신호의 복호와 부호화 데이터의 일부를 이용한 모노럴 신호의 복호를, 수신측에 있어서 선택할 수 있는, 모노럴-스테레오 간에서의 스케일러블 구성(모노럴-스테레오·스케일러블 구성)을 가지는 부호화가 희망된다.
이러한, 모노럴-스테레오·스케일러블 구성을 가지는 음성 부호화 방법으로서는, 예를 들면, 채널(이하, 적절히 「ch」이라고 약칭함)간 신호 예측(제 1 ch 신호로부터 제 2 ch 신호를 예측, 또는, 제 2 ch 신호로부터 제 1 ch 신호를 예측)을, 채널 상호간의 피치 예측에 의해 행하는, 즉 두 채널간의 상관을 이용해 부호화를 행하는 것이 있다(비특허 문헌 1 참조).
[비특허 문헌 1] Ramprashad, S.A., “tereophonic CELP coding using cross channel prediction” Proc. IEEE Workshop on Speech Coding, pp.136-138, Sep. 2000.
발명의 개시
발명이 해결하려고 하는 과제
그렇지만, 상기 비특허 문헌 1에 기재된 음성 부호화 방법에서는, 양쪽 채널간의 상관이 작을 경우에는, 채널간의 예측 성능(예측 게인)이 저하해 버려, 부호화 효율이 열화한다.
또, 모노럴-스테레오·스케일러블 구성을 가진 음성 부호화 방법의 스테레오 확장 레이어에서의 부호화에 채널간 예측을 이용한 부호화를 적용할 경우, 양쪽 채널간의 상관이 작으면서 또 스테레오 확장 레이어에서 부호화의 대상이 되는 채널의 채널내 상관(즉, 채널내의 과거 신호와 현재 신호의 상관도)이 작을 경우에는, 채널간 예측만으로는 충분한 예측 성능(예측 게인)을 얻지 못하여 부호화 효율이 열화한다.
본 발명의 목적은, 모노럴-스테레오·스케일러블 구성을 가지는 음성 부호화에 있어서, 효율적으로 스테레오 음성을 부호화할 수 있는 음성 부호화 장치 및 음성 부호화 방법을 제공하는 것이다.
과제를 해결하기 위한 수단
본 발명의 음성 부호화 장치는, 모노럴 신호를 위한 코어 레이어(Core layer)의 부호화를 행하는 제 1 부호화 수단과, 스테레오 신호를 위한 확장 레이어의 부호화를 행하는 제 2 부호화 수단을 구비하고, 상기 제 1 부호화 수단은 스테레오 신호를 구성하는 제 1 채널 신호 및 제 2 채널 신호로부터 모노럴 신호를 생성하고, 상기 제 2 부호화 수단은 상기 제 1 채널 및 상기 제 2 채널 중, 채널내 상관이 보다 큰 채널의 채널내 예측에 의해 생성한 예측 신호를 이용하여 상기 제 1 채널에 대한 부호화를 행하는 구성을 취한다.
[발명의 효과]
본 발명에 의하면, 효율적으로 스테레오 음성을 부호화할 수 있다.
도 1은 본 발명의 실시형태 1에 따른 음성 부호화 장치의 구성을 나타내는 블록도,
도 2는 본 발명의 실시형태 1에 따른 확장 레이어 부호화부의 동작 흐름도,
도 3은 본 발명의 실시형태 1에 따른 확장 레이어 부호화부의 동작 개념도,
도 4는 본 발명의 실시형태 1에 따른 확장 레이어 부호화부의 동작 개념도,
도 5는 본 발명의 실시형태 1에 따른 음성 복호 장치의 구성을 나타내는 블록도,
도 6은 본 발명의 실시형태 2에 따른 음성 부호화 장치의 구성을 나타내는 블록도,
도 7은 본 발명의 실시형태 2에 따른 제 1 ch CELP 부호화부의 구성을 나타내는 블록도,
도 8은 본 발명의 실시형태 2에 따른 제 1 ch CELP 부호화부의 동작 흐름도이다.
발명을 실시하기 위한 최선의 형태
이하, 모노럴-스테레오·스케일러블 구성을 가진 음성 부호화에 관한 본 발명의 실시형태에 대해서, 첨부 도면을 참조하여 상세히 설명한다.
(실시형태 1)
본 실시형태에 따른 음성 부호화 장치의 구성을 도 1에 나타낸다. 도 1에 나타낸 음성 부호화 장치(100)는 모노럴 신호를 위한 코어 레이어 부호화부(200)와 스테레오 신호를 위한 확장 레이어 부호화부(300)를 구비한다. 또한, 이하의 설명에서는 프레임 단위로의 동작을 전제로 하여 설명한다.
코어 레이어 부호화부(200)에 있어서, 모노럴 신호 생성부(201)는, 입력되는 제 1 ch 음성 신호 s_ch1(n), 제 2 ch 음성 신호 s_ch2(n)(단, n=0~NF-1;NF는 프레임 길이)로부터, 수학식 1에 따라 모노럴 신호 s_mono(n)를 생성하여, 모노럴 신호 부호화부(202)에 출력한다.
s_mono(n) = ( s_ch1(n) + s_ch2(n) ) / 2 … (1)
모노럴 신호 부호화부(202)는, 모노럴 신호 s_mono(n)에 대한 부호화를 행하고, 이 모노럴 신호의 부호화 데이터를 모노럴 신호 복호부(203)에 출력한다. 또, 이 모노럴 신호의 부호화 데이터는, 확장 레이어 부호화부(300)로부터 출력되는 양자화 부호, 부호화 데이터 및 선택 정보와 다중되어, 부호화 데이터로서 후술하는 음성 복호 장치에 전송된다.
모노럴 신호 복호부(203)는 모노럴 신호의 부호화 데이터로부터 모노럴 복호 신호를 생성하여 확장 레이어 부호화부(300)에 출력한다.
확장 레이어 부호화부(300)에 있어서, 채널간 예측 파라미터 분석부(301)는, 제 1 ch 음성 신호와 모노럴 복호 신호로부터, 모노럴 신호에 대한 제 1 ch 음성 신호의 예측 파라미터(채널간 예측 파라미터)를 구해 양자화하여, 채널간 예측부(302)에 출력한다. 여기에서는, 채널간 예측 파라미터 분석부(301)는 채널간 예측 파라미터로서 모노럴 신호(모노럴 복호 신호)에 대한 제 1 ch 음성 신호의 지연차(D 샘플) 및 진폭비(g)를 구한다. 또, 채널간 예측 파라미터 분석부(301)는 채널간 예측 파라미터를 양자화 및 부호화한 채널간 예측 파라미터 양자화 부호를 출력한다. 이 채널간 예측 파라미터 양자화 부호는, 다른 양자화 부호, 부호화 데이터 및 선택 정보와 다중되어, 부호화 데이터로서 후술하는 음성 복호 장치에 전송된다.
채널간 예측부(302)는, 양자화된 채널간 예측 파라미터를 이용하여, 모노럴 복호 신호로부터 제 1 ch 신호를 예측하고, 이 제 1 ch 예측 신호(채널간 예측)를 감산기(303) 및 제 1 ch 예측 잔차 신호 부호화부(308)에 출력한다. 예를 들면, 채널간 예측부(302)는, 수학식 2에 표시되는 예측에 의해, 모노럴 복호 신호 sd_mono(n)로부터, 제 1 ch 예측 신호 sp_ch1(n)를 합성한다.
sp_ch1(n) = g · sd_mono(n - D) …(2)
상관도 비교부(304)는, 제 1 ch 음성 신호로부터 제 1 ch의 채널내 상관(제 1 ch 내의 과거 신호와 현재 신호의 상관도)을 산출함과 동시에, 제 2 ch 음성 신호로부터 제 2 ch의 채널내 상관(제 2 ch 내의 과거 신호와 현재 신호의 상관도)을 산출한다. 각 채널의 채널내 상관으로서는, 예를 들면, 대응하는 음성 신호에 대한 정규화 최대 자기 상관 계수값, 대응하는 음성 신호에 대한 피치 예측 게인값, 대응하는 음성 신호로부터 구해지는 LPC 예측 잔차 신호에 대한 정규화 최대 자기 상관 계수값, 대응하는 음성 신호로부터 구해지는 LPC 예측 잔차 신호에 대한 피치 예측 게인값 등을 이용할 수 있다. 그리고, 상관도 비교부(304)는, 제 1 ch의 채널내 상관과 제 2 ch의 채널내 상관을 비교하여, 보다 큰 상관을 가지는 채널을 선택한다. 이 선택 결과를 나타내는 선택 정보는 선택부(305),(306)에 출력된다. 또, 이 선택 정보는, 양자화 부호 및 부호화 데이터와 다중되어, 부호화 데이터로서 후술하는 음성 복호 장치에 전송된다.
제 1 ch내 예측부(307)는, 제 1 ch 음성 신호와 제 1 ch 예측 잔차 신호 부호화부(308)로부터 입력되는 제 1 ch 복호 신호로부터, 제 1 ch에서의 채널내 예측에 의해 제 1 ch 신호를 예측하고, 이 제 1 ch 예측 신호를 선택부(305)에 출력한다. 또, 제 1 ch내 예측부(307)는, 제 1 ch에서의 채널내 예측에 필요한 채널내 예측 파라미터의 양자화에 의해 얻어지는 제 1 ch의 채널내 예측 파라미터 양자화 부호를 선택부(306)에 출력한다. 또한, 채널내 예측의 상세한 것에 대해서는 후술한다.
제 2 ch 신호 생성부(309)는, 모노럴 신호 복호부(203)로부터 입력되는 모노 럴 복호 신호와, 제 1 ch 예측 잔차 신호 부호화부(308)로부터 입력되는 제 1 ch 복호 신호로부터, 위의 수학식 1의 관계에 기초하여 제 2 ch 복호 신호를 생성한다. 즉, 제 2 ch 신호 생성부(309)는, 모노럴 복호 신호 sd_mono(n)와 제 1 ch 복호 신호 sd_ch1(n)로부터, 수학식 3에 따라 제 2 ch 복호 신호 sd_ch2(n)를 생성하여, 제 2 ch내 예측부(310)에 출력한다.
sd_ch2(n) = 2 · sd_mono(n) - sd_ch1(n) …(3)
제 2 ch내 예측부(310)는, 제 2 ch 음성 신호와 제 2 ch 복호 신호로부터, 제 2 ch에서의 채널내 예측에 의해, 제 2 ch 신호를 예측하고, 이 제 2 ch 예측 신호를 제 1 ch 신호 생성부(311)에 출력한다. 또, 제 2 ch내 예측부(310)는 제 2 ch에서의 채널내 예측에 필요한 채널내 예측 파라미터의 양자화에 의해 얻어지는 제 2 ch의 채널내 예측 파라미터 양자화 부호를 선택부(306)에 출력한다. 또한, 채널내 예측의 상세한 것에 대해서는 후술한다.
제 1 ch 신호 생성부(311)는, 제 2 ch 예측 신호와, 모노럴 신호 복호부(203)로부터 입력되는 모노럴 복호 신호로부터, 상기 수학식 1의 관계에 기초하여 제 1 ch 예측 신호를 생성한다. 즉, 제 1 ch 신호 생성부(311)는, 모노럴 복호 신호 sd_mono(n)와 제 2 ch 예측 신호 s_ch2_p(n)로부터, 수학식 4에 따라 제 1 ch 예측 신호 s_ch1_p(n)를 생성하여, 선택부(305)에 출력한다.
s_ch1_p(n) = 2 · sd_mono(n) - s_ch2_p(n) …(4)
선택부(305)는, 상관도 비교부(304)에서의 선택 결과에 따라, 제 1 ch내 예측부(307)로부터 출력되는 제 1 ch 예측 신호, 또는 제 1 ch 신호 생성부(311)로부터 출력되는 제 1 ch 예측 신호의 어느 것인가를 선택하여, 감산기(303) 및 제 1 ch 예측 잔차 신호 부호화부(308)에 출력한다. 선택부(305)는, 상관도 비교부(304)에 의해 제 1 ch이 선택된 경우(즉, 제 1 ch의 채널내 상관이 제 2 ch의 채널내 상관보다 큰 경우), 제 1 ch내 예측부(307)로부터 출력되는 제 1 ch 예측 신호를 선택한다. 한편, 선택부(305)는, 상관도 비교부(304)에 의해 제 2 ch이 선택된 경우(즉, 제 1 ch의 채널내 상관이 제 2 ch의 채널내 상관 이하인 경우), 제 1 ch 신호 생성부(311)로부터 출력되는 제 1 ch 예측 신호를 선택한다.
선택부(306)는, 상관도 비교부(304)에서의 선택 결과에 따라, 제 1 ch내 예측부(307)로부터 출력되는 제 1 ch의 채널내 예측 파라미터 양자화 부호, 또는 제 2 ch내 예측부(310)로부터 출력되는 제 2 ch의 채널내 예측 파라미터 양자화 부호의 어느 것인가를 선택하여, 채널내 예측 파라미터 양자화 부호로서 출력한다. 이 채널내 예측 파라미터 양자화 부호는, 다른 양자화 부호, 부호화 데이터 및 선택 정보와 다중되어, 부호화 데이터로서 후술하는 음성 복호 장치에 전송된다.
구체적으로는, 선택부(306)는, 상관도 비교부(304)에 의해 제 1 ch이 선택된 경우(즉, 제 1 ch의 채널내 상관이 제 2 ch의 채널내 상관보다 큰 경우), 제 1 ch내 예측부(307)로부터 출력되는 제 1 ch의 채널내 예측 파라미터 양자화 부호를 선택한다. 한편, 선택부(306)는, 상관도 비교부(304)에 의해 제 2 ch이 선택된 경우(즉, 제 1 ch의 채널내 상관이 제 2 ch의 채널내 상관 이하인 경우), 제 2 ch내 예측부(310)로부터 출력되는 제 2 ch의 채널내 예측 파라미터 양자화 부호를 선택한다.
감산기(303)는, 입력 신호인 제 1 ch 음성 신호와 제 1 ch 예측 신호의 잔차신호(제 1 ch 예측 잔차 신호), 즉 채널간 예측부(302)로부터 출력된 제 1 ch 예측 신호와 선택부(305)로부터 출력된 제 1 ch 예측 신호를, 제 1 ch 음성 신호로부터 뺀 나머지 신호를 구하여, 제 1 ch 예측 잔차 신호 부호화부(308)에 출력한다.
제 1 ch 예측 잔차 신호 부호화부(308)는 제 1 ch 예측 잔차 신호를 부호화한 제 1 ch 예측 잔차 부호화 데이터를 출력한다. 이 제 1 ch 예측 잔차 부호화 데이터는, 다른 부호화 데이터, 양자화 부호 및 선택 정보와 다중되어, 부호화 데이터로서 후술하는 음성 복호 장치에 전송된다. 또, 제 1 ch 예측 잔차 신호 부호화부(308)는, 제 1 ch 예측 잔차 부호화 데이터를 복호한 신호와, 채널간 예측부(302)로부터 출력된 제 1 ch 예측 신호와, 선택부(305)로부터 출력된 제 1 ch 예측 신호를 가산해 제 1 ch 복호 신호를 구하고, 이 제 1 ch 복호 신호를 제 1 ch내 예측부(307) 및 제 2 ch 신호 생성부(309)에 출력한다.
여기서, 제 1 ch내 예측부(307) 및 제 2 ch내 예측부(310)는, 각 채널내의 신호의 상관성을 이용하여, 과거 신호로부터 부호화 대상 프레임의 신호를 예측하는 채널내 예측을 행한다. 예를 들면, 1차 피치 예측 필터를 이용할 경우는, 채널내 예측에 의해 예측되는 각 채널의 신호는 수학식 5에 표시된다. 여기서, Sp(n)은 각 채널의 예측 신호, s(n)은 각 채널의 복호 신호(제 1 ch 복호 신호 또는 제 2 ch 복호 신호)이다. 또, T 및 gp는, 각 채널의 복호 신호와 각 채널의 입력 신 호(제 1 ch 음성 신호 또는 제 2 ch 음성 신호)로부터 구해지는, 1차 피치 예측 필터의 래그(lag) 및 예측 계수이며, 이들은 채널내 예측 파라미터를 구성한다.
Sp(n) = gp · s(n-T) …(5)
이어서, 도 2~4를 이용해, 확장 레이어 부호화부(300)의 동작에 대해 설명한다.
우선, 제 1 ch의 채널내 상관도 cor1 및 제 2 ch의 채널내 상관도 cor2를 산출한다(ST11).
그 다음에, cor1과 cor2를 비교하여(ST12), 채널내 상관도가 보다 큰 채널에서의 채널내 예측을 이용한다.
즉, cor1>cor2의 경우는(ST12:예), 제 1 ch에서의 채널내 예측을 행하여 구한 제 1 ch 예측 신호를 부호화 대상으로서 선택한다. 구체적으로는, 도 3에 나타내는 바와 같이, 제 n-1 프레임의 제 1 ch 복호 신호(21)로부터 상기 수학식 5에 따라 제 n 프레임의 제 1 ch 신호(22)를 예측한다(ST13). 이와 같이 하여 예측한 제 1 ch 예측 신호(22)를 부호화 대상으로서 선택부(305)로부터 출력한다(ST17). 즉, cor1>cor2의 경우는, 제 1 ch 복호 신호로부터 제 1 ch 신호를 직접적으로 예측한다.
한편, cor1≤cor2의 경우는(ST12:아니오), 제 2 ch 복호 신호를 생성하고(ST14), 제 2 ch에서의 채널내 예측을 행하여 제 2 채널 예측 신호를 구하고(ST15), 제 2 ch 예측 신호와 모노럴 복호 신호로부터 제 1 ch 예측 신호를 구한 다(ST16). 이와 같이 하여 구한 제 1 ch 예측 신호를 부호화 대상으로서 선택부(305)로부터 출력한다(ST17). 구체적으로는, 도 4에 나타내는 바와 같이, 제 n-1 프레임의 제 1 ch 복호 신호(31) 및 제 n-1 프레임의 모노럴 복호 신호(32)로부터, 상기 수학식 3에 따라 제 n-1 프레임의 제 2 ch 복호 신호를 생성한다. 그 다음에, 제 n-1 프레임의 제 2 ch 복호 신호(33)로부터 상기 수학식 5에 따라 제 n 프레임의 제 2 ch 신호(34)를 예측한다. 그 다음에, 제 n 프레임의 제 2 ch 예측 신호(34) 및 제 n 프레임의 모노럴 복호 신호(35)로부터, 상기 수학식 4에 따라 제 n 프레임의 제 1 ch 예측 신호(36)를 생성한다. 그리고, 이와 같이 하여 예측한 제 1 ch 예측 신호(36)를 부호화 대상으로서 선택한다. 즉, cor1≤cor2의 경우는, 제 2 ch 예측 신호와 모노럴 복호 신호로부터, 제 1 ch 신호를 간접적으로 예측한다.
이어서, 본 실시형태에 따른 음성 복호 장치에 대해 설명한다. 본 실시형태에 따른 음성 복호 장치의 구성을 도 5에 나타낸다. 도 5에 나타내는 음성 복호 장치(400)는, 모노럴 신호를 위한 코어 레이어 복호부(410)와, 스테레오 신호를 위한 확장 레이어 복호부(420)를 구비한다.
모노럴 신호 복호부(411)는, 입력되는 모노럴 신호의 부호화 데이터를 복호하고, 모노럴 복호 신호를 확장 레이어 복호부(420)에 출력함과 동시에, 최종 출력으로서 출력한다.
채널간 예측 파라미터 복호부(421)는 입력되는 채널간 예측 파라미터 양자화 부호를 복호하여 채널간 예측부(422)에 출력한다.
채널간 예측부(422)는, 양자화된 채널간 예측 파라미터를 이용해 모노럴 복호 신호로부터 제 1 ch 신호를 예측하고, 이 제 1 ch 예측 신호(채널간 예측)를 가산기(423)에 출력한다. 예를 들면, 채널간 예측부(422)는, 상기 수학식 2에 표시되는 예측에 의해, 모노럴 복호 신호 sd_mono(n)로부터, 제 1 ch 예측 신호 sp_ch1(n)를 합성한다.
제 1 ch 예측 잔차 신호 복호부(424)는 입력되는 제 1 ch 예측 잔차 부호화 데이터를 복호하여 가산기(423)에 출력한다.
가산기(423)는, 채널간 예측부(422)로부터 출력되는 제 1 ch 예측 신호와, 제 1 ch 예측 잔차 신호 복호부(424)로부터 출력되는 제 1 ch 예측 잔차 신호와, 선택부(426)로부터 출력되는 제 1 ch 예측 신호를 가산하여 제 1 ch 복호 신호를 구하고, 이 제 1 ch 복호 신호를, 제 1 ch내 예측부(425) 및 제 2 ch 신호 생성부(427)에 출력함과 동시에, 최종 출력으로서 출력한다.
제 1 ch내 예측부(425)는, 제 1 ch 복호 신호와 제 1 ch의 채널내 예측 파라미터 양자화 부호로부터, 상기와 동일한 채널내 예측에 의해 제 1 ch 신호를 예측하고, 이 제 1 ch 예측 신호를 선택부(426)에 출력한다.
제 2 ch 신호 생성부(427)는, 모노럴 복호 신호와 제 1 ch 복호 신호로부터, 상기 수학식 3에 따라 제 2 ch 복호 신호를 생성하여, 제 2 ch내 예측부(428)에 출력한다.
제 2 ch내 예측부(428)는, 제 2 ch 복호 신호와 제 2 ch의 채널내 예측 파라미터 양자화 부호로부터, 상기와 동일한 채널내 예측에 의해 제 2 ch 신호를 예측 하고, 이 제 2 ch 예측 신호를 제 1 ch 신호 생성부(429)에 출력한다.
제 1 ch 신호 생성부(429)는, 모노럴 복호 신호와 제 2 ch 예측 신호로부터, 상기 수학식 4에 따라 제 1 ch 예측 신호를 생성하여, 선택부(426)에 출력한다.
선택부(426)는, 선택 정보가 나타내는 선택 결과에 따라, 제 1 ch내 예측부(425)로부터 출력되는 제 1 ch 예측 신호, 또는 제 1 ch 신호 생성부(429)로부터 출력되는 제 1 ch 예측 신호의 어느것인가를 선택하여, 가산기(423)에 출력한다. 선택부(426)는, 도1의 음성 부호화 장치(100)에서 제 1 ch이 선택된 경우(즉, 제 1 ch의 채널내 상관이 제 2 ch의 채널내 상관보다 큰 경우), 제 1 ch내 예측부(425)로부터 출력되는 제 1 ch 예측 신호를 선택하고, 음성 부호화 장치(100)에서 제 2 ch이 선택된 경우(즉, 제 1 ch의 채널내 상관이 제 2 ch의 채널내 상관 이하인 경우), 제 1 ch 신호 생성부(429)로부터 출력되는 제 1 ch 예측 신호를 선택한다.
이러한 구성을 취하는 음성 복호 장치(400)에서는, 모노럴-스테레오·스케일러블 구성에 있어서, 출력 음성을 모노럴로 할 경우는, 모노럴 신호의 부호화 데이터로부터만 얻어지는 복호 신호를 모노럴 복호 신호로서 출력한다. 한편, 음성 복호 장치(400)에서는, 출력 음성을 스테레오로 할 경우는, 수신되는 부호화 데이터 및 양자화 부호 전부를 이용해 제 1 ch 복호 신호 및 제 2 ch 복호 신호를 복호하여 출력한다.
이와 같이, 본 실시형태에서는, 채널내 상관이 보다 큰 채널에서의 채널내 예측에 의해 구한 예측 신호를 이용해서 확장 레이어에서의 부호화를 행하기 때문에, 부호화 대상 채널(본 실시형태에서는 제 1 ch)의 부호화 대상 프레임에 있어서 의 채널내 상관(채널내 예측 성능)이 작아 예측이 유효하게 행할 수 없는 경우라 하더라도, 다른쪽 채널(본 실시형태에서는 제 2 ch)의 채널내 상관이 큰 경우에는, 그 다른쪽 채널에서의 채널내 예측에 의해 구한 예측 신호를 이용해서 부호화 대상 채널의 신호를 예측할 수 있기 때문에, 부호화 대상 채널의 채널내 상관이 작은 경우라 하더라도, 충분한 예측 성능(예측 게인)을 얻을 수 있으며, 그 결과, 부호화 효율의 열화를 방지할 수 있다.
또한, 상기 설명에서는, 확장 레이어 부호화부(300)에 채널간 예측 파라미터 분석부(301) 및 채널간 예측부(302)를 구비하는 구성에 대해 설명했지만, 확장 레이어 부호화부(300)는 이러한 각 부를 가지지 않는 구성을 취할 수도 있다. 이 경우, 확장 레이어 부호화부(300)에서는, 코어 레이어 부호화부(200)로부터 출력된 모노럴 복호 신호가 직접 감산기(303)에 입력되고, 감산기(303)는, 제 1 ch 음성 신호로부터 모노럴 복호 신호 및 제 1 ch 예측 신호를 감산하여 예측 잔차 신호를 구한다.
또, 상기 설명에서는, 채널내 상관의 크기에 기초하여, 제 1 ch에서의 채널내 예측에 의해 직접 구한 제 1 ch 예측 신호(직접적 예측), 또는, 제 2 ch에서의 채널내 예측에 의해 구한 제 2 ch 예측 신호로부터 간접적으로 구한 제 1 ch 예측 신호(간접적 예측)의 어느 쪽인가를 선택했다. 그러나, 본 발명은 이것에 한하지 않으며, 부호화 대상 채널인 제 1 ch의 채널내 예측 오차(즉, 입력 신호인 제 1 ch 음성 신호에 대한 제 1 ch 예측 신호의 오차)가 작은 쪽의 제 1 ch 예측 신호를 선택해도 괜찮다. 또는, 양쪽의 제 1 ch 예측 신호를 이용해 확장 레이어에서의 부 호화를 행하고, 그 결과 발생하는 부호화 왜곡이 보다 작은 쪽의 제 1 ch 예측 신호를 선택해도 괜찮다.
(실시형태 2)
도 6에 본 실시형태에 따른 음성 부호화 장치(500)의 구성을 나타낸다.
코어 레이어 부호화부(510)에 있어서, 모노럴 신호 생성부(511)는, 상기 수학식(1)에 따라 모노럴 신호를 생성하여, 모노럴 신호 CELP 부호화부(512)에 출력한다.
모노럴 신호 CELP 부호화부(512)는, 모노럴 신호 생성부(511)에서 생성된 모노럴 신호에 대해서 CELP 부호화를 행하고, 모노럴 신호 부호화 데이터 및 CELP 부호화에 의해 얻어지는 모노럴 구동 음원 신호를 출력한다. 모노럴 신호 부호화 데이터는, 모노럴 신호 복호부(513)에 출력됨과 동시에, 제 1 ch 부호화 데이터와 다중되어 음성 복호 장치에 전송된다. 또, 모노럴 구동 음원 신호는, 모노럴 구동 음원 신호 보유부(521)에 보관된다.
모노럴 신호 복호부(513)는, 모노럴 신호의 부호화 데이터로부터 모노럴의 복호 신호를 생성하여 모노럴 복호 신호 보유부(522)에 출력한다. 이 모노럴 복호 신호는, 모노럴 복호 신호 보유부(522)에 보관된다.
확장 레이어 부호화부(520)에 있어서, 제 1 ch CELP 부호화부(523)는 제 1 ch 음성 신호에 대해서 CELP 부호화를 행하여 제 1 ch 부호화 데이터를 출력한다. 제 1 ch CELP 부호화부(523)는, 모노럴 신호 부호화 데이터, 모노럴 복호 신호, 모 노럴 구동 음원 신호, 제 2 ch 음성 신호 및 제 2 ch 신호 생성부(525)로부터 입력되는 제 2 ch 복호 신호를 이용하여, 제 1 ch 음성 신호에 대응하는 구동 음원 신호의 예측 및, 그 예측 잔차 성분에 대한 CELP 부호화를 행한다. 제 1 ch CELP 부호화부(523)는, 그 예측 잔차 성분에 대한 CELP 음원 부호화에 있어서, 스테레오 신호의 각 채널의 채널내 상관에 기초하여, 적응 코드북 탐색을 행하는 코드북을 전환한다(즉, 부호화에 이용하는 채널내 예측을 행하는 채널을 전환함). 제 1 ch CELP 부호화부(523)의 상세한 것에 대해서는 후술한다.
제 1 ch 복호부(524)는, 제 1 ch 부호화 데이터를 복호해 제 1 ch 복호 신호를 구하고, 이 제 1 ch 복호 신호를 제 2 ch 신호 생성부(525)에 출력한다.
제 2 ch 신호 생성부(525)는, 모노럴 복호 신호와 제 1 ch 복호 신호로부터, 상기 수학식(3)에 따라 제 2 ch 복호 신호를 생성하여, 제 1 ch CELP 부호화부(523)에 출력한다.
이어서, 제 1 chCELP 부호화부(523)의 상세한 것에 대하여 설명한다. 제 1 ch CELP 부호화부(523)의 구성을 도 7에 나타낸다.
도 7에 있어서, 제 1 ch LPC 분석부(601)는, 제 1 ch 음성 신호에 대한 LPC 분석을 행하여, 얻어진 LPC 파라미터를 양자화해 제 1 ch LPC 예측 잔차 신호 생성부(602) 및 합성 필터(615)에 출력함과 동시에, 제 1 ch LPC 양자화 부호를 제 1 ch 부호화 데이터로서 출력한다. 제 1 ch LPC 분석부(601)에서는, LPC 파라미터를 양자화할 때에, 모노럴 신호에 대한 LPC 파라미터와 제 1 ch 음성 신호로부터 얻어지는 LPC 파라미터(제 1 ch LPC 파라미터)와의 상관이 큰 점을 이용하여, 모노럴 신호의 부호화 데이터로부터 모노럴 신호 양자화 LPC 파라미터를 복호하고, 그 모노럴 신호 양자화 LPC 파라미터에 대한 제 1 ch LPC 파라미터의 차분 성분을 양자화함으로써 효율적인 양자화를 행한다.
제 1 ch LPC 예측 잔차 신호 생성부(602)는, 제 1 ch양자화 LPC 파라미터를 이용해 제 1 ch 음성 신호에 대한 LPC 예측 잔차 신호를 산출하여, 채널간 예측 파라미터 분석부(603)에 출력한다.
채널간 예측 파라미터 분석부(603)는, LPC 예측 잔차 신호와 모노럴 구동 음원 신호로부터, 모노럴 신호에 대한 제 1 ch 음성 신호의 예측 파라미터(채널간 예측 파라미터)를 구해 양자화하여, 제 1 ch 구동 음원 신호 예측부(604)에 출력한다. 또, 채널간 예측 파라미터 분석부(603)는, 채널간 예측 파라미터를 양자화 및 부호화한 채널간 예측 파라미터 양자화 부호를 제 1 ch 부호화 데이터로서 출력한다.
제 1 ch 구동 음원 신호 예측부(604)는, 모노럴 구동 음원 신호 및 양자화된 채널간 예측 파라미터를 이용해, 제 1 ch 음성 신호에 대응하는 예측 구동 음원 신호를 합성한다. 이 예측 구동 음원 신호는, 곱셈기(612-1)에서 게인이 곱해져 가산기(614)에 출력된다.
여기서, 채널간 예측 파라미터 분석부(603)는, 실시형태 1(도 1)에 있어서의 채널간 예측 파라미터 분석부(301)에 대응하며, 그 동작은 동일하다. 또, 제 1 ch 구동 음원 신호 예측부(604)는, 실시형태 1(도 1)에 있어서의 채널간 예측부(302)에 대응하며, 그 동작은 동일하다. 단, 본 실시형태에서는, 모노럴 복호 신호에 대한 예측을 행하여 제 1 ch 예측 신호를 합성하는 것이 아니라, 모노럴 구동 음원 신호에 대한 예측을 행하여 제 1 ch의 예측 구동 음원 신호를 합성하는 점에서, 실시형태 1과 다르다. 그리고, 본 실시형태에서는, 그 예측 구동 음원 신호에 대한 잔차 성분(예측을 다하지 못한 오차 성분)의 음원 신호를, CELP 부호화의 음원 탐색에 의해 부호화한다.
상관도 비교부(605)는, 제 1 ch 음성 신호로부터 제 1 ch의 채널내 상관을 산출함과 동시에, 제 2 ch 음성 신호로부터 제 2 ch의 채널내 상관을 산출한다. 그리고, 상관도 비교부(605)는, 제 1 ch의 채널내 상관과 제 2 ch의 채널내 상관을 비교하여, 보다 큰 상관을 가지는 채널을 선택한다. 이 선택의 결과를 나타내는 선택 정보는 선택부(613)에 출력된다. 또, 이 선택 정보는, 제 1 ch 부호화 데이터로서 출력된다.
제 2 ch LPC 예측 잔차 신호 생성부(606)는, 제 1 ch양자화 LPC 파라미터 및 제 2 ch 복호 신호로부터 제 2 ch 복호 신호에 대한 LPC 예측 잔차 신호를 생성하고, 앞(前)서브 프레임(제n-1 서브 프레임)까지의 제 2 ch LPC 예측 잔차 신호로 구성되는 제 2 ch 적응 코드북(607)을 생성한다.
모노럴 LPC 예측 잔차 신호 생성부(609)는, 제 1 ch양자화 LPC 파라미터 및 모노럴 복호 신호로부터 모노럴 복호 신호에 대한 LPC 예측 잔차 신호(모노럴 LPC 예측 잔차 신호)를 생성하여, 제 1 ch 신호 생성부(608)에 출력한다.
제 1 ch 신호 생성부(608)는, 왜곡 최소화부(618)로부터 지시된 인덱스에 대응하는 적응 코드북 래그에 기초하여 제 2 ch 적응 코드북(607)으로부터 출력되는 제 2 ch의 부호 벡터 Vacb_ch2(n)(단, n=0~NSUB-1;NSUB는 서브 프레임 길이(CELP 음원 탐색시의 구간 길이 단위))와, 부호화 대상인 현(現)서브 프레임(제n서브 프레임)의 모노럴 LPC 예측 잔차 신호 Vres_mono(n)를 이용하여, 상기 수학식 1의 관계를 기초로 수학식 6에 따라, 제 1 ch의 적응 음원에 대응하는 부호 벡터 Vacb_ch1(n)를 산출하여, 적응 코드북 벡터로서 출력한다. 이 부호 벡터 Vacb_ch1(n)는 곱셈기(612-2)에서 적응 코드북 게인이 곱해져 선택부(613)에 출력된다.
Vacb_ch1(n) = 2 · Vres_mono(n) - Vacb_ch2(n) …(6)
제 1 ch 적응 코드북(610)은, 왜곡 최소화부(618)로부터 지시된 인덱스에 대응하는 적응 코드북 래그에 기초하여, 1 서브 프레임분의 제 1 ch의 부호 벡터를 적응 코드북 벡터로서 곱셈기(612-3)에 출력한다. 이 적응 코드북 벡터는 곱셈기(612-3)에서 적응 코드북 게인이 곱해져 선택부(613)에 출력된다.
선택부(613)는, 상관도 비교부(605)에서의 선택 결과에 따라, 곱셈기(612-2)로부터 출력되는 적응 코드북 벡터, 또는 곱셈기 (612-3)로부터 출력되는 적응 코드북 벡터의 어느것인가를 선택하여, 곱셈기(612-4)에 출력한다. 선택부(613)는, 상관도 비교부(605)에 의해 제 1 ch이 선택된 경우(즉, 제 1 ch의 채널 내상관이 제 2 ch의 채널내 상관보다 큰 경우), 곱셈기(612-3)로부터 출력되는 적응 코드북 벡터를 선택하고, 상관도 비교부(605)에 의해 제 2 ch이 선택된 경우(즉, 제 1 ch의 채널내 상관이 제 2 ch의 채널내 상관 이하일 경우), 곱셈기(612-2)로부터 출력 되는 적응 코드북 벡터를 선택한다.
곱셈기(612-4)는, 선택부(613)로부터 출력된 적응 코드북 벡터에 별개의 게인을 곱하여, 가산기(614)에 출력한다.
제 1 ch 고정 코드북(611)은, 왜곡 최소화부(618)로부터 지시된 인덱스에 대응하는 부호 벡터를 고정 코드북 벡터로서 곱셈기(612-5)에 출력한다.
곱셈기(612-5)는, 제 1 ch 고정 코드북(611)으로부터 출력된 고정 코드북 벡터에 고정 코드북 게인을 곱하여, 곱셈기(612-6)에 출력한다.
곱셈기(612-6)는, 고정 코드북 벡터에 별개의 게인을 곱하여, 가산기(614)에 출력한다.
가산기(614)는, 곱셈기(612-1)로부터 출력된 예측 구동 음원 신호와, 곱셈기(612-4)로부터 출력된 적응 코드북 벡터와, 곱셈기(612-6)로부터 출력된 고정 코드북 벡터를 가산하고, 가산후의 음원 벡터를 구동 음원으로서 합성 필터(615)에 출력한다.
합성 필터(615)는, 제 1 ch양자화 LPC 파라미터를 이용해, 가산기(614)로부터 출력되는 음원 벡터를 구동 음원으로 하여 LPC 합성 필터에 의한 합성을 행하고, 이 합성에 의해 얻어지는 합성 신호를 감산기(616)에 출력한다. 또한, 합성 신호 중 제 1 ch의 예측 구동 음원 신호에 대응하는 성분은, 실시형태 1(도 1)에 있어서 채널간 예측부(302)로부터 출력되는 제 1 ch 예측 신호에 상당한다.
감산기(616)는, 합성 필터(615)로부터 출력된 합성 신호를 제 1 ch 음성 신호로부터 감산함으로써 오차 신호를 산출하고, 이 오차 신호를 청각 가중부(617)에 출력한다. 이 오차 신호가 부호화 왜곡에 상당한다.
청각 가중부(617)는, 감산기(616)로부터 출력된 부호화 왜곡에 대해 청각적인 가중을 행하여, 왜곡 최소화부(618)에 출력한다.
왜곡 최소화부(618)는, 제 2 ch 적응 코드북(607), 제 1 ch 적응 코드북(610) 및 제 1 ch 고정 코드북(611)에 대해서, 청각 가중부(617)로부터 출력되는 부호화 왜곡을 최소로 하는 인덱스를 결정해 제 2 ch 적응 코드북(607), 제 1 ch 적응 코드북(610) 및 제 1 ch 고정 코드북(611)이 사용할 인덱스를 지시한다. 또, 왜곡 최소화부(618)는, 그 인덱스들에 대응하는 게인(적응 코드북 게인 및 고정 코드북 게인)을 생성해 각각 곱셈기(612-2),(612-3),(612-5)에 출력한다.
또, 왜곡 최소화부(618)는, 제 1 ch 구동 음원 신호 예측부(604)로부터 출력되는 예측 구동 음원 신호, 선택부(613)로부터 출력되는 적응 코드북 벡터 및 곱셈기(612-5)로부터 출력되는 고정 코드북 벡터의 3 종류의 신호간의 게인을 조정하는 각 게인을 생성해, 각각 곱셈기(612-1, 612-4, 612-6)에 출력한다. 그 3 종류 신호간 게인을 조정하는 3 종류의 게인은, 바람직하게는, 그러한 게인값 사이에 서로 관계성을 부여하여 생성하는 것이 바람직하다. 예를 들면, 제 1 ch 음성 신호와 제 2 ch 음성 신호의 채널간 상관이 큰 경우는, 예측 구동 음원 신호의 기여분(寄與分)이 게인 곱셈 후의 적응 코드북 벡터 및 게인 곱셈 후의 고정 코드북 벡터의 기여분에 비해서 상대적으로 커지도록, 반대로, 채널간 상관이 작은 경우는, 예측 구동 음원 신호의 기여분이 게인 곱셈 후의 적응 코드북 벡터 및 게인 곱셈 후의 고정 코드북 벡터의 기여분에 비해서 상대적으로 작아지도록 한다.
또, 왜곡 최소화부(618)는, 그러한 인덱스, 그러한 인덱스에 대응하는 각 게인의 부호 및 신호간 조정용 게인 부호를 제 1 ch 음원 부호화 데이터로서 출력한다. 이 제 1 ch 음원 부호화 데이터는, 제 1 ch 부호화 데이터로서 출력된다.
이어서, 도 8을 이용하여, 제 1 ch CELP 부호화부(523)의 동작에 대해 설명한다.
우선, 제 1 ch의 채널내 상관도 cor1 및 제 2 ch의 채널내 상관도 cor2를 산출한다(ST41).
그 다음에, cor1와 cor2를 비교하여(ST42), 채널내 상관도가 보다 큰 채널의 적응 코드북을 이용한 적응 코드북 탐색을 행한다.
즉, cor1>cor2의 경우는(ST42:YES), 제 1 ch 적응 코드북을 이용한 적응 코드북 탐색을 행하여(ST43), 탐색 결과를 출력한다(ST48).
한편, cor1≤cor2의 경우는(ST42:NO), 모노럴 LPC 예측 잔차 신호를 생성하고(ST44), 제 2 ch LPC 예측 잔차 신호를 생성하고(ST45), 제 2 ch LPC 예측 잔차 신호로부터 제 2 ch 적응 코드북을 생성하고(ST46), 모노럴 LPC 예측 잔차 신호와 제 2 ch 적응 코드북을 이용한 적응 코드북 탐색을 행하여(ST47), 탐색 결과를 출력한다(ST48).
이와 같이, 본 실시형태에 의하면, 음성 부호화에 적절한 CELP 부호화를 이용하기 때문에, 실시형태 1에 비해, 한층 더 효율적인 부호화를 행할 수 있다.
또한, 상기 설명에서는, 제 1 ch CELP 부호화부(523)에 제 1 ch LPC 예측 잔차 신호 생성부(602), 채널간 예측 파라미터 분석부(603) 및 제 1 ch 구동 음원 신 호 예측부(604)를 구비하는 구성에 대해 설명했지만, 제 1 ch CELP 부호화부(523)는 이러한 각 부를 가지지 않는 구성을 취할 수도 있다. 이 경우, 제 1 ch CELP 부호화부(523)에서는, 모노럴 구동 음원 신호 보유부(521)로부터 출력된 모노럴 구동 음원 신호에 직접 게인이 곱셈되어 가산기(614)에 출력된다.
또, 상기 설명에서는, 채널내 상관의 크기를 기초로, 제 1 ch 적응 코드북(610)을 이용한 적응 코드북 탐색 또는 제 2 ch 적응 코드북(607)을 이용한 적응 코드북 탐색 어느것인가를 선택했지만, 이들 양쪽의 적응 코드북 탐색을 행하여, 부호화 대상 채널(본 실시형태에서는 제 1 ch)의 부호화 왜곡이 보다 작은 쪽의 탐색 결과를 선택해도 괜찮다.
상기 각 실시형태에 따른 음성 부호화 장치, 음성 복호 장치를, 이동체 통신 시스템에 있어서 사용되는 무선 통신 이동국 장치나 무선 통신 기지국 장치 등의 무선 통신 장치에 탑재하는 것도 가능하다.
또, 상기 각 실시형태에서는, 본 발명을 하드웨어로 구성하는 경우를 예로 들어 설명했지만, 본 발명은 소프트웨어로 실현되는 일도 가능하다.
또, 상기 각 실시형태의 설명에 이용한 각 기능 블록은, 전형적으로는 집적 회로인 LSI로서 실현된다. 이들은 개별적으로 1칩화되어도 괜찮고, 일부 또는 모두를 포함하도록 1칩화되어도 괜찮다.
여기에서는, LSI라고 했지만, 집적도의 차이에 따라, IC, 시스템 LSI, 슈퍼 LSI, 울트라 LSI라고 호칭되는 일도 있다.
또, 집적 회로화의 수법은 LSI에 한하는 것은 아니며, 전용 회로 또는 범용 프로세서로 실현해도 좋다. LSI 제조 후에, 프로그램하는 것이 가능한 FPGA(Field Programmable Gate Array)나, LSI 내부의 회로 셀의 접속이나 설정을 재구성 가능한 리컨피규러블 프로세서를 이용해도 좋다.
또, 반도체 기술의 진보 또는 파생하는 별개의 기술에 의해 LSI에 대체되는 집적 회로화의 기술이 등장하면, 당연히 그 기술을 이용해 기능 블록의 집적화를 행하여도 좋다. 바이오 기술의 적응 등이 가능성으로서 있을 수 있다.
본 명세서는 2005년 4월 28일에 출원한 일본 특허 출원 2005-132365에 기초하고 있는 것이다. 이 내용은 모두 여기에 포함시켜 놓는다.
본 발명은 이동체 통신 시스템이나 인터넷 프로토콜을 이용한 패킷 통신 시스템 등에 있어서의 통신 장치의 용도에 적용할 수 있다.

Claims (5)

  1. 모노럴 신호를 위한 코어 레이어의 부호화를 행하는 제 1 부호화 수단과,
    스테레오 신호를 위한 확장 레이어의 부호화를 행하는 제 2 부호화 수단
    을 구비하되,
    상기 제 1 부호화 수단은 스테레오 신호를 구성하는 제 1 채널의 신호 및 제 2 채널의 신호로부터 모노럴 신호를 생성하고,
    상기 제 2 부호화 수단은, 상기 제 1 채널의 채널내 상관과 상기 제 2 채널의 채널내 상관을 비교하여, 상기 제 1 채널 및 상기 제 2 채널 중 채널내 상관이 보다 큰 쪽의 채널을 선택하고, 제 1 채널을 선택한 경우에는, 제 1 채널의 채널내 예측에 의해 생성한 제 1 채널의 예측 신호를 이용하여 상기 제 1 채널에 대한 부호화를 행하고, 제 2 채널을 선택한 경우에는, 제 2 채널의 채널내 예측에 의해 생성한 제 2 채널의 예측 신호와 상기 모노럴 신호를 이용하여 상기 제 1 채널에 대한 부호화를 행하는
    음성 부호화 장치.
  2. 삭제
  3. 청구항 1 에 기재한 음성 부호화 장치를 구비한 무선 통신 이동국 장치.
  4. 청구항 1에 기재한 음성 부호화 장치를 구비한 무선 통신 기지국 장치.
  5. 모노럴 신호를 위한 코어 레이어의 부호화와 스테레오 신호를 위한 확장 레이어의 부호화를 행하는 음성 부호화 방법으로서,
    상기 코어 레이어에 있어서, 스테레오 신호를 구성하는 제 1 채널의 신호 및 제 2 채널의 신호로부터 모노럴 신호를 생성하고,
    상기 확장 레이어에 있어서, 상기 제 1 채널의 채널내 상관과 상기 제 2 채널의 채널내 상관을 비교하여, 상기 제 1 채널 및 상기 제 2 채널 중 채널내 상관이 보다 큰 쪽의 채널을 선택하고, 제 1 채널을 선택한 경우에는, 제 1 채널의 채널내 예측에 의해 생성한 제 1 채널의 예측 신호를 이용하여 상기 제 1 채널에 대한 부호화를 행하고, 제 2 채널을 선택한 경우에는, 제 2 채널의 채널내 예측에 의해 생성한 제 2 채널의 예측 신호와 상기 모노럴 신호를 이용하여 상기 제 1 채널에 대한 부호화를 행하는
    음성 부호화 방법.
KR1020077024701A 2005-04-28 2006-04-27 음성 부호화 장치와 음성 부호화 방법, 무선 통신 이동국 장치 및 무선 통신 기지국 장치 KR101259203B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2005-00132365 2005-04-28
JP2005132365 2005-04-28
PCT/JP2006/308811 WO2006118178A1 (ja) 2005-04-28 2006-04-27 音声符号化装置および音声符号化方法

Publications (2)

Publication Number Publication Date
KR20080003839A KR20080003839A (ko) 2008-01-08
KR101259203B1 true KR101259203B1 (ko) 2013-04-29

Family

ID=37307976

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020077024701A KR101259203B1 (ko) 2005-04-28 2006-04-27 음성 부호화 장치와 음성 부호화 방법, 무선 통신 이동국 장치 및 무선 통신 기지국 장치

Country Status (7)

Country Link
US (1) US8433581B2 (ko)
EP (1) EP1876585B1 (ko)
JP (1) JP4850827B2 (ko)
KR (1) KR101259203B1 (ko)
CN (1) CN101167124B (ko)
DE (1) DE602006014957D1 (ko)
WO (1) WO2006118178A1 (ko)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE602006016556D1 (de) * 2005-01-11 2010-10-14 Agency Science Tech & Res Kodierer, dekodierer, verfahren zum kodieren/dekodieren, maschinell lesbare medien und computerprogramm-elemente
JP4999846B2 (ja) * 2006-08-04 2012-08-15 パナソニック株式会社 ステレオ音声符号化装置、ステレオ音声復号装置、およびこれらの方法
SG170078A1 (en) * 2006-12-13 2011-04-29 Panasonic Corp Encoding device, decoding device, and method thereof
JPWO2008072732A1 (ja) * 2006-12-14 2010-04-02 パナソニック株式会社 音声符号化装置および音声符号化方法
US20100100372A1 (en) * 2007-01-26 2010-04-22 Panasonic Corporation Stereo encoding device, stereo decoding device, and their method
DK2128858T3 (da) * 2007-03-02 2013-07-01 Panasonic Corp Kodningsindretning og kodningsfremgangsmåde
MY152167A (en) * 2007-03-02 2014-08-15 Panasonic Corp Encoding device and encoding method
JP4871894B2 (ja) 2007-03-02 2012-02-08 パナソニック株式会社 符号化装置、復号装置、符号化方法および復号方法
JP4708446B2 (ja) * 2007-03-02 2011-06-22 パナソニック株式会社 符号化装置、復号装置およびそれらの方法
EP2133872B1 (en) 2007-03-30 2012-02-29 Panasonic Corporation Encoding device and encoding method
US8374883B2 (en) * 2007-10-31 2013-02-12 Panasonic Corporation Encoder and decoder using inter channel prediction based on optimally determined signals
US8359196B2 (en) * 2007-12-28 2013-01-22 Panasonic Corporation Stereo sound decoding apparatus, stereo sound encoding apparatus and lost-frame compensating method
EP2144228A1 (en) 2008-07-08 2010-01-13 Siemens Medical Instruments Pte. Ltd. Method and device for low-delay joint-stereo coding
EP2402941B1 (en) 2009-02-26 2015-04-15 Panasonic Intellectual Property Corporation of America Channel signal generation apparatus
GB2470059A (en) * 2009-05-08 2010-11-10 Nokia Corp Multi-channel audio processing using an inter-channel prediction model to form an inter-channel parameter
US20120072207A1 (en) * 2009-06-02 2012-03-22 Panasonic Corporation Down-mixing device, encoder, and method therefor
EP2830051A3 (en) * 2013-07-22 2015-03-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder, methods and computer program using jointly encoded residual signals
JP6266193B2 (ja) * 2015-12-22 2018-01-24 三菱電機株式会社 データ圧縮装置、データ伸長装置、データ圧縮プログラム、データ伸長プログラム、データ圧縮方法及びデータ伸長方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5434948A (en) 1989-06-15 1995-07-18 British Telecommunications Public Limited Company Polyphonic coding
US20030014136A1 (en) 2001-05-11 2003-01-16 Nokia Corporation Method and system for inter-channel signal redundancy removal in perceptual audio coding

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5274740A (en) * 1991-01-08 1993-12-28 Dolby Laboratories Licensing Corporation Decoder for variable number of channel presentation of multidimensional sound fields
US5285498A (en) 1992-03-02 1994-02-08 At&T Bell Laboratories Method and apparatus for coding audio signals based on perceptual model
DE19526366A1 (de) * 1995-07-20 1997-01-23 Bosch Gmbh Robert Verfahren zur Redundanzreduktion bei der Codierung von mehrkanaligen Signalen und Vorrichtung zur Dekodierung von redundanzreduzierten, mehrkanaligen Signalen
JP3622365B2 (ja) 1996-09-26 2005-02-23 ヤマハ株式会社 音声符号化伝送方式
EP0924962B1 (en) 1997-04-10 2012-12-12 Sony Corporation Encoding method and device, decoding method and device, and recording medium
US6356211B1 (en) 1997-05-13 2002-03-12 Sony Corporation Encoding method and apparatus and recording medium
JPH1132399A (ja) * 1997-05-13 1999-02-02 Sony Corp 符号化方法及び装置、並びに記録媒体
US5924062A (en) * 1997-07-01 1999-07-13 Nokia Mobile Phones ACLEP codec with modified autocorrelation matrix storage and search
DE19742655C2 (de) * 1997-09-26 1999-08-05 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Codieren eines zeitdiskreten Stereosignals
KR100335611B1 (ko) 1997-11-20 2002-10-09 삼성전자 주식회사 비트율 조절이 가능한 스테레오 오디오 부호화/복호화 방법 및 장치
SE519552C2 (sv) * 1998-09-30 2003-03-11 Ericsson Telefon Ab L M Flerkanalig signalkodning och -avkodning
US6539357B1 (en) 1999-04-29 2003-03-25 Agere Systems Inc. Technique for parametric coding of a signal containing information
US6961432B1 (en) 1999-04-29 2005-11-01 Agere Systems Inc. Multidescriptive coding technique for multistream communication of signals
JP3335605B2 (ja) 2000-03-13 2002-10-21 日本電信電話株式会社 ステレオ信号符号化方法
SE519981C2 (sv) * 2000-09-15 2003-05-06 Ericsson Telefon Ab L M Kodning och avkodning av signaler från flera kanaler
SE519985C2 (sv) * 2000-09-15 2003-05-06 Ericsson Telefon Ab L M Kodning och avkodning av signaler från flera kanaler
JP3951690B2 (ja) * 2000-12-14 2007-08-01 ソニー株式会社 符号化装置および方法、並びに記録媒体
US6614365B2 (en) 2000-12-14 2003-09-02 Sony Corporation Coding device and method, decoding device and method, and recording medium
CN1266673C (zh) * 2002-03-12 2006-07-26 诺基亚有限公司 可伸缩音频编码的有效改进
US20030231799A1 (en) * 2002-06-14 2003-12-18 Craig Schmidt Lossless data compression using constraint propagation
US7272567B2 (en) * 2004-03-25 2007-09-18 Zoran Fejzo Scalable lossless audio codec and authoring tool
US8078475B2 (en) * 2004-05-19 2011-12-13 Panasonic Corporation Audio signal encoder and audio signal decoder
WO2006000952A1 (en) * 2004-06-21 2006-01-05 Koninklijke Philips Electronics N.V. Method and apparatus to encode and decode multi-channel audio signals
US7930184B2 (en) * 2004-08-04 2011-04-19 Dts, Inc. Multi-channel audio coding/decoding of random access points and transients
US7904292B2 (en) * 2004-09-30 2011-03-08 Panasonic Corporation Scalable encoding device, scalable decoding device, and method thereof
DE602006016556D1 (de) * 2005-01-11 2010-10-14 Agency Science Tech & Res Kodierer, dekodierer, verfahren zum kodieren/dekodieren, maschinell lesbare medien und computerprogramm-elemente
WO2006096137A2 (en) * 2005-03-11 2006-09-14 Agency For Science, Technology And Research Predictor
BRPI0608756B1 (pt) * 2005-03-30 2019-06-04 Koninklijke Philips N. V. Codificador e decodificador de áudio de multicanais, método para codificar e decodificar um sinal de áudio de n canais, sinal de áudio de multicanais codificado para um sinal de áudio de n canais e sistema de transmissão
US8032368B2 (en) * 2005-07-11 2011-10-04 Lg Electronics Inc. Apparatus and method of encoding and decoding audio signals using hierarchical block swithcing and linear prediction coding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5434948A (en) 1989-06-15 1995-07-18 British Telecommunications Public Limited Company Polyphonic coding
US20030014136A1 (en) 2001-05-11 2003-01-16 Nokia Corporation Method and system for inter-channel signal redundancy removal in perceptual audio coding

Also Published As

Publication number Publication date
CN101167124B (zh) 2011-09-21
KR20080003839A (ko) 2008-01-08
US20090076809A1 (en) 2009-03-19
JPWO2006118178A1 (ja) 2008-12-18
DE602006014957D1 (de) 2010-07-29
EP1876585A4 (en) 2008-05-21
EP1876585A1 (en) 2008-01-09
JP4850827B2 (ja) 2012-01-11
CN101167124A (zh) 2008-04-23
EP1876585B1 (en) 2010-06-16
US8433581B2 (en) 2013-04-30
WO2006118178A1 (ja) 2006-11-09

Similar Documents

Publication Publication Date Title
KR101259203B1 (ko) 음성 부호화 장치와 음성 부호화 방법, 무선 통신 이동국 장치 및 무선 통신 기지국 장치
JP5046652B2 (ja) 音声符号化装置および音声符号化方法
JP5046653B2 (ja) 音声符号化装置および音声符号化方法
US11978460B2 (en) Truncateable predictive coding
JP4907522B2 (ja) 音声符号化装置および音声符号化方法
JP5608660B2 (ja) エネルギ保存型マルチチャネルオーディオ符号化
EP1912206B1 (en) Stereo encoding device, stereo decoding device, and stereo encoding method
JP5413839B2 (ja) 符号化装置および復号装置
JP5153791B2 (ja) ステレオ音声復号装置、ステレオ音声符号化装置、および消失フレーム補償方法
US7848932B2 (en) Stereo encoding apparatus, stereo decoding apparatus, and their methods
WO2006046547A1 (ja) 音声符号化装置および音声符号化方法
US8271275B2 (en) Scalable encoding device, and scalable encoding method
US9053701B2 (en) Channel signal generation device, acoustic signal encoding device, acoustic signal decoding device, acoustic signal encoding method, and acoustic signal decoding method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160318

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170302

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180329

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190327

Year of fee payment: 7