JPH08179795A - 音声のピッチラグ符号化方法および装置 - Google Patents

音声のピッチラグ符号化方法および装置

Info

Publication number
JPH08179795A
JPH08179795A JP6324562A JP32456294A JPH08179795A JP H08179795 A JPH08179795 A JP H08179795A JP 6324562 A JP6324562 A JP 6324562A JP 32456294 A JP32456294 A JP 32456294A JP H08179795 A JPH08179795 A JP H08179795A
Authority
JP
Japan
Prior art keywords
pitch
pitch lag
subframe
lag
received
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6324562A
Other languages
English (en)
Inventor
Masahiro Serizawa
芹沢  昌宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP6324562A priority Critical patent/JPH08179795A/ja
Priority to CA002166140A priority patent/CA2166140C/en
Priority to US08/579,412 priority patent/US5751900A/en
Priority to EP95120617A priority patent/EP0720145B1/en
Priority to DE69523032T priority patent/DE69523032T2/de
Publication of JPH08179795A publication Critical patent/JPH08179795A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/09Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals
    • G10L2025/906Pitch tracking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/12Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients

Abstract

(57)【要約】 【目的】同じ符号化ビット数の使用で高性能に音声のピ
ッチラグを符号化すること。 【構成】入力端子10は、4個のサブフレームで構成す
る音声信号を入力する。ピッチバッファ20は、4個の
符号化回路の出力するピッチラグを格納し全ピッチラグ
を一括して並列に出力する。ピッチ符号化回路11は、
入力端子10と接続し4個のサブフレームの最初のサブ
フレームのピッチラグを抽出しピッチバッファ20に出
力すると共にインデックスを出力する。予測ピッチ差分
符号化回路12,13,14は、入力端子10からの第
2番目,第3番目,第4番目のサブフレームをそれぞれ
受けピッチラグを抽出しピッチバッファ20に出力する
と共に、ピッチバッファ20からは自己の出力したピッ
チラグを除いた複数のピッチラグを受け、自己の受けた
サブフレームのピッチラグの予測値を求め、自己の出力
したピッチラグとの差を符号化してインデックスとして
出力する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は音声のピッチラグ符号化
方法および装置に関し、特にCELP(CodeExcited Lin
ear Prediction Coding) 型の音声符号化方式の音声の
ピッチラグ符号化方法および装置に関する。
【0002】
【従来の技術】従来から音声のピッチラグ符号化を用い
た音声符号化方式の代表的な方式としてはCELP方式
がある。CELP方式は、フレーム単位(例えば40mse
c)で得た特徴パラメータ(スペクトル特性)と、この
フレームを更に分割したサブフレーム単位(例えば 8ms
ec)で得た特徴パラメータ(ピッチラグ、音源コード、
ゲイン)を用いて、音声信号符号化を行う。CELP方
式に関しては、例えば、エム・シュレーダー(M.Schroe
der )とビー・アタル(B.Atal)等がアイイーイーイー
・プロシーディングス(IEEE Proc.)ICASSP-85,1985年、
937〜940頁にコード・エキサイテド・リニア・プ
リディクション:ハイ・クオリティ・スピーチ・アット
・ベリー・ロウ・ビット・レイツ(Code-excited linea
r prediction: High quality speech at very low bit
rates )と題して発表した論文(文献1)等に記載され
ている。ここに述べるピッチラグは音声信号の有声音声
のピッチ周期に対応するものであり、符号化された値
は、ピッチ周期の整数倍値または整数分の1倍付近の値
となる。通常、この値は時間と共に緩やかに変化する。
【0003】従来のピッチラグ符号化方法および装置と
して、符号化された値は、ピッチ周期が緩やかに変化す
るという性質を用いて伝送ビットレートを低減化するピ
ッチラグ差分符号化方式を用いたものがある。即ち、こ
の従来のピッチラグ符号化方法および装置は、前述の各
サブフレームからピッチラグを選択する際に、前のピッ
チラグとの差分を求めて符号化するものである。この従
来のピッチラグ符号化装置の一例が記載された文献とし
て、米国特許第5253269号(文献2)とアイラ・
エイ・ジャーソン(Ira.A.Gerson)等がアイイーイーイ
ー・ジェー・セレクテッド・エリアズ・イン・コミュニ
ケーションズ(IEEE J. Selected Areasin Communicati
ons. )Vol.10,No.5,June, 1992年、858〜865頁
にテクニクス・フォ・インプルービング・ザ・パフォマ
ンス・オブ・シー・イー・エル・ピー・タイプ・スピー
チ・コーダーズ(Techniques for Improving the Perfo
rmance of CELP-Type Speech Coders )と題して発表し
た招待論文(文献3)がある。次に、図3に示す従来の
ピッチラグ符号化装置で、第nからn+3 番目のサブフ
レームのピッチラグを符号化する場合について説明す
る。なお各サブフレームの符号化ビット数は、Bビット
であるとする。
【0004】最初に図3分図(a)のブロック図を用い
て全体の動作を説明する。まず、入力端子40から音声
信号を入力しピッチ符号化回路41とピッチ差分符号化
回路42,43,44に渡す。ピッチ符号化回路41
は、入力端子40から渡された音声信号を用いて第nサ
ブフレームのピッチラグを抽出し、抽出したピッチラグ
をピッチ差分符号化回路42に渡す。また、抽出したピ
ッチラグを符号化し、符号化で得たインデックスI(n)を
出力端子46に出力する。ピッチ差分回路42,43,
44は、各々前のサブフレームの符号化回路41,4
2,43,から各々渡されたピッチラグL(i),i=n〜
n+1と入力端子40から渡された入力音声信号とを用い
て、ピッチ差分符号化を行う。更に各々抽出されたピッ
チラグを次のサブフレームの符号化回路に渡し、ピッチ
ラグを符号化したインデックスI(i)を出力端子47,4
8,49に渡す。出力端子46,47,48,49は、
符号化回路41,42,43,44から各々渡されたイ
ンデックスI(i),i=n〜n+3を出力する。
【0005】次に図3分図(b)のブロック図を用いて
ピッチ差分符号化回路の動作の説明を行う。まず、入力
端子21から入力音声を入力し拘束付きピッチ抽出回路
22に渡す。また、入力端子23から第i-1 番目のサブ
フレームで抽出されたピッチラグを入力し、拘束付きピ
ッチ抽出回路22と差分回路27に渡す。拘束付きピッ
チ抽出回路22では、入力音声から該当するサブフレー
ムのピッチラグを抽出する。但し、第i-1番目のサブフ
レームで抽出されたピッチラグを基準として、符号化ビ
ットBで表される範囲から抽出する。次に、拘束付きピ
ッチ抽出回路22で求められた第i番目のピッチラグL
(i)を出力端子25から出力すると共に、差分回路27
に渡す。差分回路27は、入力端子23から渡された第
i-1番目ののサブフレームで抽出されたピッチラグと、
拘束付きピッチ抽出回路22から渡された第n番目のピ
ッチラグL(n)との差分値を計算し、符号化回路29に渡
す。符号化回路29は、差分回路27から渡された差分
値を入力し、予め定められた符号化ビット数Bで符号化
し、その符号を出力端子26に渡す。出力端子26は、
符号化回路29から渡されたインデックスI(i)を出力す
る。
【0006】次に、図3分図(c)のブロック図を用い
て、ピッチ符号化回路41の動作を説明する。入力端子
51は入力音声を入力する。ピッチ抽出回路52は、入
力端子51から渡されて入力音声を用いて該当するサブ
フレームのピッチを抽出し、出力端子53と符号化回路
57に渡す。出力端子53は、ピッチ抽出回路52から
渡されたピッチラグL(i)を出力する。次に符号化回路5
7は、ピッチ抽出回路52から渡されたピッチラグL(i)
を符号化し、インデックスI(i)を出力端子55に渡す。
出力端子55は符号化回路57から渡されたインデック
スI(i)を出力する。
【0007】また、差分符号化では、符号化装置と復号
化装置の間での伝送路エラーが生じた場合、符号化装置
で符号化したピッチラグと復号装置で復号されたピッチ
ラグに誤差が生じ、この誤差が蓄積していく。図3分図
(a)の従来例では、これを避けることを目的として、
一定間隔(例えばフレーム長)ごとに他のサブフレーム
のピッチラグに依存しないピッチラグを伝送するため
の、ピッチ符号化回路41を使用している。
【0008】また、ピッチラグの抽出方法の1つとし
て、CELP方式で使用しているオープンループ探索法
がある。これは、該当のサブフレームの入力音声信号か
らなるベクトルxと過去にLサンプル遡って入力音声信
号をサブフレーム長に切り出したベクトルx(L)との相関
値を使用する方法である。前述の符号化ビットBで表さ
れる範囲のLに対して相関値を計算する。最後に、相関
値が最大となるLを第2番目のサブフレームのピッチラ
グとして出力する。この際、人間の耳に雑音として聞こ
えるパワーの小さい周波数領域での量子化雑音を抑える
聴感重み付けを施した入力音声信号を用いる方法もあ
る。
【0009】差分回路27の差分値R(n)は、 R(n) = L(n) - L(n-1) (1) で表すことができる。
【0010】
【発明が解決しようとする課題】上述した従来の音声の
ピッチラグ符号化方法および装置は、第n番目のサブフ
レームのピッチラグを符号化する際に、n番目のサブフ
レームのピッチラグと相関の強いそれ以前n-2,n-
3,...及び以後n+1,n+2,...のサブフレームのピッチ
ラグを用いていない。従って、複数サブフレームに渡る
ピッチラグが互いに相関を持つ音声信号の有声音部の性
質を十分に利用して、符号化を行っていないという問題
点がある。
【0011】本発明の目的は、同じ符号化ビット数を使
用しても、高性能に音声のピッチラグを符号化すること
が可能な音声のピッチラグ符号化方法および装置を提供
することにある。
【0012】
【課題を解決するための手段】本発明の音声のピッチラ
グ符号化方法は、入力音声信号のピッチラグを予め定め
た長さのサブフレームごとに符号化する音声のピッチラ
グ符号化方法であって、一連のサブフレームを順に受取
りこの受取ったサブフレーム以外の前記一連のサブフレ
ームの中の任意のサブフレームから抽出した1個のピッ
チラグを用いて前記受取ったサブフレームのピッチラグ
の予測値を計算し、前記受取ったサブフレームからピッ
チラグを抽出し、前記予測値と前記受取ったサブフレー
ムから抽出したピッチラグとの差分を符号化する構成で
ある。
【0013】本発明の音声のピッチラグ符号化方法は、
入力音声信号のピッチラグを予め定めた長さのサブフレ
ームごとに符号化する音声のピッチラグ符号化方法であ
って、一連のサブフレームを順に受取りこの受取ったサ
ブフレーム以外の前記一連のサブフレームの中の任意の
サブフレームから抽出した少なくとも2個のピッチラグ
を用いて前記受取ったサブフレームのピッチラグの予測
値を計算し、前記受取ったサブフレームからピッチラグ
を抽出し、前記予測値と前記受取ったサブフレームから
抽出したピッチラグとの差分を符号化する構成である。
【0014】本発明の音声のピッチラグ符号化方法は、
前記受取ったサブフレームから抽出するピッチラグが前
記受取ったサブフレームのピッチラグの予測値を基準と
して予め定める符号化ビットのビット数で表示される範
囲のピッチラグであってもよい。
【0015】本発明の音声のピッチラグ符号化方法は、
前記一連のサブフレーム以外の複数のサブフレームで、
入力音声信号からピッチラグを抽出し、この抽出したピ
ッチラグを他のサブフレームで抽出したピッチラグと独
立に符号化してもよい。
【0016】本発明の音声のピッチラグ符号化方法は、
前記受取ったサブフレームのピッチラグの予測値とし
て、前記受取ったサブフレーム以外の複数のサブフレー
ムのピッチラグの線形和を用いてもよい。
【0017】本発明の音声のピッチラグ符号化装置は、
一群のサブフレームからなる音声信号を入力する1個の
入力端子と、複数の符号化回路の出力するピッチラグを
格納し複数のピッチラグを一括して並列に出力するピッ
チバッファと、前記入力端子と接続し前記一群のサブフ
レームの最初のサブフレームのピッチラグを抽出し前記
ピッチバッファに出力するピッチ符号化回路と、前記一
群のサブフレームから選択したそれぞれ異なる1つのサ
ブフレームと前記ピッチバッファから自己の出力したピ
ッチラグを除いた複数のピッチラグとを受け前記選択し
たサブフレームから抽出したピッチラグを出力すると共
にこのピッチラグと前記ピッチバッファからのピッチラ
グに基づく予測値との差分値を符号化して出力する複数
の予測ピッチ差分符号化回路とを有する構成である。
【0018】
【作用】本発明による音声のピッチラグ符号化装置の作
用を示す。
【0019】本発明では、第n番目のサブフレームのピ
ッチラグを符号化する際に、n番目のサブフレームのピ
ッチラグと相関の強いそれ以前n-2,n-3,...及び以後
n+1,n+2,...のサブフレームのピッチラグを用いて、
ピッチラグを予測し、その予測値との差分値の符号化を
行う。本発明では、従来例の式(1)に対応する式とし
て、 R(n)=L(n)-func[...,L(n-2),L(n-1),L(n+1),L(n+2),...](2) を用いる。ここで、func[...,L(n-2),L(n-1),L(n+1),L
(n+2),...] は、ピッチラグL(i),(i=...,n-2,n-1,n+1,n
+2,...)の関数値を意味する。例えば、
【0020】
【0021】が考えられる。N(i),(i=1,...,S)は予め与
えられる固定荷重値、あるいはサブフレームごとに変化
する値とする。Sは過去の幾つのサブフレームのピッチ
ラグまでの相関を利用するかを決める整数値である。
【0022】次に、図2のサブフレーム番号とピッチラ
グとの関係を説明する説明図を用いて、本発明のピッチ
ラグの動作の一例を説明する。横軸はサブフレーム番号
を表し、縦軸はピッチラグの値を表す。太い点線30
A,30B,30C,30D,30Eは、各々のサブフ
レームの実際のピッチの値である。実際のピッチの値は
符号化前には不定値であるが、説明する上では既知とす
る。また太い実線31A,31B,31Cは、本符号化
装置で得られたピッチラグである。太い破線32は、本
発明におけるピッチラグの予測値である。
【0023】図2では比較的直線的にピッチラグが変化
する場合を示している。前述したように、音声のピッチ
ラグは、比較的緩やかに変化することが知られている。
本説明では、次式の予測モデルを考える。
【0024】 func[...,L(n-2),L(n-1),L(n+1),L(n+2),...] = L(n-1) * N(1) + L(n-2) * N(2) (4) ピッチラグが直線的に変化するとして、N(1)=-1、N(2)
= 2とする。すると、 L(n-2)= L+2 L(n-1)= L+4 となる。従って、 func[...,L(n-2),L(n-1),L(n+1),L(n+2),...] =L+6 となる。式(3) を用いると差分R(n)は、 R(n)=(L-7) - (L-6) =1 となる。式(1) の従来例では、 R(n)=(L-7) - (L-4) =3 となる。このように、本発明を用いることにより、差分
の基準値である次サブフレームのピッチラグの精度を向
上することができ、従来例での差分値に比べて小さくな
る。即ち、本発明の方が従来例に比べて、少ない符号化
ビット数で符号化が可能であることが分かる。
【0025】なお差分が大きい場合は、式(4)の予測
が不正確になる可能性があるので、この場合には、従来
の方法を用いることにより、性能を更に向上することも
できる。
【0026】以上述べたように、本発明のピッチラグ符
号化方法および装置を用いることにより、該当するサブ
フレームのピッチラグの予測値の精度を向上でき、これ
により従来の方法に比べて少ないビット数で量子化でき
る。また、同じビット数の場合は、従来の方法に比べて
高性能な量子化を行うことができることになる。
【0027】
【実施例】次に、本発明の実施例について図面を参照し
て説明する。
【0028】図1は本発明の一実施例のブロック図であ
る。
【0029】図1分図(a)のブロック図を用いて全体
の構成および動作を説明する。
【0030】本発明の一実施例である音声のピッチラグ
符号化装置100は、第nからn+3番目のサブフレーム
で構成する音声信号を入力する入力端子10と、4個の
符号化回路の出力するピッチラグを格納し4個のピッチ
ラグを一括して並列に出力するピッチバッファ20と、
入力端子10と接続し4個のサブフレームの最初のサブ
フレーム(第n番目)のピッチラグを抽出しピッチバッ
ファ20に出力すると共にインデックスを出力するピッ
チ符号化回路11と、入力端子10からは第n+1 番
目,第n+2 番目,第n+3 番目のサブフレームをそれ
ぞれ受けピッチラグを抽出しピッチバッファ20に出力
すると共に、ピッチバッファ20からは自己の出力した
ピッチラグを除いた複数のピッチラグを受け、自己の受
けたサブフレームのピッチラグの予測値を求め、自己の
出力したピッチラグとの差を符号化してインデックスと
して出力する予測ピッチ差分符号化回路12,13,1
4とから成る。なお、各サブフレームの符号化ビットは
Bビットとする。
【0031】次に動作について説明する。
【0032】入力端子10は、音声信号を入力し、入力
した音声信号をピッチ符号化回路11、ピッチ差分符号
化回路12,13,14に渡す。ピッチ符号化回路11
は、入力端子10から渡された音声信号を用いて第nサ
ブフレームのピッチラグを抽出し、抽出したピッチラグ
をピッチバッファ20に渡す。また、抽出したピッチラ
グを符号化し、符号化したインデックスI(n)を出力端子
16に出力する。予測ピッチ差分符号化回路12,1
3,14は、ピッチバッファ20から渡される他のサブ
フレームのピッチラグと入力端子10から渡される入力
音声信号を用いて、ピッチ差分符号化を行なう。更に、
抽出されたピッチラグを他のサブフレームのピッチ差分
符号化回路12,13,14に渡し、ピッチラグを符号
化したインデックスI(i),i=n+1〜n+3 を各々出力端子1
7,18,19に渡す。ピッチバファ20は各種の符号
化回路11,12,13,14から渡された各サブフレ
ームのピッチラグを蓄積し、蓄積したピッチラグを予測
ピッチ差分符号化回路12,13,14に渡す。出力端
子16,17,18,19は、各種の符号化回路11,
12,13,14から各々渡されたインデックスI(i),i
=n〜n+3 を出力する。
【0033】なお、ピッチ符号化回路11の動作の説明
は、前述した従来のピッチラグ符号化装置のピッチ符号
化回路41と同一なのでここでの説明は省略する。
【0034】次に、図1分図(b)のブロック図を用い
てピッチ差分符号化回路の動作の説明を行う。
【0035】まず、入力端子3,4,8は、他のサブフ
レームから抽出した複数のピッチラグL(i)を入力する。
次に、ピッチ予測回路15は、入力端子3,4,8から
渡されたピッチラグL(i)を用いて該当するサブフレーム
のピッチラグの予測値Lp(i)を、例えば式(3)を用い
て計算し、その予測値Lp(i) を拘束付きピッチ抽出回路
2と差分回路7に渡す。拘束付きピッチ抽出回路2は、
入力端子1から入力音声信号中の該当するサブフレーム
のピッチラグを抽出する。但し、予測値Lp(i)を基準値
として、符号化ビットBビットで表される範囲から抽出
する。ピッチラグの抽出方法に関する説明は従来の方法
と同一なので省略する。次に、拘束付きピッチ抽出回路
2で求められた該当するサブフレームのピッチラグL(i)
を出力端子5から出力すると共に、差分回路7に渡す。
差分回路7は、ピッチ予測回路15から渡された予測値
と拘束付きピッチ抽出回路2から渡されたピッチラグと
の差分値を計算し、この差分値を符号化回路9に渡す。
符号化回路9は、差分回路7から渡された差分値を、予
め定められた符号化ビット数Bで符号化し、そのインデ
ックスI(i)を出力端子6に渡す。出力端子6は、符号化
回路9から渡されたインデックスI(i)を出力する。
【0036】更に、図1分図(c)のブロック図を用い
て図1分図(b)中のピッチ予測回路の動作を説明す
る。
【0037】入力端子66,67,68は、複数(本実
施例では3個)のピッチラグを入力し、積算回路61,
62,63に渡す。積算回路61,62,63は、予め
定めた係数を、入力端子66,67,68から渡された
ピッチラグに各々積算し、この積算結果を加算回路64
に渡す。加算回路64は積算回路61,62,63から
渡された積算結果を加算し、この加算結果を出力端子6
5に渡す。出力端子65は、加算回路64から渡された
加算結果を出力する。
【0038】
【発明の効果】以上説明したように、本発明は、一連の
サブフレームを順に受取り、この受取ったサブフレーム
以外の一連のサブフレームの中の任意のサブフレームか
ら抽出したピッチラグを用いて受取ったサブフレームの
ピッチラグの予測値を計算し、受取ったサブフレームか
らピッチラグを抽出し、予測値と受取ったサブフレーム
から抽出したピッチラグとの差分を符号化することによ
り、従来と同じ符号化ビット数の使用で高性能に音声の
ピッチラグを符号化することが可能となる効果が有る。
【図面の簡単な説明】
【図1】本発明の一実施例のブロック図である。
【図2】サブフレーム番号とピッチラグとの関係を説明
する説明図である。
【図3】従来のピッチラグ符号化装置のブロック図であ
る。
【符号の説明】
1,3,4,8,10,66,67,68 入力端子 2 拘束付きピッチ抽出回路 5,6,16,17,18,19,65 出力端子 7 差分回路 9 符号化回路 11 ピッチ符号化回路 12,13,14 予測ピッチ差分符号化回路 15 ピッチ予測回路 20 ピッチバッファ 61,62,63 積算回路 64 加算回路 100 音声のピッチラグ符号化装置

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 入力音声信号のピッチラグを予め定めた
    長さのサブフレームごとに符号化する音声のピッチラグ
    符号化方法であって、一連のサブフレームを順に受取り
    この受取ったサブフレーム以外の前記一連のサブフレー
    ムの中の任意のサブフレームから抽出した1個のピッチ
    ラグを用いて前記受取ったサブフレームのピッチラグの
    予測値を計算し、前記受取ったサブフレームからピッチ
    ラグを抽出し、前記予測値と前記受取ったサブフレーム
    から抽出したピッチラグとの差分を符号化することを特
    徴とする音声のピッチラグ符号化方法。
  2. 【請求項2】 入力音声信号のピッチラグを予め定めた
    長さのサブフレームごとに符号化する音声のピッチラグ
    符号化方法であって、一連のサブフレームを順に受取り
    この受取ったサブフレーム以外の前記一連のサブフレー
    ムの中の任意のサブフレームから抽出した少なくとも2
    個のピッチラグを用いて前記受取ったサブフレームのピ
    ッチラグの予測値を計算し、前記受取ったサブフレーム
    からピッチラグを抽出し、前記予測値と前記受取ったサ
    ブフレームから抽出したピッチラグとの差分を符号化す
    ることを特徴とする音声のピッチラグ符号化方法。
  3. 【請求項3】 前記受取ったサブフレームから抽出する
    ピッチラグが前記受取ったサブフレームのピッチラグの
    予測値を基準として予め定める符号化ビットのビット数
    で表示される範囲のピッチラグであることを特徴とする
    請求項1記載の音声のピッチラグ符号化方法。
  4. 【請求項4】 前記受取ったサブフレームから抽出する
    ピッチラグが前記受取ったサブフレームのピッチラグの
    予測値を基準として予め定める符号化ビットのビット数
    で表示される範囲のピッチラグであることを特徴とする
    請求項2記載の音声のピッチラグ符号化方法
  5. 【請求項5】 前記一連のサブフレーム以外の複数のサ
    ブフレームで、入力音声信号からピッチラグを抽出し、
    この抽出したピッチラグを他のサブフレームで抽出した
    ピッチラグと独立に符号化することを特徴とする請求項
    1記載の音声のピッチラグ符号化方法。
  6. 【請求項6】 前記一連のサブフレーム以外の複数のサ
    ブフレームで、入力音声信号からピッチラグを抽出し、
    この抽出したピッチラグを他のサブフレームで抽出した
    ピッチラグと独立に符号化することを特徴とする請求項
    2または4記載の音声のピッチラグ符号化方法。
  7. 【請求項7】 前記受取ったサブフレームのピッチラグ
    の予測値として、前記受取ったサブフレーム以外の複数
    のサブフレームのピッチラグの線形和を用いることを特
    徴とする請求項2または4または6記載の音声のピッチ
    ラグ符号化方法。
  8. 【請求項8】 一群のサブフレームからなる音声信号を
    入力する1個の入力端子と、複数の符号化回路の出力す
    るピッチラグを格納し複数のピッチラグを一括して並列
    に出力するピッチバッファと、前記入力端子と接続し前
    記一群のサブフレームの最初のサブフレームのピッチラ
    グを抽出し前記ピッチバッファに出力するピッチ符号化
    回路と、前記一群のサブフレームから選択したそれぞれ
    異なる1つのサブフレームと前記ピッチバッファから自
    己の出力したピッチラグを除いた複数のピッチラグとを
    受け前記選択したサブフレームから抽出したピッチラグ
    を出力すると共にこのピッチラグと前記ピッチバッファ
    からのピッチラグに基づく予測値との差分値を符号化し
    て出力する複数の予測ピッチ差分符号化回路とを有する
    ことを特徴とする音声のピッチラグ符号化装置。
JP6324562A 1994-12-27 1994-12-27 音声のピッチラグ符号化方法および装置 Pending JPH08179795A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP6324562A JPH08179795A (ja) 1994-12-27 1994-12-27 音声のピッチラグ符号化方法および装置
CA002166140A CA2166140C (en) 1994-12-27 1995-12-27 Speech pitch lag coding apparatus and method
US08/579,412 US5751900A (en) 1994-12-27 1995-12-27 Speech pitch lag coding apparatus and method
EP95120617A EP0720145B1 (en) 1994-12-27 1995-12-27 Speech pitch lag coding apparatus and method
DE69523032T DE69523032T2 (de) 1994-12-27 1995-12-27 Vorrichtung und Verfahren zur Kodierung der Sprachgrundfrequenz

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6324562A JPH08179795A (ja) 1994-12-27 1994-12-27 音声のピッチラグ符号化方法および装置

Publications (1)

Publication Number Publication Date
JPH08179795A true JPH08179795A (ja) 1996-07-12

Family

ID=18167202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6324562A Pending JPH08179795A (ja) 1994-12-27 1994-12-27 音声のピッチラグ符号化方法および装置

Country Status (5)

Country Link
US (1) US5751900A (ja)
EP (1) EP0720145B1 (ja)
JP (1) JPH08179795A (ja)
CA (1) CA2166140C (ja)
DE (1) DE69523032T2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999038156A1 (fr) * 1998-01-26 1999-07-29 Matsushita Electric Industrial Co., Ltd. Methode et dispositif d'accentuation de registre
JP2003532149A (ja) * 2000-04-24 2003-10-28 クゥアルコム・インコーポレイテッド 音声発話を予測的に量子化するための方法および装置
WO2006001218A1 (ja) * 2004-06-25 2006-01-05 Matsushita Electric Industrial Co., Ltd. 音声符号化装置、音声復号化装置、およびこれらの方法
JP5400880B2 (ja) * 2009-06-23 2014-01-29 日本電信電話株式会社 符号化方法、復号方法、それらの方法を用いた装置、プログラム、記録媒体

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6470309B1 (en) * 1998-05-08 2002-10-22 Texas Instruments Incorporated Subframe-based correlation
US6507814B1 (en) * 1998-08-24 2003-01-14 Conexant Systems, Inc. Pitch determination using speech classification and prior pitch estimation
US7072832B1 (en) 1998-08-24 2006-07-04 Mindspeed Technologies, Inc. System for speech encoding having an adaptive encoding arrangement
US6587816B1 (en) 2000-07-14 2003-07-01 International Business Machines Corporation Fast frequency-domain pitch estimation
GB2466671B (en) 2009-01-06 2013-03-27 Skype Speech encoding
GB2466669B (en) * 2009-01-06 2013-03-06 Skype Speech coding
GB2466675B (en) 2009-01-06 2013-03-06 Skype Speech coding
GB2466673B (en) 2009-01-06 2012-11-07 Skype Quantization
GB2466674B (en) 2009-01-06 2013-11-13 Skype Speech coding
GB2466672B (en) 2009-01-06 2013-03-13 Skype Speech coding
GB2466670B (en) 2009-01-06 2012-11-14 Skype Speech encoding
US8452606B2 (en) 2009-09-29 2013-05-28 Skype Speech encoding using multiple bit rates

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58179897A (ja) * 1982-04-14 1983-10-21 日本電気株式会社 適応予測形adpcmの符号化方法及び装置
JPS61254999A (ja) * 1985-05-07 1986-11-12 日本電気株式会社 ピッチおよび有声/無声判別信号の符号化方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5253269A (en) * 1991-09-05 1993-10-12 Motorola, Inc. Delta-coded lag information for use in a speech coder

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58179897A (ja) * 1982-04-14 1983-10-21 日本電気株式会社 適応予測形adpcmの符号化方法及び装置
JPS61254999A (ja) * 1985-05-07 1986-11-12 日本電気株式会社 ピッチおよび有声/無声判別信号の符号化方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999038156A1 (fr) * 1998-01-26 1999-07-29 Matsushita Electric Industrial Co., Ltd. Methode et dispositif d'accentuation de registre
JP2003532149A (ja) * 2000-04-24 2003-10-28 クゥアルコム・インコーポレイテッド 音声発話を予測的に量子化するための方法および装置
US8660840B2 (en) 2000-04-24 2014-02-25 Qualcomm Incorporated Method and apparatus for predictively quantizing voiced speech
WO2006001218A1 (ja) * 2004-06-25 2006-01-05 Matsushita Electric Industrial Co., Ltd. 音声符号化装置、音声復号化装置、およびこれらの方法
JP2006011091A (ja) * 2004-06-25 2006-01-12 Matsushita Electric Ind Co Ltd 音声符号化装置、音声復号化装置、およびこれらの方法
US7840402B2 (en) 2004-06-25 2010-11-23 Panasonic Corporation Audio encoding device, audio decoding device, and method thereof
JP5400880B2 (ja) * 2009-06-23 2014-01-29 日本電信電話株式会社 符号化方法、復号方法、それらの方法を用いた装置、プログラム、記録媒体

Also Published As

Publication number Publication date
DE69523032D1 (de) 2001-11-08
EP0720145A2 (en) 1996-07-03
DE69523032T2 (de) 2002-06-20
US5751900A (en) 1998-05-12
CA2166140C (en) 2002-05-07
EP0720145B1 (en) 2001-10-04
CA2166140A1 (en) 1996-06-28
EP0720145A3 (en) 1998-01-21

Similar Documents

Publication Publication Date Title
RU2005137320A (ru) Способ и устройство для квантования усиления в широкополосном речевом кодировании с переменной битовой скоростью передачи
JPH0353300A (ja) 音声符号化装置
JP3180762B2 (ja) 音声符号化装置及び音声復号化装置
JPH08179795A (ja) 音声のピッチラグ符号化方法および装置
JPH0990995A (ja) 音声符号化装置
JPH04270398A (ja) 音声符号化方式
JP3180786B2 (ja) 音声符号化方法及び音声符号化装置
EP1473710B1 (en) Multistage multipulse excitation audio encoding apparatus and method
JPH10177398A (ja) 音声符号化装置
JP2970407B2 (ja) 音声の励振信号符号化装置
JPH09319398A (ja) 信号符号化装置
EP0557940A2 (en) Speech coding system
JPH0944195A (ja) 音声符号化装置
KR100510399B1 (ko) 고정 코드북내의 최적 벡터의 고속 결정 방법 및 장치
JP3095133B2 (ja) 音響信号符号化方法
EP0745972B1 (en) Method of and apparatus for coding speech signal
JP3003531B2 (ja) 音声符号化装置
JP3299099B2 (ja) 音声符号化装置
JPH06131000A (ja) 基本周期符号化装置
JP3308783B2 (ja) 音声復号化装置
JP3252285B2 (ja) 音声帯域信号符号化方法
JP3194930B2 (ja) 音声符号化装置
JP3256215B2 (ja) 音声符号化装置
JP3089967B2 (ja) 音声符号化装置
JP2734995B2 (ja) スペクトルパラメータ抽出装置

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19980916