JP2707564B2 - 音声符号化方式 - Google Patents

音声符号化方式

Info

Publication number
JP2707564B2
JP2707564B2 JP62315621A JP31562187A JP2707564B2 JP 2707564 B2 JP2707564 B2 JP 2707564B2 JP 62315621 A JP62315621 A JP 62315621A JP 31562187 A JP31562187 A JP 31562187A JP 2707564 B2 JP2707564 B2 JP 2707564B2
Authority
JP
Japan
Prior art keywords
sound source
frame
voiced
residual
unvoiced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62315621A
Other languages
English (en)
Other versions
JPH01155400A (ja
Inventor
吉章 浅川
熹 市川
和弘 近藤
俊郎 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP62315621A priority Critical patent/JP2707564B2/ja
Priority to US07/282,497 priority patent/US5119424A/en
Publication of JPH01155400A publication Critical patent/JPH01155400A/ja
Application granted granted Critical
Publication of JP2707564B2 publication Critical patent/JP2707564B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、音声符号化方式に関し、特に音声情報を8K
bps前後に圧縮する際に符号化音声の品質を向上させる
ための方式に関するものである。 〔従来の技術〕 音声信号を広帯域ケーブルで伝送するためには、音声
信号をサンプリングし、量子化して、2進のディジタル
符号に変換することにより、PCM伝送する。 一方、専用ディジタル回線を用いて通信ネットワーク
を構築する場合、通信コストの低減は非常に重要な課題
であり、60Kbpsにも及ぶ音声信号の情報量は多過ぎるた
め、そのままでは伝送できない。そこで、伝送のための
音声信号の情報圧縮(つまり低ビットレート符号化)が
必要となった。 音声信号を8Kbps前後で圧縮する音声符号化方式とし
ては、音声をスペクトル包絡情報と音源情報とに分離し
て、各々を符号化する方法が知られている。その中で、
音源情報を単一パルス列と白色雑音でモデル化したもの
が、いわゆるPARCOR(Partial Autocorrelation:偏自己
相関)法であり、この方法では、低ビットレートで符号
化できるが、その反面、品質の劣化が大きい。これに対
して、音源を複数のパルス列で表現する方式として、マ
ルチパルス法(例えば、小沢,他『マルチパルス駆動形
音声符号化法の品質改善』日本音響学会音声研究会資料
S83−78(1984.1)参照)や、あるいは残差圧縮法(浅
川,他『残差情報を利用した音声合成法の検討』日本音
響学会講演論文集3−1−7(昭和59.10)参照)等が
ある。 残差圧縮法としては、例えば特開昭61−296398号公報
に記載された方法が提案されており、また特願昭60−24
1419号,特願昭61−35148号の各明細書にも記載されて
いる。 これらの方式では、音源の表現が精密化する分だけ、
PARCOR法に比べて品質が向上している。 〔発明が解決しようとする問題点〕 前述の従来技術においては、音源である複数のパルス
列を、フレームごとに独立して一定の基準で生成する。
ここで、フレームとは、音声を分析する時間単位であっ
て、通常は20ms程度に設定される。 ところで、音声波形は、サンプリングされてサンプル
値xiの系列に変換されているものとする。現在をxt
し、それから過去にさかのぼるp個のサンプル値を{x
t-i},(i=1,・・・,p)とする。ここで、音声波形
は近似的に過去のp個のサンプルから予測できると仮定
する。予測の中で最も簡単なものは線形予測であるか
ら、過去のサンプル値の各々にある一定の係数を乗じて
加え合わせたもので、現在の値が近似されるものと考え
る。このとき、現在点tでの実現値xtと予測値ytとの差
を、予測誤差εとする。この予測誤差εを、予測残差ま
たは単に残差と呼ぶ。音声波形の予測残差波形は、2種
類の波形の和と考えられる。その1つは、いわゆる誤差
成分であり、その振幅は余り大きくなく、ランダムな雑
音波形に近い。また、他の1つは、入力に声帯振動によ
るパルスが加わったときの誤差であって、予測が大きく
狂い、振幅の大きな残差波形となる。この残差成分は、
音源の周期性に対応して、繰り返し周期的に現われる。 音声は、周期性を有する区間(有声音)と、周期性が
顕著でない区間(無声音)とに大別されるので、それに
対応して、予測残差波形も、有声音部では周期性を有し
ている。 一方、マルチパルス法や残差圧縮法において生成され
るパルス列は、残差の近似とみなすことができるので、
有声音部では周期性を有するはずである。ところが、こ
れらのパルス列は前後のフレームとは独立して生成され
るために、パルス列の相対的な位置関係がフレームごと
にずれてしまい、周期性が乱れる場合がある。 このようなパルス列を音源として音声を合成すると、
『ゴロゴロ』という音質劣化が生じるという問題があっ
た。 本発明の目的は、このような従来の問題を改善し、マ
ルチパルス法や残差圧縮法で生成されるパルス列に対し
て、フレームごとの周期性の乱れによる音質の劣化を防
止することができる音声符号化方式を提供することにあ
る。 〔問題点を解決するための手段〕 上記目的を達成するため、本発明の音声符号化方式
は、有声フレームが無声フレームから切り替わった直後
か、有声フレームが連続したか、あるいは無声フレーム
であるかのいずれかを判定する手段と、上記無声フレー
ムから有声フレームに切り替わった直後に、音源パルス
を生成する第1の音源パルス生成手段と、上記有声フレ
ームが連続するときに、音源パルスを生成する第2の音
源パルス生成手段と、上記無声フレームのときに、音源
パルスを生成する第3の音源パルス生成手段とを具備す
ることに特徴がある。 〔作用〕 本発明においては、最初に生成されたパルス列を基準
として、ピッチ周期により次のフレームのパルス列の位
置を推定し、その推定された位置の近傍で新たなパルス
列を生成し、周期性を保持する。すなわち、有声音にお
ける音声の周期は、声の高さであるピッチ周波数の逆数
であるピッチ周期に対応している。音の高さの変化は比
較的ゆるやかであるから、1フレームの中ではほぼ一定
とみなすことができる。そこで、最初の基準となるフレ
ーム、例えば、無声音から有声音に切り替わった最初の
フレームでは、従来技術により一定の基準で音源パルス
列を生成した後、順次、生成された音源パルス列を基準
に次のフレームにおける音源パルス列の位置を推定し
て、音源パルス列を生成する方法を用いる。 マルチパルス法や残差圧縮法では、音源パルス数が少
ないので、一般に生成される音源パルス列はピッチ周期
ごとに一塊のまとまったものとなる。従って、フレーム
の最後のピッチ周期における音源パルス列を基準とし
て、ピッチ周期だけ時間軸方向に進めた位置を次のフレ
ームの先頭のパルス列の位置とするのである。このよう
にすれば、2フレーム間でのパルス列の周期性が保持さ
れる。次フレームにおいては、この位置を基準として、
この位置の近傍に最初の音源パルス列を生成する。それ
により、フレーム間での周期性の乱れは無くなり、音質
の劣化も防止でき、かつパルス列生成の基準に基づいた
最適な音源パルス列が得られることになる。 〔実施例〕 以下、本発明の実施例を、図面により詳細に説明す
る。 第1図は、本発明の音声符号化方式を残差圧縮法を用
いた音声符号化装置(音声CODEC)に適用した場合のブ
ロック構成図であって、(a)が符号化部であり、
(b)が復号化部である。 本発明の符号化部は、第1図(a)に示すように、デ
ィジタル音声信号を格納するバッファメモリ1と、線形
予測を行う線形予測回路3と、パラメータ4を用いて制
御される逆フィルタ5と、残差相関法等を用いてピッチ
を抽出するピッチ抽出回路7と、有声無声判定回路9
と、有声無声判定結果に応じて音源パルスを生成する音
源生成部11と、量子化符号化回路13とを具備している。
また、本発明の復号化部は、第1図(b)に示すよう
に、入力信号を4種のパラメータに分離する復号回路16
と、復号化されたスペクトルパラメータを格納するバッ
ファメモリ19と、ピッチ周期と有声無声判定結果と音源
情報を入力として、音源パルスを生成する音源パルス再
生回路17と、音源パルス再生回路17での遅延を補正し
て、これを係数とする合成フィルタ20とを具備してい
る。 第1図(a)において、符号化時には、ディジタル化
された音声信号は、バッファメモリ1に1フレーム分格
納され、よく知られている線形予測回路3により、スペ
クトル包絡を表わすパラメータ(例えば、偏自己相関係
数)4に変換される。次に、このパラメータ4を係数に
用いて逆フィルタ5を構成し、これに音声信号2を入力
することにより、残差信号6を得る。ピッチ抽出回路7
は、残差相関法やAMDF(Average Magnitude Differenti
al Function)法等のよく知られた手法を用いており、
残差信号6を入力としてフレームのピッチ周期8を抽出
する。有声無声判定回路9は、そのフレームが有声フレ
ームであるか無声フレームであるかの判定結果10a、お
よび無声フレームから有声フレームに切り替わったこと
を示す信号10bを出力する。音源生成部11は、本発明に
より新たに設けられたものであって、音声無声判定結果
10aおよび切り替え信号10bに応じて音源パルスを生成
し、その情報12を出力する。 量子化符号化回路13は、スペクトルパラメータ4とピ
ッチ周期8と有声無声判定結果10aと音源情報12とを受
け取り、所定のビット数に量子化して、所定の書式に変
換された結果14をディジタル回線15に送出する。 第1図(b)において、復号化時には、ディジタル回
線15から受信されたディジタル・データ14が復号回路16
に入力されると、(a)に示す4種のパラメータ(ピッ
チ周期8′,音源情報12′,有声無声判定結果10a′,
スペクトルパラメータ4′)に分離される。上記4種の
パラメータのうちの3種のパラメータ(復号化さたピッ
チ周期8′,有声無声判定結果10a′,音源情報12′)
を入力とする音源パルス再生回路17により、目的とする
音源パルス18を得る。 一方、4種のパラメータのうちの1種のパラメータ
(復号化されたスペクトルパラメータ4′)のみは、バ
ッファメモリ19に格納され、音源パルス再生回路17での
遅延を補正した後、そのバッファメモリ19の出力を合成
フィルタ20の係数として用いる。音源パルス18をこの合
成フィルタ20に入力することにより、その出力として合
成音声21を得ることができる。 第2図は、第1図における音源生成部の機能ブロック
図である。 音源生成部11は、第2図に示すように、無声から有声
に切り替わったことにより制御を切り替えるための切替
制御部31と、残差信号を格納するバッファメモリ111
と、無声から有声に切り替わったとき、パルスの抽出位
置を決定するためのパルス抽出位置決定部112と、前フ
レームで決定された代表残差の先頭アドレスがバッファ
メモリ111のアドレスに変換されて格納されている先頭
位置メモリ30と、有声フレームが連続しているとき、パ
ルス抽出位置を決定するためのパルス抽出位置決定部32
と、先頭アドレスおよびバッファメモリ111から音源を
抽出するための音源抽出部115と、無声音源を生成する
ための無声音源生成部116とから構成されている。 本実施例の音声符号化方式は、有声フレームの音源生
成に関するものであるため、有声無声判定結果10aは有
声を示しており、ピッチ周期8は値が確定しているもの
とする(以下、ピッチ周期の値をNPTCHとする)。 先ず、有声無声切換信号10bが無声から有声に切り替
わった直後であることを示しているときには、切替制御
部31からの信号で制御がパルス抽出位置決定部(I)11
2に移る。ここで制御される場合の音源生成部11の機能
は、従来の残差圧縮法(例えば、前述の公報(特開昭61
−296398号公報)に第2の方法として記載されている残
差圧縮法)と同一である。すなわち、代表的なピッチ区
間に対して、連続したLN本の残差パルスを抽出する(こ
こで、LN本とは、抽出パルス数113の値で示される本数
である)。 また、前述の特願昭60−241419号明細書に記載されて
いるように、復号時に、前フレームの復号残差と現フレ
ームの代表残差を補間する場合には、代表ピッチ区間は
現フレームの最後の点を含むように定める。つまり、パ
ルス抽出位置決定部(I)112においては、次式を算出
する。 ただし、iは次の条件式を満足する。 iFRM−NPTCH+1≦i≦iFRM ……(2) ここで、xjは、アドレスjの残差パルス振幅であり、
バッファメモリ111から読み出される。なお、バッファ
メモリ111はリングバッファであって、前フレームと現
フレームの残差が格納されている。また、iFRMはフレー
ム長であり、LNは抽出パルス数113の値である。 例えば、パルス抽出位置検定部112が、補間すべき次
の残差パルスの振幅情報と位置情報を求るるため、上式
(1),(2)式で先ず振幅累計値を求めている。い
ま、バッファメモリ111に、現フレーム長として0〜159
のアドレスが割付けられ、代表的ピッチ区間に対して連
続した20本の残差パルスがある場合には、次の代表ピッ
チ区間は現フレームの最後の点を含むようにして決定さ
れ、上式(2)よりフレーム長より小さく、かつフレー
ム長よりピッチ周期だけ小さい区間より大きい区間内に
求める位置iを定める。そして、上記(1)式で算出さ
れた振幅累計値から先頭アドレスを求め、そのアドレス
から20本分の残差パルスをバッファメモリ111から取り
出すことにより補間するのである。 上式(1)で算出されたAMP(i)の最大値を与える
iをi0とすると、i0が代表残差の先頭アドレス114aであ
る。先頭アドレス114aが音源抽出部115に送られると、
先頭アドレスからLN本の残差をバッファメモリ111から
読み出し、これらを音源情報12として後段に送出する。 次に、有声無声切替信号10bが無声から有声への切り
替わり直後でないとき、つまり有声フレームが連続して
いることを示す場合について、詳述する。 このときには、切替制御部31からの信号で、制御がパ
ルス抽出位置決定部(II)32に移る。 バッファメモリ111には、2フレームの残差が格納さ
れている。アドレス−iFRM+1〜0までが前フレーム分
であり、1〜iFRMまでが現フレーム分である。また、先
頭位置メモリ30には、前フレームで決定された代表残差
の先頭アドレスi0がバッファメモリ111上のアドレスに
変換され(i0′=i0−IFRM)、これが格納されている。
現フレームの代表残差の先頭位置は、i0′を基準とし
て、次のように決定する。 なお、上式(3)において、STADRS1,・・・・・・ST
ADRSNは、復号時に代表残差を補間するための先頭アド
レスに対応したものであって、STADRSNは現フレームに
おける最後のピッチ区間内のもの、つまり代表残差の先
頭アドレスであり、次のようになる。 i0=STADRSN ……(4) このようにすれば、前フレームの代表残差先頭アドレ
スから現フレームの代表残差先頭アドレスを、極めて簡
単に求めることができる。 しかし、ピッチ周期NPTCHは、現フレームの平均的な
ピッチ周期であるため、実際のピッチ位置とは誤差を持
つ可能性がある。そこで、より精密に位置を決めるため
に、次のようにする。 先ず、(5)式により、短区間相互相関値を定義す
る。 i0′+NPTCH−D≦i≦i0′+NPTCH+D ……(6) ここで、D(>0)は、ピッチのゆらぎ等で決まる値
であり、CORは相互相関値を表わす。上式(6)では、
現フレームの最初の音源パルス列の先頭アドレスの存在
範囲が前フレームの代表残差の先頭アドレスにピッチ周
期のゆらぎを考慮して加算した範囲にあることを示して
おり、上式(5)では、先頭アドレスから抽出パルス数
LN本分の残差パルスの振幅累積値を求めるもので、位相
が一致していれば相関値は最大値となる。 次の式により、第1のスタートアドレスを求める。 上式(7)では、前フレームの代表残差とNPTCH離れ
た位置の近傍で、最も相関値が高くなる位置iを検出し
たことになる。以下、i0′をSTADRS1に置き換えて、同
じ手順でSTADRS2を求め、順次、STADRSN(=i0)まで求
めればよい。 また、STADRSnの決定には、上式(1)を利用するこ
とも可能である(ここで、nは任意の整数)。すなわ
ち、上式(1)におけるiの範囲を(6)式として、下
記(8)式を導く。 以下、同じ手順で、STADRSN(=i0)まで求める。 以上に述べたうちのいずれかの方法で決定した代表残
差の先頭アドレス(i0)114bを、音源抽出部115に送出
する。 復号時には、従来の方法(例えば、前述の特願昭60−
241419号明細書参照)により、代表残差と前フレームの
復号残差とを補間しながら音源パルスを再生する。この
とき、補間対応点アドレスは、前フレームの代表残差位
置そのものであるから、改めて伝送する必要がない。 本実施例に示す音源パルス生成部11は、以上詳述した
ように、加算器、相関器および比較器等により簡単に実
現することができる。また、汎用のマイクロプロセッサ
により、同じ機能を実現することも可能である。 なお、現フレームにおいて、音声無声判定結果10aが
無声となっているときには、切替制御部31からの制御信
号により、制御が無声音源生成部116に切り替えられ
る。無声音源生成部116の動作は、例えば、従来提案さ
れている方法(例えば、特願昭61−35148号明細書参
照)のように、ピッチ周期とは無関係に音源パルスを生
成するものである。 第3図は、本発明の効果を説明するためのタイムチャ
ートである。 第3図(a)は従来の方法による入力音源波形41、残
差波形42、代表残差波形43a、および合成波形44aを示す
波形図であり、第3図(b)は本実施例による入力音声
波形41、残差波形42、代表残差43b、および合成波形44b
を示す波形図である。 入力音声波形41は(a)(b)ともに同一波形であっ
て、逆フィルタ5の残差信号の波形42も同一波形とな
る。従来の方法では、代表残差(復号後)をフレームご
とに独立に抽出しているので、波形43aに示すように、
フレーム#3において代表残差の位置ずれが生じてお
り、周期性が乱れている。矢印で、そのずれ幅を示して
いる。その結果、第3図(a)に示すように、合成波形
44aは位置ずれが生じた位置で振幅の減衰が生じ、音質
の劣化を招いている。 本実施例の場合には、第3図(b)に示すように、有
声フレームが連続したとき、前フレームの代表残差位置
を基準として従属的に抽出した代表残差(復号後)43b
となる。この代表残差43bには位置ずれがなく、従って
合成波形44bも減衰がなく、自然であって、第3図
(a)の従来方式に比較して音質が向上している。 〔発明の効果〕 以上説明したように、本発明によれば、有声音が連続
するときには、本来の音声が有する周期性を乱すことな
く音源パルス列を生成するので、周期性の乱れにより生
じていた音質の劣化を防ぐことができ、符号化音声の品
質を向上させることが可能である。
【図面の簡単な説明】 第1図は本発明の一実施例を示す音声符号化システムの
ブロック図、第2図は第1図における音源生成部のブロ
ック図、第3図は本発明の効果を説明する波形タイムチ
ャートである。 1,19,111:バッファメモリ、3:線形予測回路、5:逆フィ
ルタ、7:ピッチ抽出回路、9:有声無声判別器、11:音源
生成部、17:音源パルス再生器、20:合成フィルタ、31:
切替制御部、112,32:パルス抽出位置決定回路、30:先頭
位置メモリ、116:無声音源生成部、115:音源抽出部、6:
残差信号、12:音源情報、21:合成音声、43a,b:代表残差
波形、44a,b:合成波形、42:残差波形、41:入力音声波
形。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 鈴木 俊郎 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 (56)参考文献 特開 昭59−65897(JP,A) 特開 昭60−162300(JP,A) 特開 昭60−235200(JP,A) 特開 昭61−7899(JP,A) 特開 昭62−38500(JP,A)

Claims (1)

  1. (57)【特許請求の範囲】 1.音声信号をフレームごとに分析し、かつスペクトル
    包絡情報と音源情報とに分離し、また該音声信号が有声
    か無声かを判定して、有声フレームでは音源として1ピ
    ッチ周期当り複数本のパルスを用いた音声符号化方式に
    おいて、 上記有声フレームが無声フレームから切り替わった直後
    か、有声フレームが連続しているか、のいずれかを判定
    する手段と、 上記無声フレームから有声フレームに切り替わった直後
    に、音源パルスを生成する第1の音源パルス生成手段
    と、 上記有声フレームが連続するときに、音源パルスを生成
    する第2の音源パルス生成手段と、 上記無声フレームのときに、音源パルスを生成する第3
    の音源パルス生成手段とを具備し、 上記第2の音源パルス生成手段は、現在の有声フレーム
    の直前の有声フレームの音源パルス位置を基準に、ピッ
    チ周期により現在の有声フレームの音源パルス位置を決
    定し、決定された位置の近傍に音源パルス列を生成する
    ことを特徴とする音声符号化方式。 2.前記現在の有声フレームの音源パルス位置の決定の
    ため、相関法を用いることを特徴とする特許請求の範囲
    第1項記載の音声符号化方式。
JP62315621A 1987-12-14 1987-12-14 音声符号化方式 Expired - Lifetime JP2707564B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP62315621A JP2707564B2 (ja) 1987-12-14 1987-12-14 音声符号化方式
US07/282,497 US5119424A (en) 1987-12-14 1988-12-12 Speech coding system using excitation pulse train

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62315621A JP2707564B2 (ja) 1987-12-14 1987-12-14 音声符号化方式

Publications (2)

Publication Number Publication Date
JPH01155400A JPH01155400A (ja) 1989-06-19
JP2707564B2 true JP2707564B2 (ja) 1998-01-28

Family

ID=18067568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62315621A Expired - Lifetime JP2707564B2 (ja) 1987-12-14 1987-12-14 音声符号化方式

Country Status (2)

Country Link
US (1) US5119424A (ja)
JP (1) JP2707564B2 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2596143B2 (ja) * 1989-11-15 1997-04-02 日本電気株式会社 音声符号化方法
US5884253A (en) * 1992-04-09 1999-03-16 Lucent Technologies, Inc. Prototype waveform speech coding with interpolation of pitch, pitch-period waveforms, and synthesis filter
JP2906968B2 (ja) * 1993-12-10 1999-06-21 日本電気株式会社 マルチパルス符号化方法とその装置並びに分析器及び合成器
US5574825A (en) * 1994-03-14 1996-11-12 Lucent Technologies Inc. Linear prediction coefficient generation during frame erasure or packet loss
JPH08254993A (ja) * 1995-03-16 1996-10-01 Toshiba Corp 音声合成装置
US5664054A (en) * 1995-09-29 1997-09-02 Rockwell International Corporation Spike code-excited linear prediction
US6240384B1 (en) 1995-12-04 2001-05-29 Kabushiki Kaisha Toshiba Speech synthesis method
CN1145925C (zh) * 1997-07-11 2004-04-14 皇家菲利浦电子有限公司 具有改进语音编码器和解码器的发射机
US6260017B1 (en) 1999-05-07 2001-07-10 Qualcomm Inc. Multipulse interpolative coding of transition speech frames
US6584438B1 (en) * 2000-04-24 2003-06-24 Qualcomm Incorporated Frame erasure compensation method in a variable rate speech coder
US7243295B2 (en) * 2001-06-12 2007-07-10 Intel Corporation Low complexity channel decoders
JP2003255976A (ja) * 2002-02-28 2003-09-10 Nec Corp 音声素片データベースの圧縮伸張を行なう音声合成装置及び方法
CA2519363A1 (en) * 2003-04-01 2004-11-04 The Perfect Measuring Tape Co. Measuring tape
FI118704B (fi) * 2003-10-07 2008-02-15 Nokia Corp Menetelmä ja laite lähdekoodauksen tekemiseksi
RU2376657C2 (ru) 2005-04-01 2009-12-20 Квэлкомм Инкорпорейтед Системы, способы и устройства для высокополосного предыскажения шкалы времени
TWI317933B (en) 2005-04-22 2009-12-01 Qualcomm Inc Methods, data storage medium,apparatus of signal processing,and cellular telephone including the same
CN101317218B (zh) * 2005-12-02 2013-01-02 高通股份有限公司 用于频域波形对准的系统、方法和设备
US8364492B2 (en) * 2006-07-13 2013-01-29 Nec Corporation Apparatus, method and program for giving warning in connection with inputting of unvoiced speech
DK2102619T3 (en) * 2006-10-24 2017-05-15 Voiceage Corp METHOD AND DEVICE FOR CODING TRANSITION FRAMEWORK IN SPEECH SIGNALS
KR101356733B1 (ko) * 2007-03-07 2014-02-05 삼성전자주식회사 컨텍스트 기반 적응적 이진 산술 부호화, 복호화 방법 및장치
TWI327230B (en) * 2007-04-03 2010-07-11 Ind Tech Res Inst Sound source localization system and sound soure localization method

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2102254B (en) * 1981-05-11 1985-08-07 Kokusai Denshin Denwa Co Ltd A speech analysis-synthesis system
JPS58143394A (ja) * 1982-02-19 1983-08-25 株式会社日立製作所 音声区間の検出・分類方式
JPH0756600B2 (ja) * 1982-10-07 1995-06-14 松下電器産業株式会社 残差信号符号化方法
US4696038A (en) * 1983-04-13 1987-09-22 Texas Instruments Incorporated Voice messaging system with unified pitch and voice tracking
JPH0632030B2 (ja) * 1984-02-02 1994-04-27 日本電気株式会社 音声符号化方法
CA1252568A (en) * 1984-12-24 1989-04-11 Kazunori Ozawa Low bit-rate pattern encoding and decoding capable of reducing an information transmission rate
US4720861A (en) * 1985-12-24 1988-01-19 Itt Defense Communications A Division Of Itt Corporation Digital speech coding circuit
US4802221A (en) * 1986-07-21 1989-01-31 Ncr Corporation Digital system and method for compressing speech signals for storage and transmission
US4873723A (en) * 1986-09-18 1989-10-10 Nec Corporation Method and apparatus for multi-pulse speech coding
JP2586043B2 (ja) * 1987-05-14 1997-02-26 日本電気株式会社 マルチパルス符号化装置

Also Published As

Publication number Publication date
US5119424A (en) 1992-06-02
JPH01155400A (ja) 1989-06-19

Similar Documents

Publication Publication Date Title
JP2707564B2 (ja) 音声符号化方式
KR100679382B1 (ko) 가변 속도 음성 코딩
KR100615113B1 (ko) 주기적 음성 코딩
EP0409239B1 (en) Speech coding/decoding method
EP1202251B1 (en) Transcoder for prevention of tandem coding of speech
US6389006B1 (en) Systems and methods for encoding and decoding speech for lossy transmission networks
US4821324A (en) Low bit-rate pattern encoding and decoding capable of reducing an information transmission rate
JPH07319496A (ja) 入力音声信号の速度を変更する方法
EP1235204A2 (en) Method and apparatus for selecting an excitation coding mode for speech coding
US5027405A (en) Communication system capable of improving a speech quality by a pair of pulse producing units
EP1096476A2 (en) Speech decoding gain control for noisy signals
US7302385B2 (en) Speech restoration system and method for concealing packet losses
JPH07129195A (ja) 音声復号化装置
KR100499047B1 (ko) 서로 다른 대역폭을 갖는 켈프 방식 코덱들 간의 상호부호화 장치 및 그 방법
JP2615548B2 (ja) 高能率音声符号化方式とその装置
JP3255190B2 (ja) 音声符号化装置並びにその分析器及び合成器
JP3303580B2 (ja) 音声符号化装置
JPS61148500A (ja) 音声信号符号化方法とその装置
JPH0258100A (ja) 音声符号化復号化方法及び音声符号化装置並びに音声復号化装置
JP2001142499A (ja) 音声符号化装置ならびに音声復号化装置
JPH05224698A (ja) ピッチサイクル波形を平滑化する方法及び装置
JP3055901B2 (ja) 音声信号符号化復号化方法及び音声信号符号化装置
JP2004020676A (ja) 音声符号化/復号化方法及び音声符号化/復号化装置
JPH01261700A (ja) 音声符号化方式
JPH043878B2 (ja)