JP3272953B2 - 適応コードブックに基づく音声圧縮システム - Google Patents

適応コードブックに基づく音声圧縮システム

Info

Publication number
JP3272953B2
JP3272953B2 JP18261296A JP18261296A JP3272953B2 JP 3272953 B2 JP3272953 B2 JP 3272953B2 JP 18261296 A JP18261296 A JP 18261296A JP 18261296 A JP18261296 A JP 18261296A JP 3272953 B2 JP3272953 B2 JP 3272953B2
Authority
JP
Japan
Prior art keywords
gain
adaptive codebook
filter
signal
pitch filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP18261296A
Other languages
English (en)
Other versions
JPH09120299A (ja
Inventor
クルーン ピーター
Original Assignee
エイ・ティ・アンド・ティ・アイピーエム・コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=23917151&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP3272953(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by エイ・ティ・アンド・ティ・アイピーエム・コーポレーション filed Critical エイ・ティ・アンド・ティ・アイピーエム・コーポレーション
Publication of JPH09120299A publication Critical patent/JPH09120299A/ja
Application granted granted Critical
Publication of JP3272953B2 publication Critical patent/JP3272953B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/083Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being an excitation gain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/09Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、適応コードブック
に基づく音声圧縮システムに関し、特に、適応コードブ
ックベクトル(サブフレーム)長以下のピッチ周期を有
する音声を圧縮するように動作するそのようなシステム
に関する。
【0002】
【従来の技術】多くの音声圧縮システムは、音声信号の
周期性をモデル化するためにサブシステムを使用する。
音声圧縮(あるいは符号化)において広く使用されてい
る二つのそのような周期性モデルとして、ピッチ予測フ
ィルタ(PPF)および適応コードブック(ACB)が
ある。
【0003】ACBは、基本的には、過去の音声信号、
または、音声残差や励振信号のようなその派生物(以
下、音声信号という。)のサンプルを記憶するメモリで
ある。過去の(メモリに記憶されている)音声信号のサ
ンプルを現在にコピーすることによって周期性を導入
(あるいはモデル化)することにより、現在の音声信号
がどのようになるかを「予測」する。
【0004】PPFは、代表的には次のような形の単純
なIIRフィルタである。 y(n)=x(n)+gpy(n−M) (1) ただし、nはサンプルのインデックスであり、yは出力
であり、xは入力であり、mはフィルタの遅延値であ
り、gpはスケール因子(あるいは利得)である。PP
Fの現在の出力は過去の出力に依存するため、周期性が
PPFに導入される。
【0005】ACBまたはPPFを音声符号化で使用す
ることが可能であるが、これらの周期性モデルはすべて
の状況で同一には作用しない。例えば、有声音声のピッ
チ周期がサブフレーム(あるいはコードブックベクト
ル)のサイズ以上であるときにはPPFおよびACBは
同じ結果を与えるが、ピッチ周期がサブフレームサイズ
より小さい場合にはそれは成り立たない。この差は図1
および図2に例示されている。これらの図において、ピ
ッチ周期(あるいは遅延)は2.5msであり、サブフ
レームサイズは5msであると仮定している。
【0006】図1は、代表的なCELP音声圧縮方式で
使用されるような、固定コードブック(FCB)とAC
Bの従来の組合せ(この組合せは、CELP方式の符号
器および復号器の両方で使用される)を表す。図示され
ているように、FCB1はインデックス値Iを受信し、
それによりFCBは所定期間の音声信号(励振)ベクト
ルを出力する。この期間をサブフレーム(ここでは5m
s)という。例えば、この音声励振信号は、サブフレー
ム内に位置する一つ以上の主パルスからなる。説明を明
確にするために、出力ベクトルは、単位大きさを有する
単一の大きいパルスを有すると仮定する。出力ベクトル
は、増幅器5によって加えられる利得gcでスケールされ
る。
【0007】FCB1および利得5の作用と平行して、
ACB10は以前に合成した音声に基づいて音声信号を
生成する。従来技術では、ACB10は、符号化中のも
との音声に最もよく一致する音声のサンプルを、過去の
音声のメモリから探索する。このようなサンプルは、合
成しようとしている現在のサンプルから過去に1ピッチ
周期(M)の近傍にある。このような過去の音声サンプ
ルは、ピッチが分数である場合には存在しないこともあ
り、通常のように、周囲の音声サンプル値から線形補間
によりACBが合成しなければならないこともある。A
CBはこのようにして現在のサンプルとして識別(ある
いは合成)される過去のサンプルを使用する。説明を明
確にするため、以後の説明では、ピッチ周期はサンプル
周期の整数倍であり、過去のサンプルは、現在のサブフ
レームにコピーするためにMだけ識別されると仮定す
る。ACBはこのようにして1サブフレーム(5ms)
に対する個々のサンプルを出力する。ACBによって生
成されるすべてのサンプルは、増幅器15によって加え
られる利得gpでスケールされる。
【0008】サブフレームの後半における現在のサンプ
ルに対しては、「現在の」サンプルとして使用される
「過去の」サンプルはそのサブフレームの前半のサンプ
ルである。その理由は、サブフレームの期間は5msで
あるが、ピッチ周期M(過去のサンプルを現在のサンプ
ルとして使用するために識別するために用いられる時
間)は2.5msであるためである。従って、合成すべ
き現在のサンプルがサブフレーム内の4msの時点にあ
る場合、音声の過去のサンプルは同じサブフレーム内の
4ms−2.5msすなわち1.5msの時点にある。
【0009】FCBおよびACBの増幅器5、15の出
力信号は加算回路20で加算され、従来の線形予測(L
PC)合成フィルタ(図示せず)への励振信号が生成さ
れる。回路20によって生成されるこの励振信号の1サ
ブフレームの様式化した表現も図1に示されている。ス
ケーリング前にはパルスが単位大きさであると仮定する
と、コードブックのシステムは5msのサブフレーム内
にいくつかのパルスを生成する。第1のパルスの高さは
gpであり、第2のパルスの高さはgcであり、第3のパル
スの高さはgpである。第3のパルスは単に、ACBによ
って生成された、第1パルスのコピーである。注意すべ
き点であるが、ACBメモリは第2のパルスを含まない
(そして固定コードブックはサブフレームごとにただ一
つのパルスしか有しない)ため、サブフレームの後半に
は第2のパルスのコピーはない。
【0010】図2は、PPF50と直列のFCB25か
らなる周期性モデルを表す。PPF50は、加算回路4
5、遅延メモリ35、および増幅器40からなる。上記
のシステムと同様に、FCB25に入力されるインデッ
クスIによりFCBはそのインデックスに対応する励振
ベクトルを出力する。このベクトルは一つの主パルスを
有する。このベクトルは、利得gcを加える増幅器30に
よってスケールされる。スケールされたベクトルはPP
F50に入力される。PPF50は上記の式(1)に従
って動作する。PPF50の出力信号の1サブフレーム
の様式化した表現も図2に示されている。PPF出力サ
ブフレームの第1のパルスは、前サブフレーム(図示せ
ず)からの主パルス(単位大きさを有すると仮定)に加
えられた遅延Mの結果である。サブフレーム内の次のパ
ルスは、増幅器30によってスケールされたFCB出力
ベクトルに含まれるパルスである。その後、2.5ms
の遅延35により、これらの二つのパルスは、それぞれ
増幅器40によってスケールされて、2.5ms後に反
復される。
【0011】周期性モデルのACBおよびPPFによる
実装の出力信号の間には大きな相違がある。それらの出
力信号は、図1および図2に図示したように、合成され
たサブフレームの後半に現れる。第1に、第3のパルス
の振幅が相違する(gpに対してgp 2)。第2に、ACB
モデルの出力には第4のパルスはない。このパルスの欠
落に関して、ピッチ周期がフレームサイズより小さい場
合、ACBとFCBの組合せは、サブフレームにおいて
第2の固定コードブックの寄与を導入しない。これは、
固定コードブックと直列のピッチ予測フィルタの動作と
は異なる。
【0012】周期性のACBモデルを使用する音声符号
化方式では、FCBの出力においてPPFを使用するこ
とが提案されている。このPPFは、ピッチ周期の整数
成分に等しい遅延と、0.8という固定利得を有する。
このPPFは、サブフレーム内に欠けているFCBパル
スの挿入を行うが、利得値は不確実である。この利得が
不確実である理由は、ACBおよびFCBの利得の結合
量子化は、ACBおよびFCBの両方のベクトルが決定
されるまで、現在のサブフレームに対するACB利得の
決定を妨げるためである。
【0013】
【発明が解決しようとする課題】本発明の発明者が認識
したところによれば、ACBベースの合成器に付加され
るピッチループが固定利得であることにより、合成され
る音声の周期性が強くなりすぎることがあり、その場
合、合成される音声に不自然な「ブザー音」が生じるこ
とがある。
【0014】
【課題を解決するための手段】本発明は、ACBを使用
するシステムにおいてFCBの出力にPPFを使用する
という提案の欠点を解決するものである。本発明によれ
ば、PPFの利得は固定ではなく、音声信号の周期性の
ある尺度に基づいて適応的である。この適応PPF利得
は、音声信号があまり周期的ではないときに小さく、音
声信号が非常に周期的であるときに大きいという点で、
PPFのパフォーマンスを向上させる。この適応可能性
が、「ブザー音」問題を回避する。
【0015】本発明の実施例によれば、適応コードブッ
クおよび対応する適応コードブック増幅器からなる第1
部分と、ピッチフィルタに接続された固定コードブック
からなる第2部分とを有する音声処理システムは、適応
コードブック利得を遅延させるように適応させられ、遅
延された適応コードブック利得に基づいてピッチフィル
タ利得を決定し、この決定されたピッチフィルタ利得に
基づいてピッチフィルタにおいて信号のサンプルを増幅
する。適応コードブック利得は1サブフレームだけ遅延
される。適応コードブックの量子化利得は固定コードブ
ック利得が決定されるまで使用することができないた
め、遅延された利得が使用される。ピッチフィルタ利得
は、適応コードブック利得が0.2より小さい場合また
は0.8より大きい場合にはそれぞれ0.2または0.
8に等しく設定され、これら以外の場合には遅延された
適応コードブック利得に等しい。これらの限界値は、励
振信号が実際にどのくらい周期的であるかを評価する際
の誤差による知覚的に好ましくない影響を制限するため
のものである。
【0016】
【発明の実施の形態】
[I.実施例の序論]説明を明確にするため、本発明の
実施例は、個別の機能ブロック(「プロセッサ」とラベ
ルされた機能ブロックを含む)からなるものとして提示
される。これらのブロックが表している機能は、ソフト
ウェアを実行可能なハードウェアを含む共用または専用
のハードウェアの使用により提供可能である(しかし、
そのようなものに限定されるものではない)。例えば、
図3および図4に示されるプロセッサの機能は、単一の
共用プロセッサによって提供可能である。(「プロセッ
サ」という用語の使用は、ソフトウェアを実行可能なハ
ードウェアのみを指すものと解釈してはならない。)
【0017】実施例は、AT&TのDSP16またはD
SP32Cのようなディジタル信号プロセッサ(DS
P)ハードウェア、後述の動作を実行するソフトウェア
を記憶する読み出し専用メモリ(ROM)、および、D
SPの結果を記憶するランダムアクセスメモリ(RA
M)からなることが可能である。超大規模集積(VLS
I)ハードウェアによる実施例や、カスタムVLSI回
路を汎用DSP回路と組み合わせた実施例も可能であ
る。
【0018】以下で説明する実施例は、多くの音声圧縮
方式での使用に適している。そのような音声圧縮方式と
しては、例えば、ITU標準化団体への勧告草案G.7
29(G.729草案)に記載されているものがある。
この勧告草案は後述の[付録]と題する部分に記載し
た。この音声圧縮方式は、符号励振線形予測(CEL
P)符号化に基づき、8kbit/sで動作する(G.
729草案第2節参照)。この勧告草案は、本発明を使
用しているとともに、音声符号化方式の一般的記述も含
む(例えば、図6およびG.729草案の第2.1節の
記載参照)。本発明の実施例に関しては、G.729草
案の第3.8節および第4.1.2節を参照されたい。
【0019】[II.実施例]図3および図4は、G.
729草案の符号器および復号器で使用される、本発明
の実施例を示す。図3は、実施例の符号器の詳細を示す
ようにG.729草案の図6を補足した図である。図4
は、実施例の復号器の詳細を示すようにG.729草案
の図7を補足した図である。以下の説明において、必要
に応じてG.729草案の節を参照する。G.729草
案の符号器の一般的記述は第2.1節に記載されてお
り、復号器の一般的記述は第2.2節に記載されてい
る。
【0020】[A.符号器]実施例によれば、入力音声
信号(サンプリングレート8kHzの16ビットPC
M)がプリプロセッサ(前処理プロセッサ)100に入
力される。プリプロセッサ100は、好ましくない低周
波成分を除去し、処理オーバーフローを避けるために音
声信号をスケールように音声信号を高域フィルタリング
する(G.729草案第3.1節参照)。前処理された
音声信号s(n)は次に線形予測分析器105に入力さ
れる(G.729草案第3.2節参照)。線形予測(L
P)係数a^iはLP合成フィルタ155に入力され
る。LP合成フィルタ155は、符号器のFCB部分お
よびACB部分の出力の組合せから形成される励振信号
u(n)を受信する。励振信号は、「合成による分析」
探索手続きを使用することによって選択される。この手
続きでは、もとの音声と合成された音声の間の誤差が、
知覚重み付けフィルタ165によって、知覚的重み付け
歪み尺度に従って最小化される(G.729草案第3.
3節参照)。
【0021】実施例のACB部分112に関して、知覚
的重み付き歪み(誤差)を表す信号は、適応コードブッ
クシステム110によって使用される開ループピッチ周
期(遅延)を決定するために、ピッチ周期プロセッサ1
70によって使用される。符号器は、閉ループピッチ探
索の基礎として、この決定される開ループピッチ周期を
使用する。ACB110は、選択された分数ピッチにお
いて過去の励振を補間することによって、適応コードブ
ックベクトルv(n)を計算する(G.729草案第
3.4〜3.7節参照)。適応コードブック利得増幅器
115は、ACBシステム110の出力にスケール因子
g^pを乗じる(G.729草案第3.9.2節参
照)。
【0022】実施例のFCB部分に関して、平均二乗誤
差(MSE)探索プロセッサ175によって生成された
インデックスがFCBシステム120によって受信さ
れ、それに応じてコードブックベクトルc(n)が生成
される(G.729草案第3.8節参照)。このコード
ブックベクトルは、本発明によって動作するPPFシス
テム128(後述)に入力される。PPFシステム12
8の出力は、スケール因子g^cを乗じるFCB増幅器
145によってスケールされる。スケール因子g^c
G.729草案第3.9節に従って決定される。
【0023】符号器のACB部分112およびFCB部
分118からのベクトル出力は加算器150で加算さ
れ、上記のLP合成フィルタに入力される。
【0024】[B.PPFシステム]上記のように、P
PFシステムは、合成中の音声のピッチ周期がサブフレ
ームのサイズより小さいときおよびあまり周期的でない
音声に対して固定PPF利得が大きくなりすぎるときに
示されるACBシステムの欠点を解決する。
【0025】PPFシステム128は、PPF128が
励振信号に寄与するかどうかを制御するスイッチ126
を有する。遅延MがサブフレームのサイズLより小さい
場合、スイッチ126は閉じ、PPF128は励振に寄
与する。M≧Lの場合、スイッチ126は開き、PPF
128は励振に寄与しない。スイッチの制御信号Kは、
M<Lの時にセットされる。注意すべき点であるが、ス
イッチ126は単に≧例示的なものである。例えば、M
≧Lのときには完全にPPF128を迂回するように使
用されるスイッチのような、多くの代替設計が可能であ
る。
【0026】PPFシステムによって使用される遅延
は、ピッチ周期プロセッサ170によって計算されるピ
ッチ周期Mの整数部分である。遅延プロセッサ135の
メモリは、各サブフレームに対するPPF128の動作
の前に消去される。PPFシステムによって加えられる
利得は、遅延プロセッサ125に入力される。プロセッ
サ125はACB利得g^pを受信し、それを1サブフ
レームごとに記憶する(1サブフレーム遅延)。記憶さ
れた利得値は次に上限0.8および下限0.2とそれぞ
れ比較される。利得の記憶値が上限より大きいかまたは
下限より小さい場合、利得はそれぞれの限界値に設定さ
れる。換言すれば、PPF利得は、0.2以上かつ0.
8以下の値の範囲に制限される。この範囲内では、利得
は、遅延された適応コードブック利得の値を取る。
【0027】上限および下限は、合成される信号が過度
に周期的にも非周期的にもならないように、適応PPF
利得の値に対して設定される。合成される信号が過度に
周期的になることあるいは非周期的になることはいずれ
も知覚的に好ましくない。従って、ACB利得の極端に
小さいまたは大きい値は回避されるべきである。
【0028】当業者には明らかなように、ACB利得
は、サブフレームごとに記憶する前に、指定された範囲
に制限することも可能である。従って、プリプロセッサ
は、ACB利得が、指定された範囲に前に制限されるか
後に制限されるかを反映する信号を記憶する。また、上
限および下限の正確な値は、本発明の特定の実施例にお
いて所望の結果を達成するために変更可能な設計的事項
である。
【0029】[C.復号器]上記(およびG.729草
案の参照された節)の符号器は、10msごとに圧縮さ
れた音声を表すデータのフレームを出力する。このフレ
ームは80ビットからなり、G.729草案の表1〜表
9に詳細に記載されている。圧縮された音声の各80ビ
ットフレームは通信チャネルを通じて復号器へ送信され
る。復号器は、符号器によって生成されたフレームに基
づいて音声信号(2サブフレームを表す)を合成する。
フレームが通信されるチャネル(図示せず)は任意の種
類(例えば通常の電話網、セルラあるいは無線網、AT
M網など)が可能であり、また、記憶媒体(例えば磁気
記憶装置、半導体RAMまたはROM、CD−ROMの
ような光記憶装置など)からなることも可能である。
【0030】本発明による復号器の実施例を図4に示
す。復号器は、適応コードブック部分240および 2
00の両方を有するという点で図3の符号器と類似して
いる。復号器は、伝送されたパラメータ(G.729草
案第4.1節参照)を復号し、合成を実行して再構成さ
れた音声を取得する。
【0031】FCB部分は、符号器から復号器へ通信さ
れるFCBインデックスIに応答するFCB205を有
する。FCB205は、サブフレームに等しい長さのベ
クトルc(n)を生成する(G.729草案第4.1.
3節参照)。このベクトルは、復号器のPPF210に
入力される。PPF210は上記のように(いずれもチ
ャネルを通じて符号器から受信される、遅延プロセッサ
225で遅延されたACB利得g^pの値と、ACBピ
ッチ周期Mの値に基づいて)動作し、FCB利得増幅器
235に入力されるベクトルを生成する。この増幅器
は、チャネルからの利得g^cを加え、PPF210に
よって生成されたベクトルをスケールしたベクトルを生
成する(G.729草案第4.1.4節参照)。増幅器
235の出力信号は加算器255に供給され、加算器2
55は励振信号u(n)を生成する。
【0032】加算器255にはまた、復号器のACB部
分240によって生成される出力信号も供給される。A
CB部分240は、過去の励振信号と、チャネルを通じ
て符号器から受信されるACBピッチ周期Mの値に基づ
いてサブフレームに等しい長さの適応コードブック寄与
v(n)を生成するACB245からなる(G.729
草案第4.1.2節参照)。このベクトルは、チャネル
を通じて受信される利得因子g^pに基づいて増幅器2
50によってスケールされる。このスケールされたベク
トルが、ACB部分240の出力である。
【0033】加算器255によって生成される励振信号
u(n)はLPC合成フィルタ260に入力される。L
PC合成フィルタ260は、チャネルから受信されるL
PC係数a^iに基づいて音声信号を合成する(G.7
29草案第4.1.6節参照)。
【0034】最後に、LPC合成フィルタ260の出力
はポストプロセッサ265に供給される。ポストプロセ
ッサ265は、適応ポストフィルタリング(G.729
草案第4.2.1〜4.2.4節参照)、高域フィルタ
リング(G.729草案第4.2.5節参照)、および
アップスケーリング(G.729草案第4.2.5節参
照)を実行する。
【0035】[II.考察]以上、本発明の実施例につ
いて説明したが、さまざまな変形例が可能である。例え
ば、スカラ利得量子化を使用する場合、PPF利得は、
前のACB利得ではなく現在のACB利得に基づいて適
応させることも可能である。また、PPF利得の限界値
(0.2,0.8)は単なる例示である。他の限界(例
えば0.1および0.7)も可能である。
【0036】さらに、本発明の実施例ではコードブック
「増幅器」という用語を用いたが、当業者には理解され
るように、この用語はディジタル信号のスケーリングを
包含する。さらに、このようなスケーリングとしては、
1より大きい値とともに、1以下(負の値を含む)のス
ケール因子(あるいは利得)で実行可能である。
【0100】[付録] 国際電気通信連合 電気通信標準化部門 勧告草案G.729 共役構造代数的符号励振線形予測(CS−ACELP)
符号化を用いた8kbit/sでの音声の符号化 1995年6月7日 バージョン4.0
【0101】目次 1 はじめに [0102] 2 符号器/復号器の一般的記述 [0105] 2.1 符号器 [0106] 2.2 復号器 [0108] 2.3 遅延 [0109] 2.4 音声符号器の記述 [0110] 2.5 記法上の規約 [0111] 3 符号器の機能的記述 [0112] 3.1 前処理 [0113] 3.2 線形予測分析および量子化 [0115] 3.2.1 窓および自己相関の計算 [0116] 3.2.2 レヴィンソン=ダービンのアルゴリズム
[0118] 3.2.3 LPからLSPへの変換 [0119] 3.2.4 LSP係数の量子化 [0121] 3.2.5 LSP係数の補間 [0130] 3.2.6 LSPからLPへの変換 [0131] 3.3 知覚的重み付け [0133] 3.4 開ループピッチ分析 [0135] 3.5 インパルス応答の計算 [0137] 3.6 目標信号の計算 [0138] 3.7 適応コードブック探索 [0141] 3.7.1 適応コードブックベクトルの生成 [01
46] 3.7.2 適応コードブック遅延に対する符号語計算
[0147] 3.7.3 適応コードブック利得の計算 [015
0] 3.8 固定コードブック:構造および探索 [015
1] 3.8.1 固定コードブック探索手続き [015
3] 3.8.2 固定コードブックの符号語計算 [015
9] 3.9 利得の量子化 [0160] 3.9.1 利得予測 [0161] 3.9.2 利得量子化のためのコードブック探索
[0165] 3.9.3 利得量子化器に対する符号語計算 [01
67] 3.10 メモリ更新 [0168] 3.11 符号器および復号器の初期化 [0169] 4 復号器の機能的記述 [0170] 4.1 パラメータ復号手続き [0171] 4.1.1 LPフィルタパラメータの復号 [017
2] 4.1.2 適応コードブックベクトルの復号 [01
74] 4.1.3 固定コードブックベクトルの復号 [01
77] 4.1.4 適応コードブックおよび固定コードブック
の利得の復号 [0178] 4.1.5 パリティビットの計算 [0179] 4.1.6 再構成音声の計算 [0180] 4.2 後処理 [0182] 4.2.1 ピッチポストフィルタ [0183] 4.2.2 短期ポストフィルタ [0184] 4.2.3 傾斜補償 [0185] 4.2.4 適応利得制御 [0187] 4.2.5 高域フィルタリングおよびアップスケーリ
ング [0188] 4.3 フレーム消失およびパリティ誤りの隠蔽 [0
190] 4.3.1 LPフィルタパラメータの反復 [019
4] 4.3.2 適応コードブックおよび固定コードブック
の利得の減衰 [0195] 4.3.3 利得予測子のメモリの減衰 [0196] 4.3.4 置換励振の生成 [0197] 5 CS−ACELP符号器/復号器のビット精度での
記述 [0199] 5.1 シミュレーションソフトウェアの使用法 [0
200] 5.2 シミュレーションソフトウェアの構成 [02
01]
【0102】[1 はじめに]この勧告は、共役構造代
数的符号励振線形予測(CS−ACELP)符号化を用
いた8kbit/sでの音声の符号化のアルゴリズムの
記述を含む。
【0103】この符号器/復号器は、まずアナログ入力
信号の電話帯域フィルタリング(ITU勧告G.71
0)を実行し、8000Hzでサンプリングした後、符
号器への入力に対して16ビット線形PCMへの変換を
実行することによって得られるディジタル信号に対して
動作するように設計されている。復号器の出力は、同様
の手段によってアナログ信号に変換されるべきものであ
る。他の入出力特性(例えば、64kbit/sのPC
Mデータに対してITU勧告G.711によって規定さ
れたもの)は、符号化前に16ビット線形PCMに、あ
るいは、復号前に16ビット線形PCMから適当なフォ
ーマットに、変換しなければならない。符号器から復号
器へのビットストリームは、この標準内で定義される。
【0104】この勧告は以下のように構成される。第2
節では、CS−ACELPアルゴリズムの概略を説明す
る。第3節および第4節では、CS−ACELP符号器
およびCS−ACELP復号器の原理をそれぞれ説明す
る。第5節では、16ビット固定小数点計算でこの符号
器/復号器を定義するソフトウェアについて説明する。
【0105】[2 符号器/復号器の一般的記述]CS
−ACELP符号器/復号器は、符号励振線形予測(C
ELP)符号化モデルに基づく。この符号器/復号器
は、8000サンプル/秒のサンプリングレートでの8
0サンプルに対応する10msの音声フレームに作用す
る。10msecのフレームごとに、音声信号が分析さ
れ、CELPモデルのパラメータ(LPフィルタ係数、
適応コードブックおよび固定コードブックのインデック
スおよび利得)が抽出される。これらのパラメータは符
号化され送信される。符号器パラメータのビット割当て
を表1に示す。復号器では、これらのパラメータは、励
振および合成フィルタパラメータを取得するために使用
される。音声は、図5に示されるようなLP合成フィル
タによって、この励振をフィルタリングすることにより
再構成される。短期合成フィルタは、10次線形予測
(LP)フィルタに基づく。長期すなわちピッチ合成フ
ィルタは、いわゆる適応コードブック法を使用して、サ
ブフレーム長より短い遅延に対して実装される。再構成
音声を計算した後、ポストフィルタによってさらに増強
される。
【表1】
【0106】[2.1 符号器]符号器における信号フ
ローを図6に示す。入力信号は、前処理ブロックで高域
フィルタリングされ、スケールされる。前処理された信
号は、後続のすべての分析のための入力信号として使用
される。LP分析は、LPフィルタ係数を計算するため
に10msフレームあたり1回行われる。これらの係数
は、線スペクトル対(LSP)に変換され、予測2段ベ
クトル量子化(VQ)を使用して18ビットで量子化さ
れる。励振シーケンスは、合成による分析探索手続きを
使用することによって選択される。この手続きでは、も
との音声と合成された音声の間の誤差が、知覚的重み付
き歪み尺度に従って最小化される。これは、知覚的重み
付けフィルタで誤差信号をフィルタリングすることによ
り行われる。このフィルタの係数は、量子化前のLPフ
ィルタから導出される。知覚的重み付けの量は、平坦周
波数応答を有する入力信号に対するパフォーマンスを改
善するように適応させられる。
【0107】励振パラメータ(固定コードブックおよび
適応コードブックのパラメータ)は、それぞれ5ms
(40サンプル)のサブフレームごとに決定される。第
2サブフレームに対しては量子化後および量子化前のL
Pフィルタ係数が使用されるが、第1サブフレームで
は、保管されたLPフィルタ係数が使用される(量子化
前および量子化後の両方)。開ループピッチ遅延は、知
覚的重み付き音声信号に基づいて10msフレームごと
に1回評価される。その後、以下の動作が各サブフレー
ムごとに反復される。目標信号x(n)は、LP残差を
重み付け合成フィルタW(z)/A^(z)でフィルタ
リングすることによって計算される。これらのフィルタ
の初期状態は、LP残差と励振の間の誤差をフィルタリ
ングすることにより更新される。これは、重み付き音声
信号から重み付き合成フィルタの0入力応答を減算する
という通常の方法と同等である。重み付き合成フィルタ
のインパルス応答h(n)が計算される。次に、目標x
(n)およびインパルス応答h(n)を使用して、開ル
ープピッチ遅延の値の付近を探索することによって、閉
ループピッチ分析が(適応コードブックの遅延および利
得を求めるために)行われる。1/3分解能の分数ピッ
チ遅延が使用される。このピッチ遅延は、第1サブフレ
ームでは8ビットで符号化され、第2サブフレームでは
5ビットで差分符号化される。目標信号x(n)は、適
応コードブック寄与(フィルタリングされた適応コード
ベクトル)を除去することにより更新され、この新しい
目標x2(n)が、固定代数的コードブック探索で(最
適な励振を求めるために)使用される。固定コードブッ
ク励振には、17ビットの代数的コードブックが使用さ
れる。適応コードブックおよび固定コードブックの利得
は7ビットで量子化されたベクトル(固定コードブック
利得にはMA予測を適用)である。最後に、決定された
励振信号を使用して、フィルタメモリが更新される。
【0108】[2.2 復号器]符号器における信号フ
ローを図7に示す。まず、パラメータインデックスが受
信ビットストリームから抽出される。これらのインデッ
クスは、10msの音声フレームに対応する符号器パラ
メータを取得するために復号される。これらのパラメー
タは、LSP係数、2個の分数ピッチ遅延、2個の固定
コードブックベクトル、ならびに2セットの適応コード
ブックおよび固定コードブックの利得である。LSP係
数は補間され、各サブフレームごとにLPフィルタ係数
に変換される。その後、40サンプルのサブフレームご
とに、以下のステップが実行される。 ・それぞれの利得でスケールされた適応コードブックお
よび固定コードブックのベクトルを加算することにより
励振が構成される。 ・LP合成フィルタで励振をフィルタリングすることに
より音声が再構成される。 ・再構成された音声信号は、後処理段を通る。この段
は、長期および短期の合成フィルタに基づく適応ポスト
フィルタと、それに続く高域フィルタおよびスケーリン
グ作用からなる。
【0109】[2.3 遅延]この符号器は、音声やそ
の他のオーディオ信号を10msのフレームで符号化す
る。さらに、5msのルックアヘッドがあり、その結
果、アルゴリズムの総遅延は15msとなる。この符号
器の実装におけるすべての付加的遅延は以下の原因によ
る。 ・符号化および復号作用に要する処理時間 ・通信リンク上の伝送時間 ・オーディオデータを他のデータと組み合わせる際の多
重化遅延
【0110】[2.4 音声符号器の記述]この勧告の
音声符号化アルゴリズムの記述は、ビット精度の固定小
数点数学演算を用いてなされる。第5節で示されるAN
SI Cコードは、この勧告の重要な一部を構成する
が、このビット精度の固定小数点記述法を反映する。符
号器(第3節)、および復号器(第4節)の数学的記述
は、他のいくつかの方法で実装することも可能である
が、この勧告に従わないコーデックの実装になる可能性
がある。従って、矛盾が発見された場合には、第5節の
Cコードのアルゴリズム記述のほうが、第3節および第
4節の数学的記述に優先する。Cコードとともに使用可
能な試験シーケンスの網羅的ではないセットが、ITU
から入手可能である。
【0111】[2.5 記法上の規約]この文書を通じ
て、以下の記法的規約を維持するようにする。 ・コードブックは草書体文字(例えば次の数1)で表
す。
【数1】 ・時間信号は、記号と、括弧内のサンプル時間インデッ
クスで表す(例えばs(n))。記号nはサンプル時刻
インデックスとして使用される。 ・上付き添字の時間インデックス(例えばgm)は、そ
の変数がサブフレームmに対応することを表す。 ・上付き添字は、係数配列の特定の要素を指定する。 ・^はパラメータの量子化バージョンを表す。 ・範囲記述は、角括弧を用いてなされ、境界は含まれる
(例えば[0.6,0.9])。 ・logは10を底とする対数を表す。 表2に、この文書を通じて使用される最も重要な記号を
列挙する。最も重要な信号の用語集を表3に与える。表
4は、重要な変数およびその次元を要約している。定数
パラメータを表5に列挙する。この勧告で使用される頭
字語を表6に要約する。
【表2】
【表3】
【表4】
【表5】
【表6】
【0112】[3 符号器の機能的記述]この節では、
図5のブロックに表された符号器のさまざまな機能につ
いて記述する。
【0113】[3.1 前処理]第2節で述べたよう
に、音声符号器への入力は16ビットPCMであると仮
定される。符号化プロセスの前に二つの前処理機能
(1:信号スケーリング、2:高域フィルタリング)が
適用される。
【0114】スケーリングは、入力を因子2で除して、
固定小数点実装におけるオーバーフローの可能性を縮小
することからなる。高域フィルタは、好ましくない低周
波成分に対する予防措置として使用される。遮断周波数
140Hzの2次極/零点フィルタが使用される。この
フィルタの分子の係数を2で除することによって、スケ
ーリングおよび高域フィルタリングの両方が組み合わさ
れる。結果として得られるフィルタは次式で与えられ
る。
【数2】 h1(z)でフィルタリングされた入力信号をs(n)
で表す。この信号は後続のすべての符号器作用で使用さ
れる。
【0115】[3.2 線形予測分析および量子化]短
期の分析フィルタおよび合成フィルタは、10次線形予
測(LP)フィルタに基づく。LP合成フィルタは次式
で定義される。
【数3】 ただし、a^i(i=1,...,10)は、(量子化され
た)線形予測(LP)係数である。短期予測あるいは線
形予測分析は、30msの非対称窓による自己相関法を
用いて、音声フレームごとに1回実行される。80サン
プル(10ms)ごとに、窓をかけられた音声の自己相
関係数が計算され、レヴィンソンのアルゴリズムを用い
てLP係数に変換される。その後、これらのLP係数
は、量子化および補間のために、LSP領域に変換され
る。補間された、量子化後および量子化前のフィルタは
(各サブフレームにおいて合成フィルタおよび重み付け
フィルタを構成するために)LPフィルタ係数に再び変
換される。
【0116】[3.2.1 窓および自己相関の計算]
LP分析窓は二つの部分からなる。第1の部分はハミン
グ窓の半分であり、第2の部分は余弦関数周期の4分の
1である。この窓は次式で与えられる。
【数4】 LP分析には5msのルックアヘッド(先取り)があ
る。これは、未来の音声フレームから40サンプルが必
要とされることを意味する。これは、符号器段における
5msの追加遅延となる。LP分析窓は、過去の音声フ
レームからの120サンプル、現在の音声フレームから
の80サンプル、および未来のフレームからの40サン
プルにかかる。LP分析における窓を図8に図示する。
【0117】窓音声の自己相関係数 s’(n)=wlp(n)s(n), n=0,...,239 (4) は、次式によって計算される。
【数5】 低レベルの入力信号の算術的問題を回避するため、r
(0)の値はr(0)=1.0という下限を有する。6
0Hzの帯域拡張が、自己相関係数を次式に乗じること
により適用される。
【数6】 ただし、f0=60Hzは帯域拡張であり、fs=800
0Hzはサンプリング周波数である。さらに、r(0)
は、白色補正因子1.0001を乗じられる。これは、
−40dBにおけるノイズ下限を加えることに同等であ
る。
【0118】[3.2.2 レヴィンソン=ダービンの
アルゴリズム] 変形自己相関係数 r’(0)=1.0001r(0) r’(k)=wlag(k)r(k), k=1,...,10 (7) を使用して、次の方程式系を解くことにより、LPフィ
ルタ係数ai(i=1,...,10)が得られる。
【数7】 式(8)の方程式系は、レヴィンソン=ダービンのアル
ゴリズムを用いて解かれる。このアルゴリズムは、以下
の反復を使用する。
【数8】 最終解はaj=aj (10)(j=1,...,10)として与
えられる。
【0119】[3.2.3 LPからLSPへの変換]
LPフィルタ係数ai(i=1,...,10)は、量子化
および補間のために線スペクトル対(LSP)表現に変
換される。10次LPフィルタの場合、LSP係数は、
以下のような和および差の多項式の根として定義され
る。 F1’(z)=A(z)+z-11A(z-1) (9) F2’(z)=A(z)−z-11A(z-1) (10) 多項式F1’(z)は対称であり、F2’(z)は反対称
である。これらの多項式のすべての根は単位円上にあ
り、互いに交互に現れることを証明することができる。
1’(z)は根z=−1(ω=π)を有し、F2
(z)はz=1(ω=0)を有する。これらの二つの根
を除くため、次のように新たな多項式を定義する。 F1(z)=F1’(z)/(1+z-1) (11) F2(z)=F2’(z)/(1−z-1) (12) 各多項式は単位円上に5個の共役根(exp(±j
ωi))を有するため、これらの多項式は次のように書
くことができる。
【数9】 ただし、qi=cos(ωi)であり、ωiは、線スペク
トル周波数(LSF)であって順序性0<ω1<ω2<・
・・<ω10<πを満たす。qiを余弦領域におけるLS
P係数と呼ぶ。
【0120】多項式F1(z)およびF2(z)はいずれ
も対称であるため、各多項式の最初の5個の係数のみを
計算すればよい。これらの多項式の係数は、以下の再帰
的関係式によって求められる。 f1(i+1)=ai+1+a10-i−f1(i), i=0,...,4 f2(i+1)=ai+1−a10-i+f2(i), i=0,...,4 (15 ) ただし、f1(0)=f2(0)=1.0である。LSP
係数は、0とπの間の等間隔の60点で多項式F
1(z)およびF2(z)を評価し、符号変化をチェック
することによって求められる。符号変化は根の存在を意
味し、符号変化区間は、根をより良く追跡するために四
つに分割される。チェビシェフ多項式がF1(z)およ
びF2(z)を評価するために使用される。この方法で
は、根は余弦領域{qi}で直接求められる。z=ex
p(jω)で評価した多項式F1(z)およびF2(z)
は次のように書くことができる。
【数10】 ただし、 C(x)=T5(x)+f(1)T4(x)+f(2)T3(x)+f(3) T2(x)+f(4)T1(x)+f(5)/2 (17) であり、Tm(x)=cos(mω)は、m次のチェビ
シェフ多項式であり、f(i)(i=1,...,5)
は、式(15)を用いて計算したF1(z)またはF
2(z)のいずれかの係数である。多項式C(x)は、
次の再帰的関係式を用いて、x=cos(ω)のある値
において評価される。
【数11】 ただし、初期値はb5=0およびb6=1である。
【0121】[3.2.4 LSP係数の量子化]LP
フィルタ係数は、周波数領域におけるLSP表現を用い
て量子化される。すなわち、 ωi=arccos(qi), i=1,...,10 (18) であり、ただし、ωiは、正規化された周波数領域
[0,π]における線スペクトル周波数(LSF)であ
る。切替4次MA予測が、LSF係数の現在のセットを
予測するために使用される。計算された係数セットと予
測された係数セットの間の差が、2段ベクトル量子化器
を用いて量子化される。第1段は128エントリ(7ビ
ット)を有するコードブックL1を用いた10次元VQ
である。第2段は、それぞれ32エントリ(5ビット)
を含む2個の5次元コードブックL2およびL3を用い
た分割VQとして実装された10ビットVQである。
【0122】量子化プロセスを説明するため、まず復号
プロセスについて記述するのが好都合である。各係数
は、二つのコードブックの和から得られる。
【数12】 ただし、L1、L2、およびL3はコードブックインデ
ックスである。量子化されたLP合成フィルタにおける
鋭い共鳴を避けるため、係数liは、隣接する係数が最
小距離Jを有するように配置される。その再配置ルーチ
ンは以下のとおりである。
【数13】 この再配置プロセスは2回実行される。最初はJ=0.
00001という値で実行され、次に、J=0.000
095という値で実行される。
【0123】この再配置プロセスの後、現在のフレーム
nに対する量子化されたLSF係数ω^i (m)が、前の量
子化器出力l(m-k)と、現在の量子化器出力l(m)の重み
付き和から得られる。
【数14】 ただし、mi kは、切替MA予測子の係数である。使用す
るMA予測子は、別のビットL0によって定義される。
スタートアップ時に、li (k)の初期値は、すべてのk<
0に対してli=iπ/11によって定義される。
【0124】ω^iを計算した後、対応するフィルタの
安定性がチェックされる。これは以下のように行われ
る。 1.係数ω^iを値の増大する順に整列する。 2.ω^1<0.005の場合、ω^1=0.005とす
る。 3.ω^i+1−ω^i<0.0001の場合、ω^i+1
ω^i+0.0001とする(i=1,...,9)。 4.ω^10>3.135の場合、ω^10=3.135と
する。
【0125】LSFパラメータを符号化する手続きにつ
いては以下のようにまとめることができる。二つのMA
予測子のそれぞれに対して、現在のLSFベクトルの最
良近似を求めなければならない。その最良近似は、次の
重み付き平均二乗誤差を最小化するものとして定義され
る。
【数15】
【0126】重みwiは、非量子化LSF係数の関数と
して適応化される。
【数16】 さらに、重みw5およびw6にはそれぞれ1.2が乗じら
れる。
【0127】現在のフレームに対して量子化されるべき
ベクトルは次式から得られる。
【数17】
【0128】第1のコードブックL1が探索され、(重
みなし)平均二乗誤差を最小化するエントリL1が選択
される。この後、第2のコードブックL2の探索を行
う。これは、第2段の下位部を定義する。可能な各候補
ごとに、式(20)を用いて部分ベクトルω^i(i=
1,...,5)が再構成され、最小距離0.0001を
保証するように再配置される。第1段の候補に加算し再
配置した後に重み付きMSEの意味で対応する目標の下
位部を最も良く近似するインデックスL2を有するベク
トルが選択される。選択された第1段ベクトルL1およ
び第2段の下位部(L2)を用いて、第2段の上位部が
コードブックL3から探索される。この場合も、最小距
離0.0001を保証するために再配置手続きが用いら
れる。全体の重み付きMSEを最小化するベクトルL3
が選択される。
【0129】このプロセスは、L0によって定義される
二つのMA予測子のそれぞれについて行われ、最小の重
み付きMSEを生成するMA予測子L0が選択される。
【0130】[3.2.5 LSP係数の補間]量子化
された(および量子化されていない)LP係数が、第2
のサブフレームに対して使用される。第1のサブフレー
ムに対しては、量子化された(および量子化されていな
い)LP係数は、隣接するサブフレームにおける対応す
るパラメータの線形補間から得られる。この補間は、q
領域におけるLSP係数に対して行われる。qi (m)を、
フレームmの第2サブフレームでのLSP係数とし、q
i ( m-1)を、過去のフレーム(m−1)の第2サブフレー
ムでのLSP係数とする。これらの2個のサブフレーム
のそれぞれにおける(量子化されていない)補間LSP
係数は次式で与えられる。 サブフレーム1:q1i=0.5qi (m-1)+0.5qi (m), i=1,..., 10 サブフレーム2:q2i=qi (m), i=1,...,10 (24) 同じ補間手続きが、qiをq^iに置き換えることによっ
て、量子化されたLSP係数の補間に使用される。
【0131】[3.2.6 LSPからLPへの変換]
LSP係数は、量子化され補間された後、LP係数{a
i}に変換される。LP領域への変換は以下のように行
われる。F1(z)およびF2(z)の係数は、量子化さ
れ補間されたLSP係数を既知として式(13)および
式(14)を展開することによって求められる。以下の
再帰的関係式が、qiからfi(i=1,...,5)を計
算するために使用される。
【数18】 ここで、初期値はf1(0)=1およびf1(−1)=0
である。係数f2(i)は、q2i-1をq2iで置き換える
ことによって同様に計算される。
【0132】係数f1(i)およびf2(i)が求められ
た後、F1(z)およびF2(z)にそれぞれ1+z-1
よび1−z-1を乗じることにより、F1’(z)および
2’(z)が得られる。すなわち、次式のようにな
る。 f1’(i)=f1(i)+f1(i−1) i=1,...,5 f2’(i)=f2(i)−f2(i−1) i=1,...,5 (25) 最後に、LP係数は次式によって得られる。
【数19】 これは、直接関係式A(z)=(F1’(z)+F2
(z))/2から導出される。F1’(z)およびF2
(z)がそれぞれ対称および反対称の多項式であるため
である。
【0133】[3.3 知覚的重み付け]知覚的重み付
けフィルタは、量子化前のLPフィルタ係数に基づいて
おり、次式で与えられる。
【数20】 γ1およびγ2の値は、フィルタW(z)の周波数応答を
決定する。これらの変数の適当な調節により、重み付け
をより効果的にすることが可能である。これは、γ1
よびγ2を、入力信号のスペクトル形状の関数とするこ
とにより達成される。この適応は10msフレームごと
に1回行われるが、各第1サブフレームごとに補間手続
きが、この適応プロセスを円滑にするために使用され
る。スペクトル形状は、レヴィンソン=ダービン漸化式
(第3.2.2節)からの副産物として得られる2次線
形予測フィルタから得られる。反射係数kiは次式によ
り対数面積比(LAR)oiに変換される。
【数21】 これらのLAR係数は第2サブフレームに使用される。
第1サブフレームに対するLAR係数は、前フレームか
らのLARパラメータとの線形補間により得られ、次式
で与えられる。 サブフレーム1:o1i=0.5oi (m-1)+0.5oi (m), i=1,2 サブフレーム2:o2i=oi (m), i=1,2 (29) スペクトル包絡線は、平坦(flat=1)または傾斜
(flat=0)のいずれかとして特徴づけられる。各
サブフレームごとに、この特性は、LAR係数にしきい
値関数を適用することによって得られる。急激な変化を
避けるため、前サブフレーム(m−1)におけるfla
tの値を考慮することによるヒステリシスが用いられ
る。
【数22】 サブフレームに対する補間されたスペクトルが平坦であ
る(flat(m)=1)として分類された場合、重み因
子はγ1=0.94およびγ2=0.6に設定される。ス
ペクトルが傾斜している(flat(m)=0)として分
類された場合、γ1の値は0.98に設定され、γ2の値
はLP合成フィルタにおける共鳴の強度に適応させられ
るが、0.4と0.7の間に制限される。強い共鳴が存
在する場合、γ2の値は上限の近くに設定される。この
適応は、現在のサブフレームに対する2個の連続するL
SP係数の間の最小距離に基づく判断基準によって達成
される。この最小距離は次式で与えられる。 dmin=min[ωi+1−ωi] i=1,...,9 (31) 以下の線形関係式が、γ2を計算するために使用され
る。 γ2=−6.0*dmin+1.0 かつ 0.4≦γ2≦0.7 (32)
【0134】1サブフレーム内の重み付き音声信号は次
式で与えられる。
【数23】 重み付き音声信号sw(n)は、音声フレーム内のピッ
チ遅延の評価を求めるために使用される。
【0135】[3.4 開ループピッチ分析]最良の適
応コードブック遅延の探索の複雑さを縮小するため、探
索範囲は、開ループピッチ分析から得られる候補遅延T
opの付近に制限される。この開ループピッチ分析はフレ
ーム(10ms)ごとに1回行われる。開ループピッチ
評価は、式(33)の重み付き音声信号sw(n)を使
用し、以下のように行われる。 第1ステップでは、相関
【数24】 の3個の極大が、次の三つの範囲から求められる。 i=1: 80,...,143 i=2: 40,...,79 i=3: 20,...,39 保持される極大R(ti)(i=1,...,3)は次式に
より正規化される。
【数25】 これらの3個の正規化された相関のうちの一つが、低い
ほうの範囲における値の遅延が大きくなるようにするこ
とにより選択される。これは、長いほうの遅延に対応す
る正規化相関に重みを付けることによってなされる。最
良の開ループ遅延Topは以下のように決定される。
【数26】
【0136】遅延範囲を3セクションに分割し低いほう
のセクションに有利になるようにするこの手続きは、ピ
ッチ倍音を選択することを避けるために用いられる。
【0137】[3.5 インパルス応答の計算]重み付
き合成フィルタW(z)/A^(z)のインパルス応答
h(n)は、各サブフレームごとに計算される。このイ
ンパルス応答は、適応コードブックおよび固定コードブ
ックの探索のために必要とされる。インパルス応答h
(n)は、零点により延長されたフィルタA(z/
γ1)の係数のベクトルを、2個のフィルタ1/A^
(z)および1/A(z/γ2)によってフィルタリン
グすることにより計算される。
【0138】[3.6 目標信号の計算]適応コードブ
ック探索のための目標信号x(n)は、通常、重み付き
合成フィルタW(z)/A^(z)=A(z/γ1)/
[A^(z)A(z/γ2)]の0入力応答を、式(3
3)の重み付き音声信号sw(n)から減算することに
より計算される。これは、サブフレームごとに行われ
る。
【0139】この勧告で使用される、目標信号を計算す
る同等な手続きは、合成フィルタ1/A^(z)と重み
付けフィルタA(z/γ1)/A(z/γ2)の組合せに
より、LP残差信号r(n)をフィルタリングすること
である。サブフレームの励振を決定した後、これらのフ
ィルタの初期状態は、LP残差と励振の間の差をフィル
タリングすることにより更新される。これらのフィルタ
のメモリ更新については第3.10節で説明する。
【0140】目標ベクトルを求めるために必要とされる
残差信号r(n)は、過去の励振のバッファを拡張する
ために適応コードブック探索においても使用される。こ
れは、次節で説明するように、サブフレームサイズであ
る40より小さい遅延に対する適応コードブック探索手
続きを簡単化する。LP残差は次式で与えられる。
【数27】
【0141】[3.7 適応コードブック探索]適応コ
ードブックパラメータ(あるいはピッチパラメータ)は
遅延および利得である。ピッチフィルタを実装するため
の適応コードブック法では、励振は、サブフレーム長よ
り小さい遅延に対して反復される。探索段では、励振
は、閉ループ探索を簡単化するために、LP残差により
延長される。適応コードブック探索は(5msの)サブ
フレームごとに行われる。第1のサブフレームでは、分
解能1/3の分数ピッチ遅延T1が範囲[19(1/
3),84(2/3)]の範囲で使用され、整数は範囲
[85,143]のみで使用される。第2のサブフレー
ムでは、分解能1/3の遅延T2が範囲[(int)T1
−5(2/3),(int)T1+4(2/3)]の範
囲で常に使用される。ただし、(int)T1は、第1
サブフレームの分数ピッチ遅延T1に最も近い整数であ
る。この範囲は、T1が遅延範囲の境界にまたがるよう
な場合に適応している。
【0142】各サブフレームごとに、最適な遅延が、重
み付き平均二乗誤差を最小化する閉ループ分析を用いて
決定される。第1サブフレームにおいて、遅延T1は、
開ループ遅延Top(第3.4節参照)付近の遅延値の小
範囲(6サンプル)を探索することにより求められる。
探索境界tminおよびtmaxは次のように定義される。
【数28】 第2サブフレームでは、閉ループピッチ分析は、最適な
遅延T2を見つけるために、第1サブフレームで選択さ
れたピッチの付近で行われる。探索境界は、tmin−2
/3とtmax+2/3の間である。ただし、tminおよび
maxはT1から以下のように導出される。
【数29】
【0143】閉ループピッチ探索は、もとの音声と合成
された音声の間の平均二乗重み付き誤差を最小化する。
これは、次の項を最大化することによって達成される。
【数30】 ただし、x(n)は目標信号であり、yk(n)は、遅
延kにおける過去のフィルタリングされた励振(h
(n)と畳込みをとった過去の励振)である。注意すべ
き点であるが、探索範囲はあらかじめ選択された値の付
近に制限されており、その値は、第1サブフレームでは
閉ループピッチTopであり、第2サブフレームではT1
である。
【0144】畳込みyk(n)は遅延tminに対して計算
され、探索範囲k=tmin+1,...,tmaxではその他
の整数遅延に対して計算され、次の再帰的関係式を用い
て更新される。 yk(n)=yk-1(n−1)+u(−k)h(n), n=39,...,0 (38) ただし、u(n)(n=−143,...,39)は励振
バッファであり、yk-1(−1)=0である。注意すべ
き点であるが、探索段では、サンプルu(n)(n=
0,...,39)は未知であり、これらは40より小さ
いピッチ遅延に対して必要とされる。探索を簡単化する
ため、式(38)の関係がすべての遅延に対して妥当に
なるように、LP残差がu(n)にコピーされる。
【0145】T2の決定、および、最適整数閉ループ遅
延が84より小さい場合にはT1の決定のため、最適整
数遅延付近の分数をテストしなければならない。分数ピ
ッチ探索は、式(37)における正規化相関を補間し、
その最大値を探索することによりなされる。補間は、s
inc関数を±11で切り落とし±12で0を埋め合わ
せた(b12(12)=0)ハミング窓sinc関数に基
づくFIRフィルタb12を用いてなされる。このフィル
タは、オーバーサンプリング領域内の3600Hzに遮
断周波数(−3dB)を有する。分数−2/3、−1/
3、0、1/3、および2/3に対して補間されたR
(k)の値は、次の補間公式を用いて得られる。
【数31】 ただし、t=0、1、2はそれぞれ分数0、1/3、お
よび2/3に対応する。注意すべき点であるが、正しい
補間を行うためには、範囲tmin−4,tmax+4を用い
て式(37)における相関項を計算することが必要であ
る。
【0146】[3.7.1 適応コードブックベクトル
の生成]非整数のピッチ遅延が決定された後、適応コー
ドブックベクトルv(n)が、与えられた整数遅延kに
おける過去の励振信号u(n)と分数tを補間すること
によって次のように計算される。
【数32】 補間フィルタb30は、sinc関数を±29で切り落と
し±30で0を埋め合わせた(b30(30)=0)ハミ
ング窓sinc関数に基づく。このフィルタは、オーバ
ーサンプリング領域において3600Hzに遮断周波数
(−3dB)を有する。
【0147】[3.7.2 適応コードブック遅延に対
する符号語計算]ピッチ遅延T1は第1サブフレームに
おいて8ビットで符号化され、第2サブフレームにおけ
る相対遅延は5ビットで符号化される。分数遅延Tは、
その整数部分(int)Tと、分数部分frac/3
(frac=−1,0,1)によって表現される。ピッ
チインデックスP1は次のように符号化される。
【数33】
【0148】ピッチ遅延T2の値は、T1の値に対して相
対的に符号化される。前と同じ解釈を用いて、整数部分
(int)T2と、分数部分frac/3(frac=
−1,0,1)によって表現される分数遅延T2は、次
のように符号化される。 P2=((int)T2−tmin)*3+frac+2 (42) ただし、tminは前と同様にT1から導出される。
【0149】ランダムビット誤りに対して符号器をより
強固にするため、第1サブフレームの遅延インデックス
に対してパリティビットP0が計算される。このパリテ
ィビットは、P1の6個の上位ビットに対するXOR演
算により生成される。復号器で、このパリティビットは
再計算され、再計算結果の値が送信された値と一致しな
い場合、誤り隠蔽手続きが適用される。
【0150】[3.7.3 適応コードブック利得の計
算]適応コードブック遅延が決定された後、適応コード
ブック利得gpが次のように計算される。
【数34】 ただし、y(n)は、フィルタリングされた適応コード
ブックベクトル(v(n)に対するW(z)/A^
(z)の0状態応答)である。このベクトルは、v
(n)とh(n)の畳込みをとることにより得られる。
【数35】 注意すべき点であるが、式(37)内の項を最大化する
ことにより、ほとんどの場合gp>0である。信号が負
の相関のみを含む場合、gpの値は0に設定される。
【0151】[3.8 固定コードブック:構造および
探索]固定コードブックは、インタリーブされた単一パ
ルス置換(ISSP)設計を用いた代数的コードブック
構造に基づく。このコードブックでは、各コードブック
ベクトルは4個の非零パルスを含む。各パルスは+1ま
たは−1のいずれかの振幅を有することが可能であり、
表7に与えられる位置をとることが可能である。
【表7】
【0152】コードブックベクトルc(n)は、零ベク
トルをとり、求められた位置に4個の単位パルスを置
き、対応する符号を乗じることによって構成される。 c(n)=s0δ(n−i0)+s1δ(n−i1)+s2δ(n−i2) +s3δ(n−i3), n=0,...,39 (45) ただし、δ(0)は単位パルスである。このコードブッ
クに組み込まれた特徴は、選択されるコードブックベク
トルが、合成される音声の品質を改善するように倍音成
分を増強する適応前置フィルタP(z)によりフィルタ
リングされることである。ここで、このフィルタとして
は P(z)=1/(1−βz-T) (46) が使用される。ただし、Tは現在のサブフレームのピッ
チ遅延の整数成分であり、βはピッチ利得である。βの
値は、0.2から0.8までに制限される前サブフレー
ムからの量子化された適応コードブック利得を用いるこ
とによって適応化される。 β=g^p (m-1) 0.2≦β≦0.8 (47) このフィルタは、サブフレームサイズ40より小さい遅
延に対して倍音構造を増強する。この修正は、次式に従
ってインパルス応答h(n)を修正することにより固定
コードブック探索に組み込まれる。 h(n)=h(n)+βh(n−T), n=T,...,39 (48)
【0153】[3.8.1 固定コードブック探索手続
き]固定コードブックは、式(33)の重み付き入力音
声sw(n)と、重み付き再構成音声の間の平均二乗誤
差を最小化することによって探索される。閉ループピッ
チ探索で使用される目標信号は、適応コードブック寄与
を減算することによって更新される。すなわち次式のよ
うになる。 x2(n)=x(n)−gpy(n), n=0,...,39 (49) ただし、y(n)は、式(44)のフィルタリングされ
た適応コードブックベクトルである。
【0154】行列Hは、対角線にh(0)を有し下対角
線にh(1),...,h(39)を有する下三角テープ
リッツ畳込み行列として定義される。ckがインデック
スkにおける代数的コードベクトルである場合、コード
ブックは、次の項を最大化することによって探索され
る。
【数36】 ただし、d(n)は、目標信号x2(n)とインパルス
応答h(n)の間の相関であり、Φ=HtHは、h
(n)の相関行列である。信号d(n)および行列Φは
コードブック探索の前に計算される。d(n)の要素は
次式から計算される。
【数37】 また、対称行列Φの要素は次式によって計算される。
【数38】
【0155】注意すべき点であるが、探索手続きを高速
化するために、必要な要素のみが計算され、効率的な記
憶手続きが設計されている。
【0156】コードブックCの代数的構造により、コー
ドブックベクトルckは非零パルスを4個だけ含むた
め、高速な探索手続きが可能となる。与えられたベクト
ルckに対して式(50)の分子の相関は次式で与えら
れる。
【数39】 ただし、miはi番目のパルスの位置であり、aiはその
振幅である。式(50)の分母のエネルギーは次式で与
えられる。
【数40】
【0157】探索手続きを簡単化するため、パルス振幅
は、信号d(n)を量子化することによってあらかじめ
決定される。これは、ある位置におけるパルスの振幅を
その位置におけるd(n)の符号に等しいと設定するこ
とによってなされる。コードブック探索の前に、以下の
ステップが実行される。第1に、信号d(n)が二つの
信号、すなわち、絶対値信号d’(n)=|d(n)|
と、符号信号sign[d(n)]に分解される。第2
に、行列Φは、符号情報を含むように修正される。すな
わち、次式のようになる。 φ’(i,j)=sign[d(i)]sign[d(j)]φ(i,j) , i=0,...,39, j=i,...,39 (55) 式(54)における因子2を除去するため次のように置
く。 φ’(i,i)=0.5φ(i,i), i=0,...,39 (56) すると、式(53)の相関は次式で与えられる。 C=d’(m0)+d’(m1)+d’(m2)+d’(m3) (57) また、式(54)のエネルギーは次式で与えられる。
【数41】
【0158】探索手続きをさらに簡単化するために集中
探索法が用いられる。この方法では、最後のループには
入る前に、あらかじめ計算されたしきい値がテストさ
れ、このしきい値を越える場合に限りループに入る。コ
ードブックのうちの小さい割合を探索するように、ルー
プに入ることが可能な最大回数は固定される。しきい値
は、相関Cに基づいて計算される。コードブック探索の
前に、最初の3個のパルスの寄与による最大絶対相関お
よび平均相関(max3およびav3)が求められる。し
きい値は次式で与えられる。 thr3=av3+K3(max3−av3) (59) 絶対相関(3個のパルスによる)がthr3を越えると
きに限り第4のループに入る。ただし0≦K3<1であ
る。K3の値は、コードブック探索の割合を制御し、こ
こでは0.4に設定される。注意すべき点であるが、こ
の結果、探索時間は可変となり、探索をさらに制御する
には、最終ループに入る回数(2個のサブフレームに対
して)はある最大値を越えることはできない。この最大
値はここでは180(サブフレームあたり最悪の場合が
平均90回)に設定される。
【0159】[3.8.2 固定コードブックの符号語
計算]パルスi0、i1、およびi2のパルス位置はそ
れぞれ3ビットで符号化され、i3の位置は4ビットで
符号化される。各パルス振幅は1ビットで符号化され
る。これにより、4パルスに対して全部で17ビットと
なる。符号が正の場合s=1、符号が負の場合s=0と
定義することにより、符号符号語は次式から得られる。 S=s0+2*s1+4*s2+8*s3 (60) また、固定コードブック符号語は次式から得られる。 C=(i0/5)+8*(i1/5)+64*(i2/5)+512*(2 *(i3/5)+jx) (61) ただし、i3=3,8,...の場合jx=0であり、i
3=4,9,...の場合jx=1である。
【0160】[3.9 利得の量子化]適応コードブッ
ク利得(ピッチ利得)および固定(代数的)コードブッ
ク利得は7ビットを用いてベクトル量子化される。利得
コードブック探索は、もとの音声と再構成音声の間の平
均二乗重み付き誤差を最小化することによってなされ
る。この誤差は次式で与えられる。 E=xtx+gp 2ty+gc 2tz−2gpty−2gctz+2gpct z (62) ただし、xは目標ベクトル(第3.6節参照)、yは式
(44)のフィルタリングされた適応コードブックベク
トル、および、zは、次式のように、固定コードブック
ベクトルとh(n)の畳込みである。
【数42】
【0161】[3.9.1 利得予測]固定コードブッ
ク利得gcは次のように表すことができる。 gc=γgc’ (64) ただし、gc’は、以前の固定コードブックエネルギー
に基づいて予測される利得であり、γは補正因子であ
る。
【0162】固定コードブック寄与の平均エネルギーは
次式で与えられる。
【数43】 固定コードブック利得gcでベクトルciをスケールした
後、スケールされた固定コードブックのエネルギーは2
0log(gc)+Eで与えられる。E(m)を、次式で与
えられる、サブフレームmにおける(スケールされた)
固定コードブック寄与の平均除去エネルギー(単位d
B)とする。 E(m)=20log(gc)+E− ただし、=30dBは、固定コードブック励振の平均
エネルギーである。利得gcは、E(m)、E、および
関数として次のように表すことができる。
【数44】
【0163】予測利得gc’は、以前の固定コードブッ
ク寄与の対数エネルギーから現在の固定コードブック寄
与の対数エネルギーを予測することによって求められ
る。4次MA予測は以下のように行われる。予測エネル
ギーは次式で与えられる。
【数45】 ただし、[b1234]=[0.68 0.5
8 0.34 0.19]はMA予測係数であり、R^
(m)は、サブフレームmにおける予測誤差R(m)の量子化
バージョンであって次式で定義される。 R(m)=E(m)−R^(m) (69)
【0164】予測利得gc’は、式(67)においてE
(m)をその予測値で置き換えることによって求められ
る。
【数46】 補正因子γは、次式によって利得予測誤差と関係づけら
れる。 R(m)=E(m) (m)=20log(γ) (71)
【0165】[3.9.2 利得量子化のためのコード
ブック探索]適応コードブック利得gpおよび補正因子
γは、2段共役構造化コードブックを用いてベクトル量
子化される。第1段は、3ビットの2次元コードブック
GAからなり、第2段は、4ビットの2次元コードブッ
クGBからなる。各コードブックにおける第1の要素
は、量子化された適応コードブック利得g^pを表し、
第2の要素は、量子化された固定コードブック利得補正
因子γ^を表す。GAおよびGBそれぞれに対するコー
ドブックインデックスmおよびnが与えられた場合、量
子化された適応コードブック利得は次式で与えられる。
【数47】 また、量子化された固定コードブック利得は次式で与え
られる。
【数48】
【0166】この共役構造は、前選択プロセスを適用す
ることによって、コードブック探索を簡単化する。最適
なピッチ利得gpおよび固定コードブック利得gcは式
(62)から導出され、前選択のために使用される。コ
ードブックGAは8個のエントリを含み、その第2の要
素(gcに対応する)は一般に第1の要素(gpに対応す
る)よりも大きい値を有する。このバイアスにより、g
cの値を用いた前選択が可能となる。この前選択プロセ
スでは、第2の要素がgxcに近いような4個のベクト
ルからなるクラスタがgcおよびgpから導出される。同
様に、コードブックGBは16個のエントリを含み、そ
れらのエントリは第1の要素(gpに対応する)へ向か
うバイアスを有する。第1の要素がgpに近いような8
個のベクトルからなるクラスタが選択される。こうし
て、各コードブックごとに、最良の50%の候補ベクト
ルが選択される。この後、2個のインデックスの組合せ
が式(62)の重み付き平均二乗誤差を最小化するよう
に、残りの4×8=32個の可能性にわたる全数探索が
行われる。
【0167】[3.9.3 利得量子化器に対する符号
語計算]利得量子化器に対する符号語GAおよびGB
は、最良選択に対応するインデックスから得られる。単
一ビット誤りの影響を軽減するため、コードブックイン
デックスはマッピングされる。
【0168】[3.10 メモリ更新]合成フィルタお
よび重み付けフィルタの状態の更新が、次のサブフレー
ムにおける目標信号の計算のために必要である。二つの
利得が量子化された後、現在のサブフレームの励振信号
u(n)は次式により求められる。 u(n)=g^pv(n)+g^cc(n), n=0,...,39 (7 4) ただし、g^pおよびg^cは、それぞれ、量子化された
適応コードブックおよび固定コードブックの利得であ
り、v(n)は適応コードブックベクトル(補間された
過去の励振)であり、c(n)は固定コードブックベク
トル(ピッチ先鋭化を含む代数的コードベクトル)であ
る。フィルタの状態は、40サンプルのサブフレームに
対してフィルタ1/A^(z)およびA(z/γ1)/
A(z/γ2)により信号r(n)−u(n)(残差と
励振の差)をフィルタリングし、フィルタの状態を保存
することによって更新することができる。これは、三つ
のフィルタ動作を必要とする。1回のフィルタリングし
か必要としないさらに簡単な方法は以下のとおりであ
る。局所合成音声s^(n)が、1/A^(z)により
励振信号をフィルタリングすることによって計算され
る。入力r(n)−u(n)によるこのフィルタの出力
は、e(n)=s(n)−s^(n)と等価である。従
って、合成フィルタ1/A^(z)の状態はe(n)
(n=30,...,39)によって与えられる。フィル
タA(z/γ1)/A(z/γ2)の状態の更新は、誤差
信号e(n)をこのフィルタによりフィルタリングして
知覚的重み付き誤差ew(n)を求めることにより行う
ことができる。しかし、信号ew(n)は、次式によっ
ても求めることができる。 ew(n)=x(n)−g^py(n)+g^cz(n) (75) 信号x(n)、y(n)、およびz(n)は利用可能で
あるため、重み付けフィルタの状態は、n=3
0,...,39に対して式(75)のようにしてew
(n)を計算することにより更新される。これにより、
2回のフィルタ動作が節約される。
【0169】[3.11 符号器および復号器の初期
化]すべての静的な符号器変数は、表8に列挙した変数
を除いては0に初期化される。これらの変数は復号器に
対しても同様に初期化する必要がある。
【表8】
【0170】[4 復号器の機能的記述]復号器におけ
る信号フローを図7に示した。まず、パラメータ(LP
係数、適応コードブックベクトル、固定コードブックベ
クトル、および利得)が復号される。これらの復号され
たパラメータは、再構成音声信号を計算するために使用
される。このプロセスを第4.1節で説明する。この再
構成信号は、ポストフィルタおよび高域フィルタからな
る後処理動作によって増強される(第4.2節)。第
4.3節では、パリティ誤りが起きたとき、または、フ
レーム消失フラグがセットされたときに使用される誤り
隠蔽手続きについて説明する。
【0171】[4.1 パラメータ復号手続き]送信さ
れるパラメータを図9に列挙する。起動時には、すべて
の静的符号器変数は、表8に列挙した変数を除いては0
に初期化される。復号プロセスは、以下の順序で行われ
る。
【表9】
【0172】[4.1.1 LPフィルタパラメータの
復号]受信したLSP量子化器のインデックスL0、L
1、L2、およびL3は、第3.2.4節で説明した手
続きで用いられる量子化LSP係数を再構成するために
使用される。第3.2.5節で説明した補間手続きを用
いて、2個の補間LSPベクトル(2このサブフレーム
に対応する)を得る。各サブフレームごとに、補間LS
PベクトルはLPフィルタ係数aiに変換され、これら
は、そのサブフレームにおける再構成音声を合成するた
めに使用される。
【0173】以下のステップが、各サブフレームごとに
反復される。 1.適応コードブックベクトルの復号。 2.固定コードブックベクトルの復号。 3.適応コードブックおよび固定コードブックの利得の
復号。 4.再構成音声の計算。
【0174】[4.1.2 適応コードブックベクトル
の復号]受信した適応コードブックインデックスは、ピ
ッチ遅延の整数部分および小数部分を求めるために使用
される。T1の整数部分(int)T1および小数部分f
racはP1から以下のようにして得られる。
【数49】
【0175】T2の整数部分および小数部分はP2およ
びtminから以下のようにして得られる。tminはP1か
ら導出される。
【数50】 ここでT2は次のようにして得られる。
【数51】
【0176】適応コードブックベクトルv(n)は、式
(40)を用いて(ピッチ遅延における)過去の励振u
(n)を補間することにより求められる。
【0177】[4.1.3 固定コードブックベクトル
の復号]受信した固定コードブックインデックスCは、
励振パルスの位置を抽出するために使用される。パルス
の符号はSから得られる。パルスの位置および符号が復
号されると、固定コードブックベクトルc(n)を構成
することができる。ピッチ遅延Tの整数部分がサブフレ
ームサイズ40より小さい場合、ピッチ増強手続きが適
用され、式(48)に従ってc(n)を修正する。
【0178】[4.1.4 適応コードブックおよび固
定コードブックの利得の復号]受信した利得コードブッ
クインデックスは、適応コードブック利得g^pおよび
固定コードブック利得補正因子γ^を与える。この手続
きは第3.9節に詳細に説明した。推定される固定コー
ドブック利得gc’は式(70)を用いて求められる。
固定コードブックベクトルは、量子化された利得補正因
子と、この予測利得との積から得られる(式(6
4))。適応コードブック利得は式(72)を用いて再
構成される。
【0179】[4.1.5 パリティビットの計算]音
声を再構成する前に、パリティビットが、適応コードブ
ック遅延から再計算される(第3.7.2節)。このビ
ットが送信されたパリティビットP0と同一でない場
合、送信中にビット誤りが生じた可能性があり、第4.
3節の誤り隠蔽手続きが使用される。
【0180】[4.1.6 再構成音声の計算]合成フ
ィルタの入力における励振u(n)(式(74)参照)
は、LP合成フィルタへの入力である。サブフレームに
対する再構成音声は次式で与えられる。
【数52】 ただし、a^iは、補間されたLPフィルタ係数であ
る。
【0181】その後、再構成音声s^(n)は、時節で
説明するポストプロセッサによって処理される。
【0182】[4.2 後処理]後処理は三つの機能、
すなわち、適応ポストフィルタリング、高域フィルタリ
ング、および信号アップスケーリングからなる。適応ポ
ストフィルタは、3個のフィルタ、すなわち、ピッチポ
ストフィルタHp(z)、短期ポストフィルタH
f(z)、および傾斜補償フィルタHt(z)のカスケー
ドである。ポストフィルタは、5msのサブフレームご
とに更新される。ポストフィルタリングプロセスは以下
のように編成される。最初に、合成音声s^(n)は、
A^(z/γn)により逆フィルタリングされ、残差信
号r^(n)を生成する。信号r^(n)は、ピッチ遅
延Tおよび利得gpitを計算するために用いられる。信
号r^(n)は、ピッチポストフィルタHp(z)によ
りフィルタリングされて信号r’(n)が生成される。
続いて信号r’(n)は、合成フィルタ1/[gfA^
(z/γd)]によりフィルタリングされる。最後に、
合成フィルタ1/[gfA^(z/γd)]の出力信号
は、傾斜補償フィルタHt(z)を通り、ポストフィル
タリングされた合成音声信号sf(n)が生成される。
その後、適応利得制御がsf(n)とs^(n)の間に
適用され、信号sf’(n)が生成される。その後、高
域フィルタリングおよびスケーリング操作が、ポストフ
ィルタリングされた信号sf’(n)に作用する。
【0183】[4.2.1 ピッチポストフィルタ]ピ
ッチ(倍音)ポストフィルタは次式で与えられる。
【数53】 ただし、Tはピッチ遅延である。また、g0は次式で与
えられる利得因子である。 g0=γppit (78) ただし、gpitはピッチ利得である。ピッチ遅延および
ピッチ利得はいずれも、復号器出力信号から決定され
る。注意すべき点であるが、gpitは1を限界とし、ピ
ッチ予測利得が3dBより小さい場合には0に設定され
る。因子γpは、倍音ポストフィルタリングの量を制御
し、γp=0.5という値を有する。ピッチ遅延および
ピッチ利得は、音声s^(n)をA^(z/γn)でフ
ィルタリングすることによって得られる残差信号r^
(n)から計算される。残差信号r^(n)は、次式の
ように、短期ポストフィルタの分子である(第4.2.
2節参照)。
【数54】 ピッチ遅延は、2パス手続きを用いて計算される。第1
パスは、範囲[T1−1,T1+1]において最良の整数
0を選択する。ただし、T1は第1サブフレームにおけ
る(送信された)ピッチ遅延の整数部分である。最良の
整数遅延は、次式の相関を最大化するものである。
【数55】 第2パスは、T0の周りで分解能1/8で最良の分数遅
延Tを選択する。これは、次式の正規化相関を最大にす
る遅延を求めることによりなされる。
【数56】 ただし、r^k(n)は、遅延kにおける残差信号であ
る。最適遅延Tが求められた後、対応する相関値がしき
い値と比較される。R’(T)<0.5の場合、倍音ポ
ストフィルタは、gpit=0と設定することによって無
効化される。そうでない場合、gpitの値は次式から計
算される。
【数57】 非整数遅延信号r^k(n)は、まず、長さ33の補間
フィルタを用いて計算される。Tの選択後、r^
k(n)は、より長い長さ129の補間フィルタで再計
算される。この新しい信号は、長いほうのフィルタが
R’(T)の値を増加させた場合に限り前の値を置き換
える。
【0184】[4.2.2 短期ポストフィルタ]短期
ポストフィルタは次式で与えられる。
【数58】 ただし、A^(z)は受信された量子化LP逆フィルタ
(LP分析は復号器では行われない)であり、因子γn
およびγdは短期ポストフィルタリングの量を制御し、
γn=0.55およびγd=0.7に設定される。利得項
fは、フィルタA^(z/γn)/A^(z/γd)の
打切りインパルス応答hf(n)に対して計算され、次
式で与えられる。
【数59】
【0185】[4.2.3 傾斜補償]最後に、フィル
タHt(z)は、短期ポストフィルタHf(z)における
傾斜を補償し、次式で与えられる。
【数60】 ただし、γt1は傾斜因子であり、k1はhf(n)に対
して計算された第1反射係数であり、次式で与えられ
る。
【数61】 利得項gt=1−|γt1|は、Hf(z)におけるgf
の減少効果を補償する。さらに、積フィルタHf(z)
t(z)は一般に利得がないことが示されている。
【0186】γtに対する二つの値が、k1の符号に応じ
て用いられる。k1が負の場合、γt=0.9であり、k
1が正の場合、γt=0.2である。
【0187】[4.2.4 適応利得制御]適応利得制
御は、再構成音声信号s^(n)とポストフィルタリン
グされた信号sf(n)の間の利得差を補償するために
用いられる。現在のサブフレームに対する利得スケール
因子Gは次式により計算される。
【数62】 ポストフィルタリングされ利得スケーリングされた信号
sf’(n)は次式で与えられる。 sf’(n)=g(n)sf(n), n=0,...,39 (88) ただし、g(n)は、サンプルごとに更新され、次式で
与えられる。 g(n)=0.85g(n−1)+0.15G, n=0,...,39 (89) g(−1)の初期値は1.0である。
【0188】[4.2.5 高域フィルタリングおよび
アップスケーリング]遮断周波数100Hzにおける高
域フィルタが、再構成されポストフィルタリングされた
音声sf’(n)に適用される。このフィルタは次式で
与えられる。
【数63】
【0189】アップスケーリングは、高域フィルタリン
グされた出力に因子2を乗じて入力信号レベルを取得す
ることからなる。
【0190】[4.3 フレーム消失およびパリティ誤
りの隠蔽]ビットストリームにおけるフレーム消失また
はランダム誤りによる再構成音声の劣化を縮小するた
め、復号器に誤り隠蔽手続きが組み込まれている。この
誤り隠蔽手続きは、(i)符号器パラメータのフレーム
(10msフレームに対応する)が消失していると識別
されたとき、または(ii)ピッチ遅延インデックスP
1に対するパリティビットにチェックサム誤りが生じた
ときに機能する。後者は、ビットストリームがランダム
ビット誤りによって破損したときにも起こりうる。
【0191】パリティ誤りがP1に生じた場合、遅延値
1は前フレームの遅延の値に設定される。T2の値は、
この新しいT1の値を用いて、第4.1.2節で概説し
た手続きで導出される。連続してパリティ誤りが生じた
場合、T1の前の値を1だけインクリメントして使用す
る。
【0192】フレーム消失を検出する機構はこの勧告で
は定義されず、アプリケーションに依存することにな
る。隠蔽ストラテジは、前に受信した情報に基づいて現
在のフレームを再構成しなければならない。使用される
方法は、欠けている励振信号を、類似の特性のうちの一
つにより、そのエネルギーを徐々に減衰させながら置換
する。これは、長期予測利得に基づく有声分類子を使用
することによってなされる。長期予測利得は、長期ポス
トフィルタ分析の一部として計算される。ピッチポスト
フィルタ(第4.2.1節参照)は、予測利得が3dB
より大きい長期予測子を求める。これは、正規化相関
R’(k)(式(81))に対するしきい値を0.5に
設定することによってなされる。誤り隠蔽プロセスに対
して、これらのフレームは周期的と分類される。それ以
外の場合、フレームは非周期的であると宣言される。消
失したフレームは、先行する(再構成された)音声フレ
ームからそのクラスを継承する。注意すべき点である
が、有声分類は、この再構成音声信号に基づいて絶えず
更新される。従って、多くの連続する消失フレームに対
しては分類は変わることがある。一般に、これは、もと
の分類が周期的であった場合にのみ起こる。
【0193】消失フレームに対してとられる具体的ステ
ップは以下の通りである。 1.LPフィルタパラメータの反復。 2.適応コードブックおよび固定コードブックの利得の
減衰。 3.利得予測子のメモリの減衰。 4.置換励振の生成。
【0194】[4.3.1 LPフィルタパラメータの
反復]最後の良好なフレームのLPパラメータが使用さ
れる。LSF予測子の状態は、受信符号語liの値を含
む。現在の符号語が利用可能でないため、これは、反復
されたLSFパラメータω^iおよび予測子メモリから
次式により計算される。
【数64】
【0195】[4.3.2 適応コードブックおよび固
定コードブックの利得の減衰]前の固定コードブック利
得の減衰バージョンが使用される。 gc (m)=0.98gc (m-1) (92) 適応コードブック利得に対しても同じことが行われる。
さらに、クリッピング作用を用いてその値を0.9未満
に保つ。 gp (m)=0.90gp (m-1)かつgp (m)<0.9 (93)
【0196】[4.3.3 利得予測子のメモリの減
衰]利得予測子は、以前に選択されたコードブックのエ
ネルギーを用いる。良好なフレームを受信した後の符号
器の滑らかな連続性を可能にするため、利得予測子のメ
モリは、コードブックエネルギーの減衰バージョンで更
新される。現在のサブフレームnに対するR^(m)の値
は、平均した量子化利得予測誤りを4dBだけ減衰させ
たものに設定される。
【数65】
【0197】[4.3.4 置換励振の生成]使用され
る励振は、周期性分類に依存する。最後に正しく受信し
たフレームが周期的であると分類された場合、現在のフ
レームも同様に周期的であるとみなされる。その場合、
適応コードブックのみが使用され、固定コードブック寄
与は0に設定される。ピッチ遅延は最後に正しく受信し
たピッチ遅延に基づき、後続の各フレームに対して反復
される。過度の周期性を回避するため、遅延は、次のサ
ブフレームごとに1だけ増加されるが、143を限度と
する。適応コードブック利得は、式(93)に滴って減
衰した値に基づく。
【0198】最後に正しく受信したフレームが非周期的
であると分類された場合、現在のフレームも同様に非周
期的であるとみなされ、適応コードブック寄与は0に設
定される。固定コードブック寄与は、コードブックイン
デックスおよび符号インデックスをランダムに選択する
ことによって生成される。乱数発生器は次の関数に基づ
く。 seed=seed*31821+13849 (95) seedの初期値は21845である。ランダムなコー
ドブックインデックスは、次の乱数の13個の下位ビッ
トから導出される。ランダムな符号は、次の乱数の4個
の下位ビットから導出される。固定コードブック利得は
式(92)に従って減衰される。
【0199】[5 CS−ACELP符号器/復号器の
ビット精度での記述]16ビット固定小数点でのCS−
ACELP符号器/復号器をシミュレートするANSI
CコードがITU−Tから利用可能である。以下の節
では、このシミュレーションコードの使用法、および、
そのソフトウェアがどのように編成されているかについ
て概説する。
【0200】[5.1 シミュレーションソフトウェア
の使用法]Cコードは二つのメインプログラムからな
る。coder.cは符号器をシミュレートし、dec
oder.cは復号器をシミュレートする。符号器は次
のように実行される。 coder inputfile bstreamfi
le inputfile(入力ファイル)およびoutpu
tfile(出力ファイル)は、16ビットPCM信号
を含むサンプリングされたデータファイルである。bs
treamfile(ビットストリームファイル)は8
1個の16ビットワードを含む。第1ワードはフレーム
消失を示すために使用可能であり、残りの80ワードは
それぞれ1ビットを含む。復号器はこのビットストリー
ムファイルを受け取り、16ビットPCM信号を含むポ
ストフィルタリングされた出力ファイルを生成する。 decoder bstreamfile outpu
tfile
【0201】[5.2 シミュレーションソフトウェア
の構成]固定小数点ANSI Cシミュレーションで
は、表10に示すように2種類の固定小数点データのみ
が使用される。シミュレーションコードの実装を容易に
するため、ループインデックス、ブール値およびフラグ
は型Flagを使用する。これは、ターゲットプラット
フォームに応じて16ビットまたは32ビットのいずれ
かとなる。
【表10】
【0202】すべての計算は、あらかじめ定義された基
本演算子のセットを用いてなされる。これらの演算子の
記述を表11に示す。シミュレーション符号器によって
使用されるテーブルを表12に要約する。これらのメイ
ンプログラムは、表13、表14、および表15に要約
されるライブラリルーチンを使用する。
【表11】
【表12】
【表13】
【表14】
【表15】
【図面の簡単な説明】
【図1】代表的なCELP音声圧縮システムで使用され
るFCBシステムとACBシステムの従来の組合せと、
この組合せによって生成される励振信号の1サブフレー
ムの模式的表現の図である。
【図2】PCBおよびPPFからなる周期性モデルと、
PPF出力信号の1サブフレームの模式的表現の図であ
る。
【図3】本発明による音声符号器の実施例の図である。
【図4】本発明による復号器の実施例の図である。
【図5】CELP合成モデルの概略ブロック図である。
【図6】CS−ACELP符号器における信号フローの
図である。
【図7】CS−ACELP復号器における信号フローの
図である。
【図8】LP分析における窓の図である。異なる陰影パ
ターンは対応する励振およびLP分析フレームを識別す
る。
【符号の説明】
1 固定コードブック(FCB) 5 増幅器 10 適応コードブック(ACB) 15 増幅器 20 加算回路 25 FCB 35 遅延メモリ 40 増幅器 45 加算回路 50 PPF 100 プリプロセッサ 105 線形予測(LP)分析器 110 適応コードブック(ACB)システム 112 ACB部分 120 FCBシステム 125 遅延プロセッサ 126 スイッチ 128 PPFシステム 145 FCB増幅器 150 加算器 155 LP合成フィルタ 165 知覚重みづけフィルタ 170 ピッチ周期プロセッサ 175 平均二乗誤差(MSE)探索プロセッサ 200 固定コードブック(FCB)部分 205 FCB 210 PPF 225 遅延プロセッサ 235 FCB利得増幅器 240 適応コードブック(ACB)部分 245 ACB 250 増幅器 260 LPC合成フィルタ 265 ポストプロセッサ
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平6−120908(JP,A) 特開 平5−346798(JP,A) 特開 平5−19795(JP,A) 特開 平5−289700(JP,A) 特開 平5−113800(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10L 19/12

Claims (19)

    (57)【特許請求の範囲】
  1. 【請求項1】 適応コードブックおよび対応する適応コ
    ードブック増幅器からなる第1部分と、ピッチフィルタ
    増幅器に接続された遅延メモリを含むピッチフィルタに
    接続された固定コードブックからなる第2部分とを有す
    る音声処理システムで使用する音声処理方法において、 音声信号の周期性の尺度に基づいてピッチフィルタ利得
    を決定するステップと、 決定されたピッチフィルタ利得に基づいて前記ピッチフ
    ィルタにおいて信号のサンプルを増幅するステップとか
    らなることを特徴とする音声処理方法。
  2. 【請求項2】 適応コードブック利得が1サブフレーム
    だけ遅延されることを特徴とする請求項1の方法。
  3. 【請求項3】 適応コードブック利得を反映する信号が
    時間的に遅延されることを特徴とする請求項1の方法。
  4. 【請求項4】 適応コードブック利得を反映する信号
    は、下限以上上限以下の値を有することを特徴とする請
    求項1の方法。
  5. 【請求項5】 音声信号は符号化された音声信号からな
    ることを特徴とする請求項1の方法。
  6. 【請求項6】 音声信号は合成された音声信号からなる
    ことを特徴とする請求項1の方法。
  7. 【請求項7】 適応コードブックと、適応コードブック
    利得を加える手段とを含む第1部分と、 固定コードブックと、ピッチフィルタ利得を加える手段
    を有するピッチフィルタとを含む第2部分と、 音声信号の周期性の尺度に基づいて前記ピッチフィルタ
    利得を決定する決定手段とからなることを特徴とする音
    声処理装置。
  8. 【請求項8】 適応コードブック利得を反映する信号が
    1サブフレームだけ遅延されることを特徴とする請求項
    7の装置。
  9. 【請求項9】 前記ピッチフィルタ利得は、遅延された
    適応コードブック利得に等しいことを特徴とする請求項
    7の装置。
  10. 【請求項10】 前記ピッチフィルタ利得は0.2以上
    0.8以下の値の範囲に制限され、当該範囲内で、遅延
    された適応コードブック利得からなることを特徴とする
    請求項7の装置。
  11. 【請求項11】 適応コードブック利得を反映する信号
    は0.2以上0.8以下の値の範囲に制限され、当該範
    囲内で、適応コードブック利得からなることを特徴とす
    る請求項7の装置。
  12. 【請求項12】 前記第1部分によって出力される第1
    出力信号と前記第2部分によって出力される第2出力信
    号を加算する加算手段と、 前記加算手段に接続され、第1出力信号と第2出力信号
    の和に応答して音声信号を生成する線形予測フィルタと
    をさらに有することを特徴とする請求項7の装置。
  13. 【請求項13】 前記線形予測フィルタによって生成さ
    れる音声信号をフィルタリングするポストフィルタをさ
    らに有することを特徴とする請求項12の装置。
  14. 【請求項14】 音声符号器において使用されることを
    特徴とする請求項7の装置。
  15. 【請求項15】 音声復号器において使用されることを
    特徴とする請求項7の装置。
  16. 【請求項16】 前記決定手段は、前記第1部分におい
    て使用される適応コードブック利得を反映する信号を遅
    延させる手段を有することを特徴とする請求項7の装
    置。
  17. 【請求項17】 適応コードブックおよび対応する適応
    コードブック増幅器からなる第1部分と、決定された利
    得を加えるピッチフィルタ増幅器に接続された遅延メモ
    リを含むピッチフィルタに接続された固定コードブック
    からなる第2部分とを有する音声信号処理システムで使
    用される、ピッチフィルタの利得を決定する方法におい
    て、 音声信号の周期性に基づいてピッチフィルタ利得を決定
    するステップからなることを特徴とする、ピッチフィル
    タの利得を決定する方法。
  18. 【請求項18】 適応コードブックおよび対応する適応
    コードブック増幅器からなる第1部分と、ピッチフィル
    タ増幅器に接続された遅延メモリを含むピッチフィルタ
    に接続された固定コードブックからなる第2部分とを有
    する音声処理システムで使用する音声処理方法におい
    て、 適応コードブック利得を遅延させるステップと、 適応コードブック利得が0.2より小さい場合にはピッ
    チフィルタ利得を0.2に設定し、適応コードブック利
    得が0.8より大きい場合にはピッチフィルタ利得を
    0.8に設定し、これら二つの場合以外の場合にはピッ
    チフィルタ利得を遅延された適応コードブック利得に等
    しく設定するステップと、 設定されたピッチフィルタ利得に基づいて前記ピッチフ
    ィルタにおいて信号のサンプルを増幅するステップとか
    らなることを特徴とする音声処理方法。
  19. 【請求項19】 適応コードブックと、適応コードブッ
    ク利得を加える手段とを含む第1部分と、 固定コードブックと、ピッチフィルタ利得を加える手段
    を有するピッチフィルタと、第2利得を加える手段とを
    含む第2部分と、 適応コードブック利得が0.2より小さい場合にはピッ
    チフィルタ利得を0.2に設定し、適応コードブック利
    得が0.8より大きい場合にはピッチフィルタ利得を
    0.8に設定し、これら二つの場合以外の場合にはピッ
    チフィルタ利得を遅延された適応コードブック利得に等
    しく設定する手段とからなることを特徴とする音声処理
    装置。
JP18261296A 1995-06-07 1996-06-07 適応コードブックに基づく音声圧縮システム Expired - Lifetime JP3272953B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/482,715 US5664055A (en) 1995-06-07 1995-06-07 CS-ACELP speech compression system with adaptive pitch prediction filter gain based on a measure of periodicity
US482715 2000-01-12

Publications (2)

Publication Number Publication Date
JPH09120299A JPH09120299A (ja) 1997-05-06
JP3272953B2 true JP3272953B2 (ja) 2002-04-08

Family

ID=23917151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18261296A Expired - Lifetime JP3272953B2 (ja) 1995-06-07 1996-06-07 適応コードブックに基づく音声圧縮システム

Country Status (8)

Country Link
US (1) US5664055A (ja)
EP (1) EP0749110B1 (ja)
JP (1) JP3272953B2 (ja)
KR (1) KR100433608B1 (ja)
AU (1) AU700205B2 (ja)
CA (1) CA2177414C (ja)
DE (1) DE69613910T2 (ja)
ES (1) ES2163590T3 (ja)

Families Citing this family (256)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2729246A1 (fr) * 1995-01-06 1996-07-12 Matra Communication Procede de codage de parole a analyse par synthese
GB9512284D0 (en) * 1995-06-16 1995-08-16 Nokia Mobile Phones Ltd Speech Synthesiser
JP3653826B2 (ja) * 1995-10-26 2005-06-02 ソニー株式会社 音声復号化方法及び装置
EP0773533B1 (en) * 1995-11-09 2000-04-26 Nokia Mobile Phones Ltd. Method of synthesizing a block of a speech signal in a CELP-type coder
US5819213A (en) * 1996-01-31 1998-10-06 Kabushiki Kaisha Toshiba Speech encoding and decoding with pitch filter range unrestricted by codebook range and preselecting, then increasing, search candidates from linear overlap codebooks
US6765904B1 (en) 1999-08-10 2004-07-20 Texas Instruments Incorporated Packet networks
CN1163870C (zh) * 1996-08-02 2004-08-25 松下电器产业株式会社 声音编码装置和方法,声音译码装置,以及声音译码方法
US6192336B1 (en) 1996-09-30 2001-02-20 Apple Computer, Inc. Method and system for searching for an optimal codevector
US5794182A (en) * 1996-09-30 1998-08-11 Apple Computer, Inc. Linear predictive speech encoding systems with efficient combination pitch coefficients computation
TW326070B (en) * 1996-12-19 1998-02-01 Holtek Microelectronics Inc The estimation method of the impulse gain for coding vocoder
US6009395A (en) * 1997-01-02 1999-12-28 Texas Instruments Incorporated Synthesizer and method using scaled excitation signal
WO1998035341A2 (en) * 1997-02-10 1998-08-13 Koninklijke Philips Electronics N.V. Transmission system for transmitting speech signals
JP2000512036A (ja) * 1997-02-10 2000-09-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声信号を伝送する通信回路網
JP3067676B2 (ja) * 1997-02-13 2000-07-17 日本電気株式会社 Lspの予測符号化装置及び方法
US5970444A (en) * 1997-03-13 1999-10-19 Nippon Telegraph And Telephone Corporation Speech coding method
KR100198476B1 (ko) * 1997-04-23 1999-06-15 윤종용 노이즈에 견고한 스펙트럼 포락선 양자화기 및 양자화 방법
US6073092A (en) * 1997-06-26 2000-06-06 Telogy Networks, Inc. Method for speech coding based on a code excited linear prediction (CELP) model
US6266419B1 (en) * 1997-07-03 2001-07-24 At&T Corp. Custom character-coding compression for encoding and watermarking media content
US6240383B1 (en) * 1997-07-25 2001-05-29 Nec Corporation Celp speech coding and decoding system for creating comfort noise dependent on the spectral envelope of the speech signal
FI113571B (fi) * 1998-03-09 2004-05-14 Nokia Corp Puheenkoodaus
JP3554566B2 (ja) * 1998-05-27 2004-08-18 株式会社エヌ・ティ・ティ・ドコモ 音声復号器および音声復号方法
US6104992A (en) * 1998-08-24 2000-08-15 Conexant Systems, Inc. Adaptive gain reduction to produce fixed codebook target signal
US6385573B1 (en) * 1998-08-24 2002-05-07 Conexant Systems, Inc. Adaptive tilt compensation for synthesized speech residual
US7072832B1 (en) * 1998-08-24 2006-07-04 Mindspeed Technologies, Inc. System for speech encoding having an adaptive encoding arrangement
US6188981B1 (en) * 1998-09-18 2001-02-13 Conexant Systems, Inc. Method and apparatus for detecting voice activity in a speech signal
JP4550176B2 (ja) * 1998-10-08 2010-09-22 株式会社東芝 音声符号化方法
JP3343082B2 (ja) * 1998-10-27 2002-11-11 松下電器産業株式会社 Celp型音声符号化装置
CA2252170A1 (en) * 1998-10-27 2000-04-27 Bruno Bessette A method and device for high quality coding of wideband speech and audio signals
JP3180786B2 (ja) 1998-11-27 2001-06-25 日本電気株式会社 音声符号化方法及び音声符号化装置
SE9903553D0 (sv) * 1999-01-27 1999-10-01 Lars Liljeryd Enhancing percepptual performance of SBR and related coding methods by adaptive noise addition (ANA) and noise substitution limiting (NSL)
US6246978B1 (en) * 1999-05-18 2001-06-12 Mci Worldcom, Inc. Method and system for measurement of speech distortion from samples of telephonic voice signals
US6393394B1 (en) * 1999-07-19 2002-05-21 Qualcomm Incorporated Method and apparatus for interleaving line spectral information quantization methods in a speech coder
US6744757B1 (en) 1999-08-10 2004-06-01 Texas Instruments Incorporated Private branch exchange systems for packet communications
US6801532B1 (en) * 1999-08-10 2004-10-05 Texas Instruments Incorporated Packet reconstruction processes for packet communications
US6678267B1 (en) 1999-08-10 2004-01-13 Texas Instruments Incorporated Wireless telephone with excitation reconstruction of lost packet
US6801499B1 (en) * 1999-08-10 2004-10-05 Texas Instruments Incorporated Diversity schemes for packet communications
US6757256B1 (en) 1999-08-10 2004-06-29 Texas Instruments Incorporated Process of sending packets of real-time information
US6804244B1 (en) 1999-08-10 2004-10-12 Texas Instruments Incorporated Integrated circuits for packet communications
KR100391527B1 (ko) * 1999-08-23 2003-07-12 마츠시타 덴끼 산교 가부시키가이샤 음성 부호화 장치, 기록 매체, 음성 복호화 장치, 신호 처리용 프로세서, 음성 부호화 복호화 시스템, 통신용 기지국, 통신용 단말 및 무선 통신 시스템
US6604070B1 (en) * 1999-09-22 2003-08-05 Conexant Systems, Inc. System of encoding and decoding speech signals
US6959274B1 (en) 1999-09-22 2005-10-25 Mindspeed Technologies, Inc. Fixed rate speech compression system and method
US6782360B1 (en) * 1999-09-22 2004-08-24 Mindspeed Technologies, Inc. Gain quantization for a CELP speech coder
US6574593B1 (en) * 1999-09-22 2003-06-03 Conexant Systems, Inc. Codebook tables for encoding and decoding
US6738733B1 (en) * 1999-09-30 2004-05-18 Stmicroelectronics Asia Pacific Pte Ltd. G.723.1 audio encoder
JP3478209B2 (ja) * 1999-11-01 2003-12-15 日本電気株式会社 音声信号復号方法及び装置と音声信号符号化復号方法及び装置と記録媒体
CA2290037A1 (en) * 1999-11-18 2001-05-18 Voiceage Corporation Gain-smoothing amplifier device and method in codecs for wideband speech and audio signals
US7574351B2 (en) * 1999-12-14 2009-08-11 Texas Instruments Incorporated Arranging CELP information of one frame in a second packet
US20020016161A1 (en) * 2000-02-10 2002-02-07 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for compression of speech encoded parameters
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US7010482B2 (en) * 2000-03-17 2006-03-07 The Regents Of The University Of California REW parametric vector quantization and dual-predictive SEW vector quantization for waveform interpolative coding
EP1303854A1 (en) * 2000-07-05 2003-04-23 Koninklijke Philips Electronics N.V. Method of calculating line spectral frequencies
HUP0003009A2 (en) * 2000-07-31 2002-08-28 Herterkom Gmbh Method for the compression of speech without any deterioration of quality
US6678651B2 (en) * 2000-09-15 2004-01-13 Mindspeed Technologies, Inc. Short-term enhancement in CELP speech coding
US6850884B2 (en) 2000-09-15 2005-02-01 Mindspeed Technologies, Inc. Selection of coding parameters based on spectral content of a speech signal
US7010480B2 (en) * 2000-09-15 2006-03-07 Mindspeed Technologies, Inc. Controlling a weighting filter based on the spectral content of a speech signal
US6842733B1 (en) 2000-09-15 2005-01-11 Mindspeed Technologies, Inc. Signal processing system for filtering spectral content of a signal for speech coding
US6937979B2 (en) * 2000-09-15 2005-08-30 Mindspeed Technologies, Inc. Coding based on spectral content of a speech signal
US7363219B2 (en) * 2000-09-22 2008-04-22 Texas Instruments Incorporated Hybrid speech coding and system
KR100566163B1 (ko) * 2000-11-30 2006-03-29 마츠시타 덴끼 산교 가부시키가이샤 음성 복호화 장치, 음성 복호화 방법 및 프로그램을기록한 기록 매체
AU2002218501A1 (en) * 2000-11-30 2002-06-11 Matsushita Electric Industrial Co., Ltd. Vector quantizing device for lpc parameters
WO2002049218A1 (en) * 2000-12-14 2002-06-20 Sony Corporation Encoder and decoder
US6996523B1 (en) 2001-02-13 2006-02-07 Hughes Electronics Corporation Prototype waveform magnitude quantization for a frequency domain interpolative speech codec system
US7013269B1 (en) 2001-02-13 2006-03-14 Hughes Electronics Corporation Voicing measure for a speech CODEC system
US6931373B1 (en) 2001-02-13 2005-08-16 Hughes Electronics Corporation Prototype waveform phase modeling for a frequency domain interpolative speech codec system
US6766289B2 (en) * 2001-06-04 2004-07-20 Qualcomm Incorporated Fast code-vector searching
US7512535B2 (en) * 2001-10-03 2009-03-31 Broadcom Corporation Adaptive postfiltering methods and systems for decoding speech
ITFI20010199A1 (it) 2001-10-22 2003-04-22 Riccardo Vieri Sistema e metodo per trasformare in voce comunicazioni testuali ed inviarle con una connessione internet a qualsiasi apparato telefonico
JP4108317B2 (ja) * 2001-11-13 2008-06-25 日本電気株式会社 符号変換方法及び装置とプログラム並びに記憶媒体
US7236928B2 (en) * 2001-12-19 2007-06-26 Ntt Docomo, Inc. Joint optimization of speech excitation and filter parameters
US20040002856A1 (en) * 2002-03-08 2004-01-01 Udaya Bhaskar Multi-rate frequency domain interpolative speech CODEC system
US20030216921A1 (en) * 2002-05-16 2003-11-20 Jianghua Bao Method and system for limited domain text to speech (TTS) processing
CA2388439A1 (en) * 2002-05-31 2003-11-30 Voiceage Corporation A method and device for efficient frame erasure concealment in linear predictive based speech codecs
EP1383109A1 (fr) * 2002-07-17 2004-01-21 STMicroelectronics N.V. Procédé et dispositif d'encodage de la parole à bande élargie
EP1383110A1 (fr) * 2002-07-17 2004-01-21 STMicroelectronics N.V. Procédé et dispositif d'encodage de la parole à bande élargie, permettant en particulier une amélioration de la qualité des trames de parole voisée
US20040176950A1 (en) * 2003-03-04 2004-09-09 Docomo Communications Laboratories Usa, Inc. Methods and apparatuses for variable dimension vector quantization
KR100487719B1 (ko) * 2003-03-05 2005-05-04 한국전자통신연구원 광대역 음성 부호화를 위한 엘에스에프 계수 벡터 양자화기
KR100480341B1 (ko) * 2003-03-13 2005-03-31 한국전자통신연구원 광대역 저전송률 음성 신호의 부호화기
US7024358B2 (en) * 2003-03-15 2006-04-04 Mindspeed Technologies, Inc. Recovering an erased voice frame with time warping
EP1618557B1 (en) 2003-05-01 2007-07-25 Nokia Corporation Method and device for gain quantization in variable bit rate wideband speech coding
EP1496500B1 (en) * 2003-07-09 2007-02-28 Samsung Electronics Co., Ltd. Bitrate scalable speech coding and decoding apparatus and method
KR100668300B1 (ko) * 2003-07-09 2007-01-12 삼성전자주식회사 비트율 확장 음성 부호화 및 복호화 장치와 그 방법
US7668712B2 (en) * 2004-03-31 2010-02-23 Microsoft Corporation Audio encoding and decoding with intra frames and adaptive forward error correction
US7117147B2 (en) * 2004-07-28 2006-10-03 Motorola, Inc. Method and system for improving voice quality of a vocoder
US8265929B2 (en) * 2004-12-08 2012-09-11 Electronics And Telecommunications Research Institute Embedded code-excited linear prediction speech coding and decoding apparatus and method
DE102005000828A1 (de) 2005-01-05 2006-07-13 Siemens Ag Verfahren zum Codieren eines analogen Signals
US7983922B2 (en) * 2005-04-15 2011-07-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating multi-channel synthesizer control signal and apparatus and method for multi-channel synthesizing
US7707034B2 (en) * 2005-05-31 2010-04-27 Microsoft Corporation Audio codec post-filter
US7831421B2 (en) * 2005-05-31 2010-11-09 Microsoft Corporation Robust decoder
US7177804B2 (en) * 2005-05-31 2007-02-13 Microsoft Corporation Sub-band voice codec with multi-stage codebooks and redundant coding
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
EP2051244A4 (en) * 2006-08-08 2010-04-14 Panasonic Corp AUDIOCODING DEVICE AND AUDIOCODING METHOD
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
SG166095A1 (en) * 2006-11-10 2010-11-29 Panasonic Corp Parameter decoding device, parameter encoding device, and parameter decoding method
EP2153439B1 (en) * 2007-02-21 2018-01-17 Telefonaktiebolaget LM Ericsson (publ) Double talk detector
JP5097219B2 (ja) * 2007-03-02 2012-12-12 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 非因果性ポストフィルタ
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US9053089B2 (en) 2007-10-02 2015-06-09 Apple Inc. Part-of-speech tagging using latent analogy
US8620662B2 (en) 2007-11-20 2013-12-31 Apple Inc. Context-aware unit selection
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8065143B2 (en) 2008-02-22 2011-11-22 Apple Inc. Providing text input using speech data and non-speech data
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8464150B2 (en) 2008-06-07 2013-06-11 Apple Inc. Automatic language identification for dynamic text processing
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8768702B2 (en) 2008-09-05 2014-07-01 Apple Inc. Multi-tiered voice feedback in an electronic device
US8898568B2 (en) 2008-09-09 2014-11-25 Apple Inc. Audio user interface
US8712776B2 (en) 2008-09-29 2014-04-29 Apple Inc. Systems and methods for selective text to speech synthesis
US8583418B2 (en) 2008-09-29 2013-11-12 Apple Inc. Systems and methods of detecting language and natural language strings for text to speech synthesis
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
CN101604525B (zh) * 2008-12-31 2011-04-06 华为技术有限公司 基音增益获取方法、装置及编码器、解码器
US8504378B2 (en) * 2009-01-22 2013-08-06 Panasonic Corporation Stereo acoustic signal encoding apparatus, stereo acoustic signal decoding apparatus, and methods for the same
US8862252B2 (en) 2009-01-30 2014-10-14 Apple Inc. Audio user interface for displayless electronic device
US8380507B2 (en) 2009-03-09 2013-02-19 Apple Inc. Systems and methods for determining the language to use for speech generated by a text to speech engine
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10540976B2 (en) 2009-06-05 2020-01-21 Apple Inc. Contextual voice commands
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US8682649B2 (en) 2009-11-12 2014-03-25 Apple Inc. Sentiment prediction from textual data
US8600743B2 (en) 2010-01-06 2013-12-03 Apple Inc. Noise profile determination for voice-related feature
US8381107B2 (en) 2010-01-13 2013-02-19 Apple Inc. Adaptive audio feedback system and method
US8311838B2 (en) 2010-01-13 2012-11-13 Apple Inc. Devices and methods for identifying a prompt corresponding to a voice input in a sequence of prompts
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
DE202011111062U1 (de) 2010-01-25 2019-02-19 Newvaluexchange Ltd. Vorrichtung und System für eine Digitalkonversationsmanagementplattform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
JP5850216B2 (ja) 2010-04-13 2016-02-03 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
US8542766B2 (en) * 2010-05-04 2013-09-24 Samsung Electronics Co., Ltd. Time alignment algorithm for transmitters with EER/ET amplifiers and others
IL311020A (en) 2010-07-02 2024-04-01 Dolby Int Ab After–selective bass filter
US8713021B2 (en) 2010-07-07 2014-04-29 Apple Inc. Unsupervised document clustering using latent semantic density analysis
US8719006B2 (en) 2010-08-27 2014-05-06 Apple Inc. Combined statistical and rule-based part-of-speech tagging for text-to-speech synthesis
US8719014B2 (en) 2010-09-27 2014-05-06 Apple Inc. Electronic device with text error correction based on voice recognition data
US8738385B2 (en) * 2010-10-20 2014-05-27 Broadcom Corporation Pitch-based pre-filtering and post-filtering for compression of audio signals
US10515147B2 (en) 2010-12-22 2019-12-24 Apple Inc. Using statistical language models for contextual lookup
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US8781836B2 (en) 2011-02-22 2014-07-15 Apple Inc. Hearing assistance system for providing consistent human speech
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10672399B2 (en) 2011-06-03 2020-06-02 Apple Inc. Switching between text data and audio data based on a mapping
US8812294B2 (en) 2011-06-21 2014-08-19 Apple Inc. Translating phrases from one language into another using an order-based set of declarative rules
US8706472B2 (en) 2011-08-11 2014-04-22 Apple Inc. Method for disambiguating multiple readings in language conversion
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US8762156B2 (en) 2011-09-28 2014-06-24 Apple Inc. Speech recognition repair using contextual information
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
EP2830062B1 (en) 2012-03-21 2019-11-20 Samsung Electronics Co., Ltd. Method and apparatus for high-frequency encoding/decoding for bandwidth extension
ES2960582T3 (es) * 2012-03-29 2024-03-05 Ericsson Telefon Ab L M Cuantificador vectorial
US9070356B2 (en) * 2012-04-04 2015-06-30 Google Technology Holdings LLC Method and apparatus for generating a candidate code-vector to code an informational signal
US9263053B2 (en) * 2012-04-04 2016-02-16 Google Technology Holdings LLC Method and apparatus for generating a candidate code-vector to code an informational signal
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US8775442B2 (en) 2012-05-15 2014-07-08 Apple Inc. Semantic search using a single-source semantic model
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
WO2013185109A2 (en) 2012-06-08 2013-12-12 Apple Inc. Systems and methods for recognizing textual identifiers within a plurality of words
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US8935167B2 (en) 2012-09-25 2015-01-13 Apple Inc. Exemplar-based latent perceptual modeling for automatic speech recognition
ES2626977T3 (es) * 2013-01-29 2017-07-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Aparato, procedimiento y medio informático para sintetizar una señal de audio
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US10642574B2 (en) 2013-03-14 2020-05-05 Apple Inc. Device, method, and graphical user interface for outputting captions
US10572476B2 (en) 2013-03-14 2020-02-25 Apple Inc. Refining a search based on schedule items
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US9733821B2 (en) 2013-03-14 2017-08-15 Apple Inc. Voice control to diagnose inadvertent activation of accessibility features
US9977779B2 (en) 2013-03-14 2018-05-22 Apple Inc. Automatic supplementation of word correction dictionaries
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
KR102057795B1 (ko) 2013-03-15 2019-12-19 애플 인크. 콘텍스트-민감성 방해 처리
CN105027197B (zh) 2013-03-15 2018-12-14 苹果公司 训练至少部分语音命令系统
CN110096712B (zh) 2013-03-15 2023-06-20 苹果公司 通过智能数字助理的用户培训
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
CN110442699A (zh) 2013-06-09 2019-11-12 苹果公司 操作数字助理的方法、计算机可读介质、电子设备和系统
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
KR101809808B1 (ko) 2013-06-13 2017-12-15 애플 인크. 음성 명령에 의해 개시되는 긴급 전화를 걸기 위한 시스템 및 방법
DE112014003653B4 (de) 2013-08-06 2024-04-18 Apple Inc. Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
RU2764260C2 (ru) * 2013-12-27 2022-01-14 Сони Корпорейшн Устройство и способ декодирования
CN105023577B (zh) * 2014-04-17 2019-07-05 腾讯科技(深圳)有限公司 混音处理方法、装置和系统
CN107452391B (zh) 2014-04-29 2020-08-25 华为技术有限公司 音频编码方法及相关装置
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
EP3480811A1 (en) 2014-05-30 2019-05-08 Apple Inc. Multi-command single utterance input method
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US10251002B2 (en) * 2016-03-21 2019-04-02 Starkey Laboratories, Inc. Noise characterization and attenuation using linear predictive coding
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
AU2020205729A1 (en) 2019-01-13 2021-08-05 Huawei Technologies Co., Ltd. High resolution audio coding

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05289700A (ja) * 1992-04-09 1993-11-05 Olympus Optical Co Ltd 音声符号化装置
DE69328450T2 (de) * 1992-06-29 2001-01-18 Nippon Telegraph & Telephone Verfahren und Vorrichtung zur Sprachkodierung

Also Published As

Publication number Publication date
DE69613910D1 (de) 2001-08-23
AU5462196A (en) 1996-12-19
EP0749110A2 (en) 1996-12-18
AU700205B2 (en) 1998-12-24
EP0749110A3 (en) 1997-10-29
DE69613910T2 (de) 2002-04-04
MX9602143A (es) 1997-09-30
EP0749110B1 (en) 2001-07-18
JPH09120299A (ja) 1997-05-06
US5664055A (en) 1997-09-02
CA2177414C (en) 2000-09-19
KR100433608B1 (ko) 2004-08-30
ES2163590T3 (es) 2002-02-01
CA2177414A1 (en) 1996-12-08
KR970004369A (ko) 1997-01-29

Similar Documents

Publication Publication Date Title
JP3272953B2 (ja) 適応コードブックに基づく音声圧縮システム
JP3432082B2 (ja) フレーム消失の間のピッチ遅れ修正方法
US6813602B2 (en) Methods and systems for searching a low complexity random codebook structure
US5732389A (en) Voiced/unvoiced classification of speech for excitation codebook selection in celp speech decoding during frame erasures
JP5519334B2 (ja) 音声符号化用開ループピッチ処理
US6029128A (en) Speech synthesizer
EP1105870B1 (en) Speech encoder adaptively applying pitch preprocessing with continuous warping of the input signal
US6493665B1 (en) Speech classification and parameter weighting used in codebook search
JP3481390B2 (ja) 短期知覚重み付けフィルタを使用する合成分析音声コーダに雑音マスキングレベルを適応する方法
Lefebvre et al. High quality coding of wideband audio signals using transform coded excitation (TCX)
EP0878790A1 (en) Voice coding system and method
EP0731449A2 (en) Method for the modification of PLC coefficients of acoustic signals
JPH09127991A (ja) 音声符号化方法及び装置、音声復号化方法及び装置
EP0415675B1 (en) Constrained-stochastic-excitation coding
EP0747884B1 (en) Codebook gain attenuation during frame erasures
Galand et al. 7 KBPS—7 MIPS—High Quality ACELP for Cellular Radio
CODER ITU-Tg. 723.1
RECOMMENDATION ITU-Tg. 722.2
MXPA96002143A (en) System for speech compression based on adaptable codigocifrado, better

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080125

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090125

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100125

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100125

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100125

Year of fee payment: 8

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100125

Year of fee payment: 8

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 9

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S631 Written request for registration of reclamation of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313631

S633 Written request for registration of reclamation of name

Free format text: JAPANESE INTERMEDIATE CODE: R313633

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 9

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120125

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130125

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130125

Year of fee payment: 11

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term