JP2002509294A - 暗騒音条件下における音声符号化の方法 - Google Patents

暗騒音条件下における音声符号化の方法

Info

Publication number
JP2002509294A
JP2002509294A JP2000540536A JP2000540536A JP2002509294A JP 2002509294 A JP2002509294 A JP 2002509294A JP 2000540536 A JP2000540536 A JP 2000540536A JP 2000540536 A JP2000540536 A JP 2000540536A JP 2002509294 A JP2002509294 A JP 2002509294A
Authority
JP
Japan
Prior art keywords
background noise
adaptive codebook
codebook gain
detected
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000540536A
Other languages
English (en)
Inventor
ス,フアン−ユ
ユエン,エリック・クウォク・ファン
ベンヤッシン,アディル
シッセン,ジェス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Conexant Systems LLC
Original Assignee
Conexant Systems LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conexant Systems LLC filed Critical Conexant Systems LLC
Publication of JP2002509294A publication Critical patent/JP2002509294A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0002Codebook adaptations

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

(57)【要約】 暗騒音条件下における音声符号化の方法であって、活性音声セグメント中に合成による分析方法を用いる。しかしながら、暗騒音セグメントが検出されたときに適応符号ブック(ピッチ予測)寄与率を擬似ランダムシーケンスのソースとして用いて、暗騒音をより良く表わすようにしている。暗騒音セグメントが検出されたときに、改良された利得量子化方法も用いて、量子化された利得を用いた全励起のエネルギを量子化されていない利得を用いた全励起のエネルギと整合させている。

Description

【発明の詳細な説明】
【0001】
【発明の背景】 【発明の分野】
本発明は包括的には通信分野に関し、より特定的には符号化音声通信の分野に
関する。
【0002】
【関連技術の説明】
2人以上の人間が会話している間、一般に、人間の耳の聴くという経験全体に
おいて周囲の暗騒音が伴なう。図1は、典型的な録音された会話のアナログ音波
100を示しており、これは声の通信により生じる音声グループ104−108
とともに周囲の暗騒音信号102を含む。音声通信の送信、受信および記憶の技
術分野では、信号100の符号化および復号化に対し異なる技術がいくつかある
。信号100の符号化および復号化の技術の1つは、当業者には周知の合成によ
る分析符号化システムを用いることである。
【0003】 図2は、音声の符号化および復号化のための、先行技術の合成による分析シス
テム200の一般的な全体ブロック図を示す。図1の信号100の符号化および
復号化のための合成による分析システム200は、分析ユニット204を対応す
る合成ユニット222とともに用いる。分析ユニット204は、符号励起線形予
測(CELP)符号器といった合成による分析タイプの音声符号器を表わす。符
号励起線形予測符号器は、通信ネットワークおよび記憶容量の制約に合せるため
に中間のまたは低いビットレートで信号100を符号化する1つの方法である。
CELPに基づく音声符号器の例として、本明細書に引用により援用する、近年
採用されている国際電気通信連合(International Telecommunication Union ( ITU))G.729標準がある。
【0004】 音声を符号化するために、分析ユニット204のマイクロホン206は、図1
のアナログ音波100を入力信号として受取る。マイクロホン206は、受取っ
たアナログ音波100をアナログ−デジタル(A/D)サンプラ回路208に出
力する。アナログ−デジタルサンプラ208は、アナログ音波100をサンプリ
ングされたデジタル音声信号(離散的期間においてサンプリングされたもの)に
変換し、これが、音声信号のフォルマント構造(またはスペクトルエンベロープ
)および高調波構造それぞれを取出すために線形予測係数(LPC)抽出器21
0およびピッチ抽出器212に出力される。
【0005】 フォルマント構造は短期相関に相当し、高調波構造は長期相関に相当する。短
期相関は、得られた線形予測係数(LPC)を係数とする時間変化フィルタによ
り説明できる。長期相関も、ピッチ抽出器から得られた係数を係数とする時間変
化フィルタにより説明できる。入来する音声信号をLPCフィルタでフィルタリ
ングすることにより、短期相関が除去され、LPC残差信号が生成される。残っ
た長期相関を除去するために、ピッチフィルタはこのLPC残差信号をさらに処
理する。得られた信号が全残差信号である。この残差信号を逆ピッチおよびLP
Cフィルタ(合成フィルタとも呼ばれる)に通せば、元の音声信号が回復または
合成される。音声符号化のコンテクストでは、ビットレート低減のためにこの残
差信号を量子化(符号化)しなければならない。量子化された残差信号は励起信
号と呼ばれ、この信号は、元の音声信号に近い複製を生成するために量子化ピッ
チおよびLPC合成フィルタ双方に通される。音声の合成による分析CELP符
号化のコンテクストでは、量子化された残差を、通常固定符号ブックと呼ばれる
符号ブック214から得る。この方法はITU G.729の文献に詳細に説明
されている。
【0006】 図2の固定符号ブック214は、記憶された、符号ベクトルと呼ばれるデジタ
ルパターンを特定数含む。通常は、固定符号ブック214を、当業者には既知で
ある何らかの知覚的な様式で残差信号を最もよく表わす符号ベクトルを得るため
に探索する。選択された符号ベクトルは、典型的には固定励起信号と呼ばれる。
残差信号を表わす最良の符号ベクトルを決定した後、固定符号ブックユニット2
14はまた、固定励起信号の利得ファクタを計算する。次のステップは、固定励
起信号をピッチ合成フィルタに通すことである。これは通常、当業者には既知の
「閉ループ」様式で最適ピッチ利得および遅れを求めるために適応符号ブック探
索方法を用いて実現される。「閉ループ」方法または合成による分析は、整合す
べき信号をフィルタリングすることを意味する。最適ピッチ利得および遅れによ
り、いわゆる適応励起信号を生成することができる。次に、適応および固定符号
ブック励起双方に対して求めた利得ファクタを、「閉ループ」様式で、利得量子
化器216により、インデックスを備えたルックアップテーブルを用いて量子化
するが、これは当業者には周知の量子化案である。固定符号ブック214からの
最良の固定励起のインデックスは、量子化された利得、ピッチ遅れおよびLPC
係数とともに、記憶/送信器ユニット218に送られる。
【0007】 次に、分析ユニット204の記憶/送信器218(図2)は、全てが受信した
アナログ音波信号100を表わすものである、ピッチ遅れ、ピッチ利得、線形予
測係数、固定励起符号ベクトルおよび固定励起符号ベクトル利得を、通信ネット
ワーク220を介して合成ユニット222に送信する。合成ユニット222は、
記憶/送信器218から受けた異なるパラメータを復号化し、合成された音声信
号を得る。人々が合成された音声信号を聞くことができるようにするため、合成
ユニット222は合成された音声信号をスピーカ224に出力する。
【0008】 図2を参照して先に述べた合成による分析システム200を用いて、高品質の
音声符号器を実現することに成功している。当業者であれば自然音声を非常に低
いビットレートで高品質に符号化できることを理解できるであろう。低ビットレ
ートでの高品質符号化は、符号ベクトルが非常にまばらである(すなわち非ゼロ
エレメントがほとんどない)固定励起符号ブック214を用いることにより可能
である。たとえば、ITU推薦G.729には非ゼロパルスが5ms当り4つし
かない。しかしながら、周囲の暗騒音により音声が転訛したとき、こうした符号
化システムの知覚される性能は劣化する。この劣化を修復できるのは、固定符号
ブック214が高密度の非ゼロ擬似ランダム符号ベクトルを含む場合およびCE
LPシステムにおける波形整合規準が緩和される場合のみである。
【0009】 マルチモード符号化および混合励起の使用を含む優れた解決策が、暗騒音条件
下における音声品質向上のために提案されている。しかしながら、通常こういっ
た解決策は、非常に複雑になるか伝送エラーが非常に生じやすいといった望まし
くない状況を招く。本発明はこの問題と戦うための簡単な解決策を提供する。
【0010】
【発明の目的および概要】
本発明は、周囲に暗騒音があるときに符号化された音声の品質を向上させるた
めのシステムおよび方法を含む。ほとんどの合成による分析音声符号器にとって
、ピッチ予測寄与率は、有声セグメント中の音声の周期性を表わすことを意味す
る。ピッチ予測器のある実施例は、当業者には周知の適応符号ブックの形式であ
る。音声の暗騒音セグメントに対し、ピッチ予測寄与率が表わす長期相関は、不
十分であるかまたは存在しないことさえある。しかしながら、ピッチ予測寄与率
は、サンプル内容に富むため、暗騒音符号化にとってより適切な所望の擬似ラン
ダムシーケンスのための優れたソースを表わす。
【0011】 本発明は、入力信号の活性部分(活性の声)を入力信号の不活性部分(暗騒音
)から区別する分類器を含む。活性声セグメント中に、従来の合成による分析シ
ステムは符号化のために呼出される。しかしながら、暗騒音セグメント中に、本
発明は、ピッチ予測寄与率を適切な方法により求めた擬似ランダムシーケンスの
ソースとして用いる。本発明はまた、ピッチ予測寄与率に対し適切な利得ファク
タを求める。活性声セグメントおよび暗騒音セグメント双方に対して同じピッチ
予測器ユニットおよび対応する利得量子化器ユニットを用いるので、合成ユニッ
トを変更する必要がない。このことは、分析ユニットから合成ユニットに送信さ
れる情報のフォーマットが常に同じであることを意味しており、伝送エラーが生
じにくい。
【0012】 本明細書に組み込まれてその一部を構成する添付の図面は、本発明の実施例を
示し、その説明とともに本発明の原理を説明する役割を果たしている。
【0013】
【好ましい実施例の詳細な説明】
周囲の暗騒音が存在するときに符号化された音声の品質を向上させるための本
発明、システム、および方法についての以下の詳細な説明において、本発明の十
分な理解のために多数の特定的な詳細を述べている。しかしながら、当業者にと
っては、こうした特定的な詳細がなくても本発明を実施し得ることが明らかであ
ろう。これ以外は、本発明の局面を不必要に理解し難くしないよう、周知の方法
、手順、構成要素および回路については詳細に説明していない。
【0014】 本発明は符号化音声通信の分野内で動作する。具体的に、図3は、本発明が動
作する、通信および記憶のために音声を符号化および復号化するのに用いる合成
による分析システム300の一般的な全体図を示す。分析ユニット304は、暗
騒音を伴なう声通信を表現するものからなる信号である会話信号100を受取る
。信号100は、マイクロホン206により捕らえられ、A/Dサンプラ回路2
08によりデジタル音声信号にデジタル化される。このデジタル音声は分類器ユ
ニット310およびLPC抽出器210に出力される。
【0015】 図3の分類器ユニット310は、入力信号100に含まれる非音声期間(たと
えば暗騒音のみの期間)を、音声期間から区別する。(G.729付録B推薦を
参照。分類器ユニット310のようなボイスアクティビティ検出器(VAD)に
ついての説明がある。)分類器ユニット310は、入力信号100の非音声期間
を決定すると、その表示を信号328としてピッチ抽出器314および利得量子
化器318に送る。ピッチ抽出器314は、信号328を用いてピッチ予測寄与
率を最良に求める。利得量子化器314は、信号328を用いて、ピッチ予測寄
与率および固定符号ブック寄与率に対する利得ファクタを最良に量子化する。
【0016】 図4は、本発明の実施例に従う図3のピッチ抽出器ユニット314の一実施例
である、ピッチ抽出器400のブロック図を示す。信号328(分類器ユニット
310から得たもの)が、現在の信号330が活性声セグメントであることを示
す場合は、ピッチ予測ユニット探索406を用いる。従来の合成による分析方法
(例としてG.729推薦を参照)を用いて、ピッチ予測ユニット406は、現
在のセグメントのピッチ期間を発見し、適応符号ブックに基づいて寄与率を生成
する。次に、利得計算ユニット408は、対応する利得ファクタを計算する。
【0017】 信号328が、現在の信号330が暗騒音セグメントであることを示す場合は
、励起探索ユニット402が、擬似ランダム励起を最も良く表わす適応符号ブッ
クからの符号ベクトルを寄与率として選択する。この実施例では、最良の符号ベ
クトルを選択するために、利得基準化適応符号ブック寄与率のエネルギをLPC
残差信号330のエネルギと整合させる。具体的には、徹底的な探索を利用して
、以下のエラー規準を最小にする適応符号ブックのための最良のインデックスを
求める。式中Lは符号ベクトルの長さである。(式中indexはインデックスを意 味し、residualは残差を意味する。)
【0018】
【数1】
【0019】 この探索は励起探索ユニット402において実行され、次に、適応符号ブック
利得(ピッチ利得)Gindexを以下のようにして利得計算ブロック404におい て計算する。
【0020】
【数2】
【0021】 活性声および暗騒音セグメント双方に対し同じ適応符号ブックを用いる。適応
符号ブックに対し最良のインデックスが発見されると(ピッチ遅れ)、適応符号
ブック利得ファクタが以下のようにして求められる。
【0022】
【数3】
【0023】 ピッチ抽出器ユニット314および固定符号ブックユニット214がそれぞれ
最良のピッチ予測寄与率および符号ブック寄与率を求めると、対応する利得ファ
クタが利得量子化器ユニット318により量子化される。活性声セグメントに対
し、利得ファクタは従来の合成による分析方法を用いて量子化される。しかしな
がら、暗騒音セグメントについては、適応符号ブックを擬似ランダムシーケンス
のソースとして用いることにより得られる利点を完全なものにするためには異な
る利得量子化方法が必要である。しかしながら、この量子化技術は、ピッチ予測
寄与率を従来の方法を用いて得る場合でも用いることが可能であろう。以下の式
は、本発明の量子化方法を示しており、ここでは量子化された利得(Eq cp)を 用いた全励起のエネルギを、量子化されていない利得(Euq cp)を用いた全励起
のエネルギと整合させている。具体的に、徹底的な探索を行なって、以下のエラ
ー規準を最小にする量子化された利得を求めている。
【0024】
【数4】
【0025】 活性声および暗騒音セグメント双方に対し同じ利得量子化器ユニット318を用
いる。
【0026】 活性声および暗騒音セグメント双方に対し同じ適応符号ブックおよび利得量子
化器テーブルを用いるため、合成ユニット222は変らないままである。このこ
とは、分析ユニット304から合成ユニット222に送信される情報のフォーマ
ットが常に同じであり、マルチモード符号化を用いるシステムと比較して送信エ
ラーが生じにくいことを意味している。
【0027】 図5(A)および図5(B)は、利得基準化適応符号ブックおよび固定励起符
号ブック寄与率を組合せたものを示す。典型的な暗騒音セグメントに対し、図5
(A)に示した信号は、従来の合成による分析システムにより生成された組合さ
れた寄与率である。同じ暗騒音セグメントに対し、図5(B)に示した信号は、
本発明により生成された組合された寄与率である。図5(B)の信号が図5(A
)の信号よりもサンプル内容に富んでいることは明らかである。したがって、本
発明を用いて合成された暗騒音の品質は、知覚的に優れている。
【0028】 本発明の特定的な実施例の上記の説明は、例示および説明を目的として行なっ
ている。この説明は、全てを網羅すること、または本発明を開示した形態そのも
のに限定することを意図しているのではなく、明らかに、上記の教示から多数の
変形および修正が可能である。実施例を選択および説明した目的は、本発明の原
理およびその実際の応用を最良に説明することによって、当業者が、本発明およ
び種々の変形を伴なう種々の実施例を、意図する特定の用途に適するように最も
うまく利用できるようにすることである。本発明の範囲が前掲の特許請求の範囲
およびその等価物によって定められることが意図されている。
【図面の簡単な説明】
【図1】 信号を通して周囲の暗騒音を含む典型的な音声会話のアナログ音
波を示す。
【図2】 音声の符号化および復号化のための先行技術の合成による分析シ
ステムの一般的な全体ブロック図を示す。
【図3】 本発明が動作する音声の符号化および復号化のための合成による
分析システムの一般的な全体図を示す。
【図4】 図3の合成による分析システム内に位置する、本発明のある実施
例に従うピッチ抽出ユニットの一実施例のブロック図を示す。
【図5A】 典型的な暗騒音セグメントに対する、利得基準化適応符号ブッ
クおよび固定励起符号ブック寄与率を組合せたものを示す。
【図5B】 典型的な暗騒音セグメントに対する、利得基準化適応符号ブッ
クおよび固定励起符号ブック寄与率を組合せたものを示す。
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,SD,SZ,UG,ZW),EA(AM ,AZ,BY,KG,KZ,MD,RU,TJ,TM) ,AL,AM,AT,AU,AZ,BA,BB,BG, BR,BY,CA,CH,CN,CU,CZ,DE,D K,EE,ES,FI,GB,GE,GH,GM,HR ,HU,ID,IL,IS,JP,KE,KG,KP, KR,KZ,LC,LK,LR,LS,LT,LU,L V,MD,MG,MK,MN,MW,MX,NO,NZ ,PL,PT,RO,RU,SD,SE,SG,SI, SK,SL,TJ,TM,TR,TT,UA,UG,U Z,VN,YU,ZW (71)出願人 4311 Jamboree Road, N ewport Beach, Calif ornia 92660−3095 United States of America (72)発明者 ユエン,エリック・クウォク・ファン アメリカ合衆国、92612 カリフォルニア 州、アービン、ビア・ルッカ、25、ジィ・ 311 (72)発明者 ベンヤッシン,アディル アメリカ合衆国、92606 カリフォルニア 州、アービン、レジオ・アイル、1305 (72)発明者 シッセン,ジェス アメリカ合衆国、92677 カリフォルニア 州、ラグナ・ニゲル、パシフィック・アイ ランド・ドライブ、30252、ナンバー・201 Fターム(参考) 5D045 CA04 CA10 CC01 5J064 AA01 BA13 BB03 BB12 BC16 BC27 BD02

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 音声符号化の方法であって、 入力音声信号をデジタル化するステップと、 前記デジタル化された入力音声信号内の活性声および暗騒音セグメントを検出
    するステップと、 前記デジタル化された入力音声信号の線形予測係数(LPC)およびLPC残
    差信号を求めるステップと、 活性音声セグメントが検出されたときに合成による分析方法に従い前記線形予
    測係数および前記デジタル化された入力音声信号からピッチ予測寄与率を求める
    ステップと、 暗騒音セグメントが検出されるたびに適応符号ブック寄与率を擬似ランダムシ
    ーケンスのソースとして用いて前記線形予測係数および前記デジタル化された入
    力音声信号からピッチ予測寄与率を求めるステップとを含む、音声符号化の方法
  2. 【請求項2】 活性声セグメントが検出されたときに合成による分析方法に
    従い適応符号ブック利得ファクタを計算するステップと、 暗騒音セグメントが検出されたときに利得基準化適応符号ブック寄与率を前記
    LPC残差信号のエネルギと整合させることにより適応符号ブック利得ファクタ
    を計算するステップとをさらに含む、請求項1に記載の方法。
  3. 【請求項3】 活性声セグメントが検出されたときに合成による分析方法に
    従い固定符号ブック利得ファクタおよび前期適応符号ブック利得ファクタを量子
    化するステップと、 暗騒音セグメントが検出されるたびに量子化された利得を用いた全励起のエネ
    ルギを量子化されていない利得を用いた全励起のエネルギと整合させることによ
    り前期固定符号ブック利得ファクタおよび前期適応符号ブック利得ファクタを量
    子化するステップとをさらに含む、請求項2に記載の方法。
  4. 【請求項4】 より良い暗騒音再生のために適応符号ブック寄与率を暗騒音
    セグメントのための擬似ランダムシーケンスのソースとして用いる、暗騒音条件
    下における音声符号化の方法。
  5. 【請求項5】 音声符号化の方法であって、 入力音声信号をデジタル化するステップと、 前記デジタル化された入力音声信号内の活性声および暗騒音セグメントを検出
    するステップと、 前記デジタル化された入力音声信号の線形予測係数およびLPC残差信号を求
    めるステップと、 前記線形予測係数および前記デジタル化された音声信号からピッチ予測寄与率
    を求めるステップと、 活性声セグメントが検出されたときに合成による分析方法に従い固定符号ブッ
    ク利得ファクタおよび適応符号ブック利得ファクタを量子化するステップと、 暗騒音セグメントが検出されるたびに量子化された利得を用いた全励起のエネ
    ルギを量子化されていない利得を用いた全励起のエネルギと整合させることによ
    り前記固定符号ブック利得ファクタおよび前記適応符号ブック利得ファクタを量
    子化するステップとを含む、音声符号化の方法。
  6. 【請求項6】 固定符号ブック利得および適応符号ブック利得を量子化する
    方法であって、 活性声セグメントが検出されたときに合成による分析方法に従い固定符号ブッ
    ク利得および適応符号ブック利得を量子化するステップと、 暗騒音セグメントが検出されるたびに量子化された利得を用いた全励起のエネ
    ルギを量子化されていない利得を用いた全励起のエネルギと整合させることによ
    り前記固定符号ブック利得および前記適応符号ブック利得を量子化するステップ
    とを含む、固定符号ブック利得および適応符号ブック利得を量子化する方法。
JP2000540536A 1998-01-13 1998-11-25 暗騒音条件下における音声符号化の方法 Withdrawn JP2002509294A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/006,422 1998-01-13
US09/006,422 US6104994A (en) 1998-01-13 1998-01-13 Method for speech coding under background noise conditions
PCT/US1998/025254 WO1999036906A1 (en) 1998-01-13 1998-11-25 Method for speech coding under background noise conditions

Publications (1)

Publication Number Publication Date
JP2002509294A true JP2002509294A (ja) 2002-03-26

Family

ID=21720805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000540536A Withdrawn JP2002509294A (ja) 1998-01-13 1998-11-25 暗騒音条件下における音声符号化の方法

Country Status (6)

Country Link
US (2) US6104994A (ja)
EP (1) EP1048024B1 (ja)
JP (1) JP2002509294A (ja)
AU (1) AU1537899A (ja)
DE (1) DE69808339T2 (ja)
WO (1) WO1999036906A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6104994A (en) * 1998-01-13 2000-08-15 Conexant Systems, Inc. Method for speech coding under background noise conditions
US6353808B1 (en) * 1998-10-22 2002-03-05 Sony Corporation Apparatus and method for encoding a signal as well as apparatus and method for decoding a signal
US6691084B2 (en) 1998-12-21 2004-02-10 Qualcomm Incorporated Multiple mode variable rate speech coding
SE9903553D0 (sv) * 1999-01-27 1999-10-01 Lars Liljeryd Enhancing percepptual performance of SBR and related coding methods by adaptive noise addition (ANA) and noise substitution limiting (NSL)
US6937978B2 (en) * 2001-10-30 2005-08-30 Chungwa Telecom Co., Ltd. Suppression system of background noise of speech signals and the method thereof
US7065486B1 (en) * 2002-04-11 2006-06-20 Mindspeed Technologies, Inc. Linear prediction based noise suppression
US6973339B2 (en) * 2003-07-29 2005-12-06 Biosense, Inc Lasso for pulmonary vein mapping and ablation
US20050102476A1 (en) * 2003-11-12 2005-05-12 Infineon Technologies North America Corp. Random access memory with optional column address strobe latency of one
CN1815552B (zh) * 2006-02-28 2010-05-12 安徽中科大讯飞信息科技有限公司 基于线谱频率及其阶间差分参数的频谱建模与语音增强方法
US20080109217A1 (en) * 2006-11-08 2008-05-08 Nokia Corporation Method, Apparatus and Computer Program Product for Controlling Voicing in Processed Speech
CN101286320B (zh) * 2006-12-26 2013-04-17 华为技术有限公司 增益量化系统用于改进语音丢包修补质量的方法
US8688437B2 (en) 2006-12-26 2014-04-01 Huawei Technologies Co., Ltd. Packet loss concealment for speech coding
ES2391228T3 (es) 2007-02-26 2012-11-22 Dolby Laboratories Licensing Corporation Realce de voz en audio de entretenimiento
CN101609677B (zh) * 2009-03-13 2012-01-04 华为技术有限公司 一种预处理方法、装置及编码设备
JP5994639B2 (ja) * 2011-02-01 2016-09-21 日本電気株式会社 有音区間検出装置、有音区間検出方法、及び有音区間検出プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58140798A (ja) * 1982-02-15 1983-08-20 株式会社日立製作所 音声ピツチ抽出方法
US4969192A (en) * 1987-04-06 1990-11-06 Voicecraft, Inc. Vector adaptive predictive coder for speech and audio
US5276765A (en) * 1988-03-11 1994-01-04 British Telecommunications Public Limited Company Voice activity detection
DE69233502T2 (de) * 1991-06-11 2006-02-23 Qualcomm, Inc., San Diego Vocoder mit veränderlicher Bitrate
US5495555A (en) * 1992-06-01 1996-02-27 Hughes Aircraft Company High quality low bit rate celp-based speech codec
FR2702590B1 (fr) * 1993-03-12 1995-04-28 Dominique Massaloux Dispositif de codage et de décodage numériques de la parole, procédé d'exploration d'un dictionnaire pseudo-logarithmique de délais LTP, et procédé d'analyse LTP.
US5784532A (en) * 1994-02-16 1998-07-21 Qualcomm Incorporated Application specific integrated circuit (ASIC) for performing rapid speech compression in a mobile telephone system
US5651090A (en) * 1994-05-06 1997-07-22 Nippon Telegraph And Telephone Corporation Coding method and coder for coding input signals of plural channels using vector quantization, and decoding method and decoder therefor
US5570454A (en) * 1994-06-09 1996-10-29 Hughes Electronics Method for processing speech signals as block floating point numbers in a CELP-based coder using a fixed point processor
GB2297465B (en) * 1995-01-25 1999-04-28 Dragon Syst Uk Ltd Methods and apparatus for detecting harmonic structure in a waveform
JP3522012B2 (ja) * 1995-08-23 2004-04-26 沖電気工業株式会社 コード励振線形予測符号化装置
JPH0990974A (ja) * 1995-09-25 1997-04-04 Nippon Telegr & Teleph Corp <Ntt> 信号処理方法
US6104994A (en) * 1998-01-13 2000-08-15 Conexant Systems, Inc. Method for speech coding under background noise conditions

Also Published As

Publication number Publication date
DE69808339T2 (de) 2003-08-07
WO1999036906A1 (en) 1999-07-22
EP1048024A1 (en) 2000-11-02
EP1048024B1 (en) 2002-09-25
US6205423B1 (en) 2001-03-20
US6104994A (en) 2000-08-15
DE69808339D1 (de) 2002-10-31
AU1537899A (en) 1999-08-02

Similar Documents

Publication Publication Date Title
JP4662673B2 (ja) 広帯域音声及びオーディオ信号復号器における利得平滑化
JP3490685B2 (ja) 広帯域信号の符号化における適応帯域ピッチ探索のための方法および装置
US5778335A (en) Method and apparatus for efficient multiband celp wideband speech and music coding and decoding
JP4870313B2 (ja) 可変レート音声符号器におけるフレーム消去補償方法
KR100679382B1 (ko) 가변 속도 음성 코딩
KR100615113B1 (ko) 주기적 음성 코딩
US6694293B2 (en) Speech coding system with a music classifier
JP3234609B2 (ja) 32Kb/sワイドバンド音声の低遅延コード励起線型予測符号化
KR100487943B1 (ko) 음성 코딩
US20010016817A1 (en) CELP-based to CELP-based vocoder packet translation
JP4176349B2 (ja) マルチモードの音声符号器
JP2003532149A (ja) 音声発話を予測的に量子化するための方法および装置
JP2002533963A (ja) 符号化通信信号の性能改良のための符号化された改良特性
JP2002509294A (ja) 暗騒音条件下における音声符号化の方法
JP2002530705A (ja) 音声の無声セグメントの低ビットレート符号化
EP2945158B1 (en) Method and arrangement for smoothing of stationary background noise
EP1204968B1 (en) Method and apparatus for subsampling phase spectrum information
EP1597721B1 (en) 600 bps mixed excitation linear prediction transcoding
JP2002544551A (ja) 遷移音声フレームのマルチパルス補間的符号化
WO1999057715A1 (en) A system and method to improve the quality of coded speech coexisting with background noise
US20030055633A1 (en) Method and device for coding speech in analysis-by-synthesis speech coders
JP4230550B2 (ja) 音声符号化方法及び装置、並びに音声復号化方法及び装置

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060207