JP2016527541A - 快適ノイズの適応スペクトル形状を生成するための装置及び方法 - Google Patents

快適ノイズの適応スペクトル形状を生成するための装置及び方法 Download PDF

Info

Publication number
JP2016527541A
JP2016527541A JP2016520527A JP2016520527A JP2016527541A JP 2016527541 A JP2016527541 A JP 2016527541A JP 2016520527 A JP2016520527 A JP 2016520527A JP 2016520527 A JP2016520527 A JP 2016520527A JP 2016527541 A JP2016527541 A JP 2016527541A
Authority
JP
Japan
Prior art keywords
audio signal
received
noise
signal
coefficients
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016520527A
Other languages
English (en)
Other versions
JP6360165B2 (ja
Inventor
ミヒャエル シュナーベル、
ミヒャエル シュナーベル、
ゴーラン マールコヴィッチ、
ゴーラン マールコヴィッチ、
ラルフ シュペルシュナイダー、
ラルフ シュペルシュナイダー、
ジェレミー ルコント、
ジェレミー ルコント、
クリスティアン ヘルムリヒ、
クリスティアン ヘルムリヒ、
Original Assignee
フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー.
フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー., フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. filed Critical フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー.
Publication of JP2016527541A publication Critical patent/JP2016527541A/ja
Application granted granted Critical
Publication of JP6360165B2 publication Critical patent/JP6360165B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/002Dynamic bit allocation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • G10L19/07Line spectrum pair [LSP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/083Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being an excitation gain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/09Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0002Codebook adaptations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0011Long term prediction filters, i.e. pitch estimation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0016Codebook for LPC parameters

Abstract

符号化音声信号を復号して再構成音声信号を得るための装置が提供される。当該装置は、1つ以上のフレームを受信するための受信インターフェース(1110)と、係数生成部(1120)と、信号再構成部(1130)とを備える。係数生成部(1120)は、1つ以上のフレームのうちの現在のフレームが受信インターフェース(1110)によって受信されており、且つ受信インターフェース(1110)によって受信されている現在のフレームが破損していない場合、現在のフレームに含まれる1つ以上の第1の音声信号係数を決定するように構成され、前記1つ以上の第1の音声信号係数は、符号化音声信号の特性を示し、1つ以上のノイズ係数が、符号化音声信号の背景ノイズを示す。更に、係数生成部(1120)は、現在のフレームが受信インターフェース(1110)によって受信されていない場合、又は受信インターフェース(1110)によって受信されている現在のフレームが破損している場合、1つ以上の第1の音声信号係数と1つ以上のノイズ係数とに応じて1つ以上の第2の音声信号係数を生成するように構成される。音声信号再構成部(1130)は、現在のフレームが受信インターフェース(1110)によって受信されており、且つ受信インターフェース(1110)によって受信されている現在のフレームが破損していない場合、1つ以上の第1の音声信号係数に応じて再構成音声信号の第1の部分を再構成するように構成される。更に、音声信号再構成部(1130)は、現在のフレームが受信インターフェース(1110)によって受信されていない場合、又は受信インターフェース(1110)によって受信されている現在のフレームが破損している場合、1つ以上の第2の音声信号係数に応じて再構成音声信号の第2の部分を再構成するように構成される。【選択図】図11

Description

本発明は、音声信号符号化、処理及び復号に関するものであり、特に、エラー封じ込め中に切り替え音声符号化システムについての向上した信号フェードアウトのための装置及び方法に関するものである。
以下、パケット損失封じ込め(PLC)中の言語音声及び音声コーデック・フェードアウトに関する先行技術について説明する。先行技術についての説明では、まずGシリーズ(G.718、G.719、G722、G.722.1、G.729、G.729.1)のITU−Tコーデックについて述べ、次に3GPPコーデック(AMR、AMR−WB、AMR−WB+)及び1種類のIETFコーデック(OPUS)について述べ、最後にMPEGコーデック(HE−AAC、HILN)(ITU=国際電気通信連合;3GPP=第3世代パートナーシッププロジェクト;AMR=適応マルチレート;WB=広帯域;IETF=インターネット工学タスクフォース)について述べる。続いて、背景ノイズレベルのトレースに関する先行技術についての分析を行い、その後概略となる概要を述べる。
まず、G.718について検討する。G.718は、狭帯域及び広帯域の言語音声コーデックであり、DTX/CNG(DTX=デジタルシアターシステム;CNG=快適ノイズ生成)をサポートする。実施例は、特に低遅延符号に関するため、ここでは低遅延バージョンモードについてより詳細に説明する。
ACELP(第1層)(ACELP=代数符号励振線形予測)に関し、ITU−Tは、G.718[ITU08a、7.11節]についてフェード速度を制御するための線形予測領域における適応フェードアウトを推奨している。一般的に、封じ込めは以下の原理に従う。
G.718によると、フレーム消去の場合、封じ込め戦略は、信号エネルギー及びスペクトル包絡線の、背景ノイズの推定パラメータへの収束として概括することができる。信号の周期性は、ゼロへ収束される。収束の速度は、最後に正しく受信したフレームのパラメータと、連続する消去されたフレームの数とに依存し、減衰定数αによって制御される。減衰因数αは、更に、「無声」フレームについてのLPフィルタ(LP=線形予測)の安定度θに依存する。一般的に、収束は、最後の良好な受信フレームが安定なセグメントにある場合は遅く、フレームが遷移セグメントにある場合は速い。
減衰因数αは、[ITU08a、6.8.1.3.1及び7.11.1.1節]に記載の信号分類から導き出される言語音声信号クラスに依存する。安定度定数θは、隣接するISF(インミッタンススペクトル周波数)フィルタ[ITU08a、7.1.2.4.2節]間の距離測定値に基づいて計算される。
表1は、αの計算方式を示す。
Figure 2016527541
表1:減衰定数αの値。値θは、隣接するLPフィルタ間の距離測定値から計算された安定度定数である。[ITU08a、7.1.2.4.2節]
更に、G.718は、スペクトル包絡線に変更を加えるためのフェード方法を提供している。一般的な考えは、適応ISF平均ベクトルへ向けて最後のISFパラメータを収束させることである。最初に、最後の3つの既知のISFベクトルから平均ISFベクトルを算出する。次に、この平均ISFベクトルは、オフラインで学習された長期ISFベクトル(これは一定のベクトルである)によって再び平均される[ITU08a、7.11.1.2節]。
更に、G.718は、長期挙動、及び従って背景ノイズとの相互作用、を制御するためのフェード方法を提供しており、ここでピッチ励振エネルギー(及び従って励振周期性)は0へ収束する一方、ランダム励振エネルギーはCNG励振エネルギーに収束する[ITU08a、7.11.1.6節]。新規ゲイン減衰は、
Figure 2016527541
として計算され、ここで、gs [1]は、次のフレームの開始時の新規ゲインであり、gs [0]は、現在のフレームの開始時の新規ゲインであり、gnは、快適ノイズ生成中に用いられる励振のゲインであり、そして減衰定数αである。
周期的励振減衰と同様、ゲインは、gs [0]で始まってサンプル毎にフレーム全体に亘って線形に減衰させられ、次のフレームの開始時にgs [1]に達する。
図2は、G.718のデコーダ構造の概略を示す。特に、図2は、ハイパスフィルタを特徴とするPLCの高レベルG.718デコーダ構造を示す。
上述のG.718の方策によって、新規ゲインgsは、パケット損失の長いバーストについて快適ノイズ生成gn中に用いられるゲインに収束する。[ITU08a、6.12.3節]に記載のように、快適ノイズゲインgnは、エネルギーE〜の平方根として与えられる。E〜の更新の条件は詳細に記載されていない。参照実現(浮動小数点Cコード、stat_noise_uv_mod.c)に従い、E〜は、以下のように導出され、
Figure 2016527541
ここで、unvoiced_vadは、発話区間検出を保持し、unv_cntは、行における無声フレームの数を保持し、lp_gaincは、固定コードブックの低域通過ゲインを保持し、lp_enerは、低域通過CNGエネルギー推定値E〜を保持する(これは0で初期化される)。
更に、G.718は、最後の良好なフレームの信号が「無声」とは異なって分類された場合、無声励振の信号経路へ導入されるハイパスフィルタを提供している。図2を参照。また、[ITU08a、7.11.1.6節]を参照。このフィルタは、低い放置特性を有し、直流での周波数応答はナイキスト周波数よりも約5dB低い。
更に、G.718は、結合解除されたLTPフィードバックループ(LTP=長期予測)を提案している。通常動作中は、適応コードブックについてのフィードバックループは、全励振に基づいてサブフレーム単位で更新される([ITU08a、7.1.2.1.4節])。封じ込め中は、このフィードバックループは、有声励振のみに基づいてフレーム単位で更新される([ITU08a、7.11.1.4節、7.11.2.4節、7.11.1.6節、7.11.2.6節を参照。dec_GV_exc@dec_gen_voic.c及びsyn_bfi_post@syn_bfi_pre_post.c])。この方策では、適応コードブックは、ランダムに選択された新規励振によって、由来を有するノイズで「汚染」されない。
G.718の変換符号化強化層(3−5)に関し、封じ込め中のデコーダの挙動は、高い層の復号に関して通常動作と同様であるが、但しMDCTスペクトルはゼロに設定される。特別なフェードアウト挙動は封じ込め中に適用されない。
CNGに関し、G.718において、CNG合成は以下の順序で行われる。最初に、快適ノイズフレームのパラメータが復号される。次に、快適ノイズフレームが合成される。その後、ピッチバッファがリセットされる。次に、FER(フレームエラー回復)分類についての合成が保存される。その後、スペクトル強調解除が行われる。そして、低周波数の後フィルタリングが行われる。そして、CNG変数が更新される。
封じ込めの場合、丁度同じことが行われるが、但しCNGパラメータはビットストリームから復号されない。これは、パラメータは、フレーム損失中、更新されないが、最後の良好なSID(無音挿入記述子)フレームからの復号パラメータが用いられることを意味する。
次に、G.719について検討する。G.719は、サイレン(Siren)22に基づいており、変換ベースの全帯域音声コーデックである。ITU−Tは、G.719について、スペクトル領域におけるフレーム繰り返しを伴うフェードアウトを推奨している[ITU08b、8.6節]。G.719によると、フレーム消去封じ込めメカニズムがデコーダに組み込まれる。フレームが正しく受信された場合、復元された変換係数はバッファに記憶される。デコーダに対して、フレームが失われた又はフレームが破損したことが通知されると、最も最近受信されたフレームにおいて復元された変換係数は、0.5の定数に比例して減少され、次に、現在のフレームについての復元された変換係数として使用される。次に、デコーダは、これらを時間領域に変換し、窓化・重複・加算の演算を実行する。
以下、G.722について説明する。G.722は、50〜7000Hz符号化システムであって、64kbit/秒までのビットレート内でサブバンド適応差分パルスコード変調(SB−ADPCM)を用いるものである。信号は、QMF分析(QMF=直交ミラーフィルタ)を用いてより高いサブバンド及びより低いサブバンドに分割される。結果として得られる2つの帯域は、ADPCM符号化(ADPCM=適応差分パルス符号変調)される。
G.722については、パケット損失封じ込めについての高複雑度のアルゴリズムが付録(Appendix)IIIに述べられており[ITU06a]、パケット損失封じ込めについての低複雑度のアルゴリズムが付録IVに述べられている[ITU07]。G.722―付録III([ITU06a、III.5節])においては、徐々に実行されるミューティングであって、フレーム損失の20ミリ秒後に開始し、フレーム損失の60ミリ秒後に完了するものが提案されている。更に、G.722―付録IVにおいては、フェードアウト技術であって、「サンプル毎に計算及び適合されるゲイン因数を各々のサンプルに」適用するものが提案されている[ITU07、IV.6.1.2.7節]。
G.722においては、ミューティングプロセスは、サブバンド領域において、QMF合成の直前に、PLCモジュールの最後のステップとして行われる。ミューティング定数の算出は、やはりPLCモジュールの一部でもある信号分類子からクラス情報を用いて実行される。区別は、TRANSIENT、UV_TRANSITION等のクラスの間で行われる。更に、10ミリ秒フレームの単一の損失と、他の場合(10ミリ秒のフレームの多数の損失及び20ミリ秒のフレームの単一/多数の損失)との間での区別が行われる。
これを図3に示す。特に、図3は、G.722のフェードアウト定数がクラス情報に依存し、80個のサンプルが10ミリ秒に相当するシナリオを示す。
G.722によると、PLCモジュールは、損失フレームについての信号と、次の良好なフレームとクロスフェードさせられることになっている或る追加の信号(10ミリ秒)とを生成する。この追加の信号についてのミューティングは、同じ規則に従う。G.722の高帯域封じ込めにおいては、クロスフェードは行われない。
以下、G.722.1について検討する。G.722.1は、サイレン7に基づいており、超広帯域拡張モードを有する変換ベースの広帯域音声コーデックであり、G.722.1Cと呼ばれる。G.722.1Cそれ自体は、サイレン14に基づいている。ITU−Tは、G.722.1について、後続のミューティングを伴うフレーム繰り返しを推奨している[ITU05、4.7節]。デコーダに対して、この勧告には規定されていない外部シグナリングメカニズムによって、フレームが失われた又は破損したと通知されると、先行フレームの復号されたMLT(変調済ラップド変換)係数を繰り返す。次に、これらを時間領域に変換し、先行フレーム及び次のフレームの復号された情報によって重複及び加算の演算を実行する。先行フレームもまた失われ又は損失している場合、デコーダは、全ての現在のフレームMLT係数をゼロに設定する。
次に、G.729について検討する。G.729は、音声のための音声データ圧縮アルゴリズムであって、10ミリ秒の期間のパケットにおけるデジタル音声を圧縮するものである。公式には、符号励振線形予測言語音声符号化(CS−ACELP)を用いた8kbit/秒での言語音声の符号化として記載されている[ITU12]。
[CPK08]で概略的に説明されるように、G.729は、LP領域におけるフェードアウトを推奨している。G.729規格において採用されるPLCアルゴリズムは、以前に受信した言語音声情報に基づいて現在のフレームについての言語音声信号を復元する。換言すると、PLCアルゴリズムは、紛失励振を、以前に受信したフレームの等価の特性と入れ替えるが、励振エネルギーは徐々に減衰し、最終的には、適応コードブック及び固定コードブックのゲインは一定の定数によって減衰させられる。
減衰させられた固定コードブックゲインは、
Figure 2016527541
によって与えられ、ここでmは、サブフレームインデックスである。
適応コードブックゲインは、先行する適応コードブックゲインを減衰させたものに基づいている。
Figure 2016527541
ナム・イン・パーク(Nam in Park)他は、G.729について、線形回帰による予測を用いた信号振幅制御を提案している[CPK08、PKJ+11]。これはバースト状のパケット損失に対応するものであり、線形回帰を中核技術として用いる。線形回帰は、
Figure 2016527541
として線形モデルに基づいている。ここで、g’iは、新たに予測された現在の振幅であり、a及びbは、一次線形関数についての係数であり、iは、フレームのインデックスで
ある。最適化された係数a*及びb*を求めるために、二乗予測エラーの合計が次式のように最小化される。
Figure 2016527541
ここで、εは、二乗エラーであり、gjは、元の過去のj番目の振幅である。このエラーを最小化するために、a及びbに関する導関数を単にゼロに設定する。最適化されたパラメータa*及びb*を用いて各々のg* の推定値は、
Figure 2016527541
によって表される。
図4は、振幅予測を示し、特に、線形回帰を用いて振幅g* iの予測を示す。
失われたパケットiの振幅A’iを得るために、比σ
Figure 2016527541
を、スケール定数Siによって乗算し、即ち、
Figure 2016527541
とし、ここで、スケール定数Siは、連続する封じ込められたフレームl(i)の数に依存し、即ち、
Figure 2016527541
とする。
[PKJ+11]においては、僅かに異なるスケーリングが提案されている。
G.729によると、この後、A’iを平滑化して、フレーム境界における離散減衰を防ぐ。最後の平滑化された振幅Ai(n)は、先行するPLC成分から得た励振へ乗算される。
以下、G.729.1について検討する。G.729.1は、G.729ベースの埋め込み可変ビットレートコーダである。即ち、8〜32kbit/秒のスケーリング可能な広帯域コーダビットストリームであって、G.729と相互動作可能なものである[ITU06b]。
G.729.1によると、G.718(上記を参照)と同様、適合フェードアウトであって、信号特性の安定度に依存するものが提案されている([ITU06b、7.6.1節])。封じ込め中、信号は、通常、減衰定数αに基づいて減衰させられ、この減衰定数は、最後の良好な受信フレームクラスのパラメータと、連続する消去されたフレームの数とに依存する。減衰定数αは、更に、「無声」フレームについてのLPフィルタの安定度に依存する。一般的に、減衰は、最後の良好な受信フレームが安定なセグメントにある場合は遅く、フレームが遷移セグメントにある場合は速い。
Figure 2016527541
表2は、αの計算方式を示し、ここで、
Figure 2016527541
である。封じ込めプロセス中、αは、以下の封じ込めツールにおいて用いられる。
Figure 2016527541
表2:減衰定数αの値。値θは、隣接するLPフィルタ間の距離測定値から計算された安定度定数である。[ITU06b、7.6.1節]
G.729.1によると、声門パルス再同期に関し、先行フレームの励振の最後のパルスが周期部分の構成に用いられるため、そのゲインは、封じ込められたフレームの開始時においてほぼ正しく、1に設定され得る。次に、サンプル毎にフレーム全体においてゲインを線形的に減衰させ、フレームの終わりでαの値に達する。有声セグメントのエネルギー変化は、最後の良好なフレームの各サブフレームのピッチ励振ゲイン値を用いて外挿される。一般的に、これらのゲインが1よりも大きい場合、信号エネルギーは増加しており、1よりも低い場合、エネルギーは減少している。従って、αは、上述のようにβ=(/gp1/2に設定される。[ITU06b、式163,164]を参照。強いエネルギー増加及び現象を避けるために、βの値は、0.98と0.85の間に制限される。[ITU06b、7.6.4節]を参照。
励振のランダムな部分の構成に関し、G.729.1によると、消去されたブロックの開始時に、新規ゲインgsは、最後の良好なフレームの各サブフレームの新規励振ゲインを用いて初期化され、
Figure 2016527541
となる。ここで、g(0)、g(1)、g(2)及びg(3)は、最後の正しく受信されたフレームの4つのサブフレームの固定コードブック又は新規ゲインである。新規ゲイン減衰は、
Figure 2016527541
として行われ、ここで、gs (1)は、次のフレームの開始時の新規ゲインであり、gs (0)は、現在のフレームの開始時の新規ゲインであり、αは、上述の表2に定義した通りである。従って、周期的励振減衰と同様、ゲインは、gs (0)で始まってサンプル毎にフレーム全体を通して線形的に減衰させられて、次のフレームの開始時に達成されるgs (1)の値に達する。
G.729.1によると、最後の良好なフレームが「無声」であれば、新規励振のみを用い、これを更に0.8の定数で減衰させる。この場合、励振の周期的な部分が利用可能ではないため、過去の励振バッファを新規励振で更新する。[ITU06b、7.6.6節]を参照。
以下、AMRについて検討する。3GPP AMR[3GP12b]は、ACELPアルゴリズムを利用した言語音声コーデックである。AMRは、8000サンプル/秒のサンプリングレート及び4.75〜12.2kbit/秒のビットレートで言語音声を符号化することができ、シグナリング無音記述子フレーム(DTX/CNG)をサポートする。
AMRにおいて、エラー封じ込め中([3GP12a]を参照)、エラー気味のフレーム(ビットエラー)と、完全に失われたフレーム(データが全くない)とを区別する。
ACELP封じ込めの場合、AMRは、チャネルの品質を推定する状態マシンを導入する。状態カウンタの値が大きいほど、チャネル品質は劣悪である。システムは、状態0から始まる。劣悪なフレームが検出されるたびに、状態カウンタを1ずつ増加させ、6に達すると飽和する。良好な言語音声フレームが検出されるたびに、状態カウンタは、ゼロにリセットされるが、但し、状態が6である場合、状態カウンタを5に設定する。状態マシンの制御フローは、以下のCコードによって記述することができる(BFIは、劣悪フレームインジケータであり、Stateは状態変数である)。
Figure 2016527541
この状態マシンに加えて、AMRにおいては、現在及び先行するフレームからの劣悪フレームフラグを調べる(prevBFI)。
3つの異なる組合せが可能である。
3つの組み合わせのうちの1番目のものが、BFI=0、prevBFI=0、状態=0である。即ち、受信言語音声フレーム又は先行する受信言語音声フレームにおいてエラーは検出されない。受信言語音声パラメータは、言語音声合成における通常の態様で使用される。言語音声パラメータの現在のフレームが保存される。
3つの組み合わせのうちの2番目のものが、BFI=0、prevBFI=1、状態=0又は5である。即ち、受信言語音声フレームにおいてエラーは検出されないが、先行する受信言語音声フレームは劣悪である。LTPゲイン及び固定コードブックゲインは、最後の受信された良好なサブフレームについて用いられる値未満に制限され、即ち
Figure 2016527541
となり、ここで、gp=現在の復号されたLTPゲイン、gp(−1)=最後の良好なサブフレーム(BFI=0)について用いられるLTPゲインであり、更に、
Figure 2016527541
となり、ここで、gc=現在の復号された固定コードブックゲイン、gc(−1)=最後の良好なサブフレーム(BFI=0)について用いられる固定コードブックゲインである。
受信した言語音声パラメータの残りは、言語音声合成において通常の態様で使用される。言語音声パラメータの現在のフレームが保存される。
3つの組み合わせのうちの3番目のものが、BFI=1、prevBFI=0又は1、状態=1…6である。即ち、受信言語音声フレームにおいてエラーが検出され、置き換え及びミューティング手順が開始される。LTPゲイン及び固定コードブックゲインは、先行するサブフレームからの減衰した値と入れ替えられ、即ち
Figure 2016527541
となり、ここで、gpは、現在の復号されたLTPゲインを示し、gp(−1),…,gp(−n)は、最後のn個のサブフレームについて用いられるLTPゲインを示し、median5()は、5点の中央値演算を示し、更に、
P(state)=減衰定数
であり、ここで、(P(1)=0.98、P(2)=0.98、P(3)=0.8、P(4)=0.3、P(5)=0.2、P(6)=0.2)であり、state=状態数であり、
Figure 2016527541
であり、ここで、gcは、現在の復号された固定コードブックゲインを示し、gc(−1),…,gc(−n)は、最後のn個のサブフレームについて用いられる固定コードブックゲインを示し、median5()は、5点の中央値演算を示し、C(state)=減衰定数であり、ここで、(C(1)=0.98、C(2)=0.98、C(3)=0.98、C(4)=0.98、C(5)=0.98、C(6)=0.7)であり、state=状態数である。
AMRにおいては、LTP遅れ値(LTP=長期予測)は、先行するフレームの4番目のサブフレームからの過去の値(12.2モード)又は最後の正しく受信された値に基づく僅かに変更した値(他の全てのモード)と入れ替えられる。
AMRによると、エラーを含むフレームからの受信した固定コードブック新規パルスは、破損したデータが受信されたときに固定コードブック新規パルスが受信された状態において用いられる。データが受信されなかった場合には、ランダムな固定コードブックインデックスを用いることになる。
AMRにおけるCNGに関し、[3GP12a、6.4節]によると、各々の最初の失われたSIDフレームは、以前に受信した有効なSIDフレームからのSID情報を用いて置き換えられ、有効なSIDフレームについての手順が適用される。後続の失われたSIDフレームについては、減衰技術を、徐々に出力レベルを減少させる快適ノイズに適用する。従って、最後のSID更新が50フレーム(=1秒)よりも前かどうかを調べ、もしそうであれば、出力は、ミュートとなる(1フレーム当り−6/8dBだけのレベル減衰[3GP12d、dtx_dec{}@sp_dec.c]、これは1秒当たり37.5dBをもたらす)。なお、CNGに適用されるフェードアウトはLP領域で実行される。
以下、AMR−WBについて検討する。適応マルチレート−WB[ITU03、3GP09c]は、AMRに基づく言語音声コーデックACELPである(1.8節を参照)。これは、パラメータ的帯域幅拡張を用い、またDTX/CNGをサポートする。基準[3GP12g]の説明において、封じ込め例の解決策が与えられており、これは僅かな逸脱があるもののAMR[3GP12a]についてのものと同じである。従って、ここでは、AMRとの相違点のみについて説明する。規格の説明については、上述の記載を参照されたい。
ACELPに関し、AMR−WBにおいて、参照ソースコードに基づいてACELPフェードアウトを実行する[3GP12c]が、これはピッチゲインgp(LTPゲインと呼ばれる上述のAMRについて)に変更を加え、コードゲインgcに変更を加えることで行われる。
失われたフレームについては、最初のサブフレームについてのピッチゲインgpは、0.95と0.5との間に制限されることを除き、最後の良好なフレームにおけるものと同じである。2番目、3番目及び続くサブフレームについては、ピッチゲインgpは、0.95の定数だけ減少され、やはり制限される。
AMR−WBにおいては、封じ込められたフレームにおいて、gcが最後のgcに基づくことが提案されている。
Figure 2016527541
LTP遅れを封じ込めるために、AMR−WBにおいては、フレーム損失の場合に、5つの最後の良好なLTP遅れ及びLTPゲインの履歴を用いて最良の更新方法を見つける。フレームがビットエラーを伴って受信された場合、受信したLTP遅れが使用可能か否かについての予測を実行する[3GP12g]。
CNGに関し、AMR−WBにおいては、最後の正しく受信されたフレームがSIDフレームであり、或るフレームが失われたものと分類された場合、最後の有効なSIDフレーム情報と置き替え、有効なSIDフレームについての手順を適用することになる。
後続の失われたSIDフレームについては、AMR−WBにおいては、減衰技術を、出力レベルを徐々に減少させる快適ノイズに適用することが提案される。従って、最後のSID更新が50フレーム(=1秒)よりも前かどうかを調べ、もしそうであれば、出力は、ミュートとなる(1フレーム当り−3/8dBだけのレベル減衰[3GP12f、dtx_dec{}@dtx.c]、これは1秒当たり18.75dBをもたらす)。なお、CNGに適用されるフェードアウトは、LP領域において実行される。
次に、AMR−WB+について検討する。適応マルチレート−WB+[3GP09a]は、ACELP及びTCX(TCX=変換符号化励振)をコアコーデックとして用いる切り替えコーデックである。これは、パラメータ的な帯域幅拡張を用い、また、DTX/CNGをサポートする。
AMR−WB+において、モード外挿論理を適用して、歪められたスーパーフレーム内の失われたフレームのモードを外挿する。このモード外挿は、モードインジケータの定義において冗長性が存在するという事実に基づいたものである。AMR−WB+によって提案された決定論理([3GP09a,図18]によって与えられる)は、以下の通りである。
‐ベクトルモード(m-1,m0,m1,m2,m3)が規定され、ここで、m-1は、先行するスーパーフレームの最後のフレームのモードを示し、m0,m1,m2,m3は、現在のスーパーフレーム(ビットストリームから復号されたもの)におけるフレームのモードを示し、ここで、mk=−1,0,1,2又は3(−1:失われた、0:ACELP、1:TCX20、2:TCX40、3:TCX80)であり、失われたフレームの数nlossは、0と4との間であり得る。
‐m-1=3、且つフレーム0〜3のモードインジケータのうちの2つが3に等しい場合、全てのインジケータが3に設定される。それは、その場合、1つのTCX80フレームが当該スーパーフレーム内に示されたことが確実だからである。
‐フレーム0〜3のうちのただ1つのインジケータが3(且つ失われたフレームの数nlossが3)である場合、モードは、(1,1,1,1)に設定される。それは、その場合、TCX80目標スペクトルの3/4が失われ、グローバルTCXゲインが失われた可能性が極めて高いからである。
‐モードが(x,2,−1,x,x)又は(x,−1,2,x,x)を示している場合、これはTCX40フレームを示す(x,2,2,x,x)へと外挿される。モードが(x,x,x,2,−1)又は(x,x,−1,2)を示す場合、やはりTCX40フレームを示す(x,x,x,2,2)へと外挿される。なお、(x,[0,1],2,2,[0,1])は、無効な構成である。
‐その後、失われた各々のフレームについて(モード=−1)、先行するフレームがACELPであった場合にモードはACELPに設定され(モード=0)、その他全ての場合には、モードはTCX20に設定される(モード=1)。
ACELPに関し、AMR−WB+によると、モード外挿の後、失われたフレームモードが結果としてmk=0となった場合、このフレームについて[3GP12g]におけるのと同じ方策を適用する(上記を参照)。
AMR−WB+において、失われたフレームの数及び外挿されたモードに応じて、以下のTCX関連の封じ込め方策を区別する(TCX=変換符号化励振)。
‐フレーム全体が失われた場合、ACELP様の封じ込めを適用する。最後の励振を繰り返し、封じ込められたISF係数(その適応平均へ僅かにずらされたもの)を用いて時間領域信号を合成する。これに加えて、1フレーム(20ミリ秒)当り0.7のフェードアウト定数[3GP09b、dec_tcx.c]を、LPC(線形予測符号化)合成の直前に線形予測領域で乗算する。
‐最後のモードがTCX80であり、(部分的に失われた)スーパーフレームの外挿されたモードがTCX80(nloss=[1,2]、モード=(3,3,3,3,3))である場合、位相及び振幅外挿を利用し、最後の正しく受信されたフレームを考慮しながら、FFT領域で封じ込めを実行する。位相情報の外挿方策は、ここでは関心の対象ではない(フェード戦略に無関係)ため、説明は行わない。更なる詳細については、[3GP09a、6.5.1.2.4節]を参照。AMR−WB+の振幅変更に関し、TCX封じ込めについて実行される方策は以下のステップからなる[3GP09a、6.5.1.2.3節]。
‐先行するフレーム振幅スペクトルは、
Figure 2016527541
のように計算される。
‐現在のフレーム振幅スペクトルは、
Figure 2016527541
のように計算される。
‐先行するフレームと現在のフレームとの間の失われていないスペクトル係数のエネルギーのゲイン差は、
Figure 2016527541
のように計算される。
‐紛失スペクトル係数の振幅は、
Figure 2016527541
を用いて外挿される。
‐mk=[2,3]を伴う失われたフレームの他の各々全てのケースにおいて、TCX目標((ビットストリームから復号されたノイズレベルを用いて)復号されたスペクトル+ノイズ充填の逆FFT)は、全ての利用可能な情報(グローバルTCXゲインを含む)を用いて合成される。この場合、フェードアウトは適用されない。
AMR−WB+におけるCNGに関し、AMR−WBにおけるのと同じ方策が用いられる(上記を参照)。
以下、OPUSについて検討する。OPUS[IET12]は、2つのコーデックからの技術を組み込む。即ち、言語音声志向のSILK(スカイプコーデックとして知られる)及び低待ち時間CELT(CELT=条件付きエネルギーラップド変換)である。OPUSは、高ビットレートと低ビットレートとの間で継ぎ目なく調節することが可能であり、内部的には、低ビットレートでの線形予測コーデック(SILK)と高ビットレートでの変換コーデック(CELT)並びに短い重複についてのハイブリッドとの間で切り替わる。
SILK音声データの圧縮及び解凍に関し、OPUSにおいては、SILKデコーダルーチンにおける封じ込め中に減衰させられるいくつかのパラメータが存在する。LTPゲインパラメータは、連続する失われたフレームの数に応じて、全てのLPC係数を1フレーム当り0.99、0.95又は0.90で乗算することによって減衰させられ、ここで、先行するフレームの励振からの最後のピッチサイクルを用いて励振が構築される。ピッチ遅れパラメータは、連続する損失の際に極めて遅く増加する。単一の損失については、最後のフレームと比較して一定に保たれる。更に、励振ゲインパラメータは、1フレーム当り0.99lostcntで指数的に減衰させられるため、1番目の励振ゲインパラメータについては、励振ゲインパラメータは、0.99であり、2番目の励振ゲインパラメータについては、励振ゲインパラメータは、0.992であり、以下同様となる。励振は、可変オーバーフローによってホワイトノイズを生成しているランダム数生成部を用いて生成される。更に、LPC係数は、最後の正しく受信された係数の組に基づいて外挿・平均される。減衰した励振ベクトルの生成後、封じ込められたLPC係数をOPUSにおいて用いて時間領域出力信号を合成する。
次に、OPUSの文脈で、CELTについて検討する。CELTは、変換ベースのコーデックである。CELTの封じ込めは、ピッチベースのPLC方策を特徴とし、これは、最大5つの連続して失われたフレームに適用される。フレーム6から開始して、ノイズ様の封じ込め方策を適用し、これは、背景ノイズを生成する。その特徴は、先行する背景ノイズのように聞こえるものと仮定する。
図5は、CELTのバースト状の損失挙動を示す。特に、図5は、CELTで封じ込められた言語音声セグメントのスペクトログラム(x軸:時間、y軸:周波数)を示す。薄いグレーのボックスは、最初の5つの連続して失われたフレームを示し、ここで、ピッチベースのPLC方策が適用される。それ以降は、ノイズ様の封じ込めを示す。なお、切り替えは、瞬間的に実行され、スムーズに遷移するものではない。
ピッチベースの封じ込めに関し、OPUSにおいては、ピッチベースの封じ込めは、自己相関によって復号信号における周期性を求め、ピッチオフセット(ピッチ遅れ)を用いて(LPC分析及び合成を用いて励振領域で)窓化した波形を繰り返すことからなる。窓化した波形を重ね合わせて、先行するフレーム及び次のフレームによって時間領域エイリアシング消去を保持する[IET12]。追加的に、フェードアウト定数を導出し、以下のコードによって適用する。
Figure 2016527541
このコードにおいては、excは、損失前の最大MAX_PERIOD個のサンプルまでの励振信号を含む。
励振信号は、後に減衰で乗算され、それから合成されてLPC合成を介して出力される。
時間領域方策についてのフェードアルゴリズムは、以下のように概括することができる。
‐損失前の最後のピッチサイクルのピッチ同期エネルギーを求める。
‐損失前の最後から2番目のピッチサイクルのピッチ同期エネルギーを求める。
‐エネルギーが増加している場合、一定となるように制限する。減衰=1。
‐エネルギーが減少している場合、封じ込め中に同じ減衰で継続する。
ノイズ様の封じ込めに関し、OPUSによると、6番目及びその後連続する失われたフレームについて、MDCT領域におけるノイズ置き換え方策を実行して、快適背景ノイズをシミュレートする。
背景ノイズレベル及び形状のトレースに関し、OPUSにおいては、背景ノイズ推定は、以下のように行われる。MDCT分析の後、MDCT帯域エネルギーの平方根を1周波数帯域当りで算出し、MDCTビンのまとまりは、[IET12、表55]によるバークスケール(bark scale)に従う。次に、エネルギーの平方根を、
Figure 2016527541
によってlog2領域に変換し、ここで、eは、オイラー数であり、bandEは、MDCT帯域の平方根であり、eMeansは、(結果として増強された符号化ゲインをもたらす結果、ゼロ平均を得るために必要な)定数のベクトルである。
OPUSにおいては、背景ノイズは、以下のようにデコーダ側でログオンされる[IET12、amp2Log2及びlog2Amp@quant_band.c]。
Figure 2016527541
トレースされた最小エネルギーは、基本的には、現在のフレームの帯域のエネルギーの平方根によって決定されるが、1フレームから次のフレームへの増加は、0.05dBによって制限される。
背景ノイズレベル及び形状の適用に関し、OPUSによると、ノイズ様のPLCが適用される場合、最後の良好なフレームにおいて導出されたbackgroundLogEを用いて線形領域に変換し、即ち
Figure 2016527541
とし、ここで、eは、オイラー数であり、eMeansは、「線形からログへ」の変換についての定数の同じベクトルである。
現在の封じ込め手順は、ランダム数生成部によって生成されたホワイトノイズをMDCTフレームに充填し、このホワイトノイズを、帯域単位でbandEのエネルギーに一致するようにスケーリングするものである。この後、逆MDCTを適用し、その結果として時間領域信号が得られる。重ね合わせ加算及び強調解除(通常の復号と同様)の後、出力される。
以下、MPEG−4 HE−AACについて検討する(MPEG=動画エキスパートグループ;HE−AAC=高効率高度音声符号化)。高効率高度音声符号化は、変換ベースの音声コーデック(AAC)であって、パラメータ的な帯域幅拡張(SBR)を補ったものからなる。
AAC(AAC=高度音声符号化)に関し、DABコンソーシアムは、DAB+におけるAACについて、周波数領域におけるゼロへのフェードアウトについて述べている[EBU10、A1.2節](DAB=デジタル音声ブロードキャスト)。フェードアウト挙動、例えば、減衰ランプは、固定又はユーザによって調節可能であり得る。最後のAU(AU=アクセス単位)からのスペクトル係数は、フェードアウト特性に対応する定数によって減衰させられ、そして、周波数から時間へのマッピングへと渡される。減衰ランプに応じて、封じ込めは、或る数の連続する無効AUの後でミューティングに切り替わり、即ち完全なスペクトルは、0に設定されることになる。
DRM(DRM=デジタル権利管理)コンソーシアムは、DRMにおけるAACについて、周波数領域におけるフェードアウトについて述べている[EBU12、5.3.3節]。最後の周波数から時間への変換の直前に封じ込めがスペクトルデータに対して働く。多数のフレームが破損している場合、封じ込めは、まず、最後の有効なフレームからの僅かに変更したスペクトル値に基づいてフェードアウトを実行する。更に、DAB+と同様、フェードアウト挙動、例えば、減衰ランプは、固定又はユーザによって調節可能であり得る。最後のフレームからのスペクトル係数は、フェードアウト特性に対応する定数によって減衰させられ、そして、周波数から時間へのマッピングに渡される。減衰ランプに応じて、封じ込めは、或る数の連続する無効フレームの後でミューティングに切り替わり、即ち、完全なスペクトルは、0に設定されることになる。
3GPPは、強化aacPlusにおけるAACについて、DRMと同様の周波数領域におけるフェードアウトを導入している[3GP12e、5.1節]。最後の周波数から時間への変換の直前に封じ込めがスペクトルデータに対して働く。多数のフレームが破損している場合、封じ込めは、まず、最後の良好なフレームからの僅かに変更したスペクトル値に基づいてフェードアウトを実行する。完全なフェードアウトは5フレームを要する。最後の良好なフレームからのスペクトル係数がコピーされ、
Figure 2016527541
の定数によって減衰させられ、ここで、nFadeOutFrameは、最後の良好なフレームからのフレームカウンタである。フェードアウトの5フレームの後、封じ込めは、ミューティングに切り替わり、即ち、完全なスペクトルは、0に設定されることになる。
ラウバー及びシュペルシュナイダーは、AACについて、エネルギー外挿に基づいて、MDCTスペクトルのフレーム単位のフェードアウトを導入している[LS01、4.4節]。先行するスペクトルのエネルギー形状を用いて、推定スペクトルの形状を外挿することができる。エネルギー外挿は、或る種の後封じ込めとして、封じ込め技術とは独立して実行することができる。
AACに関し、エネルギー算出をスケール定数帯域ベースで実行して、人間の聴覚系の臨界帯域に近くなるようにする。個々のエネルギー値をフレーム毎に減少させ、音量をスムーズに下げる、例えば、信号をフェードアウトさせる。これが必要なのは、推定値が現在の信号を表す確率が時間の経過に伴って急速に減少するからである。
出力対象のスペクトルの生成については、ラウバー等はフレーム繰り返し又はノイズ置き換えを提案している[LS01、3.2節及び3.3節]。
クヴァッケンブッシュ及びドリーゼンは、AACについて、ゼロへの指数的なフレーム単位のフェードアウトを提案している[QD03]。時間/周波数係数の隣接する組の繰り返しが提案され、各々の繰り返しは、指数的に増加する減衰を有するため、停止期間が長引いた場合に徐々にミュートへとフェードする。
MPEG−4 HE+AACにおけるSBR(SBR=スペクトル帯域複写)に関し、3GPPは、強化aacPlusにおけるSBRについて、復号された包絡線データをバッファし、フレーム損失の場合に、送信された包絡線データのバッファされたエネルギーを再使用し、各々全ての封じ込められたフレームについて3dBの一定比によってこれらを減少させることを提案している。結果は、通常の復号プロセスに入力され、包絡線調節部は、これを用いて、HF生成部の生成したパッチ広帯域の調節に用いられるゲインを算出する。次に、SBR復号が通常と同様に行われる。更に、デルタ符号化ノイズフロア及び正弦レベル値を消去する。先行する情報との差が利用可能でない状態が続くため、復号ノイズフロア及び正弦レベルは、HF生成信号のエネルギーと比例し続ける[3GP12e、5.2節]。
DRMコンソーシアムは、AACとの関連でSBRについて、3GPPと同じ技術について述べている[EBU12、5.6.3.1節]。更に、DABコンソーシアムは、DAB+におけるSBRについて、3GPPと同じ技術について述べている[EBU10、A2節]。
以下、MPEG−4CELP及びMPEG−4 HVXC(HVXC=高調波ベクトル励振符号化)について検討する。DRMコンソーシアムは、CELP及びHVXCとの関連でSBRについて[EBU12、5.6.3.2節]、言語音声コーデックのためのSBRについての最低要件の封じ込めは、破損したSBRフレームが検出された時には必ず所定の組のデータ値を適用することであると述べている。これらの値は、低い相対的再生レベルでの静的な広帯域スペクトル包絡線をもたらし、より高い周波数へのロールオフを呈する。その目的は、単に、(厳密なミューティングではなく)「快適ノイズ」を挿入することによって、挙動の劣悪な、時に大きい音声バーストが聴取者の耳に届かないようにすることである。これは、実際には、現実のフェードアウトではなく、或るエネルギーレベルにジャンプして或る種の快適ノイズを挿入することである。
その後、代替案として、最後の正しく復号されたデータを再使用して、AAC+SBRの場合と同様に0へとレベル(L)をゆっくりとフェードさせることについて述べられる[EBU12、5.6.3.2節]。
次に、MPEG−4 HILNについて検討する(HILN=高調波及び個々のライン+ノイズ)。マイネ他は、パラメトリック領域においてパラメトリック的なMPEG−4 HILNコーデック[ISO09]のためのフェードアウトを導入している[MEP01]。連続した高調波成分の場合、破損した、異なって符号化されたパラメータの代わりとなる良好なデフォルト挙動は、周波数を一定に保ち、振幅を減衰因数(例えば−6dB)だけ減少させ、スペクトル包絡線を平均低域通過特性のそれへと収束させることである。スペクトル包絡線についての代替案として、これを変化させないことがあり得る。振幅及びスペクトル包絡線に関し、ノイズ成分は、高調波成分と同様に扱うことができる。
以下、先行技術における背景ノイズレベルのトレースについて検討する。ランガカーリ及びロイズ[RL06]は、いくつかの方法についての良い概観を提供しており、それらの限界のいくつかについて述べている。背景ノイズレベルをトレースする方法は、例えば、最小追跡手順[RL06][Coh03][SFB00][Dob95]、VADベースのもの(VAD=音声活動検出)、カルマンフィルタリング[Gan05][BJH06]、サブスペース分解[BP06][HJH08]、ソフト決定[SS98][MPC89][HE95]、及び最小統計である。
最小統計の方策がUSAC−2についての範囲内で使用されるものとして選択されており(USAC=統合言語音声及び音声符号化)、その後より詳細に述べられている。
最適平滑化及び最小統計に基づくノイズパワースペクトル密度推定[Mar01]では、アクティブな言語音声又は背景ノイズである信号とは独立して働くことのできるノイズ推定部が導入される。他の方法とは対照的に、最小統計アルゴリズムは、言語音声区間と言語音声ポーズとの間を区別するために明示的な閾値を用いないため、従来の発話区間検出方法よりもソフト決定方法により近く関係している。ソフト決定方法と同様、言語音声区間中に推定ノイズPSD(パワースペクトル密度)を更新することもできる。
最小統計方法は、2つの所見に基づいている。即ち、言語音声とノイズとは、通常統計的に独立であること、及び、ノイズの多い言語音声信号のパワーは、頻繁にノイズのパワーレベルへと減衰することである。従って、ノイズの多い信号PSDの最小値を追跡することによって正確なノイズPSD(PSD=パワースペクトル密度)推定値を導出することが可能である。最小値は、平均値よりも小さい(又は他の場合では等しい)ため、最小追跡方法は、バイアス補償を必要とする。
バイアスは、平滑化信号PSDの分散の関数であるため、PSD推定部の平滑化パラメータに依存する。最小追跡についての以前の業績では、一定平滑化パラメータ及び一定最小バイアス訂正を利用していたが、これとは対照的に、時間及び周波数依存のPSD平滑化が用いられ、これも時間及び周波数依存バイアス補償を必要とする。
最小追跡を用いることで、ノイズパワーの凡その推定値が得られる。しかしながら、いくつかの欠点がある。固定の平滑化パラメータによる平滑化によって、平滑化PSD推定値の言語音声区間のピークが広がる。これにより、ノイズ推定値が不正確になるが、それは、最小探索のためのスライド窓が広いピークへと滑り込む恐れがあるからである。従って、1に近い平滑化パラメータを用いることはできず、その結果、ノイズ推定値は、比較的大きな分散を有することになる。更に、ノイズ推定は、より低い値へ偏る。更に、ノイズパワーを増加させる場合、最小追跡が遅れることになる。
低複雑度のMMSEベースのノイズPSD追跡[HHJ10]では、DFT(離散的フーリエ変換)スペクトルに対して用いられるMMSE探索を利用した背景ノイズPSD方策が導入されている。このアルゴリズムは、以下の処理ステップからなる。
‐先行するフレームのノイズPSDに基づいて最大可能性推定部が計算される。
‐最小平均平方推定部が計算される。
‐決定によって指示される方策を用いて最大可能性推定部が推定される[EM84]。
‐言語音声及びノイズDFT係数がガウス分布したものであると仮定して逆バイアス定数が計算される。
‐推定されたノイズパワースペクトル密度が平滑化される。
アルゴリズムの完全な竦みを回避するために適用される安全策もある。
データを用いる再帰的ノイズパワー推定に基づく非定常ノイズの追跡[EH08]では、極めて非定常的なノイズ源によって汚染された言語音声信号からのノイズスペクトル分散の推定方法が導入されている。この方法はまた、時間・周波数方向における平滑化を用いている。
ノイズパワー推定の平滑化及び推定バイアス訂正に基づく低複雑度のノイズ推定アルゴリズム[Yu09]は、[EH08]において導入された方策を強化するものである。主な相違点は、ノイズパワー推定のためのスペクトルゲイン関数が反復的なデータを用いた方法によって求められることである。
ノイズの多い言語音声の強調のための統計的方法[Mar03]においては、[Mar01]において与えられた最小統計方策を、ソフト決定ゲイン変更[MCA99]、アプライオリSNRの推定[MCA99]、適応ゲイン制限[MC99]及びMMSEログ・スペクトル振幅推定部[EM85]によって組み合わせる。
フェードアウトに対する関心は、複数の言語音声及び音声コーデックにおいて特に大きい。特に、AMR([3GP12B]を参照)(ACELP及びCNGを含む)、 AMR−WB([3GP09c]を参照)(ACELP及びCNGを含む)、AMR−WB+([3GP09a]を参照)(ACELP、TCX及びCNGを含む)、G.718([ITU08a]を参照)、G.719([ITU08b]を参照)、G.722([ITU07]を参照)、G.722.1([ITU05]を参照)、G.729([ITU12、CPK08、PKJ+11を参照])、MPEG−4 HE−AAC/高度aacPlus([EBU10、EBU12、3GP12e、LS01、QD03]を参照)(AAC及びSBRを含む)、MPEG−4 HILN([ISO09, MEP01]を参照)及びOPUS([IET12]を参照)(SILK及びCELTを参照)がある。
コーデックに応じて、フェードアウトは、それぞれ異なる領域で実行される。
LPCを利用するコーデックについては、フェードアウトは、線形予測領域(励振領域としても知られる)において実行される。このことは、以下のコーデックに当てはまる。即ち、ACELPに基づくコーデック、例えば、AMR、AMR−WB、AMR−WB+のACELPコア、G.718、G.729、G.729.1、OPUSにおけるSILKコア、時間周波数変換を用いた励振信号を更に処理するコーデック、例えば、AMR−WB+のTCXコア、OPUSにおけるCELTコア、及び、線形予測領域において動作する快適ノイズ生成(CNG)方式、例えば、AMRにおけるCNG、AMR−WBにおけるCNG,AMR−WB+におけるCNG、である。
時間信号を周波数領域に直接変換するコーデックについては、フェードアウトは、スペクトル/サブバンド領域において実行される。このことは、MDCT又は類似の変換に基づくコーデック、例えば、MPEG−4 HE−AACにおけるAAC,G.719、G.722(サブバンド領域)及びG.722.1に当てはまる。
パラメトリックコーデックについては、フェードアウトは、パラメトリック領域で適用される。このことは、MPEG−4 HILNに当てはまる。
フェードアウト速度及びフェードアウト曲線に関し、フェードアウトは、一般的に、適切な領域における信号表現に適用される減衰定数の適用によって実現される。減衰定数のサイズは、フェードアウト速度及びフェードアウト曲線を制御する。殆どの場合、減衰定数は、フレーム単位に適用されるが、サンプル単位の適用も利用される。例えば、G718及びG.722を参照。
特定の信号セグメントのための減衰定数は、2つの態様、即ち絶対的及び相対的に与えられ得る。
減衰定数が絶対的に与えられる場合、参照レベルは、常に最後の受信フレームのものである。絶対的減衰定数は、通常、最後の良好なフレームの直後の信号セグメントについて1に近い値で始まり、それから速く又は遅く0へと劣化する。フェードアウト曲線は、これらの要因に直接依存する。これは、例えば、G.722の付録IV(特に[ITU07、図IV.7]を参照)に記載される封じ込めに該当し、ここでは、可能なフェードアウト曲線は、線形又は徐々に線形である。ゲイン定数g(n)を考慮する場合、g(0)は最後の良好なフレームのゲイン定数、絶対減衰定数αabs(n)を表すものとすると、後続の失われたフレームのゲイン定数は
Figure 2016527541
として導出することができる。
減衰定数が相対的に与えられる場合、参照レベルは、先行するフレームからのものである。これが有利となるのは、再帰的封じ込め手順の場合、例えば、既に減衰した信号が更に処理され、再び減衰させられる場合である。
減衰定数が再帰的に適用される場合、これは、以下であり得る。即ち、連続する失われたフレームの数とは独立の固定値、例えば、G.719の場合は、0.5(上記を参照)、連続する失われたフレームの数に関連した固定値、例えば[CPK08]におけるG.729について提案されたもの、最初の2つのフレームについて1.0、次の2つのフレームについて0.9、フレーム5,6について0.8、後続の全てのフレームについて0(上記を参照)、又は、連続する失われたフレームの数に関連した値であって信号特性に依存するもの、例えば、不安定な信号については、より速いフェードアウト、安定な信号については、より遅いフェードアウト、例えば、G.718(上記の節及び[ITU08a、表44]を参照)である。
相対的なフェードアウト定数を0≦arel(n)≦1、nが失われたフレームの数(n≧1)と仮定すると、後続のフレームのゲイン定数は、
Figure 2016527541
のように導出することができ、結果として、指数的フェードが得られる。
フェードアウト手順に関し、通常、減衰定数が特定されるが、いくつかの応用規格(DRM、DAB+)では、減衰定数は、製造者に委ねられる。
異なる信号部分が別個にフェードさせられる場合、異なる減衰定数を適用することによって、例えば、調性を有する成分を或る速度でフェードさせ、ノイズ様の成分を別の速度でフェードさせることができる(例えばAMB、SILK)。
通常、或るゲインをフレーム全体に適用する。フェードがスペクトル領域で実行される場合、これが唯一可能な態様である。しかしながら、フェードが時間領域又は線形予測領域で行われる場合、よりグラニュール状のフェードが可能である。このようなよりグラニュール状のフェードがG.718で適用されており、ここでは、個々のゲイン因数が、各々のサンプルにつき、最後のフレームのゲイン因数と現在のフレームのゲイン因数との間の線形補間によって導出される。
可変フレーム期間を伴うコーデックの場合、フレーム期間に応じて、一定の相対的な減衰定数から、異なるフェードアウト速度が生じる。これは、例えばAACの場合に該当し、ここではフレーム期間がサンプリングレートに依存する。
適用されたフェード曲線を、最後に受信された信号の一時的形状に対して適用するために、(静的)フェードアウト定数を更に調節することができる。このような更なる動的な調節は、例えばAMBに適用され、ここでは先行する5つのゲイン因数の中央値が考慮される([3GP12b]及び1.8.1節を参照)。減衰を実行する前に、中央値が最後のゲインよりも小さければ、現在のゲインを中央値に設定し、その他の場合は、最後のゲインを用いる。更に、このような更なる動的な調節は、例えばG729に適用され、ここでは、振幅は、先行するゲイン定数の線形回帰を用いて予測される([CPK08、PKJ+11]及び1.6節を参照)。この場合、最初の封じ込められたフレームについての結果のゲイン定数は、最後の受信フレームのゲイン定数を超過する場合がある。
フェードアウトの目標レベルに関し、G.718及びCELTを除き、全ての分析されたコーデック(これらのコーデックの快適ノイズ生成(CNG)を含む)について目標レベルは、0である。
G.718において、ピッチ励振(調性成分を表す)のフェード及びランダム励振(ノイズ様の成分を表す)のフェードを別個に実行する。ピッチゲイン定数がゼロへフェードさせられる一方、新規ゲイン定数は、CNG励振エネルギーにフェードさせられる。
相対的な減衰定数が与えられると仮定すると、ここから、式(23)に基づき、以下の絶対減衰定数が得られ、
Figure 2016527541
ここで、gnは、快適ノイズ生成中に用いられる励振のゲインである。この式は、gn=0の場合、式(23)に対応する。
G.718は、DTX/CNGの場合、フェードアウトを実行しない。
CELTにおいては、目標レベルへのフェードがないが、調性を有する封じ込め(フェードアウトを含む)の5フレームの後、6番目の連続して失われたフレームで、レベルは、瞬間的に目標レベルに切り替えられる。このレベルは、式(19)を用いて帯域毎に導出される。
フェードアウトの目標スペクトル形状に関し、全ての分析した純粋な変換ベースのコーデック(AAC、G.719、G.722、G.722.1)及びSBRは、フェードアウト中の最後の良好なフレームのスペクトル形状を単に長くするだけである。
様々な言語音声コーデックは、LPC合成を用いてスペクトル形状を平均へフェードさせる。平均は、静的(AMR)又は適応的(AMR−WB、AMR−WB+、G.718)であり得るが、後者は、静的な平均及び短期的平均(最後のn個のLP係数セットの平均を取ることで導出される)(LP=線形予測)から導出される。
上述のコーデックAMR、AMR−WB、AMR−WB+、G.718における全てのCNGモジュールは、フェードアウト中の最後の良好なフレームのスペクトル形状を長くする。
背景ノイズレベルトレースに関し、文献から5つの異なる方策が知られている。
‐発話区間検出部ベース:SNR/VADに基づくが、調性が極めて困難であり、低SNR言語音声の場合に使いにくい。
‐ソフト決定方式:ソフト決定方策は、言語音声の存在の可能性を考慮に入れる[SS98][MPC89][HE95]。
‐最小統計:時間に亘ってバッファ内に或る一定量の値を保持しながらPSDの最小値を追跡することによって、最小ノイズを過去のサンプルから求めることを可能にする[Mar01][HHJ10][EH08][Yu09]。
‐カルマンフィルタリング:アルゴリズムは、時間に亘って観察された、ノイズ(ランダムな変動)を含む一連の測定値を用いて、単一の測定だけに基づくものよりも正確である傾向があるノイズPSDの推定値を生成する。カルマンフィルタは、ノイズの多い入力データのストリームに対して再帰的に働き、システム状態の統計的に最適な推定値を生成する[Gan05][BJH06]。
‐部分空間分解:この方策は、例えば、KLT(カルフネン・ロエヴ(Karhunen−Loeve)変換、また主成分分析としても知られる)及び/又はDFT(離散時間フーリエ変換)を利用して、ノイズ様の信号をクリーンな言語音声信号及びノイズ部分に分解することを試みる。それから、任意の平滑化アルゴリズムを用いて固有ベクトル・固有値をトレースすることができる[BP06][HJH08]。
[3GP09a]3GPP、技術仕様グループサービス及びシステム局面(Technical Specification Group Services and System Aspects)、「拡張適応マルチレート−広帯域(AMR−WB+)コーデック(Extended adaptive multi-rate - wideband (AMR-WB+) codec)」、3GPP TS 26.290、第3世代パートナーシッププロジェクト(3rd Generation Partnership Project)、2009年 [3GP09b]「拡張適応マルチレート−広帯域(AMR−WB+)コーデック;浮動小数点ANSI−Cコード(Extended adaptive multi-rate - wideband (AMR-WB+) codec; floating-point ANSI-C code)」、3GPP TS 26.304、第3世代パートナーシッププロジェクト(3rd Generation Partnership Project)、2009年 [3GP09c]「言語音声コーデック言語音声処理機能;適応マルチレート−広帯域(AMRWB)言語音声コーデック;トランスコード処理機能(Speech codec speech processing functions; adaptive multi-rate - wideband (AMRWB) speech codec; transcoding functions)」、3GPP TS 26.190、第3世代パートナーシッププロジェクト(3rd Generation Partnership Project)、2009年 [3GP12a]「適応マルチレート(AMR)言語音声コーデック;失われたフレームのエラー封じ込め(第11号)(Adaptive multi-rate (AMR) speech codec; error concealment of lost frames (release 11))、3GPP TS 26.091、第3世代パートナーシッププロジェクト(3rd Generation Partnership Project)、2012年9月 [3GP12b]「適応マルチレート(AMR)言語音声コーデック;トランスコード処理機能(第11号)(Adaptive multi-rate (AMR) speech codec; transcoding functions (release 11))」、3GPP TS 26.090、第3世代パートナーシッププロジェクト(3rd Generation Partnership Project)、2012年9月 [3GP12c]「適応マルチレート−広帯域のためのANSI−Cコード(AMR−WB)言語音声コーデック(ANSI-C code for the adaptive multi-rate - wideband (AMR-WB) speech codec)」、3GPP TS 26.173、第3世代パートナーシッププロジェクト(3rd Generation Partnership Project)、2012年9月 [3GP12d]「浮動小数点適応マルチレート(AMR)言語音声コーデックのためのANSI−Cコード(第11号)(ANSI-C code for the floating-point adaptive multi-rate (AMR) speech codec (release 11))」、3GPP TS 26.104、第3世代パートナーシッププロジェクト(3rd Generation Partnership Project)、2012年9月 3GP12e]一般的な音声コーデック音声処理機能:高度aacプラス一般音声コーデック;追加のデコーダツール(第11号)(General audio codec audio processing functions; Enhanced aacPlus general audio codec; additional decoder tools (release 11))」、3GPP TS 26.402、第3世代パートナーシッププロジェクト(3rd Generation Partnership Project)、2012年9月 [3GP12f]「言語音声コーデック言語音声処理機能;適応マルチレート−広帯域(amr−wb)言語音声コーデック;ansi−cコード(Speech codec speech processing functions; adaptive multi-rate - wideband (amr-wb) speech codec; ansi-c code)」、3GPP TS 26.204、第3世代パートナーシッププロジェクト(3rd Generation Partnership Project)、2012年 [3GP12g]「言語音声コーデック言語音声処理機能;適応マルチレート−広帯域(AMR−WB)言語音声コーデック;誤りを含む又は失われたフレームのエラー封じ込め(Speech codec speech processing functions; adaptive multi-rate - wideband (AMR-WB) speech codec; error concealment of erroneous or lost frames)」、3GPP TS 26.191、第3世代パートナーシッププロジェクト(3rd Generation Partnership Project)、2012年9月 [BJH06]I.バティーナ(Batina)、J.イェンゼン(Jensen)、R.ホイスデンス(Heusdens)、「言語音声パワースペクトルダイナミクスのための自動回帰モデルを用いた言語音声強調のためのノイズパワースペクトル推定(Noise power spectrum estimation for speech enhancement using an autoregressive model for speech power spectrum dynamics)、第3回IEEE国際音響・言語音声・信号処理会議集録(Proc. IEEE Int. Conf. Acoust., Speech, Signal Process. 3)、(2006年)、1064〜1067頁 [BP06]A.ボロヴィッツ(Borowicz)、A.ペトロフスキー(Petrovsky)、「kltベースの言語音声強調のための最小制御ノイズ推定(Minima controlled noise estimation for klt-based speech enhancement)、CD−ROM、2006年、イタリア、フィレンツェ [Coh03]I.コーエン(Cohen)、「不利な環境でのノイズスペクトル推定:向上した最小制御再帰的平均化(Noise spectrum estimation in adverse environments: Improved minima controlled recursive averaging)、IEEE言語音声・音声処理会報(IEEE Trans. Speech Audio Process)第11巻(2003年)、第5号、466〜475頁 [CPK08]チョン・サン・チョ(Choong Sang Cho)、ナム・イン・パク(Nam In Park)、ホン・クック・キム(Hong Kook Kim)、「celpタイプの言語音声コーダについてのバースト状のパケット損失に対してロバストなパケット損失封じ込めアルゴリズム(A packet loss concealment algorithm robust to burst packet loss for celp- type speech coders)」、韓国電子工学技術研究所技術レポート、グワン科学技術研究所、2008年、第23回国際回路・システム・コンピュータ・通信技術会議(Tech. report, Korea Enectronics Technology Institute, Gwang Institute of Science and Technology, 2008, The 23rd International Technical Conference on Circuits/Systems, Computers and Communications)(ITC−CSCC 2008年) [Dob95]G.ドーブリンガー(Doblinger)、「サブバンドにおけるスペクトル最小追跡による計算上効率的な言語音声強調(Computationally efficient speech enhancement by spectral minima tracking in subbands)、ユーロスピーチ集録(Proc. Eurospeech)(1995年)、1513〜1516頁 [EBU10]EBU/ETSI JTCブロードキャスト(EBU/ETSI JTC Broadcast)、「デジタル音声ブロードキャスティング(DAB);高度音声符号化(AAC)音声のトランスポート(Digital audio broadcasting (DAB); transport of advanced audio coding (AAC) audio)」、ETSI TS 102 563、欧州放送同盟(European Broadcasting Union)、2010年5月 [EBU12]全世界デジタル無線(DRM);システム仕様(Digital radio mondiale (DRM); system specification)」、ETSI ES 201 980、ETSI、2012年6月 [EH08]ヤーン・S.エルケレンス(Jan S. Erkelens)、リヒャルト・ホイスデンス(Richards Heusdens)、「データを用いた再帰的ノイズパワー推定に基づく非定常ノイズの追跡(Tracking of Nonstationary Noise Based on Data-Driven Recursive Noise Power Estimation)」、音声・言語音声・言語処理、IEEE会報(Audio, Speech, and Language Processing, IEEE Transactions)第16巻(2008年)、第6号、1112〜1123頁 [EM84]Y.エフライム(Ephraim)、D.マーラー(Malah)、「最小平均平方エラー短時間スペクトル振幅推定器を用いた言語音声強調(Speech enhancement using a minimum mean-square error short-time spectral amplitude estimator)、IEEE音響・言語音声・信号処理会報(IEEE Trans. Acoustics, Speech and Signal Processing)第32巻(1984年)、第6号、1109〜1121頁 [EM85]「最小平均平方エラーログスペクトル振幅推定器を用いた言語音声強調(Speech enhancement using a minimum mean-square error log-spectral amplitude estimator)、IEEE音響・言語音声・信号処理会報(IEEE Trans. Acoustics, Speech and Signal Processing)第33巻(1985年)、443〜445頁 [Gan05]S.ガノート(Gannot)、「言語音声強調:推定最大(emフレームワーク)におけるカルマンフィルタの適用(Speech enhancement: Application of the kalman filter in the estimate-maximize (em framework))、シュプリンガー(Springer)、2005年 [HE95]H.G.ヒルシュ(Hirsch)、C.エーアリッヒャー(Ehrlicher)、「ロバストな言語音声認識のためのノイズ推定技術(Noise estimation techniques for robust speech recognition)」、国際IEEE音響・言語音声・信号処理会議集録(Proc. IEEE Int. Conf. Acoustics, Speech, Signal Processing)、153〜156頁、IEEE,1995年 [HHJ10]リヒャルト・C.ヘンドリクス(Richard C. Hendriks)、リヒャルト・ホイスデンス(Richard Heusdens)、イェスパー・イェンゼン(Jesper Jensen)、「低複雑度のMMSEベースのノイズPSD追跡(MMSE based noise PSD tracking with low complexity)」、音響言語音声及び信号処理(ICASSP)(Acoustics Speech and Signal Processing (ICASSP))、2010年IEEE国際会議(2010 IEEE International Conference)、2010年5月、4266〜4269頁 [HJH08]リヒャルト・C.ヘンドリクス(Richard C. Hendriks)、イェスパー・イェンゼン(Jesper Jensen)、リヒャルト・ホイスデンス(Richard Heusdens)、「dft領域サブスペース分解を用いたノイズ追跡(Noise tracking using dft domain subspace decompositions)」、IEEE音声・言語音声・言語処理会報(IEEE Trans. Audio, Speech, Lang. Process.)第16巻(2008年)、第3号、541〜553頁 [IET12]IETF、「Opus音声コーデックの定義(Definition of the Opus Audio Codec)」、技術レポートRFC6716、インターネット工学タスクフォース(Tech. Report RFC 6716, Internet Engineering Task Force)、2012年9月 [ISO09]ISO/IEC JTC1/SC29/WG11、「情報技術―音声視角対象の符号化―第3部:音声(Information technology − coding of audio-visual objects − part 3: Audio)」、ISO/IEC IS 14496−3、国際標準化機構(International Organization for Standardization)、2009年 [ITU03]ITU−T、「適応マルチレート広帯域(amr−wb)を用いた約16kbit/秒での言語音声の広帯域符号化(Wideband coding of speech at around 16 kbit/s using adaptive multi-rate wideband (amr-wb))、勧告(Recommendation)ITU−T G.722.2、ITU電気通信標準化セクター(Telecommunication Standardization Sector of ITU)、2003年7月 [ITU05]「低フレーム損失のシステムにおけるハンドフリー動作のための24・32kbit/秒での低複雑度符号化(Low-complexity coding at 24 and 32 kbit/s for hands-free operation in systems with low frame loss)」、勧告(Recommendation)ITU−T G.722.1、ITU電気通信標準化セクター(Telecommunication Standardization Sector of ITU)2005年5月 [ITU06a]「G.722付録III:G.722のためのパケット損失封じ込めのための高複雑度のアルゴリズム(G.722 Appendix III: A high-complexity algorithm for packet loss concealment for G.722)」、ITU−T勧告(Recommendation)、ITU−T、2006年11月 [ITU06b]「G.729.1:G729ベースの埋め込み可変ビットレートコーダ:g.729と相互動作可能な8〜32kbit/秒スケーリング可能広帯域コーダビットストリーム(G.729.1: G.729-based embedded variable bit-rate coder: An 8-32 kbit/s scalable wideband coder bitstream interoperable with g.729)」、勧告(Recommendation)ITU−T G.729.1、ITU電気通信標準化セクター(Telecommunication Standardization Sector of ITU)、2006年5月 [ITU07]「G.722付録IV:G.722によるパケット損失封じ込めのための低複雑度のアルゴリズム(G.722 Appendix IV: A low-complexity algorithm for packet loss concealment with G.722)」、ITU−T勧告(Recommendation)、ITU−T、2007年8月 [ITU08a]「G.718:8〜32kbit/秒からの言語音声及び音声のフレームエラーロバストな狭帯域及び広帯域埋め込み可変ビットレート符号化(G.718: Frame error robust narrow-band and wideband embedded variable bit-rate coding of speech and audio from 8-32 kbit/s)、勧告(Recommendation)ITU−T G.718、ITU電気通信標準化セクター(Telecommunication Standardization Sector of ITU)、2008年6月 [ITU08b]「G.719:高品質会話用途のための低複雑度全帯域音声符号化(G.719: Low-complexity, full-band audio coding for high-quality, conversational applications)」、勧告(Recommendation)ITU−T G.719、ITU電気通信標準化セクター(Telecommunication Standardization Sector of ITU)、2008年6月 [ITU12]「G.729:共役構造の代数的符号励振線形予測(cs−acelp)を用いた8kbit/秒での言語音声の符号化(G.729: Coding of speech at 8 kbit/s using conjugate-structure algebraic-code-excited linear prediction (cs-acelp))」、勧告(Recommendation)ITU−T G.729、ITU電気通信標準化セクター(Telecommunication Standardization Sector of ITU)、2012年6月 [LS01]ピエール・ローベール(Pierre Lauber)、ラルフ・シュペルシュナイダー(Ralph Sperschneider)、「圧縮デジタル音声のためのエラー封じ込め(Error concealment for compressed digital audio)」、第111回音声工学協会会議(Audio Engineering Society Convention 111)、第5460号、2001年9月 [Mar01]ライナー・マルティン(Rainer Martin)、「最適平滑化及び最小統計に基づくノイズパワースペクトル密度推定(Noise power spectral density estimation based on optimal smoothing and minimum statistics)」、IEEE言語音声・音声処理会報(IEEE Transactions on Speech and Audio Processing)第9巻(2001年)、第5号、504〜512頁 [Mar03]「ノイズの多い言語音声の強調のための統計的方法(Statistical methods for the enhancement of noisy speech)」、国際音響エコー・ノイズ制御ワークショップ(International Workshop on Acoustic Echo and Noise Control)(IWAENC2003)、ブラウンシュヴァイク工科大学(Technical University of Braunschweig)、2003年9月 [MC99]R.マルティン(Martin)、R.コックス(Cox)、「低ビットレート言語音声符号化のための新規の言語音声強調技術(New speech enhancement techniques for low bit rate speech coding)」、IEEE言語音声符号化ワークショップ集録(Proc. IEEE Workshop on Speech Coding)(1999年)、165〜167頁 [MCA99]D.マーラー(Malah)、R.V.コックス(Cox)、A.J.アッカルディ(Accardi)、「非定常ノイズ環境において言語音声強調を向上させるための言語音声の存在の不確実性の追跡(Tracking speech-presence uncertainty to improve speech enhancement in nonstationary noise environments)」、国際IEEE音響・言語音声・信号処理会議集録(Proc. IEEE Int. Conf. on Acoustics Speech and Signal Processing)(1999年)、789〜792頁 [MEP01]ニコラウス・マイネ(Nikolaus Meine)、ベルント・エードラー(Bernd Edler)、ハイコ・プルンハーゲン(Heiko Purnhagen)、「HILN MPEG−4パラメータ的音声符号化のためのエラー保護及び封じ込め(Error protection and concealment for HILN MPEG-4 parametric audio coding)」、第110回音声工学協会会議(Audio Engineering Society Convention 110)、第5300号、2001年5月 [MPC89]Y.マイユー(Mahieux)、J.−P.プチ(Petit)、A.シャルボニエ(Charbonnier)、「連続する変換ブロック間の相関を用いた音声信号の変換符号化(Transform coding of audio signals using correlation between successive transform blocks)」、音響・言語音声・信号処理(Acoustics, Speech, and Signal Processing)、1989年、ICASSP−89、1989年国際会議(1989 International Conference)、1989年、2021〜2024頁、第3巻 [NMR+12]マックス・ノイエンドルフ(Max Neuendorf)、マルクス・ムルトルス(Markus Multrus)、ニコラウス・レッテルバッハ(Nikolaus Rettelbach)、ギヨーム・フックス(Guillaume Fuchs)、ジュリアン・ロビヤール(Julien Robilliard)、ジェレミー・ルコント(Jeremie Lecomte)、シュテファン・ヴィルデ(Stephan Wilde)、シュテファン・バイヤー(Stefan Bayer)、ザシャ・ディッシュ(Sascha Disch)、クリスティアン・ヘルムリッヒ(Christian Helmrich)、ロッシュ・ルフェーブル(Roch Lefebvre)、フィリップ・グルネー(Philippe Gournay)、ブルーノ・ベセッテ(Bruno Bessette)、ジミー・ラピエール(Jimmy Lapierre)、クリストファー・キェルリング(Kristopfer Kjorling)、ハイコ・プルンハーゲン(Heiko Purnhagen)、ラルス・ヴィルモエス(Lars Villemoes)、ヴェルナー・オーメン(Werner Oomen)、エリック・シャイヤース(Erik Schuijers)、ケイ・キクイリ(Kei Kikuiri)、トール・チネン(Toru Chinen)、タケシ・ノリマツ(Takeshi Norimatsu)、チョン・コク・セン(Chong Kok Seng)、ユーンミ・オー(Eunmi Oh)、ミヨン・キム(Miyoung Kim)、シュイラー・クヴァッケンブッシュ(Schuyler Quackenbush)、ベルンハルト・グリル(Berndhard Grill)、「MPEG統一言語音声及び音声符号化―全てのコンテンツタイプの高効率音声符号化のためのISO/MPEG標準規格(MPEG Unified Speech and Audio Coding - The ISO / MPEG Standard for High-Efficiency Audio Coding of all Content Types)、会議録(Convention Paper)、8654頁、AES、2012年4月、第132回会議、ブダペスト、ハンガリー(Presented at the 132nd Convention Budapest, Hungary) [PKJ+11]ナム・イン・パク(Nam In Park)、ホン・クック・キム(Hong Kook Kim)、ミン・ア・ジュン(Min A Jung)、ソン・ロ・リー(Seong Ro Lee)、ソン・ホ・チョイ(Seung Ho Choi)、「無線センサネットワークにおけるcelpタイプの言語音声コーダのための多数のコードブック及び快適ノイズを用いたバースト状のパケット損失の封じ込め(Burst packet loss concealment using multiple codebooks and comfort noise for celp-type speech coders in wireless sensor networks)」、センサーズ(Sensors)第11巻(2011)、5323〜5336頁 [QD03]シュイラー・クヴァッケンブッシュ(Schuyler Quackenbush)、ペーター・F.ドリーセン(Peter F. Driessen)、「MPEG−4音声パケット通信システムにおけるエラー緩和(Error mitigation in MPEG-4 audio packet communication systems)」、第115回音声工学協会会議(Audio Engineering Society Convention 115)、第5981号、2003年10月 [RL06]S.ランガカーリ(Rangachari)、P.C.ロイズ(Loizou)、「高度に非定常な環境のためのノイズ推定アルゴリズム(A noise-estimation algorithm for highly non-stationary environments)」、言語音声通信(Speech Commun.)第48巻(2006年)、220〜231頁 [SFB00]V.シュタール(Stahl)、A.フィッシャー(Fischer)、R.ビップス(Bippus)、「スペクトル減算及びウィーナフィルタリングのためのクオンタイルベースのノイズ推定(Quantile based noise estimation for spectral subtraction and wiener filtering)、国際IEEE音響・言語音声・信号処理会議集録(Proc. IEEE Int. Conf. Acoust., Speech and Signal Process)(2000年)、1875〜1878頁 [SS98]J.ゾーン(Sohn)、W.ズング(Sung)、「ソフト決定ベースのノイズスペクトル適応を用いた音声活動検出器(A voice activity detector employing soft decision based noise spectrum adaptation)」、国際IEEE音響・言語音声・信号処理会議集録(Proc. IEEE Int. Conf. Acoustics, Speech, Signal Processing, no.)、365〜368頁、IEEE、1998年 [Yu09]ロンシャン・ユー(Rongshan Yu)、「ノイズパワー推定の平滑化及び推定バイアス訂正に基づく低複雑度のノイズ推定アルゴリズム(A low-complexity noise estimation algorithm based on smoothing of noise power estimation and estimation bias correction)」、音響・言語音声・信号処理(Acoustics, Speech and Signal Processing)、2009年、ICASSP 2009、IEEE国際会議(IEEE International Conference)、2009年4月、4421〜4424頁
本発明の目的は、音声符号化システムについての向上した概念を提供することである。本発明の目的は、請求項1に記載の装置、請求項12に記載の方法、請求項13に記載のコンピュータプログラムによって達成される。
符号化音声信号を復号して再構成音声信号を得るための装置が提供される。当該装置は、1つ以上のフレームを受信するための受信インターフェースと、係数生成部と、信号再構成部とを備える。係数生成部は、1つ以上のフレームのうちの現在のフレームが受信インターフェースによって受信されており、且つ受信インターフェースによって受信されている現在のフレームが破損していない場合、現在のフレームに含まれる1つ以上の第1の音声信号係数を決定するように構成され、前記1つ以上の第1の音声信号係数は、符号化音声信号の特性を示し、1つ以上のノイズ係数が、符号化音声信号の背景ノイズを示す。更に、係数生成部は、現在のフレームが受信インターフェースによって受信されていない場合、又は受信インターフェースによって受信されている現在のフレームが破損している場合、1つ以上の第1の音声信号係数と1つ以上のノイズ係数とに応じて1つ以上の第2の音声信号係数を生成するように構成される。音声信号再構成部は、現在のフレームが受信インターフェースによって受信されており、且つ受信インターフェースによって受信されている現在のフレームが破損していない場合、1つ以上の第1の音声信号係数に応じて再構成音声信号の第1の部分を再構成するように構成される。更に、音声信号再構成部は、現在のフレームが受信インターフェースによって受信されていない場合、又は受信インターフェースによって受信されている現在のフレームが破損している場合、1つ以上の第2の音声信号係数に応じて再構成音声信号の第2の部分を再構成するように構成される。
いくつかの実施例においては、1つ以上の第1の音声信号係数は、例えば、符号化音声信号の1つ以上の線形予測フィルタ係数であり得る。いくつかの実施例においては、1つ以上の第1の音声信号係数は、例えば、符号化音声信号の1つ以上の線形予測フィルタ係数であり得る。
実施例によると、1つ以上のノイズ係数は、例えば、符号化音声信号の背景ノイズを示す1つ以上の線形予測フィルタ係数であり得る。実施例においては、1つ以上の線形予測フィルタ係数は、例えば、背景ノイズのスペクトル形状を表し得る。
実施例においては、係数生成部は、例えば、1つ以上の第2の音声信号部分が再構成音声信号の1つ以上の線形予測フィルタ係数であるように、又は1つ以上の第1の音声信号係数が再構成音声信号の1つ以上のインミッタンススペクトル対であるように1つ以上の第2の音声信号部分を決定するように構成され得る。
実施例によると、係数生成部は、例えば、
Figure 2016527541
の式を適用することによって1つ以上の第2の音声信号係数を生成するように構成することができ、fcurrent[i]は、1つ以上の第2の音声信号係数のうちの1つを示し、flast[i]は、1つ以上の第1の音声信号係数のうちの1つを示し、ptmean[i]は、1つ以上のノイズ係数のうちの1つであり、αは、実数(0≦α≦1)であり、iは、イ
ンデックスである。或る実施例では、0<α<1である。
或る実施例によると、flast[i]は、符号化音声信号の線形予測フィルタ係数を示し、fcurrent[i]は、再構成音声信号の線形予測フィルタ係数を示す。
実施例においては、ptmean[i]は、例えば、符号化音声信号の背景ノイズを示し得る。
実施例においては、係数生成部は、例えば、1つ以上のフレームのうちの現在のフレームが受信インターフェースによって受信されており、且つ受信インターフェースによって受信されている現在のフレームが破損していない場合、符号化音声信号のノイズスペクトルを決定することによって1つ以上のノイズ係数を決定するように構成され得る。
実施例によると、係数生成部は、例えば、信号スペクトルに対して最小統計方策を用いて背景ノイズスペクトルを決定し、かつ、背景ノイズスペクトルから背景ノイズ形状を表すLPC係数を算出することによって、背景ノイズを表すLPC係数を決定するように構成され得る。
更に、符号化音声信号を復号して再構成音声信号を得るための方法が提供される。当該方法は、
‐1つ以上のフレームを受信するステップと、
‐1つ以上のフレームのうちの現在のフレームが受信されており、且つ受信されている現在のフレームが破損していない場合、現在のフレームに含まれる1つ以上の第1の音声信号係数を決定するステップと、を備え、前記1つ以上の第1の音声信号係数は、符号化音声信号の特性を示し、1つ以上のノイズ係数が、符号化音声信号の背景ノイズを示し、当該方法は、更に、
‐現在のフレームが受信されていない場合、又は受信されている現在のフレームが破損している場合、1つ以上の第1の音声信号係数と1つ以上のノイズ係数とに応じて1つ以上の第2の音声信号係数を生成するステップと、
‐現在のフレームが受信されており、且つ受信されている現在のフレームが破損していない場合、1つ以上の第1の音声信号係数に応じて再構成音声信号の第1の部分を再構成するステップと、
‐現在のフレームが受信されていない場合、又は受信されている現在のフレームが破損している場合、1つ以上の第2の音声信号係数に応じて再構成音声信号の第2の部分を再構成するステップと、を備える。
更に、コンピュータ又は信号プロセッサにおいて実行された時に上述の方法を実現するためのコンピュータプログラムが提供される。
フェードアウト中に快適ノイズのスペクトル形状をトレースして適用するための共通の手段を有することにはいくつかの利点がある。スペクトル形状をトレースして適用することが両方のコアコーデックについて同様に行われることで、簡単な共通の方策が可能となる。CELTにおいては、スペクトル領域におけるエネルギーの帯域単位のトレースと、スペクトル領域におけるスペクトル形状の帯域単位の形成とが教示されているのみであり、これは、CELPコアにおいては不可能である。
これとは対照的に、先行技術では、バースト状の損失中に導入される快適ノイズのスペクトル形状は、完全に静的か、或いは、部分的に静的且つスペクトル形状の短期平均に対して部分的に適応的であり(G.718[ITU08a]で実現される)、通常、パケット損失前の信号における背景ノイズに一致しない。この快適ノイズ特性の不一致は、不快なものとなる場合がある。先行技術によると、オフラインで学習させた(静的)背景ノイズ形状を用いることができ、これは、特定の信号については心地よい音であり得るが、他の信号についてはそれほど心地よいものではない場合があり、例えば、自動車のノイズは、オフィスのノイズとは全く異なって聞こえる。
更に、先行技術においては、以前に受信したフレームのスペクトル形状の短期平均に対する適応が用いられることがあり、これにより以前に受信した信号に近い信号特性を得ることができるが、これは、必ずしも背景ノイズ特性に近いものではない。先行技術では、スペクトル領域において帯域単位でスペクトル形状をトレースすること(CELT[IET12]で実現される)は、MDCT領域ベースのコア(TCX)だけでなくACELPベースのコアをも用いる切り替えコーデックには適用可能ではない。従って、上述の実施例は、先行技術よりも有利である。
更に、音声信号を復号するための装置が提供される。
当該装置は、受信インターフェースを備える。受信インターフェースは、複数のフレームを受信するように構成され、受信インターフェースは、複数のフレームのうちの第1のフレームを受信するように構成され、第1のフレームは、音声信号の第1の音声信号部分を含み、前記第1の音声信号部分は、第1の領域において表現され、受信インターフェースは、複数のフレームのうちの第2のフレームを受信するように構成され、第2のフレームは、音声信号の第2の音声信号部分を含む。
更に、当該装置は、第2の音声信号部分、又は第2の音声信号部分から導出された値若しくは信号を、第2の領域からトレース領域に変換することによって第2の信号部分情報を得るための変換部を備え、第2の領域は、第1の領域とは異なり、トレース領域は、第2の領域とは異なり、トレース領域は、第1の領域と等しい又は異なる。
更に、当該装置は、ノイズレベルトレース部を備え、ノイズレベルトレース部は、トレース領域において表現される第1の信号部分情報を受信するように構成され、第1の信号部分情報は、第1の音声信号部分に依存する。ノイズレベルトレース部は、トレース領域において表現される第2の信号部分を受信するように構成され、ノイズレベルトレース部は、トレース領域において表現される第1の信号部分情報と、トレース領域において表現される第2の信号部分情報とに応じてノイズレベル情報を決定するように構成される。
更に、当該装置は、複数のフレームのうちの第3のフレームが受信インターフェースによって受信されていないが破損している場合、ノイズレベル情報に応じて音声信号の第3の音声信号部分を再構成するための再構成部を備える。
音声信号は、例えば、言語音声信号、音楽信号、又は、言語音声及び音楽等を含む信号であり得る。
第1の信号部分情報が第1の音声信号部分に依存するという記載は、第1の信号部分情報が第1の音声信号部分であるか、又は、第1の信号部分情報が、第1の音声信号部分に応じて入手/生成されているか、若しくは或る他の態様で第1の音声信号部分に依存することを意味する。例えば、第1の音声信号部分は、第1の信号部分情報を得るために1つの領域から別の領域に変換されている場合がある。
同様に、第2の信号部分情報が第2の音声信号部分に依存するという記載は、第2の信号部分情報が第2の音声信号部分であるか、又は、第2の信号部分情報が、第2の音声信号部分に応じて入手/生成されているか、若しくは或る他の態様で第2の音声信号部分に依存することを意味する。例えば、第2の音声信号部分は、第2の信号部分情報を得るために1つの領域から別の領域に変換されている場合がある。
実施例においては、第1の音声信号部分は、例えば、第1の領域として時間領域において表現され得る。更に、変換部は、例えば、第2の音声信号部分、又は第2の音声信号部分から導出された値を、第2の領域である励振領域から、トレース領域である時間領域へ変換するように構成され得る。更に、ノイズレベルトレース部は、例えば、トレース領域としての時間領域において表現される第1の信号部分情報を受信するように構成され得る。更に、ノイズレベルトレース部は、例えば、トレース領域としての時間領域において表現される第2の信号部分を受信するように構成され得る。
実施例によると、第1の音声信号部分は、例えば、第1の領域としての励振領域において表現され得る。更に、変換部は、例えば、第2の音声信号部分、又は第2の音声信号部分から導出された値を、第2の領域である時間領域から、トレース領域である励振領域に変換するように構成され得る。更に、ノイズレベルトレース部は、例えば、トレース領域としての励振領域において表現される第1の信号部分情報を受信するように構成され得る。更に、ノイズレベルトレース部は、例えば、トレース領域としての励振領域において表現される第2の信号部分を受信するように構成され得る。
実施例においては、第1の音声信号部分は、例えば、第1の領域としての励振領域において表現することができ、ノイズレベルトレース部は、例えば、第1の信号部分情報を受信するように構成することができ、第1の信号部分情報は、トレース領域であるFFT領域において表現され、前記第1の信号部分情報は、励振領域において表現される第1の音声信号部分に依存し、変換部は、例えば、第2の音声信号部分、又は第2の音声信号部分から導出された値を、第2の領域である時間領域から、トレース領域であるFFT領域に変換するように構成することができ、ノイズレベルトレース部は、例えば、FFT領域において表現される第2の音声信号部分を受信するように構成され得る。
実施例においては、当該装置は、例えば、更に、第1の音声信号部分に応じて第1の集約値を決定するための第1の集約部を備え得る。更に、当該装置は、例えば、更に、第2の音声信号部分に応じて、第2の音声信号部分から導出された値としての第2の集約値を決定するための第2の集約部を備え得る。更に、ノイズレベルトレース部は、例えば、トレース領域において表現される第1の信号部分情報として第1の集約値を受信するように構成することができ、ノイズレベルトレース部は、例えば、トレース領域において表現される第2の信号部分情報として第2の集約値を受信するように構成することができ、ノイズレベルトレース部は、例えば、トレース領域において表現される第1の集約値と、トレース領域において表現される第2の集約値とに応じて、ノイズレベル情報を決定するように構成され得る。
実施例によると、第1の集約部は、例えば、第1の集約値が、第1の音声信号部分、又は第1の音声信号部分から導出された信号の、根二乗平均を示すように、第1の集約値を決定するように構成され得る。更に、第2の集約部は、例えば、第2の集約値が、第2の音声信号部分、又は第2の音声信号部分から導出された信号の、根二乗平均を示すように、第2の集約値を決定するように構成され得る。
実施例においては、変換部は、例えば、第2の音声信号部分から導出された値にゲイン値を適用することにより、第2の音声信号部分から導出された値を、第2の領域からトレース領域に変換するように構成され得る。
実施例によると、ゲイン値は、例えば、線形予測符号化合成によって導入されたゲインを示すか、或いは、ゲイン値は、例えば、線形予測符号化合成及び強調解除によって導入されたゲインを示すことができる。
実施例においては、ノイズレベルトレース部は、例えば、最小統計方策を適用することによってノイズレベル情報を決定するように構成され得る。
実施例によると、ノイズレベルトレース部は、例えば、ノイズレベル情報として快適ノイズレベルを決定するように構成され得る。再構成部は、例えば、複数のフレームのうちの前記第3のフレームが受信インターフェースによって受信されていない場合、又は前記第3のフレームが受信インターフェースによって受信されているが破損している場合、ノイズレベル情報に応じて第3の音声信号部分を再構成するように構成され得る。
実施例においては、ノイズレベルトレース部は、例えば、ノイズレベルスペクトルから導出されたノイズレベル情報として快適ノイズレベルを決定するように構成することができ、前記ノイズレベルスペクトルは、最小統計方策を適用することによって得られる。再構成部は、例えば、複数のフレームのうちの前記第3のフレームが受信インターフェースによって受信されていない場合、又は前記第3のフレームが受信インターフェースによって受信されているが破損している場合、複数の線形予測係数に応じて第3の音声信号部分を再構成するように構成することができる。
別の実施例によると、ノイズレベルトレース部は、例えば、ノイズレベル情報として快適ノイズレベルを示す複数の線形予測係数を決定するように構成することができ、再構成部は、例えば、複数の線形予測係数に応じて第3の音声信号部分を再構成するように構成することができる。
実施例においては、ノイズレベルトレース部は、ノイズレベル情報として快適ノイズレベルを示す複数のFFT係数を決定するように構成され、第1の再構成部は、複数のフレームのうちの前記第3のフレームが受信インターフェースによって受信されていない場合、又は前記第3のフレームが受信インターフェースによって受信されているが破損している場合、前記FFT係数から導出された快適ノイズレベルに応じて第3の音声信号部分を再構成するように構成される。
実施例においては、再構成部は、例えば、複数のフレームのうちの前記第3のフレームが受信インターフェースによって受信されていない場合、又は前記第3のフレームが受信インターフェースによって受信されているが破損している場合、ノイズレベル情報と第1の音声信号部分とに応じて第3の音声信号部分を再構成するように構成され得る。
実施例によると、再構成部は、例えば、第1の音声信号部分又は第2の音声信号部分から導出された信号を減衰させる又は増幅することによって、第3の音声信号部分を再構成するように構成され得る。
実施例においては、当該装置は、例えば、更に、遅延バッファを含む長期予測部を備えることができる。更に、長期予測部は、例えば、第1の音声信号部分又は第2の音声信号部分と、遅延バッファに記憶されている遅延バッファ入力と、長期予測ゲインとに応じて、処理済信号を生成するように構成され得る。更に、長期予測部は、例えば、複数のフレームのうちの前記第3のフレームが受信インターフェースによって受信されていない場合、又は前記第3のフレームが受信インターフェースによって受信されているが破損している場合、長期予測ゲインをゼロへフェードさせるように構成され得る。
実施例によると、長期予測部は、例えば、長期予測ゲインをゼロへフェードさせるように構成することができ、長期予測ゲインがゼロへフェードさせられる速度は、フェードアウト定数に依存する。
実施例においては、長期予測部は、例えば、複数のフレームのうちの前記第3のフレームが受信インターフェースによって受信されていない場合、又は前記第3のフレームが受信インターフェースによって受信されているが破損している場合、生成された処理済信号を遅延バッファに記憶させることによって遅延バッファ入力を更新するように構成され得る。
実施例によると、変換部は、例えば、第1の変換部とすることができ、再構成部は、第1の再構成部である。当該装置は、更に、第2の変換部及び第2の再構成部を備える。第2の変換部は、例えば、複数のフレームのうちの第4のフレームが受信インターフェースによって受信されていない場合、又は前記第4のフレームが受信インターフェースによって受信されているが破損している場合、ノイズレベル情報をトレース領域から第2の領域に変換するように構成され得る。更に、前記第2の再構成部は、例えば、複数のフレームのうちの前記第4のフレームが受信インターフェースによって受信されていない場合、又は前記第4のフレームが受信インターフェースによって受信されているが破損している場合、第2の領域において表現されているノイズレベル情報に応じて音声信号の第4の音声信号部分を再構成するように構成され得る。
実施例においては、第2の再構成部は、例えば、ノイズレベル情報と第2の音声信号部分とに応じて第4の音声信号部分を再構成するように構成され得る。
実施例によると、第2の再構成部は、例えば、第1の音声信号部分又は第2の音声信号部分から導出された信号を減衰させる又は増幅することによって第4の音声信号部分を再構成するように構成され得る。
更に、音声信号を復号するための方法が提供される。
当該方法は、
‐複数のフレームのうちの第1のフレームを受信するステップを備え、前記第1のフレームは、前記音声信号の第1の音声信号部分を含み、前記第1の音声信号部分は、第1の領域において表現され、当該方法は、更に、
‐複数のフレームのうちの第2のフレームを受信するステップを備え、前記第2のフレームは、音声信号の第2の音声信号部分を含み、当該方法は、更に、
‐第2の音声信号部分、又は第2の音声信号部分から導出された値又は信号を、第2の領域からトレース領域に変換して第2の信号部分情報を得るステップを備え、第2の領域は、第1の領域とは異なり、トレース領域は、第2の領域とは異なり、トレース領域は、第1の領域と等しい又は異なり、当該方法は、更に、
‐トレース領域において表現される第1の信号部分情報と、トレース領域において表現される第2の信号部分情報とに応じてノイズレベル情報を決定するステップを備え、第1の信号部分情報は、第1の音声信号部分に依存し、当該方法は、更に、
‐複数のフレームのうちの第3のフレームが受信されていない場合、又は前記第3のフレームが受信されているが破損している場合、トレース領域において表現されるノイズレベル情報に応じて音声信号の第3の音声信号部分を再構成するステップを備える。
更に、コンピュータ又は信号プロセッサにおいて実行された時に上述の方法を実現するためのコンピュータプログラムが提供される。
本発明のいくつかの実施例は、時間可変平滑化パラメータを提供し、これにより平滑化されたペリオドグラムの追跡能力と、その分散とのバランスがより良好に取られ、バイアス補償のためのアルゴリズムを開発し、ノイズ追跡全般の速度を向上させる。
本発明の実施例は、フェードアウトに関し、以下のパラメータが関心の対象であるという知見に基づく。即ち、フェードアウト領域、フェードアウト速度又はより一般的にフェードアウト曲線、フェードアウトの目標レベル、フェードアウトの目標スペクトル形状、及び/又は背景ノイズレベルトレースである。この文脈で、実施例は、先行技術が顕著な欠陥を有しているという知見に基づく。
エラー封じ込め中に切り替え音声符号化システムのための向上した信号フェードアウトのための装置及び方法が提供される。
更に、コンピュータ又は信号プロセッサにおいて実行された時に上述の方法を実現するためのコンピュータプログラムが提供される。
実施例は、快適ノイズレベルへのフェードアウトを実現する。実施例によると、励振領域における共通の快適ノイズレベルトレースが実現される。バースト状のパケット損失中に目標とされる快適ノイズレベルは、使用されているコアコーダ(ACELP/TCX)に関わらず同じであり、常に最新のものである。共通のノイズレベルトレースが必要な先行技術は知られていない。実施例は、バースト状のパケット損失の際に、快適ノイズ様の信号への切り替えコーデックのフェードを提供する。
更に、実施例は、機能(PROM)及びメモリが共有され得るため、2つの独立したノイズレベルトレースモジュールを有する場合と比較して全体の複雑度が低くなることを実現する。
実施例においては、(時間領域におけるレベル導出と比較して)励振領域におけるレベル導出は、言語音声情報の一部がLP係数によってカバーされるため、アクティブな言語音声中により多くの最小値をもたらす。
ACELPの場合、実施例によると、レベル導出は、励振領域で行われる。TCXの場合、実施例においては、レベルは、時間領域において導出され、LPC合成及び強調解除のゲインを訂正定数として適用することによって、励振領域におけるエネルギーレベルをモデル化する。励振領域におけるレベルをトレースする、例えば、FDNS前にこれを行うことは、理論的には可能であるが、TCX励振領域とACELP励振領域との間のレベル補償は、むしろ複雑と考えられる。
先行技術で、このような異なる領域における共通の背景レベルトレースを組み込むものはない。先行技術は、切り替えコーデックシステムにおいて、例えば、励振領域における、そのような共通の快適ノイズレベルトレースを有さない。従って、先行技術では、バースト状のパケット損失中に目標とされる快適ノイズレベルは、レベルがトレースされた先行する符号化モード(ACELP/TCX)に応じて異なり得るものであり、先行技術では、各々の符号化モードについて別個のトレースは、不必要なオーバーヘッド及び追加の計算上の複雑度を引き起こすものであり、そして、先行技術では、いずれのコアにおいても、このコアへ最近切り替わったため最新の快適ノイズレベルは利用可能でない可能性があるため、実施例は、先行技術よりも有利である。
いくつかの実施例によると、レベルトレースは、励振領域において行われるが、TCXフェードアウトは、時間領域において行われる。時間領域におけるフェードにより、エイリアシングを引き起こすTDACの失敗が回避される。これに対する関心は、調性を有する信号成分を封じ込める際に特に大きい。更に、ACELP励振領域とMDCTスペクトル領域との間のレベル変換が回避されるため、例えば、計算リソースが節約される。励振領域と時間領域との間の切り替えのため、励振領域と時間領域との間でのレベル調節が必要となる。これを解決するために、LPC合成及び前強調によって導入されるゲインを導出し、このゲインを訂正定数として用いて2領域間でレベルを変換する。
これとは対照的に、先行技術においては、励振領域におけるレベルトレース及び時間領域におけるTCXフェードアウトは、行われない。先行技術の変換ベースのコーデックに関し、減衰定数は、励振領域(時間領域/ACELP様の封じ込め方策については[3GP09a]を参照)又は周波数領域のいずれかにおいて適用される(フレーム繰り返し又はノイズ置き換えといった周波数領域方策については、[LS01]を参照)。減衰定数を周波数領域において適用する先行技術の方策の欠点は、時間領域における重複・追加区域においてエイリアシングが生じることである。これは、異なる減衰定数が適用される隣接するフレームの場合に該当するが、それは、フェード手順によってTDAC(時間領域エイリアス消去)が失敗するからである。これは、調性を有する信号成分の封じ込め時に特に重要である。従って、上述の実施例は、先行技術よりも有利である。
実施例は、LPC合成ゲインに対するハイパスフィルタの影響を補償する。実施例によると、ハイパスフィルタを通過した無声の励振によって引き起こされるLPC分析及び強調における望まれないゲイン変化を補償するために、訂正因数が導出される。この訂正定数は、この望まれないゲイン変化を考慮に入れ、励振領域における目標快適ノイズレベルに変更を加えることで、時間領域において正しい目標レベルに到達するようにする。
これとは対照的に、先行技術、例えばG.718[ITU08a]では、最後の良好なフレームの信号が「無声」と分類されなかった場合、図2に示すように、無声励振の信号経路にハイパスフィルタが導入される。これにより、先行技術では、望まれない副作用が生じるが、それは、後続のLPC合成のゲインが、このハイパスフィルタによって変更される信号特性に依存するからである。背景レベルがトレースされて励振領域において適用されるため、アルゴリズムは、LPC合成ゲインに依存し、これは、やはり励振信号の特性に依存する。換言すると、先行技術で行われるようなハイパスフィルタリングによる励振の信号特性の変更によって、LPC合成のゲインが変更(通常は減少)されることがある。これにより、励振レベルが正しくても出力レベルが誤ったものとなる。
実施例は、先行技術のこれらの欠点を克服する。
特に、実施例は、快適ノイズの適応スペクトル形状を実現する。G.718とは対照的に、背景ノイズのスペクトル形状をトレースし、且つ、バースト状のパケット損失の際にこの形状を適用する(これへフェードさせる)ことによって、先行する背景ノイズのノイズ特性は一致し、快適ノイズの心地よいノイズ特性が得られる。これによって、オフライン学習により導出されたスペクトル包絡線の使用により導入され得るスペクトル形状及び/又は最後の受信フレームのスペクトル形状の耳障りな不一致が回避される。
更に、音声信号を復号するための装置が提供される。当該装置は、受信インターフェースを備え、受信インターフェースは、音声信号の第1の音声信号部分を含む第1のフレームを受信するように構成され、受信インターフェースは、音声信号の第2の音声信号部分を含む第2のフレームを受信するように構成される。
更に、当該装置は、ノイズレベルトレース部を備え、ノイズレベルトレース部は、第1の音声信号部分及び第2の音声信号部分のうちの少なくとも1つに応じて(即ち、第1の音声信号部分及び/又は第2の音声信号部分に応じて)ノイズレベル情報を決定するように構成され、ノイズレベル情報は、トレース領域において表現される。
更に、当該装置は、複数のフレームのうちの第3のフレームが受信インターフェースによって受信されていない場合、又は前記第3のフレームが受信インターフェースによって受信されているが破損している場合、ノイズレベル情報に応じて音声信号の第3の音声信号部分を第1の再構成領域において再構成するための第1の再構成部を備え、第1の再構成領域は、トレース領域と異なる又は等しい。
更に、当該装置は、複数のフレームのうちの第4のフレームが受信インターフェースによって受信されていない場合、又は前記第4のフレームが受信インターフェースによって受信されているが破損している場合、ノイズレベル情報をトレース領域から第2の再構成領域に変換するための変換部を備え、第2の再構成領域は、トレース領域とは異なり、第2の再構成領域は、第1の再構成領域とは異なる。
更に、当該装置は、複数のフレームのうちの第4のフレームが受信インターフェースによって受信されていない場合、又は前記第4のフレームが受信インターフェースによって受信されているが破損している場合、第2の再構成領域において表現されるノイズレベル情報に応じて音声信号の第4の音声信号部分を第2の再構成領域において再構成するための第2の再構成部を備える。
いくつかの実施例によると、トレース領域は、例えば、時間領域、スペクトル領域、FFT領域、MDCT領域、又は励振領域であるとすることができる。第1の再構成領域は、例えば、時間領域、スペクトル領域、FFT領域、MDCT領域、又は励振領域であり得る。第2の再構成領域は、例えば、時間領域、スペクトル領域、FFT領域、MDCT領域、又は励振領域であり得る。
実施例においては、トレース領域は、例えば、FFT領域とすることができ、第1の再構成領域は、例えば、時間領域とすることができ、第2の再構成領域は、例えば、励振領域とすることができる。
別の実施例においては、トレース領域は、例えば、時間領域とすることができ、第1の再構成領域は、例えば、時間領域とすることができ、第2の再構成領域は、例えば、励振領域とすることができる。
実施例によると、第1の音声信号部分は、例えば、第1の入力領域において表現することができ、第2の音声信号部分は、例えば、第2の入力領域において表現することができる。変換部は、例えば、第2の変換部であり得る。当該装置は、例えば、更に、第2の音声信号部分、又は第2の音声信号部分から導出された値又は信号を、第2の入力領域からトレース領域に変換して第2の信号部分情報を得るための第1の変換部を備えることができる。ノイズレベルトレース部は、例えば、トレース領域において表現される第1の信号部分情報を受信するように構成することができ、第1の信号部分情報は、第1の音声信号部分に依存し、ノイズレベルトレース部は、トレース領域において表現される第2の信号部分を受信するように構成され、ノイズレベルトレース部は、トレース領域において表現される第1の信号部分情報と、トレース領域において表現される第2の信号部分情報とに応じてノイズレベル情報を決定するように構成される。
実施例によると、第1の入力領域は、例えば、励振領域とすることができ、第2の入力領域は、例えば、MDCT領域とすることができる。
別の実施例においては、第1の入力領域は、例えば、MDCT領域とすることができ、第2の入力領域は、例えば、MDCT領域とすることができる。
実施例によると、第1の再構成部は、例えば、ノイズ様のスペクトルへの第1のフェードを行うことにより第3の音声信号部分を再構成するように構成され得る。第2の再構成部は、例えば、ノイズ様のスペクトルへの第2のフェード及び/又はLTPゲインの第2のフェードを行うことによって第4の音声信号部分を再構成するように構成され得る。更に、第1の再構成部及び第2の再構成部は、例えば、ノイズ様のスペクトルへの第1のフェード及び第2のフェード、並びに/又はLTPゲインの第2のフェードを、同じフェード速度で行うように構成され得る。
実施例において、当該装置は、例えば、更に、第1の音声信号部分に応じて第1の集約値を決定するための第1の集約部を備えることができる。更に、当該装置は、更に、例えば、第2の音声信号部分に応じて、第2の音声信号部分から導出された値として第2の集約値を決定するための第2の集約部を備えることができる。ノイズレベルトレース部は、例えば、トレース領域において表現される第1の信号部分情報として第1の集約値を受信するように構成することができ、ノイズレベルトレース部は、例えば、トレース領域において表現される第2の信号部分情報として第2の集約値を受信するように構成することができ、ノイズレベルトレース部は、トレース領域において表現される第1の集約値と、トレース領域において表現される第2の集約値とに応じてノイズレベル情報を決定するように構成される。
実施例によると、第1の集約部は、例えば、第1の集約値が、第1の音声信号部分、又は第1の音声信号部分から導出された信号の根二乗平均を示すように、第1の集約値を決定するように構成され得る。第2の集約部は、第2の集約値が、第2の音声信号部分、又は第2の音声信号部分から導出された信号の根二乗平均を示すように、第2の集約値を決定するように構成される。
実施例において、第1の変換部は、例えば、第2の音声信号部分から導出された値にゲイン値を適用することにより、第2の音声信号部分から導出された値を第2の入力領域からトレース領域に変換するように構成され得る。
実施例によると、ゲイン値は、例えば、線形予測符号化合成によって導入されたゲインを示すことができ、又は、ゲイン値は、線形予測符号化合成及び強調解除によって導入されたゲインを示す。
実施例においては、ノイズレベルトレース部は、例えば、最小統計方策を適用することによりノイズレベル情報を決定するように構成され得る。
実施例によると、ノイズレベルトレース部は、例えば、ノイズレベル情報として快適ノイズレベルを決定するように構成され得る。再構成部は、例えば、複数のフレームのうちの前記第3のフレームが受信インターフェースによって受信されていない場合、又は前記第3のフレームが受信インターフェースによって受信されているが破損している場合、ノイズレベル情報に応じて第3の音声信号部分を再構成するように構成され得る。
実施例においては、ノイズレベルトレース部は、例えば、ノイズレベルスペクトルから導出されたノイズレベル情報として快適ノイズレベルを決定するように構成することができ、前記ノイズレベルスペクトルは、最小統計方策を適用することによって得られる。再構成部は、例えば、複数のフレームのうちの前記第3のフレームが受信インターフェースによって受信されていない場合、又は前記第3のフレームが受信インターフェースによって受信されているが破損している場合、複数の線形予測係数に応じて第3の音声信号部分を再構成するように構成され得る。
実施例によると、第1の再構成部は、例えば、複数のフレームのうちの前記第3のフレームが受信インターフェースによって受信されていない場合、又は前記第3のフレームが受信インターフェースによって受信されているが破損している場合、ノイズレベル情報と第1の音声信号部分とに応じて第3の音声信号部分を再構成するように構成され得る。
実施例においては、第1の再構成部は、例えば、第1の音声信号部分を減衰させる又は増幅することにより第3の音声信号部分を再構成するように構成され得る。
実施例によると、第2の再構成部は、例えば、ノイズレベル情報と第2の音声信号部分とに応じて第4の音声信号部分を再構成するように構成され得る。
実施例においては、第2の再構成部は、例えば、第2の音声信号部分を減衰させる又は増幅することにより第4の音声信号部分を再構成するように構成され得る。
実施例によると、当該装置は、例えば、更に、遅延バッファを含む長期予測部を備えることができ、長期予測部は、例えば、第1の音声信号部分又は第2の音声信号部分と、遅延バッファに記憶される遅延バッファ入力と、長期予測ゲインとに応じて、処理済信号を生成するように構成することができ、長期予測部は、複数のフレームのうちの前記第3のフレームが受信インターフェースによって受信されていない場合、又は前記第3のフレームが受信インターフェースによって受信されているが破損している場合、長期予測ゲインをゼロへフェードさせるように構成される。
実施例において、長期予測部は、例えば、長期予測ゲインをゼロへフェードさせるように構成することができ、長期予測ゲインがゼロへフェードさせられる速度は、フェードアウト定数に依存する。
実施例においては、長期予測部は、例えば、複数のフレームのうちの前記第3のフレームが受信インターフェースによって受信されていない場合、又は前記第3のフレームが受信インターフェースによって受信されているが破損している場合、生成された処理済信号を遅延バッファに記憶させることによって遅延バッファ入力を更新するように構成され得る。
更に、音声信号を復号するための方法が提供される。当該方法は、
‐音声信号の第1の音声信号部分を含む第1のフレームを受信し、音声信号の第2の音声信号部分を含む第2のフレームを受信するステップと、
‐第1の音声信号部分及び第2の音声信号部分のうちの少なくとも1つに応じてノイズレベル情報を決定するステップと、を備え、ノイズレベル情報は、トレース領域において表現され、当該方法は、更に、
‐複数のフレームのうちの第3のフレームが受信されていない場合、又は前記第3のフレームが受信されているが破損している場合、ノイズレベル情報に応じて音声信号の第3の音声信号部分を第1の再構成領域において再構成するステップを備え、第1の再構成領域は、トレース領域と異なり又は等しく、当該方法は、更に、
‐複数のフレームのうちの第4のフレームが受信されていない場合、又は前記第4のフレームが受信されているが破損している場合、ノイズレベル情報をトレース領域から第2の再構成領域に変換するステップを備え、第2の再構成領域は、トレース領域とは異なり、第2の再構成領域は、第1の再構成領域とは異なり、当該方法は、更に、
‐複数のフレームのうちの前記第4のフレームが受信されていない場合、又は前記第4のフレームが受信されているが破損している場合、第2の再構成領域において表現されるノイズレベル情報に応じて音声信号の第4の音声信号部分を第2の再構成領域において再構成するステップを備える。
更に、コンピュータ又は信号プロセッサにおいて実行された時に上述の方法を実現するためのコンピュータプログラムが提供される。
更に、符号化音声信号を復号して再構成音声信号を得るための装置が提供される。当該装置は、符号化音声信号の音声信号スペクトルの複数の音声信号サンプルについての情報を含む1つ以上のフレームを受信するための受信インターフェースと、再構成音声信号を生成するための処理部とを備える。処理部は、現在のフレームが受信インターフェースによって受信されていない場合、又は現在のフレームが受信インターフェースによって受信されているが破損している場合、変更後スペクトルを目標スペクトルにフェードさせることにより再構成音声信号を生成するように構成されており、変更後スペクトルは、複数の変更後信号サンプルを含み、変更後スペクトルの変更後信号サンプルの各々について、前記変更後信号サンプルの絶対値は、音声信号スペクトルの音声信号サンプルのうちの1つについての絶対値に等しい。更に、処理部は、1つ以上のフレームのうちの現在のフレームが受信インターフェースによって受信されており、且つ受信インターフェースによって受信されている現在のフレームが破損していない場合、変更後スペクトルを目標スペクトルにフェードさせないように構成される。
実施例によると、目標スペクトルは、例えば、ノイズ様のスペクトルであり得る。
実施例においては、ノイズ様のスペクトルは、例えば、ホワイトノイズを表すことができる。
実施例によると、ノイズ様のスペクトルは、例えば、形状付けられ得る。
実施例においては、ノイズ様のスペクトルの形状は、例えば、以前に受信された信号の音声信号スペクトルに依存することができる。
実施例によると、ノイズ様のスペクトルは、例えば、音声信号スペクトルの形状に応じて形状付けられ得る。
実施例においては、処理部は、例えば、チルト定数を用いてノイズ様のスペクトルを形状付けることができる。
実施例によると、処理部は、例えば、
Figure 2016527541
の式を用いることができ、ここで、Nは、サンプルの数を示し、iは、インデックスであり、0≦i<Nであり、tilt_factor>0であり、powerは、パワー関数である。
power(x,y)は、xyを示す。
power(tilt_factor,i/N)」は、tilt_factori/Nを示す。
もしtilt_factorが1よりも小さければ、これは、増加するiによる減衰を意味する。tilt_factorが1よりも大きければ、増加するiによる増幅を意味する。
別の実施例によると、処理部は、例えば、
Figure 2016527541
の式を用いることができ、ここで、Nは、サンプルの数を示し、iは、インデックスであり、0≦i<Nであり、tilt_factor>0である。
もしtilt_factorが1よりも小さければ、これは、増加するiによる減衰を意味する。tilt_factorが1よりも大きければ、増加するiによる増幅を意味する。
実施例によると、処理部は、例えば、現在のフレームが受信インターフェースによって受信されていない場合、又は受信インターフェースによって受信されている現在のフレームが破損している場合、音声信号スペクトルの音声信号サンプルのうちの1つ以上についての符号を変えることによって変更後スペクトルを生成するように構成され得る。
実施例においては、音声信号スペクトルの音声信号サンプルの各々は、例えば、想像上の数ではなく実数によって表され得る。
実施例によると、音声信号スペクトルの音声信号サンプルは、例えば、変更後離散余弦変換領域において表され得る。
別の実施例においては、音声信号スペクトルの音声信号サンプルは、例えば、変更後離散正弦変換領域において表され得る。
実施例によると、処理部は、例えば、第1の値又は第2の値をランダム又は疑似ランダムに出力するランダム符号関数を使用することによって変更後スペクトルを生成するように構成され得る。
実施例においては、処理部は、例えば、続いて減衰定数を減少させることによって変更後スペクトルを目標スペクトルにフェードさせるように構成され得る。
実施例によると、処理部は、例えば、続いて減衰定数を増加させることによって変更後スペクトルを目標スペクトルにフェードさせるように構成され得る。
実施例においては、現在のフレームが受信インターフェースによって受信されていない場合、又は受信インターフェースによって受信されている現在のフレームが破損している場合、処理部は、例えば、
Figure 2016527541
の式を用いて再構成音声信号を生成するように構成することができ、ここで、iは、インデックスであり、x[i]は、再構成音声信号のサンプルを示し、cum_dampingは、減衰定数であり、x_old[i]は、符号化音声信号の音声信号スペクトルの音声信号サンプルのうちの1つを示し、random_sign()は、1又は−1を返し、noiseは、目標スペクトルを示すランダムなベクトルである。
実施例においては、前記ランダムなベクトルnoiseは、例えば、その平方平均が、受信インターフェースによって最後に受信されたフレームのうちの1つに含まれる符号化音声信号のスペクトルの平方平均に類似するようにスケーリングされ得る。
一般的な実施例によると、処理部は、例えば、ランダムなベクトルであって、その平方平均が、受信インターフェースによって最後に受信されたフレームのうちの1つに含まれる符号化音声信号のスペクトルの平方平均に類似するようにスケーリングされたものを用いて、再構成音声信号を生成するように構成され得る。
更に、符号化音声信号を復号して再構成音声信号を得るための方法が提供される。当該方法は、
‐符号化音声信号の音声信号スペクトルの複数の音声信号サンプルについての情報を含む1つ以上のフレームを受信するステップ、及び、
‐再構成音声信号を生成するステップ、
を備える。
再構成音声信号を生成するステップは、現在のフレームが受信されていない場合、又は現在のフレームが受信されているが破損している場合、変更後スペクトルを目標スペクトルにフェードさせることによって行われ、変更後スペクトルは、複数の変更後信号サンプルを含み、変更後スペクトルの変更後信号サンプルの各々について、前記変更後信号サンプルの絶対値は、音声信号スペクトルの音声信号サンプルのうちの1つについての絶対値に等しい。1つ以上のフレームのうちの現在のフレームが受信されており、且つ受信されている現在のフレームが破損していない場合、変更後スペクトルは、ホワイトノイズスペクトルにフェードさせられない。
更に、コンピュータ又は信号プロセッサにおいて実行された時に上述の方法を実現するためのコンピュータプログラムが提供される。
実施例は、FDNS適用に先立つホワイトノイズへのMDCTスペクトルのフェードを実現する(FDNS=周波数領域ノイズ置き換え)。
先行技術によると、ACELPベースのコーデックにおいて、新規コードブックをランダムなベクトル(例えば、ノイズ)と入れ換える。実施例では、新規コードブックをランダムなベクトル(例えば、ノイズ)と入れ換えることからなるACELP方策が、TCXデコーダ構造に対して採用される。ここでは、新規コードブックの等価物は、通常、ビットストリーム内で受信されてFDNSに入力されるMDCTスペクトルである。
古典的なMDCT封じ込め方策は、単に、このスペクトルをそのまま繰り返すか、又は或るランダム化プロセスを適用することであり、これは、基本的に最後の受信フレームのスペクトル形状を長くする[LS01]。これには、短期的スペクトル形状が長くされるという欠点があり、そのため頻繁に繰り返される金属音が生じ、これは、背景ノイズ様ではないため快適ノイズとしては用いられ得ない。
本願において提案される方法を用いると、短期間のスペクトル形状付けは、FDNS及びTCX LTPによって実行され、長期間に亘るスペクトル形状付けは、FDNSのみによって実行される。FDNSによる形状付けは、短期スペクトル形状から、背景ノイズについてのトレースされた長期スペクトル形状へフェードさせられ、TCX LTPは、ゼロにフェードさせられる。
FDNS係数を、トレースされた背景ノイズ係数にフェードさせることによって、最後の良好なスペクトル包絡線と、長期間に亘り目標とされるべきスペクトル背景包絡線との間で平滑な遷移が得られ、長いバースト状のフレーム損失中に心地よい背景ノイズを達成する。
対照的に、先行技術によると、変換ベースのコーデックについて、周波数領域におけるフレーム繰り返し又はノイズ置き換えによってノイズ様の封じ込めが行われる[LS01]。先行技術では、ノイズ置き換えは、通常、スペクトルビンの符号スクランブルによって実行される。先行技術において、封じ込め中にTCX(周波数領域)符号スクランブルを用いる場合、最後に受信したMDCT係数を再使用し、各々の符号をランダム化してからスペクトルを時間領域へ逆変換する。この先行技術の手順の欠点は、連続して失われたフレームについて同じスペクトルが何度も使用され、符号のランダム化及びグローバル減衰が異なるにすぎないことである。粗い時間グリッドにおける時間の経過に亘るスペクトル包絡線を見ると、包絡線は、連続するフレーム損失中にほぼ一定であることが分かるが、それは、フレーム内で帯域エネルギーが互いに対して相対的に一定に保たれ、グローバル減衰させられるのみであるからである。使用される符号化システムにおいて、先行技術によると、FDNSを用いてスペクトル値を処理することにより元のスペクトルを復元する。これは、(FDNS係数、例えば、現在の背景ノイズを記述するものを用いて)MDCTスペクトルを特定のスペクトル包絡線にフェードさせることを望む場合、結果が、FDNS係数にのみ依存するのではなく、符号においてスクランブルされた以前に復号されたスペクトルにも依存することを意味する。上述の実施例は、先行技術のこれらの欠点を克服する。
実施例は、符号スクランブルに用いられるスペクトルをホワイトノイズにフェードさせてからFDNS処理に入力することが必要であるという知見に基づく。これを行わない限り、出力されたスペクトルは、FDNS処理に用いられる目標包絡線に一致することはない。
実施例においては、ホワイトノイズフェードについてと同様にLTPゲインフェードについても同じフェード速度を用いる。
更に、符号化音声信号を復号して再構成音声信号を得るための装置が提供される。当該装置は、複数のフレームを受信するための受信インターフェース、再構成音声信号の音声信号サンプルを記憶するための遅延バッファ、遅延バッファに記憶されている音声信号サンプルから複数の選択音声信号サンプルを選択するためのサンプル選択部、及び、選択音声信号サンプルを処理して再構成音声信号の再構成音声信号サンプルを得るためのサンプル処理部を備える。サンプル選択部は、現在のフレームが受信インターフェースによって受信されており、且つ受信インターフェースによって受信されている現在のフレームが破損していない場合、現在のフレームに含まれるピッチ遅れ情報に応じて遅延バッファに記憶されている音声信号サンプルから複数の選択音声信号サンプルを選択するように構成される。更に、サンプル選択部は、現在のフレームが受信インターフェースによって受信されていない場合、又は受信インターフェースによって受信されている現在のフレームが破損している場合、受信インターフェースによって以前に受信されている別のフレームに含まれるピッチ遅れ情報に応じて遅延バッファに記憶されている音声信号サンプルから複数の選択音声信号サンプルを選択するように構成される。
実施例によると、サンプル処理部は、例えば、現在のフレームが受信インターフェースによって受信されており、且つ受信インターフェースによって受信されている現在のフレームが破損していない場合、現在のフレームに含まれるゲイン情報に応じて選択音声信号サンプルを再スケーリングすることによって再構成音声信号サンプルを得るように構成され得る。更に、サンプル選択部は、例えば、現在のフレームが受信インターフェースによって受信されていない場合、又は受信インターフェースによって受信されている現在のフレームが破損している場合、受信インターフェースによって以前に受信されている前記別のフレームに含まれるゲイン情報に応じて選択音声信号サンプルを再スケーリングすることによって再構成音声信号サンプルを得るように構成され得る。
実施例においては、サンプル処理部は、例えば、現在のフレームが受信インターフェースによって受信されており、且つ受信インターフェースによって受信されている現在のフレームが破損していない場合、選択音声信号サンプルと、現在のフレームに含まれるゲイン情報に応じた値とを乗算することによって再構成音声信号サンプルを得るように構成され得る。更に、サンプル選択部は、現在のフレームが受信インターフェースによって受信されていない場合、又は受信インターフェースによって受信されている現在のフレームが破損している場合、選択音声信号サンプルと、受信インターフェースによって以前に受信されている前記別のフレームに含まれるゲイン情報に応じた値とを乗算することによって再構成音声信号サンプルを得るように構成される。
実施例によると、サンプル処理部は、例えば、再構成音声信号サンプルを遅延バッファに記憶させるように構成され得る。
実施例においては、サンプル処理部は、例えば、更なるフレームが受信インターフェースによって受信される前に再構成音声信号サンプルを遅延バッファに記憶させるように構成され得る。
実施例によると、サンプル処理部は、例えば、更なるフレームが受信インターフェースによって受信された後に再構成音声信号サンプルを遅延バッファに記憶させるように構成され得る。
実施例においては、サンプル処理部は、例えば、ゲイン情報に応じて選択音声信号サンプルを再スケーリングして再スケーリング音声信号サンプルを得て、前記再スケーリング音声信号サンプルを入力音声信号サンプルと組み合わせて前記処理済音声信号サンプルを得るように構成され得る。
実施例によると、サンプル処理部は、例えば、現在のフレームが受信インターフェースによって受信されており、且つ受信インターフェースによって受信されている現在のフレームが破損していない場合、再スケーリング音声信号サンプルと入力音声信号サンプルとの組み合わせを示す処理済音声信号サンプルを遅延バッファに記憶させ、再スケーリング音声信号サンプルを遅延バッファに記憶させないように構成され得る。更に、サンプル処理部は、現在のフレームが受信インターフェースによって受信されていない場合、又は受信インターフェースによって受信されている現在のフレームが破損している場合、再スケーリング音声信号サンプルを遅延バッファに記憶させ、処理済音声信号サンプルを遅延バッファに記憶させないように構成される。
別の実施例によると、サンプル処理部は、例えば、現在のフレームが受信インターフェースによって受信されていない場合、又は受信インターフェースによって受信されている現在のフレームが破損している場合、処理済音声信号サンプルを遅延バッファに記憶させるように構成され得る。
実施例においては、サンプル選択部は、例えば、変更後ゲインに応じて選択音声信号サンプルを再スケーリングすることによって再構成音声信号サンプルを得るように構成することができ、変更後ゲインは、
Figure 2016527541
の式によって定義され、ここで、gainは、変更後ゲインであり、サンプル選択部は、例えば、gainの算出後にgain_pastをgainに設定するように構成することができ、dampingは、実数値である。
実施例によると、サンプル選択部は、例えば、変更後ゲインを算出するように構成され得る。
実施例においては、dampingは、例えば、0≦damping≦1によって定義され得る。
実施例によると、変更後ゲインgainは、例えば、フレームが受信インターフェースによって最後に受信されてから少なくとも所定数のフレームが受信インターフェースによって受信されていない場合、ゼロに設定され得る。
更に、符号化音声信号を復号して再構成音声信号を得るための方法が提供される。当該方法は、
‐複数のフレームを受信するステップと、
‐復号された音声信号の音声信号サンプルを記憶するステップと、
‐遅延バッファに記憶されている音声信号サンプルから複数の選択音声信号サンプルを選択するステップと、
‐選択音声信号サンプルを処理して再構成音声信号の再構成音声信号サンプルを得るステップと、を備える。
現在のフレームが受信され、かつ、受信されている現在のフレームが破損していない場合、遅延バッファに記憶されている音声信号サンプルから複数の選択音声信号サンプルを選択するステップは、現在のフレームに含まれるピッチ遅れ情報に応じて行われる。更に、現在のフレームが受信されていない場合、又は受信されている現在のフレームが破損している場合、遅延バッファに記憶されている音声信号サンプルから複数の選択音声信号サンプルを選択するステップは、受信インターフェースによって以前に受信されている別のフレームに含まれるピッチ遅れ情報に応じて行われる。
更に、コンピュータ又は信号プロセッサにおいて実行された時に上述の方法を実現するためのコンピュータプログラムが提供される。
実施例は、TCX LTP(TCX LTP=変換符号化励振長期予測)を採用する。通常動作中、ノイズと、再構成された調性成分とを含む合成信号でTCX LTPメモリが更新される。
封じ込め中にTCX LTPを動作不能にする代わりに、その通常動作を、最後の良好なフレームにおいて受信されたパラメータによって封じ込め中に継続しても良い。これにより、信号のスペクトル形状、特に、LTPフィルタによってモデル化される調性成分が保管される。
更に、実施例においては、TCX LTPフィードバックループが結合解除される。通常のTCX LTP演算を単純に継続させることによって追加のノイズが導入されるが、それは、各々の更新ステップによって、LTP励振からの更なるランダム生成ノイズが導入されるからである。従って、調性成分は、時間の経過に伴って、この追加のノイズによってますます歪められる。
これを克服するために、更新されたTCX LTPバッファのみを(ノイズ追加なしに)フィードバックすることにより、望まれないランダムノイズによって調性情報が汚染されないようにすることができる。
更に、実施例によると、TCX LTPゲインがゼロにフェードさせられる。
これらの実施例は、TCX LTPを継続させることによって、信号特性を短期的に保管することが助けられるが、長期的には欠点があるという知見に基づいている。即ち、封じ込め中に再生される信号は、損失に先立って存在していた発声・調性情報を含む。特に、クリーンな言語音声又は背景ノイズ上の言語音声の場合、音調又は調波が長期間に亘って極めてゆっくりと減衰する可能性は非常に低い。特に、LTPメモリ更新が結合解除される(調性成分のみがフィードバックされ、符号がスクランブルされた部分はフィードバックされない)場合、封じ込め中にTCX LTP演算を継続することにより、発声・調性情報は、損失全体についての封じ込め信号において存在し続けることになり、全体的なフェードアウトによって快適ノイズレベルへ減衰されるのみである。更に、TCX LTPがバースト状の損失中に時間の経過に伴って減衰されることなく適用される場合、バースト状のパケット損失中に快適ノイズ包絡線に達することは不可能であるが、それは、その場合、信号がLTPの発声情報を常に組み込んでいるからである。
従って、TCX LTPゲインは、ゼロへフェードさせられるため、LTPによって表現される調性成分は、ゼロにフェードさせられ、同時に、信号は、背景信号レベル及び形状にフェードさせられ、その結果、フェードアウトは、望まれない調性成分を組み込むことなく、所望のスペクトル背景包絡線(快適ノイズ)に達する。
実施例においては、LTPゲインフェードについて、ホワイトノイズフェードと同じフェード速度が用いられる。
これとは対照的に、先行技術では、封じ込め中にLTPを用いた変換コーデックは知られていない。MPEG−4 LTP[ISO09]の場合、先行技術においては、封じ込め方策は、存在しない。LTPを利用する先行技術の別のMDCTベースのコーデックは、CELTであるが、このコーデックは、最初の5つのフレームについてACELP様の封じ込めを用い、後続のフレーム全てについては、LTPを利用しない背景ノイズを生成する。TCX LTPを用いない先行技術の欠点は、LTPでモデル化される全ての調性成分が突然消失することである。更に、先行技術のACELPベースのコーデックにおいては、LTP演算が封じ込め中に長くされ、適応コードブックのゲインは、ゼロへとフェードさせられる。フィードバックループ動作に関し、先行技術は、2つの方策を用いる。即ち、全体励振、例えば、新規励振と適応励振との合計をフィードバックする(AMR−WB)か、或いは、更新された適応励振、例えば、調性信号部分のみをフィードバックする(G.718)。上述の実施例は、先行技術の欠点を克服する。
以下、本発明の実施例について、図面を参照してより詳細に説明する。
図1Aは、実施例による音声信号を復号するための装置を示す図である。 図1Bは、別の実施例による音声信号を復号するための装置を示す図である。 別の実施例による音声信号を復号するための装置であって、更に第1の集約部及び第2の集約部を備えるものを示す図である。 図1Dは、更なる実施例による音声信号を復号するための装置であって、更に遅延バッファを含む長期予測部を備えるものを示す図である。 G.718のデコーダ構造を示す図である。 図3は、G.722のフェードアウト定数がクラス情報に依存するシナリオを示す図である。 図4は、線形回帰を用いた振幅予測のための方策を示す図である。 図5は、条件付きエネルギーラップド変換(CELT)のバースト状の損失の挙動を示す図である。 図6は、エラーのない動作モード中のデコーダにおける実施例による背景ノイズレベルトレースを示す図である。 図7は、実施例によるLPC合成及び強調解除のゲイン導出を示す図である。 図8は、実施例によるパケット損失中の快適ノイズレベル適用を示す図である。 図9は、実施例によるACELP封じ込め中の高度広域通過ゲイン補償を示す図である。 図10は、実施例による封じ込め中のLTPフィードバックループの結合解除を示す図である。 図11は、実施例による、符号化音声信号を復号して再構成音声信号を得るための装置を示す図である。 図12は、別の実施例による、符号化音声信号を復号して再構成音声信号を得るための装置を示す図である。 図13は、更なる実施例による、符号化音声信号を復号して再構成音声信号を得るための装置を示す図である。 図14は、別の実施例による、符号化音声信号を復号して再構成音声信号を得るための装置を示す図である。
図1aは、実施例による音声信号を復号するための装置を示す。
当該装置は、受信インターフェース110を備える。受信インターフェースは、複数のフレームを受信するように構成され、受信インターフェース110は、複数のフレームのうちの第1のフレームを受信するように構成され、前記第1のフレームは、音声信号の第1の音声信号部分を含み、前記第1の音声信号部分は、第1の領域において表現される。更に、受信インターフェース110は、複数のフレームのうちの第2のフレームを受信するように構成され、前記第2のフレームは、音声信号の第2の音声信号部分を含む。
更に、当該装置は、第2の音声信号部分、又は第2の音声信号部分から導出された値若しくは信号を、第2の領域からトレース領域に変換することによって第2の信号部分情報を得るための変換部120を備え、第2の領域は、第1の領域とは異なり、トレース領域は、第2の領域とは異なり、トレース領域は、第1の領域と等しい又は異なる。
更に、当該装置は、ノイズレベルトレース部130を備え、ノイズレベルトレース部は、トレース領域において表現される第1の信号部分情報を受信するように構成され、第1の信号部分情報は、第1の音声信号部分に依存し、ノイズレベルトレース部は、トレース領域において表現される第2の信号部分を受信するように構成され、ノイズレベルトレース部は、トレース領域において表現される第1の信号部分情報と、トレース領域において表現される第2の信号部分情報とに応じてノイズレベル情報を決定するように構成される。
更に、当該装置は、複数のフレームのうちの第3のフレームが受信インターフェースによって受信されていないが破損している場合、ノイズレベル情報に応じて音声信号の第3の音声信号部分を再構成するための再構成部を備える。
第1の音声信号部分及び/又は第2の音声信号部分に関し、例えば、第1の音声信号部分及び/又は第2の音声信号部分は、例えば、1つ以上のラウドスピーカーのための1つ以上のラウドスピーカー信号を生成するための1つ以上の処理部(図示せず)に入力されることができ、これにより、第1の音声信号部分及び/又は第2の音声信号部分に含まれる受信音情報を再生することができる。
更に、第1の音声信号部分及び第2の音声信号部分は、また、例えば、後続のフレームが受信機に到達しない場合、或いは、後続のフレームにエラーが含まれる場合、封じ込めにも用いられる。
特に、本発明は、ノイズレベルトレースが共通の領域、本願では「トレース領域」と呼ばれる、において行われるべきであるという知見に基づく。トレース領域は、例えば、励振領域であっても良く、これは、例えば、AMR−WB及びAMR−WB+([3GP12a]、[3GP12b]、[3GP09a]、[3GP09b]、[3GP09c]を参照)に記載のLPC(LPC=線形予測係数)又はISP(ISP=インミッタンススペクトル対)によって信号が表現される領域である。単一の領域においてノイズレベルをトレースすることには、特に、第1の領域における第1の表現と第2の領域における第2の表現との間で信号が切り替わる(例えば信号の表現がACELPからTCXへ、又はその逆に切り替わる)時にエイリアシング効果が回避されるという利点がある。
変換部120に関し、変換されるのは、第2の音声信号部分そのもの、又は第2の音声信号部分から導出された信号(例えば、第2の音声信号部分を処理して導出信号を得る)、又は第2の音声信号部分から導出された値(例えば、第2の音声信号部分を処理して導出値を得る)である。
第1の音声信号部分に関し、いくつかの実施例では、第1の音声信号部分をトレース領域へ処理及び/又は変換することができる。
しかし、他の実施例では、第1の音声信号部分は、既にトレース領域において表現されている場合もある。
いくつかの実施例では、第1の信号部分情報は、第1の音声信号部分と同一である。他の実施例では、第1の信号部分情報は、例えば、第1の音声信号部分に応じた集約値である。
以下において、まず、快適ノイズレベルへのフェードアウトをより詳細に検討する。
本願に記載のフェードアウト方策は、例えば、xHE−AAC[NMB+12](xH
E−AAC=拡張高効率AAC)の低遅延バージョンにおいて実現することができ、これは、フレーム毎にACELP(言語音声)符号化とMDCT(音楽・ノイズ)符号化との間で継ぎ目なく切り替わることができる。
トレース領域、例えば励振領域における共通レベルトレースに関し、パケット損失中に適切な快適ノイズレベルへの平滑なフェードアウトを適用するために、通常の復号プロセス中に、このような快適ノイズレベルを特定する必要がある。例えば、背景ノイズに類似のノイズレベルが最も快適であると想定することができる。従って、通常復号中に、背景ノイズを導出して絶えず更新することができる。
本発明は、切り替えコアコーデック(例えば、ACELP及びTCX)を有する場合、選択されたコアコーダとは独立の共通の背景ノイズレベルを考慮することが特に好適であるという知見に基づく。
図6は、エラーのない動作モード、例えば通常復号中の、デコーダにおける好ましい実施例による背景ノイズレベルトレースを示す。
トレースそのものは、例えば、最小統計方策([Mar01]を参照)を用いて実行することができる。
このトレースされた背景ノイズレベルは、例えば、上述のノイズレベル情報と見なすことができる。
背景ノイズレベルトレースについては、例えば、ライナー・マルティン(Rainer Martin)、「最適平滑化及び最小統計に基づくノイズパワースペクトル密度推定(Noise power spectral density estimation based on optimal smoothing and minimum statistics)」、IEEE言語音声・音声処理会報(IEEE Transactions on Speech and Audio Processing)第9巻(2001年)、第5号、504〜512頁[Mar01]、の文献に呈示された最小統計ノイズ推定を用いることができる。
これに対応して、いくつかの実施例では、ノイズレベルトレース部130は、最小統計方策を適用する、例えば、[Mar01]の最小統計ノイズ推定を適用することによってノイズレベル情報を決定するように構成される。
続いて、このトレース方策についてのいくつかの考慮すべき点と詳細について説明する。
レベルトレースに関し、背景は、ノイズ様であると想定される。従って、LPCによって取り出される前景調性成分をトレースすることを回避するために、励振領域においてレベルトレースを実行することが好ましい。例えば、ACELPノイズ充填も、また、励振領域における背景ノイズレベルを用いることができる。励振領域におけるトレースによって、背景ノイズレベルの単一のトレースだけで2つの目的を果たすことができ、これによって、計算上の複雑度が節約される。好ましい実施例においては、トレースは、ACELP励振領域において実行される。
図7は、実施例によるLPC合成及び強調解除のゲイン導出を示す。
レベル導出に関し、レベル導出は、例えば、時間領域又は励振領域のいずれかにおいて、或いは、その他の任意の適切な領域において行うことができる。レベル導出のための領域とレベルトレースのための領域とが異なる場合、例えば、ゲイン補償が必要となる場合がある。
好ましい実施例においては、ACELPについてのレベル導出は、励振領域において実行される。従って、ゲイン補償は、必要ではない。
TCXの場合、例えば、導出レベルをACELP励振領域に対して調節するためにゲイン補償が必要となる場合がある。
好ましい実施例において、TCXについてのレベル導出は、時間領域において行われる。この方策について制御可能なゲイン補償が見出された。即ち、LPC合成及び強調解除によって導入されたゲインを、図7に示すように導出し、導出したレベルをこのゲインで除算する。
これに代えて、TCXについてのレベル導出をTCX励振領域で実行することもできる。しかし、TCX励振領域とACELP励振領域との間のゲイン補償は、過度に複雑であると考えられる。
従って、再び、図1aを参照して、いくつかの実施例においては、第1の音声信号部分は、第1の領域として時間領域において表現される。変換部120は、第2の音声信号部分、又は第2の音声信号部分から導出された値を、第2の領域である励振領域から、トレース領域である時間領域へ変換するように構成される。このような実施例では、ノイズレベルトレース部130は、トレース領域としての時間領域において表現される第1の信号部分情報を受信するように構成される。更に、ノイズレベルトレース部130は、トレース領域としての時間領域において表現される第2の信号部分を受信するように構成される。
他の実施例においては、第1の音声信号部分は、第1の領域としての励振領域において表現される。変換部120は、第2の音声信号部分、又は第2の音声信号部分から導出された値を、第2の領域である時間領域から、トレース領域である励振領域に変換するように構成される。このような実施例では、ノイズレベルトレース部130は、トレース領域としての励振領域において表現される第1の信号部分情報を受信するように構成される。更に、ノイズレベルトレース部130は、トレース領域としての励振領域において表現される第2の信号部分を受信するように構成される。
実施例においては、第1の音声信号部分は、例えば、第1の領域としての励振領域において表現することができ、ノイズレベルトレース部130は、例えば、第1の信号部分情報を受信するように構成することができ、前記第1の信号部分情報は、トレース領域であるFFT領域において表現され、前記第1の信号部分情報は、前記励振領域において表現される第1の音声信号部分に依存し、変換部120は、例えば、第2の音声信号部分、又は第2の音声信号部分から導出された値を、第2の領域である時間領域から、トレース領域であるFFT領域に変換するように構成することができ、ノイズレベルトレース部130は、例えば、FFT領域において表現される第2の音声信号部分を受信するように構成され得る。
図1bは、別の実施例による装置を示す。図1bにおいては、図1aの変換部120は、第1の変換部120であり、図1aの再構成部140は、第1の再構成部140である。当該装置は、更に、第2の変換部121及び第2の再構成部141を備える。
第2の変換部121は、複数のフレームのうちの第4のフレームが受信インターフェースによって受信されていない場合、又は前記第4のフレームが受信インターフェースによって受信されているが破損している場合、ノイズレベル情報をトレース領域から第2の領域に変換するように構成される。
更に、第2の再構成部141は、複数のフレームのうちの前記第4のフレームが受信インターフェースによって受信されていない場合、又は前記第4のフレームが受信インターフェースによって受信されているが破損している場合、第2の領域において表現されているノイズレベル情報に応じて音声信号の第4の音声信号部分を再構成するように構成される。
図1cは、別の実施例による音声信号を復号するための装置を示す。当該装置は、更に、第1の音声信号部分に応じて第1の集約値を決定するための第1の集約部150を備える。更に、図1cの装置は、更に、第2の音声信号部分に応じて、第2の音声信号部分から導出された値としての第2の集約値を決定するための第2の集約部160を備える。図1cの実施例では、ノイズレベルトレース部130は、トレース領域において表現される第1の信号部分情報として第1の集約値を受信するように構成され、ノイズレベルトレース部130は、トレース領域において表現される第2の信号部分情報として第2の集約値を受信するように構成される。ノイズレベルトレース部130は、トレース領域において表現される第1の集約値と、トレース領域において表現される第2の集約値とに応じて、ノイズレベル情報を決定するように構成される。
実施例においては、第1の集約部150は、第1の集約値が、第1の音声信号部分、又は第1の音声信号部分から導出された信号の、根二乗平均を示すように、第1の集約値を決定するように構成される。更に、第2の集約部160は、第2の集約値が、第2の音声信号部分、又は第2の音声信号部分から導出された信号の、根二乗平均を示すように、第2の集約値を決定するように構成される。
図6は、更なる実施例による音声信号を復号するための装置を示す。
図6においては、背景レベルトレース部630は、図1aによるノイズレベルトレース部130を実現する。
更に、図6においては、RMS部650(RMS=根二乗平均)は、第1の集約部であり、RMS部660は、第2の集約部である。
いくつかの実施例によると、図1a、図1b及び図1cの(第1の)変換部120は、第2の音声信号部分から導出された値にゲイン値(x)を適用すること、例えば、第2の音声信号部分から導出された値をゲイン値(x)によって除算することにより、第2の音声信号部分から導出された値を第2の領域からトレース領域に変換するように構成される。他の実施例では、ゲイン値は、例えば、乗算されても良い。
いくつかの実施例においては、ゲイン値(x)は、例えば、線形予測符号化合成によって導入されたゲインを示すことができ、又は、ゲイン値(x)は、例えば、線形予測符号化合成及び強調解除によって導入されたゲインを示すことができる。
図6において、ユニット622は、線形予測符号化合成及び強調解除によって導入されたゲインを示す値(x)を提供する。次に、ユニット622は、第2の集約部660によって入力された値であって第2の音声信号部分から導出された値を、提供されたゲイン値(x)で除算する(例えば、xによって除算する、又は1/xの値を乗算する)。こうして、ユニット621,622を含む図6のユニット620は、図1a、図1b又は図1cの第1の変換部を実現する。
図6の装置は、第1の音声信号部分を有する第1のフレームを受信し、これは、有声の励振及び/又は無声の励振であり、かつ、トレース領域、図6では(ACELP)LPC領域において表現されるものである。第1の音声信号部分をLPC合成及び強調解除部671に入力して処理し、時間領域の第1の音声信号部分出力を得る。更に、第1の音声信号部分をRMSモジュール650に入力して、第1の音声信号部分の根二乗平均を示す第1の値を得る。この第1の値(第1のRMS値)は、トレース領域において表現される。トレース領域において表現される第1のRMS値は、次に、ノイズレベルトレース部630に入力される。
更に、図6の装置は、MDCTスペクトルを含みMDCT領域において表現される第2の音声信号部分を有する第2のフレームを受信する。ノイズ充填は、ノイズ充填モジュール681によって行われ、周波数領域ノイズ形状付けが周波数領域ノイズ形状付けモジュール682によって行われ、時間領域への変換が、iMDCT/OLAモジュール683
(OLA=オーバーラップ・加算)によって行われ、長期予測が長期予測部684によって行われる。長期予測部は、例えば、遅延バッファ(図6では示さず)を含み得る。
次に、第2の音声信号部分から導出された信号をRMSモジュール660に入力し、第2の音声信号部分から導出された信号の根二乗平均を示す第2の値を得る。この第2の値(第2のRMS値)は、時間領域において、尚、表現されている。次に、ユニット620は、第2のRMS値を、時間領域からトレース領域、ここでは(ACELP)LPC領域に変換する。トレース領域において表現される第2のRMS値は、次に、ノイズレベルトレース部630に入力される。
実施例においては、レベルトレースは、励振領域において行われるが、TCXフェードアウトは、時間領域で行われる。
通常の復号中は、背景ノイズレベルがトレースされるのに対し、パケット損失中は、これを、例えば、適切な快適ノイズレベルの標識として用いることができ、最後の受信された信号は、これへと平滑にレベル単位でフェードさせられる。
トレースのためのレベルを導出することと、レベルのフェードアウトを適用することとは、一般的に互いに独立しており、それぞれ異なる領域で実行され得る。好ましい実施例では、レベル適用は、レベル導出と同じ領域で実行されるため、ACELPの場合は、ゲイン補償が不要であるということ、及びTCXの場合は、レベル導出(図6を参照)におけるような逆ゲイン補償が必要であるため、図7に示すように同じゲイン導出が用いられ得ること、という同じ利益が得られる。
以下、実施例によるLPC合成ゲインに対するハイパスフィルタの影響の補償について説明する。
図8は、この方策の概略を示す。特に、図8は、パケット損失中の快適ノイズレベル適用を示す。
図8においては、ハイパスゲインフィルタ部643、乗算部644、フェード部645、ハイパスフィルタ部646、フェード部647及び組み合わせ部648が一緒に第1の再構成部を構成している。
更に、図8において、背景レベル出力部631は、ノイズレベル情報を出力する。例えば、背景レベル供給部631は、図6の背景レベルトレース部630として等しく実現することができる。
更に、図8において、LPC合成・強調解除ゲイン部649及び乗算部641は、第2の変換部640を構成する。
更に、図8において、フェード部642は、第2の再構成部を表す。
図8の実施例において、有声の励振と無声の励振とは別個にフェードさせられる。即ち、有声の励振は、ゼロへフェードさせられるが、無声の励振は、快適ノイズレベルへとフェードさせられる。更に、図8は、ハイパスフィルタを示し、これを無声の励振の信号チェーンに導入して、信号が無声と分類された時を除き全ての場合において低周波数成分を抑制する。
ハイパスフィルタの影響のモデル化に関し、LPC合成及び強調解除後のレベルは、ハイパスフィルタを伴って一度計算され、ハイパスフィルタを伴わずに一度計算される。この後、これら2つのレベルの比を導出し、これを用いて適用背景レベルを変更する。
これを図9に示す。特に、図9は、実施例によるACELP封じ込め中の高度ハイパスゲイン補償を示す。
この計算では、現在の励振信号の代わりに簡単なインパルスを入力として用いる。これにより、複雑度が低減できるが、それは、インパルスの応答は、急速に減衰するため、RMS導出を短い時間フレームで行うことができるからである。実際は、フレーム全体の代わりに、ただ1つのサブフレームを用いる。
実施例によると、ノイズレベルトレース部130は、ノイズレベル情報として快適ノイズレベルを決定するように構成される。再構成部140は、複数のフレームのうちの前記第3のフレームが受信インターフェース110によって受信されていない場合、又は前記第3のフレームが受信インターフェース110によって受信されているが破損している場合、ノイズレベル情報に応じて第3の音声信号部分を再構成するように構成される。
実施例によると、ノイズレベルトレース部130は、ノイズレベル情報として快適ノイズレベルを決定するように構成される。再構成部140は、複数のフレームのうちの前記第3のフレームが受信インターフェース110によって受信されていない場合、又は前記第3のフレームが受信インターフェース110によって受信されているが破損している場合、ノイズレベル情報に応じて第3の音声信号部分を再構成するように構成される。
実施例においては、ノイズレベルトレース部130は、ノイズレベルスペクトルから導出されたノイズレベル情報として快適ノイズレベルを決定するように構成され、前記ノイズレベルスペクトルは、最小統計方策を適用することによって得られる。再構成部140は、複数のフレームのうちの前記第3のフレームが受信インターフェースに110よって受信されていない場合、又は前記第3のフレームが受信インターフェース110によって受信されているが破損している場合、複数の線形予測係数に応じて第3の音声信号部分を再構成するように構成される。
実施例においては、(第1及び/又は第2の)再構成部140,141は、例えば、複数のフレームのうちの前記第3(第4)のフレームが受信インターフェース110によって受信されていない場合、又は前記第3(第4)のフレームが受信インターフェース110によって受信されているが破損している場合、ノイズレベル情報と第1の音声信号部分とに応じて第3の音声信号部分を再構成するように構成され得る。
実施例によると、(第1及び/又は第2の)再構成部140,141は、例えば、第1の音声信号部分を減衰させる又は増幅することによって第3(又は第4)の音声信号部分を再構成するように構成され得る。
図14は、音声信号を復号するための装置を示す。当該装置は、受信インターフェース110を備え、受信インターフェース110は、音声信号の第1の音声信号部分を含む第1のフレームを受信するように構成され、受信インターフェース110は、音声信号の第2の音声信号部分を含む第2のフレームを受信するように構成される。
更に、当該装置は、ノイズレベルトレース部130を備え、ノイズレベルトレース部130は、第1の音声信号部分及び第2の音声信号部分のうちの少なくとも1つに応じて(即ち、第1の音声信号部分及び/又は第2の音声信号部分に応じて)ノイズレベル情報を決定するように構成され、ノイズレベル情報は、トレース領域において表現される。
更に、当該装置は、複数のフレームのうちの第3のフレームが受信インターフェース110によって受信されていない場合、又は前記第3のフレームが受信インターフェース110によって受信されているが破損している場合、ノイズレベル情報に応じて音声信号の第3の音声信号部分を第1の再構成領域において再構成するための第1の再構成部140を備え、第1の再構成領域は、トレース領域と異なる又は等しい。
更に、当該装置は、複数のフレームのうちの第4のフレームが受信インターフェース110によって受信されていない場合、又は前記第4のフレームが受信インターフェース110によって受信されているが破損している場合、ノイズレベル情報をトレース領域から第2の再構成領域に変換するための変換部121を備え、第2の再構成領域は、トレース領域とは異なり、第2の再構成領域は、第1の再構成領域とは異なる。
更に、当該装置は、複数のフレームのうちの前記第4のフレームが受信インターフェース110によって受信されていない場合、又は前記第4のフレームが受信インターフェース110によって受信されているが破損している場合、第2の再構成領域において表現されるノイズレベル情報に応じて音声信号の第4の音声信号部分を第2の再構成領域において再構成するための第2の復元部141を備える。
いくつかの実施例によると、トレース領域は、例えば、時間領域、スペクトル領域、FFT領域、MDCT領域、又は励振領域であるとすることができる。第1の再構成領域は、例えば、時間領域、スペクトル領域、FFT領域、MDCT領域、又は励振領域であり得る。第2の再構成領域は、例えば、時間領域、スペクトル領域、FFT領域、MDCT領域、又は励振領域であり得る。
実施例においては、トレース領域は、例えば、FFT領域とすることができ、第1の再構成領域は、例えば、時間領域とすることができ、第2の再構成領域は、例えば、励振領域とすることができる。
別の実施例においては、トレース領域は、例えば、時間領域とすることができ、第1の再構成領域は、例えば、時間領域とすることができ、第2の再構成領域は、例えば、励振領域とすることができる。
実施例によると、前記第1の音声信号部分は、例えば、第1の入力領域において表現することができ、前記第2の音声信号部分は、例えば、第2の入力領域において表現することができる。変換部は、例えば、第2の変換部であり得る。当該装置は、例えば、更に、第2の音声信号部分、又は第2の音声信号部分から導出された値又は信号を、第2の入力領域からトレース領域に変換して第2の信号部分情報を得るための第1の変換部を備えることができる。ノイズレベルトレース部は、例えば、トレース領域において表現される第1の信号部分情報を受信するように構成することができ、第1の信号部分情報は、第1の音声信号部分に依存し、ノイズレベルトレース部は、トレース領域において表現される第2の信号部分を受信するように構成され、ノイズレベルトレース部は、トレース領域において表現される第1の信号部分情報と、トレース領域において表現される第2の信号部分情報とに応じてノイズレベル情報を決定するように構成される。
実施例によると、第1の入力領域は、例えば、励振領域とすることができ、第2の入力領域は、例えば、MDCT領域とすることができる。
別の実施例においては、第1の入力領域は、例えば、MDCT領域とすることができ、第2の入力領域は、例えば、MDCT領域とすることができる。
例えば、信号が時間領域において表現される場合、これは、例えば、信号の時間領域サンプルによって表現することができる。或いは、例えば、信号がスペクトル領域において表現される場合、これは、例えば、信号のスペクトルのスペクトルサンプルによって表現することができる。
実施例においては、トレース領域は、例えば、FFT領域とすることができ、第1の再構成領域は、例えば、時間領域とすることができ、第2の再構成領域は、例えば、励振領域とすることができる。
別の実施例では、トレース領域は、例えば、時間領域とすることができ、第1の再構成領域は、例えば、時間領域とすることができ、第2の再構成領域は、例えば、励振領域とすることができる。
いくつかの実施例においては、図14に示す各ユニットは、例えば、図1a,1b,1c,1dについて説明したように構成することができる。
特定の実施例に関し、例えば、低レートモードにおいて、実施例による装置は、例えば、ACELPフレームを入力として受信することができ、これらフレームは、励振領域において表現され、それから、LPC合成を介して時間領域に変換される。更に、低レートモードにおいて、実施例による装置は、例えば、TCXフレームを入力として受信することができ、これらフレームは、MDCT領域において表現され、それから、逆MDCTを介して時間領域に変換される。
次に、トレースがFFT領域において行われ、FFT信号は、FFT(高速フーリエ変換)を行うことによって時間領域信号から導出される。トレースは、例えば、最小統計方策を全てのスペクトル線について別個に行って快適ノイズスペクトルを得ることによって行うことができる。
次に、快適ノイズスペクトルに基づいてレベル導出を行うことによって封じ込めを行う。レベル導出は、快適ノイズスペクトルに基づいて行われる。時間領域へのレベル変換は、FD TCX PLCについて行われる。時間領域におけるフェードが行われる。励振領域へのレベル導出がACELP PLC及びTD TCX PLC(ACELP様)について行われる。次に、励振領域におけるフェードが行われる。
これを以下のリストで要約する。
低レート
●入力
○acelp(励振領域→時間領域。LPC合成を介する)
○tcx(mdct領域→時間領域。逆MDCTを介する)
●トレース
○FFTを介して時間領域から導出されるfft領域
○全てのスペクトル線について別個の最小統計→快適ノイズスペクトル
●封じ込め
○快適ノイズスペクトルに基づくレベル導出
○以下についての時間領域へのレベル変換
・FD TCX PLC
→時間領域におけるフェード
○以下についての励振領域へのレベル変換
・ACELP PLC
・TD TCX PLC(ACELP様)
→励振領域におけるフェード
例えば、高レートモードにおいては、例えば、TCXフレームを入力として受信することができ、これらフレームは、MDCT領域において表現され、それから、逆MDCTを介して時間領域に変換される。
次に、トレースが時間領域において行われる。トレースは、例えば、エネルギーレベルに基づいて最小統計方策を行って快適ノイズレベルを得ることによって行うことができる。
封じ込めについては、FD TCX PLCの場合、レベルをそのまま用いることができ、時間領域におけるフェードのみを行うことができる。TD TCX PLC(ACELP様)については、励振領域へのレベル変換及び励振領域におけるフェードが行われる。
これを以下のリストで要約する。
高レート
●入力
○tcx(mdct領域→時間領域。逆MDCTを介する)
●トレース
○時間領域
○エネルギーレベルに対する最小統計→快適ノイズレベル
●封じ込め
○「そのままの」レベル使用
・FD TCX PLC
→時間領域におけるフェード
○以下についての励振領域へのレベル変換
・TD TCX PLC(ACELP様)
→励振領域におけるフェード
FFT領域及びMDCT領域は両方ともスペクトル領域である一方、励振領域は或る種の時間領域である。
実施例によると、第1の再構成部140は、例えば、ノイズ様のスペクトルへの第1のフェードを行うことにより第3の音声信号部分を再構成するように構成され得る。第2の再構成部141は、例えば、ノイズ様のスペクトルへの第2のフェード及び/又はLTPゲインの第2のフェードを行うことによって第4の音声信号部分を再構成するように構成され得る。更に、第1の再構成部140及び第2の再構成部141は、例えば、ノイズ様のスペクトルへの第1のフェード及び第2のフェード、並びに/又はLTPゲインの第2のフェードを、同じフェード速度で行うように構成され得る。
次に、快適ノイズの適応スペクトル形状付けについて検討する。
バースト状のパケット損失中に快適ノイズへの適応形状付けを達成するために、第1のステップとして、背景ノイズを表す適切なLPC係数を求めることができる。これらのLPC係数は、アクティブな言語音声の期間中に導出することができ、これを行うために、最小統計方策を用いて背景ノイズスペクトルを求めて、文献から公知のLPC導出のための任意のアルゴリズムを用いて、この背景ノイズスペクトルからLPC係数を算出する。いくつかの実施例では、例えば、背景ノイズススペクトルを或る表現に直接変換することができ、この表現をMDCT領域におけるFDNSについて直接用いることができる。
快適ノイズへのフェードは、ISF領域において(LSF領域でも適用可能である。LSF=線スペクトル周波数)、
Figure 2016527541
ptmeanを、快適ノイズを記述する適切なLP係数に設定することによって行うことができる。
上述の快適ノイズの適応スペクトル形状付けに関し、より一般的な実施例を図11に示す。
図11は、実施例による、符号化音声信号を復号して再構成音声信号を得るための装置を示す。
当該装置は、1つ以上のフレームを受信するための受信インターフェース1110、係数生成部1120、及び信号再構成部1130を備える。
係数生成部1120は、1つ以上のフレームのうちの現在のフレームが受信インターフェース1110によって受信されており、且つ受信インターフェース1110によって受信されている現在のフレームが破損していない/誤りを含まない場合、現在のフレームに含まれる1つ以上の第1の音声信号係数を決定するように構成され、前記1つ以上の第1の音声信号係数は、符号化音声信号の特性を示し、1つ以上のノイズ係数が符号化音声信号の背景ノイズを示す。更に、係数生成部1120は、現在のフレームが受信インターフェース1110によって受信されていない場合、又は受信インターフェース1110によって受信されている現在のフレームが破損している/誤りを含む場合、1つ以上の第1の音声信号係数と1つ以上のノイズ係数とに応じて1つ以上の第2の音声信号係数を生成するように構成される。
音声信号再構成部1130は、現在のフレームが受信インターフェース1110によって受信されており、且つ受信インターフェース1110によって受信されている現在のフレームが破損していない場合、1つ以上の第1の音声信号係数に応じて再構成音声信号の第1の部分を再構成するように構成される。更に、音声信号再構成部1130は、現在のフレームが受信インターフェース1110によって受信されていない場合、又は受信インターフェース1110によって受信されている現在のフレームが破損している場合、1つ以上の第2の音声信号係数に応じて再構成音声信号の第2の部分を再構成するように構成される。
背景ノイズの決定は、先行技術で周知であり(例えば、[Mar01]:ライナー・マルティン(Rainer Martin)、「最適平滑化及び最小統計に基づくノイズパワースペクトル密度推定(Noise power spectral density estimation based on optimal smoothing and minimum statistics)」、IEEE言語音声・音声処理会報(IEEE Transactions on Speech and Audio Processing)第9巻(2001年)、第5号、504〜512頁を参照)、実施例において、当該装置はこれに従って動作する。
いくつかの実施例において、1つ以上の第1の音声信号係数は、例えば、符号化音声信号の1つ以上の線形予測フィルタ係数とすることができる。いくつかの実施例では、1つ以上の第1の音声信号係数は、例えば、符号化音声信号の1つ以上の線形予測フィルタ係数とすることができる。
当該技術においては、音声信号、例えば、言語音声信号を、線形予測フィルタ係数又はインミッタンススペクトル対からどのように再構成するのかは周知であり(例えば、[3GP09c]:「言語音声コーデック言語音声処理機能。適応マルチレート−広帯域(AMRWB)言語音声コーデック。トランスコード処理機能(Speech codec speech processing functions; adaptive multi-rate - wideband (AMRWB) speech codec; transcoding functions)、3GPP TS 26.190、第3世代パートナーシッププロジェクト(3rd Generation Partnership Project)、2009年、を参照)、実施例では、信号再構成部は、これに従って動作する。
実施例によると、1つ以上のノイズ係数は、例えば、符号化音声信号の背景ノイズを示す1つ以上の線形予測フィルタ係数とすることができる。実施例においては、1つ以上の線形予測フィルタ係数は、例えば、背景ノイズのスペクトル形状を表すことができる。
実施例においては、係数生成部1120は、例えば、1つ以上の第2の音声信号部分が、再構成音声信号についての1つ以上の線形予測フィルタ係数となる、又は、1つ以上の第1の音声信号係数が、再構成音声信号についての1つ以上のインミッタンススペクトル対となるように、1つ以上の第2の音声信号部分を決定するように構成され得る。
実施例によると、係数生成部1120は、例えば、
Figure 2016527541
の式を適用することにより1つ以上の第2の音声信号係数を生成するように構成することができ、ここで、fcurrent[i]は、1つ以上の第2の音声信号係数のうちの1つを示し、flast[i]は、1つ以上の第1の音声信号係数のうちの1つを示し、ptmean[i]は、1つ以上のノイズ係数のうちの1つであり、αは実数(0≦α≦1)であり、iは、インデックスである。
実施例によると、flast[i]は、符号化音声信号の線形予測フィルタ係数を示し、fcurrent[i]は、再構成音声信号の線形予測フィルタ係数を示す。
実施例においては、ptmean[i]は、例えば、符号化音声信号の背景ノイズを示す線形予測フィルタ係数であり得る。
実施例によると、係数生成部1120は、例えば、少なくとも10個の第2の音声信号係数を、1つ以上の第2の音声信号係数として生成するように構成され得る。
実施例においては、係数生成部1120は、例えば、1つ以上のフレームのうちの現在のフレームが受信インターフェース1110によって受信されており、且つ受信インターフェース1110によって受信されている現在のフレームが破損していない場合、符号化音声信号のノイズスペクトルを決定することにより1つ以上のノイズ係数を決定するように構成され得る。
以下、FDNS適用に先立つホワイトノイズへのMDCTスペクトルのフェードについて検討する。
MDCTビンの符号をランダムに変更する(符号スクランブル)代わりに、完全なスペクトルに、FDNSを用いて形状付けられたホワイトノイズを充填する。スペクトル特性における瞬間的な変化を回避するために、符号スクランブルとノイズ充填とのクロスフェードが適用される。クロスフェードは、以下のように実現することができる。
Figure 2016527541
ここで、cum_dampingは、(絶対)減衰定数である。これは、フレーム毎に減少し、1から始まって0へと減少する。
x_oldは、最後の受信フレームのスペクトルである。
random_signは、1又は−1を返す。
noiseは、ランダムなベクトル(ホワイトノイズ)であって、その平方平均(RMS)が最後の良好なスペクトルと類似となるようにスケーリングされるものを含む。
random_sign()*old_x[i]の項は、位相をランダム化して高調波
の繰り返しを避けるための符号スクランブルプロセスを特徴づける。
続いて、クロスフェードの後に、エネルギーレベルの別の正規化を実行しても良く、これにより合計エネルギーが2つのベクトルの相関によって逸脱しないことを確実にする。
実施例によると、第1の再構成部140は、例えば、ノイズレベル情報と第1の音声信号部分とに応じて第3の音声信号部分を再構成するように構成され得る。具体的な実施例では、第1の再構成部140は、例えば、第1の音声信号部分を減衰させる又は増幅することによって第3の音声信号部分を再構成するように構成され得る。
いくつかの実施例では、第2の再構成部141は、例えば、ノイズレベル情報と第2の音声信号部分とに応じて第4の音声信号部分を再構成するように構成され得る。具体的な実施例では、第2の再構成部141は、例えば、第2の音声信号部分を減衰させる又は増幅することによって第4の音声信号部分を再構成するように構成され得る。
上述のFDNS適用に先立つホワイトノイズへのMDCTスペクトルのフェードに関し、より一般的な実施例を図12に示す。
図12は、実施例による、符号化音声信号を復号して再構成音声信号を得るための装置を示す。
当該装置は、符号化音声信号の音声信号スペクトルの複数の音声信号サンプルについての情報を含む1つ以上のフレームを受信するための受信インターフェース1210と、再構成音声信号を生成するための処理部1220とを備える。
処理部1220は、現在のフレームが受信インターフェース1210によって受信されていない場合、又は現在のフレームが受信インターフェース1210によって受信されているが破損している場合、変更後スペクトルを目標スペクトルにフェードさせることにより再構成音声信号を生成するように構成されており、変更後スペクトルは、複数の変更後信号サンプルを含み、変更後スペクトルの変更後信号サンプルの各々について、前記変更後信号サンプルの絶対値は、音声信号スペクトルの音声信号サンプルのうちの1つの絶対値に等しい。
更に、処理部1220は、1つ以上のフレームのうちの現在のフレームが受信インターフェース1210によって受信されており、且つ受信インターフェース1210によって受信されている現在のフレームが破損していない場合、変更後スペクトルを目標スペクトルにフェードさせないように構成される。
実施例によると、目標スペクトルは、ノイズ様のスペクトルである。
実施例においては、ノイズ様のスペクトルは、ホワイトノイズを表す。
実施例によると、ノイズ様のスペクトルは、形状付けられる。
実施例においては、ノイズ様のスペクトルの形状は、以前に受信された信号の音声信号スペクトルに依存する。
実施例によると、ノイズ様のスペクトルは、音声信号スペクトルの形状に応じて形状付けられる。
実施例においては、処理部1220は、チルト定数を適用してノイズ様のスペクトルを形状付ける。
実施例によると、処理部1220は、
Figure 2016527541
の式を適用し、ここで、Nは、サンプルの数を示し、
iは、インデックスであり、
0≦i<Nであり、tilt_factor>0であり、
powerは、パワー関数である。
もし、tilt_factorが1よりも小さければ、これは、増加するiによる減衰を意味する。tilt_factorが1よりも大きければ、増加するiによる増幅を意味する。
別の実施例によると、処理部1220は、
Figure 2016527541
の式を適用することができ、ここで、Nは、サンプル数を示し、
iは、インデックスであり、0≦i<Nであり、
tilt_factor>0である。
実施例によると、処理部1220は、現在のフレームが受信インターフェース1210によって受信されていない場合、又は受信インターフェース1210によって受信されている現在のフレームが破損している場合、音声信号スペクトルの音声信号サンプルのうちの1つ以上の符号を変えることによって変更後スペクトルを生成するように構成される。
実施例においては、音声信号スペクトルの音声信号サンプルの各々は、想像上の数ではなく、実数によって表される。
実施例によると、音声信号スペクトルの音声信号サンプルは、変更後離散余弦変換領域において表される。
別の実施例においては、音声信号スペクトルの音声信号サンプルは、変更後離散正弦変換領域において表される。
実施例によると、処理部1220は、第1の値又は第2の値をランダム又は疑似ランダムに出力するランダム符号関数を適用することによって変更後スペクトルを生成するように構成される。
実施例においては、処理部1220は、続いて減衰定数を減少させることによって変更後スペクトルを目標スペクトルにフェードさせるように構成される。
実施例によると、処理部1220は、続いて減衰定数を増加させることによって変更後スペクトルを目標スペクトルにフェードさせるように構成される。
実施例においては、現在のフレームが受信インターフェース1210によって受信されていない場合、又は受信インターフェース1210によって受信されている現在のフレームが破損している場合、処理部1220は、
Figure 2016527541
の式を適用して再構成音声信号を生成するように構成され、ここで、iは、インデックスであり、x[i]は、再構成音声信号のサンプルを示し、cum_dampingは、減衰定数であり、x_old[i]は、符号化音声信号の音声信号スペクトルの音声信号サンプルのうちの1つを示し、random_sign()は、1又は−1を返し、noiseは、目標スペクトルを示すランダムなベクトルである。
いくつかの実施例では、TCX LTP演算が継続される。これらの実施例では、TCX LTP演算は、最後の良好なフレームから導出されたLTPパラメータ(LTP遅れ及びLTPゲイン)によって封じ込め中に継続される。
LTP演算は、以下のように要約することができる。
‐以前に導出した出力に基づいてLTP遅延バッファを供給する。
‐LTP遅れに基づいて、LTP寄与分として用いられるLTP遅延バッファから適切な信号部分を選択して現在の信号を形状付ける。
‐LTPゲインを用いてこのLTP寄与分を再スケーリングする。
‐この再スケーリングされたLTP寄与分をLTP入力信号に加算してLTP出力信号を生成する。
LTP遅延バッファ更新が実行される際、時間に関してそれぞれ異なる方策について検討することができる。
フレームnにおける最初のLTP演算として、最後のフレームn−1からの出力を用いる。これにより、フレームnにおけるLTP処理中に用いられるフレームnにおけるLTP遅延バッファが更新される。
フレームnにおける最後のLTP演算として、現在のフレームnからの出力を用いる。これにより、フレームn+1におけるLTP処理中に用いられるフレームnにおけるLTP遅延バッファが更新される。
以下、TCX LTPフィードバックループの結合解除について検討する。
TCX LTPフィードバックループを結合解除することによって、封じ込めモード時にLTPデコーダの各フィードバックループ中における追加のノイズ(LPT入力信号に適用されるノイズ置き換えの結果得られるもの)の導入が回避される。
図10は、この結合解除を示す。特に、図10は、封じ込め中のLTPフィードバックループの結合解除を示す(bfi=1)。
図10は、遅延バッファ1020、サンプル選択部1030、及びサンプル処理部1040(サンプル処理部1040は破線で示される)を示す。
LTP遅延バッファ1020の更新が実行されるときに向けて、いくつかの実施例は、以下のように進行する。
‐通常動作の場合、LTP遅延バッファ1020を最初のLTP演算として更新することが好ましいと考えられるが、それは、合計出力信号が、通常、永続的に記憶されるからである。この方策によって、専用のバッファを省略することができる。
‐結合解除動作の場合、LTP遅延バッファ1020を最後のLTP演算として更新することが好ましいと考えられるが、それは、信号へのLTP寄与分が、通常、一時的に記憶されるだけであるからである。この方策によって、一時的なLTP寄与信号が保存される。実現例によっては、このLTP寄与バッファは、単に永続的なものとすることもできる。
任意のケース(通常動作及び封じ込め)において後者の方策が用いられると仮定すると、実施例は、例えば、以下の事項を実現することができる。
‐通常動作中は、LTPデコーダの時間領域信号出力は、そのLTP入力信号への加算後に、LTP遅延バッファへの入力に用いられる。
‐封じ込め中、LTPデコーダの時間領域信号出力は、そのLTP入力信号への加算前に、LTP遅延バッファへの入力に用いられる。
いくつかの実施例では、TCX LTPゲインは、ゼロへフェードさせられる。このような実施例では、TCX LTPゲインは、例えば、ある信号適応フェードアウト定数でゼロへフェードさせることができる。これは、例えば、繰り返し行うことができ、例えば以下の疑似コードによって行うことができる。
Figure 2016527541
ここで、
gainは、現在のフレームにおいて適用されるTCX LTPデコーダゲインであり、
gain_pastは、先行するフレームにおいて適用されるTCX LTPデコーダゲインであり、
dampingは、(相対的な)フェードアウト定数である。
図1dは、更なる実施例による装置を示し、当該装置は、更に、遅延バッファ180を含む長期予測部170を備える。長期予測部170は、第2の音声信号部分と、遅延バッファ180に記憶されている遅延バッファ入力と、長期予測ゲインとに応じて、処理済信号を生成するように構成される。更に、長期予測部は、前記複数のフレームのうちの第3のフレームが受信インターフェース110によって受信されていない場合、又は前記第3のフレームが受信インターフェース110によって受信されているが破損している場合、長期予測ゲインをゼロへフェードさせるように構成される。
他の実施例(図示せず)においては、長期予測部は、例えば、第1の音声信号部分と、遅延バッファに記憶されている遅延バッファ入力と、長期予測ゲインとに応じて、処理済信号を生成するように構成しても良い。
図1dにおいては、第1の再構成部140は、例えば、更に、処理済信号に応じて第3の音声信号部分を生成することができる。
実施例においては、長期予測部170は、例えば、長期予測ゲインをゼロへフェードさせるように構成することができ、長期予測ゲインがゼロへフェードさせられる速度は、フェードアウト定数に依存する。
これに代えて、又はこれに加えて、長期予測部170は、例えば、複数のフレームのうちの前記第3のフレームが受信インターフェース110によって受信されていない場合、又は前記第3のフレームが受信インターフェース110によって受信されているが破損している場合、生成された処理済信号を遅延バッファ180に記憶させることによって遅延バッファ180の入力を更新するように構成され得る。
上述のTCX LTPの使用に関し、より一般的な実施例を図13に示す。
図13は、符号化音声信号を復号して再構成音声信号を得るための装置を示す。
当該装置は、複数のフレームを受信するための受信インターフェース1310、復号音声信号の音声信号サンプルを記憶するための遅延バッファ1320、遅延バッファ1320に記憶されている音声信号サンプルから複数の選択音声信号サンプルを選択するためのサンプル選択部1330、及び、選択音声信号サンプルを処理して再構成音声信号の再構成音声信号サンプルを得るためのサンプル処理部1340を備える。
サンプル選択部1330は、現在のフレームが受信インターフェース1310によって受信されており、且つ受信インターフェース1310によって受信されている現在のフレームが破損していない場合、現在のフレームに含まれるピッチ遅れ情報に応じて遅延バッファ1320に記憶されている音声信号サンプルから複数の選択音声信号サンプルを選択するように構成される。更に、サンプル選択部1330は、現在のフレームが受信インターフェース1310によって受信されていない場合、又は受信インターフェース1310によって受信されている現在のフレームが破損している場合、受信インターフェース1310によって以前に受信されている別のフレームに含まれるピッチ遅れ情報に応じて遅延バッファ1320に記憶されている音声信号サンプルから複数の選択音声信号サンプルを選択するように構成される。
実施例によると、サンプル処理部1340は、例えば、現在のフレームが受信インターフェース1310によって受信されており、且つ受信インターフェース1310によって受信されている現在のフレームが破損していない場合、現在のフレームに含まれるゲイン情報に応じて選択音声信号サンプルを再スケーリングすることによって再構成音声信号サンプルを得るように構成され得る。更に、サンプル選択部1330は、例えば、現在のフレームが受信インターフェース1310によって受信されていない場合、又は受信インターフェース1310によって受信されている現在のフレームが破損している場合、受信インターフェース1310によって以前に受信されている前記別のフレームに含まれるゲイン情報に応じて選択音声信号サンプルを再スケーリングすることによって再構成音声信号サンプルを得るように構成され得る。
実施例においては、サンプル処理部1340は、例えば、現在のフレームが受信インターフェース1310によって受信されており、且つ受信インターフェース1310によって受信されている現在のフレームが破損していない場合、選択音声信号サンプルと、現在のフレームに含まれるゲイン情報に応じた値とを乗算することによって再構成音声信号サンプルを得るように構成され得る。更に、サンプル選択部1330は、現在のフレームが受信インターフェース1310によって受信されていない場合、又は受信インターフェース1310によって受信されている現在のフレームが破損している場合、選択音声信号サンプルと、受信インターフェース1310によって以前に受信されている前記別のフレームに含まれるゲイン情報に応じた値とを乗算することによって再構成音声信号サンプルを得るように構成される。
実施例によると、サンプル処理部1340は、例えば、再構成音声信号サンプルを遅延バッファ1320に記憶させるように構成され得る。
実施例においては、サンプル処理部1340は、例えば、更なるフレームが受信インターフェース1310によって受信される前に再構成音声信号サンプルを遅延バッファ1320に記憶させるように構成され得る。
実施例によると、サンプル処理部1340は、例えば、更なるフレームが受信インターフェース1310によって受信された後に再構成音声信号サンプルを遅延バッファ1320に記憶させるように構成され得る。
実施例においては、サンプル処理部1340は、例えば、ゲイン情報に応じて選択音声信号サンプルを再スケーリングして再スケーリング音声信号サンプルを得て、再スケーリング音声信号サンプルを入力音声信号サンプルと組み合わせて処理済音声信号サンプルを得るように構成され得る。
実施例によると、サンプル処理部1340は、例えば、現在のフレームが受信インターフェース1310によって受信されており、且つ受信インターフェース1310によって受信されている現在のフレームが破損していない場合、再スケーリング音声信号サンプルと入力音声信号サンプルとの組み合わせを示す処理済音声信号サンプルを遅延バッファ1320に記憶させ、再スケーリング音声信号サンプルを遅延バッファ1320に記憶させないように構成され得る。更に、サンプル処理部1340は、現在のフレームが受信インターフェース1310によって受信されていない場合、又は受信インターフェース1310によって受信されている現在のフレームが破損している場合、再スケーリング音声信号サンプルを遅延バッファ1320に記憶させ、処理済音声信号サンプルを遅延バッファ1320に記憶させないように構成される。
別の実施例によると、サンプル処理部1340は、例えば、現在のフレームが受信インターフェース1310によって受信されていない場合、又は受信インターフェース1310によって受信されている現在のフレームが破損している場合、処理済音声信号サンプルを遅延バッファ1320に記憶させるように構成され得る。
実施例においては、サンプル選択部1330は、例えば、変更後ゲインに応じて選択音声信号サンプルを再スケーリングすることによって再構成音声信号サンプルを得るように構成することができ、変更後ゲインは、
Figure 2016527541
の式によって定義され、ここで、gainは、変更後ゲインであり、サンプル選択部1330は、例えば、gainの算出後にgain_pastをgainに設定するように構成することができ、dampingは実数値である。
実施例によると、サンプル選択部1330は、例えば、変更後ゲインを算出するように構成され得る。
実施例においては、dampingは、例えば、0<damping<1によって定義され得る。
実施例によると、変更後ゲインgainは、例えば、フレームが最後に受信インターフェース1310によって受信されてから少なくとも所定数のフレームが受信インターフェース1310によって受信されていない場合、ゼロに設定され得る。
以下、フェードアウト速度について検討する。或る種のフェードアウトを適用するいくつかの封じ込めモジュールが存在する。フェードアウトの速度は、これらのモジュール間で異なって選択され得るが、1つのコア(ACELP又はTCX)について全ての封じ込めモジュールに対して同じフェードアウト速度を用いることが有益である。例えば以下の通りである。
ACELPの場合、特に適応コードブック(ゲインの変更による)及び/又は新規コードブック信号(ゲインの変更による)について同じフェードアウト速度を用いることが求められる。
また、TCXの場合、特に時間領域信号、及び/又はLTPゲイン(ゼロへのフェード)、及び/又はLPC重み付け(1へのフェード)、及び/又はLP係数(背景スペクトル形状へのフェード)、及び/又はホワイトノイズへのクロスフェードについて、同じフェードアウト速度を用いることが求められる。
更に、ACELP及びTCXについても同じフェードアウト速度を用いることが好ましいと考えられるが、コアの異なる特性のため、異なるフェードアウト速度を用いることを選択することも考えられる。
このフェードアウト速度は、静的であっても良いが、信号特性に対して適応的であることが好ましい。例えば、フェードアウト速度は、例えば、LPC安定度因数(TCX)及び/又は分類及び/又は連続して失われたフレームの数に依存し得る。
フェードアウト速度は、例えば、減衰定数に応じて決定されても良く、これは、絶対的又は相対的に与えられることができ、また特定のフェードアウト中に時間の経過に伴い変化し得る。
実施例においては、ホワイトノイズフェードについてと同様にLTPゲインフェードについても同じフェード速度を用いる。
上述のように快適ノイズ信号を生成するための装置、方法及びコンピュータプログラムが提供された。
装置の文脈でいくつかの局面を記載したが、これらの局面は、対応の方法の記載をも表すものであり、ブロック又は装置は、方法ステップ又は方法ステップの特徴に対応することは明らかである。同様に、方法ステップの文脈で記載した局面は、対応の装置の対応のブロック若しくは項目又は特徴の記載をも表す。
本発明による分解された信号は、デジタル記憶媒体で記憶することができ、或るいは、伝送媒体、例えば無線伝送媒体又はインターネットのような有線伝送媒体、で送信することができる。
特定の実現要件に応じて、本発明の実施例は、ハードウェア又はソフトウェアによって実現され得る。その実現は、デジタル記憶媒体、例えば、フロッピー(登録商標)ディスク、DVD、CD、ROM、PROM、EPROM、EEPROM又はフラッシュメモリであって、電子的に読み出し可能な制御信号を格納しており、プログラム可能なコンピュータシステムと協働する(又は協働可能である)ことによりそれぞれの方法が実行されるようにするものを用いて実行され得る。
本発明によるいくつかの実施例は、プログラム可能なコンピュータシステムと協働可能であることによって本願明細書に記載の方法の1つが実行されるようにする、電子的に読み出し可能な制御信号を有する非一時的データキャリアを含む。
一般的には、本発明の実施例は、プログラムコードを有するコンピュータプログラム製品であって、このコンピュータプログラム製品がコンピュータにおいて実行されるときに上記プログラムコードが上記方法の1つを実行するように動作するものとして実現され得る。プログラムコードは、例えば、機械読み取り可能キャリアに格納され得る。
他の実施例は、機械読み取り可能キャリアに格納された、本願明細書に記載の方法の1つを実行するためのコンピュータプログラムを含む。
従って、換言すると、本発明の方法の一実施例は、コンピュータプログラムであって、このコンピュータプログラムがコンピュータにおいて実行されるときに、本願明細書に記載の方法の1つを実行するためのプログラムコードを有するものである。
従って、本発明の方法の更なる実施例は、データキャリア(又はデジタル記憶媒体若しくはコンピュータ読み取り可能媒体)であって、そこに記録された、本願明細書に記載の方法の1つを実行するためのコンピュータプログラムを含むものである。
従って、本発明の方法の更なる実施例は、本願明細書に記載の方法の1つを実行するためのコンピュータプログラムを表すデータストリーム又は信号シーケンスである。データストリーム又は信号シーケンスは、例えば、インターネットを介したデータ通信接続を介して転送されるように構成され得る。
更なる実施例は、本願明細書に記載の方法の1つを実行するように構成又は適合された処理手段、例えば、コンピュータ又はプログラム可能論理装置を含む。
更なる実施例は、本願明細書に記載の方法の1つを実行するためのコンピュータプログラムをインストールしたコンピュータを含む。
いくつかの実施例においては、プログラム可能論理装置(例えば、フィールドプログラマブルゲートアレイ)を用いて、本願明細書に記載の方法におけるいくつか又は全ての機能を実行しても良い。いくつかの実施例においては、フィールドプログラマブルゲートアレイは、マイクロプロセッサと協働して、本願明細書に記載の方法の1つを実行しても良い。一般的に、当該方法は、どのようなハードウェア装置によって実行されても良い。
上述の実施例は、単に本発明の原理を例示するものである。本願明細書に記載の構成及び詳細を変更及び変形したものが当業者には明らかであることが理解される。従って、本願明細書における実施例の記載及び説明として呈示された特定の詳細によってではなく、添付の特許請求の範囲によってのみ限定されることが意図される。
‐部分空間分解:この方策は、例えば、KLT(カルフネン・ロエヴ(Karhunen−Loeve)変換、また主成分分析としても知られる)及び/又はDFT(離散時間フーリエ変換)を利用して、ノイズ様の信号をクリーンな言語音声信号及びノイズ部分に分解することを試みる。それから、任意の平滑化アルゴリズムを用いて固有ベクトル・固有値をトレースすることができる[BP06][HJH08]。
EP2026330A1は、フレーム損失封じ込めのための装置および方法を開示する。現在の損失フレームのピッチ周期は、現在の損失フレームの前に最後の良好なフレームのピッチ周期に基づいて得られる。現在の損失フレームの励振信号は、損失フレームの前に現在の損失フレームのピッチ周期および最後の良好なフレームの励振信号に基づいて回復される。それによって、受信者の聞き取りのコントラストが低減され、言語音声の品質が回線される。更に、EP2026330A1では、継続する損失フレームのピッチ周期は、損失フレームの前に最後の良好なフレームのピッチ周期の変化傾向に基づいて調整される。

Claims (13)

  1. 符号化音声信号を復号して再構成音声信号を得るための装置であって、
    1つ以上のフレームを受信するための受信インターフェース(1110)と、
    係数生成部(1120)と、
    信号再構成部(1130)とを備え、
    前記係数生成部(1120)は、前記1つ以上のフレームのうちの現在のフレームが前記受信インターフェース(1110)によって受信されており、且つ前記受信インターフェース(1110)によって受信されている現在のフレームが破損していない場合、前記現在のフレームに含まれる1つ以上の第1の音声信号係数を決定するように構成され、前記1つ以上の第1の音声信号係数は、前記符号化音声信号の特性を示し、1つ以上のノイズ係数が、前記符号化音声信号の背景ノイズを示し、
    前記係数生成部(1120)は、前記現在のフレームが前記受信インターフェース(1110)によって受信されていない場合、又は前記受信インターフェース(1110)によって受信されている現在のフレームが破損している場合、前記1つ以上の第1の音声信号係数と前記1つ以上のノイズ係数とに応じて1つ以上の第2の音声信号係数を生成するように構成され、
    前記音声信号再構成部(1130)は、前記現在のフレームが前記受信インターフェース(1110)によって受信されており、且つ前記受信インターフェース(1110)によって受信されている現在のフレームが破損していない場合、前記1つ以上の第1の音声信号係数に応じて前記再構成音声信号の第1の部分を再構成するように構成され、
    前記音声信号再構成部(1130)は、前記現在のフレームが前記受信インターフェース(1110)によって受信されていない場合、又は前記受信インターフェース(1110)によって受信されている現在のフレームが破損している場合、前記1つ以上の第2の音声信号係数に応じて前記再構成音声信号の第2の部分を再構成するように構成される、装置。
  2. 請求項1に記載の装置であって、前記1つ以上の第1の音声信号係数は、前記符号化音声信号の1つ以上の線形予測フィルタ係数である、装置。
  3. 請求項2に記載の装置であって、前記1つ以上の線形予測フィルタ係数は、1つ以上のインミッタンススペクトル対によって、又は1つ以上の線形スペクトル対によって、又は1つ以上のインミッタンススペクトル周波数によって、又は前記符号化音声信号の1つ以上の線スペクトル周波数によって表される、装置。
  4. 請求項1から請求項3のいずれかに記載の装置であって、前記1つ以上のノイズ係数は、前記符号化音声信号の背景ノイズを示す1つ以上の線形予測フィルタ係数である、装置。
  5. 請求項1から請求項4のいずれかに記載の装置であって、前記1つ以上の線形予測フィルタ係数は、前記背景ノイズのスペクトル形状を表す、装置。
  6. 請求項1から請求項5のいずれかに記載の装置であって、前記係数生成部(1120)は、前記1つ以上の第2の音声信号部分が前記再構成音声信号の1つ以上の線形予測フィルタ係数であるように前記1つ以上の第2の音声信号部分を決定するように構成される、装置。
  7. 請求項1に記載の装置であって、
    前記係数生成部(1120)は、
    Figure 2016527541
    の式を適用することによって前記1つ以上の第2の音声信号係数を生成するように構成され、
    current[i]は、前記1つ以上の第2の音声信号係数のうちの1つを示し、
    last[i]は、前記1つ以上の第1の音声信号係数のうちの1つを示し、
    ptmean[i]は、前記1つ以上のノイズ係数のうちの1つであり、
    αは、実数(0≦α≦1)であり、
    iは、インデックスである、装置。
  8. 請求項7に記載の装置であって、
    last[i]は、前記符号化音声信号の線形予測フィルタ係数を示し、
    current[i]は、前記再構成音声信号の線形予測フィルタ係数を示す、装置。
  9. 請求項8に記載の装置であって、ptmean[i]は、前記符号化音声信号の背景ノイズを示す、装置。
  10. 請求項1から請求項9のいずれかに記載の装置であって、前記係数生成部(1120)は、前記1つ以上のフレームのうちの現在のフレームが前記受信インターフェース(1110)によって受信されており、且つ前記受信インターフェース(1110)によって受信されている現在のフレームが破損していない場合、前記符号化音声信号のノイズスペクトルを決定することによって前記1つ以上のノイズ係数を決定するように構成される、装置。
  11. 請求項1から請求項10のいずれかに記載の装置であって、前記係数生成部(1120)は、前記信号スペクトルに対して最小統計方策を用いて背景ノイズスペクトルを決定し、前記背景ノイズスペクトルから背景ノイズ形状を表すLPC係数を算出することによって、背景ノイズを表すLPC係数を決定するように構成される、装置。
  12. 符号化音声信号を復号して再構成音声信号を得るための方法であって、
    1つ以上のフレームを受信するステップと、
    前記1つ以上のフレームのうちの現在のフレームが受信されており、且つ前記受信されている現在のフレームが破損していない場合、前記現在のフレームに含まれる1つ以上の第1の音声信号係数を決定するステップと、を備え、前記1つ以上の第1の音声信号係数は、前記符号化音声信号の特性を示し、1つ以上のノイズ係数が、前記符号化音声信号の背景ノイズを示し、当該方法は、更に、
    前記現在のフレームが受信されていない場合、又は受信されている前記現在のフレームが破損している場合、前記1つ以上の第1の音声信号係数と前記1つ以上のノイズ係数とに応じて1つ以上の第2の音声信号係数を生成するステップと、
    前記現在のフレームが受信されており、且つ受信されている前記現在のフレームが破損していない場合、前記1つ以上の第1の音声信号係数に応じて前記再構成音声信号の第1の部分を再構成するステップと、
    前記現在のフレームが受信されていない場合、又は受信されている前記現在のフレームが破損している場合、前記1つ以上の第2の音声信号係数に応じて前記再構成音声信号の第2の部分を再構成するステップと、を備える、方法。
  13. コンピュータ又は信号プロセッサにおいて実行された時に請求項12に記載の方法を実現するためのコンピュータプログラム。
JP2016520527A 2013-06-21 2014-06-23 快適ノイズの適応スペクトル形状を生成するための装置及び方法 Active JP6360165B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP13173154.9 2013-06-21
EP13173154 2013-06-21
EP14166998 2014-05-05
EP14166998.6 2014-05-05
PCT/EP2014/063173 WO2014202786A1 (en) 2013-06-21 2014-06-23 Apparatus and method for generating an adaptive spectral shape of comfort noise

Publications (2)

Publication Number Publication Date
JP2016527541A true JP2016527541A (ja) 2016-09-08
JP6360165B2 JP6360165B2 (ja) 2018-07-18

Family

ID=50981527

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2016520526A Active JP6201043B2 (ja) 2013-06-21 2014-06-23 エラー封じ込め中の切替音声符号化システムについての向上した信号フェードアウトのための装置及び方法
JP2016520531A Active JP6196375B2 (ja) 2013-06-21 2014-06-23 エラー封じ込め中における異なる領域での向上した信号フェードアウトのための装置及び方法
JP2016520529A Active JP6214071B2 (ja) 2013-06-21 2014-06-23 Fdns適用に先立ちmdctスペクトルをホワイトノイズへフェードさせることを実現する装置及び方法
JP2016520527A Active JP6360165B2 (ja) 2013-06-21 2014-06-23 快適ノイズの適応スペクトル形状を生成するための装置及び方法
JP2016520530A Active JP6190052B2 (ja) 2013-06-21 2014-06-23 Tcx ltpについての向上した概念を実現する装置及び方法

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2016520526A Active JP6201043B2 (ja) 2013-06-21 2014-06-23 エラー封じ込め中の切替音声符号化システムについての向上した信号フェードアウトのための装置及び方法
JP2016520531A Active JP6196375B2 (ja) 2013-06-21 2014-06-23 エラー封じ込め中における異なる領域での向上した信号フェードアウトのための装置及び方法
JP2016520529A Active JP6214071B2 (ja) 2013-06-21 2014-06-23 Fdns適用に先立ちmdctスペクトルをホワイトノイズへフェードさせることを実現する装置及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2016520530A Active JP6190052B2 (ja) 2013-06-21 2014-06-23 Tcx ltpについての向上した概念を実現する装置及び方法

Country Status (19)

Country Link
US (15) US9978376B2 (ja)
EP (5) EP3011563B1 (ja)
JP (5) JP6201043B2 (ja)
KR (5) KR101788484B1 (ja)
CN (9) CN105359210B (ja)
AU (5) AU2014283124B2 (ja)
BR (2) BR112015031180B1 (ja)
CA (5) CA2913578C (ja)
ES (5) ES2639127T3 (ja)
HK (5) HK1224009A1 (ja)
MX (5) MX347233B (ja)
MY (5) MY181026A (ja)
PL (5) PL3011557T3 (ja)
PT (5) PT3011558T (ja)
RU (5) RU2675777C2 (ja)
SG (5) SG11201510353RA (ja)
TW (5) TWI553631B (ja)
WO (5) WO2014202789A1 (ja)
ZA (1) ZA201600310B (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112015031180B1 (pt) * 2013-06-21 2022-04-05 Fraunhofer- Gesellschaft Zur Förderung Der Angewandten Forschung E.V Aparelho e método para gerar um formato espectral adaptativo de ruído de conforto
FR3024582A1 (fr) 2014-07-29 2016-02-05 Orange Gestion de la perte de trame dans un contexte de transition fd/lpd
US10008214B2 (en) * 2015-09-11 2018-06-26 Electronics And Telecommunications Research Institute USAC audio signal encoding/decoding apparatus and method for digital radio services
CA2998689C (en) 2015-09-25 2021-10-26 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Encoder and method for encoding an audio signal with reduced background noise using linear predictive coding
WO2017153300A1 (en) 2016-03-07 2017-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Error concealment unit, audio decoder, and related method and computer program using characteristics of a decoded representation of a properly decoded audio frame
MX2018010754A (es) * 2016-03-07 2019-01-14 Fraunhofer Ges Forschung Unidad de ocultamiento de error, decodificador de audio y método relacionado y programa de computadora que desaparece una trama de audio ocultada de acuerdo con factores de amortiguamiento diferentes para bandas de frecuencia diferentes.
KR102158743B1 (ko) * 2016-03-15 2020-09-22 한국전자통신연구원 자연어 음성인식의 성능향상을 위한 데이터 증강장치 및 방법
TWI602173B (zh) * 2016-10-21 2017-10-11 盛微先進科技股份有限公司 音訊處理方法與非暫時性電腦可讀媒體
CN108074586B (zh) * 2016-11-15 2021-02-12 电信科学技术研究院 一种语音问题的定位方法和装置
US10339947B2 (en) * 2017-03-22 2019-07-02 Immersion Networks, Inc. System and method for processing audio data
CN107123419A (zh) * 2017-05-18 2017-09-01 北京大生在线科技有限公司 Sphinx语速识别中背景降噪的优化方法
CN109427337B (zh) 2017-08-23 2021-03-30 华为技术有限公司 立体声信号编码时重建信号的方法和装置
EP3483884A1 (en) * 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Signal filtering
EP3483886A1 (en) * 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Selecting pitch lag
US10650834B2 (en) 2018-01-10 2020-05-12 Savitech Corp. Audio processing method and non-transitory computer readable medium
EP3553777B1 (en) * 2018-04-09 2022-07-20 Dolby Laboratories Licensing Corporation Low-complexity packet loss concealment for transcoded audio signals
TWI657437B (zh) * 2018-05-25 2019-04-21 英屬開曼群島商睿能創意公司 電動載具以及播放、產生與其相關音頻訊號之方法
EP3821430A1 (en) * 2018-07-12 2021-05-19 Dolby International AB Dynamic eq
CN109117807B (zh) * 2018-08-24 2020-07-21 广东石油化工学院 一种plc通信信号自适应时频峰值滤波方法及系统
US10763885B2 (en) 2018-11-06 2020-09-01 Stmicroelectronics S.R.L. Method of error concealment, and associated device
CN111402905B (zh) * 2018-12-28 2023-05-26 南京中感微电子有限公司 音频数据恢复方法、装置及蓝牙设备
KR102603621B1 (ko) * 2019-01-08 2023-11-16 엘지전자 주식회사 신호 처리 장치 및 이를 구비하는 영상표시장치
WO2020165265A1 (en) 2019-02-13 2020-08-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Decoder and decoding method for lc3 concealment including full frame loss concealment and partial frame loss concealment
WO2020164751A1 (en) 2019-02-13 2020-08-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Decoder and decoding method for lc3 concealment including full frame loss concealment and partial frame loss concealment
CN110265046A (zh) * 2019-07-25 2019-09-20 腾讯科技(深圳)有限公司 一种编码参数调控方法、装置、设备及存储介质
JP7314414B2 (ja) 2019-12-02 2023-07-25 グーグル エルエルシー シームレスなオーディオ混合のための方法、システム、および媒体
TWI789577B (zh) * 2020-04-01 2023-01-11 同響科技股份有限公司 音訊資料重建方法及系統
CN114582361B (zh) * 2022-04-29 2022-07-08 北京百瑞互联技术有限公司 基于生成对抗网络的高解析度音频编解码方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10308708A (ja) * 1997-05-09 1998-11-17 Matsushita Electric Ind Co Ltd 音声符号化装置
JP2004120619A (ja) * 2002-09-27 2004-04-15 Kddi Corp オーディオ情報復号装置
JP2006215569A (ja) * 2005-02-05 2006-08-17 Samsung Electronics Co Ltd 線スペクトル対パラメータ復元方法、線スペクトル対パラメータ復元装置、音声復号化装置及び線スペクトル対パラメータ復元プログラム
JP2007049491A (ja) * 2005-08-10 2007-02-22 Ntt Docomo Inc 復号装置、および復号方法
JP2016515725A (ja) * 2013-04-18 2016-05-30 オランジュ 重み付けされたノイズの注入によるフレーム消失補正

Family Cites Families (168)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4933973A (en) * 1988-02-29 1990-06-12 Itt Corporation Apparatus and methods for the selective addition of noise to templates employed in automatic speech recognition systems
US5097507A (en) 1989-12-22 1992-03-17 General Electric Company Fading bit error protection for digital cellular multi-pulse speech coder
CA2010830C (en) 1990-02-23 1996-06-25 Jean-Pierre Adoul Dynamic codebook for efficient speech coding based on algebraic codes
US5148487A (en) * 1990-02-26 1992-09-15 Matsushita Electric Industrial Co., Ltd. Audio subband encoded signal decoder
TW224191B (ja) 1992-01-28 1994-05-21 Qualcomm Inc
US5271011A (en) 1992-03-16 1993-12-14 Scientific-Atlanta, Inc. Digital audio data muting system and method
SE501340C2 (sv) 1993-06-11 1995-01-23 Ericsson Telefon Ab L M Döljande av transmissionsfel i en talavkodare
US5615298A (en) 1994-03-14 1997-03-25 Lucent Technologies Inc. Excitation signal synthesis during frame erasure or packet loss
JP3328080B2 (ja) 1994-11-22 2002-09-24 沖電気工業株式会社 コード励振線形予測復号器
KR970011728B1 (ko) * 1994-12-21 1997-07-14 김광호 음향신호의 에러은닉방법 및 그 장치
FR2729246A1 (fr) * 1995-01-06 1996-07-12 Matra Communication Procede de codage de parole a analyse par synthese
SE9500858L (sv) * 1995-03-10 1996-09-11 Ericsson Telefon Ab L M Anordning och förfarande vid talöverföring och ett telekommunikationssystem omfattande dylik anordning
US5699485A (en) * 1995-06-07 1997-12-16 Lucent Technologies Inc. Pitch delay modification during frame erasures
JP3522012B2 (ja) 1995-08-23 2004-04-26 沖電気工業株式会社 コード励振線形予測符号化装置
JP3157116B2 (ja) 1996-03-29 2001-04-16 三菱電機株式会社 音声符号化伝送システム
US6075974A (en) * 1996-11-20 2000-06-13 Qualcomm Inc. Method and apparatus for adjusting thresholds and measurements of received signals by anticipating power control commands yet to be executed
CN1243621A (zh) * 1997-09-12 2000-02-02 皇家菲利浦电子有限公司 具有改进的丢失部分重构功能的传输系统
KR100335611B1 (ko) * 1997-11-20 2002-10-09 삼성전자 주식회사 비트율 조절이 가능한 스테레오 오디오 부호화/복호화 방법 및 장치
ATE302991T1 (de) 1998-01-22 2005-09-15 Deutsche Telekom Ag Verfahren zur signalgesteuerten schaltung zwischen verschiedenen audiokodierungssystemen
US6351730B2 (en) * 1998-03-30 2002-02-26 Lucent Technologies Inc. Low-complexity, low-delay, scalable and embedded speech and audio coding with adaptive frame loss concealment
US20010014857A1 (en) * 1998-08-14 2001-08-16 Zifei Peter Wang A voice activity detector for packet voice network
US6480822B2 (en) * 1998-08-24 2002-11-12 Conexant Systems, Inc. Low complexity random codebook structure
FR2784218B1 (fr) * 1998-10-06 2000-12-08 Thomson Csf Procede de codage de la parole a bas debit
US6424938B1 (en) 1998-11-23 2002-07-23 Telefonaktiebolaget L M Ericsson Complex signal activity detection for improved speech/noise classification of an audio signal
US6289309B1 (en) 1998-12-16 2001-09-11 Sarnoff Corporation Noise spectrum tracking for speech enhancement
US6661793B1 (en) * 1999-01-19 2003-12-09 Vocaltec Communications Ltd. Method and apparatus for reconstructing media
US6640209B1 (en) 1999-02-26 2003-10-28 Qualcomm Incorporated Closed-loop multimode mixed-domain linear prediction (MDLP) speech coder
US6377915B1 (en) 1999-03-17 2002-04-23 Yrp Advanced Mobile Communication Systems Research Laboratories Co., Ltd. Speech decoding using mix ratio table
WO2000057399A1 (fr) 1999-03-19 2000-09-28 Sony Corporation Procede d'inclusion d'information additionnelle et dispositif a cet effet, et procede de decodage d'information additionnelle et dispositif a cet effet
DE60029715T2 (de) * 1999-04-19 2007-08-02 At & T Corp. Verfahren und anordnung zur verschleierung von rahmenausfall
US7117156B1 (en) * 1999-04-19 2006-10-03 At&T Corp. Method and apparatus for performing packet loss or frame erasure concealment
DE19921122C1 (de) 1999-05-07 2001-01-25 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Verschleiern eines Fehlers in einem codierten Audiosignal und Verfahren und Vorrichtung zum Decodieren eines codierten Audiosignals
US6284551B1 (en) * 1999-06-14 2001-09-04 Hyundai Electronics Industries Co., Ltd. Capacitor and method for fabricating the same
US6636829B1 (en) * 1999-09-22 2003-10-21 Mindspeed Technologies, Inc. Speech communication system and method for handling lost frames
US6604070B1 (en) 1999-09-22 2003-08-05 Conexant Systems, Inc. System of encoding and decoding speech signals
FI116643B (fi) 1999-11-15 2006-01-13 Nokia Corp Kohinan vaimennus
US6826527B1 (en) 1999-11-23 2004-11-30 Texas Instruments Incorporated Concealment of frame erasures and method
EP1238489B1 (en) * 1999-12-13 2008-03-05 Broadcom Corporation Voice gateway with downstream voice synchronization
GB2358558B (en) * 2000-01-18 2003-10-15 Mitel Corp Packet loss compensation method using injection of spectrally shaped noise
US6584438B1 (en) 2000-04-24 2003-06-24 Qualcomm Incorporated Frame erasure compensation method in a variable rate speech coder
FI115329B (fi) 2000-05-08 2005-04-15 Nokia Corp Menetelmä ja järjestely lähdesignaalin kaistanleveyden vaihtamiseksi tietoliikenneyhteydessä, jossa on valmiudet useisiin kaistanleveyksiin
US6757654B1 (en) * 2000-05-11 2004-06-29 Telefonaktiebolaget Lm Ericsson Forward error correction in speech coding
EP1199709A1 (en) * 2000-10-20 2002-04-24 Telefonaktiebolaget Lm Ericsson Error Concealment in relation to decoding of encoded acoustic signals
US7031926B2 (en) 2000-10-23 2006-04-18 Nokia Corporation Spectral parameter substitution for the frame error concealment in a speech decoder
US7171355B1 (en) 2000-10-25 2007-01-30 Broadcom Corporation Method and apparatus for one-stage and two-stage noise feedback coding of speech and audio signals
US7113522B2 (en) 2001-01-24 2006-09-26 Qualcomm, Incorporated Enhanced conversion of wideband signals to narrowband signals
US7069208B2 (en) * 2001-01-24 2006-06-27 Nokia, Corp. System and method for concealment of data loss in digital audio transmission
FR2820227B1 (fr) 2001-01-30 2003-04-18 France Telecom Procede et dispositif de reduction de bruit
US20040204935A1 (en) * 2001-02-21 2004-10-14 Krishnasamy Anandakumar Adaptive voice playout in VOP
US6520762B2 (en) 2001-02-23 2003-02-18 Husky Injection Molding Systems, Ltd Injection unit
EP1235203B1 (en) * 2001-02-27 2009-08-12 Texas Instruments Incorporated Method for concealing erased speech frames and decoder therefor
US7590525B2 (en) * 2001-08-17 2009-09-15 Broadcom Corporation Frame erasure concealment for predictive speech coding based on extrapolation of speech waveform
US7379865B2 (en) 2001-10-26 2008-05-27 At&T Corp. System and methods for concealing errors in data transmission
KR100935961B1 (ko) * 2001-11-14 2010-01-08 파나소닉 주식회사 부호화 장치 및 복호화 장치
CA2365203A1 (en) 2001-12-14 2003-06-14 Voiceage Corporation A signal modification method for efficient coding of speech signals
JP2005515486A (ja) 2002-01-08 2005-05-26 ディリチウム ネットワークス ピーティーワイ リミテッド Celpによる音声符号間のトランスコーディング・スキーム
US20030162518A1 (en) 2002-02-22 2003-08-28 Baldwin Keith R. Rapid acquisition and tracking system for a wireless packet-based communication device
US7492703B2 (en) 2002-02-28 2009-02-17 Texas Instruments Incorporated Noise analysis in a communication system
JP2005520206A (ja) * 2002-03-12 2005-07-07 ディリチウム ネットワークス ピーティーワイ リミテッド オーディオ・トランスコーダにおける適応コードブック・ピッチ・ラグ計算方法
US20030187663A1 (en) * 2002-03-28 2003-10-02 Truman Michael Mead Broadband frequency translation for high frequency regeneration
US7174292B2 (en) 2002-05-20 2007-02-06 Microsoft Corporation Method of determining uncertainty associated with acoustic distortion-based noise reduction
CA2388439A1 (en) * 2002-05-31 2003-11-30 Voiceage Corporation A method and device for efficient frame erasure concealment in linear predictive based speech codecs
KR100486732B1 (ko) * 2003-02-19 2005-05-03 삼성전자주식회사 블럭제한된 트렐리스 부호화 양자화방법과 음성부호화시스템에있어서 이를 채용한 라인스펙트럼주파수 계수양자화방법 및 장치
US20040202935A1 (en) * 2003-04-08 2004-10-14 Jeremy Barker Cathode active material with increased alkali/metal content and method of making same
WO2004098105A1 (en) 2003-04-30 2004-11-11 Nokia Corporation Support of a multichannel audio extension
US7433815B2 (en) 2003-09-10 2008-10-07 Dilithium Networks Pty Ltd. Method and apparatus for voice transcoding between variable rate coders
US7224810B2 (en) 2003-09-12 2007-05-29 Spatializer Audio Laboratories, Inc. Noise reduction system
JP4497911B2 (ja) * 2003-12-16 2010-07-07 キヤノン株式会社 信号検出装置および方法、ならびにプログラム
CA2457988A1 (en) 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
ATE523876T1 (de) * 2004-03-05 2011-09-15 Panasonic Corp Fehlerverbergungseinrichtung und fehlerverbergungsverfahren
US7620546B2 (en) 2004-03-23 2009-11-17 Qnx Software Systems (Wavemakers), Inc. Isolating speech signals utilizing neural networks
US7454332B2 (en) 2004-06-15 2008-11-18 Microsoft Corporation Gain constrained noise suppression
CN1989548B (zh) * 2004-07-20 2010-12-08 松下电器产业株式会社 语音解码装置及补偿帧生成方法
KR101168002B1 (ko) 2004-09-16 2012-07-26 프랑스 텔레콤 잡음 신호 처리 방법 및 상기 방법을 구현하기 위한 장치
SG124307A1 (en) * 2005-01-20 2006-08-30 St Microelectronics Asia Method and system for lost packet concealment in high quality audio streaming applications
US7930176B2 (en) 2005-05-20 2011-04-19 Broadcom Corporation Packet loss concealment for block-independent speech codecs
KR101244232B1 (ko) 2005-05-27 2013-03-18 오디언스 인코포레이티드 오디오 신호 분석 및 변경을 위한 시스템 및 방법
US7831421B2 (en) * 2005-05-31 2010-11-09 Microsoft Corporation Robust decoder
KR100686174B1 (ko) * 2005-05-31 2007-02-26 엘지전자 주식회사 오디오 에러 은닉 방법
US7610197B2 (en) 2005-08-31 2009-10-27 Motorola, Inc. Method and apparatus for comfort noise generation in speech communication systems
CN101268506B (zh) * 2005-09-01 2011-08-03 艾利森电话股份有限公司 处理编码实时数据的设备和方法
US8620644B2 (en) * 2005-10-26 2013-12-31 Qualcomm Incorporated Encoder-assisted frame loss concealment techniques for audio coding
KR100717058B1 (ko) * 2005-11-28 2007-05-14 삼성전자주식회사 고주파 성분 복원 방법 및 그 장치
US8255207B2 (en) 2005-12-28 2012-08-28 Voiceage Corporation Method and device for efficient frame erasure concealment in speech codecs
US7457746B2 (en) 2006-03-20 2008-11-25 Mindspeed Technologies, Inc. Pitch prediction for packet loss concealment
US8798172B2 (en) * 2006-05-16 2014-08-05 Samsung Electronics Co., Ltd. Method and apparatus to conceal error in decoded audio signal
US7610195B2 (en) * 2006-06-01 2009-10-27 Nokia Corporation Decoding of predictively coded data using buffer adaptation
CN1983909B (zh) 2006-06-08 2010-07-28 华为技术有限公司 一种丢帧隐藏装置和方法
US8255213B2 (en) * 2006-07-12 2012-08-28 Panasonic Corporation Speech decoding apparatus, speech encoding apparatus, and lost frame concealment method
US7987089B2 (en) * 2006-07-31 2011-07-26 Qualcomm Incorporated Systems and methods for modifying a zero pad region of a windowed frame of an audio signal
US8015000B2 (en) * 2006-08-03 2011-09-06 Broadcom Corporation Classification-based frame loss concealment for audio signals
CN101361113B (zh) * 2006-08-15 2011-11-30 美国博通公司 丢包后的约束和受控解码
US8000960B2 (en) * 2006-08-15 2011-08-16 Broadcom Corporation Packet loss concealment for sub-band predictive coding based on extrapolation of sub-band audio waveforms
CN101155140A (zh) * 2006-10-01 2008-04-02 华为技术有限公司 音频流错误隐藏的方法、装置和系统
US7877253B2 (en) * 2006-10-06 2011-01-25 Qualcomm Incorporated Systems, methods, and apparatus for frame erasure recovery
EP2080194B1 (fr) 2006-10-20 2011-12-07 France Telecom Attenuation du survoisement, notamment pour la generation d'une excitation aupres d'un decodeur, en absence d'information
KR101292771B1 (ko) 2006-11-24 2013-08-16 삼성전자주식회사 오디오 신호의 오류은폐방법 및 장치
CN100578618C (zh) * 2006-12-04 2010-01-06 华为技术有限公司 一种解码方法及装置
KR100964402B1 (ko) * 2006-12-14 2010-06-17 삼성전자주식회사 오디오 신호의 부호화 모드 결정 방법 및 장치와 이를 이용한 오디오 신호의 부호화/복호화 방법 및 장치
US8688437B2 (en) * 2006-12-26 2014-04-01 Huawei Technologies Co., Ltd. Packet loss concealment for speech coding
US8275611B2 (en) 2007-01-18 2012-09-25 Stmicroelectronics Asia Pacific Pte., Ltd. Adaptive noise suppression for digital speech signals
KR20080075050A (ko) * 2007-02-10 2008-08-14 삼성전자주식회사 오류 프레임의 파라미터 갱신 방법 및 장치
GB0703275D0 (en) * 2007-02-20 2007-03-28 Skype Ltd Method of estimating noise levels in a communication system
JP4708446B2 (ja) * 2007-03-02 2011-06-22 パナソニック株式会社 符号化装置、復号装置およびそれらの方法
JP5198477B2 (ja) 2007-03-05 2013-05-15 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 定常的な背景雑音の平滑化を制御するための方法及び装置
DE102007018484B4 (de) 2007-03-20 2009-06-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Senden einer Folge von Datenpaketen und Decodierer und Vorrichtung zum Decodieren einer Folge von Datenpaketen
EP1973254B1 (en) * 2007-03-22 2009-07-15 Research In Motion Limited Device and method for improved lost frame concealment
US8014519B2 (en) 2007-04-02 2011-09-06 Microsoft Corporation Cross-correlation based echo canceller controllers
EP1981170A1 (en) * 2007-04-13 2008-10-15 Global IP Solutions (GIPS) AB Adaptive, scalable packet loss recovery
JP5023780B2 (ja) * 2007-04-13 2012-09-12 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US8005023B2 (en) 2007-06-14 2011-08-23 Microsoft Corporation Client-side echo cancellation for multi-party audio conferencing
CN101325537B (zh) 2007-06-15 2012-04-04 华为技术有限公司 一种丢帧隐藏的方法和设备
US8489396B2 (en) 2007-07-25 2013-07-16 Qnx Software Systems Limited Noise reduction with integrated tonal noise reduction
US20090055171A1 (en) * 2007-08-20 2009-02-26 Broadcom Corporation Buzz reduction for low-complexity frame erasure concealment
US20090154726A1 (en) 2007-08-22 2009-06-18 Step Labs Inc. System and Method for Noise Activity Detection
CN100524462C (zh) * 2007-09-15 2009-08-05 华为技术有限公司 对高带信号进行帧错误隐藏的方法及装置
CN101141644B (zh) * 2007-10-17 2010-12-08 清华大学 编码集成系统和方法与解码集成系统和方法
CN100585699C (zh) * 2007-11-02 2010-01-27 华为技术有限公司 一种音频解码的方法和装置
BRPI0818927A2 (pt) 2007-11-02 2015-06-16 Huawei Tech Co Ltd Método e aparelho para a decodificação de áudio
CN101430880A (zh) * 2007-11-07 2009-05-13 华为技术有限公司 一种背景噪声的编解码方法和装置
DE102008009719A1 (de) * 2008-02-19 2009-08-20 Siemens Enterprise Communications Gmbh & Co. Kg Verfahren und Mittel zur Enkodierung von Hintergrundrauschinformationen
WO2009110738A2 (ko) * 2008-03-03 2009-09-11 엘지전자(주) 오디오 신호 처리 방법 및 장치
FR2929466A1 (fr) 2008-03-28 2009-10-02 France Telecom Dissimulation d'erreur de transmission dans un signal numerique dans une structure de decodage hierarchique
EP2120412A1 (en) 2008-05-14 2009-11-18 SIDSA (Semiconductores Investigación) Y Diseño SA System and transceiver for DSL communications based on single carrier modulation, with efficient vectoring, capacity approaching channel coding structure and preamble insertion for agile channel adaption
US8737501B2 (en) 2008-06-13 2014-05-27 Silvus Technologies, Inc. Interference mitigation for devices with multiple receivers
ES2558229T3 (es) * 2008-07-11 2016-02-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador y decodificador de audio para codificar tramas de señales de audio muestreadas
ES2683077T3 (es) 2008-07-11 2018-09-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada
MY159110A (en) * 2008-07-11 2016-12-15 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E V Audio encoder and decoder for encoding and decoding audio samples
PT2410521T (pt) * 2008-07-11 2018-01-09 Fraunhofer Ges Forschung Codificador de sinal de áudio, método para gerar um sinal de áudio e programa de computador
EP2144230A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
EP2144231A1 (en) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme with common preprocessing
EP2146344B1 (en) * 2008-07-17 2016-07-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoding/decoding scheme having a switchable bypass
EP2339577B1 (en) 2008-09-18 2018-03-21 Electronics and Telecommunications Research Institute Encoding apparatus and decoding apparatus for transforming between modified discrete cosine transform-based coder and hetero coder
KR101622950B1 (ko) 2009-01-28 2016-05-23 삼성전자주식회사 오디오 신호의 부호화 및 복호화 방법 및 그 장치
US8676573B2 (en) 2009-03-30 2014-03-18 Cambridge Silicon Radio Limited Error concealment
US8718804B2 (en) 2009-05-05 2014-05-06 Huawei Technologies Co., Ltd. System and method for correcting for lost data in a digital audio signal
US8908882B2 (en) * 2009-06-29 2014-12-09 Audience, Inc. Reparation of corrupted audio signals
EP2460158A4 (en) * 2009-07-27 2013-09-04 METHOD AND APPARATUS FOR PROCESSING AUDIO SIGNAL
MY163358A (en) 2009-10-08 2017-09-15 Fraunhofer-Gesellschaft Zur Förderung Der Angenwandten Forschung E V Multi-mode audio signal decoder,multi-mode audio signal encoder,methods and computer program using a linear-prediction-coding based noise shaping
EP2489041B1 (en) 2009-10-15 2020-05-20 VoiceAge Corporation Simultaneous time-domain and frequency-domain noise shaping for tdac transforms
CN102044241B (zh) * 2009-10-15 2012-04-04 华为技术有限公司 一种实现通信系统中背景噪声的跟踪的方法和装置
US9076439B2 (en) * 2009-10-23 2015-07-07 Broadcom Corporation Bit error management and mitigation for sub-band coding
US9020812B2 (en) 2009-11-24 2015-04-28 Lg Electronics Inc. Audio signal processing method and device
CN102081926B (zh) * 2009-11-27 2013-06-05 中兴通讯股份有限公司 格型矢量量化音频编解码方法和系统
CN101763859A (zh) 2009-12-16 2010-06-30 深圳华为通信技术有限公司 音频数据处理方法、装置和多点控制单元
US9008329B1 (en) * 2010-01-26 2015-04-14 Audience, Inc. Noise reduction using multi-feature cluster tracker
US8428959B2 (en) * 2010-01-29 2013-04-23 Polycom, Inc. Audio packet loss concealment by transform interpolation
US8000968B1 (en) * 2011-04-26 2011-08-16 Huawei Technologies Co., Ltd. Method and apparatus for switching speech or audio signals
CN101937679B (zh) * 2010-07-05 2012-01-11 展讯通信(上海)有限公司 音频数据帧的错误掩盖方法及音频解码装置
CN101894558A (zh) * 2010-08-04 2010-11-24 华为技术有限公司 丢帧恢复方法、设备以及语音增强方法、设备和系统
EP2458585B1 (en) * 2010-11-29 2013-07-17 Nxp B.V. Error concealment for sub-band coded audio signals
KR20120080409A (ko) 2011-01-07 2012-07-17 삼성전자주식회사 잡음 구간 판별에 의한 잡음 추정 장치 및 방법
US8983833B2 (en) 2011-01-24 2015-03-17 Continental Automotive Systems, Inc. Method and apparatus for masking wind noise
PL2661745T3 (pl) * 2011-02-14 2015-09-30 Fraunhofer Ges Forschung Urządzenie i sposób do ukrywania błędów w zunifikowanym kodowaniu mowy i audio
ES2540051T3 (es) * 2011-04-15 2015-07-08 Telefonaktiebolaget Lm Ericsson (Publ) Método y un decodificador para la atenuación de regiones de señal reconstruidas con baja precisión
TWI435138B (zh) 2011-06-20 2014-04-21 Largan Precision Co 影像拾取光學系統
JP5817366B2 (ja) 2011-09-12 2015-11-18 沖電気工業株式会社 音声信号処理装置、方法及びプログラム
TWI585747B (zh) * 2011-10-21 2017-06-01 三星電子股份有限公司 訊框錯誤修補方法與裝置、音訊解碼方法與裝置
CN102750955B (zh) * 2012-07-20 2014-06-18 中国科学院自动化研究所 基于残差信号频谱重构的声码器
US9532139B1 (en) 2012-09-14 2016-12-27 Cirrus Logic, Inc. Dual-microphone frequency amplitude response self-calibration
TWI606440B (zh) 2012-09-24 2017-11-21 三星電子股份有限公司 訊框錯誤隱藏裝置
CN103714821A (zh) * 2012-09-28 2014-04-09 杜比实验室特许公司 基于位置的混合域数据包丢失隐藏
EP2757559A1 (en) 2013-01-22 2014-07-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for spatial audio object coding employing hidden objects for signal mixture manipulation
AU2014211486B2 (en) * 2013-01-29 2017-04-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Noise filling without side information for CELP-like coders
BR112015031180B1 (pt) 2013-06-21 2022-04-05 Fraunhofer- Gesellschaft Zur Förderung Der Angewandten Forschung E.V Aparelho e método para gerar um formato espectral adaptativo de ruído de conforto
US20150024355A1 (en) 2013-07-18 2015-01-22 Quitbit, Inc. Lighter and method for monitoring smoking behavior
US10210871B2 (en) * 2016-03-18 2019-02-19 Qualcomm Incorporated Audio processing for temporally mismatched signals
CN110556116B (zh) * 2018-05-31 2021-10-22 华为技术有限公司 计算下混信号和残差信号的方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10308708A (ja) * 1997-05-09 1998-11-17 Matsushita Electric Ind Co Ltd 音声符号化装置
JP2004120619A (ja) * 2002-09-27 2004-04-15 Kddi Corp オーディオ情報復号装置
JP2006215569A (ja) * 2005-02-05 2006-08-17 Samsung Electronics Co Ltd 線スペクトル対パラメータ復元方法、線スペクトル対パラメータ復元装置、音声復号化装置及び線スペクトル対パラメータ復元プログラム
JP2007049491A (ja) * 2005-08-10 2007-02-22 Ntt Docomo Inc 復号装置、および復号方法
JP2016515725A (ja) * 2013-04-18 2016-05-30 オランジュ 重み付けされたノイズの注入によるフレーム消失補正

Also Published As

Publication number Publication date
CA2914869A1 (en) 2014-12-24
US20160104489A1 (en) 2016-04-14
CA2915014A1 (en) 2014-12-24
EP3011557B1 (en) 2017-05-03
US11501783B2 (en) 2022-11-15
PT3011557T (pt) 2017-07-25
RU2016101521A (ru) 2017-07-26
RU2675777C2 (ru) 2018-12-24
US10679632B2 (en) 2020-06-09
ZA201600310B (en) 2018-05-30
US20200258530A1 (en) 2020-08-13
US10607614B2 (en) 2020-03-31
PT3011559T (pt) 2017-10-30
RU2016101600A (ru) 2017-07-26
WO2014202784A1 (en) 2014-12-24
TWI553631B (zh) 2016-10-11
KR20160022364A (ko) 2016-02-29
EP3011563B1 (en) 2019-12-25
SG11201510508QA (en) 2016-01-28
RU2676453C2 (ru) 2018-12-28
CN105431903A (zh) 2016-03-23
SG11201510352YA (en) 2016-01-28
CN105359210B (zh) 2019-06-14
US20160111095A1 (en) 2016-04-21
US20210142809A1 (en) 2021-05-13
EP3011558B1 (en) 2017-07-26
MX351577B (es) 2017-10-18
KR20160022365A (ko) 2016-02-29
JP2016522453A (ja) 2016-07-28
PT3011563T (pt) 2020-03-31
HK1224424A1 (zh) 2017-08-18
MY181026A (en) 2020-12-16
CA2913578C (en) 2018-05-22
HK1224425A1 (zh) 2017-08-18
ES2644693T3 (es) 2017-11-30
RU2658128C2 (ru) 2018-06-19
JP6201043B2 (ja) 2017-09-20
PT3011558T (pt) 2017-10-05
TWI564884B (zh) 2017-01-01
US20160104497A1 (en) 2016-04-14
SG11201510519RA (en) 2016-01-28
CN105340007B (zh) 2019-05-31
US20180261230A1 (en) 2018-09-13
CN110265044B (zh) 2023-09-12
JP2016523381A (ja) 2016-08-08
CN110299147A (zh) 2019-10-01
CN110289005B (zh) 2024-02-09
ES2635027T3 (es) 2017-10-02
TW201508736A (zh) 2015-03-01
ES2780696T3 (es) 2020-08-26
CA2914869C (en) 2018-06-05
AU2014283198A1 (en) 2016-02-11
US9978377B2 (en) 2018-05-22
BR112015031606A2 (pt) 2017-07-25
AU2014283124A1 (en) 2016-02-11
PT3011561T (pt) 2017-07-25
AU2014283196A1 (en) 2016-02-11
ES2635555T3 (es) 2017-10-04
AU2014283123B2 (en) 2016-10-20
MY190900A (en) 2022-05-18
US20200258529A1 (en) 2020-08-13
MX347233B (es) 2017-04-19
US20160104487A1 (en) 2016-04-14
SG11201510353RA (en) 2016-01-28
US10854208B2 (en) 2020-12-01
CN110299147B (zh) 2023-09-19
EP3011561A1 (en) 2016-04-27
KR20160021295A (ko) 2016-02-24
PL3011559T3 (pl) 2017-12-29
KR101785227B1 (ko) 2017-10-12
US20180151184A1 (en) 2018-05-31
EP3011558A1 (en) 2016-04-27
US20180268825A1 (en) 2018-09-20
RU2016101605A (ru) 2017-07-26
EP3011557A1 (en) 2016-04-27
BR112015031178A2 (pt) 2017-07-25
US9997163B2 (en) 2018-06-12
TWI569262B (zh) 2017-02-01
SG11201510510PA (en) 2016-01-28
MX351576B (es) 2017-10-18
CA2914895A1 (en) 2014-12-24
WO2014202788A1 (en) 2014-12-24
PL3011557T3 (pl) 2017-10-31
EP3011561B1 (en) 2017-05-03
AU2014283123A1 (en) 2016-02-04
BR112015031178B1 (pt) 2022-03-22
KR101790902B1 (ko) 2017-10-26
AU2014283194B2 (en) 2016-10-20
PL3011563T3 (pl) 2020-06-29
US10867613B2 (en) 2020-12-15
CN105340007A (zh) 2016-02-17
EP3011563A1 (en) 2016-04-27
PL3011561T3 (pl) 2017-10-31
TW201508740A (zh) 2015-03-01
EP3011559B1 (en) 2017-07-26
PL3011558T3 (pl) 2017-12-29
BR112015031180B1 (pt) 2022-04-05
KR20160022363A (ko) 2016-02-29
JP2016532143A (ja) 2016-10-13
US20160104488A1 (en) 2016-04-14
CN105359209B (zh) 2019-06-14
MX2015016892A (es) 2016-04-07
AU2014283198B2 (en) 2016-10-20
CN110164459B (zh) 2024-03-26
TW201508739A (zh) 2015-03-01
MX2015018024A (es) 2016-06-24
HK1224076A1 (zh) 2017-08-11
BR112015031177A2 (pt) 2017-07-25
HK1224423A1 (zh) 2017-08-18
TW201508737A (zh) 2015-03-01
US11462221B2 (en) 2022-10-04
BR112015031180A2 (pt) 2017-07-25
ES2639127T3 (es) 2017-10-25
KR101787296B1 (ko) 2017-10-18
CN105378831B (zh) 2019-05-31
KR101788484B1 (ko) 2017-10-19
TWI575513B (zh) 2017-03-21
MY182209A (en) 2021-01-18
MX2015017126A (es) 2016-04-11
JP6214071B2 (ja) 2017-10-18
US20180308495A1 (en) 2018-10-25
MY170023A (en) 2019-06-25
JP6190052B2 (ja) 2017-08-30
MX351363B (es) 2017-10-11
AU2014283194A1 (en) 2016-02-04
CN110265044A (zh) 2019-09-20
CA2914895C (en) 2018-06-12
CA2916150C (en) 2019-06-18
US20210098003A1 (en) 2021-04-01
WO2014202790A1 (en) 2014-12-24
US10672404B2 (en) 2020-06-02
KR101790901B1 (ko) 2017-10-26
BR112015031343A2 (pt) 2017-07-25
MY187034A (en) 2021-08-27
TW201508738A (zh) 2015-03-01
WO2014202789A1 (en) 2014-12-24
CN110164459A (zh) 2019-08-23
EP3011559A1 (en) 2016-04-27
CN110289005A (zh) 2019-09-27
US9978376B2 (en) 2018-05-22
RU2666250C2 (ru) 2018-09-06
JP6196375B2 (ja) 2017-09-13
RU2016101604A (ru) 2017-07-26
CN105431903B (zh) 2019-08-23
CN105378831A (zh) 2016-03-02
RU2665279C2 (ru) 2018-08-28
US9978378B2 (en) 2018-05-22
WO2014202786A1 (en) 2014-12-24
JP6360165B2 (ja) 2018-07-18
AU2014283124B2 (en) 2016-10-20
HK1224009A1 (zh) 2017-08-11
CN105359209A (zh) 2016-02-24
AU2014283196B2 (en) 2016-10-20
US11776551B2 (en) 2023-10-03
KR20160022886A (ko) 2016-03-02
US9916833B2 (en) 2018-03-13
US20180233153A1 (en) 2018-08-16
CA2916150A1 (en) 2014-12-24
MX355257B (es) 2018-04-11
JP2016526704A (ja) 2016-09-05
TWI587290B (zh) 2017-06-11
CA2915014C (en) 2020-03-31
US20200312338A1 (en) 2020-10-01
CN105359210A (zh) 2016-02-24
CA2913578A1 (en) 2014-12-24
RU2016101469A (ru) 2017-07-24
MX2015017261A (es) 2016-09-22
US11869514B2 (en) 2024-01-09

Similar Documents

Publication Publication Date Title
US11462221B2 (en) Apparatus and method for generating an adaptive spectral shape of comfort noise

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20160217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160623

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170306

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170905

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180227

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180621

R150 Certificate of patent or registration of utility model

Ref document number: 6360165

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250