JP2018165834A - 雑音信号処理方法、雑音信号生成方法、符号化器、復号化器、並びに符号化および復号化システム - Google Patents

雑音信号処理方法、雑音信号生成方法、符号化器、復号化器、並びに符号化および復号化システム Download PDF

Info

Publication number
JP2018165834A
JP2018165834A JP2018128182A JP2018128182A JP2018165834A JP 2018165834 A JP2018165834 A JP 2018165834A JP 2018128182 A JP2018128182 A JP 2018128182A JP 2018128182 A JP2018128182 A JP 2018128182A JP 2018165834 A JP2018165834 A JP 2018165834A
Authority
JP
Japan
Prior art keywords
linear prediction
spectral
prediction residual
signal
residual signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018128182A
Other languages
English (en)
Other versions
JP6636574B2 (ja
Inventor
▲ジー▼ 王
Zhe Wang
▲ジー▼ 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2018165834A publication Critical patent/JP2018165834A/ja
Application granted granted Critical
Publication of JP6636574B2 publication Critical patent/JP6636574B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/13Residual excited linear prediction [RELP]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

【課題】線形予測を基にした雑音信号処理方法、線形予測を基にした雑音信号生成方法、符号化器、復号化器、並びに符号化および復号化システムを提供すること。【解決手段】本発明の実施例による雑音信号処理方法は、雑音信号を獲得し、雑音信号に従って線形予測係数を取得するステップと、線形予測係数に従って雑音信号をフィルタリングして線形予測残差信号を取得するステップと、線形予測残差信号に従って線形予測残差信号のスペクトル包絡線を取得するステップと、線形予測残差信号のスペクトル包絡線を符号化するステップと、を含む。本発明の実施例における、雑音処理方法、雑音生成方法、符号化器、復号化器、並びに符号化および復号化システムによれば、元の背景雑音信号のより多くのスペクトル細部が回復されることが可能であり、それによって快適雑音はユーザの主観的な聴覚認識の観点で元の背景雑音により近くなることが可能であり、ユーザの主観的な認識の品質は改善される。【選択図】図5

Description

本発明は、オーディオ信号処理の分野、詳細には、雑音処理方法、雑音生成方法、符号化器、復号化器、並びに符号化および復号化システムに関する。
声の通信の時間の約40%のみに音声が存在し、他の全ての時間に無音または背景雑音(以下、まとめて背景雑音と呼ぶ)が存在する。背景雑音の送信帯域幅を減少させるために、不連続送信(DTX、Discontinuous Transmission)システムおよび快適雑音生成(CNG、Comfort Noise Generation)技術が出現する。
DTXは、符号化器が、各フレームのオーディオ信号を連続的に符号化して送る代わりに、ポリシーに従って背景雑音期間においてオーディオ信号を断続的に符号化して送ることを意味する。断続的に符号化されて送られるそのようなフレームは、一般に、無音挿入記述子(SID、Silence Insertion Descriptor)フレームと呼ばれる。SIDフレームは、一般に、エネルギー・パラメータおよびスペクトル・パラメータのような、背景雑音のいくつかの特性パラメータを含む。復号化器側において、復号化器は、SIDフレームを復号化することによって取得された背景雑音パラメータに従って連続する背景雑音再現信号を生成し得る。復号化器側におけるDTX期間において連続する背景雑音を生成するための方法は、快適雑音生成(CNG、Comfort Noise Generation)と呼ばれる。大量の時間領域背景雑音情報が背景雑音信号の不連続な符号化および送信において失われるので、CNGの目的は、符号化器側において背景雑音信号を正確に再現することではない。CNGの目的は、ユーザの主観的な聴覚認識の要件を満たす背景雑音が復号化器側において生成されることが可能であり、それによりユーザの不快感を減少させることである。
既存のCNG技術において、快適雑音は、一般に、線形予測を基にした方法、すなわち、合成フィルタを励振するために復号化器側においてランダム雑音励振を使用するための方法を使用することによって取得される。背景雑音はそのような方法を使用することによって取得されることが可能であるが、ユーザの主観的な聴覚認識の観点で、生成された快適雑音と元の背景雑音の間に特定の差が存在する。連続的に符号化されたフレームがCN(Comfort Noise)フレームに移行されるとき、ユーザの主観的な認識におけるそのような差はユーザの主観的な不快感を引き起こし得る。
CNGを使用するための方法は、具体的には、第3世代パートナーシップ・プロジェクト(3GPP、3nd Generation Partnership Project)における適応マルチレート広帯域(AMR-WB、Adaptive Multi-rate Wideband)標準において規定され、AMR-WBのCNG技術は、また、線形予測に基づく。AMR-WB標準において、SID符号化されたフレームは、量子化された背景雑音信号エネルギー係数および量子化された線形予測係数を含み、ここで背景雑音エネルギー係数は背景雑音の対数的なエネルギー係数であり、量子化された線形予測係数は量子化されたイミタンス・スペクトル周波数(ISF、Immittance Spectral Frequencies)係数によって表現される。復号化器側において、現在の背景雑音の、エネルギーおよび線形予測係数は、SIDフレームに含まれるエネルギー係数情報および線形予測係数情報に従って推定される。ランダム雑音シーケンスは、乱数ジェネレータを使用することによって生成され、快適雑音を生成するための励振信号として使用される。ランダム雑音シーケンスの利得は、現在の背景雑音の推定されたエネルギーに従って調整され、それによってランダム雑音シーケンスのエネルギーは現在の背景雑音の推定されたエネルギーと一致する。利得調整の後に取得されたランダム・シーケンス励振は、合成フィルタを励振するために使用され、ここで合成フィルタの係数は、現在の背景雑音の推定された線形予測係数である。合成フィルタの出力は生成された快適雑音である。
励振信号としてランダム雑音シーケンスを使用することによって快適雑音を生成するための方法において、比較的快適な雑音が取得されることが可能であり、元の背景雑音のスペクトル包絡線が粗く回復されることも可能であるが、元の背景雑音のスペクトル細部は失われ得る。その結果、主観的な聴覚認識の観点で、生成された快適雑音と元の背景雑音の間に特定の差が依然として存在する。そのような差は、連続的に符号化された音声セグメントが快適雑音セグメントに移行されるとき、ユーザの主観的な聴覚の不快感を引き起こし得る。
特開平10−190498号公報 特表2004−517348号公報
これを考慮して、上記の課題を解決するために、本発明の実施例は、快適雑音生成方法、装置、およびシステムを提供する。本発明の実施例における、雑音処理方法、雑音生成方法、符号化器、復号化器、および符号化−復号化システムによれば、元の背景雑音信号のより多くのスペクトル細部が回復されることが可能であり、それによって快適雑音はユーザの主観的な聴覚認識の観点で元の背景雑音により近くなることが可能であり、連続した送信が不連続送信に移行されるときに引き起こされる「切り替え感覚」は軽減され、ユーザの主観的な認識の品質は改善される。
本発明の第1の態様の実施例は、線形予測を基にした雑音信号処理方法を提供し、この方法は、
雑音信号を獲得し、雑音信号に従って線形予測係数を取得するステップと、
線形予測係数に従って雑音信号をフィルタリングして、線形予測残差信号を取得するステップと、
線形予測残差信号に従って線形予測残差信号のスペクトル包絡線を取得するステップと、
線形予測残差信号のスペクトル包絡線を符号化するステップと、を含む。
本発明のこの実施例における雑音処理方法によれば、元の背景雑音信号のより多くのスペクトル細部が回復されることが可能であり、それによって快適雑音はユーザの主観的な聴覚認識の観点で元の背景雑音により近くなることが可能であり、ユーザの主観的な認識の品質は改善される。
本発明の第1の態様の実施例を参照して、本発明の第1の態様の実施例の第1の可能な実現方式において、線形予測残差信号に従って線形予測残差信号のスペクトル包絡線を取得するステップの後に、この方法は、
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するステップをさらに含み、
それに対応して、線形予測残差信号のスペクトル包絡線を符号化するステップは、具体的には、
線形予測残差信号のスペクトル細部を符号化するステップを含む。
本発明の第1の態様の実施例の第1の可能な実現方式を参照して、本発明の第1の態様の実施例の第2の可能な実現方式において、線形予測残差信号を取得するステップの後に、この方法は、
線形予測残差信号に従って線形予測残差信号のエネルギーを取得するステップをさらに含み、
それに対応して、線形予測残差信号のスペクトル細部を符号化するステップは、具体的には、
線形予測係数、線形予測残差信号のエネルギー、および線形予測残差信号のスペクトル細部を符号化するステップを含む。
本発明の第1の態様の実施例の第2の可能な実現方式を参照して、本発明の第1の態様の実施例の第3の可能な実現方式において、線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するステップは、具体的には、
線形予測残差信号のエネルギーに従ってランダム雑音励振信号を取得するステップと、
線形予測残差信号のスペクトル包絡線とランダム雑音励振信号のスペクトル包絡線の間の差を線形予測残差信号のスペクトル細部として使用するステップと、である。
本発明の第1の態様の実施例の第1の可能な実現方式および本発明の第1の態様の実施例の第2の可能な実現方式を参照して、本発明の第1の態様の実施例の第4の可能な実現方式において、線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するステップは、具体的には、
線形予測残差信号のスペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得するステップであって、第1の帯域幅は線形予測残差信号の帯域幅の範囲内にある、ステップと、 第1の帯域幅のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するステップと、を含む。
本発明の第1の態様の実施例の第4の可能な実現方式を参照して、本発明の第1の態様の実施例の第5の可能な実現方式において、線形予測残差信号の帯域幅に従って第1の帯域幅のスペクトル包絡線を取得するステップは、具体的には、
線形予測残差信号のスペクトル構造を計算し、線形予測残差信号の第1の部分のスペクトルを第1の帯域幅のスペクトル包絡線として使用するステップであって、第1の部分のスペクトル構造は、線形予測残差信号の、第1の部分以外の、他の部分のスペクトル構造より強い、ステップを含む。
本発明の第1の態様の実施例の第5の可能な実現方式を参照して、本発明の第1の態様の実施例の第6の可能な実現方式において、線形予測残差信号のスペクトル構造は、以下の方式、
雑音信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、および、
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、
のうちの1つで計算される。
本発明の第1の態様の実施例の第1の可能な実現方式を参照して、本発明の第1の態様の実施例の第7の可能な実現方式において、線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するステップの後に、この方法は、
線形予測残差信号のスペクトル細部に従って線形予測残差信号のスペクトル構造を計算し、スペクトル構造に従って線形予測残差信号の第2の帯域幅のスペクトル細部を取得するステップであって、第2の帯域幅は線形予測残差信号の帯域幅の範囲内にあり、第2の帯域幅のスペクトル構造は、線形予測残差信号の、第2の帯域幅以外の、帯域幅の他の部分のスペクトル構造より強い、ステップをさらに含み、
それに対応して、線形予測残差信号のスペクトル包絡線を符号化するステップは、具体的には、
線形予測残差信号の第2の帯域幅のスペクトル細部を符号化するステップを含む。
本発明の第2の態様の実施例は、線形予測を基にした快適雑音信号生成方法を提供し、この方法は、
ビットストリームを受信し、ビットストリームを復号化してスペクトル細部および線形予測係数を取得するステップであって、スペクトル細部は線形予測励振信号のスペクトル包絡線を示す、ステップと、
スペクトル細部に従って線形予測励振信号を取得するステップと、
線形予測係数および線形予測励振信号に従って快適雑音信号を取得するステップと、を含む。
本発明のこの実施例における雑音生成方法によれば、元の背景雑音信号のより多くのスペクトル細部が回復されることが可能であり、それによって快適雑音はユーザの主観的な聴覚認識の観点で元の背景雑音により近くなることが可能であり、ユーザの主観的な認識の品質は改善される。
本発明の第2の態様の実施例を参照して、本発明の第2の態様の実施例の第1の可能な実現方式において、スペクトル細部は、線形予測励振信号のスペクトル包絡線である。
本発明の第2の態様の実施例の第1の可能な実現方式を参照して、本発明の第2の態様の実施例の第2の可能な実現方式において、ビットストリームは線形予測励振のエネルギーを含み、線形予測係数および線形予測励振信号に従って快適雑音信号を取得するステップの前に、この方法は、
線形予測励振のエネルギーに従って第1の雑音励振信号を取得するステップであって、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい、ステップと、
第1の雑音励振信号およびスペクトル包絡線に従って第2の雑音励振信号を取得するステップと、をさらに含み、
それに対応して、線形予測係数および線形予測励振信号に従って快適雑音信号を取得するステップは、具体的には、
線形予測係数および第2の雑音励振信号に従って快適雑音信号を取得するステップを含む。
本発明の第2の態様の実施例を参照して、本発明の第2の態様の実施例の第3の可能な実現方式において、ビットストリームは線形予測励振のエネルギーを含み、線形予測係数および線形予測励振信号に従って快適雑音信号を取得するステップの前に、この方法は、
線形予測励振のエネルギーに従って第1の雑音励振信号を取得するステップであって、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい、ステップと、
第1の雑音励振信号および線形予測励振信号に従って第2の雑音励振信号を取得するステップと、をさらに含み、
それに対応して、線形予測係数および線形予測励振信号に従って快適雑音信号を取得するステップは、具体的には、
線形予測係数および第2の雑音励振信号に従って快適雑音信号を取得するステップを含む。
本発明の第3の態様の実施例は、符号化器を提供し、この符号化器は、
雑音信号を獲得し、雑音信号に従って線形予測係数を取得するように構成された獲得モジュールと、
獲得モジュールによって取得された線形予測係数に従って雑音信号をフィルタリングして、線形予測残差信号を取得するように構成されたフィルタと、
線形予測残差信号に従って線形予測残差信号のスペクトル包絡線を取得するように構成されたスペクトル包絡線生成モジュールと、
線形予測残差信号のスペクトルを符号化するように構成された符号化モジュールと、を含む。
本発明のこの実施例における符号化器によれば、元の背景雑音信号のより多くのスペクトル細部が回復されることが可能であり、それによって快適雑音はユーザの主観的な聴覚認識の観点で元の背景雑音により近くなることが可能であり、ユーザの主観的な認識の品質は改善される。
本発明の第3の態様の実施例を参照して、本発明の第3の態様の実施例の第1の可能な実現方式において、符号化器は、
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するように構成されたスペクトル細部生成モジュールをさらに含み、
それに対応して、符号化モジュールは、具体的には、線形予測残差信号のスペクトル細部を符号化するように構成される。
本発明の第3の態様の実施例の第1の可能な実現方式を参照して、本発明の第3の態様の実施例の第2の可能な実現方式において、符号化器は、
線形予測残差信号に従って線形予測残差信号のエネルギーを取得するように構成された残差エネルギー計算モジュールをさらに含み、 それに対応して、符号化モジュールは、具体的には、線形予測係数、線形予測残差信号のエネルギー、および線形予測残差信号のスペクトル細部を符号化するように構成される。
本発明の第3の態様の実施例の第2の可能な実現方式を参照して、本発明の第3の態様の実施例の第3の可能な実現方式において、スペクトル細部生成モジュールは、具体的には、
線形予測残差信号のエネルギーに従ってランダム雑音励振信号を取得し、
線形予測残差信号のスペクトル包絡線とランダム雑音励振信号のスペクトル包絡線の間の差を線形予測残差信号のスペクトル細部として使用するように構成される。
本発明の第3の態様の実施例の第1の可能な実現方式および本発明の第3の態様の実施例の第2の可能な実現方式を参照して、本発明の第3の態様の実施例の第4の可能な実現方式において、スペクトル細部生成モジュールは、
線形予測残差信号のスペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得するように構成された第1の帯域幅スペクトル包絡線生成ユニットであって、第1の帯域幅は線形予測残差信号の帯域幅の範囲内にある、第1の帯域幅スペクトル包絡線生成ユニットと、
第1の帯域幅のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するように構成されたスペクトル細部計算ユニットと、を含む。
本発明の第3の態様の実施例の第4の可能な実現方式を参照して、本発明の第3の態様の実施例の第5の可能な実現方式において、第1の帯域幅スペクトル包絡線生成ユニットは、具体的には、
線形予測残差信号のスペクトル構造を計算し、線形予測残差信号の第1の部分のスペクトルを第1の帯域幅のスペクトル包絡線として使用するように構成され、第1の部分のスペクトル構造は、線形予測残差信号の、第1の部分以外の、他の部分のスペクトル構造より強い。
本発明の第3の態様の実施例の第5の可能な実現方式を参照して、本発明の第3の態様の実施例の第6の可能な実現方式において、第1の帯域幅スペクトル包絡線生成ユニットは、線形予測残差信号のスペクトル構造を、以下の方式、
雑音信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、および、
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、
のうちの1つで計算する。
本発明の第3の態様の実施例の第1の可能な実現方式を参照して、本発明の第3の態様の実施例の第7の可能な実現方式において、スペクトル細部生成モジュールは、具体的には、
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得し、線形予測残差信号のスペクトル細部に従って線形予測残差信号のスペクトル構造を計算し、スペクトル構造に従って線形予測残差信号の第2の帯域幅のスペクトル細部を取得するように構成され、第2の帯域幅は線形予測残差信号の帯域幅の範囲内にあり、第2の帯域幅のスペクトル構造は、線形予測残差信号の、第2の帯域幅以外の、帯域幅の他の部分のスペクトル構造より強く、
それに対応して、符号化モジュールは、具体的には、線形予測残差信号の第2の帯域幅のスペクトル細部を符号化するように構成される。
本発明の第4の態様の実施例は、復号化器を提供し、この復号化器は、
ビットストリームを受信し、ビットストリームを復号化してスペクトル細部および線形予測係数を取得するように構成された受信モジュールであって、スペクトル細部は線形予測励振信号のスペクトル包絡線を示す、受信モジュールと、
スペクトル細部に従って線形予測励振信号を取得するように構成された線形残差信号生成モジュールと、
線形予測係数および線形予測励振信号に従って快適雑音信号を取得するように構成された快適雑音信号生成モジュールと、を含む。
本発明のこの実施例における復号化器によれば、元の背景雑音信号のより多くのスペクトル細部が回復されることが可能であり、それによって快適雑音はユーザの主観的な聴覚認識の観点で元の背景雑音により近くなることが可能であり、ユーザの主観的な認識の品質は改善される。
本発明の第4の態様の実施例を参照して、本発明の第4の態様の実施例の第1の可能な実現方式において、スペクトル細部は、線形予測励振信号のスペクトル包絡線である。
本発明の第2の態様の実施例の第1の可能な実現方式を参照して、本発明の第2の態様の実施例の第2の可能な実現方式において、ビットストリームは線形予測励振のエネルギーを含み、線形予測係数および線形予測励振信号に従って快適雑音信号を取得するステップの前に、この方法は、
線形予測励振のエネルギーに従って第1の雑音励振信号を取得するステップであって、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい、ステップと、
第1の雑音励振信号およびスペクトル包絡線に従って第2の雑音励振信号を取得するステップと、をさらに含み、
それに対応して、線形予測係数および線形予測励振信号に従って快適雑音信号を取得するステップは、具体的には、
線形予測係数および第2の雑音励振信号に従って快適雑音信号を取得するステップを含む。
本発明の第4の態様の実施例を参照して、本発明の第4の態様の実施例の第3の可能な実現方式において、ビットストリームは線形予測励振のエネルギーを含み、復号化器は、
線形予測励振のエネルギーに従って第1の雑音励振信号を取得するように構成された第1の雑音励振信号生成モジュールであって、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい、第1の雑音励振信号生成モジュールと、
第1の雑音励振信号および線形予測励振信号に従って第2の雑音励振信号を取得するように構成された第2の雑音励振信号生成モジュールと、をさらに含み、
それに対応して、快適雑音信号生成モジュールは、具体的には、線形予測係数および第2の雑音励振信号に従って快適雑音信号を取得するように構成される。
本発明の第5の態様の実施例は、符号化および復号化システムを提供し、この符号化および復号化システムは、
本発明の第3の態様の実施例のいずれか1つによる符号化器と、本発明の第4の態様の実施例のいずれか1つによる復号化器と、を含む。
本発明のこの実施例における符号化および復号化システムによれば、元の背景雑音信号のより多くのスペクトル細部が回復されることが可能であり、それによって快適雑音はユーザの主観的な聴覚認識の観点で元の背景雑音により近くなることが可能であり、ユーザの主観的な認識の品質は改善される。
本発明の実施例における、または先行技術における技術的解決策をより明確に記載するために、以下は、実施例または先行技術を記載するために要求される添付図面を簡単に記載する。明らかに、以下の記載における添付図面は本発明のほんのいくつかの実施例を表わし、この技術分野の当業者は、創作的な努力なしでこれらの添付図面から他の図面を依然として導き出し得る。
先行技術における快適雑音生成の処理のフローチャートである。 先行技術における快適雑音スペクトル生成の概略図である。 本発明の実施例による、符号化器側においてスペクトル細部残差を生成する概略図である。 本発明の実施例による、復号化器側において快適雑音スペクトルを生成する概略図である。 本発明の実施例による、線形予測を基にした雑音処理方法のフローチャートである。 本発明の実施例による快適雑音生成方法のフローチャートである。 本発明の実施例による符号化器の構造図である。 本発明の実施例による復号化器の構造図である。 本発明の実施例による符号化および復号化システムの構造図である。 本発明の実施例による、符号化器側から復号化側への完全な手順の概略図である。 本発明の実施例による、符号化器側において残差スペクトル細部を取得する概略図である。
以下は、本発明の実施例における添付図面を参照して、本発明の実施例における技術的解決策を明確かつ完全に記載する。明らかに、記載された実施例は本発明の実施例の全てではなくほんの一部である。創作的な努力なしで本発明の実施例に基づいてこの技術分野の当業者によって取得される他の全ての実施例は、本発明の保護範囲内にあるものである。
図1は、線形予測原理に基づく基本的な快適雑音生成(CNG、Comfort Noise Generation)技術のブロック図を記載する。線形予測の基本的な着想は、音声信号サンプリング点の間に相関が存在するので、過去のサンプリング点の値は、現在または将来のサンプリング点の値を予測するために使用され得る、すなわち、1つの音声のサンプリングは、いくつかの過去の音声のサンプリングの線形結合を使用することによって近似され得る、ということであり、予測係数は、二乗平均原理を使用することによって、実際の音声信号のサンプリング値と線形予測のサンプリング値の間の誤差を最小値に到達させることによって計算され、この予測係数は音声信号の特性を反映し、従って音声特性パラメータのこのグループは、音声認識、音声合成、等を行うために使用され得る。
図1に表わされたように、符号化器側において、符号化器は、入力時間領域背景雑音信号に従って線形予測係数(LPC、Linear Prediction Coefficients)を取得する。先行技術において、線形予測係数を獲得するための複数の具体的な方法が提供され、比較的一般的な方法は、例えば、Levinson Durbinアルゴリズムである。
入力時間領域背景雑音信号は、線形予測分析フィルタを通過することがさらに許容され、フィルタリングの後の残差信号、すなわち、線形予測残差が取得される。線形予測分析フィルタのフィルタ係数は、上記のステップにおいて取得されるLPC係数である。線形予測残差のエネルギーは線形予測残差に従って取得される。ある程度まで、線形予測残差のエネルギーおよびLPC係数は、それぞれ、入力背景雑音信号のエネルギーおよび入力背景雑音信号のスペクトル包絡線を示し得る。線形予測残差のエネルギーおよびLPC係数は、無音挿入記述子(SID、Silence Insertion Descriptor)フレームに符号化される。具体的には、SIDフレーム内にLPC係数を符号化することは、一般に、LPC係数についての直接の形式ではなく、イミタンス・スペクトル対(ISP、Immittance Spectral Pair)/イミタンス・スペクトル周波数(ISF、Immittance Spectral Frequencies)、および線スペクトル対(LSP、Line Spectral Pair)/線スペクトル周波数(LSF、Line Spectral Frequencies)のようないくつかの変換であり、しかし、これらは全て本質的にLPC係数を示す。
それに対応して、特定の時間において、復号化器によって受信されたSIDフレームは連続していない。復号化器は、SIDフレームを復号化することによって、線形予測残差の復号化されたエネルギーおよび復号化されたLPC係数を取得する。復号化器は、復号化によって取得される線形予測残差のエネルギーおよびLPC係数を使用して、現在の快適雑音フレームを生成するために使用される線形予測残差のエネルギーおよびLPC係数を更新する。復号化器は、合成フィルタを励振するためにランダム雑音励振を使用するための方法を使用することによって快適雑音を生成することが可能であり、ここでランダム雑音励振はランダム雑音励振ジェネレータによって生成される。利得調整は、一般に、生成されたランダム雑音励振について行われ、それによって利得調整の後に取得されたランダム雑音励振のエネルギーは、現在の快適雑音の線形予測残差のエネルギーと一致する。快適雑音を生成するように構成された線形予測合成フィルタのフィルタ係数は、現在の快適雑音のLPC係数である。
線形予測係数は、ある程度まで、入力背景雑音信号のスペクトル包絡線を表現することが可能であるので、ランダム雑音励振によって励振された線形予測合成フィルタの出力は、ある程度まで、元の背景雑音信号のスペクトル包絡線を反映することが可能である。図2は既存のCNG技術における快適雑音スペクトル生成を表わす。
既存の線形予測を基にしたCNG技術において、快適雑音はランダム雑音励振によって生成され、快適雑音のスペクトル包絡線は、元の背景雑音を反映するたいへん粗い包絡線に過ぎない。しかし、元の背景雑音が特定のスペクトル構造を有するとき、ユーザの主観的な聴覚の感覚の観点で、既存のCNGによって生成された快適雑音と元の背景雑音の間の特定の差が依然として存在する。
符号化器が連続した符号化から不連続な符号化に移行されるとき、すなわち、アクティブな音声信号が背景雑音信号に移行されるとき、背景雑音セグメント内のいくつかの初期雑音フレームは、連続した符号化方式で依然として符号化され、従って、復号化器によって再現される背景雑音信号は高品質の背景雑音から快適雑音への移行を有する。元の背景雑音が特定のスペクトル構造を有するとき、そのような移行は、快適雑音と元の背景雑音の間の差のために、ユーザの主観的な聴覚の感覚において不快感を引き起こし得る。この課題を解決するために、本発明の実施例の技術的解決策の目的は、ある程度まで、生成された快適雑音から元の背景雑音のスペクトル細部を回復することである。
以下は、図3および図4を参照して、本発明の実施例の技術的解決策の全体の状況を記載する。
図3に表わされたように、元の背景雑音信号が復号化器側において生成された初期快適雑音信号と比較されるならば、初期差信号が取得され、ここで初期差信号のスペクトルは、初期快適雑音信号のスペクトルと元の背景雑音信号のスペクトルの間の差を表現する。初期差信号は線形予測分析フィルタによってフィルタリングされ、残差信号Rが取得される。
図4に表わされたように、復号化器側において、上記の処理の逆のプロセスとして、残差信号Rが励振信号として使用され、線形予測合成フィルタを通過することが許容されるならば、初期差信号が回復され得る。本発明の実施例において、線形予測合成フィルタの係数が分析フィルタの係数と完全に同じであり、復号化器側における残差信号Rが符号化器側におけるそれと同じであるならば、取得される信号は元の差信号と同じである。快適雑音が生成されるべきであるとき、スペクトル細部励振が既存のランダム雑音励振に付加され、ここでスペクトル細部励振は上記の残差信号Rに対応している。ランダム雑音励振とスペクトル細部励振の和信号が完全な励振信号として使用されて、線形予測合成フィルタを励振し、最終的に取得された快適雑音信号は、元の背景雑音信号のスペクトルと一致または類似するスペクトルを有する。本発明の実施例において、ランダム雑音励振とスペクトル細部励振の和信号は、ランダム雑音励振の時間領域信号とスペクトル細部励振の時間領域信号を直接に重ねる、すなわち、同じ時間でのサンプリング点において直接的な加算を行うことによって取得される。
本発明の技術的解決策において、SIDフレームは、線形予測残差信号Rのスペクトル細部情報をさらに含み、残差信号Rのスペクトル細部情報は、符号化器側において符号化され、復号化器側に送信される。スペクトル細部情報は、完全なスペクトル包絡線であることが可能であり、または部分的なスペクトル包絡線であることが可能であり、またはスペクトル包絡線と基底包絡線の間の差についての情報であることが可能である。ここでの基底包絡線は、包絡線の平均であることが可能であり、または他の信号のスペクトル包絡線であることが可能である。
復号化器側において、快適雑音を生成するために使用される励振信号を作成するとき、復号化器は、ランダム雑音励振に加えてスペクトル細部励振をさらに作成する。ランダム雑音励振とスペクトル細部励振を結合することによって取得される和の励振は、線形予測合成フィルタを通過することが許容され、快適雑音信号が取得される。背景雑音信号の位相は、一般に、ランダム性を特徴付けるので、スペクトル細部励振信号のスペクトル包絡線が残差信号Rのスペクトル細部と一致する限り、スペクトル細部励振信号の位相は残差信号Rのそれと一致する必要はない。
以下は、図5を参照して、本発明の実施例における線形予測を基にした雑音信号処理方法を記載する。図5に表わされたように、線形予測を基にした雑音信号処理方法は、以下のステップを含む。
S51.雑音信号を獲得し、雑音信号に従って線形予測係数を取得する。
線形予測係数を獲得するための複数の方法が先行技術において提供される。具体的な例において、雑音信号フレームの線形予測係数はLevinson-Durbinアルゴリズムを使用することによって取得される。
S52.線形予測係数に従って雑音信号をフィルタリングして、線形予測残差信号を取得する。
雑音信号フレームは線形予測分析フィルタを通過することが許容されて、オーディオ信号フレームの線形予測残差を取得し、線形予測フィルタのフィルタ係数について、ステップS51において取得された線形予測係数への参照が行われる必要がある。
実施例において、線形予測フィルタのフィルタ係数は、ステップS51において計算された線形予測係数に等しいことが可能である。他の実施例において、線形予測フィルタのフィルタ係数は、前に計算された線形予測係数が量子化された後に取得された値であり得る。
S53.線形予測残差信号に従って線形予測残差信号のスペクトル包絡線を取得する。
本発明の実施例において、線形予測残差信号のスペクトル包絡線が取得された後に、線形予測残差信号のスペクトル細部が線形予測残差信号のスペクトル包絡線に従って取得される。
線形予測残差信号のスペクトル細部は、線形予測残差のスペクトル包絡線とランダム雑音励振のスペクトル包絡線の間の差によって示され得る。ランダム雑音励振は符号化器において生成されたローカルな励振であり、ランダム雑音励振の生成方式は復号化器における生成方式と一致し得る。ここでの生成方式の一致は、乱数ジェネレータの実現形式の一致を示し得るだけでなく、乱数ジェネレータのランダム・シードが同期を維持することも示し得る。
本発明のこの実施例において、線形予測残差信号のスペクトル細部は、完全なスペクトル包絡線であることが可能であり、または部分的なスペクトル包絡線であることが可能であり、またはスペクトル包絡線と基底包絡線の間の差についての情報であることが可能である。ここでの基底包絡線は、包絡線の平均であることが可能であり、または他の信号のスペクトル包絡線であることが可能である。
ランダム雑音励振のエネルギーは線形予測残差信号のエネルギーと一致する。本発明の実施例において、線形予測残差信号のエネルギーは、線形予測残差信号を使用することによって直接に取得され得る。
実施例において、線形予測残差信号のスペクトル包絡線およびランダム雑音励振のスペクトル包絡線は、それぞれ、線形予測残差信号の時間領域信号およびランダム雑音励振の時間領域信号について高速フーリエ変換(FFT、Fast Fourier Transform)を行うことによって取得され得る。
本発明の実施例において、線形予測残差信号のスペクトル細部が線形予測残差信号のスペクトル包絡線に従って取得されることは、具体的には、以下を含む。
線形予測残差信号のスペクトル細部は、線形予測残差のスペクトル包絡線とスペクトル包絡線の平均の間の差によって示され得る。スペクトル包絡線の平均は、平均スペクトル包絡線とみなされ、線形予測残差信号のエネルギーに従って取得されることが可能であり、すなわち、平均スペクトル包絡線における包絡線のエネルギーの和は、線形予測残差信号のエネルギーに対応している必要がある。
本発明の実施例において、線形予測残差信号のスペクトル細部が線形予測残差信号のスペクトル包絡線に従って取得されることは、具体的には、
線形予測残差信号のスペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得するステップであって、第1の帯域幅は線形予測残差信号の帯域幅の範囲内にある、ステップと、
第1の帯域幅のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するステップと、を含む。
本発明の実施例において、線形予測残差信号の帯域幅に従って第1の帯域幅のスペクトル包絡線を取得するステップは、具体的には、 線形予測残差信号のスペクトル構造を計算し、線形予測残差信号の第1の部分のスペクトルを第1の帯域幅のスペクトル包絡線として使用するステップであって、第1の部分のスペクトル構造は、線形予測残差信号の、第1の部分以外の、他の部分のスペクトル構造より強い、ステップを含む。
本発明の実施例において、線形予測残差信号のスペクトル構造は、以下の方式、
雑音信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、および、
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、
のうちの1つで計算される。
本発明の実施例において、線形予測残差信号の全てのスペクトル細部がまず計算されることが可能であり、次に線形予測残差信号のスペクトル細部に従って線形予測残差信号のスペクトル構造が計算される。ステップS54における符号化の間、スペクトル構造に従っていくつかのスペクトル細部が符号化され得る。具体的な実施例において、最も強い構造を有するスペクトル細部のみが符号化され得る。具体的な計算方式について、本発明の他の関連する実施例、およびこの技術分野の当業者が創作的な努力なしで思いつくことが可能である他の方式への参照が行われることが可能であり、詳細はここに記載されない。
S54.線形予測残差信号のスペクトル包絡線を符号化する。
本発明の実施例において、線形予測残差信号のスペクトル包絡線を符号化するステップは、具体的には、線形予測残差信号のスペクトル細部を符号化するステップである。
本発明の実施例において、線形予測残差信号のスペクトル包絡線は、線形予測残差信号の部分的なスペクトルのスペクトル包絡線のみであり得る。例えば、実施例において、線形予測残差信号のスペクトル包絡線は、線形予測残差信号の低周波数部分のみのスペクトル包絡線であり得る。
実施例において、ビットストリームに具体的に符号化されるパラメータは、現在のフレームを表現するパラメータのみであり得るが、他の実施例において、ビットストリームに具体的に符号化されるパラメータは、平均、重み付けされた平均、またはいくつかのフレームにおける各々のパラメータの移動平均のような平滑化された値であり得る。本発明のこの実施例における線形予測を基にした雑音信号処理方法によれば、元の背景雑音信号のより多くのスペクトル細部が回復されることが可能であり、それによって快適雑音はユーザの主観的な聴覚認識の観点で元の背景雑音により近く、連続した送信が不連続送信に移行されるときに引き起こされる「切り替え感覚」は軽減され、ユーザの主観的な認識の品質は改善される。
以下は、図6を参照して、本発明の実施例による、線形予測を基にした快適雑音信号生成方法を記載する。図6に表わされたように、本発明のこの実施例における線形予測を基にした快適雑音信号生成方法は、以下のステップを含む。
S61.ビットストリームを受信し、ビットストリームを復号化して、スペクトル細部および線形予測係数を取得し、ここでスペクトル細部は線形予測励振信号のスペクトル包絡線を示す。
本発明の実施例において、具体的には、スペクトル細部は、線形予測励振信号のスペクトル包絡線と一致し得る。
S62.スペクトル細部に従って線形予測励振信号を取得する。
本発明の実施例において、スペクトル細部が線形予測励振信号のスペクトル包絡線であるとき、線形予測励振信号は、線形予測励振信号のスペクトル包絡線に従って取得され得る。
S63.線形予測係数および線形予測励振信号に従って快適雑音信号を取得する。
本発明の実施例において、ビットストリームは線形予測励振のエネルギーを含み、線形予測係数および線形予測励振信号に従って快適雑音信号を取得するステップの前に、この方法は、
線形予測励振のエネルギーに従って第1の雑音励振信号を取得するステップであって、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい、ステップと、
第1の雑音励振信号および線形予測励振信号に従って第2の雑音励振信号を取得するステップと、をさらに含む。
それに対応して、線形予測係数および線形予測励振信号に従って快適雑音信号を取得するステップは、具体的には、
線形予測係数および第2の雑音励振信号に従って快適雑音信号を取得するステップを含む。
本発明の実施例において、受信されたスペクトル細部が線形予測励振信号のスペクトル包絡線と一致するとき、復号化器側によって受信されたビットストリームは、線形予測励振のエネルギーを含み得る。
第1の雑音励振信号は、線形予測励振のエネルギーに従って取得され、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい。
第2の雑音励振信号は、第1の雑音励振信号およびスペクトル包絡線に従って取得される。
それに対応して、線形予測係数および線形予測励振信号に従って快適雑音信号を取得するステップは、具体的には、
線形予測係数および第2の雑音励振信号に従って快適雑音信号を取得するステップを含む。
本発明の実施例において、ビットストリームを受信するとき、復号化器は、ビットストリームを復号化し、復号化された線形予測係数、線形予測励振の復号化されたエネルギー、および復号化されたスペクトル細部を取得する。
ランダム雑音励振は、線形予測残差のエネルギーに従って作成される。具体的な方法は、まず、乱数ジェネレータを使用することによって乱数シーケンスのグループを生成すること、そして乱数シーケンスについて利得調整を行うことであり、それによって、調整された乱数シーケンスのエネルギーは、線形予測残差のエネルギーと一致する。調整された乱数シーケンスはランダム雑音励振である。
スペクトル細部励振は、スペクトル細部に従って作成される。基本的な方法は、スペクトル細部を使用することによって、ランダム化された位相を有するFFT係数のシーケンスにおいて利得調整を行うことであり、それによって利得調整の後に取得されたFFT係数に対応するスペクトル包絡線はスペクトル細部と一致する。最終的に、スペクトル細部励振は、逆高速フーリエ変換(IFFT、Inverse Fast Fourier Transform)によって取得される。
本発明の実施例において、具体的な作成方法は、乱数ジェネレータを使用することによってN個の点の乱数シーケンスを生成すること、そしてN個の点の乱数シーケンスを、ランダム化された位相およびランダム化された振幅を有するFFT係数のシーケンスとして使用することである。利得調整の後に取得されたFFT係数は、IFFT変換、すなわち、スペクトル細部励振によって時間領域信号に変換される。ランダム雑音励振はスペクトル細部励振と結合され、完全な励振が取得される。
最終的に、完全な励振は、線形予測合成フィルタを励振するために使用され、快適雑音フレームが取得され、ここで合成フィルタの係数は線形予測係数である。
以下は、図7を参照して符号化器70を記載する。図7に表わされたように、符号化器70は、
雑音信号を獲得し、雑音信号に従って線形予測係数を取得するように構成された獲得モジュール71と、
獲得モジュール71に接続され、獲得モジュール71によって取得された線形予測係数に従って雑音信号をフィルタリングして、線形予測残差信号を取得するように構成されたフィルタ72と、
フィルタ72に接続され、線形予測残差信号に従って線形予測残差信号のスペクトル包絡線を取得するように構成されたスペクトル包絡線生成モジュール73と、
スペクトル包絡線生成モジュール73に接続され、線形予測残差信号のスペクトル包絡線を符号化するように構成された符号化モジュール74と、を含む。
本発明の実施例において、符号化器70は、スペクトル細部生成モジュール76をさらに含み、ここでスペクトル細部生成モジュール76は、符号化モジュール74およびスペクトル包絡線生成モジュール73に別個に接続され、線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するように構成される。
それに対応して、符号化モジュール74は、具体的には、線形予測残差信号のスペクトル細部を符号化するように構成される。
本発明の実施例において、符号化器70は、
フィルタ72に接続され、線形予測残差信号に従って線形予測残差信号のエネルギーを取得するように構成された残差エネルギー計算モジュール75をさらに含む。
それに対応して、符号化モジュール74は、具体的には、線形予測係数、線形予測残差信号のエネルギー、および線形予測残差信号のスペクトル細部を符号化するように構成される。
本発明の実施例において、スペクトル細部生成モジュール76は、具体的には、
線形予測残差信号のエネルギーに従ってランダム雑音励振信号を取得し、
線形予測残差信号のスペクトル包絡線とランダム雑音励振信号のスペクトル包絡線の間の差を線形予測残差信号のスペクトル細部として使用するように構成される。
本発明の実施例において、スペクトル細部生成モジュール76は、
線形予測残差信号のスペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得するように構成された第1の帯域幅スペクトル包絡線生成ユニット761であって、第1の帯域幅は線形予測残差信号の帯域幅の範囲内にある、第1の帯域幅スペクトル包絡線生成ユニット761と、
第1の帯域幅のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するように構成されたスペクトル細部計算ユニット762と、を含む。
本発明の実施例において、第1の帯域幅スペクトル包絡線生成ユニット761は、具体的には、
線形予測残差信号のスペクトル構造を計算し、線形予測残差信号の第1の部分のスペクトルを第1の帯域幅のスペクトル包絡線として使用するように構成され、ここで第1の部分のスペクトル構造は、線形予測残差信号の、第1の部分以外の、他の部分のスペクトル構造より強い。
本発明の実施例において、第1の帯域幅スペクトル包絡線生成ユニット761は、線形予測残差信号のスペクトル構造を、以下の方式、
雑音信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、および、
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、
のうちの1つで計算する。
符号化器70の動作手順について、図5における方法の実施例、および、図10および図11における符号化器側の実施例への参照がさらに行われ得ることが理解されることが可能であり、詳細はここに記載されない。
以下は、図8を参照して復号化器80を記載する。図8に表わされたように、復号化器80は、受信モジュール81、線形予測励振信号生成モジュール82、および快適雑音信号生成モジュール83を含む。
受信モジュール81は、ビットストリームを受信し、ビットストリームを復号化してスペクトル細部および線形予測係数を取得するように構成され、ここでスペクトル細部は線形予測励振信号のスペクトル包絡線を示す。
本発明の実施例において、スペクトル細部は、線形予測励振信号のスペクトル包絡線である。
線形予測励振信号生成モジュール82は、受信モジュール81に接続され、スペクトル細部に従って線形残差信号を取得するように構成される。
快適雑音信号生成モジュール83は、受信モジュール81および線形予測励振信号生成モジュール82に別個に接続され、線形予測係数および線形予測励振信号に従って快適雑音信号を取得するように構成される。
本発明の実施例において、ビットストリームは線形予測残差のエネルギーを含み、復号化器80は、
受信モジュール81に接続され、線形予測励振のエネルギーに従って第1の雑音励振信号を取得するように構成された第1の雑音励振信号生成モジュール84であって、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい、第1の雑音励振信号生成モジュール84と、
線形予測励振信号生成モジュール82および第1の雑音励振信号生成モジュール84に別個に接続され、第1の雑音励振信号および線形予測励振信号に従って第2の雑音励振信号を取得するように構成された第2の雑音励振信号生成モジュール85と、をさらに含む。
それに対応して、快適雑音信号生成モジュール83は、具体的には、線形予測係数および第2の雑音励振信号に従って快適雑音信号を取得するように構成される。
復号化器80の動作手順について、図6における方法の実施例、および図10における復号化器側の実施例への参照がさらに行われ得ることが理解されることが可能であり、詳細はここに記載されない。
以下は、図9を参照して符号化および復号化システム90を記載する。図9に表わされたように、符号化および復号化システム90は、
符号化器70および復号化器80を含む。符号化器70および復号化器80の具体的な動作手順について、本発明の他の実施例への参照が行われ得る。
図10は、本発明の技術的解決策におけるCNG技術を記載する技術的ブロック図を表わす。
図10に表わされたように、符号化器の具体的な実施例において、オーディオ信号フレームs(i)の線形予測係数lpc(k)は、Levinson-Durbinアルゴリズムを使用することによって取得され、ここでi=0, 1, …, N-1, k=0, 1, …, M-1であり、Nはオーディオ信号フレームの時間領域サンプリング点の数量を示し、Mは線形予測次数を示す。オーディオ信号フレームs(i)は線形予測分析フィルタA(Z)を通過することが許容されて、オーディオ信号フレームの線形予測残差R(i)を取得し、ここでi=0, 1, …, N-1であり、線形予測フィルタA(Z)のフィルタ係数はlpc(k)であり、k=0, 1, …, M-1である。
実施例において、線形予測フィルタA(Z)のフィルタ係数は、オーディオ信号フレームs(i)の、前に計算された線形予測係数lpc(k)に等しいことが可能である。他の実施例において、線形予測フィルタA(Z)のフィルタ係数は、オーディオ信号フレームs(i)の、前に計算された線形予測係数lpc(k)が、量子化された後に取得された値であり得る。簡単な記載のために、lpc(k)は、線形予測フィルタA(Z)のフィルタ係数を示すためにここで一律に使用される。
線形予測残差R(i)を取得するプロセスは、以下のように表現され得る。
ここで、
lpc(k)は線形予測フィルタA(Z)のフィルタ係数を示し、Mはオーディオ信号フレームの時間領域サンプリング点の数量を示し、Kは自然数であり、s(i-k)はオーディオ信号フレームを示す。
実施例において、線形予測残差のエネルギーERは、線形予測残差R(i)を使用することによって直接に取得され得る。
ここで、
s(i)はオーディオ信号フレームであり、Nは線形予測残差の時間領域サンプリング点の数量を示す。
線形予測残差R(i)のスペクトル細部情報は、線形予測残差R(i)のスペクトル包絡線とランダム雑音励振EXR(i)のスペクトル包絡線の間の差によって示されることが可能であり、ここでi=0, 1, …, N-1である。ランダム雑音励振EXR(i)は、符号化器において生成されたローカルな励振であり、ランダム雑音励振EXR(i)の生成方式は、復号化器における生成方式と一致し得る。EXR(i)のエネルギーはERである。ここでの生成方式の一致は、乱数ジェネレータの実現形式の一致を示し得るだけでなく、乱数ジェネレータのランダム・シードが同期を維持することも示し得る。実施例において、線形予測残差R(i)のスペクトル包絡線およびランダム雑音励振EXR(i)のスペクトル包絡線は、それぞれ、線形予測残差R(i)の時間領域信号およびランダム雑音励振EXR(i)の時間領域信号について高速フーリエ変換(FFT、Fast Fourier Transform)を行うことによって取得され得る。
本発明のこの実施例において、ランダム雑音励振が符号化器側において生成されるので、ランダム雑音励振のエネルギーは制御され得る。ここで、生成されたランダム雑音励振のエネルギーは線形予測残差のエネルギーに等しいことが必要である。ここでの簡潔さのために、ERは、依然として、ランダム雑音励振のエネルギーを示すために使用される。
本発明の実施例において、SR(j)は線形予測残差R(i)のスペクトル包絡線を示すために使用され、SXR(j)はランダム雑音励振EXR(i)のスペクトル包絡線を示すために使用され、ここでj=0, 1, …, K-1であり、Kはスペクトル包絡線の数量である。この場合、
ここで、
BR(m)およびBXR(m)は、それぞれ、線形予測残差のFFTエネルギー・スペクトルおよびランダム雑音励振のFFTエネルギー・スペクトルを示し、mはm番目のFFT周波数ビンを示し、h(j)およびl(j)は、それぞれ、j番目のスペクトル包絡線の上限および下限に対応するFFT周波数ビンを示す。スペクトル包絡線の数量Kの選択は、スペクトル解像度と符号化率の間で妥協することが可能であり、より大きなKはより高いスペクトル解像度および符号化される必要があるより大きなビットの数量を示し、そうでなければ、より小さいKはより低いスペクトル解像度および符号化される必要があるより少ないビットの数量を示す。線形予測残差R(i)のスペクトル細部SD(j)は、SR(j)とSXR(j)の間の差を使用することによって取得される。SIDフレームを符号化するとき、符号化器は、線形予測係数lpc(k)、線形予測残差のエネルギーER、および線形予測残差のスペクトル細部SD(j)を別個に量子化し、ここで線形予測係数lpc(k)の量子化は、一般に、ISP/ISF領域およびLSP/LSF領域について行われる。各々のパラメータを量子化するための具体的な方法は先行技術であり、本発明の概要ではないので、詳細はここに記載されない。
他の実施例において、線形予測残差R(i)のスペクトル細部情報は、線形予測残差R(i)のスペクトル包絡線とスペクトル包絡線の平均の間の差によって示され得る。SR(j)は線形予測残差R(i)のスペクトル包絡線を示すために使用され、SM(j)はスペクトル包絡線の平均または平均スペクトル包絡線を示すために使用され、ここでj=0, 1, …, K-1であり、Kはスペクトル包絡線の数量である。この場合、
ここで、
ER(m)は線形予測残差のFFTエネルギー・スペクトルを示し、mはm番目のFFT周波数ビンを示し、h(j)およびl(j)は、それぞれ、j番目のスペクトル包絡線の上限および下限に対応するFFT周波数ビンを示す。SM(j)はスペクトル包絡線の平均または平均スペクトル包絡線を示し、ERは線形予測残差のエネルギーである。
実施例において、SIDフレームに具体的に符号化されるパラメータは、現在のフレームを表現するパラメータのみであり得るが、他の実施例において、SIDフレームに具体的に符号化されるパラメータは、平均、重み付けされた平均、またはいくつかのフレームにおける各々のパラメータの移動平均のような平滑化された値であり得る。
より具体的には、図11に表わされたように、図10を参照して表わされた技術的解決策において、スペクトル細部SD(j)は、信号の全ての帯域幅をカバーすることが可能であり、または一部の帯域幅のみをカバーすることが可能である。実施例において、一般に雑音のほとんどのエネルギーは低周波数にあるので、スペクトル細部SD(j)は信号の低周波数帯域のみをカバーし得る。他の実施例において、スペクトル細部SD(j)は、カバーするために最も強いスペクトル構造を有する帯域幅をさらに適応的に選択し得る。この場合、この周波数帯域の開始周波数位置のような位置情報が付加的に符号化される必要がある。上記の技術的解決策におけるスペクトル構造の強さは、線形予測残差スペクトルを使用することによって計算されることが可能であり、または線形予測残差スペクトルとランダム雑音励振スペクトルの間の差信号を使用することによって計算されることが可能であり、または元の入力信号スペクトルを使用することによって計算されることが可能であり、または元の入力信号スペクトルと、ランダム雑音励振信号が合成フィルタを励振した後に取得された合成雑音信号のスペクトルの間の差信号を使用することによって計算されることが可能である。スペクトル構造の強さは、エントロピー法、flatness法、およびsparseness法のような様々な典型的な方法によって計算され得る。
本発明のこの実施例において、全ての上記のいくつかの方法は、スペクトル構造の強さを計算するための方法であり、スペクトル細部の計算から独立していることが理解され得る。スペクトル細部がまず計算されることが可能であり、次に構造の強さが計算され、または構造の強さがまず計算され、次にスペクトル細部を獲得するために適切な周波数帯域が選択される。本発明はそれへの特別な限定を設定しない。
例えば、実施例において、スペクトル構造の強さは、線形予測残差Rのスペクトル包絡線SR(j)に従って計算され、ここでKはスペクトル包絡線の数量であり、j=0, 1, …, K-1である。まず、フレームの総エネルギーにおける各々の包絡線によって占有される周波数帯域のエネルギーの比率が計算され、
ここで、
P(j)は総エネルギーにおけるj番目の包絡線によって占有される周波数帯域のエネルギーの比率を示し、SR(j)は線形予測残差のスペクトル包絡線であり、h(j)およびl(j)は、それぞれ、j番目のスペクトル包絡線の上限および下限に対応するFFT周波数ビンを示し、Etotはフレームの総エネルギーである。線形予測残差スペクトルのエントロピーCRはP(j)に従って計算される。
エントロピーCRの値は、線形予測残差スペクトルの構造の強さを示すことが可能である。より大きなCRはより弱いスペクトル構造を示し、より小さいCRはより強いスペクトル構造を示す。
復号化器の実施例において、SIDフレームを受信するとき、復号化器は、SIDフレームを復号化し、復号化された線形予測係数lpc(k)、線形予測残差の復号化されたエネルギーER、および線形予測残差の復号化されたスペクトル細部SD(j)を取得する。各々の背景雑音フレームにおいて、復号化器は、復号化によって最近取得されたこれらの3つのパラメータに従って現在の快適雑音フレームに対応するこれらの3つのパラメータを推定する。現在の快適雑音フレームに対応するこれらの3つのパラメータは、線形予測係数CNlpc(k)、線形予測残差のエネルギーCNER、および線形予測残差のスペクトル細部CNSD(j)としてマークされる。実施例において、具体的な推定方法は、
であることが可能であり、ここで、
αは長期移動平均係数または忘却係数であり、Mはフィルタ次数であり、Kはスペクトル包絡線の数量である。
ランダム雑音励振EXR(i)は線形予測残差のエネルギーCNERに従って作成される。具体的な方法は、まず、乱数ジェネレータを使用することによって乱数シーケンスのグループEX(i)を生成すること、ここでi=0, 1, …, N-1であり、そしてEX(i)について利得調整を行うことであり、それによって、調整されたEX(i)のエネルギーは線形予測残差のエネルギーCNERと一致する。調整されたEX(i)はランダム雑音励振EXR(i)であり、EXR(i)は以下の数式を参照して取得され得る。
加えて、スペクトル細部励振EXD(i)は線形予測残差のスペクトル細部CNSD(j)に従って作成される。基本的な方法は、線形予測残差のスペクトル細部CNSD(j)を使用することによって、ランダム化された位相を有するFFT係数のシーケンスにおいて利得調整を行うこと、それによって利得調整の後に取得されるFFT係数に対応するスペクトル包絡線はCNSD(j)と一致し、そして最終的に逆高速フーリエ変換(IFFT、Inverse Fast Fourier Transform)によってスペクトル細部励振EXD(i)を取得することである。
他の実施例において、スペクトル細部励振EXD(i)は線形予測残差のスペクトル包絡線に従って作成される。基本的な方法は、ランダム雑音励振EXR(i)のスペクトル包絡線を取得すること、線形予測残差のスペクトル包絡線に従って、線形予測残差のスペクトル包絡線と、ランダム雑音励振EXR(i)のスペクトル包絡線内の、スペクトル細部励振に対応している包絡線の間の包絡線の差を取得すること、包絡線の差を使用することによって、ランダム化された位相を有するFFT係数のシーケンスにおいて利得調整を行うこと、それによって利得調整の後に取得されるFFT係数に対応するスペクトル包絡線は包絡線の差と一致し、そして最終的に逆高速フーリエ変換(IFFT、Inverse Fast Fourier Transform)によってスペクトル細部励振EXD(i)を取得することである。
本発明の実施例において、EXD(i)を作成するための具体的な方法は、乱数ジェネレータを使用することによってN個の点の乱数シーケンスを生成すること、そしてN個の点の乱数シーケンスを、ランダム化された位相およびランダム化された振幅を有するFFT係数のシーケンスとして使用することである。
上記の数式におけるRel(i)およびImg(i)は、それぞれ、i番目のFFT周波数ビンの実部および虚部を示し、RAND()は乱数ジェネレータを示し、seedはランダム・シードである。ランダム化されたFFT係数の振幅は、線形予測残差のスペクトル細部CNSD(j)に従って調整され、FFT係数Rel'(i)およびImg'(i)は利得調整の後に取得される。
ここで、
E(i)は利得調整の後に取得されるi番目のFFT 周波数ビンのエネルギーを示し、線形予測残差のスペクトル細部CNSD(j)によって決定される。E(i)とCNSD(j)の間の関係は、
E(i)=CNSD(j)、l(j)≦i≦h(j)について
である。
利得調整の後に取得されるFFT係数Rel'(i)およびImg'(i)は、IFFT変換によって時間領域信号、すなわち、スペクトル細部励振EXD(i)に変換される。ランダム雑音励振EXR(i)はスペクトル細部励振EXD(i)と結合され、完全な励振EX(i)が取得される。
EX(i)=EXR(i)+EXD(i)、i=0, 1, … N-1
最終的に、完全な励振EX(i)は線形予測合成フィルタA(1/Z)を励振するために使用され、快適雑音フレームが取得され、ここで合成フィルタの係数はCNlpc(k)である。
便利で簡単な記載の目的のために、上記の符号化および復号化システム、符号化器、復号化器、モジュール、およびユニットの具体的な動作プロセスについて、上記の方法の実施例における対応するプロセスへの参照が行われ得ることは、この技術分野の当業者によって明確に理解されることが可能であり、詳細は再度ここに記載されない。
本願において提供されるいくつかの実施例において、開示されたシステム、装置、および方法は他の方式で実現され得ることが理解されるべきである。例えば、記載された装置の実施例は単に例示である。例えば、ユニットの区分は単に論理的な機能区分であり、実際の実現において他の区分であり得る。例えば、複数のユニットまたは構成要素は他のシステムに結合され、または統合されることが可能であり、またはいくつかの特徴は無視され、または行われないことが可能である。加えて、表示され、または論じられた相互の連結または直接的な連結または通信接続は、いくつかのインタフェースを使用することによって実現され得る。装置またはユニットの間の間接的な連結または通信接続は、電気的、機械的、または他の形式で実現され得る。
加えて、本発明の実施例における機能ユニットは、1つの処理ユニットに統合されることが可能であり、またはユニットの各々は物理的に単独で存在することが可能であり、または2つ以上のユニットは1つのユニットに統合される。
機能がソフトウェア機能ユニットの形式で実現され、独立の製品として販売または使用されるとき、機能はコンピュータ読み取り可能な記憶媒体内に記憶され得る。そのような理解に基づいて、本質的に本発明の技術的解決策、または先行技術に貢献する部分、または技術的解決策のいくつかは、ソフトウェア製品の形式で実現され得る。ソフトウェア製品は、記憶媒体内に記憶され、本発明の実施例において記載された方法のステップの全てまたはいくつかを行うように(パーソナル・コンピュータ、サーバ、またはネットワーク・デバイスであり得る)コンピュータ・デバイスに命令するためのいくつかの命令を含む。上記の記憶媒体は、USBフラッシュ・ドライブ、取り外し可能なハードディスク、リード・オンリ・メモリ(ROM、Read-Only Memory)、ランダム・アクセス・メモリ(RAM、Random Access Memory)、磁気ディスク、または光ディスクのような、プログラム・コードを記憶することが可能である、あらゆる媒体を含む。
上記の記載は、本発明のほんの例示の実現方式であるが、本発明の保護範囲を限定することは意図されない。本発明において開示された技術的範囲内でこの技術分野の当業者によって容易に理解されるあらゆる変形または置換は本発明の保護範囲内にあるものである。従って、本発明の保護範囲は請求項の保護範囲に従うものである。
70 符号化器
71 獲得モジュール
72 フィルタ
73 スペクトル包絡線生成モジュール
74 符号化モジュール
75 残差エネルギー計算モジュール
76 スペクトル細部生成モジュール
761 第1の帯域幅スペクトル包絡線生成ユニット
762 スペクトル細部計算ユニット
80 復号化器
81 受信モジュール
82 線形予測励振信号生成モジュール
83 快適雑音信号生成モジュール
84 第1の雑音励振信号生成モジュール
85 第2の雑音励振信号生成モジュール
90 符号化および復号化システム
CNGを使用するための方法は、具体的には、第3世代パートナーシップ・プロジェクト(3GPP、3rd Generation Partnership Project)における適応マルチレート広帯域(AMR-WB、Adaptive Multi-rate Wideband)標準において規定され、AMR-WBのCNG技術は、また、線形予測に基づく。AMR-WB標準において、SIDフレームは、量子化された背景雑音信号エネルギー係数および量子化された線形予測係数を含み、ここで背景雑音エネルギー係数は背景雑音の対数的なエネルギー係数であり、量子化された線形予測係数は量子化されたイミタンス・スペクトル周波数(ISF、Immittance Spectral Frequency)係数によって表現される。復号化器側において、現在の背景雑音の、エネルギーおよび線形予測係数は、SIDフレームに含まれるエネルギー係数情報および線形予測係数情報に従って推定される。ランダム雑音シーケンスは、乱数ジェネレータを使用することによって生成され、快適雑音を生成するための励振信号として使用される。ランダム雑音シーケンスの利得は、現在の背景雑音の推定されたエネルギーに従って調整され、それによってランダム雑音シーケンスのエネルギーは現在の背景雑音の推定されたエネルギーと一致する。利得調整の後に取得されたランダム・シーケンス励振は、合成フィルタを励振するために使用され、ここで合成フィルタの係数は、現在の背景雑音の推定された線形予測係数である。合成フィルタの出力は生成された快適雑音である。
励振信号としてランダム雑音シーケンスを使用することによって快適雑音を生成するための方法において、比較的快適な雑音が取得されることが可能であり、元の背景雑音のスペクトル包絡線が粗く回復されることも可能であるが、元の背景雑音のスペクトル細部は失われ得る。その結果、主観的な聴覚認識の観点で、生成された快適雑音と元の背景雑音の間に特定の差が依然として存在する。そのような差は、連続的に符号化された音声セグメントが快適雑音セグメントに移行されるとき、ユーザの主観的な聴覚の不快感を引き起こし得る。
これを考慮して、上記の課題を解決するために、本発明の実施例は、雑音信号処理方法、雑音信号生成方法、符号化器、復号化器、並びに符号化および復号化システムを提供する。本発明の実施例における、雑音処理方法、雑音生成方法、符号化器、復号化器、および符号化−復号化システムによれば、元の背景雑音信号のより多くのスペクトル細部が回復されることが可能であり、それによって快適雑音はユーザの主観的な聴覚認識の観点で元の背景雑音により近くなることが可能であり、連続した送信が不連続送信に移行されるときに引き起こされる「切り替え感覚」は軽減され、ユーザの主観的な認識の品質は改善される。
本発明のこの実施例における雑音信号処理方法によれば、元の背景雑音信号のより多くのスペクトル細部が回復されることが可能であり、それによって快適雑音はユーザの主観的な聴覚認識の観点で元の背景雑音により近くなることが可能であり、ユーザの主観的な認識の品質は改善される。
本発明のこの実施例における雑音信号生成方法によれば、元の背景雑音信号のより多くのスペクトル細部が回復されることが可能であり、それによって快適雑音はユーザの主観的な聴覚認識の観点で元の背景雑音により近くなることが可能であり、ユーザの主観的な認識の品質は改善される。





本発明の第4の態様の実施例は、復号化器を提供し、この復号化器は、
ビットストリームを受信し、ビットストリームを復号化してスペクトル細部および線形予測係数を取得するように構成された受信モジュールであって、スペクトル細部は線形予測励振信号のスペクトル包絡線を示す、受信モジュールと、
スペクトル細部に従って線形予測励振信号を取得するように構成された線形予測励振信号生成モジュールと、
線形予測係数および線形予測励振信号に従って快適雑音信号を取得するように構成された快適雑音信号生成モジュールと、を含む。
以下は、本発明の実施例における添付図面を参照して、本発明の実施例における技術的解決策を明確に記載する。明らかに、記載された実施例は本発明の実施例の全てではなくほんの一部である。創作的な努力なしで本発明の実施例に基づいてこの技術分野の当業者によって取得される他の全ての実施例は、本発明の保護範囲内にあるものである。
図1は、線形予測原理に基づく基本的な快適雑音生成(CNG、Comfort Noise Generation)技術のブロック図である。線形予測の基本的な着想は、音声信号サンプリング点の間に相関が存在するので、過去のサンプリング点の値は、現在または将来のサンプリング点の値を予測するために使用され得る、すなわち、1つの音声のサンプリングは、いくつかの過去の音声のサンプリングの線形結合を使用することによって近似され得る、ということであり、予測係数は、二乗平均原理を使用することによって、実際の音声信号のサンプリング値と線形予測のサンプリング値の間の誤差を最小値に到達させることによって計算され、この予測係数は音声信号の特性を反映し、従って音声特性パラメータのこのグループは、音声認識、音声合成、等を行うために使用され得る。
図1に表わされたように、符号化器側において、符号化器は、入力時間領域背景雑音信号に従って線形予測係数(LPC、Linear Prediction Coefficient)を取得する。先行技術において、線形予測係数を獲得するための複数の具体的な方法が提供され、比較的一般的な方法は、例えば、Levinson Durbinアルゴリズムである。
入力時間領域背景雑音信号は、線形予測分析フィルタを通過することがさらに許容され、フィルタリングの後の残差信号、すなわち、線形予測残差が取得される。線形予測分析フィルタのフィルタ係数は、上記のステップにおいて取得されるLPC係数である。線形予測残差のエネルギーは線形予測残差に従って取得される。ある程度まで、線形予測残差のエネルギーおよびLPC係数は、それぞれ、入力背景雑音信号のエネルギーおよび入力背景雑音信号のスペクトル包絡線を示し得る。線形予測残差のエネルギーおよびLPC係数は、無音挿入記述子(SID、Silence Insertion Descriptor)フレームに符号化される。具体的には、SIDフレーム内にLPC係数を符号化することは、一般に、LPC係数についての直接の形式ではなく、イミタンス・スペクトル対(ISP、Immittance Spectral Pair)/イミタンス・スペクトル周波数(ISF、Immittance Spectral Frequency)、および線スペクトル対(LSP、Line Spectral Pair)/線スペクトル周波数(LSF、Line Spectral Frequency)のようないくつかの変換であり、しかし、これらは全て本質的にLPC係数を示す。
それに対応して、特定の時間において、復号化器によって受信されたSIDフレームは連続していない。復号化器は、SIDフレームを復号化することによって、線形予測残差の復号化されたエネルギーおよび復号化されたLPC係数を取得する。復号化器は、復号化によって取得される線形予測残差のエネルギーおよびLPC係数を使用して、現在の快適雑音フレームを生成するために使用される線形予測残差のエネルギーおよびLPC係数を更新する。復号化器は、合成フィルタを励振するためにランダム雑音励振を使用するための方法を使用することによって快適雑音を生成することが可能であり、ここでランダム雑音励振はランダム雑音励振ジェネレータによって生成される。利得調整は、一般に、生成されたランダム雑音励振について行われ、それによって利得調整の後に取得されたランダム雑音励振のエネルギーは、現在の快適雑音フレームの線形予測残差のエネルギーと一致する。快適雑音を生成するように構成された合成フィルタのフィルタ係数は、現在の快適雑音フレームのLPC係数である。
既存の線形予測を基にしたCNG技術において、快適雑音はランダム雑音励振によって生成され、快適雑音のスペクトル包絡線は、元の背景雑音を反映するたいへん粗い包絡線に過ぎない。しかし、元の背景雑音が特定のスペクトル構造を有するとき、ユーザの主観的な聴覚の感覚の認識の観点で、既存のCNG技術によって生成された快適雑音と元の背景雑音の間の特定の差が依然として存在する。
符号化器が連続した符号化から不連続な符号化に移行されるとき、すなわち、アクティブな音声信号が背景雑音信号に移行されるとき、背景雑音セグメント内のいくつかの初期雑音フレームは、連続した符号化方式で依然として符号化され、従って、復号化器によって再現される背景雑音信号は高品質の背景雑音から快適雑音への移行を有する。元の背景雑音が特定のスペクトル構造を有するとき、そのような移行は、快適雑音と元の背景雑音の間の差のために、ユーザの主観的な聴覚の感覚の認識において不快感を引き起こし得る。この課題を解決するために、本発明の実施例の技術的解決策の目的は、ある程度まで、生成された快適雑音から元の背景雑音のスペクトル細部を回復することである。
図4に表わされたように、復号化器側において、上記の処理の逆のプロセスとして、残差信号Rが励振信号として使用され、線形予測合成フィルタを通過することが許容されるならば、初期差信号が回復され得る。本発明の実施例において、線形予測合成フィルタの係数が分析フィルタの係数と完全に同じであり、復号化器側における残差信号Rが符号化器側におけるそれと同じであるならば、取得される信号は初期差信号と同じである。快適雑音が生成されるべきであるとき、スペクトル細部励振が既存のランダム雑音励振に付加され、ここでスペクトル細部励振は上記の残差信号Rに対応している。ランダム雑音励振とスペクトル細部励振の和信号が完全な励振信号として使用されて、線形予測合成フィルタを励振し、最終的に取得された快適雑音信号は、元の背景雑音信号のスペクトルと一致または類似するスペクトルを有する。本発明の実施例において、ランダム雑音励振とスペクトル細部励振の和信号は、ランダム雑音励振の時間領域信号とスペクトル細部励振の時間領域信号を直接に重ねる、すなわち、同じ時間でのサンプリング点において直接的な加算を行うことによって取得される。
雑音信号フレームは線形予測分析フィルタを通過することが許容されて、オーディオ信号フレームの線形予測残差を取得し、線形予測分析フィルタのフィルタ係数について、ステップS51において取得された線形予測係数への参照が行われる必要がある。
実施例において、線形予測分析フィルタのフィルタ係数は、ステップS51において計算された線形予測係数に等しいことが可能である。他の実施例において、線形予測分析フィルタのフィルタ係数は、前に計算された線形予測係数が量子化された後に取得された値であり得る。
線形予測残差信号のスペクトル細部は、線形予測残差信号のスペクトル包絡線とスペクトル包絡線の平均の間の差によって示され得る。スペクトル包絡線の平均は、平均スペクトル包絡線とみなされ、線形予測残差信号のエネルギーに従って取得されることが可能であり、すなわち、平均スペクトル包絡線における包絡線のエネルギーの和は、線形予測残差信号のエネルギーに対応している必要がある。
本発明の実施例において、線形予測残差信号のスペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得するステップは、具体的には、
線形予測残差信号のスペクトル構造を計算し、線形予測残差信号の第1の部分のスペクトルを第1の帯域幅のスペクトル包絡線として使用するステップであって、第1の部分のスペクトル構造は、線形予測残差信号の、第1の部分以外の、他の部分のスペクトル構造より強い、ステップを含む。
本発明の実施例において、符号化器70は、スペクトル細部生成モジュール76をさらに含み、ここでスペクトル細部生成モジュール76は、符号化モジュール74およびスペクトル包絡線生成モジュール73に接続され、線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するように構成される。
線形予測励振信号生成モジュール82は、受信モジュール81に接続され、スペクトル細部に従って線形予測励振信号を取得するように構成される。
快適雑音信号生成モジュール83は、受信モジュール81および線形予測励振信号生成モジュール82に接続され、線形予測係数および線形予測励振信号に従って快適雑音信号を取得するように構成される。
本発明の実施例において、ビットストリームは線形予測励振のエネルギーを含み、復号化器80は、
受信モジュール81に接続され、線形予測励振のエネルギーに従って第1の雑音励振信号を取得するように構成された第1の雑音励振信号生成モジュール84であって、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい、第1の雑音励振信号生成モジュール84と、
線形予測励振信号生成モジュール82および第1の雑音励振信号生成モジュール84に接続され、第1の雑音励振信号および線形予測励振信号に従って第2の雑音励振信号を取得するように構成された第2の雑音励振信号生成モジュール85と、をさらに含む。
図10に表わされたように、符号化器の具体的な実施例において、オーディオ信号フレームs(i)の線形予測係数lpc(k)は、Levinson-Durbinアルゴリズムを使用することによって取得され、ここでi=0, 1, …, N-1, k=0, 1, …, M-1であり、Nはオーディオ信号フレームの時間領域サンプリング点の数量を示し、Mは線形予測次数を示す。オーディオ信号フレームs(i)は線形予測分析フィルタA(Z)を通過することが許容されて、オーディオ信号フレームの線形予測残差R(i)を取得し、ここでi=0, 1, …, N-1であり、線形予測分析フィルタA(Z)のフィルタ係数はlpc(k)であり、k=0, 1, …, M-1である。
実施例において、線形予測分析フィルタA(Z)のフィルタ係数は、オーディオ信号フレームs(i)の、前に計算された線形予測係数lpc(k)に等しいことが可能である。他の実施例において、線形予測分析フィルタA(Z)のフィルタ係数は、オーディオ信号フレームs(i)の、前に計算された線形予測係数lpc(k)が、量子化された後に取得された値であり得る。簡単な記載のために、lpc(k)は、線形予測分析フィルタA(Z)のフィルタ係数を示すためにここで一律に使用される。
ここで、
lpc(k)は線形予測分析フィルタA(Z)のフィルタ係数を示し、Mはオーディオ信号フレームの時間領域サンプリング点の数量を示し、Kは自然数であり、s(i-k)はオーディオ信号フレームを示す。
例えば、実施例において、スペクトル構造の強さは、線形予測残差Rのスペクトル包絡線SR(j)に従って計算され、ここでj=0, 1, …, K-1であり、Kはスペクトル包絡線の数量である。まず、フレームの総エネルギーにおける各々の包絡線によって占有される周波数帯域のエネルギーの比率が計算され、

Claims (23)

  1. 雑音信号を獲得し、前記雑音信号に従って線形予測係数を取得するステップと、
    前記線形予測係数に従って前記雑音信号をフィルタリングして、線形予測残差信号を取得するステップと、
    前記線形予測残差信号に従って前記線形予測残差信号のスペクトル包絡線を取得するステップと、
    前記線形予測残差信号の前記スペクトル包絡線を符号化するステップと、
    を含む、線形予測を基にした雑音信号処理方法。
  2. 前記線形予測残差信号に従って前記線形予測残差信号のスペクトル包絡線を取得する前記ステップの後に、前記方法は、
    前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号のスペクトル細部を取得するステップをさらに含み、
    それに対応して、前記線形予測残差信号の前記スペクトル包絡線を符号化する前記ステップは、具体的には、
    前記線形予測残差信号の前記スペクトル細部を符号化するステップを含む、請求項1に記載の雑音信号処理方法。
  3. 線形予測残差信号を取得する前記ステップの後に、前記方法は、
    前記線形予測残差信号に従って前記線形予測残差信号のエネルギーを取得するステップをさらに含み、
    それに対応して、前記線形予測残差信号の前記スペクトル細部を符号化する前記ステップは、具体的には、
    前記線形予測係数、前記線形予測残差信号の前記エネルギー、および前記線形予測残差信号の前記スペクトル細部を符号化するステップを含む、請求項2に記載の雑音信号処理方法。
  4. 前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号のスペクトル細部を取得する前記ステップは、具体的には、
    前記線形予測残差信号の前記エネルギーに従ってランダム雑音励振信号を取得するステップと、
    前記線形予測残差信号の前記スペクトル包絡線と前記ランダム雑音励振信号のスペクトル包絡線の間の差を前記線形予測残差信号の前記スペクトル細部として使用するステップと、
    である、請求項3に記載の雑音信号処理方法。
  5. 前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号のスペクトル細部を取得する前記ステップは、具体的には、
    前記線形予測残差信号の前記スペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得するステップであって、前記第1の帯域幅は前記線形予測残差信号の帯域幅の範囲内にある、ステップと、
    前記第1の帯域幅の前記スペクトル包絡線に従って前記線形予測残差信号の前記スペクトル細部を取得するステップと、
    を含む、請求項2または3に記載の雑音信号処理方法。
  6. 前記線形予測残差信号の前記スペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得する前記ステップは、具体的には、
    前記線形予測残差信号のスペクトル構造を計算し、前記線形予測残差信号の第1の部分のスペクトルを前記第1の帯域幅の前記スペクトル包絡線として使用するステップであって、前記第1の部分のスペクトル構造は、前記線形予測残差信号の、前記第1の部分以外の、他の部分のスペクトル構造より強い、ステップを含む、請求項5に記載の雑音信号処理方法。
  7. 前記線形予測残差信号の前記スペクトル構造は、以下の方式、
    前記雑音信号のスペクトル包絡線に従って前記線形予測残差信号の前記スペクトル構造を計算すること、および、
    前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号の前記スペクトル構造を計算すること、
    のうちの1つで計算される、請求項6に記載の雑音信号処理方法。
  8. 前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号のスペクトル細部を取得する前記ステップの後に、前記方法は、
    前記線形予測残差信号の前記スペクトル細部に従って前記線形予測残差信号のスペクトル構造を計算し、前記スペクトル構造に従って前記線形予測残差信号の第2の帯域幅のスペクトル細部を取得するステップであって、前記第2の帯域幅は前記線形予測残差信号の帯域幅の範囲内にあり、前記第2の帯域幅のスペクトル構造は、前記線形予測残差信号の、前記第2の帯域幅以外の、帯域幅の他の部分のスペクトル構造より強い、ステップをさらに含み、
    それに対応して、前記線形予測残差信号の前記スペクトル包絡線を符号化する前記ステップは、具体的には、
    前記線形予測残差信号の前記第2の帯域幅の前記スペクトル細部を符号化するステップを含む、請求項2に記載の雑音信号処理方法。
  9. ビットストリームを受信し、前記ビットストリームを復号化してスペクトル細部および線形予測係数を取得するステップであって、前記スペクトル細部は線形予測励振信号のスペクトル包絡線を示す、ステップと、
    前記スペクトル細部に従って前記線形予測励振信号を取得するステップと、
    前記線形予測係数および前記線形予測励振信号に従って快適雑音信号を取得するステップと、
    を含む、線形予測を基にした快適雑音信号生成方法。
  10. 前記スペクトル細部は、前記線形予測励振信号の前記スペクトル包絡線である、請求項9に記載の快適雑音信号生成方法。
  11. 前記ビットストリームは線形予測励振のエネルギーを含み、前記線形予測係数および前記線形予測励振信号に従って快適雑音信号を取得する前記ステップの前に、前記方法は、
    前記線形予測励振の前記エネルギーに従って第1の雑音励振信号を取得するステップであって、前記第1の雑音励振信号のエネルギーは前記線形予測励振の前記エネルギーに等しい、ステップと、
    前記第1の雑音励振信号および前記線形予測励振信号に従って第2の雑音励振信号を取得するステップと、をさらに含み、
    それに対応して、前記線形予測係数および前記線形予測励振信号に従って快適雑音信号を取得する前記ステップは、具体的には、
    前記線形予測係数および前記第2の雑音励振信号に従って前記快適雑音信号を取得するステップを含む、請求項9に記載の快適雑音信号生成方法。
  12. 雑音信号を獲得し、前記雑音信号に従って線形予測係数を取得するように構成された獲得モジュールと、
    前記獲得モジュールによって取得された前記線形予測係数に従って前記雑音信号をフィルタリングして、線形予測残差信号を取得するように構成されたフィルタと、
    前記線形予測残差信号に従って前記線形予測残差信号のスペクトル包絡線を取得するように構成されたスペクトル包絡線生成モジュールと、
    前記線形予測残差信号の前記スペクトル包絡線を符号化するように構成された符号化モジュールと、を含む符号化器。
  13. 前記符号化器は、前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号のスペクトル細部を取得するように構成されたスペクトル細部生成モジュールをさらに含み、
    それに対応して、前記符号化モジュールは、具体的には、前記線形予測残差信号の前記スペクトル細部を符号化するように構成された、請求項12に記載の符号化器。
  14. 前記符号化器は、前記線形予測残差信号に従って前記線形予測残差信号のエネルギーを取得するように構成された残差エネルギー計算モジュールをさらに含み、
    それに対応して、前記符号化モジュールは、具体的には、前記線形予測係数、前記線形予測残差信号の前記エネルギー、前記線形予測残差信号の前記スペクトル細部、および前記雑音信号を符号化するように構成された、請求項13に記載の符号化器。
  15. 前記スペクトル細部生成モジュールは、具体的には、
    前記線形予測残差信号の前記エネルギーに従ってランダム雑音励振信号を取得し、
    前記線形予測残差信号の前記スペクトル包絡線と前記ランダム雑音励振信号のスペクトル包絡線の間の差を前記線形予測残差信号の前記スペクトル細部として使用するように構成された、請求項14に記載の符号化器。
  16. 前記スペクトル細部生成モジュールは、
    前記線形予測残差信号の前記スペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得するように構成された第1の帯域幅スペクトル包絡線生成ユニットであって、前記第1の帯域幅は前記線形予測残差信号の帯域幅の範囲内にある、第1の帯域幅スペクトル包絡線生成ユニットと、
    前記第1の帯域幅の前記スペクトル包絡線に従って前記線形予測残差信号の前記スペクトル細部を取得するように構成されたスペクトル細部計算ユニットと、を含む、請求項13または14に記載の符号化器。
  17. 前記第1の帯域幅スペクトル包絡線生成ユニットは、具体的には、
    前記線形予測残差信号のスペクトル構造を計算し、前記線形予測残差信号の第1の部分のスペクトルを前記第1の帯域幅の前記スペクトル包絡線として使用するように構成され、前記第1の部分のスペクトル構造は、前記線形予測残差信号の、前記第1の部分以外の、他の部分のスペクトル構造より強い、請求項16に記載の符号化器。
  18. 前記第1の帯域幅スペクトル包絡線生成ユニットは、前記線形予測残差信号の前記スペクトル構造を、以下の方式、
    前記雑音信号のスペクトル包絡線に従って前記線形予測残差信号の前記スペクトル構造を計算すること、および、
    前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号の前記スペクトル構造を計算すること、
    のうちの1つで計算する、請求項17に記載の符号化器。
  19. 前記スペクトル細部生成モジュールは、具体的には、
    前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号の前記スペクトル細部を取得し、前記線形予測残差信号の前記スペクトル細部に従って前記線形予測残差信号のスペクトル構造を計算し、前記スペクトル構造に従って前記線形予測残差信号の第2の帯域幅のスペクトル細部を取得するように構成され、前記第2の帯域幅は前記線形予測残差信号の帯域幅の範囲内にあり、前記第2の帯域幅のスペクトル構造は、前記線形予測残差信号の、前記第2の帯域幅以外の、帯域幅の他の部分のスペクトル構造より強く、
    それに対応して、前記符号化モジュールは、具体的には、前記線形予測残差信号の前記第2の帯域幅の前記スペクトル細部を符号化するように構成された、請求項13に記載の符号化器。
  20. ビットストリームを受信し、前記ビットストリームを復号化してスペクトル細部および線形予測係数を取得するように構成された受信モジュールであって、前記スペクトル細部は線形予測励振信号のスペクトル包絡線を示す、受信モジュールと、
    前記スペクトル細部に従って前記線形予測励振信号を取得するように構成された線形予測励振信号生成モジュールと、
    前記線形予測係数および前記線形予測励振信号に従って快適雑音信号を取得するように構成された快適雑音信号生成モジュールと、
    を含む復号化器。
  21. 前記スペクトル細部は、前記線形予測励振信号の前記スペクトル包絡線である、請求項20に記載の復号化器。
  22. 前記ビットストリームは線形予測励振のエネルギーを含み、前記復号化器は、
    前記線形予測励振の前記エネルギーに従って第1の雑音励振信号を取得するように構成された第1の雑音励振信号生成モジュールであって、前記第1の雑音励振信号のエネルギーは前記線形予測励振の前記エネルギーに等しい、第1の雑音励振信号生成モジュールと、
    前記第1の雑音励振信号および前記線形予測励振信号に従って第2の雑音励振信号を取得するように構成された第2の雑音励振信号生成モジュールと、をさらに含み、
    それに対応して、前記快適雑音信号生成モジュールは、具体的には、前記線形予測係数および前記第2の雑音励振信号に従って前記快適雑音信号を取得するように構成された、請求項20に記載の復号化器。
  23. 請求項12から19のいずれか一項に記載の符号化器と、請求項20から22のいずれか一項に記載の復号化器と、を含む符号化および復号化システム。
JP2018128182A 2014-04-08 2018-07-05 雑音信号処理方法、雑音信号生成方法、符号化器、および、復号化器 Active JP6636574B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201410137474.0 2014-04-08
CN201410137474.0A CN104978970B (zh) 2014-04-08 2014-04-08 一种噪声信号的处理和生成方法、编解码器和编解码系统

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017503044A Division JP6368029B2 (ja) 2014-04-08 2014-10-09 雑音信号処理方法、雑音信号生成方法、符号化器、復号化器、並びに符号化および復号化システム

Publications (2)

Publication Number Publication Date
JP2018165834A true JP2018165834A (ja) 2018-10-25
JP6636574B2 JP6636574B2 (ja) 2020-01-29

Family

ID=54275424

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017503044A Active JP6368029B2 (ja) 2014-04-08 2014-10-09 雑音信号処理方法、雑音信号生成方法、符号化器、復号化器、並びに符号化および復号化システム
JP2018128182A Active JP6636574B2 (ja) 2014-04-08 2018-07-05 雑音信号処理方法、雑音信号生成方法、符号化器、および、復号化器

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017503044A Active JP6368029B2 (ja) 2014-04-08 2014-10-09 雑音信号処理方法、雑音信号生成方法、符号化器、復号化器、並びに符号化および復号化システム

Country Status (7)

Country Link
US (3) US9728195B2 (ja)
EP (2) EP3671737A1 (ja)
JP (2) JP6368029B2 (ja)
KR (3) KR102132798B1 (ja)
CN (1) CN104978970B (ja)
ES (1) ES2798310T3 (ja)
WO (1) WO2015154397A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110289009A (zh) * 2019-07-09 2019-09-27 广州视源电子科技股份有限公司 声音信号的处理方法、装置和交互智能设备

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105225668B (zh) * 2013-05-30 2017-05-10 华为技术有限公司 信号编码方法及设备
GB2532041B (en) * 2014-11-06 2019-05-29 Imagination Tech Ltd Comfort noise generation
US10410398B2 (en) * 2015-02-20 2019-09-10 Qualcomm Incorporated Systems and methods for reducing memory bandwidth using low quality tiles
CA3045515A1 (en) * 2016-01-03 2017-07-13 Auro Technologies Nv A signal encoder, decoder and methods using predictor models
CN106531175B (zh) * 2016-11-13 2019-09-03 南京汉隆科技有限公司 一种网络话机柔和噪声产生的方法
JP7139628B2 (ja) * 2018-03-09 2022-09-21 ヤマハ株式会社 音処理方法および音処理装置
CN112119457A (zh) * 2018-04-05 2020-12-22 瑞典爱立信有限公司 可截断的预测编码
US10957331B2 (en) 2018-12-17 2021-03-23 Microsoft Technology Licensing, Llc Phase reconstruction in a speech decoder
US10847172B2 (en) * 2018-12-17 2020-11-24 Microsoft Technology Licensing, Llc Phase quantization in a speech encoder
TWI715139B (zh) * 2019-08-06 2021-01-01 原相科技股份有限公司 聲音播放裝置及其透過遮噪音訊遮蓋干擾音之方法
CN112906157A (zh) * 2021-02-20 2021-06-04 南京航空航天大学 一种主轴轴承健康状态评估及剩余寿命预测方法及装置

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1194553A (zh) * 1996-11-14 1998-09-30 诺基亚流动电话有限公司 在不连续传输期间的安慰噪声参数的发送
US5960389A (en) 1996-11-15 1999-09-28 Nokia Mobile Phones Limited Methods for generating comfort noise during discontinuous transmission
JP3464371B2 (ja) * 1996-11-15 2003-11-10 ノキア モービル フォーンズ リミテッド 不連続伝送中に快適雑音を発生させる改善された方法
FR2761512A1 (fr) 1997-03-25 1998-10-02 Philips Electronics Nv Dispositif de generation de bruit de confort et codeur de parole incluant un tel dispositif
DE19730130C2 (de) * 1997-07-14 2002-02-28 Fraunhofer Ges Forschung Verfahren zum Codieren eines Audiosignals
US6163608A (en) * 1998-01-09 2000-12-19 Ericsson Inc. Methods and apparatus for providing comfort noise in communications systems
US6782361B1 (en) * 1999-06-18 2004-08-24 Mcgill University Method and apparatus for providing background acoustic noise during a discontinued/reduced rate transmission mode of a voice transmission system
KR100348899B1 (ko) * 2000-09-19 2002-08-14 한국전자통신연구원 캡스트럼 분석을 이용한 하모닉 노이즈 음성 부호화기 및부호화 방법
US6947888B1 (en) 2000-10-17 2005-09-20 Qualcomm Incorporated Method and apparatus for high performance low bit-rate coding of unvoiced speech
US6631139B2 (en) * 2001-01-31 2003-10-07 Qualcomm Incorporated Method and apparatus for interoperability between voice transmission systems during speech inactivity
US6708147B2 (en) * 2001-02-28 2004-03-16 Telefonaktiebolaget Lm Ericsson(Publ) Method and apparatus for providing comfort noise in communication system with discontinuous transmission
US20030093270A1 (en) * 2001-11-13 2003-05-15 Domer Steven M. Comfort noise including recorded noise
US8767974B1 (en) * 2005-06-15 2014-07-01 Hewlett-Packard Development Company, L.P. System and method for generating comfort noise
CN101193090B (zh) * 2006-11-27 2011-12-28 华为技术有限公司 信号处理方法及其装置
CN101627426B (zh) * 2007-03-05 2013-03-13 艾利森电话股份有限公司 用于控制稳态背景噪声的平滑的方法和设备
CN101303855B (zh) * 2007-05-11 2011-06-22 华为技术有限公司 一种舒适噪声参数产生方法和装置
CN102760441B (zh) * 2007-06-05 2014-03-12 华为技术有限公司 一种背景噪声编码/解码装置、方法和通信设备
CN101335003B (zh) * 2007-09-28 2010-07-07 华为技术有限公司 噪声生成装置、及方法
CN101651752B (zh) * 2008-03-26 2012-11-21 华为技术有限公司 解码的方法及装置
CN101335000B (zh) * 2008-03-26 2010-04-21 华为技术有限公司 编码的方法及装置
GB2466675B (en) * 2009-01-06 2013-03-06 Skype Speech coding
CN102136271B (zh) * 2011-02-09 2012-07-04 华为技术有限公司 舒适噪声生成器、方法及回声抵消装置
EP2676267B1 (en) 2011-02-14 2017-07-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoding and decoding of pulse positions of tracks of an audio signal
WO2012110482A2 (en) * 2011-02-14 2012-08-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Noise generation in audio codecs
KR102052144B1 (ko) 2011-10-24 2019-12-05 엘지전자 주식회사 음성 신호의 대역 선택적 양자화 방법 및 장치
CN103093756B (zh) * 2011-11-01 2015-08-12 联芯科技有限公司 舒适噪声生成方法及舒适噪声生成器
CN102664003B (zh) * 2012-04-24 2013-12-04 南京邮电大学 基于谐波加噪声模型的残差激励信号合成及语音转换方法
CN103680509B (zh) * 2013-12-16 2016-04-06 重庆邮电大学 一种语音信号非连续传输及背景噪声生成方法
GB2532041B (en) * 2014-11-06 2019-05-29 Imagination Tech Ltd Comfort noise generation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110289009A (zh) * 2019-07-09 2019-09-27 广州视源电子科技股份有限公司 声音信号的处理方法、装置和交互智能设备
CN110289009B (zh) * 2019-07-09 2021-06-15 广州视源电子科技股份有限公司 声音信号的处理方法、装置和交互智能设备

Also Published As

Publication number Publication date
US20170018277A1 (en) 2017-01-19
EP3131094A4 (en) 2017-05-10
CN104978970A (zh) 2015-10-14
ES2798310T3 (es) 2020-12-10
CN104978970B (zh) 2019-02-12
US9728195B2 (en) 2017-08-08
KR101868926B1 (ko) 2018-06-19
EP3671737A1 (en) 2020-06-24
KR102132798B1 (ko) 2020-07-10
US10134406B2 (en) 2018-11-20
WO2015154397A1 (zh) 2015-10-15
KR20190060887A (ko) 2019-06-03
US20170323648A1 (en) 2017-11-09
US20190057704A1 (en) 2019-02-21
EP3131094B1 (en) 2020-04-22
KR20160125481A (ko) 2016-10-31
JP6636574B2 (ja) 2020-01-29
KR20180066283A (ko) 2018-06-18
KR102217709B1 (ko) 2021-02-18
JP2017510859A (ja) 2017-04-13
EP3131094A1 (en) 2017-02-15
JP6368029B2 (ja) 2018-08-01
US10734003B2 (en) 2020-08-04

Similar Documents

Publication Publication Date Title
JP6636574B2 (ja) 雑音信号処理方法、雑音信号生成方法、符号化器、および、復号化器
RU2752127C2 (ru) Усовершенствованный квантователь
JP5752134B2 (ja) 最適化された低スループットパラメトリック符号化/復号化
RU2740359C2 (ru) Звуковые кодирующее устройство и декодирующее устройство
WO2019193173A1 (en) Truncateable predictive coding
BR112014021054A2 (pt) controle de coerência de fase para sinais harmônicos nos codecs de áudio perceptuais
JP2016508618A (ja) 周波数領域におけるlpc系符号化のための低周波数エンファシス
DK2697795T3 (en) ADAPTIVE SHARING Gain / FORM OF INSTALLMENTS
KR102052144B1 (ko) 음성 신호의 대역 선택적 양자화 방법 및 장치
KR101387808B1 (ko) 가변 비트율을 갖는 잔차 신호 부호화를 이용한 고품질 다객체 오디오 부호화 및 복호화 장치
KR101786863B1 (ko) 고 주파수 복원 알고리즘들을 위한 주파수 대역 테이블 설계
JP7258936B2 (ja) 快適雑音生成モード選択のための装置および方法
Geiser et al. Binaural wideband telephony using steganography

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180802

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191218

R150 Certificate of patent or registration of utility model

Ref document number: 6636574

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250