JP2016505902A - 第1の符号化アルゴリズム及び第2の符号化アルゴリズムのうちの1つを選択するための装置及び方法 - Google Patents

第1の符号化アルゴリズム及び第2の符号化アルゴリズムのうちの1つを選択するための装置及び方法 Download PDF

Info

Publication number
JP2016505902A
JP2016505902A JP2015554187A JP2015554187A JP2016505902A JP 2016505902 A JP2016505902 A JP 2016505902A JP 2015554187 A JP2015554187 A JP 2015554187A JP 2015554187 A JP2015554187 A JP 2015554187A JP 2016505902 A JP2016505902 A JP 2016505902A
Authority
JP
Japan
Prior art keywords
estimated
encoding algorithm
speech signal
encoding
weighted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015554187A
Other languages
English (en)
Other versions
JP6148810B2 (ja
Inventor
エマニュエル ラヴェリー、
エマニュエル ラヴェリー、
シュティファン デーラ、
シュティファン デーラ、
ギヨーム フックス、
ギヨーム フックス、
エレーニ フォトプール、
エレーニ フォトプール、
クリスティアン ヘルムリヒ、
クリスティアン ヘルムリヒ、
Original Assignee
フラウンホーファーゲゼルシャフトツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー.
フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホーファーゲゼルシャフトツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー., フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. filed Critical フラウンホーファーゲゼルシャフトツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー.
Publication of JP2016505902A publication Critical patent/JP2016505902A/ja
Application granted granted Critical
Publication of JP6148810B2 publication Critical patent/JP6148810B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/125Pitch excitation, e.g. pitch synchronous innovation CELP [PSI-CELP]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Abstract

音声信号の部分を符号化するための第1の特性を有する第1の符号化アルゴリズム及び第2の特性を有する第2の符号化アルゴリズムのうちの1つを選択することによってこの音声信号の部分を符号化したものを得るための装置であって、第1の符号化アルゴリズムを用いて音声信号の部分を実際に符号化及び復号することなく第1の符号化アルゴリズムに関連付けられた音声信号の部分についての第1の品質測定値を推定するための第1推定部を備える。第2の符号化アルゴリズムを用いて音声信号の部分を実際に符号化及び復号することなく第2の符号化アルゴリズムに関連付けられた音声信号の部分についての第2の品質測定値を推定するための第2推定部が設けられる。当該装置は、第1の品質測定値及び第2の品質測定値の比較に基づいて第1の符号化アルゴリズム又は第2の符号化アルゴリズムを選択するための制御部を備える。【選択図】図1

Description

本発明は、音声符号化に関するものであり、特に、音声信号における異なる部分について異なる符号化アルゴリズムを用いて符号化信号を生成する切り替え音声符号化に関するものである。
音声信号における異なる部分について異なる符号化アルゴリズムを決定する切り替え音声コーダが知られている。一般的に、切り替え音声コーダは、2つの異なるモード、即ちアルゴリズム、例えばACELP(代数コード励振線形予測)及びTCX(変換符号化励振)、の間での切り替えを可能にする。
MPEG USAC(MPEG統一スピーチ音声符号化)のLPDモードは、ACELP及びTCXという2つの異なるモードに基づく。ACELPでは、スピーチ的及びトランジェント的な信号(speech-like and transient-like signal)において良好な品質が得られる。TCXでは、音楽的及びノイズ的な信号(music-like and noise-like signal)において良好な品質が得られる。エンコーダは、フレームごとにどのモードを用いるかを決定する。エンコーダによって行われる決定は、コーデック品質のために極めて重要である。1つの誤った決定でも、特に低ビットレートで、強いアーティファクトを生じる場合がある。
どのモードを用いるかを決定するための最も簡単な方策として閉ループモード選択があり、即ち、両方のモードにおける完全な符号化・復号を実行し、それから、音声信号及び符号化・復号後の音声信号に基づいて両方のモードについての選択基準(例えばセグメントSNR(segmental SNR))を計算し、最後に、選択された基準に基づいてモードを選択する。この方策では、一般的に、安定したロバストな決定が得られる。しかしながら、両方のモードを各々のフレームにおいて実行しなければならないため、必然的にかなりの複雑度を伴う。
複雑度を低減させるために、代替的な方策として開ループモード選択がある。開ループ選択は、両方のモードにおける完全な符号化・復号を実行するのではなく、低複雑度で計算された選択基準を用いて1モードを選択することからなる。そうすると、最悪の場合の複雑度は、最低複雑度モード(通常はTCX)の複雑度から、選択基準の計算に必要な複雑度を減じた分だけ低減される。複雑度における節約は通常かなりのものであるため、コーデックの最悪の場合の複雑度が窮屈な場合にこの種の方策は魅力的である。
AMR−WB+規格(2004年12月の国際規格3GPP TS 26.290 V6.1.0において規定されている)は、80msフレームにおけるACELP/TCX20/TCX40/TCX80の全ての組み合わせの間から決定するために用いられる開ループモード選択を含む。これは3GPP TS 26.290の5.2.4節に記載されている。これはまた、マキネン(Makinen)他による会議論文「モバイル及びマルチメディアにおける低複雑度音声符号化(Low Complex Audio Encoding for Mobile, Multimedia)」、VTC2006年、及び、この会議論文の著者に対する米国特許第7,747,430号及び米国特許第7,739,120号に記載されている。
米国特許第7,747,430号においては、長期間の予測パラメータの分析に基づく開ループモード選択が開示されている。米国特許第7,739,120号においては、音声信号のそれぞれの部分における音声コンテンツの種類を示す信号特性に基づく開ループモード選択が開示されており、このような選択の実現性がない場合には、この選択は更に、それぞれの隣接する部分について実行される統計的評価に基づく。
AMR−WB+の開ループモード選択は、2つの主要なステップで説明することができる。第1の主要なステップにおいては、音声信号についていくつかの特徴が算出される。これらの特徴としては、例えば、エネルギーレベルの標準偏差、低周波・高周波エネルギー関係、合計エネルギー、ISP(イミタンススペクトル対)距離、ピッチラグ及びゲイン、スペクトルチルトなどが挙げられる。次に、これらの特徴を用い、単純な閾値ベースの分類子を用いてACELP及びTCX間の選択を行う。第1の主要なステップでTCXが選択された場合、第2の主要なステップにおいて、閉ループの態様でTCX20/TCX40/TCX80の可能な組み合わせの間での選択を行う。
国際公開第2012/110448号パンフレットにおいては、音声信号のトランジェント検出結果及び品質結果に基づいて異なる特性を有する2つの符号化アルゴリズム間で選択するための方策が開示されている。これに加えて、ヒステリシスを適用することが開示されており、このヒステリシスは、過去において、即ち音声信号におけるより早い部分について行われた選択に応じたものとなっている。
マキネン他による会議論文「モバイル及びマルチメディアにおける低複雑度音声符号化」、VTC2006年、においては、AMR−WB+の閉ループ及び開ループモード選択が比較される。主観的な聴取実験から、閉ループモード選択よりも開ループモード選択の方が著しく劣悪な性能となることが分かる。しかし、開ループモード選択によって、最悪の場合の複雑度が40%低減されることも示される。
マキネン(Makinen)他による会議論文「モバイル及びマルチメディアにおける低複雑度音声符号化(Low Complex Audio Encoding for Mobile, Multimedia)」、VTC2006年
米国特許第7,747,430号 米国特許第7,739,120号 国際公開第2012/110448号パンフレット
本発明の目的は、良好な性能及び低複雑度で、第1の符号化アルゴリズム及び第2の符号化アルゴリズム間の選択を可能にする向上した方策を提供することである。
この目的は、請求項1に記載の装置、請求項20に記載の方法、及び請求項37に記載のコンピュータプログラムによって達成される。
本発明の実施例は、音声信号の部分を符号化するための第1の特性を有する第1の符号化アルゴリズム及び第2の特性を有する第2の符号化アルゴリズムのうちの1つを選択することによって前記音声信号の部分を符号化したものを得るための装置であって、
前記第1の符号化アルゴリズムを用いて前記音声信号の部分を実際に符号化及び復号することなく前記第1の符号化アルゴリズムに関連付けられた前記音声信号の部分についての第1の品質測定値を推定するための第1推定部と、
前記第2の符号化アルゴリズムを用いて前記音声信号の部分を実際に符号化及び復号することなく前記第2の符号化アルゴリズムに関連付けられた前記音声信号の部分についての第2の品質測定値を推定するための第2推定部と、
前記第1の品質測定値及び前記第2の品質測定値の比較に基づいて前記第1の符号化アルゴリズム又は前記第2の符号化アルゴリズムを選択するための制御部と、を備える装置を提供する。
本発明の実施例は、音声信号の部分を符号化するための第1の特性を有する第1の符号化アルゴリズム及び第2の特性を有する第2の符号化アルゴリズムのうちの1つを選択することによって前記音声信号の部分を符号化したものを得るための方法であって、
前記第1の符号化アルゴリズムを用いて前記音声信号の部分を実際に符号化及び復号することなく前記第1の符号化アルゴリズムに関連付けられた前記音声信号の部分についての第1の品質測定値を推定するステップと、
前記第2の符号化アルゴリズムを用いて前記音声信号の部分を実際に符号化及び復号することなく前記第2の符号化アルゴリズムに関連付けられた前記音声信号の部分についての第2の品質測定値を推定するステップと、
前記第1の品質測定値及び前記第2の品質測定値の比較に基づいて前記第1の符号化アルゴリズム又は前記第2の符号化アルゴリズムを選択するステップと、を備える方法を提供する。
本発明の実施例は、第1及び第2の符号化アルゴリズムの各々についての品質測定値を推定し、この第1及び第2の品質測定値間の比較に基づいて符号化アルゴリズムのうちの1つを選択することによって、性能の向上した開ループ選択が実現され得るという認識に基づいている。品質測定値は推定されるのであり、即ち、品質測定値を得るために音声信号を実際に符号化及び復号することはない。従って、複雑度を低減させながら品質測定値を得ることができる。そして、推定された品質測定値を用いて、閉ループモード選択と同様にモード選択を実行することができる。
本発明の実施例においては、ACELP及びTCXのセグメントSNRを低複雑度で推定する開ループモード選択が実現される。そして、これら推定されたセグメントSNR値を用いて、閉ループモード選択と同様にモード選択が実行される。
本発明の実施例は、AMR−WB+の開ループモード選択で行われるような古典的特徴+分類子の方策を採用するものではない。その代わりに、本発明の実施例は、各々のモードの品質測定値を推定し、最良の品質をもたらすモードを選択することを試みるものである。
以下、本発明の実施例について、添付の図面を参照してより詳細に説明する。
図1は、第1の符号化アルゴリズム及び第2の符号化アルゴリズムのうちの1つを選択するための装置の一実施例を示す模式図である。 図2は、音声信号を符号化するための装置の一実施例を示す模式図である。 図3は、第1の符号化アルゴリズム及び第2の符号化アルゴリズムのうちの1つを選択するための装置の一実施例を示す模式図である。 SNRの可能な表現を示す図である。 セグメントSNRの可能な表現を示す図である。
以下の説明においては、異なる図における同様の要素・ステップは、同じ参照符号で呼ぶものとする。各図においては、信号接続など本発明の理解に必要でない特徴は省略している。
図1は、音声信号の部分を符号化するためのエンコーダとして、第1の符号化アルゴリズム、例えばTCXアルゴリズム、及び第2の符号化アルゴリズム、例えばACELPアルゴリズム、のうちの1つを選択するための装置10を示す。装置10は、当該信号部分についての第1の品質測定値を推定するための第1の推定部12を含む。第1の品質測定値は、第1の符号化アルゴリズムに関連付けられる。換言すると、第1の推定部12は、第1の符号化アルゴリズムを用いて音声信号の部分を実際に符号化及び復号することなく、仮に第1の符号化アルゴリズムを用いて符号化及び復号された場合に当該音声信号の部分が有するであろう第1の品質測定値を推定する。装置10は、当該信号部分についての第2の品質測定値を推定するための第2の推定部14を含む。第2の品質測定値は、第2の符号化アルゴリズムに関連付けられる。換言すると、第2の推定部14は、第2の符号化アルゴリズムを用いて音声信号の部分を実際に符号化及び復号することなく、仮に第2の符号化アルゴリズムを用いて符号化及び復号された場合に当該音声信号の部分が有するであろう第2の品質測定値を推定する。更に、装置10は、第1の品質測定値及び第2の品質測定値間の比較に基づいて第1の符号化アルゴリズム又は第2の符号化アルゴリズムを選択するための制御部16を含む。制御部は、選択された符号化アルゴリズムを示す出力部18を含み得る。
一実施例においては、第1の符号化アルゴリズムに関連付けられた第1の特性は、音楽的及びノイズ的な信号に対してより好適であり、第2の符号化アルゴリズムに関連付けられた第2の符号化特性は、スピーチ的及びトランジェント的な信号に対してより好適である。本発明の実施例においては、第1の符号化アルゴリズムは、音声符号化アルゴリズム、例えば変換符号化アルゴリズム、例えばMDCT(modified discrete cosine transform:修正離散余弦変換)符号化アルゴリズム、例えばTCX(transform coding excitation: 変換符号化励振)符号化アルゴリズムである。他の変換符号化アルゴリズムが、FFT変換又は他の変換若しくはフィルタバンクに基づいていてもよい。本発明の実施例においては、第2の符号化アルゴリズムは、スピーチ符号化アルゴリズム、例えばCELP(code excited linear prediction:コード励振線形予測)符号化アルゴリズム、例えばACELP(algebraic code excited linear prediction:代数コード励振線形予測)符号化アルゴリズムである。
実施例においては、品質測定値は、知覚的な品質測定値を表す。第1の符号化アルゴリズムの主観的な品質の推定値である単一の値と、第2の符号化アルゴリズムの主観的な品質の推定値である単一の値とを計算することができる。これら2つの値の比較に基づいて、最良の推定主観的品質をもたらす符号化アルゴリズムを選ぶことができる。これはAMR−WB+規格で行われるものとは異なっている。後者においては、信号についての様々な異なる特性を表す多数の特徴を計算し、それから分類子を適用して、どのアルゴリズムを選ぶべきかを決定していた。
実施例においては、重み付き音声信号、即ち音声信号を重み付けしたものの部分に基づいてそれぞれの品質測定値を推定する。実施例においては、重み付き音声信号は、重み付け関数によってフィルタリングされた音声信号として定義することができ、ここで、重み付け関数は、重み付きLPCフィルタA(z/g)であり、A(z)はLPCフィルタ、gは0.68といった0と1との間の重みである。このようにして知覚的な品質の良好な測定値を得ることができることが判明した。なお、LPCフィルタA(z)及び重み付きLPCフィルタA(z/g)は、前処理の段階で決定され、これらは両方の符号化アルゴリズムにおいても用いられる。他の実施例においては、重み付け関数は、線形フィルタ、FIRフィルタ又は線形予測フィルタであっても良い。
実施例においては、品質測定値は、重み付き信号領域におけるセグメントSNR(信号対ノイズ比)である。重み付き信号領域におけるセグメントSNRは、知覚的な品質の良好な測定値を表し、従って有益な態様で品質測定値として用いることができることが判明した。これはまた、符号化パラメータを推定するためにACELP及びTCXの両方の符号化アルゴリズムにおいて用いられる品質測定値である。
別の品質測定値として、重み付き信号領域におけるSNRがある。他の品質測定値としては、セグメントSNR、重み付けされない信号領域における、即ち(重み付き)LPC係数によってフィルタリングされていない音声信号の対応の部分のSNRがあり得る。他の品質測定値としては、ケプストラム歪み又はノイズ対マスク比(NMR)があり得る。
一般的に、SNRは、元の音声信号及び処理された音声信号(例えばスピーチ信号)をサンプルごとに比較する。その目的は、入力波形を再現する波形コーダの歪みを測定することである。SNRは図5aに示すように算出することができ、ここで、x(i)及びy(i)は、iのインデックスを付した元のサンプル及び処理されたサンプルであり、Nは、サンプルの合計数である。セグメントSNRは、信号全体に対して働く代わりに、短いセグメントのSNR値の平均値、例えば1〜10ms、例えば5ms、を算出する。SNRは、図5bに示すように算出することができ、N及びMは、それぞれセグメント長及びセグメント数である。
本発明の実施例においては、当該音声信号の部分は、音声信号を窓掛けする(window)ことで得られる音声信号のフレームを表し、音声信号を窓掛けすることによって得られる複数の連続したフレームについて適切な符号化アルゴリズムの選択を実行する。以下、本願明細書においては、音声信号に関し、「部分」及び「フレーム」の用語は交換可能な態様で用いる。実施例においては、各々のフレームはサブフレームに分割され、各々のサブフレームについてのSNRをdBに換算して算出し、dBでのサブフレームSNRの平均値を算出することでセグメントSNRを各々のフレームについて推定する。
従って、実施例においては、推定されるのは、入力音声信号と復号された音声信号との(セグメントの)SNRではなく、重み付けされた入力音声信号と重み付けされた復号音声信号との(セグメントの)SNRを推定する。この(セグメントの)SNRに関する限り、AMR−WB+規格(2004年12月の国際規格3GPP TS 26.290 V6.1.0)の5.2.3章を参照することができる。
本発明の実施例においては、重み付き音声信号の部分のエネルギーと、当該信号部分をそれぞれのアルゴリズムで符号化した際に導入される推定歪みとに基づいて、それぞれの品質測定値を推定し、ここで、第1及び第2の推定部は、重み付き音声信号のエネルギーに依存する推定歪みを決定するように構成される。
本発明の実施例においては、当該音声信号の部分を量子化する際に第1の符号化アルゴリズムにおいて用いられる量子化器によって導入される推定量子化器歪みを決定し、重み付き音声信号の部分のエネルギーと、推定量子化器歪みとに基づいて第1の品質測定値を決定する。このような実施例においては、第1の符号化アルゴリズムで用いられる量子化器及びエントロピーエンコーダによって符号化された際に音声信号の部分が所与の目標ビットレートをもたらすように音声信号の部分についてのグローバルゲインを推定することができ、ここで、推定された量子化器歪みは、推定グローバルゲインに基づいて決定される。このような実施例においては、推定された量子化器歪みは、推定されたゲインのパワーに基づいて決定することができる。第1の符号化アルゴリズムにおいて用いられる量子化器が一様スカラ量子化器である場合、第1の推定部は、D=GG/12の式を用いて推定量子化器歪みを決定するように構成することができ、ここで、Dは、推定された量子化器歪みであり、Gは、推定されたグローバルゲインである。第1の符号化アルゴリズムが別の量子化器を用いた場合、量子化器歪みは、異なる態様でグローバルゲインから決定しても良い。
発明者等は、TCXアルゴリズムといった第1の符号化アルゴリズムを用いて音声信号の部分を符号化及び復号した時に得られるセグメントSNRといった品質測定値は、上述の特徴を任意の組み合わせで用いることによって適切な態様で推定することができることを認識するに至った。
本発明の実施例においては、第1の品質測定値は、セグメントSNRであり、セグメントSNRを推定するには、音声信号の部分における複数のサブ部分の各々に関連付けられた推定SNRを、重み付き音声信号の対応のサブ部分のエネルギーと、推定された量子化器歪みとに基づいて算出し、重み付き音声信号の部分におけるサブ部分に関連付けられたSNRの平均を算出することで、重み付き音声信号の部分についての推定セグメントSNRを得る。
本発明の実施例においては、適応コードブック(adaptive codebook)を用いて音声信号の部分を符号化する際に第2の符号化アルゴリズムにおいて用いられる適応コードブックによって導入される推定適応コードブック歪みを決定し、重み付き音声信号の部分のエネルギーと、推定適応コードブック歪み(estimated adaptive codebook distortion)とに基づいて第2の品質測定値を推定する。
このような実施例においては、音声信号の部分における複数のサブ部分の各々について、重み付き音声信号のサブ部分を、前処理の段階で決定されたピッチラグの分だけ過去へずらしたものに基づいて、適応コードブックを近似することができ、重み付き音声信号の部分のサブ部分と、近似された適応コードブックとの誤差が最小になるように適応コードブックゲインを推定することができ、重み付き音声信号の部分のサブ部分と、適応コードブックゲインでスケーリング(scale)した近似適応コードブックとの誤差のエネルギーに基づいて推定適応コードブック歪みを決定することができる。
本発明の実施例においては、音声信号の部分の各サブ部分について決定される推定適応コードブック歪みを一定の因数だけ減少させることによって、第2の符号化アルゴリズムにおける新規コードブックによって達成される歪みの減少を考慮することができる。
本発明の実施例においては、第2の品質測定値は、セグメントSNRであり、セグメントSNRを推定するには、各々のサブ部分に関連付けられた推定SNRを、重み付き音声信号の対応のサブ部分のエネルギーと、推定された適応コードブック歪みとに基づいて算出し、サブ部分に関連付けられたSNRの平均を算出することで、推定セグメントSNRを得る。
本発明の実施例においては、重み付き音声信号の部分を、前処理の段階で決定されたピッチラグの分だけ過去へずらしたものに基づいて、適応コードブックを近似し、重み付き音声信号の部分と、近似された適応コードブックとの誤差が最小になるように適応コードブックゲインを推定し、重み付き音声信号の部分と、適応コードブックゲインでスケーリングした近似適応コードブックとの間のエネルギーに基づいて推定適応コードブック歪みを決定する。これにより、推定適応コードブック歪みを低複雑度で決定することができる。
発明者等は、ACELPアルゴリズムといった第2の符号化アルゴリズムを用いて音声信号の部分を符号化及び復号した時に得られるセグメントSNRといった品質測定値は、上述の特徴を任意の組み合わせで用いることによって適切な態様で推定することができることを認識するに至った。
本発明の実施例においては、推定品質測定値同士の比較においてヒステリシスメカニズムを用いる。これによって、どのアルゴリズムを用いるべきかの決定をより安定したものにすることができる。ヒステリシスメカニズムは、推定品質測定値(例えばこれらの間の差)及びその他のパラメータ、例えば、以前の決定についての統計値、一時的定常フレームの数、フレームにおけるトランジェント等に依存し得る。このようなヒステリシスメカニズムに関する限り、例えば国際公開第2012/110448号パンフレットを参照することができる。
本発明の実施例においては、音声信号を符号化するためのエンコーダは、装置10、第1の符号化アルゴリズムを実行するためのステージ、及び第2の符号化アルゴリズムを実行するためのステージを含み、エンコーダは、制御部16による選択に応じて、第1の符号化アルゴリズム又は第2の符号化アルゴリズムを用いて音声信号の部分を符号化するように構成される。本発明の実施例においては、符号化及び復号するためのシステムは、音声信号の部分を符号化したものと、アルゴリズムであって、それを用いて音声信号の部分を符号化し且つ音声信号の部分を符号化したものを復号するために用いられるアルゴリズムの指示とを受け取るように構成されたエンコーダ及びデコーダを含む。
図3を参照して第1の推定部12及び第2の推定部14の実施例を詳細に説明する前に、図2を参照してエンコーダ20の実施例を説明する。
エンコーダ20は、第1の推定部12、第2の推定部14、制御部16、前処理部22、スイッチ24、TCXアルゴリズムを実行するように構成された第1のエンコーダステージ26、ACELPアルゴリズムを実行するように構成された第2のエンコーダステージ28、及び出力インターフェース30を含む。前処理部22は、共通のUSACエンコーダの一部であっても良く、LPC係数、重み付きLPC係数、重み付き音声信号、及び1組のピッチラグを出力するように構成され得る。なお、これらのパラメータ全ては、両方の符号化アルゴリズム、即ちTCXアルゴリズム及びACELPアルゴリズムにおいて用いられる。これにより、このようなパラメータは、追加的に開ループモード決定のために計算される必要がない。既に計算されたパラメータを開ループモード決定において用いることには、複雑度を節約するという利点がある。
入力ラインに対して入力音声信号40が出力される。入力音声信号40は、第1の推定部12、前処理部22及び両方のエンコーダステージ26,28に入力される。前処理部22は、入力された音声信号を従来の態様で処理し、LPC係数と、重み付きLPC係数42とを導き出し、重み付きLPC係数42で音声信号40をフィルタリングして重み付き音声信号44を得る。前処理部22は、重み付きLPC係数42、重み付き音声信号44、及び1組のピッチラグ48を出力する。当業者であれば理解できるように、重み付きLPC係数42及び重み付き音声信号44は、フレーム又はサブフレームへとセグメント化され得る。このセグメント化は、適切な態様で音声信号を窓掛けすることで得ることができる。
本発明の実施例においては、量子化されたLPC係数又は量子化された重み付きLPC係数を用いることができる。従って、「LPC係数」という用語は、「量子化されたLPC係数」をも含むことを意図したものであり、「重み付きLPC係数」という用語は、「重み付きの量子化されたLPC係数」をも含むことを意図したものであることが理解される。これに関連して、USACのTCXアルゴリズムは、量子化された重み付きLPC係数を用いてMCDTスペクトルを形状付けることに注目することが有益である。
第1の推定部12は、音声信号40、重み付きLPC係数42、及び重み付き音声信号44を受け取り、これらに基づいて第1の品質測定値46を推定し、第1の品質測定値を制御部16に出力する。第2の推定部16は、重み付き音声信号44及び1組のピッチラグ48を受け取り、これらに基づいて第2の品質測定値50を推定し、第2の品質測定値50を制御部16に出力する。当業者には分かるように、重み付きLPC係数42、重み付き音声信号44、及び1組のピッチラグ48は、これに先立つモジュール(即ち前処理部22)で既に計算されており、コストなしで利用可能である。
制御部は、受け取った品質測定値同士の比較に基づいて、TCXアルゴリズム又はACELPアルゴリズムを選択する決定を行う。上述のように、制御部は、どのアルゴリズムを用いるかを決定する際にヒステリシスメカニズムを用いることができる。第1のエンコーダステージ26又は第2のエンコーダステージ28の選択は、図2においては、制御部16により出力される制御信号52によって制御されるスイッチ24として模式的に示している。制御信号52は、第1のエンコーダステージ26又は第2のエンコーダステージ28のいずれを用いるべきかを示す。制御信号52に基づいて、図2において矢印54で模式的に示す必要な信号(少なくともLPC係数、重み付きLPC係数、音声信号、重み付き音声信号、1組のピッチラグを含む)を、第1のエンコーダステージ26又は第2のエンコーダステージ28のいずれかに入力する。選択されたエンコーダステージは、関連付けられた符号化アルゴリズムを適用し、符号化された表現56又は58を出力インターフェース30に出力する。出力インターフェース30は、符号化された音声信号を出力するように構成することができ、この符号化された音声信号は、他のデータに加えて、符号化された表現56又は58、LPC係数又は重み付きLPC係数、選択された符号化アルゴリズムについてのパラメータ、及び選択された符号化アルゴリズムについての情報を含むことができる。
次に、第1及び第2の品質測定値が、重み付き信号領域におけるセグメントSNRである、第1及び第2の品質測定値を推定するための特定の実施例について図3を参照しながら説明する。図3は、第1の推定部12及び第2の推定部14並びにその機能を、それぞれの推定をステップごとに示すフローチャートの形で示す。
TCXセグメントSNRの推定
第1の(TCX)推定部は、音声信号40(入力信号)、重み付きLPC係数42及び重み付き音声信号44を入力として受け取る。
ステップ100において、音声信号40を窓掛けする窓を取る。この窓掛けするステップは、10ms低重複正弦窓によって行うことができる。過去のフレームがACELPである場合、ブロックサイズは5msだけ増大させることができ、窓の左側は矩形とすることができ、ACELP合成フィルタの窓掛けされたゼロインパルス応答を窓掛けされた入力信号から除去することができる。これはTCXアルゴリズムにおいて行われるものと同様である。音声信号の部分を表す音声信号40のフレームがステップ100から出力される。
ステップ102において、窓掛けされた音声信号、即ち結果として得られるフレームを、MDCT(修正離散余弦変換)によって変換する。ステップ104において、重み付きLPC係数によってMDCTスペクトルを形状付けることによってスペクトル形状付けを行う。
ステップ106において、グローバルゲインGが、エントロピーコーダ、例えば算術コーダで符号化された際にゲインGで量子化された重み付きスペクトルが所与の目標Rをもたらすように推定される。1つのゲインがフレーム全体について決定されることから、「グローバルゲイン」という用語を用いる。
次に、グローバルゲイン推定の一実現例について説明する。このグローバルゲイン推定は、TCX符号化アルゴリズムが、算術エンコーダを伴うスカラ量子化器を用いる実施例において適当である。このような算術エンコーダを伴うスカラ量子化器がMPEG USAC規格において想定されている。
初期化
まず、ゲイン推定で用いられる変数を以下のように初期化する。
1.en[i]=9.0+10.0log10(c[4i+0]+c[4i+1]+c[4i+2]+c[4i+3])を設定する。
ここで、0<=i<L/4であり、c[]は、量子化されるべき係数のベクトルであり、Lは、c[]の長さである。
2.fac=128、オフセット=fac、及び、目標=任意の値(例えば1000)を設定する。
繰り返し
次に、以下の動作ブロックをNITER回(例えば、ここではNITER=10)だけ実行する。
1.fac=fac/2
2.オフセット=オフセット−fac
3.ener=0
4.i(0<=i<L/4)につき以下を行う。
en[i]−オフセット>3.0であれば、ener=ener+en[i]−オフセット
5.ener>目標であれば、オフセット=オフセット+fac
繰り返しの結果がオフセット値である。繰り返しの後、グローバルゲインは、G=10^(オフセット/20)と推定される。
グローバルゲインを推定する特定の態様は、用いられる量子化器及びエントロピーコーダに応じて変わり得る。MPEG USAC規格においては、算術エンコーダを伴うスカラ量子化器が想定されている。他のTCX方策では異なる量子化器を用いても良く、当業者であれば、そのような異なる量子化器のためのグローバルゲインをどのように推定するかを理解できる。例えば、AMR−WB+規格では、RE8格子量子化器の使用を想定している。そのような量子化器については、2004年12月の3GPP TS 26.290 V6.1.0の34頁の5.3.5.7章に記載されたようにグローバルゲインの推定値を推定することができ、ここでは固定目標ビットレートが想定されている。
ステップ106にてグローバルゲインを推定した後、ステップ108において歪み推定を行う。より具体的には、推定されたグローバルゲインに基づいて量子化器歪みを近似する。本実施例においては、一様スカラ量子化器を用いるものとする。そうすると、D=GG/12という単純な式で量子化器歪みが決定され、ここで、Dは、決定された量子化器歪みを表し、Gは、推定されたグローバルゲインを表す。これは、一様スカラ量子化器歪みの高レートの近似に対応する。
決定された量子化器歪みに基づいて、ステップ110においてセグメントSNR算出を実行する。フレームにおける各々のサブフレームにおけるSNRは、重み付き音声信号エネルギーと、サブフレームにおいて一定であると想定される歪みDとの比として算出される。例えば、フレームを4つの連続したサブフレームに分割する(図4を参照)。この場合、セグメントSNRは、4つのサブフレームのSNRの平均値であり、dBで示すことができる。
この方策によって、TCXアルゴリズムを用いて対象のフレームを実際に符号化及び復号した際に得られるであろう第1のセグメントSNRを推定することが可能となり、しかも音声信号を実際に符号化及び復号する必要がないため、複雑度が大幅に低減され、計算時間が短縮される。
ACELPセグメントSNRの推定
第2の推定部14は、前処理部22で既に計算された、重み付き音声信号44及び1組のピッチラグ48を受け取る。
ステップ112に示すように、各々のサブフレームにおいて、重み付き音声信号及びピッチラグTを単純に用いて適応コードブックを近似する。適応コードブックは、
xw(n−T),n=0,…,N
で近似され、ここでxwは、重み付き音声信号であり、Tは、対応のサブフレームのピッチラグであり、Nは、サブフレーム長である。従って、適応コードブックは、サブフレームをTだけ過去へずらしたものを用いることで近似される。このように、本発明の実施例においては、適応コードブックは極めて単純な態様で近似される。
ステップ114において、各々のサブフレームについての適応コードブックゲインを決定する。より具体的には、各々のサブフレームにおいて、コードブックゲインGは、重み付き音声信号と近似されて適応コードブックとの誤差を最小限にするように推定される。これは、単純に、各々のサンプルについての両方の信号間の差を比較し、これらの差の合計が最小になるようなゲインを求めることによって行うことができる。
ステップ116において、各々のサブフレームについての適応コードブック歪みを決定する。各々のサブフレームにおいて、適応コードブックによって導入された歪みDは、単純に、重み付き音声信号と、ゲインGでスケーリングされた近似適応コードブックとの誤差のエネルギーである。
ステップ116において決定される歪みを、任意のステップ118において調節することで新規コードブックを考慮することができる。ACELPアルゴリズムで用いられる新規コードブックの歪みは、単純に一定の値として推定することができる。本発明の記載の実施例においては、単純に、新規コードブックが一定の因数だけ歪みDを減少させると想定される。従って、各々のサブフレームについてステップ116において得られる歪みは、ステップ118において、一定の因数、例えば0〜1のオーダの一定の因数、例えば0.055によって乗算することができる。
ステップ120において、セグメントSNRの計算を行う。各々のサブフレームにおいて、SNRは、重み付き音声信号エネルギーと歪みDとの比として算出される。この場合、セグメントSNRは、4つのサブフレームのSNRの平均値であり、dBで示すことができる。
この方策によって、ACELPアルゴリズムを用いて対象のフレームを実際に符号化及び復号した際に得られるであろう第2のSNRを推定することが可能となり、しかも音声信号を実際に符号化及び復号する必要がないため、複雑度が大幅に低減され、計算時間が短縮される。
第1の推定部12及び第2の推定部14は、推定されたセグメントSNR46,50を制御部16に出力し、制御部16は、推定されたセグメントSNR46,50に基づいて、音声信号における関連付けられた部分についてどのアルゴリズムを用いるべきかの決定を行う。制御部は、ヒステリシスメカニズムを任意に用いることで決定をより安定したものにすることができる。例えば、閉ループ決定におけるのと同じヒステリシスメカニズムを僅かに異なる調整パラメータとともに用いても良い。このようなヒステリシスメカニズムは、「dsnr」の値を計算するものとすることができ、この値は、推定されたセグメントSNR(例えばこれらの間の差)及びその他のパラメータ、例えば以前の決定についての統計値、一時的定常フレームの数、フレームにおけるトランジェント等に依存し得る。
ヒステリシスメカニズムを用いない場合、制御部は、より高い推定SNRを有する符号化アルゴリズムを選択することができ、即ち、第2の推定SNRが第1の推定SNRよりも高い場合にはACELPが選択され、第1の推定SNRが第2の推定SNRよりも高い場合にはTCXが選択される。ヒステリシスメカニズムを用いる場合、制御部は、以下の決定規則に従って符号化アルゴリズムを選択することができ、ここで、acelp_snrは、第2の推定SNRであり、tcx_snrは、第1の推定SNRである。
acelp_snr+dsnr>tcx_snrであればACELPを選択し、そうでなければTCXを選択する。
従って、本発明の実施例によって、単純で正確な態様で、セグメントSNRを推定して適切な符号化アルゴリズムを選択することが可能になる。
上述の実施例においては、セグメントのSNRは、それぞれのサブフレームについて推定されたSNRの平均値を算出することで推定される。代替的な実施例では、フレームをサブフレームに分割することなくフレーム全体のSNRを推定しても良い。
本発明の実施例によって、閉ループ選択において必要な或る数のステップが省略されるため、閉ループ選択と比べて計算時間を大幅に短縮することが可能になる。
従って、本発明の方策によって、適切な符号化アルゴリズムを良好な性能を伴って選択することを可能にしながら、多数のステップ及びそれに関連した計算時間を節約することができる。
装置の説明でいくつかの局面を記載したが、これらの局面は対応の方法の記載をも表すものであり、ブロック又は装置は、方法ステップ又は方法ステップの特徴に対応することは明らかである。同様に、方法ステップの文脈で記載した局面は、対応の装置の対応のブロック若しくは項目又は特徴の記載をも表す。
本願明細書に記載された装置の実施例及びその特徴は、記載された機能を提供するように構成又はプログラムされたコンピュータ、1つ以上のプロセッサ、1つ以上のマイクロプロセッサ、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)等、又はそれらの組み合わせによって実現することができる。
方法ステップのいくつか又は全ては、ハードウェア装置、例えば、マイクロプロセッサ、プログラム可能コンピュータ又は電子回路によって(又はこれらを用いて)実行され得る。いくつかの実施例においては、最も重要な方法ステップの1つ以上が、そのような装置によって実行され得る。
特定の実現要件に応じて、本発明の実施例はハードウェア又はソフトウェアによって実現され得る。その実現は、非一時的記憶媒体、例えば、デジタル記憶媒体、例えばフロッピーディスク、DVD,ブルーレイ、CD、ROM、PROM及びEPROM、EEPROM又はフラッシュメモリであって、電子的に読み出し可能な制御信号を格納しており、プログラム可能なコンピュータシステムと協働する(又は協働可能である)ことによりそれぞれの方法が実行されるようにするものを用いて実行され得る。従って、デジタル記憶媒体は、コンピュータ読み取り可能であり得る。
本発明のいくつかの実施例は、プログラム可能なコンピュータシステムと協働可能であることによって本願明細書に記載の方法の1つが実行されるようにする、電子的に読み出し可能な制御信号を有するデータキャリアを含む。
一般的には、本発明の実施例は、プログラムコードを有するコンピュータプログラム製品であって、このコンピュータプログラム製品がコンピュータにおいて実行されるときに上記プログラムコードが上記方法の1つを実行するように動作するものとして実現され得る。プログラムコードは、例えば、機械読み取り可能キャリアに格納され得る。
他の実施例は、機械読み取り可能キャリアに格納された、本願明細書に記載の方法の1つを実行するためのコンピュータプログラムを含む。
従って、換言すると、本発明の方法の一実施例は、コンピュータプログラムであって、このコンピュータプログラムがコンピュータにおいて実行されるときに、本願明細書に記載の方法の1つを実行するためのプログラムコードを有するものである。
従って、本発明の方法の更なる実施例は、データキャリア(又はデジタル記憶媒体若しくはコンピュータ読み取り可能媒体)であって、そこに記録された、本願明細書に記載の方法の1つを実行するためのコンピュータプログラムを含むものである。データキャリア、デジタル記憶媒体又は記録された媒体は、典型的には、タンジブル及び/又は非一時的である。
従って、本発明の方法の更なる実施例は、本願明細書に記載の方法の1つを実行するためのコンピュータプログラムを表すデータストリーム又は信号シーケンスである。データストリーム又は信号シーケンスは、例えば、インターネットを介したデータ通信接続を介して転送されるように構成され得る。
更なる実施例は、本願明細書に記載の方法の1つを実行するように構成又はプログラムされた処理手段、例えばコンピュータ又はプログラム可能論理装置を含む。
更なる実施例は、本願明細書に記載の方法の1つを実行するためのコンピュータプログラムをインストールしたコンピュータを含む。
本発明の更なる実施例は、本願明細書に記載の方法の1つを実行するためのコンピュータプログラムを受信機へ(例えば電子的又は光学的に)転送するように構成された装置又はシステムを含む。受信機は、例えば、コンピュータ、移動機器、メモリデバイス等であり得る。装置又はシステムは、例えば、コンピュータプログラムを受信機へ転送するためのファイルサーバを含み得る。
いくつかの実施例においては、プログラム可能論理装置(例えば、フィールドプログラマブルゲートアレイ)を用いて、本願明細書に記載の方法におけるいくつか又は全ての機能を実行しても良い。いくつかの実施例においては、フィールドプログラマブルゲートアレイは、マイクロプロセッサと協働して、本願明細書に記載の方法の1つを実行しても良い。一般的に、当該方法は、どのようなハードウェア装置によって実行されても良い。
上述の各実施例は、単に本発明の原理を例示するものである。本願明細書に記載の構成及び詳細を変更及び変形したものが当業者には明らかであることが理解される。従って、本願明細書における各実施例の記載及び説明として提示された特定の詳細によってではなく、添付の特許請求の範囲によってのみ限定されることが意図される。
一般的に、SNRは、元の音声信号及び処理された音声信号(例えばスピーチ信号)をサンプルごとに比較する。その目的は、入力波形を再現する波形コーダの歪みを測定することである。SNRは図4Aに示すように算出することができ、ここで、x(i)及びy(i)は、iのインデックスを付した元のサンプル及び処理されたサンプルであり、Nは、サンプルの合計数である。セグメントSNRは、信号全体に対して働く代わりに、短いセグメントのSNR値の平均値、例えば1〜10ms、例えば5ms、を算出する。SNRは、図4Bに示すように算出することができ、N及びMは、それぞれセグメント長及びセグメント数である。

Claims (37)

  1. 音声信号(40)の部分を符号化するための第1の特性を有する第1の符号化アルゴリズム及び第2の特性を有する第2の符号化アルゴリズムのうちの1つを選択することによって前記音声信号(40)の部分を符号化したものを得るための装置(10)であって、
    前記第1の符号化アルゴリズムを用いて前記音声信号の部分を実際に符号化及び復号することなく前記第1の符号化アルゴリズムに関連付けられた前記音声信号の部分についての第1の品質測定値を推定するための第1推定部(12)と、
    前記第2の符号化アルゴリズムを用いて前記音声信号の部分を実際に符号化及び復号することなく前記第2の符号化アルゴリズムに関連付けられた前記音声信号の部分についての第2の品質測定値を推定するための第2推定部(14)と、
    前記第1の品質測定値及び前記第2の品質測定値の比較に基づいて前記第1の符号化アルゴリズム又は前記第2の符号化アルゴリズムを選択するための制御部(16)と、を備える、装置。
  2. 請求項1に記載の装置(10)であって、前記第1の符号化アルゴリズムは、音楽的及びノイズ的な信号に対してより好適な符号化アルゴリズムであり、前記第2の符号化アルゴリズムは、スピーチ的及びトランジェント的な信号に対してより好適な符号化アルゴリズムである、装置。
  3. 請求項2に記載の装置(10)であって、前記第1の符号化アルゴリズムは、変換符号化アルゴリズム、MDCT(修正離散余弦変換)ベースの符号化アルゴリズム又はTCX(変換符号化励振)符号化アルゴリズムであり、前記第2の符号化アルゴリズムは、CELP(コード励振線形予測)符号化アルゴリズム又はACELP(代数符号励振線形予測)符号化アルゴリズムである、装置。
  4. 請求項1から請求項3のうちの1つに記載の装置(10)であって、前記第1の推定部及び前記第2の推定部は、前記音声信号を重み付けしたものの部分に基づいてそれぞれの前記品質測定値を推定するように構成される、装置。
  5. 請求項1から請求項4のうちの1つに記載の装置(10)であって、前記第1の品質測定値及び前記第2の品質測定値は、前記音声信号を重み付けしたものの部分のSNR(信号対ノイズ比)又はセグメントSNRである、装置。
  6. 請求項1から請求項5のうちの1つに記載の装置(10)であって、前記第1の推定部(12)及び前記第2の推定部(14)は、前記音声信号を重み付けしたものの部分のエネルギーに基づき、且つ、それぞれの前記アルゴリズムによって前記信号部分を符号化した際に導入される推定歪みに基づいて、それぞれの前記品質測定値を推定するように構成され、前記第1の推定部(12)及び前記第2の推定部(14)は、前記音声信号を重み付けしたものの部分のエネルギーに応じて前記推定歪みを決定するように構成される、装置。
  7. 請求項1から請求項6のうちの1つに記載の装置(10)であって、前記第1の推定部(12)は、前記音声信号の部分を量子化した際に前記第1の符号化アルゴリズムにおいて用いられる量子化器が導入するであろう推定量子化器歪みを決定し、前記音声信号を重み付けしたものの部分のエネルギー及び前記推定量子化器歪みに基づいて前記第1の品質測定値を推定するように構成される、装置。
  8. 請求項7に記載の装置(10)であって、前記第1の推定部(12)は、前記第1の符号化アルゴリズムにおいて用いられる量子化器及びエントロピーコーダで符号化された際に前記音声信号の部分が所与の目標ビットレートをもたらすように前記音声信号の部分についてのグローバルゲインを推定するように構成され、第1の推定部(12)は更に、前記推定グローバルゲインに基づいて前記推定量子化器歪みを決定するように構成される、装置。
  9. 請求項8に記載の装置(10)であって、前記第1の推定部(12)は、前記推定グローバルゲインのパワーに基づいて前記推定量子化器歪みを決定するように構成される、装置。
  10. 請求項9に記載の装置(10)であって、前記第1の符号化アルゴリズムにおいて用いられる量子化器は、一様スカラ量子化器であり、前記第1の推定部(12)は、D=GG/12の式を用いて前記推定量子化器歪みを決定するように構成され、ここで、Dは、推定量子化器歪みであり、Gは、推定グローバルゲインである、装置。
  11. 請求項7から請求項10のうちの1つに記載の装置(10)であって、前記第1の品質測定値は、前記重み付き音声信号の部分のセグメントSNRであり、前記第1の推定部(12)は、前記重み付き音声信号の部分における複数のサブ部分の各々に関連付けられた推定SNRを、前記重み付き音声信号における対応のサブ部分のエネルギー及び前記推定量子化器歪みに基づいて算出し、前記重み付き音声信号の部分のサブ部分に関連付けられたSNRの平均値を算出することによって前記セグメントSNRを推定して前記重み付き音声信号の部分についての推定セグメントSNRを得るように構成される、装置。
  12. 請求項1から請求項11のうちの1つに記載の装置(10)であって、前記第2の推定部(14)は、適応コードブックを用いて前記音声信号の部分を符号化した際に前記第2の符号化アルゴリズムにおいて用いられる前記適応コードブックが導入するであろう推定適応コードブック歪みを決定するように構成され、前記第2の推定部(14)は、前記音声信号を重み付けしたものの部分のエネルギー及び前記推定適応コードブック歪みに基づいて前記第2の品質測定値を推定するように構成される、装置。
  13. 請求項12に記載の装置(10)であって、前記音声信号の部分における複数のサブ部分の各々について、前記第2の推定部(14)は、前記重み付き音声信号のサブ部分を、前処理段階で決定されたピッチラグだけ過去へずらしたものに基づいて前記適応コードブックを近似し、前記重み付き音声信号の部分のサブ部分と近似適応コードブックとの誤差が最小になるように適応コードブックゲインを推定し、前記重み付き音声信号の部分のサブ部分と、前記適応コードブックゲインによってスケーリングされた近似適応コードブックとの誤差のエネルギーに基づいて前記推定適応コードブック歪みを決定するように構成される、装置。
  14. 請求項13に記載の装置(10)であって、前記第2の推定部(14)は、更に、前記音声信号の部分における各々のサブ部分について決定された推定適応コードブック歪みを、一定の因数だけ減少させるように構成される、装置。
  15. 請求項13又は請求項14に記載の装置(10)であって、前記第2の品質測定値は、前記重み付き音声信号の部分のセグメントSNRであり、前記第2の推定部(14)は、各々のサブ部分に関連付けられた推定SNRを、前記重み付き音声信号における対応のサブ部分のエネルギー及び前記推定適応コードブック歪みに基づいて算出し、前記サブ部分に関連付けられたSNRの平均値を算出することによって前記セグメントSNRを推定して前記重み付き音声信号の部分についての推定セグメントSNRを得るように構成される、装置。
  16. 請求項12に記載の装置(10)であって、前記第2の推定部(14)は、前記重み付き音声信号の部分を、前処理段階で決定されたピッチラグだけ過去へずらしたものに基づいて前記適応コードブックを近似し、前記重み付き音声信号の部分と近似適応コードブックとの誤差が最小になるように適応コードブックゲインを推定し、前記重み付き音声信号の部分と、前記適応コードブックゲインによってスケーリングされた近似適応コードブックとの誤差のエネルギーに基づいて前記推定適応コードブック歪みを決定するように構成される、装置。
  17. 請求項1から請求項16のうちの1つに記載の装置(10)であって、前記制御部(16)は、前記推定品質測定値同士を比較する際にヒステリシスを利用するように構成される、装置。
  18. 音声信号の部分を符号化するための装置(20)であって、請求項1から請求項17のうちの1つに記載の装置(10)と、前記第1の符号化アルゴリズムを実行するための第1のエンコーダステージ(26)と、前記第2の符号化アルゴリズムを実行するための第2のエンコーダステージ(28)と、を備え、前記符号化するための装置(20)は、前記制御部(16)による選択に応じて前記第1の符号化アルゴリズム又は前記第2の符号化アルゴリズムを用いて前記音声信号の部分を符号化するように構成される、符号化するための装置。
  19. 符号化及び復号するためのシステムであって、請求項18に記載の符号化するための装置(20)と、デコーダと、を備え、前記デコーダは、前記音声信号の部分を符号化したものと、アルゴリズムであって、それを用いて前記音声信号の部分を符号化し且つ前記音声信号の部分を符号化したものを復号するために用いられるアルゴリズムの指示とを受け取るように構成される、システム。
  20. 音声信号の部分を符号化するための第1の特性を有する第1の符号化アルゴリズム及び第2の特性を有する第2の符号化アルゴリズムのうちの1つを選択することによって前記音声信号の部分を符号化したものを得るための方法であって、
    前記第1の符号化アルゴリズムを用いて前記音声信号の部分を実際に符号化及び復号することなく前記第1の符号化アルゴリズムに関連付けられた前記音声信号の部分についての第1の品質測定値を推定するステップと、
    前記第2の符号化アルゴリズムを用いて前記音声信号の部分を実際に符号化及び復号することなく前記第2の符号化アルゴリズムに関連付けられた前記音声信号の部分についての第2の品質測定値を推定するステップと、
    前記第1の品質測定値及び前記第2の品質測定値の比較に基づいて前記第1の符号化アルゴリズム又は前記第2の符号化アルゴリズムを選択するステップと、を備える、方法。
  21. 請求項20に記載の方法であって、前記第1の符号化アルゴリズムは、音楽的及びノイズ的な信号に対してより好適な符号化アルゴリズムであり、前記第2の符号化アルゴリズムは、スピーチ的及びトランジェント的な信号に対してより好適な符号化アルゴリズムである、方法。
  22. 請求項21に記載の方法であって、前記第1の符号化アルゴリズムは、変換符号化アルゴリズム、MDCT(修正離散余弦変換)ベースの符号化アルゴリズム又はTCX(変換符号化励振)符号化アルゴリズムであり、前記第2の符号化アルゴリズムは、CELP(符号励振線形予測)符号化アルゴリズム又はACELP(代数符号励振線形予測)符号化アルゴリズムである、方法。
  23. 請求項20から請求項22のうちの1つに記載の方法であって、前記第1の品質測定値及び前記第2の品質測定値は、前記音声信号を重み付けしたものの部分に基づいて推定される、方法。
  24. 請求項20から請求項23のうちの1つに記載の方法であって、前記第1の品質測定値及び前記第2の品質測定値は、前記音声信号を重み付けしたものの部分のSNR(信号対ノイズ比)又はセグメントSNRである、方法。
  25. 請求項20から請求項24のうちの1つに記載の方法であって、前記音声信号を重み付けしたものの部分のエネルギーに基づき、且つ、それぞれの前記アルゴリズムによって前記信号部分を符号化した際に導入される推定歪みに基づいて、それぞれの前記品質測定値を推定するステップと、前記音声信号を重み付けしたものの部分のエネルギーに応じて前記推定歪みを決定するステップ(108,116)と、を備える、方法。
  26. 請求項20から請求項25のうちの1つに記載の方法であって、前記音声信号の部分を量子化した際に前記第1の符号化アルゴリズムにおいて用いられる量子化器が導入するであろう推定量子化器歪みを決定するステップ(108)と、前記音声信号を重み付けしたものの部分のエネルギー及び前記推定量子化器歪みに基づいて前記品質測定値を推定するステップと、を備える、方法。
  27. 請求項26に記載の方法であって、前記第1の符号化アルゴリズムにおいて用いられる量子化器及びエントロピーコーダで符号化された際に前記音声信号の部分が所与の目標ビットレートをもたらすように前記音声信号の部分についてのグローバルゲインを推定するステップ(106)と、前記推定グローバルゲインに基づいて前記推定量子化器歪みを決定するステップ(108)と、を備える、方法。
  28. 請求項27に記載の方法であって、前記推定グローバルゲインのパワーに基づいて前記推定量子化器歪みを決定するステップを備える、方法。
  29. 請求項28に記載の方法であって、前記量子化器は、一様スカラ量子化器であり、前記推定量子化器歪みは、D=GG/12の式を用いて決定され、ここで、Dは、推定量子化器歪みであり、Gは、推定グローバルゲインである、方法。
  30. 請求項26から請求項29のうちの1つに記載の方法であって、前記第1の品質測定値は、前記重み付き音声信号の部分のLPCフィルタリングしたもののセグメントSNRであり、前記方法は、前記重み付き音声信号の部分における複数のサブ部分の各々に関連付けられた推定SNRを、前記重み付き音声信号における対応のサブ部分のエネルギー及び前記推定量子化器歪みに基づいて算出し、前記重み付き音声信号の部分のサブ部分に関連付けられたSNRの平均値を算出することによって第1のセグメントSNRを推定して前記重み付き音声信号の部分についての推定セグメントSNRを得るステップを備える、方法。
  31. 請求項20から請求項30のうちの1つに記載の方法であって、適応コードブックを用いて前記音声信号の部分を符号化した際に前記第2の符号化アルゴリズムにおいて用いられる適応コードブックが導入するであろう推定適応コードブック歪みを決定するステップ(116)と、前記音声信号を重み付けしたものの部分のエネルギー及び前記推定適応コードブック歪みに基づいて前記第2の品質測定値を推定するステップと、を備える、方法。
  32. 請求項31に記載の方法であって、前記音声信号の部分における複数のサブ部分の各々について、前記重み付き音声信号のサブ部分を、前処理段階で決定されたピッチラグだけ過去へずらしたものに基づいて前記適応コードブックを近似するステップ(112)と、前記重み付き音声信号の部分のサブ部分と近似適応コードブックとの誤差が最小になるように適応コードブックゲインを推定するステップ(114)と、前記重み付き音声信号の部分のサブ部分と、前記適応コードブックゲインによってスケーリングされた近似適応コードブックとの誤差のエネルギーに基づいて前記推定適応コードブック歪みを決定するステップ(116)と、を備える、方法。
  33. 請求項32に記載の方法であって、前記音声信号の部分における各々のサブ部分について決定された推定適応コードブック歪みを、一定の因数だけ減少させるステップ(118)を備える、方法。
  34. 請求項32又は請求項33に記載の方法であって、前記第2の品質測定値は、前記重み付き音声信号の部分のセグメントSNRであり、前記方法は、各々のサブ部分に関連付けられた推定SNRを、前記重み付き音声信号における対応のサブ部分のエネルギー及び前記推定適応コードブック歪みに基づいて推定し、前記サブ部分に関連付けられたSNRの平均値を算出することによって前記セグメントSNRを推定して前記重み付き音声信号の部分についての推定セグメントSNRを得るステップを備える、方法。
  35. 請求項31に記載の方法であって、前記重み付き音声信号の部分を、前処理段階で決定されたピッチラグだけ過去へずらしたものに基づいて前記適応コードブックを近似するステップと、前記重み付き音声信号の部分と近似適応コードブックとの誤差が最小になるように適応コードブックゲインを推定するステップと、前記重み付き音声信号の部分と、前記適応コードブックゲインによってスケーリングされた近似適応コードブックとの誤差のエネルギーに基づいて前記推定適応コードブック歪みを決定するステップと、を備える、方法。
  36. 請求項20から請求項35のうちの1つに記載の方法であって、前記推定品質測定値同士を比較する際にヒステリシスを利用するステップを備える、方法。
  37. コンピュータにおいて実行された際に請求項20から請求項36のうちの1つに記載の方法を実行するためのプログラムコードを有するコンピュータプログラム。
JP2015554187A 2013-01-29 2014-01-28 第1の符号化アルゴリズム及び第2の符号化アルゴリズムのうちの1つを選択するための装置及び方法 Active JP6148810B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361758100P 2013-01-29 2013-01-29
US61/758,100 2013-01-29
PCT/EP2014/051557 WO2014118136A1 (en) 2013-01-29 2014-01-28 Apparatus and method for selecting one of a first audio encoding algorithm and a second audio encoding algorithm

Publications (2)

Publication Number Publication Date
JP2016505902A true JP2016505902A (ja) 2016-02-25
JP6148810B2 JP6148810B2 (ja) 2017-06-14

Family

ID=50033499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015554187A Active JP6148810B2 (ja) 2013-01-29 2014-01-28 第1の符号化アルゴリズム及び第2の符号化アルゴリズムのうちの1つを選択するための装置及び方法

Country Status (19)

Country Link
US (4) US20150332698A1 (ja)
EP (1) EP2951820B1 (ja)
JP (1) JP6148810B2 (ja)
KR (1) KR101701081B1 (ja)
CN (2) CN110517700B (ja)
AR (1) AR094676A1 (ja)
AU (1) AU2014211583B2 (ja)
BR (1) BR112015018021B1 (ja)
CA (1) CA2899013C (ja)
ES (1) ES2616434T3 (ja)
HK (1) HK1218461A1 (ja)
MX (1) MX347410B (ja)
MY (1) MY189267A (ja)
PL (1) PL2951820T3 (ja)
PT (1) PT2951820T (ja)
RU (1) RU2618848C2 (ja)
SG (1) SG11201505947XA (ja)
TW (1) TWI549120B (ja)
WO (1) WO2014118136A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021521476A (ja) * 2018-04-11 2021-08-26 ドルビー ラボラトリーズ ライセンシング コーポレイション 機械学習に基づく音声符号化及び復号のための知覚に基づく損失関数

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2951820B1 (en) * 2013-01-29 2016-12-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for selecting one of a first audio encoding algorithm and a second audio encoding algorithm
EP2830051A3 (en) 2013-07-22 2015-03-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder, methods and computer program using jointly encoded residual signals
CN105096958B (zh) 2014-04-29 2017-04-12 华为技术有限公司 音频编码方法及相关装置
PT3000110T (pt) 2014-07-28 2017-02-15 Fraunhofer Ges Forschung Seleção de um de entre um primeiro algoritmo de codificação e um segundo algoritmo de codificação com o uso de redução de harmônicos.
JP2016218345A (ja) * 2015-05-25 2016-12-22 ヤマハ株式会社 音素材処理装置および音素材処理プログラム
WO2017050398A1 (en) * 2015-09-25 2017-03-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoder, decoder and methods for signal-adaptive switching of the overlap ratio in audio transform coding
US10225730B2 (en) * 2016-06-24 2019-03-05 The Nielsen Company (Us), Llc Methods and apparatus to perform audio sensor selection in an audience measurement device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012110448A1 (en) * 2011-02-14 2012-08-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for coding a portion of an audio signal using a transient detection and a quality result

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1408146A (zh) 2000-11-03 2003-04-02 皇家菲利浦电子有限公司 音频信号的参数编码
US6934676B2 (en) * 2001-05-11 2005-08-23 Nokia Mobile Phones Ltd. Method and system for inter-channel signal redundancy removal in perceptual audio coding
DE10124420C1 (de) * 2001-05-18 2002-11-28 Siemens Ag Verfahren zur Codierung und zur Übertragung von Sprachsignalen
DE102004007200B3 (de) * 2004-02-13 2005-08-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audiocodierung
CA2457988A1 (en) * 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
FI118835B (fi) 2004-02-23 2008-03-31 Nokia Corp Koodausmallin valinta
FI119533B (fi) * 2004-04-15 2008-12-15 Nokia Corp Audiosignaalien koodaus
JP2007538282A (ja) * 2004-05-17 2007-12-27 ノキア コーポレイション 各種の符号化フレーム長でのオーディオ符号化
US7739120B2 (en) 2004-05-17 2010-06-15 Nokia Corporation Selection of coding models for encoding an audio signal
CN101124626B (zh) * 2004-09-17 2011-07-06 皇家飞利浦电子股份有限公司 用于最小化感知失真的组合音频编码
US20090063158A1 (en) 2004-11-05 2009-03-05 Koninklijke Philips Electronics, N.V. Efficient audio coding using signal properties
EP1990799A1 (en) * 2006-06-30 2008-11-12 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Audio encoder, audio decoder and audio processor having a dynamically variable warping characteristic
US7873511B2 (en) * 2006-06-30 2011-01-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder and audio processor having a dynamically variable warping characteristic
US7953595B2 (en) 2006-10-18 2011-05-31 Polycom, Inc. Dual-transform coding of audio signals
JP4984983B2 (ja) * 2007-03-09 2012-07-25 富士通株式会社 符号化装置および符号化方法
US8527265B2 (en) * 2007-10-22 2013-09-03 Qualcomm Incorporated Low-complexity encoding/decoding of quantized MDCT spectrum in scalable speech and audio codecs
EP2144230A1 (en) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
EP2146344B1 (en) 2008-07-17 2016-07-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoding/decoding scheme having a switchable bypass
KR101649376B1 (ko) * 2008-10-13 2016-08-31 한국전자통신연구원 Mdct 기반 음성/오디오 통합 부호화기의 lpc 잔차신호 부호화/복호화 장치
WO2011048118A1 (en) * 2009-10-20 2011-04-28 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Audio signal encoder, audio signal decoder, method for providing an encoded representation of an audio content, method for providing a decoded representation of an audio content and computer program for use in low delay applications
WO2012032759A1 (ja) * 2010-09-10 2012-03-15 パナソニック株式会社 符号化装置及び符号化方法
EP2951820B1 (en) * 2013-01-29 2016-12-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for selecting one of a first audio encoding algorithm and a second audio encoding algorithm
PT3000110T (pt) * 2014-07-28 2017-02-15 Fraunhofer Ges Forschung Seleção de um de entre um primeiro algoritmo de codificação e um segundo algoritmo de codificação com o uso de redução de harmônicos.

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012110448A1 (en) * 2011-02-14 2012-08-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for coding a portion of an audio signal using a transient detection and a quality result

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021521476A (ja) * 2018-04-11 2021-08-26 ドルビー ラボラトリーズ ライセンシング コーポレイション 機械学習に基づく音声符号化及び復号のための知覚に基づく損失関数
JP7387634B2 (ja) 2018-04-11 2023-11-28 ドルビー ラボラトリーズ ライセンシング コーポレイション 機械学習に基づく音声符号化及び復号のための知覚に基づく損失関数

Also Published As

Publication number Publication date
RU2618848C2 (ru) 2017-05-12
CN110517700B (zh) 2023-06-09
AU2014211583A1 (en) 2015-09-17
US20230079574A1 (en) 2023-03-16
US20200227059A1 (en) 2020-07-16
AR094676A1 (es) 2015-08-19
US20190103121A1 (en) 2019-04-04
JP6148810B2 (ja) 2017-06-14
MY189267A (en) 2022-01-31
CN105229736B (zh) 2019-07-19
BR112015018021A2 (ja) 2017-07-11
US20150332698A1 (en) 2015-11-19
KR101701081B1 (ko) 2017-01-31
TWI549120B (zh) 2016-09-11
US11521631B2 (en) 2022-12-06
CN105229736A (zh) 2016-01-06
SG11201505947XA (en) 2015-09-29
CA2899013A1 (en) 2014-08-07
HK1218461A1 (zh) 2017-02-17
PL2951820T3 (pl) 2017-06-30
BR112015018021B1 (pt) 2022-10-11
MX2015009745A (es) 2015-11-06
WO2014118136A1 (en) 2014-08-07
US10622000B2 (en) 2020-04-14
EP2951820B1 (en) 2016-12-07
AU2014211583B2 (en) 2017-01-05
PT2951820T (pt) 2017-03-02
RU2015136467A (ru) 2017-03-07
CN110517700A (zh) 2019-11-29
TW201434037A (zh) 2014-09-01
ES2616434T3 (es) 2017-06-13
US11908485B2 (en) 2024-02-20
CA2899013C (en) 2017-11-07
EP2951820A1 (en) 2015-12-09
MX347410B (es) 2017-04-26
KR20150108848A (ko) 2015-09-30

Similar Documents

Publication Publication Date Title
US11908485B2 (en) Apparatus and method for selecting one of a first encoding algorithm and a second encoding algorithm
US10706865B2 (en) Apparatus and method for selecting one of a first encoding algorithm and a second encoding algorithm using harmonics reduction
JP5914527B2 (ja) 過渡検出及び品質結果を使用してオーディオ信号の一部分を符号化する装置及び方法
CA2910878C (en) Apparatus and method for selecting one of a first encoding algorithm and a second encoding algorithm using harmonics reduction

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170520

R150 Certificate of patent or registration of utility model

Ref document number: 6148810

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250