JP6373873B2 - 線形予測コーディングにおける適応型フォルマントシャープニングのためのシステム、方法、装置、及びコンピュータによって読み取り可能な媒体 - Google Patents
線形予測コーディングにおける適応型フォルマントシャープニングのためのシステム、方法、装置、及びコンピュータによって読み取り可能な媒体 Download PDFInfo
- Publication number
- JP6373873B2 JP6373873B2 JP2015555166A JP2015555166A JP6373873B2 JP 6373873 B2 JP6373873 B2 JP 6373873B2 JP 2015555166 A JP2015555166 A JP 2015555166A JP 2015555166 A JP2015555166 A JP 2015555166A JP 6373873 B2 JP6373873 B2 JP 6373873B2
- Authority
- JP
- Japan
- Prior art keywords
- filter
- codebook vector
- speech signal
- signal
- formant sharpening
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 152
- 230000003044 adaptive effect Effects 0.000 title claims description 16
- 239000013598 vector Substances 0.000 claims description 143
- 230000005284 excitation Effects 0.000 claims description 85
- 238000003786 synthesis reaction Methods 0.000 claims description 66
- 230000015572 biosynthetic process Effects 0.000 claims description 64
- 230000004044 response Effects 0.000 claims description 53
- 230000005236 sound signal Effects 0.000 claims description 53
- 238000012545 processing Methods 0.000 claims description 47
- 238000004458 analytical method Methods 0.000 claims description 27
- 230000007774 longterm Effects 0.000 claims description 21
- 238000001914 filtration Methods 0.000 claims description 11
- 230000007704 transition Effects 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 8
- 238000010295 mobile communication Methods 0.000 claims 11
- 238000004891 communication Methods 0.000 description 35
- 238000010586 diagram Methods 0.000 description 30
- 230000005540 biological transmission Effects 0.000 description 15
- 238000003491 array Methods 0.000 description 11
- 230000003595 spectral effect Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 9
- 238000001228 spectrum Methods 0.000 description 9
- 230000001360 synchronised effect Effects 0.000 description 9
- 238000013139 quantization Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000006872 improvement Effects 0.000 description 5
- 230000000737 periodic effect Effects 0.000 description 5
- 230000015556 catabolic process Effects 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 238000006731 degradation reaction Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000001755 vocal effect Effects 0.000 description 4
- 101000666657 Homo sapiens Rho-related GTP-binding protein RhoQ Proteins 0.000 description 3
- 102100038339 Rho-related GTP-binding protein RhoQ Human genes 0.000 description 3
- 230000001934 delay Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 239000000835 fiber Substances 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 210000001260 vocal cord Anatomy 0.000 description 3
- 102000003729 Neprilysin Human genes 0.000 description 2
- 108090000028 Neprilysin Proteins 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 230000005055 memory storage Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 238000011045 prefiltration Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
- G10L19/265—Pre-filtering, e.g. high frequency emphasis prior to encoding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/06—Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/09—Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L2019/0001—Codebooks
- G10L2019/0011—Long term prediction filters, i.e. pitch estimation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02168—Noise filtering characterised by the method used for estimating noise the estimation exclusively taking place during speech pauses
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Quality & Reliability (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
[0001]本出願は、ここにおける引用によってここにおいて内容全体が明示で組み入れられている、共通所有される米国仮特許出願第61/758,152号(出願日:2013年1月29日)及び米国非仮特許出願第14/026,765号(出願日:2013年9月13日)からの優先権を主張するものである。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1] 音声信号を処理する方法であって、
経時での前記音声信号に関する平均信号対雑音比を決定することと、
前記決定された平均信号対雑音比に基づいて、フォルマントシャープニング率を決定することと、
前記決定されたフォルマントシャープニング率に基づくフィルタを前記音声信号からの情報に基づくコードブックベクトルに適用することと、を備える、方法。
[C2] 前記コードブックベクトルは、ユニタリパルスのシーケンスを備えるC1に記載の方法。
[C3] 複数の線形予測フィルタ係数を入手するために前記音声信号における線形予測コーディング解析を行うことと、
修正されたインパルス応答を入手するために前記決定されたフォルマントシャープニング率に基づく前記フィルタを前記複数の線形予測フィルタ係数に基づくフィルタのインパルス応答に適用することと、をさらに備えるC1に記載の方法。
[C4] 前記複数の線形予測フィルタ係数に基づく前記フィルタは、合成フィルタであるC3に記載の方法。
[C5] 前記合成フィルタは、重み付き合成フィルタであるC4に記載の方法。
[C6] 前記重み付き合成フィルタは、フィードフォワード重みと、フィードバック重みと、を含み、前記フィードフォワード重みは、前記フィードバック重みよりも大きいC5に記載の方法。
[C7] 前記修正されたインパルス応答に基づいて、複数の代数型コードブックベクトルの中から前記コードブックベクトルを選択することをさらに備えるC3に記載の方法。
[C8] 前記決定されたフォルマントシャープニング率に基づく前記フィルタは、ピッチ推定値にも基づくC1に記載の方法。
[C9] 前記決定されたフォルマントシャープニング率に基づく前記フィルタは、
前記決定されたフォルマントシャープニング率に基づくフォルマントシャープニングフィルタと、
ピッチ推定値に基づくピッチシャープニングフィルタと、を備えるC1に記載の方法。
[C10] 前記決定されたフォルマントシャープニング率に基づく前記フィルタは、
フィードフォワード重みと、
前記フィードフォワード重みよりも大きいフィードバック重みと、を備えるC1に記載の方法。
[C11] 前記音声信号の符号化されたバージョンを有する前記フォルマントシャープニングフィルタのインディケーションを復号器に送信することをさらに備えるC1に記載の方法。
[C12] 前記フォルマントシャープニング率の前記インディケーションは、前記音声信号の前記符号化されたバージョンのフレームのパラメータとして送信されるC11に記載の方法。
[C13] 復号器における対応する信号対雑音推定値の実質的に同期のリセットを可能にするリセット基準に従って前記音声信号の信号対雑音推定値をリセットすることをさらに備えるC1に記載の方法。
[C14] 前記信号対雑音推定値をリセットすることは、定期的な間隔で行われるC13に記載の方法。
[C15] 前記信号対雑音推定値をリセットすることは、ある不活動期間後に発生する前記音声信号内の話声セグメントの開始に応答して行われるC13に記載の方法。
[C16] 前記音声信号を符号化することは、高帯域合成のために低帯域励起を用いて帯域幅拡大を行うことを含み、前記低帯域励起のフォルマントシャープニングに起因する高帯域アーティファクトを低減させるために前記フォルマントシャープニング率を変化させることをさらに備えるC1に記載の方法。
[C17] 前記音声信号を符号化することは、高帯域合成のために低帯域励起を用いて帯域幅拡大を行うことを含み、高帯域励起へのフォルマントシャープニング率の貢献をディスエーブルにすることをさらに備えるC1に記載の方法。
[C18] 前記高帯域励起への前記フォルマントシャープニング率の貢献をディスエーブルにすることは、固定型コードブックベクトルのシャープニングされないバージョンを使用することを含むC17に記載の方法。
[C19] 音声信号を処理するための装置であって、
経時での前記音声信号に関する平均信号対雑音比を計算するための手段と、
前記計算された平均信号対雑音比に基づいてフォルマントシャープニング率を計算するための手段と、
前記計算されたフォルマントシャープニング率に基づくフィルタを前記音声信号からの情報に基づくコードブックベクトルに適用するための手段と、を備える、装置。
[C20] 前記コードブックベクトルは、ユニタリパルスのシーケンスを備えるC19に記載の装置。
[C21] 複数の線形予測フィルタ係数を入手するために前記音声信号における線形予測コーディング解析を行うための手段と、
修正されたインパルス応答を入手するために前記計算されたフォルマントシャープニング率に基づく前記フィルタを前記複数の線形予測フィルタ係数に基づくフィルタのインパルス応答に適用するための手段と、をさらに備えるC19に記載の装置。
[C22] 前記複数の線形予測フィルタ係数に基づく前記フィルタは、合成フィルタであるC21に記載の装置。
[C23] 前記修正されたインパルス応答に基づいて複数の代数型コードブックベクトルの中から前記コードブックベクトルを選択するための手段をさらに備えるC21に記載の装置。
[C24] 前記音声信号の符号化されたバージョンを有する前記フォルマントシャープニングフィルタのインディケーションを復号器に送信するための手段をさらに備えるC19に記載の装置。
[C25] 前記フォルマントシャープニング率の前記インディケーションは、前記音声信号の前記符号化されたバージョンのフレームのパラメータとして送信されるC24に記載の装置。
[C26] 復号器における対応する信号対雑音推定値の実質的に同期のリセットを可能にするリセット基準に従って前記音声信号の信号対雑音推定値をリセットするための手段をさらに備えるC19に記載の装置。
[C27] 前記信号対雑音推定値をリセットすることは、定期的な間隔で行われるC26に記載の装置。
[C28] 前記信号対雑音推定値をリセットすることは、ある不活動期間後に発生する前記音声信号内の話声セグメントの開始に応答して行われるC26に記載の装置。
[C29] 前記音声信号を符号化することは、高帯域合成のために低帯域励起を用いて帯域幅拡大を行うことを含み、前記低帯域励起のフォルマントシャープニングに起因する高帯域アーティファクトを低減させるために前記フォルマントシャープニング率を変化させるための手段をさらに備えるC19に記載の装置。
[C30] 前記音声信号を符号化することは、高帯域合成のために低帯域励起を用いて帯域幅拡大を行うことを含み、高帯域励起へのフォルマントシャープニング率の貢献をディスエーブルにするための手段をさらに備えるC19に記載の装置。
[C31] 前記高帯域励起への前記フォルマントシャープニング率の貢献をディスエーブルにするための前記手段は、固定型コードブックベクトルのシャープニングされないバージョンを使用するC30に記載の装置。
[C32] 音声信号を処理する装置であって、
経時での前記音声信号に関する平均信号対雑音比を決定するように構成された第1の計算器と、
前記決定された平均信号対雑音比に基づいてフォルマントシャープニング率を決定するように構成された第2の計算器と、
前記決定されたフォルマントシャープニング率に基づくフィルタと、を備え、前記フィルタは、コードブックベクトルをフィルタリングするために配置され、前記コードブックベクトルは、前記音声信号からの情報に基づく、装置。
[C33] 前記コードブックベクトルは、ユニタリパルスのシーケンスを備えるC32に記載の装置。
[C34] 複数の線形予測フィルタ係数を入手するために前記音声信号における線形予測コーディング解析を行うように構成された線形予測解析器をさらに備え、前記計算されたフォルマントシャープニング率に基づく前記フィルタは、修正されたインパルス応答を入手するために前記複数の線形予測フィルタ係数に基づくフィルタのインパルス応答をフィルタリングするように配置されるC32に記載の装置。
[C35] 前記複数の線形予測フィルタ係数に基づく前記フィルタは、合成フィルタであるC34に記載の装置。
[C36] 前記修正されたインパルス応答に基づいて複数の代数型コードブックベクトルの中から前記コードブックベクトルを選択するように構成された選択器をさらに備えるC34に記載の装置。
[C37] 前記フォルマントシャープニングフィルタのインディケーションは、前記音声信号の符号化されたバージョンともに復号器に送信されるC32に記載の装置。
[C38] 前記フォルマントシャープニング率の前記インディケーションは、前記音声信号の前記符号化されたバージョンのフレームのパラメータとして送信されるC37に記載の装置。
[C39] 前記音声信号の信号対雑音推定値は、復号器における対応する信号対雑音推定値の実質的に同期のリセットを可能にするリセット基準に従ってリセットされるC32に記載の装置。
[C40] 前記信号対雑音推定値をリセットすることは、定期的な間隔で行われるC39に記載の装置。
[C41] 前記信号対雑音推定値をリセットすることは、ある不活動期間後に発生する前記音声信号内の話声セグメントの開始に応答して行われるC39に記載の装置。
[C42] 前記音声信号を符号化することは、高帯域合成のために低帯域励起を用いて帯域幅拡大を行うことを含み、前記フォルマントシャープニング率は、前記低帯域励起のフォルマントシャープニングに起因する高帯域アーティファクトを低減させるために変化されるC32に記載の装置。
[C43] 前記音声信号を符号化することは、高帯域合成のために低帯域励起を用いて帯域幅拡大を行うことを含み、高帯域励起へのフォルマントシャープニング率の貢献がディスエーブルにされるC32に記載の装置。
[C44] 前記高帯域励起への前記フォルマントシャープニング率の貢献は、固定型コードブックベクトルのシャープニングされないバージョンを用いてディスエーブルにされるC43に記載の装置。
[C45] 非一時的なコンピュータによって読み取り可能な媒体であって、
コンピュータによって実行されたときに、
経時での前記音声信号に関する平均信号対雑音比を決定すること、
前記決定された平均信号対雑音比に基づいて、フォルマントシャープニング率を決定すること、及び
前記決定されたフォルマントシャープニング率に基づくフィルタを前記音声信号からの情報に基づくコードブックベクトルに適用することを前記コンピュータに行わせる命令を備える、非一時的なコンピュータによって読み取り可能な媒体。
[C46] 前記決定されたフォルマントシャープニング率に基づく前記フィルタは、ピッチ推定値にも基づくC45に記載のコンピュータによって読み取り可能な媒体。
[C47] 前記決定されたフォルマントシャープニング率に基づく前記フィルタは、
前記決定されたフォルマントシャープニング率に基づくフォルマントシャープニングフィルタと、
ピッチ推定値に基づくピッチシャープニングフィルタと、を備えるC45に記載のコンピュータによって読み取り可能な媒体。
[C48] 前記決定されたフォルマントシャープニング率に基づく前記フィルタは、
フィードフォワード重みと、
前記フィードフォワード重みよりも大きいフィードバック重みと、を備えるC45に記載のコンピュータによって読み取り可能な媒体。
[C49] 前記音声信号の符号化されたバージョンを有する前記フォルマントシャープニングフィルタのインディケーションを復号器に送信することを前記コンピュータに行わせるための命令をさらに備えるC45に記載のコンピュータによって読み取り可能な媒体。
[C50] 前記フォルマントシャープニング率の前記インディケーションは、前記音声信号の前記符号化されたバージョンのフレームのパラメータとして送信されるC49に記載のコンピュータによって読み取り可能な媒体。
[C51] 復号器における対応する信号対雑音推定値の実質的に同期のリセットを可能にするリセット基準に従って前記音声信号の信号対雑音推定値をリセットすることを前記コンピュータに行わせるための命令をさらに備えるC45に記載のコンピュータによって読み取り可能な媒体。
[C52] 前記信号対雑音推定値をリセットすることは、定期的な間隔で行われるC51に記載のコンピュータによって読み取り可能な媒体。
[C53] 前記信号対雑音推定値をリセットすることは、ある不活動期間後に発生する前記音声信号内の話声セグメントの開始に応答して行われるC51に記載のコンピュータによって読み取り可能な媒体。
[C54] 前記音声信号を符号化することは、高帯域合成のために低帯域励起を用いて帯域幅拡大を行うことを含み、前記低帯域励起のフォルマントシャープニングに起因する高帯域アーティファクトを低減させるために前記フォルマントシャープニング率を変化させることを前記コンピュータに行わせるための命令をさらに備えるC45に記載のコンピュータによって読み取り可能な媒体。
[C55] 前記音声信号を符号化することは、高帯域合成のために低帯域励起を用いて帯域幅拡大を行うことを含み、高帯域励起へのフォルマントシャープニング率の貢献をディスエーブルにすることを前記コンピュータに行わせるための命令をさらに備えるC45に記載のコンピュータによって読み取り可能な媒体。
[C56] 前記高帯域励起への前記フォルマントシャープニング率の貢献をディスエーブルにすることは、固定型コードブックベクトルのシャープニングされないバージョンを使用することを含むC55に記載のコンピュータによって読み取り可能な媒体。
[C57] 符号化された音声信号を処理する方法であって、
前記符号化された音声信号の第1のフレームからの情報に基づいて、経時での平均信号対雑音比を決定することと、
前記決定された平均信号対雑音比に基づいて、フォルマントシャープニング率を決定することと、
前記決定されたフォルマントシャープニング率に基づくフィルタを前記符号化された音声信号の第2のフレームからの情報に基づくコードブックベクトルに適用することと、を備える、方法。
[C58] 前記コードブックベクトルは、ユニタリパルスのシーケンスを備えるC57に記載の方法。
[C59] 修正されたインパルス応答を入手するために前記計算されたフォルマントシャープニング率に基づく前記フィルタを複数の線形予測フィルタ係数に基づくフィルタのインパルス応答に適用することをさらに備え、前記複数の線形予測フィルタ係数は、前記符号化された音声信号の前記第2のフレームからの情報に基づくC57に記載の方法。
[C60] 前記複数の線形予測フィルタ係数に基づく前記フィルタは、合成フィルタであるC57に記載の方法。
[C61] 前記合成フィルタは、重み付き合成フィルタであるC60に記載の方法。
[C62] 前記重み付き合成フィルタは、フィードフォワード重みと、フィードバック重みと、を含み、前記フィードフォワード重みは、前記フィードバック重みよりも大きいC61に記載の方法。
[C63] 前記決定されたフォルマントシャープニング率に基づく前記フィルタは、ピッチ推定値にも基づくC57に記載の方法。
[C64] 前記決定されたフォルマントシャープニング率に基づく前記フィルタは、
前記決定されたフォルマントシャープニング率に基づくフォルマントシャープニングフィルタと、
ピッチ推定値に基づくピッチシャープニングフィルタと、を備えるC57に記載の方法。
[C65] 前記決定されたフォルマントシャープニング率に基づく前記フィルタは、
フィードフォワード重みと、
前記決定されたフォルマントシャープニング率に基づく前記フィルタの前記フィードフォワード重みよりも大きいフィードバック重みと、を含むC57に記載の方法。
[C66] 符号器における対応する信号対雑音推定値の実質的に同期のリセットを可能にするリセット基準に従って前記信号対雑音比をリセットすることをさらに備えるC57に記載の方法。
[C67] 前記平均信号対雑音比をリセットすることは、定期的な間隔で行われるC66に記載の方法。
[C68] 前記平均信号対雑音比をリセットすることは、ある不活動期間後に発生する前記音声信号内の話声セグメントの開始に応答して行われるC57に記載の方法。
[C69] 前記符号化された音声信号を処理することは、高帯域合成のために低帯域励起を用いて帯域幅拡大を行うことを含み、前記低帯域励起のフォルマントシャープニングに起因する高帯域アーティファクトを低減させるために前記フォルマントシャープニング率を変化させることをさらに備えるC57に記載の方法。
[C70] 前記符号化された音声信号を処理することは、高帯域合成のために低帯域励起を用いて帯域幅拡大を行うことを含み、高帯域励起へのフォルマントシャープニング率の貢献をディスエーブルにすることをさらに備えるC57に記載の方法。
[C71] 前記高帯域励起への前記フォルマントシャープニング率の貢献をディスエーブルにすることは、固定型コードブックベクトルのシャープニングされないバージョンを使用することを含むC70に記載の方法。
[C72] 符号化された音声信号を処理するための装置であって、
前記符号化された音声信号の第1のフレームからの情報に基づいて、経時での平均信号対雑音比を計算するための手段と、
前記計算された平均信号対雑音比に基づいて、フォルマントシャープニング率を計算するための手段と、
前記計算されたフォルマントシャープニング率に基づくフィルタを前記符号化された音声信号の第2のフレームからの情報に基づくコードブックベクトルに適用するための手段と、を備える、装置。
[C73] 修正されたインパルス応答を入手するために前記計算されたフォルマントシャープニング率に基づく前記フィルタを複数の線形予測フィルタ係数に基づく重み付き合成フィルタのインパルス応答に適用するための手段をさらに備え、前記複数の線形予測フィルタ係数は、前記符号化された音声信号の前記第2のフレームからの情報に基づくC72に記載の装置。
[C74] 符号器における対応する信号対雑音推定値の実質的に同期のリセットを可能にするリセット基準に従って前記平均信号対雑音比をリセットするための手段をさらに備えるC72に記載の装置。
[C75] 前記平均信号対雑音比をリセットすることは、定期的な間隔で行われるC74に記載の装置。
[C76] 前記平均信号対雑音比をリセットすることは、ある不活動期間後に発生する前記音声信号内の話声セグメントの開始に応答して行われるC74に記載の装置。
[C77] 前記符号化された音声信号を処理することは、高帯域合成のために低帯域励起を用いて帯域幅拡大を行うことを含み、前記低帯域励起のフォルマントシャープニングに起因する高帯域アーティファクトを低減させるために前記フォルマントシャープニング率を変化させるための手段をさらに備えるC72に記載の装置。
[C78] 前記符号化された音声信号を処理することは、高帯域合成のために低帯域励起を用いて帯域幅拡大を行うことを含み、高帯域励起へのフォルマントシャープニング率の貢献をディスエーブルにするための手段をさらに備えるC72に記載の装置。
[C79] 前記高帯域励起への前記フォルマントシャープニング率の貢献をディスエーブルにすることは、固定型コードブックベクトルのシャープニングされないバージョンを使用することを含むC78に記載の装置。
[C80] 符号化された音声信号を処理するための装置であって、
前記符号化された音声信号の第1のフレームからの情報に基づいて、経時での平均信号対雑音比を決定するように構成された第1の計算器と、
前記決定された平均信号対雑音比に基づいて、フォルマントシャープニング率を決定するように構成された第2の計算器と、
前記決定されたフォルマントシャープニング率に基づき及び前記符号化された音声信号の第2のフレームからの情報に基づくコードブックベクトルをフィルタリングするために配置されるフィルタと、を備える、装置。
[C81] 前記決定されたフォルマントシャープニング率に基づく前記フィルタは、修正されたインパルス応答を入手するために複数の線形予測フィルタ係数に基づく重み付き合成フィルタのインパルス応答をフィルタリングするように配置され、前記複数の線形予測フィルタ係数は、前記符号化された音声信号の前記第2のフレームからの情報に基づくC80に記載の装置。
[C82] 前記平均信号対雑音比は、符号器における対応する信号対雑音推定値の実質的に同期のリセットを可能にするリセット基準に従ってリセットされるC80に記載の装置。
[C83] 前記平均信号対雑音比をリセットすることは、定期的な間隔で行われるC82に記載の装置。
[C84] 前記平均信号対雑音比をリセットすることは、ある不活動期間後に発生する前記音声信号内の話声セグメントの開始に応答して行われるC82に記載の装置。
[C85] 前記符号化された音声信号を処理することは、高帯域合成のために低帯域励起を用いて帯域幅拡大を行うことを含み、前記フォルマントシャープニング率は、前記低帯域励起のフォルマントシャープニングに起因する高帯域アーティファクトを低減させるために変化されるC80に記載の装置。
[C86] 前記符号化された音声信号を処理することは、高帯域合成のために低帯域励起を用いて帯域幅拡大を行うことを含み、高帯域励起へのフォルマントシャープニング率の貢献がディスエーブルにされるC80に記載の装置。
[C87] 前記高帯域励起への前記フォルマントシャープニング率の貢献をディスエーブルにすることは、固定型コードブックベクトルのシャープニングされないバージョンを使用することを含むC86に記載の装置。
[C88] 非一時的なコンピュータによって読み取り可能な媒体であって、
コンピュータによって実行されたときに、
前記符号化された音声信号の第1のフレームからの情報に基づいて、経時での平均信号対雑音比を決定すること、
前記決定された平均信号対雑音比に基づいて、フォルマントシャープニング率を決定すること、及び
前記決定されたフォルマントシャープニング率に基づくフィルタを前記符号化された音声信号の第2のフレームからの情報に基づくコードブックベクトルに適用することを前記コンピュータに行わせる命令を備える、非一時的なコンピュータによって読み取り可能な媒体。
[C89] 前記コードブックベクトルは、ユニタリパルスのシーケンスを備えるC88に記載のコンピュータによって読み取り可能な媒体。
[C90] 符号器における対応する信号対雑音推定値の実質的に同期のリセットを可能にするリセット基準に従って前記平均信号対雑音比をリセットすることを前記コンピュータに行わせるための命令をさらに備えるC88に記載のコンピュータによって読み取り可能な媒体。
[C91] 前記平均信号対雑音比をリセットすることは、定期的な間隔で行われるC90に記載のコンピュータによって読み取り可能な媒体。
[C92] 前記平均信号対雑音比をリセットすることは、ある不活動期間後に発生する前記音声信号内の話声セグメントの開始に応答して行われるC90に記載のコンピュータによって読み取り可能な媒体。
[C93] 前記符号化された音声信号を処理することは、高帯域合成のために低帯域励起を用いて帯域幅拡大を行うことを含み、前記低帯域励起のフォルマントシャープニングに起因する高帯域アーティファクトを低減させるために前記フォルマントシャープニング率を変化させることを前記コンピュータに行わせるための命令をさらに備えるC88に記載のコンピュータによって読み取り可能な媒体。
[C94] 前記符号化された音声信号を処理することは、高帯域合成のために低帯域励起を用いて帯域幅拡大を行うことを含み、高帯域励起へのフォルマントシャープニング率の貢献をディスエーブルにすることを前記コンピュータに行わせるための命令をさらに備えるC88に記載のコンピュータによって読み取り可能な媒体。
[C95] 前記高帯域励起への前記フォルマントシャープニング率の貢献をディスエーブルにすることは、固定型コードブックベクトルのシャープニングされないバージョンを使用することを含むC94に記載のコンピュータによって読み取り可能な媒体。
[C96] 音声信号を処理する方法であって、
前記音声信号に対応するパラメータを決定することであって、前記パラメータは、ボイシングファクタ、コーディングモード、又はピッチラグに対応することと、
前記決定されたパラメータに基づいて、フォルマントシャープニング率を決定することと、
前記決定されたフォルマントシャープニング率に基づくフィルタを前記音声信号からの情報に基づくコードブックベクトルに適用することと、を備える、方法。
[C97] 前記パラメータは、前記ボイシングファクタに対応し、強い声が出されたセグメント又は弱い声が出されたセグメントのうちの少なくとも1つを示すC96に記載の方法。
[C98] 前記パラメータは、前記コーディングモードに対応し、話声、音楽、沈黙、遷移フレーム、又は声が出されないフレームのうちの少なくとも1つを示すC96に記載の方法。
[C99] 装置であって、
音声信号に対応するパラメータを決定するように構成された第1の計算器であって、前記パラメータは、ボイシングファクタ、コーディングモード、又はピッチラグに対応する第1の計算器と、
前記決定されたパラメータに基づいてフォルマントシャープニング率を決定するように構成された第2の計算器と、
前記決定されたフォルマントシャープニング率に基づくフィルタを備え、前記フィルタは、コードブックベクトルをフィルタリングするように配置され、前記コードブックベクトルは、前記音声信号からの情報に基づく、装置。
[C100] 符号化された音声信号を処理する方法であって、
前記符号化された音声信号とともにパラメータを受信することであって、前記パラメータは、ボイシングファクタ、コーディングモード、又はピッチラグに対応することと、
前記受信されたパラメータに基づいて、フォルマントシャープニング率を決定することと、
前記決定されたフォルマントシャープニング率に基づくフィルタを前記符号化された音声信号からの情報に基づくコードブックベクトルに適用することと、を備える、方法。
[C101] 前記パラメータは、前記ボイシングファクタに対応し、強い声が出されたセグメント又は弱い声が出されたセグメントのうちの少なくとも1つを示すC100に記載の方法。
[C102] 前記パラメータは、前記コーディングモードに対応し、話声、音楽、沈黙、遷移フレーム、又は声が出されないフレームのうちの少なくとも1つを示すC100に記載の方法。
[C103] 装置であって、
符号化された音声信号とともに受信されたパラメータに基づいてフォルマントシャープニング率を決定するように構成された計算器であって、前記パラメータは、ボイシングファクタ、コーディングモード、又はピッチラグに対応する計算器と、
前記決定されたフォルマントシャープニング率に基づくフィルタと、を備え、前記フィルタは、コードブックベクトルをフィルタリングするように配置され、前記コードブックベクトルは、前記符号化された音声信号からの情報に基づく、装置。
Claims (99)
- 音声信号を処理する方法であって、前記方法は、
前記音声信号に関連付けられたパラメータを決定することと、ここにおいて、前記パラメータは、ボイシングファクタ、コーディングモード、又はピッチラグに対応し、前記音声信号は、音声コーダで受信され、
前記決定されたパラメータに基づいて、フォルマントシャープニング率を決定することと、
フィルタリングされたコードブックベクトルを生成するために、前記決定されたフォルマントシャープニング率に基づくフィルタを前記音声信号からの情報に基づくコードブックベクトルに適用することと、
を備え、前記コードブックベクトルは、ユニタリパルスのシーケンスを備え、前記フィルタリングされたコードブックベクトルは、合成された音声信号を生成するために使用される、方法。 - 前記パラメータは、前記ボイシングファクタに対応し、強い有声のセグメント又は弱い有声のセグメントのうちの少なくとも1つを示す、請求項1に記載の方法。
- 前記ボイシングファクタは、前記強い有声のセグメントを示す、請求項2に記載の方法。
- 前記ボイシングファクタは、前記弱い有声のセグメントを示す、請求項2に記載の方法。
- 前記パラメータは、前記コーディングモードに対応し、音楽、沈黙、遷移フレーム、有声のフレーム、又は無声のフレームのうちの少なくとも1つを示す、請求項1に記載の方法。
- 前記コーディングモードは、音楽を示す、請求項5に記載の方法。
- 前記コーディングモードは、沈黙を示す、請求項5に記載の方法。
- 前記コーディングモードは、遷移フレームを示す、請求項5に記載の方法。
- 前記コーディングモードは、無声のフレームを示す、請求項5に記載の方法。
- 前記フォルマントシャープニング率を決定するために、経時での前記音声信号に関する平均信号対雑音比を決定することをさらに備える、請求項1に記載の方法。
- 複数の線形予測フィルタ係数を入手するために、前記音声信号における線形予測コーディング解析を行うことと、
修正されたインパルス応答を入手するために、前記複数の線形予測フィルタ係数に基づく重み付き合成フィルタのインパルス応答に前記フィルタを適用することと、ここにおいて、前記重み付き合成フィルタは、フィードフォワード重みとフィードバック重みとを含み、前記フィードフォワード重みは、前記フィードバック重みよりも大きく、
前記修正されたインパルス応答に基づいて、複数の代数型コードブックベクトルの中から前記コードブックベクトルを選択することと
をさらに備える、請求項1に記載の方法。 - 前記フィルタは、前記決定されたフォルマントシャープニング率に基づくフォルマントシャープニングフィルタと、前記音声信号の少なくとも一部分のピッチ推定値に基づくピッチシャープニングフィルタとを含む、請求項1に記載の方法。
- 前記音声信号の符号化されたバージョンを有する前記フォルマントシャープニング率のインディケーションを復号器に送ることをさらに備える、請求項1に記載の方法。
- 前記フォルマントシャープニング率の前記インディケーションは、前記音声信号の前記符号化されたバージョンのフレームに含まれる、請求項13に記載の方法。
- 潜在的なドリフトを防止するために、調整基準に従って前記音声信号の信号対雑音推定値をリセットすることをさらに備える、請求項1に記載の方法。
- 前記調整基準は、ある時間期間を備える、請求項15に記載の方法。
- 前記音声信号に関連付けられた前記パラメータを決定することは、モバイル通信デバイスを備えるデバイス内で行われる、請求項1に記載の方法。
- 前記パラメータは、前記ピッチラグに対応する、請求項1に記載の方法。
- 前記フィルタを適用することは、デバイスによって行われ、前記デバイスは、モバイル通信デバイスを備える、請求項1に記載の方法。
- 前記フィルタを適用することは、デバイスによって行われ、前記デバイスは、基地局を備える、請求項1に記載の方法。
- 前記フィルタリングされたコードブックベクトルに基づいて、励起信号を生成することと、
前記励起信号に基づいて、前記合成された音声信号を生成することと
をさらに備える、請求項1に記載の方法。 - モバイルデバイスのマイク又はアンテナを介して前記音声信号を受信することをさらに備える、請求項1に記載の方法。
- 前記決定されたフォルマントシャープニング率に基づく前記フィルタを前記コードブックベクトルに適用する前に、前記決定されたフォルマントシャープニング率に基づく第2のフィルタを、フィルタリングされたインパルス応答を生成するために合成フィルタのインパルス応答に適用することをさらに備える、請求項1に記載の方法。
- 前記合成フィルタは、重み付き合成フィルタを備える、請求項23に記載の方法。
- 前記第2のフィルタは、ピッチシャープニング率にさらに基づく、請求項23に記載の方法。
- 前記フィルタリングされたインパルス応答に基づいて、前記コードブックベクトルを決定することをさらに備える、請求項23に記載の方法。
- 前記コードブックベクトルを決定することは、前記フィルタリングされたインパルス応答に基づいて、複数の代数型コードブックベクトルの検索を行うことによって、前記コードブックベクトルを推定することを含む、請求項26に記載の方法。
- 前記コードブックベクトルは、ターゲット信号に基づいてさらに決定される、請求項26に記載の方法。
- 前記合成フィルタを予測誤差に適用することに基づいて、前記ターゲット信号を生成することをさらに備える、請求項28に記載の方法。
- 前記予測誤差は、前記音声信号と、前サブフレームに関連付けられた励起信号とに基づく、請求項29に記載の方法。
- 装置であって、
音声信号を受信するように構成された音声コーダ入力と、
前記音声信号に関連付けられたパラメータを決定するように構成された第1の計算器と、ここにおいて、前記パラメータは、ボイシングファクタ、コーディングモード、又はピッチラグに対応し、
前記決定されたパラメータに基づいてフォルマントシャープニング率を決定するように構成された第2の計算器と、
前記決定されたフォルマントシャープニング率に基づくフィルタと
を備え、前記フィルタは、コードブックベクトルをフィルタリングするように配置され、前記コードブックベクトルは、フィルタリングされたコードブックベクトルを生成するために、前記音声信号からの情報に基づき、前記コードブックベクトルは、ユニタリパルスのシーケンスを備え、前記フィルタリングされたコードブックベクトルは、合成された音声信号を生成するために使用される、装置。 - アンテナと、
前記アンテナおよび前記音声コーダ入力に結合された受信機と
をさらに備える、請求項31に記載の装置。 - 前記受信機、前記第1の計算器、前記第2の計算器、および前記フィルタは、モバイル通信デバイスに一体化される、請求項32に記載の装置。
- 前記受信機、前記第1の計算器、前記第2の計算器、および前記フィルタは、基地局に一体化される、請求項32に記載の装置。
- 複数の線形予測フィルタ係数を生成するために、前記音声信号における線形予測コーディング解析を行うように構成された線形予測解析器をさらに備える、請求項31に記載の装置。
- 適応型コードブックベクトルに基づいて、複数の代数型コードブックベクトルの中から前記コードブックベクトルを選択するように構成された選択器をさらに備える、請求項35に記載の装置。
- 前記音声信号の符号化されたバージョンを有する前記フォルマントシャープニング率のインディケーションを復号器に送るように構成された送信機をさらに備える、請求項31に記載の装置。
- 前記フィルタは、前記フィルタリングされたコードブックベクトルを出力するようにさらに構成される、請求項31に記載の装置。
- 前記フィルタリングされたコードブックベクトルに基づいて、励起信号を生成することと、
前記励起信号に基づいて、前記合成された音声信号を生成することと
を行うように構成されたコーダをさらに備える、請求項31に記載の装置。 - インパルス応答を生成するように構成された合成フィルタをさらに備える、請求項31に記載の装置。
- 前記合成フィルタは、重み付き合成フィルタを備える、請求項40に記載の装置。
- 前記決定されたフォルマントシャープニング率に基づく第2のフィルタをさらに備え、前記第2のフィルタは、フィルタリングされたインパルス応答を生成するために、前記インパルス応答をフィルタリングするように配置される、請求項40に記載の装置。
- 前記第2のフィルタは、ピッチシャープニング率にさらに基づく、請求項42に記載の装置。
- 前記フィルタリングされたインパルス応答に基づいて、複数の代数型コードブックベクトルの中から前記コードブックベクトルを選択するように構成された選択器をさらに備える、請求項42に記載の装置。
- 符号化された音声信号を処理する方法であって、前記方法は、
音声コーダにおいて、前記符号化された音声信号を受信することと、
前記符号化された音声信号のフレームのパラメータに基づいて、フォルマントシャープニング率を決定することと、ここにおいて、前記パラメータは、ボイシングファクタ、コーディングモード、又はピッチラグに対応し、
フィルタリングされたコードブックベクトルを生成するために、前記決定されたフォルマントシャープニング率に基づくフィルタを前記符号化された音声信号からの情報に基づくコードブックベクトルに適用することと、
を備え、前記コードブックベクトルは、ユニタリパルスのシーケンスを備え、前記フィルタリングされたコードブックベクトルは、合成された音声信号を生成するために使用される、方法。 - 前記パラメータは、前記ボイシングファクタに対応し、強い有声のセグメント又は弱い有声のセグメントのうちの少なくとも1つを示す、請求項45に記載の方法。
- 前記パラメータは、前記コーディングモードに対応し、音楽、沈黙、遷移フレーム、有声のフレーム、又は無声のフレームのうちの少なくとも1つを示す、請求項45に記載の方法。
- 前記フィルタを適用することは、デバイスによって行われ、前記デバイスは、モバイル通信デバイスを備える、請求項45に記載の方法。
- 前記フィルタを適用することは、デバイスによって行われ、前記デバイスは、基地局を備える、請求項45に記載の方法。
- 前記フィルタリングされたコードブックベクトルに基づいて、励起信号を生成することと、
前記励起信号に基づいて、前記合成された音声信号を生成することと
をさらに備える、請求項45に記載の方法。 - 装置であって、
符号化された音声信号を受信するように構成された音声コーダ入力と、
前記符号化された音声信号のフレームのパラメータに基づいて、フォルマントシャープニング率を決定するように構成された計算器と、ここにおいて、前記パラメータは、ボイシングファクタ、コーディングモード、又はピッチラグに対応し、
前記決定されたフォルマントシャープニング率に基づくフィルタと
を備え、前記フィルタは、コードブックベクトルをフィルタリングするように配置され、前記コードブックベクトルは、フィルタリングされたコードブックベクトルを生成するために、前記符号化された音声信号からの情報に基づき、前記コードブックベクトルは、ユニタリパルスのシーケンスを備え、前記フィルタリングされたコードブックベクトルは、合成された音声信号を生成するために使用される、装置。 - アンテナと、
前記アンテナおよび前記音声コーダ入力に結合された受信機と
をさらに備える、請求項51に記載の装置。 - 前記受信機、前記計算器、および前記フィルタは、モバイル通信デバイスに一体化される、請求項52に記載の装置。
- 前記受信機、前記計算器、および前記フィルタは、基地局に一体化される、請求項52に記載の装置。
- 命令を記憶するコンピュータによって読み取り可能な記憶デバイスであって、前記命令がプロセッサによって実行されるとき、前記プロセッサに、
音声信号に関連付けられたパラメータを決定することと、ここにおいて、前記パラメータは、ボイシングファクタ、コーディングモード、又はピッチラグに対応し、前記音声信号は、音声コーダで受信され、
前記決定されたパラメータに基づいてフォルマントシャープニング率を決定することと、
フィルタリングされたコードブックベクトルを生成するために、前記決定されたフォルマントシャープニング率に基づくフィルタを前記音声信号からの情報に基づくコードブックベクトルに適用することと、
を備える動作を行わせ、前記コードブックベクトルは、ユニタリパルスのシーケンスを備え、前記フィルタリングされたコードブックベクトルは、合成された音声信号を生成するために使用される、コンピュータによって読み取り可能な記憶デバイス。 - 前記パラメータは、前記コーディングモードに対応し、前記コーディングモードは、特定のビットレートに関連付けられる、請求項55に記載のコンピュータによって読み取り可能な記憶デバイス。
- 前記フォルマントシャープニング率は、雑音推定に基づく、請求項55に記載のコンピュータによって読み取り可能な記憶デバイス。
- 前記動作は、
前記音声信号の非アクティブなセグメント中に長期的信号推定値を追跡することと、
前記長期的信号推定値に基づいて、前記雑音推定を生成することと
をさらに備える、請求項57に記載のコンピュータによって読み取り可能な記憶デバイス。 - 前記動作は、
前記音声信号の線形予測コーディング解析を行うことによって、複数の線形予測フィルタ係数を生成することと、
第2のフィルタのインパルス応答に前記フィルタを適用することによって、修正されたインパルス応答を生成すること
をさらに備え、前記第2のフィルタは、前記複数の線形予測フィルタ係数に基づく、請求項55に記載のコンピュータによって読み取り可能な記憶デバイス。 - 前記動作は、複数の代数型コードブックベクトルから、前記修正されたインパルス応答に基づいて、前記コードブックベクトルを選択することをさらに備える、請求項59に記載のコンピュータによって読み取り可能な記憶デバイス。
- 装置であって、
音声信号に関連付けられたパラメータを決定するための手段と、ここにおいて、前記パラメータは、ボイシングファクタ、コーディングモード、又はピッチラグに対応し、前記音声信号は、音声コーダ入力で受信され、
前記決定されたパラメータに基づいてフォルマントシャープニング率を決定するための手段と、
前記決定されたフォルマントシャープニング率に基づいて、コードブックベクトルをフィルタリングするための手段と
を備え、前記コードブックベクトルは、フィルタリングされたコードブックベクトルを生成するために、前記音声信号からの情報に基づき、前記コードブックベクトルは、ユニタリパルスのシーケンスを備え、前記フィルタリングされたコードブックベクトルは、合成された音声信号を生成するために使用される、装置。 - 前記パラメータは、前記コーディングモードに対応し、前記コーディングモードは、特定のサンプリングレートに関連付けられる、請求項61に記載の装置。
- 前記フォルマントシャープニング率は、雑音推定に基づき、前記パラメータを決定するための前記手段は、第1の計算器を備え、前記フォルマントシャープニング率を決定するための前記手段は、第2の計算器を備え、前記コードブックベクトルをフィルタリングするための前記手段は、フィルタを備える、請求項61に記載の装置。
- 前記パラメータを決定するための前記手段、前記フォルマントシャープニング率を決定するための前記手段、およびフィルタリングするための前記手段は、モバイル通信デバイスに一体化される、請求項61に記載の装置。
- 前記パラメータを決定するための前記手段、前記フォルマントシャープニング率を決定するための前記手段、およびフィルタリングするための前記手段は、基地局に一体化される、請求項61に記載の装置。
- 命令を記憶するコンピュータによって読み取り可能な記憶デバイスであって、前記命令がプロセッサによって実行されるとき、前記プロセッサに、
符号化された音声信号の第1のフレームのパラメータに基づいて、フォルマントシャープニング率を決定することと、前記パラメータは、ボイシングファクタ、コーディングモード、又はピッチラグに対応し、前記符号化された音声信号は、音声コーダで受信され、
フィルタリングされたコードブックベクトルを生成するために、前記決定されたフォルマントシャープニング率に基づくフィルタを前記符号化された音声信号からの情報に基づくコードブックベクトルに適用することと、
を備える動作を行わせ、前記コードブックベクトルは、ユニタリパルスのシーケンスを備え、前記フィルタリングされたコードブックベクトルは、合成された音声信号を生成するために使用される、コンピュータによって読み取り可能な記憶デバイス。 - 前記パラメータは、前記コーディングモードに対応する、請求項66に記載のコンピュータによって読み取り可能な記憶デバイス。
- 前記動作は、第2のフィルタのインパルス応答に前記フィルタを適用することによって、修正されたインパルス応答を生成することをさらに備え、前記第2のフィルタは、複数の線形予測フィルタ係数に基づき、前記複数の線形予測フィルタ係数は、前記符号化された音声信号の第2のフレームからの情報に基づく、請求項66に記載のコンピュータによって読み取り可能な記憶デバイス。
- 前記第2のフィルタは、合成フィルタを含む、請求項68に記載のコンピュータによって読み取り可能な記憶デバイス。
- 前記第2のフィルタは、重み付き合成フィルタを含む、請求項68に記載のコンピュータによって読み取り可能な記憶デバイス。
- 前記重み付き合成フィルタは、フィードフォワード重みとフィードバック重みとに基づき、前記フィードフォワード重みは、前記フィードバック重みよりも大きい、請求項70に記載のコンピュータによって読み取り可能な記憶デバイス。
- 装置であって、
符号化された音声信号のフレームのパラメータに基づいて、フォルマントシャープニング率を決定するための手段と、前記パラメータは、ボイシングファクタ、コーディングモード、又はピッチラグに対応し、前記符号化された音声信号は、音声コーダ入力で受信され、
前記決定されたフォルマントシャープニング率に基づいて、コードブックベクトルをフィルタリングするための手段と
を備え、前記コードブックベクトルは、フィルタリングされたコードブックベクトルを生成するために、前記符号化された音声信号からの情報に基づき、前記コードブックベクトルは、ユニタリパルスのシーケンスを備え、前記フィルタリングされたコードブックベクトルは、合成された音声信号を生成するために使用される、装置。 - 前記パラメータは、前記コーディングモードに対応し、前記コーディングモードは、特定のビットレートに関連付けられる、請求項72に記載の装置。
- 決定するための前記手段、およびフィルタリングするための前記手段は、モバイル通信デバイスに一体化される、請求項72に記載の装置。
- 決定するための前記手段、およびフィルタリングするための前記手段は、基地局に一体化される、請求項72に記載の装置。
- 音声信号を処理する方法であって、前記方法は、
前記音声信号に関連付けられたパラメータを決定することと、ここにおいて、前記パラメータは、コーディングモードに対応し、前記音声信号は、音声コーダで受信され、
前記決定されたパラメータに基づいてフォルマントシャープニング率を決定することと、
フィルタリングされたコードブックベクトルを生成するために、前記決定されたフォルマントシャープニング率に基づくフィルタを前記音声信号からの情報に基づくコードブックベクトルに適用することと、
を備え、前記コードブックベクトルは、ユニタリパルスのシーケンスを備え、前記フィルタリングされたコードブックベクトルは、合成された音声信号を生成するために使用される、方法。 - 前記パラメータは、音楽、沈黙、遷移フレーム、有声のフレーム、又は無声のフレームのうちの少なくとも1つを示す、請求項76に記載の方法。
- 前記フィルタを適用することは、前記フォルマントシャープニング率に対応する重みに基づいて、重み付けされたフィルタを適用することを含む、請求項76に記載の方法。
- 前記フォルマントシャープニング率は、雑音推定に基づく、請求項76に記載の方法。
- 前記フィルタを適用することは、デバイスによって行われ、前記デバイスは、モバイル通信デバイスを備える、請求項76に記載の方法。
- 前記フィルタを適用することは、デバイスによって行われ、前記デバイスは、基地局を備える、請求項76に記載の方法。
- 装置であって、
音声信号を受信するように構成された音声コーダ入力と、
前記音声信号に関連付けられたパラメータを決定するように構成された第1の計算器と、ここにおいて、前記パラメータは、コーディングモードに対応し、
前記決定されたパラメータに基づいてフォルマントシャープニング率を決定するように構成された第2の計算器と、
前記決定されたフォルマントシャープニング率に基づくフィルタと
を備え、前記フィルタは、コードブックベクトルをフィルタリングするように配置され、前記コードブックベクトルは、フィルタリングされたコードブックベクトルを生成するために、前記音声信号からの情報に基づき、前記コードブックベクトルは、ユニタリパルスのシーケンスを備え、前記フィルタリングされたコードブックベクトルは、合成された音声信号を生成するために使用される、装置。 - 前記コーディングモードは、前記音声信号のサンプリングレートに関連付けられる、請求項82に記載の装置。
- 前記フィルタは、
前記決定されたフォルマントシャープニング率に基づくフォルマントシャープニングフィルタと、
前記音声信号のピッチ推定値に基づくピッチシャープニングフィルタと
を備える、請求項82に記載の装置。 - 前記音声信号の符号化されたバージョンのフレームのパラメータとして、前記フォルマントシャープニング率のインディケーションを復号器に送るように構成された送信機をさらに備える、請求項82に記載の装置。
- アンテナと、
前記アンテナおよび前記音声コーダ入力に結合された受信機と
をさらに備える、請求項82に記載の装置。 - 前記受信機、前記第1の計算器、前記第2の計算器、および前記フィルタは、モバイル通信デバイスに一体化される、請求項86に記載の装置。
- 前記受信機、前記第1の計算器、前記第2の計算器、および前記フィルタは、基地局に一体化される、請求項86に記載の装置。
- 符号化された音声信号を処理する方法であって、前記方法は、
音声コーダにおいて、符号化された音声信号を受信することと、
前記符号化された音声信号のフレームのパラメータに基づいて、フォルマントシャープニング率を決定することと、ここにおいて、前記パラメータは、コーディングモードに対応し、
フィルタリングされたコードブックベクトルを生成するために、前記決定されたフォルマントシャープニング率に基づくフィルタを前記符号化された音声信号からの情報に基づくコードブックベクトルに適用することと、
を備え、前記コードブックベクトルは、ユニタリパルスのシーケンスを備え、前記フィルタリングされたコードブックベクトルは、合成された音声信号を生成するために使用される、方法。 - 前記コーディングモードは、前記符号化された音声信号のサンプリングレートに関連付けられる、請求項89に記載の方法。
- 前記パラメータは、音楽、沈黙、遷移フレーム、有声のフレーム、又は無声のフレームのうちの少なくとも1つを示す、請求項89に記載の方法。
- 前記フィルタを適用することは、デバイスによって行われ、前記デバイスは、モバイル通信デバイスを備える、請求項89に記載の方法。
- 前記フィルタを適用することは、デバイスによって行われ、前記デバイスは、基地局を備える、請求項89に記載の方法。
- 装置であって、
符号化された音声信号を受信するように構成された音声コーダ入力と、
前記符号化された音声信号のフレームのパラメータに基づいて、フォルマントシャープニング率を決定するように構成された計算器と、ここにおいて、前記パラメータは、コーディングモードに対応し、
前記決定されたフォルマントシャープニング率に基づくフィルタと
を備え、前記フィルタは、コードブックベクトルをフィルタリングするように配置され、前記コードブックベクトルは、フィルタリングされたコードブックベクトルを生成するために、前記符号化された音声信号からの情報に基づき、前記コードブックベクトルは、ユニタリパルスのシーケンスを備え、前記フィルタリングされたコードブックベクトルは、合成された音声信号を生成するために使用される、装置。 - 前記パラメータは、音楽、沈黙、遷移フレーム、有声のフレーム、又は無声のフレームのうちの少なくとも1つを示す、請求項94に記載の装置。
- 前記コーディングモードは、特定のビットレートに関連付けられる、請求項94に記載の装置。
- アンテナと、
前記アンテナおよび前記音声コーダ入力に結合された受信機と
をさらに備える、請求項94に記載の装置。 - 前記受信機、前記計算器、および前記フィルタは、モバイル通信デバイスに一体化される、請求項97に記載の装置。
- 前記受信機、前記計算器、および前記フィルタは、基地局に一体化される、請求項97に記載の装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361758152P | 2013-01-29 | 2013-01-29 | |
US61/758,152 | 2013-01-29 | ||
US14/026,765 | 2013-09-13 | ||
US14/026,765 US9728200B2 (en) | 2013-01-29 | 2013-09-13 | Systems, methods, apparatus, and computer-readable media for adaptive formant sharpening in linear prediction coding |
PCT/US2013/077421 WO2014120365A2 (en) | 2013-01-29 | 2013-12-23 | Systems, methods, apparatus, and computer-readable media for adaptive formant sharpening in linear prediction coding |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016504637A JP2016504637A (ja) | 2016-02-12 |
JP2016504637A5 JP2016504637A5 (ja) | 2017-10-12 |
JP6373873B2 true JP6373873B2 (ja) | 2018-08-15 |
Family
ID=51223881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015555166A Active JP6373873B2 (ja) | 2013-01-29 | 2013-12-23 | 線形予測コーディングにおける適応型フォルマントシャープニングのためのシステム、方法、装置、及びコンピュータによって読み取り可能な媒体 |
Country Status (10)
Country | Link |
---|---|
US (2) | US9728200B2 (ja) |
EP (1) | EP2951823B1 (ja) |
JP (1) | JP6373873B2 (ja) |
KR (1) | KR101891388B1 (ja) |
CN (2) | CN109243478B (ja) |
BR (1) | BR112015018057B1 (ja) |
DK (1) | DK2951823T3 (ja) |
ES (1) | ES2907212T3 (ja) |
HU (1) | HUE057931T2 (ja) |
WO (1) | WO2014120365A2 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105976830B (zh) * | 2013-01-11 | 2019-09-20 | 华为技术有限公司 | 音频信号编码和解码方法、音频信号编码和解码装置 |
US9728200B2 (en) | 2013-01-29 | 2017-08-08 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for adaptive formant sharpening in linear prediction coding |
JP6305694B2 (ja) * | 2013-05-31 | 2018-04-04 | クラリオン株式会社 | 信号処理装置及び信号処理方法 |
US9666202B2 (en) * | 2013-09-10 | 2017-05-30 | Huawei Technologies Co., Ltd. | Adaptive bandwidth extension and apparatus for the same |
EP2963648A1 (en) | 2014-07-01 | 2016-01-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio processor and method for processing an audio signal using vertical phase correction |
EP3079151A1 (en) * | 2015-04-09 | 2016-10-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio encoder and method for encoding an audio signal |
US10847170B2 (en) * | 2015-06-18 | 2020-11-24 | Qualcomm Incorporated | Device and method for generating a high-band signal from non-linearly processed sub-ranges |
US10694298B2 (en) * | 2018-10-22 | 2020-06-23 | Zeev Neumeier | Hearing aid |
CN110164461B (zh) * | 2019-07-08 | 2023-12-15 | 腾讯科技(深圳)有限公司 | 语音信号处理方法、装置、电子设备及存储介质 |
CN110444192A (zh) * | 2019-08-15 | 2019-11-12 | 广州科粤信息科技有限公司 | 一种基于语音技术的智能语音机器人 |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5754976A (en) * | 1990-02-23 | 1998-05-19 | Universite De Sherbrooke | Algebraic codebook with signal-selected pulse amplitude/position combinations for fast coding of speech |
FR2734389B1 (fr) | 1995-05-17 | 1997-07-18 | Proust Stephane | Procede d'adaptation du niveau de masquage du bruit dans un codeur de parole a analyse par synthese utilisant un filtre de ponderation perceptuelle a court terme |
US5732389A (en) | 1995-06-07 | 1998-03-24 | Lucent Technologies Inc. | Voiced/unvoiced classification of speech for excitation codebook selection in celp speech decoding during frame erasures |
JP3390897B2 (ja) * | 1995-06-22 | 2003-03-31 | 富士通株式会社 | 音声処理装置及びその方法 |
JPH09160595A (ja) * | 1995-12-04 | 1997-06-20 | Toshiba Corp | 音声合成方法 |
FI980132A (fi) * | 1998-01-21 | 1999-07-22 | Nokia Mobile Phones Ltd | Adaptoituva jälkisuodatin |
US6141638A (en) | 1998-05-28 | 2000-10-31 | Motorola, Inc. | Method and apparatus for coding an information signal |
US6098036A (en) * | 1998-07-13 | 2000-08-01 | Lockheed Martin Corp. | Speech coding system and method including spectral formant enhancer |
JP4308345B2 (ja) * | 1998-08-21 | 2009-08-05 | パナソニック株式会社 | マルチモード音声符号化装置及び復号化装置 |
US7117146B2 (en) | 1998-08-24 | 2006-10-03 | Mindspeed Technologies, Inc. | System for improved use of pitch enhancement with subcodebooks |
US6556966B1 (en) * | 1998-08-24 | 2003-04-29 | Conexant Systems, Inc. | Codebook structure for changeable pulse multimode speech coding |
US7272556B1 (en) * | 1998-09-23 | 2007-09-18 | Lucent Technologies Inc. | Scalable and embedded codec for speech and audio signals |
GB2342829B (en) | 1998-10-13 | 2003-03-26 | Nokia Mobile Phones Ltd | Postfilter |
CA2252170A1 (en) | 1998-10-27 | 2000-04-27 | Bruno Bessette | A method and device for high quality coding of wideband speech and audio signals |
US6449313B1 (en) | 1999-04-28 | 2002-09-10 | Lucent Technologies Inc. | Shaped fixed codebook search for celp speech coding |
US6704701B1 (en) | 1999-07-02 | 2004-03-09 | Mindspeed Technologies, Inc. | Bi-directional pitch enhancement in speech coding systems |
CA2290037A1 (en) * | 1999-11-18 | 2001-05-18 | Voiceage Corporation | Gain-smoothing amplifier device and method in codecs for wideband speech and audio signals |
AU2001287970A1 (en) | 2000-09-15 | 2002-03-26 | Conexant Systems, Inc. | Short-term enhancement in celp speech coding |
US6760698B2 (en) | 2000-09-15 | 2004-07-06 | Mindspeed Technologies Inc. | System for coding speech information using an adaptive codebook with enhanced variable resolution scheme |
US7010480B2 (en) | 2000-09-15 | 2006-03-07 | Mindspeed Technologies, Inc. | Controlling a weighting filter based on the spectral content of a speech signal |
US7606703B2 (en) * | 2000-11-15 | 2009-10-20 | Texas Instruments Incorporated | Layered celp system and method with varying perceptual filter or short-term postfilter strengths |
CA2327041A1 (en) * | 2000-11-22 | 2002-05-22 | Voiceage Corporation | A method for indexing pulse positions and signs in algebraic codebooks for efficient coding of wideband signals |
US6766289B2 (en) | 2001-06-04 | 2004-07-20 | Qualcomm Incorporated | Fast code-vector searching |
KR100412619B1 (ko) * | 2001-12-27 | 2003-12-31 | 엘지.필립스 엘시디 주식회사 | 액정표시장치용 어레이 기판의 제조 방법 |
US7047188B2 (en) | 2002-11-08 | 2006-05-16 | Motorola, Inc. | Method and apparatus for improvement coding of the subframe gain in a speech coding system |
US7424423B2 (en) * | 2003-04-01 | 2008-09-09 | Microsoft Corporation | Method and apparatus for formant tracking using a residual model |
AU2003274864A1 (en) | 2003-10-24 | 2005-05-11 | Nokia Corpration | Noise-dependent postfiltering |
US7788091B2 (en) | 2004-09-22 | 2010-08-31 | Texas Instruments Incorporated | Methods, devices and systems for improved pitch enhancement and autocorrelation in voice codecs |
US7676362B2 (en) * | 2004-12-31 | 2010-03-09 | Motorola, Inc. | Method and apparatus for enhancing loudness of a speech signal |
ES2358125T3 (es) * | 2005-04-01 | 2011-05-05 | Qualcomm Incorporated | Procedimiento y aparato para un filtrado de antidispersión de una señal ensanchada de excitación de predicción de velocidad de ancho de banda. |
CA2603255C (en) | 2005-04-01 | 2015-06-23 | Qualcomm Incorporated | Systems, methods, and apparatus for wideband speech coding |
US8280730B2 (en) | 2005-05-25 | 2012-10-02 | Motorola Mobility Llc | Method and apparatus of increasing speech intelligibility in noisy environments |
US7877253B2 (en) * | 2006-10-06 | 2011-01-25 | Qualcomm Incorporated | Systems, methods, and apparatus for frame erasure recovery |
US20100332223A1 (en) | 2006-12-13 | 2010-12-30 | Panasonic Corporation | Audio decoding device and power adjusting method |
MY146431A (en) * | 2007-06-11 | 2012-08-15 | Fraunhofer Ges Forschung | Audio encoder for encoding an audio signal having an impulse-like portion and stationary portion, encoding methods, decoder, decoding method, and encoded audio signal |
US9076442B2 (en) * | 2009-12-10 | 2015-07-07 | Lg Electronics Inc. | Method and apparatus for encoding a speech signal |
US8868432B2 (en) | 2010-10-15 | 2014-10-21 | Motorola Mobility Llc | Audio signal bandwidth extension in CELP-based speech coder |
US9728200B2 (en) | 2013-01-29 | 2017-08-08 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for adaptive formant sharpening in linear prediction coding |
-
2013
- 2013-09-13 US US14/026,765 patent/US9728200B2/en active Active
- 2013-12-23 DK DK13824256.5T patent/DK2951823T3/da active
- 2013-12-23 EP EP13824256.5A patent/EP2951823B1/en active Active
- 2013-12-23 HU HUE13824256A patent/HUE057931T2/hu unknown
- 2013-12-23 ES ES13824256T patent/ES2907212T3/es active Active
- 2013-12-23 BR BR112015018057-4A patent/BR112015018057B1/pt active IP Right Grant
- 2013-12-23 CN CN201811182531.1A patent/CN109243478B/zh active Active
- 2013-12-23 WO PCT/US2013/077421 patent/WO2014120365A2/en active Application Filing
- 2013-12-23 KR KR1020157022785A patent/KR101891388B1/ko active IP Right Grant
- 2013-12-23 JP JP2015555166A patent/JP6373873B2/ja active Active
- 2013-12-23 CN CN201380071333.7A patent/CN104937662B/zh active Active
-
2017
- 2017-06-28 US US15/636,501 patent/US10141001B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
HUE057931T2 (hu) | 2022-06-28 |
EP2951823B1 (en) | 2022-01-26 |
WO2014120365A3 (en) | 2014-11-20 |
DK2951823T3 (da) | 2022-02-28 |
US20170301364A1 (en) | 2017-10-19 |
CN104937662A (zh) | 2015-09-23 |
CN109243478A (zh) | 2019-01-18 |
US10141001B2 (en) | 2018-11-27 |
BR112015018057B1 (pt) | 2021-12-07 |
EP2951823A2 (en) | 2015-12-09 |
ES2907212T3 (es) | 2022-04-22 |
CN104937662B (zh) | 2018-11-06 |
US20140214413A1 (en) | 2014-07-31 |
KR20150110721A (ko) | 2015-10-02 |
US9728200B2 (en) | 2017-08-08 |
CN109243478B (zh) | 2023-09-08 |
KR101891388B1 (ko) | 2018-08-24 |
BR112015018057A2 (pt) | 2017-07-18 |
JP2016504637A (ja) | 2016-02-12 |
WO2014120365A2 (en) | 2014-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6373873B2 (ja) | 線形予測コーディングにおける適応型フォルマントシャープニングのためのシステム、方法、装置、及びコンピュータによって読み取り可能な媒体 | |
RU2644136C2 (ru) | Системы и способы для подавления потенциальной нестабильности кадра | |
JP6526096B2 (ja) | 平均符号化レートを制御するためのシステムおよび方法 | |
US9208775B2 (en) | Systems and methods for determining pitch pulse period signal boundaries | |
RU2607260C1 (ru) | Системы и способы для определения набора коэффициентов интерполяции | |
US20180033444A1 (en) | Audio encoder and method for encoding an audio signal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151015 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161205 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170904 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170904 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20171201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180312 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180619 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180718 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6373873 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |