JP3346765B2 - 音声復号化方法及び音声復号化装置 - Google Patents
音声復号化方法及び音声復号化装置Info
- Publication number
- JP3346765B2 JP3346765B2 JP2000526920A JP2000526920A JP3346765B2 JP 3346765 B2 JP3346765 B2 JP 3346765B2 JP 2000526920 A JP2000526920 A JP 2000526920A JP 2000526920 A JP2000526920 A JP 2000526920A JP 3346765 B2 JP3346765 B2 JP 3346765B2
- Authority
- JP
- Japan
- Prior art keywords
- noise
- speech
- time
- codebook
- driving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 53
- 239000013598 vector Substances 0.000 claims description 116
- 238000011156 evaluation Methods 0.000 claims description 65
- 238000001228 spectrum Methods 0.000 claims description 37
- 238000011157 data evaluation Methods 0.000 claims 1
- 230000003044 adaptive effect Effects 0.000 description 45
- 230000005284 excitation Effects 0.000 description 26
- 230000015572 biosynthetic process Effects 0.000 description 23
- 238000003786 synthesis reaction Methods 0.000 description 23
- 238000004364 calculation method Methods 0.000 description 12
- 238000004458 analytical method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000009172 bursting Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
- G10L19/135—Vector sum excited linear prediction [VSELP]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/012—Comfort noise or silence coding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/06—Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/083—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being an excitation gain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/09—Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/10—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
- G10L19/107—Sparse pulse excitation, e.g. by using algebraic codebook
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
- G10L19/125—Pitch excitation, e.g. pitch synchronous innovation CELP [PSI-CELP]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0264—Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L2019/0001—Codebooks
- G10L2019/0002—Codebook adaptations
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L2019/0001—Codebooks
- G10L2019/0004—Design or structure of the codebook
- G10L2019/0005—Multi-stage vector quantisation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L2019/0001—Codebooks
- G10L2019/0007—Codebook element generation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L2019/0001—Codebooks
- G10L2019/0011—Long term prediction filters, i.e. pitch estimation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L2019/0001—Codebooks
- G10L2019/0012—Smoothing of parameters of the decoder interpolation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L2019/0001—Codebooks
- G10L2019/0016—Codebook for LPC parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/93—Discriminating between voiced and unvoiced parts of speech signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Quality & Reliability (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
- Analogue/Digital Conversion (AREA)
- Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Description
号化する際に使用する音声符号化・復号化方法及び音声
符号化・復号化装置に関し、特に低ビットレートで品質
の高い音声を再生するための音声符号化方法及び音声復
号化方法並びに音声符号化装置及び音声復号化装置に関
する。
予測(Code-Excited Linear Prediction:CELP)符
号化が代表的であり、その技術については、「Code-exc
ited linear prediction(CELP):High-quality spe
ech at very low bit rates」(M.R.Shroeder and B.S.At
al著、ICASSP '85, pp.937〜940, 1985)に述べられて
いる。
一例を示すもので、図中101は符号化部、102は復
号化部、103は多重化手段、104は分離手段であ
る。符号化部101は線形予測パラメータ分析手段10
5、線形予測パラメータ符号化手段106、合成フィル
タ107、適応符号帳108、駆動符号帳109、ゲイ
ン符号化手段110、距離計算手段111、重み付け加
算手段138より構成されている。また、復号化部10
2は線形予測パラメータ復号化手段112、合成フィル
タ113、適応符号帳114、駆動符号帳115、ゲイ
ン復号化手段116、重み付け加算手段139より構成
されている。
として、そのフレームの音声をスペクトル情報と音源情
報に分けて符号化する。まず、CELP音声符号化方法
の動作について説明する。符号化部101において、線
形予測パラメータ分析手段105は入力音声S101を
分析し、音声のスペクトル情報である線形予測パラメー
タを抽出する。線形予測パラメータ符号化手段106は
その線形予測パラメータを符号化し、符号化した線形予
測パラメータを合成フィルタ107の係数として設定す
る。
108には、過去の駆動音源信号が記憶されており、距
離計算手段111から入力される適応符号に対応して過
去の駆動音源信号を周期的に繰り返した時系列ベクトル
を出力する。駆動符号帳109には、例えば学習用音声
とその符号化音声との歪みが小さくなるように学習して
構成された複数の時系列ベクトルが記憶されており、距
離計算手段111から入力される駆動符号に対応した時
系列ベクトルを出力する。適応符号帳108、駆動符号
帳109からの各時系列ベクトルはゲイン符号化手段1
10から与えられるそれぞれのゲインに応じて重み付け
加算手段138で重み付けして加算され、その加算結果
を駆動音源信号として合成フィルタ107へ供給し符号
化音声を得る。距離計算手段111は符号化音声と入力
音声S101との距離を求め、距離が最小となる適応符
号、駆動符号、ゲインを探索する。上記符号化が終了し
た後、線形予測パラメータの符号、入力音声と符号化音
声との歪みを最小にする適応符号、駆動符号、ゲインの
符号を符号化結果として出力する。
る。
号化手段112は線形予測パラメータの符号から線形予
測パラメータを復号化し、合成フィルタ113の係数と
して設定する。次に、適応符号帳114は、適応符号に
対応して、過去の駆動音源信号を周期的に繰り返した時
系列ベクトルを出力し、また駆動符号帳115は駆動符
号に対応した時系列ベクトルを出力する。これらの時系
列ベクトルは、ゲイン復号化手段116でゲインの符号
から復号化したそれぞれのゲインに応じて重み付け加算
手段139で重み付けして加算され、その加算結果が駆
動音源信号として合成フィルタ113へ供給され出力音
声S103が得られる。
向上を目的として改良された従来の音声符号化復号化方
法として、「Phonetically - based vector excitation
coding of speech at3.6kbps」 (S.Wang and A.Gersho
著、ICASSP '89, pp.49-52, 1989)に示されたものがあ
る。図6との対応手段分に同一符号を付けた図7は、こ
の従来の音声符号化復号化方法の全体構成の一例を示
し、図中符号化部101において117は音声状態判定
手段、118駆動符号帳切替手段、119は第1の駆動
符号帳、120は第2の駆動符号帳である。また図中復
号化手段102において121は駆動符号帳切替手段、
122は第1の駆動符号帳、123は第2の駆動符号帳
である。このような構成による符号化復号化方法の動作
を説明する。まず符号化手段101において、音声状態
判定手段117は入力音声S101を分析し、音声の状
態を例えば音声/無声の2つの状態のうちどちらである
かを判定する。駆動符号帳切替手段118はその音声状
態判定結果に応じて、例えば有声であれば第1の駆動符
号帳119を、無声であれば第2の駆動符号帳120を
用いるとして符号化に用いる駆動符号帳を切り替え、ま
た、どちらの駆動符号帳を用いたかを符号化する。
121は符号化手段101でどちらの駆動符号帳を用い
たかの符号に応じて、符号化手段101で用いたのと同
じ駆動符号帳を用いるとして第1の駆動符号帳122と
第2の駆動符号帳123とを切り替える。このように構
成することにより、音声の各状態毎に符号化に適した駆
動符号帳を用意し、入力された音声の状態に応じて駆動
符号帳を切り替えて用いることで再生音声の品質を向上
することができる。
号帳を切り替える従来の音声符号化復号化方法として特
開平8−185198号公報に開示されたものがある。
これは、適応符号帳で選択したピッチ周期に応じて、複
数個の駆動符号帳を切り替えて用いるものである。これ
により、伝送情報を増やさずに入力音声の特徴に適応し
た駆動符号帳を用いることができる。
法では、単一の駆動符号帳を用いて合成音声を生成して
いる。低ビットレートでも品質の高い符号化音声を得る
ためには、駆動符号帳に格納する時系列ベクトルはパル
スを多く含む非雑音的なものとなる。このため、背景雑
音や摩擦性子音など雑音的な音声を符号化、合成した場
合、符号化音声はジリジリ、チリチリといった不自然な
音を発するという問題があった。駆動符号帳を雑音的な
時系列ベクトルからのみ構成すればこの問題は解決する
が、符号化音声全体としての品質が劣化する。
法では、入力音声の状態に応じて複数の駆動符号帳を切
り替えて符号化音声を生成している。これにより例えば
入力音声が雑音的な無声部分では雑音的な時系列ベクト
ルから構成された駆動符号帳を、またそれ以外の有声部
分では非雑音的な時系列ベクトルから構成された駆動符
号帳を用いることができ、雑音的な音声を符号化、合成
しても不自然なジリジリした音を発することはなくな
る。しかし、復号化側でも符号化側と同じ駆動符号帳を
用いるために、新たにどの駆動符号帳を使用したかの情
報を符号化、伝送する必要が生じ、これが低ビットレー
ト化の妨げになるという問題があった。
号帳を切り替える従来の音声符号化復号化方法では、適
応符号帳で選択されるピッチ周期に応じて駆動符号帳を
切り替えている。しかし、適応符号帳で選択されるピッ
チ周期は実際の音声のピッチ周期とは異なり、その値か
らだけでは入力音声の状態が雑音的か非雑音的かを判定
できないので、音声の雑音的な部分の符号化音声が不自
然であるという課題は解決されない。
であり、低ビットレートでも品質の高い音声を再生する
音声符号化復号化方法及び装置を提供するものである。
法は、スペクトル情報、パワー情報、ピッチ情報のうち
少なくとも1つの符号または符号化結果を用いて該符号
化区間における音声の雑音性の度合いを評価し、評価結
果に応じて複数の駆動符号帳のうち1つを選択するよう
にした。
系列ベクトルの雑音性の度合いが異なる複数の駆動符号
帳を備え、音声の雑音性の度合いの評価結果に応じて、
複数の駆動符号帳を切り替えるようにした。
度合いの評価結果に応じて、駆動符号帳に格納している
時系列ベクトルの雑音性の度合いを変化させるようにし
た。
ベクトルを格納している駆動符号帳を備え、音声の雑音
性の度合いの評価結果に応じて、駆動音源の信号サンプ
ルを間引くことにより雑音性の度合いが低い時系列ベク
トルを生成するようにした。
ベクトルを格納している第1の駆動符号帳と、非雑音的
なの時系列ベクトルを格納している第2の駆動符号帳と
を備え、音声の雑音性の度合いの評価結果に応じて、第
1の駆動符号帳の時系列ベクトルと第2の駆動符号帳の
時系列ベクトルを重み付けし加算した時系列ベクトルを
生成するようにした。
パワー情報、ピッチ情報のうち少なくとも1つの符号ま
たは復号化結果を用いて該復号化区間における音声の雑
音性の度合いを評価し、評価結果に応じて複数の駆動符
号帳のうちの1つを選択するようにした。
系列ベクトルの雑音性の度合いが異なる複数の駆動符号
帳を備え、音声の雑音性の度合いの評価結果に応じて、
複数の駆動符号帳を切り替えるようにした。
度合いの評価結果に応じて、駆動符号帳に格納している
時系列ベクトルの雑音性の度合いを変化させるようにし
た。
ベクトルを格納している駆動符号帳を備え、音声の雑音
性の度合いの評価結果に応じて、駆動音源の信号サンプ
ルを間引くことにより雑音性の度合いが低い時系列ベク
トルを生成するようにした。
ベクトルを格納している第1の駆動符号帳と、非雑音的
な時系列ベクトルを格納している第2の駆動符号帳とを
備え、音声の雑音性の度合いの評価結果に応じて、第1
の駆動符号帳の時系列ベクトルと第2の駆動符号帳の時
系列ベクトルを重み付けし加算した時系列ベクトルを生
成するようにした。
クトル情報を符号化し、符号化結果の1要素として出力
するスペクトル情報符号化部と、このスペクトル情報符
号化部からの符号化されたスペクトル情報から得られる
スペクトル情報、パワー情報のうち少なくとも1つの符
号または符号化結果を用いて該符号化区間における音声
の雑音性の度合いを評価し、評価結果を出力する雑音度
評価部と、非雑音的な複数の時系列ベクトルが記憶され
た第1の駆動符号帳と、雑音的な複数の時系列ベクトル
が記憶された第2の駆動符号帳と、前記雑音度評価部の
評価結果により、第1の駆動符号帳と第2の駆動符号帳
とを切り替える駆動符号帳切替部と、前記第1の駆動符
号帳または第2の駆動符号帳からの時系列ベクトルをそ
れぞれの時系列ベクトルのゲインに応じて重み付けし加
算する重み付け加算部と、この重み付けされた時系列ベ
クトルを駆動音源信号とし、この駆動音源信号と前記ス
ペクトル情報符号化部からの符号化されたスペクトル情
報とに基づいて符号化音声を得る合成フィルタと、この
符号化音声と前記入力音声との距離を求め、距離が最小
となる駆動符号、ゲインを探索し、その結果を駆動符
号,ゲインの符号を符号化結果として出力する距離計算
部とを備えた。
の符号からスペクトル情報を復号化するスペクトル情報
復号化部と、このスペクトル情報復号化部からの復号化
されたスペクトル情報から得られるスペクトル情報、パ
ワー情報のうち少なくとも1つの復号化結果または前記
スペクトル情報の符号を用いて該復号化区間における音
声の雑音性の度合いを評価し、評価結果を出力する雑音
度評価部と、非雑音的な複数の時系列ベクトルが記憶さ
れた第1の駆動符号帳と、雑音的な複数の時系列ベクト
ルが記憶された第2の駆動符号帳と、前記雑音度評価部
の評価結果により、第1の駆動符号帳と第2の駆動符号
帳とを切り替える駆動符号帳切替部と、前記第1の駆動
符号帳または第2の駆動符号帳からの時系列ベクトルを
それぞれの時系列ベクトルのゲインに応じて重み付けし
加算する重み付け加算部と、この重み付けされた時系列
ベクトルを駆動音源信号とし、この駆動音源信号と前記
スペクトル情報復号化部からの復号化されたスペクトル
情報とに基づいて復号化音声を得る合成フィルタとを備
えた。
(CELP)音声符号化装置において、スペクトル情
報、パワー情報、ピッチ情報のうち少なくとも1つの符
号または符号化結果を用いて該符号化区間における音声
の雑音性の度合いを評価する雑音度評価部と、上記雑音
度評価部の評価結果に応じて複数の駆動符号帳を切り替
える駆動符号帳切替部とを備えたことを特徴とする。
(CELP)音声復号化装置において、スペクトル情
報、パワー情報、ピッチ情報のうち少なくとも1つの符
号または復号化結果を用いて該復号化区間における音声
の雑音性の度合いを評価する雑音度評価部と、上記雑音
度評価部の評価結果に応じて複数の駆動符号帳を切り替
える駆動符号帳切替部とを備えたことを特徴とする。
置の実施の形態1の全体構成を示すブロック図である。
価の説明に供する表である。
置の実施の形態3の全体構成を示すブロック図である。
置の実施の形態5の全体構成を示すブロック図である。
理の説明に供する略線図である。
構成を示すブロック図である。
装置の全体構成を示すブロック図である。
いて説明する。
化方法の実施の形態1の全体構成を示す。図中、1は符
号化部、2は復号化部、3は多重化部、4は分離部であ
る。符号化部1は、線形予測パラメータ分析部5、線形
予測パラメータ符号化部6、合成フィルタ7、適応符号
帳8、ゲイン符号化部10、距離計算部11、第1の駆
動符号帳19、第2の駆動符号帳20、雑音度評価部2
4、駆動符号帳切替部25、重み付け加算部38より構
成されている。また、復号化部2は線形予測パラメータ
復号化部12、合成フィルタ13、適応符号帳14、第
1の駆動符号帳22、第2の駆動符号帳23、雑音度評
価部26、駆動符号帳切替部27、ゲイン復号化部1
6、重み付け加算部39より構成されている。図1中5
は入力音声S1を分析し、音声のスペクトル情報である
線形予測パラメータを抽出するスペクトル情報分析部と
しての線形予測パラメータ分析部、6はスペクトル情報
であるその線形予測パラメータを符号化し、符号化した
線形予測パラメータを合成フィルタ7の係数として設定
するスペクトル情報符号化部としての線形予測パラメー
タ符号化部、19、22は非雑音的な複数の時系列ベク
トルが記憶された第1の駆動符号帳、20、23は雑音
的な複数の時系列ベクトルが記憶された第2の駆動符号
帳、24、26は雑音の度合いを評価する雑音度評価
部、25、27は雑音の度合いにより駆動符号帳を切り
替える駆動符号帳切替部である。
線形予測パラメータ分析部5は入力音声S1を分析し、
音声のスペクトル情報である線形予測パラメータを抽出
する。線形予測パラメータ符号化部6はその線形予測パ
ラメータを符号化し、符号化した線形予測パラメータを
合成フィルタ7の係数として設定するとともに、雑音度
評価部24へ出力する。次に、音源情報の符号化につい
て説明する。適応符号帳8には、過去の駆動音源信号が
記憶されており、距離計算部11から入力される適応符
号に対応して過去の駆動音源信号を周期的に繰り返した
時系列ベクトルを出力する。雑音度評価部24は、前記
線形予測パラメータ符号化部6から入力された符号化し
た線形予測パラメータと適応符号とから、例えば図2に
示すようにスペクトルの傾斜、短期予測利得、ピッチ変
動から該符号化区間の雑音の度合いを評価し、評価結果
を駆動符号帳切替部25に出力する。駆動符号帳切替部
25は前記雑音度の評価結果に応じて、例えば雑音度が
低ければ第1の駆動符号帳19を、雑音度が高ければ第
2の駆動符号帳20を用いるとして符号化に用いる駆動
符号帳を切り替える。
ベクトル、例えば学習用音声とその符号化音声との歪み
が小さくなるように学習して構成された複数の時系列ベ
クトルが記憶されている。また、第2の駆動符号帳20
には、雑音的な複数の時系列ベクトル、例えばランダム
雑音から生成した複数の時系列ベクトルが記憶されてお
り、距離計算部11から入力されるそれぞれ駆動符号に
対応した時系列ベクトルを出力する。適応符号帳8、第
1の駆動音源符号帳19または第2の駆動符号帳20か
らの各時系列ベクトルは、ゲイン符号化部10から与え
られるそれぞれのゲインに応じて重み付け加算部38で
重み付けして加算され、その加算結果を駆動音源信号と
して合成フィルタ7へ供給され符号化音声を得る。距離
計算部11は符号化音声と入力音声S1との距離を求
め、距離が最小となる適応符号、駆動符号、ゲインを探
索する。以上符号化が終了した後、線形予測パラメータ
の符号、入力音声と符号化音声との歪みを最小にする適
応符号、駆動符号,ゲインの符号を符号化結果S2とし
て出力する。以上がこの実施の形態1の音声符号化方法
に特徴的な動作である。
線形予測パラメータ復号化部12は線形予測パラメータ
の符号から線形予測パラメータを復号化し、合成フィル
タ13の係数として設定するとともに、雑音度評価部2
6へ出力する。次に、音源情報の復号化について説明す
る。適応符号帳14は、適応符号に対応して、過去の駆
動音源信号を周期的に繰り返した時系列ベクトルを出力
する。雑音度評価部26は、前記線形予測パラメータ復
号化部12から入力された復号化した線形予測パラメー
タと適応符号とから符号化部1の雑音度評価部24と同
様の方法で雑音の度合いを評価し、評価結果を駆動符号
帳切替部27に出力する。駆動符号帳切替部27は前記
雑音度の評価結果に応じて、符号化部1の駆動符号帳切
替部25と同様に第1の駆動符号帳22と第2の駆動符
号帳23とを切り替える。
クトル、例えば学習用音声とその符号化音声との歪みが
小さくなるように学習して構成された複数の時系列ベク
トルが、第2の駆動符号帳23には雑音的な複数の時系
列ベクトル、例えばランダム雑音から生成した複数の時
系列ベクトルが記憶されており、それぞれ駆動符号に対
応した時系列ベクトルを出力する。適応符号帳14と第
1の駆動符号帳22または第2の駆動符号帳23からの
時系列ベクトルは、ゲイン復号化部16でゲインの符号
から復号化したそれぞれのゲインに応じて重み付け加算
部39で重み付けして加算され、その加算結果を駆動音
源信号として合成フィルタ13へ供給され出力音声S3
が得られる。以上がこの実施の形態1の音声復号化方法
に特徴的な動作である。
を符号および符号化結果から評価し、評価結果に応じて
異なる駆動符号帳を用いることにより、少ない情報量
で、品質の高い音声を再生することができる。
22,23には、複数の時系列ベクトルが記憶されてい
る場合を説明したが、少なくとも1つの時系列ベクトル
が記憶されていれば、実施可能である。
えて用いているが、これに代え、3つ以上の駆動符号帳
を備え、雑音の度合いに応じて切り替えて用いるとして
も良い。この実施の形態2によれば、音声を雑音/非雑
音の2通りだけでなく、やや雑音的であるなどの中間的
な音声に対してもそれに適した駆動符号帳を用いること
ができるので、品質の高い音声を再生することができ
る。
明の音声符号化方法及び音声復号化方法の実施の形態3
の全体構成を示し、図中28、30は雑音的な時系列ベ
クトルを格納した駆動符号帳、29、31は時系列ベク
トルの低振幅なサンプルの振幅値を零にするサンプル間
引き部である。
線形予測パラメータ分析部5は入力音声S1を分析し、
音声のスペクトル情報である線形予測パラメータを抽出
する。線形予測パラメータ符号化部6はその線形予測パ
ラメータを符号化し、符号化した線形予測パラメータを
合成フィルタ7の係数として設定するとともに、雑音度
評価部24へ出力する。次に、音源情報の符号化につい
て説明する。適応符号帳8には、過去の駆動音源信号が
記憶されており、距離計算部11から入力される適応符
号に対応して過去の駆動音源信号を周期的に繰り返した
時系列ベクトルを出力する。雑音度評価部24は、前記
線形予測パラメータ符号化部6から入力された符号化し
た線形予測パラメータと適応符号とから、例えばスペク
トルの傾斜、短期予測利得、ピッチ変動から該符号化区
間の雑音の度合いを評価し、評価結果をサンプル間引き
部29に出力する。
た複数の時系列ベクトルが記憶されており、距離計算部
11から入力される駆動符号に対応した時系列ベクトル
を出力する。サンプル間引き部29は、前記雑音度の評
価結果に応じて、雑音度が低ければ前記駆動符号帳28
から入力された時系列ベクトルに対して、例えば所定の
振幅値に満たないサンプルの振幅値を零にした時系列ベ
クトルを出力し、また、雑音度が高ければ前記駆動符号
帳28から入力された時系列ベクトルをそのまま出力す
る。適応符号帳8、サンプル間引き部29からの各時系
列ベクトルは、ゲイン符号化部10から与えられるそれ
ぞれのゲインに応じて重み付け加算部38で重み付けし
て加算され、その加算結果を駆動音源信号として合成フ
ィルタ7へ供給され符号化音声を得る。距離計算部11
は符号化音声と入力音声S1との距離を求め、距離が最
小となる適応符号、駆動符号、ゲインを探索する。以上
符号化が終了した後、線形予測パラメータの符号、入力
音声と符号化音声との歪みを最小にする適応符号、駆動
符号,ゲインの符号を符号化結果S2として出力する。
以上がこの実施の形態3の音声符号化方法に特徴的な動
作である。
線形予測パラメータ復号化部12は線形予測パラメータ
の符号から線形予測パラメータを復号化し、合成フィル
タ13の係数として設定するとともに、雑音度評価部2
6へ出力する。次に、音源情報の復号化について説明す
る。適応符号帳14は、適応符号に対応して、過去の駆
動音源信号を周期的に繰り返した時系列ベクトルを出力
する。雑音度評価部26は、前記線形予測パラメータ復
号化部12から入力された復号化した線形予測パラメー
タと適応符号とから符号化部1の雑音度評価部24と同
様の方法で雑音の度合いを評価し、評価結果をサンプル
間引き部31に出力する。
を出力する。サンプル間引き部31は、前記雑音度評価
結果に応じて、前記符号化部1のサンプル間引き部29
と同様の処理により時系列ベクトルを出力する。適応符
号帳14、サンプル間引き部31からの各時系列ベクト
ルは、ゲイン復号化部16から与えられるそれぞれのゲ
インに応じて重み付け加算部39で重み付けして加算さ
れ、その加算結果を駆動音源信号として合成フィルタ1
3へ供給され出力音声S3が得られる。
を格納している駆動符号帳を備え、音声の雑音性の度合
いの評価結果に応じて、駆動音源の信号サンプルを間引
くことにより雑音性の度合いが低い駆動音源を生成する
ことにより、少ない情報量で、品質の高い音声を再生す
ることができる。また、複数の駆動符号帳を備える必要
がないので、駆動符号帳の記憶に要するメモリ量を少な
くする効果もある。
を間引く/間引かないの2通りとしているが、これに代
え、雑音の度合いに応じてサンプルを間引く際の振幅閾
値を変更するとしても良い。この実施の形態4によれ
ば、音声を雑音/非雑音の2通りだけでなく、やや雑音
的であるなどの中間的な音声に対してもそれに適した時
系列ベクトルを生成し、用いることができるので、品質
の高い音声を再生することができる。
明の音声符号化方法及び音声復号化方法の実施の形態5
の全体構成を示し、図中32、35は雑音的な時系列ベ
クトルを記憶している第1の駆動符号帳、33、36は
非雑音的な時系列ベクトルを記憶している第2の駆動符
号帳、34、37は重み決定部である。
線形予測パラメータ分析部5は入力音声S1を分析し、
音声のスペクトル情報である線形予測パラメータを抽出
する。線形予測パラメータ符号化部6はその線形予測パ
ラメータを符号化し、符号化した線形予測パラメータを
合成フィルタ7の係数として設定するとともに、雑音度
評価部24へ出力する。次に、音源情報の符号化につい
て説明する。適応符号帳8には、過去の駆動音源信号が
記憶されており、距離計算部11から入力される適応符
号に対応して過去の駆動音源信号を周期的に繰り返した
時系列ベクトルを出力する。雑音度評価部24は、前記
線形予測パラメータ符号化部6から入力された符号化し
た線形予測パラメータと適応符号とから、例えばスペク
トルの傾斜、短期予測利得、ピッチ変動から該符号化区
間の雑音の度合いを評価し、評価結果を重み決定部34
に出力する。
生成した複数の雑音的な時系列ベクトルが記憶されてお
り、駆動符号に対応した時系列ベクトルを出力する。第
2の駆動符号帳33には、例えば学習用音声とその符号
化音声との歪みが小さくなるように学習して構成された
複数の時系列ベクトルが記憶されており、距離計算部1
1から入力される駆動符号に対応した時系列ベクトルを
出力する。重み決定部34は前記雑音度評価部24から
入力された雑音度の評価結果に応じて、例えば図5に従
って、第1の駆動符号帳32からの時系列ベクトルと第
2の駆動符号帳33からの時系列ベクトルに与える重み
を決定する。第1の駆動符号帳32、第2の駆動符号帳
33からの各時系列ベクトルは上記重み決定部34から
与えられる重みに応じて重み付けして加算される。適応
符号帳8から出力された時系列ベクトルと、前記重み付
け加算して生成された時系列ベクトルはゲイン符号化部
10から与えられるそれぞれのゲインに応じて重み付け
加算部38で重み付けして加算され、その加算結果を駆
動音源信号として合成フィルタ7へ供給し符号化音声を
得る。距離計算部11は符号化音声と入力音声S1との
距離を求め、距離が最小となる適応符号、駆動符号、ゲ
インを探索する。この符号化が終了した後、線形予測パ
ラメータの符号、入力音声と符号化音声との歪みを最小
にする適応符号、駆動符号、ゲインの符号を符号化結果
として出力する。
線形予測パラメータ復号化部12は線形予測パラメータ
の符号から線形予測パラメータを復号化し、合成フィル
タ13の係数として設定するとともに、雑音度評価部2
6へ出力する。次に、音源情報の復号化について説明す
る。適応符号帳14は、適応符号に対応して、過去の駆
動音源信号を周期的に繰り返した時系列ベクトルを出力
する。雑音度評価部26は、前記線形予測パラメータ復
号化部12から入力された復号化した線形予測パラメー
タと適応符号とから符号化部1の雑音度評価部24と同
様の方法で雑音の度合いを評価し、評価結果を重み決定
部37に出力する。
駆動符号に対応した時系列ベクトルを出力する。重み決
定部37は前記雑音度評価部26から入力された雑音度
評価結果に応じて、符号化部1の重み決定部34と同様
に重みを与えるとする。第1の駆動符号帳35、第2の
駆動符号帳36からの各時系列ベクトルは上記重み決定
部37から与えれるそれぞれの重みに応じて重み付けし
て加算される。適応符号帳14から出力された時系列ベ
クトルと、前記重み付け加算して生成された時系列ベク
トルは、ゲイン復号化部16でゲインの符号から復号化
したそれぞれのゲインに応じて重み付け加算部39で重
み付けして加算され、その加算結果が駆動音源信号とし
て合成フィルタ13へ供給され出力音声S3が得られ
る。
号および符号化結果から評価し、評価結果に応じて雑音
的な時系列ベクトルと非雑音的な時系列ベクトルを重み
付き加算して用いることにより、少ない情報量で、品質
の高い音声を再生することができる。
価結果に応じてゲインの符号帳を変更するとしても良
い。この実施の形態6によれば、駆動符号帳に応じて最
適なゲインの符号帳を用いることができるので、品質の
高い音声を再生することができる。
評価し、その評価結果に応じて駆動符号帳を切り替えて
いるが、有声の立ち上がりや破裂性の子音などをそれぞ
れ判定、評価し、その評価結果に応じて駆動符号帳を切
り替えても良い。この実施の形態7によれば、音声の雑
音的な状態だけでなく、有声の立ち上がりや破裂性子音
などさらに細かく分類し、それぞれに適した駆動符号帳
を用いることができるので、品質の高い音声を再生する
ことができる。
傾斜、短期予測利得、ピッチ変動から、符号化区間の雑
音の度合いを評価しているが、適応符号帳出力に対する
ゲイン値の大小を用いて評価しても良い。
に音声符号化装置及び音声復号化装置によれば、スペク
トル情報、パワー情報、ピッチ情報のうち少なくとも1
つの符号または符号化結果を用いて該符号化区間におけ
る音声の雑音性の度合いを評価し、評価結果に応じて異
なる駆動符号帳を用いるので、少ない情報量で品質の高
い音声を再生することができる。
化方法で、格納している駆動音源の雑音性の度合いが異
なる複数の駆動符号帳を備え、音声の雑音性の度合いの
評価結果に応じて、複数の駆動符号帳を切り替えて用い
るので、少ない情報量で品質の高い音声を再生すること
ができる。
化方法で、音声の雑音性の度合いの評価結果に応じて、
駆動符号帳に格納している時系列ベクトルの雑音性の度
合いを変化させたので、少ない情報量で品質の高い音声
を再生することができる。
化方法で、雑音的な時系列ベクトルを格納している駆動
符号帳を備え、音声の雑音性の度合いの評価結果に応じ
て、時系列ベクトルの信号サンプルを間引くことにより
雑音性の度合いが低い時系列ベクトルを生成したので、
少ない情報量で品質の高い音声を再生することができ
る。
化方法で、雑音的な時系列ベクトルを格納している第1
の駆動符号帳と、非雑音的な時系列ベクトルを格納して
いる第2の駆動符号帳とを備え、音声の雑音性の度合い
の評価結果に応じて、第1の駆動符号帳の時系列ベクト
ルと第2の駆動符号帳の時系列ベクトルを重み付け加算
した時系列ベクトルを生成したので、少ない情報量で品
質の高い音声を再生することができる。
Claims (5)
- 【請求項1】 符号駆動線形予測(Code-Excited Linea
r Prediction:CELP)音声復号化方法において、ス
ペクトル情報、パワー情報、ピッチ情報のうち少なくと
も1つの符号または復号化結果を用いて該復号化区間に
おける音声の雑音性の度合いを評価し、評価結果に応じ
て複数の駆動符号帳のうち1つを選択し、 選択した駆動符号帳から出力された時系列ベクトルを評
価結果に応じた雑音性の度合を有する時系列ベクトルに
変換して出力することを特徴とする音声復号化方法。 - 【請求項2】 雑音的な時系列ベクトルを格納している
駆動符号帳を備え、音声の雑音性の度合いの評価結果に
応じて、上記時系列ベクトルの信号サンプルを間引くこ
とにより雑音性の度合いが低い時系列ベクトルを生成す
ることを特徴とする請求項1に記載の音声復号化方法。 - 【請求項3】 符号駆動線形予測(CELP)音声復号
化方法において、スペクトル情報、パワー情報、ピッチ
情報のうち少なくとも1つの符号または復号化結果を用
いて該復号化区間における音声の雑音性の度合いを評価
し、駆動符号帳から出力された時系列ベクトルを評価結
果に応じた雑音性の度合を有する時系列ベクトルに変換
して出力することを特徴とする音声復号化方法。 - 【請求項4】 符号駆動線形予測(CELP)音声復号
化装置において、スペクトル情報、パワー情報、ピッチ
情報のうち少なくとも1つの符号または復号化結果を用
いて該復号化区間における音声の雑音性の度合いを評価
する雑音度評価部と、 上記雑音度評価部の評価結果に応じて複数の駆動符号帳
を切り替える駆動符号帳切替部と、 上記雑音度評価部が評価した評価結果を入力し、上記駆
動符号帳切替部が切り替えた駆動符号帳から出力された
時系列ベクトルを評価結果に応じた雑音性の度合を有す
る時系列ベクトルに変換して出力する雑音度制御部とを
備えたことを特徴とする音声復号化装置。 - 【請求項5】 符号駆動線形予測(CELP)音声復号
化装置において、スペクトル情報、パワー情報、ピッチ
情報のうち少なくとも1つの符号または復号化結果を用
いて該復号化区間における音声の雑音性の度合いを評価
する雑音度評価部と、 上記雑音度評価部が評価した評価結果を入力し、駆動符
号帳から出力された時系列ベクトルを評価結果に応じた
雑音性の度合を有する時系列ベクトルに変換して出力す
る雑音度制御部とを備えたことを特徴とする音声復号化
装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9-354754 | 1997-12-24 | ||
JP35475497 | 1997-12-24 | ||
PCT/JP1998/005513 WO1999034354A1 (en) | 1997-12-24 | 1998-12-07 | Sound encoding method and sound decoding method, and sound encoding device and sound decoding device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002202211A Division JP3736801B2 (ja) | 1997-12-24 | 2002-07-11 | 音声復号化方法及び音声復号化装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP3346765B2 true JP3346765B2 (ja) | 2002-11-18 |
Family
ID=18439687
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000526920A Expired - Lifetime JP3346765B2 (ja) | 1997-12-24 | 1998-12-07 | 音声復号化方法及び音声復号化装置 |
JP2009018916A Expired - Lifetime JP4916521B2 (ja) | 1997-12-24 | 2009-01-30 | 音声復号化方法及び音声符号化方法及び音声復号化装置及び音声符号化装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009018916A Expired - Lifetime JP4916521B2 (ja) | 1997-12-24 | 2009-01-30 | 音声復号化方法及び音声符号化方法及び音声復号化装置及び音声符号化装置 |
Country Status (11)
Country | Link |
---|---|
US (18) | US7092885B1 (ja) |
EP (8) | EP1052620B1 (ja) |
JP (2) | JP3346765B2 (ja) |
KR (1) | KR100373614B1 (ja) |
CN (5) | CN1737903A (ja) |
AU (1) | AU732401B2 (ja) |
CA (4) | CA2722196C (ja) |
DE (3) | DE69837822T2 (ja) |
IL (1) | IL136722A0 (ja) |
NO (3) | NO20003321L (ja) |
WO (1) | WO1999034354A1 (ja) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1052620B1 (en) * | 1997-12-24 | 2004-07-21 | Mitsubishi Denki Kabushiki Kaisha | Sound encoding method and sound decoding method, and sound encoding device and sound decoding device |
DE60018696T2 (de) * | 1999-07-01 | 2006-04-06 | Koninklijke Philips Electronics N.V. | Robuste sprachverarbeitung von verrauschten sprachmodellen |
WO2001002929A2 (en) * | 1999-07-02 | 2001-01-11 | Tellabs Operations, Inc. | Coded domain noise control |
JP2001075600A (ja) * | 1999-09-07 | 2001-03-23 | Mitsubishi Electric Corp | 音声符号化装置および音声復号化装置 |
JP4619549B2 (ja) * | 2000-01-11 | 2011-01-26 | パナソニック株式会社 | マルチモード音声復号化装置及びマルチモード音声復号化方法 |
JP4510977B2 (ja) * | 2000-02-10 | 2010-07-28 | 三菱電機株式会社 | 音声符号化方法および音声復号化方法とその装置 |
FR2813722B1 (fr) * | 2000-09-05 | 2003-01-24 | France Telecom | Procede et dispositif de dissimulation d'erreurs et systeme de transmission comportant un tel dispositif |
JP3404016B2 (ja) * | 2000-12-26 | 2003-05-06 | 三菱電機株式会社 | 音声符号化装置及び音声符号化方法 |
JP3404024B2 (ja) | 2001-02-27 | 2003-05-06 | 三菱電機株式会社 | 音声符号化方法および音声符号化装置 |
JP3566220B2 (ja) * | 2001-03-09 | 2004-09-15 | 三菱電機株式会社 | 音声符号化装置、音声符号化方法、音声復号化装置及び音声復号化方法 |
KR100467326B1 (ko) * | 2002-12-09 | 2005-01-24 | 학교법인연세대학교 | 추가 비트 할당 기법을 이용한 음성 부호화 및 복호화를위한 송수신기 |
US20040244310A1 (en) * | 2003-03-28 | 2004-12-09 | Blumberg Marvin R. | Data center |
WO2006121101A1 (ja) * | 2005-05-13 | 2006-11-16 | Matsushita Electric Industrial Co., Ltd. | 音声符号化装置およびスペクトル変形方法 |
CN1924990B (zh) * | 2005-09-01 | 2011-03-16 | 凌阳科技股份有限公司 | Midi音讯的播放架构和方法与其应用的多媒体装置 |
US20090164211A1 (en) * | 2006-05-10 | 2009-06-25 | Panasonic Corporation | Speech encoding apparatus and speech encoding method |
US8712766B2 (en) * | 2006-05-16 | 2014-04-29 | Motorola Mobility Llc | Method and system for coding an information signal using closed loop adaptive bit allocation |
MY152845A (en) * | 2006-10-24 | 2014-11-28 | Voiceage Corp | Method and device for coding transition frames in speech signals |
EP2538406B1 (en) * | 2006-11-10 | 2015-03-11 | Panasonic Intellectual Property Corporation of America | Method and apparatus for decoding parameters of a CELP encoded speech signal |
JPWO2008072732A1 (ja) * | 2006-12-14 | 2010-04-02 | パナソニック株式会社 | 音声符号化装置および音声符号化方法 |
US8160872B2 (en) * | 2007-04-05 | 2012-04-17 | Texas Instruments Incorporated | Method and apparatus for layered code-excited linear prediction speech utilizing linear prediction excitation corresponding to optimal gains |
CN101971251B (zh) * | 2008-03-14 | 2012-08-08 | 杜比实验室特许公司 | 像言语的信号和不像言语的信号的多模式编解码方法及装置 |
US9056697B2 (en) * | 2008-12-15 | 2015-06-16 | Exopack, Llc | Multi-layered bags and methods of manufacturing the same |
US8649456B2 (en) | 2009-03-12 | 2014-02-11 | Futurewei Technologies, Inc. | System and method for channel information feedback in a wireless communications system |
US8675627B2 (en) * | 2009-03-23 | 2014-03-18 | Futurewei Technologies, Inc. | Adaptive precoding codebooks for wireless communications |
US9070356B2 (en) * | 2012-04-04 | 2015-06-30 | Google Technology Holdings LLC | Method and apparatus for generating a candidate code-vector to code an informational signal |
US9208798B2 (en) | 2012-04-09 | 2015-12-08 | Board Of Regents, The University Of Texas System | Dynamic control of voice codec data rate |
PL2922053T3 (pl) | 2012-11-15 | 2019-11-29 | Ntt Docomo Inc | Urządzenie do kodowania audio, sposób kodowania audio, program do kodowania audio, urządzenie do dekodowania audio, sposób dekodowania audio, i program do dekodowania audio |
RU2662921C2 (ru) | 2013-06-10 | 2018-07-31 | Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. | Устройство и способ для кодирования, обработки и декодирования огибающей аудиосигнала путем моделирования представления совокупной суммы с использованием квантования и кодирования распределения |
KR20160070147A (ko) | 2013-10-18 | 2016-06-17 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 결정론적 및 잡음 유사 정보를 사용하는 오디오 신호의 인코딩 및 오디오 신호의 디코딩을 위한 개념 |
WO2015055531A1 (en) | 2013-10-18 | 2015-04-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Concept for encoding an audio signal and decoding an audio signal using speech related spectral shaping information |
CN104934035B (zh) * | 2014-03-21 | 2017-09-26 | 华为技术有限公司 | 语音频码流的解码方法及装置 |
CN110444217B (zh) | 2014-05-01 | 2022-10-21 | 日本电信电话株式会社 | 解码装置、解码方法、记录介质 |
US9934790B2 (en) | 2015-07-31 | 2018-04-03 | Apple Inc. | Encoded audio metadata-based equalization |
JP6759927B2 (ja) * | 2016-09-23 | 2020-09-23 | 富士通株式会社 | 発話評価装置、発話評価方法、および発話評価プログラム |
WO2018084305A1 (ja) * | 2016-11-07 | 2018-05-11 | ヤマハ株式会社 | 音声合成方法 |
US10878831B2 (en) | 2017-01-12 | 2020-12-29 | Qualcomm Incorporated | Characteristic-based speech codebook selection |
JP6514262B2 (ja) * | 2017-04-18 | 2019-05-15 | ローランドディー.ジー.株式会社 | インクジェットプリンタおよび印刷方法 |
CN112201270B (zh) * | 2020-10-26 | 2023-05-23 | 平安科技(深圳)有限公司 | 语音噪声的处理方法、装置、计算机设备及存储介质 |
EP4053750A1 (en) * | 2021-03-04 | 2022-09-07 | Tata Consultancy Services Limited | Method and system for time series data prediction based on seasonal lags |
Family Cites Families (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0197294A (ja) | 1987-10-06 | 1989-04-14 | Piran Mirton | 木材パルプ等の精製機 |
JPH0333900A (ja) * | 1989-06-30 | 1991-02-14 | Fujitsu Ltd | 音声符号化方式 |
CA2019801C (en) | 1989-06-28 | 1994-05-31 | Tomohiko Taniguchi | System for speech coding and an apparatus for the same |
US5261027A (en) * | 1989-06-28 | 1993-11-09 | Fujitsu Limited | Code excited linear prediction speech coding system |
JP2940005B2 (ja) * | 1989-07-20 | 1999-08-25 | 日本電気株式会社 | 音声符号化装置 |
CA2021514C (en) * | 1989-09-01 | 1998-12-15 | Yair Shoham | Constrained-stochastic-excitation coding |
US5754976A (en) * | 1990-02-23 | 1998-05-19 | Universite De Sherbrooke | Algebraic codebook with signal-selected pulse amplitude/position combinations for fast coding of speech |
JPH0451200A (ja) * | 1990-06-18 | 1992-02-19 | Fujitsu Ltd | 音声符号化方式 |
US5293449A (en) * | 1990-11-23 | 1994-03-08 | Comsat Corporation | Analysis-by-synthesis 2,4 kbps linear predictive speech codec |
JP2776050B2 (ja) | 1991-02-26 | 1998-07-16 | 日本電気株式会社 | 音声符号化方式 |
US5680508A (en) * | 1991-05-03 | 1997-10-21 | Itt Corporation | Enhancement of speech coding in background noise for low-rate speech coder |
US5396576A (en) * | 1991-05-22 | 1995-03-07 | Nippon Telegraph And Telephone Corporation | Speech coding and decoding methods using adaptive and random code books |
JPH05232994A (ja) | 1992-02-25 | 1993-09-10 | Oki Electric Ind Co Ltd | 統計コードブック |
JPH05265496A (ja) * | 1992-03-18 | 1993-10-15 | Hitachi Ltd | 複数のコードブックを有する音声符号化方法 |
JP3297749B2 (ja) | 1992-03-18 | 2002-07-02 | ソニー株式会社 | 符号化方法 |
US5495555A (en) * | 1992-06-01 | 1996-02-27 | Hughes Aircraft Company | High quality low bit rate celp-based speech codec |
CA2107314C (en) * | 1992-09-30 | 2001-04-17 | Katsunori Takahashi | Computer system |
CA2108623A1 (en) * | 1992-11-02 | 1994-05-03 | Yi-Sheng Wang | Adaptive pitch pulse enhancer and method for use in a codebook excited linear prediction (celp) search loop |
JP2746033B2 (ja) * | 1992-12-24 | 1998-04-28 | 日本電気株式会社 | 音声復号化装置 |
EP0654909A4 (en) * | 1993-06-10 | 1997-09-10 | Oki Electric Ind Co Ltd | PREDICTIVE LINEAR ENCODER-ENCODER WITH CODES EXCITATION. |
JP2624130B2 (ja) | 1993-07-29 | 1997-06-25 | 日本電気株式会社 | 音声符号化方式 |
JPH0749700A (ja) | 1993-08-09 | 1995-02-21 | Fujitsu Ltd | Celp型音声復号器 |
CA2154911C (en) * | 1994-08-02 | 2001-01-02 | Kazunori Ozawa | Speech coding device |
JPH0869298A (ja) | 1994-08-29 | 1996-03-12 | Olympus Optical Co Ltd | 再生装置 |
JP3557662B2 (ja) * | 1994-08-30 | 2004-08-25 | ソニー株式会社 | 音声符号化方法及び音声復号化方法、並びに音声符号化装置及び音声復号化装置 |
JPH08102687A (ja) * | 1994-09-29 | 1996-04-16 | Yamaha Corp | 音声送受信方式 |
JPH08110800A (ja) | 1994-10-12 | 1996-04-30 | Fujitsu Ltd | A−b−S法による高能率音声符号化方式 |
JP3328080B2 (ja) * | 1994-11-22 | 2002-09-24 | 沖電気工業株式会社 | コード励振線形予測復号器 |
JPH08179796A (ja) * | 1994-12-21 | 1996-07-12 | Sony Corp | 音声符号化方法 |
JP3292227B2 (ja) | 1994-12-28 | 2002-06-17 | 日本電信電話株式会社 | 符号励振線形予測音声符号化方法及びその復号化方法 |
EP0723258B1 (en) * | 1995-01-17 | 2000-07-05 | Nec Corporation | Speech encoder with features extracted from current and previous frames |
KR0181028B1 (ko) * | 1995-03-20 | 1999-05-01 | 배순훈 | 분류 디바이스를 갖는 개선된 비디오 신호 부호화 시스템 |
JPH08328598A (ja) * | 1995-05-26 | 1996-12-13 | Sanyo Electric Co Ltd | 音声符号化・復号化装置 |
US5864797A (en) | 1995-05-30 | 1999-01-26 | Sanyo Electric Co., Ltd. | Pitch-synchronous speech coding by applying multiple analysis to select and align a plurality of types of code vectors |
JP3515216B2 (ja) * | 1995-05-30 | 2004-04-05 | 三洋電機株式会社 | 音声符号化装置 |
JPH0922299A (ja) * | 1995-07-07 | 1997-01-21 | Kokusai Electric Co Ltd | 音声符号化通信方式 |
US5819215A (en) * | 1995-10-13 | 1998-10-06 | Dobson; Kurt | Method and apparatus for wavelet based data compression having adaptive bit rate control for compression of digital audio or other sensory data |
JP3680380B2 (ja) * | 1995-10-26 | 2005-08-10 | ソニー株式会社 | 音声符号化方法及び装置 |
DE69516522T2 (de) | 1995-11-09 | 2001-03-08 | Nokia Mobile Phones Ltd., Salo | Verfahren zur Synthetisierung eines Sprachsignalblocks in einem CELP-Kodierer |
FI100840B (fi) * | 1995-12-12 | 1998-02-27 | Nokia Mobile Phones Ltd | Kohinanvaimennin ja menetelmä taustakohinan vaimentamiseksi kohinaises ta puheesta sekä matkaviestin |
JP4063911B2 (ja) | 1996-02-21 | 2008-03-19 | 松下電器産業株式会社 | 音声符号化装置 |
GB2312360B (en) | 1996-04-12 | 2001-01-24 | Olympus Optical Co | Voice signal coding apparatus |
JPH09281997A (ja) * | 1996-04-12 | 1997-10-31 | Olympus Optical Co Ltd | 音声符号化装置 |
JP3094908B2 (ja) | 1996-04-17 | 2000-10-03 | 日本電気株式会社 | 音声符号化装置 |
KR100389895B1 (ko) * | 1996-05-25 | 2003-11-28 | 삼성전자주식회사 | 음성 부호화 및 복호화방법 및 그 장치 |
JP3364825B2 (ja) | 1996-05-29 | 2003-01-08 | 三菱電機株式会社 | 音声符号化装置および音声符号化復号化装置 |
JPH1020891A (ja) * | 1996-07-09 | 1998-01-23 | Sony Corp | 音声符号化方法及び装置 |
JP3707154B2 (ja) * | 1996-09-24 | 2005-10-19 | ソニー株式会社 | 音声符号化方法及び装置 |
JP3174742B2 (ja) | 1997-02-19 | 2001-06-11 | 松下電器産業株式会社 | Celp型音声復号化装置及びcelp型音声復号化方法 |
DE69712535T2 (de) | 1996-11-07 | 2002-08-29 | Matsushita Electric Industrial Co., Ltd. | Vorrichtung zur Erzeugung eines Vektorquantisierungs-Codebuchs |
US5867289A (en) * | 1996-12-24 | 1999-02-02 | International Business Machines Corporation | Fault detection for all-optical add-drop multiplexer |
SE9700772D0 (sv) * | 1997-03-03 | 1997-03-03 | Ericsson Telefon Ab L M | A high resolution post processing method for a speech decoder |
US6167375A (en) * | 1997-03-17 | 2000-12-26 | Kabushiki Kaisha Toshiba | Method for encoding and decoding a speech signal including background noise |
US5893060A (en) | 1997-04-07 | 1999-04-06 | Universite De Sherbrooke | Method and device for eradicating instability due to periodic signals in analysis-by-synthesis speech codecs |
US6029125A (en) | 1997-09-02 | 2000-02-22 | Telefonaktiebolaget L M Ericsson, (Publ) | Reducing sparseness in coded speech signals |
US6058359A (en) * | 1998-03-04 | 2000-05-02 | Telefonaktiebolaget L M Ericsson | Speech coding including soft adaptability feature |
JPH11119800A (ja) | 1997-10-20 | 1999-04-30 | Fujitsu Ltd | 音声符号化復号化方法及び音声符号化復号化装置 |
EP1052620B1 (en) * | 1997-12-24 | 2004-07-21 | Mitsubishi Denki Kabushiki Kaisha | Sound encoding method and sound decoding method, and sound encoding device and sound decoding device |
US6415252B1 (en) * | 1998-05-28 | 2002-07-02 | Motorola, Inc. | Method and apparatus for coding and decoding speech |
US6453289B1 (en) * | 1998-07-24 | 2002-09-17 | Hughes Electronics Corporation | Method of noise reduction for speech codecs |
US6104992A (en) * | 1998-08-24 | 2000-08-15 | Conexant Systems, Inc. | Adaptive gain reduction to produce fixed codebook target signal |
US6385573B1 (en) * | 1998-08-24 | 2002-05-07 | Conexant Systems, Inc. | Adaptive tilt compensation for synthesized speech residual |
ITMI20011454A1 (it) | 2001-07-09 | 2003-01-09 | Cadif Srl | Procedimento impianto e nastro a base di bitume polimero per il riscaldamento superficiale ed ambiantale delle strutture e delle infrastrutt |
-
1998
- 1998-12-07 EP EP98957197A patent/EP1052620B1/en not_active Expired - Lifetime
- 1998-12-07 CN CNA2005100895281A patent/CN1737903A/zh active Pending
- 1998-12-07 EP EP03090370A patent/EP1426925B1/en not_active Expired - Lifetime
- 1998-12-07 CA CA2722196A patent/CA2722196C/en not_active Expired - Lifetime
- 1998-12-07 JP JP2000526920A patent/JP3346765B2/ja not_active Expired - Lifetime
- 1998-12-07 KR KR10-2000-7007047A patent/KR100373614B1/ko active IP Right Grant
- 1998-12-07 EP EP09014423.9A patent/EP2154680B1/en not_active Expired - Lifetime
- 1998-12-07 EP EP09014422.1A patent/EP2154679B1/en not_active Expired - Lifetime
- 1998-12-07 CA CA002315699A patent/CA2315699C/en not_active Expired - Lifetime
- 1998-12-07 CA CA002636684A patent/CA2636684C/en not_active Expired - Lifetime
- 1998-12-07 EP EP06008656A patent/EP1686563A3/en not_active Withdrawn
- 1998-12-07 US US09/530,719 patent/US7092885B1/en not_active Expired - Lifetime
- 1998-12-07 DE DE69837822T patent/DE69837822T2/de not_active Expired - Lifetime
- 1998-12-07 CN CNA031584632A patent/CN1494055A/zh active Pending
- 1998-12-07 EP EP05015793A patent/EP1596368B1/en not_active Expired - Lifetime
- 1998-12-07 EP EP05015792A patent/EP1596367A3/en not_active Ceased
- 1998-12-07 CA CA2636552A patent/CA2636552C/en not_active Expired - Lifetime
- 1998-12-07 IL IL13672298A patent/IL136722A0/xx unknown
- 1998-12-07 EP EP09014424A patent/EP2154681A3/en not_active Ceased
- 1998-12-07 WO PCT/JP1998/005513 patent/WO1999034354A1/ja active Application Filing
- 1998-12-07 DE DE69736446T patent/DE69736446T2/de not_active Expired - Lifetime
- 1998-12-07 CN CN2005100563318A patent/CN1658282A/zh active Pending
- 1998-12-07 DE DE69825180T patent/DE69825180T2/de not_active Expired - Fee Related
- 1998-12-07 CN CNB988126826A patent/CN1143268C/zh not_active Expired - Lifetime
- 1998-12-07 AU AU13526/99A patent/AU732401B2/en not_active Expired
- 1998-12-07 CN CN200510088000A patent/CN100583242C/zh not_active Expired - Lifetime
-
2000
- 2000-06-23 NO NO20003321A patent/NO20003321L/no not_active Application Discontinuation
-
2003
- 2003-11-17 NO NO20035109A patent/NO323734B1/no not_active IP Right Cessation
-
2004
- 2004-01-06 NO NO20040046A patent/NO20040046L/no not_active Application Discontinuation
-
2005
- 2005-03-28 US US11/090,227 patent/US7363220B2/en not_active Expired - Fee Related
- 2005-07-26 US US11/188,624 patent/US7383177B2/en not_active Expired - Fee Related
-
2007
- 2007-01-16 US US11/653,288 patent/US7747441B2/en not_active Expired - Fee Related
- 2007-10-29 US US11/976,878 patent/US20080071526A1/en not_active Abandoned
- 2007-10-29 US US11/976,830 patent/US20080065375A1/en not_active Abandoned
- 2007-10-29 US US11/976,828 patent/US20080071524A1/en not_active Abandoned
- 2007-10-29 US US11/976,841 patent/US20080065394A1/en not_active Abandoned
- 2007-10-29 US US11/976,883 patent/US7747433B2/en not_active Expired - Fee Related
- 2007-10-29 US US11/976,840 patent/US7747432B2/en not_active Expired - Fee Related
- 2007-10-29 US US11/976,877 patent/US7742917B2/en not_active Expired - Fee Related
-
2008
- 2008-12-11 US US12/332,601 patent/US7937267B2/en not_active Expired - Fee Related
-
2009
- 2009-01-30 JP JP2009018916A patent/JP4916521B2/ja not_active Expired - Lifetime
-
2011
- 2011-03-28 US US13/073,560 patent/US8190428B2/en not_active Expired - Fee Related
-
2012
- 2012-02-17 US US13/399,830 patent/US8352255B2/en not_active Expired - Fee Related
- 2012-09-14 US US13/618,345 patent/US8447593B2/en not_active Expired - Fee Related
-
2013
- 2013-03-11 US US13/792,508 patent/US8688439B2/en not_active Expired - Fee Related
-
2014
- 2014-02-25 US US14/189,013 patent/US9263025B2/en not_active Expired - Fee Related
-
2016
- 2016-02-12 US US15/043,189 patent/US9852740B2/en not_active Expired - Fee Related
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3346765B2 (ja) | 音声復号化方法及び音声復号化装置 | |
JP3180762B2 (ja) | 音声符号化装置及び音声復号化装置 | |
JPH0990995A (ja) | 音声符号化装置 | |
JP3746067B2 (ja) | 音声復号化方法及び音声復号化装置 | |
KR100561018B1 (ko) | 음성 부호화 장치와 방법, 및 음성 복호화 장치와 방법 | |
JP2538450B2 (ja) | 音声の励振信号符号化・復号化方法 | |
JP4800285B2 (ja) | 音声復号化方法及び音声復号化装置 | |
JP3319396B2 (ja) | 音声符号化装置ならびに音声符号化復号化装置 | |
JP2613503B2 (ja) | 音声の励振信号符号化・復号化方法 | |
JP3003531B2 (ja) | 音声符号化装置 | |
JP3144284B2 (ja) | 音声符号化装置 | |
JP4510977B2 (ja) | 音声符号化方法および音声復号化方法とその装置 | |
JP3299099B2 (ja) | 音声符号化装置 | |
JP3292227B2 (ja) | 符号励振線形予測音声符号化方法及びその復号化方法 | |
JP3563400B2 (ja) | 音声復号化装置及び音声復号化方法 | |
JP2001142499A (ja) | 音声符号化装置ならびに音声復号化装置 | |
JP4170288B2 (ja) | 音声符号化方法及び音声符号化装置 | |
JP3192051B2 (ja) | 音声符号化装置 | |
JP3736801B2 (ja) | 音声復号化方法及び音声復号化装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20020806 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080906 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080906 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090906 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090906 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100906 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110906 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110906 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120906 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120906 Year of fee payment: 10 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120906 Year of fee payment: 10 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130906 Year of fee payment: 11 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |