JPH10240299A - 音声符号化及び復号装置 - Google Patents
音声符号化及び復号装置Info
- Publication number
- JPH10240299A JPH10240299A JP9044223A JP4422397A JPH10240299A JP H10240299 A JPH10240299 A JP H10240299A JP 9044223 A JP9044223 A JP 9044223A JP 4422397 A JP4422397 A JP 4422397A JP H10240299 A JPH10240299 A JP H10240299A
- Authority
- JP
- Japan
- Prior art keywords
- voices
- speech
- speakers
- source
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
- G10L21/028—Voice signal separating using properties of sound source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/09—Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0264—Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
Abstract
ラメータ及び源音声特徴パラメータの抽出による高い圧
縮比での符号化及び復号を可能にする。 【解決手段】 入力音声に複数話者の音声が含まれてい
るときにも対処可能なように、入力音声から各話者の音
声を分離する複数話者音声分離部11と、N組の長期予
測器121,122,…,12N及び源音コードブック1
31,132,…,13Nと、話者数に応じた次数で入力
音声の総合的な反射係数rを求める反射係数分析部14
とを備える。
Description
(VQ)によって音声を圧縮符号化及び復号する音声符
号化及び復号装置に関する。
としてCELP(Code Excited Lenear Predictive Cod
ing)系のベクトル量子化手法がディジタル携帯電話等
の分野で実用化されている。図7は、従来のこの種の音
声符号化装置の一例を示す図である。即ち、音声の特徴
は、声帯から発生される源音声のピッチやノイズ成分
(以下、「源音声特徴パラメータ」と呼ぶ。)と、の
ど、口を音声が通過する時の声道伝達特性や唇での放射
特性(以下、これらをまとめて「声道特徴パラメータ」
という。)によって表現可能である。反射係数分析部1
は、入力音声から反射係数rを求め、これを声道特徴パ
ラメータとして出力する。長期予測器2は、入力音声の
基本周波数にほぼ相当するピッチLを抽出する。入力音
声から反射係数r及びピッチLによる特徴を除いた残差
成分は源音コードブック3の中のコードベクトルにより
近似される。このコードベクトルを特定するインデック
スIとピッチLとが源音声特徴パラメータとなる。具体
的には、長期予測器2からのピッチLに基づく復号信号
とコードベクトルとが合成部4で合成され、この合成波
形が反射係数rに基づくのど近似フィルタ5を通ること
により局部復号音声が得られ、この局部復号音声と入力
音声との誤差が減算器6で求められる。そして、この誤
差が最も小さくなる源音コードブック3のコードベクト
ルが選択され、そのインデックスIと反射係数r及びピ
ッチLとがそれぞれのゲイン情報と共に出力される。
及びピッチLに基づき、符号化装置と同一の源音コード
ブックと復号手法を使用して源音声が復号され、この源
音声を別途与えられた反射係数rに基づくのど近似フィ
ルタを通すことにより音声を復号する。
た従来の音声符号化及び復号装置では、単一音声の特徴
を前提とした符号化及び復号を行っているので、複数話
者の混合音声を符号化しようとしても、これを精度良く
符号化することができない。即ち、複数話者の混合音声
の場合、源音声は話者毎に異なる複数種類のピッチ情報
を含むことに加え、声道の特徴も単一音声の場合より複
雑になるからである。このため、例えば通信回線を介し
て1対多又は多対多での会話を行うといった用途に、上
述した音声符号化及び復号装置を適用することができな
いという問題があった。
れたもので、複数話者による音声についても、声道特徴
パラメータ及び源音声特徴パラメータの抽出による高い
圧縮比での符号化及び復号を可能とする音声符号化及び
復号装置を提供することを目的とする。
化装置は、入力音声から声道の特徴を示す声道特徴パラ
メータを抽出すると共に声帯から発生された源音声の特
徴を示す源音声特徴パラメータを抽出し、これら特徴パ
ラメータを出力することにより前記入力音声を圧縮符号
化する音声符号化装置において、前記入力音声の周期的
特徴を分析して前記入力音声に含まれる複数話者の混合
音声を各話者の音声に分離し、前記各話者の音声につい
て前記源音声特徴パラメータをそれぞれ抽出する手段
と、前記入力音声の総合的な前記声道特徴パラメータを
抽出する手段とを備えたことを特徴とする。
帯から発生された源音声の特徴を示す源音声特徴パラメ
ータを複数話者分入力しこれら源音声特徴パラメータに
よって各話者の源音声をそれぞれ復号すると共に復号さ
れた各話者の源音声を合成する源音声復号手段と、複数
話者分の総合的な声道の特徴を示す声道特徴パラメータ
を入力しこの声道特徴パラメータに基づいて前記複数話
者分の源音声をフィルタ処理して複数話者の混合音声を
復号する声道フィルタ手段とを備えたことを特徴とす
る。
話者の混合音声が単一音声の線形加算によって表現可能
であることに着目し、入力音声の周期的特徴を例えば自
己相関演算等によって分析して話者数を特定し、複数話
者の混合音声を各話者の単一音声に分離すると共に、分
離された各話者の音声について源音特徴パラメータをそ
れぞれ抽出するようにしているので、従来と同様の手法
を用いて複数話者の源音声の特徴をそれぞれ精度良く抽
出することができる。これによって源音声特徴パラメー
タについては、話者数分のパラメータが必要になる分、
符号化された情報量は増加するが、混合音声の声道の特
徴については、入力音声から総合的な声道特徴パラメー
タを抽出するようにしているので、その分、符号化情報
量は抑えられ、圧縮比をさほど低下させることなく複数
話者の音声の符号化が可能になる。
のようにして求められた複数話者分の源音声特徴パラメ
ータによって各話者の源音声を合成・復号し、この源音
声を総合的な声道特徴パラメータによってフィルタ処理
することにより、複数話者の混合音声を精度良く復号す
ることが可能になる。
の好ましい実施の形態について説明する。図1は、この
発明の一実施例に係るCELP系音声符号化装置の構成
を示すブロック図である。この音声符号化装置は、入力
音声に複数話者の音声が含まれているときにも対処可能
なように、入力音声から各話者の音声を分離する複数話
者音声分離部11と、N組の長期予測器121,122,
…,12N及び源音コードブック131,132,…,1
3Nと、話者数に応じた次数で入力音声の総合的な反射
係数rを求める反射係数分析部14とを含むものであ
る。
期的特徴を分析して話者数nを特定し、入力音声に含ま
れる各話者の音声を分離してこれらを各話者の源音声A
1,A2,…,Anとして出力する。複数話者音声分離部
11で得られた話者数nは、反射係数分析部14に供給
される。反射係数分析部14では、話者数nが1人の場
合は10次、2人の場合は15次、それ以上の場合は2
0次というように、話者数nに応じた次数で反射係数r
を算出する。反射係数rは、例えば入力音声の自己相関
を用いてFLAT(固定小数点共分散格子型アルゴリズ
ム)を実行することにより求めることができる。求めら
れた反射係数rはのど近似フィルタ15の係数として与
えられる。
された源音声A1,A2,…,Anは、n個の長期予測器
121,122,…,12nにそれぞれ入力される。各長
期予測器121〜12nでは、これらの源音声A1〜Anと
前フレームの源音声との相互相関などから源音声のピッ
チL1〜Lnを抽出する。これらピッチL1〜L2によって
それぞれ復号された信号と源音コードブック131〜1
3nからのコードベクトルとが加算器161〜16nにお
いてそれぞれ加算され、各話者についての源音声が復号
される。これら複数話者分の源音声が加算器17によっ
て加算され、のど近似フィルタ15で声道の特徴を付与
されて局部復号信号となる。この局部復号信号と入力音
声とが減算器18によって減算され、減算器18からの
エラー信号が最小となるように、エラー分析部19で源
音コードブック131〜13nのインデックスI1〜Inが
順次決定されていくように構成されている。
置の動作と各部の詳細について説明する。図2(a)
は、説明の便宜上、簡単化した単一の源音声と混合音声
とを示す波形図、同図(b)は各音声の自己相関係数を
示す図で、S1,S2は単一話者の源音声、Saはこれ
ら源音声S1,S2を線形加算した混合音声、R1,R
2,Raは、源音声S1,S2,Saの自己相関係数で
ある。入力音声が単一音声S1,S2の場合には、特定
のラグ(ピッチ)L1,L2で自己相関係数が大きなピ
ークとして現れる。実際の入力音声の場合には、この他
にもいくつかの小さなピークは現れるが、音声の基本周
波数は100〜300Hzであるから、L1,L2は、
3〜10msの範囲に存在する比較的大きなピーク(以
下、「第1ピーク」と呼ぶ)を検出することにより特定
することができる。混合音声Saの場合には、第1ピー
クが現れるラグLaはL1,L2の間に存在し、振幅の
大きい音声の第1ピークにより近い値となる。しかし、
自己相関係数をもう少し長い時間で見ると、単一音声の
場合には、ラグL1,L2に対応する周期で周期的に均
一なピークが現れるのに対し、混合音声の場合には、周
期的なピークがこれよりもばらつく。また、単一音声S
1とS2の周期の最小公倍数に対応する大きな周期TL
では大きなピークが現れる。
ば図3のように構成する。即ち、入力音声は、自己相関
演算部211に入力され、ここで自己相関係数が算出さ
れる。この自己相関係数のパターンから合成部221で
は第1話者の源音声A1を合成する。即ち、合成部221
は、自己相関係数から第1ピークのラグLfを検出し、
次にそれ以降の予め定めた範囲までの最大ピークが観測
されるラグLmを検出する。そして、Lm/int(L
m/Lf)を周期T1とする擬似的な源音声A1を生成す
る。ここで、int(x)は、xに最も近い整数であ
る。源音声A1の振幅は、入力音声の振幅にラグLfと
周期T1とのずれ量に応じて減少する1以下の係数を乗
じた値とする。
231で入力音声から減算し、その減算結果を次の自己
相関演算部212に供給する。以後、同様の操作で第2
話者以降の源音声A2,A3,…を順次合成していく。な
お、これら源音声A1〜ANとして合成された波形が実際
の波形と多少異なっていても、残差信号が次段に反映さ
れるので、情報が欠落することはない。話者数決定部2
4は、これらの源音声A1〜ANのうち、その振幅が予め
定めた振幅よりも大きい源音声A1〜ANの数をカウント
し、これを話者数nとして出力する。また、自己相関パ
ラメータがある値よりも小さくなったどうかで話者数n
を決定するようにしても良い。
の源音声A1〜Anが次段の長期予測器121〜12nに出
力される。源音声A1〜Anは、典型的な声帯信号をシミ
ュレートしたものであるから、既に声道特性が除去され
たものであり、長期予測器121〜12nでは、のど逆近
似フィルタを介すことなく、前フレームの源音声との相
互相関演算によって直ちにピッチL1〜L2が求められ
る。求められたピッチL1〜Lnに基づいて、再度、各ピ
ッチの音声が合成され、これらに付加されるコードベク
トルのインデックスI1〜Inが源音コードブック131
〜13nから順次選択されていく。
8からのエラー信号の周期を分析し、まずピッチL1成
分のエラーが最小となるインデックスI1を決定し、次
にピッチL2成分のエラーが最小となるインデックスI2
を決定する、以下、同様に源音コードブック131〜1
3nのインデックスI1〜Inを1つずつ決定していく。
これにより、効率良くインデックスI1〜Inを求めるこ
とができる。
で各話者の源音声を分離し、長期予測器121〜12nで
各話者の音声のピッチを抽出したが、複数話者音声分離
部11と長期予測器121〜12nでは、同様の相関演算
を行っているので、これらを一つにまとめることもでき
る。図4は、この例を示す図である。入力音声は、長期
予測部31に入力され、ここで話者数nとピッチL1〜
Lnとが決定される。長期予測部31は、例えば図5に
示すように構成される。まず、入力音声は逆のど近似フ
ィルタ41によって声道特性を除去される。逆のど近似
フィルタ41に与えられる反射係数rは、反射係数分析
部14で求められたものを用いればよい。最初は話者数
nが特定されていないので、とりあえず低次の反射係数
rを算出しておき、話者数nが特定されたら、それに応
じた次数の反射係数rを求めていけばよい。逆のど近似
フィルタ41で声道特性を除去された源音声は、1段目
の相互相関演算部421に供給され、ここで前フレーム
の源音声との相互相関に基づいて、まずピッチL1が決
定される。次に決定されたピッチL1に基づく源音声が
復号部431で生成され、減算器441で元の源音声から
差し引かれる。次に、その残差信号が2段目の相互相関
演算部422に供給され、ピッチL2が決定される。以
後、同様の処理を繰り返し、相互相関がm段目で所定値
よりも小さくなったら、m−1を話者数nとする。以後
の処理は、先の実施例と同様であるため割愛する。この
場合にも、残差成分が次段の処理に反映されていくの
で、情報が欠落することはなく、各ピッチ成分毎にコー
ドベクトルが決定されるので、誤差の少ない符号化が可
能になる。
ッチL1〜Ln及びインデックスI1〜Inは、必要に応じ
て更にベクトル量子化されて伝送される。また、これら
パラメータと共に求められるゲインやエネルギ等につい
ては、特に言及しなかったが、これらについても個々の
話者毎に求められ、伝送されることは言うまでもない。
なお、話者数nについては、これを伝送することによ
り、受信側での設定が容易になるが、ピッチやインデッ
クスが個々に識別可能であれば、特に伝送する必要はな
い。
すように、上述した符号化装置に対応させて複数の長期
予測器511〜51Nと、複数の源音コードブック521
〜52Nとを備え、伝送されてきたn組のピッチL1〜L
n及びインデックスI1〜Inに基づいて各話者の源音声
を復号し、これを加算器53で合成して混合音声の源音
声を復号したのち、別途受信した反射係数rに基づくの
ど近似フィルタ54で声道特性を付与して音声を再生す
る。
入力音声の周期的特徴を分析して話者数を特定し、複数
話者の混合音声を各話者の単一音声に分離すると共に、
分離された各話者の音声について源音特徴パラメータを
それぞれ抽出するようにしているので、従来と同様の手
法を用いて複数話者の源音声の特徴をそれぞれ精度良く
抽出することができる。これによって源音声特徴パラメ
ータについては、話者数分のパラメータが必要になる
分、符号化された情報量は増加するが、混合音声の声道
の特徴については、入力音声から総合的な声道特徴パラ
メータを抽出するようにしているので、その分、符号化
情報量は抑えられ、圧縮比をさほど低下させることなく
複数話者音声の符号化が可能になるという効果を奏す
る。
ブロック図である。
説明するための音声信号及び自己相関係数を示す図であ
る。
のブロック図である。
る。
ロック図である。
図である。
511〜51N…長期予測器、3,131〜13N,521
〜52N…源音コードブック、5,15,54…のど近
似フィルタ、19…エラー分析部。
Claims (2)
- 【請求項1】 入力音声から声道の特徴を示す声道特徴
パラメータを抽出すると共に声帯から発生された源音声
の特徴を示す源音声特徴パラメータを抽出し、これら特
徴パラメータを出力することにより前記入力音声を圧縮
符号化する音声符号化装置において、 前記入力音声の周期的特徴を分析して前記入力音声に含
まれる複数話者の混合音声を各話者の音声に分離し、前
記各話者の音声について前記源音声特徴パラメータをそ
れぞれ抽出する手段と、 前記入力音声の総合的な前記声道特徴パラメータを抽出
する手段とを備えたことを特徴とする音声符号化装置。 - 【請求項2】 声帯から発生された源音声の特徴を示す
源音声特徴パラメータを複数話者分入力しこれら源音声
特徴パラメータによって各話者の源音声をそれぞれ復号
すると共に復号された各話者の源音声を合成する源音声
復号手段と、 複数話者分の総合的な声道の特徴を示す声道特徴パラメ
ータを入力しこの声道特徴パラメータに基づいて前記複
数話者分の源音声をフィルタ処理して複数話者の混合音
声を復号する声道フィルタ手段とを備えたことを特徴と
する音声復号装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP04422397A JP3444131B2 (ja) | 1997-02-27 | 1997-02-27 | 音声符号化及び復号装置 |
US09/030,910 US6061648A (en) | 1997-02-27 | 1998-02-26 | Speech coding apparatus and speech decoding apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP04422397A JP3444131B2 (ja) | 1997-02-27 | 1997-02-27 | 音声符号化及び復号装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10240299A true JPH10240299A (ja) | 1998-09-11 |
JP3444131B2 JP3444131B2 (ja) | 2003-09-08 |
Family
ID=12685552
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP04422397A Expired - Fee Related JP3444131B2 (ja) | 1997-02-27 | 1997-02-27 | 音声符号化及び復号装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US6061648A (ja) |
JP (1) | JP3444131B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6605768B2 (en) | 2000-12-06 | 2003-08-12 | Matsushita Electric Industrial Co., Ltd. | Music-signal compressing/decompressing apparatus |
CN106128472A (zh) * | 2016-07-12 | 2016-11-16 | 乐视控股(北京)有限公司 | 演唱者声音的处理方法及装置 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6633632B1 (en) * | 1999-10-01 | 2003-10-14 | At&T Corp. | Method and apparatus for detecting the number of speakers on a call |
US7574352B2 (en) * | 2002-09-06 | 2009-08-11 | Massachusetts Institute Of Technology | 2-D processing of speech |
US7526093B2 (en) * | 2003-08-04 | 2009-04-28 | Harman International Industries, Incorporated | System for configuring audio system |
US8755542B2 (en) * | 2003-08-04 | 2014-06-17 | Harman International Industries, Incorporated | System for selecting correction factors for an audio system |
US8705755B2 (en) * | 2003-08-04 | 2014-04-22 | Harman International Industries, Inc. | Statistical analysis of potential audio system configurations |
US8761419B2 (en) * | 2003-08-04 | 2014-06-24 | Harman International Industries, Incorporated | System for selecting speaker locations in an audio system |
US8280076B2 (en) * | 2003-08-04 | 2012-10-02 | Harman International Industries, Incorporated | System and method for audio system configuration |
US8166059B2 (en) * | 2005-07-08 | 2012-04-24 | Oracle International Corporation | Optimization of queries on a repository based on constraints on how the data is stored in the repository |
US9418671B2 (en) * | 2013-08-15 | 2016-08-16 | Huawei Technologies Co., Ltd. | Adaptive high-pass post-filter |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4944036A (en) * | 1970-12-28 | 1990-07-24 | Hyatt Gilbert P | Signature filter system |
US4304965A (en) * | 1979-05-29 | 1981-12-08 | Texas Instruments Incorporated | Data converter for a speech synthesizer |
US4544919A (en) * | 1982-01-03 | 1985-10-01 | Motorola, Inc. | Method and means of determining coefficients for linear predictive coding |
JPH0738118B2 (ja) * | 1987-02-04 | 1995-04-26 | 日本電気株式会社 | マルチパルス符号化装置 |
US5127053A (en) * | 1990-12-24 | 1992-06-30 | General Electric Company | Low-complexity method for improving the performance of autocorrelation-based pitch detectors |
IL101556A (en) * | 1992-04-10 | 1996-08-04 | Univ Ramot | Multi-channel signal separation using cross-polyspectra |
US5734789A (en) * | 1992-06-01 | 1998-03-31 | Hughes Electronics | Voiced, unvoiced or noise modes in a CELP vocoder |
US5797118A (en) * | 1994-08-09 | 1998-08-18 | Yamaha Corporation | Learning vector quantization and a temporary memory such that the codebook contents are renewed when a first speaker returns |
US5706402A (en) * | 1994-11-29 | 1998-01-06 | The Salk Institute For Biological Studies | Blind signal processing system employing information maximization to recover unknown signals through unsupervised minimization of output redundancy |
US5717819A (en) * | 1995-04-28 | 1998-02-10 | Motorola, Inc. | Methods and apparatus for encoding/decoding speech signals at low bit rates |
US5774837A (en) * | 1995-09-13 | 1998-06-30 | Voxware, Inc. | Speech coding system and method using voicing probability determination |
US5917919A (en) * | 1995-12-04 | 1999-06-29 | Rosenthal; Felix | Method and apparatus for multi-channel active control of noise or vibration or of multi-channel separation of a signal from a noisy environment |
-
1997
- 1997-02-27 JP JP04422397A patent/JP3444131B2/ja not_active Expired - Fee Related
-
1998
- 1998-02-26 US US09/030,910 patent/US6061648A/en not_active Expired - Lifetime
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6605768B2 (en) | 2000-12-06 | 2003-08-12 | Matsushita Electric Industrial Co., Ltd. | Music-signal compressing/decompressing apparatus |
CN106128472A (zh) * | 2016-07-12 | 2016-11-16 | 乐视控股(北京)有限公司 | 演唱者声音的处理方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
JP3444131B2 (ja) | 2003-09-08 |
US6061648A (en) | 2000-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100415356B1 (ko) | 다중 채널 신호 인코딩 및 디코딩 방법 및 장치 | |
JP5226777B2 (ja) | 音声信号中に埋め込まれた隠れデータの回復 | |
US20060173677A1 (en) | Audio encoding device, audio decoding device, audio encoding method, and audio decoding method | |
EP0751494A1 (en) | Sound encoding system | |
US20090204397A1 (en) | Linear predictive coding of an audio signal | |
WO2001020595A1 (en) | Voice encoder/decoder | |
JPH08123494A (ja) | 音声符号化装置、音声復号化装置、音声符号化復号化方法およびこれらに使用可能な位相振幅特性導出装置 | |
US20060074643A1 (en) | Apparatus and method of encoding/decoding voice for selecting quantization/dequantization using characteristics of synthesized voice | |
JPH04270398A (ja) | 音声符号化方式 | |
JP3765171B2 (ja) | 音声符号化復号方式 | |
US5027405A (en) | Communication system capable of improving a speech quality by a pair of pulse producing units | |
JP3444131B2 (ja) | 音声符号化及び復号装置 | |
JPH09152896A (ja) | 声道予測係数符号化・復号化回路、声道予測係数符号化回路、声道予測係数復号化回路、音声符号化装置及び音声復号化装置 | |
JP3144009B2 (ja) | 音声符号復号化装置 | |
JP2011008250A (ja) | ビット率拡張音声符号化及び復号化装置とその方法 | |
JP2658816B2 (ja) | 音声のピッチ符号化装置 | |
US8655650B2 (en) | Multiple stream decoder | |
JP3088163B2 (ja) | Lsp係数の量子化方法 | |
JP3050978B2 (ja) | 音声符号化方法 | |
JP2796408B2 (ja) | 音声情報圧縮装置 | |
JP2004348120A (ja) | 音声符号化装置、音声復号化装置及びこれらの方法 | |
KR0155798B1 (ko) | 음성신호 부호화 및 복호화 방법 | |
JP3010655B2 (ja) | 圧縮符号化装置及び方法、並びに復号装置及び方法 | |
JP3099876B2 (ja) | 多チャネル音声信号符号化方法及びその復号方法及びそれを使った符号化装置及び復号化装置 | |
KR20080034818A (ko) | 부호화/복호화 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080627 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090627 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100627 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100627 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110627 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120627 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |