JPH10240299A - 音声符号化及び復号装置 - Google Patents

音声符号化及び復号装置

Info

Publication number
JPH10240299A
JPH10240299A JP9044223A JP4422397A JPH10240299A JP H10240299 A JPH10240299 A JP H10240299A JP 9044223 A JP9044223 A JP 9044223A JP 4422397 A JP4422397 A JP 4422397A JP H10240299 A JPH10240299 A JP H10240299A
Authority
JP
Japan
Prior art keywords
voices
speech
speakers
source
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9044223A
Other languages
English (en)
Other versions
JP3444131B2 (ja
Inventor
Akitoshi Saito
彰利 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP04422397A priority Critical patent/JP3444131B2/ja
Priority to US09/030,910 priority patent/US6061648A/en
Publication of JPH10240299A publication Critical patent/JPH10240299A/ja
Application granted granted Critical
Publication of JP3444131B2 publication Critical patent/JP3444131B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/028Voice signal separating using properties of sound source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/09Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0264Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques

Abstract

(57)【要約】 【課題】 複数話者による音声についても、声道特徴パ
ラメータ及び源音声特徴パラメータの抽出による高い圧
縮比での符号化及び復号を可能にする。 【解決手段】 入力音声に複数話者の音声が含まれてい
るときにも対処可能なように、入力音声から各話者の音
声を分離する複数話者音声分離部11と、N組の長期予
測器121,122,…,12N及び源音コードブック1
1,132,…,13Nと、話者数に応じた次数で入力
音声の総合的な反射係数rを求める反射係数分析部14
とを備える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、ベクトル量子化
(VQ)によって音声を圧縮符号化及び復号する音声符
号化及び復号装置に関する。
【0002】
【従来の技術】音声情報を高能率に圧縮符号化する手法
としてCELP(Code Excited Lenear Predictive Cod
ing)系のベクトル量子化手法がディジタル携帯電話等
の分野で実用化されている。図7は、従来のこの種の音
声符号化装置の一例を示す図である。即ち、音声の特徴
は、声帯から発生される源音声のピッチやノイズ成分
(以下、「源音声特徴パラメータ」と呼ぶ。)と、の
ど、口を音声が通過する時の声道伝達特性や唇での放射
特性(以下、これらをまとめて「声道特徴パラメータ」
という。)によって表現可能である。反射係数分析部1
は、入力音声から反射係数rを求め、これを声道特徴パ
ラメータとして出力する。長期予測器2は、入力音声の
基本周波数にほぼ相当するピッチLを抽出する。入力音
声から反射係数r及びピッチLによる特徴を除いた残差
成分は源音コードブック3の中のコードベクトルにより
近似される。このコードベクトルを特定するインデック
スIとピッチLとが源音声特徴パラメータとなる。具体
的には、長期予測器2からのピッチLに基づく復号信号
とコードベクトルとが合成部4で合成され、この合成波
形が反射係数rに基づくのど近似フィルタ5を通ること
により局部復号音声が得られ、この局部復号音声と入力
音声との誤差が減算器6で求められる。そして、この誤
差が最も小さくなる源音コードブック3のコードベクト
ルが選択され、そのインデックスIと反射係数r及びピ
ッチLとがそれぞれのゲイン情報と共に出力される。
【0003】復号装置では、入力されたインデックスI
及びピッチLに基づき、符号化装置と同一の源音コード
ブックと復号手法を使用して源音声が復号され、この源
音声を別途与えられた反射係数rに基づくのど近似フィ
ルタを通すことにより音声を復号する。
【0004】
【発明が解決しようとする課題】しかしながら、上述し
た従来の音声符号化及び復号装置では、単一音声の特徴
を前提とした符号化及び復号を行っているので、複数話
者の混合音声を符号化しようとしても、これを精度良く
符号化することができない。即ち、複数話者の混合音声
の場合、源音声は話者毎に異なる複数種類のピッチ情報
を含むことに加え、声道の特徴も単一音声の場合より複
雑になるからである。このため、例えば通信回線を介し
て1対多又は多対多での会話を行うといった用途に、上
述した音声符号化及び復号装置を適用することができな
いという問題があった。
【0005】この発明は、このような問題点に鑑みなさ
れたもので、複数話者による音声についても、声道特徴
パラメータ及び源音声特徴パラメータの抽出による高い
圧縮比での符号化及び復号を可能とする音声符号化及び
復号装置を提供することを目的とする。
【0006】
【課題を解決するための手段】この発明に係る音声符号
化装置は、入力音声から声道の特徴を示す声道特徴パラ
メータを抽出すると共に声帯から発生された源音声の特
徴を示す源音声特徴パラメータを抽出し、これら特徴パ
ラメータを出力することにより前記入力音声を圧縮符号
化する音声符号化装置において、前記入力音声の周期的
特徴を分析して前記入力音声に含まれる複数話者の混合
音声を各話者の音声に分離し、前記各話者の音声につい
て前記源音声特徴パラメータをそれぞれ抽出する手段
と、前記入力音声の総合的な前記声道特徴パラメータを
抽出する手段とを備えたことを特徴とする。
【0007】また、この発明に係る音声復号装置は、声
帯から発生された源音声の特徴を示す源音声特徴パラメ
ータを複数話者分入力しこれら源音声特徴パラメータに
よって各話者の源音声をそれぞれ復号すると共に復号さ
れた各話者の源音声を合成する源音声復号手段と、複数
話者分の総合的な声道の特徴を示す声道特徴パラメータ
を入力しこの声道特徴パラメータに基づいて前記複数話
者分の源音声をフィルタ処理して複数話者の混合音声を
復号する声道フィルタ手段とを備えたことを特徴とす
る。
【0008】この発明の音声符号化装置によれば、複数
話者の混合音声が単一音声の線形加算によって表現可能
であることに着目し、入力音声の周期的特徴を例えば自
己相関演算等によって分析して話者数を特定し、複数話
者の混合音声を各話者の単一音声に分離すると共に、分
離された各話者の音声について源音特徴パラメータをそ
れぞれ抽出するようにしているので、従来と同様の手法
を用いて複数話者の源音声の特徴をそれぞれ精度良く抽
出することができる。これによって源音声特徴パラメー
タについては、話者数分のパラメータが必要になる分、
符号化された情報量は増加するが、混合音声の声道の特
徴については、入力音声から総合的な声道特徴パラメー
タを抽出するようにしているので、その分、符号化情報
量は抑えられ、圧縮比をさほど低下させることなく複数
話者の音声の符号化が可能になる。
【0009】また、この発明の復号装置によれば、上記
のようにして求められた複数話者分の源音声特徴パラメ
ータによって各話者の源音声を合成・復号し、この源音
声を総合的な声道特徴パラメータによってフィルタ処理
することにより、複数話者の混合音声を精度良く復号す
ることが可能になる。
【0010】
【発明の実施の形態】以下、図面を参照して、この発明
の好ましい実施の形態について説明する。図1は、この
発明の一実施例に係るCELP系音声符号化装置の構成
を示すブロック図である。この音声符号化装置は、入力
音声に複数話者の音声が含まれているときにも対処可能
なように、入力音声から各話者の音声を分離する複数話
者音声分離部11と、N組の長期予測器121,122
…,12N及び源音コードブック131,132,…,1
Nと、話者数に応じた次数で入力音声の総合的な反射
係数rを求める反射係数分析部14とを含むものであ
る。
【0011】複数話者音声分離部11は、入力音声の周
期的特徴を分析して話者数nを特定し、入力音声に含ま
れる各話者の音声を分離してこれらを各話者の源音声A
1,A2,…,Anとして出力する。複数話者音声分離部
11で得られた話者数nは、反射係数分析部14に供給
される。反射係数分析部14では、話者数nが1人の場
合は10次、2人の場合は15次、それ以上の場合は2
0次というように、話者数nに応じた次数で反射係数r
を算出する。反射係数rは、例えば入力音声の自己相関
を用いてFLAT(固定小数点共分散格子型アルゴリズ
ム)を実行することにより求めることができる。求めら
れた反射係数rはのど近似フィルタ15の係数として与
えられる。
【0012】一方、複数話者音声分離部11で分離抽出
された源音声A1,A2,…,Anは、n個の長期予測器
121,122,…,12nにそれぞれ入力される。各長
期予測器121〜12nでは、これらの源音声A1〜An
前フレームの源音声との相互相関などから源音声のピッ
チL1〜Lnを抽出する。これらピッチL1〜L2によって
それぞれ復号された信号と源音コードブック131〜1
nからのコードベクトルとが加算器161〜16nにお
いてそれぞれ加算され、各話者についての源音声が復号
される。これら複数話者分の源音声が加算器17によっ
て加算され、のど近似フィルタ15で声道の特徴を付与
されて局部復号信号となる。この局部復号信号と入力音
声とが減算器18によって減算され、減算器18からの
エラー信号が最小となるように、エラー分析部19で源
音コードブック131〜13nのインデックスI1〜In
順次決定されていくように構成されている。
【0013】次に、このように構成された音声符号化装
置の動作と各部の詳細について説明する。図2(a)
は、説明の便宜上、簡単化した単一の源音声と混合音声
とを示す波形図、同図(b)は各音声の自己相関係数を
示す図で、S1,S2は単一話者の源音声、Saはこれ
ら源音声S1,S2を線形加算した混合音声、R1,R
2,Raは、源音声S1,S2,Saの自己相関係数で
ある。入力音声が単一音声S1,S2の場合には、特定
のラグ(ピッチ)L1,L2で自己相関係数が大きなピ
ークとして現れる。実際の入力音声の場合には、この他
にもいくつかの小さなピークは現れるが、音声の基本周
波数は100〜300Hzであるから、L1,L2は、
3〜10msの範囲に存在する比較的大きなピーク(以
下、「第1ピーク」と呼ぶ)を検出することにより特定
することができる。混合音声Saの場合には、第1ピー
クが現れるラグLaはL1,L2の間に存在し、振幅の
大きい音声の第1ピークにより近い値となる。しかし、
自己相関係数をもう少し長い時間で見ると、単一音声の
場合には、ラグL1,L2に対応する周期で周期的に均
一なピークが現れるのに対し、混合音声の場合には、周
期的なピークがこれよりもばらつく。また、単一音声S
1とS2の周期の最小公倍数に対応する大きな周期TL
では大きなピークが現れる。
【0014】そこで、複数話者音声分離部11を、例え
ば図3のように構成する。即ち、入力音声は、自己相関
演算部211に入力され、ここで自己相関係数が算出さ
れる。この自己相関係数のパターンから合成部221
は第1話者の源音声A1を合成する。即ち、合成部221
は、自己相関係数から第1ピークのラグLfを検出し、
次にそれ以降の予め定めた範囲までの最大ピークが観測
されるラグLmを検出する。そして、Lm/int(L
m/Lf)を周期T1とする擬似的な源音声A1を生成す
る。ここで、int(x)は、xに最も近い整数であ
る。源音声A1の振幅は、入力音声の振幅にラグLfと
周期T1とのずれ量に応じて減少する1以下の係数を乗
じた値とする。
【0015】源音声A1が生成されたら、これを減算器
231で入力音声から減算し、その減算結果を次の自己
相関演算部212に供給する。以後、同様の操作で第2
話者以降の源音声A2,A3,…を順次合成していく。な
お、これら源音声A1〜ANとして合成された波形が実際
の波形と多少異なっていても、残差信号が次段に反映さ
れるので、情報が欠落することはない。話者数決定部2
4は、これらの源音声A1〜ANのうち、その振幅が予め
定めた振幅よりも大きい源音声A1〜ANの数をカウント
し、これを話者数nとして出力する。また、自己相関パ
ラメータがある値よりも小さくなったどうかで話者数n
を決定するようにしても良い。
【0016】合成された源音声A1〜ANのうち、n人分
の源音声A1〜Anが次段の長期予測器121〜12nに出
力される。源音声A1〜Anは、典型的な声帯信号をシミ
ュレートしたものであるから、既に声道特性が除去され
たものであり、長期予測器121〜12nでは、のど逆近
似フィルタを介すことなく、前フレームの源音声との相
互相関演算によって直ちにピッチL1〜L2が求められ
る。求められたピッチL1〜Lnに基づいて、再度、各ピ
ッチの音声が合成され、これらに付加されるコードベク
トルのインデックスI1〜Inが源音コードブック131
〜13nから順次選択されていく。
【0017】このとき、エラー分析部19は、減算器1
8からのエラー信号の周期を分析し、まずピッチL1
分のエラーが最小となるインデックスI1を決定し、次
にピッチL2成分のエラーが最小となるインデックスI2
を決定する、以下、同様に源音コードブック131〜1
nのインデックスI1〜Inを1つずつ決定していく。
これにより、効率良くインデックスI1〜Inを求めるこ
とができる。
【0018】この実施例では、複数話者音声分離部11
で各話者の源音声を分離し、長期予測器121〜12n
各話者の音声のピッチを抽出したが、複数話者音声分離
部11と長期予測器121〜12nでは、同様の相関演算
を行っているので、これらを一つにまとめることもでき
る。図4は、この例を示す図である。入力音声は、長期
予測部31に入力され、ここで話者数nとピッチL1
nとが決定される。長期予測部31は、例えば図5に
示すように構成される。まず、入力音声は逆のど近似フ
ィルタ41によって声道特性を除去される。逆のど近似
フィルタ41に与えられる反射係数rは、反射係数分析
部14で求められたものを用いればよい。最初は話者数
nが特定されていないので、とりあえず低次の反射係数
rを算出しておき、話者数nが特定されたら、それに応
じた次数の反射係数rを求めていけばよい。逆のど近似
フィルタ41で声道特性を除去された源音声は、1段目
の相互相関演算部421に供給され、ここで前フレーム
の源音声との相互相関に基づいて、まずピッチL1が決
定される。次に決定されたピッチL1に基づく源音声が
復号部431で生成され、減算器441で元の源音声から
差し引かれる。次に、その残差信号が2段目の相互相関
演算部422に供給され、ピッチL2が決定される。以
後、同様の処理を繰り返し、相互相関がm段目で所定値
よりも小さくなったら、m−1を話者数nとする。以後
の処理は、先の実施例と同様であるため割愛する。この
場合にも、残差成分が次段の処理に反映されていくの
で、情報が欠落することはなく、各ピッチ成分毎にコー
ドベクトルが決定されるので、誤差の少ない符号化が可
能になる。
【0019】このようにして求められた反射係数r、ピ
ッチL1〜Ln及びインデックスI1〜Inは、必要に応じ
て更にベクトル量子化されて伝送される。また、これら
パラメータと共に求められるゲインやエネルギ等につい
ては、特に言及しなかったが、これらについても個々の
話者毎に求められ、伝送されることは言うまでもない。
なお、話者数nについては、これを伝送することによ
り、受信側での設定が容易になるが、ピッチやインデッ
クスが個々に識別可能であれば、特に伝送する必要はな
い。
【0020】受信側の音声復号装置は、例えば図6に示
すように、上述した符号化装置に対応させて複数の長期
予測器511〜51Nと、複数の源音コードブック521
〜52Nとを備え、伝送されてきたn組のピッチL1〜L
n及びインデックスI1〜Inに基づいて各話者の源音声
を復号し、これを加算器53で合成して混合音声の源音
声を復号したのち、別途受信した反射係数rに基づくの
ど近似フィルタ54で声道特性を付与して音声を再生す
る。
【0021】
【発明の効果】以上述べたように、この発明によれば、
入力音声の周期的特徴を分析して話者数を特定し、複数
話者の混合音声を各話者の単一音声に分離すると共に、
分離された各話者の音声について源音特徴パラメータを
それぞれ抽出するようにしているので、従来と同様の手
法を用いて複数話者の源音声の特徴をそれぞれ精度良く
抽出することができる。これによって源音声特徴パラメ
ータについては、話者数分のパラメータが必要になる
分、符号化された情報量は増加するが、混合音声の声道
の特徴については、入力音声から総合的な声道特徴パラ
メータを抽出するようにしているので、その分、符号化
情報量は抑えられ、圧縮比をさほど低下させることなく
複数話者音声の符号化が可能になるという効果を奏す
る。
【図面の簡単な説明】
【図1】 この発明の一実施例に係る音声符号化装置の
ブロック図である。
【図2】 同装置における複数話者音声分離部の動作を
説明するための音声信号及び自己相関係数を示す図であ
る。
【図3】 同複数話者音声分離部のブロック図である。
【図4】 この発明の他の実施例に係る音声符号化装置
のブロック図である。
【図5】 同装置における長期予測器のブロック図であ
る。
【図6】 この発明の一実施例に係る音声復号装置のブ
ロック図である。
【図7】 従来のCELP系音声符号化装置のブロック
図である。
【符号の説明】 1,14…反射係数分析部、2,121〜12N,31,
511〜51N…長期予測器、3,131〜13N,521
〜52N…源音コードブック、5,15,54…のど近
似フィルタ、19…エラー分析部。

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 入力音声から声道の特徴を示す声道特徴
    パラメータを抽出すると共に声帯から発生された源音声
    の特徴を示す源音声特徴パラメータを抽出し、これら特
    徴パラメータを出力することにより前記入力音声を圧縮
    符号化する音声符号化装置において、 前記入力音声の周期的特徴を分析して前記入力音声に含
    まれる複数話者の混合音声を各話者の音声に分離し、前
    記各話者の音声について前記源音声特徴パラメータをそ
    れぞれ抽出する手段と、 前記入力音声の総合的な前記声道特徴パラメータを抽出
    する手段とを備えたことを特徴とする音声符号化装置。
  2. 【請求項2】 声帯から発生された源音声の特徴を示す
    源音声特徴パラメータを複数話者分入力しこれら源音声
    特徴パラメータによって各話者の源音声をそれぞれ復号
    すると共に復号された各話者の源音声を合成する源音声
    復号手段と、 複数話者分の総合的な声道の特徴を示す声道特徴パラメ
    ータを入力しこの声道特徴パラメータに基づいて前記複
    数話者分の源音声をフィルタ処理して複数話者の混合音
    声を復号する声道フィルタ手段とを備えたことを特徴と
    する音声復号装置。
JP04422397A 1997-02-27 1997-02-27 音声符号化及び復号装置 Expired - Fee Related JP3444131B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP04422397A JP3444131B2 (ja) 1997-02-27 1997-02-27 音声符号化及び復号装置
US09/030,910 US6061648A (en) 1997-02-27 1998-02-26 Speech coding apparatus and speech decoding apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04422397A JP3444131B2 (ja) 1997-02-27 1997-02-27 音声符号化及び復号装置

Publications (2)

Publication Number Publication Date
JPH10240299A true JPH10240299A (ja) 1998-09-11
JP3444131B2 JP3444131B2 (ja) 2003-09-08

Family

ID=12685552

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04422397A Expired - Fee Related JP3444131B2 (ja) 1997-02-27 1997-02-27 音声符号化及び復号装置

Country Status (2)

Country Link
US (1) US6061648A (ja)
JP (1) JP3444131B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6605768B2 (en) 2000-12-06 2003-08-12 Matsushita Electric Industrial Co., Ltd. Music-signal compressing/decompressing apparatus
CN106128472A (zh) * 2016-07-12 2016-11-16 乐视控股(北京)有限公司 演唱者声音的处理方法及装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6633632B1 (en) * 1999-10-01 2003-10-14 At&T Corp. Method and apparatus for detecting the number of speakers on a call
US7574352B2 (en) * 2002-09-06 2009-08-11 Massachusetts Institute Of Technology 2-D processing of speech
US7526093B2 (en) * 2003-08-04 2009-04-28 Harman International Industries, Incorporated System for configuring audio system
US8755542B2 (en) * 2003-08-04 2014-06-17 Harman International Industries, Incorporated System for selecting correction factors for an audio system
US8705755B2 (en) * 2003-08-04 2014-04-22 Harman International Industries, Inc. Statistical analysis of potential audio system configurations
US8761419B2 (en) * 2003-08-04 2014-06-24 Harman International Industries, Incorporated System for selecting speaker locations in an audio system
US8280076B2 (en) * 2003-08-04 2012-10-02 Harman International Industries, Incorporated System and method for audio system configuration
US8166059B2 (en) * 2005-07-08 2012-04-24 Oracle International Corporation Optimization of queries on a repository based on constraints on how the data is stored in the repository
US9418671B2 (en) * 2013-08-15 2016-08-16 Huawei Technologies Co., Ltd. Adaptive high-pass post-filter

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4944036A (en) * 1970-12-28 1990-07-24 Hyatt Gilbert P Signature filter system
US4304965A (en) * 1979-05-29 1981-12-08 Texas Instruments Incorporated Data converter for a speech synthesizer
US4544919A (en) * 1982-01-03 1985-10-01 Motorola, Inc. Method and means of determining coefficients for linear predictive coding
JPH0738118B2 (ja) * 1987-02-04 1995-04-26 日本電気株式会社 マルチパルス符号化装置
US5127053A (en) * 1990-12-24 1992-06-30 General Electric Company Low-complexity method for improving the performance of autocorrelation-based pitch detectors
IL101556A (en) * 1992-04-10 1996-08-04 Univ Ramot Multi-channel signal separation using cross-polyspectra
US5734789A (en) * 1992-06-01 1998-03-31 Hughes Electronics Voiced, unvoiced or noise modes in a CELP vocoder
US5797118A (en) * 1994-08-09 1998-08-18 Yamaha Corporation Learning vector quantization and a temporary memory such that the codebook contents are renewed when a first speaker returns
US5706402A (en) * 1994-11-29 1998-01-06 The Salk Institute For Biological Studies Blind signal processing system employing information maximization to recover unknown signals through unsupervised minimization of output redundancy
US5717819A (en) * 1995-04-28 1998-02-10 Motorola, Inc. Methods and apparatus for encoding/decoding speech signals at low bit rates
US5774837A (en) * 1995-09-13 1998-06-30 Voxware, Inc. Speech coding system and method using voicing probability determination
US5917919A (en) * 1995-12-04 1999-06-29 Rosenthal; Felix Method and apparatus for multi-channel active control of noise or vibration or of multi-channel separation of a signal from a noisy environment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6605768B2 (en) 2000-12-06 2003-08-12 Matsushita Electric Industrial Co., Ltd. Music-signal compressing/decompressing apparatus
CN106128472A (zh) * 2016-07-12 2016-11-16 乐视控股(北京)有限公司 演唱者声音的处理方法及装置

Also Published As

Publication number Publication date
JP3444131B2 (ja) 2003-09-08
US6061648A (en) 2000-05-09

Similar Documents

Publication Publication Date Title
KR100415356B1 (ko) 다중 채널 신호 인코딩 및 디코딩 방법 및 장치
JP5226777B2 (ja) 音声信号中に埋め込まれた隠れデータの回復
US20060173677A1 (en) Audio encoding device, audio decoding device, audio encoding method, and audio decoding method
EP0751494A1 (en) Sound encoding system
US20090204397A1 (en) Linear predictive coding of an audio signal
WO2001020595A1 (en) Voice encoder/decoder
JPH08123494A (ja) 音声符号化装置、音声復号化装置、音声符号化復号化方法およびこれらに使用可能な位相振幅特性導出装置
US20060074643A1 (en) Apparatus and method of encoding/decoding voice for selecting quantization/dequantization using characteristics of synthesized voice
JPH04270398A (ja) 音声符号化方式
JP3765171B2 (ja) 音声符号化復号方式
US5027405A (en) Communication system capable of improving a speech quality by a pair of pulse producing units
JP3444131B2 (ja) 音声符号化及び復号装置
JPH09152896A (ja) 声道予測係数符号化・復号化回路、声道予測係数符号化回路、声道予測係数復号化回路、音声符号化装置及び音声復号化装置
JP3144009B2 (ja) 音声符号復号化装置
JP2011008250A (ja) ビット率拡張音声符号化及び復号化装置とその方法
JP2658816B2 (ja) 音声のピッチ符号化装置
US8655650B2 (en) Multiple stream decoder
JP3088163B2 (ja) Lsp係数の量子化方法
JP3050978B2 (ja) 音声符号化方法
JP2796408B2 (ja) 音声情報圧縮装置
JP2004348120A (ja) 音声符号化装置、音声復号化装置及びこれらの方法
KR0155798B1 (ko) 음성신호 부호화 및 복호화 방법
JP3010655B2 (ja) 圧縮符号化装置及び方法、並びに復号装置及び方法
JP3099876B2 (ja) 多チャネル音声信号符号化方法及びその復号方法及びそれを使った符号化装置及び復号化装置
KR20080034818A (ko) 부호화/복호화 장치 및 방법

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080627

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090627

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100627

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100627

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110627

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120627

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees