JPS63142399A - 音声分析合成方法及び装置 - Google Patents

音声分析合成方法及び装置

Info

Publication number
JPS63142399A
JPS63142399A JP61289708A JP28970886A JPS63142399A JP S63142399 A JPS63142399 A JP S63142399A JP 61289708 A JP61289708 A JP 61289708A JP 28970886 A JP28970886 A JP 28970886A JP S63142399 A JPS63142399 A JP S63142399A
Authority
JP
Japan
Prior art keywords
level
signal
silence
quantization
analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP61289708A
Other languages
English (en)
Other versions
JPH0636158B2 (ja
Inventor
隆 矢頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP61289708A priority Critical patent/JPH0636158B2/ja
Publication of JPS63142399A publication Critical patent/JPS63142399A/ja
Priority to US07/453,149 priority patent/US5054073A/en
Publication of JPH0636158B2 publication Critical patent/JPH0636158B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 (産業上の利用分野) この発明は音声分析合成方法及びその装置、特に音声の
符号化に関するものである。
(従来の技術) 従来、この種の技術としてザ・ベル・システム・テクニ
カル・ジャーナル(The Be1l SystemT
echnical Journal ) 、 55[8
](197B−10) (米)P、!069−1085
に記載される帯域分割型音声分析合成方式(5ub−B
and Coding方式とも呼ばれ、以降SBC方式
と略す)が知られている。このSBC方式は第4図に示
されるように音声信号の周波数帯域を複数(通常4〜8
)の帯域(図中■、■、■及び■で示す。)に分割し、
各分割チャネルの出力を別々に符号化、復号化する方式
である。
第5図にこのSBC方式の基本的な回路構成を示す。ま
た、第6図(A)〜(E)は第5図の回路の動作を説明
するための図である。以下、第5図、第6図(A)〜(
E)を用いてSBC方式の動作を説明す′る。
先ず、分析器の動作は次の通りである。マイク(図示せ
ず)等から人力されたアナログ音声信号は、ローパスフ
ィルタ(図示せず)に入力されて所定のサンプリング周
波数の1l2以上の周波数成分を除去された後、A/D
変換器(図示せず)で所定のサンプリング周波数におい
てアナログ信号からディジタル信号S(n+ に変換さ
れる。ここでnはサンプル番号である。このディジタル
化された人力信号Sln+はバンドパスフィルタ50に
入力され、第6図(A)に示す如く特定の帯域成分(こ
こではWlに−W2k)が抽出される。次にこのバント
パスフィルタ50の出力信号は乗算器5Iにおいて第6
図(B)に示したW3.なる周波数をもったコサイン波
(COS波)と乗算されることによりcos変調が1J
hされ、第6図(C)の如く(0−Wiの基底帯域にシ
フトされる。このとき生じる2Wlk以りの不要な周波
数成分R。
(ω)(例えば、第6図(C)で点線で示した成分)を
ローパスフィルタ52によって除去する。このようにし
て得られる信号rk(。、はWk以下の周波数成分しか
必要としないものであるから、2W、のサンプリング周
波数でサンプリングすれば必要かつ十分な情報が保たれ
る。このためにダウンサンプリング部53によって必要
以上に高いサンプリング周波数を2Wkに落としてダウ
ンサンプリングを行い、このダウンサンプリングした信
号を符号器54で符号化し、符号化された信号を合成器
へ伝送する。
次に、合成器において分析器と全く逆の処理を行うこと
により、分析器から送られてきた信号を復号する。すな
わち、符号化された信号を復号器55によって復号した
後、補間部56によって分析器でダウンサンプリングさ
れた(3 %を元のサンプリング周波数に戻すためにア
ップサンプリングを行う。この補間部56からの出力信
号は、乗算器57において第6図(D)に示したWIk
なる周波数をもったcos波と乗算されることにより復
調され、第6図(E)に示した如く基底帯域(〇−WK
)から再びもとの周波数帯域(W−+ h−W zm)
に戻された後、バンドパスフィルタ58によって信号中
の(W + k−W 2 k)以外の帯域の成分を除去
する。
このようにして、合成器から信号S□。、が出力される
上記一連の処理を各分割帯域(チャネル)毎にそれぞれ
行い、最後に全チャネルの出力を加算して出力音声信号
を得る。
以上がSBC方式の基本的な動作内容であるが、第5図
の回路構成を直接装置化することはあまりなく、回路量
を削減するためにバンドパスフィルタ50.58を用い
ない第7図のような構成のSBC方式も提案されている
次に、この第7図の回路の動作を説明する。
先ず、分析器において、ディジタル化された入力信号S
(。、はa素信号e′ωに″[ここでω、=(W + 
h +W 2 b ) / 2 ]にて複複変調される
。この複素変調は、乗算器61aによるcos変調(変
調波はcosωkn)、乗算器61bによるサイン(s
 i n)変調(変調波はsinのl、n)により行わ
れる。乗算器61a 、 61bの出力は帯域幅(0−
ω、、/2)(7)ローパスフィルタ62a 、 62
bにそれぞれ入力されフィルタリングされる。このよう
にして、ローパスフィルタ62aがらは複素信号a k
fnl + j b k(nlの実部ak(nlが、ロ
ーパスフィルタ62bからは複素信号a k(nl +
 j b kfnlの虚部1)k(nlがそれぞれ出力
される。各信号ahtnl、bk(。、はそれぞれダウ
ンサンプリング部63a 、 63bによって周波数W
kにダウンサンプリングされた後、符号器64によって
符号化され、合成器側へ伝送される。合成器においては
符号化された信号は復号器65によって復号された後、
補間器66a 、 66bによって元のサンプリング周
波数に戻され、次に帯域幅(0−ωに/2)のローパス
フィルタ67a 、 67bを通してフィルタリングさ
れた後、乗算器68aによるcos波との乗算、乗算器
68bによるsin波との乗算によって復調され、さら
に加算器69で信号のCOS成分とsin成分とが加算
され、当該分割帯域の信号が合成される。
上記一連の処理を各分割帯域(チャネル)毎にそれぞれ
行い、最後に全チャネルの出力を加算して出力音声信号
を得る。
以上がSBC方式の動作原理であるが、この方式は音声
信号そのものを符号化する方式に比べ以下のような特長
がある。
各チャネルの量子化誤差は白色雑音に近く、周波数スペ
クトル上の全域に広がるが、そのうち各チャネルの帯域
内の雑音だけしか各チャネルには落ちてこないため、量
子化雑音を軽減出来る。また、各チャネルの量子化誤差
はその周波数帯域内の信号のみに関係し、音声のように
低周波成分が大きく、高周波成分が小さい信号において
は周波数の高い帯域のチャネルでの誤差は信号全体から
見れば僅かな誤差にしかならない。さらに、音声信号の
うち高い周波数の成分は雑音成分が主であり、この帯域
での誤差は聴覚上あまり影雷しない。
従って、このような性質を考慮して帯域の分割方法や各
チャネルの信号に与える量子化ビット数を設定すること
により、音声信号を直接符号化する方式に比べ、約1/
2程度の情報量で実現出来る。すなわち、8kHzでサ
ンプリングされたPCM音声に対し、これを直接、例え
ばADPCM符号化した場合、約30にビット/秒程度
の情報量が必要であるが、SBCでは聴覚上はぼ同品質
の合成音が16にピッ6フ秒@後の情報量で得ることが
出来る。
(発明が解決しようとする問題点) ところで、当然のなりゆきとして高品質の合成音をさら
に少ない情報量で実現したいという要求かある。しかし
SBC方式は基本的には波形符号化方式であるから情報
圧縮もIOKビット/秒程度が限界で、この領域による
とflu化ビット数の不足から、量子化雑音により合成
音ザラツキが目立ったり、或は帯域の不足がら音がこも
ったり、音韻性がくずれてしまうという問題点があった
このような問題点の解決を図るため、この出願の発明者
等は種々の研究等を行った。これら研究によると、現在
のところ、音声波形を直接符号化するADPCM方式や
APCM方式、或は面述の如く帯域分割した波形を符号
化するSBC方式など波形符号化方式に属する方式では
無音区間の圧縮は全くではないが、あまり行われていな
い。特にSBC方式では例がないようである。しかし、
よく知られているように通常の会話音声の中には相当量
の無音区間が含まれており、会話が途切れている区間は
もちろんのこと、連続的に会話が続いている区間におい
ても息つぎゃ閉鎖区間を伴う破裂音などで全体の20%
近い無音区間が生じる。
従って、これらの区間を音声区間に含めて情[を同じよ
うに与えるのは無駄である。また、SBC方式のように
帯域分割を行う方式ではチャネル毎に振幅がある部分と
、はとんどないという場合がある。すなわち、人間の耳
は音声をスペクトル上のピーク(ホルマント)の位置、
大きさなどによって、それぞれの音韻を聞き分けており
、スペクトルの谷の部分は比較的音声情報としでの重要
度は低い。さらに、音声の信号レベルが小ざい音ではこ
の谷の部分はほとんどノイズレベル以下という場合がま
まある。実際上このような部分は無音として取り扱って
も音韻性を損なうことはほとんどない。また、周波数帯
域分割を行わない音声分析合成方式での無音圧縮では、
全帯域に対して一律に有音/無音の判定を下すわけであ
るから、ノイズのレベルが大きい場合、有音/無音の判
定レベルを大きくすれば音声パワーの小さい摩擦音など
の音声区間までも無音と判定されて失われてしまい、逆
に、判定レベルを小さくすればノイズのみの区間も有音
と判定され情報圧縮の効果が得られない。
ところで、音声のスペクトルはノイズのスペクトルに比
べ、その音韻性を表わす特徴的な偏りを持っているため
、音声を複数の帯域に分け、各帯域毎に無音判定を行え
ば、帯域全体でみた音声パワーが小さい場合でもパワー
の偏った帯域の成分は保存され、それ以外のノイズ成分
だけしか持たない帯域の情報は削除されるため、音韻性
の確保、情報圧縮両方の効果を得ることが出来る。
従って、この出願の第一発明の目的は音声信号のチャネ
ル毎にその振幅レベルから無音区間の有無を判定し符号
化の必要ないチャネルの信号を圧縮する音声分析合成方
法を提供することにある。
さらに、この出願の第二発明の目的は、このような音声
分析合成方法を実施するための装置を提供することにあ
る。
(問題点を解決するための手段) 第一発明の目的の達成を図るため、この発明によれば、
一定時間区間(フレーム長)毎に、各分割チャネルの出
力信号の振幅レベルを判定し、前記振幅レベルが各チャ
ネル毎に定められた基準レベルを越えているチャネルの
出力信号のみを符号化することを特徴とする。
さらに、第二発明の目的の達成を図るため、この発明の
音声分析合成装置によれば、 一定時間区間(フレーム長)毎に各分割チャネル信号の
振幅レベルを検出する振幅レベル検出部と、この振幅レ
ベル及び各分割チャネル毎に定められた基準レベルの大
小を比較して有音又は無音を判定し有音時には分割チャ
ネル信号の符号化情報を及び無音時には分割チャネル信
号の符号化を行わないことにより圧縮するための無音判
定信号を符号化器にそれぞれ出力するレベル判定部とを
有する分析側無音検出器を設けたことを特徴とする。
この第二発明の実施に当っては、分析側からの符号化さ
れた分割チャネル信号を有音時にのみ復号化するための
復号化信号を及び無音時には復号化器の出力を平レベル
にするための無音判定信号を復号化器にそれぞれ出力す
るための合成側無音検出器を設けるのが好適である。
さらに、この第二発明の好適実施例によれば、振幅レベ
ル検出部には、各分割チャネル信号の振幅レベルの絶対
値を出力する絶対値回路と、フレーム長内での振幅レベ
ルの絶対値の最大値を最大振幅レベルとして出力する最
大値検出回路とを設けることが出来る。
さらに、この第二発明の他の実施例によれば、レベル判
定部には、最大振幅レベルに対応しかつ符号化器での量
子化ステップ幅を定めるための量子化レベルに変換した
後この量子化レベルを符号化する量子化レベル変換符号
化回路と、この量子化レベルが基準レベルを越えていな
い無音時の量子化レベルの符号化結果を無音判定信号と
して出力し及び越えている有音時の量子化レベルの符号
化結果を出力する分析側無音判定回路と、この符号化結
果を復号した後量子化ステップ幅に変換して符号化器に
出力する分析側量子化ステップ幅復号変換回路とを具え
、 さらに、分析側から合成側に送られてきた符号化結果が
前記基準レベルを越えていない無音時の符号化結果を無
音判定信号として復号化器へ出力し及び越えている有音
時の符号化結果を出力する合成側無音判定回路と、この
有音時の符号化結果を分析側から合成側へ送られてきた
符号化された分割チャネル信号の復号化のための量子化
ステップ幅に変換してこの復号化器に出力する合成側量
子化ステップ幅変換回路とを設けるのが好適である。
尚、上述において、全でのチャネルに対し、同じ判定基
準レベルを設けることは妥当ではなく、それぞれのチャ
ネルの周波数帯域に応じて判定基準レベルすなわち無音
レベルを選定する。
(作用) このように、この出願の第−及び第二発明によれば、音
声がほぼ定常であると見なせる例えば5〜30m sの
一定時間区間を予め定め、このフレーム長毎に、周波数
分割された各チャネルにおける有音/無音の判定を行い
、各チャネルにおいて有音区間と判定された区間のみそ
のチャネルの出力信号を符号化して伝送する。又無音区
間においてはそのチャネルの出力信号は符号化せずに圧
縮して合成側において「0」レベル信号を復号して出力
する。このように無音区間において音声情報量の圧縮を
行う。
(実施例) 以下、図面を参照して、この発明の実施例につき説明す
る。
第1図はこの発明の詳細な説明するための第7図に示し
たSBC方式の帯域分割型音声合成装置に本発明を通用
した場合の実施例を示すブロック図であり、各チャネル
成分の符号化にはAPCMを用いている。また第1図は
1つのチャネルのみについて記しである。
第1図において、lOは入力端子、Ila及びllbは
乗算器、+2a及び+2bはローパスフィルタ(LPF
)、13a及び13bはR:1のダウンサンプリング部
でこれらは分析側の装置構成部分であって、第7図に示
した分析器の構成に対応する。さらに、合成側の装置構
成部分も、第7図の合成器の構成と対応して構成してあ
り、16a及び+6bは1:Rの補間器、+7a及び1
7bはローパスフィルタ(LPF)、18a及び18b
は乗算器、19は加算器及び20は出力端子である。+
4a及び14bは例えばAPCM符号化器であり、15
a及び15bは例えばAPCM復号化器であるが、この
発明の実施例ではこれらAPCM符号化器14a &び
14b、APCM復号化器15a及び15bを後述する
ように構成する。
これらの構成は、従来と同様に音声信号の周波数帯域を
複数の帯域に分割し、各分割チャネル信号を別個に符号
化し合成するようになしである。
この発明においては、分析側において周波数帯域分割さ
れた各チャネル毎に無音区間の検出を行って検出された
無音区間に対してはAPCM符号化器14a及び14b
における符号化器114a及び114bで符号化を行わ
ないようにするためすなわち圧lra″するための無音
検出器21a及び21bを設ける。一方、合成側におい
ては、APCM復号化器15a及び+5bにおける復号
化器+15a及びl 15bの復号信号の対応する無音
区間での信号レベルを「0」としてこれら信号を生成す
るための無音検出器22a及び22bを設けた構成とす
る。そして、この実施例では、二わら無音検出器21a
 、 21b及び22a 、 22bはそれぞれのAP
CM符号化器14a 、 14b及びAPCM復号化器
15a 、 +5bにおいてAPCMIA埋を行う機能
を果たしている構成となっている。さらに、110a、
l IObは後述するマルチプレクサ及び1lla、1
11bは後述するデマルチプレクサである。
第2図(A)は、この発明の説明に供する装置の要部を
示すブロック図であり、第1図において構成成分lea
〜18aまでのcos成分に対するブロックと、構成成
分11b〜18bまでのsin成分に対するブロックと
では変調波がCOSとsinで異なるだけで動作は全く
同じであるため、ここではcos成分に対する側の要部
の構成を示す。
以下、第1図及び第2図(A)を参照してこの発明の装
置の一実施例の動作について説明する。
先ず、入力端子10よりディジタル化された音声信号が
入力されると、その信号に対し、乗算器leaにおいて
チャネルの中心周波数と同じ周波数を持ったcos波形
(cosωh t)を乗じ振幅変調を行う。但し、kは
に番目のチャネルを表わしている。cos変調された音
声信号はωにの1/2の帯域を持ったローパスフィルタ
12aに通され、このチャネルのcos成分の出力a−
(n)が抽出される。次にローパスフィルタ13aの出
力ak (n)は、ダウンサンプリング部13aにおい
て(チャネルの帯域幅)/(元の信号のサンプリング周
波数)のサンプルにダウンサンプリング(R:1)され
、その結果ak (SR)をAPCM符号化器14aの
符号化器114aによって符号化して伝送する。
符号化方式としてここでは、先に述べたようにAPCM
を用いるが、この実施例ではある区間毎に量子化ステッ
プ幅を定め、その区間のデータに対しては現在定めた量
子化ステップ幅を用いて量子化を行うセグメンタルAP
CM (SAPCM)を用いている。
さらに、この発明の主旨である無音圧縮もこのSAPC
M符号化の過程で行っている。以下、符号化の動作につ
いて説明する。
第2図(A)は第1図におけるAPCM符号化器14a
、APCM復号化器15aでの所要の処理を行わせるた
め、この発明によって設けた無音検出器21a及び22
aのブロック構成を主として示したものである。
この実施例においては、分析側無音検出器21aを振幅
レベル検出部23aと、レベル判定部24aとを以って
構成する。この振幅レベル検出部23aでは一定時間区
間すなわちフレーム長毎に各分割チャネル信号である出
力信号a1.(SR)の振幅レベルを検出する。一方、
レベル判定部24aでは、この検出された振幅レベルと
、各チャネル毎に定められた基準レベルとの大小の比較
を行って有音叉は無音の判定を行う。振幅レベルが基準
レベルを越えている有音時には分割チャネル出力のみを
符号化する符号化情報を符号化器114aに出力する。
一方、振幅レベルが基準レベルを越えていない無音区間
では符号化を行わないことにより圧縮するための無音判
定信号を符号化器114aに出力する。
ところで、通常、ダウンサンプリング後の出力a1.(
SR)を符号化するに際し、フレーム内での量子化ステ
ップ幅△Qk (i)(但し、iはフレーム番号)を求
める必要がある。
従って、ここでは、好適実施例として、この量子化ステ
ップ幅△q+、(t)を求める過程を利用して前述した
無音判定信号及び符号化情報を形成する場合の分析側無
音検出器21aにつき説明する。この場合、量子化ステ
ップ幅(以下、単にステップ幅と称する。)△Qk (
t)はフレーム内の信号ai  (SR)の最大値が量
子化のダイナミックレンジに等しくなるように決める。
先ず、この実施例の振幅レベル検出部23aでは、各分
割チャネル信号ak  (SR)の振幅レベルの絶対値
を絶対値回路25で算出し、さらにフレーム内でのその
最大値a 、、、、を最大振幅レベルとして最大値検出
回路26で求める。この最大値a□8をレベル判定部2
4aに送る。
当然のことながら符号化で用いたステップ幅△qi、(
i)は復号化器115aでも用いるため、ステップ幅△
Qk (i)を決定する量子化レベル△Q’m(t)を
合成側に送る必要がある。従って、求まった最大値am
axを、ここでは量子化レベル変換符号化回路27にお
いて対数圧伸してビット数を削減し、合成側へ送出する
。この最大値a、fiaXの符号化すなわち量子化レベ
ル△Q’m(t)への変換はテーブルを参照することに
よって行う。このため、この実施例ては量子化レベル変
換符号化回路27には△q’k (i)符号化部28及
びテーブルROM29を設ける。
テーブルROM29には第3図(A)の如く出カイ3号
a、(SR)の全ダイナミックレンジに対して対数的に
割りふった最大値量子化レベルが昇順に格納しである。
この割りふりはチャネル及び最大値によって異なるが、
この場合、例えば(M+1)(但し、Mは正の整数)段
階に割りふる。このOからM段までを第3図(A)の左
枠外に記し、こねに対応する量子化レベルを(量子化レ
ベル)。・・・(量子化レベル)、4の如く示しである
△Q’b(i)符号化部28ではこれらの値と現在求ま
った最大値a、fia、とを逐次比較し、(量子化レベ
ル)J−+<aゆa8≦(量子化レベル)Jのときの(
量子化レベル)Jを量子化結果とし、これを指し示す値
jを符号化結果△qh(i)として出力する。このとき
テーブルROM29の(量子化レベル)。には、無音閾
値が格納されており、△Q’b(i)符号化部28にお
いて「0」が出力された場合、このフレームを無音とみ
なす。
従って、レベル判定部24aに設けた分析側無音判定回
路30では△Q’ k (i)符号化部28からの量子
化レベルΔQ′k (i)が一定の基準レベルを圧えて
いるか否か、すなわちこの実施例では符号化結果△Qk
 (i)である値jが「0」か否かを判定し、「0」で
あるならば分析側無音判定回路30か61ビツトの無音
判定信号を符号化器114aに送り、この符号化器11
4aにおいて符号化データを生成しないことによって、
情報圧縮を行う。この無音情報に基づく圧縮は任意好適
な方式で行えばよい。この実施例では、iフレームの出
力信号が無音フレームと判定されて符号化結果へQm 
 (i)であるj= ro」の無音判定信号が符号化器
114aに供給されるとすると、符号化器114aの前
段に設けたバッファ回路37から、この符号化器114
aに順次に送られてくる・・・(i−1)フレーム、i
フレーム、(i+1)フレームといった各フレームの信
号成分のうちiフレームの信号成分の符号化を行わず、
その結果・・・(i−1)フレーム、(i+1)フレー
ム・・・の時間順次で合成側に信号が符号化器114a
から出力される。△Q’k (i)符号化部28からの
量子化レベル△q’b(i)が一定の基準レベルを越え
ている場合すなわち符号化結果△Qk (i)を表わす
値jか「0」でない場合には、この符号化結果△C1k
 (i)すなわち値jを分析側量子化ステップ幅復号変
換回路31に供給してそこで量子化ステップ幅△q+、
(i)に変換する。この分析側5量子化ステップ幅復号
変換回路31には△Qk (i)復号化部32及びテー
ブルROM33とを設けである。△Qb(i)復号化部
32においては送られてきた符号化結果△Qb  (i
)(値j)に対応する量子化ステップ幅△Qk (i)
を復号し、符号化器114aに送り当該フレーム区間の
a、(SR)の量子化を行う。
この復号に当り、テーブルROM33には最大値a、、
、a、、の量子化レベル△Q′k (i)の符号化結果
△qk (i)を表わす値j(=1〜M)に応じた量子
化ステップ幅△Qk (i)が△Qjとして格納されて
おり、△Qk (i)復号化部32ではこのテーブルR
OM33を参照することによりこれらステップ幅△Qj
を生成して符号化器114aに供給する。第3図(B)
にこのテーブルROM33の内容の一例を示しである。
これら値j(=1〜M)を左枠外に記し、これに対応す
る量子化ステップ幅△qi、(t)のjに対応するステ
ップ幅△Q1(j=1〜M)を順次に示しである。
尚、この場合、△Qjは、符号化Wli4aでの量子化
ビット数をpとすると[(ffi子化レベル)、/2p
−1]の量をとり得る。
このように、分析側で分割チャネル信号毎に無音時か有
音時かを判定し符号化器114aにおいて有音時のみの
分割チャネル信号の符号化を行い及び無音時の分割チャ
ネル信号の符号化を行わないことにより圧縮して合成側
に送出する。
第2図(B)は打音時分割チャネル42号a=  (S
R)を符号化器114aで符号化し、て得られた符号化
結果A、(SR)と、量子化レベル△Q’ k (i)
の符号化結果△9k (i)とをマルチプレクサl I
Oaで信号配列して送出されるフレームデータの状態を
説明するための説明図であり、第2図(C)は無音時に
おける同様なフレームデータの状態を説明するための説
明図であり、さらに、第2図(D)は(i+1)フレー
ムが無音lフレーム及び(i+2)フレームが有音であ
った場合のマルチプレクサ110aから送出されるフレ
ームデータの状態の説明図である。
第2図(B)からも理解出来るように、lフレームが有
音時のフレームデータは、フレーム長をL(正の整数)
個のダウンサンプルとすると、先頭に量子化レベルの符
号化結果△qk (i)があり、これに続いてL個の分
割チャネル信号の符号化結果Ak (n’ )、Ak 
 (n’ +t )、・・・、Ak  (n’  + 
L−1)(但し、n’  =SR)が続いている。
lフレームが無音であると、その場合には符号化器】1
0aからの分割チャぷル信号の符号化結果Ah(i)は
生じていないので、第2図(C)に示すようにフレーム
データは量子化レベルの符号化結果△Qm  (i)の
みとなる。
さらに、lフレームがイア音(i+1)フレームが無音
、(i+2)フレームが有音であると、第2図(D)に
示すようにlフレームのフレームデータは量子化レベル
の符号化結果へQb  (i)が先頭で続いてlフレー
ムの分割チャネル信号のL個の符号化結果Ak (n’
 )、A、(n’ +1)、−−−1Ak (n’ +
L−1)があり、これに続いて(i+1)フレームの量
子化レベルの符号化結果△Qk (i+t)が続き、さ
らにこれに続いて(i+2)フレームの量子化レベルの
符号化結果△Qb  (i−1−2)及びその分割チャ
ネル信号のL個の符号化結果Ak (n’ )、・・・
、A、(n’  +L−1)か続いたデータとなる。
一方、合成側では分析側より送られてくるフレームデー
タをデマルチプレクサ1llaにおいて量子化レベルの
符号化結果△qb(i)と、分割チャネル信号の符号化
結果A、(SR)とに分は量子化レベルの符号化結果へ
Qk (i)を合成側無音検出器22aで受は取る。こ
の実施例ではこの無音検出器22aを合成側無音判定回
路34及び合成側量子化ステップ幅復号変換回路35を
以って構成する。この合成側無音判定回路34において
は、分析側無音判定回路30と同様に受信した符号化結
果△qk (i)に対応する量子化レベルΔQ’ k 
(i)か基準レベルを越えていない場合すなわちこの実
施例では例えばj=「0」であると判定した場合には、
無音判定信号を復号化器15aに送出し、復号化器11
5aにおいて対応するフレーム区間分の「0」レベルの
出力を発生する。
送られてきた符号化結果へqk (i)に対応する量子
化レベル△Q’k (i)が「0」でない場合には分析
側同様△Qk (i)復号化部36においてテーブルR
OM:17を参照して復号化信号としでのfilf化ス
テップ幅△Qjを復号し、これを復号化器115aに供
給し、そこでこの量子化ステップ幅△Q、を用いて分析
側で量子化された符号化結果Ak (SR)を復号して
分割チャネル信号ak’  (SR)を得る。この合成
側量子化ステップ幅復号変換回路35は前述した分析側
量子化ステップ幅復号変換回路31と同様に作用する。
次に、第1図に戻って、復号された分割チャネル信号a
’ k (SR)は、補間器+6aによって補間されて
元のサンプリング周期に戻され、ローパスフィルタ17
aを通り、さらに、乗算器18aにおいてcosωkn
を乗ぜられて再び元の周波数帯域に復元される。
以上の処理を他のチャネルも同様にして行い、最後に全
チャネルの出力結果を加算し、合成結果として出力する
この発明は上述した実施例にのみ限定されるものではな
く、多くの変形又は変更を行うことか出来る。
例えば、上述した実施例ではセグメントAPCM方式に
つき説明したが、この出願に係る発明はこれに限定され
るものではなく、帯域分割型の符号化復号化方法及び装
置に広く適用して好適である。
さらに、上述した実施例では合成側無音検出器及び分析
側無音検圧器を用いてAPCM処理を行っているが、A
PCM処理自体は別の回路構成で行ってこれら検出器で
無音を検出させるのみであっても良い。
さらに、上述した実施例では、無音区間の検出を最大振
幅レベルを用いて行っているが、平均振幅レベルを用い
て行うことも出来る。又、上述した実施例では量子化ス
テップ幅の導出過程を利用しているため、レベル判定部
24aを量子化レベル変換符号化回路27、分析側無音
判定回路30及び分析側量子化ステップ幅復号変換回路
を以って構成しているか、このレベル判定部24aの構
成自体能の任意好適な構成とすることが出来る。又この
ような量子化ステップ幅の導出過程を利用しない構成で
無音区間の符号化を行わずに有音区間のみ符号化を行っ
て圧縮する場合には、レベル判定部24aを振幅レベル
と基準レベルとの比較を行ってその大小に応した制御信
号を符号化器114aに送出する分析側無音判定回路と
すると共に、合成側無音判定回路も対応した構成とすれ
ばよい。
(発明の効果) 以上述べたように、この発明によれば本来無音である区
間はもちろんのこと、有音区間においても、はとんど出
力のないチャネルの成分をデータから除去しているため
、少ない情報量で合成音が生成出来る。また、各チャネ
ルで無音判定を行っているため、不要なノイズ成分が削
減され、結果的に高品質な合成音を得ることが出来る。
【図面の簡単な説明】
第1図はこの発明の説明に供する、SBC方式の音声分
析合成装置の実施例を示すブロック図、第2図(A)は
第1図に示した装置の要部を示すブロック図、 第2図(B)〜(D)は分析側から合成側へ送られるフ
レームデータの状態説明図、 第3図(A)及び(B)はこの発明に使用するテーブル
ROMの内容を説明するための図、第4図はSBC方式
の説明図、 第5図は従来のSBC方式音声分析合成器の構成図、 第6図は第5図の装置の動作を説明するための図、 第7図は他の従来のSBC方式音声分析合成器の構成図
である。 lO・・・入力端子、    lla 、 llb・・
・乗算器12a 、 +2b ・−ローパスフィルタ(
LPF)13a 、13b −(R: 1の)ダウンサ
ンプリング部14a 、 14b −−−A P CM
符号化器15a 、 15b ・・・A P CM復号
化器16a 、16b ・−(1: Hの)補間器17
a 、 17b−−・ローパスフィルタ(LPF)18
a 、 18b ・−乗算器、  +9・・・加算器2
0−・・出力端子、     21a 〜22b ・−
無音検出器23a=・振幅レベル検出部 24a・・・レベル判定部 25・・・絶対値回路、    26・・・最大値検出
回路27・・−!’jt子化レベル変換符号化回路28
・・・△Q’b(i)符号化部 29.33.37−テーブルROM 2O・・・分析側無音判定回路 31・・・分析側量子化ステップ幅復号変換回路32・
・・△qi、(i)復号化部 34−・・合成側無音判定回路 35−・・合成側量子化ステップ幅復号変換回路36・
・・△Qk (i)復号化部 37・・・バッファ回路。 特許出願人      沖電気工業株式会社−で 同 q焚 数 (kHz) SF3C方j×の盲y!LT3月国 第4図

Claims (5)

    【特許請求の範囲】
  1. (1)音声信号の周波数帯域を複数の帯域に分割し、各
    分割チャネル信号を個別に符号化して合成する音声分析
    合成方法において、 一定時間区間(フレーム長)毎の各分割チャネル信号の
    振幅レベルを判定し、 前記振幅レベルが各分割チャネル毎に定められた基準レ
    ベルを越えている分割チャネル信号のみを符号化する ことを特徴とする音声分析合成方法。
  2. (2)音声信号の周波数帯域を複数の帯域に分割して得
    た各分割チャネル信号を個別に符号化して出力する符号
    化器と、符号化された分割チャネル信号を受信して合成
    する復号化器とを含む帯域分割型の音声分析合成装置に
    おいて、 一定時間区間(フレーム長)毎に各分割チャネル信号の
    振幅レベルを検出する振幅レベル検出部と、該振幅レベ
    ル及び各分割チャネル毎に定められた基準レベルの大小
    を比較して有音又は無音を判定し有音時には分割チャネ
    ル信号の符号化情報を及び無音時には分割チャネル信号
    の符号化を行わないことにより圧縮するための無音判定
    信号を符号化器にそれぞれ出力するレベル判定部とを有
    する分析側無音検出器を具えることを特徴とする音声分
    析合成装置。
  3. (3)分析側からの符号化された分割チャネル信号を有
    音時にのみ復号化するための復号化信号を及び無音時に
    は前記復号化器の出力を零レベルにするための無音判定
    信号を前記復号化器にそれぞれ出力するための合成側無
    音検出器を具えることを特徴とする特許請求の範囲第2
    項に記載の音声分析合成装置。
  4. (4)前記振幅レベル検出部は、各分割チャネル信号の
    振幅レベルの絶対値を出力する絶対値回路と、フレーム
    長内での振幅レベルの絶対値の最大値を最大振幅レベル
    として出力する最大値検出回路とを具えることを特徴と
    する特許請求の範囲第2項又は第3項に記載の音声分析
    合成装置。
  5. (5)前記レベル判定部は、前記最大振幅レベルに対応
    しかつ前記符号化器での量子化ステップ幅を定めるため
    の量子化レベルに変換した後この量子化レベルを符号化
    する量子化レベル変換符号化回路と、該量子化レベルが
    前記基準レベルを越えていない無音時の量子化レベルの
    符号化結果を無音判定信号として出力し及び越えている
    有音時の量子化レベルの符号化結果を出力する分析側無
    音判定回路と、該符号化結果を復号した後前記量子化ス
    テップ幅に変換して前記符号化器に出力する分析側量子
    化ステップ幅復号変換回路とを具え、さらに、分析側か
    ら合成側に送られてきた前記符号化結果が前記基準レベ
    ルを越えていない無音時の符号化結果を無音判定信号と
    して前記復号化器へ出力し及び越えている有音時の符号
    化結果を出力する合成側無音判定回路と、該有音時の符
    号化結果を前記分析側から合成側へ送られてきた符号化
    された分割チャネル信号の復号化のための量子化ステッ
    プ幅に変換して前記復号化器に出力する合成側量子化ス
    テップ幅変換回路とを具えることを特徴とする特許請求
    の範囲第4項に記載の音声分析合成装置。
JP61289708A 1986-12-04 1986-12-04 音声分析合成方法及び装置 Expired - Lifetime JPH0636158B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP61289708A JPH0636158B2 (ja) 1986-12-04 1986-12-04 音声分析合成方法及び装置
US07/453,149 US5054073A (en) 1986-12-04 1989-12-19 Voice analysis and synthesis dependent upon a silence decision

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61289708A JPH0636158B2 (ja) 1986-12-04 1986-12-04 音声分析合成方法及び装置

Publications (2)

Publication Number Publication Date
JPS63142399A true JPS63142399A (ja) 1988-06-14
JPH0636158B2 JPH0636158B2 (ja) 1994-05-11

Family

ID=17746722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61289708A Expired - Lifetime JPH0636158B2 (ja) 1986-12-04 1986-12-04 音声分析合成方法及び装置

Country Status (2)

Country Link
US (1) US5054073A (ja)
JP (1) JPH0636158B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04264598A (ja) * 1990-11-05 1992-09-21 Internatl Business Mach Corp <Ibm> 人間の音声を認識するための方法及び装置
WO1995021490A1 (fr) * 1994-02-05 1995-08-10 Sony Corporation Procede et dispositif de codage de l'information et procede et dispositif de decodage de l'information
JPH08101698A (ja) * 1994-09-30 1996-04-16 Shogo Nakamura 音響信号圧縮伸張装置及び音響信号圧縮伸張方法
US6006176A (en) * 1997-06-27 1999-12-21 Nec Corporation Speech coding apparatus
JP2018146652A (ja) * 2017-03-02 2018-09-20 学校法人東北学院 音声のコーディング・デコーディング方法

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2906646B2 (ja) * 1990-11-09 1999-06-21 松下電器産業株式会社 音声帯域分割符号化装置
US5313552A (en) * 1991-03-27 1994-05-17 Unisys Corporation Apparatus for quantizing an input group of data samples into one of N quantized groups of data via a process on less than N/2 reference groups of data samples
JP2518765B2 (ja) * 1991-05-31 1996-07-31 国際電気株式会社 音声符号化通信方式及びその装置
US5694519A (en) * 1992-02-18 1997-12-02 Lucent Technologies, Inc. Tunable post-filter for tandem coders
JP3185415B2 (ja) * 1992-11-26 2001-07-09 ソニー株式会社 圧縮データ再生記録装置及び方法
JP3186315B2 (ja) * 1993-02-27 2001-07-11 ソニー株式会社 信号圧縮装置、信号伸張装置、信号送信装置、信号受信装置及び信号送受信装置
US5535299A (en) * 1993-11-02 1996-07-09 Pacific Communication Sciences, Inc. Adaptive error control for ADPCM speech coders
US5765136A (en) * 1994-10-28 1998-06-09 Nippon Steel Corporation Encoded data decoding apparatus adapted to be used for expanding compressed data and image audio multiplexed data decoding apparatus using the same
US5706392A (en) * 1995-06-01 1998-01-06 Rutgers, The State University Of New Jersey Perceptual speech coder and method
US6138036A (en) * 1997-03-13 2000-10-24 Oki Telecom, Inc. Wireless telephone with voice data interface mode
US6240299B1 (en) * 1998-02-20 2001-05-29 Conexant Systems, Inc. Cellular radiotelephone having answering machine/voice memo capability with parameter-based speech compression and decompression
JP3670217B2 (ja) * 2000-09-06 2005-07-13 国立大学法人名古屋大学 雑音符号化装置、雑音復号装置、雑音符号化方法および雑音復号方法
KR100916959B1 (ko) * 2001-05-11 2009-09-14 코닌클리케 필립스 일렉트로닉스 엔.브이. 압축된 오디오에서의 신호 전력 추정
US7668715B1 (en) * 2004-11-30 2010-02-23 Cirrus Logic, Inc. Methods for selecting an initial quantization step size in audio encoders and systems using the same
JP4087400B2 (ja) * 2005-09-15 2008-05-21 株式会社東芝 音声対話翻訳装置、音声対話翻訳方法および音声対話翻訳プログラム
JP6759927B2 (ja) * 2016-09-23 2020-09-23 富士通株式会社 発話評価装置、発話評価方法、および発話評価プログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS53135561A (en) * 1977-04-29 1978-11-27 Ibm Method of quantizing signal

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4280192A (en) * 1977-01-07 1981-07-21 Moll Edward W Minimum space digital storage of analog information
US4110560A (en) * 1977-11-23 1978-08-29 Gte Sylvania Incorporated Communication apparatus
US4374304A (en) * 1980-09-26 1983-02-15 Bell Telephone Laboratories, Incorporated Spectrum division/multiplication communication arrangement for speech signals
US4376874A (en) * 1980-12-15 1983-03-15 Sperry Corporation Real time speech compaction/relay with silence detection
US4455649A (en) * 1982-01-15 1984-06-19 International Business Machines Corporation Method and apparatus for efficient statistical multiplexing of voice and data signals
GB8330885D0 (en) * 1983-11-18 1983-12-29 British Telecomm Data transmission
US4704730A (en) * 1984-03-12 1987-11-03 Allophonix, Inc. Multi-state speech encoder and decoder

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS53135561A (en) * 1977-04-29 1978-11-27 Ibm Method of quantizing signal

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04264598A (ja) * 1990-11-05 1992-09-21 Internatl Business Mach Corp <Ibm> 人間の音声を認識するための方法及び装置
WO1995021490A1 (fr) * 1994-02-05 1995-08-10 Sony Corporation Procede et dispositif de codage de l'information et procede et dispositif de decodage de l'information
JPH08101698A (ja) * 1994-09-30 1996-04-16 Shogo Nakamura 音響信号圧縮伸張装置及び音響信号圧縮伸張方法
US6006176A (en) * 1997-06-27 1999-12-21 Nec Corporation Speech coding apparatus
JP2018146652A (ja) * 2017-03-02 2018-09-20 学校法人東北学院 音声のコーディング・デコーディング方法

Also Published As

Publication number Publication date
JPH0636158B2 (ja) 1994-05-11
US5054073A (en) 1991-10-01

Similar Documents

Publication Publication Date Title
JPS63142399A (ja) 音声分析合成方法及び装置
KR100427753B1 (ko) 음성신호재생방법및장치,음성복호화방법및장치,음성합성방법및장치와휴대용무선단말장치
RU2255380C2 (ru) Способ и устройство воспроизведения речевых сигналов и способ их передачи
US5778335A (en) Method and apparatus for efficient multiband celp wideband speech and music coding and decoding
JP3653826B2 (ja) 音声復号化方法及び装置
EP0154381B1 (en) Digital speech coder with baseband residual coding
US7596492B2 (en) Apparatus and method for concealing highband error in split-band wideband voice codec and decoding
KR100574031B1 (ko) 음성합성방법및장치그리고음성대역확장방법및장치
US20040138876A1 (en) Method and apparatus for artificial bandwidth expansion in speech processing
JPH07193548A (ja) 雑音低減処理方法
EP0837453A2 (en) Speech analysis method and speech encoding method and apparatus
KR100526829B1 (ko) 음성부호화방법및장치음성복호화방법및장치
US6052659A (en) Nonlinear filter for noise suppression in linear prediction speech processing devices
CA2399253C (en) Speech decoder and method of decoding speech involving frequency expansion
US5706392A (en) Perceptual speech coder and method
KR20000047944A (ko) 수신장치 및 방법과 통신장치 및 방법
JP3444131B2 (ja) 音声符号化及び復号装置
WO2001065542A1 (fr) Dispositif de codage/decodage de la voix et procede associe
JP2581696B2 (ja) 音声分析合成器
JP3649854B2 (ja) 音声符号化装置
JP4373693B2 (ja) 音響信号の階層符号化方法および階層復号化方法
JP3496618B2 (ja) 複数レートで動作する無音声符号化を含む音声符号化・復号装置及び方法
JPS62159198A (ja) 音声合成方式
KR100196387B1 (ko) 성분 분리를 통한 시간 영역상의 음성피치 변경방법
KR100210444B1 (ko) 대역 분할을 통한 음성신호 부호화 방법

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term