JPH11513821A - 逆変換狭帯域/広帯域音声合成 - Google Patents

逆変換狭帯域/広帯域音声合成

Info

Publication number
JPH11513821A
JPH11513821A JP9516706A JP51670697A JPH11513821A JP H11513821 A JPH11513821 A JP H11513821A JP 9516706 A JP9516706 A JP 9516706A JP 51670697 A JP51670697 A JP 51670697A JP H11513821 A JPH11513821 A JP H11513821A
Authority
JP
Japan
Prior art keywords
time
parameters
generating
audio
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP9516706A
Other languages
English (en)
Inventor
フリード,エイドリアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
THE REGENTS OF THE UNIVERSITY OF CARIFORNIA
Original Assignee
THE REGENTS OF THE UNIVERSITY OF CARIFORNIA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by THE REGENTS OF THE UNIVERSITY OF CARIFORNIA filed Critical THE REGENTS OF THE UNIVERSITY OF CARIFORNIA
Publication of JPH11513821A publication Critical patent/JPH11513821A/ja
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/08Instruments in which the tones are synthesised from a data store, e.g. computer organs by calculating functions or polynomial approximations to evaluate amplitudes at successive sample points of a tone waveform
    • G10H7/10Instruments in which the tones are synthesised from a data store, e.g. computer organs by calculating functions or polynomial approximations to evaluate amplitudes at successive sample points of a tone waveform using coefficients or parameters stored in a memory, e.g. Fourier coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/215Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
    • G10H2250/235Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/215Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
    • G10H2250/245Hartley transform; Discrete Hartley transform [DHT]; Fast Hartley transform [FHT]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/215Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
    • G10H2250/251Wavelet transform, i.e. transform with both frequency and temporal resolution, e.g. for compression of percussion sounds; Discrete Wavelet Transform [DWT]

Landscapes

  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Engineering & Computer Science (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • General Physics & Mathematics (AREA)
  • Algebra (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Abstract

(57)【要約】 複雑かつ現実的な音声を合成するための加算的音声合成処理を、効率的な計算により実現することを可能にする。本発明の一局面において、所与の部分音のエネルギーを、異なるチャネルに対応する別々の変換合計に配給することにより、ポリフォニック化が効率的に達成される。本発明の別の局面において、部分音毎に対してあるいは変換合計に対して音声の位相をランダムに乱すことにより、ノイズ(87)が投入される。後者の場合、スペクトルの各領域に存在するエネルギー量によって決定される程度まで、スペクトルの異なる領域において位相が乱される。本発明のさらに別の局面において、音声を表す変換合計(83)を変換領域中において処理することにより、変換領域外ならばより大きなコストでしか実現可能でない効果が、優れた経済性で達成される。フーリエ変換の他の変換を用いても効果的である。例えば、ハートレー変換を用いることで同等な結果が生成される一方、フーリエ変換の約2倍の速度で変換を計算することを可能にする。

Description

【発明の詳細な説明】 逆変換狭帯/広帯域音声合成 発明の背景 1.発明の分野 本発明は、コンピュータ制御された音声合成に関し、特に、逆変換技術を用い た加算的合成に関する。 2.従来技術 音声合成におけるコンピュータの応用は長年にわたって研究および実践されて いる。単純な音のコンピュータ合成は簡単であるのに対し、人間の声、ピアノの 和音、鳥の鳴き声等の複雑で現実的な音声の合成は課題であり続けている。 複合音を合成する周知技術の1つは、加算的今成(additive synthesis)に関す るものである。従来の加算的合成の場合、一群の正弦波部分音(sinusoidal part ials)を加算することによって複合音を生成する。複雑で現実的な音声を1つ生 成するのに、1000個もの正弦波部分音を加算する必要があり得る。正弦波部 分音は、それぞれ、少なくとも周波数および振幅、さらに可能であれば位相、に よって指定されなければならない。加算的合成によって複雑で現実的な音声を生 成する際の計算上の課題が相当なものであることは明らかである。 また、複雑で現実的な音声をリアルタイムで生成するために加算的合成を用い るとき、その最大の利点が得られる。即ち、合成システムは、それぞれが多数の 部分音のパラメータを指定する一連のレコードを受け入れ、これらのレコードか ら、ユーザが感じる程の遅延を伴わずに、複雑で面白い現実的な音声を生成する 能力を有するべきである。 加算的合成に関して、2つの方法が行われている。第1の方法(時間領域また は波テーブル(wavetable)法)では、複数の発振器(oscillator)を含むバンクの 等価物を用いて正弦波部分音を直接生成している。全ての部分音の周波数および 振幅の値を、発振器バンク内の発振器に与え、得られる部分音を加算することに よって最終的な音を生成している。適切な時間内に音声を生成し得るように、部 分音をそれぞれ独立して直接計算するという要件によって、1つの音声に含まれ 得る部分音の数が制限される。 第2の方法(周波数領域法)では、周波数領域において部分音を指定および加 算し、これにより、最終的な音のスペクトル即ち周波数領域表現を生成する。次 に、逆フーリエ変換を用いて最終的な音の時間領域表現を計算し、ここから音声 が生成される。 IFFT加算的合成技術の1つが、本願に参考として援用される米国特許第5, 401,897号に記載されている。ここに記載されている加算的音声合成処理の場合 、連続する周波数スペクトルの逆フーリエ変換を行うことによってサンプルブロ ックを求める。これらのサンプルブロックを時間重畳(time-superimposed)およ び加算することによって、1つの音波を表すサンプルシーケンスを形成する。後 者のプロシージャは、オーバーラップ加算(overlap-add)として知られている。 スタジオ品質の音声再生を達成するためには、出力サンプルを44.1または48KH zのレートで生成する。すなわち20マイクロ秒毎に1サンプルである。しかし、 人間の耳は1秒の数百分の1未満しか離れていないような聴覚的イベント(audit ory event)を容易には区別できないので、連続周波数スペクトルを記述する制御 情報を含むパラメータセットを、例えば200Hzの低い周波数(更新周波数(update frequency))で供給し得る。次に、所与のサンプルに対応する瞬間を囲む2つ の連続するパラメータセットの間で補間を行うことにより、サンプルを計算する 。このようにして、値の突然変化が連続すること(ノイズまたはクリック音が更 新周波数で起こる結果となる)を回避する。 図1を特に参照し、合成される音声の連続的スペクトルを記述する制御情報を テーブルTAB1に格納する。各部分音は、周波数(fi)、振幅(Ai)、および位相 (Φi)のパラメータで記述される。さらに、合成された信号中に導入するべき スペクトルノイズエネルギーの記述(ノイズ成分Bi)も、テーブルTAB3に格納す る。 ウィンドーイング関数(windowing function)を用いた周知の短項(short-term) フーリエ技術に従って、スペクトルを構成する。任意の数の適切なウィンドーイ ング関数、例えばハニングウィンドーイング関数(Hanning windowing function) を用い得る。時間領域ウィンドーイング関数にゼロパディング(zero-padded)を 施し、離散フーリエ変換を用いて変換することにより、改善された周波数解像度 を有する、オーバーサンプリング(oversample)された「周波数領域ウィンドウ」 を生成し、これをテーブルTAB2に格納する。 図1中の段階10において、周波数fiに従って決定される周波数領域ウィンド ウをサンプリングする。次に、サンプル値に、位相ファクタej Φiに従って重み 付けされた振幅Aiを乗算し、指定された部分音を表すパターン(図1中において 曲線12Mで示される)を生成する。得られた値を、構築中のスペクトルを表すた めに用いられる別々の(discrete)周波数「容器(bin)」に加算する。周波数fiは 、スペクトル表現中の周波数容器の周波数境界に対して値を位置合わせするため に用いられる。1つのレコード中の全ての部分音が加算されるまで、連続的な部 分音のそれぞれのスペクトル表現Siを、累積された部分音の前回の和Si-1に加算 する。 得られたスペクトルは、多数の正弦波部分音からなる。しかし、周期的成分に 加えて、非周期的成分(すなわちノイズ)の存在は、大部分の面白い現実的な音 声(楽音を含む)の作成にとって基本的なものである。従って、テーブルTAB3に 格納されたノイズ記述から生成されるノイズ成分Biを、段階40中のスペクトル に加算する。ノイズ記述は、例えば、ホワイトノイズのスペクトル密度を選択さ れたフィルタの周波数応答を用いて畳み込み(convolve)、その結果を表にする(t abulate)ことによって得ることができる。 ノイズ成分Biをスペクトルに加算することが、複雑かつ現実的な音声のスペク トル表現を構築する際の最後の工程である。続く工程により、そのスペクトル表 現を時間表現に変換する。スペクトルが形成されると、段階50において離散逆 フーリエ変換を行う。スペクトルの逆フーリエ変換をとることにより、サンプリ ングシーケンスを得ることが可能になる。 音声を表している最終信号を生成するために、IFFT段階50によって計算され た連続するサンプルブロックを、テーブルTAB4中に格納された重み付け曲線を用 いて整形する(shape)。整形されたサンプルブロックを次に、図2に略図示する ように、段階70においてオーバーラップさせかつ加算する。連続するブロック の重畳により、ブロックの境界における計算エラーの影響を緩和する。 重み付け曲線を形成するために、所定の数のサンプルによって置換され(displ ace)、自身に加算された時に、オーバーラップ区間(overlap interval)を通じて 一定値が得られるような特性を有する関数を選択する。関数は例えば、三角形関 数(triangular function)または台形関数(trapezoidal function)であってもよ い。選択された関数のサンプル値を、周波数領域ウィンドウの対応するサンプル 値で除算する。結果をテーブルTAB4に格納し、段階70(図2)で行われるオー バーラップ−加算演算の準備として、連続するサンプルブロックを乗算するため に用いられる。オーバーラップ−加算演算により、音波を表すサンプリングシー ケンスが生成される。このサンプリングシーケンスに対してフィルタリング、平 滑化、D/Aコンバータ75におけるアナログ信号への変換、および増幅を行うこ とにより、音声トランスデューサ(スピーカなど)に入力されるための適切な連 続的な(continuous)電気的信号が得られる。 テーブルTAB1に格納される部分音パラメータセットの生成は、上述の特許中に は具体的には述べられていないが、典型的には制御構造90を用いて達成される 。制御構造90は、各ブロックが様々な部分音をその振幅および位相について指 定しているような、データのブロックを生成する。遷移がより滑らかに起こるよ うなより多くの数のデータセットを生成するために、補間器100がしばしば用 いられる。補間器は、音声出力中のアーチファクトを最小限にするように設計さ れる。補間器100は、レート制御器80によって決定されるレートで動作する 。このレートは、少なくとも部分的には、制御構造90の動作速度およびD/Aコ ンバータ75のサンプルレートによって支配される。 加算的音声合成に関連する他の特許は、米国特許第4,856,068号、米国特許第4 ,885,790号、米国特許第4,937,873号、米国特許第5,029,509号、米国特許第5,05 4,072号、および米国特許第5,327,518号を含む。これらの全てを参考のために本 明細書において援用する。 しかし、上述したタイプの従来技術における加算合成方法は、いくつかの点に おいて制約が残っている。音声信号のスペクトル表現を生成するために、離散フ ーリエ変換のみを用いている。離散フーリエ変換の効率的な計算に関して、多く の研究がなされている。しかしながら、計算の複雑さにより、リアルタイムで計 算し得る部分音の数に相当な程度の制約が加わっている。 上述の計算的複雑さに一部起因して、従来の方法において、典型的には単一の 複合音のみが生成される。すなわち、従来の方法は、異なる音声の同時生成は含 まなかった(ポリフォニックまはたマルチチャネル音声)。また、従来技術にお いて用いられるノイズ生成法は典型的には、生成されている音とは実質的に独立 に包絡線関数によって整形された広帯域ノイズを加えることに限定されている。 このノイズ合成方法は、ピッチに同期したノイズが必要とされる状況においては うまく機能しない。 さらに、従来の方法は典型的には、合成中にリアルタイムで変化する値ではな く、前もって格納され分析されたパラメータによって記述される音声を生成かつ 演奏することに限定されている。これらの方法は典型的には、音声表現の中間処 理には関わらないものであった。 発明の要旨 一般に言って、本発明は前述の欠点を克服し、複雑、現実的かつ制御可能な音 声の加算的音声合成処理を、効率的な計算により実現することを可能にする。本 発明の一局面において、所与の部分音のエネルギーを、異なるチャネルに対応す る別々の変換合計(transform sums)に配給する(dose)ことにより、ポリフォニッ ク化が効率的に達成される。本発明の別の局面において、部分音毎に対してある いは変換合計に対して音声の位相をランダムに乱す(perturb)ことにより、ノイ ズが投入(inject)される。後者の場合、スペクトルの各領域に存在するエネルギ ー量によって決定される程度まで、スペクトルの異なる領域において位相が乱さ れる。本発明のさらに別の局面において、音声を表す変換合計を変換領域中にお いて処理することにより、変換領域外ならばより大きなコスト(expense)によっ てしか実現可能でない効果が、優れた経済性で達成される。フーリエ変換の他の 変換を用いても効果的である。例えば、ハートレー変換(Hartley transform)を 用いることで同等な結果が生成される一方、より大きな機械効率に適したより規 則的な構造が生成される。 図面の簡単な説明 図1は、従来の音声合成処理の、ブロック図/信号図の組み合わせ図である。 図2は、図1の演算に続いて行われる、従来のオーバーラップ−加算演算を示 す信号図である。 図3は、本発明による逆変換加算的音声合成システムの全体ブロック図である 。 図4は、図3の音声合成システムの1つのチャネルに対応する単純化ブロック 図である。 図5は、本発明の一実施態様における、図3の音声合成システムの広帯域合成 部のブロック図である。 図6は、本発明の別の実施態様における、図3の音声合成システムの広帯域合 成部のブロック図である。 図7は、第1の実施態様における、図3の音声合成システムの複数のチャネル に対応する単純化ブロック図である。 図8は、第2の実施態様における、図3の音声合成システムの複数のチャネル に対応する単純化ブロック図である。 図9は、図3の音声合成システムの1つのチャネルに対応するブロック図であ り、変換領域中において音声出力信号のプリフィルタリングを行う様子を示して いる。 好適な実施態様の説明 以下の説明において、音声合成自体と、所望の音声を生成するための音声合成 制御に用いるパラメータを生成する際の特徴的な問題とを、明確に区別している 。 音声合成における適切なパラメータは、「音声合成のための制御構造」の名称 を有し同時継続中の米国出願シリアルNo.08/551,890(弁理士登録番号028726-00 7)(本願と同日に出願され、本明細書中において参考のために援用する)に記 載されたものなどの、適切な制御構造によって生成され利用可能になるものとす る。好ましくは、制御構造は、キーボード、フットペダルその他の入力装置から のユーザの入力に対して、ほとんど知覚できないほどの遅延でもって応答するよ うなリアルタイム動作が可能である。 次に、図3を参照し、そのような制御構造91を示す。制御構造91は、音声 合成システムの様々なブロックに対しパラメータを与える。このシステムのアー キテタチャは、様々な用途に適した極めて多機能な音声合成システムを実現する ように設計される。従って、より単純な音声合成システムにおいては省略可能な 機能を有するようなブロックも設けられている。図3において、そのようなブロ ックは破線13の右側に示している。従って、図3中の残りのブロックの機能を 先に説明する。 米国特許第5,401,897号の従来技術による逆変換加算的音声合成システム、お よび他の従来の加算的音声合成システムにおいて、周波数スペクトルは、スペク トル包絡線に分割された(grouped)別々の(discrete)スペクトル成分を加算する ことによって得られる。各スペクトル包絡線は、正弦波成分またはスペクトルノ イズ帯域に対応する。ノイズ帯域は統計学的に独立である。すなわち、正弦波成 分を生成するメカニズムとは無関係な、独立に規定されるメカニズムによって生 成される。 一方、本発明の逆変換加算的音声合成システムの場合、部分音は正弦波である 必要はなく、様々な形態の狭帯域成分をとり得る。従って、本発明の説明の便宜 のために「スペクトル」および「スペクトルの」の用語を用いるが、必ずしも正 弦波成分での表現を意味するものではなく、時間領域以外の領域での音声の表現 を意味するものとして広く用いられることが理解されるべきである。 さらに、広帯域成分は、狭帯域成分から独立して定められるのではなく、広帯 域成分生成メカニズムが狭帯域成分生成メカニズム内に包含されるように生成さ れてもよい。結果的に、図3のブロック89および87は、正弦波部分音および ノイズ帯域を生成する従来技術のメカニズムと表面的に対応すると考えられ得る が、これらは、より広義に、狭帯域合成(89)および広帯域合成(87)を行 うものとして考えられるべきである。狭帯域合成ブロック89および広帯域合成 ブロック87は、制御構造91からの制御信号によって制御される。 狭帯域成分および広帯域成分は、変換合計および混合(sum-and-mix block)ブ ロック83において加算される。変換合計および混合ブロック83は、制御構造 91からの制御信号によって制御される。変換合計および混合ブロック83は、 別々の変換合計間における、所与の部分音のエネルギーの選択的な分配(selecti ve distribution)、即ち「配給(dosing)」を可能にする。この特徴は、図7およ び図8に関連して以下により詳細に説明するように、ポリフォニック効果のため の能力を提供する。 変換合計および混合ブロックは、制御構造91にも信号を与える。例えば、1 つ以上の変換合計において見られるスペクトル表現を用いて、ある信号のスペク トルまたは他の性質をリアルタイムで視覚的に表示することにより、大きな利点 が得られる。その信号の変換領域表現が既に作成されているので、表示用にデー タをフォーマットするために必要な追加的な処理は最低限で済む。個々の部分音 の大きさ(magnitudes)および周波数に加えて、変換合計(例えば、構築されたス ペクトル)を表示してもよい。 さらに、1つ以上の変換合計において見られるスペクトル表現を、制御構造9 1に対するリアルタイムのフィードバックとして用いることにより、同じ変換合 計のさらなる生成、または次の変換合計の生成に影響を与えることも可能である 。 変換領域フィルタリングブロック79は、変換合計および混合ブロックから変 換合計を受け取り、変換領域内にある変換合計に対して様々なタイプの処理を行 うように設計されている。変換領域フィルタリングブロック79は、制御構造7 9からの制御信号によって制御され、制御構造79に信号を与える。変換領域は 、時間領域または信号領域の場合にはより大きな困難および高いコストによって しか行うことができないような様々なタイプの処理を、容易に行うことを可能に する。 変換領域処理は、公知の知覚的メカニズムの使用、ならびに、合成音を聴く環 境による制限への適合化を可能にする。一例に過ぎないが、変換領域処理を用い て、自動利得制御または周波数依存利得制御を行うことが可能である。同様に、 聴覚的知覚のシミュレーションを用いて、音声表現を合成する前にそれを実効的 に「聴」いてこの音声表現を変更することにより、邪魔な(objectional)音声を 除去し、あるいは、制御パラメータ空間を知覚的に直交化する(orthogonalize) ことが可能である。 変換領域処理の後、逆変換/オーバーラップ加算演算のバンク73を用いて音 声表現を合成して、各変換合計の変換を行う。図3に示される各逆変換ITは、 上記した従来の逆フーリエ変換にほぼ対応する。但し、この逆変換はフーリエ逆 変換でなくてもよく、ハートレー逆変換または他の適切な逆変換であり得る。当 業者は、容易に本発明の実施を公知の変換のうち任意のもの(例えば、フーリエ 、ハートレー、ウェーブレット(wavelet)、ハー(Haar)、ウォルシュ(Walsh)、ザ ク(Zak)など)に容易に適合化することができるであろう。計算される変換の数 (変換数)は利用可能な計算パワーによってのみ制限される。 逆変換/オーバーラップ加算バンク73によって生成した時間サンプリングさ れた信号を、出力マトリクス混合ブロック71に入力する。出力マトリクス混合 ブロックは従来の方法で実現され、ある数の出力信号を生成するために用いられ る。この数は、計算される変換の数と同じであっても、異なっていてもよい。こ の出力信号を、デジタルからアナログに変換して、適切な音声トランスデューサ に出力する。 上記の音声合成システムは、パラメータ的記述から音声を生成する。柔軟性お よび一般性を高めるために、破線13の右側にあるブロックを追加してもよい。 これらのブロックによって、格納された音声、リアルタイム音声、あるいはその 両方をシステムに入力することが可能になる。 変換コード化された音声信号は、ブロック85に格納される。制御構造91の 制御下において、これらの信号を取り出し、変換デコードブロック81において 変換デコードし、そして、1つ以上の変換合計に加算することが可能である。格 納される信号は、例えば、予め格納された音声を表すものであり得る。 リアルタイム信号は、ブロック75に入力され得る。ブロック75において、 リアルタイム信号は前方変換される(forward transformed)。その後、ブロック 77は、入力信号の変換フィルタリングを行う。その後、フィルタリングされ、 変換された信号を、制御構造91の制御下で、1つ以上の変換合計に加算する。 さらに、リアルタイム信号およびその変換結果(transform)は、分析およびシ ステム識別(system identification)を行うブロック72に入力され得る。シス テム識別は、信号のパラメータ表現を導出することを含む。分析したスペクトル の結果を、制御構造91にフィードバックし、これを、以降のスペクトル構築、 または現スペクトルの改変の際に用いることが可能である。 追加的な音声入力なしにパラメータ的記述から単音(monophonic)音声を生成す る場合を想定することにより、本発明の逆変換加算的音声合成システムをより詳 細に理解し得るであろう。図4を参照して、制御構造191はユーザ入力(例え ばコンピュータキーボードもしくはその他のコンピュータ入力装置、または楽器 から)を受け取り、これに応答して2つの信号の集合(set)192および184 を生成する。第1の信号集合192は、生成すべき音声の狭帯域特性を、数個の 所定の部分音の振幅Ai n、位相Φin、およびノイズ成分Ni nを用いて記述する 。個々の部分音を下付添字「i」によって表しており、部分音の連続的な集合を 上付添字「n」によって表している。第2の信号集合184は、生成すべき音声 の広帯域特性を、1つ以上のノイズ振幅aj n、および対応する周波数帯域bj nを 用いて記述する。ノイズ成分の数は、部分音の数とは独立に指定し得る。好適な 実施態様において、ノイズ成分の数は典型的には12から20の間である。さら なる信号Bは、グローバルなノイズ性(noisiness)パラメータである。パラメー タNi nおよびBは、以下により詳細に述べるように、音声の位相を、部分音毎に 対してあるいは変換合計に対してランダムに乱すことによりノイズを投入するた めに用いられる。 信号の2つの集合192および184は、補間ブロック181に入力される。 補間ブロック181は、信号の集合174および194をより高速なレートで出 力する。第1の信号集合174は、生成すべき音声の狭帯域特性を、所定の部分 おり、部分音の連続的な集合を上付添字「m」によって(上付添字「n」によっ て表わされる部分音の連続的な集合に比較してレートが乗算されている)。第2 の信号集合194は、生成すべき音声の広帯域ノイズ特性を、補間されたノイズ 補間器181は、レート制御器176によって決定されたレートで動作する。 このレートは、少なくとも部分的には、制御構造91の動作速度およびD/Aコン バータ177のサンプルレートによって支配される。 信号174および194を、スペクトル構築ブロック183に入力する。スペ クトルは単に、所定数の周波数「容器」の各々内のエネルギーを表す一群の数で ある。スペクトル構築ブロックにおいて、従来の逆変換加算的音声合成システム と同様に、スペクトル内の各容器に適切に位置合わせして、周波数領域ウィンド ウをサンプリングし、スケール化し、加算する。下記により詳しく説明するよう にノイズをスペクトルに加算する。スペクトルを次に変換領域フィルタリングブ ロック185に入力する。このブロックにおいて、スペクトルをフィルタリング または前述の任意の方法で処理する。フィルタリングされたスペクトルを次に、 逆変換ブロック173の後オーバーラップ−加算ブロック175により、時間サ ンプリングされた指定音声の表現に再構築する。これらのブロックの動作は当該 分野において周知である。 音声の視覚的表示を生成することにより、音声生成処理の理解を深め得る。そ のような表示は例えばグラフィックイコライザにより通常生成される。しかし図 4において、生成するべき音声に関連する情報を、実際の音声サンプルが生成さ れる以前に表示し得る(制御指定フェーズ中において制御構造191の出力を表 示するか、あるいは変換領域において変換領域フィルタリングブロック185の 出力を表示するかによる)ことに留意されたい。後者は聞こえるべきスペクトル に関する情報を表すのに対して、前者は聞こえている音声を制御する処理に関す る情報を特に表す。 図4における信号194は、生成すべき音声の広帯域ノイズ特性を、補間され ており、周波数帯域的にノイズをスペクトルに投入するために用い得る。これは 、部分音に基づいて狭帯域スペクトルを構築することとは独立に行われる。特に 、 に変換し、周波数帯域内に含まれるスペクトル内の各周波数容器内に加算する。 このノイズ投入方法は当該分野において、例えば、米国特許第5,029,509号、お よびLemkeら、Synthesis Of Time-dependent Signals For Simulation Experime nts(VDI Zeitschrift、1978年5月、vol.120(no.10):475-82)から公知であ る。 しかしノイズを部分音と関連させるか同期させる場合には、図5に示すように 、別のノイズ投入方法を達成してもよい。部分音を、周波数Fi、振幅(Ai)、 および位相(Φi)を用いて指定する。周波数は、サンプリングブロック110 において、格納された周波数領域ウィンドウ201のうちどのサンプルを選択し てスペクトルに加算するかを決定する。振幅および位相を用いて、選択されたサ ブロック130において形成されたスペクトルに加算する前に、ブロック125 内のサンプルを位置合わせする。 しかし、位相をランダムに乱すことにより、部分音帯域内のスペクトルにノイ ズ性を付与する。この目的において、偽ランダム位相生成器193を用いて、各 部分音に対して異なるランダム位相を生成する。その部分音に対するランダム位 (これはゼロであってもよい)によって乗算する。次に、得られた量を、加算器 197を用いて元の位相に加算する。異なるランダム位相を用いて各部分音の位 相を乱すので、規則的な区間をおいて位相を乱すことに起因するクリックノイズ が回避される。 他の場合において、以前に構築されたスペクトル中に、そのノイズ自身を用い てノイズ包絡線を記述することにより、ノイズを投入することが望ましいことが あり得る。このノイズ投入方法(これは実は変換領域フィルタリングの特定例で あるが)は、図6に示すようにして達成され得る。予め計算された変換合計をブ ロック130から、新しい変換合計を保持するブロック131に書き込む。古い 変換合計の各容器内の振幅を矩形−極性コンバータ(rectangular to polar conv erter)203において計算し、ユーザ指定の「グローバルノイズ性」パラメータ Bで(増幅器196において)乗算する。結果として、元のスペクトルと同じ形 状を有するノイズ包絡線が得られる。この性質から、得られるノイズを「再帰的 ノイズ」と呼ぶことができる。前のノイズ投入技術と同様に、偽ランダム位相生 成器193を用いてスペクトルの位相をランダムに乱す。ただし図6において、 単一のランダム値を極性−矩形コンバータ(polar to rectangular converter)2 05に入力することにより、新しい変換合計の各容器内の位相に加算する。 ランダム、偽ランダム、およびノイズ信号を説明する際、当業者であれば、こ れらの信号の統計的分布および/またはスペクトルを用いることにより、そのよ うな信号を用いて生成された音声に対してさらなる制御可能性を達成し得るであ ろう。 前述のノイズ投入技術は、単一のスペクトルに対してノイズを加算するように 説明した。関連する複数のスペクトルを作成することにより、多数の有用な効果 を達成することができる。図7を参照して、点線115の左側のブロックは、図 5において同様な番号を付したブロックに対応する。ただし、単一の部分音の振 算器120に適用することにより、ブロック130において左チャネル出力OUTL に対応する変換合計を作成する。点線115の左側の乗算、位置合わせ、および 変換合計ブロック(それぞれブロック120、125、および130)を点線の 右側においてそれぞれブロック120’、125’、および130’として繰り 120’に適用することにより、ブロック130’において右チャネル出力OUTR に対応する変換合計を作成する。 周波数領域ウィンドウ格納およびサンプリングブロック201および110、 ならびにノイズ投入メカニズムの要素193、195および197は、両チャネ ルによって共有されることに留意されたい。しかし、様々なフェージング(phasi ng)効果を達成するために加算器197’を設ける。加算器197’は、右側チ ャネルの位相を、パラメータΦi(mod)に応じて左側チャネルの位相に対して変 調するために用いられる。 従来の出力信号を混合する方法とは対照的に、図7のシステムは、各部分音の 貢献度を、多数の出力間において効率的に分配することを可能にすることにより 、加算的合成の実際的用途を大きく拡張する。例えば、複数のスピーカを用いて 、ピアノのような広帯域フィールドを作成し、その中において従来のパンニング 技術を用いた場合よりも効果的に空間内に分配された点から異なる周波数が開始 するようにし得る。また、信号を周波数によりフィルタリングし、特定の周波数 範囲に対して最適化されたスピーカに回すことにより、クロスオーバネットワー クの必要を無くすことができる。図7のシステムにおいて、クロスオーバフィル タは必要なく、部分音は合成段階において単純にその周波数に応じて重み付けさ れる。 さらに、図7の加算器197’に対応する加算器を用いることにより、各出力 チャネルに回す際に、各部分音を効率的かつ個別に位相変調してもよい。この能 力を用いて、特殊なフェージング効果を作成したり、スピーカの位相応答を補正 したり、音声の空間的認知性を操作してもよい。 図7において、2つの音声チャネルのノイズ成分は同じであり、第2の音声チ ャネルの位相は第1の音声チャネルの位相からのオフセットとして指定される。 より一般的な場合においては、各チャネルの位相を独立に指定し、異なるチャネ ルにおけるノイズを独立に指定するか、あるいは所望であれば(制限する場合に おいて完全に相関する程度まで)、様々な度合いに相関させてもよい。図8を参 照して、偽ランダム位相生成器および増幅器ブロック(それぞれブロック193 および195)を、それぞれブロック193’および195’として繰り返して いる。さらに相関器220および増幅器221を設けている。相関器220は、 偽ランダム位相生成器193および193’によって生成された偽ランダム位相 を受け取り、これらの偽ランダム位相を、増幅器221に入力される相関制御信 号Corrによって制御されるとおりに様々な度合いに相関させる。増幅器221の 出力は、ゼロから1の範囲を有するものとする。増幅器221の出力に応答して 、相関器220は非相関(ゼロ)から適度に相関、高度に相関、完全に相関(1 )までの範囲にあり得る、2つの偽ランダム位相を出力する。2つの偽ランダム 位 相を、各増幅器195および195’に入力し、これらの各出力信号を用いて位 上述の処理において典型的には、D/A変換によって音声サンプルがアナログ音 声信号に変換された後、例えば「負の」周波数からのエネルギーのフォールドオ ーバー(foldover)によって発生するアーチファクトを除去するために、比較的高 価なアナログフィルタを用いて、得られた音声信号を依然としてフィルタリング しなければならない。この代替法は、D/A変換の前に、補間デジタルフィルタを 用いてサンプルストリームをより高いサンプルレートにアップサンプル(upsampl e)すなわちレート変換することである。次に、より高速なD/Aコンバータを用い てより高いレートの信号を変換しなければならないが、最終フィルタリングに必 要なアナログフィルタは非常に単純かつ安価なものでよい。そのようなアプロー チの1つの問題は、アップサンプリングにより数ミリセカンドの追加的な遅延が 起こり得ることである。リアルタイム環境においては、この追加的な置換は容認 可能でないことがある。 本発明のさらなる特徴は、変換領域フィルタリングを用いて、追加的な遅延を 起こすことなしにアップサンプリングと同じ効果を達成する。図9を参照して、 スペクトルSnが変換領域にまだある間に、ゼロパディングブロック301におい てスペクトルにゼロパディングを行い、その後、上述したよりも大きな逆変換を IFFTブロック303で行う。処理遅延を回避するために、IFFTブロック 303は、専用のIFFT集積回路によって実現し得る。次にブロック305で オーバーラップ−加算演算を行うことによりサンプルストリームを生成し、この サンプルストリームをD/Aコンバータ307によって上述したよりも高いレート で変換する。レート変換ブロック311は逆変換およびデジタル変換のタイミン グを制御する。D/Aコンバータ307によって生成され得られた音声信号が44KHz の周波数より上に大きなエネルギー(Significant energy)を有すことがないよう に、ゼロパディングを行う。次に、安価なアナログフィルタ309を用いて音声 信号をフィルタリングし、オーディオスピーカに印加する。 上述の音声合成方法は、複雑かつ現実的な音声をリアルタイムで合成かつ制御 することを可能にする。モデリングおよび合成される音声においてしばしば最も 問題になる部分である、ノイズをスペクトル中に投入するための様々な代替方法 が提供される。これらの方法は計算的に効率がよく、かつ、従来の方法における 多くの人為的(artificial)制約の多くを回避するものである。また、変換領域フ ィルタリングの様々な応用例が提供され、ある場合においては外部ハードウェア 部材を合成段階に移すことを可能にし、別の場合においては全く新しいタイプの 音声合成のリアルタイム制御を行うことを可能にする。また、効率的な計算でポ リフォニック化が提供される。 本発明の趣旨またはその本質的特徴から逸脱することなく、本発明を他の特定 の形態で実施できることが当業者には理解される。従って、ここに開示されてい る実施形態は、あらゆる点において、制限的ではなく例示的なものとみなされる 。本発明の範囲は、上記の説明ではなく添付の請求項によって示されるものであ り、その均等物の意味および範囲に入るあらゆる変更がその中に包含されること が意図されている。
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,DE, DK,ES,FI,FR,GB,GR,IE,IT,L U,MC,NL,PT,SE),OA(BF,BJ,CF ,CG,CI,CM,GA,GN,ML,MR,NE, SN,TD,TG),AP(KE,LS,MW,SD,S Z,UG),UA(AM,AZ,BY,KG,KZ,MD ,RU,TJ,TM),AL,AM,AT,AU,AZ ,BA,BB,BG,BR,BY,CA,CH,CN, CU,CZ,DE,DK,EE,ES,FI,GB,G E,HU,IL,IS,JP,KE,KG,KP,KR ,KZ,LC,LK,LR,LS,LT,LU,LV, MD,MG,MK,MN,MW,MX,NO,NZ,P L,PT,RO,RU,SD,SE,SG,SI,SK ,TJ,TM,TR,TT,UA,UG,US,UZ, VN

Claims (1)

  1. 【特許請求の範囲】 1.音声の時間サンプリングされた表現を生成する方法であって、 複数の連続する瞬間の各々において、該音声を、各々が複数のパラメータを用 いてパラメータ的に規定された複数の部分音の合計として指定する工程; 該部分音の各々について、 該パラメータのうち少なくとも1つに基づいて、変換された関数から値を選択 する工程; 乱数を発生する工程; 該パラメータのうち少なくとも1つに基づいて該乱数をスケール化することに より、スケール化乱数を生成する工程; 該スケール化乱数を用いて該パラメータのうち少なくとも1つを変化させる工 程; 該変換された関数から選択された該値を、該パラメータのうち少なくとも1つ に基づいてスケール化することにより、スケール化値を生成する工程; 該スケール化値を、該音声を表す値のアレイに加算する工程; 該値のアレイに逆離散数学的変換を適用することにより、ある時間区間にわた って該音声の時間サンプリングされた表現を生成する工程;および 該音声の時間サンプリングされた表現を、隣接する時間区間にわたって混合(b lend)することにより、該音声の該時間サンプリングされた表現を生成する工程 を包含する方法。 2.音声の時間サンプリングされた表現を生成する方法であって、 複数の連続する瞬間の各々において、該音声を、各々が複数のパラメータを用 いてパラメータ的に規定された複数の部分音の合計として指定する工程; 該部分音の各々について、 該パラメータのうち少なくとも1つに基づいて、変換された関数から値を選択 する工程; 該変換された関数から選択された該値を、該パラメータのうち少なくとも1つ に基づいてスケール化することにより、スケール化値を生成する工程; 該スケール化値を、該音声を表すベクトルのアレイ中に格納された値に加算す る工程であって、各ベクトルは複数の値を含んでいる工程; 乱数を発生する工程; 該複数のベクトルの各1つについて、 該ベクトルのうち該1つの大きさ(magnitude)を決定する工程; 該大きさをスケール化することによりスケール化大きさを生成する工程;およ び 該ベクトルのうち該1つに、該スケール化大きさおよび該乱数によって決定さ れるベクトルを加算する工程; 該ベクトルのアレイに逆離散数学的変換を適用することにより、ある時間区間 にわたって該音声の時間サンプリングされた表現を生成する工程;ならびに 該音声の時間サンプリングされた表現を、隣接する時間区間にわたって混合す ることにより、該音声の該時間サンプリングされた表現を生成する工程 を包含する方法。 3.音声の視覚的表現(visual representaion)を生成する方法であって、 複数の連続する瞬間の各々において、該音声を、各々が複数のパラメータを用 いてパラメータ的に規定された複数の部分音の合計として指定する工程; 該部分音の各々について、 該パラメータのうち少なくとも1つに基づいて、変換された関数から値を選択 する工程; 該変換された関数から選択された該値を、該パラメータのうち少なくとも1つ に基づいてスケール化することにより、スケール化値を生成する工程; 該スケール化値を、該音声を表す値のアレイに加算する工程;および 該値のアレイに基づいて、該音声の図表現(graphical representaion)を生成 する工程 を包含する方法。 4.音声の視覚的表現を生成する方法であって、 複数の連続する瞬間の各々において、該音声を、各々が複数のパラメータを用 いてパラメータ的に規定された複数の部分音の合計として指定する工程; 該部分音の各々について、 該パラメータのうち少なくとも1つに基づいて、変換された関数から値を選択 する工程; 該変換された関数から選択された該値を、該パラメータのうち少なくとも1つ に基づいてスケール化することにより、スケール化値を生成する工程; 該スケール化値を、該音声を表す値のアレイに加算する工程;および 該複数のパラメータに基づいて、該音声の図表現を生成する工程 を包含する方法。 5.音声の時間サンプリングされた表現を生成する方法であって、 複数の連続する瞬間の各々において、該音声を、各々が複数のパラメータを用 いてパラメータ的に規定された複数の部分音の合計として指定する工程; 該部分音の各々について、 該パラメータのうち少なくとも1つに基づいて、変換された関数から値を選択 する工程; 該変換された関数から選択された該値を、該パラメータのうち少なくとも1つ に基づいてスケール化することにより、スケール化値を生成する工程; 該スケール化値を、該音声を表す値のアレイに加算する工程; 該値のアレイ中の選択された値を、所定のアルゴリズムに従って変化させる工 程; 該値のアレイに逆離散数学的変換を適用することにより、ある時間区間にわた って該音声の時間サンプリングされた表現を生成する工程;および 該音声の時間サンプリングされた表現を、隣接する時間区間にわたって混合す ることにより、該音声の該時間サンプリングされた表現を生成する工程 を包含する方法。 6.前記所定のアルゴリズムは自動利得制御アルゴリズムである、請求項5に記 載の方法。 7.前記所定のアルゴリズムは周波数依存利得制御アルゴリズムである、請求項 5に記載の方法。 8.前記所定のアルゴリズムは聴覚(auditory perception)のモデルである、請 求項5に記載の方法。 9.前記所定のアルゴリズムの結果を用いて前記音声を改変する工程をさらに包 含する、請求項5に記載の方法。 10.前記所定のアルゴリズムの結果を用いて後に続く音声に影響を与える工程 をさらに包含する、請求項5に記載の方法。 11.ポリフォニック音声のマルチチャネル時間サンプリングされた表現を生成 する方法であって、 複数の連続する瞬間の各々において、該ポリフォニック音声の各声(voice)を 、各々が複数のパラメータを用いてパラメータ的に規定された複数の部分音の合 計として指定する工程; 該部分音の各々について、 該パラメータのうち少なくとも1つに基づいて、変換された関数から値を選択 する工程; 該変換された関数から選択された該値を、該パラメータのうち少なくとも1つ に基づいてスケール化することにより、スケール化値を生成する工程;乱数を発 生する工程; 該パラメータのうち少なくとも1つに基づいて該乱数をスケール化することに より、スケール化乱数を生成する工程; 該スケール化乱数を用いて該パラメータのうち少なくとも1つを変化させる工 程; 該スケール化値を、ベクトルの複数のアレイのうちの1つ中に格納された値に 加算する工程であって、各アレイは該ポリフォニック音声の各声を表している工 程; 該ベクトルの複数のアレイの各々に逆離散数学的変換を適用することにより、 ある時間区間にわたって該ポリフォニック音声の各声の時間サンプリングされた 表現を生成する工程;および 該ポリフォニック音声の各声の時間サンプリングされた表現を、隣接する時間 区間にわたって混合することにより、該ポリフォニック音声の該マルチチャネル 時間サンプリングされた表現を生成する工程 を包含する方法。 12.ポリフォニック音声のマルチチャネル時間サンプリングされた表現を生成 する方法であって、 複数の連続する瞬間の各々において、該ポリフォニック音声の各声を、各々が 複数のパラメータを用いてパラメータ的に規定された複数の部分音の合計として 指定する工程; 該部分音の各々について、 該パラメータのうち少なくとも1つに基づいて、変換された関数から値を選択 する工程; 該変換された関数から選択された該値を、該パラメータのうち少なくとも1つ に基づいてスケール化することにより、スケール化値を生成する工程;および 該スケール化値を、ベクトルの複数のアレイのうちの1つ中に格納された値に 加算する工程であって、各アレイは該ポリフォニック音声の各声を表している工 程; 該ベクトルの複数のアレイの各々に逆離散数学的変換を適用することにより、 ある時間区間にわたって該ポリフォニック音声の各声の時間サンプリングされた 表現を生成する工程;ならびに 該ポリフォニック音声の各声の時間サンプリングされた表現を、隣接する時間 区間にわたって混合することにより、該ポリフォニック音声の該マルチチャネル 時間サンプリングされた表現を生成する工程 を包含する方法。
JP9516706A 1995-10-23 1996-10-22 逆変換狭帯域/広帯域音声合成 Ceased JPH11513821A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/551,889 US5686683A (en) 1995-10-23 1995-10-23 Inverse transform narrow band/broad band sound synthesis
US08/551,889 1995-10-23
PCT/US1996/016869 WO1997015915A1 (en) 1995-10-23 1996-10-22 Inverse transform narrow band/broad band sound synthesis

Publications (1)

Publication Number Publication Date
JPH11513821A true JPH11513821A (ja) 1999-11-24

Family

ID=24203095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9516706A Ceased JPH11513821A (ja) 1995-10-23 1996-10-22 逆変換狭帯域/広帯域音声合成

Country Status (6)

Country Link
US (1) US5686683A (ja)
EP (1) EP0860003B1 (ja)
JP (1) JPH11513821A (ja)
AU (1) AU7518196A (ja)
DE (1) DE69629934T2 (ja)
WO (1) WO1997015915A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6144768A (en) * 1996-04-30 2000-11-07 Texas Instruments Incorporated Method of decoding image data
JP3266819B2 (ja) * 1996-07-30 2002-03-18 株式会社エイ・ティ・アール人間情報通信研究所 周期信号変換方法、音変換方法および信号分析方法
EP0990368B1 (en) * 1997-05-08 2002-04-24 STMicroelectronics Asia Pacific Pte Ltd. Method and apparatus for frequency-domain downmixing with block-switch forcing for audio decoding functions
JP2002539477A (ja) * 1999-03-11 2002-11-19 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 再帰デジタルオシレータを使用してデジタルオーディオ信号の加法合成を行う装置および方法
US6298322B1 (en) 1999-05-06 2001-10-02 Eric Lindemann Encoding and synthesis of tonal audio signals using dominant sinusoids and a vector-quantized residual tonal signal
SE517525C2 (sv) * 1999-09-07 2002-06-18 Ericsson Telefon Ab L M Förfarande och anordning för konstruktion av digitala filter
US6111183A (en) * 1999-09-07 2000-08-29 Lindemann; Eric Audio signal synthesis system based on probabilistic estimation of time-varying spectra
WO2001033543A1 (fr) * 1999-11-02 2001-05-10 Laurent Clairon Procedes d'elaboration et d'utilisation d'une sonotheque representant les caracteristiques acoustiques de moteur de vehicule automobile, dispositifs pour mise en oeuvre
FI111109B (fi) * 1999-12-09 2003-05-30 Nokia Corp Menetelmä vastaanottimen tahdistamiseksi, paikannusjärjestelmä, vastaanotin ja elektroniikkalaite
US7317958B1 (en) 2000-03-08 2008-01-08 The Regents Of The University Of California Apparatus and method of additive synthesis of digital audio signals using a recursive digital oscillator
JP2004054526A (ja) * 2002-07-18 2004-02-19 Canon Finetech Inc 画像処理システム、印刷装置、制御方法、制御コマンド実行方法、プログラムおよび記録媒体
EP1653443A1 (en) * 2004-10-29 2006-05-03 Silicon Ip Ltd. Polyphonic sound synthesizer
KR101315075B1 (ko) * 2005-02-10 2013-10-08 코닌클리케 필립스 일렉트로닉스 엔.브이. 사운드 합성
JP5063364B2 (ja) * 2005-02-10 2012-10-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声合成方法
US20070104335A1 (en) * 2005-11-09 2007-05-10 Gpe International Limited Acoustic feedback suppression for audio amplification systems
US8811535B2 (en) * 2009-07-17 2014-08-19 Mitre Corporation Time-frequency space constructions of families of signals
US9031248B2 (en) * 2013-01-18 2015-05-12 Bose Corporation Vehicle engine sound extraction and reproduction
US9959852B2 (en) * 2013-01-18 2018-05-01 Bose Corporation Vehicle engine sound extraction
US9881602B2 (en) 2014-07-11 2018-01-30 Tenneco Gmbh Sound system for a motor vehicle

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4856068A (en) * 1985-03-18 1989-08-08 Massachusetts Institute Of Technology Audio pre-processing methods and apparatus
US4885790A (en) * 1985-03-18 1989-12-05 Massachusetts Institute Of Technology Processing of acoustic waveforms
US4937873A (en) * 1985-03-18 1990-06-26 Massachusetts Institute Of Technology Computationally efficient sine wave synthesis for acoustic waveform processing
US5054072A (en) * 1987-04-02 1991-10-01 Massachusetts Institute Of Technology Coding of acoustic waveforms
US5151998A (en) * 1988-12-30 1992-09-29 Macromedia, Inc. sound editing system using control line for altering specified characteristic of adjacent segment of the stored waveform
US5029509A (en) * 1989-05-10 1991-07-09 Board Of Trustees Of The Leland Stanford Junior University Musical synthesizer combining deterministic and stochastic waveforms
US5287088A (en) * 1989-07-06 1994-02-15 Sills Richard R Method and apparatus for modifying synthesized sound signals
FR2679689B1 (fr) * 1991-07-26 1994-02-25 Etat Francais Procede de synthese de sons.
US5504833A (en) * 1991-08-22 1996-04-02 George; E. Bryan Speech approximation using successive sinusoidal overlap-add models and pitch-scale modifications
US5327518A (en) * 1991-08-22 1994-07-05 Georgia Tech Research Corporation Audio analysis/synthesis system

Also Published As

Publication number Publication date
DE69629934T2 (de) 2004-07-22
EP0860003A4 (en) 1998-12-02
EP0860003B1 (en) 2003-09-10
DE69629934D1 (de) 2003-10-16
US5686683A (en) 1997-11-11
AU7518196A (en) 1997-05-15
EP0860003A1 (en) 1998-08-26
WO1997015915A1 (en) 1997-05-01

Similar Documents

Publication Publication Date Title
JPH11513821A (ja) 逆変換狭帯域/広帯域音声合成
US5744742A (en) Parametric signal modeling musical synthesizer
US5029509A (en) Musical synthesizer combining deterministic and stochastic waveforms
US8706496B2 (en) Audio signal transforming by utilizing a computational cost function
JP3098031B2 (ja) 楽音合成方法
WO1997017692A9 (en) Parametric signal modeling musical synthesizer
JPH11513820A (ja) 音声合成のための制御構造
US20070137466A1 (en) Sound synthesis by combining a slowly varying underlying spectrum, pitch and loudness with quicker varying spectral, pitch and loudness fluctuations
CN110459196A (zh) 一种调整歌曲演唱难度的方法、装置及系统
JP4076887B2 (ja) ボコーダ装置
JP3265962B2 (ja) 音程変換装置
JP2007534214A (ja) 多様なサンプルレートでの畳込みを用いてオーディオパフォーマンスを合成する方法、機器、およびシステム
Bonada et al. Sample-based singing voice synthesizer by spectral concatenation
Schnell et al. Synthesizing a choir in real-time using Pitch Synchronous Overlap Add (PSOLA).
Välimäki et al. Creating endless sounds
JP4170458B2 (ja) 波形信号の時間軸圧縮伸長装置
US5969282A (en) Method and apparatus for adjusting the pitch and timbre of an input signal in a controlled manner
US8492639B2 (en) Audio processing apparatus and method
US10019980B1 (en) Distortion and pitch processing using a modal reverberator architecture
JP4455701B2 (ja) 音声信号処理装置および音声信号処理方法
Abel et al. Distortion and pitch processing using a modal reverberator architecture
JP2699629B2 (ja) 楽音信号生成装置
JP3266974B2 (ja) デジタル音響波形の作成装置、デジタル音響波形の作成方法、楽音波形生成装置におけるデジタル音響波形均一化方法、及び楽音波形生成装置
JP2008512699A (ja) 入力信号に残響を加える装置及び方法
JP3246012B2 (ja) 楽音信号の音源装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060110

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20060407

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20060522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070116

A313 Final decision of rejection without a dissenting response from the applicant

Free format text: JAPANESE INTERMEDIATE CODE: A313

Effective date: 20070606

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070724