JPH0713581A - 音声への空間情報提供方法及びシステム - Google Patents
音声への空間情報提供方法及びシステムInfo
- Publication number
- JPH0713581A JPH0713581A JP6104157A JP10415794A JPH0713581A JP H0713581 A JPH0713581 A JP H0713581A JP 6104157 A JP6104157 A JP 6104157A JP 10415794 A JP10415794 A JP 10415794A JP H0713581 A JPH0713581 A JP H0713581A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- data
- synthesized
- dialect
- analog signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 29
- 230000000051 modifying effect Effects 0.000 claims description 19
- 230000002194 synthesizing effect Effects 0.000 claims description 13
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 230000001131 transforming effect Effects 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims 1
- 230000015572 biosynthetic process Effects 0.000 abstract description 11
- 238000003786 synthesis reaction Methods 0.000 abstract description 11
- 230000008859 change Effects 0.000 abstract description 3
- 238000010561 standard procedure Methods 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 9
- 230000005236 sound signal Effects 0.000 description 8
- 238000012546 transfer Methods 0.000 description 7
- 230000003993 interaction Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 235000021152 breakfast Nutrition 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000007935 neutral effect Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000010363 phase shift Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- UUTKICFRNVKFRG-WDSKDSINSA-N (4R)-3-[oxo-[(2S)-5-oxo-2-pyrrolidinyl]methyl]-4-thiazolidinecarboxylic acid Chemical compound OC(=O)[C@@H]1CSCN1C(=O)[C@H]1NC(=O)CC1 UUTKICFRNVKFRG-WDSKDSINSA-N 0.000 description 1
- 101100388212 Arabidopsis thaliana DSP3 gene Proteins 0.000 description 1
- 240000008365 Celosia argentea Species 0.000 description 1
- 235000000722 Celosia argentea Nutrition 0.000 description 1
- 244000269722 Thea sinensis Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 235000020278 hot chocolate Nutrition 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
(57)【要約】
【目的】 音声合成に空間情報を導入すること。
【構成】 本方法、プロダクト及びシステムは、合成音
声がスピーカ・システム上で生成される時に、それが空
間位置から発するように感じられるように、合成音声に
対するオーディオ・データを変更する。最初に、音声が
標準的技術により、テキスト・ストリングを表す記憶デ
ータのセットから音声波形に合成される。音声波形は左
右のチャネルに対応するアナログ信号に変換される。本
発明によれば、左右のチャネルへのアナログ信号は、テ
キスト・ストリングと共に記憶される位置データに従い
変更され、アナログ信号がスピーカ・システムに送信さ
れる時に、合成音声が見掛けの空間位置から発するよう
に感じられる。
声がスピーカ・システム上で生成される時に、それが空
間位置から発するように感じられるように、合成音声に
対するオーディオ・データを変更する。最初に、音声が
標準的技術により、テキスト・ストリングを表す記憶デ
ータのセットから音声波形に合成される。音声波形は左
右のチャネルに対応するアナログ信号に変換される。本
発明によれば、左右のチャネルへのアナログ信号は、テ
キスト・ストリングと共に記憶される位置データに従い
変更され、アナログ信号がスピーカ・システムに送信さ
れる時に、合成音声が見掛けの空間位置から発するよう
に感じられる。
Description
【0001】
【産業上の利用分野】本発明は一般にデータ処理システ
ムによる音響再生及び音声合成に関し、特に、空間情報
を合成音声に追加する音声合成のための方法、プログラ
ム及びシステムに関する。
ムによる音響再生及び音声合成に関し、特に、空間情報
を合成音声に追加する音声合成のための方法、プログラ
ム及びシステムに関する。
【0002】
【従来の技術】IBMにより製作されるパーソナル・コ
ンピュータと互換のパーソナル・コンピュータにより提
供される可視イメージは、度重なる改良の進化を経て来
ている。一方、こうしたコンピュータの典型的なスピー
カ・システムでは、単一の安価なスピーカをシステム・
ユニット内に組込んでいる。スピーカから発する音は低
品質であり、一方向性であり、不明瞭で、理解するのが
困難である。パーソナル・コンピュータは教育を含む社
会の多くの分野において、変化をもたらす重要な要因と
見なされている。それにも関わらず、語学練習などの反
復作業は最良の教室状況においてすら生徒側の関心を引
くことができず、典型的なコンピュータにより生成され
る音響的に貧弱な環境においては、一層関心が薄れてし
まう。
ンピュータと互換のパーソナル・コンピュータにより提
供される可視イメージは、度重なる改良の進化を経て来
ている。一方、こうしたコンピュータの典型的なスピー
カ・システムでは、単一の安価なスピーカをシステム・
ユニット内に組込んでいる。スピーカから発する音は低
品質であり、一方向性であり、不明瞭で、理解するのが
困難である。パーソナル・コンピュータは教育を含む社
会の多くの分野において、変化をもたらす重要な要因と
見なされている。それにも関わらず、語学練習などの反
復作業は最良の教室状況においてすら生徒側の関心を引
くことができず、典型的なコンピュータにより生成され
る音響的に貧弱な環境においては、一層関心が薄れてし
まう。
【0003】パーソナル・コンピュータにおける高品質
音響再生は、最近になって、マルチメディアの台頭によ
り特に重要と見なされて来ている。安価なステレオ・シ
ステムにさえ未だ至っていないが、幾つかのマルチメデ
ィア・コンピュータ・システムでは、2チャネル"ステ
レオ"音響に対応して、2つの外部スピーカを使用す
る。ステレオ音響は感動と理解度をマルチメディア・ア
プリケーションに追加する支援をするが、マルチメディ
アの完全な潜在性を利用するためには、パーソナル・コ
ンピュータからの音響品質及びそのアプリケーション・
プログラミングの更なる改良が必要となる。
音響再生は、最近になって、マルチメディアの台頭によ
り特に重要と見なされて来ている。安価なステレオ・シ
ステムにさえ未だ至っていないが、幾つかのマルチメデ
ィア・コンピュータ・システムでは、2チャネル"ステ
レオ"音響に対応して、2つの外部スピーカを使用す
る。ステレオ音響は感動と理解度をマルチメディア・ア
プリケーションに追加する支援をするが、マルチメディ
アの完全な潜在性を利用するためには、パーソナル・コ
ンピュータからの音響品質及びそのアプリケーション・
プログラミングの更なる改良が必要となる。
【0004】ステレオ技術は幾つかのレッスンを教示
し、それらはコンピュータから高品質の音響を生成する
アプリケーションを有する。多くのマルチメディア・ア
プリケーションは、テープまたはCD上のサウンド・ト
ラックなどの従来式に記録されたオーディオを記憶す
る。これは驚きに値しない。なぜなら、相当な努力が既
にステレオに対し費やされており、機構を再度考案する
必要はほとんどないからである。Alan Blumlein が19
30年に米国特許第2093540号において、ほとん
どのオーディオ技術の基礎となる基本規則を教示して以
来、研究者はステレオ技術を堅実に洗練してきた。立体
音響/技術における巨大な本体の改良にも関わらず、従
来の記録は元の音響空間の空間的音響範囲を忠実に再生
せず、ライブの実演に比較して満足度に劣るリスニング
効果を生成する傾向がある。
し、それらはコンピュータから高品質の音響を生成する
アプリケーションを有する。多くのマルチメディア・ア
プリケーションは、テープまたはCD上のサウンド・ト
ラックなどの従来式に記録されたオーディオを記憶す
る。これは驚きに値しない。なぜなら、相当な努力が既
にステレオに対し費やされており、機構を再度考案する
必要はほとんどないからである。Alan Blumlein が19
30年に米国特許第2093540号において、ほとん
どのオーディオ技術の基礎となる基本規則を教示して以
来、研究者はステレオ技術を堅実に洗練してきた。立体
音響/技術における巨大な本体の改良にも関わらず、従
来の記録は元の音響空間の空間的音響範囲を忠実に再生
せず、ライブの実演に比較して満足度に劣るリスニング
効果を生成する傾向がある。
【0005】適切にプログラムされたコンピュータは多
くの重要な点で異なり、ほとんどの精巧なステレオ・シ
ステムよりもたくさんの追加機能を有する。重要な差異
の1つは、コンピュータとユーザとの対話がステレオ・
システムよりも優れている点である。コンピュータによ
り取られるアクションは、ユーザのアクションにより大
きく依存する傾向がある。ユーザが取る全てのアクショ
ンを予想し、全ての適切な応答を記録することは困難で
ある。しかしながら、実際には幾つかの対話式CD技術
ではこの方法を採用していると思われる。更にユーザが
複雑な音響記録装置へのアクセスを有さない場合には、
彼はオリジナルと同じ忠実度のオーディオを含むよう
に、記憶されたプログラムを変更することができない。
くの重要な点で異なり、ほとんどの精巧なステレオ・シ
ステムよりもたくさんの追加機能を有する。重要な差異
の1つは、コンピュータとユーザとの対話がステレオ・
システムよりも優れている点である。コンピュータによ
り取られるアクションは、ユーザのアクションにより大
きく依存する傾向がある。ユーザが取る全てのアクショ
ンを予想し、全ての適切な応答を記録することは困難で
ある。しかしながら、実際には幾つかの対話式CD技術
ではこの方法を採用していると思われる。更にユーザが
複雑な音響記録装置へのアクセスを有さない場合には、
彼はオリジナルと同じ忠実度のオーディオを含むよう
に、記憶されたプログラムを変更することができない。
【0006】音声合成またはテキスト−音声変換プログ
ラミングはよく知られている。これは新たな情報をプロ
グラムに入力するための柔軟な手段を提供し、ユーザは
単にシステム・キーボードを介して、英数字のテキスト
をタイプすればよい。更に、英数字情報の記憶は、従来
のステレオ技術のオーディオ波形に比較して、大幅に少
ない記憶しか要求しない。しかしながら、最近では、音
声合成は生成されるオーディオ品質の点で完全には受入
れられておらず、この低品質のために、一般にはマルチ
メディア・プレゼンテーションに含めるのに好適と見な
されていない。再生される方向性及び空間情報の正確度
に関する従来のオーディオの欠点が何であれ、合成音声
は空間的属性を有さず、特に鈍くまた活気がない。今日
の音声合成により生成される低品質音響は、マルチメデ
ィア・プレゼンテーションにはほとんど相反する。従っ
て、音声合成が真にマルチメディアに統合される以前
に、音声合成における改良が必要となる。
ラミングはよく知られている。これは新たな情報をプロ
グラムに入力するための柔軟な手段を提供し、ユーザは
単にシステム・キーボードを介して、英数字のテキスト
をタイプすればよい。更に、英数字情報の記憶は、従来
のステレオ技術のオーディオ波形に比較して、大幅に少
ない記憶しか要求しない。しかしながら、最近では、音
声合成は生成されるオーディオ品質の点で完全には受入
れられておらず、この低品質のために、一般にはマルチ
メディア・プレゼンテーションに含めるのに好適と見な
されていない。再生される方向性及び空間情報の正確度
に関する従来のオーディオの欠点が何であれ、合成音声
は空間的属性を有さず、特に鈍くまた活気がない。今日
の音声合成により生成される低品質音響は、マルチメデ
ィア・プレゼンテーションにはほとんど相反する。従っ
て、音声合成が真にマルチメディアに統合される以前
に、音声合成における改良が必要となる。
【0007】
【発明が解決しようとする課題】本発明の目的は、合成
音声に空間情報を導入することである。
音声に空間情報を導入することである。
【0008】本発明の別の目的は、異なる空間的ロケー
ションから発生すると感じられる複数の合成音声を生成
することである。
ションから発生すると感じられる複数の合成音声を生成
することである。
【0009】本発明の更に別の目的は、3次元空間の幻
想または錯覚的なものを生成することである。
想または錯覚的なものを生成することである。
【0010】
【課題を解決するための手段】これらの目的が合成音声
に見掛けの空間位置を提供することにより達成される。
出願人は合成音声に2次元または3次元(3D)空間音
響指示(cue) を導入することを提案する。それにより
合成音声はより活気を帯び、理解が容易となり、単旋律
音響の単一のスピーカにより生成されるよりも、(空間
指示を介して)より多くの情報を含む。最初に、標準的
な技術によりテキスト・ストリングを表す記憶データの
セットから音声が音声波形に合成される。テキスト・ス
トリングに関連して、テキスト・ストリングからの合成
音声が発生するように感じられる見掛けの位置に関する
位置データのセットが記憶される。音声波形は左右のチ
ャネルに対応してアナログ信号に変換される。本発明に
よれば、左右のチャネルへのアナログ信号が位置データ
により変更され、それによりアナログ信号がスピーカ・
システムに送信される時に、合成音声が見掛けの空間位
置から発生するように感じられる。
に見掛けの空間位置を提供することにより達成される。
出願人は合成音声に2次元または3次元(3D)空間音
響指示(cue) を導入することを提案する。それにより
合成音声はより活気を帯び、理解が容易となり、単旋律
音響の単一のスピーカにより生成されるよりも、(空間
指示を介して)より多くの情報を含む。最初に、標準的
な技術によりテキスト・ストリングを表す記憶データの
セットから音声が音声波形に合成される。テキスト・ス
トリングに関連して、テキスト・ストリングからの合成
音声が発生するように感じられる見掛けの位置に関する
位置データのセットが記憶される。音声波形は左右のチ
ャネルに対応してアナログ信号に変換される。本発明に
よれば、左右のチャネルへのアナログ信号が位置データ
により変更され、それによりアナログ信号がスピーカ・
システムに送信される時に、合成音声が見掛けの空間位
置から発生するように感じられる。
【0011】典型的には、各テキスト・ストリングは空
間データと一緒に記憶され、空間データはその特定のテ
キスト・ストリングの見掛けの空間位置を提供するため
の変更ステップにおいて使用される。その際、記憶され
るデフォルト位置が使用されてもよい。複数の音声がそ
れぞれのテキスト・ストリングと関連され、各音声はそ
の固有のそれぞれの空間位置から発生するように感じら
れる。更に方言がテキスト・ストリングに関連され、選
択された方言を生成するためにテキスト・ストリングに
対し記憶される音素の標準セット、例えばピッチ及びフ
ォルマントの概略が変更される。
間データと一緒に記憶され、空間データはその特定のテ
キスト・ストリングの見掛けの空間位置を提供するため
の変更ステップにおいて使用される。その際、記憶され
るデフォルト位置が使用されてもよい。複数の音声がそ
れぞれのテキスト・ストリングと関連され、各音声はそ
の固有のそれぞれの空間位置から発生するように感じら
れる。更に方言がテキスト・ストリングに関連され、選
択された方言を生成するためにテキスト・ストリングに
対し記憶される音素の標準セット、例えばピッチ及びフ
ォルマントの概略が変更される。
【0012】システムはコンピュータ・システムに対す
るユーザの位置を検出するためのセンサを装備され、合
成音声の見掛けの位置がユーザの位置に関係なく一定に
維持される。
るユーザの位置を検出するためのセンサを装備され、合
成音声の見掛けの位置がユーザの位置に関係なく一定に
維持される。
【0013】
【実施例】本発明は様々なコンピュータ・プラットフォ
ーム上で実施される。例えば、プロセッサ・ユニットは
複数のコンピュータ端末がランするパーソナル・コンピ
ュータ、ミニ・コンピュータ、またはメインフレーム・
コンピュータである。コンピュータはローカル・エリア
・ネットワーク(LAN)または広域ネットワークまた
は大規模テレプロセシング・システムなどのネットワー
クの1部の独立型のシステムであってもよい。しかしな
がら、最も好適には、本発明はIBMのPS/2シリー
ズなどの独立型のマルチメディア・パーソナル・コンピ
ュータ上で実施される。しかし、コンピュータの特定の
選択はマルチメディア・プログラミングのメモリ及びデ
ィスク記憶要求によってのみ制限される。IBMのPS
/2シリーズのコンピュータに関する情報については、
テクニカル・リファレンス・マニュアルSystem/2 Model
50、60 Systems(IBM、部品番号68X2224、注文番号
S68X-2224)及びテクニカル・リファレンス・マニュア
ルPersonal System/2(Model 80)(IBM、部品番号6
8X22256、注文番号S68X-2256 )を参照されたい。
ーム上で実施される。例えば、プロセッサ・ユニットは
複数のコンピュータ端末がランするパーソナル・コンピ
ュータ、ミニ・コンピュータ、またはメインフレーム・
コンピュータである。コンピュータはローカル・エリア
・ネットワーク(LAN)または広域ネットワークまた
は大規模テレプロセシング・システムなどのネットワー
クの1部の独立型のシステムであってもよい。しかしな
がら、最も好適には、本発明はIBMのPS/2シリー
ズなどの独立型のマルチメディア・パーソナル・コンピ
ュータ上で実施される。しかし、コンピュータの特定の
選択はマルチメディア・プログラミングのメモリ及びデ
ィスク記憶要求によってのみ制限される。IBMのPS
/2シリーズのコンピュータに関する情報については、
テクニカル・リファレンス・マニュアルSystem/2 Model
50、60 Systems(IBM、部品番号68X2224、注文番号
S68X-2224)及びテクニカル・リファレンス・マニュア
ルPersonal System/2(Model 80)(IBM、部品番号6
8X22256、注文番号S68X-2256 )を参照されたい。
【0014】図1において、パーソナル・コンピュータ
10はシステム・ユニット11、キーボード12、マウ
ス13及び表示装置14を含む。図では更にスピーカ1
5a及び15bがモニタ14の左右に実装されるように
示される。これはA.D.Edgar による1992年10月
30日出願の係属中の米国特許出願番号第969677
号"Personal Multimedia Speaker System"で開示されて
おり、本願でも参照される。表示装置14のスクリーン
16はマルチメディア・プレゼンテーションのビジュア
ル要素を提供するために使用される。任意の対のステレ
オ・スピーカが本発明では使用されるが、上記出願で述
べられ本願でも後述されるステレオ・スピーカは特に魅
力的である。スピーカ・システム15a及び15bは、
近くにいる他人を煩わすことなく、1人の聴取者に対し
非常に良好なインパルス及びフェーズ応答、及び良好な
方向性を有する良質な音響を提供する。非常に薄型のス
ピーカ・システムは、表示装置14自体により通常要求
される空間を越える最小の追加のデスク空間を要求す
る。
10はシステム・ユニット11、キーボード12、マウ
ス13及び表示装置14を含む。図では更にスピーカ1
5a及び15bがモニタ14の左右に実装されるように
示される。これはA.D.Edgar による1992年10月
30日出願の係属中の米国特許出願番号第969677
号"Personal Multimedia Speaker System"で開示されて
おり、本願でも参照される。表示装置14のスクリーン
16はマルチメディア・プレゼンテーションのビジュア
ル要素を提供するために使用される。任意の対のステレ
オ・スピーカが本発明では使用されるが、上記出願で述
べられ本願でも後述されるステレオ・スピーカは特に魅
力的である。スピーカ・システム15a及び15bは、
近くにいる他人を煩わすことなく、1人の聴取者に対し
非常に良好なインパルス及びフェーズ応答、及び良好な
方向性を有する良質な音響を提供する。非常に薄型のス
ピーカ・システムは、表示装置14自体により通常要求
される空間を越える最小の追加のデスク空間を要求す
る。
【0015】図2は図1に示されるマルチメディア・パ
ーソナル・コンピュータの構成要素のブロック図を示
す。システム・ユニット11はシステム・バス21を含
み、これに様々な構成要素が接続され、またこれにより
様々な構成要素間の通信が達成される。マイクロプロセ
ッサ22はシステム・バス21に接続され、やはりシス
テム・バス21に接続される読出し専用メモリ(RO
M)23及びランダム・アクセス・メモリ(RAM)2
4により支援される。IBMマルチメディアPS/2シ
リーズのコンピュータで使用されるプロセッサは、80
88、286、386または486マイクロプロセッサ
を含むインテル社のマイクロプロセッサの1つである
が、68000、68020または68030マイクロ
プロセッサなどのモトローラ社のマイクロプロセッサ、
及びIBM社、ヒューレット・パッカード社、サン社、
インテル社、モトローラ社などにより製造される様々な
縮小命令セット・コンピュータ(RISC)マイクロプ
ロセッサなどの他のマイクロプロセッサが特定のコンピ
ュータにおいて使用される。
ーソナル・コンピュータの構成要素のブロック図を示
す。システム・ユニット11はシステム・バス21を含
み、これに様々な構成要素が接続され、またこれにより
様々な構成要素間の通信が達成される。マイクロプロセ
ッサ22はシステム・バス21に接続され、やはりシス
テム・バス21に接続される読出し専用メモリ(RO
M)23及びランダム・アクセス・メモリ(RAM)2
4により支援される。IBMマルチメディアPS/2シ
リーズのコンピュータで使用されるプロセッサは、80
88、286、386または486マイクロプロセッサ
を含むインテル社のマイクロプロセッサの1つである
が、68000、68020または68030マイクロ
プロセッサなどのモトローラ社のマイクロプロセッサ、
及びIBM社、ヒューレット・パッカード社、サン社、
インテル社、モトローラ社などにより製造される様々な
縮小命令セット・コンピュータ(RISC)マイクロプ
ロセッサなどの他のマイクロプロセッサが特定のコンピ
ュータにおいて使用される。
【0016】ROM23は他のコードと共に基本入出力
システム(BIOS)を含み、これは対話及びディスク
・ドライブ及びキーボードなどの基本ハードウェア・オ
ペレーションを制御する。RAM24は主メモリであ
り、これにはオペレーティング・システム及びマルチメ
ディア・アプリケーション・プログラムがロードされ
る。メモリ管理チップ25はシステム・バス21に接続
されて直接メモリ・アクセス・オペレーションを制御
し、こうしたオペレーションにはRAM24及びハード
・ディスク・ドライブ26及びフロッピー・ディスク・
ドライブ27間のデータ転送が含まれる。CD−ROM
23もシステム・バス21に接続され、マルチメディア
・プログラムまたはプレゼンテーションにおける大量の
データを記憶するために使用される。
システム(BIOS)を含み、これは対話及びディスク
・ドライブ及びキーボードなどの基本ハードウェア・オ
ペレーションを制御する。RAM24は主メモリであ
り、これにはオペレーティング・システム及びマルチメ
ディア・アプリケーション・プログラムがロードされ
る。メモリ管理チップ25はシステム・バス21に接続
されて直接メモリ・アクセス・オペレーションを制御
し、こうしたオペレーションにはRAM24及びハード
・ディスク・ドライブ26及びフロッピー・ディスク・
ドライブ27間のデータ転送が含まれる。CD−ROM
23もシステム・バス21に接続され、マルチメディア
・プログラムまたはプレゼンテーションにおける大量の
データを記憶するために使用される。
【0017】システム・バス21には更に様々な入出力
制御装置が接続される。例えば、キーボード制御装置2
8、マウス制御装置29、ビデオ制御装置30、及びオ
ーディオ制御装置31がある。キーボード制御装置28
はキーボード12のハードウェア・インタフェースを提
供し、マウス制御装置29はマウス13のハードウェア
・インタフェースを提供し、ビデオ制御装置30は表示
装置14用のハードウェア・インタフェースであり、オ
ーディオ制御装置31はスピーカ15a及び15b用の
ハードウェア・インタフェースである。最後に、システ
ム・バスには更にデジタル信号プロセッサ33が接続さ
れ、これは小サイズのスピーカ要素を補正するために、
本発明のスピーカ・システムにより生成される音響を修
正し、好適にはオーディオ制御装置31内に組込まれ
る。
制御装置が接続される。例えば、キーボード制御装置2
8、マウス制御装置29、ビデオ制御装置30、及びオ
ーディオ制御装置31がある。キーボード制御装置28
はキーボード12のハードウェア・インタフェースを提
供し、マウス制御装置29はマウス13のハードウェア
・インタフェースを提供し、ビデオ制御装置30は表示
装置14用のハードウェア・インタフェースであり、オ
ーディオ制御装置31はスピーカ15a及び15b用の
ハードウェア・インタフェースである。最後に、システ
ム・バスには更にデジタル信号プロセッサ33が接続さ
れ、これは小サイズのスピーカ要素を補正するために、
本発明のスピーカ・システムにより生成される音響を修
正し、好適にはオーディオ制御装置31内に組込まれ
る。
【0018】図は、上記参照特許出願から引用された左
右にスピーカ・システム15a及び15bを装備された
特定のマルチメディア・コンピュータ表示装置14を示
す。特定のスピーカ・システムは、表示装置14の前方
に座る1人のユーザに対し、良好なインパルス及びフェ
ーズ応答及び方向性を有するステレオ音響を提供する。
更にスピーカ・システムは音響範囲技術(sonic rangin
g technique) を使用する。これは少なくとも2つのス
ピーカを使用することにより、ユーザを表示装置に対し
て配置する技術であり、スピーカは音響エネルギを発
し、またユーザの頭部からの反響音を受取るためのマイ
クロフォンとして機能する。システムを支援する回路
は、表示装置からのユーザの距離を決定する時間遅延を
測定する。2つのエミッタまたはレシーバにもとづく少
なくとも2つのセットの距離により、トライアンギュレ
ーション(triangulation )技術がXY面内におけるユ
ーザの位置を突き止める。第3のスピーカ・マイクロフ
ォン対からの第3の入力は、必要に応じ、Z次元におけ
るユーザ位置を突き止めるために使用される。音響マウ
スはステレオ・システムが部屋内でユーザを突き止める
ことを可能とする。音響ホログラフィ(sonic holograp
hy)及びスペクトル・キュー(spectral cues)などの
ステレオ技術が頼りとする"スイート・スポット(sweet
spot)"は、ユーザが部屋内のどこに居ようとユーザに
適合するように調整される。しかしながら、上述のよう
に、本発明の原理を達成するために任意の品質のスピー
カ・システムが使用可能である。
右にスピーカ・システム15a及び15bを装備された
特定のマルチメディア・コンピュータ表示装置14を示
す。特定のスピーカ・システムは、表示装置14の前方
に座る1人のユーザに対し、良好なインパルス及びフェ
ーズ応答及び方向性を有するステレオ音響を提供する。
更にスピーカ・システムは音響範囲技術(sonic rangin
g technique) を使用する。これは少なくとも2つのス
ピーカを使用することにより、ユーザを表示装置に対し
て配置する技術であり、スピーカは音響エネルギを発
し、またユーザの頭部からの反響音を受取るためのマイ
クロフォンとして機能する。システムを支援する回路
は、表示装置からのユーザの距離を決定する時間遅延を
測定する。2つのエミッタまたはレシーバにもとづく少
なくとも2つのセットの距離により、トライアンギュレ
ーション(triangulation )技術がXY面内におけるユ
ーザの位置を突き止める。第3のスピーカ・マイクロフ
ォン対からの第3の入力は、必要に応じ、Z次元におけ
るユーザ位置を突き止めるために使用される。音響マウ
スはステレオ・システムが部屋内でユーザを突き止める
ことを可能とする。音響ホログラフィ(sonic holograp
hy)及びスペクトル・キュー(spectral cues)などの
ステレオ技術が頼りとする"スイート・スポット(sweet
spot)"は、ユーザが部屋内のどこに居ようとユーザに
適合するように調整される。しかしながら、上述のよう
に、本発明の原理を達成するために任意の品質のスピー
カ・システムが使用可能である。
【0019】図3は本発明を実施するために必要なラン
ダム・アクセス・メモリ24内に在中するコード・モジ
ュールを示す。必要とされるまで、これらのモジュール
はフロッピー・ディスク・ドライブ用のフロッピー・デ
ィスク、またはCD−ROM用の光ディスクなどの別の
取外し可能なコンピュータ・メモリ、或いはハード・デ
ィスク記憶装置内に記憶されている。オペレーティング
・システム50は、様々なソフトウェア・モジュールと
コンピュータ・システムを構成するハードウェアとの対
話を制御する。これはまたユーザが対話するためのユー
ザ・インタフェースを制御する。音声合成装置52は1
つ以上の音声ファイル54に従い、合成音声を生成す
る。音声合成装置は任意の現行の音声合成技術にもとづ
くが、本発明の原理により変更される。特に好適な音声
合成装置はP.Farrettによる1992年11月13日出
願の米国特許出願番号第976151号"Synthesis and
Analysis of Dialects" で述べられており、本願でも参
照される。この合成装置は複数の方言による音声を同時
に効率的に合成するのに適している。該構成装置は、特
定の方言に特徴的なインターバルのセットに依存して、
各々がテキスト内の音素に対応し連結される音声波形の
ストリングの基本ピッチの抑揚の調子を変更する。音声
ファイル54のソースはローカル・エリア・ネットワー
ク上の入出力アダプタを介する、或いはシステム・キー
ボードからの入力である。音声ファイルは磁気ディスク
またはCD−ROM光ディスク記憶装置上に局所的に記
憶されることが好ましい。オーディオ・プロセッサ56
は本発明のステレオ効果を提供するために使用される。
ダム・アクセス・メモリ24内に在中するコード・モジ
ュールを示す。必要とされるまで、これらのモジュール
はフロッピー・ディスク・ドライブ用のフロッピー・デ
ィスク、またはCD−ROM用の光ディスクなどの別の
取外し可能なコンピュータ・メモリ、或いはハード・デ
ィスク記憶装置内に記憶されている。オペレーティング
・システム50は、様々なソフトウェア・モジュールと
コンピュータ・システムを構成するハードウェアとの対
話を制御する。これはまたユーザが対話するためのユー
ザ・インタフェースを制御する。音声合成装置52は1
つ以上の音声ファイル54に従い、合成音声を生成す
る。音声合成装置は任意の現行の音声合成技術にもとづ
くが、本発明の原理により変更される。特に好適な音声
合成装置はP.Farrettによる1992年11月13日出
願の米国特許出願番号第976151号"Synthesis and
Analysis of Dialects" で述べられており、本願でも参
照される。この合成装置は複数の方言による音声を同時
に効率的に合成するのに適している。該構成装置は、特
定の方言に特徴的なインターバルのセットに依存して、
各々がテキスト内の音素に対応し連結される音声波形の
ストリングの基本ピッチの抑揚の調子を変更する。音声
ファイル54のソースはローカル・エリア・ネットワー
ク上の入出力アダプタを介する、或いはシステム・キー
ボードからの入力である。音声ファイルは磁気ディスク
またはCD−ROM光ディスク記憶装置上に局所的に記
憶されることが好ましい。オーディオ・プロセッサ56
は本発明のステレオ効果を提供するために使用される。
【0020】本発明は、各々が音声ファイル内の1つ以
上のテキスト・ストリングに関連される複数の音声を想
定する。各音声は特定の空間ロケーションから発するよ
うに感じられる。各音声ストリングは音声に対応するデ
ータ及び所望の位置と共に、音声ファイル内に記憶され
る。オーディオ制御装置56は位置情報を獲得し、通常
は合成音声から欠如される空間指示を追加する。
上のテキスト・ストリングに関連される複数の音声を想
定する。各音声は特定の空間ロケーションから発するよ
うに感じられる。各音声ストリングは音声に対応するデ
ータ及び所望の位置と共に、音声ファイル内に記憶され
る。オーディオ制御装置56は位置情報を獲得し、通常
は合成音声から欠如される空間指示を追加する。
【0021】表1及び図4では、本発明が使用される語
学レッスンが示される。このレッスンは本発明の多くの
特徴を表すように設計される。システム・ユニットの単
一のスピーカを使用する典型的な語学レッスンは極めて
退屈である。本発明では、各音声の位置が識別可能であ
り、会話が位置間で弾み、より感動的で面白いものとな
る。
学レッスンが示される。このレッスンは本発明の多くの
特徴を表すように設計される。システム・ユニットの単
一のスピーカを使用する典型的な語学レッスンは極めて
退屈である。本発明では、各音声の位置が識別可能であ
り、会話が位置間で弾み、より感動的で面白いものとな
る。
【0022】各々が音声、位置及び方言に対応する変数
を有する複数のテキスト・ストリング100乃至138
が、表1のラインに対応する。括弧内の数字は図のライ
ンに対応する。例えば表1において、"System Atonal
(100):Lesson 12:OrderingBreakfast" は図4のラ
イン100に対応する。対話は5つの異なる音声に対応
する変数を含む。それらはシステムの機械的音声14
0、Mr.Tanakaの音声141、通訳の音声142、Mr
s.Tanaka の音声143、及びウェイタの音声144で
ある。明らかに、より多くのまたは少ない音声が本発明
により支援され、これはコンピュータ・システムの記憶
及び処理能力によってのみ制限される。
を有する複数のテキスト・ストリング100乃至138
が、表1のラインに対応する。括弧内の数字は図のライ
ンに対応する。例えば表1において、"System Atonal
(100):Lesson 12:OrderingBreakfast" は図4のラ
イン100に対応する。対話は5つの異なる音声に対応
する変数を含む。それらはシステムの機械的音声14
0、Mr.Tanakaの音声141、通訳の音声142、Mr
s.Tanaka の音声143、及びウェイタの音声144で
ある。明らかに、より多くのまたは少ない音声が本発明
により支援され、これはコンピュータ・システムの記憶
及び処理能力によってのみ制限される。
【0023】更に対話には、システムの中立位置及び右
から左へ6つの異なる位置に対応する値が存在し、位置
1はMr.Tanakaが話す位置であり、位置2はウェイタに
より手短に使用され、位置3は中央位置であり通訳によ
り使用され、位置4もまたウェイタがテーブルの回りを
移動する時に彼により使用され、位置5はMrs.Tanaka
が話す位置に相当する。
から左へ6つの異なる位置に対応する値が存在し、位置
1はMr.Tanakaが話す位置であり、位置2はウェイタに
より手短に使用され、位置3は中央位置であり通訳によ
り使用され、位置4もまたウェイタがテーブルの回りを
移動する時に彼により使用され、位置5はMrs.Tanaka
が話す位置に相当する。
【0024】各位置1乃至5は特定のX、Y、Z座標に
関連され、そこからシステムは関連する音声を発生す
る。複数のステレオ技術が従来技術として知られている
が、ほとんど全てがスピーカにより生成される音響の周
波数に依存し、左右のチャネルの位相及び強度値を変更
する。好適な実施例の詳細については後述される。3つ
の方言が使用され、第1の"方言(dialect)" はシステ
ム音声であり、未変更の音素ストリングから合成される
音声波形を使用する。方言の意味を付け加える抑揚間隔
はシステム音声には適用されない。この場合、第1の音
素ストリングに対応する方言変数151が0にセットさ
れる。最終結果は非常に機械的な音響的音声となり、対
話における生の特質と対照を成す。第2の"方言"はこの
場合言語に相当し、日本語であり、第2の音素ストリン
グに対する方言変数152は日本語にセットされる。第
3の方言は通訳における英語に関する中西部アクセント
153であり、第3のストリングに対する方言変数は、
例えば中西部とセットされる。日本語及び中西部方言に
対し、それぞれの方言に特定の抑揚間隔などの方言の特
徴が検索され、様々な方言がそこから抽出される基本記
憶音素ストリングに適用される。別のシステムでは、各
方言に対する音素の完全なセットが記憶される。更に、
本発明は特定の方言情報無しでも好適に作用することが
できる。
関連され、そこからシステムは関連する音声を発生す
る。複数のステレオ技術が従来技術として知られている
が、ほとんど全てがスピーカにより生成される音響の周
波数に依存し、左右のチャネルの位相及び強度値を変更
する。好適な実施例の詳細については後述される。3つ
の方言が使用され、第1の"方言(dialect)" はシステ
ム音声であり、未変更の音素ストリングから合成される
音声波形を使用する。方言の意味を付け加える抑揚間隔
はシステム音声には適用されない。この場合、第1の音
素ストリングに対応する方言変数151が0にセットさ
れる。最終結果は非常に機械的な音響的音声となり、対
話における生の特質と対照を成す。第2の"方言"はこの
場合言語に相当し、日本語であり、第2の音素ストリン
グに対する方言変数152は日本語にセットされる。第
3の方言は通訳における英語に関する中西部アクセント
153であり、第3のストリングに対する方言変数は、
例えば中西部とセットされる。日本語及び中西部方言に
対し、それぞれの方言に特定の抑揚間隔などの方言の特
徴が検索され、様々な方言がそこから抽出される基本記
憶音素ストリングに適用される。別のシステムでは、各
方言に対する音素の完全なセットが記憶される。更に、
本発明は特定の方言情報無しでも好適に作用することが
できる。
【0025】テキスト・ストリング100乃至138は
また、テキスト・ブロック1乃至N+8を含み、各々は
表1のテキスト・ラインの1つに対応する必要なテキス
ト基本情報を含む。例えば図中155で指定されるテキ
スト・ブロック1は"Lesson12:Ordering Breakfast"
に対応し、図中157で指定されるテキスト・ブロック
3は"You must be hungry."に対応する。対話は日本語
文字と英語翻訳の間を交互しながら継続され、これはテ
キスト・ブロックN+8を含むテキスト・ストリング・
ライン138が"End of Lesson.Please press enter f
or next lesson."を声明するまで続けられる。
また、テキスト・ブロック1乃至N+8を含み、各々は
表1のテキスト・ラインの1つに対応する必要なテキス
ト基本情報を含む。例えば図中155で指定されるテキ
スト・ブロック1は"Lesson12:Ordering Breakfast"
に対応し、図中157で指定されるテキスト・ブロック
3は"You must be hungry."に対応する。対話は日本語
文字と英語翻訳の間を交互しながら継続され、これはテ
キスト・ブロックN+8を含むテキスト・ストリング・
ライン138が"End of Lesson.Please press enter f
or next lesson."を声明するまで続けられる。
【0026】
【表1】 System[100]:Lesson Twelve:Ordering Breakfast Mr.Tanaka[102]:Onaka ga suitadaroo. English[104]:You must be hungry. Mrs.Tanaka[106]:Kono hoteru ni wa ii resutoran ga arusoodakara soko e itte mimashoo. E[108]:They say there is a good restaurant in this hotel.Let's have a breakfast there. Mr.Tanaka[110]:Sumimasen. E[112]:Excuse me. Waiter[114]:Oyobi de gozaimasu ka? E[116]:(Yes)You called sir? Mrs.Tanaka:Chooshoku wo tabetai no desu ga. Nani ga itadakemasu ka? E: We would like breakfast.What can we have? Waiter[118]:Roorupan ni toosuto、sorekara hotto keeki mo dekimasu.Onomimono wa koohii、koocha、hotto chokoreeto ga gozaimasu.Nani ni itashimashoo ka? E[120]:Rolls、toast and hot cakes too.As for drinks、coffee、tea or hot chocolate. What would you like to have? Mr.Tanaka[122]:Sumimasen.Okanjoo o onegai dekimasu ka? E[124]:Excuse me.May I have the check please? Waiter[126]:Kashikomarimashita. E[128]:(Yes)Certainly sir. Waiter[134]:Omatase itashimashita.Doo mo arigatoo gozaimashita. E[136]:Sorry to have kept you waiting.Thank you very much. System[138]:End of lesson.Please press enter for next lesson.
【0027】音声システムのオペレーション方法が図5
に示される。ステップ200で次のテキスト・ストリン
グが検索される。ステップ202で、テキスト・ストリ
ングに関連される音素または他の言語単位が検索され、
順次連結される。ステップ204で、対話に提供される
感嘆または疑問などの句読に関する語義情報が検索され
る。語義情報が提供されない場合、システムはステート
メントなどのデフォルトの語義コンテキストを仮定す
る。抑揚及び音素のタイミングが語義情報に従い適切に
変更される。次にステップ206で、このテキスト・ス
トリングが新たな音声に関連するかどうかが判断され
る。肯定の場合、ステップ208で、音声に関連する新
たな音声パラメータが検索される。例えば、女性の音声
のフォルマント(またはフォーマント)及びピッチ特性
は、男性の音声のそれらとは実質的に異なる。ステップ
210で、検索された音声パラメータが音素ストリング
に適用され、それを新たな音声に従い変更する。他のよ
り記憶集中型の音声システムでは、別々の音素のセット
が各音声に対応して記憶される。それが新たな音声でな
い場合には、ステップ212で、旧音声パラメータが音
素ストリングに適用される。
に示される。ステップ200で次のテキスト・ストリン
グが検索される。ステップ202で、テキスト・ストリ
ングに関連される音素または他の言語単位が検索され、
順次連結される。ステップ204で、対話に提供される
感嘆または疑問などの句読に関する語義情報が検索され
る。語義情報が提供されない場合、システムはステート
メントなどのデフォルトの語義コンテキストを仮定す
る。抑揚及び音素のタイミングが語義情報に従い適切に
変更される。次にステップ206で、このテキスト・ス
トリングが新たな音声に関連するかどうかが判断され
る。肯定の場合、ステップ208で、音声に関連する新
たな音声パラメータが検索される。例えば、女性の音声
のフォルマント(またはフォーマント)及びピッチ特性
は、男性の音声のそれらとは実質的に異なる。ステップ
210で、検索された音声パラメータが音素ストリング
に適用され、それを新たな音声に従い変更する。他のよ
り記憶集中型の音声システムでは、別々の音素のセット
が各音声に対応して記憶される。それが新たな音声でな
い場合には、ステップ212で、旧音声パラメータが音
素ストリングに適用される。
【0028】次にステップ214で、新たな方言がこの
テキスト・ストリングに関連するかどうかが判断され
る。肯定の場合、1実施例では、新たな方言に関連する
方言の間隔がステップ216でテーブルから検索され
る。次にステップ218で、連結された音素の抑揚がこ
れらの方言間隔に従い変更される。それが新たな方言で
ない場合には、ステップ220で旧方言間隔が抑揚を変
更するために使用される。再度、より記憶集中型の音声
システムでは、別々の音素のセットが各方言に対応して
使用される。
テキスト・ストリングに関連するかどうかが判断され
る。肯定の場合、1実施例では、新たな方言に関連する
方言の間隔がステップ216でテーブルから検索され
る。次にステップ218で、連結された音素の抑揚がこ
れらの方言間隔に従い変更される。それが新たな方言で
ない場合には、ステップ220で旧方言間隔が抑揚を変
更するために使用される。再度、より記憶集中型の音声
システムでは、別々の音素のセットが各方言に対応して
使用される。
【0029】ステップ222で、このテキスト・ストリ
ングが新たな位置に関連するかどうかが判断される。肯
定の場合、新たな位置がステップ224で検索され、位
置に関連するオーディオ情報がステップ226で検索さ
れる。それが新たな位置ではない場合には、システムは
それが同一位置であると仮定し、ステップ228でそれ
を音声及びオーディオ合成装置に転送する。
ングが新たな位置に関連するかどうかが判断される。肯
定の場合、新たな位置がステップ224で検索され、位
置に関連するオーディオ情報がステップ226で検索さ
れる。それが新たな位置ではない場合には、システムは
それが同一位置であると仮定し、ステップ228でそれ
を音声及びオーディオ合成装置に転送する。
【0030】ステップ230で、音素、語義情報、音声
及び方言情報が合成音声波形を生成するために使用され
る。合成波形及び位置情報はオーディオ・プロセッサ・
モジュールに転送される。次にステップ232で、聴取
者角度が決定される。聴取者角度は上述のスピーカ・シ
ステムの音響マウス・モードにより決定されるか、また
はユーザにより音声システムに関連するユーザ・インタ
フェースを介してセットされる。デフォルトの聴取者角
度も使用される。次に、ステップ234で、その位置及
び聴取者角度に関連する位置及びオーディオ情報が、空
間情報を合成音声波形に追加するためにオーディオ・プ
ロセッサにより使用され、このテキスト・ストリングが
特定のロケーションから発生するように感じられる。レ
ッスン内の音声は順次的であるが、本発明は各々が同時
に固有のそれぞれの位置から発せられる同時生成音声を
生成するためにも使用される。
及び方言情報が合成音声波形を生成するために使用され
る。合成波形及び位置情報はオーディオ・プロセッサ・
モジュールに転送される。次にステップ232で、聴取
者角度が決定される。聴取者角度は上述のスピーカ・シ
ステムの音響マウス・モードにより決定されるか、また
はユーザにより音声システムに関連するユーザ・インタ
フェースを介してセットされる。デフォルトの聴取者角
度も使用される。次に、ステップ234で、その位置及
び聴取者角度に関連する位置及びオーディオ情報が、空
間情報を合成音声波形に追加するためにオーディオ・プ
ロセッサにより使用され、このテキスト・ストリングが
特定のロケーションから発生するように感じられる。レ
ッスン内の音声は順次的であるが、本発明は各々が同時
に固有のそれぞれの位置から発せられる同時生成音声を
生成するためにも使用される。
【0031】図6を参照すると、位置テーブルが示さ
れ、図7ではコンピュータ・システムの前方に座ってい
るユーザ及び見掛けの位置が表される。各位置に対し、
X、Y、Z座標のセットが記憶される。オーディオ・プ
ロセッサは合成音声の見掛けの位置を生成するために
X、Y、Z座標を使用する。コメントがテーブル内に提
供され、ユーザまたは開発者は、座標の特定のセットの
見掛けの位置が表示画面のどこに関連するかを理解する
ことができる。図6及び図7において、位置は上述の会
話に対応する。しかしながら、はるかに多くの位置が本
発明により考慮される。また、本発明はZ軸に沿って天
井または床から到来すると感じられる位置を含むことも
できる。
れ、図7ではコンピュータ・システムの前方に座ってい
るユーザ及び見掛けの位置が表される。各位置に対し、
X、Y、Z座標のセットが記憶される。オーディオ・プ
ロセッサは合成音声の見掛けの位置を生成するために
X、Y、Z座標を使用する。コメントがテーブル内に提
供され、ユーザまたは開発者は、座標の特定のセットの
見掛けの位置が表示画面のどこに関連するかを理解する
ことができる。図6及び図7において、位置は上述の会
話に対応する。しかしながら、はるかに多くの位置が本
発明により考慮される。また、本発明はZ軸に沿って天
井または床から到来すると感じられる位置を含むことも
できる。
【0032】上述の語学レッスンを参照すると、対話の
最初のラインは、図4のテキスト・ストリング100で
あり、これはシステムの音声を使用する。システム音声
は機械的音声であり、これは空間的または方言情報を使
用しない。音声は非常に機械的にまた平坦に聞こえる。
しかしながら、これは対話の残りの部分において高度に
生気に満ち空間的に位置付けされる音声との間で、有用
な対照を提供する。次に、Mr.Tanakaが、画面から右に
5フィートの位置1で日本語を話す。次に中西部の英語
方言により、画面の中央位置3で英語翻訳が続く。Mr
s.Tanaka が画面から左に5フィートの位置5で日本語
で返答する。Mrs.Tanaka の音声は女性の話手にふさわ
しいように、フォルマントのピッチが高い。次に、スト
リング108に関連する英語翻訳が画面中央で継続され
る。
最初のラインは、図4のテキスト・ストリング100で
あり、これはシステムの音声を使用する。システム音声
は機械的音声であり、これは空間的または方言情報を使
用しない。音声は非常に機械的にまた平坦に聞こえる。
しかしながら、これは対話の残りの部分において高度に
生気に満ち空間的に位置付けされる音声との間で、有用
な対照を提供する。次に、Mr.Tanakaが、画面から右に
5フィートの位置1で日本語を話す。次に中西部の英語
方言により、画面の中央位置3で英語翻訳が続く。Mr
s.Tanaka が画面から左に5フィートの位置5で日本語
で返答する。Mrs.Tanaka の音声は女性の話手にふさわ
しいように、フォルマントのピッチが高い。次に、スト
リング108に関連する英語翻訳が画面中央で継続され
る。
【0033】テキスト・ストリング118に関連して、
本発明の別の特徴が示される。ウェイタが画面から左に
2フィートの位置4から、テーブル周辺を画面中央位置
3に移動し、最後に画面から右に2フィートの位置2に
移動するように感じられる。この動きは、システムが位
置4と位置2との間の位置を補間する時、連続的に感じ
られる。代わりに、音声が単に位置4から位置3に、次
に位置2へと切り替わってもよい。テキスト・ストリン
グ138では、システム音声は、再度、その中立位置に
おいて、中立方言すなわち機械的音声により、レッスン
の終了を発声する。
本発明の別の特徴が示される。ウェイタが画面から左に
2フィートの位置4から、テーブル周辺を画面中央位置
3に移動し、最後に画面から右に2フィートの位置2に
移動するように感じられる。この動きは、システムが位
置4と位置2との間の位置を補間する時、連続的に感じ
られる。代わりに、音声が単に位置4から位置3に、次
に位置2へと切り替わってもよい。テキスト・ストリン
グ138では、システム音声は、再度、その中立位置に
おいて、中立方言すなわち機械的音声により、レッスン
の終了を発声する。
【0034】ステレオまたは"3次元"音響効果を生成す
る既存の多くの技術が存在するが、最適なものの1つが
1991年9月3日出願のLoweらによる米国特許第50
46097号"Sound Imaging Process" で開示されてい
る。この特許は他の従来技術の優れた背景部分を有す
る。第5046097号特許で述べられる技術は、ユー
ザにより指定される位置を左右の複雑な周波数転送関数
に変換し、これが振幅を変化させ、左右のチャネルの位
相をシフトする。位相のシフトはチャネル間の特定の時
間遅延に概略等価である。振幅及び位相シフトの量は、
入力信号の周波数に従い、オーディオ・スペクトラムに
渡って変化する。一般的な技術はBlumleinによる米国特
許第2093540号で前もって知らせられるが、少な
くとも1つのチャネルが次に示す転送関数、すなわち T(S)=(1−(1/R1)(R1−R2)/(1−SCR3) により特徴化される周波数応答を有するフィルタを通過
する。ここでSは置換複素周波数変数、R1及びR2はフ
ィルタの増幅器部分の反転入力に接続される入力及び帰
還インピーダンス、C及びR3 は増幅器部分の非反転入
力に接続される入力及びグラウンド要素である。この特
許は、ユーザがスピーカの音響を聞きながら位置を選択
するシステムを想定する。位置データそのものは記憶さ
れず、左右のチャネルの変更されたオーディオ信号だけ
が記憶される。
る既存の多くの技術が存在するが、最適なものの1つが
1991年9月3日出願のLoweらによる米国特許第50
46097号"Sound Imaging Process" で開示されてい
る。この特許は他の従来技術の優れた背景部分を有す
る。第5046097号特許で述べられる技術は、ユー
ザにより指定される位置を左右の複雑な周波数転送関数
に変換し、これが振幅を変化させ、左右のチャネルの位
相をシフトする。位相のシフトはチャネル間の特定の時
間遅延に概略等価である。振幅及び位相シフトの量は、
入力信号の周波数に従い、オーディオ・スペクトラムに
渡って変化する。一般的な技術はBlumleinによる米国特
許第2093540号で前もって知らせられるが、少な
くとも1つのチャネルが次に示す転送関数、すなわち T(S)=(1−(1/R1)(R1−R2)/(1−SCR3) により特徴化される周波数応答を有するフィルタを通過
する。ここでSは置換複素周波数変数、R1及びR2はフ
ィルタの増幅器部分の反転入力に接続される入力及び帰
還インピーダンス、C及びR3 は増幅器部分の非反転入
力に接続される入力及びグラウンド要素である。この特
許は、ユーザがスピーカの音響を聞きながら位置を選択
するシステムを想定する。位置データそのものは記憶さ
れず、左右のチャネルの変更されたオーディオ信号だけ
が記憶される。
【0035】図8は模範的オーディオ制御装置カードを
示し、スピーカ応答の訂正用のデジタル信号プロセッサ
(DSP)を含む。オーディオ制御装置は1990年9
月18日にIBMから発表され出荷されたM-Audio Capt
ure and Playback Adapterである。当業者には理解され
るように、たくさんの他の音響が使用される。図8を参
照すると、入出力バス200はオーディオ制御装置を許
可するマイクロチャネルまたはPC入出力バスである。
パーソナル・コンピュータはコマンド・レジスタ20
2、ステータス・レジスタ204、及びアドレス・ハイ
・バイト・カウンタ206及びアドレス・ロウ・バイト
・カウンタ207、ハイ・データ・ハイ・バイト双方向
ラッチ208、及びデータ・ロウ双方向ラッチ210を
使用することにより、情報を入出力バス200を介し
て、オーディオ制御装置に転送する。これらのレジスタ
はホストがコマンドを発行するために、またオーディオ
制御装置カードの状態を監視するために使用する。アド
レス及びデータ・ラッチはパーソナル・コンピュータが
共用メモリ212をアクセスするために使用する。共用
メモリはオーディオ制御装置カード上の8K×16ビッ
トのスタティックRAMである。共用メモリ212はま
た、パーソナル・コンピュータとデジタル信号プロセッ
サ33との間の通信を提供する。
示し、スピーカ応答の訂正用のデジタル信号プロセッサ
(DSP)を含む。オーディオ制御装置は1990年9
月18日にIBMから発表され出荷されたM-Audio Capt
ure and Playback Adapterである。当業者には理解され
るように、たくさんの他の音響が使用される。図8を参
照すると、入出力バス200はオーディオ制御装置を許
可するマイクロチャネルまたはPC入出力バスである。
パーソナル・コンピュータはコマンド・レジスタ20
2、ステータス・レジスタ204、及びアドレス・ハイ
・バイト・カウンタ206及びアドレス・ロウ・バイト
・カウンタ207、ハイ・データ・ハイ・バイト双方向
ラッチ208、及びデータ・ロウ双方向ラッチ210を
使用することにより、情報を入出力バス200を介し
て、オーディオ制御装置に転送する。これらのレジスタ
はホストがコマンドを発行するために、またオーディオ
制御装置カードの状態を監視するために使用する。アド
レス及びデータ・ラッチはパーソナル・コンピュータが
共用メモリ212をアクセスするために使用する。共用
メモリはオーディオ制御装置カード上の8K×16ビッ
トのスタティックRAMである。共用メモリ212はま
た、パーソナル・コンピュータとデジタル信号プロセッ
サ33との間の通信を提供する。
【0036】メモリ・アービタは制御論理214の1部
に含まれ、パーソナル・コンピュータ及びDSP33が
同時に共用メモリ212をアクセスすることを防止す
る。共用メモリ212は、情報の1部がデジタル信号プ
ロセッサ33を制御するための論理となるように分割さ
れる。デジタル信号プロセッサはその固有の制御レジス
タ216及びステータス・レジスタ218を有し、これ
らはコマンドを発行し、オーディオ制御装置カードの他
のパーツの状態を監視するために使用される。オーディ
オ制御装置カードは、サンプル・メモリ220と呼ばれ
る別のブロックのRAMを含む。サンプル・メモリ22
0は2K×16ビットのスタティックRAMであり、こ
れはDSP33により、これらのスピーカ・システムで
実演される出力オーディオ信号用に、或いはパーソナル
・コンピュータへ転送するデジタル化オーディオの入来
信号の記憶用に使用される。例えば、音響マウス・モー
ドは聴取者角度を決定するために、音を発しまた反響音
を受信する。更に、マイクロフォンまたはテープ・プレ
ーヤがカードには接続される。デジタル・アナログ変換
器(DAC)222及びアナログ・デジタル変換器(A
DC)224は、コンピュータのデジタル環境と、スピ
ーカにより生成されるまたはマイクロフォンにより受信
されるアナログ音との間でオーディオ信号を変換する。
DAC222はサンプル・メモリ220からデジタル・
サンプルを受信し、そのサンプルをアナログ信号に変換
し、これらの信号をアナログ出力セクション226に送
信する。アナログ出力セクション226は信号を調節
し、スピーカ・システムを介する伝送のために出力コネ
クタに送信する。DAC222が連続的にマルチプレク
スされるので、ステレオ・オペレーションが両方のスピ
ーカ構成要素に提供される。
に含まれ、パーソナル・コンピュータ及びDSP33が
同時に共用メモリ212をアクセスすることを防止す
る。共用メモリ212は、情報の1部がデジタル信号プ
ロセッサ33を制御するための論理となるように分割さ
れる。デジタル信号プロセッサはその固有の制御レジス
タ216及びステータス・レジスタ218を有し、これ
らはコマンドを発行し、オーディオ制御装置カードの他
のパーツの状態を監視するために使用される。オーディ
オ制御装置カードは、サンプル・メモリ220と呼ばれ
る別のブロックのRAMを含む。サンプル・メモリ22
0は2K×16ビットのスタティックRAMであり、こ
れはDSP33により、これらのスピーカ・システムで
実演される出力オーディオ信号用に、或いはパーソナル
・コンピュータへ転送するデジタル化オーディオの入来
信号の記憶用に使用される。例えば、音響マウス・モー
ドは聴取者角度を決定するために、音を発しまた反響音
を受信する。更に、マイクロフォンまたはテープ・プレ
ーヤがカードには接続される。デジタル・アナログ変換
器(DAC)222及びアナログ・デジタル変換器(A
DC)224は、コンピュータのデジタル環境と、スピ
ーカにより生成されるまたはマイクロフォンにより受信
されるアナログ音との間でオーディオ信号を変換する。
DAC222はサンプル・メモリ220からデジタル・
サンプルを受信し、そのサンプルをアナログ信号に変換
し、これらの信号をアナログ出力セクション226に送
信する。アナログ出力セクション226は信号を調節
し、スピーカ・システムを介する伝送のために出力コネ
クタに送信する。DAC222が連続的にマルチプレク
スされるので、ステレオ・オペレーションが両方のスピ
ーカ構成要素に提供される。
【0037】ADCはDAC222と逆の作用をする。
ADC224はアナログ入力セクション228からアナ
ログ信号を受信する。アナログ入力セクション228
は、マイクロフォンまたはテープ・プレーヤなどの他の
オーディオ入力装置として機能するスピーカ・システム
から信号を受信する。ADC224はアナログ信号をデ
ジタル・サンプルに変換し、それらをサンプル・メモリ
220に記憶する。制御論理214は、DSP33が割
込み要求を発行した後に、パーソナル・コンピュータに
割込みを発行する。
ADC224はアナログ入力セクション228からアナ
ログ信号を受信する。アナログ入力セクション228
は、マイクロフォンまたはテープ・プレーヤなどの他の
オーディオ入力装置として機能するスピーカ・システム
から信号を受信する。ADC224はアナログ信号をデ
ジタル・サンプルに変換し、それらをサンプル・メモリ
220に記憶する。制御論理214は、DSP33が割
込み要求を発行した後に、パーソナル・コンピュータに
割込みを発行する。
【0038】ステレオ・オーディオ信号をスピーカ・シ
ステムに提供することは、次のように作用する。パーソ
ナル・コンピュータがDSP33に、オーディオ制御装
置がデジタル化音響データの特定のサンプルを実演すべ
きことを通知する。本発明では、パーソナル・コンピュ
ータはDSP33の制御用のコード及びデジタル・オー
ディオ・サンプルをそのメモリから獲得し、それらを入
出力バス200を介して共用メモリ212に転送する。
DSP33はサンプルを取り出し、それらを対数混合基
準値の整数表現に変換し、それらをサンプル・メモリ2
20に配置する。このステップは元の音声と同時に生成
されなければならない各合成音声に対し繰返される。サ
ンプル・メモリ220内の最終結果は全ての合成音声の
デジタル・オーディオ加算であり、各々はそれらの空間
配置に保持される。DSP33は次にDAC222を活
動化し、これがデジタル化サンプルをオーディオ信号に
変換し、オーディオ出力セクション226がオーディオ
信号を調整し、それらを出力コネクタに出力する。
ステムに提供することは、次のように作用する。パーソ
ナル・コンピュータがDSP33に、オーディオ制御装
置がデジタル化音響データの特定のサンプルを実演すべ
きことを通知する。本発明では、パーソナル・コンピュ
ータはDSP33の制御用のコード及びデジタル・オー
ディオ・サンプルをそのメモリから獲得し、それらを入
出力バス200を介して共用メモリ212に転送する。
DSP33はサンプルを取り出し、それらを対数混合基
準値の整数表現に変換し、それらをサンプル・メモリ2
20に配置する。このステップは元の音声と同時に生成
されなければならない各合成音声に対し繰返される。サ
ンプル・メモリ220内の最終結果は全ての合成音声の
デジタル・オーディオ加算であり、各々はそれらの空間
配置に保持される。DSP33は次にDAC222を活
動化し、これがデジタル化サンプルをオーディオ信号に
変換し、オーディオ出力セクション226がオーディオ
信号を調整し、それらを出力コネクタに出力する。
【0039】音響マウス・モードを動作するために、パ
ーソナル・コンピュータ・システムは次のように作用す
る。上述のように音を発した後、パーソナル・コンピュ
ータはデジタル信号プロセッサ33に入出力バス200
を介して、オーディオ制御装置カードが入来オーディオ
信号をデジタル化すべきことを通知する。DSP33は
その制御レジスタ216を使用し、ADC224をイネ
ーブルする。ADC224は入来オーディオ信号をデジ
タル化し、サンプルをサンプル・メモリ220に配置す
る。DSP33は信号をサンプル・メモリ220から受
信し、それらを共用メモリ212に転送する。DSP3
3は次にパーソナル・コンピュータに入出力バス200
を介して、デジタル・サンプルがパーソナル・コンピュ
ータ・プロセッサの読出しのために準備されていること
を通知する。パーソナル・コンピュータは入出力バス2
00を介してサンプルを獲得し、それらを解釈しホスト
RAMまたはディスク記憶に記憶する。
ーソナル・コンピュータ・システムは次のように作用す
る。上述のように音を発した後、パーソナル・コンピュ
ータはデジタル信号プロセッサ33に入出力バス200
を介して、オーディオ制御装置カードが入来オーディオ
信号をデジタル化すべきことを通知する。DSP33は
その制御レジスタ216を使用し、ADC224をイネ
ーブルする。ADC224は入来オーディオ信号をデジ
タル化し、サンプルをサンプル・メモリ220に配置す
る。DSP33は信号をサンプル・メモリ220から受
信し、それらを共用メモリ212に転送する。DSP3
3は次にパーソナル・コンピュータに入出力バス200
を介して、デジタル・サンプルがパーソナル・コンピュ
ータ・プロセッサの読出しのために準備されていること
を通知する。パーソナル・コンピュータは入出力バス2
00を介してサンプルを獲得し、それらを解釈しホスト
RAMまたはディスク記憶に記憶する。
【0040】本発明は特定の実施例について述べられて
きたが、当業者には本発明の精神及び範囲を逸脱するこ
となく、変更が可能であることが理解されよう。例え
ば、語学レッスンではなく、本発明がメッセージから異
なるオーディオ面内のメッセージを生成するために使用
され、ユーザが通常のオーディオと警告とを見分けるこ
とを容易にする。これらの実施例は例として取り上げた
だけであり、本発明の範囲を制限するものではない。
きたが、当業者には本発明の精神及び範囲を逸脱するこ
となく、変更が可能であることが理解されよう。例え
ば、語学レッスンではなく、本発明がメッセージから異
なるオーディオ面内のメッセージを生成するために使用
され、ユーザが通常のオーディオと警告とを見分けるこ
とを容易にする。これらの実施例は例として取り上げた
だけであり、本発明の範囲を制限するものではない。
【0041】まとめとして、本発明の構成に関して以下
の事項を開示する。
の事項を開示する。
【0042】(1)コンピュータ・システムにより合成
される音声に見掛けの空間位置を提供する方法であっ
て、テキスト・データ及び位置データを含む音声ファイ
ルをコンピュータ・メモリに記憶するステップと、音声
ファイル内のテキスト・データから音声波形を合成する
ステップと、音声波形を左右のチャネルに対応するアナ
ログ信号に変換するステップと、アナログ信号がスピー
カ・システムに送信される時に、合成音声が見掛けの空
間位置から発生するように感じられるように、アナログ
信号を音声ファイル内の位置データに従い変更するステ
ップと、を含む方法。 (2)音声ファイルが各々がそれぞれの位置データのセ
ットに関連される複数のテキスト・ストリングを含み、
アナログ信号がスピーカ・システムに送信される時に、
複数の合成音声の各々がそれぞれの空間位置から発生す
るように感じられるように、合成、変換及び変更ステッ
プが各テキスト・ストリングに対し繰返される、上記
(1)記載の方法。 (3)音声ファイルが方言データを含み、アナログ信号
がスピーカ・システムに送信される時に、合成音声が選
択された方言により発声されるようにするために、最初
にテキスト・データから合成された音声波形をアナログ
信号への変換以前に、方言データに従い変更するステッ
プを含む、上記(1)記載の方法。 (4)音声ファイルが各々がそれぞれの位置データ及び
方言データのセットに関連される複数のテキスト・スト
リングを含み、合成、変換及び変更ステップが各テキス
ト・ストリングに対し繰返され、アナログ信号がスピー
カ・システムに送信される時に、複数の合成音声の各々
がそれぞれの方言によりそれぞれの空間位置から発生す
るように感じられるように、各テキスト・ストリングか
ら合成される各音声波形を、アナログ信号への変換以前
に、それぞれの方言データのセットに従い変更するステ
ップを含む、上記(1)記載の方法。 (5)スピーカ・システムに対するユーザ位置を決定す
るステップを含み、変更ステップがユーザ位置に従い実
行される、上記(1)記載の方法。 (6)決定ステップがユーザ位置をコンピュータ・シス
テムに結合されるセンサにより検出して実施される、上
記(5)記載の方法。 (7)決定ステップがコンピュータ・システムにより提
供されるユーザ・インタフェースへのユーザ入力に従い
実施される、上記(5)記載の方法。 (8)コンピュータ・システムにより合成される音声に
見掛けの空間位置を提供するシステムであって、テキス
ト及び位置データを含む音声ファイルをコンピュータ・
メモリに記憶する手段と、音声ファイル内のテキスト・
データから音声波形を合成する手段と、音声波形を左右
のチャネルに対応するアナログ信号に変換する手段と、
アナログ信号がスピーカ・システムに送信される時に、
合成音声が見掛けの空間位置から発生するように感じら
れるように、アナログ信号を音声ファイル内の位置デー
タに従い変更する手段と、を含むシステム。 (9)音声ファイルが各々がそれぞれの位置データのセ
ットに関連される複数のテキスト・ストリングを含み、
アナログ信号がスピーカ・システムに送信される時に、
複数の合成音声の各々がそれぞれの空間位置から発生す
るように感じられるように、合成、変換及び変更手段が
各テキスト・ストリングに対して使用される、上記
(8)記載のシステム。 (10)音声ファイルが方言データを含み、アナログ信
号がスピーカ・システムに送信される時に、合成音声が
選択された方言により発声されるようにするために、テ
キスト・データから合成された音声波形をアナログ信号
への変換以前に、方言データに従い変更する手段を含
む、上記(8)記載のシステム。 (11)音声ファイルが各々がそれぞれの位置データ及
び方言データのセットに関連される複数のテキスト・ス
トリングを含み、合成、変換及び変更手段が各テキスト
・ストリングに対して使用され、アナログ信号がスピー
カ・システムに送信される時に、複数の合成音声の各々
がそれぞれの方言によりそれぞれの空間位置から発生す
るように感じられるように、各テキスト・ストリングか
ら合成される各音声波形を、アナログ信号への変換以前
に、それぞれの方言データのセットに従い変更する手段
を含む、上記(8)記載のシステム。 (12)スピーカ・システムに対するユーザ位置を決定
する手段を含み、変更手段がユーザ位置に従い実行され
る、上記(8)記載のシステム。 (13)決定手段がユーザ位置を検出するコンピュータ
・システムに結合されたセンサを含む、上記(12)記
載のシステム。 (14)決定手段がユーザ位置が入力されるコンピュー
タ・システムにより提供されるユーザ・インタフェース
である、上記(12)記載のシステム。 (15)コンピュータ・メモリ内に常駐し、コンピュー
タ・システムにより合成される音声に見掛けの空間位置
を提供するコンピュータ・プログラム・プロダクトであ
って、テキスト及び位置データを含む音声ファイルをコ
ンピュータ読出し可能媒体上に記憶する手段と、音声フ
ァイル内のテキスト・データから音声波形を合成する手
段と、音声波形を左右のチャネルに対応するアナログ信
号に変換する手段と、アナログ信号がスピーカ・システ
ムに送信される時に、合成音声が見掛けの空間位置から
発生するように感じられるように、アナログ信号を音声
ファイル内の位置データに従い変更する手段と、を含む
プロダクト。 (16)音声ファイルが各々がそれぞれの位置データの
セットに関連される複数のテキスト・ストリングを含
み、アナログ信号がスピーカ・システムに送信される時
に、複数の合成音声の各々がそれぞれの空間位置から発
生するように感じられるように、合成、変換及び変更手
段が各テキスト・ストリングに対して使用される、上記
(15)記載のプロダクト。 (17)音声ファイルが方言データを含み、アナログ信
号がスピーカ・システムに送信される時に、合成音声が
選択された方言により発声されるようにするために、テ
キスト・データから合成された音声波形をアナログ信号
への変換以前に、方言データに従い変更する手段を含
む、上記(15)記載のプロダクト。 (18)音声ファイルが各々がそれぞれの位置データ及
び方言データのセットに関連される複数のテキスト・ス
トリングを含み、合成、変換及び変更手段が各テキスト
・ストリングに対して使用され、アナログ信号がスピー
カ・システムに送信される時に、複数の合成音声の各々
がそれぞれの方言によりそれぞれの空間位置から発生す
るように感じられるように、各テキスト・ストリングか
ら合成される各音声波形を、アナログ信号への変換以前
に、それぞれの方言データのセットに従い変更する手段
を含む、上記(15)記載のプロダクト。 (19)スピーカ・システムに対するユーザ位置を決定
する手段を含み、変更手段がユーザ位置に従い実行され
る、上記(15)記載のプロダクト。
される音声に見掛けの空間位置を提供する方法であっ
て、テキスト・データ及び位置データを含む音声ファイ
ルをコンピュータ・メモリに記憶するステップと、音声
ファイル内のテキスト・データから音声波形を合成する
ステップと、音声波形を左右のチャネルに対応するアナ
ログ信号に変換するステップと、アナログ信号がスピー
カ・システムに送信される時に、合成音声が見掛けの空
間位置から発生するように感じられるように、アナログ
信号を音声ファイル内の位置データに従い変更するステ
ップと、を含む方法。 (2)音声ファイルが各々がそれぞれの位置データのセ
ットに関連される複数のテキスト・ストリングを含み、
アナログ信号がスピーカ・システムに送信される時に、
複数の合成音声の各々がそれぞれの空間位置から発生す
るように感じられるように、合成、変換及び変更ステッ
プが各テキスト・ストリングに対し繰返される、上記
(1)記載の方法。 (3)音声ファイルが方言データを含み、アナログ信号
がスピーカ・システムに送信される時に、合成音声が選
択された方言により発声されるようにするために、最初
にテキスト・データから合成された音声波形をアナログ
信号への変換以前に、方言データに従い変更するステッ
プを含む、上記(1)記載の方法。 (4)音声ファイルが各々がそれぞれの位置データ及び
方言データのセットに関連される複数のテキスト・スト
リングを含み、合成、変換及び変更ステップが各テキス
ト・ストリングに対し繰返され、アナログ信号がスピー
カ・システムに送信される時に、複数の合成音声の各々
がそれぞれの方言によりそれぞれの空間位置から発生す
るように感じられるように、各テキスト・ストリングか
ら合成される各音声波形を、アナログ信号への変換以前
に、それぞれの方言データのセットに従い変更するステ
ップを含む、上記(1)記載の方法。 (5)スピーカ・システムに対するユーザ位置を決定す
るステップを含み、変更ステップがユーザ位置に従い実
行される、上記(1)記載の方法。 (6)決定ステップがユーザ位置をコンピュータ・シス
テムに結合されるセンサにより検出して実施される、上
記(5)記載の方法。 (7)決定ステップがコンピュータ・システムにより提
供されるユーザ・インタフェースへのユーザ入力に従い
実施される、上記(5)記載の方法。 (8)コンピュータ・システムにより合成される音声に
見掛けの空間位置を提供するシステムであって、テキス
ト及び位置データを含む音声ファイルをコンピュータ・
メモリに記憶する手段と、音声ファイル内のテキスト・
データから音声波形を合成する手段と、音声波形を左右
のチャネルに対応するアナログ信号に変換する手段と、
アナログ信号がスピーカ・システムに送信される時に、
合成音声が見掛けの空間位置から発生するように感じら
れるように、アナログ信号を音声ファイル内の位置デー
タに従い変更する手段と、を含むシステム。 (9)音声ファイルが各々がそれぞれの位置データのセ
ットに関連される複数のテキスト・ストリングを含み、
アナログ信号がスピーカ・システムに送信される時に、
複数の合成音声の各々がそれぞれの空間位置から発生す
るように感じられるように、合成、変換及び変更手段が
各テキスト・ストリングに対して使用される、上記
(8)記載のシステム。 (10)音声ファイルが方言データを含み、アナログ信
号がスピーカ・システムに送信される時に、合成音声が
選択された方言により発声されるようにするために、テ
キスト・データから合成された音声波形をアナログ信号
への変換以前に、方言データに従い変更する手段を含
む、上記(8)記載のシステム。 (11)音声ファイルが各々がそれぞれの位置データ及
び方言データのセットに関連される複数のテキスト・ス
トリングを含み、合成、変換及び変更手段が各テキスト
・ストリングに対して使用され、アナログ信号がスピー
カ・システムに送信される時に、複数の合成音声の各々
がそれぞれの方言によりそれぞれの空間位置から発生す
るように感じられるように、各テキスト・ストリングか
ら合成される各音声波形を、アナログ信号への変換以前
に、それぞれの方言データのセットに従い変更する手段
を含む、上記(8)記載のシステム。 (12)スピーカ・システムに対するユーザ位置を決定
する手段を含み、変更手段がユーザ位置に従い実行され
る、上記(8)記載のシステム。 (13)決定手段がユーザ位置を検出するコンピュータ
・システムに結合されたセンサを含む、上記(12)記
載のシステム。 (14)決定手段がユーザ位置が入力されるコンピュー
タ・システムにより提供されるユーザ・インタフェース
である、上記(12)記載のシステム。 (15)コンピュータ・メモリ内に常駐し、コンピュー
タ・システムにより合成される音声に見掛けの空間位置
を提供するコンピュータ・プログラム・プロダクトであ
って、テキスト及び位置データを含む音声ファイルをコ
ンピュータ読出し可能媒体上に記憶する手段と、音声フ
ァイル内のテキスト・データから音声波形を合成する手
段と、音声波形を左右のチャネルに対応するアナログ信
号に変換する手段と、アナログ信号がスピーカ・システ
ムに送信される時に、合成音声が見掛けの空間位置から
発生するように感じられるように、アナログ信号を音声
ファイル内の位置データに従い変更する手段と、を含む
プロダクト。 (16)音声ファイルが各々がそれぞれの位置データの
セットに関連される複数のテキスト・ストリングを含
み、アナログ信号がスピーカ・システムに送信される時
に、複数の合成音声の各々がそれぞれの空間位置から発
生するように感じられるように、合成、変換及び変更手
段が各テキスト・ストリングに対して使用される、上記
(15)記載のプロダクト。 (17)音声ファイルが方言データを含み、アナログ信
号がスピーカ・システムに送信される時に、合成音声が
選択された方言により発声されるようにするために、テ
キスト・データから合成された音声波形をアナログ信号
への変換以前に、方言データに従い変更する手段を含
む、上記(15)記載のプロダクト。 (18)音声ファイルが各々がそれぞれの位置データ及
び方言データのセットに関連される複数のテキスト・ス
トリングを含み、合成、変換及び変更手段が各テキスト
・ストリングに対して使用され、アナログ信号がスピー
カ・システムに送信される時に、複数の合成音声の各々
がそれぞれの方言によりそれぞれの空間位置から発生す
るように感じられるように、各テキスト・ストリングか
ら合成される各音声波形を、アナログ信号への変換以前
に、それぞれの方言データのセットに従い変更する手段
を含む、上記(15)記載のプロダクト。 (19)スピーカ・システムに対するユーザ位置を決定
する手段を含み、変更手段がユーザ位置に従い実行され
る、上記(15)記載のプロダクト。
【0043】
【発明の効果】以上説明したように、本発明によれば、
音声合成に空間情報が導入される。本発明は1つの改良
を提供するものであり、合成音声を使用する感動的なマ
ルチメディア・アプリケーションを生成する手段を提供
し、複数の音声の各々は3次元空間内の異なるロケーシ
ョンから発生するように感じられる。
音声合成に空間情報が導入される。本発明は1つの改良
を提供するものであり、合成音声を使用する感動的なマ
ルチメディア・アプリケーションを生成する手段を提供
し、複数の音声の各々は3次元空間内の異なるロケーシ
ョンから発生するように感じられる。
【図1】システム・ユニット、キーボード、マウス及び
スピーカ・システムを有するマルチメディア装置を含む
マルチメディア・パーソナル・コンピュータ・システム
を表す図である。
スピーカ・システムを有するマルチメディア装置を含む
マルチメディア・パーソナル・コンピュータ・システム
を表す図である。
【図2】マルチメディア・コンピュータ・システムの構
成要素のブロック図である。
成要素のブロック図である。
【図3】本発明によりメモリ内で実行される複数のコー
ド・モジュールを表す図である。
ド・モジュールを表す図である。
【図4】本発明により合成されるメッセージのセットを
表す図である。
表す図である。
【図5】音声を空間情報と合成する流れ図である。
【図6】複数の合成音声が発生するように感じられる空
間座標を提供する位置テーブルを示す図である。
間座標を提供する位置テーブルを示す図である。
【図7】合成音声に対する見掛けの位置を生成するコン
ピュータ・システムの前に座っているユーザを示す図で
ある。
ピュータ・システムの前に座っているユーザを示す図で
ある。
【図8】本発明によりスピーカを制御し、合成音声に空
間情報を提供する、コンピュータの主プロセスを支援す
るために使用されるオーディオ制御装置カードを示す図
である。
間情報を提供する、コンピュータの主プロセスを支援す
るために使用されるオーディオ制御装置カードを示す図
である。
33 デジタル信号プロセッサ 52 音声合成装置 54 音声ファイル 200 入出力バス 212 共用メモリ 214 制御論理 220 サンプル・メモリ 222 デジタル・アナログ変換器(DAC) 224 アナログ・デジタル変換器(ADC)
───────────────────────────────────────────────────── フロントページの続き (72)発明者 ピーター・ウイリアム・ファレット アメリカ合衆国78759、テキサス州オース ティン、シエラ・オークス 10929
Claims (14)
- 【請求項1】コンピュータ・システムにより合成される
音声に見掛けの空間位置を提供する方法であって、 テキスト・データ及び位置データを含む音声ファイルを
コンピュータ・メモリに記憶するステップと、 音声ファイル内のテキスト・データから音声波形を合成
するステップと、 音声波形を左右のチャネルに対応するアナログ信号に変
換するステップと、 アナログ信号がスピーカ・システムに送信される時に、
合成音声が見掛けの空間位置から発生するように感じら
れるように、アナログ信号を音声ファイル内の位置デー
タに従い変更するステップと、 を含む方法。 - 【請求項2】音声ファイルが各々がそれぞれの位置デー
タのセットに関連される複数のテキスト・ストリングを
含み、アナログ信号がスピーカ・システムに送信される
時に、複数の合成音声の各々がそれぞれの空間位置から
発生するように感じられるように、合成、変換及び変更
ステップが各テキスト・ストリングに対し繰返される、
請求項1記載の方法。 - 【請求項3】音声ファイルが方言データを含み、アナロ
グ信号がスピーカ・システムに送信される時に、合成音
声が選択された方言により発声されるようにするため
に、最初にテキスト・データから合成された音声波形を
アナログ信号への変換以前に、方言データに従い変更す
るステップを含む、請求項1記載の方法。 - 【請求項4】音声ファイルが各々がそれぞれの位置デー
タ及び方言データのセットに関連される複数のテキスト
・ストリングを含み、合成、変換及び変更ステップが各
テキスト・ストリングに対し繰返され、アナログ信号が
スピーカ・システムに送信される時に、複数の合成音声
の各々がそれぞれの方言によりそれぞれの空間位置から
発生するように感じられるように、各テキスト・ストリ
ングから合成される各音声波形を、アナログ信号への変
換以前に、それぞれの方言データのセットに従い変更す
るステップを含む、請求項1記載の方法。 - 【請求項5】スピーカ・システムに対するユーザ位置を
決定するステップを含み、変更ステップがユーザ位置に
従い実行される、請求項1記載の方法。 - 【請求項6】決定ステップがユーザ位置をコンピュータ
・システムに結合されるセンサにより検出して実施され
る、請求項5記載の方法。 - 【請求項7】決定ステップがコンピュータ・システムに
より提供されるユーザ・インタフェースへのユーザ入力
に従い実施される、請求項5記載の方法。 - 【請求項8】コンピュータ・システムにより合成される
音声に見掛けの空間位置を提供するシステムであって、 テキスト及び位置データを含む音声ファイルをコンピュ
ータ・メモリに記憶する手段と、 音声ファイル内のテキスト・データから音声波形を合成
する手段と、 音声波形を左右のチャネルに対応するアナログ信号に変
換する手段と、 アナログ信号がスピーカ・システムに送信される時に、
合成音声が見掛けの空間位置から発生するように感じら
れるように、アナログ信号を音声ファイル内の位置デー
タに従い変更する手段と、 を含むシステム。 - 【請求項9】音声ファイルが各々がそれぞれの位置デー
タのセットに関連される複数のテキスト・ストリングを
含み、アナログ信号がスピーカ・システムに送信される
時に、複数の合成音声の各々がそれぞれの空間位置から
発生するように感じられるように、合成、変換及び変更
手段が各テキスト・ストリングに対して使用される、請
求項8記載のシステム。 - 【請求項10】音声ファイルが方言データを含み、アナ
ログ信号がスピーカ・システムに送信される時に、合成
音声が選択された方言により発声されるようにするため
に、テキスト・データから合成された音声波形をアナロ
グ信号への変換以前に、方言データに従い変更する手段
を含む、請求項8記載のシステム。 - 【請求項11】音声ファイルが各々がそれぞれの位置デ
ータ及び方言データのセットに関連される複数のテキス
ト・ストリングを含み、合成、変換及び変更手段が各テ
キスト・ストリングに対して使用され、アナログ信号が
スピーカ・システムに送信される時に、複数の合成音声
の各々がそれぞれの方言によりそれぞれの空間位置から
発生するように感じられるように、各テキスト・ストリ
ングから合成される各音声波形を、アナログ信号への変
換以前に、それぞれの方言データのセットに従い変更す
る手段を含む、請求項8記載のシステム。 - 【請求項12】スピーカ・システムに対するユーザ位置
を決定する手段を含み、変更手段がユーザ位置に従い実
行される、請求項8記載のシステム。 - 【請求項13】決定手段がユーザ位置を検出するコンピ
ュータ・システムに結合されたセンサを含む、請求項1
2記載のシステム。 - 【請求項14】決定手段がユーザ位置が入力されるコン
ピュータ・システムにより提供されるユーザ・インタフ
ェースである、請求項12記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US073365 | 1993-06-04 | ||
US08/073,365 US5561736A (en) | 1993-06-04 | 1993-06-04 | Three dimensional speech synthesis |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0713581A true JPH0713581A (ja) | 1995-01-17 |
Family
ID=22113275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6104157A Pending JPH0713581A (ja) | 1993-06-04 | 1994-05-18 | 音声への空間情報提供方法及びシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US5561736A (ja) |
EP (1) | EP0627728B1 (ja) |
JP (1) | JPH0713581A (ja) |
DE (1) | DE69425848T2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013101637A (ja) * | 2007-04-28 | 2013-05-23 | Nokia Corp | テキスト専用アプリケーションのための娯楽オーディオ |
Families Citing this family (99)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7185054B1 (en) | 1993-10-01 | 2007-02-27 | Collaboration Properties, Inc. | Participant display and selection in video conference calls |
US6594688B2 (en) | 1993-10-01 | 2003-07-15 | Collaboration Properties, Inc. | Dedicated echo canceler for a workstation |
US5689641A (en) * | 1993-10-01 | 1997-11-18 | Vicor, Inc. | Multimedia collaboration system arrangement for routing compressed AV signal through a participant site without decompressing the AV signal |
US6769119B1 (en) | 1994-03-24 | 2004-07-27 | International Business Machines Corporation | System, method, and computer program product for scoping operating system semantics in a computing environment supporting multi-enclave processes |
US5970250A (en) * | 1994-03-24 | 1999-10-19 | International Business Machines Corporation | System, method, and computer program product for scoping operating system semanticis in a computing environment supporting multi-enclave processes |
US5831518A (en) * | 1995-06-16 | 1998-11-03 | Sony Corporation | Sound producing method and sound producing apparatus |
US5893132A (en) | 1995-12-14 | 1999-04-06 | Motorola, Inc. | Method and system for encoding a book for reading using an electronic book |
US5761681A (en) | 1995-12-14 | 1998-06-02 | Motorola, Inc. | Method of substituting names in an electronic book |
US5761682A (en) | 1995-12-14 | 1998-06-02 | Motorola, Inc. | Electronic book and method of capturing and storing a quote therein |
US5815407A (en) | 1995-12-14 | 1998-09-29 | Motorola Inc. | Method and device for inhibiting the operation of an electronic device during take-off and landing of an aircraft |
AU1416597A (en) * | 1995-12-14 | 1997-07-03 | Motorola, Inc. | Electronic book and method of storing at least one book in an internal machine-readable storage medium |
US6898620B1 (en) | 1996-06-07 | 2005-05-24 | Collaboration Properties, Inc. | Multiplexing video and control signals onto UTP |
US5864790A (en) * | 1997-03-26 | 1999-01-26 | Intel Corporation | Method for enhancing 3-D localization of speech |
US6446040B1 (en) * | 1998-06-17 | 2002-09-03 | Yahoo! Inc. | Intelligent text-to-speech synthesis |
US6129689A (en) * | 1998-06-26 | 2000-10-10 | Becker Orthopedic Appliance Co., Inc. | Quick connect apparatus and method for orthotic and prosthetics devices |
US6324511B1 (en) * | 1998-10-01 | 2001-11-27 | Mindmaker, Inc. | Method of and apparatus for multi-modal information presentation to computer users with dyslexia, reading disabilities or visual impairment |
FI108504B (fi) * | 1999-04-30 | 2002-01-31 | Nokia Corp | Tietoliikennejõrjestelmõn puheryhmien hallinta |
JP2001075989A (ja) * | 1999-09-06 | 2001-03-23 | Sharp Corp | 情報提示装置および方法、ならびに情報提示プログラムを記録したコンピュータで読取可能な記録媒体 |
US6598021B1 (en) * | 2000-07-13 | 2003-07-22 | Craig R. Shambaugh | Method of modifying speech to provide a user selectable dialect |
DE10063503A1 (de) * | 2000-12-20 | 2002-07-04 | Bayerische Motoren Werke Ag | Vorrichtung und Verfahren zur differenzierten Sprachausgabe |
GB2374505B (en) * | 2001-01-29 | 2004-10-20 | Hewlett Packard Co | Audio announcements with range indications |
US9165478B2 (en) | 2003-04-18 | 2015-10-20 | International Business Machines Corporation | System and method to enable blind people to have access to information printed on a physical document |
US7275032B2 (en) | 2003-04-25 | 2007-09-25 | Bvoice Corporation | Telephone call handling center where operators utilize synthesized voices generated or modified to exhibit or omit prescribed speech characteristics |
US20050144003A1 (en) * | 2003-12-08 | 2005-06-30 | Nokia Corporation | Multi-lingual speech synthesis |
US7587310B2 (en) * | 2004-08-30 | 2009-09-08 | Lsi Corporation | Sound processor architecture using single port memory unit |
WO2006126843A2 (en) * | 2005-05-26 | 2006-11-30 | Lg Electronics Inc. | Method and apparatus for decoding audio signal |
JP4988717B2 (ja) | 2005-05-26 | 2012-08-01 | エルジー エレクトロニクス インコーポレイティド | オーディオ信号のデコーディング方法及び装置 |
US20060293890A1 (en) * | 2005-06-28 | 2006-12-28 | Avaya Technology Corp. | Speech recognition assisted autocompletion of composite characters |
US20070027691A1 (en) * | 2005-08-01 | 2007-02-01 | Brenner David S | Spatialized audio enhanced text communication and methods |
US8249873B2 (en) * | 2005-08-12 | 2012-08-21 | Avaya Inc. | Tonal correction of speech |
US20070050188A1 (en) * | 2005-08-26 | 2007-03-01 | Avaya Technology Corp. | Tone contour transformation of speech |
US7378540B2 (en) * | 2005-10-21 | 2008-05-27 | Catalytic Distillation Technologies | Process for producing organic carbonates |
CN101371298A (zh) * | 2006-01-19 | 2009-02-18 | Lg电子株式会社 | 用于解码信号的方法和装置 |
TWI469133B (zh) * | 2006-01-19 | 2015-01-11 | Lg Electronics Inc | 媒體訊號處理方法及裝置 |
KR20080110920A (ko) * | 2006-02-07 | 2008-12-19 | 엘지전자 주식회사 | 부호화/복호화 장치 및 방법 |
US8127235B2 (en) | 2007-11-30 | 2012-02-28 | International Business Machines Corporation | Automatic increasing of capacity of a virtual space in a virtual world |
US20090164919A1 (en) | 2007-12-24 | 2009-06-25 | Cary Lee Bates | Generating data for managing encounters in a virtual world environment |
JP5159375B2 (ja) | 2008-03-07 | 2013-03-06 | インターナショナル・ビジネス・マシーンズ・コーポレーション | メタバースにおけるオブジェクトの真贋判断システム、方法及びそのコンピュータ・プログラム |
US9205328B2 (en) | 2010-02-18 | 2015-12-08 | Activision Publishing, Inc. | Videogame system and method that enables characters to earn virtual fans by completing secondary objectives |
US9682324B2 (en) | 2010-05-12 | 2017-06-20 | Activision Publishing, Inc. | System and method for enabling players to participate in asynchronous, competitive challenges |
US10137376B2 (en) | 2012-12-31 | 2018-11-27 | Activision Publishing, Inc. | System and method for creating and streaming augmented game sessions |
KR20140120560A (ko) * | 2013-04-03 | 2014-10-14 | 삼성전자주식회사 | 통역 장치 제어 방법, 통역 서버의 제어 방법, 통역 시스템의 제어 방법 및 사용자 단말 |
US10286326B2 (en) | 2014-07-03 | 2019-05-14 | Activision Publishing, Inc. | Soft reservation system and method for multiplayer video games |
US11351466B2 (en) | 2014-12-05 | 2022-06-07 | Activision Publishing, Ing. | System and method for customizing a replay of one or more game events in a video game |
US10118099B2 (en) | 2014-12-16 | 2018-11-06 | Activision Publishing, Inc. | System and method for transparently styling non-player characters in a multiplayer video game |
US10315113B2 (en) | 2015-05-14 | 2019-06-11 | Activision Publishing, Inc. | System and method for simulating gameplay of nonplayer characters distributed across networked end user devices |
US10286314B2 (en) | 2015-05-14 | 2019-05-14 | Activision Publishing, Inc. | System and method for providing continuous gameplay in a multiplayer video game through an unbounded gameplay session |
US10486068B2 (en) | 2015-05-14 | 2019-11-26 | Activision Publishing, Inc. | System and method for providing dynamically variable maps in a video game |
US10213682B2 (en) | 2015-06-15 | 2019-02-26 | Activision Publishing, Inc. | System and method for uniquely identifying physical trading cards and incorporating trading card game items in a video game |
US10471348B2 (en) | 2015-07-24 | 2019-11-12 | Activision Publishing, Inc. | System and method for creating and sharing customized video game weapon configurations in multiplayer video games via one or more social networks |
US10099140B2 (en) | 2015-10-08 | 2018-10-16 | Activision Publishing, Inc. | System and method for generating personalized messaging campaigns for video game players |
US11185784B2 (en) | 2015-10-08 | 2021-11-30 | Activision Publishing, Inc. | System and method for generating personalized messaging campaigns for video game players |
US10245509B2 (en) | 2015-10-21 | 2019-04-02 | Activision Publishing, Inc. | System and method of inferring user interest in different aspects of video game streams |
US10232272B2 (en) | 2015-10-21 | 2019-03-19 | Activision Publishing, Inc. | System and method for replaying video game streams |
US10376781B2 (en) | 2015-10-21 | 2019-08-13 | Activision Publishing, Inc. | System and method of generating and distributing video game streams |
US10694352B2 (en) | 2015-10-28 | 2020-06-23 | Activision Publishing, Inc. | System and method of using physical objects to control software access |
US10226703B2 (en) | 2016-04-01 | 2019-03-12 | Activision Publishing, Inc. | System and method of generating and providing interactive annotation items based on triggering events in a video game |
US10226701B2 (en) | 2016-04-29 | 2019-03-12 | Activision Publishing, Inc. | System and method for identifying spawn locations in a video game |
US10179289B2 (en) | 2016-06-21 | 2019-01-15 | Activision Publishing, Inc. | System and method for reading graphically-encoded identifiers from physical trading cards through image-based template matching |
US10573065B2 (en) | 2016-07-29 | 2020-02-25 | Activision Publishing, Inc. | Systems and methods for automating the personalization of blendshape rigs based on performance capture data |
US10709981B2 (en) | 2016-11-17 | 2020-07-14 | Activision Publishing, Inc. | Systems and methods for the real-time generation of in-game, locally accessible barrier-aware heatmaps |
US10463964B2 (en) | 2016-11-17 | 2019-11-05 | Activision Publishing, Inc. | Systems and methods for the real-time generation of in-game, locally accessible heatmaps |
US10500498B2 (en) | 2016-11-29 | 2019-12-10 | Activision Publishing, Inc. | System and method for optimizing virtual games |
US10055880B2 (en) | 2016-12-06 | 2018-08-21 | Activision Publishing, Inc. | Methods and systems to modify a two dimensional facial image to increase dimensional depth and generate a facial image that appears three dimensional |
US10147415B2 (en) | 2017-02-02 | 2018-12-04 | Microsoft Technology Licensing, Llc | Artificially generated speech for a communication session |
US10861079B2 (en) | 2017-02-23 | 2020-12-08 | Activision Publishing, Inc. | Flexible online pre-ordering system for media |
US10818060B2 (en) | 2017-09-05 | 2020-10-27 | Activision Publishing, Inc. | Systems and methods for guiding motion capture actors using a motion reference system |
US11040286B2 (en) | 2017-09-27 | 2021-06-22 | Activision Publishing, Inc. | Methods and systems for improved content generation in multiplayer gaming environments |
US10561945B2 (en) | 2017-09-27 | 2020-02-18 | Activision Publishing, Inc. | Methods and systems for incentivizing team cooperation in multiplayer gaming environments |
US10974150B2 (en) | 2017-09-27 | 2021-04-13 | Activision Publishing, Inc. | Methods and systems for improved content customization in multiplayer gaming environments |
US10537809B2 (en) | 2017-12-06 | 2020-01-21 | Activision Publishing, Inc. | System and method for validating video gaming data |
US10463971B2 (en) | 2017-12-06 | 2019-11-05 | Activision Publishing, Inc. | System and method for validating video gaming data |
US10981051B2 (en) | 2017-12-19 | 2021-04-20 | Activision Publishing, Inc. | Synchronized, fully programmable game controllers |
US11278813B2 (en) | 2017-12-22 | 2022-03-22 | Activision Publishing, Inc. | Systems and methods for enabling audience participation in bonus game play sessions |
US10765948B2 (en) | 2017-12-22 | 2020-09-08 | Activision Publishing, Inc. | Video game content aggregation, normalization, and publication systems and methods |
US10596471B2 (en) | 2017-12-22 | 2020-03-24 | Activision Publishing, Inc. | Systems and methods for enabling audience participation in multi-player video game play sessions |
US11195511B2 (en) * | 2018-07-19 | 2021-12-07 | Dolby Laboratories Licensing Corporation | Method and system for creating object-based audio content |
US11263670B2 (en) | 2018-11-19 | 2022-03-01 | Activision Publishing, Inc. | Systems and methods for dynamically modifying video game content based on non-video gaming content being concurrently experienced by a user |
US11192028B2 (en) | 2018-11-19 | 2021-12-07 | Activision Publishing, Inc. | Systems and methods for the real-time customization of video game content based on player data |
US11115712B2 (en) | 2018-12-15 | 2021-09-07 | Activision Publishing, Inc. | Systems and methods for indexing, searching for, and retrieving digital media |
US11679330B2 (en) | 2018-12-18 | 2023-06-20 | Activision Publishing, Inc. | Systems and methods for generating improved non-player characters |
US11305191B2 (en) | 2018-12-20 | 2022-04-19 | Activision Publishing, Inc. | Systems and methods for controlling camera perspectives, movements, and displays of video game gameplay |
US11344808B2 (en) | 2019-06-28 | 2022-05-31 | Activision Publishing, Inc. | Systems and methods for dynamically generating and modulating music based on gaming events, player profiles and/or player reactions |
US11097193B2 (en) | 2019-09-11 | 2021-08-24 | Activision Publishing, Inc. | Methods and systems for increasing player engagement in multiplayer gaming environments |
US11423605B2 (en) | 2019-11-01 | 2022-08-23 | Activision Publishing, Inc. | Systems and methods for remastering a game space while maintaining the underlying game simulation |
US11712627B2 (en) | 2019-11-08 | 2023-08-01 | Activision Publishing, Inc. | System and method for providing conditional access to virtual gaming items |
US11537209B2 (en) | 2019-12-17 | 2022-12-27 | Activision Publishing, Inc. | Systems and methods for guiding actors using a motion capture reference system |
US11420122B2 (en) | 2019-12-23 | 2022-08-23 | Activision Publishing, Inc. | Systems and methods for controlling camera perspectives, movements, and displays of video game gameplay |
US11563774B2 (en) | 2019-12-27 | 2023-01-24 | Activision Publishing, Inc. | Systems and methods for tracking and identifying phishing website authors |
US11351459B2 (en) | 2020-08-18 | 2022-06-07 | Activision Publishing, Inc. | Multiplayer video games with virtual characters having dynamically generated attribute profiles unconstrained by predefined discrete values |
US11524234B2 (en) | 2020-08-18 | 2022-12-13 | Activision Publishing, Inc. | Multiplayer video games with virtual characters having dynamically modified fields of view |
US11833423B2 (en) | 2020-09-29 | 2023-12-05 | Activision Publishing, Inc. | Methods and systems for generating level of detail visual assets in a video game |
US11717753B2 (en) | 2020-09-29 | 2023-08-08 | Activision Publishing, Inc. | Methods and systems for generating modified level of detail visual assets in a video game |
US11724188B2 (en) | 2020-09-29 | 2023-08-15 | Activision Publishing, Inc. | Methods and systems for selecting a level of detail visual asset during the execution of a video game |
US11439904B2 (en) | 2020-11-11 | 2022-09-13 | Activision Publishing, Inc. | Systems and methods for imparting dynamic and realistic movement to player-controlled avatars in video games |
US11853439B2 (en) | 2020-12-30 | 2023-12-26 | Activision Publishing, Inc. | Distributed data storage system providing enhanced security |
US11794107B2 (en) | 2020-12-30 | 2023-10-24 | Activision Publishing, Inc. | Systems and methods for improved collision detection in video games |
CN112967728B (zh) * | 2021-05-19 | 2021-07-30 | 北京世纪好未来教育科技有限公司 | 结合声传递函数的端到端语音合成方法及装置 |
CN113903325B (zh) * | 2021-05-31 | 2022-10-18 | 北京荣耀终端有限公司 | 文本转3d音频的方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS55163598A (en) * | 1979-06-05 | 1980-12-19 | Matsushita Electric Ind Co Ltd | Voice generator |
JPS63157226A (ja) * | 1986-12-20 | 1988-06-30 | Fujitsu Ltd | 会話型文章読み上げ装置 |
JPH02110600A (ja) * | 1988-10-20 | 1990-04-23 | Matsushita Electric Ind Co Ltd | 音声規則合成装置 |
JPH0397400A (ja) * | 1989-09-11 | 1991-04-23 | Matsushita Electric Ind Co Ltd | 音場制御装置 |
JPH04117100A (ja) * | 1990-05-26 | 1992-04-17 | Pioneer Electron Corp | 音場コントロール装置 |
JPH04225700A (ja) * | 1990-12-27 | 1992-08-14 | Matsushita Electric Ind Co Ltd | オーディオ再生装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2801227C3 (de) * | 1978-01-12 | 1982-06-24 | Hans Deutsch Akustikforschung und Lautsprecherentwicklung GmbH, 5020 Salzburg | Lautsprecherbox mit Hornresonator |
US4406626A (en) * | 1979-07-31 | 1983-09-27 | Anderson Weston A | Electronic teaching aid |
DE3104564C2 (de) * | 1981-02-10 | 1987-11-12 | Neumann Elektronik GmbH, 4330 Mülheim | Automatischer Anrufbeantworter |
DE3205886C2 (de) * | 1982-02-18 | 1986-09-18 | Siemens AG, 1000 Berlin und 8000 München | Verfahren für eine Fernsprechstation mit aussendbarem Meldetext |
US4831654A (en) * | 1985-09-09 | 1989-05-16 | Wang Laboratories, Inc. | Apparatus for making and editing dictionary entries in a text to speech conversion system |
US4984177A (en) * | 1988-02-05 | 1991-01-08 | Advanced Products And Technologies, Inc. | Voice language translator |
US5208860A (en) * | 1988-09-02 | 1993-05-04 | Qsound Ltd. | Sound imaging method and apparatus |
DE69028072T2 (de) * | 1989-11-06 | 1997-01-09 | Canon Kk | Verfahren und Einrichtung zur Sprachsynthese |
US5181247A (en) * | 1990-07-23 | 1993-01-19 | Bose Corporation | Sound image enhancing |
JPH07105999B2 (ja) * | 1990-10-11 | 1995-11-13 | ヤマハ株式会社 | 音像定位装置 |
US5274740A (en) * | 1991-01-08 | 1993-12-28 | Dolby Laboratories Licensing Corporation | Decoder for variable number of channel presentation of multidimensional sound fields |
JP2898134B2 (ja) * | 1991-10-25 | 1999-05-31 | 株式会社河合楽器製作所 | ステレオ方式 |
US5255326A (en) * | 1992-05-18 | 1993-10-19 | Alden Stevenson | Interactive audio control system |
US5337363A (en) * | 1992-11-02 | 1994-08-09 | The 3Do Company | Method for generating three dimensional sound |
-
1993
- 1993-06-04 US US08/073,365 patent/US5561736A/en not_active Expired - Lifetime
-
1994
- 1994-05-18 JP JP6104157A patent/JPH0713581A/ja active Pending
- 1994-05-24 EP EP94107944A patent/EP0627728B1/en not_active Expired - Lifetime
- 1994-05-24 DE DE69425848T patent/DE69425848T2/de not_active Expired - Lifetime
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS55163598A (en) * | 1979-06-05 | 1980-12-19 | Matsushita Electric Ind Co Ltd | Voice generator |
JPS63157226A (ja) * | 1986-12-20 | 1988-06-30 | Fujitsu Ltd | 会話型文章読み上げ装置 |
JPH02110600A (ja) * | 1988-10-20 | 1990-04-23 | Matsushita Electric Ind Co Ltd | 音声規則合成装置 |
JPH0397400A (ja) * | 1989-09-11 | 1991-04-23 | Matsushita Electric Ind Co Ltd | 音場制御装置 |
JPH04117100A (ja) * | 1990-05-26 | 1992-04-17 | Pioneer Electron Corp | 音場コントロール装置 |
JPH04225700A (ja) * | 1990-12-27 | 1992-08-14 | Matsushita Electric Ind Co Ltd | オーディオ再生装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013101637A (ja) * | 2007-04-28 | 2013-05-23 | Nokia Corp | テキスト専用アプリケーションのための娯楽オーディオ |
US8694320B2 (en) | 2007-04-28 | 2014-04-08 | Nokia Corporation | Audio with sound effect generation for text-only applications |
Also Published As
Publication number | Publication date |
---|---|
DE69425848T2 (de) | 2001-03-22 |
EP0627728A1 (en) | 1994-12-07 |
EP0627728B1 (en) | 2000-09-13 |
US5561736A (en) | 1996-10-01 |
DE69425848D1 (de) | 2000-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5561736A (en) | Three dimensional speech synthesis | |
US5774854A (en) | Text to speech system | |
US5325462A (en) | System and method for speech synthesis employing improved formant composition | |
CN1128435C (zh) | 用于无读本的和无显示装置的语音识别注册方法 | |
US6826530B1 (en) | Speech synthesis for tasks with word and prosody dictionaries | |
JPH11109991A (ja) | マンマシンインターフェースシステム | |
KR100888267B1 (ko) | 언어의 문자이미지와 음성을 매칭 시키는 언어 학습방법 및학습장치 | |
JP2001517326A (ja) | 視覚的合成における韻律生成のための装置および方法 | |
Fisher et al. | Seeing, hearing, and touching: Putting it all together | |
CN113851140A (zh) | 语音转换相关方法、系统及装置 | |
AU769036B2 (en) | Device and method for digital voice processing | |
KR20030079497A (ko) | 대화형 언어학습 시스템 및 서비스방법 | |
JP2005215888A (ja) | テキスト文の表示装置 | |
JPH0549998B2 (ja) | ||
Granström et al. | Speech and gestures for talking faces in conversational dialogue systems | |
JP6498346B1 (ja) | 外国語学習支援システムおよび外国語学習支援方法ならびにプログラム | |
JPH06266382A (ja) | 音声制御方式 | |
US20230245644A1 (en) | End-to-end modular speech synthesis systems and methods | |
JP2023074250A (ja) | 音声信号変換装置およびプログラム | |
JP2006162760A (ja) | 語学学習装置 | |
Tatham et al. | Spruce speech synthesis for dialogue systems | |
CN112786010A (zh) | 语音合成系统、方法及非暂态计算机可读取媒体 | |
KR100363876B1 (ko) | 음성의 특징 벡터를 이용한 문자 음성 변환 장치 및 그 방법 | |
JPH08328575A (ja) | 音声合成装置 | |
Khudoyberdiev | The Algorithms of Tajik Speech Synthesis by Syllable |