JPH05233565A - 音声合成システム - Google Patents

音声合成システム

Info

Publication number
JPH05233565A
JPH05233565A JP4299468A JP29946892A JPH05233565A JP H05233565 A JPH05233565 A JP H05233565A JP 4299468 A JP4299468 A JP 4299468A JP 29946892 A JP29946892 A JP 29946892A JP H05233565 A JPH05233565 A JP H05233565A
Authority
JP
Japan
Prior art keywords
voice
waveform
unit
client
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4299468A
Other languages
English (en)
Other versions
JP3446764B2 (ja
Inventor
Tatsuro Matsumoto
達郎 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP29946892A priority Critical patent/JP3446764B2/ja
Publication of JPH05233565A publication Critical patent/JPH05233565A/ja
Application granted granted Critical
Publication of JP3446764B2 publication Critical patent/JP3446764B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】本発明の目的は、音声合成サーバの負荷及びL
ANのトラヒックを減少させることである。 【構成】クライアント1から音声合成すべきデータを受
信すると、音声合成サーバ2のデータ制御部270は、
受信したデータがテキストデータであれば、そのデータ
を表音記号生成部22へ出力して表音記号の生成を行わ
せ、受信したデータが表音記号であれば、そのデータを
音響パラメータ生成部23へ出力して音響パラメータの
生成を行わせ、受信したデータが音響パラメータであれ
ば、そのデータを波形生成部24へ出力して音声波形の
生成を行わせる。そして、データ送信部260から、生
成した音声波形をクライアント1に送信する。クライア
ント1は、音声合成サーバ2からの音声波形を受信し、
受信した音声波形を音声出力部15から音声として出力
する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ローカルエリアネット
ワーク(LAN)に、複数のクライアントと少なくとも
1つの音声合成サーバとが接続された音声合成システム
に関する。
【0002】
【従来の技術】LAN上にクライアントと音声合成サー
バを設置し、クライアントの要求に従ってテキストの合
成音声を生成し、クライアントに転送するシステムが丸
川、砂川によって提案されている(丸川、砂川:第15回
UNIXシンポジウム・プロシーディングズ 96 〜104
頁)。このようなシステムの基本構成は図27に示すよ
うに、クライアント1に、テキスト入力部11、テキス
ト送信部12、波形受信部13、音声出力部15を設
け、音声合成サーバ2に、クライアント1側のテキスト
送信部12から送信されるテキストデータを受信するテ
キスト受信部21、表音記号生成部22、音響パラメー
タ生成部23、波形生成部24、波形生成部24で生成
された音声合成波形をクライアント1に送信する波形送
信部26とを設けた構成である。
【0003】そして、クライアント1側のテキスト入力
部11からテキストデータが入力されると、テキスト送
信部12が、当該テキストデータを音声合成サーバ2に
送信する。音声合成サーバ2は、テキスト送信部12か
ら送信されたテキストデータをテキスト受信部21で受
信し、表音記号生成部22が、当該テキストデータがど
のように発音されるのかを示す表音記号列に変換する。
さらに、音響パラメータ生成部23は、表音記号列を音
響パラメータ時系列に変換し、波形生成部24がその音
響パラメータ時系列に基づいて音声波形を生成する。そ
して、波形送信部26は、生成された音声波形をクライ
アント1に送信する。
【0004】クライアント1側では、音声波形を波形受
信部13で受信し、音声出力部15が音声波形を音声と
して再生する。
【0005】
【発明が解決しようとする課題】上述した従来の音声合
成システムでは、クライアント1と音声合成サーバ2と
の間で音声データ(合成音声波形)を直接転送するた
め、LANのトラフィックが増大するという問題点があ
った。
【0006】また、従来の音声合成システムでは、サー
バ/クライアントの持つ資源(機能)に関わらず、サー
バ/クライアント間の通信は固定された種類のデータで
行われている為に、クライアント1の資源が有効に利用
されないという問題点があった。すなわち、図27のシ
ステムでクライアント1が表音記号の生成機能を有する
場合でも、クライアント1から音声合成サーバ2に送信
されるデータは、常にテキストデータであり、クライア
ント1の機能を有効に利用していなっかった。
【0007】ところで、クライアント1の中にはD/A
変換機能を持たないものもあり、このようなクライアン
ト1のユーザは、音声合成サーバ2から送られて来るデ
ィジタルデータを再生できないので、従来は、D/A変
換機能を持ったクライアントしか音声データを受け取る
ことができないという問題点があった。
【0008】また、上述したローカルエリアネットワー
ク上に複数の単語情報を記憶した辞書検索サーバを設
け、クライアント1のユーザから特定の単語の検索要求
があったとき、辞書検索サーバが該当する単語の意味、
発音記号を検索し、それらの情報をクライアントに転送
して表示する辞書検索システムが知られている。単語を
検索する場合、その単語の意味と同時に音声による発音
が分かると便利であるが、従来そのようなシステムは存
在しなかった。
【0009】また、ユーザが入力したスケジュールデー
タを記憶しておいて、スケジュール日時となったとき、
メッセージ等でユーザに知らせるスケージュル管理シス
テムが知られている。このようなシステムで、スケジュ
ール内容を音声で知らせることができればさらに便利で
あるが、従来そのようなシステムは存在しなかった。
【0010】本発明の第1の目的は、LANに送出され
るデータ量を減らし、LANのトラフィックを減少させ
ることである。本発明の第2の目的は、音声合成サーバ
及びクライアンの持つ機能に応じて両者の間を伝送され
るデータの種類を変化させ、音声合成サーバの負荷及び
LANのトラヒックを減少させることである。
【0011】本発明の第3の目的は、D/A変換機能を
持たないクライアントのユーザが、合成音声を聞くこと
のできる音声合成システムを提供することである。本発
明の第4の目的は、単語の発音あるいはスケジュールの
内容を音声で知らせることのできるシステムを提供する
ことである。
【0012】
【課題を解決するための手段】図1の原理図1に対応す
る発明は、ローカルエリアネットワーク(LAN)上
に、音声化すべきテキストデータを入力するテキスト入
力部11と、合成音声を出力する音声出力部15とを有
する複数のクライアント1と、合成音声波形を生成する
波形生成部24を有する少なくとも1つの音声合成サー
バ2とを備えた音声合成システムを前提にする。
【0013】図1の原理図1において、音声合成サーバ
2の波形生成部24は、クライアント1から送信される
データに基づいて音声波形を生成する。波形符号化部2
5は、波形生成部24で生成される音声波形を符号化す
る。
【0014】クライアント2の波形復号化部14は、音
声合成サーバ2から送信される符号化された音声波形を
復号する。音声出力部15は、復号された音声波形を音
声として出力する。
【0015】図2の原理図2において、クライアント1
の表音記号生成部16は、テキスト入力部11から入力
されるテキストデータに基づいて表音記号(表音記号
列)を生成する。ここで、表音記号とは、入力されたテ
キストデータの発音、アクセント、イントネーションな
どを示す記号である。
【0016】音響パラメータ生成部17は、上記表音記
号に基づいて音響パラメータ(音響パラメータ時系列)
を生成する。データ送信部110は、クライアント1が
テキスト入力部11と表音記号生成部16とを有する場
合には、表音記号を音声合成サーバ2に送信し、クライ
アント1がテキスト入力部11と、表音記号生成部16
と、音響パラメータ生成部17とを有する場合には、音
響パラメータを音声合成サーバ2に送信する。
【0017】データ受信部120は、音声合成サーバ2
から出力される音声波形を受信する。音声合成サーバ2
のデータ受信部210は、クライアント1から送信され
るデータを受信する。
【0018】表音記号生成部22は、データ受信部21
0で受信されたテキストデータに基づいて表音記号を生
成する。音響パラメータ生成部23は、表音記号に基づ
いて音響パラメータを生成する。
【0019】波形生成部24は、音響パラメータに基づ
いて合成音声波形を生成する。データ制御部270は、
データ受信部210においてテキストデータを受信した
場合には、受信したテキストデータをデータ受信部21
0から表音記号生成部22へ出力させ、表音記号を受信
した場合には、受信した表音記号を音響パラメータ生成
部23へ出力させ、音響パラメータを受信した場合に
は、受信した音響パラメータを波形生成部24へ出力さ
せる選択制御を行う。
【0020】図3の原理図3において、クライアント1
側の波形生成部18は、データ受信部120で受信する
音響パラメータに基づいて合成音声波形を生成する。ク
ライアント側のデータ制御部130は、データ受信部1
20で音響パラメータを受信した場合には、その音響パ
ラメータを波形生成部18へ出力させ、合成音声波形を
受信した場合には、その合成音声波形を音声出力部15
へ出力させる選択制御を行う。
【0021】さらに、クライアント側のデータ制御部1
30は、音声合成サーバ2からの指示に従って、データ
送信部110から音声合成サーバ2へテキストデータを
送信するか、表音記号を送信するか、音響パラメータを
送信するかを選択制御する。
【0022】音声合成サーバ2側のデータ制御部270
は、データ受信部210においてテキストデータを受信
した場合には、受信したテキストデータを表音記号生成
部22へ出力させ、表音記号を受信した場合には、受信
した表音記号を音響パラメータ生成部23へ出力させ、
音響パラメータを受信した場合には、受信した音響パラ
メータを波形生成部24へ出力させる選択制御を行う。
【0023】また、データ制御部270は、音声合成要
求を行ったクライアント1が波形生成部18を有する場
合には、自己の負荷状況、LANの負荷状況等に応じ
て、データ送信部260からクライアント1へ音声波形
を送信させるか、音響パラメータを送信させるかを選択
制御する。
【0024】図4の原理図4において、音響パラメータ
生成サーバ2a、2bは、それぞれ音質又は言語毎に専
用化されており、特定の音質又は言語の音響パラメータ
を生成する。
【0025】クライアント1は、音響パラメータ生成サ
ーバ2a、2bに対して特定の音質又は言語の音響パラ
メータの生成を指示する。波形サーバ2cは、上記音響
パラメータ生成サーバ2a、2bで生成された音響パラ
メータに基づいて合成音声波形を生成する。
【0026】図5において、クライアント4は、単語入
力部41と単語送信部42と辞書情報/波形受信部43
と音声出力部15と辞書情報表示部45とを有してい
る。単語入力部41は、検索すべき単語が入力され、単
語送信部42は、その入力された単語を辞書検索サーバ
5に送信する。
【0027】辞書情報/波形受信部43は、辞書情報及
び単語の音声波形を受信する。辞書情報表示部45は、
辞書情報/波形受信部43で受信した単語の辞書情報を
表示し、音声出力部15は、受信した音声波形を音声と
して出力する。
【0028】辞書検索サーバ5は、単語辞書53と辞書
検索部52と表音記号送信部55とデータ送受信部57
とを有している。辞書検索部52は、クライアント4か
ら検索要求のあった単語の辞書情報を単語辞書53から
検索する。
【0029】表音記号送信部55は、辞書検索部52に
より検索された辞書情報の中の表音記号を音声合成サー
バ2に送信する。データ送受信部57は、音声合成サー
バ2から送信される音声波形を受信すると共に、受信し
た音声波形と辞書検索部52により検索された辞書情報
とをクライアント4に送信する。
【0030】音声合成サーバ2は、表音記号受信部22
0と、音響パラメータ生成部23と、波形生成部24
と、波形送信部26とを有する。表音記号受信部220
は、辞書検索サーバ5から送信される表音記号を受信す
る。波形生成部24は、受信した表音記号に対応する音
声波形を生成し、波形送信部26は、生成された音声波
形を辞書検索サーバ5に送信する。
【0031】図6において、クライアント6は、スケジ
ュール/波形受信部63と音声出力部15とスケジュー
ル表示部62とを有している。スケジュール/波形受信
部63は、スケジュール情報及び音声波形を受信する。
スケジュール表示部62は、スケジュール/波形受信部
63で受信したスケジュール情報を表示し、音声出力部
15は、受信した音声波形を音声として出力する。
【0032】スケジュール管理サーバ7は、スケジュー
ルデータベース73とスケジュール検索部72とスケジ
ュール送信部74とを有する。スケジュールデータベー
ス73は、複数のユーザのスケジュール情報を記憶す
る。
【0033】スケジュール検索部72は、所定の条件の
スケジュール情報をスケジュールデータベースから検索
する。スケジュール送信部74は、検索されたスケジュ
ール情報を音声合成サーバ2に送信する。
【0034】音声合成サーバ2は、テキスト受信部21
と、表音記号生成部22と、音響パラメータ生成部23
と、波形生成部24と、波形送信部26とを有してい
る。テキスト受信部21は、スケジュール管理サーバ7
から送信されるスケジュール情報を受信する。波形生成
部24は、受信されたスケジュール情報に対応する音声
波形を生成し、波形送信部26は、その音声波形をスケ
ジュール管理サーバ7又はクライアント6に送信する。
【0035】
【作用】図1の原理図1に対応する発明では、音声合成
サーバ2の波形生成部24がクライアント1から送信さ
れたデータに対応する音声波形を生成し、その音声波形
を符号化してクライアント1に送信する。
【0036】クライアント1側では、受信した音声波形
を復号化部14で元の音声波形に復号し、音声出力部1
5から音声として出力する。この場合、音声合成サーバ
2からLANには圧縮されたデータ(符号化された音声
波形)が送出されるので、LANを伝送されるデータ量
が少なくなり、LANのトラヒックが減少する。
【0037】次に、図2の原理図2に対応する発明で
は、クライアント1は、音声出力部15とデータ送信部
110とデータ受信部120の他に、(i) テキスト入力
部11のみを有する場合と、(ii)テキスト入力部11と
表音記号生成部16とを有する場合と、(iii) テキスト
入力部11と表音記号生成部16と音響パラメータ生成
部17とを有する場合がある。
【0038】クライアント1が(i) の構成を有する場合
には、データ送信部110から音声合成サーバ2にテキ
ストデータを送信し、(ii)の構成を有する場合には、デ
ータ送信部110から音声合成サーバ2に表音記号を送
信し、(iii) の構成を有する場合には、データ送信部1
10から音声合成サーバ2に音響パラメータを送信す
る。
【0039】音声合成サーバ2側では、クライアント1
からテキストデータを受信した場合には、受信したテキ
ストデータを表音記号生成部22へ出力して表音記号の
生成を行い、表音記号を受信した場合には、受信した表
音記号を音響パラメータ生成部23へ出力して音響パラ
メータの生成を行い、音響パラメータを受信した場合に
は、受信した音響パラメータを波形生成部24へ出力し
て合成音声波形の生成を行う。
【0040】この場合、クライアント1は、自己の有す
る機能に応じたデータを音声合成サーバ2に送信するの
で、クライアント1が表音記号生成機能、あるいは音響
パラメータ生成機能を有する場合には、音声合成サーバ
2の表音記号の生成処理、あるいは音響パラメータの生
成処理等が不要となり、音声合成サーバ2の負荷を軽減
することができる。
【0041】次に、図3の原理図3に対応する発明で
は、クライアント1は、原理図2の発明の構成に加えデ
ータ制御部130を有する。この場合、クライアント1
は、(i) テキスト入力部11のみを有する場合と、(ii)
テキスト入力部11と表音記号生成部16とを有する場
合と、(iii) テキスト入力部11と表音記号生成部16
と音響パラメータ生成部17とを有する場合とがある。
【0042】音声合成サーバ2のデータ制御部270
は、クライアント1から音声データの送信要求があった
とき、音声合成サーバ2の負荷状況、LANの負荷状況
及び要求のあったクライアント1の有する機能に基づい
て、クライアント1から音声合成サーバ2に送信すべき
データの種類を決定し、決定したデータの種類をクライ
アント1のデータ制御部130に指示する。あるいは、
音声合成サーバ2のデータ制御部270からクライアン
ト1のデータ制御部130に、音声合成サーバ2の負荷
状況、LANの負荷状況に関する情報を通知し、クライ
アント1のデータ制御部130自身が送信すべきデータ
の種類を決めることもできる。
【0043】例えば、音声合成サーバ2の負荷が大きい
場合には、音声合成サーバ2のデータ制御部270は、
クライアント1のデータ制御部130にクライアント1
の持つ機能に応じた種類のデータを送信するように指示
する。そして、クライアント1のデータ制御部130
は、音声合成サーバ2から指示された種類のデータの送
信をデータ送信部110に指示する。
【0044】具体的には、クライアント1が上記(ii)の
構成を有する場合には、クライアント1のデータ制御部
130は、表音記号の送信をデータ送信部110に指示
し、クライアント1が上記(iii) の構成を有する場合に
は、音響パラメータの送信を指示する。
【0045】一方、音声合成サーバ2の負荷が小さい場
合には、クライアント1側の処理を音声合成サーバ2側
で行うことができるので、音声合成サーバ2のデータ制
御部270は、それぞれのクライアント1が持っている
機能以下のデータを送信するようにする指示する。
【0046】例えば、音声合成サーバ2の負荷が小さ
く、処理能力に余裕がある場合には、音声合成サーバ2
のデータ制御部270は、クライアント1が表音記号の
生成機能を有する場合(上記(ii)の場合)でもクライア
ント1のデータ制御部130にテキストデータの送信を
指示する。
【0047】また、音声合成サーバ2のデータ制御部2
70は、クライアント1が音響パラメータまで送信でき
る機能を有する場合(上記(iii) の場合)でも、クライ
アント1のデータ制御部130に表音記号(又はテキス
トデータ)の送信を指示する。
【0048】このように、音声合成サーバ2の負荷が小
さい場合に、クライアント1で行う表音記号の生成処
理、あるいは音響パラメータの生成処理を音声合成サー
バ2側で行うことで、クライアント1の負荷を減らすこ
とができる。この場合、クライアント1から音声合成サ
ーバ2へ送信されるデータは、表音記号の替わりに、よ
りデータ量の少ないテキストデータ、あるいは音響パラ
メータの替わりに、よりデータ量の少ない表音記号(又
はテキストデータ)となるので、LANのトラヒックを
減少させることもできる。
【0049】さらに、原理図3に対応する発明のクライ
アント1は、波形生成部18を有する場合がある。この
場合、音声合成サーバ2は、自己の負荷状況、LANの
負荷状況及びクライアント1の負荷状況に応じて合成音
声波形、音響パラメータの何れかを選択してクライアン
ト1に送信する。
【0050】例えば、音声合成サーバ2の負荷が小さい
場合には、音声合成サーバ2は、音声波形の生成まで行
い、データ送信部260からその音声波形をクライアン
ト1に送信する。
【0051】一方、音声合成サーバ2の負荷が大きい場
合には、波形生成部24での音声波形の生成は行わず、
音響パラメータをクライアント1に送信する。また、L
ANのトラヒックが大きいときには、音声波形よりデー
タ量の少ない音響パラメータを送信する。
【0052】このように、音声合成サーバ2の負荷の状
況、LANの負荷状況、クライアントの負荷状況に応じ
て音声波形、音響パラメータの何れかを選択してクライ
アント1に送信することにより、音声合成サーバ2の負
荷を軽くすることができる。また、音声波形の替わりに
よりデータ量の少ない音響パラメータを送信すること
で、LANの負荷を減少させることができる。
【0053】図4の原理図に対応する発明では、クライ
アント1が特定の音質又は言語の音響パラメータの生成
を指示すると、該当する音響パラメータサーバ2a(又
は2b)が、クライアント1から送信されるテキストデ
ータに基づいて音響パラメータを生成し、その音響パラ
メータを波形生成サーバ2cに送信する。波形生成サー
バ2cは、受信した音響パラメータに基づいて音声波形
を生成し、その音声波形をクライアント1に送信する。
これにより、クライアント1からは、指定した音質又は
言語でテキストデータが音声出力される。
【0054】図5の原理図5に対応する発明では、辞書
検索部52は、クライアント4から検索要求のあった単
語の辞書情報を単語辞書53から検索し、検索した辞書
情報の中の表音記号を音声合成サーバ2に送信する。音
声合成サーバ2は、その表音記号に対応する音声波形を
生成し、生成した音声波形を辞書検索サーバ5に送信す
る。
【0055】辞書検索サーバ5は、辞書検索部52が検
索した単語の辞書情報と、音声合成サーバ2から受信し
た音声波形とをクライアント4に送信する。クライアン
ト4は、単語の辞書情報を辞書情報表示部45に表示す
ると共に、単語の発音を音声出力部15から音声で出力
する。
【0056】これにより、ユーザがクライアント4に特
定の単語の検索要求を行ったとき、その単語の意味が表
示されると共に、その発音が音声で出力されるので、ユ
ーザは単語の意味とその発音を正確に知ることができ
る。
【0057】次に、図6の原理図6に対応する発明で
は、スケジュール管理サーバ7は、スケジュールデータ
ベース73に記憶されているスケジュール情報を検索
し、例えばスケジュール時刻が現在時刻と一致するスケ
ジュール情報を取り出す。そして、そのスケジュール情
報を音声合成サーバ2に送信する。音声合成サーバ2
は、テキストデータの形で受信するスケジュール情報に
対応する音声波形を生成し、その音声波形をスケジュー
ル管理サーバ7に送信する。
【0058】スケジュール管理サーバ7は、音声波形を
スケジュール情報と共にクライアント6に送信する。ク
ライアント6は、スケジュール情報をスケジュール情報
表示部62に表示し、スケジュール内容を示す音声を音
声出力部15から出力する。なお、音声合成サーバ2で
生成した音声波形を直接クライアント6に送信するよう
にしても良い。
【0059】これにより、スケジュール情報がディスプ
レイ等に表示されると共に、音声で出力されるので、ユ
ーザに対するスケジュールの通知をより確実に行うこと
ができる。
【0060】
【実施例】以下、本発明の実施例を図面を参照しながら
説明する。図7は、本発明の実施例1の音声合成システ
ムの構成図である。この実施例は、少なくとも1つの音
声合成サーバ2と複数のクライアント1とが接続されて
LANが形成されている場合を示している。
【0061】クライアント1には、音声合成すべきメッ
セージをテキストデータとして入力するテキスト入力部
11、このテキスト入力部11から入力されたテキスト
データを音声合成サーバ2に送信するテキスト送信部1
2、音声合成サーバ2から送信される符号化された音声
波形を受信する波形受信部13、受信した音声波形を復
号する波形復号化部14、復号された音声ディジタルデ
ータをアナログデータに変換するDA変換部151、ア
ナログデータから高周波成分を除去するローパスフィル
タ152が設けられ、ローパスフィルタ152にスピー
カ153が接続されている。
【0062】一方、音声合成サーバ2には、クライアン
ト1のテキスト送信部12から送信されてくるテキスト
データを受信するテキスト受信部21、受信したテキス
トデータ内の略字や数字の読みの決定を行う前処理部2
20、単語辞書224からの情報を参照し形態素解析お
よび構文解析を行う言語処理部221、テキストデータ
がどのように発音されるかを示す発音記号列に変換する
発音記号生成部222が設けられている。なお、表音記
号=発音記号+韻律記号である。
【0063】また、韻律規則225を参照し、かつ言語
処理部221及び発音記号生成部222の結果に基づき
イントネーションやアクセントを示す韻律記号を生成す
る韻律記号生成部223、音響パラメータを格納したパ
ラメータファイル231を参照しつつ発音記号列及び韻
律記号列に基づいて音響パラメータ時系列を生成する音
響パラメータ生成部23が設けられている。
【0064】さらに、音響パラメータ時系列に基づいて
音声波形を生成する波形生成部24、生成された音声波
形を符号化する波形符号化部25、符号化された音声波
形を送信する波形送信部26が設けられている。
【0065】以下、各部を必要に応じて詳細に説明す
る。 《前処理部》前処理部220は、当該テキストデータ内
の略字や数字の読みの決定を行う部分であり、テキスト
データ内に略字や記号、あるいは数字などがあった場
合、それらを抽出し、抽出した略字等の読みを、図8に
示す対応テーブルを参照して決定する。 《言語処理部》言語処理部221は、単語辞書224か
らの情報を参照し、入力テキストの形態素解析及び構文
解析を行う。ここで、形態素解析とは、入力テキストを
構成する意味のある最小の単位(形態素)に区切り、そ
の品詞、読みやアクセントを決定する処理である。ま
た、構文解析とは、入力テキストに自然なイントネーシ
ョンを与えるために、形態素解析結果に基づいて文法的
に意味のある単位を解析する処理である。
【0066】発音記号生成部222は、テキストがどの
ように発音されるかを示す発音記号列に変換する。発音
記号列とは、発音を表す記号列であり、日本語において
は平仮名表記の一字に相当する。もしくは、その文字の
置かれる環境に応じて細分化したものである。 《韻律記号生成部》韻律記号生成部223は、韻律規則
225を参照して言語処理部221の解析結果及び発音
記号生成部222で生成される発音記号に基づきイント
ネーションやアクセントを示す韻律記号を生成する。
【0067】ここで参照する韻律規則225とは、言語
処理部221において得られた構文情報に基づいて、意
味の切れ目に休止記号やイントネーションの再立ち上が
りを制御する記号を挿入するときの規則を示す。また、
単語と付属語や単語同士が接続することによって、単語
本来を持つアクセントの位置が変化するときの規則を示
す。
【0068】次に、音響パラメータ生成部23は、パラ
メータファイル231を参照し、発音記号列及び韻律記
号列に基づいて音響パラメータ時系列を生成する。音響
パラメータとは、実際の音声データを何らかの方法によ
って合成単位(例えば音素や音節)毎に情報圧縮したデ
ータである。音響パラメータとしては、情報圧縮の方式
の違い(音声生成過程のモデル化の違い)によって、P
ARCOR(LPC)、LSP、フォルマント等があ
る。
【0069】例えば、フォルマント(声道の共振周波
数)の場合は、発音記号列に基づきフォルマント周波
数、フォルマント帯域幅を指定することにより声道伝達
関数をモデル化したディジタル・フィルタを構成し、そ
のフィルタを、韻律記号列に基づいて生成される音源信
号により駆動し音声波形を生成する。
【0070】波形生成部24は、音響パラメータ時系列
に基づいて音声波形を生成し、波形符号化部25は生成
された音声波形を情報圧縮する。情報圧縮の手法として
は、ADM,ADPCM,APC,SBC,ATC,P
ARCOR,MPC,VQなどの符号化方式を用いる。
【0071】ここで、上記の音響パラメータ生成部23
と波形生成部24とで採用される情報圧縮の手法につい
て説明する。ADMとは、Adaptive Delta Modulation
の略で、ADMは予測符号化の最も簡単なもので、入力
信号と予測値との差を1ビット(正、負各1レベル)で
符号化する方法である。ADMでは、1標本値当たり2
量子化レベルしか許されないため、入力信号のサンプリ
ング周波数を高くすることにより、隣接サンプル間の差
分を小さくして符号化している。この差分の振幅があま
り変化しない区間ではステップサイズを小さくし、大き
く変化するときはステップサイズを大きくして適応量子
化を行う。ADM符号化の構成を図9に示す。
【0072】ADPCMは、Adaptive Differential Pu
lse Code Modulation の略で、過去の入力信号から現在
の入力信号を予測し、それと現在の入力信号との差分だ
けを量子化した後符号化する方法であり、入力信号レベ
ルが急激に変化したときは量子化雑音が大きくなるた
め、量子化のステップ幅をこれに対応して増減する適応
量子化を行う。予測方式には、予測器の予測係数が固定
された固定予測方式と、信号に適応して過去の入力信号
から予測誤差を最小とするように予測係数を決める適応
予測方式とがある。後者は前者に比べて複雑なアルゴリ
ズムを要するが、高品質な符号化特性が得られる。AD
PCM符号化の構成を図10に示す。
【0073】APCとは、Adaptive Predictive Coding
の略で、入力信号をブロック単位に取り込んで線形予測
分析することにより予測係数を求め、これに基づき予測
信号を発生する方法であり、予測信号と入力信号との差
分を量子化して符号化するとともに、予測係数と量子化
ステップ幅を補助情報として伝送する。APC符号化は
逐次的に予測するADM,ADPCMとは異なり、ブロ
ック全体のサンプルに対して最適な予測係数を求めて線
形予測を行うため、予測利得が大きくなり、符号化品質
が向上する。その構成を図11に示す。
【0074】SBCとは、Sub-Band Coding の略で、音
声信号を複数の周波数帯域に分割し、各帯域信号をナイ
キスト速度でダウンサンプリングするとともにベースバ
ント信号に変換し、ADPCMなどにより符号化する方
法である。その構成を図12に示す。各帯域の符号化に
おいて、音声のエネルギーが集中している帯域に、より
多くの量子化ビット数を割り当てることにより、総合的
な音声品質の向上を可能とする。また、量子化雑音が分
割された帯域にのみ発生し、他の帯域に影響を与えない
ようにできるという利点がある。SBCでは、2分割を
単位にして帯域分割を行うことを基本とし、折り返し成
分がキャンセルできるQMF(Quadrature Mirror Filt
er) を用いるのが一般的である。
【0075】ATCとは、Adaptive Trasform Codingの
略で、音声がほぼ正常と考えられる20ms程度を1 ブロッ
ク(フレーム)とし、そのブロックの音声波形信号を周
波数領域に直交変換した量を符号化する方法である。復
号では、周波数領域の量を逆直交変換することにより1
ブロック分の音声波形信号を再現する。直交変換として
DCT(Discrete Cosine Transform )を用い、適応的
にビット割当てを行う方式をATCと呼ぶことが多い。
ATC符号化は、人間の聴覚の周波数分析機能との対応
づけや、量子化雑音の周波数領域の制御が容易であると
いう特徴を有する。基本的な構成を図13に示す。
【0076】PARCORとは、PARtial auto CORrela
tionの略で、人間の音声は、声帯の振動、あるいは口を
狭めることで発生する乱流による音源信号が、音道、口
腔、鼻腔などにおける共振により固有のスペクトル分布
を有する音響信号に変換されて生成されることに着目
し、音声信号から駆動音源情報およびスペクトル分布情
報を抽出(分析)し、これらのパラメータを用いて音声
信号を復元(合成)する音声分析合成方法である。図1
4に示すように、有音声の場合は声帯振動を模擬するパ
ルス発生器、無声音の場合は乱流を模擬する白色雑音発
生器により、予測フィルタを駆動することによって音声
を合成する。
【0077】本方式では、スペクトル情報として予測係
数の代わりにPARCOR係数を用いている。このPA
RCOR係数は、伝送効率が優れ、パラメータ符号化時
の量子化誤差に対して予測フィルタの安定性確保が可能
である。音源情報は、音声信号を逆フィルタ(予測フィ
ルタと逆の特性を有するフィルタ)に通すことによって
得られる予測残差信号から抽出する。具体的には、残差
信号の自己相関係数が最大となるサンプル間隔からパル
ス周期(ピッチ)を求め、このときの係数値と1次のP
ARCOR係数値を用いて有/無声判定を行う。符号化
情報として、一定のフレーム周期(20ms程度)毎にPA
RCOR係数、ピッチ周期、有/無声判定および残差電
力情報を量子化して伝送する。
【0078】また、その後開発されたLSP方式は、P
ARCOR係数の代わりにLSP(Line Spectrum Pai
r)係数を用いるもので、音声のスペクトル情報抽出方
法の簡単化、およびパラメータ符号化時の情報圧縮率の
点で著しく改善されている。
【0079】MPCとは、Multi-Pulse Codingの略で、
線形予測(LPC)分析合成系(ボコーダ)において、
パルスと雑音による音源のモデル化を避け、音源を有声
音、無声音にかかわらず複数のパルスによって表現し、
これによってLPC合成フィルタを駆動する方式であ
る。MPC符号化のポイントは、いかにして複数のパル
スの振幅と時間位置を最適に設定するかにあり、図15
に示すようなA−b−S(Analysis-by-Synthesis)の原
理による方法が用いられている。まず、予め音声信号を
20ms程度の長さのブロック( フレーム) に切り出し、そ
の区間についてのスペクトル包絡を線形予測分析によっ
て推定する。次に、このフレーム内の音声信号について
音源のマルチパルスを決定する。具体的には、すでにあ
る数のパルスが決定されているとすると、このマルチパ
ルスは、推定されたスペクトル包絡に対応するLPC合
成フィルタを通して合成音声に変換される。この合成音
声と実際の原音声信号の誤差を計算し、聴覚特性による
重み付けを行ってから、平均二乗誤差が最小になるよう
に、新しいパルスの振幅と時間位置を決定する。
【0080】VQとは、Vector Quantization の略で、
波形符号化や分析合成系において、波形やスペクトル包
絡パラメータを各サンプル値ごとに量子化せず、複数の
値の組(ベクトル)をまとめて1つの符号で表現する量
子化方法である。ベクトル量子化は初めLPCパラメー
タの高能率な量子化方法として提案され、その後、波形
の量子化にも適用されるようになった。図16のベクト
ル量子化による符号化では、標本化した波形を一定の時
間について切り出し、その区間の波形パターンを1つの
符号で表現する。このため、予めクラスタリングの手法
を用いて種々の波形パターンを蓄えておき、それぞれに
符号を与えておく。この符号とパターンとの対応を示す
表を符号帳(codebook)と呼ぶ。入力波形に対して、一
定の時間区間ごとに符号帳の各パターンと比較(パター
ンマッチング)し、最も類似度の高い波形の符号でその
区間の波形を表現する。
【0081】次に、図7に戻り、実施例1の音声合成処
理を説明する ユーザによりクライアント1のテキスト
入力部11からテキストデータが入力されると、入力さ
れたテキストデータがテキスト送信部12から音声合成
サーバ2へ送信される。
【0082】音声合成サーバ2では、テキスト受信部2
1が、そのテキストデータを受信し、前処理部220
が、当該テキストデータ内の略字や数字の読みの決定を
行う。さらに、言語処理部221は、単語辞書224の
情報を参照し、テキストデータの形態素解析及び構文解
析を行う。発音記号生成部222は、テキストデータが
どのように発音されるかを示す発音記号列に変換し、韻
律記号生成部223は、言語処理部221及び発音記号
生成部222の結果に基づきイントネーションやアクセ
ントを示す韻律記号列を生成する。
【0083】次に、音響パラメータ生成部23は、パラ
メータファイル231を参照し、発音記号列及び韻律記
号列に基づいて音響パラメータ時系列を生成する。波形
生成部24は、音響パラメータ時系列に基づいて音声波
形を生成する。波形符号化部25は生成された音声波形
を情報圧縮する。波形送信部26は情報圧縮された合成
波形をクライアント1の波形受信部13へ送信する。
【0084】クライアント1側では、波形受信部13が
サーバ2からの情報圧縮された波形を受信し、波形復号
化部14が符号化された音声波形を復号する。DA変換
部151はディジタル音声波形をアナログ音声波形に変
換する。そして、そのアナログ音声信号がローパスフィ
ルタ152を通ってスピーカ152から出力される。 《実施例2及び実施例3》図17は、クライアント1が
表音記号生成機能を有する本発明の実施例2のシステム
構成図であり、図18は、クライアント1が音響パラメ
ータ生成機能を有する実施例3のシステム構成図であ
る。
【0085】図17に示す実施例2のクライアント1に
は、テキスト入力部11と、表音記号生成部16と、デ
ータ送信部110としての表音記号送信部100と、デ
ータ受信部120としての波形受信部13と、波形復号
化部14及び音声出力部15とが設けられている。
【0086】また、図18に示す実施例3のクライアン
ト1には、テキスト入力部11と、表音記号生成部16
と、音響パラメータ生成部17と、データ送信部110
としての音響パラメータ送信部101と、データ受信部
120としての波形受信部13、波形復号化部14及び
音声出力部15とが設けられている。
【0087】なお、音声合成サーバ2は、いずれの実施
例においても、データ受信部210と、表音記号生成部
22と、音響パラメータ生成部23と、波形生成部24
と、波形符号化部25と、データ送信部260と、デー
タ制御部270とを備えている。
【0088】音声合成サーバ2のデータ制御部270
は、データ受信部210で受信したデータの種類を判別
すると共に、LAN負荷情報(トラフィック情報)と自
己のCPU負荷情報とに基づいてデータ受信部210及
びデータ送信部260を制御する。また、データ制御部
270は、図示しないクライアント1のデータ制御部に
送信すべきデータの種類を指示する。
【0089】すなわち、データ制御部270は、データ
受信部210で受信したデータの種類を判別し、その判
別結果に応じて受信したデータを表音記号生成部22、
音響パラメータ生成部23、波形生成部24のいずれか
に選択的に出力する。
【0090】以下、実施例2及び実施例3の動作を説明
する。 《実施例2の場合》図17において、ユーザによりクラ
イアント1のテキスト入力部11からテキストデータが
入力されると、表音記号生成部16は、そのテキストデ
ータがどのように発音されるかを示す表音記号列に変換
する。そして、表音記号送信部100は、その表音記号
列を音声合成サーバ2に送信する。
【0091】音声合成サーバ2のデータ受信部210
は、クライアント1からのデータ(表音記号列)を受信
すると、データ制御部270が、データ受信部210で
受信されたデータの種類を判別し、そのデータを該当す
る回路に出力させる。この場合、クライアント1からは
送信データとして表音記号列が送られてくるので、デー
タ制御部270は、その表音記号列を音響パラメータ生
成部23に出力させる。
【0092】音響パラメータ生成部23は、データ受信
部210で受信された表音記号列を音響パラメータ時系
列に変換し、波形生成部24はその音響パラメータ時系
列に基づいて音声波形を生成する。さらに、波形符号化
部25は、生成された音声波形を符号化して情報圧縮
し、データ送信部26は、その符号化された音声波形を
クライアント1へ送信する。
【0093】クライアント1側の波形受信部13は、音
声合成サーバ2から符号化された音声波形を受信し、波
形復号化部14がその符号化された音声波形を復号す
る。そして、音声出力部15から音声として出力する。 《実施例3の場合》図18において、ユーザによりクラ
イアント1のテキスト入力部11からテキストデータが
入力されると、表音記号生成部16が、当該テキストが
どのように発音されるかを示す表音記号列に変換する。
さらに、音響パラメータ生成部17が、その表音記号列
を音響パラメータ時系列に変換し、音響パラメータ送信
部101が音響パラメータを音声合成サーバ2に送信す
る。
【0094】音声合成サーバ2側では、データ受信部2
10が、クライアント1からのデータ(音響パラメータ
時系列)を受信し、データ制御部270が、受信したデ
ータ(音響パラメータ)の種類を判別し該当する回路に
出力させる。この場合、クライアント1からは送信デー
タとして音響パラメータ時系列が送られてくるので、そ
の音響パラメータ時系列を波形生成部24に送る。
【0095】波形生成部24は、音響パラメータ時系列
に基づいて音声波形を生成し、波形符号化部25が、生
成された音声波形を符号化して情報圧縮する。そして、
データ送信部260が、符号化された音声波形をクライ
アント1へ送信する。
【0096】クライアント1側では、波形受信部13が
音声合成サーバ2からの符号化された音声波形を受信
し、波形復号化部14がその符号化された音声波形を復
号する。さらに、音声出力部15が復号された音声波形
を音声として出力する。
【0097】上述した実施例2及び3では、音声合成サ
ーバ2は、クライアント1から送信されたデータが表音
記号であれば、音響パラメータの生成以降の処理を行
い、送信されたデータが音響パラメータであれば、音声
波形の生成以降の処理を行えばよいので、音声合成サー
バ2の負荷が軽減される。
【0098】なお、図17、図19には示していない
が、クライアント1側にも、音声合成サーバ2と同様に
データ制御部130(図3参照)が設けられており、音
声合成サーバ2のデータ制御部270が、LANの負荷
状況、音声合成サーバ2の負荷状況に応じて送信すべき
データの種類をクライアント1のデータ制御部130に
指示するようになっている。
【0099】例えば、音声合成サーバ2の負荷が大きい
場合には、クライアント1側でより多くの処理を行う方
が望ましいので、音声合成サーバ2のデータ制御部27
0が、クライアント1のデータ制御部130に、クライ
アント1が持つ機能に応じたデータの送信を指示する。
【0100】一方、音声合成サーバ2の負荷が小さいと
きには、クライアント1で行う処理を音声合成サーバ2
で引き受けることができるので、例えば、クライアント
1が表音記号の生成機能を有する場合でも、クライアン
ト1のデータ制御部130にテキストデータの送信を指
示する。また、クライアント1が音響パラメータの生成
機能を有する場合でも、そのクライアント1のデータ制
御部130にテキストデータ又は表音記号の送信を指示
する。これにより、クライアント1の負荷が軽減され
る。また、この場合、クライアント1からLAN送出さ
れるデータは、よりデータ量の少ないデータとなるの
で、LANのトラヒックも減少する。
【0101】なお、クライアント1と音声合成サーバ2
との機能分担は、上述したように音声合成サーバ2のデ
ータ制御270がクライアント1のデータ制御部130
に指示する方法に限らず、例えば、クライアント1のデ
ータ制御部130が、音声合成サーバ2のデータ制御部
270と通信して、CPU負荷情報やLAN負荷情報を
受け取り、それらの情報に基づいてクライアント1のデ
ータ制御部130自身が送信するデータの種類を決定す
るようにしても良い。 《実施例4》図19は、クライアント1が波形生成部1
8を有する本発明の実施例4のシステム構成図である。
【0102】図19に示すクライアント1には、テキス
ト入力部11と、表音記号生成部16と、データ送信部
110としての表音記号送信部100と、データ受信部
120としての音響パラメータ受信部102と、波形生
成部18及び音声出力部15とが設けられている。
【0103】図19において、ユーザによりクライアン
ト1のテキスト入力部11からテキストデータが入力さ
れると、表音記号生成部16は、当該テキストがどのよ
うに発音されるかを示す表音記号列に変換し、表音記号
送信部100がその表音記号列を音声合成サーバ2に送
信する。
【0104】音声合成サーバ2では、データ受信部21
0が、クライアント1から送信されるデータ(表音記号
列)を受信し、データ制御部270が、受信したデータ
の種類を判別する。この場合、受信したデータは表音記
号列であるので、データ受信部210は、データ制御部
270の指示に従って、受信した表音記号列を音響パラ
メータ生成部23に送る。さらに、音響パラメータ生成
部23は、その表音記号列を音響パラメータ時系列に変
換する。
【0105】音声合成サーバ2からクライアント1に音
声データを送信する場合、データ制御部270は、LA
Nの負荷状況、自己のCPUの負荷状況、送信先のクラ
イアント1の持つ機能に応じて送信すべきデータの種類
を決定する。この場合、送信先のクライアント1が波形
生成部18を有するので、データ制御部270は、音声
合成サーバ2の負荷が大きいときには、音声波形の替わ
りに音響パラメータ生成部23で生成される音響パラメ
ータ時系列をクライアント1へ送信させ、音声合成サー
バ2の負荷が小さいときには、波形生成部24で音声波
形を生成させ、その音声波形をクライアント1に送信さ
せる。
【0106】クライアント1側の音響パラメータ受信部
102は、音声合成サーバ2から送信される音響パラメ
ータ時系列を受信し、波形生成部18がその音響パラメ
ータ時系列に基づいて音声波形を生成する。最後に音声
出力部15が音声波形を出力する。なお、音声合成サー
バ2から音声波形が送信された場合には、音響パラメー
タ受信部102は、受信した音声波形をそのまま音声出
力部15に出力する。
【0107】この実施例では、クライアント1が波形生
成機能を有する場合、音声合成サーバ2は、音声波形を
生成せずに音響パラメータ時系列をクライアント1に送
信することができるので、音声合成サーバ2の負荷が軽
減される。さらに、この場合、音声合成サーバ2からL
ANに送出されるデータは、音声波形よりデータ量の少
ない音響パラメータ時系列となるのでLANのトラフィ
ックも減少する。
【0108】次に、図20は、上述した実施例1〜4の
クライアント1と音声合成サーバ2とからなる音声合成
システムのシステム構成図である。以下、音声合成サー
バ2の負荷が大きい場合、負荷が小さい場合の動作を説
明する。
【0109】音声合成サーバ2の負荷が大きい場合に
は、音声合成サーバ2での処理を可能な範囲でクライア
ント1側に負担させることが望ましので、音声合成サー
バ2のデータ制御部270は、各クライアント1の図示
しないデータ制御部にそれぞれのクライアント1が持つ
機能に応じたデータの送信を指示する。
【0110】従って、クライアント1から音声合成サー
バ2にデータを送信する場合、テキストデータの生成機
能を有するクライアント1は、テキストデータを音声合
成サーバ2に送信し、表音記号の生成機能を有するクラ
イアント1は、表音記号列を音声合成サーバ2に送信
し、音響パラメータ生成機能を有するクライアント1は
音響パラメータ時系列を音声合成サーバ2に送信する。
また、音声合成サーバ2からクライアント1にデータを
送信する場合にも、クライアント1が波形生成機能を有
するときには、音声合成サーバ2は音声波形の生成処理
は行わず、音響パラメータ時系列を該当するクライアン
ト1に送信し、クライアント1側で音声波形の生成を行
わせる。
【0111】このように、クライアント1側で表音記号
の生成処理、音響パラメータの生成処理、あるいは音声
波形の生成処理を行わせることで、音声合成サーバ2の
負荷を軽減させることができる。
【0112】一方、音声合成サーバ2の負荷が小さい場
合には、音声合成サーバ2側でより多くの処理を行える
ので、クライアント1が表音記号、あるいは音響パラメ
ータの生成機能を有しているときにも、クライアント1
にテキストデータ、あるいは表音記号の送信を指示す
る。また、また、クラインアト1が波形生成機能を有す
るときでも、音声合成サーバ2が音声波形まで生成して
クライアント1に送信する。これにより、クライアント
1の処理負担が軽減される。また、この場合、LANに
送出されるデータは、よりデータ量の少ないデータとな
るので、LANのトラヒックも減少する。
【0113】上記実施例によれば、クライアント1の機
能に応じて音声合成サーバ2側の処理を可変にするこ
と、あるいはLANのトラフィック状況、音声合成サー
バ2のCPU負荷状況に応じて、サーバ/クライアント
間の処理分担を変えることができるので、システム全体
の処理効率を高めることができる。 《実施例5》図21は、音質又は言語毎に専用化した複
数の音響パラメータサーバ2a、2bと、共通化した波
形生成サーバ2cとを設けた本発明の実施例5の概念図
であり、図22は、図21のクライアント1、音響パラ
メータサーバ2a、2b及び波形生成サーバ2cの具体
的構成の一例を示す図である。
【0114】図21の音声合成システムには、男性、女
性、子供などの音質あるいは言語毎に専用化した音響パ
ラメータサーバ2a、2bが設けられている。クライア
ント1は、特定の音響パラメータ生成サーバ2a又は2
bを指定し、あるいはテキストデータにより定まる音響
パラメータ生成サーバ2a又は2bに対して音声合成要
求を行い、音響パラメータ時系列を生成させる。
【0115】音響パラメータ生成サーバ2a又は2b
は、生成した音響パラメータ時系列を波形生成サーバ2
cに転送する。波形生成サーバ2cは、音響パラメータ
生成サーバ2a又は2bから送信された音響パラメータ
時系列に基づいて音声波形を生成し、その音声波形を音
声合成要求を出したクライアント1に転送する。クライ
アント1はその音声波形を受信し音声として再生する。
【0116】具体的には、図22のクライアント1のテ
キスト入力部11から入力されたテキストデータが、テ
キスト送信部12から音響パラメータ生成サーバ2a
(又は2b)のテキスト受信部21に送信される。
【0117】該当する音響パラメータ生成サーバ2a
(又は2b)の表音記号生成部22は、受信したテキス
トデータに基づいて表音記号列を生成し、音響パラメー
タ生成部23がその表音記号列に基づいて音響パラメー
タ時系列を生成する。音響パラメータ生成部23で生成
された音響パラメータ時系列は、音響パラメータ送信部
310から波形生成サーバ2cに送信される。
【0118】そして、波形サーバ2cにおいて音響パラ
メータ時系列に基づいて音声波形が生成され、その音声
波形がクライアント1に送信される。この実施例では、
音質又は言語毎に専用化した音響パラメータ生成サーバ
2a、2bを複数設けることで、テキストデータを異な
った音質、言語で音声出力させることができる。 《実施例6》図23は、本発明の実施例6の概念図であ
る。実施例6は、D/A変換機能を持たないクライアン
ト1が、テキストデータに基づいて生成される合成音声
を指定した電話機から出力させる場合を示している。
【0119】D/A変換機能を持たないクライアント1
は、LANに接続されている音声合成サーバ2に対して
音声合成したいテキストデータと音声出力したい電話機
の電話番号データを送信する。
【0120】音声合成サーバ2は、テキストデータと電
話番号データを受信すると、そのテキストデータに基づ
いて音声波形を生成し、指定された電話番号のダイヤル
トーンをトーン発生器31から生成し電話機の呼び出し
を行う。そして、回線が接続されたなら、生成したディ
ジタルの音声波形をDA変換器32でアナログの音声信
号に変換して電話回線に送出する。
【0121】この実施例6によれば、クライアント1が
D/A変換機能を持たない場合でも、クライアント1の
近くにある電話機に合成音声を出力させることで、テキ
ストの内容を音声で聞くことができる。 《実施例7》図24は、本発明の実施例7の概念図であ
る。この実施例は、D/A変換機能を持たないクライア
ント1が、テキストデータに基づいて生成される合成音
声を、D/A変換機能を有する別のクライアントから出
力させる場合の例である。
【0122】D/A変換機能を持たないクライアント1
aは、LANに接続されている音声合成サーバ2に音声
合成したいテキストデータと合成音声を出力させたいク
ライアント1bのアドレスデータとを送出する。音声合
成サーバ2は、クライアント1aからテキストデータと
特定のクライアント1bを指定するアドレスデータとを
受信したなら、テキストデータに対応する音声波形を生
成する。さらに、音声合成サーバ2は、指定されたアド
レスのクライアント1bに、生成した音声波形を送信す
る。クライアント1bは、受信した音声波形から音声を
再生する。
【0123】この実施例7によれば、D/A変換機能を
持たないクライアント1aのユーザが、別のクライント
1bを利用して合成音声を聞くことができる。 《実施例8》図25は、実施例8のクライアントとサー
バとの構成を示す図である。この実施例8は、LANに
辞書検索サーバ5と音声合成サーバ2とが接続され、辞
書検索サーバ5で検索された単語の発音を音声合成サー
バ2で音声合成して、辞書検索クライアント4に単語の
辞書情報と共に単語の発音を音声出力する例を示してい
る。
【0124】図25において、辞書検索クライアント4
は、検索すべき単語を入力する単語入力部41と、入力
された単語を辞書検索サーバ5に送信する単語送信部4
2と、音声波形データを受信する波形受信部13と、検
索された単語情報を受信する辞書情報受信部44と、辞
書情報受信部44で受信された辞書情報を表示する辞書
情報表示部45と、波形受信部43で受信された符号化
された波形データを復号する波形復号化部14と、復号
されたディジタルの波形データをアナログの音声波形に
変換するDA変換部151と、アナログ音声波形の高周
波成分をカットするローパスフィルタ152と、ローパ
スフィルタ152を通過したアナログ音声波形を音声と
して出力するスピーカ153とで構成されている。
【0125】辞書検索サーバ5は、辞書検索クライアン
ト4から送信される検索単語を受信する単語受信部51
と、単語辞書53から検索すべき単語の意味及び単語の
発音を示す表音記号等からなる辞書情報を検索する辞書
検索部52と、辞書検索部52で検索された表音記号を
音声合成サーバ2に送信する表音記号送信部55と、辞
書検索部52で検索された辞書情報を辞書情報クライア
ント4に送信する辞書情報送信部54と、音声合成サー
バ2から波形データを受信すると共に、受信した波形デ
ータを辞書検索クライアント4に送信する波形受信/送
信部56とで構成されている。
【0126】音声合成サーバ2の構成は、基本的には前
述した実施例と同じであり、この実施例では、データ受
信部として辞書検索サーバ5から送信される表音記号を
受信する表音記号受信部220が設けられている。
【0127】次に、図25のシステムの動作を説明す
る。ユーザにより単語入力部41から検索すべき単語が
入力されると、入力された単語が単語送信部42から辞
書検索サーバ5へ送信される。
【0128】辞書検索サーバ5では、単語検索部52
が、単語受信部51で受信された単語の情報を単語辞書
53から検索し、検索した情報の中で単語の意味などを
示す辞書情報を辞書情報送信部54へ出力し、単語の発
音を示す表音記号列を表音記号送信部55へ出力する。
そして、表音記号送信部55が、単語の表音記号列を音
声合成サーバ2へ送信する。
【0129】音声合成サーバ2では、表音記号受信部2
20が、辞書検索サーバ5から送信される表音記号列を
受信すると、音響パラメータ生成部22が、その表音記
号列に基づいて音響パラメータ時系列を生成し、波形生
成部24が、生成された音響パラメータ時系列に基づい
て音声波形を生成する。そして、波形符号化部25がそ
の音声波形を符号化し、波形送信部26がその符号化さ
れた波形データを辞書検索サーバ5に送信する。なお、
音声波形の圧縮は、ADPCM等の公知の波形符号化方
式を用いる。
【0130】辞書検索サーバ5では、波形受信/送信部
56が、音声合成サーバ2から送信される波形データを
受信すると、辞書情報送信部54に波形データの送信と
同期して辞書情報を送信するように指示する。
【0131】辞書検索クライアント4では、波形受信部
13が、辞書検索サーバ5から送信される波形データを
受信すると、波形復号化部14が、その符号化された波
形データを復号し、さらにDA変換部151がディジタ
ル音声波形をアナログ音声波形に変換する。DA変換部
151で変換されたアナログ音声波形は、ローパスフィ
ルタ152を通りスピーカ153から単語の発音として
して音声出力される。同時に、辞書情報受信部44で受
信された単語の辞書情報が、辞書情報表示部45に表示
される。
【0132】なお、音声合成サーバ2で生成された音声
波形を辞書検索サーバ5を経由して辞書検索クライアン
ト4に送信しているのは、辞書検索サーバ5で検索され
る辞書情報と、音声合成サーバ2で合成された合成音声
を同時にユーザに呈示する為である。また、図25には
示していないが、辞書検索サーバ5に辞書情報バッファ
及び波形データバッファを設け、一度検索した単語の辞
書情報及び波形データを一定期間記憶しておくようにす
れば、次に同じ単語の検索要求があった場合に、再度、
単語の検索、音声合成処理を行う必要がなくなるので、
検索結果をユーザに呈示するまでの時間を短縮できる。
【0133】この実施例では、検索要求のあった単語の
辞書情報と共にその単語の発音を音声で出力するように
したので、ユーザは、単語の意味と同時に発音を正確、
かつ簡単に知ることができる。また、単語辞書53に格
納されているそれぞれの単語の表音記号に基づいて、音
声合成サーバ2が音声を合成するようにしたので、辞書
検索サーバ5の単語辞書53に単語毎に音声データを記
憶しておく必要がなくなり、音声合成の為に必要なデー
タを記憶しておく記憶装置の容量を少なくできる。
【0134】なお、音声出力するのは、1つの単語に限
らず複数の単語からなる句あるいは文の発音を音声出力
するようにしても良い。 《実施例9》次に、図26は、本発明の実施例9を示す
図である。この実施例9は、スケジュール管理サーバ7
で管理されるスケジュール情報を音声でユーザに知らせ
るものである。以下、前述した実施例と共通する部分に
は同じ符号を付けてそれらの説明を省略する。
【0135】スケジュール管理サーバ7では、制御部7
1が、一定時間間隔でスケジュール検索部72を制御し
て、スケジュールデータベース73に登録されているス
ケジュール情報を検索し、現在時刻と一致するスケジュ
ール情報が登録されているか否かを調べる。現在時刻と
一致するスケジュール情報が登録されている場合には、
そのスケジュール情報をスケジュール送信部74から音
声合成サーバ2に送信させる。
【0136】音声合成サーバ2では、テキスト受信部2
1が、スケジュール管理サーバ7から送信されてくるス
ケジュール情報(テキストデータ)を受信すると、先
ず、表音記号生成部22が、受信したテキストデータに
基づいて表音記号列を生成し、次に音響パラメータ生成
部23が、表音記号列に基づいて音響パラメータ時系列
を生成する。さらに、波形生成部24が、その音響パラ
メータ時系列に基づいて音声波形を生成し、波形符号化
部25がその音声波形を符号化して波形送信部26に出
力する。そして、波形送信部26が符号化された波形デ
ータをスケジュール管理サーバ7に送信する。
【0137】スケジュール管理サーバ7では、波形受信
/送信部75が音声合成サーバ2から波形データを受信
すると、スケジュール送信部74と同期を取ってスケジ
ュール情報と共に波形データをスケジュール管理クライ
アント6に送信する。
【0138】スケジュール管理クライアント6では、ス
ケジュール受信部61がスケジュール管理サーバ7から
のテキストデータを受信すると、スケジュール表示部6
2にそのテキストデータを表示する。同時に、波形受信
部13で受信されたスケジュール内容を示す波形データ
が波形復号化部14で復号され、DA変換部151でD
/A変換されてスピーカ153から音声として出力され
る。
【0139】なお、スケジュール管理などのように、情
報の表示とその情報の音声出力とを必ずしも同期させる
必要がない場合には、スケジュール管理サーバ7を経由
せず直接スケジュール管理クライアント6に音声波形デ
ータを送信するようにしてもよい。
【0140】この実施例によれば、スケジュール情報を
文字情報としてばかりでなく、音声情報としても出力で
きるので、ユーザに対するスケジュールの通知をより確
実に行うことができる。
【0141】
【発明の効果】本発明によれば、音声合成サーバから符
号化した音声波形を送出し、クライアント側でその符号
化された音声波形を復号することにより、LANに送出
されるデータを減らし、LANのトラヒックを減少させ
ることができる。
【0142】また、クライアントが表音記号生成機能、
あるいは音響パラメータ生成機能を有する場合に、それ
ぞれのクライアントが自己の持つ機能に応じたデータを
送信し、音声合成サーバ側で受信したデータの種類に応
じた処理を行うことで、音声合成サーバの負荷を減らす
ことができる。さらに、LANの負荷状況、音声合成サ
ーバの負荷状況等に応じてクライアントから音声合成サ
ーバへ送信するデータの種類、あるいは音声合成サーバ
からクライアントへ送信するデータの種類を変化させる
ことで、クライアントと音声合成サーバの負荷分担を適
正にして、システム全体の効率を良くすることができ
る。
【0143】さらに、音声合成サーバで生成された音声
波形を、D/A変換機能を有する他のクライアント又は
指定した電話機に送信させることで、D/A変換機能を
有しないクライアントのユーザが合成音声を聞くことが
できる。
【0144】また、検索した単語の辞書情報と共にその
単語の発音を音声で出力させることで、単語の発音を正
確かつ簡単に知ることができる。さらに、スケジュール
情報を音声で出力することで、ユーザに対するスケジュ
ール内容の通知を確実に行うことができる。
【図面の簡単な説明】
【図1】本発明の原理図1である。
【図2】本発明の原理図2である。
【図3】本発明の原理図3である。
【図4】本発明の原理図4である。
【図5】本発明の原理図5である。
【図6】本発明の原理図6である。
【図7】本発明の実施例1を示す図である。
【図8】略字及び数字とその読みの対応テーブルを示す
図である。
【図9】ADMを示すブロック図である。
【図10】ADPCMを示すブロック図である。
【図11】APCを示すブロック図である。
【図12】SBCを示すブロック図である。
【図13】ATCを示すブロック図である。
【図14】PARCORを示すブロック図である。
【図15】MPCを示すブロック図である。
【図16】VQを示すブロック図である。
【図17】本発明の実施例2を示す図である。
【図18】本発明の実施例3を示す図である。
【図19】本発明の実施例4を示す図である。
【図20】実施例1〜4のクライアントを備えたシステ
ム図である。
【図21】本発明の実施例5を示す図である。
【図22】実施例5の具体的構成の一例を示す図であ
る。
【図23】本発明の実施例6を示す図である。
【図24】本発明の実施例7を示す図である。
【図25】本発明の実施例8を示す図である。
【図26】本発明の実施例9を示す図である。
【図27】従来例を示す図である。
【符号の説明】
1、4、6 クライアント 2a、2b 音響パラメータサーバ 2c 波形生成サーバ 2 音声合成サーバ 5 辞書検索サーバ 7 スケジュール管理サーバ 11 テキスト入力部 14 波形復号化部 15 音声出力部 16、22 表音記号生成部 17、23 音響パラメータ生成部 18、24 波形生成部 25 波形符号化部 110、260 データ送信部 120、210 データ受信部 130、270 データ制御部

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】 ローカルエリアネットワーク(LAN)
    上に、音声化すべきテキストデータを入力するテキスト
    入力部(11)と、合成音声を出力する音声出力部(1
    5)とを有する複数のクライアント(1)と、合成音声
    波形を生成する波形生成部(24)を有する少なくとも
    1つの音声合成サーバ(2)とを備えた音声合成システ
    ムにおいて、 前記音声合成サーバ(2)は、 前記クライアント(1)から送信されるデータに基づい
    て音声波形を生成する波形生成部(24)と、 前記音声波形を符号化する波形符号化部(25)とを有
    し、 前記クライアント(1)は、 前記音声合成サーバ(2)から送信される符号化された
    音声波形を復号する波形復号化部(14)と、 前記波形復号化部(14)で復号された音声波形を音声
    として出力する音声出力部(15)とを有することを特
    徴とする音声合成システム。
  2. 【請求項2】 ローカルエリアネットワーク(LAN)
    上に、音声化すべきテキストデータを入力するテキスト
    入力部(11)と、合成音声を出力する音声出力部(1
    5)とを有する複数のクライアント(1)と、音声波形
    を生成する波形生成部(24)を有する少なくとも1つ
    の音声合成サーバ(2)とを備えた音声合成システムに
    おいて、 前記クライアント(1)は、 前記テキスト入力部11から入力されるテキストデータ
    に基づいて表音記号を生成する表音記号生成部(16)
    と、 前記表音記号を前記音声合成サーバ(2)へ送信するデ
    ータ送信部(110)と、 前記音声合成サーバ(2)から送信されるデータを受信
    するデータ受信部(120)とを備え、 前記音声合成サーバ(2)は、 前記クライアント(1)から送信されるデータを受信す
    るデータ受信部(210)と、 前記データ受信部(210)で受信されたテキストデー
    タに基づいて表音記号を生成する表音記号生成部(2
    2)と、 前記表音記号に基づいて音響パラメータを生成する音響
    パラメータ生成部(23)と、 前記音響パラメータに基づいて音声波形を生成する波形
    生成部(24)と、 前記データ受信部(210)において、テキストデータ
    を受信した場合には、受信したテキストデータを前記表
    音記号生成部(22)へ出力させ、 表音記号を受信した場合には、受信した表音記号を前記
    音響パラメータ生成部(23)へ出力させる選択制御を
    行うデータ制御部(270)と、 前記波形生成部(25)で生成された音声波形を前記ク
    ライアント(1)へ送信するデータ送信部(260)と
    を備えることを特徴とする音声合成システム。
  3. 【請求項3】 前記クライアント(1)は、前記表音記
    号生成部(16)で生成される表音記号に基づいて音響
    パラメータを生成する音響パラメータ生成部(17)を
    備え、 前記音声合成サーバ(2)は、 前記データ受信部(210)において、テキストデータ
    を受信した場合には、受信したテキストデータを前記表
    音記号生成部(22)へ出力させ、 表音記号を受信した場合には、受信した表音記号を前記
    音響パラメータ生成部(23)へ出力させ、 音響パラメータを受信した場合には、受信した音響パラ
    メータを前記波形生成部(24)へ出力させる選択制御
    を行うデータ制御部(270)を備えることを特徴とす
    る請求項2記載の音声合成システム。
  4. 【請求項4】 前記クライアント(1)は、前記データ
    受信部(120)で受信される音響パラメータに基づい
    て音声波形を生成する波形生成部(18)を備え、 前記音声合成サーバ(2)は、音声合成すべきデータを
    送信したクライアント(1)が波形生成部(18)を有
    する場合に、少なくとも自己の負荷状況及びネットワー
    クの負荷状況に応じて、前記データ送信部(260)か
    ら音響パラメータを送信するか、音声波形を送信するか
    を選択制御するデータ制御部(270)を備えることを
    特徴とする請求項2又は3記載の音声合成システム。
  5. 【請求項5】 前記クライアント(1)は、さらにデー
    タ制御部(130)を有し、該データ制御部(130)
    は前記音声合成サーバ(2)からの指示又は前記音声合
    成サーバ(2)のデータ制御部(270)から送信され
    る音声合成サーバ(2)の負荷情報及びLANの負荷情
    報に基づいて、前記データ送信部(110)からテキス
    トデータを送信するか、表音記号を送信するか、音響パ
    ラメータを送信するかを選択制御することを特徴とする
    請求項3又は4記載の音声合成システム。
  6. 【請求項6】 前記音声合成サーバ(2)は、波形生成
    部(24)で生成される合成音声波形を符号化する波形
    符号化部(25)を有し、前記クライアント(1)は、
    符号化された音声波形を復号する波形復号化部(15)
    を備えることを特徴とする請求項2、3、4又は5記載
    の音声合成システム。
  7. 【請求項7】 ローカルエリアネットワーク(LAN)
    上に、音声合成要求を行う複数のクライアント(1)
    と、前記クライアント(1)から送信されるデータに基
    づいて音声波形を生成し、生成した音声波形を前記クラ
    イアント(1)に送信する少なくとも1つの音声合成サ
    ーバ(2)とを備えた音声合成システムにおいて、 前記クライアント(1)がD/A変換機能を有しない場
    合に、D/A変換機能を有する他のクライアント(1)
    を音声波形の送信先として指定し、指定したクライアン
    ト(1)から音声出力させることを特徴とする音声合成
    システム。
  8. 【請求項8】 ローカルエリアネットワーク(LAN)
    上に、音声合成要求を行う複数のクライアント(1)
    と、前記クライアント(1)から送信されるデータに基
    づいて合成音声波形を生成し、生成した音声波形をクラ
    イアント(1)に送信する少なくとも1つの音声合成サ
    ーバ(2)とを備えた音声合成システムにおいて、 前記クライアント(1)がD/A変換機能を有しない場
    合に、特定の電話機の電話番号データを前記音声合成サ
    ーバ(2)に送信し、該電話機を音声波形の送信先とし
    て指定し、該電話機から音声出力させることを特徴とす
    る音声合成システム。
  9. 【請求項9】音声合成すべきテキストデータを入力する
    クライアント(1)と、 音質又は言語毎に専用化され、前記クライアント(1)
    から送信されるデータに基づいて自己の管理する音質又
    は言語の音響パラメータを生成し、生成した音響パラメ
    ータを送信する複数の音響パラメータ生成サーバ(2a 、
    2b) と、 前記音響パラメータ生成サーバ(2a 、2b) から送信され
    る音響パラメータに基づいて音声波形を生成し、生成し
    た音声波形を前記クライアント(1)に送信する波形生
    成サーバ(2c)とからなることを特徴とする音声合成シス
    テム。
  10. 【請求項10】 検索すべき単語を入力する単語入力部
    (41)と、 前記単語入力部(41)から入力された単語を送信する
    単語送信部(42)と、 辞書情報及び音声波形を受信する辞書情報/波形受信部
    (43)と、 前記辞書情報を表示する辞書情報表示部(45)と、 前記音声波形を音声として出力する音声出力部(15)
    とからなるクライアント(4)と、 前記クライアント(4)から検索要求のあった単語の辞
    書情報を単語辞書(53)から検索する辞書検索部(5
    2)と、 検索された辞書情報の中の表音記号を送信する表音記号
    送信部(55)と、 音声波形を受信すると共に、受信した音声波形と前記辞
    書検索部(52)で検索された辞書情報とを前記クライ
    アント(4)に送信するデータ送受信部(57)とから
    なる辞書検索サーバ(5)と、 前記辞書検索サーバ(5)から送信される表音記号を受
    信する表音記号受信部(220)と、 前記表音記号に対応する音声波形を生成する波形生成部
    (24)と、 前記波形生成部(24)で生成された音声波形を前記辞
    書検索サーバ(5)に送信する波形送信部(26)とか
    らなる音声合成サーバ(2)とを有することを特徴とす
    る音声合成システム。
  11. 【請求項11】 スケジュール情報と音声波形を受信す
    るスケジュール/波形受信部(63)と、 前記スケジュール/波形受信部(63)で受信された音
    声波形を音声として出力する音声出力部(15)とから
    なるクライアント(6)と、 複数のユーザのスケジュール情報を記憶するスケジュー
    ルデータベース(73)と、 前記スケジュールデータベース(73)から所定の条件
    のスケジュール情報を検索するスケジュール検索部(7
    2)と、 検索した前記スケジュール情報を送信するスケジュール
    送信部(74)とからなるスケジュール管理サーバ
    (7)と、 前記スケジュール管理サーバ(7)から送信されるスケ
    ジュール情報を受信するテキスト受信部(21)と、 前記テキスト受信部(21)で受信されたスケジュール
    情報に対応する音声波形を生成する波形生成部(24)
    と、 前記音声波形を前記クライアント(6)又はスケジュー
    ル管理サーバ(7)に送信する波形送信部(26)とか
    らなる音声合成サーバ(2)とを有することを特徴とす
    る音声合成システム。
  12. 【請求項12】前記音声合成サーバ(2)の前記波形送
    信部(26)は、生成された音声波形を前記スケジュー
    ル管理サーバ(7)に送信し、 前記スケジュール管理サーバ(7)のスケジュール送信
    部(74)は、前記音声合成サーバ(2)から送信され
    る音声波形を受信すると共に、受信した音声波形と前記
    スケジュール検索部(72)で検索されたスケジュール
    情報とを前記クライアント(6)に送信することを特徴
    とする請求項11記載の音声合成システム。
JP29946892A 1991-11-12 1992-11-10 音声合成システム及び音声合成サーバ Expired - Fee Related JP3446764B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29946892A JP3446764B2 (ja) 1991-11-12 1992-11-10 音声合成システム及び音声合成サーバ

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP29562191 1991-11-12
JP3-295621 1991-11-12
JP29946892A JP3446764B2 (ja) 1991-11-12 1992-11-10 音声合成システム及び音声合成サーバ

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2003018049A Division JP2003202884A (ja) 1991-11-12 2003-01-27 音声合成システム

Publications (2)

Publication Number Publication Date
JPH05233565A true JPH05233565A (ja) 1993-09-10
JP3446764B2 JP3446764B2 (ja) 2003-09-16

Family

ID=28676652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29946892A Expired - Fee Related JP3446764B2 (ja) 1991-11-12 1992-11-10 音声合成システム及び音声合成サーバ

Country Status (1)

Country Link
JP (1) JP3446764B2 (ja)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830529A (ja) * 1994-07-20 1996-02-02 Fujitsu Ltd 通信サーバ
US6289085B1 (en) 1997-07-10 2001-09-11 International Business Machines Corporation Voice mail system, voice synthesizing device and method therefor
JP2002132281A (ja) * 2000-10-26 2002-05-09 Nippon Telegr & Teleph Corp <Ntt> 歌声メッセージ生成・配信方法及びその装置
JP2003058180A (ja) * 2001-06-08 2003-02-28 Matsushita Electric Ind Co Ltd 合成音販売システムおよび音素の著作権認定システム
JP2003067274A (ja) * 2001-08-27 2003-03-07 Murata Mach Ltd クライアント装置及び処理サーバ
JP2003122387A (ja) * 2001-10-11 2003-04-25 Matsushita Electric Ind Co Ltd 読み上げシステム
JP2003140677A (ja) * 2001-11-06 2003-05-16 Matsushita Electric Ind Co Ltd 読み上げシステム
JP2003140672A (ja) * 2001-11-06 2003-05-16 Matsushita Electric Ind Co Ltd 音素ビジネスシステム
WO2004072952A1 (ja) * 2003-02-17 2004-08-26 Kabushiki Kaisha Kenwood 音声合成処理システム
JP2005092868A (ja) * 2003-08-08 2005-04-07 Open Circuit:Kk 情報提供装置、フォーマット分解装置、情報提供方法及びプログラム
JP2005309164A (ja) * 2004-04-23 2005-11-04 Nippon Hoso Kyokai <Nhk> 読み上げ用データ符号化装置および読み上げ用データ符号化プログラム
US6983249B2 (en) 2000-06-26 2006-01-03 International Business Machines Corporation Systems and methods for voice synthesis
JP2006350091A (ja) * 2005-06-17 2006-12-28 Nippon Telegr & Teleph Corp <Ntt> 音声合成方法、音声合成情報処理方法、クライアント端末、音声合成情報処理サーバ、クライアント端末プログラム、音声合成情報処理プログラム
US7230177B2 (en) 2002-11-19 2007-06-12 Yamaha Corporation Interchange format of voice data in music file
US7647301B2 (en) 2003-08-08 2010-01-12 Open-Circuit, Ltd. Information provision apparatus, format separation apparatus, information provision method and program
JP2010140414A (ja) * 2008-12-15 2010-06-24 Hitachi Ltd 電子メール音声読上げシステム
JP2010237307A (ja) * 2009-03-30 2010-10-21 Nippon Telegr & Teleph Corp <Ntt> 音声学習・合成システム及び音声学習・合成方法
WO2012008437A1 (ja) * 2010-07-13 2012-01-19 富士通テン株式会社 情報提供システムおよび車載装置
JP2012194284A (ja) * 2011-03-15 2012-10-11 Toshiba Corp 音声変換支援装置、プログラムおよび音声変換支援方法
WO2015111256A1 (ja) * 2014-01-24 2015-07-30 クラリオン株式会社 音声調整システム、サーバ及び車載装置
JP2017129840A (ja) * 2016-01-19 2017-07-27 百度在綫網絡技術(北京)有限公司 音声合成システムの最適化方法及び装置
JP2017529570A (ja) * 2014-07-02 2017-10-05 ボーズ・コーポレーションBose Corporation ネイティブ音声データとリモートで生成された音声データとを組み合わせる音声プロンプト生成
JP2022087620A (ja) * 2020-12-01 2022-06-13 トヨタ自動車株式会社 機械学習方法及び機械学習システム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS527635A (en) * 1975-07-08 1977-01-20 Fuji Electric Co Ltd Wide-area audio response system
JPS62279433A (ja) * 1986-05-28 1987-12-04 Nec Corp 動的タスク変更方式
JPS6339015A (ja) * 1986-08-01 1988-02-19 Nec Corp オンライン会話処理システムの分散処理方式
JPH0121653B2 (ja) * 1980-12-19 1989-04-21 Fujitsu Ltd
JPH01231160A (ja) * 1988-03-11 1989-09-14 Hitachi Ltd 電子計算機システムの運転装置
JPH0243652A (ja) * 1988-08-04 1990-02-14 Nec Corp データ転送方式
JPH02240699A (ja) * 1989-03-14 1990-09-25 Matsushita Electric Ind Co Ltd 音声合成装置
JPH0363745A (ja) * 1989-08-01 1991-03-19 Canon Inc 情報処理システム
JPH03266548A (ja) * 1990-03-16 1991-11-27 Canon Inc メツセージ通信処理システム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS527635A (en) * 1975-07-08 1977-01-20 Fuji Electric Co Ltd Wide-area audio response system
JPH0121653B2 (ja) * 1980-12-19 1989-04-21 Fujitsu Ltd
JPS62279433A (ja) * 1986-05-28 1987-12-04 Nec Corp 動的タスク変更方式
JPS6339015A (ja) * 1986-08-01 1988-02-19 Nec Corp オンライン会話処理システムの分散処理方式
JPH01231160A (ja) * 1988-03-11 1989-09-14 Hitachi Ltd 電子計算機システムの運転装置
JPH0243652A (ja) * 1988-08-04 1990-02-14 Nec Corp データ転送方式
JPH02240699A (ja) * 1989-03-14 1990-09-25 Matsushita Electric Ind Co Ltd 音声合成装置
JPH0363745A (ja) * 1989-08-01 1991-03-19 Canon Inc 情報処理システム
JPH03266548A (ja) * 1990-03-16 1991-11-27 Canon Inc メツセージ通信処理システム

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830529A (ja) * 1994-07-20 1996-02-02 Fujitsu Ltd 通信サーバ
US6289085B1 (en) 1997-07-10 2001-09-11 International Business Machines Corporation Voice mail system, voice synthesizing device and method therefor
US6983249B2 (en) 2000-06-26 2006-01-03 International Business Machines Corporation Systems and methods for voice synthesis
JP2002132281A (ja) * 2000-10-26 2002-05-09 Nippon Telegr & Teleph Corp <Ntt> 歌声メッセージ生成・配信方法及びその装置
JP2003058180A (ja) * 2001-06-08 2003-02-28 Matsushita Electric Ind Co Ltd 合成音販売システムおよび音素の著作権認定システム
JP2003067274A (ja) * 2001-08-27 2003-03-07 Murata Mach Ltd クライアント装置及び処理サーバ
JP2003122387A (ja) * 2001-10-11 2003-04-25 Matsushita Electric Ind Co Ltd 読み上げシステム
JP2003140677A (ja) * 2001-11-06 2003-05-16 Matsushita Electric Ind Co Ltd 読み上げシステム
JP2003140672A (ja) * 2001-11-06 2003-05-16 Matsushita Electric Ind Co Ltd 音素ビジネスシステム
US7230177B2 (en) 2002-11-19 2007-06-12 Yamaha Corporation Interchange format of voice data in music file
WO2004072952A1 (ja) * 2003-02-17 2004-08-26 Kabushiki Kaisha Kenwood 音声合成処理システム
US7647301B2 (en) 2003-08-08 2010-01-12 Open-Circuit, Ltd. Information provision apparatus, format separation apparatus, information provision method and program
JP2005092868A (ja) * 2003-08-08 2005-04-07 Open Circuit:Kk 情報提供装置、フォーマット分解装置、情報提供方法及びプログラム
JP2005309164A (ja) * 2004-04-23 2005-11-04 Nippon Hoso Kyokai <Nhk> 読み上げ用データ符号化装置および読み上げ用データ符号化プログラム
JP2006350091A (ja) * 2005-06-17 2006-12-28 Nippon Telegr & Teleph Corp <Ntt> 音声合成方法、音声合成情報処理方法、クライアント端末、音声合成情報処理サーバ、クライアント端末プログラム、音声合成情報処理プログラム
JP4653572B2 (ja) * 2005-06-17 2011-03-16 日本電信電話株式会社 クライアント端末、音声合成情報処理サーバ、クライアント端末プログラム、音声合成情報処理プログラム
JP2010140414A (ja) * 2008-12-15 2010-06-24 Hitachi Ltd 電子メール音声読上げシステム
JP2010237307A (ja) * 2009-03-30 2010-10-21 Nippon Telegr & Teleph Corp <Ntt> 音声学習・合成システム及び音声学習・合成方法
WO2012008437A1 (ja) * 2010-07-13 2012-01-19 富士通テン株式会社 情報提供システムおよび車載装置
JP2012023510A (ja) * 2010-07-13 2012-02-02 Fujitsu Ten Ltd 情報提供システムおよび車載装置
JP2012194284A (ja) * 2011-03-15 2012-10-11 Toshiba Corp 音声変換支援装置、プログラムおよび音声変換支援方法
WO2015111256A1 (ja) * 2014-01-24 2015-07-30 クラリオン株式会社 音声調整システム、サーバ及び車載装置
JPWO2015111256A1 (ja) * 2014-01-24 2017-03-23 クラリオン株式会社 音声調整システム、サーバ及び車載装置
JP2017529570A (ja) * 2014-07-02 2017-10-05 ボーズ・コーポレーションBose Corporation ネイティブ音声データとリモートで生成された音声データとを組み合わせる音声プロンプト生成
JP2017129840A (ja) * 2016-01-19 2017-07-27 百度在綫網絡技術(北京)有限公司 音声合成システムの最適化方法及び装置
US10242660B2 (en) 2016-01-19 2019-03-26 Baidu Online Network Technology (Beijing) Co., Ltd. Method and device for optimizing speech synthesis system
JP2022087620A (ja) * 2020-12-01 2022-06-13 トヨタ自動車株式会社 機械学習方法及び機械学習システム
US11623652B2 (en) 2020-12-01 2023-04-11 Toyota Jidosha Kabushiki Kaisha Machine learning method and machine learning system

Also Published As

Publication number Publication date
JP3446764B2 (ja) 2003-09-16

Similar Documents

Publication Publication Date Title
US5940795A (en) Speech synthesis system
JP3446764B2 (ja) 音声合成システム及び音声合成サーバ
US6810379B1 (en) Client/server architecture for text-to-speech synthesis
JP4005359B2 (ja) 音声符号化及び音声復号化装置
CN1307614C (zh) 合成语音的方法和装置
CN101506876A (zh) 在具有不同语音帧速率的混合激励线性预测(melp)声码器之间进行代码转换的声码器和相关方法
JPH08272395A (ja) 音声符号化装置
WO1997007498A1 (fr) Unite de traitement des signaux vocaux
JP2000356995A (ja) 音声通信システム
JPH05265496A (ja) 複数のコードブックを有する音声符号化方法
EP1298647B1 (en) A communication device and a method for transmitting and receiving of natural speech, comprising a speech recognition module coupled to an encoder
JP4578145B2 (ja) 音声符号化装置、音声復号化装置及びこれらの方法
JP2003202884A (ja) 音声合成システム
JP3916934B2 (ja) 音響パラメータ符号化、復号化方法、装置及びプログラム、音響信号符号化、復号化方法、装置及びプログラム、音響信号送信装置、音響信号受信装置
JP4287840B2 (ja) 符号化装置
KR0155798B1 (ko) 음성신호 부호화 및 복호화 방법
KR101377667B1 (ko) 오디오/스피치 신호의 시간 도메인에서의 부호화 방법
JP3232701B2 (ja) 音声符号化方法
Sun et al. Speech compression
Dong-jian Two stage concatenation speech synthesis for embedded devices
JP2002073097A (ja) Celp型音声符号化装置とcelp型音声復号化装置及び音声符号化方法と音声復号化方法
Shoham Low complexity speech coding at 1.2 to 2.4 kbps based on waveform interpolation
BAKIR Compressing English Speech Data with Hybrid Methods without Data Loss
KR100624545B1 (ko) 티티에스 시스템의 음성압축 및 합성방법
JPH09506182A (ja) 符号駆動線形予測を備える適応音声符号化器

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030617

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080704

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090704

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100704

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100704

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees