JPH09244679A - 音声合成方法および音声合成装置 - Google Patents

音声合成方法および音声合成装置

Info

Publication number
JPH09244679A
JPH09244679A JP8054373A JP5437396A JPH09244679A JP H09244679 A JPH09244679 A JP H09244679A JP 8054373 A JP8054373 A JP 8054373A JP 5437396 A JP5437396 A JP 5437396A JP H09244679 A JPH09244679 A JP H09244679A
Authority
JP
Japan
Prior art keywords
information
japanese
converted
phonetic symbol
reading
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8054373A
Other languages
English (en)
Inventor
Naoto Iwahashi
直人 岩橋
Satoshi Miyazaki
敏 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP8054373A priority Critical patent/JPH09244679A/ja
Publication of JPH09244679A publication Critical patent/JPH09244679A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

(57)【要約】 【課題】 英単語が混在した漢字仮名混じり文から、分
かりやすい日本語の合成音を生成する。 【解決手段】 外国語抽出部12において、入力文か
ら、英語(アルファベット)により表記された単語が抽
出され、外国語読み変換部13Bにおいて、その単語
が、外国語読み辞書15Bを参照することにより、それ
に対応する日本語の読み情報に変換される(例えば、英
単語「meeting」が読み情報「ミーティング」に
変換される)。さらに、外国語読み変換部13Bでは、
その読み情報から音韻情報が生成される(例えば、読み
情報「ミーティング」が音韻情報「mi-tiNqu」に変換さ
れる(「-」は長音を、「N」は撥音を表す))。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声合成方法およ
び音声合成装置に関する。特に、例えば日本語と英語な
どで表記された入力文から、自然な合成音を得ることが
できるようにする音声合成方法および音声合成装置に関
する。
【0002】
【従来の技術】例えば、日本語テキスト音声合成装置
は、言語解析を行う言語解析処理部および規則音声合成
を行う音声合成処理部などから構成される。そして、こ
のような日本語テキスト音声合成装置では、例えば日本
語の漢字仮名混じり文を入力文とし、その入力文が、言
語解析処理部において、漢字辞書を参照しながら、日本
語の読みに変換され、さらに、その入力文の統語構造が
解析され、その解析結果に基づいて、アクセントに関す
るアクセント情報が付加される。その後、音声合成処理
部において、読み(音韻情報)およびアクセント情報に
基づいて、韻律制御が行われながら、入力文に対応する
合成音が生成される。以上のようにして、日本語の漢字
仮名混じり文から、自然なアクセントの合成音が生成さ
れる。
【0003】即ち、図22は、従来の日本語テキスト音
声合成装置の一例の構成を示している。この音声合成装
置は、言語処理部51、日本語音声合成部2、音声単位
データセット記憶部3、音声出力部4、およびスピーカ
5から構成されている。なお、上述の言語解析処理部ま
たは音声合成処理部は、言語処理部51または日本語音
声合成部2にそれぞれ相当する。
【0004】音声合成すべき日本語テキストとしての漢
字仮名混じり文は、言語処理部51に供給される。言語
処理部51は、漢字読み変換部13A、アクセント付加
部14、および日本語辞書55で構成されており、さら
に、日本語辞書55は、漢字読み辞書15Aおよびアク
セント辞書15Cで構成されている。
【0005】言語処理部51では、まず最初に、漢字読
み変換部13Aにおいて、漢字とその読みとが対応付け
て記憶されている漢字読み辞書15Aを参照することに
より、漢字仮名混じり文中における漢字に読みが付さ
れ、これにより、漢字仮名混じり文が、日本語の読み情
報に変換される。さらに、漢字読み変換部13Aでは、
読み情報が、日本語の音韻を表す音韻情報に変換され
る。
【0006】即ち、例えば漢字仮名混じり文「今日は天
気がいいですね」が入力文として入力された場合、漢字
読み変換部13Aでは、その漢字仮名混じり文が、まず
読み情報(ここでは、例えば、漢字仮名混じり文の読み
を片仮名で表したもの)「キョウハテンキガイイデス
ネ」に変換され、さらに、その読み情報が音韻情報(こ
こでは、例えば、読みに対する音韻をアルファベットの
小文字で表したもの)「kyoowa teNkiga iidesune」に
変換される。なお、音韻情報「N」は、撥音を表す。
【0007】音韻情報は、漢字読み変換部13Aからア
クセント付加部14に供給される。アクセント付加部1
4では、日本語のアクセントに関する規則が記述された
アクセント辞書15Cを参照することで、音韻情報に対
し、日本語を発音する上で自然なアクセントが付加され
る。即ち、ここでは、例えば、音韻情報に対し、アクセ
ントのある位置(アクセントのある位置の直後)にアク
セント情報「'」が付加される。これにより、上述の音
韻情報「kyoowa teNkiga iidesune」は、「kyo'owa te'
Nkiga i'idesune」とされる。
【0008】アクセント情報の付加された音韻情報は、
アクセント付加部14から日本語音声合成部2に出力さ
れる。日本語音声合成部2では、音韻情報に基づいて、
音声単位データセット記憶部3に記憶されている音声単
位データとしての、例えば音素片データが読み出され、
その音素片データが、アクセント情報に基づいて抑揚や
強調などの入力文の文章の内容に即した韻律制御を行い
ながら接続される。
【0009】即ち、日本語音声合成部2では、音韻情報
に対応する音素片データが、音声単位データセット記憶
部3から読み出されるとともに、アクセント情報に基づ
いて、合成音に適当な抑揚や強調部分を付加するための
韻律情報が生成され、音素片データが、韻律情報に基づ
いて接続される。
【0010】具体的には、例えば、韻律情報に、入力文
のピッチパターンや、入力文を構成する各音韻の継続時
間、各音韻のパワーなどが含まれているときは、この韻
律情報に基づいて、次のような制御が行われる。即ち、
ピッチパターンに基づいて、音素片データを接続する間
隔が調整され(音素片データのピッチ周期が調整さ
れ)、音韻の継続時間に基づいて、その音韻に対応する
音素片データを繰り返し接続する回数が制御される。さ
らに、音韻のパワーに基づいて、その音韻に対応する音
素片データの振幅が制御される。
【0011】以上のようにして音素片データを、韻律情
報に基づいて接続して得られた音声波形は、音声出力部
4に供給される。音声出力部4は、例えばD/A変換器
およびアンプなどを内蔵しており、日本語音声合成部2
からの音声データをD/A変換し、さらに、そのレベル
を適正に調整して、スピーカ5に供給する。これによ
り、スピーカ5からは、入力文に対応した合成音が出力
される。
【0012】ところで、最近では、広域のコンピュータ
ネットワークであるインターネットが急速に普及し、メ
ッセージのやりとりを電子メール(E-mail)で行うこと
が多くなってきた。電子メールは、相手が不在かどうか
に拘らず送信することができ、また、相手方からすれ
ば、送信されてきた電子メールは、いつでも見ることが
できるので、電話のように、自身または相手方のいずれ
かが不在であるために連絡をとることができないといっ
たようなことがない。
【0013】しかしながら、電子メールを見るには、コ
ンピュータなどの端末が必要であり、従って、例えば外
出先から自身宛の電子メールを確認することは困難であ
った。
【0014】そこで、いわゆるパソコン通信サービスを
提供しているNIFTY−Serve(商標)などで
は、電子メールの合成音による読み上げサービスが行わ
れている。このサービスによれば、ユーザが、電話機に
よって、センタ局にアクセスすると、自身宛の電子メー
ルが合成音により読み上げられるようになされており、
これにより、ユーザは、コンピュータがなくても、電子
メールを確認することができるようになされている。
【0015】このような電子メールの合成音による読み
上げは、上述のような日本語テキスト音声合成装置によ
って行われる。
【0016】
【発明が解決しようとする課題】ところで、電子メール
の中には、日本語の漢字や仮名だけで記載がなされてい
るものの他、例えば漢字仮名混じり文中に、英語その他
の外国語の単語が混在した記載や、外国語だけで記載が
なされているものがある。
【0017】しかしながら、日本語テキスト音声合成装
置では、入力文が、日本語用の言語処理部51によって
処理されるため、その中に、アルファベットなどのよう
な日本語以外の外国語の表記が含まれていると、その外
国語の表記の単語に対応する合成音を生成することがで
きず、例えば、その単語を構成する文字が、1文字ずつ
読み上げられるようになされていた。
【0018】即ち、入力文として、例えば「明日、me
etingを行います。」などが入力された場合、合成
音としては、単語「meeting」を「ミーティン
グ」とした「あす、ミーティングをおこないます」とい
うものが生成されるのが好ましいが、従来においては、
単語「meeting」を「エム、イー、イー、ティ、
アイ、エヌ、ジー」とした「あす、エム、イー、イー、
ティ、アイ、エヌ、ジーをおこないます」などのような
不自然なものが生成されるようになされていた。
【0019】従って、ユーザは、その内容を理解するこ
とが困難な場合があった。
【0020】本発明は、このような状況に鑑みてなされ
たものであり、複数の言語による表記がなされた入力文
から、自然な合成音を得ることができるようにするもの
である。
【0021】
【課題を解決するための手段】請求項1に記載の音声合
成方法は、入力文から、第2の言語により表記された単
語を抽出し、第2の言語により表記された単語を、第1
の言語の音韻情報に変換し、その音韻情報を用いて、入
力文に対応する合成音を生成することを特徴とする。
【0022】請求項4に記載の音声合成装置は、入力文
から、第2の言語により表記された単語を抽出する抽出
手段と、抽出手段により抽出された第2の言語により表
記された単語を、第1の言語の音韻情報に変換する変換
手段と、変換手段より出力される音韻情報を用いて、入
力文に対応する合成音を生成する生成手段とを備えるこ
とを特徴とする。
【0023】請求項1に記載の音声合成方法において
は、入力文から、第2の言語により表記された単語を抽
出し、第2の言語により表記された単語を、第1の言語
の音韻情報に変換し、その音韻情報を用いて、入力文に
対応する合成音を生成するようになされている。
【0024】請求項4に記載の音声合成装置において
は、抽出手段は、入力文から、第2の言語により表記さ
れた単語を抽出し、変換手段は、抽出手段により抽出さ
れた第2の言語により表記された単語を、第1の言語の
音韻情報に変換するようになされている。生成手段は、
変換手段より出力される音韻情報を用いて、入力文に対
応する合成音を生成するようになされている。
【0025】
【発明の実施の形態】以下に、本発明の実施例を説明す
るが、その前に、特許請求の範囲に記載の発明の各手段
と以下の実施例との対応関係を明らかにするために、各
手段の後の括弧内に、対応する実施例(但し、一例)を
付加して、本発明の特徴を記述すると、次のようにな
る。
【0026】即ち、請求項4に記載の音声合成装置は、
第1および第2の言語により表記された入力文に対応す
る合成音を生成する音声合成装置であって、入力文か
ら、第2の言語により表記された単語を抽出する抽出手
段(例えば、図1や図3に示す外国語抽出部12など)
と、抽出手段により抽出された第2の言語により表記さ
れた単語を、第1の言語の音韻情報に変換する変換手段
(例えば、図1に示す外国語読み変換部13Bや、図3
に示す発音記号変換部23Aおよび発音記号読み変換部
23Cなど)と、変換手段より出力される音韻情報を用
いて、入力文に対応する合成音を生成する生成手段(例
えば、図1や図3に示す日本語音声合成部2など)とを
備えることを特徴とする。
【0027】なお、勿論この記載は、各手段を上記した
ものに限定することを意味するものではない。
【0028】図1は、本発明を適用した音声合成装置の
第1実施例の構成を示している。なお、図中、図22に
おける場合と対応する部分については、同一の符号を付
してあり、以下では、その説明は、適宜省略する。即
ち、この音声合成装置は、言語処理部51に代えて、言
語処理部1が設けられている他は、図22の音声合成装
置と同様に構成されている。
【0029】言語処理部1は、漢字仮名抽出部11、外
国語抽出部12、読み変換部13、アクセント付加部1
4、および日本語辞書15から構成されている。
【0030】漢字仮名抽出部11または外国語抽出部1
2は、そこに入力された入力文から、例えば日本語また
は英語による表記をそれぞれ抽出し、読み変換部13に
供給するようになされている。なお、入力文は、例えば
いわゆるアスキーコードにより記述されており、漢字仮
名抽出部11または外国語抽出部12は、そのアスキー
コードによって、入力文を構成する各文字が、日本語
(漢字や仮名など)で表記されているかどうか、または
英語(アルファベットなど)で表記されているかどうか
を、それぞれ判定するようになされている。
【0031】読み変換部13は、漢字読み変換部13A
および外国語読み変換部13Bから構成されている。外
国語読み変換部13Bは、後述する外国語読み辞書15
Bを参照することで、英語で表記された単語を、日本語
の読み情報に変換するようになされている。さらに、外
国語読み変換部13Bは、その読み情報を、日本語の音
韻情報に変換するようにもなされている。外国語読み変
換部13Bにおいて英語で表記された単語を日本語の音
韻情報としたものは、アクセント付加部14に供給され
るようになされている。
【0032】日本語辞書15は、漢字読み辞書15A、
外国語読み辞書15B、およびアクセント辞書15Cか
ら構成されている。外国語読み辞書15Bは、英語で表
記された単語と、その単語に対応する日本語の読み(読
み情報)とを対応付けて記憶している。
【0033】即ち、外国語読み辞書15Bでは、例えば
図2に示すように、アルファベット順で、英単語の見出
し(単語を英語で表記したもの)と、その読み情報とが
対応付けられて記憶されている。
【0034】次に、その動作について説明する。入力文
として、日本語の漢字仮名混じり文に英語がさらに含ま
れたものが、言語処理部1に入力されると、その入力文
は、漢字仮名抽出部11および外国語抽出部12の両方
に供給される。漢字仮名抽出部11または外国語抽出部
12では、入力文から、日本語または英語により表記さ
れた部分が抽出され、漢字読み変換部13Aまたは外国
語読み変換部13Bにそれぞれ出力される。
【0035】即ち、入力文として、例えば「本日、me
etingを行います」などが入力された場合、漢字仮
名抽出部11では、その入力文の中の日本語(漢字や、
仮名(平仮名、片仮名)、数字など)で表記された「本
日、」および「を行います」が抽出され(「本」、
「日」、「、」が連続して抽出され、その後、「を」、
「行」、「い」、「ま」、「す」が連続して抽出さ
れ)、漢字読み変換部13Aに出力される。
【0036】また、外国語抽出部12では、入力文の中
の英語(アルファベット)で表記された「meetin
g」が抽出され(「m」、「e」、「e」、「t」、
「i」、「n」、「g」が連続して抽出され)、外国語
読み変換部13Bに出力される。
【0037】漢字読み変換部13Aでは、前述した場合
と同様にして、「本日、」または「を行います」が、対
応する読み情報「ホンジツ、」または「ヲオコナイマ
ス」にそれぞれ変換され、さらに、それぞれの読み情報
が、対応する音韻情報「hoNjitsu」または「wookonaima
su」に変換される。これらの音韻情報は、アクセント付
加部14に供給される。
【0038】一方、外国語読み変換部13Bでは、外国
語抽出部12から連続して供給される文字が連結され、
これにより、英単語が構成される。即ち、上述の入力文
「本日、meetingを行います」については、外国
語抽出部12から文字「m」、「e」、「e」、
「t」、「i」、「n」、「g」が連続して供給される
ので、これが連結されることにより英単語「meeti
ng」が構成される。そして、外国語読み変換部13B
は、この英単語「meeting」を、外国語読み辞書
15Bを参照して、対応する日本語の読み情報に変換す
る。即ち、この場合、図2に示したように、英単語「m
eeting」には、読み情報「ミーティング」が対応
付けられており、従って、英単語「meeting」
は、読み情報「ミーティング」に変換される。
【0039】さらに、外国語読み変換部13Bでは、日
本語の読み情報「ミーティング」が、漢字読み変換部1
3Aにおける場合と同様にして日本語の音韻情報「mi-t
iNqu」に変換され、アクセント付加部14に供給され
る。ここで、「-」は長音を表す。
【0040】アクセント付加部14では、漢字読み変換
部13Aおよび外国語読み変換部13Bからの音韻情報
が結合され、これにより、入力文全体の音韻情報が生成
される。即ち、図1においては図示していないが、漢字
仮名抽出部11または外国語抽出部12からアクセント
付加部14に対しては、入力文中の、日本語または英語
それぞれにより表記されている部分の位置を示す情報が
供給されるようになされており、アクセント付加部14
では、この情報に基づいて、漢字読み変換部13Aおよ
び外国語読み変換部13Bからの音韻情報が、入力文に
対応するように結合される。そして、その結合の結果得
られた音韻情報に対し、前述したようにアクセント情報
が付加され、これにより、例えば「ho'Njitsu mi-tiNqu
wo okonaima'su」が、日本語音声合成部2に出力され
る。
【0041】以下、図22における場合と同様の処理が
行われ、これにより、スピーカ5からは、合成音「ほん
じつ、ミーティングをおこないます」が出力される。
【0042】以上のように、入力文から、英語により表
記された単語を抽出して、その単語を、日本語の読み情
報に変換し、さらに、その読み情報を、日本語の音韻情
報に変換するようにしたので、入力文が、日本語の他
に、英語を含むものであっても、その内容を容易に理解
することのできる、自然な合成音を得ることができる。
【0043】次に、図3は、本発明を適用した音声合成
装置の第2実施例の構成を示している。なお、図中、図
1における場合と対応する部分については、同一の符号
を付してあり、以下では、その説明は、適宜省略する。
即ち、この音声合成装置は、言語処理部1に代えて、言
語処理部21が設けられている他は、図1の音声合成装
置と同様に構成されている。
【0044】言語処理部21は、読み変換部13または
日本語辞書15に代えて、読み変換部23または日本語
辞書25が設けられている他は、図1の言語処理部1と
同様に構成されている。
【0045】読み変換部23は、漢字読み変換部13
A、発音記号変換部23A、外国語辞書23B、および
発音記号読み変換部23で構成されている。発音記号変
換部23Aは、後述する外国語辞書23Bを参照するこ
とで、英語により表記された単語を、発音記号に変換
し、発音記号読み変換部23Cに出力するようになされ
ている。外国語辞書23Bは、英語で表記された単語
と、その単語に対応する発音記号とを対応付けて記憶し
ている。
【0046】即ち、外国語辞書23Bでは、例えば図4
に示すように、アルファベット順で、英単語の見出し
と、その発音記号とが対応付けられて記憶されている。
【0047】発音記号読み変換部23Cは、後述する発
音記号読み辞書25Aを参照することで、発音記号変換
部23Aからの発音記号を、対応する日本語の音韻情報
に変換するようになされている。なお、発音記号には、
アクセントを表す記号も含まれており、発音記号読み変
換部23Cは、このアクセントを表す記号に対応して、
音韻情報に対し、アクセント情報を付加するようにもな
されている。
【0048】日本語辞書25は、漢字読み辞書15A、
アクセント辞書15C、および発音記号読み辞書25A
で構成されている。発音記号読み辞書25Aは、各種の
発音記号と、それに対応する日本語の音韻情報とを対応
付けて記憶している。
【0049】以上のように構成される音声合成装置で
は、入力文が入力されると、漢字仮名抽出部11または
外国語抽出部12では、入力文から、日本語または英語
により表記された部分が抽出され、漢字読み変換部13
Aまたは発音記号変換部23Aにそれぞれ出力される。
【0050】即ち、上述した場合と同様に、入力文とし
て、例えば「本日、meetingを行います」などが
入力されたとすると、漢字読み変換部13Aには、「本
日、」および「を行います」が供給され、発音記号変換
部23Aには、「meeting」が供給される。
【0051】入力文中の日本語により表記された部分
「本日、」および「を行います」は、漢字読み変換部1
3A、さらには、アクセント付加部14において、図1
における場合と同様の処理が行われ、これにより、「本
日、」または「を行います」それぞれの音韻情報にアク
セント情報が付加された「ho'Njitsu」または「wookona
ima'su」が、日本語音声合成部2に出力される。
【0052】一方、発音記号変換部23Aでは、図1の
外国語読み変換部13Bにおける場合と同様に、外国語
抽出部12から連続して供給される文字が連結され、こ
れにより、英単語「meeting」が構成される。そ
して、発音記号変換部23Aは、この英単語「meet
ing」を、外国語辞書23B(図4)を参照して、対
応する発音記号「mi':tiη」に変換し、発音記号読み変
換部23Cに供給する。
【0053】ここで、本明細書中においては、表1の左
欄の発音記号を、同じく表1の右欄に掲げる記号で記述
する。また、アクセントを表す記号「'」は、アクセン
トのある発音記号の直後に記述する。さらに、第2アク
セントは、記号「`」で表す。
【0054】
【表1】
【0055】発音記号読み変換部23Cでは、発音記号
読み辞書25Aを参照することで、発音記号変換部23
Aからの発音記号が、対応する日本語の音韻情報(上述
したように、アクセント情報が付加された音韻情報)に
変換される。
【0056】即ち、図5に示すように、まず、発音記号
「mi':tiη」のうちの最初の音韻を表す「mi」は、子音
「m」と母音「i」とからなる音韻情報「mi」に変換され
る(図5(A))。そして、それに続く発音記号「'」
は、そのままアクセント情報「'」に変換される(図5
(B))。さらに、発音記号「'」に続く発音記号「:」
は、長音を表す音韻情報「-」に変換され(図5
(C))、それに続く発音記号「ti」は、発音記号「m
i」における場合と同様に、そのまま音韻情報「ti」に
変換される(図5(D))。そして、最後の発音記号
「η」は、日本語の鼻音を表す音韻情報「Nqu」に変換
される。
【0057】以上のようにして、発音記号「mi':tiη」
は、音韻情報(アクセント情報が付加された音韻情報)
「mi'-tiNqu」に変換され、このアクセント情報が付加
されている音韻情報は、日本語音声合成部2に供給され
る。
【0058】日本語音声合成部2では、アクセント付加
部14および発音記号読み変換部23Cからの音韻情報
が結合され、これにより、入力文全体の音韻情報が生成
される。即ち、図3においては図示していないが、漢字
仮名抽出部11または外国語抽出部12から日本語音声
合成部2に対しては、入力文中の、日本語または英語そ
れぞれにより表記されている部分の位置を示す情報が供
給されるようになされており、日本語音声合成部2で
は、この情報に基づいて、アクセント付加部14および
発音記号読み変換部23Cからの音韻情報が、入力文に
対応するように結合される。即ち、これにより、音韻情
報「ho'Njitsu mi'-tiNquwo okonaima'su」が生成され
る。
【0059】以下、図22における場合と同様の処理が
行われ、これにより、スピーカ5からは、合成音「ほん
じつ、ミーティングをおこないます」が出力される。
【0060】以上のように、入力文から、英語により表
記された単語を抽出して、その単語を、発音記号に変換
し、さらに、その発音記号を、日本語の音韻情報に変換
するようにしたので、図1における場合と同様に、入力
文が、日本語の他に、英語を含むものであっても、その
内容を容易に理解することのできる、自然な合成音を得
ることができる。さらに、この場合、発音記号には、ア
クセントを表す記号が含まれることから、発音記号を、
日本語の音韻情報に変換する際に、アクセント情報を付
加することができ、その後に、アクセント情報を付加せ
ずに済むようになる。なお、日本語で「ミーティング」
という場合には、通常、アクセントは付かないが、図3
における場合においては、発音記号を音韻情報に変換す
るため、「ミーティング」の「ミ」の部分にアクセント
が付される。但し、このようなアクセントは、日本語に
あうように除去するようにすることが可能である。
【0061】次に、図6乃至図15を参照して、発音記
号読み変換部23Cにおいて行われる、英単語の発音記
号を、日本語の音韻情報に変換する処理について、さら
に説明する。
【0062】図6は、英単語「hair」の発音記号「hε
α」を、音韻情報に変換する処理を示している。この場
合、まず、発音記号「hεα」のうちの最初の音韻を表
す「hε」は、音韻情報「he」に変換される(図6
(A))。即ち、この場合、単母音「ε」は日本語にな
いため、それに最も近似する日本語の読みを表す音韻情
報「e」に変換される。そして、それに続く発音記号
「α」で表される母音も、日本語にはないため、この発
音記号「α」も、やはり、それに最も近似する日本語の
読みを表す音韻情報「a」に変換される。以上のように
して、発音記号「hεα」は、音韻情報「hea」に変換さ
れる。
【0063】図7は、英単語「cash」の発音記号「kae
ζ」を、音韻情報に変換する処理を示している。この場
合、まず、発音記号「kaeζ」のうちの最初の音韻を表
す「kae」は、音韻情報「ka」に変換される(図7
(A))。即ち、この場合、単母音「ae」は日本語にな
いため、それに最も近似する日本語の読みを表す音韻情
報「a」に変換される。そして、それに続く発音記号
「ζ」で表される摩擦音も、日本語にはないため、この
発音記号「ζ」は、それに最も近似する日本語の読みを
表す音韻情報「#shu」に変換される(図7(B))。な
お、音韻情報「#」は無声化を表す。
【0064】以上のようにして、発音記号「kaeζ」
は、音韻情報「ka#shu」に変換される。
【0065】図8は、英単語「mixture」の発音記号「m
i'kstζα」を、音韻情報に変換する処理を示してい
る。この場合、まず、発音記号「mi'kstζα」のうちの
最初の音韻を表す「mi'」は、図5で説明したように、
音韻情報「mi'」に変換される(図8(A)、図8
(B))。そして、それに続く発音記号「k」は、これ
で表される破裂音に最も近似する日本語の読みを表す音
韻情報「#ku」に変換される(図8(C))。さらに、
その後の発音記号「s」は、これで表される音に最も近
似する日本語の読みを表す音韻情報「su」に変換され
(図8(D))、最後の発音記号「tζα」は、これで
表される破擦音に最も近似する日本語の読みを表す音韻
情報「cha」に変換される(図8(E))。以上のよう
にして、発音記号「mi'kstζα」は、音韻情報「mi'#ku
sucha」に変換される。
【0066】図9は、英単語「montage」の発音記号「m
AntA':J」を、音韻情報に変換する処理を示している。
この場合、まず、発音記号「mAntA':J」のうちの最初の
音韻を表す「mA」は、音韻情報「ma」に変換される(図
9(A))。即ち、発音記号「A」は、これで表される
単母音に最も近似する日本語の読みを表す音韻情報
「a」に変換される。そして、それに続く発音記号「n」
は、撥音を表す音韻情報「N」に変換される(図9
(B))。さらに、その後の発音記号「tA」は、その音
を表す音韻情報「ta」に変換され(図9(C))、それ
に続く発音記号「'」は、アクセント情報「'」に変換さ
れる(図9(D))。その後の発音記号「:」は、長音
を表す音韻情報「-」に変換され(図9(E))、最後
の発音記号「J」は、音韻情報「ju」に変換される(図
9(F))。即ち、母音が後に続かない発音記号「J」
は、これで表される摩擦音に最も近似する日本語の読み
を表す音韻情報「ju」に変換される。
【0067】以上のようにして、発音記号「mAntA':J」
は、音韻情報「maNta'-ju」に変換される。
【0068】図10は、英単語「mortgage」の発音記号
「mο':gidJ」を、音韻情報に変換する処理を示してい
る。この場合、まず、発音記号「mο':gidJ」のうちの
最初の音韻を表す「mο」は、その音を表す音韻情報「m
o」に変換される(図10(A))。そして、それに続
く発音記号「'」は、アクセント情報「'」に変換される
(図10(B))。さらに、その後の発音記号「:」
は、長音を表す音韻情報「-」に変換され(図10
(C))、それに続く発音記号「gi」は、その音を表す
音韻情報「gi」に変換される(図10(D))。その後
の発音記号「dJ」は、音韻情報「ji」に変換される(図
10(E))。即ち、母音が後に続かない発音記号「d
J」は、これで表される摩擦音に最も近似する日本語の
読みを表す音韻情報「ji」に変換される。
【0069】以上のようにして、発音記号「mο':gid
J」は、音韻情報「mo'-giji」に変換される。
【0070】図11は、英単語「mother」の発音記号
「mΛ'δα」を、音韻情報に変換する処理を示してい
る。この場合、まず、発音記号「mΛ'δα」のうちの最
初の音韻を表す「mΛ」は、音韻情報「ma」に変換され
る(図11(A))。即ち、発音記号「Λ」は、これで
表される母音に最も近似する日本語の読みを表す音韻情
報「a」に変換される。そして、それに続く発音記
号「'」は、アクセント情報「'」に変換される(図11
(B))。さらに、その後の発音記号「δα」は、音韻
情報「za」に変換される。即ち、発音記号「δ」は、こ
れで表される摩擦音に最も近似する日本語の読みを表す
音韻情報「z」に変換される。
【0071】以上のようにして、発音記号「mΛ'δα」
は、音韻情報「ma'za」に変換される。
【0072】図12は、英単語「mouth」の発音記号「m
auθ」を、音韻情報に変換する処理を示している。この
場合、まず、発音記号「mauθ」のうちの最初の音韻を
表す「ma」は、音韻情報「ma」に変換される(図12
(A))。そして、それに続く発音記号「u」は、音韻
情報「u」に変換される(図12(B))。さらに、そ
の後の発音記号「θ」は、音韻情報「#su」に変換され
る。即ち、発音記号「θ」は、これで表される摩擦音に
最も近似する日本語の読みを表す音韻情報「#su」に変
換される(上述したように、音韻情報「#」は無声化を
表す)。
【0073】以上のようにして、発音記号「mauθ」
は、音韻情報「mau#su」に変換される。
【0074】図13は、英単語「musical」の発音記号
「mju':zikαl」を、音韻情報に変換する処理を示して
いる。この場合、まず、発音記号「mju':zikαl」のう
ちの最初の音韻を表す発音記号「mju」は、音韻情報「m
yu」に変換される(図13(A))。即ち、発音記号
「mju」は、これで表される拗音に最も近似する日本語
の読みを表す音韻情報「myu」に変換される。そして、
それに続く発音記号「'」は、アクセント情報「'」に変
換される(図13(B))。さらに、その後の発音記号
「-」は、長音を表す音韻情報「-」に変換され(図13
(C))、それに続く発音記号「zi」は、音韻情報「z
i」に変換される(図13(D))。その後の発音記号
「kα」は、音韻情報「ka」に変換され(図13
(E))、最後の発音記号「l」は、音韻情報「ru」に
変換される(図13(F))。即ち、母音が後に続かな
い発音記号「l」は、これで表される音に最も近似する
日本語の読みを表す音韻情報「ru」に変換される。
【0075】以上のようにして、発音記号「mju':zikα
l」は、音韻情報「myu'-zikaru」に変換される。
【0076】図14は、英単語「opportunity」の発音
記号「A`pαtu':niti」を、音韻情報に変換する処理を
示している。この場合、まず、発音記号「A`pαtu':nit
i」のうちの最初の音韻を表す発音記号「A」は、音韻情
報「a」に変換され(図14(A))、それに続く発音
記号「`」は無視される(図14(B))。即ち、第2
アクセントは無視される。そして、それに続く発音記号
「pα」は、音韻情報「pa」に変換され(図14
(C))、その後の発音記号「tu」は、それに対応する
音を表す音韻情報「tyu」に変換される(図14
(D))。さらに、それに続く発音記号「'」は、アク
セント情報「'」に変換され(図14(E))、その後
の発音記号「:」は、長音を表す音韻情報「-」に変換さ
れる(図14(F))。そして、それに続く発音記号
「ni」は、音韻情報「ni」に変換され(図14
(G))、最後の発音記号「ti」は、音韻情報「ti」に
変換される(図13(H))。以上のようにして、発音
記号「A`pαtu':niti」は、音韻情報「apatyu'-niti」
に変換される。
【0077】図15は、英単語「this」の発音記号「δ
is」を、音韻情報に変換する処理を示している。この場
合、まず、発音記号「δis」のうちの最初の音韻を表す
「δi」は、音韻情報「zi」に変換される(図15
(A))。そして、それに続く発音記号「s」は、音韻
情報「#su」に変換される。即ち、母音が後に続かない
発音記号「s」は、これで表される音に最も近似する日
本語の読みを表す音韻情報「#su」に変換される(図1
5(B))。
【0078】以上のようにして、発音記号「δis」は、
音韻情報「zi#su」に変換される。
【0079】なお、以上においては、日本語と英語から
なる入力文から、日本語の音韻情報を生成するようにし
たが、その他、例えば日本語と英語からなる入力文か
ら、英語の音韻情報を生成したり、また、日本語と、英
語以外の外国語とからなる入力文から、その外国語や、
あるいは日本語の音韻情報を生成するようにすることも
可能である。また、3以上の言語からなる入力文から、
そのうちの1つの言語の音韻情報を生成することなども
可能である。さらに、日本語以外の外国語だけからなる
入力文から、日本語の音韻情報を生成するようにするこ
とも可能である。
【0080】ここで、図16乃至図19を参照して、英
語以外の外国語の単語の発音記号を、日本語の音韻情報
に変換する処理について説明する。
【0081】図16は、ドイツ語で表記された単語「Ba
ch」の発音記号「bA':x」を、音韻情報に変換する処理
を示している。この場合、まず、発音記号「bA':x」の
うちの最初の音韻を表す「bA」は、音韻情報「ba」に変
換される(図16(A))。そして、それに続く発音記
号「'」は、アクセント情報「'」に変換され(図16
(B))、その後の発音記号「:」は、長音を表す音韻
情報「-」に変換される(図16(C))。最後の発音
記号「x」は、音韻情報「Qha」に変換される(図16
(D))。即ち、母音が後に続かない発音記号「x」
は、これで表される音に最も近似する日本語の読みを表
す音韻情報「Qha」に変換される。なお、音韻情報「Q」
は促音を表す。
【0082】以上のようにして、発音記号「bA':x」
は、音韻情報「ba'-Qha」に変換される。
【0083】図17は、フランス語で表記された単語
「bonsoir」の発音記号「bοηswa:」を、音韻情報に変
換する処理を示している。この場合、まず、発音記号
「bοηswa:」のうちの最初の音韻を表す「bο」は、音
韻情報「bo」に変換される(図17(A))。そして、
それに続く発音記号「η」は、音韻情報「Nqu」に変換
され(図17(B))、その後の発音記号「s」は、こ
れで表される音に最も近似する日本語の読みを表す音韻
情報「su」に変換される(図17(C))。さらに、そ
の後の発音記号「wa」は、音韻情報「wa」に変換され
(図17(D))、最後の発音記号「:」は、長音を表
す音韻情報「-」に変換される(図17(E))。以上
のようにして、発音記号「bοηswa:」は、音韻情報「b
oNqusuwa-」に変換される。
【0084】図18は、スペイン語で表記された単語
「Paella」の発音記号「paey_a」を、音韻情報に変換す
る処理を示している。この場合、まず、発音記号「paey
_a」のうちの最初の音韻を表す「pa」は、音韻情報「p
a」に変換される(図18(A))。そして、それに続
く発音記号「e」は、音韻情報「e」に変換され(図18
(B))、最後の発音記号「y_a」は、音韻情報「rya」
に変換される(図18(C))。即ち、発音記号「y_
a」は、これで表される音に最も近似する日本語の読み
を表す音韻情報「rya」に変換される。
【0085】以上のようにして、発音記号「paey_a」
は、音韻情報「paerya」に変換される。
【0086】図19は、スペイン語で表記された単語
「Senor」の発音記号「sen_o'r」を、音韻情報に変換す
る処理を示している。この場合、まず、発音記号「sen_
o'r」のうちの最初の音韻を表す「se」は、音韻情報「s
e」に変換される(図19(A))。そして、それに続
く発音記号「n_o」は、音韻情報「nyo」に変換される
(図19(B))。即ち、スペイン語のニャ行子音を含
む発音記号「n_o」は、これで表される音に最も近似す
る日本語の読みを表す音韻情報「nyo」に変換される。
さらに、その後の発音記号「'」は、アクセント情
報「'」に変換され(図19(C))、最後の発音記号
「r」は、音韻情報「ru」に変換される(図19
(E))。即ち、母音が後に続かない発音記号「r」
は、これで表される音に最も近似する日本語の読みを表
す音韻情報「ru」に変換される。
【0087】以上のようにして、発音記号「sen_o'r」
は、音韻情報「senyo'ru」に変換される。
【0088】また、以上においては、綴りがすべて表記
された英単語を、日本語の音韻情報に変換するようにし
たが、その他、例えば、「UNIX」(商標)などの頭
文字だけによる表記や、「MON.」などの英単語「m
onday」を省略した表記なども、日本語の音韻情報
に変換するようにすることが可能である。
【0089】即ち、図1の実施例による場合において
は、例えば外国語読み辞書15Bに、「UNIX」に対
しては読み情報「ユニックス」を、「MON.」に対し
ては読み情報「マンデー」を、それぞれ対応付けて記憶
させておくようにすれば良い。また、図3の実施例によ
る場合においては、例えば外国語辞書23Bに、「UN
IX」または「MON.」の発音記号として、「ju'nic
s」または「mΛ'ndi」をそれぞれ登録しておき、発音記
号読み変換部23Cに、発音記号「ju'nics」または「m
Λ'ndi」を、それぞれ日本語の音韻情報「yu'nikusu」
または「ma'Ndi」に変換させるようにすれば良い。
【0090】次に、図20は、本発明を適用したネット
ワークシステムの構成例を示している。ユーザは、例え
ばパーソナルコンピュータやワークステーションなどの
端末31を有し、例えばPSTN(Public Switched Te
lephone Network)やISDN(Integrated Service Di
gital Network)などの公衆網32、あるいは図示せぬ
専用線を介して、サービスプロバイダ(接続業者)が有
するSP(Service Provider)サーバ33に接続されて
いる。そして、SPサーバ33は、インターネット34
に接続されている。即ち、端末31は、SPサーバ33
を介して、インターネット34に接続されている。
【0091】なお、図示していないが、他のユーザの端
末も同様にして、SPサーバ33、あるいは他のサービ
スプロバイダが有するサーバや、大学や企業その他に設
置されているサーバ(ホストコンピュータ)を介して、
インターネット34に接続されている。
【0092】また、ユーザは、インターネット34に直
接接続することも可能であるが、通常は、サービスプロ
バイダと契約し、図20に示したように、公衆網32を
介して、SPサーバ33にアクセスすることで、インタ
ーネット34に接続される。
【0093】インターネット34においては、TCP/
IP(Transmission Control Protocol/Internet Proto
col)と呼ばれるプロトコルにしたがって、コンピュー
タ相互間で通信を行うようになされている。また、イン
ターネット34上には、WWWが構築されており、この
WWWでは、HTTP(Hyper Text Transfer Protoco
l)と呼ばれるプロトコルにより、データの転送を行
い、HTML(Hyper TextMarkup Language)で画面を
記述することにより、情報の検索や表示を、簡単に行う
ことができるようになされている。さらに、インターネ
ット34においては、WWWの他、例えば、いわゆる電
子メール(E−mail)や、パソコン通信でいうとこ
ろの掲示板に相当するネットニュースなどのサービスも
提供されており、端末(コンピュータ)を有するユーザ
どうしは、電子メールのやりとりをしたり、また、特定
のテーマについての記事を書き込み、その記事を読むこ
とができるようになされている。なお、電子メールは、
SMTP(Simple Mail Transfer Protocol)と呼ばれ
るプロトコルで、また、ネットニュースにおける記事
は、NNTP(Network News Transfer Protocol)と呼
ばれるプロトコルで、それぞれ転送されるようになされ
ている。
【0094】ところで、図20のネットワークシステム
においては、端末31の他、例えば携帯電話機(電話
機)35などによっても公衆網32を介して、SPサー
バ33にアクセスすることができるようになされてお
り、これにより、携帯電話機35を用いて、端末31の
ユーザ宛に送信されてきた電子メールを、合成音で聴く
ことができるようになされている。
【0095】従って、ユーザは、例えば外出先などか
ら、携帯電話機35によって、自身宛の電子メールを確
認することができる。
【0096】図21は、図20のSPサーバ33の構成
例を示している。ROM(Read Only Memry)41は、
システムプログラムを記憶しており、CPU(Central
Processor Unit)42は、このROM41に記憶されて
いるシステムプログラムや、RAM(Random Access Me
mory)43に展開されたプログラム(アプリケーション
プログラム)にしたがって各種の処理を実行するように
なされている。RAM43は、CPU42が各種の処理
を実行する上において必要なプログラムやデータなどを
適宜記憶するようになされている。
【0097】音声合成部44は、図1または図3に示し
た音声合成装置のスピーカ5を除く部分と同様に構成さ
れており、CPU42の制御にしたがって、入力文に対
応した合成音を生成するようになされている。ハードデ
ィスク45は、所定のアプリケーションプログラムや、
CPU42の動作上必要なデータの他、接続業者と契約
したユーザ宛に送信されてきた電子メールを記憶するよ
うになされている。なお、ハードディスク45には、接
続業者と契約したユーザ宛の電子メールを記憶する記憶
領域が、各ユーザごとに設けられており(このようにユ
ーザごとに設けられた記憶領域を、以下、適宜、メール
ボックスという)、各ユーザ宛の電子メールは、CPU
42の制御の下、そのユーザのメールボックスに記憶さ
れるようになされている。
【0098】通信部46は、公衆網32などを介して通
信を行うための、例えばモデムなどで、通信に必要な制
御を行うようになされている。
【0099】以上のように構成されるSPサーバ33に
おいては、インターネット34を介して、端末31のユ
ーザ宛に電子メールが送信されてくると、その電子メー
ルは、通信部46で受信され、CPU42の制御の下、
ハードディスク45に転送されて記憶される。
【0100】その後、ユーザが、端末31を操作するこ
とにより、公衆網32を介して、SPサーバ33にアク
セスし、自身宛の電子メールを要求すると、CPU42
は、そのユーザ用のメールボックス(ハードディスク4
5)から電子メールを読み出し、通信部46に送信させ
る。これにより、電子メールは、通信部46から、公衆
網32を介して、端末31に送信され、ユーザは、自身
宛の電子メールを見る(読む)ことができる。
【0101】また、ユーザが、携帯電話機35を操作す
ることにより、公衆網32を介して、SPサーバ33に
アクセスし、自身宛の電子メールを要求すると、CPU
42は、そのユーザ用のメールボックス(ハードディス
ク45)から電子メールを読み出し、それを入力文とし
て、音声合成部44に転送する。
【0102】音声合成部44では、入力文を受信する
と、その入力文に対応する合成音が、上述したようにし
て生成され、通信部46に供給される。通信部46で
は、音声合成部44からの合成音が、公衆網32を介し
て、携帯電話機35に送信され、これにより、携帯電話
機35からは、電子メールを読み上げた合成音が出力さ
れる。
【0103】従って、ユーザは、外出先などから、携帯
電話機35によって自身宛の電子メールを確認すること
ができる。
【0104】さらに、この場合、電子メールに、日本語
以外の、例えば英語による表記が含まれていても、上述
したように、その表記の日本語読みに対応する、自然な
合成音が生成されるので、ユーザは、その内容を、容易
に理解することができる。
【0105】なお、以上においては、コンピュータネッ
トワークとして、インターネット34を利用した場合に
ついて説明したが、本発明は、その他のコンピュータネ
ットワークを利用したネットワークシステムにも適用可
能である。
【0106】
【発明の効果】請求項1に記載の音声合成方法および請
求項4に記載の音声合成装置によれば、入力文から、第
2の言語により表記された単語が抽出され、第1の言語
の音韻情報に変換される。そして、その音韻情報を用い
て、入力文に対応する合成音が生成される。従って、第
1および第2の言語が混在した入力文から、自然な合成
音を得ることが可能となる。
【図面の簡単な説明】
【図1】本発明を適用した音声合成装置の第1実施例の
構成を示すブロック図である。
【図2】図1の外国語読み辞書15Bの構成を示す図で
ある。
【図3】本発明を適用した音声合成装置の第2実施例の
構成を示すブロック図である。
【図4】図3の外国語辞書23Bの構成を示す図であ
る。
【図5】発音記号を、日本語の音韻情報に変換する処理
を説明するための図である。
【図6】発音記号を、日本語の音韻情報に変換する処理
を説明するための図である。
【図7】発音記号を、日本語の音韻情報に変換する処理
を説明するための図である。
【図8】発音記号を、日本語の音韻情報に変換する処理
を説明するための図である。
【図9】発音記号を、日本語の音韻情報に変換する処理
を説明するための図である。
【図10】発音記号を、日本語の音韻情報に変換する処
理を説明するための図である。
【図11】発音記号を、日本語の音韻情報に変換する処
理を説明するための図である。
【図12】発音記号を、日本語の音韻情報に変換する処
理を説明するための図である。
【図13】発音記号を、日本語の音韻情報に変換する処
理を説明するための図である。
【図14】発音記号を、日本語の音韻情報に変換する処
理を説明するための図である。
【図15】発音記号を、日本語の音韻情報に変換する処
理を説明するための図である。
【図16】発音記号を、日本語の音韻情報に変換する処
理を説明するための図である。
【図17】発音記号を、日本語の音韻情報に変換する処
理を説明するための図である。
【図18】発音記号を、日本語の音韻情報に変換する処
理を説明するための図である。
【図19】発音記号を、日本語の音韻情報に変換する処
理を説明するための図である。
【図20】本発明を適用したネットワークシステムの構
成例を示す図である。
【図21】図20のSPサーバ33の構成例を示すブロ
ック図である。
【図22】従来の音声合成装置の一例の構成を示すブロ
ック図である。
【符号の説明】
1 言語処理部, 2 日本語音声合成部, 3 音声
単位データセット記憶部, 4 音声出力部, 5 ス
ピーカ, 11 漢字仮名抽出部, 12 外国語抽出
部, 13 読み変換部, 13A 漢字読み変換部,
13B 外国語読み変換部, 14 アクセント付加
部, 15 日本語辞書, 15A 漢字読み辞書,
15B 外国語読み辞書, 21 言語処理部, 23
読み変換部, 23A 発音記号変換部, 23B
外国語辞書, 23C 発音記号読み変換部, 25
日本語辞書, 25A 発音記号読み辞書, 31 端
末, 32 公衆網, 33 SPサーバ, 34 イ
ンターネット, 35 携帯電話機, 41 ROM,
42 CPU, 43 RAM, 44 音声合成
部, 45 ハードディスク, 46 通信部

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 第1および第2の言語により表記された
    入力文に対応する合成音を生成する音声合成方法であっ
    て、 前記入力文から、前記第2の言語により表記された単語
    を抽出し、 前記第2の言語により表記された単語を、前記第1の言
    語の音韻情報に変換し、 その音韻情報を用いて、前記入力文に対応する合成音を
    生成することを特徴とする音声合成方法。
  2. 【請求項2】 前記第2の言語により表記された単語
    を、前記第1の言語の読み情報に変換し、その読み情報
    を、前記第1の言語の音韻情報に変換することを特徴と
    する請求項1に記載の音声合成方法。
  3. 【請求項3】 前記第2の言語により表記された単語
    を、発音記号に変換し、 その発音記号を、前記第1の言語の音韻情報に変換する
    ことを特徴とする請求項1に記載の音声合成方法。
  4. 【請求項4】 第1および第2の言語により表記された
    入力文に対応する合成音を生成する音声合成装置であっ
    て、 前記入力文から、第2の言語により表記された単語を抽
    出する抽出手段と、 前記抽出手段により抽出された前記第2の言語により表
    記された単語を、前記第1の言語の音韻情報に変換する
    変換手段と、 前記変換手段より出力される前記音韻情報を用いて、前
    記入力文に対応する合成音を生成する生成手段とを備え
    ることを特徴とする音声合成装置。
JP8054373A 1996-03-12 1996-03-12 音声合成方法および音声合成装置 Pending JPH09244679A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8054373A JPH09244679A (ja) 1996-03-12 1996-03-12 音声合成方法および音声合成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8054373A JPH09244679A (ja) 1996-03-12 1996-03-12 音声合成方法および音声合成装置

Publications (1)

Publication Number Publication Date
JPH09244679A true JPH09244679A (ja) 1997-09-19

Family

ID=12968876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8054373A Pending JPH09244679A (ja) 1996-03-12 1996-03-12 音声合成方法および音声合成装置

Country Status (1)

Country Link
JP (1) JPH09244679A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134418A (ja) * 1999-11-08 2001-05-18 Nippon Telegr & Teleph Corp <Ntt> ハイパーテキスト中継方法及び装置
JP2006145848A (ja) * 2004-11-19 2006-06-08 Kenwood Corp 音声合成装置、音片記憶装置、音片記憶装置製造装置、音声合成方法、音片記憶装置製造方法及びプログラム
US7555433B2 (en) 2002-07-22 2009-06-30 Alpine Electronics, Inc. Voice generator, method for generating voice, and navigation apparatus
WO2011004502A1 (ja) * 2009-07-08 2011-01-13 株式会社日立製作所 音声編集合成装置及び音声編集合成方法
WO2021227707A1 (zh) * 2020-05-13 2021-11-18 腾讯科技(深圳)有限公司 音频合成方法、装置、计算机可读介质及电子设备

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134418A (ja) * 1999-11-08 2001-05-18 Nippon Telegr & Teleph Corp <Ntt> ハイパーテキスト中継方法及び装置
US7555433B2 (en) 2002-07-22 2009-06-30 Alpine Electronics, Inc. Voice generator, method for generating voice, and navigation apparatus
JP2006145848A (ja) * 2004-11-19 2006-06-08 Kenwood Corp 音声合成装置、音片記憶装置、音片記憶装置製造装置、音声合成方法、音片記憶装置製造方法及びプログラム
WO2011004502A1 (ja) * 2009-07-08 2011-01-13 株式会社日立製作所 音声編集合成装置及び音声編集合成方法
JP5343293B2 (ja) * 2009-07-08 2013-11-13 株式会社日立製作所 音声編集合成装置及び音声編集合成方法
WO2021227707A1 (zh) * 2020-05-13 2021-11-18 腾讯科技(深圳)有限公司 音频合成方法、装置、计算机可读介质及电子设备

Similar Documents

Publication Publication Date Title
US20070203703A1 (en) Speech Synthesizing Apparatus
JP2002366186A (ja) 音声合成方法及びそれを実施する音声合成装置
JP2020034883A (ja) 音声合成装置及びプログラム
Levinson et al. Speech synthesis in telecommunications
JP3270356B2 (ja) 発話文書作成装置,発話文書作成方法および発話文書作成手順をコンピュータに実行させるプログラムを格納したコンピュータ読み取り可能な記録媒体
Alam et al. Text to speech for Bangla language using festival
Cooper et al. Reading aids for the blind: A special case of machine-to-man communication
JPH09244679A (ja) 音声合成方法および音声合成装置
KR20050080671A (ko) 티티에스 시스템의 이모티콘 처리 방법
Roux et al. Developing a Multilingual Telephone Based Information System in African Languages.
Chao-angthong et al. Northern Thai dialect text to speech
Ghimire et al. Enhancing the quality of nepali text-to-speech systems
JPH09258785A (ja) 情報処理方法および情報処理装置
Shah et al. Nepali text to speech synthesis system using FreeTTS
JPH09258764A (ja) 通信装置および通信方法、並びに情報処理装置
JP4056647B2 (ja) 波形接続型音声合成装置および方法
Bharthi et al. Unit selection based speech synthesis for converting short text message into voice message in mobile phones
Ogwu et al. Text-to-speech processing using African language as case study
Ademi et al. VISUALLY IMPAIRED STUDENTS EDUCATION THROUGH INTELLIGENT TECHNOLOGIES
JPH09251373A (ja) 音声合成方法および音声合成装置
Hirschberg et al. Voice response systems: Technologies and applications
Delic et al. Speech-Enabled Computers as a Tool for Serbian-Speaking Blind Persons
Kogeda et al. An Implementation of isiXhosa Text-to-Speech Modules to Support e-Services in Marginalized Rural Areas
Dendrinos A speaking electronic librarian
JPH04177299A (ja) 音声応答システム

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030709