JPH06289889A - Speech synthesizing device - Google Patents

Speech synthesizing device

Info

Publication number
JPH06289889A
JPH06289889A JP5074109A JP7410993A JPH06289889A JP H06289889 A JPH06289889 A JP H06289889A JP 5074109 A JP5074109 A JP 5074109A JP 7410993 A JP7410993 A JP 7410993A JP H06289889 A JPH06289889 A JP H06289889A
Authority
JP
Japan
Prior art keywords
japanese
english
information
speech
voice information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5074109A
Other languages
Japanese (ja)
Inventor
Osamu Totokawa
修 都外川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP5074109A priority Critical patent/JPH06289889A/en
Publication of JPH06289889A publication Critical patent/JPH06289889A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To easily synthesize a speech which is more likely to Japanese by determining speech information of an English word as Japanese from speech information as English and part-of-speech and speech information on Japanese words before and after it by the speech synthesizing device which converts a KANJE(Chinese character)KANA(Japanese syllabary) mixed sentence of Japanese with which English is mixed into a speech. CONSTITUTION:An English dictionary 6 which contains in pairs of part-of-speech information corresponding to notations of English words and speech information including at least reading and accent information is added to conventional speech synthesizing device, and an English-Japanese speech information conversion ruse 7 which contains rules for generating speech information as Japanese from speech information as English is added. Consequently, the Japanese KANJI- KANA mixed sentence with which English is mixed can be converted into a speech by utilizing an existent English dictionary without structuring a dictionary which contains in pairs of part-of-speech information as Japanese corresponding to notations of English words and the speech information.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、英語が混在する日本語
文書を音声情報に変換して音声を出力する音声合成装置
に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech synthesizer for converting a Japanese document mixed with English into speech information and outputting speech.

【0002】[0002]

【従来の技術】従来の、英語が混在する日本語文書を音
声に変換して音声を出力する音声合成装置は、英語の単
語の表記に対する日本語としての品詞情報と少なくとも
読みとアクセント情報を含む音声情報とを対にして格納
した辞書を構成要素としていた。
2. Description of the Related Art A conventional speech synthesizer for converting a Japanese document mixed with English into speech and outputting the speech includes part-of-speech information as Japanese corresponding to English word notation and at least reading and accent information. It has a dictionary that stores audio information in pairs.

【0003】従来の音声合成装置に「guitarをひく」と
いう入力が与えられた場合についての動作を以下説明す
る。まず、(表1)に示す単語辞書を用いて形態素分割を
行い、生成された発音記号生成結果を(表2)に示す。大
文字で示されている発音記号は、その位置にアクセント
があることを表している。単語辞書には、英語/日本語
の区別なく、すべての単語に対して日本語としての品詞
情報や音声情報が格納されている。そのため、英語とし
ての品詞情報や音声情報を、日本語としての品詞情報や
音声情報に変換せずに、直接日本語の音声を合成するこ
とができる。
The operation in the case where an input of "draw a guitar" is given to the conventional speech synthesizer will be described below. First, morpheme division is performed using the word dictionary shown in (Table 1), and the generated phonetic symbol generation results are shown in (Table 2). The phonetic symbols in capital letters indicate that there is an accent at that position. The word dictionary stores part-of-speech information and voice information as Japanese for all words regardless of English / Japanese. Therefore, it is possible to directly synthesize a Japanese voice without converting the English part-of-speech information and the voice information into the Japanese part-of-speech information and voice information.

【0004】[0004]

【表1】 [Table 1]

【0005】[0005]

【表2】 [Table 2]

【0006】[0006]

【発明が解決しようとする課題】しかしながら、上記従
来の音声合成装置では、すべての英単語に対して、英単
語の表記に対する日本語としての品詞情報と音声情報と
を対にして格納する辞書を構築するのは困難である。そ
こで、日本語は日本語辞書を利用し、英語は英語辞書を
利用して音声情報を生成する方法が考えられる。しか
し、英語辞書に格納されている音声情報のうち、例えば
アクセント情報をそのまま日本語のアクセント情報とし
て音声合成を行うと、非常に聞きにくい音声が生成され
てしまう。
However, in the above-mentioned conventional speech synthesizer, a dictionary that stores, for all English words, a pair of part-of-speech information as Japanese for the English word notation and voice information is stored. Difficult to build. Therefore, a method of generating voice information using a Japanese dictionary for Japanese and an English dictionary for English can be considered. However, of the voice information stored in the English dictionary, for example, if the accent information is directly used as the Japanese accent information for voice synthesis, a voice that is very difficult to hear is generated.

【0007】本発明はこのような問題点を解決し、既存
の英語辞書を利用して英語が混在している日本語の漢字
・仮名混じり文を、日本語らしい音声にすることを目的
とする。
It is an object of the present invention to solve such a problem and convert an existing English dictionary into a Japanese kanji / kana mixed sentence in which English is mixed to make it sound like Japanese. .

【0008】[0008]

【課題を解決するための手段】本発明は上記の目的を達
成するため、英語が混在している日本語の漢字・仮名混
じり文を音声に変換する音声合成装置において、日本語
の単語の表記に対応する品詞情報と少なくとも読みとア
クセント情報を含む音声情報とを格納した日本語辞書
と、英語の単語の表記に対応する品詞情報と少なくとも
読みとアクセント情報を含む音声情報とを格納した英語
辞書と、英単語の日本語としての音声情報を、英語とし
ての音声情報と前後の日本語の品詞や音声情報とから決
定するための規則を格納した英日音声情報変換規則と、
英語が混在している日本語の漢字・仮名混じり文を入力
する入力手段と、前記入力手段より入力された入力文字
列を記憶する入力文字列記憶部と、前記入力文字列記憶
部に格納された入力文字列に対する単語の表記と品詞情
報と少なくとも読みとアクセント情報を含む音声情報と
からなる形態素分割結果を記憶する形態素分割結果記憶
部と、前記日本語辞書と前記英語辞書と前記入力文字列
記憶部を参照しながら形態素分割を行い、結果を前記形
態素分割結果記憶部に格納し、前記英日音声情報変換規
則を参照して、規則を適用できる各形態素に対応する形
態素分割結果記憶部中の音声情報を変更して、後記出力
音声情報記憶部に音声情報を格納する音声情報生成制御
部と、生成された音声情報を記憶する出力音声情報記憶
部と、前記出力音声情報記憶部に記憶された音声情報を
もとに音声を出力する出力手段とを備えたことを特徴と
する。
SUMMARY OF THE INVENTION In order to achieve the above object, the present invention uses a Japanese word notation in a speech synthesizer for converting a Japanese mixed kanji / kana sentence into a voice. Japanese dictionary storing part-of-speech information corresponding to, and voice information including at least reading and accent information, and English dictionary storing part-of-speech information corresponding to English word notation and voice information including at least reading and accent information And an English-Japanese voice information conversion rule that stores rules for determining the voice information as Japanese of English words from the voice information as English and the part of speech and voice information of the preceding and following Japanese words,
An input unit for inputting a mixed Kanji / Kana sentence of Japanese mixed with English, an input character string storage unit for storing the input character string input by the input unit, and an input character string storage unit A morpheme division result storage unit that stores a morpheme division result including word notation, part-of-speech information, and voice information including at least reading and accent information for the input character string, the Japanese dictionary, the English dictionary, and the input character string In the morpheme division result storage unit corresponding to each morpheme to which the rule can be applied by performing morpheme division while referring to the storage unit, storing the result in the morpheme division result storage unit, and referring to the English-Japanese speech information conversion rule. Voice information generation control unit that changes the voice information of the voice information and stores the voice information in an output voice information storage unit described later, an output voice information storage unit that stores the generated voice information, and the output sound. Characterized by comprising an output means for outputting a sound based on the sound information stored in the information storage unit.

【0009】[0009]

【作用】本発明によれば、従来の音声合成装置に英単語
の日本語としての音声情報を、英語としての音声情報と
前後の日本語の品詞や音声情報とから決定する規則を加
え、英語の単語の表記に対する日本語としての品詞情報
と音声情報とを対にして格納する辞書を構築しなくて
も、既存の英語辞書を利用することにより、英語が混在
している日本語の漢字・仮名混じり文を音声に変換し、
より日本語らしい音声情報を生成するものである。
According to the present invention, the conventional speech synthesizer is added with a rule for determining the voice information in Japanese of English words from the voice information in English and the part of speech and voice information of the preceding and following Japanese words. Even if you do not build a dictionary that stores Japanese part-of-speech information and voice information for each word notation, you can use the existing English dictionary to Converts kana mixed sentences into voice,
This is to generate more Japanese-like voice information.

【0010】[0010]

【実施例】図1は本発明の一実施例における音声合成装
置の機能ブロック図であり、図1において、1は入力文
字列を入力するための入力手段、2は入力手段1より入
力された入力文字列を記憶する入力文字列記憶部、3は
生成された音声情報を記憶する出力音声情報記憶部、4
は出力音声情報記憶部3に記憶された音声情報をもとに
音声を出力する出力手段、5は日本語の単語の表記に対
応する品詞情報と少なくとも読みとアクセント情報を含
む音声情報とを対にして格納した日本語辞書、6は英語
の単語の表記に対応する品詞情報と少なくとも読みとア
クセント情報を含む音声情報とを対にして格納した英語
辞書、7は英単語の日本語としての音声情報を英語とし
ての音声情報と前後の日本語の品詞や音声情報とから決
定するための規則を格納した英日音声情報変換規則、8
は入力文字列記憶部2に格納されている入力文字列に対
する単語の表記と品詞情報と少なくとも読みとアクセン
ト情報を含む音声情報とからなる形態素分割結果を記憶
する形態素分割結果記憶部、9は、日本語辞書5と英語
辞書6と入力文字列記憶部2を参照しながら形態素分割
を行い、結果を形態素分割結果記憶部8に格納し、英日
音声情報変換規則7を参照して、形態素分割結果記憶部
8に格納されている分割形態素の中で、規則が適応可能
な分割形態素のもつ音声情報を変更して、出力音声情報
記憶部3に音声情報を格納する音声情報生成制御部であ
る。
1 is a functional block diagram of a speech synthesizer according to an embodiment of the present invention. In FIG. 1, 1 is an input means for inputting an input character string, and 2 is an input means 1. An input character string storage unit for storing an input character string, 3 is an output voice information storage unit for storing generated voice information, 4
Is an output means for outputting a voice based on the voice information stored in the output voice information storage unit 3, and 5 is a part of speech information corresponding to the notation of a Japanese word and voice information including at least reading and accent information. Stored in the Japanese dictionary, 6 is an English dictionary stored as a pair of part-of-speech information corresponding to the notation of an English word, and voice information including at least reading and accent information, and 7 is a voice of the English word as Japanese. English-Japanese voice information conversion rule storing rules for determining information from voice information in English and part-of-speech and voice information of Japanese before and after, 8
Is a morpheme division result storage unit that stores a morpheme division result including word notation, part-of-speech information, and voice information including at least reading and accent information for the input character string stored in the input character string storage unit 9, The morpheme division is performed by referring to the Japanese dictionary 5, the English dictionary 6, and the input character string storage unit 2, the result is stored in the morpheme division result storage unit 8, and the English-Japanese speech information conversion rule 7 is referred to. Among the divided morphemes stored in the result storage unit 8, it is a voice information generation control unit that changes the voice information of the divided morphemes to which the rule can be applied and stores the voice information in the output voice information storage unit 3. .

【0011】図2は図1の回路ブロック図であり、10は
リードオンリーメモリ(以下、ROMと略称する)、11は
キーボード、12は中央処理装置(以下、CPUと略称す
る)、13はスピーカ、14はランダムアクセスメモリ(以
下、RAMと略称する)である。
FIG. 2 is a circuit block diagram of FIG. 1. 10 is a read only memory (hereinafter abbreviated as ROM), 11 is a keyboard, 12 is a central processing unit (hereinafter abbreviated as CPU), and 13 is a speaker. , 14 are random access memories (hereinafter abbreviated as RAM).

【0012】ここで、図1に示した入力手段1はキーボ
ード11により、日本語辞書5と英語辞書6はROM10に
より、入力文字列記憶部2と出力音声情報記憶部3と形
態素分割結果記憶部8はRAM14により、音声情報生成
制御部9は、CPU12がROM10およびRAM14とデー
タの授受を行いながらROM10に記憶されたプログラム
を実行することにより、出力手段4はスピーカ13によ
り、それぞれ実現されている。
Here, the input means 1 shown in FIG. 1 is the keyboard 11, the Japanese dictionary 5 and the English dictionary 6 are the ROM 10, the input character string storage unit 2, the output voice information storage unit 3, and the morpheme division result storage unit. Reference numeral 8 denotes the RAM 14, and the voice information generation control unit 9 executes the program stored in the ROM 10 while the CPU 12 exchanges data with the ROM 10 and the RAM 14, and the output unit 4 is realized by the speaker 13. .

【0013】上記のように構成された本発明の一実施例
における音声合成装置に、入力文「guitarをひく」が与
えられた場合について、以下この動作を図3のフローチ
ャートに基づき説明する。
This operation will be described below with reference to the flow chart of FIG. 3 in the case where the input sentence "guitar is pulled" is given to the speech synthesizer according to the embodiment of the present invention configured as described above.

【0014】ステップ(S1)で、音声情報生成制御部9
は、(表3)に示す日本語辞書5と(表4)に示す英語辞書
6を参照しながら入力文に対する形態素分割を行い、形
態素分割を形態素分割結果記憶部8に格納する。上記例
では、この時点での英単語『guitar』に対する読みの情
報は、まだ英語としての音声情報〔gitA:r〕である。
大文字で示されている発音記号は、その位置にアクセン
トがあることを示している。
In step (S1), the voice information generation control unit 9
Performs morpheme division on the input sentence with reference to the Japanese dictionary 5 shown in (Table 3) and the English dictionary 6 shown in (Table 4), and stores the morpheme division in the morpheme division result storage unit 8. In the above example, the reading information for the English word "guitar" at this point is still voice information [gitA: r] in English.
The phonetic symbols shown in capital letters indicate that there is an accent at that position.

【0015】[0015]

【表3】 [Table 3]

【0016】[0016]

【表4】 [Table 4]

【0017】ステップ(S2)では、音声情報生成制御部
9は、形態素分割結果記憶部8に格納されている分割形
態素の中で、英日音声情報変換規則7に対する適用可能
性の検査が終わっていない分割形態素があるかどうかを
検査する。英日音声情報変換規則7に対する適用可能性
の検査がまだ終了していなければ、ステップ(S3)に進
む。そうでなければ処理を終了する。
In step (S2), the voice information generation control unit 9 has finished checking the applicability of the English-Japanese voice information conversion rule 7 among the divided morphemes stored in the morpheme division result storage unit 8. Check if there are no split morphemes. If the examination of applicability to the English-Japanese speech information conversion rule 7 has not been completed, the process proceeds to step (S3). Otherwise, the process ends.

【0018】ステップ(S3)では、音声情報生成制御部
9は、形態素分割結果記憶部8に格納されている分割形
態素に対応する表記と品詞情報と音声情報とを参照し
て、表5に示す英日音声情報変換規則7の中から、分割
形態素と同一表記を持ち、かつ適用可能な規則を検索す
る。上記例では、規則番号1の規則が適用可能な規則で
ある。この規則は、「英単語の音声情報が〔*itA:r〕
である(アクセントが『a』の位置にある)ならば、日本
語の発音記号を〔*I ta −〕とする(アクセントを
『i』の位置に変換する)」ということを表す。ここ
で、上記〔*〕は任意の発音記号を表す。上記例では、
英単語『guitar』に対してこの規則が適応される。
In step (S3), the voice information generation control unit 9 refers to the notation, the part-of-speech information, and the voice information corresponding to the divided morphemes stored in the morpheme division result storage unit 8 as shown in Table 5. From the English-Japanese speech information conversion rule 7, an applicable rule having the same notation as the divided morpheme and applicable is searched. In the above example, the rule of rule number 1 is the applicable rule. This rule states that "voice information of English words is [* itA: r]
(The accent is at the position of “a”), the Japanese phonetic symbol is [* I ta −] (the accent is converted to the position of “i”) ”. Here, the above [*] represents an arbitrary phonetic symbol. In the above example,
This rule applies to the English word "guitar".

【0019】[0019]

【表5】 [Table 5]

【0020】ステップ(S4)では、音声情報生成制御部
9は、分割形態素と同一表記を持ち、かつ適用可能な規
則があったかどうか検査する。なければステップ(S2)
に進み、まだ規則適用可能性の検査が終了していない分
割形態素を検出する。あればステップ(S5)に進む。
In step (S4), the voice information generation control unit 9 checks whether or not there is an applicable rule that has the same notation as the divided morpheme. If not, step (S2)
Proceed to and detect a divisional morpheme whose rule applicability has not yet been checked. If there is, go to step (S5).

【0021】ステップ(S5)では、音声情報生成制御部
9は、検出された適用可能な記号用音声情報規則を分割
形態素に対して適用する。上記例では、形態素分割結果
記憶部8に格納されている英単語『guitar』に対する音
声情報を、英語としての音声情報〔gitA:r〕から日本
語として音声情報〔gI ta −〕に変更し、出力音声情
報記憶部3に格納する。上記例での出力音声情報記憶部
3の内容を(表2)に示す。
In step (S5), the voice information generation control unit 9 applies the detected applicable symbol voice information rule to the divided morphemes. In the above example, the voice information for the English word “guitar” stored in the morpheme division result storage unit 8 is changed from voice information in English [gitA: r] to voice information in Japanese [gI ta −], It is stored in the output voice information storage unit 3. Table 2 shows the contents of the output voice information storage unit 3 in the above example.

【0022】以上のように、従来例の音声合成装置に、
英単語の日本語としての音声情報を、英語としての音声
情報と前後の日本語の品詞や音声情報とから決定する規
則を加えることにより、既存の英語辞書を利用して、英
語が混在している日本語の漢字・仮名混じり文を音声に
変換する音声合成を実現することができる。
As described above, in the conventional speech synthesizer,
Using the existing English dictionary, a mixture of English words can be created by adding a rule that determines the voice information of English words in Japanese from the English voice information and the part of speech and voice information of the preceding and following Japanese words. It is possible to realize speech synthesis that converts a sentence containing mixed Japanese kanji / kana into speech.

【0023】[0023]

【発明の効果】以上説明したように、本発明の音声合成
装置は、英単語の日本語としての音声情報を、英語とし
ての音声情報と前後の日本語の品詞や音声情報とから決
定する規則を加えることにより、既存の英語辞書を利用
して、ユーザに対して日本語らしい音声を提供できる。
As described above, the speech synthesizing device of the present invention is a rule for determining the Japanese voice information of an English word from the voice information of English and the part of speech and voice information of the preceding and following Japanese words. With the addition of, the existing English dictionary can be used to provide Japanese-like voice to the user.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例における音声合成装置の機能
ブロック図である。
FIG. 1 is a functional block diagram of a voice synthesizer according to an embodiment of the present invention.

【図2】図1の回路ブロック図である。FIG. 2 is a circuit block diagram of FIG.

【図3】図1の動作を説明するフローチャートである。3 is a flowchart illustrating the operation of FIG.

【符号の説明】[Explanation of symbols]

1…入力手段、 2…入力文字列記憶部、 3…出力音
声情報記憶部、 4…出力手段、 5…日本語辞書、
6…英語辞書、 7…英日音声情報変換規則、8…形態
素分割結果記憶部、 9…音声情報生成制御部、 10…
ROM、 11…キーボード、 12…CPU、 13…スピ
ーカ、 14…RAM。
DESCRIPTION OF SYMBOLS 1 ... Input means, 2 ... Input character string storage part, 3 ... Output voice information storage part, 4 ... Output means, 5 ... Japanese dictionary,
6 ... English dictionary, 7 ... English-Japanese voice information conversion rule, 8 ... Morphological division result storage unit, 9 ... Voice information generation control unit, 10 ...
ROM, 11 ... Keyboard, 12 ... CPU, 13 ... Speaker, 14 ... RAM.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 英語が混在している日本語の漢字・仮名
混じり文を音声に変換する音声合成装置において、 日本語の単語の表記に対応する品詞情報と少なくとも読
みとアクセント情報を含む音声情報とを格納した日本語
辞書と、英語の単語の表記に対応する品詞情報と少なく
とも読みとアクセント情報を含む音声情報とを格納した
英語辞書と、英単語の日本語としての音声情報を、英語
としての音声情報と前後の日本語の品詞や音声情報とか
ら決定するための規則を格納した英日音声情報変換規則
と、英語が混在している日本語の漢字・仮名混じり文を
入力する入力手段と、前記入力手段より入力された入力
文字列を記憶する入力文字列記憶部と、前記入力文字列
記憶部に格納された入力文字列に対する単語の表記と品
詞情報と少なくとも読みとアクセント情報を含む音声情
報とからなる形態素分割結果を記憶する形態素分割結果
記憶部と、前記日本語辞書と前記英語辞書と前記入力文
字列記憶部を参照しながら形態素分割を行い、結果を前
記形態素分割結果記憶部に格納し、前記英日音声情報変
換規則を参照して、規則を適用できる各形態素に対応す
る形態素分割結果記憶部中の音声情報を変更して、後記
出力音声情報記憶部に音声情報を格納する音声情報生成
制御部と、生成された音声情報を記憶する出力音声情報
記憶部と、前記出力音声情報記憶部に記憶された音声情
報をもとに音声を出力する出力手段とを備えたことを特
徴とする音声合成装置。
1. A voice synthesizer for converting a mixed sentence of Japanese kanji / kana mixed with English into voice, and voice information including part-of-speech information corresponding to the notation of a Japanese word and at least reading and accent information. The Japanese dictionary that stores and, the English dictionary that stores the part-of-speech information corresponding to the English word notation, and the voice information including at least the reading and accent information, and the voice information as Japanese of English words Input method for inputting English-Japanese voice information conversion rules that store rules for deciding from the voice information of voice and the part-of-speech and voice information of the preceding and following Japanese, and Japanese kanji / kana mixed sentences in which English is mixed An input character string storage unit that stores an input character string input by the input unit, at least a word notation and a part-of-speech information for the input character string stored in the input character string storage unit. And a morpheme division result storage unit configured to store a morpheme division result including voice information including accent information, morpheme division while referring to the Japanese dictionary, the English dictionary, and the input character string storage unit, and The speech information stored in the morpheme division result storage unit is referred to, the speech information in the morpheme division result storage unit corresponding to each morpheme to which the rule can be applied is changed, and the output speech information storage unit described later. A voice information generation control unit that stores voice information, an output voice information storage unit that stores the generated voice information, and an output unit that outputs a voice based on the voice information stored in the output voice information storage unit. And a voice synthesizing device.
JP5074109A 1993-03-31 1993-03-31 Speech synthesizing device Pending JPH06289889A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5074109A JPH06289889A (en) 1993-03-31 1993-03-31 Speech synthesizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5074109A JPH06289889A (en) 1993-03-31 1993-03-31 Speech synthesizing device

Publications (1)

Publication Number Publication Date
JPH06289889A true JPH06289889A (en) 1994-10-18

Family

ID=13537706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5074109A Pending JPH06289889A (en) 1993-03-31 1993-03-31 Speech synthesizing device

Country Status (1)

Country Link
JP (1) JPH06289889A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004287444A (en) * 2003-03-24 2004-10-14 Microsoft Corp Front-end architecture for multi-lingual text-to- speech conversion system
JP2009139677A (en) * 2007-12-07 2009-06-25 Toshiba Corp Voice processor and program therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004287444A (en) * 2003-03-24 2004-10-14 Microsoft Corp Front-end architecture for multi-lingual text-to- speech conversion system
JP2009139677A (en) * 2007-12-07 2009-06-25 Toshiba Corp Voice processor and program therefor

Similar Documents

Publication Publication Date Title
JPH06289889A (en) Speech synthesizing device
JPH07262191A (en) Word dividing method and voice synthesizer
JPH0728825A (en) Voice synthesizing device
JPH06186993A (en) Speech synthesizing device
JP2002123281A (en) Speech synthesizer
JP2715419B2 (en) Translation equipment
JP2003022266A (en) Text word/style conversion system and text word/style conversion processing program
JP2003005776A (en) Voice synthesizing device
JPH03196198A (en) Sound regulation synthesizer
JPH0350668A (en) Character processor
JPH06243137A (en) Voice synthesizer device
JP3048793B2 (en) Character converter
JPH09185629A (en) Machine translation method
JPH08202720A (en) Machine translation system
JP2006098552A (en) Speech information generating device, speech information generating program and speech information generating method
JPS60112175A (en) Abbreviation conversion system of kana (japanese syllabary)/kanji (chinese character) convertor
JPH07160685A (en) Device for reading out sentence
JPS59186026A (en) Method of kana-kanji conversion
JPS61177573A (en) Forming device of japanese document
JPS5920077A (en) Translating system of conjugated word for electronic translating machine
JPH07210571A (en) Device and method for word retrieval processing
JPH10240726A (en) Natural language processor
JPH11345229A (en) Character processor and computer readable recording medium recording character processing program
JPH08153096A (en) Document reading-aloud device
JPH08235173A (en) Japanese syllabary and chinese character processor