JPH02244095A - Device for reading sentence aloud - Google Patents

Device for reading sentence aloud

Info

Publication number
JPH02244095A
JPH02244095A JP1012284A JP1228489A JPH02244095A JP H02244095 A JPH02244095 A JP H02244095A JP 1012284 A JP1012284 A JP 1012284A JP 1228489 A JP1228489 A JP 1228489A JP H02244095 A JPH02244095 A JP H02244095A
Authority
JP
Japan
Prior art keywords
character
information
word
specified
kanji
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1012284A
Other languages
Japanese (ja)
Inventor
Yoshiaki Teramoto
寺本 良明
Takayuki Oyama
大山 隆之
Mitsuko Kaseda
加世田 光子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP1012284A priority Critical patent/JPH02244095A/en
Publication of JPH02244095A publication Critical patent/JPH02244095A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To allow the sentence including an assigned character or character array to be read aloud with natural voice by extracting the character or character array which is previously assigned in vocal sound information and rhythm information from a KANJI (Chinese character)-KANA (Japanese syllabary) mingled text and making identification as to whether the assigned character is one word or clause. CONSTITUTION:The character and character array which are previously assigned in the vocal sound information and the rhythm information are extracted from the KANJI-KANA mingled text inputted by an assigned character extracting means 11 and are subjected to the identification as to whether the character or character train is the word or clause in an assigned character identifying means 13. Reading aloud of the assigned character or character array as specified is, therefore, possible and the identification as to whether the character or character train is the word or clause is possible. The reading aloud by the natural voice is executed in this way without generating errors in setting of the vocal sound information and others as the sentence.

Description

【発明の詳細な説明】 〔概 要〕 漢字かな混じり文を自然な音声で読み上げる文章読み上
げ装置に関し、 所定の文字あるいは文字列に対して音韻情報および韻律
情報の指定が可能な構成で、指定された文字あるいは文
字列を含む文章を自然な音声で読み上げることを目的と
し、 漢字かな混じり文が入力され、その言語解析により得ら
れた読みその他の音韻情報、および単語間のポーズ、ア
クセント結合その他の韻律情報に基づいて音声を合成す
る文章読み上げ装置において、音韻情報および韻律情報
を表す文字あるいは文字列を含む漢字かな混じり文を入
力として許し、この漢字かな混じり文から、あらかじめ
音韻情報および韻律情報が指定された文字あるいは文字
列を抽出する指定文字抽出手段と、その指定文字が一つ
の単語であるか複数の単語を含む文節であるかを識別し
、それに応じて指定文字を含めた文章の解析を指示する
指定文字識別手段とを備え構成する。
[Detailed Description of the Invention] [Summary] Regarding a text-to-speech device that reads out sentences containing kanji and kana in a natural voice, the device has a configuration that allows phonological information and prosody information to be specified for a predetermined character or string of characters. The purpose of this system is to read out sentences containing letters or strings of letters in a natural voice.The system inputs sentences containing kanji and kana, and analyzes the readings and other phonological information obtained through linguistic analysis, as well as pauses between words, accent combinations, and other information. A text-to-speech device that synthesizes speech based on prosodic information accepts as input a sentence containing characters or character strings representing phonological and prosodic information, and extracts phonological and prosodic information from this kanji-kana mixture in advance. Specified character extraction means that extracts a specified character or string of characters, identifies whether the specified character is a single word or a clause containing multiple words, and analyzes sentences containing the specified character accordingly. and designated character identification means for specifying the specified character.

〔産業上の利用分野〕[Industrial application field]

本発明は、日本語の漢字かな混じり文(テキスト)を自
然な音声で読み上げる文章読み上げ装置に関する。
The present invention relates to a text reading device that reads out Japanese sentences (text) containing Kanji and Kana in a natural voice.

従来の音声合成は、音韻情報および韻律情報を人手によ
り与え、「規則による合成」の手法を用いて目的の音声
を発生させるものであった。
In conventional speech synthesis, phonological information and prosodic information are manually provided, and the desired speech is generated using a "synthesis based on rules" technique.

ところで、ワードプロセッサやOCR技術の発達により
日本語文章の入力は容易になっているが、その校正作業
においては、現在でも例えば二人の一方が読み手になっ
た読み合わせが行われている。
By the way, with the development of word processors and OCR technology, it has become easier to input Japanese sentences, but the proofreading process still involves reading the documents together, with one person acting as the reader.

したがって、今後の音声合成システムでは、これらの日
本語文章(分かち書き化されていない漢字かな混じり文
)から直接、連続音声に自動変換し、読み上げることが
できる装置が望まれている。
Therefore, in future speech synthesis systems, it is desired to have a device that can automatically convert these Japanese sentences (sentences containing kanji and kana that are not separated) directly into continuous speech and read them out loud.

〔従来の技術〕[Conventional technology]

漢字かな混じり文を読み上げるには、文章中の単語を正
しく認定(同定)し、単語に正しい音韻(読み)とアク
セントを自動付与するとともに、文に自然なアクセント
ボーズ、イントネーシヨンなどを自動付与するための言
語解析技術が必要である。
To read aloud sentences containing kanji and kana, the words in the sentence are correctly identified (identified), the words are automatically assigned the correct phoneme (reading) and accent, and natural accents such as bose and intonation are automatically assigned to the sentence. Language analysis technology is needed to do this.

したがって、入力装置から入力された漢字かな混じり文
を読み上げる文章読み上げ装置の構成は、この言語解析
を行う言語処理部と、ここで得られた音韻情報および韻
律情報をもとに対応する音声を合成する音声合成部とに
大きく分けることができる。
Therefore, the structure of a text-to-speech device that reads out sentences containing kanji and kana input from an input device includes a language processing section that performs this language analysis, and a language processing section that synthesizes the corresponding speech based on the phonological and prosody information obtained here. It can be broadly divided into a speech synthesis section and a speech synthesis section.

すなわち、言語処理部は、入力された漢字かな混じり文
を所定の単位(単語、単語列)に分解し、単語辞書を用
いてそれぞれの読み、アクセント情報、文法情報を付与
する単語同定処理を行った後に、再び複合語、文節、文
節相互の関係(アクセント句、呼気段落)の順に高次の
言語単位に再構成する処理を行い、複合した語あるいは
文としての音韻情報の修正およびアクセント、イントネ
ーシヨンなどの韻律情報を決定し、各情報を音声合成部
に渡す構成である。
In other words, the language processing unit decomposes the input sentence containing kanji and kana into predetermined units (words, word strings), and uses a word dictionary to perform word identification processing that adds pronunciation, accent information, and grammatical information to each unit. After that, processing is performed to reconstruct compound words, clauses, and inter-clause relationships (accent phrases, exhalation paragraphs) into higher-level linguistic units in the order of compound words, clauses, and inter-clause relationships (accent phrases, exhalation paragraphs), modify phonological information as compound words or sentences, and correct accents and inflections. This configuration determines prosodic information such as nation and passes each piece of information to the speech synthesis section.

ところで、通常の言語解析の結果を用いた文章読み上げ
では、単語辞書の不備や言語処理エラーにより不自然な
音声となることがあった。このような場合には、読み上
げ対象としている漢字かな混じり文の発音が不自然と思
われる文字あるいは文字列に対して、その音韻情報およ
び韻律情報を別途指定し、言語解析の結果を用いること
なく直接それらの情報から音声を合成させる方法が用い
られている。
By the way, when reading sentences using the results of normal language analysis, unnatural sounds may be produced due to deficiencies in the word dictionary or language processing errors. In such cases, for characters or character strings whose pronunciation seems unnatural in the kanji-kana-mixed sentences that are being read out, phonological and prosodic information can be specified separately, without using the results of linguistic analysis. A method of directly synthesizing speech from such information is used.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

ところが、日本語の漢字かな混じり文は、単語と単語と
の境界に空白その他の記号を入れない(分かち書き化さ
れていない)ので、言語解析においてはそれらの境界識
別が不可欠になっているが、音韻情報および韻律情報が
別途)勘定された文字あるいは文字列に対しても、それ
が単語レベルのものであるか、あるいは文節レベルのも
のであるかを明確にして、前後の文字あるいは文字列と
の関係付けをとる必要がある。
However, Japanese sentences containing kanji and kana do not include spaces or other symbols at the boundaries between words (they are not separated), so it is essential to identify these boundaries in language analysis. For characters or character strings for which phonological information and prosodic information are separately accounted for, it is clarified whether they are at the word level or at the phrase level, and the characters or character strings before and after are clearly identified. It is necessary to establish the relationship between

たとえば、「私は三方が好きです。」という文章におい
て、「三方」を「サツキ」と発音させる指定をした場合
には、この「三方」は一つの単語として扱わなければ文
章としての発音は自然なものにならない。すなわち、通
常の発声ではr三方ノとそれに続く「が1がアクセント
結合して一つのアクセント句を形成するが、その読みが
別途指定された「三方jという単語を無視して解析を行
った場合には、Vが1が助詞の「が1として認識されな
い(例えば名詞の「が1となる)可能性があり、アクセ
ント結合ができなく不自然な発声になることがあった。
For example, in the sentence "I like Mikata.", if you specify that "Mikata" be pronounced as "Satsuki", the pronunciation as a sentence will be natural unless "Mikata" is treated as a single word. It doesn't become something. In other words, in normal pronunciation, the accents of r 三方ノ and the following ``ga 1 are combined to form one accented phrase, but if the pronunciation is analyzed while ignoring the word ``三方 j,'' which is specified separately. In this case, there was a possibility that the particle `` in V was not recognized as 1 (for example, the noun `` became 1''), and the accent combination could not be performed, resulting in unnatural pronunciation.

また、「今日遊んでしまった。」という文章において、
「遊んでしまった1を「アソンデ/シマツタJのように
、アクセント句境界「/」を用いた正しい発音指定を行
っても、それが単語扱いで取り扱われるとr今日1とい
う単語とのアクセント結合が生じ、同様に正しい発音に
ならない。
Also, in the sentence "I played today."
``Even if you specify the correct pronunciation using the accent phrase boundary ``/'' like ``Assonde/Shimatsuta J,'' if it is treated as a word, it will be accented with the word ``Today 1.'' occurs, and the pronunciation is also incorrect.

また、「逆上がりできる美しい人」という文章において
、「逆上がりできる」をrサカアガリ/デキル」のよう
に発音指定を行っても、それが単語扱いでしかも名詞と
して取り扱われると、それに続くr美しい1が形容詞で
あるにもかかわらず名詞には形容詞は接続しないという
原則から、r美しいJの単語同定処理を正しく行うこと
ができず、結果的に正しい発音にならないことがある。
In addition, in the sentence ``A beautiful person who can rise up,'' even if you specify the pronunciation of ``Beautiful person who can rise up'' like ``r sakaagari/dekiru,'' if it is treated as a word and a noun, then the following ``r beautiful person'' Due to the principle that adjectives are not connected to nouns even though 1 is an adjective, the word identification process for r-beautiful J may not be performed correctly, resulting in incorrect pronunciation.

このように、音韻情報および韻律情報が別途指定された
文字あるいは文字列については、それが単語レベルのも
のであるか、文節レベルのものであるの認識がなければ
、文章として正しく発音させることは困難であった。
In this way, for characters or character strings for which phonological information and prosody information are separately specified, it is impossible to pronounce them correctly as a sentence unless it is recognized whether they are at the word level or the phrase level. It was difficult.

本発明は、所定の文字あるいは文字列に対して音韻情報
および韻律情報を指定することができる構成において、
指定された文字あるいは文字列を含む文章を自然な音声
で読み上げることができる文章読み上げ装置を提供する
ことを目的とする。
The present invention provides a configuration in which phonological information and prosody information can be specified for a predetermined character or character string.
To provide a text reading device capable of reading out a text containing specified characters or character strings in a natural voice.

〔課題を解決するための手段〕[Means to solve the problem]

第1図は、本発明の原理ブロック図である。 FIG. 1 is a block diagram of the principle of the present invention.

図において、文章読み上げ装置は、漢字かな混じり文が
人力され、その言語解析により得られた読みその他の音
韻情報、および単語間のポーズ、アクセント結合その他
の韻律情報に基づいて音声を合成する構成である。
In the figure, the text reading device is configured to synthesize speech based on the readings and other phonological information obtained through linguistic analysis of sentences mixed with kanji and kana, as well as the pauses between words, accent combinations, and other prosodic information. be.

指定文字抽出手段11は、音韻情報および韻律情報を表
す文字あるいは文字列を含む漢字かな混じり文を人力と
して許し、この漢字かな混じり文から、あらかじめ音韻
情報および韻律情報が指定された文字あるいは文字列を
抽出する。
The designated character extracting means 11 manually extracts a kanji-kana mixed sentence containing characters or character strings representing phonological information and prosodic information, and extracts characters or character strings for which phonological information and prosody information are specified in advance from the kanji-kana mixed sentence. Extract.

指定文字識別手段13は、その指定文字が一つの単語で
あるか複数の単語を含む文節であるかを識別し、それに
応じて指定文字を含めた文章の解析を指示する。
The specified character identification means 13 identifies whether the specified character is one word or a phrase including a plurality of words, and accordingly instructs the analysis of the sentence including the specified character.

〔作 用〕[For production]

本発明は、指定文字抽出手段11が入力された漢字かな
混じり文から、あらかじめ音韻情報および韻律情報が指
定されている文字および文字列を抽出し、指定文字識別
手段13においてそれが単語であるか文節であるかを識
別する。
In the present invention, the designated character extraction means 11 extracts characters and character strings for which phonological information and prosody information are designated in advance from an input sentence containing kanji and kana, and the designated character identification means 13 determines whether the characters are words. Identifies whether it is a clause.

したがって、指定された文字あるいは文字列を指定通り
に読み上げることができるとともに、それが単語である
か文節であるかを認識することが可能であるので、文章
としての韻律情報その他の設定にエラーを生じさせるこ
となく、自然な音声による読み上げが可能になる。
Therefore, it is possible to read a specified character or character string as specified, and also to recognize whether it is a word or a phrase, so it is possible to avoid errors in the prosodic information and other settings of the text. It is possible to read out aloud in a natural voice without any noise.

〔実施例〕〔Example〕

以下、図面に基づいて本発明の実施例について詳細に説
明する。
Hereinafter, embodiments of the present invention will be described in detail based on the drawings.

第2図は、本発明の一実施例構成を示すブロック図であ
る。
FIG. 2 is a block diagram showing the configuration of an embodiment of the present invention.

図において、主制御部21には、入力装置23、前処理
部25、単語同定部27、音韻・韻律処理部29、音声
合成部31およびスピーカ33が接続される。また、単
語同定部27には単語辞書35が接続され、音声合成部
31には音声ファイル37が接続される。なお、前処理
部25、単語同定部27、音韻・韻律処理部29は、言
語処理部を機能分割したものである。
In the figure, an input device 23 , a preprocessing section 25 , a word identification section 27 , a phoneme/prosody processing section 29 , a speech synthesis section 31 , and a speaker 33 are connected to the main control section 21 . Further, a word dictionary 35 is connected to the word identification section 27, and an audio file 37 is connected to the speech synthesis section 31. Note that the preprocessing section 25, word identification section 27, and phoneme/prosody processing section 29 are functionally divided language processing sections.

入力装置23から入力された漢字かな混じり文は、前処
理部25において蓄積および所定の単位(例えば句読点
ごと)の分割処理が行われる。
Sentences containing kanji and kana input from the input device 23 are stored and divided into predetermined units (for example, punctuation marks) in the preprocessing unit 25 .

単語同定部27は、単語辞書35を参照しながら単語あ
るいは単語列を同定し、それぞれの読み、アクセント情
報、文法情報を取り出す。なお、単語辞書35には、単
語同定を行うための表記、単語間の接続関係を表す文法
属性およびその他の単語属性と、次段の音韻・韻律処理
部29の処理に用いる音韻(読み)、アクセントおよび
アクセント結合属性とがそれぞれ登録されている。
The word identification unit 27 identifies words or word strings while referring to the word dictionary 35, and extracts the pronunciation, accent information, and grammatical information of each word. Note that the word dictionary 35 includes notations for word identification, grammatical attributes representing connection relationships between words, and other word attributes, as well as phonemes (readings) used for processing in the next-stage phoneme/prosody processing unit 29. Accent and accent combination attributes are each registered.

音韻・韻律処理部29は、複合語、文節、文節相互の関
係の順に高次の言語単位に再構成する処理を行う。すな
わち、単語同定部27で得られた単語の読みをもとに、
単語の連接によって生ずる連濁あるいは音便化情報を得
る音韻規則、および単語・文節境界の文法情報をもとに
、アクセント句、呼気段落の決定、その他音調制御情報
を得る韻律規則に従って、音声合成に必要な種々の制御
情報(音曲情報および韻律情報)を作成する。
The phoneme/prosody processing unit 29 performs processing to reconstruct into higher-level linguistic units in the order of compound words, clauses, and relationships between clauses. That is, based on the pronunciation of the word obtained by the word identification section 27,
Speech synthesis is performed according to phonological rules that obtain rendaku or phoneticization information generated by word concatenation, and metrical rules that determine accent phrases, exhalation paragraphs, and other tonal control information based on grammatical information of word and clause boundaries. Create various necessary control information (music information and prosody information).

音声合成部31は、音声ファイル37を参照して各制御
情報に従った音声信号を合成し、スピーカ33から連続
音声として出力する。
The audio synthesis unit 31 refers to the audio file 37, synthesizes audio signals according to each piece of control information, and outputs the synthesized audio signal from the speaker 33 as continuous audio.

ここで、本発明の特徴とするところは、前処理部25に
音韻情報および韻律情報があらかじめ指定されている文
字あるいは文字列を抽出する指定文字抽出部41を備え
、指定された文字あるいは文字列が単語であるか文節で
あるかを識別し、単語同定部27および音韻・韻律処理
部29に通知する指定文字識別部43を備える構成にあ
る。
Here, the feature of the present invention is that the preprocessing unit 25 includes a specified character extraction unit 41 that extracts characters or character strings for which phonetic information and prosody information are specified in advance. It is configured to include a designated character identification section 43 that identifies whether a is a word or a phrase and notifies the word identification section 27 and the phoneme/prosody processing section 29.

なお、入力される漢字かな混じり文は、音韻情報および
韻律情報を表す文字あるいは文字列を含むものとする。
It is assumed that the input sentence containing kanji and kana includes characters or character strings representing phonological information and prosody information.

第3図は、本発明実施例の特徴部分を示すフローチャー
トである。
FIG. 3 is a flowchart showing features of the embodiment of the present invention.

以下、第2図および第3図を参照して、本発明実施例の
動作について説明する。
The operation of the embodiment of the present invention will be described below with reference to FIGS. 2 and 3.

言語処理部の前処理部25では入力された漢字かな混じ
り文を取り込み、その指定文字抽出部41において、音
韻情報および韻律情報があらかじめ指定されている文字
あるいは文字列を抽出する。
The preprocessing section 25 of the language processing section takes in the input sentence containing kanji and kana, and the designated character extraction section 41 extracts characters or character strings whose phonological information and prosodic information are specified in advance.

その指定文字は、さらに指定文字識別部43において単
語であるか文節であるかが識別され、文節であれば文節
境界情報が付加されて以下の言語処理に供される。
The designated character is further identified as a word or a phrase by the designated character identification unit 43, and if it is a phrase, phrase boundary information is added and the character is subjected to the following language processing.

なお、その識別は、指定された音韻情報および韻律情報
を表す記号の種類を判別することにより行うことができ
る。
Note that the identification can be performed by determining the type of symbol representing the designated phonetic information and prosody information.

すなわち、記号の種類が音韻のみでかつ一つのアクセン
トを示すのみであれば、その指定記号に対応する文字あ
るいは文字列は単語として扱うことができる。また、記
号が例えばアクセント句境界などのように音韻以外の情
報を有する場合には、その指定記号に対応する文字ある
いは文字列を文節として扱うようにする。
That is, if the type of symbol is only phonetic and only indicates one accent, the character or character string corresponding to the specified symbol can be treated as a word. Furthermore, if a symbol has information other than phoneme, such as an accent phrase boundary, the character or character string corresponding to the specified symbol is treated as a phrase.

このような識別情報は、指定された音韻情報および韻律
情報とともに単語同定部27および音韻・韻律処理部2
9に与えられ、単語あるいは文節としてそれぞれ所定の
処理が同様に行われる。
Such identification information is sent to the word identification unit 27 and the phoneme/prosody processing unit 2 along with the specified phoneme information and prosody information.
9, and predetermined processing is similarly performed on each word or phrase.

すなわち、上述した例文においては、指定された音韻情
報および韻律情報を表す記号が、音韻のみを表すrサッ
キ1であった場合には単語として扱われ、後続する助詞
の「が1とアクセント結合を行い自然な音声を発声させ
る。また、指定された記号がアクセント句境界’/Jを
含むrアソンデ/シマツタ1であった場合には文節とし
て扱われ、その前後に文節境界があるものとして言語処
理され、音韻・韻律処理部29における韻律情報の設定
に誤りを生じさせないようにしている。
In other words, in the example sentence above, if the symbol representing the specified phonetic information and prosodic information is r sacchi 1, which represents only the phonological information, it is treated as a word, and the following particle ``ga 1'' and the accent combination are treated as words. In addition, if the specified symbol is r assonde/shimatsuta 1 that includes an accent phrase boundary '/J, it is treated as a phrase, and language processing is performed assuming that there is a phrase boundary before and after it. This prevents errors from occurring in the setting of prosody information in the phoneme/prosody processing section 29.

〔発明の効果〕〔Effect of the invention〕

上述したように、本発明によれば、音韻情報および韻律
情報がユーザにより指定された文字あるいは文字列が、
単語であるか文節であるかが自動的に判断されるので、
指定文字を含む文章の単語同定処理およびそれに続く音
韻情報および韻律情報の設定にはまったく影響がない。
As described above, according to the present invention, a character or a character string whose phonetic information and prosodic information are specified by the user is
Since it is automatically determined whether it is a word or a phrase,
There is no effect on the word identification process for sentences containing specified characters and the subsequent setting of phonological and prosodic information.

したがって、文章読み上げ装置は、指定された音韻情報
および韻律情報に基づく読み上げが可能であるとともに
、それを含めた文章としての読み上げも自然な音声を行
うことができ、実用的には極めて有用である。
Therefore, the text-to-speech device is capable of reading aloud based on specified phonological information and prosody information, and can also read out a text that includes such information in a natural voice, making it extremely useful in practice. .

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の原理ブロック図、 第2図は本発明の一実施例構成を示すブロック図、第3
図は本発明実施例の特徴部分を示すフローチャートであ
る。 図において、 11は指定文字抽出手段、 13は指定文字識別手段、 21は主制御部、 23は入力装置、 25は前処理部、 27は単語同定部、 29は音韻・韻律処理部、 31は音声合成部、 33はスピーカ、 35は単語辞書、 37は音声ファイル、 41は指定文字抽出部、 43は指定文字識別部である。 本発明原理ブロック図 第1図 本発明実施例の特徴部分を示すフローチャート第3図
Figure 1 is a block diagram of the principle of the present invention, Figure 2 is a block diagram showing the configuration of an embodiment of the present invention, and Figure 3 is a block diagram of the principle of the present invention.
The figure is a flowchart showing features of the embodiment of the present invention. In the figure, 11 is a specified character extraction means, 13 is a specified character identification means, 21 is a main control unit, 23 is an input device, 25 is a preprocessing unit, 27 is a word identification unit, 29 is a phonological/prosody processing unit, 31 is a 33 is a speaker, 35 is a word dictionary, 37 is an audio file, 41 is a specified character extraction unit, and 43 is a specified character identification unit. Figure 1 is a block diagram of the principles of the present invention. Figure 3 is a flowchart showing the characteristic parts of the embodiments of the present invention.

Claims (1)

【特許請求の範囲】[Claims] (1)漢字かな混じり文が入力され、その言語解析によ
り得られた読みその他の音韻情報、および単語間のポー
ズ、アクセント結合その他の韻律情報に基づいて音声を
合成する文章読み上げ装置において、 音韻情報および韻律情報を表す文字あるいは文字列を含
む漢字かな混じり文を入力として許し、この漢字かな混
じり文から、あらかじめ音韻情報および韻律情報が指定
された文字あるいは文字列を抽出する指定文字抽出手段
(11)と、 その指定文字が一つの単語であるか複数の単語を含む文
節であるかを識別し、それに応じて指定文字を含めた文
章の解析を指示する指定文字識別手段(13)と を備えたことを特徴とする文章読み上げ装置。
(1) In a text-to-speech device that receives a sentence containing kanji and kana and synthesizes speech based on the pronunciation and other phonological information obtained through linguistic analysis, as well as pauses between words, accent combinations, and other prosodic information, the phonological information is Specified character extraction means (11) that accepts as input a kanji-kana mixed sentence containing characters or character strings representing prosodic information, and extracts characters or character strings for which phonological information and prosodic information are specified in advance from this kanji-kana mixed sentence (11). ), and designated character identification means (13) for identifying whether the designated character is a single word or a phrase including multiple words, and instructing the analysis of a sentence including the designated character accordingly. A text reading device that is characterized by:
JP1012284A 1989-01-20 1989-01-20 Device for reading sentence aloud Pending JPH02244095A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1012284A JPH02244095A (en) 1989-01-20 1989-01-20 Device for reading sentence aloud

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1012284A JPH02244095A (en) 1989-01-20 1989-01-20 Device for reading sentence aloud

Publications (1)

Publication Number Publication Date
JPH02244095A true JPH02244095A (en) 1990-09-28

Family

ID=11801060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1012284A Pending JPH02244095A (en) 1989-01-20 1989-01-20 Device for reading sentence aloud

Country Status (1)

Country Link
JP (1) JPH02244095A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63165925A (en) * 1986-12-27 1988-07-09 Fujitsu Ltd Sentence read-out system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63165925A (en) * 1986-12-27 1988-07-09 Fujitsu Ltd Sentence read-out system

Similar Documents

Publication Publication Date Title
US6751592B1 (en) Speech synthesizing apparatus, and recording medium that stores text-to-speech conversion program and can be read mechanically
JP3587048B2 (en) Prosody control method and speech synthesizer
JPH0335296A (en) Text voice synthesizing device
JPH05165486A (en) Text voice transforming device
JPH08335096A (en) Text voice synthesizer
JPH02244095A (en) Device for reading sentence aloud
JPH05134691A (en) Method and apparatus for speech synthesis
JP3397406B2 (en) Voice synthesis device and voice synthesis method
Dessai et al. Development of Konkani TTS system using concatenative synthesis
JPH096378A (en) Text voice conversion device
Kaur et al. BUILDING AText-TO-SPEECH SYSTEM FOR PUNJABI LANGUAGE
JPH0229797A (en) Text voice converting device
JP2888847B2 (en) Text-to-speech apparatus and method, and language processing apparatus and method
Kayte et al. Artificially Generatedof Concatenative Syllable based Text to Speech Synthesis System for Marathi
JPH02234198A (en) Text voice synthesizing system
JP2996978B2 (en) Text-to-speech synthesizer
Evans et al. An approach to producing new languages for talking applications for use by blind people
JP2614912B2 (en) Text-to-speech device
JPH06168265A (en) Language processor and speech synthesizer
JPH02184965A (en) Sentence reader
Mesa et al. Development of Tagalog speech corpus
JPH04199421A (en) Document read-aloud device
JPH0323500A (en) Text voice synthesizing device
JPH08328578A (en) Text voice synthesizer
Rajeswari et al. Developing Intonation Pattern for Tamil Text To Speech Synthesis System