JPH077335B2 - Conversational text-to-speech device - Google Patents

Conversational text-to-speech device

Info

Publication number
JPH077335B2
JPH077335B2 JP61304397A JP30439786A JPH077335B2 JP H077335 B2 JPH077335 B2 JP H077335B2 JP 61304397 A JP61304397 A JP 61304397A JP 30439786 A JP30439786 A JP 30439786A JP H077335 B2 JPH077335 B2 JP H077335B2
Authority
JP
Japan
Prior art keywords
character
phoneme
japanese
unit
accent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP61304397A
Other languages
Japanese (ja)
Other versions
JPS63157226A (en
Inventor
修 新家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP61304397A priority Critical patent/JPH077335B2/en
Publication of JPS63157226A publication Critical patent/JPS63157226A/en
Publication of JPH077335B2 publication Critical patent/JPH077335B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Document Processing Apparatus (AREA)

Description

【発明の詳細な説明】 〔概要〕 例えば、複数の人物が登場する脚本の台詞の読み上げを
機械に行わせるための発明である。このために、脚本の
中に記入されている登場人物を判別するための登場人物
判別部と、登場人物の発声上の特徴を登録した登場人物
情報テーブルと、複数の音素ファイルとを設ける。脚本
の中に登場人物甲が「×××」と言う文章を読み上げる
と記入されていた場合には、登場人物甲の発声上の特徴
を登場人物情報テーブルから取り出し、この特徴に従っ
て音素ファイルを選択し、選択された音素ファイルから
「×××」に対応する音素パラメタを取り出し、登場人
物甲のその他の特徴(音量、音域、発声速度、アクセン
トなど)に従って「×××」と言う文章を音声出力す
る。
DETAILED DESCRIPTION [Overview] For example, the invention is for causing a machine to read the dialogue of a script in which a plurality of persons appear. For this purpose, a character discrimination unit for discriminating the characters written in the script, a character information table in which the vocal characteristics of the characters are registered, and a plurality of phoneme files are provided. If it is written in the script that the character A is read aloud as "XXX", the vocal characteristics of the character A are extracted from the character information table and the phoneme file is selected according to this feature. Then, the phoneme parameters corresponding to "XXXXX" are extracted from the selected phoneme file, and the sentence "XXX" is spoken according to the other characteristics of the character A (volume, range, vocalization speed, accent, etc.). Output.

〔産業上の利用分野〕[Industrial application field]

本発明は、例えば複数の人物が登場する脚本の中の台詞
を自動的に読み上げるようになった会話型文章読み上げ
装置に関するものである。本発明の会話型文章読み上げ
装置の利用分野としては、予め日本語で印刷された登場
人物名入りの文章を見ながら各俳優がシナリオ読み上げ
を行う演劇や映画等の分野、或いは小説を朗読すること
により盲人や視力の弱い人向けの図書館等施設への設置
などがある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a conversational text-to-speech device that automatically reads a dialogue in a script in which a plurality of persons appear. The field of use of the conversational text-to-speech device of the present invention is to read a novel, a field such as a theater or a movie, in which each actor reads a scenario while reading a sentence printed in Japanese with a character's name. Due to this, there are installations in facilities such as libraries for the blind and those with low vision.

〔従来の技術〕[Conventional technology]

第4図は従来の日本語読み上げ装置の構成を示す図であ
る。同図において、1は日本語文章解析部、2は日本語
辞書、3は音声パラメタ設定部、4は音声合成部、7は
音素ファイル、8はスピーカ、9はマニュアル操作盤を
それぞれ示している。
FIG. 4 is a diagram showing the configuration of a conventional Japanese reading-aloud device. In the figure, 1 is a Japanese sentence analysis unit, 2 is a Japanese dictionary, 3 is a voice parameter setting unit, 4 is a voice synthesis unit, 7 is a phoneme file, 8 is a speaker, and 9 is a manual operation panel. .

日本語文章解析部1は、日本語文章を日本語辞書2を参
照しながら単語の列に分割し、単語の列を適当な大きさ
の発声単位に分割し、発声単位の読みを順番に音声パラ
メタ設定部3に送る。日本語辞書2には、単語や単語の
読み、アクセント情報などがが登録されている。音素フ
ァイル7は1個しか示されていないが、実際には男性用
音素ファイル、女性用音素ファイルのように複数個存在
するものである。マニュアル操作盤9は、何れの音素フ
ァイル7を使用するかの指示、音量、音色、音域、発声
速度等を設定するものである。音声パラメタ設定部7
は、音声単位の読みに対応する音素パラメタをマニュア
ル操作盤9で指示された音素ファイル7から取り出し、
マニュアル操作盤9からの制御装置に従って音域や音
色、発声速度、音量などを設定し、これらを音声合成部
4に送る。音声合成部4は、音声パラメタ設定部3から
のデータに基づいて音声合成を行う。音声合成部4から
出力される電気信号はスピーカ8によって音声に変換さ
れる。
The Japanese sentence analysis unit 1 divides the Japanese sentence into word strings by referring to the Japanese dictionary 2, divides the word strings into voicing units of an appropriate size, and reads the voicing units in order. It is sent to the parameter setting unit 3. In the Japanese dictionary 2, words, word readings, accent information, etc. are registered. Although only one phoneme file 7 is shown, there are actually a plurality of phoneme files such as a male phoneme file and a female phoneme file. The manual operation panel 9 is used to set an instruction as to which phoneme file 7 to use, volume, tone color, tone range, utterance speed, and the like. Voice parameter setting section 7
Retrieves the phoneme parameter corresponding to the reading of each voice unit from the phoneme file 7 designated by the manual operation panel 9,
The tone range, tone color, utterance speed, volume, etc. are set in accordance with the control device from the manual operation panel 9, and these are sent to the voice synthesizer 4. The voice synthesis unit 4 performs voice synthesis based on the data from the voice parameter setting unit 3. The electric signal output from the voice synthesizer 4 is converted into voice by the speaker 8.

〔解決しようとする問題点〕[Problems to be solved]

従来の日本語読み上げ装置では、マニュアル操作盤の設
定情報に基づいて日本語文章を読み上げたり、或いは一
定の音色、音域、発声速度で以て日本語文章を読み上げ
ていた。しかしながら、最近は日本語文章を読み上げる
応用分野は拡大しており、複数人による文章読み上げが
必要な分野では、従来技術では対応できなかった。
In the conventional Japanese reading device, the Japanese sentence is read out based on the setting information of the manual operation panel, or the Japanese sentence is read out with a certain tone color, range and utterance speed. However, recently, the application fields for reading out Japanese sentences have been expanding, and the field that requires text reading by a plurality of persons cannot be dealt with by the conventional technology.

本発明は、この点に鑑みて創作されたものであって、登
場人物の発声上の特徴を予めデータとして登録して置
き、複数人による文章読み上げを読み分け得るようにな
った会話型文章読み上げ装置を提供することを目的とし
ている。
The present invention was created in view of this point, and the conversational text-to-speech device capable of pre-registering the utterance characteristics of the characters as data in advance and distinguishing the text-to-speech by a plurality of persons. Is intended to provide.

〔問題点を解決するための手段〕[Means for solving problems]

第1図は本発明の原理図である。同図において、1は日
本語文章解析部、2は日本語辞書、3は音声パラメタ設
定部、4は音声合成部、5は登場人物判別部、6は登場
人物情報テーブル、7は音素ファイル、8はスピーカを
それぞれ示している。
FIG. 1 is a principle diagram of the present invention. In the figure, 1 is a Japanese sentence analysis unit, 2 is a Japanese dictionary, 3 is a voice parameter setting unit, 4 is a voice synthesis unit, 5 is a character identification unit, 6 is a character information table, 7 is a phoneme file, Reference numerals 8 denote speakers, respectively.

一般に脚本の中には、甲「×××」、乙「×××」と表
現された複数人物が登場する。日本語辞書解析部1は、
日本語辞書2を参照しながら日本語文章を解析し、単語
の列に分割する。そして、登場人物名を検出すると、こ
れを登場人物判別部5に渡す。鍵括弧内の読み上げ文章
については単語の読みの列を発声単位に分割し、発声単
位の読みを順番に音声パラメタ設定部3に渡す。この
際、単語のアクセント情報も渡される。第2図に示すよ
うに、登場人物情報テーブル6の中には、甲,乙,…な
どの登場人物名と、登場人物の発声上の特徴を特定でき
る音声特徴情報とが予め登録されている。発声特徴情報
とは、年令、性別、役柄上の出身地、音素ファイル番号
等を意味している。登場人物情報テーブル6の内容は書
換可能である。登場人物判別部5は、日本語文章解析部
1から登場人物名(例えば甲)を渡されると、登場人物
情報テーブル6の内容を読み出し、登場人物情報テーブ
ル6の中に甲と言う登場人物名が存在するか否かを調べ
る。存在する場合には、登場人物判別部5は、登場人物
情報テーブル6に対して登場人物が甲であることを通知
する。そうすると、登場人物情報テーブル6から登場人
物甲の発声特徴情報が読み出される。第1図には音素フ
ァイル7は1個しか示されていないが、音素ファイル7
は男性用の音素ファイル、女性用の音素ファイルのよう
に複数個存在するものである。第3図に示すように、音
素ファイル7の中には、音素とそれに対応するパラメタ
が格納されている。登場人物情報テーブル6から読み出
された音素ファイル番号に従って音素ファイル7が選択
される。読み出された発声特徴情報の中の年令情報や出
身地情報は音声パラメタ設定部3に渡される。音声パラ
メタ設定部3は、日本語文章解析部1から渡された読み
に対応するパラメタを選択された音素ファイル7から取
り出し、受け取った年令情報や出身地情報に従って、音
量や音域、発声速度などを決定し、アクセントの修正も
行う。そして音声パラメタ設定部3は、音素パラメタ、
音量情報、音域情報、発声速度情報、アクセント情報な
どを音声合成部4に渡す。音声合成部4は、これらのデ
ータに基づいて音声を合成し、音声合成信号を出力す
る。音声合成部4は、例えばパコール型のものである。
音声合成部4から出力される電気的な音声合成信号は、
スピーカ8によって音声に変換される。なお、入力され
た日本語文章の「×××」の登場人物を解析することに
より、発声順序が自動的に指示される。
Generally, in the script, a plurality of characters represented as “A” and “B” are displayed. The Japanese dictionary analysis unit 1
The Japanese sentence is analyzed while referring to the Japanese dictionary 2 and divided into word strings. When the character name is detected, it is passed to the character determination unit 5. For the reading text in the brackets, the reading sequence of words is divided into utterance units, and the readings in utterance units are sequentially passed to the voice parameter setting unit 3. At this time, word accent information is also passed. As shown in FIG. 2, in the character information table 6, character names such as A, B, ... And voice feature information that can specify the utterance feature of the character are registered in advance. . The utterance feature information means age, sex, place of origin in a role, phoneme file number, and the like. The contents of the character information table 6 can be rewritten. When the character determination unit 5 receives a character name (for example, A) from the Japanese sentence analysis unit 1, the character determination unit 5 reads the content of the character information table 6 and the character name called A in the character information table 6. Check if exists. When the character exists, the character determination unit 5 notifies the character information table 6 that the character is A. Then, the utterance characteristic information of the character A is read from the character information table 6. Although only one phoneme file 7 is shown in FIG.
Is a phoneme file for men and a plurality of phoneme files for women. As shown in FIG. 3, the phoneme file 7 stores phonemes and parameters corresponding thereto. The phoneme file 7 is selected according to the phoneme file number read from the character information table 6. The age information and the birthplace information in the read utterance feature information are passed to the voice parameter setting unit 3. The voice parameter setting unit 3 takes out the parameter corresponding to the reading passed from the Japanese sentence analysis unit 1 from the selected phoneme file 7, and according to the received age information and birthplace information, the volume, range, vocalization speed, etc. And correct the accent. Then, the voice parameter setting unit 3 uses the phoneme parameter,
Volume information, range information, utterance speed information, accent information, etc. are passed to the voice synthesizer 4. The voice synthesizer 4 synthesizes voices based on these data and outputs a voice synthesis signal. The voice synthesizing unit 4 is, for example, a Pcall type.
The electrical voice synthesis signal output from the voice synthesis unit 4 is
It is converted into voice by the speaker 8. Note that the utterance order is automatically instructed by analyzing the characters in the input Japanese sentence "XXX".

全体の文章構成を変更する場合、読み上げ装置へ入力さ
れる日本語文章そのものの移動や挿入、変更、置換え等
の編集機能が必要であるが、このシステムの構成例とし
ては、一般のワープロと文章読み上げ装置の接続形態が
考えられる。
When changing the overall sentence structure, it is necessary to have editing functions such as moving, inserting, changing, and replacing the Japanese sentences that are input to the reading device. A connection form of the reading device is considered.

〔発明の効果〕〔The invention's effect〕

複数人での会話型文章を読み上げる機能を持った読み上
げ装置は従来存在しなかったが、本発明のように登場人
物判別部、登場人物情報テーブル及び複数の音素ファイ
ルを具備することにより、複数人での会話型文章の読み
上げが可能となり、例えばシナリオの自動読み上げや小
説の登場人物に合わせた自動読み上げが可能となる。
Although a reading device having a function of reading a conversational sentence by a plurality of people has not existed in the past, a plurality of people can be provided by providing a character determination unit, a character information table, and a plurality of phoneme files as in the present invention. It becomes possible to read conversational sentences in, for example, automatic reading of scenarios and automatic reading according to the characters of a novel.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の原理図、第2図は登場人物情報テーブ
ルの構成例を示す図、第3図は音素ファイルの構成例を
示す図、第4図は従来例の構成を示す図である。 1……日本語文章解析部、2……日本語辞書、3……音
声パラメタ設定部、4……音声合成部、5……登場人物
判別部、7……登場人物情報テーブル、7……音素ファ
イル、8……スピーカ、9……マニュアル操作盤。
FIG. 1 is a principle diagram of the present invention, FIG. 2 is a diagram showing a configuration example of a character information table, FIG. 3 is a diagram showing a configuration example of a phoneme file, and FIG. 4 is a diagram showing a configuration of a conventional example. is there. 1 ... Japanese sentence analysis unit, 2 ... Japanese dictionary, 3 ... Voice parameter setting unit, 4 ... Voice synthesis unit, 5 ... Character discrimination unit, 7 ... Character information table, 7 ... Phoneme file, 8 ... Speaker, 9 ... Manual operation panel.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】音声合成部(4)と、 複数の音素ファイル(7)と、 日本語辞書(2)と、 日本語文章解析部(1)と、 読み上げ対象の日本語文章の中に記入されている発声者
である所の登場人物を判別する登場人物判別部(5)
と、 登場人物の性別、年令、出身地等の発声上の音量、音
色、音域、発声速度、アクセント条件に影響を与える発
声特徴情報を登録する登場人物情報テーブル(6)と、 登場人物判別部(5)で判別された登場人物に対応する
登場人物情報テーブル(6)上の発声特徴情報に基づい
て、音量や音域、アクセントなどを決定すると共に、当
該発声特徴情報に基づいて音素ファイル(7)を選択
し、日本語解析部(1)から送られて来る読みに対応す
る音素パラメタを選択された音素ファイル(7)から取
り出し、音素パラメタ、音量、音域、アクセントを音声
合成部(4)に送出する音声パラメタ設定部(3)と、 を具備することを特徴とする会話型文章読み上げ装置。
1. A speech synthesis unit (4), a plurality of phoneme files (7), a Japanese dictionary (2), a Japanese sentence analysis unit (1), and a Japanese sentence to be read aloud. Character discriminating unit (5) for discriminating a character who is a voiced speaker
And a character information table (6) that registers vocal characteristic information that affects the vocal volume, tone color, range, vocal speed, accent condition such as gender, age, birthplace of the character, and character discrimination The volume, the range, the accent, etc. are determined based on the utterance characteristic information on the character information table (6) corresponding to the persons identified by the section (5), and the phoneme file ( 7) is selected, the phoneme parameters corresponding to the reading sent from the Japanese analysis unit (1) are extracted from the selected phoneme file (7), and the phoneme parameters, the volume, the range, and the accent are extracted from the speech synthesis unit (4). ), And a voice parameter setting unit (3) for sending to the conversation type sentence reading device.
JP61304397A 1986-12-20 1986-12-20 Conversational text-to-speech device Expired - Lifetime JPH077335B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61304397A JPH077335B2 (en) 1986-12-20 1986-12-20 Conversational text-to-speech device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61304397A JPH077335B2 (en) 1986-12-20 1986-12-20 Conversational text-to-speech device

Publications (2)

Publication Number Publication Date
JPS63157226A JPS63157226A (en) 1988-06-30
JPH077335B2 true JPH077335B2 (en) 1995-01-30

Family

ID=17932523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61304397A Expired - Lifetime JPH077335B2 (en) 1986-12-20 1986-12-20 Conversational text-to-speech device

Country Status (1)

Country Link
JP (1) JPH077335B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0279097A (en) * 1988-09-14 1990-03-19 Ricoh Co Ltd Pitch control system
EP0372734B1 (en) * 1988-11-23 1994-03-09 Digital Equipment Corporation Name pronunciation by synthesizer
US5561736A (en) * 1993-06-04 1996-10-01 International Business Machines Corporation Three dimensional speech synthesis
JP3439840B2 (en) * 1994-09-19 2003-08-25 富士通株式会社 Voice rule synthesizer
JP2002358092A (en) * 2001-06-01 2002-12-13 Sony Corp Voice synthesizing system
JP2003122387A (en) * 2001-10-11 2003-04-25 Matsushita Electric Ind Co Ltd Read-aloud system
JP5137031B2 (en) * 2007-10-26 2013-02-06 株式会社国際電気通信基礎技術研究所 Dialogue speech creation device, utterance speech recording device, and computer program
JP7200533B2 (en) * 2018-08-09 2023-01-10 富士フイルムビジネスイノベーション株式会社 Information processing device and program

Also Published As

Publication number Publication date
JPS63157226A (en) 1988-06-30

Similar Documents

Publication Publication Date Title
US20100042410A1 (en) Training And Applying Prosody Models
US20060129393A1 (en) System and method for synthesizing dialog-style speech using speech-act information
JPH05165486A (en) Text voice transforming device
JPH077335B2 (en) Conversational text-to-speech device
JPH08335096A (en) Text voice synthesizer
JP2612030B2 (en) Text-to-speech device
JP3034554B2 (en) Japanese text-to-speech apparatus and method
JPH01119822A (en) Sentence reader
JP3522005B2 (en) Speech synthesizer
JP3234371B2 (en) Method and apparatus for processing speech duration for speech synthesis
JP2801622B2 (en) Text-to-speech synthesis method
JPH02308194A (en) Foreign language learning device
MUSTIKA ANALYSIS OF A GLOTTAL STOP ALLOPHONE [ʔ] OF THE PHONEME/p/,/t/,/k/IN THE THREE ERNEST HEMINGWAY’S POETRIES
JP2888847B2 (en) Text-to-speech apparatus and method, and language processing apparatus and method
JP2614912B2 (en) Text-to-speech device
JP2680643B2 (en) Character display method of rule synthesizer
JP3308402B2 (en) Audio output device
Evans et al. An approach to producing new languages for talking applications for use by blind people
FalDessai Development of a Text to Speech System for Devanagari Konkani
JPS58154900A (en) Sentence voice converter
JPS6027433B2 (en) Japanese information input device
JPH04199421A (en) Document read-aloud device
JPH05313685A (en) Document loud reading device
JPH07160685A (en) Device for reading out sentence
JPH02234198A (en) Text voice synthesizing system