JPS63157226A - Conversation type sentence reading device - Google Patents

Conversation type sentence reading device

Info

Publication number
JPS63157226A
JPS63157226A JP61304397A JP30439786A JPS63157226A JP S63157226 A JPS63157226 A JP S63157226A JP 61304397 A JP61304397 A JP 61304397A JP 30439786 A JP30439786 A JP 30439786A JP S63157226 A JPS63157226 A JP S63157226A
Authority
JP
Japan
Prior art keywords
character
phoneme
japanese
information
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP61304397A
Other languages
Japanese (ja)
Other versions
JPH077335B2 (en
Inventor
Osamu Araya
新家 修
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP61304397A priority Critical patent/JPH077335B2/en
Publication of JPS63157226A publication Critical patent/JPS63157226A/en
Publication of JPH077335B2 publication Critical patent/JPH077335B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To discriminate the sentence read by plural persons by providing a character discriminating part, a character information table and plural phoneme files. CONSTITUTION:A Japanese word dictionary analyzing part 1 refers to a Japanese word dictionary 2 to analyze the Japanese word sentences and divides these sentences into strings of words. Then the part 1 detects the names of characters and delivers them to a character discriminating part 5. While the part 1 divides a word reading string for each utterance unit for the read sentences shown in the brackets and delivers in terns the read words for each utterance unit to a voice parameter setting part 3. Then the part 5 informs the names of characters to a character information table 6 and the table 6 reads out the utterance feature information and also selects a phoneme file 7. The voice parameter, the utterance information, the voice range information, the uttering speed information, the accent information, etc., obtained from the part 3 are outputted to a voice synthesizing part 4 for output of a voice synthesizing signal.

Description

【発明の詳細な説明】 〔概要〕 例えば、複数の人物が登場する脚本の台詞の読み上げを
機械に行わせるための発明である。このために、脚本の
中に記入されている登場人物を判別するための登場人物
判別部と、登場人物の発声上の特徴を登録した登場人物
情報テーブルと、複数の音素ファイルとを設ける。脚本
の中に登場人物中が「×××」と言う文章を読み上げる
と記入されていた場合には、登場人物中の発声上の特徴
を登場人物情報テーブルから取り出し、この特徴に従っ
て音素ファイルを選択し、選択された音素ファイルから
「×××」に対応する音素パラメタを取り出し、登場人
物甲のその他の特@(音量、音域、発声速度、アクセン
トなど)に従って「×××」と言う文章を音声出力する
[Detailed Description of the Invention] [Summary] For example, this is an invention for causing a machine to read out lines of a script in which multiple characters appear. For this purpose, a character discrimination section for determining the characters written in the script, a character information table in which vocal characteristics of the characters are registered, and a plurality of phoneme files are provided. If it is written in the script that a character will read the sentence "XX Then, extract the phoneme parameters corresponding to "XX Output audio.

〔産業上の利用分野〕[Industrial application field]

本発明は、例えば複数の人物が登場する脚本の中の台詞
を自動的に読み上げるようになった会話型文章読み上げ
装置に関するものである。本発明の会話型文章読み上げ
装置の利用分野としては、予め日本語で印刷された登場
人物名人りの文章を見ながら各俳優がシナリオ読み上げ
を行う演劇や映画等の分野、或いは小説を朗読すること
により盲人や視力の弱い人向けの図書館等施設への設置
などがある。
The present invention relates to a conversational text reading device that automatically reads out lines in a script in which multiple characters appear, for example. The field of use of the conversational text reading device of the present invention is in the field of plays and movies, where each actor reads out the scenario while looking at the characters' sentences printed in advance in Japanese, or in the field of reading novels. Accordingly, such systems may be installed in facilities such as libraries for the blind and people with poor eyesight.

〔従来の技術〕[Conventional technology]

第4図は従来の日本語読み上げ装置の構成を示す図であ
る。同図において、1は日本語文章解析部、2は日本語
辞書、3は音声パラメタ設定部、4は音声合成部、7は
音素ファイル、8はスピーカ、9はマニュアル操作盤を
それぞれ示している。
FIG. 4 is a diagram showing the configuration of a conventional Japanese language reading device. In the figure, 1 is a Japanese text analysis unit, 2 is a Japanese dictionary, 3 is a voice parameter setting unit, 4 is a voice synthesis unit, 7 is a phoneme file, 8 is a speaker, and 9 is a manual operation panel. .

日本語文章解析部lは、日本語文章を日本語辞書2を参
、照しながら単語の列に分割し、単語の列を適当な大き
さの発声単位に分割し、発声単位の読みを順番に音声パ
ラメタ設定部3に送る。日本語辞書2には、単語や単語
の読み、アクセント情報などがか登録されている。音素
ファイル7は1個しか示されていないが、実際には男性
用音素ファイル13女性用音素ファイルのように複数個
存在するものである。マニュアル操作盤9は、何れの音
素ファイル7を使用するかの指示、音量、音色、音域、
発声速度等を設定するものである。音声パラメタ設定部
7は、発声単位の読みに対応する音素パラメタをマニュ
アル操作盤9で指示された音素ファイル7から取り出し
、マニュアル操作盤9からの制御情報に従って音域や音
色、発声速度、音量などを設定し、これらを音声合成部
4に送る。
The Japanese sentence analysis unit 1 divides the Japanese sentence into a string of words while referring to the Japanese dictionary 2, divides the string of words into utterance units of appropriate size, and reads the utterance units in order. It is then sent to the audio parameter setting section 3. In the Japanese dictionary 2, words, pronunciations of words, accent information, etc. are registered. Although only one phoneme file 7 is shown, in reality, a plurality of phoneme files exist, such as a male phoneme file 13 and a female phoneme file. The manual operation panel 9 provides instructions on which phoneme file 7 to use, volume, tone, range,
This is for setting the speaking speed, etc. The audio parameter setting unit 7 retrieves phoneme parameters corresponding to the pronunciation of the unit of utterance from the phoneme file 7 instructed by the manual operation panel 9, and sets the range, timbre, speaking rate, volume, etc. according to the control information from the manual operation panel 9. settings, and send these to the speech synthesis section 4.

音声合成部4は、音声パラメタ設定部3からのデータに
基づいて音声合成を行う。音声合成部4から出力される
電気信号はスピーカ8によって音声に変換される。
The speech synthesis section 4 performs speech synthesis based on the data from the speech parameter setting section 3. The electrical signal output from the voice synthesis section 4 is converted into voice by the speaker 8.

〔解決しようとする問題点〕[Problem to be solved]

従来の日本語読み上げ装置では、マニュアル操作盤の設
定情報に基づいて日本語文章を読み上げたり、或いは一
定の音色、音域、発声速度で以て日本語文章を読み上げ
ていた。しかしながら、最近は日本語文章を読み上げる
応用分野は拡大しており、複数人による文章読み上げが
必要な分野では、従来技術では対応できなかった。
Conventional Japanese reading devices read out Japanese sentences based on setting information on a manual operation panel, or read out Japanese sentences with a certain tone, voice range, and speaking rate. However, recently, the field of application for reading out Japanese sentences has been expanding, and conventional technology has not been able to cope with fields that require reading aloud by multiple people.

本発明は、この点に鑑みて創作されたものであって、登
場人物の発声上の特徴を予めデータとして登録して置き
、複数人による文章読み上げを読み分は得るようになっ
た会話型文章読み上げ装置を提供することを目的として
いる。
The present invention was created in view of this point, and is a conversational text in which vocal characteristics of characters are registered in advance as data, and readings can be obtained by reading the text aloud by multiple people. The purpose is to provide a reading device.

〔問題点を解決するための手段〕[Means for solving problems]

第1図は本発明の原理図である。同図において、1は日
本語文章解析部、2は日本語辞書、3は音声パラメタ設
定部、4は音声合成部、5は登場人物判別部、6は登場
人物情報テーブル、7は音素ファイル、8はスピーカを
それぞれ示している。
FIG. 1 is a diagram showing the principle of the present invention. In the figure, 1 is a Japanese text analysis section, 2 is a Japanese dictionary, 3 is a speech parameter setting section, 4 is a speech synthesis section, 5 is a character discrimination section, 6 is a character information table, 7 is a phoneme file, 8 indicates each speaker.

一般に脚本の中には、甲「×××」、乙「×××」と表
現された複数人物が登場する。日本語辞書解析部1は、
日本語辞書2を参照しながら日本語文章を解析し、単語
の列に分割する。そして、登場人物名を検出すると、こ
れを登場人物判別部5に渡す。鍵括弧内の読み上げ文章
については単語の読みの列を発声単位に分割し、発声単
位の読みを順番に音声パラメタ設定部3に渡す。この際
、単語のアクセント情報も渡される。第2図に示すよう
に、登場人物情報テーブル6の中には、甲。
Generally, multiple characters appear in the script, expressed as A: "XXXX" and Otsu: "XXXX". The Japanese dictionary analysis unit 1
The Japanese sentence is analyzed with reference to the Japanese dictionary 2 and divided into word sequences. When the character name is detected, it is passed to the character discrimination section 5. Regarding the read-aloud sentences in parentheses, the string of word pronunciations is divided into utterance units, and the pronunciations of the utterance units are sequentially passed to the audio parameter setting unit 3. At this time, word accent information is also passed. As shown in FIG. 2, the character information table 6 includes A.

乙、・・・などの登場人物名と、登場人物の発声上の特
徴を特定できる発声特徴情報とが予め登録されている。
Names of characters such as Otsu, . . . and utterance characteristic information that can identify the utterance characteristics of the characters are registered in advance.

発声特徴情報とは、年令、性別、役柄上の出身地、音素
ファイル番号等を意味している。
The utterance characteristic information means age, gender, place of birth based on role, phoneme file number, etc.

登場人物情報テーブル6の内容は書換可能である。The contents of the character information table 6 can be rewritten.

登場人物判別部5は、日本語文章解析部lがら登場人物
名(例えば甲)を渡されると、登場人物情報テーブル6
の内容を読み出し、登場人物情報テーブル6の中に甲と
言う登場人物名が存在するか否かを調べる。存在する場
合には、登場人物判別部5は、登場人物情報テーブル6
に対して登場人物が甲であることを通知する。そうする
と、登場人物情報テーブル6から登場人物中の発声特徴
情報が読み出される。第1図には音素ファイル7は1個
しか示されていないが、音素ファイル7は男性用の音素
ファイル、女性用の音素ファイルのように複数個存在す
るものである。第3図に示すように、音素ファイル7の
中には、音素とそれに対応するパラメタが格納されてい
る。登場人物情報テーブル6から読み出された音素ファ
イル番号に従って音素ファイル7が選択される。読み出
された発声特徴情報の中の年令情報や出身地情報は音声
パラメタ設定部3に渡される。音声パラメタ設定部3は
、日本語文章解析部1から渡された読みに対応するパラ
メタを選択された音素ファイル7から取り出し、受は取
った年令情報や出身地情報に従って、音量や音域、発声
速度などを決定し、アクセントの修正も行う。そして音
声パラメタ設定部3は、音素パラメタ、音量情報、音域
情報、発声速度情報、アクセント情報などを音声合成部
4に渡す。音声合成部4は、これらのデータに基づいて
音声を合成し、音声合成信号を出力する。
When the character identification unit 5 is given a character name (for example, A) by the Japanese text analysis unit 1, the character identification unit 5 inputs the character information table 6.
The contents of the character information table 6 are read out, and it is checked whether the character name A exists in the character information table 6. If it exists, the character determination unit 5 uses the character information table 6
Notify that the character is Party A. Then, the utterance characteristic information of the characters is read out from the character information table 6. Although only one phoneme file 7 is shown in FIG. 1, a plurality of phoneme files 7 exist, such as a phoneme file for men and a phoneme file for women. As shown in FIG. 3, the phoneme file 7 stores phonemes and their corresponding parameters. A phoneme file 7 is selected according to the phoneme file number read from the character information table 6. The age information and hometown information in the read vocalization feature information are passed to the voice parameter setting section 3. The audio parameter setting unit 3 extracts the parameters corresponding to the pronunciation passed from the Japanese sentence analysis unit 1 from the selected phoneme file 7, and the voice parameter setting unit 3 extracts the parameters corresponding to the pronunciation passed from the Japanese sentence analysis unit 1. It determines the speed, etc. and also modifies the accent. The audio parameter setting unit 3 then passes phoneme parameters, volume information, range information, speaking rate information, accent information, etc. to the audio synthesis unit 4. The speech synthesis section 4 synthesizes speech based on these data and outputs a speech synthesis signal.

音声合成部4は、例えばパコール型のものである。The speech synthesis section 4 is, for example, of Pacor type.

音声合成部4から出力される電気的な音声合成信号は、
スピーカ8によって音声に変換される。なお、入力され
た日本語文章の「×××」の登場人物を解析することに
より、発声順序が自動的に指示される。
The electrical speech synthesis signal output from the speech synthesis section 4 is
It is converted into audio by the speaker 8. Note that by analyzing the characters in "XXX" in the input Japanese text, the speaking order is automatically instructed.

全体の文章構成を変更する場合、読み上げ装置へ入力さ
れる日本語文章そのものの移動や挿入、変更、置換え等
の編集機能が必要であるが、このシステムの構成例とし
ては、一般のワープロと文章読み上げ装置の接続形態が
考えられる。
When changing the overall sentence structure, editing functions such as moving, inserting, changing, and replacing the Japanese sentences input into the reading device are required. The connection form of the reading device can be considered.

〔発明の効果〕〔Effect of the invention〕

複数人での会話型文章を読み上げる機能を持った読み上
げ装置は従来存在しなかったが、本発明のように登場人
物判別部、登場人物情報テーブル及び複数の音素ファイ
ルを具備することにより、複数人での会話型文章の読み
上げが可能となり、例えばシナリオの自動読み上げや小
説の登場人物に合わせた自動読み上げが可能となる。
Conventionally, there has been no reading device that has the function of reading out conversational texts for multiple people. It becomes possible to read out conversational texts, for example, automatically read out a scenario or read out aloud according to the characters in a novel.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の原理図、第2図は登場人物情報テーブ
ルの構成例を示す図、第3図は音素ファイルの構成例を
示す図、第4図は従来例の構成を示す図である。 1・・・日本語文章解析部、2・・・日本語辞書、3・
・・音声パラメタ設定部、4・・・音声合成部、5・・
・登場人物判別部、6・・・登場人物情報テーブル、7
・・・音素ファイル、8・・・スピーカ、9・・・マニ
ュアル操作盤。
Figure 1 is a diagram showing the principle of the present invention, Figure 2 is a diagram showing an example of the configuration of a character information table, Figure 3 is a diagram showing an example of the configuration of a phoneme file, and Figure 4 is a diagram showing the configuration of a conventional example. be. 1...Japanese text analysis department, 2...Japanese dictionary, 3.
...Audio parameter setting section, 4...Speech synthesis section, 5...
・Character identification unit, 6...Character information table, 7
... Phoneme file, 8 ... Speaker, 9 ... Manual operation panel.

Claims (1)

【特許請求の範囲】 音声合成部(4)と、 複数の音素ファイル(7)と、 日本語辞書(2)と、 日本語文章解析部(1)と、 読み上げ対象の日本語文章の中に記入されている発声者
である所の登場人物を判別する登場人物判別部(5)と
、 登場人物の性別、年令、出身地等の発声上の音量、音色
、音域、発声速度、アクセント条件に影響を与える発声
特徴情報を登録する登場人物情報テーブル(6)と、 登場人物判別部(5)で判別された登場人物に対応する
登場人物情報テーブル(6)上の発声特徴情報に基づい
て、音量や音域、アクセントなどを決定すると共に、当
該発声特徴情報に基づいて音素ファイル(7)を選択し
、日本語解析部(1)から送られて来る読みに対応する
音素パラメタを選択された音素ファイル(7)から取り
出し、音素パラメタ、音量、音域、アクセントを音声合
成部(4)に送出する音声パラメタ設定部(3)と、 を具備することを特徴とする会話型文章読み上げ装置。
[Claims] A speech synthesis unit (4), a plurality of phoneme files (7), a Japanese dictionary (2), a Japanese text analysis unit (1), and a Japanese text to be read out. A character identification unit (5) that determines the character who is the entered speaker, and the character's gender, age, place of birth, etc., voice volume, timbre, vocal range, speaking speed, and accent conditions. Based on the character information table (6) that registers vocal feature information that affects , determines the volume, range, accent, etc., selects a phoneme file (7) based on the utterance feature information, and selects the phoneme parameters corresponding to the pronunciation sent from the Japanese language analysis unit (1). A conversational text reading device comprising: a voice parameter setting unit (3) that extracts phoneme parameters, volume, range, and accent from a phoneme file (7) and sends them to a voice synthesis unit (4).
JP61304397A 1986-12-20 1986-12-20 Conversational text-to-speech device Expired - Lifetime JPH077335B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61304397A JPH077335B2 (en) 1986-12-20 1986-12-20 Conversational text-to-speech device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61304397A JPH077335B2 (en) 1986-12-20 1986-12-20 Conversational text-to-speech device

Publications (2)

Publication Number Publication Date
JPS63157226A true JPS63157226A (en) 1988-06-30
JPH077335B2 JPH077335B2 (en) 1995-01-30

Family

ID=17932523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61304397A Expired - Lifetime JPH077335B2 (en) 1986-12-20 1986-12-20 Conversational text-to-speech device

Country Status (1)

Country Link
JP (1) JPH077335B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0279097A (en) * 1988-09-14 1990-03-19 Ricoh Co Ltd Pitch control system
JPH02224000A (en) * 1988-11-23 1990-09-06 Digital Equip Corp <Dec> Pronunciation of name with synthesizer
JPH0713581A (en) * 1993-06-04 1995-01-17 Internatl Business Mach Corp <Ibm> Method and system for provision of sound with space information
JPH0887289A (en) * 1994-09-19 1996-04-02 Fujitsu Ltd Voice rule synthesis device
JP2002358092A (en) * 2001-06-01 2002-12-13 Sony Corp Voice synthesizing system
JP2003122387A (en) * 2001-10-11 2003-04-25 Matsushita Electric Ind Co Ltd Read-aloud system
JP2009122667A (en) * 2007-10-26 2009-06-04 Advanced Telecommunication Research Institute International Dialogue voice generating device, uttering voice recording device and computer program
JP2020027132A (en) * 2018-08-09 2020-02-20 富士ゼロックス株式会社 Information processing device and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0279097A (en) * 1988-09-14 1990-03-19 Ricoh Co Ltd Pitch control system
JPH02224000A (en) * 1988-11-23 1990-09-06 Digital Equip Corp <Dec> Pronunciation of name with synthesizer
JPH0713581A (en) * 1993-06-04 1995-01-17 Internatl Business Mach Corp <Ibm> Method and system for provision of sound with space information
JPH0887289A (en) * 1994-09-19 1996-04-02 Fujitsu Ltd Voice rule synthesis device
JP2002358092A (en) * 2001-06-01 2002-12-13 Sony Corp Voice synthesizing system
JP2003122387A (en) * 2001-10-11 2003-04-25 Matsushita Electric Ind Co Ltd Read-aloud system
JP2009122667A (en) * 2007-10-26 2009-06-04 Advanced Telecommunication Research Institute International Dialogue voice generating device, uttering voice recording device and computer program
JP2020027132A (en) * 2018-08-09 2020-02-20 富士ゼロックス株式会社 Information processing device and program

Also Published As

Publication number Publication date
JPH077335B2 (en) 1995-01-30

Similar Documents

Publication Publication Date Title
US8374873B2 (en) Training and applying prosody models
Murray et al. Synthesizing emotions in speech: Is it time to get excited?
US20060129393A1 (en) System and method for synthesizing dialog-style speech using speech-act information
JPH0335296A (en) Text voice synthesizing device
JPS63157226A (en) Conversation type sentence reading device
JP2844817B2 (en) Speech synthesis method for utterance practice
JP4964695B2 (en) Speech synthesis apparatus, speech synthesis method, and program
JPH10510065A (en) Method and device for generating and utilizing diphones for multilingual text-to-speech synthesis
Ramkishor et al. Artificial vision for blind people using OCR technology
JP2892031B2 (en) Text-to-speech synthesizer
Dessai et al. Development of Konkani TTS system using concatenative synthesis
Amatya Emotional speech from machine
JP3034554B2 (en) Japanese text-to-speech apparatus and method
JPH01119822A (en) Sentence reader
JP3308402B2 (en) Audio output device
JP2888847B2 (en) Text-to-speech apparatus and method, and language processing apparatus and method
JPH01300334A (en) Sentence read-aloud device
JPH02308194A (en) Foreign language learning device
JP2614912B2 (en) Text-to-speech device
JPS58154900A (en) Sentence voice converter
MUSTIKA ANALYSIS OF A GLOTTAL STOP ALLOPHONE [ʔ] OF THE PHONEME/p/,/t/,/k/IN THE THREE ERNEST HEMINGWAY’S POETRIES
JPH07160685A (en) Device for reading out sentence
JPS6027433B2 (en) Japanese information input device
JPH05313685A (en) Document loud reading device
KR20200020551A (en) Korean speech conversion system with pronunciation classification based on vowel pronunciation