JPS6382500A - Rule synthesized sound output unit - Google Patents

Rule synthesized sound output unit

Info

Publication number
JPS6382500A
JPS6382500A JP22906286A JP22906286A JPS6382500A JP S6382500 A JPS6382500 A JP S6382500A JP 22906286 A JP22906286 A JP 22906286A JP 22906286 A JP22906286 A JP 22906286A JP S6382500 A JPS6382500 A JP S6382500A
Authority
JP
Japan
Prior art keywords
information
accent
synthesized sound
synthesized
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP22906286A
Other languages
Japanese (ja)
Inventor
直 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP22906286A priority Critical patent/JPS6382500A/en
Publication of JPS6382500A publication Critical patent/JPS6382500A/en
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Abstract] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 [発明の目的コ (産業上の利用分野〉 本発明は、外部からの文字コードを入力し、対応する合
成音を発生する規則合成音出力装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Objective of the Invention (Field of Industrial Application)] The present invention relates to a regular synthesized speech output device that receives a character code from the outside and generates a corresponding synthesized speech.

(従来の技術) 近年、金融機関等における情報サービス業務に、固有名
詞等の単位言語を合成して出方する規則合成音出力装置
が用いられている。
(Prior Art) In recent years, rule-synthesized speech output devices that synthesize and output unit languages such as proper nouns have been used in information service operations in financial institutions and the like.

規則合成音出力装置は、外部がち文字コードを入力し、
各文字コードに対応した単音+f1報を結合し、固有名
詞等の単位言語を合成する機能を有しているが、近年、
合成音の明瞭度を高めるなめに、事前に各単位言語ごと
のアクセント情報を登録しておく方式が採用されつつあ
る。
The rule synthesized sound output device inputs the external character code,
It has the function of combining single sounds + f1 information corresponding to each character code and synthesizing unit language such as proper nouns, but in recent years,
In order to improve the clarity of synthesized sounds, a method is being adopted in which accent information for each unit language is registered in advance.

この方式においては、出力すべき単位言語をコード化さ
れた文字列で受け、その文字列に基いてアクセント辞書
の検索を行ない、各単位言語の合成音のアクセントを決
定している。
In this method, the unit language to be output is received as a coded character string, and an accent dictionary is searched based on the character string to determine the accent of the synthesized sound of each unit language.

ところで単位言語は人名、商品名、地名等の固有名詞を
始めとして、極めて多数存在するため、アクセント辞書
の規模は膨大であり、アクセント辞書を検索する際には
相当の時間が必要である。
By the way, since there are an extremely large number of unit languages, including proper nouns such as people's names, product names, and place names, the scale of accent dictionaries is enormous, and it takes a considerable amount of time to search through accent dictionaries.

そして現在開発されている規則合成音出力装置では、個
々の単位言語に対するアクセント辞書の検索と音声出力
処理とが直列的に行なわれているため、連続して単位言
語の合成音を出力する場合には、或る単位言語と後続す
る単位言語との間隔が必要以上に長くなり、合成音が間
き難くなるという問題があった。
In the currently developed rule-synthesized speech output devices, the accent dictionary search and speech output processing for each unit language are performed in series, so when outputting the synthesized sounds of the unit language continuously, The problem with this method is that the interval between a certain unit language and the following unit language becomes longer than necessary, making it difficult to separate synthesized sounds.

(発明が解決しようとする問題点) 本発明は上述したような事情によりなされたもので、単
位言語の合成音を連続して出力させる場合でも単位言語
と単位言語との間隔が必要以上に長くならない規則合成
音出力装置を提供しようとするものである。
(Problems to be Solved by the Invention) The present invention was made due to the above-mentioned circumstances, and even when the synthesized sounds of unit languages are output continuously, the interval between unit languages is longer than necessary. The purpose of this invention is to provide a rule-synthesized sound output device that does not require the following methods.

[発明の効果] (問題点を解決するための手段) 本発明の規則合成音出力装置は、所定の単位言語のアク
セント情報が格納されているアクセント情報記憶手段と
、このアクセント情報記憶手段を検索し外部から入力さ
れる文字コード列が示す単位言語に対応するアクセント
情報を抽出するアクセント情報検索手段と、各文字コー
ドに対応した単音情報を保持し、前記入力される文字コ
ード列に従うて前記単音情報を結合し、前記抽出された
アクセント情報を加味して合成音情報を作成する合成音
情報作成手段と、前記合成音情報に従って合成音を出力
する合成音出力手段とからなる規則合成音出力装置にお
いて、前記合成音出力手段が或る単位言語の合成音を出
力している間に、前記アクセント情報出力手段が次の単
位主語のアクセント情報を検索するように構成したもの
である。
[Effects of the Invention] (Means for Solving the Problems) The rule-synthesized speech output device of the present invention includes an accent information storage means in which accent information of a predetermined unit language is stored, and a method for searching this accent information storage means. an accent information search means for extracting accent information corresponding to a unit language indicated by a character code string inputted from the outside; A regular synthesized sound output device comprising a synthesized speech information creation means that combines information and creates synthesized speech information by taking into account the extracted accent information, and a synthesized speech output means that outputs a synthesized speech according to the synthesized speech information. In the present invention, while the synthesized sound output means is outputting the synthesized sound of a certain unit language, the accent information output means is configured to search for accent information of the next unit subject.

(作 用) 本発明の規則合成音出力装置では、合成音出力手段が或
る単位言語の合成音を出力している間に、アクセント情
報出力手段が次の単位主語のアクセント情報を検索する
ので、ある単位言語の合成音の出力が終了した後、すぐ
に後続する単位言語の合成音を出力することができ、単
位言語と単位言語との間隔が必要以上に長くならない。
(Function) In the rule synthesized speech output device of the present invention, while the synthesized speech output means is outputting the synthesized speech of a certain unit language, the accent information output means searches for accent information of the next unit subject. , After the output of the synthesized sounds of a certain unit language is finished, the synthesized sounds of the following unit language can be outputted immediately, and the interval between the unit languages does not become longer than necessary.

(実施例) 以下、本発明の実施例の詳細を図面に基づいて説明する
(Example) Hereinafter, details of an example of the present invention will be described based on the drawings.

第1図は本発明の一実施例装置の構成を示すブロック図
である。
FIG. 1 is a block diagram showing the configuration of an apparatus according to an embodiment of the present invention.

本実施例装置は、例えばホストコンピュータ等から入力
されるコマンドを解釈し、各処理R能を選択するコマン
ド解釈部1と、単位言語の文字列のコードを解釈するコ
ード解釈部2と、予め各単位言語に対応したアクセント
情報を記憶しているアクセント辞書記憶部3と、各単位
言語の文字コード列に従ってアクセント辞書の検索を行
なう辞書検索部4と、アクセント辞書の検索結果に基づ
いて単位言語の読みデータが展開される読みデータ記憶
部5と、文字コードに対応した単音情報を保持し、入力
される文字コード列に従って単音情報を結合し、読みデ
ータ記憶部5に展開されている読みデータに基づいて合
成音情報を作成する合成音情報作成手段6と、デジタル
の合成音情報をアナログ情報に変換し、後続する増幅系
に出力するD/A変換器7とから構成されている。
The apparatus of this embodiment includes a command interpreter 1 that interprets commands input from a host computer, etc., and selects each processing R function, a code interpreter 2 that interprets the code of a character string of a unit language, and An accent dictionary storage unit 3 stores accent information corresponding to a unit language; a dictionary search unit 4 searches for an accent dictionary according to the character code string of each unit language; A reading data storage unit 5 in which the reading data is expanded and the phonetic information corresponding to the character code are held, the phonetic information is combined according to the input character code string, and the phonetic information is combined into the reading data expanded in the reading data storage unit 5. It is comprised of a synthetic sound information creating means 6 that creates synthetic sound information based on the information, and a D/A converter 7 that converts the digital synthetic sound information into analog information and outputs it to the subsequent amplification system.

第2図は本実施例装置に入力されるコマンドの様式を示
す図である。
FIG. 2 is a diagram showing the format of commands input to the device of this embodiment.

図中Aで示した。コマンドは最初のビットが辞み検索指
定、次のビットが文字数、その次以降のビットがJIS
規準の文字コード列を示している。
Indicated by A in the figure. The first bit of the command specifies the search, the next bit is the number of characters, and the bits after that are JIS.
Indicates the standard character code string.

またBで示したコマンドは、音声出力要求を示すビット
のみからなる。
The command indicated by B consists only of bits indicating an audio output request.

さらに第3図は前記コマンドの具体的な例を示す図であ
る。
Further, FIG. 3 is a diagram showing a specific example of the above command.

同図においてAI、A2は辞書検索コマンドの例を示し
、Bは音声出力要求コマンドの例を示している。
In the figure, AI and A2 indicate examples of dictionary search commands, and B indicates an example of an audio output request command.

以下、本実施例装置の動作について説明する。The operation of the apparatus of this embodiment will be explained below.

まず本実施例装置にコマンドAIが入力されると、コマ
ンド解釈部1がコマンドの最初のビットをチェックする
First, when a command AI is input to the apparatus of this embodiment, the command interpreter 1 checks the first bit of the command.

コマンドA1は最初のビットが「01」、すなわち辞書
検索を指定しており、この内容はコード解釈部2に伝達
される。
The first bit of the command A1 is "01", that is, it specifies a dictionary search, and this content is transmitted to the code interpreter 2.

コード解釈部2は、コマンドの2番目以降のビットから
文字数10と「カブシキガイシャ(株式会社)」に対応
したB6、CC,DE、・・・・・・という文字コード
列を得、辞書検索部4へ出力する。
The code interpretation unit 2 obtains the number of characters 10 from the second and subsequent bits of the command and the character code strings B6, CC, DE, etc. corresponding to “Kabushiki Gaisha (Co., Ltd.)”, and the dictionary search unit 4 Output to.

辞書検索部4は、文字コード列rカブシキガイシャ」に
対応するアクセント情報がアクセント辞書記憶部3に格
納されているか否かを検索する。
The dictionary search section 4 searches the accent dictionary storage section 3 to determine whether or not accent information corresponding to the character code string "r" is stored in the accent dictionary storage section 3.

そして対応するアクセント情報があれば、それを抽出し
、そのアクセント情報を基にして読みデータ記憶部5に
「カブシキガイシャ」の音韻パラメータからなる読みデ
ータを展開する。
If there is corresponding accent information, it is extracted, and based on the accent information, reading data consisting of phonetic parameters of "Kabushiki Gaisha" is developed in the reading data storage section 5.

この読みデータは合成音情報作成部6に送出され、合成
音情報作成部6は音声の出力を要求するコマンドBが入
力された段階で、前記「カブシキガイシャ」に対応する
読みデータからディジタルの合成音情報を作成し、この
合成音情報をD/A変換器7に出力する。
This reading data is sent to the synthesized sound information creation unit 6, and the synthesized sound information creation unit 6 generates a digital synthesized sound from the reading data corresponding to the above-mentioned “kabushikigaisha” at the stage when the command B requesting the output of voice is input. information is created and this synthesized sound information is output to the D/A converter 7.

そして本実施例装置では、前記コマンドA1に続いて、
文字コード列「トウキヨウ(東京)」の合成音出力を要
求するコマンドA2が入力されると、前記コマンドA1
による「カブシキガイシャ」の合成音が出力されている
間、辞書検索部4が文字コード列「トウキヨウJに対応
したアクセント情報の検索を行ない、読みデータ記憶部
5に読みデータを展開する。
In the device of this embodiment, following the command A1,
When command A2 that requests the output of a synthesized sound of the character code string "Tokyo (Tokyo)" is input, the command A1
While the synthesized sound of "Kabushiki Gaisha" is being output, the dictionary search section 4 searches for accent information corresponding to the character code string "Tokyo J" and develops the reading data in the reading data storage section 5.

そして合成音情報作成部6は再び音声出力を要求するコ
マンドBが入力された段階で読みデータにより、前記「
トウキヨウ」に対応した合成音情報を作成し、こ−の合
成音情報をD/A変換器7に出力する。
Then, when the command B requesting audio output is input again, the synthesized sound information creation unit 6 uses the reading data to generate the above-mentioned "
Synthetic sound information corresponding to "Tokyo" is created and this synthetic sound information is output to the D/A converter 7.

かくして本実施例装置では「カブシキガイシャ」の合成
音の出力が終了した段階で既に「トウキヨウ」に対応し
た読みデータの展開が行なわれているため、合成音情報
作成部6が直ちに合成音情報を作成し、無用な間隔を置
くことなく「トウキヨウ」に対応した合成音の出力が行
なわれる。
In this way, in the device of this embodiment, the reading data corresponding to "Tokyo" has already been developed at the stage when the output of the synthesized sound for "Kabushiki Gaisha" has been completed, so the synthesized sound information creation section 6 immediately creates the synthesized sound information. However, the synthesized sound corresponding to "Tokyo" is outputted without unnecessary intervals.

なお上述した実施例ではコマンドAで読みデータが展開
され、コマンドBで合成音情報が作成されて合成音が出
力されるようにしているが、合成音情報作成部6に合成
音情報を保持させておく手段を設けておけば、コマンド
Aで合成音情報までが作成され、コマンドBで合成音情
報から合成音が得られるようにしてもよい。
In the above-described embodiment, reading data is expanded with the command A, and synthesized sound information is created with the command B, and the synthesized sound is output. If a means for storing the synthesized sound information is provided, command A may be used to create synthetic sound information, and command B may be used to obtain a synthesized sound from the synthesized sound information.

[発明の効果コ 以上説明したように本発明の規則合成音出力装置は、合
成音出力手段が或る単位言語の合成音を出力している間
に、アクセント情報出力手段がアクセント情報記憶手段
を検索するので、或る単位言語の合成音の出力が終了し
た段階で直ちに次の単位言語の合成音を出力することが
でき、単位言語と単位言語との間隔が必要以上に長くな
らない。
[Effects of the Invention] As explained above, in the rule synthesized sound output device of the present invention, while the synthesized sound output means outputs the synthesized sound of a certain unit language, the accent information output means outputs the accent information storage means. Since the search is performed, the synthesized sounds of the next unit language can be outputted immediately after outputting the synthesized sounds of a certain unit language, and the interval between the unit languages does not become longer than necessary.

なお本発明によれば、アクセント辞書検索のハードウェ
ア性能を高くする必要がないため、装置のコストが高く
ならない。
According to the present invention, there is no need to increase the hardware performance of accent dictionary search, so the cost of the device does not increase.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例装置の構成を示すブロック図
、第2図は同装置に入力されるコマンドの様式を概念的
に示す図、第3図は同コマンドの具体的な例を示す図で
ある。 1・・・・・・・・・コマンド解釈部 2・・・・・・・・・コード解釈部 3・・・・・・・・・アクセント辞書記憶部4・・・・
・・・・・辞書検索部 5・・・・・・・・・読みデータ記憶部6・・・・・・
・・・合成音情報作成部7・・・・・・・・・D/A変
換器 出願人      株式会社 東芝 代理人 弁理士  須 山 佐 − 第1図 第2図
FIG. 1 is a block diagram showing the configuration of a device according to an embodiment of the present invention, FIG. 2 is a diagram conceptually showing the format of commands input to the device, and FIG. 3 is a concrete example of the same command. FIG. 1...Command interpretation section 2...Code interpretation section 3...Accent dictionary storage section 4...
...Dictionary search section 5...Reading data storage section 6...
...Synthetic sound information creation section 7...D/A converter applicant Toshiba Corporation Agent Patent attorney Satoshi Suyama - Figure 1 Figure 2

Claims (1)

【特許請求の範囲】[Claims] (1)所定の単位言語のアクセント情報が格納されてい
るアクセント情報記憶手段と、このアクセント情報記憶
手段を検索し外部から入力される文字コード列が示す単
位言語に対応するアクセント情報を抽出するアクセント
情報検索手段と、各文字コードに対応した単音情報を保
持し、前記入力される文字コード列に従つて前記単音情
報を結合し、前記抽出されたアクセント情報を加味して
合成音情報を作成する合成音情報作成手段と、前記合成
音情報に従って合成音を出力する合成音出力手段とから
なる規則合成音出力装置において、前記合成音出力手段
が或る単位言語の合成音を出力している間に、前記アク
セント情報出力手段が次の単位主語のアクセント情報を
検索するように構成したことを特徴とする規則合成音出
力装置。
(1) An accent information storage means that stores accent information of a predetermined unit language, and an accent that searches this accent information storage means to extract accent information corresponding to the unit language indicated by a character code string input from the outside. an information retrieval means, holding monophonic information corresponding to each character code, combining the monophonic information according to the input character code string, and creating synthesized speech information by adding the extracted accent information; In a rule synthesized sound output device comprising a synthesized sound information creation means and a synthesized sound output means for outputting a synthesized sound according to the synthesized sound information, while the synthesized sound output means outputs a synthesized sound of a certain unit language. 2. A rule synthesized speech output device, characterized in that the accent information output means is configured to search for accent information of the next unit subject.
JP22906286A 1986-09-27 1986-09-27 Rule synthesized sound output unit Pending JPS6382500A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22906286A JPS6382500A (en) 1986-09-27 1986-09-27 Rule synthesized sound output unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22906286A JPS6382500A (en) 1986-09-27 1986-09-27 Rule synthesized sound output unit

Publications (1)

Publication Number Publication Date
JPS6382500A true JPS6382500A (en) 1988-04-13

Family

ID=16886139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22906286A Pending JPS6382500A (en) 1986-09-27 1986-09-27 Rule synthesized sound output unit

Country Status (1)

Country Link
JP (1) JPS6382500A (en)

Similar Documents

Publication Publication Date Title
US6801897B2 (en) Method of providing concise forms of natural commands
JP2000081892A (en) Device and method of adding sound effect
JPH10274997A (en) Document reading-aloud device
EP1668628A1 (en) Method for synthesizing speech
US6148285A (en) Allophonic text-to-speech generator
JPH01501977A (en) language translation system
JP3071804B2 (en) Speech synthesizer
JP2897701B2 (en) Sound effect search device
US5987412A (en) Synthesising speech by converting phonemes to digital waveforms
US6963838B1 (en) Adaptive hosted text to speech processing
US7353175B2 (en) Apparatus, method, and program for speech synthesis with capability of providing word meaning immediately upon request by a user
JPS6382500A (en) Rule synthesized sound output unit
JPH10274999A (en) Document reading-aloud device
JPS5941226B2 (en) voice translation device
JP3709578B2 (en) Speech rule synthesis apparatus and speech rule synthesis method
JP2612030B2 (en) Text-to-speech device
JP3108121B2 (en) Dictionary control method for speech recognition device
JPH03214199A (en) Text speech system
KR20180103273A (en) Voice synthetic apparatus and voice synthetic method
JP2622834B2 (en) Text-to-speech converter
JP2738403B2 (en) Voice recognition device
JP3414326B2 (en) Speech synthesis dictionary registration apparatus and method
JP3034554B2 (en) Japanese text-to-speech apparatus and method
JP2001042883A (en) Text speech synthesis apparatus
KR100363876B1 (en) A text to speech system using the characteristic vector of voice and the method thereof