JPS5919999A - Voice output unit - Google Patents

Voice output unit

Info

Publication number
JPS5919999A
JPS5919999A JP57129171A JP12917182A JPS5919999A JP S5919999 A JPS5919999 A JP S5919999A JP 57129171 A JP57129171 A JP 57129171A JP 12917182 A JP12917182 A JP 12917182A JP S5919999 A JPS5919999 A JP S5919999A
Authority
JP
Japan
Prior art keywords
voice
phrase
data
sentence
address
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP57129171A
Other languages
Japanese (ja)
Inventor
耕一 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Tateisi Electronics Co
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tateisi Electronics Co, Omron Tateisi Electronics Co filed Critical Tateisi Electronics Co
Priority to JP57129171A priority Critical patent/JPS5919999A/en
Publication of JPS5919999A publication Critical patent/JPS5919999A/en
Pending legal-status Critical Current

Links

Landscapes

  • Input Circuits Of Receivers And Coupling Of Receivers And Audio Equipment (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Diaphragms For Electromechanical Transducers (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 (り発明の分野 この発明は、指定入力される文を音声で出力する音声出
力装置に関する。
DETAILED DESCRIPTION OF THE INVENTION Field of the Invention The present invention relates to a voice output device that outputs a specified input sentence in voice.

(2)従来技術とその問題点 一般に、所定の文を指定人力し、その文に対応する音声
を出力するのに第1図に示す音声出方装置がj更用てれ
る。同図に2いて、1はスイッチDo。
(2) Prior art and its problems In general, the voice output device shown in FIG. 1 is used to input a predetermined sentence manually and output the voice corresponding to the sentence. 2 in the figure, 1 is a switch Do.

Dl・・・−1・I) 7により音声出力すべき文を指
定入力する入力回路、2はマイクロコンピュータ、3は
プロクラム旧−昌′1.4は音声合成器、5は音μデー
タROM、6はスピーカである。
Dl...-1・I) 7 is an input circuit for specifying and inputting a sentence to be output as voice, 2 is a microcomputer, 3 is a program old-sho'1.4 is a speech synthesizer, 5 is a sound μ data ROM, 6 is a speaker.

従来の音声出力装置itは、上記プログラムROM6に
第2図(a)に示すようにマイクロコンピュータ2の動
作進行用のコントロールプログラムを記憶する領域Ml
、入力回路1で入力きれる入力コードを文データアドレ
スに変換する変換テーブル用の記憶領域M2及び谷文毎
にその文を構成するフレーズ数とその谷フレーズのアド
レスを記憶する文データ記憶領域へ13を備え、音声R
OM5には第2図(l〕)に示すように音声フレーズデ
ータd1・(12・−・d8・−(音声データ)を配憶
して2つ、マイクロコンピュータ2による制御のもと指
定きれ1こ文の音?をスピーカ6より出力するようにし
ている。
The conventional audio output device IT has an area M1 in the program ROM 6 for storing a control program for operating the microcomputer 2, as shown in FIG. 2(a).
, a storage area M2 for a conversion table that converts the input code that can be entered in the input circuit 1 into a sentence data address, and a sentence data storage area 13 that stores the number of phrases that make up the sentence and the address of the valley phrase for each valley sentence. and audio R
As shown in FIG. 2 (l), the OM5 stores two audio phrase data d1. The sound of this sentence is output from the speaker 6.

こ\で第5図に示す制御フローにより、従来の音声出力
装置の動作を説明すると装置か動作を開始すると、先ず
音声合成器4へ、音声分析時のフレーズの情報ビット数
、出刃速度、音源波をインパルス、三角波、あるいは自
然波とするか等の初j切1直セットかなされる(ステツ
ブコ)。Ul−いて入力回路1で文を指定する入力かあ
21コかの判定かな婆ね(ステラフ陣)1人力有の場合
には入力コード・文データアトレス変換テーブルM24
参照、して、入力コートを文データアドレスに変換する
(ステップ3)。そしてその文データアドレスに対応す
る1文データのフレーズ数を文テーク記憶領域Mろから
読み出しくステップ4)、さらに続いてその文データの
第1番目のフレーズアドレス+aみ出しくステップ5)
、そのフレーズアドレスを音声合成器4にセットする(
ステップ6)。
The operation of a conventional voice output device will now be explained using the control flow shown in FIG. The first j-cut 1 direct set is made, such as whether the wave is an impulse, triangular wave, or natural wave (Stetsubuko). Input code/sentence data address conversion table M24 in case of 1 person (Stellaf team)
Reference is made to convert the input code into a statement data address (step 3). The number of phrases in one sentence data corresponding to the sentence data address is read out from the sentence take storage area M (step 4), and then the first phrase address + a of the sentence data is read out (step 5).
, set the phrase address in the speech synthesizer 4 (
Step 6).

次に音声合成器4へ発声スタートコードをセントする(
ステップ7)。
Next, send the voice start code to the speech synthesizer 4 (
Step 7).

音声合成器4でCユ1発声スタートコードかセット−g
れると、ステップ6でセントてれている7レースアドレ
スに基つき、音声データROM5のアドレスを指定し、
対応する音声7レーステータを読出し、音声合成動作を
行ないその7レースの晋?をスピーカ6より出力する。
Set Cyu1 utterance start code or set-g with speech synthesizer 4
Then, specify the address of the audio data ROM 5 based on the 7 race address specified in step 6,
Read the corresponding voice 7 race data, perform voice synthesis operation, and find out the 7th race? is output from the speaker 6.

マイクログ0セソv2では、このF#発声中であるか否
かの判定を行ない(ステップ8)2発声中である場合に
はこのステップで待機するが9発声が終了すると夕にり
フレーズ数が0か判定しくステップ9)、0てなければ
ステップ5にもとり式らに次の文データアドレスのん゛
し込み動作に移り上記と同様ステップ5からステップ8
1での処理を行7ffiイ、 次7 レースの音?を出
刃する。ステップ9で残りフレーズかIJと判定される
と、指定人力されjこ1文の音声出力か終了し1ことい
うことでステップ2にもどり次の文人方寸で待機する。
In microlog 0 seso v2, it is determined whether or not this F# is being uttered (step 8).If 2 is being uttered, it waits at this step, but when 9 is finished uttering, the number of evening phrases is increased. If it is determined to be 0 (step 9), if it is not 0, proceed to step 5 and proceed to the operation of inserting the next statement data address.Same as above, from step 5 to step 8.
Processing in step 1 is line 7ffi, next 7 is the sound of lace? Deba. When it is determined in step 9 that there are remaining phrases or IJ, the designated person inputs the voice output of one sentence and ends the voice output, and returns to step 2 and waits at the next sentence.

なお゛ステップ9に2ける残りフレーズ数の確認は各フ
レーズの廿声出力後フレーズ数を1ずつ減算しfこ結果
により行なわれる。
Note that the remaining number of phrases in step 9 is confirmed by subtracting the number of phrases by 1 after each phrase is outputted and based on the result.

Jン、上のように従来の音声出力装置では、1文を音声
出力するのに、いくつ力)の音声フレーズをつなげて順
次連続的に出力するものであり、自然な発声でなくスム
ーズ芒に欠けるという欠点がある。
As mentioned above, with conventional voice output devices, to output one sentence aloud, several voice phrases are connected and output one after another, and the voice is not uttered naturally but in a smooth manner. It has the disadvantage of being lacking.

(3)発明の目的 それゆえにこの発明の目的は、自然発声に近い音声文を
出力する音声出力装置を提供するにある。
(3) Purpose of the Invention Therefore, the purpose of the present invention is to provide a speech output device that outputs speech sentences that are close to natural utterances.

(4)発明の構成と効果 上記目的を達成する1こめにこの狛明の音声出刃装置1
は文データを記1.はし1文毎にフレーズ数と。
(4) Structure and Effects of the Invention 1 Komei's sound blade device 1 that achieves the above objectives
indicates the sentence data 1. Number of phrases for each sentence.

その文を構成する各フレーズのアドレスと、各フレーズ
間の時間データとを記゛I蕉する文データ配憶手段と、
この文データ記憶手段よりの各フレーズアドレスにより
それぞれ指定される複数の音声フレーズデータを記憶す
る音声データ記憶手段と。
sentence data storage means for storing addresses of each phrase making up the sentence and time data between each phrase;
voice data storage means for storing a plurality of voice phrase data respectively specified by each phrase address from the sentence data storage means;

音声出力すべき文を指定する大力手段と、この人力手段
よりの文指定人力傷号を受けて、対応する文のフレーズ
アドレス及び時間データを前記文データ記憶手段より時
i11順次に読出す手段と、読出されfこフレーズアド
レスにより指定される音声フレーズデータを前Ml”r
片ノ1:Iデータ記憶手段より読出して音声合成を行な
いフレーズ毎の音声を出力する手段と、前記□・lol
・出式れTコ時j旬データに基つき前記出力される音7
11フレースと晋戸ンレーズ間に所定の時間幅を持Tコ
ぜる手段とで構成されている。
a powerful means for specifying a sentence to be outputted aloud; and means for sequentially reading phrase addresses and time data of the corresponding sentence from the sentence data storage means in response to a sentence designation signal from the human means; , the voice phrase data specified by the read phrase address is forwarded to Ml”r.
Part 1: means for reading out data from the I data storage means, performing speech synthesis, and outputting speech for each phrase;
・The sound 7 that is output based on the current data at the time of departure
11 frame and a means for adjusting the length of time with a predetermined time width between the 11 frames and the Shindo frame.

この発明の音声出力装置によれば1文データとして各ン
レーズアI−’レスの他に各7レースm1の時間データ
を記憶しておき、1文の音声を出力する(7) ニ% 
7 し、 、<71・゛レスに対応しjコ音Pフレーズ
を出力するとともに、音声フレーズ出刃と次の音声フレ
ーズ出力間(ζ記憶される時間データに基い1コ1定の
時間幅を嘔くものであるから、この時間データを前後の
フレーズζこ応じて適宜に設定して寂ぐことにより、各
音声フレーズ出刃間で間のとれた非常に自然発弧に近い
文音声出力を得ることができる。
According to the audio output device of this invention, in addition to each race I-' reply, the time data of each of the seven races m1 is stored as one sentence data, and the audio of one sentence is output (7) 2%
7 In response to <71. By setting this time data appropriately according to the preceding and following phrases, we can obtain sentence speech output that is very close to spontaneous speech with a pause between each speech phrase. be able to.

(5)実施例の説明 以下ン二示万実施例によりこの発明をさらに詳細に説明
する。
(5) Description of Examples The present invention will be explained in more detail with reference to two examples below.

ここで説明する実施例装置は、第1図に示す音声量ノJ
装置の基本構成を採用する点で従来の音声出力装置と変
わるところはない。しかしプロクラムROMIに記憶さ
せるデータ及びマイクロコンピュータ2に付与する機能
構成において著しく改善されている。
The embodiment device described here is based on the audio volume J shown in FIG.
There is no difference from conventional audio output devices in that the basic configuration of the device is adopted. However, the data stored in the program ROMI and the functional configuration provided to the microcomputer 2 have been significantly improved.

第4図(a)はこの発明の実施例装置のプロクラムRO
M3の記憶領域配置を示す図である。マイクロプロコン
ピュータ2用のコントロールプログラムを記憶する領域
M 1 + 入力回路1で入力される入力コードを文デ
ータアドレスに変換する変換ガーブル用の記憶領域M2
及び文データ記憶領域M3を有する点で従来装置と同じ
である。しかし文データ記憶領域M3の各1文データ毎
にフレーズ数記憶領域mn、  フレーズアドレス記憶
領域ma1 ・ma2・ma3・ma4の他に時間デー
タ記憶領域mtl・m t’2・mL3を有する点で特
徴的である。なお第4図(b)は音声テ゛−りROM5
の記憶データ配置を示しており、この音声フレーズデー
タd1・d2・・・・・d8・・・・・の記憶態様は従
来と変わちない。
FIG. 4(a) shows the program RO of the embodiment device of this invention.
It is a diagram showing the storage area arrangement of M3. An area M1 for storing a control program for the microprocessor 2 + a storage area M2 for a conversion gable that converts the input code input by the input circuit 1 into a statement data address
This device is the same as the conventional device in that it has a sentence data storage area M3 and a sentence data storage area M3. However, it is unique in that it has time data storage areas mtl, mt'2, and mL3 in addition to the phrase number storage area mn, phrase address storage areas ma1, ma2, ma3, and ma4 for each sentence data in the sentence data storage area M3. It is true. Note that FIG. 4(b) shows the audio key ROM5.
, and the manner in which the voice phrase data d1, d2, . . . , d8, . . . are stored is the same as before.

この発明の実施例装置はマイクロコンピュータ2による
制御のもと第5図に示す制御フローにしたがい動作が進
行する。
The apparatus according to the embodiment of the present invention operates under the control of the microcomputer 2 according to the control flow shown in FIG.

次に第5図を参照してこの実施例装置の動作を説明する
。動作開始後、音声合成器4に対し初期値をセツトシた
(ステップ11)後、入ノJ回路1で文人力指定がある
までステップ12で待機するが、入力回路1で入力があ
るとステップ12における判定はY E Sとなり、記
憶領域Miを参照して人カコー1−゛から交データアド
レスへの変換を行なう(ステップ13)。
Next, the operation of this embodiment will be explained with reference to FIG. After the start of operation, after setting the initial value for the speech synthesizer 4 (step 11), the system waits in step 12 until input J circuit 1 receives a literate designation, but if there is an input in input circuit 1, step 12 The determination in step 1 is YES, and the storage area Mi is referred to to convert the human address 1-' into an exchange data address (step 13).

今ここで変換された文データアドレスが第4図(a)に
例示する交データを指定するものと仮定すると、記憶領
域Ill I+のフレーズ数4が読込まれる(ステップ
14)、、続いて、記憶領域ma1に記憶されるフレー
ズアドレスすなわち音声フレーズデータd2のア1ルヌ
が読込まれる(ステップ15)。
Assuming that the sentence data address converted here specifies the intersection data illustrated in FIG. 4(a), the phrase number 4 in the storage area Ill I+ is read (step 14), and then The phrase address stored in the storage area ma1, that is, the voice phrase data d2 is read (step 15).

そしてこのフレーズアドレスが音声合成器4にセラl−
され(ステップ16)、続けて音声合成器4へ発声スタ
ートコードがセットされる(ステップ17)。この発声
スタートコードがセラ1−されると音声合成器4は先に
セットされている音声フレーズデータd2のアドレスに
より、音声データROM 5をアドレス指定し音声フレ
ームデータd2を読み出し、音声合成動作を行ないスピ
ーカ6よりフレーズデータd2の音声を出力する。
Then, this phrase address is sent to the speech synthesizer 4.
(Step 16), and then a voice start code is set in the speech synthesizer 4 (Step 17). When this voice start code is issued, the voice synthesizer 4 addresses the voice data ROM 5 using the address of the voice phrase data d2 set previously, reads the voice frame data d2, and performs a voice synthesis operation. The speaker 6 outputs the voice of the phrase data d2.

このフレーズの発声中はマイクロコンピュータ2による
制御動作はステップ18で待機しているが5発声が終了
するとステップ4で読込済のフレーズ数から1を減じた
後(この時点では残りフレーズ数−3)、残シフレーズ
数−〇か判定する(ステップ19)。第1フレーズが発
声後の現時点では0でないので5次に記憶領域mtiよ
り時間データ23mSを読込む(ステップ20)。そし
て20m5の時間待を行なった(ステップ21)後。
While this phrase is being uttered, the control operation by the microcomputer 2 is on standby in step 18, but when 5 utterances are completed, 1 is subtracted from the number of read phrases in step 4 (at this point, the number of remaining phrases is minus 3). , the number of remaining shift phrases - 0 is determined (step 19). Since the first phrase is not 0 at the present time after it is uttered, time data of 23 mS is read from the fifth storage area mti (step 20). After waiting for 20 m5 (step 21).

ステップ15にもどる。そして次のフレーズアドレスス
ナわチ音声フレーズデータd4のアドレスを読込む。上
記1°f声フレーズデータd2の場合と同様に、ステッ
プ15〜18の動作が行なわれ。
Return to step 15. Then, the address of the next phrase address snawachi voice phrase data d4 is read. As in the case of the 1°f voice phrase data d2, steps 15 to 18 are performed.

今度は音声データROM 5よシ音声フレーズデータd
4が読み出され音声合成器4で合成されてスピーカ6よ
り音声出力されその発声が終了すると。
This time, voice data ROM 5, voice phrase data d
4 is read out, synthesized by the speech synthesizer 4, and outputted as a sound from the speaker 6, when the utterance is completed.

次に記憶領域m2の時間データ50m5が読込まれ(ス
テップ20 )、50m5の時間待を経て再びステップ
15にもどる。
Next, the time data 50m5 in the storage area m2 is read (step 20), and after waiting for 50m5, the process returns to step 15.

このようにその1文の全フンーズの発声が終了するまで
ステップ15からステップ21までの処理動作が繰り返
される。この間音声出力は、音声フレーズデータd2発
声→時間待(201nS )→音声フレーズテ゛−タd
4発声→時間待(50mS)→音声フレーズデークd5
発声→時間待(30mS)→音声フレーズデータd7発
声となる。
In this way, the processing operations from step 15 to step 21 are repeated until the utterance of all the huns of that one sentence is completed. During this period, the audio output is as follows: Voice phrase data d2 utterance → Time wait (201ns) → Voice phrase data d
4 utterance → time waiting (50mS) → voice phrase data d5
Voice → time wait (30 mS) → voice phrase data d7 voice.

上記例ではフレーズ数が4なので音声フレーズデータd
7の発声が終了した時点ではステップ19での残シフレ
ーズ数−0がの判定はYESとなりステップ12に戻υ
次の文人力にそなえる。
In the above example, the number of phrases is 4, so the audio phrase data d
When the utterance of 7 is completed, the determination of the number of remaining shift phrases - 0 in step 19 becomes YES, and the process returns to step 12 υ
Prepare for the next literary talent.

上記において時間データを適正に設定すれば。If you set the time data properly in the above.

発声フレーズとフレーズにほど良い間が保てより自然に
近い音声文を出力できる。
A suitable amount of time is maintained between the uttered phrases, making it possible to output more natural-sounding speech sentences.

【図面の簡単な説明】[Brief explanation of drawings]

第1は一般的な音声出力装置の基本構成を示す図、第2
図は従来の音声出力装置のROMの記憶領域配置を示す
図であって、第2図(a)はプログラムROMの記憶領
域配置を示す図、第2図(b)は音声データROMの記
憶領域配置を示す図、第6図は従来の音声出力装置の動
作を説明するための制卸フロー図、第4図はこの発明の
実施例の音声出力装置のROMの記憶領域配置を示す図
であって第4図(a)は同プログラムROMの記憶領域
配置を示す図、第4図(b)は同音声データROMの記
憶領域配置を示す図、第5図はこの発明の実施例の音声
出力装置の動作を説明するだめの制御フロー図である。 1:入力回路、  2:マイクロコンピュータ。 3ニブログラムROM、   4:音声合成器。 5:音声データROM、   6:ヌピーカ。 Ml:コントロールプログラム記憶領域。 M2:入力コード・文データアドレス変換テーブル領域
、 M3二文データ記憶領域。 m a 1 ・mn2・・・・・mn4 :フレーズア
ドレス記憶領域、  +nti ・−mt2 ・mt3
 :時間データ記憶領域。 特許出願人     立石電機株式会社代理人  弁理
士  中 村 茂 信 M1図
The first is a diagram showing the basic configuration of a general audio output device, and the second is a diagram showing the basic configuration of a general audio output device.
The figure shows the storage area arrangement of the ROM of a conventional audio output device, in which FIG. 2(a) shows the storage area arrangement of the program ROM, and FIG. 2(b) shows the storage area of the audio data ROM. FIG. 6 is a control flow diagram for explaining the operation of a conventional audio output device, and FIG. 4 is a diagram showing the storage area arrangement of the ROM of the audio output device according to the embodiment of the present invention. 4(a) is a diagram showing the storage area arrangement of the program ROM, FIG. 4(b) is a diagram showing the storage area arrangement of the audio data ROM, and FIG. 5 is an audio output diagram of the embodiment of the present invention. FIG. 3 is a control flow diagram for explaining the operation of the device. 1: Input circuit, 2: Microcomputer. 3 Niprogram ROM, 4: Speech synthesizer. 5: Audio data ROM, 6: Nupika. Ml: Control program storage area. M2: Input code/sentence data address conversion table area, M3 Two-sentence data storage area. m a 1 ・mn2...mn4: Phrase address storage area, +nti ・-mt2 ・mt3
: Time data storage area. Patent Applicant Tateishi Electric Co., Ltd. Agent Patent Attorney Shigeru Nakamura Nobu M1 Diagram

Claims (1)

【特許請求の範囲】[Claims] (1)文データを記憶し9文毎にフレーズ数とその文を
構成する各フレーズのアドレスと、各フレーズ間の時間
テークとを記憶する文データ記憶手段と、この文データ
記憶手段よりの各フレーズアドレスによりそれぞれ指定
される複数の音声フレーズテークを記憶する音声テーク
記憶手段と、音声出力すべき文を指定する入力手段と。 この入力手段よりの突指定入力信号を受けて。 対応する文のフレーズアドレス及び時間テークを前記文
データ記憶手段よp時間順次に読出す手段と、読出され
1こフレーズアドレスにより指定される音声フレーズデ
ータを前記音声データ記憶手段より読出して音声合成を
行ないフレーズ毎の音声を出力する手段と、前記読出さ
れ1こ時間データに基づき前記出力される音声フレーズ
と音声フレーズ間に所定の時間幅を持1こぜる手段とよ
りなる音声出力装置。
(1) A sentence data storage means for storing sentence data and storing the number of phrases for every nine sentences, the address of each phrase constituting the sentence, and the time take between each phrase; A voice take storage means for storing a plurality of voice phrase takes each specified by a phrase address, and an input means for specifying a sentence to be outputted as voice. Upon receiving the sudden designation input signal from this input means. means for sequentially reading out phrase addresses and time takes of corresponding sentences from said sentence data storage means for p times, and reading voice phrase data specified by the read phrase addresses from said voice data storage means to perform speech synthesis. A voice output device comprising: means for outputting voice for each phrase; and means for maintaining a predetermined time width between the output voice phrases based on the read time data.
JP57129171A 1982-07-24 1982-07-24 Voice output unit Pending JPS5919999A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP57129171A JPS5919999A (en) 1982-07-24 1982-07-24 Voice output unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP57129171A JPS5919999A (en) 1982-07-24 1982-07-24 Voice output unit

Publications (1)

Publication Number Publication Date
JPS5919999A true JPS5919999A (en) 1984-02-01

Family

ID=15002892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP57129171A Pending JPS5919999A (en) 1982-07-24 1982-07-24 Voice output unit

Country Status (1)

Country Link
JP (1) JPS5919999A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6199198A (en) * 1984-09-28 1986-05-17 株式会社東芝 Voice analyzer/synthesizer
JPS6252784A (en) * 1985-08-30 1987-03-07 Pioneer Electronic Corp Editing device
US7909568B2 (en) 2005-09-14 2011-03-22 Sanyo Denki Co., Ltd. Counter-rotating axial-flow fan

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5574600A (en) * 1978-11-30 1980-06-05 Sharp Kk Speech annunciation control system
JPS55147699A (en) * 1979-05-07 1980-11-17 Sharp Kk Sound output system
JPS5654498A (en) * 1979-10-11 1981-05-14 Canon Kk Sound output device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5574600A (en) * 1978-11-30 1980-06-05 Sharp Kk Speech annunciation control system
JPS55147699A (en) * 1979-05-07 1980-11-17 Sharp Kk Sound output system
JPS5654498A (en) * 1979-10-11 1981-05-14 Canon Kk Sound output device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6199198A (en) * 1984-09-28 1986-05-17 株式会社東芝 Voice analyzer/synthesizer
JPS6252784A (en) * 1985-08-30 1987-03-07 Pioneer Electronic Corp Editing device
JPH0568789B2 (en) * 1985-08-30 1993-09-29 Pioneer Electronic Corp
US7909568B2 (en) 2005-09-14 2011-03-22 Sanyo Denki Co., Ltd. Counter-rotating axial-flow fan

Similar Documents

Publication Publication Date Title
US4189779A (en) Parameter interpolator for speech synthesis circuit
US4209836A (en) Speech synthesis integrated circuit device
JPH0228877B2 (en)
US4946391A (en) Electronic arithmetic learning aid with synthetic speech
JPS5919999A (en) Voice output unit
JPS6161400B2 (en)
US4335275A (en) Synchronous method and apparatus for speech synthesis circuit
US4209781A (en) MOS Digital-to-analog converter employing scaled field effect devices
JPH0215080B2 (en)
JPS6014360B2 (en) voice response device
JPH0419799A (en) Voice synthesizing device
JPS58160993A (en) Voice confirmation of document editting unit editing unit
JP2878483B2 (en) Voice rule synthesizer
JP2622834B2 (en) Text-to-speech converter
JP2584236B2 (en) Rule speech synthesizer
JPS62113264A (en) Speech document creating device
JPS5942598A (en) Rule synthesization/connection circuit
JPH04212200A (en) Voice synthesizer
JP2647913B2 (en) Text-to-speech device
JPH077274B2 (en) Speech edit synthesizer
JP2861005B2 (en) Audio storage and playback device
JPH0756598B2 (en) Speech synthesis method of speech synthesizer
JPH04243299A (en) Voice output device
JPH037999A (en) Voice output device
JP3064376B2 (en) Speech synthesizer