JPH0225519B2 - - Google Patents

Info

Publication number
JPH0225519B2
JPH0225519B2 JP55106015A JP10601580A JPH0225519B2 JP H0225519 B2 JPH0225519 B2 JP H0225519B2 JP 55106015 A JP55106015 A JP 55106015A JP 10601580 A JP10601580 A JP 10601580A JP H0225519 B2 JPH0225519 B2 JP H0225519B2
Authority
JP
Japan
Prior art keywords
data
buffer stack
section
voice
frame pulse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP55106015A
Other languages
Japanese (ja)
Other versions
JPS5730897A (en
Inventor
Shuichi Hashimoto
Wataru Naito
Shigeki Sagayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Nippon Telegraph and Telephone Corp
Original Assignee
Fujitsu Ltd
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Nippon Telegraph and Telephone Corp filed Critical Fujitsu Ltd
Priority to JP10601580A priority Critical patent/JPS5730897A/en
Publication of JPS5730897A publication Critical patent/JPS5730897A/en
Publication of JPH0225519B2 publication Critical patent/JPH0225519B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Description

【発明の詳細な説明】[Detailed description of the invention]

本発明は、音声合成における音声データの受信
方式に関するものである。 最近の音声合成方式に関する技術は目覚ましい
進展が見られ、なかでもPCM、DPCM等の波形
符号化方式やPARCORに代表される線形予測符
号化方式等が開発され実用化が図られている。更
に従来の線形予測符号化方式に対し音質改善、情
報量削減等の立場から線スペクトル対(LSP:
Line Spectrum Pair)方式が開発されるに至つ
ている。 このLSP方式は周波数領域のパラメータで周波
数スペクトルの特徴を符号化するものであり、本
発明は、この符号化されたデータを記憶装置等か
ら読み出して音声合成し音声として出力端末等に
送出する方式に係り、フレーム周期毎に音声デー
タを読み出し、音声合成中に、あるフレーム周期
でデータが不足しても次フレーム周期までに修正
データを受信すれば、音声合成を正常に処理せし
める音声データ受信方式を提供することを目的と
する。 本発明は、音声合成を行う音声合成装置への符
号化された音声データを外部の記憶装置から入力
する入力端子と該音声データをセツトするデータ
ロード端子を有するデータバツフアスタツク部に
おいて、該データバツフアスタツク部から該音声
データを変換する変換処理中を示すフレームパル
スと、該変換処理された同一の音声データを繰り
返し音声合成するためのリピート動作信号とを前
記データロード端子に論理を取り接続し、フレー
ムパルスが発生した直後から次のフレームパルス
の発生する直前までの期間中とフレームパルスに
関係なくリピート動作信号の入力中は、前記デー
タバツフアスタツク部に格納されたデータの有無
にかかわりなく、前記入力端子及びデータロード
端子に信号を入れることにより新たな音声データ
を前記データバツフアスタツク部に格納可能とし
たことを特徴とする。 以上、本発明を図面を用いて詳細に説明する。 第1図は本発明に係るシステム構成図である。 図中の1は制御装置、2は音声合成装置、3は
記憶装置、4はデイジタル・アナログ変換器、5
は低域透過フイルタ、AMPは増幅器、7はトラ
ンス、S1,S2はスピーカである。 第1図において、制御装置1は音声データが格
納された記憶装置へアドレス指定13を行ない指
定された音声データ32は演算処理を行なう音声
合成装置2に入る。 音声合成装置2の起動・制御は制御装置1から
制御信号21で行ない、また音声合成装置2から
のデータ要求や状態情報は状態信号12で制御装
置1へ送られる。 一方、音声合成装置2により合成された音声の
デイジタル情報はデイジタル・アナログ変換器4
を経てスピーカS1へ送られるか、内部デイジタ
ル・アナログ変換部でアナログ音声とにスピーカ
S2に送られる。 第2図は、第1図に示される音声合成装置2の
回路構成図である。 図中の22は音声データを必要量保持するデー
タ・バツフアスタツク部、23はインタフエース
部、231は制御装置からの制御信号を受けるコ
ントロール部、232は状態信号を制御装置へ送
出するステータス・レジスタ、24は発振、タイ
ミング回路から成る制御部、25は演算部であ
り、その中の26はデータバツフアスタツク部の
データを適当なタイミングで取り込む変換部、2
7は補間部、28はデータバツフアスタツク中の
データのうちピツチ情報を取込む音源部、29は
デイジタルフイルタ、20はデイジタル・アナロ
グ変換部である。データバツフアスタツク部22
の記憶装置から送られる音声データ(例えば、音
源ピツチと振幅とLSPパラメータ等から成る)
D0〜D7及び音声符号化データを書き込みクロツ
クであるデータロード信号DLを入力情報とし、
インターフエース部23のコントロール・レジス
タ231は、コントロール・レジスタロード信号
CRL、音声情報を一定時間維持させるリピート
信号RPT、フレーム周期を設定する信号線T0
T1(本実施例では2ビツトT0、T1で4種類指定
可能となる)、モード信号MODE、その他の信号
A,B等を入力としている。上記リピート信号
は、ある音声出力を反復して出力するために、入
力を行うものである。またステータスレジスタは
音声データ要求信号REQ、障害表示ALM、走行
中(音声合成処理中)表示RUN等を出力する。 制御部は、外部装置(例えば、制御装置とは別
の装置系)からの制御情報等を入力し、また内部
で作成されたフレームパルスFPあるいは信号線
T0,T1で指定されたフレーム周期により発生さ
せるフレームパルスFPその他各種タイミング信
号を出力する。 フレームパルスFPは入力データの内部変換/
演算/転送処理帰還を示すもので、データの競合
を防ぐ意味で外部入力データをインヒビツトする
こと等に使用するものである。 第1図のシステム構成図をもとに第2図の音声
合成装置の動作を簡単に説明する。 記憶装置3には単語あるいは文の音声を標本化
周波数によつて特徴抽出された音源ピツチ、振幅
情報、音声の周波数スペクトルの量子化された
LSPパラメータ等の音声データとして記憶されて
おり、制御装置1からのアドレス指定により音声
合成装置2へ、例えば8ビツト単位で音声データ
が送られる。この送られて来た音声データはデー
タバツフアスタツク部22に保持され、フレーム
周期で変換部26及び音源部28に読み出され、
変換部では振幅情報LSPパラメータをデコード
し、補間部27へ送られる。この補間部27では
フレーム周期毎に変換部から入力される変換デー
タを1フレームの間直線補間して、サンプル周期
毎に1組ずつデイジタルフイルタ部へ出力し、一
方音源部28では音源ピツチ情報によりデイジタ
ルフイルタを駆動するインパルスあるいは白色雑
音を発生する。デイジタルフイルタ部29では補
間部からの入力係数、音源部からのインパルスあ
るいは乱数入力に基づき所定の合成演算を実行
し、音声情報(デジタル)を出力する。出力部は
このデイジタル出力情報をそのまま外部装置へ出
力する端子OUT1とデイジタル・アナログ変換部
20を経てアナログ情報として出力する端子
OUT2を備えている。尚、音声データを記憶する
メモリを音声合成装置内に設けても同様である。 データバツフアスタツク部22は1組の音声デ
ータを保持するために数段のシフトレジスタ群か
ら成り入力端子D0〜D7及びDLにセツトされる毎
に、例えば1バイト単位でシフトして必要バイト
数を保持する。このため従来ではこのデータバツ
フアスタツク部22に一部データが誤つて格納さ
れたり、また格納すべきデータの一部不足してい
た場合にそのデータの修正等ができなかつた。そ
のため誤つたデータがそのまま音声に再現される
といつた欠点があり、本発明は上記問題点を解決
するため、データ修正及び追加を可能とするもの
である。更に、本発明ではデータ修正及び追加を
効率良く行うため、データをリピート処理してい
る間は新しいデータを必要としない点に着目し、
リピート処理している間に修正及び追加のデータ
をデータバツフアスタツク部入力するものであ
る。 第3図は本発明のデータ転送方式を具体的に可
能とする回路構成図であり、第4図はフレーム周
期との時間的関係を示す説明図である。 第3図において、第2図に用いた符号と同じも
のは同一物を示し、Iはインバータ、ORはオア
回路、ANDはアンド回路である。第4図は第3
図の入力端子D0〜D7,DL,ST及び出力端子FP
の時間にたいするレベルを示している。 制御装置からの起動がスタート信号STから入
力されるとインターフエース部23より制御部に
指示され、第2図に示したフレーム周期設定端子
T1,T0及びモード信号MODEの指示によりフレ
ームパルスFPを発生させる。このフレームパル
スFPをインバータIで反転させ、リピート信号
とをオア回路ORによりオア論理を取りその出力
情報をデータロード信号DLとアンド回路ANDに
てアンド論理を取ることによりデータバツフアス
タツク部22に音声データの受付有効/無効を指
示する。 通常リピート信号の出力は低レベル(Lレベ
ル)であり、リピート動作は行なわれていないの
でフレームパルスによつてデータ受付が制御され
ることになる。 例えば、音声合成中や起動信号が加わる前はフ
レームパルスが低レベル(Lレベル)の期間中い
つでも音声データはデータロード信号DLを低レ
ベル(Lレベル)から高レベル(Hレベル)にす
ることにより(逆の変化でも構成可能なことは言
うまでもない)受付可能となり、フレームパルス
が高レベル(Hレベル)になるとデータロード信
号に低→高レベルの変化が入力されても受付不可
となる。 またリピート動作中は、フレームパルスが高レ
ベル(Hレベル)でも音声データはデータロード
信号を低レベルから高レベルにすることにより受
付可能となる。 上記の論理を表に示すと下記の通りとなる。 この表において、フレームパルスFPとリピー
ト信号RPTとの条件によりデータロード端子DL
に入力される信号を規制する。このデータロード
端子DLに入力される信号において、立ち上がり
変化がある時、データ読み取りが行われることを
示している。即ち、第3図の回路構成において、
下記表の論理により、データの受付けと無効(受
付不可)が行われる。
The present invention relates to a method for receiving audio data in speech synthesis. Remarkable progress has been made in recent technology related to speech synthesis methods, with waveform coding methods such as PCM and DPCM, and linear predictive coding methods represented by PARCOR being developed and put into practical use. Furthermore, line spectrum pairs (LSP:
Line Spectrum Pair) method has been developed. This LSP method encodes the characteristics of the frequency spectrum using frequency domain parameters, and the present invention is a method that reads this encoded data from a storage device, etc., synthesizes it into speech, and sends it as audio to an output terminal, etc. An audio data receiving method that reads audio data every frame period, and allows speech synthesis to be processed normally even if data is insufficient in a certain frame period during speech synthesis, as long as corrected data is received by the next frame period. The purpose is to provide The present invention provides a data buffer stack unit having an input terminal for inputting encoded audio data from an external storage device to a speech synthesis device that performs speech synthesis, and a data load terminal for setting the audio data. Logic is applied to the data load terminal from the data buffer stack unit to a frame pulse indicating that a conversion process is in progress for converting the audio data, and a repeat operation signal for repeatedly synthesizing the same audio data that has been subjected to the conversion process. The data stored in the data buffer stack section is The present invention is characterized in that new audio data can be stored in the data buffer stack section by inputting a signal to the input terminal and the data load terminal, regardless of the presence or absence of the data. The present invention will now be described in detail using the drawings. FIG. 1 is a system configuration diagram according to the present invention. In the figure, 1 is a control device, 2 is a speech synthesizer, 3 is a storage device, 4 is a digital-to-analog converter, and 5
is a low pass filter, AMP is an amplifier, 7 is a transformer, and S 1 and S 2 are speakers. In FIG. 1, a control device 1 specifies an address 13 to a storage device in which audio data is stored, and the designated audio data 32 enters a speech synthesizer 2 that performs arithmetic processing. The speech synthesizer 2 is started and controlled by the control device 1 using a control signal 21, and data requests and status information from the speech synthesizer 2 are sent to the control device 1 via a status signal 12. On the other hand, the digital information of the voice synthesized by the voice synthesizer 2 is transferred to the digital-to-analog converter 4.
to speaker S 1 , or an internal digital-to-analog converter converts analog audio to speaker S 1.
Sent to S2 . FIG. 2 is a circuit diagram of the speech synthesizer 2 shown in FIG. 1. In the figure, 22 is a data buffer stack section that holds the necessary amount of audio data, 23 is an interface section, 231 is a control section that receives control signals from the control device, 232 is a status register that sends status signals to the control device, 24 is a control section consisting of an oscillation and timing circuit; 25 is an arithmetic section; 26 is a conversion section that takes in data from the data buffer stack section at an appropriate timing;
7 is an interpolation section, 28 is a sound source section which takes in pitch information from the data in the data buffer stack, 29 is a digital filter, and 20 is a digital/analog conversion section. Data buffer stack section 22
Audio data sent from the storage device (for example, consisting of sound source pitch, amplitude, LSP parameters, etc.)
D 0 to D 7 and the data load signal DL, which is a clock for writing audio encoded data, are used as input information,
The control register 231 of the interface section 23 receives a control register load signal.
CRL, repeat signal RPT that maintains audio information for a certain period of time, signal line T 0 that sets the frame period,
T1 (in this embodiment, four types can be specified with two bits T0 and T1 ), a mode signal MODE, and other signals A, B, etc. are input. The repeat signal is input in order to repeatedly output a certain audio output. In addition, the status register outputs an audio data request signal REQ, a fault indication ALM, a running (voice synthesis processing in progress) indication RUN, etc. The control unit inputs control information etc. from an external device (for example, a device system different from the control device), and also inputs the frame pulse FP or signal line created internally.
It outputs frame pulses FP and other various timing signals generated according to the frame period specified by T 0 and T 1 . Frame pulse FP is used for internal conversion of input data/
This indicates calculation/transfer processing feedback, and is used to inhibit external input data to prevent data conflicts. The operation of the speech synthesizer shown in FIG. 2 will be briefly explained based on the system configuration diagram shown in FIG. The storage device 3 stores sound source pitch, amplitude information, and quantized frequency spectrum of the sound of words or sentences, whose features are extracted by sampling frequency.
The audio data is stored as audio data such as LSP parameters, and the audio data is sent to the audio synthesizer 2 in units of 8 bits, for example, by address designation from the control device 1. This sent audio data is held in the data buffer stack section 22, and read out to the conversion section 26 and sound source section 28 at frame intervals.
The conversion section decodes the amplitude information LSP parameter and sends it to the interpolation section 27. The interpolation section 27 linearly interpolates the converted data input from the conversion section for each frame period for one frame, and outputs one set for each sample period to the digital filter section.Meanwhile, the sound source section 28 uses the sound source pitch information to perform linear interpolation for one frame. Generates an impulse or white noise that drives a digital filter. The digital filter section 29 executes a predetermined synthesis operation based on input coefficients from the interpolation section, impulses from the sound source section, or random number input, and outputs audio information (digital). The output section includes a terminal OUT 1 that outputs this digital output information as it is to an external device, and a terminal that outputs it as analog information via the digital-to-analog conversion section 20.
Equipped with OUT 2 . Note that the same effect can be obtained even if a memory for storing voice data is provided within the voice synthesis device. The data buffer stack unit 22 consists of a group of shift registers in several stages to hold a set of audio data, and each time the data is set to the input terminals D 0 to D 7 and DL, it is shifted in units of, for example, 1 byte. Hold the required number of bytes. For this reason, conventionally, when some data is erroneously stored in the data buffer stack section 22, or when some data that should be stored is missing, it has not been possible to correct the data. Therefore, there is a drawback that erroneous data may be reproduced as is in the audio.The present invention, in order to solve the above-mentioned problem, makes it possible to correct and add data. Furthermore, in order to efficiently correct and add data, the present invention focuses on the fact that new data is not required while data is being repeatedly processed.
During repeat processing, corrected and additional data is input to the data buffer stack section. FIG. 3 is a circuit configuration diagram that specifically enables the data transfer method of the present invention, and FIG. 4 is an explanatory diagram showing the temporal relationship with the frame period. In FIG. 3, the same symbols as those used in FIG. 2 indicate the same components; I is an inverter, OR is an OR circuit, and AND is an AND circuit. Figure 4 is the third
Input terminals D 0 to D 7 , DL, ST and output terminal FP in the figure
It shows the level relative to the time. When the start from the control device is input from the start signal ST, the interface section 23 instructs the control section, and the frame period setting terminal shown in FIG.
A frame pulse FP is generated according to the instructions of T 1 , T 0 and the mode signal MODE. This frame pulse FP is inverted by an inverter I, the repeat signal is ORed by an OR circuit, and the output information is ANDed by a data load signal DL and an AND circuit, thereby creating a data buffer stack section 22. Instructs to enable/disable reception of audio data. Normally, the output of the repeat signal is at a low level (L level) and a repeat operation is not performed, so data reception is controlled by the frame pulse. For example, during voice synthesis or before the activation signal is applied, the voice data can be transferred by changing the data load signal DL from low level (L level) to high level (H level) at any time while the frame pulse is at low level (L level). (It goes without saying that the opposite change is also possible.) When the frame pulse becomes high level (H level), it becomes unacceptable even if a change from low to high level is input to the data load signal. Further, during the repeat operation, even if the frame pulse is at a high level (H level), audio data can be accepted by changing the data load signal from a low level to a high level. The above logic is shown in the table below. In this table, data load terminal DL is set depending on the conditions of frame pulse FP and repeat signal RPT.
regulates the signals input to the When there is a rising edge change in the signal input to the data load terminal DL, it indicates that data reading is to be performed. That is, in the circuit configuration of FIG.
Data is accepted and invalidated (not accepted) according to the logic in the table below.

【表】【table】

【表】 尚、信号レベルの高(H)低(L)はこの論理に限るも
のではなく、高(L)低(H)としても同様に構成するこ
とできる。 第4図において、フレームパルスが立上がり(a)
データバツフアスタツク部から変換部、音源部に
データが転送される間はリピート動作中を除いて
データバツフアスタツク内にあるデータの追加、
修正はできないが、フレームパルスが発生する
間、例えば図中iで示される期間は音声データの
受付は可能であり、D0〜D7で示される8ビツト
×所用バツフア数分のデータが最初dの所で設定
された後、そのデータの修正、追加等をdcの所
で補正可能とする。 第5図はデータバツフアスタツク部に格納され
るデータ構成の一例を示す。 図中、Cは制御情報、Tは音源ピツチ、APは
振幅、W1〜W8はLSPパラメータである。 このデータは、8ビツト×6ワードで一音素を
示しこれらが数十ブロツク集めて1語が再生され
る。これら6バイトの情報が先のデータバツフア
スタツク内に順次受信・格納される。そして本発
明である受信方式によればフレームパルス間にお
いてこの6バイトのデータをデータロード信号と
ともに6バイト再入力することにより旧データを
無効にする。 上記例では8ビツト×6ワードで一音素を構成
するがこれに限るものではない。 以上説明したように、本発明の音声データ受信
方式によれば、フレームパルス間の期間における
データの修正が可能となり、またデータが不足し
た場合にも同期間であれば追加することも可能と
する。 また、音声合成の起動前に音声データを入力し
ておくことにより、起動後に即音声合成を開始さ
せることができ、アクセスタイムの遅い記憶装置
等に対しても使用可能であり、適用範囲の広い
LSP方式を提供できる。
[Table] Note that the high (H) and low (L) signal levels are not limited to this logic, and can be similarly configured as high (L) and low (H). In Figure 4, the frame pulse rises (a)
While data is being transferred from the data buffer stack to the converter and sound source, data in the data buffer stack may be added, except during repeat operation.
Although it cannot be corrected, it is possible to accept audio data while a frame pulse is generated, for example, the period indicated by i in the figure, and the data of 8 bits x the number of required buffers indicated by D 0 to D 7 is initially d. After the data is set at the DC, corrections, additions, etc. to the data can be made at the DC. FIG. 5 shows an example of the data structure stored in the data buffer stack section. In the figure, C is control information, T is sound source pitch, AP is amplitude, and W 1 to W 8 are LSP parameters. This data represents one phoneme in 8 bits x 6 words, and several tens of blocks of these are collected to reproduce one word. These 6 bytes of information are sequentially received and stored in the previous data buffer stack. According to the reception method of the present invention, these 6 bytes of data are re-inputted together with the data load signal between frame pulses, thereby invalidating the old data. In the above example, one phoneme is composed of 8 bits x 6 words, but the invention is not limited to this. As explained above, according to the audio data reception method of the present invention, it is possible to modify data in the period between frame pulses, and even if data is insufficient, it is also possible to add data in the same period. . In addition, by inputting audio data before starting speech synthesis, it is possible to start speech synthesis immediately after startup, and it can be used even for storage devices with slow access times, so it has a wide range of applications.
Can provide LSP method.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明に係るシステム構成図、第2図
は本発明に係る音声合成装置の回路構成図、第3
図は本発明の音声データ受信方式を実現するため
の音声合成装置の一部回路構成図、第4図は本発
明に係るフレーム周期との時間関係を示す説明
図、第5図は音声データ構成の一例を示す図であ
る。 22:音声データバツフアスタツク部、23:
インタフエース部、24:制御部、26:変換
部、28:音源部、D0〜D7:音声データ、DL:
データロード信号、FP:フレームパルス、
RPT:リピート信号、I:インバータ、AND:
アンド回路、OR:オア回路。
FIG. 1 is a system configuration diagram according to the present invention, FIG. 2 is a circuit configuration diagram of a speech synthesis device according to the present invention, and FIG.
The figure is a partial circuit configuration diagram of a voice synthesis device for realizing the voice data reception method of the present invention, Figure 4 is an explanatory diagram showing the time relationship with the frame period according to the present invention, and Figure 5 is the voice data structure. It is a figure showing an example. 22: Audio data buffer stack section, 23:
Interface section, 24: Control section, 26: Conversion section, 28: Sound source section, D0 to D7 : Audio data, DL:
Data load signal, FP: frame pulse,
RPT: Repeat signal, I: Inverter, AND:
AND circuit, OR: OR circuit.

Claims (1)

【特許請求の範囲】 1 音声合成を行う音声合成装置への符号化され
た音声データを外部の記憶装置から入力する入力
端子と該音声データをセツトするデータロード端
子を有するデータバツフアスタツク部において、 該データバツフアスタツク部から該音声データ
を変換する変換処理中を示すフレームパルスと、
該変換処理された同一の音声データを繰り返し音
声合成するためのリピート動作信号とを前記デー
タロード端子に論理を取り接続し、 フレームパルスが発生した直後から次のフレー
ムパルスの発生する直前までの期間中とフレーム
パルスに関係なくリピート動作信号の入力中は、
前記データバツフアスタツク部に格納されたデー
タの有無にかかわりなく、前記入力端子及びデー
タロード端子に信号を入れることにより新たな音
声データを前記データバツフアスタツク部に格納
可能としたことを特徴とする音声データ受信方
式。
[Scope of Claims] 1. A data buffer stack unit having an input terminal for inputting encoded voice data from an external storage device to a voice synthesis device that performs voice synthesis, and a data load terminal for setting the voice data. a frame pulse indicating that a conversion process is in progress for converting the audio data from the data buffer stack unit;
A repeat operation signal for repeating voice synthesis of the same converted voice data is logically connected to the data load terminal for a period from immediately after a frame pulse is generated to immediately before the next frame pulse is generated. During input of repeat operation signal regardless of frame pulse,
Regardless of the presence or absence of data stored in the data buffer stack, new audio data can be stored in the data buffer stack by inputting a signal to the input terminal and the data load terminal. Characteristic voice data reception method.
JP10601580A 1980-08-01 1980-08-01 Voice data receiving system Granted JPS5730897A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10601580A JPS5730897A (en) 1980-08-01 1980-08-01 Voice data receiving system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10601580A JPS5730897A (en) 1980-08-01 1980-08-01 Voice data receiving system

Publications (2)

Publication Number Publication Date
JPS5730897A JPS5730897A (en) 1982-02-19
JPH0225519B2 true JPH0225519B2 (en) 1990-06-04

Family

ID=14422826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10601580A Granted JPS5730897A (en) 1980-08-01 1980-08-01 Voice data receiving system

Country Status (1)

Country Link
JP (1) JPS5730897A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4953342A (en) * 1972-09-27 1974-05-23
JPS5499407A (en) * 1978-01-23 1979-08-06 Sony Corp Reproduction signal compressing apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4953342A (en) * 1972-09-27 1974-05-23
JPS5499407A (en) * 1978-01-23 1979-08-06 Sony Corp Reproduction signal compressing apparatus

Also Published As

Publication number Publication date
JPS5730897A (en) 1982-02-19

Similar Documents

Publication Publication Date Title
JPH0225519B2 (en)
JPH0235320B2 (en)
JP2860991B2 (en) Audio storage and playback device
JP3086458B2 (en) Speech synthesizer
JPH0664477B2 (en) Speech synthesizer
JPS5968793A (en) Voice synthesizer
JPS5876897A (en) Voice synthesizer
JPH0142000B2 (en)
JPS61103200A (en) Voice storage reproducer
JPH0325800B2 (en)
JPS5857199A (en) Voice synthesizer
JPS59119395A (en) Compression system of voice information
JPS6143797A (en) Voice editing output system
JPH0223880B2 (en)
JPH04212200A (en) Voice synthesizer
JPH0355839B2 (en)
JPH0329999A (en) Voice storing and reproducing device
JPH0431120B2 (en)
JPH02137893A (en) Continuous sound source data reproducing device
JPS58107597A (en) Voice synthesizer
JPS58158697A (en) Voice synthesizer
JPH051956B2 (en)
JPH0355840B2 (en)
JPH0312320B2 (en)
JPS58215697A (en) Voice coding/decoding system