JPH0731509B2 - Voice analyzer - Google Patents

Voice analyzer

Info

Publication number
JPH0731509B2
JPH0731509B2 JP61158695A JP15869586A JPH0731509B2 JP H0731509 B2 JPH0731509 B2 JP H0731509B2 JP 61158695 A JP61158695 A JP 61158695A JP 15869586 A JP15869586 A JP 15869586A JP H0731509 B2 JPH0731509 B2 JP H0731509B2
Authority
JP
Japan
Prior art keywords
voice
phrase
input
sentence
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP61158695A
Other languages
Japanese (ja)
Other versions
JPS6315294A (en
Inventor
秀樹 小川
延久 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP61158695A priority Critical patent/JPH0731509B2/en
Publication of JPS6315294A publication Critical patent/JPS6315294A/en
Publication of JPH0731509B2 publication Critical patent/JPH0731509B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Selective Calling Equipment (AREA)
  • Document Processing Apparatus (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、音声を文節単位に分解して記憶する音声分析
方式に係り、特に、案内放送等、自然で大量の再生音声
を必要とする分野において用いるための音声パターンを
作成するために用いて好適な音声分析方式に関する。
Description: TECHNICAL FIELD The present invention relates to a voice analysis system in which voice is decomposed into phrase units and stored, and particularly, a natural and large amount of reproduced voice such as a guide broadcast is required. It relates to a voice analysis method suitable for use in creating a voice pattern for use in the field.

〔従来の技術〕[Conventional technology]

従来、特公昭59−22240号公報に開示されたような、音
声合成装置が知られている。この音声合成装置は、文章
番号を指定すると文章テーブルからその音声文を構成す
る一連の文節アドレスを読出し、この文節アドレスによ
つて、音声パターン・メモリから文節を読出し復号し
て、その文章を音声として送出するものであり、多くの
音声パターンを必要とする。この音声パターンを作成す
るための方法として、特開昭58−205196号公報に開示さ
れたものが知られている。
Conventionally, a speech synthesizer as disclosed in Japanese Examined Patent Publication No. 59-22240 is known. When a sentence number is designated, this speech synthesizer reads a series of bunsetsu addresses that compose the voice sentence from the sentence table, reads bunsetsu from the voice pattern memory based on this bunsetsu address, decodes the sentence, and outputs the sentence. And requires a lot of voice patterns. A method disclosed in Japanese Patent Application Laid-Open No. 58-205196 is known as a method for creating this voice pattern.

この従来技術は、文節毎に発声したデータ、または文節
間に適当な間合をもたせた文章を発声したデータの無音
区間を、予め設定した基準レベル以下の信号が、予め設
定した基準時間以上続くことにより検出し、有音部を切
出して音声パターンとしていた。
In this conventional technique, a signal below a preset reference level continues for a preset reference time or more in a silent section of the data uttered for each phrase or the data uttered a sentence with an appropriate interval between phrases. Then, the voiced part is cut out as a voice pattern.

〔発明が解決しようとする問題点〕[Problems to be solved by the invention]

しかし、前述した従来技術によつて作成された音声パタ
ーンを用いて、前記音声合成装置を動作させ、案内放送
等を行つた場合、発声速度や、イントネーシヨンに不自
然さがあつた。すなわち、前記従来技術は、文節の切出
しを無音区間の検出に頼つているため、原音を文章の形
でなく、文節単位で発声したり、必要以上の間合いをも
つて発声しなければならず、アクセント、抑揚、間合等
の点で自然な再生音声が得られるような文節の音声パタ
ーンが得られないという問題があつた。また、文節内に
無音部が生じた場合、間違つた文節の切出しを行つてし
まい、確認、訂正操作を必要とするという問題点があつ
た。
However, when the voice synthesizing device is operated by using the voice pattern created by the above-mentioned conventional technique to perform the guide broadcasting, the vocalization rate and the tone are unnatural. That is, the above-mentioned conventional technique relies on the detection of silent intervals for segmentation of bunsetsu, so the original sound is not in the form of a sentence, but must be uttered in bunsetsu units, or must be uttered with an interval longer than necessary, There was a problem that the speech pattern of the bunsetsu that could give a natural reproduced speech in terms of accent, intonation, and interval was not obtained. In addition, when a silent part is generated in a phrase, a wrong phrase is cut out, and a confirmation and correction operation is required.

本発明の目的は、前述の如き問題点を解決し、音声合成
装置に用いる場合に、自然な再生音声を合成することが
できるような文節対応の音声パターンを得ることのでき
る音声分析方式を提供することにある。
An object of the present invention is to solve the above problems and provide a voice analysis method capable of obtaining a phrase-corresponding voice pattern that can synthesize a natural reproduced voice when used in a voice synthesizer. To do.

〔問題点を解決するための手段〕[Means for solving problems]

本発明によれば、前記目的は、切出したい文節に関する
構文情報を利用し、文章単位で自然に発声した音声デー
タから、有音部内における音節の個数と有音部長が、前
記文節に関する構文情報内の該当する文節と等価である
条件を満たすか否かを判断し、条件を満たす場合、その
有音部を該当する文節に対応する音声パターンとして検
出し、また条件を満たさない場合、条件を満たす迄隣接
する音節を併合し、あるいは、有音部内の最後位による
音節を切離して、条件を満たす有音部を捜して音声パタ
ーンとして検出することにより達成される。
According to the present invention, the object is to utilize the syntactic information about the bunsetsu to be cut out, and the number of syllables in the utterance part and the utterance part length are calculated in the syntactic information about the bunsetsu from the speech data naturally uttered in sentence units. Of the corresponding phrase is judged whether or not the condition is equivalent, and if the condition is satisfied, the voiced part is detected as a voice pattern corresponding to the corresponding phrase, and if the condition is not satisfied, the condition is satisfied. This can be achieved by merging adjacent syllables up to this point, or separating the last syllable in the voiced part, and searching for a voiced part that satisfies the condition and detecting it as a voice pattern.

〔作 用〕[Work]

本発明による音節の抽出は、母音等の有声音を抽出する
ことにより行われ、文節の検出は、音節の数により行わ
れる。検出した文節内の音節の数は、無声音の検出不能
も影響して実際の文節内の音節の数以下となり、原音発
声が不明瞭でない限り、検出した文節内の音節の数が、
実際の音節の数より多くなることはない。
The syllable extraction according to the present invention is performed by extracting a voiced sound such as a vowel, and the syllable detection is performed by the number of syllables. The number of syllables in the detected syllable is less than or equal to the number of syllables in the actual syllable due to the undetectable unvoiced sound.Unless the original utterance is unclear, the number of syllables in the detected syllable is
No more than the actual number of syllables.

また、原音の文節長は、発声毎に±10%程度変動する
が、それ以上大きく変動することはなく、本発明は、こ
の文節長と前述した音節数によつて文節を切出している
ので、正しい文節を容易に切り分けることができる。
Further, the syllable length of the original sound fluctuates about ± 10% for each utterance, but it does not change much more, and the present invention cuts out the syllable according to this syllable length and the number of syllables described above. You can easily separate the correct phrase.

さらに、原音として文章単位に自然に発声された音声デ
ータを用いることができるので、切り分けられた文節の
音声パターンを用いて、音声合成を行つた場合、ごく自
然な再生音声を得ることができる。
Furthermore, since it is possible to use speech data that is naturally uttered in sentence units as the original sound, when speech synthesis is performed using the speech patterns of the separated clauses, a very natural reproduced speech can be obtained.

〔実施例〕〔Example〕

以下、本発明による音声分析方式の一実施例を図面につ
いて詳細に説明する。
An embodiment of a voice analysis system according to the present invention will be described below in detail with reference to the drawings.

第1図は、本発明による音声分析方式を実施する音声分
析装置のブロツク図、第2図〜第5図は、構文情報を説
明するメモリテーブルを示す図、第6図は、入力音声波
形の一列を示す図、第7図は、音声データと文節情報と
の比較判断テーブルである。第1図において、1は分析
すべき原音を入力するマイク、2はマイク1からのアナ
ログデータをADPCM等号等にデイジタル化する音声符号
化装置、5はマイクロプログラムにより音声の分析を行
う制御装置、6は制御装置5を動作させるためのマイク
ロプログラムを格納している制御メモリ、7は音声符号
化装置2で符号化された音声データを記憶するバツフア
メモリ、8は分析された文節単位の音声パターンを格納
する音声パターンメモリ、9は分析時に必要とする文節
や音節に関する構文情報が記憶される構文情報メモリ、
3は音声パターンメモリ8からの音声データをアナログ
信号に復号する音声復号化装置、4は音声復号化装置3
の出力信号を音声として出力するスピーカ、10は構文情
報を入力、表示し、分析経過の報告をする操作卓であ
る。
FIG. 1 is a block diagram of a speech analysis apparatus for implementing a speech analysis method according to the present invention, FIGS. 2 to 5 are diagrams showing a memory table for explaining syntax information, and FIG. 6 is a diagram showing an input speech waveform. FIG. 7 shows a line and FIG. 7 is a comparison / determination table of voice data and phrase information. In FIG. 1, 1 is a microphone for inputting an original sound to be analyzed, 2 is a voice encoding device for converting analog data from the microphone 1 into ADPCM etc., and 5 is a control device for analyzing voice by a micro program. , 6 is a control memory that stores a microprogram for operating the control device 5, 7 is a buffer memory that stores the voice data encoded by the voice encoding device 2, and 8 is a voice pattern for each analyzed phrase. Is a voice pattern memory for storing, and 9 is a syntax information memory for storing syntax information regarding syllables and syllables necessary for analysis,
3 is a voice decoding device for decoding voice data from the voice pattern memory 8 into an analog signal, and 4 is a voice decoding device 3
Is a speaker for outputting the output signal of as a voice, and 10 is an operation console for inputting and displaying the syntax information and reporting the analysis progress.

第1図に示す音声分析装置における制御装置5は、制御
メモリ6内のマイクロプログラムにより制御され、音声
符号化装置2からの原音声のデイジタル音声データをバ
ツフアメモリ7に格納し、構文情報メモリ9内の文節に
関する構文情報に基いて、バツフアメモリ7内の音声デ
ータから文節を切り分けて、音声パターンメモリ8に格
納する音声分析動作を行う。前記構文情報メモリ9内に
は、音節の種類とその音節の平均発声所要時間が分かる
音節情報テーブルが予め用意されている。
The control device 5 in the voice analysis device shown in FIG. 1 is controlled by a microprogram in the control memory 6, stores the digital voice data of the original voice from the voice encoding device 2 in the buffer memory 7, and stores it in the syntax information memory 9. Based on the syntax information about the phrase, the phrase is separated from the voice data in the buffer memory 7, and the voice analysis operation of storing the phrase in the voice pattern memory 8 is performed. In the syntax information memory 9, a syllable information table is prepared in advance, which shows the type of syllable and the average required utterance time of the syllable.

今、例えば、次に示す文章番号1,2の文章を音声合声装
置により合成するための文節の音声パターンを得たいも
のとする。
Now, for example, it is assumed that the user wants to obtain a speech pattern of a clause for synthesizing the sentences of the sentence numbers 1 and 2 shown below by a voice-sounding device.

1. 「まもなく、一番線に東京行電車がまいります。」 2. 「まもなく、二番線に大阪行電車がまいります。」 まず、操作者は、操作卓10よりカナ文字と文節間の区切
り記号“/"を使つて、前記した合成したい文章を入力す
る。制御装置5は、制御メモリ6に格納されているマイ
クロプログラムに基づいて、操作卓10より入力された文
章を構文情報メモリ9内に第2図に示すように入力文章
テーブルとして記憶する。次に、制御装置5は、この入
力文章テーブルの内容を文節毎に分解し、同一の文節が
あれば、それらをまとめて一つの文節とし、第3図に示
すような文節データテーブルを構文情報メモリ9内に生
成する。制御装置5は、前記音節情報テーブルを利用し
て、文節データテーブル内の各文節毎に、その文節に含
まれる音節数と、その音節の平均発声所要時間の合計、
つまりその文節の平均発声所要時間を算出し、第4図に
示すような文節情報テーブルを構文情報メモリ9内に生
成する。さらに、制御装置5は、各文章を構成するため
の文節の順序を示す文節番号列による第5図に示すよう
な文章情報テーブルを生成して、構文情報メモリ9内に
記憶する。
1. "Soon, a train bound for Tokyo will be on the first line." 2. "A train bound for Osaka will soon be on the second line." First, the operator uses the console 10 to delimit kana characters and punctuation marks. Use "/" to enter the sentence you want to synthesize. Based on the microprogram stored in the control memory 6, the control device 5 stores the sentence input from the console 10 in the syntax information memory 9 as an input sentence table as shown in FIG. Next, the control device 5 decomposes the contents of the input sentence table for each clause, and if there are the same clauses, they are combined into one clause, and the clause data table as shown in FIG. 3 is used as syntax information. It is generated in the memory 9. The control device 5 uses the syllable information table, and for each syllable in the syllable data table, the total number of syllables included in the syllable and the average utterance required time of the syllable,
That is, the average utterance required time of the phrase is calculated, and the phrase information table as shown in FIG. 4 is generated in the syntax information memory 9. Further, the control device 5 generates a sentence information table as shown in FIG. 5 based on the phrase number sequence indicating the sequence of the phrases for forming each sentence, and stores it in the syntax information memory 9.

以上の処理が終了すると、制御装置5は、操作卓10に文
章番号1の文章から順に表示して行き、表示された文章
の音声入力を促す。
When the above processing is completed, the control device 5 sequentially displays the sentences of the sentence number 1 on the console 10 and prompts the user to input the voice of the displayed sentence.

そこで、操作者あるいは専任のアナウンサーがマイク1
から該当文章を所定の速度で自然に発生して入力する
と、この入力音声信号は、音声符号化装置2で符号化さ
れ、バツフアメモリ7に記憶される。このとき、入力音
声信号は、例えば、第6図に示すような波形となつてお
り、バツフアメモリ7への入力と同時に、有音部11と音
節12の位置情報も入力音声信号とともに記憶される。
Therefore, the operator or a dedicated announcer is the microphone 1
When the relevant sentence is naturally generated and input at a predetermined speed, the input voice signal is encoded by the voice encoding device 2 and stored in the buffer memory 7. At this time, the input voice signal has a waveform as shown in FIG. 6, for example, and simultaneously with the input to the buffer memory 7, the positional information of the sound part 11 and the syllable 12 is also stored together with the input voice signal.

制御装置5は、一つの文章が音声入力される毎に、バツ
フアメモリ7に記憶された音声データの最初の有音部か
ら順番に取出し、この有音部を構文情報メモリ9内の音
節情報テーブル、および文節情報テーブルと照合し、該
有音部が文節と等価か否か判断する。例えば、第6図に
示すような場合、まず、「マモナ」に相当する有音部11
が、バツフアメモリ7から取出され、その有音部に含ま
れる音節数と発声時間とが、第4図に示す文節番号1の
音節数と所要発声時間と比較される。この比較は、第7
図に示す第1番目の比較判断テーブル(a)、二段目以
降の比較判断テーブル(b)により行われる。なお、テ
ーブル(a),(b)において、−はバツフアメモリ7
から取出した有音部から末尾の音節エレメントを切り離
す、+はバツフアメモリ7から取出した有音部に次の有
音部を付加する、○はバツフアメモリ7から取出した有
音部を文節と等価な音声データ(以下フレーズという)
とみなす、△は○と同様だが、前段での判断が*を付与
した位置であれば、前段での有音部をフレーズとみな
す、という判断を夫々示している。
Each time a sentence is input by voice, the control device 5 sequentially extracts the voiced part stored in the buffer memory 7 from the first voiced part, and outputs the voiced part from the syllable information table in the syntax information memory 9. And the phrase information table, and it is determined whether the sound part is equivalent to a phrase. For example, in the case shown in FIG. 6, first, the sound part 11 corresponding to "mamona"
Are extracted from the buffer memory 7, and the number of syllables and the utterance time included in the voiced part are compared with the number of syllables of the phrase number 1 shown in FIG. 4 and the required utterance time. This comparison is the seventh
The first comparison determination table (a) and the comparison determination tables (b) of the second and subsequent stages shown in the figure are used. In the tables (a) and (b),-is a buffer memory 7
Separate the last syllable element from the voiced part extracted from, + adds the next voiced part to the voiced part extracted from the buffer memory 7, ○ indicates the voiced part extracted from the buffer memory 7 is equivalent to a phrase Data (hereinafter referred to as phrase)
Δ is the same as ◯, but if the judgment in the previous stage is a position with *, the judgment is that the sound part in the previous stage is regarded as a phrase.

前述の場合、バツフアメモリ7より取出した「マモナ」
の有音部の音節数および発声時間が、ともに文節情報テ
ーブル内の文節の有節数および発声所要時間より小さい
ので、制御装置5は、第7図のテーブル(a)の右下角
部の+の判断、すなわち、バツフアメモリ7から取出し
た有音部に次の有音部を付加するとの判断を下し、次の
有部「ク」をバツフアメモリ7から取出し、「マモナ」
の有音部に付加し、第7図のテーブル(b)に基づいて
比較判断を行う。この結果、バツフアメモリ7より取出
した有音部「マモナ・ク」は、音節エレメント数も発声
時間も、第4図の文節情報テーブル内の文節番号1の文
節と近く、この文節と等価なフレーズとして音声パター
ンメモリ8に転送され、格納される。以後、制御装置5
は、同様にして文節に対応するフレーズをバツフアメモ
リ7内から切出し、次々と音声パターンメモリ8に格納
する。最後に、音声パターンメモリ8の内容は、音声復
号化装置3により復号化され、スピーカ4より合成音声
として出力され、操作者によつて確認される。
In the above case, "Mamona" retrieved from the buffer memory 7
Since the number of syllables and the utterance time of the vowel part are smaller than the number of syllables and the required utterance time of the syllables in the verses information table, the control device 5 controls the + in the lower right corner of the table (a) of FIG. That is, the next voiced part is added to the voiced part extracted from the buffer memory 7, the next voiced part “K” is extracted from the buffer memory 7, and “Mamona”
7 is added to the voiced part, and comparison judgment is made based on the table (b) of FIG. As a result, the sound part “Mamona Ku” extracted from the buffer memory 7 is close to the phrase with the phrase number 1 in the phrase information table of FIG. It is transferred to and stored in the voice pattern memory 8. After that, the control device 5
In the same manner, the phrase corresponding to the phrase is cut out from the buffer memory 7 and stored in the voice pattern memory 8 one after another. Finally, the contents of the voice pattern memory 8 are decoded by the voice decoding device 3, output as synthesized voice from the speaker 4, and confirmed by the operator.

前述した実施例は、このままでも、操作卓10またはそれ
に替る上位装置からの文章番号による出力依頼情報によ
り、第5図に示す文章情報テーブルを検索して、音声出
力依頼があつた文章を構成する文節の文節番号に基づい
て、音声パターンメモリ8に記憶されている音声フレー
ズを読出して、音声復号化装置3で復号化し、スピーカ
4から出力できる音声合成装置として利用でき、音声分
析合成装置として利用できる。
In the above-described embodiment, even as it is, the sentence information table shown in FIG. 5 is searched by the output request information by the sentence number from the console 10 or the higher-level device to replace it, and the sentence for which the voice output request is made is constructed. Based on the phrase number of the phrase, the voice phrase stored in the voice pattern memory 8 can be read, decoded by the voice decoding device 3, and used as a voice synthesizer capable of being output from the speaker 4, and used as a voice analysis and synthesizer. it can.

さらに、自動生成された文章情報テーブルと、分析結果
のフレーズ対応の音声パターンを、他の音声合成装置に
移せば、その音声合成装置は、直ちに動作可能となり、
従来、音声合成装置において、分析された音声パターン
データ以外に、文章情報テーブルに相当するテーブルを
作成しなければならない手間が不要となる。
Furthermore, if the automatically generated sentence information table and the voice pattern corresponding to the phrase of the analysis result are transferred to another voice synthesizer, the voice synthesizer can immediately operate,
Conventionally, in a speech synthesizer, it becomes unnecessary to create a table corresponding to a sentence information table in addition to the analyzed speech pattern data.

〔発明の効果〕〔The invention's effect〕

以上説明したように、本発明によれば、文章単位で自然
に発声した原音を利用し、構文情報に基づいて、文節対
応の音声パターンを自動的に切り分け、音声分析を行う
ことができるので、この音声パターンを音声合成装置に
利用した場合に、きわめて自然な再生音声を得ることが
できる。また、原音として文章単位で自然に発声したデ
ータを用いるので原音発声者の負担も軽くすることがで
きる。
As described above, according to the present invention, by using the original sound naturally uttered in sentence units, based on the syntactic information, it is possible to automatically separate the speech patterns corresponding to the clauses and perform the speech analysis. When this voice pattern is used in a voice synthesizer, a very natural reproduced voice can be obtained. In addition, since data that is naturally uttered in sentence units is used as the original sound, it is possible to reduce the burden on the utterer of the original sound.

【図面の簡単な説明】[Brief description of drawings]

第1図は、本発明による音声分析方式を実施する音声分
析装置のブロツク図、第2図〜第5図は、構文情報を説
明するメモリテーブルを示す図、第6図は、入力音声波
形の一例を示す図、第7図は、比較判断テーブルを示す
図である。 1……マイク、2……音声符号化装置、3……音声復号
化装置、4……スピーカ、5……制御装置、6……制御
メモリ、7……バツフアメモリ、8……音声パターンメ
モリ、9……構文情報メモリ、10……操作卓
FIG. 1 is a block diagram of a speech analysis apparatus for implementing a speech analysis method according to the present invention, FIGS. 2 to 5 are diagrams showing a memory table for explaining syntax information, and FIG. 6 is a diagram showing an input speech waveform. FIG. 7 is a diagram showing an example, and FIG. 7 is a diagram showing a comparison determination table. 1 ... Microphone, 2 ... Voice coding device, 3 ... Voice decoding device, 4 ... Speaker, 5 ... Control device, 6 ... Control memory, 7 ... Buffer memory, 8 ... Voice pattern memory, 9 ... Syntax information memory, 10 ... Operator console

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】制御メモリに記憶されたプログラムに従っ
て、文章単位に発声された音声の分析制御を行う制御装
置と、音声入力情報をディジタル情報に変換する音声符
号化装置と、該音声符号化装置から出力されるディジタ
ル情報を記憶するバッファメモリと、前記制御装置によ
り分析された音声を文節単位のディジタル情報として記
憶する音声パターンメモリと、入力される文章の文節、
各文節の平均発声所要時間、文節内の音節数を予め記憶
する構文情報メモリとを備え、音声合成用情報を文節単
位に作成する音声分析装置において、前記制御装置は、
操作卓の入力装置より入力された合成しようとする文章
を文節毎に分解し、同一の文節があればそれらを纏めて
1つの文節とする手段と、前記分解して得られた各文節
毎に文節番号を付与すると共に、各文節の平均発声所要
時間および文節内の音節数を付与し、かつ、前記入力さ
れた合成したい文章を、前記文節番号を編集して文節番
号により作成する手段と、前記文節番号により作成され
た文章を、前記構文情報メモリに格納する手段と、合成
しようとする文章の実音声が入力されたとき、この入力
音声を、前記音声符号化装置によりディジタル情報に変
換して前記バッファメモリに格納する手段と、前記構文
情報メモリに格納された文節の平均発声所要時間および
文節内の音節数の条件を満足するように、前記バッファ
メモリ内に格納された入力音声のディジタル情報から有
音部を検出して、入力音声のディジタル情報を文節単位
に切り分ける手段と、切り分けられた文節単位の音声の
ディジタル情報を前記パターンメモリに記憶する手段と
により構成されることを特徴とする音声分析装置。
1. A control device for analyzing and controlling a voice uttered in sentence units according to a program stored in a control memory, a voice encoding device for converting voice input information into digital information, and the voice encoding device. A buffer memory for storing digital information output from the device, a voice pattern memory for storing the voice analyzed by the control unit as digital information in phrase units, and a phrase of an input sentence,
An average utterance required time for each phrase, a syntax information memory for storing the number of syllables in a phrase in advance, in a voice analysis device for creating voice synthesis information in units of phrases, the control device,
A method for decomposing a sentence to be composed, which is input from the input device of the operator console, for each clause, and combining the same clauses into one clause, and for each clause obtained by the decomposition Along with assigning the phrase number, the average utterance required time of each phrase and the number of syllables in the phrase are assigned, and the input sentence to be synthesized, means for creating the phrase number by editing the phrase number, When a sentence created by the phrase number is stored in the syntax information memory and an actual voice of a sentence to be synthesized is input, the input voice is converted into digital information by the voice encoding device. Means for storing in the buffer memory, and stored in the buffer memory so as to satisfy the conditions of the average utterance required time of the syllable stored in the syntax information memory and the number of syllables in the syllable. And a means for detecting the voiced part from the digital information of the input voice and dividing the digital information of the input voice into phrase units, and a means for storing the divided digital information of the voice of the phrase unit in the pattern memory. A voice analysis device characterized by the following.
JP61158695A 1986-07-08 1986-07-08 Voice analyzer Expired - Lifetime JPH0731509B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61158695A JPH0731509B2 (en) 1986-07-08 1986-07-08 Voice analyzer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61158695A JPH0731509B2 (en) 1986-07-08 1986-07-08 Voice analyzer

Publications (2)

Publication Number Publication Date
JPS6315294A JPS6315294A (en) 1988-01-22
JPH0731509B2 true JPH0731509B2 (en) 1995-04-10

Family

ID=15677336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61158695A Expired - Lifetime JPH0731509B2 (en) 1986-07-08 1986-07-08 Voice analyzer

Country Status (1)

Country Link
JP (1) JPH0731509B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000069881A (en) * 1997-01-06 2000-11-25 오노 알버어스 Pressure sensitive adhesives comprising thermoplastic polyurethanes
US6060560A (en) * 1997-05-23 2000-05-09 Shell Oil Company Polyurethane compositions made from hydroxy-terminated polydiene polymers
JP2006227363A (en) * 2005-02-18 2006-08-31 Nhk Computer Service:Kk Device and program for generating dictionary for broadcast speech
JP4563418B2 (en) * 2007-03-27 2010-10-13 株式会社コナミデジタルエンタテインメント Audio processing apparatus, audio processing method, and program
WO2010070840A1 (en) * 2008-12-17 2010-06-24 日本電気株式会社 Sound detecting device, sound detecting program, and parameter adjusting method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61296396A (en) * 1985-06-25 1986-12-27 松下電工株式会社 Voice code generation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61296396A (en) * 1985-06-25 1986-12-27 松下電工株式会社 Voice code generation

Also Published As

Publication number Publication date
JPS6315294A (en) 1988-01-22

Similar Documents

Publication Publication Date Title
JPH0833744B2 (en) Speech synthesizer
JPH10153998A (en) Auxiliary information utilizing type voice synthesizing method, recording medium recording procedure performing this method, and device performing this method
JPH0731509B2 (en) Voice analyzer
KR100754430B1 (en) Voice-based automatic lip-synchronization animation apparatus, Voice-based automatic lip-synchronization animation method, and storage medium
JPH08335096A (en) Text voice synthesizer
JP4409279B2 (en) Speech synthesis apparatus and speech synthesis program
van Rijnsoever A multilingual text-to-speech system
JP2536169B2 (en) Rule-based speech synthesizer
JP2580565B2 (en) Voice information dictionary creation device
JP3060276B2 (en) Speech synthesizer
JP2680643B2 (en) Character display method of rule synthesizer
JPH05224689A (en) Speech synthesizing device
JP2703253B2 (en) Speech synthesizer
JP2577372B2 (en) Speech synthesis apparatus and method
JP3414326B2 (en) Speech synthesis dictionary registration apparatus and method
JPH02234198A (en) Text voice synthesizing system
JPH11327594A (en) Voice synthesis dictionary preparing system
JP2016122033A (en) Symbol string generation device, voice synthesizer, voice synthesis system, symbol string generation method, and program
JP3109807B2 (en) Speech synthesis method and device
JPS63165925A (en) Sentence read-out system
JPH08221095A (en) Method for reading sentence aloud
JPH0644247A (en) Speech synthesizing device
JPH02251998A (en) Voice synthesizing device
JPH0833745B2 (en) Speech synthesizer
JPH0282300A (en) Device for reading sentence aloud