JPS626299A - Electronic singing apparatus - Google Patents

Electronic singing apparatus

Info

Publication number
JPS626299A
JPS626299A JP60145203A JP14520385A JPS626299A JP S626299 A JPS626299 A JP S626299A JP 60145203 A JP60145203 A JP 60145203A JP 14520385 A JP14520385 A JP 14520385A JP S626299 A JPS626299 A JP S626299A
Authority
JP
Japan
Prior art keywords
lyrics
input
additional data
acoustic
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP60145203A
Other languages
Japanese (ja)
Inventor
竹内 正男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP60145203A priority Critical patent/JPS626299A/en
Publication of JPS626299A publication Critical patent/JPS626299A/en
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、入力した人の声で任意の歌を歌わせることが
できる電子歌唱装置に関するものである。
DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention relates to an electronic singing device that can sing any song using an input human voice.

(従来の技術) 一般に、楽譜通りに電気的な音を発生させるものとして
電子楽器が知られている0発生できる音は電子音または
擬似音であって人間の音声ではない。また、電気的に人
間の音声を発生させるものとして音声合成装置が知られ
ている。
(Prior Art) Generally, electronic musical instruments are known to generate electrical sounds according to musical scores.The sounds that can be generated are electronic sounds or pseudo sounds, and are not human voices. Furthermore, a speech synthesizer is known as a device that electrically generates human speech.

従来、このような分野の技術としては、日経エレクトロ
ニクス(1984−7−2)日経マグロウヒル社「任意
の文章を音声に変換する規制音声合成が実用にJ P、
124に記載されるものがあった。以下。
Conventionally, as technology in this field, Nikkei Electronics (1984-7-2) Nikkei McGraw-Hill Co., Ltd. "Regulated speech synthesis that converts arbitrary sentences into speech becomes practical JP,
There was something described in 124. below.

その構成を図を用いて説明する。Its configuration will be explained using figures.

第2図は従来の音声合成装置の一構成例を示すブロック
図である。この音声合成装置は、パスライン5を介して
接続された入力インターフェース10、辞書ファイル2
0、文書−合成単位変換規則ファイル30、合成単位連
結プログラムとアクセントイントネーションプログラム
を格納したプログラムファイル40、合成単位音響パラ
メータファイル50、音声合成器80. D/A変換器
70、スピーカ75、制御用CPU80.及びワークメ
モリ80により構成されている。
FIG. 2 is a block diagram showing an example of the configuration of a conventional speech synthesis device. This speech synthesis device includes an input interface 10 and a dictionary file 2 connected via a path line 5.
0, document-synthesis unit conversion rule file 30, program file 40 storing a synthesis unit concatenation program and accent intonation program, synthesis unit acoustic parameter file 50, speech synthesizer 80. D/A converter 70, speaker 75, control CPU 80. and a work memory 80.

キーボード(図示せず)から入力インターフェース10
を介して入力された文字データは、辞書ファイル20と
文章−合成単位変換規則ファイル30とにより発音の単
位となる合成単位列に変換され、この変換された合成単
位列はワークメモリ90に記憶される0合成重位音響パ
ラメータファイル50には、あらかじめ人の音声を抽出
して得られた合成単位の音響パラメータ(例えば、ホル
マント情報)が格納されている。音声を合成するときは
、隣接する合成単位の音響パラメータが連結されて音声
合成器80およびD/A変換fi70に入力される。そ
のときプログラムファイル40の合成単位連結プログラ
ムおよびアクセントイントネーション付加プログラムに
より、単語ごとのアクセントや文全体のイントネーショ
ンも付加されて、自然な音声が合成され、スピーカ75
から発声される。なお、制御用GPU80はこの装置全
体のタイミングを制御する。
Input interface 10 from a keyboard (not shown)
The character data input via the dictionary file 20 and the sentence-composition unit conversion rule file 30 are converted into a composite unit string that becomes a unit of pronunciation, and this converted composite unit string is stored in the work memory 90. The 0-synthesis weighted acoustic parameter file 50 stores acoustic parameters (for example, formant information) of synthesis units obtained by extracting human speech in advance. When synthesizing speech, the acoustic parameters of adjacent synthesis units are concatenated and input to the speech synthesizer 80 and the D/A converter fi 70. At this time, the synthesis unit concatenation program and accent intonation addition program in the program file 40 add accents for each word and intonation of the entire sentence, synthesize natural speech, and output the speaker 75.
is uttered from. Note that the control GPU 80 controls the timing of the entire device.

(発明が解消しようとする問題点) しかしながら、従来の電子楽器では1人の音声を発声す
ることはできず、たとえ人の音声に近い擬似音を発声で
きたとしても、歌詞を歌たわせることは不可能であった
(Problem that the invention seeks to solve) However, with conventional electronic musical instruments, it is not possible to produce the voice of a single person, and even if it is possible to produce a pseudo-sound similar to a human voice, it is not possible to make the lyrics sing. That was impossible.

また従来の音声合成装置で文章に節をつけるとすれば、
単語ごとのアクセントや文全体のイントネーションに相
当するデータをあらかじめ用意しておかなければならな
い、したがっていかなる歌でも歌唱させることはできな
いという問題点があった。
Also, if you add clauses to a sentence using a conventional speech synthesizer,
There was a problem in that data corresponding to the accent of each word and the intonation of the entire sentence had to be prepared in advance, so it was impossible to sing any song.

本発明は前記従来技術が持っていた問題点のうち、いか
なる歌でも歌唱することができないという点について解
決した装置を提供するものである。
The present invention provides a device that solves the problem of the prior art, which is that it is not possible to sing any song.

(問題点を解決するための手段) 本発明は前記問題点を解決するために、楽譜および歌詞
を入力する歌唱情報入力手段と、歌詞を合成単位に分解
する歌詞分解手段と、楽譜から拍子、アクセント、イン
トネーション等の付加データを生成する付加データ生成
手段と、音声を入力する音声手段と、音声を分析して音
響パラメータに変換する音響パラメータ変換手段と、こ
の音響パラメータを記憶する音響パラメータ記憶手段と
、この音響パラメータを用いて合成単位と付加データに
従って音声を合成する音声合成手段とを設けたものであ
る。
(Means for Solving the Problems) In order to solve the above-mentioned problems, the present invention provides a singing information input means for inputting musical scores and lyrics, a lyrics decomposition means for decomposing the lyrics into composite units, and a method for extracting beats from the musical scores. Additional data generation means for generating additional data such as accent and intonation, audio means for inputting voice, acoustic parameter conversion means for analyzing voice and converting it into acoustic parameters, and acoustic parameter storage means for storing the acoustic parameters. and a speech synthesis means for synthesizing speech according to the synthesis unit and additional data using the acoustic parameters.

(作 用) 本発明によれば、以上のように電子歌唱装置を構成した
ので、合成単位と拍子、アクセント、イントネーション
等の付加データを入力した歌唱情報から生成し、別に入
力した音声から分析された音響パラメータを用いて、合
成単位と付加データとに従って音声の合成が行えるので
ある。したがって、前記問題点を除去できるのである。
(Function) According to the present invention, since the electronic singing device is configured as described above, the synthesis unit and additional data such as time signature, accent, and intonation are generated from inputted singing information and analyzed from separately inputted voice. Using the acquired acoustic parameters, speech can be synthesized according to the synthesis unit and additional data. Therefore, the above problem can be eliminated.

(実施例) 第1図は本発明の一実施例を示す電子歌唱装置の構成ブ
ロック図である。入力インターフェース110により楽
譜およびこの楽譜にのせて歌われる歌詞の歌唱情報が入
力される。楽譜情報の入力方法としては、例えば、通常
の譜面にバーコードにより楽譜情報を書き込んでおき、
これをハンドスキャナで読み込む方法や、楽譜情報を予
め・キーボード等を用いて入力して磁気テープ等に記録
しておき、これを再生して入力する方法がある。辞書フ
ァイル120には歌詞を品詞(名詞、動詞、助詞、副詞
等)に分解するための辞書データが格納されている。も
し入力インターフェース110を介して入力された歌詞
に誤りがあっても、この辞書ファイル120中の辞書デ
ータを用いて誤入力を防止できる0合成重位変換規則フ
ァイル130には、歌詞を合成単位に分解するための変
換規則が格納されている。ここで、合成単位とは、音声
を合成するための最少単位であって、例えば、母音+母
音、子音+母音、母音十子音+母音、子音+母音十子音
である。入力インターフェース110からパスライン1
00を介して入力された歌詞を、合成単位変換規則ファ
イル130の変換規則に基づいて合成単位に分解する。
(Embodiment) FIG. 1 is a configuration block diagram of an electronic singing device showing an embodiment of the present invention. The input interface 110 inputs a musical score and singing information of lyrics sung on the musical score. As a method for inputting score information, for example, write score information on a regular score using a barcode,
There is a method of reading this with a hand scanner, and a method of inputting musical score information in advance using a keyboard or the like and recording it on a magnetic tape or the like, and then playing it back and inputting it. The dictionary file 120 stores dictionary data for breaking down lyrics into parts of speech (nouns, verbs, particles, adverbs, etc.). Even if there is an error in the lyrics input through the input interface 110, the dictionary data in the dictionary file 120 can be used to prevent incorrect input. Conversion rules for decomposition are stored. Here, the synthesis unit is the minimum unit for synthesizing speech, and is, for example, vowel + vowel, consonant + vowel, vowel + ten consonants + vowel, consonant + vowel and ten consonants. input interface 110 to pass line 1
The lyrics input via 00 are decomposed into composite units based on the conversion rules of the composite unit conversion rule file 130.

分解された合成単位を記憶するのがワークメモリ180
である。また合成単位連結プログラムファイル140で
は、合成時に必要な各合成単位の連結情報が作成され、
格納される。
The work memory 180 stores the decomposed composite units.
It is. In addition, in the synthesis unit concatenation program file 140, concatenation information for each synthesis unit necessary for synthesis is created,
Stored.

一方、入力インターフェース110を介して入力された
楽譜を処理するために拍子アクセントイントネーション
付加プログラムファイル140が設けられている。この
拍子アクセントイントネーション付加プログラムファイ
ル140には、歌詞に付加する拍子、アクセント、イン
トネーション等の付加データを作成するプログラムが格
納されている。作成された付加データはこのプログラム
ファイル140に格納される。
On the other hand, a meter accent intonation addition program file 140 is provided to process the musical score input via the input interface 110. The meter, accent, and intonation addition program file 140 stores a program for creating additional data such as meter, accent, and intonation to be added to lyrics. The created additional data is stored in this program file 140.

音声入力部150は人間の音声を入力するものである。The voice input section 150 is for inputting human voice.

歌わせたい大の声で数個の単語または短文はあらゆる合
成単位を発声しうる音響パラメータ(ホルトマント情報
)の抽出に必要なものとして定められている。音声入力
部150は、例えば音声を電気信号に変換するマイクロ
ホンと、音質を調節するグラフィックイコライザと、音
声信号を増幅するアンプにより構成される。合成単位音
響パラメータ変換部180は、音声入力部150からの
音声を分析して必要な音響パラメータを抽出する。
A few loud words or short sentences that are desired to be sung are defined as necessary for extracting acoustic parameters (Holtmant information) that can be used to vocalize any synthetic unit. The audio input unit 150 includes, for example, a microphone that converts audio into an electrical signal, a graphic equalizer that adjusts the sound quality, and an amplifier that amplifies the audio signal. The synthesis unit acoustic parameter conversion unit 180 analyzes the audio from the audio input unit 150 and extracts necessary acoustic parameters.

抽出された音響パラメータは、音響パラメータファイル
170に格納される。
The extracted acoustic parameters are stored in the acoustic parameter file 170.

音声合成器200は、音響パラメータファイル170中
の音響パラメータを用いて、ワークメモリ180中の合
成単位と拍子、アクセント、イントネーション等の付加
データに従って音声を合成する0合成された音声はD/
A変換器210及びスピーカ220を通して実際の合成
音声として出力される。音声合成方式としては、例えば
PARCOR(Partial Auto Corrl
ation)式、LSP(LineSpectrum 
Pa1rs)方式、ボルトマント方式、メルケプストラ
ム方式等がある。
The speech synthesizer 200 uses the acoustic parameters in the acoustic parameter file 170 to synthesize speech according to the synthesis unit in the work memory 180 and additional data such as time signature, accent, and intonation.The synthesized speech is D/
It is output as actual synthesized speech through the A converter 210 and the speaker 220. As a speech synthesis method, for example, PARCOR (Partial Auto Corrl
ation) expression, LSP (Line Spectrum
There are several methods, such as Pa1rs) method, Bolt Mant method, and Mel Cepstrum method.

制御用CPU 180は各情報、データの受は渡し等の
システム全体のタイミングを制御している。
The control CPU 180 controls the timing of the entire system, such as receiving and passing each information and data.

次に動作を説明する。この電子歌唱装置の動作は、入力
した歌唱情報から歌詞の合成単位と拍子、アクセント、
イントネーション等の付加データを作成し、入力した音
声から音響パラメータを抽出して記憶しておく準備動作
と、実際に音声を合成しスピーカから出力させる音声合
成動作とに分けて考えることができる。
Next, the operation will be explained. The operation of this electronic singing device is based on the input singing information, the lyrics synthesis unit, time signature, accent, etc.
It can be divided into a preparatory operation in which additional data such as intonation is created and acoustic parameters are extracted from input speech and stored, and a speech synthesis operation in which the speech is actually synthesized and output from a speaker.

これら準備動作および音声合成動作を具体例を用いて説
明する。入力インターフェース110を介して歌詞rK
ARASUNAZENAKUJが入力されたとすると、
辞書ファイル120中の辞書データを用いてrKARA
SUJは名詞(普通名詞”) 、 rNAZEJは副詞
、rNAKUJは動詞であることが認識され、品詞分解
さレル、もL rKARAsUJがrKERAsU」ト
誤入力さレタ場合は、辞書ファイル120により誤入力
を検出することができる。さらに合成単位変換規則ファ
イル130を用いてrKARASUJをrKARJとr
RAsJとrSUJなる合成単位に分解し、rNAZE
JをrNAZJとrAZEJなる合成単位に分解し、 
rNAKUJをrNAKJとrKUJなる合成単位に分
解する。これら合成単位はワークメモリ130に格納さ
れ、音声合成動作に備える。
These preparation operations and speech synthesis operations will be explained using specific examples. Lyrics rK via input interface 110
If ARASUNAZENAKUJ is input,
rKARA using the dictionary data in the dictionary file 120
SUJ is recognized as a noun (common noun), rNAZEJ is an adverb, and rNAKUJ is a verb. can do. Furthermore, using the synthesis unit conversion rule file 130, rKARASUJ is converted into rKARJ and r.
Decomposed into synthetic units RAsJ and rSUJ, rNAZE
J is decomposed into synthetic units rNAZJ and rAZEJ,
rNAKUJ is decomposed into synthetic units rNAKJ and rKUJ. These synthesis units are stored in the work memory 130 and prepared for speech synthesis operation.

合成単位連結プログラムファイル140では、上記合成
単位がrKARJ、rRASJ、rsUJ、rNAZJ
、rAZEJ、rNAKJ、rKUJの順で合成される
ように連結情報が生成され、格納される。
In the synthesis unit concatenation program file 140, the synthesis units are rKARJ, rRASJ, rsUJ, rNAZJ.
, rAZEJ, rNAKJ, and rKUJ are generated and stored in this order.

一方、歌詞rKARASUNAZENAKUJ ニラけ
る節を示す楽譜は、入力インターフェース110を介し
て入力され、拍子、アクセント、イントネーション付加
プログラムファイル140に送られる。プログラムファ
イル140では送られた楽譜から、拍子、アクセント、
イントネーション等の付加データを生成し、記憶する。
On the other hand, a musical score indicating the lyrics rKARASUNAZENAKUJ is inputted via the input interface 110 and sent to the time signature, accent, and intonation addition program file 140. In the program file 140, time signature, accent,
Generate and store additional data such as intonation.

また歌唱させたい大の声で、音声入力部150から所定
の単語または短文を入力する。合成単語音響パラメータ
変換部160では入力した音声から音響パラメータを抽
出し、音響パラメータファイル170に格納する。これ
で準備動作が終了する。
In addition, a predetermined word or short sentence is input from the voice input section 150 in a loud voice that the user wants to sing. The synthesized word acoustic parameter converter 160 extracts acoustic parameters from the input speech and stores them in an acoustic parameter file 170. This completes the preparation operation.

次に音声合成動作を説明する。ワークメモリ190の合
成データ、合成単位連結プログラムファイルおよび拍子
、アクセント、イントネーションプログラムファイル1
40からの連結情報と拍子、アクセント、イントネーシ
ョン等の付加データとをパスライン100を介して所定
のタイミングで音声合成器200に転送する。音声合成
器200はこれら情報に基づいて音声を合成し、合成音
声はD/A変換器210によりアナログ電気信号に変換
され、スピーカ220から出力される。これにより歌を
歌わせたい大の声で楽譜通りに歌詞が発声される。
Next, the speech synthesis operation will be explained. Synthesis data in work memory 190, synthesis unit concatenation program file, and time signature, accent, and intonation program file 1
40 and additional data such as meter, accent, intonation, etc. are transferred to the speech synthesizer 200 via the path line 100 at a predetermined timing. The speech synthesizer 200 synthesizes speech based on this information, and the synthesized speech is converted into an analog electrical signal by the D/A converter 210 and output from the speaker 220. This allows the lyrics to be uttered as loud as you want the song to be sung, exactly as per the musical score.

このように本実施例によれば、いかなる歌でも任意の歌
声で歌唱することができる。
In this way, according to this embodiment, any song can be sung with any voice.

第3図は本発明の他の実施例を示す電子歌唱装置の構成
ブロック図である。第1図の電子歌唱装置と相違する点
は、合成単位音響パラメータ変換部160への音声入力
方法にある。本実施例では音声入力信号部150を設け
ず、合成音響パラメータ変換部180をパスライン10
0に接続している。音声は入力インターフェース110
及びパスライン100を介して合成音響パラメータ変換
部160に入力される。このように構成しても、上記実
施例と同様の利点を有する。
FIG. 3 is a block diagram of an electronic singing device showing another embodiment of the present invention. The difference from the electronic singing device shown in FIG. 1 lies in the method of inputting audio to the synthesis unit acoustic parameter conversion section 160. In this embodiment, the audio input signal section 150 is not provided, and the synthesized acoustic parameter conversion section 180 is connected to the pass line 10.
Connected to 0. Audio is input interface 110
and is input to the synthetic acoustic parameter converter 160 via the pass line 100. Even with this configuration, it has the same advantages as the above embodiment.

本発明は上記実施例に限定されず、種々の変形が可能で
ある0例えば、歌唱情報を入力しながら実時間で任意の
人の声で歌唱させるようにしてもよい、また歌唱情報の
うち、楽譜情報をキーボードから入力し、実時間で歌唱
させるようにしてもよい。
The present invention is not limited to the above-mentioned embodiments, and various modifications are possible.For example, the present invention may be made to sing with an arbitrary person's voice in real time while inputting singing information, and among the singing information, Musical score information may be input from a keyboard and singing may be performed in real time.

(発明の効果) 以上詳細に説明したように、本発明によれば、歌唱情報
入力手段と、歌詞を合成単位に分解する歌詞分解手段と
、楽譜から拍子、アクセント、イントネーション等の付
加データを生成する付加データ生成手段とを設けたので
、従来の音声合成装置に比べ音声合成のために予め用意
するデータ量を軽減することができる。また音声入力部
と合成単位音響パラメータ変換部を設けることにより、
歌わせたい人の音響パラメータを直ちに生成することか
でさる。したがって歌わせたい大の声で任意の歌を歌わ
せることができる。なお、本発明による電子歌唱装置か
ら発声される歌は楽譜通り正確であるため、歌の練習用
として極めて有用である。
(Effects of the Invention) As described in detail above, according to the present invention, there is provided a singing information input means, a lyric decomposition means for decomposing lyrics into composite units, and generating additional data such as time signature, accent, and intonation from a musical score. Since additional data generation means is provided, the amount of data to be prepared in advance for speech synthesis can be reduced compared to conventional speech synthesis devices. In addition, by providing a voice input section and a synthesis unit acoustic parameter conversion section,
You can immediately generate the acoustic parameters of the person you want to sing. Therefore, you can make the user sing any song as loudly as you want. Incidentally, since the songs uttered from the electronic singing device according to the present invention are as accurate as musical scores, they are extremely useful for singing practice.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の実施例を示す電子歌唱装置の構成ブロ
ック図、第2図は従来の音声合成装置の構成ブロック図
、第3図は本発明の他の実施例を示す電子歌唱装置の構
成ブロック図である。 100・・・・・・パスライン、110・・・・・・入
力インターフェース、120・・・・・・辞書ファイル
、130・・・・・・合成単位変換規則ファイル、14
0・・・・・・プログラムファイル、150・・・・・
・音声入力部、160・・・・・・合成単位音響パラメ
ータ変換部、170・・・・・・音響パラメータファイ
ル、180・・・・・・制御用CPU、190・・・・
・・ワークメモリ、200・・・・・・音声合成器、2
10・・・・・・D/A変換器、220・・・・・・ス
ピーカ。
FIG. 1 is a block diagram of an electronic singing device showing an embodiment of the present invention, FIG. 2 is a block diagram of a conventional speech synthesis device, and FIG. 3 is a block diagram of an electronic singing device showing another embodiment of the present invention. It is a configuration block diagram. 100... Pass line, 110... Input interface, 120... Dictionary file, 130... Composite unit conversion rule file, 14
0...Program file, 150...
- Audio input section, 160...Synthesis unit acoustic parameter conversion section, 170...Acoustic parameter file, 180...Control CPU, 190...
...Work memory, 200...Speech synthesizer, 2
10...D/A converter, 220...Speaker.

Claims (1)

【特許請求の範囲】 楽譜およびこの楽譜にのせて歌われる歌詞を入力する歌
唱情報入力手段と、 この歌唱情報入力手段により入力された歌詞を合成単位
に分解する歌詞分解手段と、 前記歌唱情報入力手段により入力された楽譜から前記歌
詞に付加する拍子、アクセント、イントネーション等の
付加データを生成する付加データ生成手段と、 音声を入力する音声入力手段と、 この音声入力手段から入力された音声を分析して前記合
成単位の音響パラメータに変換する音響パラメータ変換
手段と、 この音響パラメータ変換手段により変換された音響パラ
メータを記憶する音響パラメータ記憶手段と、 この音響パラメータ記憶手段に記憶された音響パラメー
タを用いて、前記歌詞分解手段により分解された合成単
位と、前記付加データ生成手段により生成された付加デ
ータとに従って音声を合成する音声合成手段とを備えた
ことを特徴とする電子歌唱装置。
[Scope of Claims] Singing information input means for inputting a musical score and lyrics to be sung on the musical score; Lyrics decomposition means for decomposing the lyrics inputted by the singing information inputting means into composite units; and the singing information input. additional data generation means for generating additional data such as time signature, accent, intonation, etc. to be added to the lyrics from the musical score input by the means; an audio input means for inputting audio; and an analysis of the audio input from the audio input means. acoustic parameter converting means for converting into acoustic parameters of the synthesis unit; acoustic parameter storage means for storing the acoustic parameters converted by the acoustic parameter converting means; and using the acoustic parameters stored in the acoustic parameter storage means. An electronic singing device comprising: a voice synthesizing means for synthesizing voice according to the synthesis unit decomposed by the lyrics decomposing means and the additional data generated by the additional data generating means.
JP60145203A 1985-07-02 1985-07-02 Electronic singing apparatus Pending JPS626299A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60145203A JPS626299A (en) 1985-07-02 1985-07-02 Electronic singing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60145203A JPS626299A (en) 1985-07-02 1985-07-02 Electronic singing apparatus

Publications (1)

Publication Number Publication Date
JPS626299A true JPS626299A (en) 1987-01-13

Family

ID=15379788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60145203A Pending JPS626299A (en) 1985-07-02 1985-07-02 Electronic singing apparatus

Country Status (1)

Country Link
JP (1) JPS626299A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7016841B2 (en) 2000-12-28 2006-03-21 Yamaha Corporation Singing voice synthesizing apparatus, singing voice synthesizing method, and program for realizing singing voice synthesizing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7016841B2 (en) 2000-12-28 2006-03-21 Yamaha Corporation Singing voice synthesizing apparatus, singing voice synthesizing method, and program for realizing singing voice synthesizing method

Similar Documents

Publication Publication Date Title
US8219398B2 (en) Computerized speech synthesizer for synthesizing speech from text
JP2000206982A (en) Speech synthesizer and machine readable recording medium which records sentence to speech converting program
WO2004066271A1 (en) Speech synthesizing apparatus, speech synthesizing method, and speech synthesizing system
JPH11184490A (en) Singing synthesizing method by rule voice synthesis
JP3518898B2 (en) Speech synthesizer
JP6167503B2 (en) Speech synthesizer
US6829577B1 (en) Generating non-stationary additive noise for addition to synthesized speech
KR102168529B1 (en) Method and apparatus for synthesizing singing voice with artificial neural network
JPH08335096A (en) Text voice synthesizer
JPS626299A (en) Electronic singing apparatus
JP2894447B2 (en) Speech synthesizer using complex speech units
JPH07200554A (en) Sentence read-aloud device
JPH05224689A (en) Speech synthesizing device
JP2642617B2 (en) Speech synthesizer
JP3081300B2 (en) Residual driven speech synthesizer
JP2703253B2 (en) Speech synthesizer
JP3367906B2 (en) Speech synthesis method, speech synthesis device, recording medium recording speech synthesis program and speech segment record, method for creating the same, and recording medium recording speech segment record creation program
KR20040015605A (en) Method and apparatus for synthesizing virtual song
JPH11259094A (en) Regular speech synthesis device
JPS62119591A (en) Sentence reciting apparatus
JPH0413200A (en) Karaoke recorded instrumental accompaniment) device provided with voicing function
KADIAN MULTILINGUAL TEXT TO SPEECH ANALYSIS & SYNTHESIS
JPH037994A (en) Generating device for singing voice synthetic data
JPH07140999A (en) Device and method for voice synthesis
JPS63262699A (en) Voice analyzer/synthesizer