JP5979293B2 - Singing synthesis control device and singing synthesis device - Google Patents
Singing synthesis control device and singing synthesis device Download PDFInfo
- Publication number
- JP5979293B2 JP5979293B2 JP2015155080A JP2015155080A JP5979293B2 JP 5979293 B2 JP5979293 B2 JP 5979293B2 JP 2015155080 A JP2015155080 A JP 2015155080A JP 2015155080 A JP2015155080 A JP 2015155080A JP 5979293 B2 JP5979293 B2 JP 5979293B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- button
- data
- synthesis
- melody
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Description
この発明は、ユーザによる操作部の操作に従って歌唱合成装置の制御を行う歌唱合成制御装置およびこの歌唱合成制御装置を備えた歌唱合成装置に関する。 The present invention relates to a song synthesis control device that controls a song synthesis device in accordance with an operation of an operation unit by a user, and a song synthesis device including the song synthesis control device.
歌唱合成装置として、メロディデータとこのメロディデータが示すメロディに合わせて歌唱する歌詞を示す歌詞データとをGUI(グラフィカルユーザインタフェース)等を介して入力させて記憶し、この記憶したメロディデータと歌詞データを並列に再生することにより歌唱合成を行う構成のものがある。そして、最近では、歌詞データを予め記憶しておき、ユーザが鍵盤操作等により発生するメロディデータを受け取りつつ歌詞データを順次読み出し、歌唱合成を行う構成のものが提供されている(例えば特許文献1参照)。 As a singing synthesizer, melody data and lyric data indicating lyrics to be sung in accordance with the melody indicated by the melody data are input and stored via a GUI (graphical user interface) or the like, and the stored melody data and lyric data are stored. There is a configuration in which singing synthesis is performed by reproducing the songs in parallel. Recently, there has been provided a configuration in which lyrics data is stored in advance, the user sequentially reads out the lyrics data while receiving melody data generated by a keyboard operation or the like, and performs singing synthesis (for example, Patent Document 1). reference).
ところで、上述した従来の歌唱合成装置は、予め歌詞データを記憶させた状態で、その歌詞データを読み出して歌唱合成に用いる必要があり、歌唱合成に用いる歌詞を変更するのに不便であり、また、歌唱合成中に即興的に歌詞を変更するといったこともできないという問題があった。 By the way, the conventional singing voice synthesizing apparatus described above needs to read out the lyric data and use it for singing synthesis in a state where the lyric data is stored in advance, and is inconvenient to change the lyrics used for singing synthesis. There was a problem that the lyrics could not be changed improvised during the singing synthesis.
本発明は以上説明した事情に鑑みてなされたものであり、歌唱合成に用いる歌詞の変更を容易にする技術的手段を提供することを目的としている。 The present invention has been made in view of the above-described circumstances, and an object thereof is to provide technical means for facilitating change of lyrics used for singing synthesis.
この発明は、音符の音高を指定する音高データの列であるメロディデータを記憶するメロディ記憶手段と、歌詞を構成する各表音文字を示す表音文字データの列である正解歌詞データを記憶する正解歌詞記憶手段と、表音文字を指示する操作を受け付ける操作手段と、前記操作手段に対して表音文字を指示する操作が行われ、1文字の入力表音文字が確定する都度、前記メロディ記憶手段から音高データを順次読み出し、前記入力表音文字が示す音声であって、前記メロディ記憶手段から読み出した音高データが示す音高を有する音声を歌唱合成手段に合成させる合成制御手段と、前記1文字の入力表音文字が確定する都度、前記正解歌詞データにおいて読み出し対象とする表音文字データの位置を進めつつ前記正解歌詞記憶手段から表音文字データを順次読み出し、前記入力表音文字と一致するか否かを判定し、判定結果を出力する照合手段とを具備することを特徴とする歌唱合成制御装置を提供する。 The present invention provides melody storage means for storing melody data, which is a string of pitch data for designating the pitch of notes, and correct lyric data, which is a string of phonogram data indicating each phonogram constituting the lyrics. Each time the correct lyric storage means for storing, the operation means for accepting an operation for instructing a phonogram, the operation for instructing the phonogram to the operation means is performed, and one input phonogram is determined, Synthetic control for sequentially reading pitch data from the melody storage means and synthesizing the voice having the pitch indicated by the input phonogram and having the pitch indicated by the pitch data read from the melody storage means to the singing voice synthesis means And the phonetic text from the correct lyrics storage means while advancing the position of the phonetic character data to be read in the correct lyrics data each time the one input phonogram is determined. Sequentially reading out the data, to determine whether coincident with said input phonetic characters, provide singing synthesis control apparatus characterized by comprising a verification means for outputting a determination result.
かかる発明によれば、歌詞を構成する表音文字を指定する操作に応じて、メロディデータが示すメロディに沿った歌唱音声を合成することができるので、歌唱合成に用いる歌詞の変更を容易に行うことができる。また、この発明によれば、正解歌詞データ通りの表音文字の入力が行われたか否かの判定を行うことができる。 According to this invention, since the singing voice along the melody indicated by the melody data can be synthesized according to the operation of designating the phonetic characters constituting the lyrics, the lyrics used for the singing synthesis can be easily changed. be able to. Moreover, according to this invention, it can be determined whether the phonetic character according to correct lyric data was input.
以下、図面を参照し、この発明の実施形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.
<第1実施形態>
図1は、この発明の第1実施形態である歌唱合成制御部1を備えた歌唱合成装置1000の構成を示すブロック図である。この歌唱合成装置1000は、図1に示すように、本実施形態による歌唱合成制御部1と、歌唱合成エンジン2と、オーディオインタフェース3とを有する。
<First Embodiment>
FIG. 1 is a block diagram showing a configuration of a singing
歌唱合成制御部1は、操作部を含んでおり、この操作部に対してユーザによって行われる操作に応じて歌唱合成の制御を指令する合成制御メッセージを生成して出力する装置である。歌唱合成エンジン2は、歌唱合成制御部1からの合成制御メッセージに従って歌唱音声波形のサンプルデータである歌唱音声データを合成して出力する。オーディオインタフェース3は、歌唱合成エンジン2から出力される歌唱音声データに従ってスピーカ4を駆動し、スピーカ4から歌唱音声を放音させる。
The singing
図2は歌唱合成装置1000の外観、具体的には上面を示す平面図である。また、図3は歌唱合成装置1000の機能構成を示すブロック図である。この歌唱合成装置1000は、子供向けの知育発達のための玩具としての用途を有している。図2に示すように、歌唱合成装置1000は、平坦な板状の筐体を有している。この筐体の上面には、各種の操作子が印刷されており、図3におけるタッチパネル100の操作面となっている。このタッチパネル100は、本実施形態による歌唱合成制御装置1の操作部として設けられたものである。なお、歌唱合成制御装置1の操作部は、必ずしもタッチパネルである必要はなく、例えば押圧操作により退行する機械式の押しボタンを操作子として備えた操作部であってもよい。
FIG. 2 is a plan view showing the outer appearance, specifically, the upper surface of the singing
歌唱合成装置1000の筐体の内部には、図3に示すタッチパネル100の押圧位置検出部106、操作強度検出部107およびLED駆動制御部108と、CPU110と、ROM140と、RAM150とが設けられている。ここで、押圧位置検出部106は、歌唱合成装置1000の筐体の操作面をユーザの指が押したときに、その操作面における押圧位置を検出し、押圧位置情報を出力する装置である。操作強度検出部107は、ユーザの指が操作面を押したときに、その押圧操作の強度、具体的には押圧操作の押圧力を検出し、操作強度情報を出力する装置である。また、操作強度検出部107は、押圧が開始されたタイミングを示すオンタイミング信号と押圧が終了したタイミングを示すオフタイミング信号を出力する。
Inside the housing of the singing
図2に示すように、タッチパネル100には、50音ボタン部101と、50音補助ボタン部102と、モード制御ボタン部103と、音階読み出し位置制御ボタン部104と、鍵ボタン部105が設けられている。これらのうち50音ボタン部101、50音補助ボタン部102、モード制御ボタン部103および音階読み出し位置制御ボタン部104は、略正方形状の枠の中に例えば「あ」等の文字や記号が表されたボタンにより構成されている。以下では、説明の便宜のため、これらの各ボタンに関して、例えば50音ボタン部101における「あ」の表されたボタンについては「あ」ボタンのように、ボタンの枠内に表された文字を用いて表記する場合がある。
As shown in FIG. 2, the
50音ボタン部101は、「あ」から「ん」までの平仮名を各々指示するための46個の50音ボタンにより構成されている。50音補助ボタン部102は、50音ボタン部101による平仮名の入力を補助するために使用される操作子であり、「小」ボタン、「゜」ボタンおよび「゛」ボタンにより構成されている。ここで、「小」ボタンは、50音ボタン部101の操作により例えば「てぃ」のように小さい平仮名「ぃ」を後半部分に有する文字列を指示する場合に使用される操作子である。この例における「てぃ」を指示する場合には、「小」ボタンを押して、50音ボタン部101の「い」ボタンを押し、さらに「て」ボタンを押せばよい。「°」ボタンは、50音ボタン部101の操作により「ぱ」、「ぴ」、「ぷ」等の半濁点を有する平仮名を指定する場合に使用される操作子である。例えば「ぱ」を指定する必要がある場合、この「°」ボタンを押して、50音ボタン部101の「は」ボタンを押せばよい。「゛」ボタンは、50音ボタン部101の操作により「ば」、「び」、「ぶ」等の濁点を有する平仮名を指定する場合に使用される操作子である。例えば「ば」を指定する必要がある場合、この「゛」ボタンを押して、50音ボタン部101の「は」ボタンを押せばよい。
The 50
モード制御ボタン部103は、歌唱合成制御部1に対してモード切り換え制御の指示を与えるための操作子である。このモード制御ボタン部103における各ボタンの裏側には、赤色および緑色の発光色を有する2色LEDが配置されており、この2色LEDの点灯制御により、各ボタンに表された「かし」等の文字の背景を赤色(赤色発光時)、緑色(緑色発光時)、白色(非発光時)とすることが可能である。図3におけるLED駆動制御部108は、このモード制御ボタン部103の裏側の2色LEDの駆動制御を行う装置である。
The mode
音階読み出し位置制御ボタン部104は、メロディ再生モードにおいて例えば替え歌の歌唱合成を行わせる場合に使用される操作子であり、「とばす」ボタン、「すすめる」ボタンおよび「くりかえす」ボタンにより構成されている。ここで、メロディ再生モードとは、音符の音階を示す音階データを時系列に並べたメロディデータを予めRAM150のメロディ記憶領域に記憶させておき、50音ボタン部101および50音補助ボタン部102の操作により表音文字が指定されるのに応じて、メロディ記憶領域から音階データを1個ずつ読み出し、指定された表音文字および読み出した音階データに対応した歌唱音声を歌唱合成エンジン2に合成させるモードである。「とばす」ボタンは、メロディデータにおいて、ある音階データが読み出し対象となっているときに、その音階データを読み出し対象でなくし、その次の音階データを読み出し対象にすることを指示するためのボタンである。「すすめる」ボタンは、メロディデータにおいて、ある音階データが読み出し対象となっているときに、その読み出し対象の音階データを読み出して次の音階データを読み出し対象にすることを指示するためのボタンである。「くりかえす」ボタンは、メロディデータにおいて、表音文字の指定に応じて、ある音階データが読み出された後、その音階データを次の表音文字が指定されたときの読み出し対象にすることを指示するためのボタンである。
The scale reading position control button unit 104 is an operator used when, for example, synthesizing a singing song in the melody playback mode, and includes a “jump” button, a “recommend” button, and a “repeat” button. . Here, in the melody reproduction mode, melody data in which scale data indicating the scale of a note is arranged in time series is stored in the melody storage area of the
鍵ボタン部105は、鍵盤を模した操作子であり、黒鍵を各々表す黒鍵ボタンと、白鍵を各々表す白鍵ボタンの配列である。鍵ボタン部105は、メロディを構成する各音符の音階を指定するのに使用される。
The
図3において、ROM140には各種の制御プログラムが記憶されている。CPU110は、ROM140内の制御プログラムに従って、歌唱合成エンジン2としての機能を営むための処理を行うとともに、操作部であるタッチパネル100の操作に応じて歌唱合成エンジン2を制御する歌唱合成制御部1としての各種の処理を行う。その際にCPU110は、RAM150をワークエリアとして使用する。
In FIG. 3, the
図3において、CPU110を示すボックスの中には、歌唱合成エンジン2に加えて、CPU110が実行する制御プログラムの一部であるユーザインタフェース部120と合成エンジン制御部130が示されている。このユーザインタフェース部120と合成エンジン制御部130と操作部であるタッチパネル100とが本実施形態による歌唱合成制御部1を構成している。
In FIG. 3, in addition to the singing
ユーザインタフェース部120は、50音指定ユーザインタフェース部121と、音階指定ユーザインタフェース部122と、制御用ユーザインタフェース部123とを含む。50音指定ユーザインタフェース部121は、押圧位置検出部106から50音ボタン部101および50音補助ボタン部102のいずれかのボタンの領域内の位置を示す押圧位置情報が出力された場合、その押圧されたボタンにより指示された表音文字を認識し、この表音文字を示す表音文字データを出力する。
The
例えば50音補助ボタン部102の領域内の位置を示す押圧位置情報が出力されることなく、50音ボタン部101のいずれかのボタン(例えば「あ」ボタンとする)の領域内の位置を示す押圧位置情報が出力された場合、この単独のボタン操作により入力表音文字が確定する。この場合、50音指定ユーザインタフェース部121は、その単独操作されたボタンに対応した表音文字(この例では「あ」)を示す表音文字データを出力する。
For example, the position in the area of any one of the buttons (for example, “A” button) of the 50
また、例えば50音補助ボタン部102の「゛」ボタンの領域内の位置を示す押圧位置情報が出力された後、50音ボタン部101のいずれかのボタン(例えば「は」ボタンとする)の領域内の位置を示す押圧位置情報が出力された場合、後者のボタン操作(この例では「は」ボタンの操作)があったときに入力表音文字が確定する。この場合、50音指定ユーザインタフェース部121は、後者のボタンに対応した表音文字に濁点を追加した表音文字(この例では「ば」)を入力表音文字とし、この入力表音文字を示す表音文字データを出力する。「゜」ボタンの領域内の位置を示す押圧位置情報が出力された後、50音ボタン部101のいずれかのボタンの領域内の位置を示す押圧位置情報が出力された場合も同様である。
Further, for example, after the pressing position information indicating the position in the area of the “」 ”button of the 50-sound auxiliary button unit 102 is output, one of the buttons of the 50-sound button unit 101 (for example,“ ha ”button) When the pressed position information indicating the position in the area is output, the input phonetic character is determined when the latter button operation (in this example, the operation of the “ha” button) is performed. In this case, the 50-sound designation
また、例えば50音補助ボタン部102の「小」ボタンの領域内の位置を示す押圧位置情報が出力された後、50音ボタン部101の中の母音を指示する50音ボタン(例えば「い」ボタンとする)の領域内の位置を示す押圧位置情報が出力され、さらに50音ボタン部101の中のいずれかの50音ボタン(例えば「て」ボタンとする)の領域内の位置を示す押圧位置情報が出力された場合、3番目のボタン操作があったときに入力表音文字が確定する。この場合、50音指定ユーザインタフェース部121は、3番目の50音ボタンが示す平仮名の後に2番目の50音ボタンが示す平仮名を小さくしたものを配列した表音文字(この例では「てぃ」)を入力表音文字とし、この入力表音文字を示す表音文字データを出力する。
Further, for example, after the pressing position information indicating the position in the area of the “small” button of the 50 sound auxiliary button unit 102 is output, a 50 sound button (for example, “I”) that indicates a vowel in the 50
いずれの場合も、50音指定ユーザインタフェース部121は、50音ボタン部101のいずれかのボタンの領域内の位置を示す押圧位置情報が出力され、入力表音文字が確定したときに、その入力表音文字を示す表音文字データを出力する。
In either case, the 50-sound designation
また、50音指定ユーザインタフェース部121は、押圧位置検出部106から50音ボタン部101のボタン操作により発生される押圧位置情報に基づいて入力表音文字を確定させ、入力表音文字を示す表音文字データを出力するとき、入力表音文字を確定させたボタン操作に応じて操作強度検出部107から出力された操作強度情報を出力するとともに、そのボタン操作における押圧期間の始期および終期を示すオンタイミング信号およびオフタイミング信号を操作強度検出部107から受け取って出力する。
Also, the 50-sound designation
また、50音指定ユーザインタフェース部121は、押圧位置検出部106から音階読み出し位置制御ボタン部104のボタン操作が行われて押圧位置情報が出力された場合、押圧された「とばす」ボタン、「すすめる」ボタンまたは「くりかえす」ボタンを示すボタン名情報を出力する。また、「とばす」ボタン、「すすめる」ボタンまたは「くりかえす」ボタンのボタン操作に応じてボタン名情報を出力するとき、そのボタン操作に応じて操作強度検出部107から出力された操作強度情報を出力するとともに、そのボタン操作における押圧期間の始期および終期を示すオンタイミング信号およびオフタイミング信号を操作強度検出部107から受け取って出力する。
In addition, the 50-note designating
音階指定ユーザインタフェース部122は、押圧位置検出部106から鍵ボタン部105のいずれかの鍵ボタンの領域内の位置を示す押圧位置情報が出力された場合、その押圧位置を含む鍵ボタンに対応付けられた音階データを出力する。また、音階指定ユーザインタフェース部122は、鍵ボタンの操作が行われて押圧位置情報が出力され、操作された鍵ボタンに対応した音階データを出力するとき、操作強度検出部107から出力される操作強度情報を出力するとともに、鍵ボタン操作における押圧期間の始期および終期を示すオンタイミング信号およびオフタイミング信号を操作強度検出部107から受け取って出力する。
When the pressed position information indicating the position in the area of any key button of the
制御用ユーザインタフェース部123は、押圧位置検出部106からモード制御ボタン部103のいずれかのボタンの領域内の位置を示す押圧位置情報が出力された場合、その押下されたボタンを示すボタン名情報を合成エンジン制御部130のモード制御部133に出力する。また、制御用ユーザインタフェース部123は、モード制御部133からモード制御ボタン部103のいずれかのボタンの下方の2色LEDの点灯制御に関する指令情報が与えられた場合にその指令情報によって指令された点灯制御(赤色発光、緑色発光または消灯)をLED駆動制御部108に行わせる。
When the pressing position information indicating the position in the area of any button of the mode
合成エンジン制御部130は、歌唱合成エンジン2を制御するための合成制御メッセージを生成するモジュールであり、50音/発音記号変換部131と、演奏制御情報生成部132と、モード制御部133と、合成制御メッセージ組立部134とを含む。
The synthesis
合成エンジン制御部130は、リアルタイム演奏モード、歌詞記録モード、メロディ記録モード、歌詞再生モード、メロディ再生モードの各モードを有する。ここで、リアルタイム演奏モードは、ユーザに50音ボタン部101および50音補助ボタン部102を使用した歌詞入力と鍵ボタン部105を使用したメロディ入力とを並列に行わせ、50音ボタン部101および50音補助ボタン部102の操作により入力された表音文字に対応し、かつ、鍵ボタン部105の操作により入力された音階データに対応した歌唱音声データを歌唱合成エンジン2に合成させるモードである。歌詞記録モードは、ユーザに50音ボタン部101および50音補助ボタン部102を使用した歌詞入力を行わせ、ユーザによって入力された歌詞、具体的には歌詞を示す表音文字データの列である歌詞データをRAM150内に設けられた歌詞記憶領域に書き込むモードである。メロディ記録モードは、ユーザに鍵ボタン部105を使用したメロディ入力を行わせ、鍵ボタン部105においてユーザによって押下された鍵ボタンに対応付けられた音階を示す音階データをRAM150内に設けられたメロディ記憶領域に書き込むモードである。
The synthesis
歌詞再生モードは、ユーザに鍵ボタン部105の鍵ボタンを操作させ、鍵ボタン操作に応じて、歌詞記憶領域に記憶された歌詞データを構成する各表音文字データを1個ずつ順次読み出し、鍵ボタン操作により発生する音階データおよび操作強度情報と、歌詞記憶領域から読み出した表音文字データにより定まる発音記号とを用いて、歌唱合成エンジン2に歌唱合成を行わせるモードである。メロディ再生モードは、ユーザに50音ボタン部101および50音補助ボタン部102のボタン操作により表音文字の入力を行わせ、この表音文字の入力に応じて、メロディ領域に記憶されたメロディデータを構成する各音階データを1個ずつ順次読み出し、ボタン操作により指定される表音文字に対応した発音記号と、メロディ記憶領域から読み出した音階データと、ボタン操作の強度により定まる操作強度情報とを用いて、歌唱合成エンジン2に歌唱合成を行わせるモードである。
In the lyric reproduction mode, the user operates the key button of the
合成エンジン制御部130におけるモード制御部133は、制御用ユーザインタフェース部123から出力されるボタン名情報に従って、以上の各モード間の遷移を行わせ、現在のモードを示す情報を50音/発音記号変換部131と演奏制御情報生成部132に供給する。また、モード制御部133は、モード遷移の際に、モード制御ボタン部103のいずれかのボタンの下方の2色LEDの点灯制御に関する指令情報を出力する。
The
図4は合成エンジン制御部130のモード遷移を示す図である。モード制御部133は、合成エンジン制御部130をリアルタイム演奏モードにしたとき、モード制御ボタン部103の「かし」ボタンおよび「メロディ」ボタンの両方の2色LEDを消灯させる点灯制御指令を制御用ユーザインタフェース部123に送る。
FIG. 4 is a diagram illustrating mode transition of the synthesis
このリアルタイム演奏モードにおいて、「かし」ボタンを示すボタン名情報が制御用ユーザインタフェース部123から出力されたとき、モード制御部133は、合成エンジン制御部130を歌詞記録モードに遷移させ、「かし」ボタンの2色LEDを赤色発光させ、「メロディ」ボタンの2色LEDを消灯させる点灯制御指令を制御用ユーザインタフェース部123に送る。
In this real-time performance mode, when the button name information indicating the “Kashi” button is output from the control
この歌詞記録モードにおいて、「かし」ボタンを示すボタン名情報が制御用ユーザインタフェース部123から出力されたとき、モード制御部133は、合成エンジン制御部130を歌詞再生モードに遷移させ、「かし」ボタンの2色LEDを緑色発光させ、「メロディ」ボタンの2色LEDを消灯させる点灯制御指令を制御用ユーザインタフェース部123に送る。
In this lyrics recording mode, when the button name information indicating the “Kashi” button is output from the control
この歌詞再生モードにおいて、「かし」ボタンを示すボタン名情報が制御用ユーザインタフェース部123から出力されたとき、モード制御部133は、合成エンジン制御部130をリアルタイム演奏モードに遷移させ、「かし」ボタンおよび「メロディ」ボタンの両方の2色LEDを消灯させる点灯制御指令を制御用ユーザインタフェース部123に送る。その他の場合も同様であり、モード制御部133は、モード制御ボタン部103のボタン操作に応じて図4に示される通りのモード遷移を行わせ、現在のモードに合わせて「かし」ボタンおよび「メロディ」ボタンの表示色を切り換える。
In this lyrics playback mode, when the button name information indicating the “Kashi” button is output from the control
50音/発音記号変換部131は、50音指定ユーザインタフェース部121から出力される表音文字データまたはRAM150の歌詞記憶領域から読み出される表音文字データを発音記号に変換して合成制御メッセージ組立部134に供給するモジュールである。50音/発音記号変換部131がいずれの情報に基づいて発音記号を生成するかは合成エンジン制御部130の動作モードにより異なる。従って、説明の重複を避けるため、50音/発音記号変換部131の具体的処理内容については、本実施形態の動作説明において明らかにする。
The 50 sound / phonetic
演奏制御情報生成部132は、音階指定ユーザインタフェース部122の出力情報、RAM150のメロディ記憶領域からの読み出しデータ、50音指定ユーザインタフェース部121の出力情報を用いて、発音指示メッセージに組み込む音階データ、操作強度情報または消音指示メッセージに組み込む音階データを生成して合成制御メッセージ組立部134に供給するモジュールである。ここで、発音指示メッセージは、歌唱合成エンジン2に歌唱音声の合成開始を指示する合成制御メッセージであり、消音指示メッセージは、歌唱合成エンジン2に合成中の歌唱音声の消音を指示する合成制御メッセージである。演奏制御情報生成部132が発音指示メッセージ、消音指示メッセージに組み込むパラメータを如何にして生成するかは合成エンジン制御部130の動作モードにより異なる。従って、説明の重複を避けるため、演奏制御情報生成部132の具体的処理内容については、本実施形態の動作説明において明らかにする。
The performance control
また、メロディ再生モードにおいて音階読み出し位置制御ボタン部104の操作が行われた場合、演奏制御情報生成部132は、読み出し対象となる音階データの読み出し位置を現状のものから変更する制御を行う。この制御の内容についても、説明の重複を避けるため、本実施形態の動作説明において明らかにする。
When the scale reading position control button unit 104 is operated in the melody reproduction mode, the performance control
合成制御メッセージ組立部134は、歌唱合成エンジン2を制御する合成制御メッセージを組み立てるモジュールである。さらに詳述すると、合成制御メッセージ組立部134は、発音指示メッセージに組み込む音階データおよび操作強度情報を演奏制御情報生成部132から受け取ったとき、これらの情報を用いて発音指示メッセージを組み立て、歌唱合成エンジン2へ出力する。また、合成制御メッセージ組立部134は、消音指示メッセージに組み込む音階データを演奏制御情報生成部132から受け取ったとき、この情報を用いて消音指示メッセージを組み立て、歌唱合成エンジン2へ出力する。また、合成制御メッセージ組立部134は、発音記号を50音/発音記号変換部131から受け取ったとき、この発音記号を示す発音記号メッセージを組み立て、歌唱合成エンジン2へ出力する。
The synthesis control
歌唱合成エンジン2は、このようにして供給される合成制御メッセージに従って歌唱合成を行う機能を備えている。さらに詳述すると、歌唱合成エンジン2は、予め収音した各種の音声から採取した音声素片の波形を示す波形データを発音記号に対応付けた音声素片データベースを備えている。歌唱合成エンジン2は、発音記号メッセージを受け取ったとき、その発音記号メッセージが示す発音記号に対応した音声素片の波形データを音声素片データベースから読み出す。
The
そして、歌唱合成エンジン2は、発音指示メッセージを受け取ると、その発音指示メッセージに含まれる音階データが示す音階となるように、音声素片データベースから読み出した音声素片の波形データにピッチ変換を施す。また、歌唱合成エンジン2は、発音指示メッセージに含まれる操作強度情報に応じて、ピッチ変換後の波形データのアタック感および振幅を調整し、オーディオインタフェース3に出力し、スピーカ4からの歌唱音の放音を開始させる。そして、歌唱合成エンジン2は、消音指示メッセージを受け取ると、スピーカ4から放音させている音声素片の波形データのうち消音指示メッセージに含まれる音階データと同じ音階データに対応した波形データを減衰させ、その音階データに対応した歌唱音を消音させる。
When the singing
次に本実施形態の動作について説明する。各種の動作モードに設定するための操作と、それに対応したモード制御部133の処理については既に説明したので、以下では、各動作モードにおける50音/発音記号変換部131および演奏制御情報生成部132の動作を中心に説明する。
Next, the operation of this embodiment will be described. Since the operation for setting various operation modes and the processing of the
a.リアルタイム演奏モード
リアルタイム演奏モードにおいて、50音/発音記号変換部131は、50音指定ユーザインタフェース部121から表音文字データが出力される都度、その表音文字データをRAM150内に設けられたカレント文字領域に書き込む。なお、カレント文字領域に既に表音文字データが記憶されている場合は、50音指定ユーザインタフェース部121から出力された表音文字データをその表音文字データに上書きする。また、50音/発音記号変換部131は、音階指定ユーザインタフェース部122からオンタイミング信号、音階データ、操作強度情報が出力されたとき、RAM150のカレント文字領域から表音文字データを読み出し、発音記号に変換して合成制御メッセージ組立部134に供給する。
a. Real-time performance mode In the real-time performance mode, the 50-sound / phonetic
一方、演奏制御情報生成部132は、音階指定ユーザインタフェース部122からオンタイミング信号、音階データ、操作強度情報が出力されたとき、音階データ、操作強度情報を合成制御メッセージ組立部134に供給して発音指示メッセージの組み立ておよびその出力を行わせる。そして、演奏制御情報生成部132は、音階指定ユーザインタフェース部122からオフタイミング信号が出力されたとき、直前に合成制御メッセージ組立部134に組み立てさせた発音指示メッセージに対応した消音指示メッセージを合成制御メッセージ組立部134に組み立てさせ、その出力を行わせる。
On the other hand, when the on-timing signal, the scale data, and the operation intensity information are output from the scale designation
以上がリアルタイム演奏モードでの本実施形態の動作である。このリアルタイム演奏モードにおいて、ユーザは、50音ボタン部101のボタン操作により例えば「かえるのうたが」と入力し、これと並行して鍵ボタン部105のボタン操作により「ドレミファミレド」と入力することにより、歌唱合成エンジン2に「かえるの歌」の歌唱合成を行わせることができる。
The above is the operation of the present embodiment in the real-time performance mode. In this real-time performance mode, the user inputs, for example, “Kare no Uta” by operating the button of the 50
b.歌詞記録モード
この歌詞記録モードにおいて、50音/発音記号変換部131は、50音指定ユーザインタフェース部121から表音文字データが出力される都度、その表音文字データをRAM150内に設けられた歌詞記憶領域に書き込む。ここで、歌詞記憶領域に既に表音文字データの列が記憶されている場合、50音/発音記号変換部131は、50音指定ユーザインタフェース部121から出力された表音文字データを歌詞記憶領域内の既存の表音文字データの列における最後尾の表音文字データの次の表音文字データとして歌詞記憶領域に書き込む。この歌詞記憶領域内の表音文字データの列が歌詞データとなる。
b. Lyric recording mode In this lyric recording mode, each time the phonogram data is output from the phonograph designation
また、50音/発音記号変換部131は、1つの表音文字データを歌詞記憶領域に書き込むとき、その表音文字データを発音記号に変換し、その発音記号を示す発音記号メッセージを合成制御メッセージ組立部134に出力させる。
Further, when writing one phonetic character data into the lyrics storage area, the 50 sound / phonetic
さらに50音/発音記号変換部131は、演奏制御情報生成部132に歌詞確認用合成制御メッセージの生成指示を送る。この歌詞確認用合成制御メッセージの生成指示を受け取った演奏制御情報生成部132は、所定の音階データと所定の操作強度情報とを含む発音指示メッセージと、同音階データを含む消音指示メッセージを所定時間間隔を空けて合成制御メッセージ組立部134に出力させる。
Further, the 50 sound / phonetic
以上が歌詞記録モードでの本実施形態の動作である。この歌詞記録モードにおいて、ユーザは、50音ボタン部101のボタン操作により例えば「かえるのうたが」と入力することにより、「かえるの歌」の歌詞を示す歌詞データをRAM150内の歌詞記憶領域に書き込むことができる。また、その際に、例えば「か」の表音文字データを歌詞記憶領域に書き込むときには、その「か」に対応した発音記号を示す発音記号メッセージが合成制御メッセージ組立部134から歌唱合成エンジン2に供給され、次いで所定の音階データを含む発音指示メッセージおよび消音指示メッセージの対が合成制御メッセージ組立部134から歌唱合成エンジン2に供給され、「か」の音声が合成されてスピーカ4から放音される。後続の「え」、「る」等の表音文字についても同様である。従って、ユーザは自分が入力した歌詞を音声として確認することができる。
The above is the operation of the present embodiment in the lyrics recording mode. In this lyric recording mode, the user inputs lyric data indicating the lyric of “Kaeru no Uta” in the lyric storage area in the
c.メロディ記録モード
このメロディ記録モードにおいて、演奏制御情報生成部132は、音階指定ユーザインタフェース部122から音階データが出力される都度、その音階データをRAM150内に設けられたメロディ記憶領域に書き込む。ここで、メロディ記憶領域に既に音階データの列が記憶されている場合、演奏制御情報生成部132は、音階指定ユーザインタフェース部122から出力された音階データをメロディ記憶領域内の既存の音階データの列における最後尾の音階データの次の音階データとしてメロディ記憶領域に書き込む。このメロディ記憶領域内の音階データの列がメロディデータとなる。
c. Melody Recording Mode In this melody recording mode, the performance control
また、演奏制御情報生成部132は、1つの音階データをメロディ記憶領域に書き込むとき、その音階データと所定の操作強度情報を含む発音指示メッセージと同音階データを含む消音指示メッセージを所定時間間隔を空けて合成制御メッセージ組立部134に出力させる。
Further, when the performance control
さらに演奏制御情報生成部132は、上記発音指示メッセージに先立って、発音記号メッセージを合成制御メッセージ組立部134に出力させるための制御を行う。具体的には、演奏制御情報生成部132は、上記発音指示メッセージを合成制御メッセージ組立部134に出力させる制御を行う前に、メロディ記憶領域に書き込んだ音階データと発音記号送信指令を50音/発音記号変換部131に与える。この音階データと発音記号送信指令を受け取った50音/発音記号変換部131は、音階データが示す音階を表わす発音記号を生成し、この発音記号を示す発音記号メッセージを上記発音指示メッセージに先立って合成制御メッセージ組立部134に出力させる。このような処理を可能にするためには、例えば音階データをその音階データが示す音階の称呼を表わす発音記号に対応付けるテーブルを予めROM140に記憶させておき、50音/発音記号変換部131がこのテーブルを参照して音階データの発音記号への変換を行うようにすればよい。
Further, the performance control
以上がメロディ記録モードでの本実施形態の動作である。このメロディ記録モードにおいて、ユーザは、鍵ボタン部105のボタン操作により例えば「ドレミファミレド」と入力することにより、「かえるの歌」のメロディを示すメロディデータをRAM150内のメロディ記憶領域に書き込むことができる。また、その際に、例えば「ド」の音階データをメロディ記憶領域に書き込むときには、その「ド」に対応した発音記号を示す発音記号メッセージが合成制御メッセージ組立部134から歌唱合成エンジン2に供給され、次いで「ド」の音階データを含む発音指示メッセージおよび消音指示メッセージの対が合成制御メッセージ組立部134から歌唱合成エンジン2に供給され、「ド」の音階を持った「ド」の音声が合成されてスピーカ4から放音される。後続の「レ」、「ミ」等の音階についても同様である。従って、ユーザは自分が入力したメロディを音声として確認することができる。
The above is the operation of the present embodiment in the melody recording mode. In this melody recording mode, the user inputs, for example, “Doremi Family” by operating the button of the
d.歌詞再生モード
この歌詞再生モードにおいて、50音/発音記号変換部131は、音階指定ユーザインタフェース部122からオンタイミング信号、音階データおよび操作強度情報が出力される都度、RAM150の歌詞記憶領域内の歌詞データを構成する各表音文字データのうち現在の歌詞読み出し位置にある表音文字データを1つ読み出す。50音/発音記号変換部131は、この読み出した表音文字データを発音記号に変換し、その発音記号を示す発音記号メッセージを合成制御メッセージ組立部134に出力させる。ここで、初期状態において、歌詞読み出し位置は、歌詞記憶領域内の歌詞データを構成する各表音文字データにおける最初の表音文字データの位置となっている。従って、例えば「かえるの歌」の歌詞データが歌詞記憶領域に記憶されている場合には、先頭の表音文字「か」を示す表音文字データが最初に読み出されることとなる。
d. Lyrics playback mode In this lyrics playback mode, the 50 tone / phonetic
一方、演奏制御情報生成部132は、音階指定ユーザインタフェース部122からオンタイミング信号、音階データおよび操作強度情報が出力されたとき、これに応じて50音/発音記号変換部131が上記発音記号メッセージを合成制御メッセージ組立部134に出力させるのを待って、音階指定ユーザインタフェース部122から出力された音階データおよび操作強度情報を含む発音指示メッセージを合成制御メッセージ組立部134に出力させる。50音/発音記号変換部131は、この発音指示メッセージが合成制御メッセージ組立部134により出力されるのに応じて、歌詞読み出し位置を1だけ進める。
On the other hand, when the on-timing signal, the scale data, and the operation intensity information are output from the scale designation
そして、演奏制御情報生成部132は、音階指定ユーザインタフェース部122からオフタイミング信号が出力されたとき、直前に合成制御メッセージ組立部134に組み立てさせた発音指示メッセージに対応した消音指示メッセージを合成制御メッセージ組立部134に組み立てさせ、その出力を行わせる。
Then, the performance control
以上が歌詞再生モードでの本実施形態の動作である。この歌詞再生モードにおいて、ユーザが例えば「かえるの歌」の歌詞を示す歌詞データをRAM150内の歌詞記憶領域に記憶させた状態において、鍵ボタン部105の鍵ボタン操作により「ドレミファミレド」と入力した場合、「ド」の入力に応じて表音文字「か」の表音文字データが歌詞記憶領域から読み出され、「か」の発音記号を示す発音記号メッセージと、音階「ド」での発音を指示する発音指示メッセージが歌唱合成エンジン2に供給される。また、次の「レ」の入力に応じて表音文字「え」の表音文字データが歌詞記憶領域から読み出され、「え」の発音記号を示す発音記号メッセージと、音階「レ」での発音を指示する発音指示メッセージが歌唱合成エンジン2に供給される。以下、同様である。従って、ユーザは鍵ボタン部105の鍵ボタン操作を行うことにより、歌詞記憶領域内の歌詞データが示す歌詞を鍵ボタン操作により奏でられるメロディに合わせて歌唱した歌唱音を歌唱合成エンジン2に合成させることができる。
The above is the operation of the present embodiment in the lyrics playback mode. In this lyrics playback mode, the user inputs “Doremi Family” by operating the key button of the
e.メロディ再生モード
図5は、このメロディ再生モードにおける歌唱合成制御部1内の情報の流れを示す図である。このメロディ再生モードでの動作は、RAM150内のメロディ記憶領域に、曲を構成する音符の音階を指定する音階データの列であるメロディデータが予め記憶されていることが前提となる。このメロディ再生モードにおいて、50音/発音記号変換部131は、50音指定ユーザインタフェース部121からオンタイミング信号、表音文字データおよび操作強度情報が出力される都度、出力された表音文字データを発音記号に変換し、その発音記号を示す発音記号メッセージを合成制御メッセージ組立部134に出力させる。
e. Melody Reproduction Mode FIG. 5 is a diagram showing the flow of information in the singing
一方、演奏制御情報生成部132は、50音指定ユーザインタフェース部121からオンタイミング信号、表音文字データおよび操作強度情報が出力されたとき、これに応じて50音/発音記号変換部131が上記発音記号メッセージを合成制御メッセージ組立部134に出力させるのを待って、RAM150のメロディ記憶領域内のメロディデータを構成する各音階データのうち現在の音階読み出し位置にある音階データを1つ読み出す。ここで、初期状態において、音階読み出し位置は、メロディ記憶領域内のメロディデータを構成する各音階データにおける最初の音階データの位置となっている。そして、演奏制御情報生成部132は、メロディ記憶領域から読み出した音階データと50音指定ユーザインタフェース部121から出力された操作強度情報を合成制御メッセージ組立部134に送って発音指示メッセージの組み立ておよびその出力を行わせる。この発音指示メッセージの出力を行わせると、演奏制御情報生成部132は、音階読み出し位置を1だけ進める。
On the other hand, when the on-timing signal, phonogram data, and operation intensity information are output from the 50-sound designation
そして、演奏制御情報生成部132は、50音指定ユーザインタフェース部121からオフタイミング信号が出力されたとき、直前に合成制御メッセージ組立部134に組み立てさせた発音指示メッセージに対応した消音指示メッセージを合成制御メッセージ組立部134に組み立てさせ、その出力を行わせる。
以上がメロディ再生モードでの基本的な動作である。
When the off-timing signal is output from the 50-sound designation
The above is the basic operation in the melody playback mode.
次にメロディ再生モードの具体的な動作例を説明する。図6(a)および(b)、図7〜図10は、メロディ再生モードにおける歌唱合成制御部1の動作例を各々示すタイムチャートである。図6(a)および(b)、図7〜図10において横軸は時間軸である。そして、これらの図には、50音ボタン部101、50音補助ボタン部102または音階読み出し位置制御ボタン部104の各ボタンの押圧操作の様子が時系列的に示されている。例えば図6(a)において、「か」ボタンの押圧操作を示す波形において、Lレベルとなっている区間は、「か」ボタンが押圧されてONとなっている区間を示している。他のボタン操作を示す波形も同様である。また、例えば図6(a)において、「か」ボタンの操作を示す波形においてLレベルとなっている区間(「か」ボタンがONになっている区間)には、「か(ド)」なる表記がある。この表記は、この区間のボタン操作により、「か」の発音記号に対応し、かつ、「ド」の音階を持った音声が発音されることを示している。他の「え(レ)」、「る(ミ)」等の表記も同様である。また、これらの図には、ボタン操作に応じて発生される発音記号メッセージ、発音指示メッセージおよび消音指示メッセージの発生タイミングが時系列的に示されている。さらにこれらの図には、発音指示メッセージの発生または制御ボタン部104の操作に応じて切り換わる音階読み出し位置が時系列的に示されている。
Next, a specific operation example of the melody playback mode will be described. FIGS. 6A and 6B and FIGS. 7 to 10 are time charts each showing an operation example of the singing
図6(a)および(b)に示す動作例では、メロディ記憶領域に「ドレミファミレド…」という「かえるの歌」のメロディを示すメロディデータが予め記憶されている。そして、この動作例では、50音ボタン部101および50音補助ボタン部102の操作により「かえるの歌」の歌詞である「かえるのうたが…」という表音文字の列が入力される。
In the operation example shown in FIGS. 6A and 6B, melody data indicating a melody of “Frog's Song” “Doremi Family ...” is stored in advance in the melody storage area. In this operation example, a string of phonograms “Kaeda no Utaga”, which is the lyrics of “Kaeru no Uta”, is input by operating the 50
まず、「か」ボタンが押され、50音指定ユーザインタフェース部121からオンタイミング信号、「か」を示す表音文字データおよび操作強度情報が出力されると、50音/発音記号変換部131は、「か」を示す表音文字データを発音記号に変換し、この「か」の発音記号を示す発音記号メッセージの組み立ておよびその出力を合成制御メッセージ組立部134に行わせる。
First, when the “ka” button is pressed and an on-timing signal, phonogram data indicating “ka”, and operation intensity information are output from the 50-sound designating
演奏制御情報生成部132は、この発音記号メッセージの組み立ておよびその出力が行われるのを待って、メロディ記憶領域内のメロディデータを構成する各音階データのうち現在の音階読み出し位置にある音階データを読み出し、この音階データと、「か」を示す表音文字データとともに50音指定ユーザインタフェース部121から出力された操作強度情報とを含む発音指示メッセージの組み立ておよびその出力を合成制御メッセージ組立部134に行わせる。ここで、初期状態において、音階読み出し位置は、「かえるの歌」のメロディデータの最初の音階データの位置となっている。従って、「ド」の音階データがメロディ記憶領域から読み出され、発音指示メッセージの組み立てに用いられる。
The performance control
このようにして発音指示メッセージの出力が行われると、演奏制御情報生成部132は、音階読み出し位置を1だけ進める。これにより音階読み出し位置は、メロディデータにおける2番目の音階データである「レ」の音階データの位置となる。
When the sound generation instruction message is output in this way, the performance control
次にユーザが「か」ボタンから指を離し、50音指定ユーザインタフェース部121からオフタイミング信号が出力されると、演奏制御情報生成部132は、直前に合成制御メッセージ組立部134に組み立てさせた発音指示メッセージに対応した消音指示メッセージ、すなわち、「ド」の音階データを含む消音指示メッセージを合成制御メッセージ組立部134に組み立てさせ、その出力を行わせる。従って、歌唱合成エンジン2では、「ド」の音階を有し、「か」ボタンの押圧期間に亙って継続する「か」の音声が合成される。
Next, when the user lifts his finger from the “ka” button and an off timing signal is output from the 50-sound designation
次に「え」ボタンが押され、50音指定ユーザインタフェース部121からオンタイミング信号、「え」を示す表音文字データおよび操作強度情報が出力されると、50音/発音記号変換部131は、「え」の発音記号を示す発音記号メッセージの組み立ておよびその出力を合成制御メッセージ組立部134に行わせる。また、演奏制御情報生成部132は、メロディ記憶領域内のメロディデータを構成する各音階データのうち現在の音階読み出し位置にある「レ」の音階データを読み出し、この「レ」の音階データと、「え」を示す表音文字データとともに50音指定ユーザインタフェース部121から出力された操作強度情報とを含む発音指示メッセージの組み立ておよびその出力を合成制御メッセージ組立部134に行わせる。そして、演奏制御情報生成部132は、音階読み出し位置を1だけ進める。次にユーザが「え」ボタンから指を離し、50音指定ユーザインタフェース部121からオフタイミング信号が出力されると、演奏制御情報生成部132は、直前に合成制御メッセージ組立部134に組み立てさせた発音指示メッセージに対応した消音指示メッセージ、すなわち、「レ」の音階データを含む消音指示メッセージを合成制御メッセージ組立部134に組み立てさせ、その出力を行わせる。以下、「る」ボタン、「の」ボタン、「う」ボタン、「た」ボタンが押されたときも同様の動作が行われる。
Next, when the “e” button is pressed and the on-timing signal, the phonetic character data indicating “e”, and the operation intensity information are output from the 50-sound designation
そして、ユーザが「゛」ボタンを押した状態で「か」ボタンを押すと、「か」ボタンの押圧操作により入力表音文字「が」が確定する。このため、「か」ボタンの押圧開始タイミングにおいて、50音指定ユーザインタフェース部121からオンタイミング信号、「が」を示す表音文字データおよび「か」ボタンについての操作強度情報が出力される。これに応じて、50音/発音記号変換部131は、「が」の発音記号を示す発音記号メッセージの組み立ておよびその出力を合成制御メッセージ組立部134に行わせる。また、演奏制御情報生成部132は、メロディ記憶領域内のメロディデータを構成する各音階データのうち現在の音階読み出し位置にある「ド」の音階データを読み出し、この「ド」の音階データと、「が」を示す表音文字データとともに50音指定ユーザインタフェース部121から出力された操作強度情報とを含む発音指示メッセージの組み立ておよびその出力を合成制御メッセージ組立部134に行わせる。そして、演奏制御情報生成部132は、音階読み出し位置を1だけ進める。
Then, when the user presses the “ka” button while pressing the “ボ タ ン” button, the input phonetic character “ga” is fixed by the pressing operation of the “ka” button. For this reason, at the pressing start timing of the “ka” button, the on-timing signal, the phonetic character data indicating “ga”, and the operation intensity information about the “ka” button are output from the 50-sound designation
上記発音指示メッセージが与えられることにより、歌唱合成エンジン2は、「ド」の音階を有する「が」の音声の合成を開始する。この音声「が」の伸ばし音部分である「あ」の持続時間を長くしたい場合、ユーザは「か」ボタンを押し続ければよい。ユーザが「か」ボタンから指を離すと、演奏制御情報生成部132は、「ド」の音階データを含む消音指示メッセージを合成制御メッセージ組立部134に出力させる。これにより歌唱合成エンジン2は、「ド」の音階での合成を行っていた「が」の伸ばし音部分「あ」を消音させる。
When the pronunciation instruction message is given, the singing
図7〜図10に示す各動作例は、メロディ再生モードにおいて替え歌の歌唱音声を合成させる動作例である。これらの動作例においても、メロディ記憶領域には「ドレミファミレド…」という「かえるの歌」のメロディを示すメロディデータが予め記憶されている。 Each of the operation examples shown in FIGS. 7 to 10 is an operation example for synthesizing a singing voice of a percussion song in the melody reproduction mode. Also in these operation examples, melody data indicating the melody of “Frog song” “Doremi Family R ...” is stored in advance in the melody storage area.
図7に示す動作例では、「かえるの歌」のメロディのうち4個の音符からなる部分「ドレミファ」に対する歌詞として、3文字の歌詞「ぶたの」が入力されている。この歌詞がメロディに対して「字足りず」である状況に対応するため、図7に示す動作例において、ユーザは、音階読み出し位置制御ボタン部104の「とばす」ボタンの操作を行っている。 In the operation example shown in FIG. 7, the three-character lyrics “Butano” is input as the lyrics for the part “Doremifa” consisting of four notes of the melody of “Kaeru no Uta”. In order to correspond to the situation where the lyrics are “not enough characters” for the melody, in the operation example shown in FIG. 7, the user operates the “jump” button of the scale reading position control button unit 104.
さらに詳述すると、図7に示す動作例において、ユーザは、「゛」ボタンを押し、「゛」ボタンがONである期間内に「ふ」ボタンを押している。この場合、50音指定ユーザインタフェース部121は、「ふ」ボタンの押圧開始タイミングにおいて、オンタイミング信号、「ぶ」を示す表音文字データおよび「ふ」ボタンの押圧力に応じた操作強度情報を出力する。これにより50音/発音記号変換部131は、「ぶ」の発音記号を示す発音記号メッセージを合成制御メッセージ組立部134に出力させる。また、演奏制御情報生成部132は、メロディ記憶領域内のメロディデータにおける現在の音階読み出し位置にある「ド」の音階データを読み出し、この「ド」の音階データと、「ぶ」を示す表音文字データとともに50音指定ユーザインタフェース部121から出力された操作強度情報とを含む発音指示メッセージを合成制御メッセージ組立部134に出力させる。そして、演奏制御情報生成部132は、音階読み出し位置を1だけ進める。これにより音階読み出し位置は、メロディ記憶領域内のメロディデータの2番目の音階データ、すなわち、「レ」の音階データの位置となる。
More specifically, in the operation example shown in FIG. 7, the user presses the “゛” button and presses the “F” button during the period when the “「 ”button is ON. In this case, the 50-sound designating
次にユーザは、「ふ」ボタンから指を離す。これにより50音指定ユーザインタフェース部121からオフタイミング信号が出力され、演奏制御情報生成部132は、直前に出力させた発音指示メッセージに対応した消音指示メッセージを合成制御メッセージ組立部134に出力させ、歌唱合成エンジン2における「ド」の音階での「ぶ」の音声の合成を終了させる。
Next, the user releases his / her finger from the “F” button. As a result, an off timing signal is output from the 50 sound designation
そして、ユーザは、このようにして「ふ」ボタンから指を離して「ぶ」の音声の合成を終了させた後、「とばす」ボタンを押す。この結果、50音指定ユーザインタフェース部121から「とばす」ボタンを示すボタン名情報、「とばす」ボタンの押圧開始を示すオンタイミング信号、「とばす」ボタンの押圧力に応じた操作強度情報が出力される。この場合、演奏制御情報生成部132は、50音指定ユーザインタフェース部121から「とばす」ボタンを示すボタン名情報が出力されるのに応じて、音階読み出し位置を1だけ進める。これにより音階読み出し位置は、メロディデータにおいて2番目の「レ」の音階データの位置から3番目の「ミ」の音階データの位置へと変更される。
Then, after the user releases the finger from the “fu” button to finish synthesizing the voice of “bu” in this way, the user presses the “skip” button. As a result, the button name information indicating the “jump” button, the on-timing signal indicating the start of pressing the “jump” button, and the operation intensity information corresponding to the pressing force of the “jump” button are output from the 50 sound designation
次にユーザは、「た」ボタンを押す。この結果、50音指定ユーザインタフェース部121からオンタイミング信号、「た」を示す表音文字データおよび操作強度情報が出力される。これにより50音/発音記号変換部131は、「た」の発音記号を示す発音記号メッセージを合成制御メッセージ組立部134に出力させる。また、演奏制御情報生成部132は、メロディ記憶領域内のメロディデータにおける現在の音階読み出し位置にある「ミ」の音階データを読み出し、この「ミ」の音階データと、「た」を示す表音文字データとともに50音指定ユーザインタフェース部121から出力された操作強度情報とを含む発音指示メッセージを合成制御メッセージ組立部134に出力させる。そして、演奏制御情報生成部132は、音階読み出し位置を1だけ進める。これにより音階読み出し位置は、メロディ記憶領域内のメロディデータの4番目の音階データ、すなわち、「ファ」の音階データの位置となる。
Next, the user presses the “ta” button. As a result, the on-timing signal, phonogram data indicating “ta”, and operation intensity information are output from the 50-sound designation
このように図7に示す動作例では、歌唱合成エンジン2による「ぶ」の音声の合成が終了した後、「とばす」ボタンが押されることにより、音階読み出し位置が2番目の「レ」の音階データの位置から3番目の「ミ」の音階データの位置に変更され、「ぶ」の次の表音文字「た」が指示されたときには、3番目の「ミ」の音階データが読み出され、「ミ」の音階の「た」の音声が歌唱合成エンジン2により合成される。
As described above, in the operation example shown in FIG. 7, after the synthesis of the “bu” voice by the singing
図8に示す動作例においても、歌詞がメロディに対して「字足りず」である状況に対応するため、ユーザは音階読み出し位置制御ボタン部104の「とばす」ボタンの操作を行っている。この図8に示す動作例の図7に示す動作例との相違点は、「とばす」ボタンを押圧するタイミングにある。図7に示す動作例では、ユーザは、「ふ」ボタンから指を離し、歌唱合成エンジン2による「ぶ」の音声の合成を終了させた後、「とばす」ボタンを押した。これに対し、図8に示す動作例において、ユーザは、「ふ」ボタンを指で押し、歌唱合成エンジン2に「ぶ」の音声の合成を行わせている期間内に「とばす」ボタンを押している。従って、歌唱合成エンジン2に「ぶ」の音声の合成を行わせている期間内に、音階読み出し位置がメロディデータにおいて2番目の「レ」の音階データの位置から3番目の「ミ」の音階データの位置へと変更される。
Also in the operation example shown in FIG. 8, the user operates the “jump” button of the scale reading position control button unit 104 in order to deal with the situation where the lyrics are “not enough characters” for the melody. The difference between the operation example shown in FIG. 8 and the operation example shown in FIG. 7 is in the timing of pressing the “skip” button. In the operation example shown in FIG. 7, the user releases his / her finger from the “fu” button, finishes synthesizing the voice of “bu” by the singing
図9に示す動作例では、歌詞がメロディに対して「字足りず」である状況に対応するため、ユーザは音階読み出し位置制御ボタン部104の「すすめる」ボタンの操作を行っている。さらに詳述すると、図9に示す動作例において、ユーザは、「ふ」ボタンを指で押し、歌唱合成エンジン2に「ぶ」の音声の合成を行わせている期間内に「すすめる」ボタンを押している。
In the operation example shown in FIG. 9, the user operates the “recommend” button of the scale reading position control button unit 104 in order to cope with the situation where the lyrics are “not enough characters” for the melody. More specifically, in the operation example shown in FIG. 9, the user presses the “fu” button with a finger and presses the “recommend” button within the period in which the singing
このように歌唱合成エンジン2による「ぶ」の音声の合成が行われている期間内に「すすめる」ボタンが押圧され、「すすめる」ボタンについてのオンタイミング信号、ボタン名信号および操作強度情報が50音指定ユーザインタフェース部121から出力されると、演奏制御情報生成部132は、メロディ記憶領域内のメロディデータにおける現在の音階読み出し位置にある「レ」の音階データを読み出し、この「レ」の音階データと、「すすめる」ボタンを示すボタン名情報とともに50音指定ユーザインタフェース部121から出力された操作強度情報とを含む発音指示メッセージを合成制御メッセージ組立部134に出力させる。次に演奏制御情報生成部132は、直前に合成制御メッセージ組立部134に出力させた発音指示メッセージに対応した消音指示メッセージ、すなわち、「ド」の音階データを含む消音指示メッセージを合成制御メッセージ組立部134に出力させる。そして、ユーザが「ふ」ボタンから指を離し、「ふ」ボタンについてのオフタイミング信号が50音指定ユーザインタフェース部121から出力されると、演奏制御情報生成部132は、直前に合成制御メッセージ組立部134に出力させた発音指示メッセージに対応した消音指示メッセージ、すなわち、「レ」の音階データを含む消音指示メッセージを合成制御メッセージ組立部134に出力させる。「た」ボタンが押された場合の動作は、図7に示す動作例、図8に示す動作例と同様であり、「ミ」の音階を持った「た」の音声が歌唱合成エンジン2により合成される。
Thus, the “recommend” button is pressed during the period in which the “bu” voice synthesis is performed by the singing
この図9に示す動作例では、歌唱合成エンジン2は、ユーザが「ふ」ボタンの押圧を開始したときに、「ぶ」の発音記号を示す発音記号メッセージと、「ド」の音階データを含む発音指示メッセージを受け取り、「ド」の音階での「ぶ」の音声の合成を開始する。そして、ユーザが「すすめる」ボタンの押圧を開始したときに、「レ」の音階データを含む発音指示メッセージと「ド」の音階データを含む消音指示メッセージを受け取る。このとき、歌唱合成エンジン2は、「ぶ」の音声の伸ばし音部分である「う」の音声を合成中であるが、「レ」の音階データを含む発音指示メッセージを受け取ることにより、合成中の「う」の音声の音階を「ド」から「レ」に切り換える。そして、歌唱合成エンジン2は、ユーザが「ふ」ボタンから指を離したときに、「レ」の音階データを含む消音指示メッセージを受け取り、「レ」の音階の「う」の音声の合成を終了する。従って、図9に示す動作例では、メロディ「ドレミ」に対して表音文字「ぶ」および「た」を入力するとともに、表音文字「ぶ」に対応した音声の合成中に「すすめる」ボタンを押すことにより、ぶ(ド)、う(レ)、た(ミ)(括弧内は音声の音階)なる音声が合成されることとなる。
In the operation example shown in FIG. 9, the singing
なお、厳密には、この動作例において歌唱合成エンジン2では、「レ」の発音開始メッセージが与えられてから「ド」の消音指示メッセージが与えられるまでの間、「ド」の音階での音声と「レ」の音階での音声を重複して合成することとなる。そこで、音階「ド」から音階「レ」への遷移をより自然にするために、歌唱合成エンジン2では、先行する発音指示メッセージおよび消音指示メッセージの対が指定する発音継続期間(この例では「ド」の発音継続期間)と、後発の発音指示メッセージおよび消音指示メッセージの対が指定する発音継続期間(この例では「レ」の発音継続期間)とが重複している場合に、後発の対における発音指示メッセージ(この例では「レ」の発音指示メッセージ)が与えられた時点で、先行する対における発音指示メッセージ(この例では「ド」の発音指示メッセージ)により発音を開始した音声の音量をフェードアウトさせるようにしてもよい。
Strictly speaking, in this example of operation, the singing
図10に示す動作例では、「かえるの歌」のメロディのうち4個の音符からなる部分「ドレミファ」に対する歌詞として、5文字の歌詞「しまうまの」が入力されている。この歌詞がメロディに対して「字余り」である状況に対応するため、図10に示す動作例において、ユーザは、音階読み出し位置制御ボタン部104の「くりかえす」ボタンの操作を行っている。 In the operation example shown in FIG. 10, the five-character lyrics “Sumamano” are input as the lyrics for the part “Doremifa” consisting of four notes in the melody of “Kaeru no Uta”. In order to correspond to the situation where the lyrics are “remaining characters” with respect to the melody, in the operation example shown in FIG. 10, the user operates the “repeat” button of the scale reading position control button unit 104.
さらに詳述すると、図10に示す動作例では、「し」ボタンが押されたとき、「し」の発音記号を示す発音記号メッセージが歌唱合成エンジン2に送られるとともに、メロディデータにおいて最初の「ド」の音階データが読み出され、この「ド」の音階データを含む発音指示メッセージが歌唱合成エンジン2に送られる。そして、音階読み出し位置が「ド」の音階データの位置から「レ」の音階データの位置に進められる。
More specifically, in the operation example shown in FIG. 10, when the “shi” button is pressed, a phonetic symbol message indicating the phonetic symbol of “shi” is sent to the
次に「ま」ボタンが押されたとき、「ま」の発音記号を示す発音記号メッセージが歌唱合成エンジン2に送られるとともに、メロディデータにおいて現在の音階読み出し位置にある「レ」の音階データが読み出され、この「レ」の音階データを含む発音指示メッセージが歌唱合成エンジン2に送られる。そして、音階読み出し位置が「レ」の音階データの位置から「ミ」の音階データの位置に進められる。
Next, when the “MA” button is pressed, a phonetic symbol message indicating the phonetic symbol of “MA” is sent to the singing
そして、図10に示す動作例では、「ま」ボタンがONである期間内に「くりかえす」ボタンが押される。この場合、50音指定ユーザインタフェース部121は、「くりかえす」ボタンの押圧開始タイミングにおいて、「くりかえす」ボタンについてのオンタイミング信号、ボタン名情報および操作強度情報を出力する。
In the operation example shown in FIG. 10, the “repeat” button is pressed during the period in which the “ma” button is ON. In this case, the 50-sound designation
このようにして「くりかえす」ボタンについてのボタン名情報が出力されると、演奏制御情報生成部132により、音階読み出し位置が「ミ」の音階データの位置から「レ」の音階データの位置に1だけ戻される。
When the button name information about the “repeat” button is output in this way, the performance control
そして、「ま」ボタンの後、「う」ボタンが押されると、「う」の発音記号を示す発音記号メッセージが歌唱合成エンジン2に送られるとともに、メロディデータにおいて現在の音階読み出し位置にある「レ」の音階データが読み出され、この「レ」の音階データを含む発音指示メッセージが歌唱合成エンジン2に送られる。そして、音階読み出し位置が「レ」の音階データの位置から「ミ」の音階データの位置に進められる。
Then, when the “u” button is pressed after the “ma” button, a phonetic symbol message indicating the phonetic symbol of “u” is sent to the singing
次に、「う」ボタンの後、「ま」ボタンが押されると、「ま」の発音記号を示す発音記号メッセージが歌唱合成エンジン2に送られるとともに、メロディデータにおいて現在の音階読み出し位置にある「ミ」の音階データが読み出され、この「ミ」の音階データを含む発音指示メッセージが歌唱合成エンジン2に送られる。そして、音階読み出し位置が「ミ」の音階データの位置から「ファ」の音階データの位置に進められる。
Next, when the “MA” button is pressed after the “U” button, a phonetic symbol message indicating the phonetic symbol of “MA” is sent to the singing
従って、図10に示す動作例では、メロディ「ドレミ」に対して1文字多い表音文字「し」、「ま」、「う」、「ま」を入力するとともに、2番目の表音文字「ま」に対応した音声の合成中に「くりかえす」ボタンを押すことにより、し(ド)、ま(レ)、う(レ)、ま(ミ)(括弧内は音声の音階)なる音声が合成されることとなる。このように「くりかえす」ボタンの押圧操作により1つの音階データを歌詞における連続した2個の表音文字に繰り返し適用することができるので、メロディに対して歌詞が「字余り」である状況に対処することができる。なお、図10に示す動作例では、「レ」の音階データを2番目の表音文字「ま」と3番目の表音文字「う」に繰り返し適用するために、前者の表音文字「ま」の音声の合成中に「くりかえす」ボタンを押下しているが、後者の表音文字「う」の入力が行われる前であれば、前者の表音文字「ま」の音声の合成の終了後に「くりかえす」ボタンを押下してもよい。 Therefore, in the operation example shown in FIG. 10, the phonetic character “shi”, “ma”, “u”, “ma”, which is one character larger than the melody “doremi”, is input and the second phonetic character “ Pressing the “Repeat” button while synthesizing the voice corresponding to “ma” will synthesize the voice of “do”, “ma”, “le”, “ma”, and “ma” (in parentheses the scale of the voice). Will be. As described above, since one scale data can be repeatedly applied to two consecutive phonetic characters in the lyrics by pressing the “repeat” button, the situation where the lyrics are “character remainder” with respect to the melody is dealt with. be able to. In the example of operation shown in FIG. 10, in order to repeatedly apply the scale data of “L” to the second phonetic character “MA” and the third phonetic character “U”, the former phonetic character “MA” is used. ”During the voice synthesis, but before the latter phonetic character“ U ”is input, the voice synthesis of the former phonetic character“ MA ”ends. You may press the “Repeat” button later.
以上説明したように、本実施形態におけるメロディ再生モードによれば、RAM150のメロディ記憶領域に音階データの列であるメロディデータを予め記憶させ、50音ボタン部101および50音補助ボタン部102の操作により表音文字を入力することにより、表音文字の入力に合わせて、音階読み出し位置を進めつつ音階データをメロディ記憶領域から順次読み出し、入力した表音文字に対応し、かつ、メロディ記憶領域から読み出した音階データに対応した音階を持った音声を歌唱合成エンジン2に合成させることができる。
As described above, according to the melody playback mode in the present embodiment, melody data, which is a sequence of scale data, is stored in advance in the melody storage area of the
ところで、操作部の操作に応じて音声を合成させる装置はこれまでにも提供されていた。例えば子供向けの知育発達のための玩具として、50音の表示されたボタンを備え、例えば「あ」のボタンのオンイベントの発生に応じて「あ」の音を合成してスピーカから出力する玩具が提供されている。この種の玩具によれば、ユーザである子供は、ある文字のボタンを見つけて押すことによりその文字の読みを発音させることができるので、読みが発音されるのを楽しみながら文字を憶えることができる。 By the way, an apparatus for synthesizing a voice in response to an operation of an operation unit has been provided so far. For example, as a toy for children's educational development, a toy that has a button with 50 sounds displayed, for example, synthesizes the sound of “A” and outputs it from the speaker in response to the occurrence of an “A” button on-event. Is provided. According to this type of toy, the child who is a user can find a character by reading and pressing the button of a certain character, so that the user can remember the character while enjoying the pronunciation. it can.
しかしながら、この玩具では、ボタン操作により指定された50音が常に一定の音階で発音されるため、50音を連続して入力しても無味乾燥な音声となり、音楽的要素は全くなかった。 However, in this toy, the 50 sounds designated by the button operation are always sounded in a certain scale, so even if 50 sounds are continuously input, the sound becomes dry and there is no musical element.
これに対し、本実施形態のメロディ再生モードによれば、50音ボタン部101および50音補助ボタン部102の操作により表音文字を入力した場合に、予め記憶されたメロディデータに従った音階で各表音文字の発音が行われるので、ユーザである子供は、自分が入力した表音文字が歌唱として合成されるのを聞きながら、歌詞として入力した文字を憶えることができる。
On the other hand, according to the melody reproduction mode of the present embodiment, when a phonetic character is input by operating the 50
また、本実施形態によれば、メロディ記憶領域に記憶されたメロディデータに従って、操作部の操作により順次入力される表音文字に適用する音階データを決定するので、同一曲についての歌詞入力を繰り返し行って同一曲の歌唱音声を合成させることができる。従って、歌詞入力の練習を繰り返し行うことができる。 In addition, according to the present embodiment, scale data to be applied to phonograms sequentially input by operation of the operation unit is determined according to the melody data stored in the melody storage area, so that lyrics input for the same song is repeated. You can go and synthesize the singing voice of the same song. Therefore, the practice of inputting lyrics can be repeated.
また、本実施形態のメロディ再生モードでは、50音ボタン部101のボタン操作により表音文字を入力するときのボタン操作の押圧力(操作強度)により、その表音文字の音声を発音させるときの操作強度情報が決定される。従って、歌詞入力のために行う50音ボタン部101のボタン操作により歌唱音声の音楽的表情付けを行うことができる。
Further, in the melody playback mode of the present embodiment, the sound of the phonetic character is generated by the pressing force (operation intensity) of the button operation when inputting the phonetic character by the button operation of the 50
また、本実施形態のメロディ再生モードによれば、予め記憶されたメロディデータに合わせて発音する歌詞をユーザが自由に入力することができる。従って、歌唱合成エンジン2に替え歌の歌唱合成を行わせることができる。また、歌詞の一部を即興で別の歌詞に変えて歌唱合成を行わせることも可能である。
Further, according to the melody reproduction mode of the present embodiment, the user can freely input the lyrics that are pronounced in accordance with the melody data stored in advance. Therefore, the singing
歌唱合成エンジン2に替え歌の歌唱合成を行わせる場合、メロディ記憶領域に記憶されたメロディデータが示す音符の数に比べて、50音ボタン部101および50音補助ボタン部102の操作により入力する歌詞の表音文字数が不足している「字足りず」状況、過剰である「字余り」状況が発生し得る。本実施形態によれば、「とばす」ボタン、「すすめる」の操作により「字足りず」状況に対処することができ、「くりかえす」ボタンの操作により「字余り」状況に対処することができる。また、「字足りず」状況において、ある音声の発音継続中に「すすめる」ボタンをONにすることにより、メロディ記憶領域から音階データを読み出させ、発音中の音声における伸ばし音部分の音階をその読み出した音階データが示す音階に変化させることができる。従って、「字足りず」状況でも、滑らかで自然な歌唱を実現することができる。なお、「すすめる」ボタンの操作を伴う図9の動作例では、「ぶ」の音声の発音中に「すすめる」ボタンが押されたとき、この「すすめる」ボタンの押圧操作により発生した操作強度情報を「ぶ」の伸ばし音部分「う」の発音指示メッセージに適用したが、入力表音文字「ぶ」を確定させた「ふ」ボタンの押圧操作により発生された操作強度情報、すなわち、「ぶ」の音声の発音指示メッセージに適用した操作強度情報を適用してもよい。
When the singing
<第2実施形態>
図11は、この発明の第2実施形態である歌唱合成制御部の機能構成を示すブロック図である。本実施形態による歌唱合成制御部も上記第1実施形態におけるものと同様なメロディ再生モードを有している。図11にはこのメロディ再生モードに関連する歌唱合成制御部内の各部が示されるとともに、同メロディ再生モードにおける各部間の情報の流れが示されている。
Second Embodiment
FIG. 11: is a block diagram which shows the function structure of the song synthesis control part which is 2nd Embodiment of this invention. The song synthesis control unit according to the present embodiment also has a melody reproduction mode similar to that in the first embodiment. FIG. 11 shows each part in the singing voice synthesis control section related to the melody reproduction mode, and also shows a flow of information between the parts in the melody reproduction mode.
図11に示すように、本実施形態による歌唱合成制御部は、CPU110(図3参照)により実行されるプログラムとして、上記第1実施形態のものと同様な50音指定ユーザインタフェース部121、音階指定ユーザインタフェース部122、制御用ユーザインタフェース部123、50音/発音記号変換部131、演奏制御情報生成部132および合成制御メッセージ組立部134の他、照合部135を有している。この照合部135は、メロディ再生モードにおいて、50音指定ユーザインタフェース部121から出力される表音文字データを予め与えられた正解歌詞データと照合し、表音文字データが正解歌詞通りの正しい表音文字データであるか否か、表音文字データの出力タイミングが適切なものであるか否かを判定するモジュールである。
As shown in FIG. 11, the singing composition control unit according to the present embodiment is a program executed by the CPU 110 (see FIG. 3) as a 50-sound designation
本実施形態では、複数種類の曲について各曲のメロディを示すメロディデータとその曲の正解歌詞を構成する表音文字データの列である正解歌詞データの対がROM140(図3参照)に記憶されている。歌唱合成制御部が設けられた歌唱合成装置の筐体には、曲選択用の操作子が設けられており、ユーザはこの操作子の操作により、所望の曲のメロディデータと正解歌詞データの対をROM140から読み出し、メロディデータをRAM150のメロディ記憶領域に格納し、正解歌詞データをRAM150の正解歌詞記憶領域に格納する。
In the present embodiment, a pair of melody data indicating the melody of each song and correct lyric data constituting a correct lyric of the song is stored in the ROM 140 (see FIG. 3) for a plurality of types of songs. ing. The singing voice synthesizing device provided with the singing voice synthesizing unit is provided with a tune selection operation unit. The user operates the operation unit to set a pair of melody data and correct lyric data of a desired song. Is read from the
メロディ再生モードにおいて、照合部135は、所定時間間隔で正解歌詞領域から正解歌詞の各表音文字を示す表音文字データを1個ずつ読み出す。なお、この表音文字データを読み出す時間間隔は例えば操作子の操作により指定することができるようにしてもよい。あるいは曲毎に定められた表音文字データの読み出し時間間隔を示す周期データを正解歌詞データに含めておき、照合部135がこの正解歌詞データ内の周期データが示す時間間隔で表音文字データを読み出すようにしてもよい。
In the melody playback mode, the
照合部135は、1個の表音文字データを読み出してから所定の許容時間内にその表音文字データと一致する表音文字データが50音指定ユーザインタフェース部121から出力された場合、照合部135はユーザが正しく歌詞入力を行ったと判定する。一方、1個の表音文字データを読み出してから所定の許容時間内に50音指定ユーザインタフェース部121から表音文字データが出力されなかった場合あるいは許容時間内に表音文字データが出力されたがその表音文字データが正解歌詞領域から読み出した表音文字データと一致していない場合、照合部135はユーザが誤った歌詞入力を行ったと判定する。
When the phonetic character data that matches the phonetic character data is output from the 50-sound designating
照合部135は、このようにして得られる判定結果を制御用ユーザインタフェース部123に供給する。本実施形態における歌唱合成装置の筐体には、正しい歌詞入力が行われたことを示すための正解ランプと、誤った歌詞入力が行われたことを示すためのエラーランプが設けられている。制御用ユーザインタフェース部123は、正しい歌詞入力が行われた旨の判定結果を受け取った場合、正解ランプを点灯させ、誤った歌詞入力が行われた旨の判定結果を受け取った場合、エラーランプを点灯させる。
The
また、照合部135は、誤った歌詞入力が行われた旨の判定結果が得られた場合、警告音発生指示を合成制御メッセージ組立部134に送る。この警告音発生指示を受け取った合成制御メッセージ組立部134は、例えばブザー音等の警告音を合成させる合成制御メッセージを組み立て、歌唱合成エンジン2(図3参照)に供給し、警告音を出力させる。
Also, the
なお、ユーザに対して歌詞を構成する表音文字を入力するタイミングを知らせるため、照合部135が1個の表音文字データを正解歌詞領域から読み出したときに、合成制御メッセージ組立部134が例えばメトロノーム音を合成させる発音指示メッセージを組み立て、歌唱合成エンジン2に供給するようにしてもよい。
Note that when the
本実施形態によれば、ユーザは単に歌詞を入力して予め記憶されたメロディデータに対応したメロディでの歌唱合成を行わせるだけでなく、適切なタイミングで適切な表音文字の入力を行ったか否かについての判定結果を受け取ることができる。従って、歌唱合成の興趣性が高まるという効果がある。なお、本実施形態では、全ての種類の入力表音文字について正解歌詞通りの表音文字が入力されたときに正解と判定するようにした。しかし、濁点を有する表音文字「ぶ」を入力するのには、「゛」ボタンと「ふ」ボタンの操作が必要であり、半濁点を含む表音文字「ぱ」を入力するのには、「゜」ボタンと「は」ボタンの操作が必要であり、小さい平仮名を後半部分に含む表音文字「てぃ」を入力するのには、「小」ボタンと「い」ボタンと「て」ボタンの操作を必要とする。このように入力表音文字の種類によっては適切なタイミングで完全なボタン操作を要求することが酷な場合もある。そこで、例えばこのように入力に当たって複数のボタン操作が必要な入力表音文字については、最後のボタン操作(上記の例では「ふ」、「は」、「て」のボタン操作)が正しく行われたことを以て、正しい歌詞入力が行われたと判定し、正解歌詞に対応した歌唱合成を行わせるようにしてもよい。すなわち、例えば正解歌詞の表音文字が「ば」である場合には、「は」が入力されれば正解として扱い、「ば」の発音記号を用いた歌唱音声を合成させるのである。また、本実施形態では、表音文字の入力タイミングが適切であり、かつ、入力表音文字が適切であるか否かの判定を行うようにしたが、表音文字の入力タイミングは判定対象とせず、入力表音文字が適切か否かのみの判定を行うようにしてもよい。 According to the present embodiment, the user has not only input lyrics but synthesizes a song with a melody corresponding to melody data stored in advance, and has also input an appropriate phonetic character at an appropriate timing. The determination result about whether or not can be received. Therefore, there is an effect that the interest of singing synthesis is enhanced. In the present embodiment, the correct answer is determined when a phonetic character according to the correct lyrics is input for all types of input phonetic characters. However, in order to input the phonetic character “bu” having a cloud point, it is necessary to operate the “” and “fu” buttons. , “°” and “ha” buttons are required. To enter the phonetic character “Tii” that contains a small hiragana in the latter half, enter the “small” button, “i” button, and “te”. ”Button operation is required. In this way, depending on the type of input phonetic character, it may be harsh to request a complete button operation at an appropriate timing. Therefore, for example, for input phonograms that require multiple button operations for input, the last button operation (in the above example, “F”, “HA”, “TE” button operations) is performed correctly. Therefore, it may be determined that correct lyrics have been input, and singing synthesis corresponding to correct lyrics may be performed. That is, for example, if the phonetic character of the correct lyrics is “BA”, if “HA” is input, it is treated as a correct answer, and the singing voice using the phonetic symbol “BA” is synthesized. In this embodiment, it is determined whether or not the input timing of the phonetic character is appropriate and whether or not the input phonetic character is appropriate. Instead, it may be determined only whether or not the input phonetic character is appropriate.
<他の実施形態>
以上、この発明の第1および第2実施形態について説明したが、これ以外にも、この発明には他の実施形態が考えられる。例えば次の通りである。
<Other embodiments>
Although the first and second embodiments of the present invention have been described above, other embodiments can be considered in addition to this. For example:
(1)上記第1実施形態において、「いぬのおまわりさん」、「チューリップ」等の各種の曲についてのメロディデータをROM140に予め記憶させるとともに、曲を選択する操作子を歌唱合成装置1000の筐体に設け、この操作子の操作により選択された曲のメロディデータをROM140から読み出してRAM150のメロディ記憶領域に格納するようにしてもよい。
(1) In the first embodiment, melody data for various songs such as “Inu no Omarisan” and “Tulip” is stored in the
(2)上記第1実施形態の図9に示す動作例において、「すすめる」ボタンを押したときに発音継続中の音声「ぶ」の音階は「ド」であり、「すすめる」ボタンの押圧操作により音声「ぶ」の伸ばし音部分「う」に適用される音階は「レ」であり、両者の音高差は小さい。このため、「すすめる」ボタンの押圧操作時、「レ」の音階データを含む発音指示メッセージを歌唱合成エンジン2に送ったとしても滑らかな歌唱となる。
(2) In the operation example shown in FIG. 9 of the first embodiment, the scale of the sound “Bu” that is continuously sounding when the “recommend” button is pressed is “do”, and the “recommend” button is pressed. Therefore, the scale applied to the extended sound portion “U” of the voice “BU” is “R”, and the pitch difference between the two is small. For this reason, even when the pronunciation instruction message including the scale data of “L” is sent to the singing
しかしながら、「すすめる」ボタンの押圧操作によりメロディ記憶領域から読み出される音階データと、先行してメロディ記憶領域から読み出された音階データとの音高差が大きくなる場合もあり得る。そこで、そのような場合が起こることに配慮し、次のような構成にしてもよい。 However, the pitch difference between the scale data read from the melody storage area and the scale data previously read from the melody storage area by pressing the “recommend” button may increase. In view of this situation, the following configuration may be adopted.
まず、メロディ再生モードでは、メロディ領域から音階データを読み出した場合に、その音階データを読み出し済み音階データバッファに保存する。そして、演奏制御情報生成部132は、「すすめる」ボタンの押圧操作に応じて音階データをメロディ記憶領域から読み出したとき、この読み出した音階データと読み出し済み音階データバッファ内の先行する音階データとの音高差を求める。そして、この音高差に基づき、読み出し済み音階データバッファ内の先行する音階データが示す音階から「すすめる」ボタンの押圧操作に応じて読み出した音階データが示す音階まで所定時間を掛けて連続的に音高を変化させるピッチベンドメッセージを合成制御メッセージ組立部134に出力させるのである。この態様によれば、「字足りず」状況において「すすめる」ボタンの操作を伴う歌詞入力により合成される歌唱をより滑らかなものにすることができる。
First, in the melody playback mode, when scale data is read from the melody area, the scale data is stored in the read scale data buffer. Then, when the performance control
(3)音声素片データベースに各種の歌い手の音声から採取した音声素片の波形データを記憶させ、歌唱合成制御部の操作部の操作により所望の歌い手の音声素片を選択して歌唱合成に用いるようにしてもよい。 (3) The speech segment waveform data collected from the voices of various singers is stored in the speech segment database, and a desired singer's speech segment is selected by operating the operation unit of the singing synthesis control unit for singing synthesis. You may make it use.
(4)上記各実施形態では、歌唱合成制御部1と歌唱合成エンジン2とオーディオインタフェース3とを一体化した歌唱合成装置を構成したが、歌唱合成制御部1を有する歌唱合成制御装置と、歌唱合成エンジン2およびオーディオインタフェース3を有する歌唱合成装置と別々の装置としてもよい。この場合において、前者の歌唱合成制御装置が合成制御メッセージとしてMIDIメッセージを出力し、後者の歌唱合成装置がMIDIインタフェースを介して合成制御メッセージであるMIDIメッセージを受信し、歌唱音を合成するようにしてもよい。また、後者の歌唱合成装置は、パーソナルコンピュータに対して、歌唱合成エンジンであるアプリケーションソフトウェアをインストールしたものであってもよい。
(4) In each of the above embodiments, the singing
(5)上記(4)の態様において、歌唱合成制御装置をインターネット等のネットワークを介して歌唱合成装置に接続するようにしてもよい。ここで、例えば歌唱合成制御装置は孫が所持しており、この孫の祖父母宅には歌唱合成装置が設置されているとする。また、歌唱合成装置の音声素片データベースには予め収音された孫の音声から得られた音声素片データが記憶されているとする。この態様によれば、孫は歌唱合成制御装置をメロディ再生モードとし、歌詞入力を行うことにより歌唱合成のためのMIDIメッセージ(合成制御メッセージ)を生成し、このMIDIメッセージをネットワークを介して祖父母宅の歌唱合成装置に供給することにより、自分の声による歌唱を祖父母に聞かせることができる。 (5) In the above aspect (4), the singing synthesis control device may be connected to the singing synthesis device via a network such as the Internet. Here, for example, it is assumed that the singing synthesis control device is owned by a grandchild, and the singing synthesis device is installed in the grandparent's house. Further, it is assumed that speech segment data obtained from a grandchild's speech that has been collected in advance is stored in the speech segment database of the singing synthesizer. According to this aspect, the grandchild sets the singing composition control device in the melody reproduction mode, generates a MIDI message (synthetic control message) for singing composition by inputting lyrics, and sends the MIDI message to the grandparents' home via the network. By supplying it to the singing synthesizer, the grandparents can hear the singing of their own voice.
(6)上記各実施形態において、歌唱合成制御部のCPU110が実行するプログラムを、タッチパネルによるGUI(グラフィカルユーザインタフェース)を備えたタブレット型コンピュータ等のためのアプリケーションプログラムとして提供してもよい。
(6) In each of the above embodiments, the program executed by the
(7)上記第2実施形態において、ユーザが誤った歌詞入力を行った場合に、正解歌詞データにおける表音文字データの読み出し位置を進めないように照合部135を構成してもよい。あるいは操作子の操作により、ユーザが誤った歌詞入力を行った場合に表音文字データの読み出し位置を進めるか進めないかを指定できる構成にしてもよい。
(7) In the second embodiment, the
(8)歌唱合成制御装置がSMF(Standard MIDI File)形式等の歌詞付きのデータを外部から取り込み、上記第1実施形態におけるメロディデータや歌詞データあるいは上記第2実施形態における正解歌詞データとしてRAM150に格納するようにしてもよい。
(8) The singing composition control apparatus takes in data with lyrics in the SMF (Standard MIDI File) format from the outside, and stores it in the
(9)上記リアルタイム演奏モードでは、鍵ボタン部105による音階入力を行わせた後、50音ボタン部101による表音文字の入力を行わせ、50音ボタン部101による表音文字の入力のタイミングにおいて音声を発音させてもよい。あるいはいずれの方法で発音を行わせるかを操作子の操作により選択できるように構成してもよい。
(9) In the real-time performance mode, after the scale input by the
(10)上記各実施形態において、50音指定ユーザインタフェース部121、音階指定ユーザインタフェース部122、制御用ユーザインタフェース部123、50音/発音記号変換部131、演奏制御情報生成部132、モード制御部133、合成制御メッセージ組立部134、照合部135等の各モジュール間の情報の授受に関しては、各モジュール間で情報の授受を直接行わせてもよく、API(Application Programming Interface)経由で各モジュール間の情報の授受を行わせてもよい。
(10) In each of the above embodiments, the 50 sound designation
1000…歌唱合成装置、1…歌唱合成制御部、2…歌唱合成エンジン、3…オーディオインタフェース、4…スピーカ、100…タッチパネル、101…50音ボタン部、102…50音補助ボタン部、103…モード制御ボタン部、104…音階読み出し位置制御ボタン部、105…鍵ボタン部、106…押圧位置検出部、107…操作強度検出部、108…LED駆動制御部、120…ユーザインタフェース部、121…50音指定ユーザインタフェース部、122…音階指定ユーザインタフェース部、123…制御用ユーザインタフェース部、130…合成エンジン制御部、131…50音/発音記号変換部、132…演奏制御情報生成部、133…モード制御部、134…合成制御メッセージ組立部、135…照合部、140…ROM、150…RAM。
DESCRIPTION OF
Claims (5)
歌詞を構成する各表音文字を示す表音文字データの列である正解歌詞データを記憶する正解歌詞記憶手段と、
表音文字を指示する操作を受け付ける操作手段と、
前記操作手段に対して表音文字を指示する操作が行われ、1文字の入力表音文字が確定する都度、前記メロディ記憶手段から音高データを順次読み出し、前記入力表音文字が示す音声であって、前記メロディ記憶手段から読み出した音高データが示す音高を有する音声を歌唱合成手段に合成させる合成制御手段と、
前記1文字の入力表音文字が確定する都度、前記正解歌詞データにおいて読み出し対象とする表音文字データの位置を進めつつ前記正解歌詞記憶手段から表音文字データを順次読み出し、前記入力表音文字と一致するか否かを判定し、判定結果を出力する照合手段と
を具備することを特徴とする歌唱合成制御装置。 Melody storage means for storing melody data, which is a string of pitch data for designating the pitch of notes,
Correct lyric storage means for storing correct lyric data which is a string of phonogram data indicating each phonogram constituting the lyrics;
An operation means for receiving an operation for instructing a phonetic character;
Each time the operation means is instructed to indicate a phonetic character and one input phonetic character is confirmed, the pitch data is sequentially read from the melody storage means, and the voice indicated by the input phonetic character is used. Synthesis control means for synthesizing the singing voice synthesizing voice having the pitch indicated by the pitch data read from the melody storage means;
Each time the input phonogram of one character is determined, the phonogram data is sequentially read from the correct lyric storage means while advancing the position of the phonogram data to be read in the correct lyric data, and the input phonogram A singing composition control apparatus comprising: a collating unit that determines whether or not the two match, and outputs a determination result.
前記入力表音文字を確定させた前記操作手段の操作の強度を検出する操作強度検出手段とを具備し、
前記合成制御手段は、前記入力表音文字が示す音声の発音記号を含む合成制御メッセージを前記送信手段に送信させるとともに、前記メロディ記憶手段から読み出した音高データが示す音高および前記操作強度検出手段により検出された前記操作手段の操作の強度に対応した強度での発音を指示する合成制御メッセージを前記送信手段に送信させることを特徴とする請求項1に記載の歌唱合成制御装置。 Transmitting means for transmitting a synthesis control message for instructing control of song synthesis to the song synthesis means;
An operation intensity detecting means for detecting an operation intensity of the operation means that has confirmed the input phonetic character;
The synthesis control unit causes the transmission unit to transmit a synthesis control message including a phonetic symbol indicated by the input phonogram, and detects the pitch and the operation intensity detected by the pitch data read from the melody storage unit. 2. The singing composition control apparatus according to claim 1, wherein a composition control message for instructing sound generation at an intensity corresponding to the operation intensity of the operation means detected by the means is transmitted to the transmission means.
前記歌唱合成制御装置による制御の下で歌唱音声を合成する歌唱合成手段と
を具備することを特徴とする歌唱合成装置。 A singing synthesis control device according to any one of claims 1 to 3,
A singing voice synthesizing device comprising: singing voice synthesizing means for synthesizing a singing voice under the control of the singing voice synthesis control device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015155080A JP5979293B2 (en) | 2015-08-05 | 2015-08-05 | Singing synthesis control device and singing synthesis device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015155080A JP5979293B2 (en) | 2015-08-05 | 2015-08-05 | Singing synthesis control device and singing synthesis device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010230070A Division JP2012083569A (en) | 2010-10-12 | 2010-10-12 | Singing synthesis control unit and singing synthesizer |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015194779A JP2015194779A (en) | 2015-11-05 |
JP5979293B2 true JP5979293B2 (en) | 2016-08-24 |
Family
ID=54433767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015155080A Expired - Fee Related JP5979293B2 (en) | 2015-08-05 | 2015-08-05 | Singing synthesis control device and singing synthesis device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5979293B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110415677B (en) * | 2018-04-26 | 2023-07-14 | 腾讯科技(深圳)有限公司 | Audio generation method and device and storage medium |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS598838B2 (en) * | 1978-12-07 | 1984-02-27 | ヤマハ株式会社 | An electronic musical instrument that generates human voice sounds |
JPS6175398A (en) * | 1984-09-21 | 1986-04-17 | 日本ビクター株式会社 | Singing sound generator |
JPH0812560B2 (en) * | 1984-09-29 | 1996-02-07 | 日本ビクター株式会社 | Singing voice synthesis performance device |
JPS6183600A (en) * | 1984-09-29 | 1986-04-28 | 日本ビクター株式会社 | Singing voice synthesizer/performer |
JPS6296986A (en) * | 1985-10-24 | 1987-05-06 | カシオ計算機株式会社 | Musical performer by poem input |
JPH04331990A (en) * | 1991-05-07 | 1992-11-19 | Casio Comput Co Ltd | Voice electronic musical instrument |
JP2581352Y2 (en) * | 1991-11-07 | 1998-09-21 | 株式会社ファンタジア | Typing practice equipment |
JPH06324677A (en) * | 1993-05-13 | 1994-11-25 | Kawai Musical Instr Mfg Co Ltd | Text input device of electronic musical instrument |
JPH09265299A (en) * | 1996-03-28 | 1997-10-07 | Secom Co Ltd | Text reading device |
JPH1195798A (en) * | 1997-09-19 | 1999-04-09 | Dainippon Printing Co Ltd | Method and device for voice synthesis |
JP3687375B2 (en) * | 1998-11-26 | 2005-08-24 | カシオ計算機株式会社 | Voice assignment apparatus, voice assignment method, and recording medium recording voice assignment processing program |
JP2002268534A (en) * | 2001-03-07 | 2002-09-20 | Axiswave:Kk | Typing practicing method and system |
JP4500695B2 (en) * | 2005-02-01 | 2010-07-14 | 株式会社エクシング | Mobile phone game program and distribution system |
JP2007148166A (en) * | 2005-11-29 | 2007-06-14 | Yamaha Corp | Electronic musical instrument and input device |
JP4395493B2 (en) * | 2006-06-26 | 2010-01-06 | 株式会社タイトー | Karaoke equipment |
-
2015
- 2015-08-05 JP JP2015155080A patent/JP5979293B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015194779A (en) | 2015-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7605322B2 (en) | Apparatus for automatically starting add-on progression to run with inputted music, and computer program therefor | |
CN108630177B (en) | Electronic musical instrument, control method for electronic musical instrument, and recording medium | |
JP4752425B2 (en) | Ensemble system | |
Kirk et al. | Digital sound processing for music and multimedia | |
JP2012083569A (en) | Singing synthesis control unit and singing synthesizer | |
JP5988540B2 (en) | Singing synthesis control device and singing synthesis device | |
JP4650182B2 (en) | Automatic accompaniment apparatus and program | |
JP4692189B2 (en) | Ensemble system | |
Winkler | The realtime-score. A missing-link in computer-music performance | |
JP5979293B2 (en) | Singing synthesis control device and singing synthesis device | |
JP5228315B2 (en) | Program for realizing automatic accompaniment generation apparatus and automatic accompaniment generation method | |
JPH1124676A (en) | Karaoke (sing-along music) device | |
JPH09218688A (en) | Karaoke machine | |
Weinberg | Interconnected musical networks: bringing expression and thoughtfulness to collaborative group playing | |
JP2007086571A (en) | Music information display device and program | |
JP4618704B2 (en) | Code practice device | |
JP4534926B2 (en) | Image display apparatus and program | |
KR20000053735A (en) | web piano system and using method there of | |
JP6790362B2 (en) | Electronic acoustic device | |
JP6425560B2 (en) | Karaoke device with repetitive playback function | |
WO2023153033A1 (en) | Information processing method, program, and information processing device | |
Manwaring | Loop pedals: singing, layering and creating | |
JP4161714B2 (en) | Karaoke equipment | |
JP2006189515A (en) | Electronic keyboard instrument | |
Puckette et al. | Between the Tracks: Musicians on Selected Electronic Music |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150807 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160610 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160628 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160711 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5979293 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |