JP5979293B2 - Singing synthesis control device and singing synthesis device - Google Patents

Singing synthesis control device and singing synthesis device Download PDF

Info

Publication number
JP5979293B2
JP5979293B2 JP2015155080A JP2015155080A JP5979293B2 JP 5979293 B2 JP5979293 B2 JP 5979293B2 JP 2015155080 A JP2015155080 A JP 2015155080A JP 2015155080 A JP2015155080 A JP 2015155080A JP 5979293 B2 JP5979293 B2 JP 5979293B2
Authority
JP
Japan
Prior art keywords
unit
button
data
synthesis
melody
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015155080A
Other languages
Japanese (ja)
Other versions
JP2015194779A (en
Inventor
廣井 真
真 廣井
平出 誠治
誠治 平出
隼也 村上
隼也 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015155080A priority Critical patent/JP5979293B2/en
Publication of JP2015194779A publication Critical patent/JP2015194779A/en
Application granted granted Critical
Publication of JP5979293B2 publication Critical patent/JP5979293B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

この発明は、ユーザによる操作部の操作に従って歌唱合成装置の制御を行う歌唱合成制御装置およびこの歌唱合成制御装置を備えた歌唱合成装置に関する。   The present invention relates to a song synthesis control device that controls a song synthesis device in accordance with an operation of an operation unit by a user, and a song synthesis device including the song synthesis control device.

歌唱合成装置として、メロディデータとこのメロディデータが示すメロディに合わせて歌唱する歌詞を示す歌詞データとをGUI(グラフィカルユーザインタフェース)等を介して入力させて記憶し、この記憶したメロディデータと歌詞データを並列に再生することにより歌唱合成を行う構成のものがある。そして、最近では、歌詞データを予め記憶しておき、ユーザが鍵盤操作等により発生するメロディデータを受け取りつつ歌詞データを順次読み出し、歌唱合成を行う構成のものが提供されている(例えば特許文献1参照)。   As a singing synthesizer, melody data and lyric data indicating lyrics to be sung in accordance with the melody indicated by the melody data are input and stored via a GUI (graphical user interface) or the like, and the stored melody data and lyric data are stored. There is a configuration in which singing synthesis is performed by reproducing the songs in parallel. Recently, there has been provided a configuration in which lyrics data is stored in advance, the user sequentially reads out the lyrics data while receiving melody data generated by a keyboard operation or the like, and performs singing synthesis (for example, Patent Document 1). reference).

特開2008−170592号公報JP 2008-170592 A

ところで、上述した従来の歌唱合成装置は、予め歌詞データを記憶させた状態で、その歌詞データを読み出して歌唱合成に用いる必要があり、歌唱合成に用いる歌詞を変更するのに不便であり、また、歌唱合成中に即興的に歌詞を変更するといったこともできないという問題があった。   By the way, the conventional singing voice synthesizing apparatus described above needs to read out the lyric data and use it for singing synthesis in a state where the lyric data is stored in advance, and is inconvenient to change the lyrics used for singing synthesis. There was a problem that the lyrics could not be changed improvised during the singing synthesis.

本発明は以上説明した事情に鑑みてなされたものであり、歌唱合成に用いる歌詞の変更を容易にする技術的手段を提供することを目的としている。   The present invention has been made in view of the above-described circumstances, and an object thereof is to provide technical means for facilitating change of lyrics used for singing synthesis.

この発明は、音符の音高を指定する音高データの列であるメロディデータを記憶するメロディ記憶手段と、歌詞を構成する各表音文字を示す表音文字データの列である正解歌詞データを記憶する正解歌詞記憶手段と、表音文字を指示する操作を受け付ける操作手段と、前記操作手段に対して表音文字を指示する操作が行われ、1文字の入力表音文字が確定する都度、前記メロディ記憶手段から音高データを順次読み出し、前記入力表音文字が示す音声であって、前記メロディ記憶手段から読み出した音高データが示す音高を有する音声を歌唱合成手段に合成させる合成制御手段と、前記1文字の入力表音文字が確定する都度、前記正解歌詞データにおいて読み出し対象とする表音文字データの位置を進めつつ前記正解歌詞記憶手段から表音文字データを順次読み出し、前記入力表音文字と一致するか否かを判定し、判定結果を出力する照合手段とを具備することを特徴とする歌唱合成制御装置を提供する。   The present invention provides melody storage means for storing melody data, which is a string of pitch data for designating the pitch of notes, and correct lyric data, which is a string of phonogram data indicating each phonogram constituting the lyrics. Each time the correct lyric storage means for storing, the operation means for accepting an operation for instructing a phonogram, the operation for instructing the phonogram to the operation means is performed, and one input phonogram is determined, Synthetic control for sequentially reading pitch data from the melody storage means and synthesizing the voice having the pitch indicated by the input phonogram and having the pitch indicated by the pitch data read from the melody storage means to the singing voice synthesis means And the phonetic text from the correct lyrics storage means while advancing the position of the phonetic character data to be read in the correct lyrics data each time the one input phonogram is determined. Sequentially reading out the data, to determine whether coincident with said input phonetic characters, provide singing synthesis control apparatus characterized by comprising a verification means for outputting a determination result.

かかる発明によれば、歌詞を構成する表音文字を指定する操作に応じて、メロディデータが示すメロディに沿った歌唱音声を合成することができるので、歌唱合成に用いる歌詞の変更を容易に行うことができる。また、この発明によれば、正解歌詞データ通りの表音文字の入力が行われたか否かの判定を行うことができる。   According to this invention, since the singing voice along the melody indicated by the melody data can be synthesized according to the operation of designating the phonetic characters constituting the lyrics, the lyrics used for the singing synthesis can be easily changed. be able to. Moreover, according to this invention, it can be determined whether the phonetic character according to correct lyric data was input.

この発明による歌唱合成制御装置の第1実施形態である歌唱合成制御部を備えた歌唱合成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the song synthesis apparatus provided with the song synthesis control part which is 1st Embodiment of the song synthesis control apparatus by this invention. 同実施形態における歌唱合成装置の外観を示す平面図である。It is a top view which shows the external appearance of the song synthesizing | combining apparatus in the embodiment. 同歌唱合成装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the song synthesizing | combining apparatus. 同歌唱合成制御部の状態遷移を示す図である。It is a figure which shows the state transition of the song synthesis | combination control part. メロディ再生モードにおける同歌唱合成制御部内の情報の流れを示す図である。It is a figure which shows the flow of the information in the song synthesis | combination control part in a melody reproduction | regeneration mode. メロディ再生モードにおける第1の動作例を示すタイムチャートである。It is a time chart which shows the 1st operation example in melody reproduction mode. メロディ再生モードにおける第2の動作例を示すタイムチャートである。It is a time chart which shows the 2nd operation example in melody reproduction | regeneration mode. メロディ再生モードにおける第3の動作例を示すタイムチャートである。It is a time chart which shows the 3rd operation example in melody reproduction mode. メロディ再生モードにおける第4の動作例を示すタイムチャートである。It is a time chart which shows the 4th operation example in melody reproduction mode. メロディ再生モードにおける第5の動作例を示すタイムチャートである。It is a time chart which shows the 5th operation example in melody reproduction mode. この発明の第2実施形態における歌唱合成制御部のメロディ再生モードにおける情報の流れを示す図である。It is a figure which shows the flow of the information in the melody reproduction | regeneration mode of the singing composition control part in 2nd Embodiment of this invention.

以下、図面を参照し、この発明の実施形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

<第1実施形態>
図1は、この発明の第1実施形態である歌唱合成制御部1を備えた歌唱合成装置1000の構成を示すブロック図である。この歌唱合成装置1000は、図1に示すように、本実施形態による歌唱合成制御部1と、歌唱合成エンジン2と、オーディオインタフェース3とを有する。
<First Embodiment>
FIG. 1 is a block diagram showing a configuration of a singing voice synthesizing apparatus 1000 including a singing voice synthesis control unit 1 according to the first embodiment of the present invention. As shown in FIG. 1, the singing voice synthesizing apparatus 1000 includes a singing voice synthesis control unit 1, a singing voice synthesis engine 2, and an audio interface 3 according to the present embodiment.

歌唱合成制御部1は、操作部を含んでおり、この操作部に対してユーザによって行われる操作に応じて歌唱合成の制御を指令する合成制御メッセージを生成して出力する装置である。歌唱合成エンジン2は、歌唱合成制御部1からの合成制御メッセージに従って歌唱音声波形のサンプルデータである歌唱音声データを合成して出力する。オーディオインタフェース3は、歌唱合成エンジン2から出力される歌唱音声データに従ってスピーカ4を駆動し、スピーカ4から歌唱音声を放音させる。   The singing synthesis control unit 1 includes an operation unit, and is a device that generates and outputs a synthesis control message for instructing control of singing synthesis in response to an operation performed by the user on the operation unit. The singing voice synthesis engine 2 synthesizes and outputs singing voice data that is sample data of the singing voice waveform in accordance with the synthesis control message from the singing voice synthesis control unit 1. The audio interface 3 drives the speaker 4 according to the singing voice data output from the singing voice synthesis engine 2 and emits the singing voice from the speaker 4.

図2は歌唱合成装置1000の外観、具体的には上面を示す平面図である。また、図3は歌唱合成装置1000の機能構成を示すブロック図である。この歌唱合成装置1000は、子供向けの知育発達のための玩具としての用途を有している。図2に示すように、歌唱合成装置1000は、平坦な板状の筐体を有している。この筐体の上面には、各種の操作子が印刷されており、図3におけるタッチパネル100の操作面となっている。このタッチパネル100は、本実施形態による歌唱合成制御装置1の操作部として設けられたものである。なお、歌唱合成制御装置1の操作部は、必ずしもタッチパネルである必要はなく、例えば押圧操作により退行する機械式の押しボタンを操作子として備えた操作部であってもよい。   FIG. 2 is a plan view showing the outer appearance, specifically, the upper surface of the singing voice synthesizing apparatus 1000. FIG. 3 is a block diagram showing a functional configuration of the singing voice synthesizing apparatus 1000. The singing voice synthesizing apparatus 1000 has a use as a toy for intellectual development for children. As shown in FIG. 2, the singing voice synthesis apparatus 1000 has a flat plate-shaped housing. Various operators are printed on the upper surface of the casing, which serves as an operation surface of the touch panel 100 in FIG. The touch panel 100 is provided as an operation unit of the song synthesis control device 1 according to the present embodiment. Note that the operation unit of the singing synthesis control apparatus 1 is not necessarily a touch panel, and may be an operation unit including, for example, a mechanical push button that retreats by a pressing operation as an operator.

歌唱合成装置1000の筐体の内部には、図3に示すタッチパネル100の押圧位置検出部106、操作強度検出部107およびLED駆動制御部108と、CPU110と、ROM140と、RAM150とが設けられている。ここで、押圧位置検出部106は、歌唱合成装置1000の筐体の操作面をユーザの指が押したときに、その操作面における押圧位置を検出し、押圧位置情報を出力する装置である。操作強度検出部107は、ユーザの指が操作面を押したときに、その押圧操作の強度、具体的には押圧操作の押圧力を検出し、操作強度情報を出力する装置である。また、操作強度検出部107は、押圧が開始されたタイミングを示すオンタイミング信号と押圧が終了したタイミングを示すオフタイミング信号を出力する。   Inside the housing of the singing voice synthesizing apparatus 1000, a pressed position detecting unit 106, an operation intensity detecting unit 107, an LED drive control unit 108, a CPU 110, a ROM 140, and a RAM 150 of the touch panel 100 shown in FIG. Yes. Here, when the user's finger presses the operation surface of the casing of the singing voice synthesizing apparatus 1000, the pressed position detection unit 106 is a device that detects the pressed position on the operation surface and outputs the pressed position information. The operation strength detection unit 107 is a device that detects the strength of the pressing operation, specifically the pressing force of the pressing operation, and outputs the operation strength information when the user's finger presses the operation surface. In addition, the operation intensity detection unit 107 outputs an on-timing signal indicating the timing when the pressing is started and an off-timing signal indicating the timing when the pressing is completed.

図2に示すように、タッチパネル100には、50音ボタン部101と、50音補助ボタン部102と、モード制御ボタン部103と、音階読み出し位置制御ボタン部104と、鍵ボタン部105が設けられている。これらのうち50音ボタン部101、50音補助ボタン部102、モード制御ボタン部103および音階読み出し位置制御ボタン部104は、略正方形状の枠の中に例えば「あ」等の文字や記号が表されたボタンにより構成されている。以下では、説明の便宜のため、これらの各ボタンに関して、例えば50音ボタン部101における「あ」の表されたボタンについては「あ」ボタンのように、ボタンの枠内に表された文字を用いて表記する場合がある。   As shown in FIG. 2, the touch panel 100 is provided with a 50 sound button unit 101, a 50 sound auxiliary button unit 102, a mode control button unit 103, a scale reading position control button unit 104, and a key button unit 105. ing. Of these, the 50-sound button unit 101, the 50-sound auxiliary button unit 102, the mode control button unit 103, and the scale reading position control button unit 104 have characters and symbols such as “A” displayed in a substantially square frame. It is composed of buttons. In the following, for convenience of explanation, for each of these buttons, for example, for the button indicated by “A” in the 50 sound button unit 101, the characters indicated in the button frame are indicated as “A” button. May be used to describe.

50音ボタン部101は、「あ」から「ん」までの平仮名を各々指示するための46個の50音ボタンにより構成されている。50音補助ボタン部102は、50音ボタン部101による平仮名の入力を補助するために使用される操作子であり、「小」ボタン、「゜」ボタンおよび「゛」ボタンにより構成されている。ここで、「小」ボタンは、50音ボタン部101の操作により例えば「てぃ」のように小さい平仮名「ぃ」を後半部分に有する文字列を指示する場合に使用される操作子である。この例における「てぃ」を指示する場合には、「小」ボタンを押して、50音ボタン部101の「い」ボタンを押し、さらに「て」ボタンを押せばよい。「°」ボタンは、50音ボタン部101の操作により「ぱ」、「ぴ」、「ぷ」等の半濁点を有する平仮名を指定する場合に使用される操作子である。例えば「ぱ」を指定する必要がある場合、この「°」ボタンを押して、50音ボタン部101の「は」ボタンを押せばよい。「゛」ボタンは、50音ボタン部101の操作により「ば」、「び」、「ぶ」等の濁点を有する平仮名を指定する場合に使用される操作子である。例えば「ば」を指定する必要がある場合、この「゛」ボタンを押して、50音ボタン部101の「は」ボタンを押せばよい。   The 50 sound button section 101 is composed of 46 50 sound buttons for designating hiragana characters from “A” to “N”. The 50-sound auxiliary button unit 102 is an operator used to assist the input of hiragana by the 50-sound button unit 101, and includes a “small” button, a “°” button, and a “” button. Here, the “small” button is an operator that is used when a character string having a small hiragana “i” in the latter half portion, such as “Tei”, is designated by the operation of the 50 sound button unit 101. In order to instruct “Tei” in this example, the “Small” button is pressed, the “I” button of the 50 sound button unit 101 is pressed, and the “T” button is further pressed. The “°” button is an operator that is used when a hiragana having a semi-voice point such as “Pa”, “Pi”, “Pu”, etc. is designated by operating the 50 sound button unit 101. For example, when it is necessary to designate “Pa”, this “°” button may be pushed and the “ha” button of the 50 sound button unit 101 may be pushed. The ““ ”button is an operator used when a hiragana having a cloud point such as“ BA ”,“ BI ”,“ BU ”, etc. is designated by operating the 50 sound button unit 101. For example, when it is necessary to designate “B”, this “゛” button may be pressed and the “H” button of the 50 sound button unit 101 may be pressed.

モード制御ボタン部103は、歌唱合成制御部1に対してモード切り換え制御の指示を与えるための操作子である。このモード制御ボタン部103における各ボタンの裏側には、赤色および緑色の発光色を有する2色LEDが配置されており、この2色LEDの点灯制御により、各ボタンに表された「かし」等の文字の背景を赤色(赤色発光時)、緑色(緑色発光時)、白色(非発光時)とすることが可能である。図3におけるLED駆動制御部108は、このモード制御ボタン部103の裏側の2色LEDの駆動制御を行う装置である。   The mode control button unit 103 is an operator for giving an instruction for mode switching control to the singing synthesis control unit 1. On the back side of each button in the mode control button unit 103, two-color LEDs having red and green emission colors are arranged, and “kashi” displayed on each button by the lighting control of the two-color LEDs. It is possible to make the background of characters such as red (when red light is emitted), green (when green light is emitted), and white (when light is not emitted). The LED drive control unit 108 in FIG. 3 is a device that performs drive control of the two-color LEDs on the back side of the mode control button unit 103.

音階読み出し位置制御ボタン部104は、メロディ再生モードにおいて例えば替え歌の歌唱合成を行わせる場合に使用される操作子であり、「とばす」ボタン、「すすめる」ボタンおよび「くりかえす」ボタンにより構成されている。ここで、メロディ再生モードとは、音符の音階を示す音階データを時系列に並べたメロディデータを予めRAM150のメロディ記憶領域に記憶させておき、50音ボタン部101および50音補助ボタン部102の操作により表音文字が指定されるのに応じて、メロディ記憶領域から音階データを1個ずつ読み出し、指定された表音文字および読み出した音階データに対応した歌唱音声を歌唱合成エンジン2に合成させるモードである。「とばす」ボタンは、メロディデータにおいて、ある音階データが読み出し対象となっているときに、その音階データを読み出し対象でなくし、その次の音階データを読み出し対象にすることを指示するためのボタンである。「すすめる」ボタンは、メロディデータにおいて、ある音階データが読み出し対象となっているときに、その読み出し対象の音階データを読み出して次の音階データを読み出し対象にすることを指示するためのボタンである。「くりかえす」ボタンは、メロディデータにおいて、表音文字の指定に応じて、ある音階データが読み出された後、その音階データを次の表音文字が指定されたときの読み出し対象にすることを指示するためのボタンである。   The scale reading position control button unit 104 is an operator used when, for example, synthesizing a singing song in the melody playback mode, and includes a “jump” button, a “recommend” button, and a “repeat” button. . Here, in the melody reproduction mode, melody data in which scale data indicating the scale of a note is arranged in time series is stored in the melody storage area of the RAM 150 in advance, and the 50 sound button unit 101 and the 50 sound auxiliary button unit 102 are stored. In response to the designation of the phonetic character by the operation, the scale data is read one by one from the melody storage area, and the singing voice corresponding to the designated phonetic character and the read scale data is synthesized by the song synthesis engine 2. Mode. The “skip” button is a button for instructing that when a certain scale data is to be read out in the melody data, the scale data is not to be read out and the next scale data is to be read out. is there. The “Recommend” button is a button for instructing to read out the scale data to be read out and set the next scale data to be read out when the scale data in the melody data is to be read out. . The “Repeat” button is used to select the scale data to be read when the next phonetic character is specified, after the scale data is read in the melody data according to the specification of the phonetic character. It is a button for instructing.

鍵ボタン部105は、鍵盤を模した操作子であり、黒鍵を各々表す黒鍵ボタンと、白鍵を各々表す白鍵ボタンの配列である。鍵ボタン部105は、メロディを構成する各音符の音階を指定するのに使用される。   The key button unit 105 is an operator simulating a keyboard, and is an array of black key buttons each representing a black key and white key buttons representing each white key. The key button unit 105 is used to specify the scale of each note constituting the melody.

図3において、ROM140には各種の制御プログラムが記憶されている。CPU110は、ROM140内の制御プログラムに従って、歌唱合成エンジン2としての機能を営むための処理を行うとともに、操作部であるタッチパネル100の操作に応じて歌唱合成エンジン2を制御する歌唱合成制御部1としての各種の処理を行う。その際にCPU110は、RAM150をワークエリアとして使用する。   In FIG. 3, the ROM 140 stores various control programs. The CPU 110 performs a process for performing the function as the song synthesis engine 2 according to the control program in the ROM 140, and controls the song synthesis engine 2 according to the operation of the touch panel 100 as the operation unit. Various processes are performed. At that time, the CPU 110 uses the RAM 150 as a work area.

図3において、CPU110を示すボックスの中には、歌唱合成エンジン2に加えて、CPU110が実行する制御プログラムの一部であるユーザインタフェース部120と合成エンジン制御部130が示されている。このユーザインタフェース部120と合成エンジン制御部130と操作部であるタッチパネル100とが本実施形態による歌唱合成制御部1を構成している。   In FIG. 3, in addition to the singing synthesis engine 2, a user interface unit 120 and a synthesis engine control unit 130 that are part of a control program executed by the CPU 110 are shown in the box indicating the CPU 110. The user interface unit 120, the synthesis engine control unit 130, and the touch panel 100 as an operation unit constitute the singing synthesis control unit 1 according to the present embodiment.

ユーザインタフェース部120は、50音指定ユーザインタフェース部121と、音階指定ユーザインタフェース部122と、制御用ユーザインタフェース部123とを含む。50音指定ユーザインタフェース部121は、押圧位置検出部106から50音ボタン部101および50音補助ボタン部102のいずれかのボタンの領域内の位置を示す押圧位置情報が出力された場合、その押圧されたボタンにより指示された表音文字を認識し、この表音文字を示す表音文字データを出力する。   The user interface unit 120 includes a 50 sound designation user interface unit 121, a scale designation user interface unit 122, and a control user interface unit 123. When the pressing position information indicating the position in the region of any one of the 50 sound button unit 101 and the 50 sound auxiliary button unit 102 is output from the pressing position detection unit 106, the 50 sound designation user interface unit 121 The phonetic character designated by the designated button is recognized, and phonetic character data indicating the phonetic character is output.

例えば50音補助ボタン部102の領域内の位置を示す押圧位置情報が出力されることなく、50音ボタン部101のいずれかのボタン(例えば「あ」ボタンとする)の領域内の位置を示す押圧位置情報が出力された場合、この単独のボタン操作により入力表音文字が確定する。この場合、50音指定ユーザインタフェース部121は、その単独操作されたボタンに対応した表音文字(この例では「あ」)を示す表音文字データを出力する。   For example, the position in the area of any one of the buttons (for example, “A” button) of the 50 sound button unit 101 is displayed without outputting the pressed position information indicating the position in the area of the 50 sound auxiliary button section 102. When the pressing position information is output, the input phonetic character is determined by this single button operation. In this case, the 50-sound designation user interface unit 121 outputs phonetic character data indicating the phonetic character (in this example, “A”) corresponding to the independently operated button.

また、例えば50音補助ボタン部102の「゛」ボタンの領域内の位置を示す押圧位置情報が出力された後、50音ボタン部101のいずれかのボタン(例えば「は」ボタンとする)の領域内の位置を示す押圧位置情報が出力された場合、後者のボタン操作(この例では「は」ボタンの操作)があったときに入力表音文字が確定する。この場合、50音指定ユーザインタフェース部121は、後者のボタンに対応した表音文字に濁点を追加した表音文字(この例では「ば」)を入力表音文字とし、この入力表音文字を示す表音文字データを出力する。「゜」ボタンの領域内の位置を示す押圧位置情報が出力された後、50音ボタン部101のいずれかのボタンの領域内の位置を示す押圧位置情報が出力された場合も同様である。   Further, for example, after the pressing position information indicating the position in the area of the “」 ”button of the 50-sound auxiliary button unit 102 is output, one of the buttons of the 50-sound button unit 101 (for example,“ ha ”button) When the pressed position information indicating the position in the area is output, the input phonetic character is determined when the latter button operation (in this example, the operation of the “ha” button) is performed. In this case, the 50-sound designation user interface unit 121 uses a phonetic character (in this example, “B”) obtained by adding a cloud point to the phonetic character corresponding to the latter button as an input phonetic character, The phonogram data shown is output. The same applies to the case where the pressing position information indicating the position in the area of any one of the 50 sound button portions 101 is output after the pressing position information indicating the position in the area of the “°” button is output.

また、例えば50音補助ボタン部102の「小」ボタンの領域内の位置を示す押圧位置情報が出力された後、50音ボタン部101の中の母音を指示する50音ボタン(例えば「い」ボタンとする)の領域内の位置を示す押圧位置情報が出力され、さらに50音ボタン部101の中のいずれかの50音ボタン(例えば「て」ボタンとする)の領域内の位置を示す押圧位置情報が出力された場合、3番目のボタン操作があったときに入力表音文字が確定する。この場合、50音指定ユーザインタフェース部121は、3番目の50音ボタンが示す平仮名の後に2番目の50音ボタンが示す平仮名を小さくしたものを配列した表音文字(この例では「てぃ」)を入力表音文字とし、この入力表音文字を示す表音文字データを出力する。   Further, for example, after the pressing position information indicating the position in the area of the “small” button of the 50 sound auxiliary button unit 102 is output, a 50 sound button (for example, “I”) that indicates a vowel in the 50 sound button unit 101 is output. Press position information indicating a position in the area of the button), and a press indicating a position in the area of any one of the 50 sound buttons (for example, the “te” button) in the 50 sound button portion 101. When the position information is output, the input phonetic character is determined when the third button operation is performed. In this case, the 50-sound designation user interface unit 121 arranges a phonetic character (in this example, “tei”) in which hiragana represented by the second 50-sound button is arranged after the hiragana represented by the third 50-sound button. ) As an input phonetic character, and output phonetic character data indicating the input phonetic character.

いずれの場合も、50音指定ユーザインタフェース部121は、50音ボタン部101のいずれかのボタンの領域内の位置を示す押圧位置情報が出力され、入力表音文字が確定したときに、その入力表音文字を示す表音文字データを出力する。   In either case, the 50-sound designation user interface unit 121 outputs pressing position information indicating the position in the area of any one of the buttons of the 50-sound button unit 101, and when the input phonetic character is confirmed, the input is performed. Output phonogram data indicating phonograms.

また、50音指定ユーザインタフェース部121は、押圧位置検出部106から50音ボタン部101のボタン操作により発生される押圧位置情報に基づいて入力表音文字を確定させ、入力表音文字を示す表音文字データを出力するとき、入力表音文字を確定させたボタン操作に応じて操作強度検出部107から出力された操作強度情報を出力するとともに、そのボタン操作における押圧期間の始期および終期を示すオンタイミング信号およびオフタイミング信号を操作強度検出部107から受け取って出力する。   Also, the 50-sound designation user interface unit 121 determines the input phonetic character based on the pressed position information generated by the button operation of the 50-sound button unit 101 from the pressed position detection unit 106, and displays the input phonetic character. When outputting the phonetic character data, the operation intensity information output from the operation intensity detecting unit 107 is output in response to the button operation in which the input phonetic character is confirmed, and the start and end of the pressing period in the button operation are indicated. The on-timing signal and the off-timing signal are received from the operation intensity detector 107 and output.

また、50音指定ユーザインタフェース部121は、押圧位置検出部106から音階読み出し位置制御ボタン部104のボタン操作が行われて押圧位置情報が出力された場合、押圧された「とばす」ボタン、「すすめる」ボタンまたは「くりかえす」ボタンを示すボタン名情報を出力する。また、「とばす」ボタン、「すすめる」ボタンまたは「くりかえす」ボタンのボタン操作に応じてボタン名情報を出力するとき、そのボタン操作に応じて操作強度検出部107から出力された操作強度情報を出力するとともに、そのボタン操作における押圧期間の始期および終期を示すオンタイミング信号およびオフタイミング信号を操作強度検出部107から受け取って出力する。   In addition, the 50-note designating user interface unit 121, when the pressed position detection unit 106 performs a button operation on the scale reading position control button unit 104 and outputs the pressed position information, the pressed “skip” button, “recommend” Button name information indicating the "" button or the "repeat" button is output. Also, when the button name information is output in response to the button operation of the “skip” button, the “recommend” button, or the “repeat” button, the operation intensity information output from the operation intensity detector 107 is output in response to the button operation. In addition, an on-timing signal and an off-timing signal indicating the start and end of the pressing period in the button operation are received from the operation intensity detector 107 and output.

音階指定ユーザインタフェース部122は、押圧位置検出部106から鍵ボタン部105のいずれかの鍵ボタンの領域内の位置を示す押圧位置情報が出力された場合、その押圧位置を含む鍵ボタンに対応付けられた音階データを出力する。また、音階指定ユーザインタフェース部122は、鍵ボタンの操作が行われて押圧位置情報が出力され、操作された鍵ボタンに対応した音階データを出力するとき、操作強度検出部107から出力される操作強度情報を出力するとともに、鍵ボタン操作における押圧期間の始期および終期を示すオンタイミング信号およびオフタイミング信号を操作強度検出部107から受け取って出力する。   When the pressed position information indicating the position in the area of any key button of the key button section 105 is output from the pressed position detection unit 106, the scale designation user interface unit 122 associates with the key button including the pressed position. Output the scale data. In addition, the scale designation user interface unit 122 performs an operation output from the operation intensity detection unit 107 when the key button is operated to output the pressing position information and outputs scale data corresponding to the operated key button. In addition to outputting the strength information, an on-timing signal and an off-timing signal indicating the start and end of the pressing period in the key button operation are received from the operation strength detector 107 and output.

制御用ユーザインタフェース部123は、押圧位置検出部106からモード制御ボタン部103のいずれかのボタンの領域内の位置を示す押圧位置情報が出力された場合、その押下されたボタンを示すボタン名情報を合成エンジン制御部130のモード制御部133に出力する。また、制御用ユーザインタフェース部123は、モード制御部133からモード制御ボタン部103のいずれかのボタンの下方の2色LEDの点灯制御に関する指令情報が与えられた場合にその指令情報によって指令された点灯制御(赤色発光、緑色発光または消灯)をLED駆動制御部108に行わせる。   When the pressing position information indicating the position in the area of any button of the mode control button unit 103 is output from the pressing position detection unit 106, the control user interface unit 123 displays button name information indicating the pressed button. Is output to the mode control unit 133 of the synthesis engine control unit 130. Further, the control user interface unit 123 is instructed by the command information when the command information on the lighting control of the two-color LED below any button of the mode control button unit 103 is given from the mode control unit 133. The LED drive control unit 108 is caused to perform lighting control (red light emission, green light emission, or off).

合成エンジン制御部130は、歌唱合成エンジン2を制御するための合成制御メッセージを生成するモジュールであり、50音/発音記号変換部131と、演奏制御情報生成部132と、モード制御部133と、合成制御メッセージ組立部134とを含む。   The synthesis engine control unit 130 is a module that generates a synthesis control message for controlling the singing synthesis engine 2, and includes a 50 sound / phonetic symbol conversion unit 131, a performance control information generation unit 132, a mode control unit 133, And a synthesis control message assembly unit 134.

合成エンジン制御部130は、リアルタイム演奏モード、歌詞記録モード、メロディ記録モード、歌詞再生モード、メロディ再生モードの各モードを有する。ここで、リアルタイム演奏モードは、ユーザに50音ボタン部101および50音補助ボタン部102を使用した歌詞入力と鍵ボタン部105を使用したメロディ入力とを並列に行わせ、50音ボタン部101および50音補助ボタン部102の操作により入力された表音文字に対応し、かつ、鍵ボタン部105の操作により入力された音階データに対応した歌唱音声データを歌唱合成エンジン2に合成させるモードである。歌詞記録モードは、ユーザに50音ボタン部101および50音補助ボタン部102を使用した歌詞入力を行わせ、ユーザによって入力された歌詞、具体的には歌詞を示す表音文字データの列である歌詞データをRAM150内に設けられた歌詞記憶領域に書き込むモードである。メロディ記録モードは、ユーザに鍵ボタン部105を使用したメロディ入力を行わせ、鍵ボタン部105においてユーザによって押下された鍵ボタンに対応付けられた音階を示す音階データをRAM150内に設けられたメロディ記憶領域に書き込むモードである。   The synthesis engine control unit 130 has a real-time performance mode, a lyrics recording mode, a melody recording mode, a lyrics playback mode, and a melody playback mode. Here, the real-time performance mode allows the user to perform lyrics input using the 50 sound button unit 101 and the 50 sound auxiliary button unit 102 and melody input using the key button unit 105 in parallel. In this mode, the singing voice synthesizing engine 2 synthesizes singing voice data corresponding to the phonetic character input by the operation of the 50 sound auxiliary button unit 102 and corresponding to the scale data input by the operation of the key button unit 105. . The lyrics recording mode is a string of phonogram data that indicates the lyrics input by the user, specifically the lyrics, by allowing the user to input lyrics using the 50 sound button unit 101 and the 50 sound auxiliary button unit 102. In this mode, the lyrics data is written in a lyrics storage area provided in the RAM 150. In the melody recording mode, the user inputs a melody using the key button unit 105, and the melody provided in the RAM 150 includes scale data indicating the scale associated with the key button pressed by the user in the key button unit 105. In this mode, data is written to the storage area.

歌詞再生モードは、ユーザに鍵ボタン部105の鍵ボタンを操作させ、鍵ボタン操作に応じて、歌詞記憶領域に記憶された歌詞データを構成する各表音文字データを1個ずつ順次読み出し、鍵ボタン操作により発生する音階データおよび操作強度情報と、歌詞記憶領域から読み出した表音文字データにより定まる発音記号とを用いて、歌唱合成エンジン2に歌唱合成を行わせるモードである。メロディ再生モードは、ユーザに50音ボタン部101および50音補助ボタン部102のボタン操作により表音文字の入力を行わせ、この表音文字の入力に応じて、メロディ領域に記憶されたメロディデータを構成する各音階データを1個ずつ順次読み出し、ボタン操作により指定される表音文字に対応した発音記号と、メロディ記憶領域から読み出した音階データと、ボタン操作の強度により定まる操作強度情報とを用いて、歌唱合成エンジン2に歌唱合成を行わせるモードである。   In the lyric reproduction mode, the user operates the key button of the key button unit 105, and in response to the key button operation, each phonogram data constituting the lyric data stored in the lyric storage area is sequentially read one by one. This is a mode in which the singing synthesis engine 2 performs singing synthesis using scale data and operation intensity information generated by button operation and phonetic symbols determined by phonogram data read from the lyrics storage area. In the melody playback mode, the user inputs a phonetic character by operating the 50-sound button unit 101 and the 50-sound auxiliary button unit 102, and the melody data stored in the melody area in response to the input of the phonetic character. Are sequentially read one by one, and phonetic symbols corresponding to phonetic characters specified by button operation, scale data read from the melody storage area, and operation intensity information determined by the intensity of the button operation. This is a mode in which the singing synthesis engine 2 performs singing synthesis.

合成エンジン制御部130におけるモード制御部133は、制御用ユーザインタフェース部123から出力されるボタン名情報に従って、以上の各モード間の遷移を行わせ、現在のモードを示す情報を50音/発音記号変換部131と演奏制御情報生成部132に供給する。また、モード制御部133は、モード遷移の際に、モード制御ボタン部103のいずれかのボタンの下方の2色LEDの点灯制御に関する指令情報を出力する。   The mode control unit 133 in the synthesis engine control unit 130 makes transition between the above modes in accordance with the button name information output from the control user interface unit 123, and displays information indicating the current mode as 50 sounds / phonetic symbols. The data is supplied to the conversion unit 131 and the performance control information generation unit 132. Further, the mode control unit 133 outputs command information related to lighting control of the two-color LED below any one of the buttons of the mode control button unit 103 at the time of mode transition.

図4は合成エンジン制御部130のモード遷移を示す図である。モード制御部133は、合成エンジン制御部130をリアルタイム演奏モードにしたとき、モード制御ボタン部103の「かし」ボタンおよび「メロディ」ボタンの両方の2色LEDを消灯させる点灯制御指令を制御用ユーザインタフェース部123に送る。   FIG. 4 is a diagram illustrating mode transition of the synthesis engine control unit 130. When the synthesis engine control unit 130 is set to the real-time performance mode, the mode control unit 133 controls the lighting control command for turning off the two-color LEDs of the “scarecrow” button and the “melody” button of the mode control button unit 103. The data is sent to the user interface unit 123.

このリアルタイム演奏モードにおいて、「かし」ボタンを示すボタン名情報が制御用ユーザインタフェース部123から出力されたとき、モード制御部133は、合成エンジン制御部130を歌詞記録モードに遷移させ、「かし」ボタンの2色LEDを赤色発光させ、「メロディ」ボタンの2色LEDを消灯させる点灯制御指令を制御用ユーザインタフェース部123に送る。   In this real-time performance mode, when the button name information indicating the “Kashi” button is output from the control user interface unit 123, the mode control unit 133 shifts the synthesis engine control unit 130 to the lyrics recording mode, The lighting control command for causing the two-color LED of the “Shi” button to emit red light and turning off the two-color LED of the “Melody” button is sent to the control user interface unit 123.

この歌詞記録モードにおいて、「かし」ボタンを示すボタン名情報が制御用ユーザインタフェース部123から出力されたとき、モード制御部133は、合成エンジン制御部130を歌詞再生モードに遷移させ、「かし」ボタンの2色LEDを緑色発光させ、「メロディ」ボタンの2色LEDを消灯させる点灯制御指令を制御用ユーザインタフェース部123に送る。   In this lyrics recording mode, when the button name information indicating the “Kashi” button is output from the control user interface unit 123, the mode control unit 133 causes the synthesis engine control unit 130 to transition to the lyrics reproduction mode, and “ The lighting control command for causing the two-color LED of the “Shi” button to emit green light and turning off the two-color LED of the “Melody” button is sent to the control user interface unit 123.

この歌詞再生モードにおいて、「かし」ボタンを示すボタン名情報が制御用ユーザインタフェース部123から出力されたとき、モード制御部133は、合成エンジン制御部130をリアルタイム演奏モードに遷移させ、「かし」ボタンおよび「メロディ」ボタンの両方の2色LEDを消灯させる点灯制御指令を制御用ユーザインタフェース部123に送る。その他の場合も同様であり、モード制御部133は、モード制御ボタン部103のボタン操作に応じて図4に示される通りのモード遷移を行わせ、現在のモードに合わせて「かし」ボタンおよび「メロディ」ボタンの表示色を切り換える。   In this lyrics playback mode, when the button name information indicating the “Kashi” button is output from the control user interface unit 123, the mode control unit 133 causes the synthesis engine control unit 130 to transition to the real-time performance mode, A lighting control command for turning off the two-color LEDs of both the “Shi” button and the “Melody” button is sent to the control user interface unit 123. The same applies to other cases, and the mode control unit 133 causes the mode transition as shown in FIG. 4 to be performed according to the button operation of the mode control button unit 103, and the “Kashiwa” button and Switches the display color of the “Melody” button.

50音/発音記号変換部131は、50音指定ユーザインタフェース部121から出力される表音文字データまたはRAM150の歌詞記憶領域から読み出される表音文字データを発音記号に変換して合成制御メッセージ組立部134に供給するモジュールである。50音/発音記号変換部131がいずれの情報に基づいて発音記号を生成するかは合成エンジン制御部130の動作モードにより異なる。従って、説明の重複を避けるため、50音/発音記号変換部131の具体的処理内容については、本実施形態の動作説明において明らかにする。   The 50 sound / phonetic symbol conversion unit 131 converts the phonetic character data output from the 50 sound designating user interface unit 121 or the phonetic character data read from the lyrics storage area of the RAM 150 into phonetic symbols, and a synthesis control message assembly unit. 134 is a module to be supplied to 134. Which information the 50 sound / phonetic symbol conversion unit 131 generates based on which information depends on the operation mode of the synthesis engine control unit 130. Therefore, in order to avoid duplication of explanation, the specific processing contents of the 50 sound / phonetic symbol conversion unit 131 will be clarified in the explanation of the operation of the present embodiment.

演奏制御情報生成部132は、音階指定ユーザインタフェース部122の出力情報、RAM150のメロディ記憶領域からの読み出しデータ、50音指定ユーザインタフェース部121の出力情報を用いて、発音指示メッセージに組み込む音階データ、操作強度情報または消音指示メッセージに組み込む音階データを生成して合成制御メッセージ組立部134に供給するモジュールである。ここで、発音指示メッセージは、歌唱合成エンジン2に歌唱音声の合成開始を指示する合成制御メッセージであり、消音指示メッセージは、歌唱合成エンジン2に合成中の歌唱音声の消音を指示する合成制御メッセージである。演奏制御情報生成部132が発音指示メッセージ、消音指示メッセージに組み込むパラメータを如何にして生成するかは合成エンジン制御部130の動作モードにより異なる。従って、説明の重複を避けるため、演奏制御情報生成部132の具体的処理内容については、本実施形態の動作説明において明らかにする。   The performance control information generation unit 132 uses the output information of the scale designation user interface unit 122, the read data from the melody storage area of the RAM 150, and the output data of the 50 tone designation user interface unit 121 to incorporate scale data to be incorporated into the pronunciation instruction message. This is a module that generates scale data to be incorporated into the operation intensity information or the mute instruction message and supplies it to the synthesis control message assembly unit 134. Here, the pronunciation instruction message is a synthesis control message that instructs the singing synthesis engine 2 to start synthesis of the singing voice, and the mute instruction message is a synthesis control message that instructs the singing synthesis engine 2 to mute the singing voice being synthesized. It is. How the performance control information generation unit 132 generates parameters to be included in the sound generation instruction message and the mute instruction message depends on the operation mode of the synthesis engine control unit 130. Therefore, in order to avoid duplication of explanation, the specific processing contents of the performance control information generation unit 132 will be clarified in the explanation of the operation of the present embodiment.

また、メロディ再生モードにおいて音階読み出し位置制御ボタン部104の操作が行われた場合、演奏制御情報生成部132は、読み出し対象となる音階データの読み出し位置を現状のものから変更する制御を行う。この制御の内容についても、説明の重複を避けるため、本実施形態の動作説明において明らかにする。   When the scale reading position control button unit 104 is operated in the melody reproduction mode, the performance control information generating unit 132 performs control to change the reading position of the scale data to be read from the current one. The contents of this control are also clarified in the description of the operation of this embodiment in order to avoid duplication of explanation.

合成制御メッセージ組立部134は、歌唱合成エンジン2を制御する合成制御メッセージを組み立てるモジュールである。さらに詳述すると、合成制御メッセージ組立部134は、発音指示メッセージに組み込む音階データおよび操作強度情報を演奏制御情報生成部132から受け取ったとき、これらの情報を用いて発音指示メッセージを組み立て、歌唱合成エンジン2へ出力する。また、合成制御メッセージ組立部134は、消音指示メッセージに組み込む音階データを演奏制御情報生成部132から受け取ったとき、この情報を用いて消音指示メッセージを組み立て、歌唱合成エンジン2へ出力する。また、合成制御メッセージ組立部134は、発音記号を50音/発音記号変換部131から受け取ったとき、この発音記号を示す発音記号メッセージを組み立て、歌唱合成エンジン2へ出力する。   The synthesis control message assembly unit 134 is a module that assembles a synthesis control message for controlling the song synthesis engine 2. More specifically, when the synthesis control message assembling unit 134 receives scale data and operation intensity information to be incorporated into the pronunciation instruction message from the performance control information generating unit 132, the synthesis control message assembling unit 134 assembles the pronunciation instruction message using these pieces of information, Output to engine 2. When the synthesis control message assembling unit 134 receives the scale data to be incorporated into the mute instruction message from the performance control information generating unit 132, the synthesis control message assembling unit 134 assembles the mute instruction message using this information and outputs it to the singing synthesis engine 2. When the synthesis control message assembling unit 134 receives the phonetic symbol from the 50 sound / phonetic symbol conversion unit 131, the synthesis control message assembling unit 134 assembles a phonetic symbol message indicating the phonetic symbol and outputs it to the singing synthesis engine 2.

歌唱合成エンジン2は、このようにして供給される合成制御メッセージに従って歌唱合成を行う機能を備えている。さらに詳述すると、歌唱合成エンジン2は、予め収音した各種の音声から採取した音声素片の波形を示す波形データを発音記号に対応付けた音声素片データベースを備えている。歌唱合成エンジン2は、発音記号メッセージを受け取ったとき、その発音記号メッセージが示す発音記号に対応した音声素片の波形データを音声素片データベースから読み出す。   The song synthesis engine 2 has a function of performing song synthesis in accordance with the synthesis control message supplied in this way. More specifically, the singing voice synthesis engine 2 includes a speech segment database in which waveform data indicating waveforms of speech segments collected from various sounds collected in advance are associated with phonetic symbols. When the singing synthesis engine 2 receives the phonetic symbol message, it reads out the waveform data of the speech unit corresponding to the phonetic symbol indicated by the phonetic symbol message from the speech unit database.

そして、歌唱合成エンジン2は、発音指示メッセージを受け取ると、その発音指示メッセージに含まれる音階データが示す音階となるように、音声素片データベースから読み出した音声素片の波形データにピッチ変換を施す。また、歌唱合成エンジン2は、発音指示メッセージに含まれる操作強度情報に応じて、ピッチ変換後の波形データのアタック感および振幅を調整し、オーディオインタフェース3に出力し、スピーカ4からの歌唱音の放音を開始させる。そして、歌唱合成エンジン2は、消音指示メッセージを受け取ると、スピーカ4から放音させている音声素片の波形データのうち消音指示メッセージに含まれる音階データと同じ音階データに対応した波形データを減衰させ、その音階データに対応した歌唱音を消音させる。   When the singing synthesis engine 2 receives the pronunciation instruction message, the singing synthesis engine 2 performs pitch conversion on the waveform data of the speech unit read from the speech unit database so as to be the scale indicated by the scale data included in the pronunciation instruction message. . In addition, the singing synthesis engine 2 adjusts the attack feeling and amplitude of the waveform data after pitch conversion according to the operation intensity information included in the pronunciation instruction message, and outputs it to the audio interface 3 to output the singing sound from the speaker 4. Start sound emission. When the singing synthesis engine 2 receives the mute instruction message, the singing synthesis engine 2 attenuates the waveform data corresponding to the same scale data as the scale data included in the mute instruction message, out of the waveform data of the speech element emitted from the speaker 4. The singing sound corresponding to the scale data is muted.

次に本実施形態の動作について説明する。各種の動作モードに設定するための操作と、それに対応したモード制御部133の処理については既に説明したので、以下では、各動作モードにおける50音/発音記号変換部131および演奏制御情報生成部132の動作を中心に説明する。   Next, the operation of this embodiment will be described. Since the operation for setting various operation modes and the processing of the mode control unit 133 corresponding to the operations have already been described, hereinafter, the 50 sound / phonetic symbol conversion unit 131 and the performance control information generation unit 132 in each operation mode will be described. The operation will be mainly described.

a.リアルタイム演奏モード
リアルタイム演奏モードにおいて、50音/発音記号変換部131は、50音指定ユーザインタフェース部121から表音文字データが出力される都度、その表音文字データをRAM150内に設けられたカレント文字領域に書き込む。なお、カレント文字領域に既に表音文字データが記憶されている場合は、50音指定ユーザインタフェース部121から出力された表音文字データをその表音文字データに上書きする。また、50音/発音記号変換部131は、音階指定ユーザインタフェース部122からオンタイミング信号、音階データ、操作強度情報が出力されたとき、RAM150のカレント文字領域から表音文字データを読み出し、発音記号に変換して合成制御メッセージ組立部134に供給する。
a. Real-time performance mode In the real-time performance mode, the 50-sound / phonetic symbol conversion unit 131 outputs the phonetic character data in the RAM 150 each time the phonetic character data is output from the 50-sound designation user interface unit 121. Write to the area. If the phonetic character data is already stored in the current character area, the phonetic character data output from the 50-sound designating user interface unit 121 is overwritten on the phonetic character data. Further, when the on-timing signal, the scale data, and the operation intensity information are output from the scale designation user interface unit 122, the 50 tone / phonetic symbol conversion unit 131 reads the phonetic character data from the current character area of the RAM 150, and generates the phonetic symbol. To the composition control message assembling unit 134.

一方、演奏制御情報生成部132は、音階指定ユーザインタフェース部122からオンタイミング信号、音階データ、操作強度情報が出力されたとき、音階データ、操作強度情報を合成制御メッセージ組立部134に供給して発音指示メッセージの組み立ておよびその出力を行わせる。そして、演奏制御情報生成部132は、音階指定ユーザインタフェース部122からオフタイミング信号が出力されたとき、直前に合成制御メッセージ組立部134に組み立てさせた発音指示メッセージに対応した消音指示メッセージを合成制御メッセージ組立部134に組み立てさせ、その出力を行わせる。   On the other hand, when the on-timing signal, the scale data, and the operation intensity information are output from the scale designation user interface unit 122, the performance control information generation unit 132 supplies the scale data and the operation intensity information to the synthesis control message assembly unit 134. Causes the pronunciation instruction message to be assembled and output. Then, the performance control information generation unit 132 performs synthesis control on the mute instruction message corresponding to the sound generation instruction message assembled by the synthesis control message assembly unit 134 immediately before the off timing signal is output from the scale designation user interface unit 122. The message assembly unit 134 assembles and outputs the message.

以上がリアルタイム演奏モードでの本実施形態の動作である。このリアルタイム演奏モードにおいて、ユーザは、50音ボタン部101のボタン操作により例えば「かえるのうたが」と入力し、これと並行して鍵ボタン部105のボタン操作により「ドレミファミレド」と入力することにより、歌唱合成エンジン2に「かえるの歌」の歌唱合成を行わせることができる。   The above is the operation of the present embodiment in the real-time performance mode. In this real-time performance mode, the user inputs, for example, “Kare no Uta” by operating the button of the 50 sound button unit 101, and simultaneously inputs “Doremi Family” by operating the key button unit 105. Thus, the singing synthesis of the “frog song” can be performed by the singing synthesis engine 2.

b.歌詞記録モード
この歌詞記録モードにおいて、50音/発音記号変換部131は、50音指定ユーザインタフェース部121から表音文字データが出力される都度、その表音文字データをRAM150内に設けられた歌詞記憶領域に書き込む。ここで、歌詞記憶領域に既に表音文字データの列が記憶されている場合、50音/発音記号変換部131は、50音指定ユーザインタフェース部121から出力された表音文字データを歌詞記憶領域内の既存の表音文字データの列における最後尾の表音文字データの次の表音文字データとして歌詞記憶領域に書き込む。この歌詞記憶領域内の表音文字データの列が歌詞データとなる。
b. Lyric recording mode In this lyric recording mode, each time the phonogram data is output from the phonograph designation user interface unit 121, the phonogram / phonetic symbol conversion unit 131 stores the phonogram data in the RAM 150. Write to storage area. Here, if a string of phonogram data is already stored in the lyric storage area, the 50 sound / phonetic symbol conversion unit 131 converts the phonogram data output from the 50 sound designation user interface unit 121 into the lyrics storage area. Are written in the lyrics storage area as phonogram data next to the last phonogram data in the existing phonogram data string. The string of phonogram data in the lyrics storage area is the lyrics data.

また、50音/発音記号変換部131は、1つの表音文字データを歌詞記憶領域に書き込むとき、その表音文字データを発音記号に変換し、その発音記号を示す発音記号メッセージを合成制御メッセージ組立部134に出力させる。   Further, when writing one phonetic character data into the lyrics storage area, the 50 sound / phonetic symbol conversion unit 131 converts the phonetic character data into a phonetic symbol and generates a phonetic symbol message indicating the phonetic symbol as a synthesis control message. The assembly unit 134 outputs the data.

さらに50音/発音記号変換部131は、演奏制御情報生成部132に歌詞確認用合成制御メッセージの生成指示を送る。この歌詞確認用合成制御メッセージの生成指示を受け取った演奏制御情報生成部132は、所定の音階データと所定の操作強度情報とを含む発音指示メッセージと、同音階データを含む消音指示メッセージを所定時間間隔を空けて合成制御メッセージ組立部134に出力させる。   Further, the 50 sound / phonetic symbol conversion unit 131 sends a generation control message generation instruction for lyrics confirmation to the performance control information generation unit 132. The performance control information generation unit 132 that has received the generation instruction of the lyrics confirmation synthesis control message receives a sound generation instruction message including predetermined scale data and predetermined operation intensity information and a mute instruction message including the same scale data for a predetermined time. The composition control message assembly unit 134 outputs the information at intervals.

以上が歌詞記録モードでの本実施形態の動作である。この歌詞記録モードにおいて、ユーザは、50音ボタン部101のボタン操作により例えば「かえるのうたが」と入力することにより、「かえるの歌」の歌詞を示す歌詞データをRAM150内の歌詞記憶領域に書き込むことができる。また、その際に、例えば「か」の表音文字データを歌詞記憶領域に書き込むときには、その「か」に対応した発音記号を示す発音記号メッセージが合成制御メッセージ組立部134から歌唱合成エンジン2に供給され、次いで所定の音階データを含む発音指示メッセージおよび消音指示メッセージの対が合成制御メッセージ組立部134から歌唱合成エンジン2に供給され、「か」の音声が合成されてスピーカ4から放音される。後続の「え」、「る」等の表音文字についても同様である。従って、ユーザは自分が入力した歌詞を音声として確認することができる。   The above is the operation of the present embodiment in the lyrics recording mode. In this lyric recording mode, the user inputs lyric data indicating the lyric of “Kaeru no Uta” in the lyric storage area in the RAM 150 by inputting, for example, “Kaeru no Uta” by operating the button of the 50 sound button unit 101. Can write. At this time, for example, when writing the phonetic character data of “ka” in the lyrics storage area, the phonetic symbol message indicating the phonetic symbol corresponding to the “ka” is sent from the synthesis control message assembly unit 134 to the singing synthesis engine 2. Next, a pair of a sound generation instruction message and a mute instruction message including predetermined scale data is supplied from the synthesis control message assembling unit 134 to the singing synthesis engine 2, and the sound of “ka” is synthesized and emitted from the speaker 4. The The same applies to phonetic characters such as “e” and “ru” that follow. Therefore, the user can confirm the lyrics inputted by himself / herself as voice.

c.メロディ記録モード
このメロディ記録モードにおいて、演奏制御情報生成部132は、音階指定ユーザインタフェース部122から音階データが出力される都度、その音階データをRAM150内に設けられたメロディ記憶領域に書き込む。ここで、メロディ記憶領域に既に音階データの列が記憶されている場合、演奏制御情報生成部132は、音階指定ユーザインタフェース部122から出力された音階データをメロディ記憶領域内の既存の音階データの列における最後尾の音階データの次の音階データとしてメロディ記憶領域に書き込む。このメロディ記憶領域内の音階データの列がメロディデータとなる。
c. Melody Recording Mode In this melody recording mode, the performance control information generation unit 132 writes the scale data in the melody storage area provided in the RAM 150 each time scale data is output from the scale designation user interface unit 122. When the scale data string is already stored in the melody storage area, the performance control information generation unit 132 converts the scale data output from the scale designation user interface unit 122 to the existing scale data in the melody storage area. Write to the melody storage area as the scale data next to the last scale data in the row. The string of scale data in this melody storage area becomes melody data.

また、演奏制御情報生成部132は、1つの音階データをメロディ記憶領域に書き込むとき、その音階データと所定の操作強度情報を含む発音指示メッセージと同音階データを含む消音指示メッセージを所定時間間隔を空けて合成制御メッセージ組立部134に出力させる。   Further, when the performance control information generating unit 132 writes one scale data in the melody storage area, the performance control information generating unit 132 transmits a sound generation instruction message including the scale data, predetermined operation intensity information, and a mute instruction message including the same scale data at predetermined time intervals. The information is output to the synthesis control message assembling unit 134.

さらに演奏制御情報生成部132は、上記発音指示メッセージに先立って、発音記号メッセージを合成制御メッセージ組立部134に出力させるための制御を行う。具体的には、演奏制御情報生成部132は、上記発音指示メッセージを合成制御メッセージ組立部134に出力させる制御を行う前に、メロディ記憶領域に書き込んだ音階データと発音記号送信指令を50音/発音記号変換部131に与える。この音階データと発音記号送信指令を受け取った50音/発音記号変換部131は、音階データが示す音階を表わす発音記号を生成し、この発音記号を示す発音記号メッセージを上記発音指示メッセージに先立って合成制御メッセージ組立部134に出力させる。このような処理を可能にするためには、例えば音階データをその音階データが示す音階の称呼を表わす発音記号に対応付けるテーブルを予めROM140に記憶させておき、50音/発音記号変換部131がこのテーブルを参照して音階データの発音記号への変換を行うようにすればよい。   Further, the performance control information generating unit 132 performs control for causing the synthesis control message assembling unit 134 to output a phonetic symbol message prior to the pronunciation instruction message. Specifically, the performance control information generation unit 132 sets the scale data written in the melody storage area and the phonetic symbol transmission command to 50 sounds / sound before performing the control to output the sound generation instruction message to the synthesis control message assembly unit 134. This is given to the phonetic symbol converter 131. Upon receiving the scale data and the phonetic symbol transmission command, the 50 tone / phonetic symbol conversion unit 131 generates a phonetic symbol representing the scale indicated by the scale data, and the phonetic symbol message indicating the phonetic symbol is preceded by the phonetic indication message. The combination control message assembly unit 134 outputs the message. In order to enable such processing, for example, a table for associating the scale data with the phonetic symbols representing the names of the scales indicated by the scale data is stored in the ROM 140 in advance, and the 50-tone / phonetic symbol conversion unit 131 performs this processing. The scale data may be converted into phonetic symbols by referring to the table.

以上がメロディ記録モードでの本実施形態の動作である。このメロディ記録モードにおいて、ユーザは、鍵ボタン部105のボタン操作により例えば「ドレミファミレド」と入力することにより、「かえるの歌」のメロディを示すメロディデータをRAM150内のメロディ記憶領域に書き込むことができる。また、その際に、例えば「ド」の音階データをメロディ記憶領域に書き込むときには、その「ド」に対応した発音記号を示す発音記号メッセージが合成制御メッセージ組立部134から歌唱合成エンジン2に供給され、次いで「ド」の音階データを含む発音指示メッセージおよび消音指示メッセージの対が合成制御メッセージ組立部134から歌唱合成エンジン2に供給され、「ド」の音階を持った「ド」の音声が合成されてスピーカ4から放音される。後続の「レ」、「ミ」等の音階についても同様である。従って、ユーザは自分が入力したメロディを音声として確認することができる。   The above is the operation of the present embodiment in the melody recording mode. In this melody recording mode, the user inputs, for example, “Doremi Family” by operating the button of the key button unit 105, so that the melody data indicating the melody of “Frog Song” is written in the melody storage area in the RAM 150. it can. At this time, for example, when the scale data of “do” is written in the melody storage area, the phonetic symbol message indicating the phonetic symbol corresponding to the “do” is supplied from the synthesis control message assembly unit 134 to the singing synthesis engine 2. Next, a pair of a sound generation instruction message and a mute instruction message including the scale data of “do” is supplied from the synthesis control message assembly unit 134 to the singing synthesis engine 2, and the voice of “do” having the scale of “do” is synthesized. The sound is emitted from the speaker 4. The same applies to the subsequent scales such as “Le” and “Mi”. Therefore, the user can confirm the melody input by the user as voice.

d.歌詞再生モード
この歌詞再生モードにおいて、50音/発音記号変換部131は、音階指定ユーザインタフェース部122からオンタイミング信号、音階データおよび操作強度情報が出力される都度、RAM150の歌詞記憶領域内の歌詞データを構成する各表音文字データのうち現在の歌詞読み出し位置にある表音文字データを1つ読み出す。50音/発音記号変換部131は、この読み出した表音文字データを発音記号に変換し、その発音記号を示す発音記号メッセージを合成制御メッセージ組立部134に出力させる。ここで、初期状態において、歌詞読み出し位置は、歌詞記憶領域内の歌詞データを構成する各表音文字データにおける最初の表音文字データの位置となっている。従って、例えば「かえるの歌」の歌詞データが歌詞記憶領域に記憶されている場合には、先頭の表音文字「か」を示す表音文字データが最初に読み出されることとなる。
d. Lyrics playback mode In this lyrics playback mode, the 50 tone / phonetic symbol conversion unit 131 outputs lyrics in the lyrics storage area of the RAM 150 each time an on-timing signal, scale data, and operation intensity information are output from the scale designation user interface unit 122. One phonogram data at the current lyric reading position is read out from each phonogram data constituting the data. The 50 sound / phonetic symbol conversion unit 131 converts the read phonetic character data into phonetic symbols, and causes the synthesis control message assembly unit 134 to output a phonetic symbol message indicating the phonetic symbols. Here, in the initial state, the lyrics reading position is the position of the first phonetic character data in each phonetic character data constituting the lyrics data in the lyrics storage area. Therefore, for example, when the lyrics data of “Kaeru no Uta” is stored in the lyrics storage area, the phonetic character data indicating the head phonetic character “ka” is read out first.

一方、演奏制御情報生成部132は、音階指定ユーザインタフェース部122からオンタイミング信号、音階データおよび操作強度情報が出力されたとき、これに応じて50音/発音記号変換部131が上記発音記号メッセージを合成制御メッセージ組立部134に出力させるのを待って、音階指定ユーザインタフェース部122から出力された音階データおよび操作強度情報を含む発音指示メッセージを合成制御メッセージ組立部134に出力させる。50音/発音記号変換部131は、この発音指示メッセージが合成制御メッセージ組立部134により出力されるのに応じて、歌詞読み出し位置を1だけ進める。   On the other hand, when the on-timing signal, the scale data, and the operation intensity information are output from the scale designation user interface unit 122, the performance control information generation unit 132 causes the 50 tone / phonetic symbol conversion unit 131 to output the above phonetic symbol message. Is then output to the synthesis control message assembly unit 134, and the synthesis control message assembly unit 134 is caused to output a pronunciation instruction message including scale data and operation intensity information output from the scale designation user interface unit 122. The 50 sound / phonetic symbol conversion unit 131 advances the lyric reading position by 1 in response to the output of the pronunciation instruction message by the synthesis control message assembly unit 134.

そして、演奏制御情報生成部132は、音階指定ユーザインタフェース部122からオフタイミング信号が出力されたとき、直前に合成制御メッセージ組立部134に組み立てさせた発音指示メッセージに対応した消音指示メッセージを合成制御メッセージ組立部134に組み立てさせ、その出力を行わせる。   Then, the performance control information generation unit 132 performs synthesis control on the mute instruction message corresponding to the sound generation instruction message assembled by the synthesis control message assembly unit 134 immediately before the off timing signal is output from the scale designation user interface unit 122. The message assembly unit 134 assembles and outputs the message.

以上が歌詞再生モードでの本実施形態の動作である。この歌詞再生モードにおいて、ユーザが例えば「かえるの歌」の歌詞を示す歌詞データをRAM150内の歌詞記憶領域に記憶させた状態において、鍵ボタン部105の鍵ボタン操作により「ドレミファミレド」と入力した場合、「ド」の入力に応じて表音文字「か」の表音文字データが歌詞記憶領域から読み出され、「か」の発音記号を示す発音記号メッセージと、音階「ド」での発音を指示する発音指示メッセージが歌唱合成エンジン2に供給される。また、次の「レ」の入力に応じて表音文字「え」の表音文字データが歌詞記憶領域から読み出され、「え」の発音記号を示す発音記号メッセージと、音階「レ」での発音を指示する発音指示メッセージが歌唱合成エンジン2に供給される。以下、同様である。従って、ユーザは鍵ボタン部105の鍵ボタン操作を行うことにより、歌詞記憶領域内の歌詞データが示す歌詞を鍵ボタン操作により奏でられるメロディに合わせて歌唱した歌唱音を歌唱合成エンジン2に合成させることができる。   The above is the operation of the present embodiment in the lyrics playback mode. In this lyrics playback mode, the user inputs “Doremi Family” by operating the key button of the key button unit 105 in a state where the lyrics data indicating the lyrics of “Frog Song” is stored in the lyrics storage area in the RAM 150, for example. In response to the input of “do”, the phonetic character data of the phonetic character “ka” is read from the lyrics storage area, the phonetic symbol message indicating the phonetic symbol of “ka”, and the pronunciation of the scale “do” Is issued to the singing voice synthesis engine 2. In addition, the phonetic character data of the phonetic character “e” is read from the lyrics storage area in response to the next input of “le”, and the phonetic symbol message indicating the phonetic symbol of “e” and the scale “le”. A pronunciation instruction message for instructing the pronunciation of the song is supplied to the singing synthesis engine 2. The same applies hereinafter. Therefore, the user performs a key button operation on the key button unit 105 to cause the singing synthesis engine 2 to synthesize the singing sound sung in accordance with the melody played by the key button operation on the lyrics indicated by the lyrics data in the lyrics storage area. be able to.

e.メロディ再生モード
図5は、このメロディ再生モードにおける歌唱合成制御部1内の情報の流れを示す図である。このメロディ再生モードでの動作は、RAM150内のメロディ記憶領域に、曲を構成する音符の音階を指定する音階データの列であるメロディデータが予め記憶されていることが前提となる。このメロディ再生モードにおいて、50音/発音記号変換部131は、50音指定ユーザインタフェース部121からオンタイミング信号、表音文字データおよび操作強度情報が出力される都度、出力された表音文字データを発音記号に変換し、その発音記号を示す発音記号メッセージを合成制御メッセージ組立部134に出力させる。
e. Melody Reproduction Mode FIG. 5 is a diagram showing the flow of information in the singing synthesis control unit 1 in this melody reproduction mode. The operation in this melody reproduction mode is premised on that melody data, which is a string of scale data for designating the scale of notes constituting a song, is stored in advance in the melody storage area in the RAM 150. In this melody playback mode, the 50 tone / phonetic symbol conversion unit 131 outputs the output phonetic character data each time the on-timing signal, the phonetic character data, and the operation intensity information are output from the 50 sound designation user interface unit 121. The phonetic symbol is converted to a phonetic symbol, and a phonetic symbol message indicating the phonetic symbol is output to the synthesis control message assembling unit 134.

一方、演奏制御情報生成部132は、50音指定ユーザインタフェース部121からオンタイミング信号、表音文字データおよび操作強度情報が出力されたとき、これに応じて50音/発音記号変換部131が上記発音記号メッセージを合成制御メッセージ組立部134に出力させるのを待って、RAM150のメロディ記憶領域内のメロディデータを構成する各音階データのうち現在の音階読み出し位置にある音階データを1つ読み出す。ここで、初期状態において、音階読み出し位置は、メロディ記憶領域内のメロディデータを構成する各音階データにおける最初の音階データの位置となっている。そして、演奏制御情報生成部132は、メロディ記憶領域から読み出した音階データと50音指定ユーザインタフェース部121から出力された操作強度情報を合成制御メッセージ組立部134に送って発音指示メッセージの組み立ておよびその出力を行わせる。この発音指示メッセージの出力を行わせると、演奏制御情報生成部132は、音階読み出し位置を1だけ進める。   On the other hand, when the on-timing signal, phonogram data, and operation intensity information are output from the 50-sound designation user interface unit 121, the performance control information generation unit 132 causes the 50-sound / phonetic symbol conversion unit 131 to respond to this. After outputting the phonetic symbol message to the synthesis control message assembling unit 134, one scale data at the current scale reading position is read out from each scale data constituting the melody data in the melody storage area of the RAM 150. Here, in the initial state, the scale reading position is the position of the first scale data in each scale data constituting the melody data in the melody storage area. Then, the performance control information generation unit 132 sends the scale data read from the melody storage area and the operation intensity information output from the 50-sound designation user interface unit 121 to the synthesis control message assembly unit 134 to assemble the pronunciation instruction message and its Cause output to occur. When the sound generation instruction message is output, the performance control information generation unit 132 advances the scale reading position by one.

そして、演奏制御情報生成部132は、50音指定ユーザインタフェース部121からオフタイミング信号が出力されたとき、直前に合成制御メッセージ組立部134に組み立てさせた発音指示メッセージに対応した消音指示メッセージを合成制御メッセージ組立部134に組み立てさせ、その出力を行わせる。
以上がメロディ再生モードでの基本的な動作である。
When the off-timing signal is output from the 50-sound designation user interface unit 121, the performance control information generation unit 132 synthesizes a mute instruction message corresponding to the sound generation instruction message assembled by the synthesis control message assembly unit 134 immediately before. The control message assembly unit 134 assembles and outputs it.
The above is the basic operation in the melody playback mode.

次にメロディ再生モードの具体的な動作例を説明する。図6(a)および(b)、図7〜図10は、メロディ再生モードにおける歌唱合成制御部1の動作例を各々示すタイムチャートである。図6(a)および(b)、図7〜図10において横軸は時間軸である。そして、これらの図には、50音ボタン部101、50音補助ボタン部102または音階読み出し位置制御ボタン部104の各ボタンの押圧操作の様子が時系列的に示されている。例えば図6(a)において、「か」ボタンの押圧操作を示す波形において、Lレベルとなっている区間は、「か」ボタンが押圧されてONとなっている区間を示している。他のボタン操作を示す波形も同様である。また、例えば図6(a)において、「か」ボタンの操作を示す波形においてLレベルとなっている区間(「か」ボタンがONになっている区間)には、「か(ド)」なる表記がある。この表記は、この区間のボタン操作により、「か」の発音記号に対応し、かつ、「ド」の音階を持った音声が発音されることを示している。他の「え(レ)」、「る(ミ)」等の表記も同様である。また、これらの図には、ボタン操作に応じて発生される発音記号メッセージ、発音指示メッセージおよび消音指示メッセージの発生タイミングが時系列的に示されている。さらにこれらの図には、発音指示メッセージの発生または制御ボタン部104の操作に応じて切り換わる音階読み出し位置が時系列的に示されている。   Next, a specific operation example of the melody playback mode will be described. FIGS. 6A and 6B and FIGS. 7 to 10 are time charts each showing an operation example of the singing synthesis control unit 1 in the melody reproduction mode. 6A and 6B and FIGS. 7 to 10, the horizontal axis is a time axis. In these drawings, the pressing operation of each button of the 50 sound button unit 101, the 50 sound auxiliary button unit 102, or the scale reading position control button unit 104 is shown in time series. For example, in FIG. 6A, in the waveform indicating the pressing operation of the “ka” button, the section at the L level indicates the section where the “ka” button is pressed and turned on. The same applies to waveforms indicating other button operations. In addition, for example, in FIG. 6A, in the waveform indicating the operation of the “ka” button, the section that is at the L level (the section in which the “ka” button is ON) is “ka (do)”. There is a notation. This notation indicates that a voice corresponding to the phonetic symbol “ka” and having a scale of “do” is generated by operating the button in this section. The same applies to other notations such as “e” and “ru”. In these figures, the generation timing of a phonetic symbol message, a sound generation instruction message, and a mute instruction message generated in response to a button operation is shown in time series. Further, in these drawings, the scale reading positions that are switched in response to the generation of the sound generation instruction message or the operation of the control button unit 104 are shown in time series.

図6(a)および(b)に示す動作例では、メロディ記憶領域に「ドレミファミレド…」という「かえるの歌」のメロディを示すメロディデータが予め記憶されている。そして、この動作例では、50音ボタン部101および50音補助ボタン部102の操作により「かえるの歌」の歌詞である「かえるのうたが…」という表音文字の列が入力される。   In the operation example shown in FIGS. 6A and 6B, melody data indicating a melody of “Frog's Song” “Doremi Family ...” is stored in advance in the melody storage area. In this operation example, a string of phonograms “Kaeda no Utaga”, which is the lyrics of “Kaeru no Uta”, is input by operating the 50 sound button unit 101 and the 50 sound auxiliary button unit 102.

まず、「か」ボタンが押され、50音指定ユーザインタフェース部121からオンタイミング信号、「か」を示す表音文字データおよび操作強度情報が出力されると、50音/発音記号変換部131は、「か」を示す表音文字データを発音記号に変換し、この「か」の発音記号を示す発音記号メッセージの組み立ておよびその出力を合成制御メッセージ組立部134に行わせる。   First, when the “ka” button is pressed and an on-timing signal, phonogram data indicating “ka”, and operation intensity information are output from the 50-sound designating user interface unit 121, the 50-sound / phonetic symbol conversion unit 131 The phonetic character data indicating “ka” is converted into a phonetic symbol, and the synthesis control message assembling unit 134 assembles and outputs a phonetic symbol message indicating the phonetic symbol of “ka”.

演奏制御情報生成部132は、この発音記号メッセージの組み立ておよびその出力が行われるのを待って、メロディ記憶領域内のメロディデータを構成する各音階データのうち現在の音階読み出し位置にある音階データを読み出し、この音階データと、「か」を示す表音文字データとともに50音指定ユーザインタフェース部121から出力された操作強度情報とを含む発音指示メッセージの組み立ておよびその出力を合成制御メッセージ組立部134に行わせる。ここで、初期状態において、音階読み出し位置は、「かえるの歌」のメロディデータの最初の音階データの位置となっている。従って、「ド」の音階データがメロディ記憶領域から読み出され、発音指示メッセージの組み立てに用いられる。   The performance control information generating unit 132 waits for the phonetic symbol message to be assembled and output, and the scale data at the current scale reading position among the scale data constituting the melody data in the melody storage area. The composition control message assembling unit 134 reads out and assembles the pronunciation instruction message including the scale data and the phonetic character data indicating “ka” and the operation intensity information output from the 50-sound designating user interface unit 121. Let it be done. Here, in the initial state, the scale reading position is the position of the first scale data of the melody data of “Kaeru no Uta”. Therefore, the scale data of “do” is read from the melody storage area and used for assembling the pronunciation instruction message.

このようにして発音指示メッセージの出力が行われると、演奏制御情報生成部132は、音階読み出し位置を1だけ進める。これにより音階読み出し位置は、メロディデータにおける2番目の音階データである「レ」の音階データの位置となる。   When the sound generation instruction message is output in this way, the performance control information generation unit 132 advances the scale reading position by one. Thus, the scale reading position becomes the position of the scale data of “Le” which is the second scale data in the melody data.

次にユーザが「か」ボタンから指を離し、50音指定ユーザインタフェース部121からオフタイミング信号が出力されると、演奏制御情報生成部132は、直前に合成制御メッセージ組立部134に組み立てさせた発音指示メッセージに対応した消音指示メッセージ、すなわち、「ド」の音階データを含む消音指示メッセージを合成制御メッセージ組立部134に組み立てさせ、その出力を行わせる。従って、歌唱合成エンジン2では、「ド」の音階を有し、「か」ボタンの押圧期間に亙って継続する「か」の音声が合成される。   Next, when the user lifts his finger from the “ka” button and an off timing signal is output from the 50-sound designation user interface unit 121, the performance control information generation unit 132 causes the synthesis control message assembly unit 134 to assemble it immediately before. The mute instruction message corresponding to the pronunciation instruction message, that is, the mute instruction message including the scale data of “do” is caused to be assembled by the synthesis control message assembling unit 134 and output. Therefore, the singing voice synthesis engine 2 synthesizes the voice of “ka” that has a scale of “do” and continues for the period during which the “ka” button is pressed.

次に「え」ボタンが押され、50音指定ユーザインタフェース部121からオンタイミング信号、「え」を示す表音文字データおよび操作強度情報が出力されると、50音/発音記号変換部131は、「え」の発音記号を示す発音記号メッセージの組み立ておよびその出力を合成制御メッセージ組立部134に行わせる。また、演奏制御情報生成部132は、メロディ記憶領域内のメロディデータを構成する各音階データのうち現在の音階読み出し位置にある「レ」の音階データを読み出し、この「レ」の音階データと、「え」を示す表音文字データとともに50音指定ユーザインタフェース部121から出力された操作強度情報とを含む発音指示メッセージの組み立ておよびその出力を合成制御メッセージ組立部134に行わせる。そして、演奏制御情報生成部132は、音階読み出し位置を1だけ進める。次にユーザが「え」ボタンから指を離し、50音指定ユーザインタフェース部121からオフタイミング信号が出力されると、演奏制御情報生成部132は、直前に合成制御メッセージ組立部134に組み立てさせた発音指示メッセージに対応した消音指示メッセージ、すなわち、「レ」の音階データを含む消音指示メッセージを合成制御メッセージ組立部134に組み立てさせ、その出力を行わせる。以下、「る」ボタン、「の」ボタン、「う」ボタン、「た」ボタンが押されたときも同様の動作が行われる。   Next, when the “e” button is pressed and the on-timing signal, the phonetic character data indicating “e”, and the operation intensity information are output from the 50-sound designation user interface unit 121, the 50-sound / phonetic symbol conversion unit 131 , The synthesis control message assembly unit 134 assembles and outputs a phonetic symbol message indicating the phonetic symbol of “e”. Further, the performance control information generation unit 132 reads the scale data of “Le” at the current scale reading position among the scale data constituting the melody data in the melody storage area, and the scale data of “Le”, The composition control message assembling unit 134 assembles and outputs a pronunciation instruction message including the phonetic character data indicating “e” and the operation intensity information output from the 50-sound designation user interface unit 121. Then, the performance control information generation unit 132 advances the scale reading position by one. Next, when the user releases his / her finger from the “e” button and an off timing signal is output from the 50 sound designation user interface unit 121, the performance control information generation unit 132 causes the synthesis control message assembly unit 134 to assemble immediately before. The mute instruction message corresponding to the pronunciation instruction message, that is, the mute instruction message including the scale data of “R” is made to be assembled by the synthesis control message assembly unit 134 and output. Thereafter, the same operation is performed when the “RU” button, the “NO” button, the “U” button, and the “TA” button are pressed.

そして、ユーザが「゛」ボタンを押した状態で「か」ボタンを押すと、「か」ボタンの押圧操作により入力表音文字「が」が確定する。このため、「か」ボタンの押圧開始タイミングにおいて、50音指定ユーザインタフェース部121からオンタイミング信号、「が」を示す表音文字データおよび「か」ボタンについての操作強度情報が出力される。これに応じて、50音/発音記号変換部131は、「が」の発音記号を示す発音記号メッセージの組み立ておよびその出力を合成制御メッセージ組立部134に行わせる。また、演奏制御情報生成部132は、メロディ記憶領域内のメロディデータを構成する各音階データのうち現在の音階読み出し位置にある「ド」の音階データを読み出し、この「ド」の音階データと、「が」を示す表音文字データとともに50音指定ユーザインタフェース部121から出力された操作強度情報とを含む発音指示メッセージの組み立ておよびその出力を合成制御メッセージ組立部134に行わせる。そして、演奏制御情報生成部132は、音階読み出し位置を1だけ進める。   Then, when the user presses the “ka” button while pressing the “ボ タ ン” button, the input phonetic character “ga” is fixed by the pressing operation of the “ka” button. For this reason, at the pressing start timing of the “ka” button, the on-timing signal, the phonetic character data indicating “ga”, and the operation intensity information about the “ka” button are output from the 50-sound designation user interface unit 121. In response to this, the 50 tone / phonetic symbol conversion unit 131 causes the synthesis control message assembly unit 134 to assemble and output a phonetic symbol message indicating the phonetic symbol of “ga”. The performance control information generation unit 132 reads the scale data of “do” at the current scale reading position among the scale data constituting the melody data in the melody storage area, and the scale data of “do”, The composition control message assembling unit 134 assembles and outputs a pronunciation instruction message including the phonetic character data indicating “ga” and the operation intensity information output from the 50-sound designation user interface unit 121. Then, the performance control information generation unit 132 advances the scale reading position by one.

上記発音指示メッセージが与えられることにより、歌唱合成エンジン2は、「ド」の音階を有する「が」の音声の合成を開始する。この音声「が」の伸ばし音部分である「あ」の持続時間を長くしたい場合、ユーザは「か」ボタンを押し続ければよい。ユーザが「か」ボタンから指を離すと、演奏制御情報生成部132は、「ド」の音階データを含む消音指示メッセージを合成制御メッセージ組立部134に出力させる。これにより歌唱合成エンジン2は、「ド」の音階での合成を行っていた「が」の伸ばし音部分「あ」を消音させる。   When the pronunciation instruction message is given, the singing voice synthesis engine 2 starts synthesizing the voice of “GA” having the scale of “DO”. In order to increase the duration of “A”, which is the extended sound part of the voice “GA”, the user may keep pressing the “KA” button. When the user removes the finger from the “ka” button, the performance control information generating unit 132 causes the synthesis control message assembling unit 134 to output a mute instruction message including the scale data of “do”. As a result, the singing voice synthesis engine 2 silences the extended sound portion “A” of “GA” which has been synthesized in the scale of “DO”.

図7〜図10に示す各動作例は、メロディ再生モードにおいて替え歌の歌唱音声を合成させる動作例である。これらの動作例においても、メロディ記憶領域には「ドレミファミレド…」という「かえるの歌」のメロディを示すメロディデータが予め記憶されている。   Each of the operation examples shown in FIGS. 7 to 10 is an operation example for synthesizing a singing voice of a percussion song in the melody reproduction mode. Also in these operation examples, melody data indicating the melody of “Frog song” “Doremi Family R ...” is stored in advance in the melody storage area.

図7に示す動作例では、「かえるの歌」のメロディのうち4個の音符からなる部分「ドレミファ」に対する歌詞として、3文字の歌詞「ぶたの」が入力されている。この歌詞がメロディに対して「字足りず」である状況に対応するため、図7に示す動作例において、ユーザは、音階読み出し位置制御ボタン部104の「とばす」ボタンの操作を行っている。   In the operation example shown in FIG. 7, the three-character lyrics “Butano” is input as the lyrics for the part “Doremifa” consisting of four notes of the melody of “Kaeru no Uta”. In order to correspond to the situation where the lyrics are “not enough characters” for the melody, in the operation example shown in FIG. 7, the user operates the “jump” button of the scale reading position control button unit 104.

さらに詳述すると、図7に示す動作例において、ユーザは、「゛」ボタンを押し、「゛」ボタンがONである期間内に「ふ」ボタンを押している。この場合、50音指定ユーザインタフェース部121は、「ふ」ボタンの押圧開始タイミングにおいて、オンタイミング信号、「ぶ」を示す表音文字データおよび「ふ」ボタンの押圧力に応じた操作強度情報を出力する。これにより50音/発音記号変換部131は、「ぶ」の発音記号を示す発音記号メッセージを合成制御メッセージ組立部134に出力させる。また、演奏制御情報生成部132は、メロディ記憶領域内のメロディデータにおける現在の音階読み出し位置にある「ド」の音階データを読み出し、この「ド」の音階データと、「ぶ」を示す表音文字データとともに50音指定ユーザインタフェース部121から出力された操作強度情報とを含む発音指示メッセージを合成制御メッセージ組立部134に出力させる。そして、演奏制御情報生成部132は、音階読み出し位置を1だけ進める。これにより音階読み出し位置は、メロディ記憶領域内のメロディデータの2番目の音階データ、すなわち、「レ」の音階データの位置となる。   More specifically, in the operation example shown in FIG. 7, the user presses the “゛” button and presses the “F” button during the period when the “「 ”button is ON. In this case, the 50-sound designating user interface unit 121 receives the on-timing signal, the phonetic character data indicating “bu”, and the operation intensity information corresponding to the pressing force of the “fu” button at the timing of starting the “fu” button. Output. As a result, the 50 sound / phonetic symbol conversion unit 131 causes the synthesis control message assembly unit 134 to output a phonetic symbol message indicating the phonetic symbol of “bu”. The performance control information generating unit 132 reads the scale data of “do” at the current scale reading position in the melody data in the melody storage area, and the scale data of “do” and the phonetic sound indicating “bu”. The synthesis control message assembling unit 134 is caused to output a sound generation instruction message including the character data and the operation intensity information output from the 50 sound designation user interface unit 121. Then, the performance control information generation unit 132 advances the scale reading position by one. As a result, the scale reading position becomes the position of the second scale data of the melody data in the melody storage area, that is, the scale data position of “R”.

次にユーザは、「ふ」ボタンから指を離す。これにより50音指定ユーザインタフェース部121からオフタイミング信号が出力され、演奏制御情報生成部132は、直前に出力させた発音指示メッセージに対応した消音指示メッセージを合成制御メッセージ組立部134に出力させ、歌唱合成エンジン2における「ド」の音階での「ぶ」の音声の合成を終了させる。   Next, the user releases his / her finger from the “F” button. As a result, an off timing signal is output from the 50 sound designation user interface unit 121, and the performance control information generation unit 132 causes the synthesis control message assembly unit 134 to output a mute instruction message corresponding to the sound output instruction message output immediately before, The synthesis of the voice of “bu” in the scale of “do” in the singing voice synthesis engine 2 is terminated.

そして、ユーザは、このようにして「ふ」ボタンから指を離して「ぶ」の音声の合成を終了させた後、「とばす」ボタンを押す。この結果、50音指定ユーザインタフェース部121から「とばす」ボタンを示すボタン名情報、「とばす」ボタンの押圧開始を示すオンタイミング信号、「とばす」ボタンの押圧力に応じた操作強度情報が出力される。この場合、演奏制御情報生成部132は、50音指定ユーザインタフェース部121から「とばす」ボタンを示すボタン名情報が出力されるのに応じて、音階読み出し位置を1だけ進める。これにより音階読み出し位置は、メロディデータにおいて2番目の「レ」の音階データの位置から3番目の「ミ」の音階データの位置へと変更される。   Then, after the user releases the finger from the “fu” button to finish synthesizing the voice of “bu” in this way, the user presses the “skip” button. As a result, the button name information indicating the “jump” button, the on-timing signal indicating the start of pressing the “jump” button, and the operation intensity information corresponding to the pressing force of the “jump” button are output from the 50 sound designation user interface unit 121. The In this case, the performance control information generation unit 132 advances the scale reading position by 1 in response to the output of the button name information indicating the “jump” button from the 50-sound designation user interface unit 121. As a result, the scale reading position is changed from the position of the second “le” scale data in the melody data to the position of the third “mi” scale data.

次にユーザは、「た」ボタンを押す。この結果、50音指定ユーザインタフェース部121からオンタイミング信号、「た」を示す表音文字データおよび操作強度情報が出力される。これにより50音/発音記号変換部131は、「た」の発音記号を示す発音記号メッセージを合成制御メッセージ組立部134に出力させる。また、演奏制御情報生成部132は、メロディ記憶領域内のメロディデータにおける現在の音階読み出し位置にある「ミ」の音階データを読み出し、この「ミ」の音階データと、「た」を示す表音文字データとともに50音指定ユーザインタフェース部121から出力された操作強度情報とを含む発音指示メッセージを合成制御メッセージ組立部134に出力させる。そして、演奏制御情報生成部132は、音階読み出し位置を1だけ進める。これにより音階読み出し位置は、メロディ記憶領域内のメロディデータの4番目の音階データ、すなわち、「ファ」の音階データの位置となる。   Next, the user presses the “ta” button. As a result, the on-timing signal, phonogram data indicating “ta”, and operation intensity information are output from the 50-sound designation user interface unit 121. As a result, the 50 sound / phonetic symbol conversion unit 131 causes the synthesis control message assembly unit 134 to output a phonetic symbol message indicating the phonetic symbol of “ta”. Further, the performance control information generation unit 132 reads the scale data of “M” at the current scale reading position in the melody data in the melody storage area, and the scale data of “M” and the phonetic sound indicating “TA”. The synthesis control message assembling unit 134 is caused to output a sound generation instruction message including the character data and the operation intensity information output from the 50 sound designation user interface unit 121. Then, the performance control information generation unit 132 advances the scale reading position by one. Thus, the scale reading position becomes the position of the fourth scale data of the melody data in the melody storage area, that is, the scale data position of “F”.

このように図7に示す動作例では、歌唱合成エンジン2による「ぶ」の音声の合成が終了した後、「とばす」ボタンが押されることにより、音階読み出し位置が2番目の「レ」の音階データの位置から3番目の「ミ」の音階データの位置に変更され、「ぶ」の次の表音文字「た」が指示されたときには、3番目の「ミ」の音階データが読み出され、「ミ」の音階の「た」の音声が歌唱合成エンジン2により合成される。   As described above, in the operation example shown in FIG. 7, after the synthesis of the “bu” voice by the singing voice synthesis engine 2 is finished, the “jump” button is pressed, so that the scale reading position is the second “le” scale. When the position of the data is changed to the position of the third “Mi” scale data, and the next phonetic character “Ta” after “B” is instructed, the third “Mi” scale data is read out. The voice of “Ta” in the scale of “Mi” is synthesized by the singing voice synthesis engine 2.

図8に示す動作例においても、歌詞がメロディに対して「字足りず」である状況に対応するため、ユーザは音階読み出し位置制御ボタン部104の「とばす」ボタンの操作を行っている。この図8に示す動作例の図7に示す動作例との相違点は、「とばす」ボタンを押圧するタイミングにある。図7に示す動作例では、ユーザは、「ふ」ボタンから指を離し、歌唱合成エンジン2による「ぶ」の音声の合成を終了させた後、「とばす」ボタンを押した。これに対し、図8に示す動作例において、ユーザは、「ふ」ボタンを指で押し、歌唱合成エンジン2に「ぶ」の音声の合成を行わせている期間内に「とばす」ボタンを押している。従って、歌唱合成エンジン2に「ぶ」の音声の合成を行わせている期間内に、音階読み出し位置がメロディデータにおいて2番目の「レ」の音階データの位置から3番目の「ミ」の音階データの位置へと変更される。   Also in the operation example shown in FIG. 8, the user operates the “jump” button of the scale reading position control button unit 104 in order to deal with the situation where the lyrics are “not enough characters” for the melody. The difference between the operation example shown in FIG. 8 and the operation example shown in FIG. 7 is in the timing of pressing the “skip” button. In the operation example shown in FIG. 7, the user releases his / her finger from the “fu” button, finishes synthesizing the voice of “bu” by the singing voice synthesis engine 2, and then presses the “jump” button. On the other hand, in the operation example shown in FIG. 8, the user presses the “fu” button with a finger and presses the “skip” button during the period when the singing synthesis engine 2 is synthesizing the voice of “bu”. Yes. Therefore, within the period in which the singing voice synthesis engine 2 is synthesizing the voice of “bu”, the scale reading position is the third “mi” scale from the position of the second “le” scale data in the melody data. It is changed to the data position.

図9に示す動作例では、歌詞がメロディに対して「字足りず」である状況に対応するため、ユーザは音階読み出し位置制御ボタン部104の「すすめる」ボタンの操作を行っている。さらに詳述すると、図9に示す動作例において、ユーザは、「ふ」ボタンを指で押し、歌唱合成エンジン2に「ぶ」の音声の合成を行わせている期間内に「すすめる」ボタンを押している。   In the operation example shown in FIG. 9, the user operates the “recommend” button of the scale reading position control button unit 104 in order to cope with the situation where the lyrics are “not enough characters” for the melody. More specifically, in the operation example shown in FIG. 9, the user presses the “fu” button with a finger and presses the “recommend” button within the period in which the singing voice synthesis engine 2 synthesizes the voice of “bu”. Is pushing.

このように歌唱合成エンジン2による「ぶ」の音声の合成が行われている期間内に「すすめる」ボタンが押圧され、「すすめる」ボタンについてのオンタイミング信号、ボタン名信号および操作強度情報が50音指定ユーザインタフェース部121から出力されると、演奏制御情報生成部132は、メロディ記憶領域内のメロディデータにおける現在の音階読み出し位置にある「レ」の音階データを読み出し、この「レ」の音階データと、「すすめる」ボタンを示すボタン名情報とともに50音指定ユーザインタフェース部121から出力された操作強度情報とを含む発音指示メッセージを合成制御メッセージ組立部134に出力させる。次に演奏制御情報生成部132は、直前に合成制御メッセージ組立部134に出力させた発音指示メッセージに対応した消音指示メッセージ、すなわち、「ド」の音階データを含む消音指示メッセージを合成制御メッセージ組立部134に出力させる。そして、ユーザが「ふ」ボタンから指を離し、「ふ」ボタンについてのオフタイミング信号が50音指定ユーザインタフェース部121から出力されると、演奏制御情報生成部132は、直前に合成制御メッセージ組立部134に出力させた発音指示メッセージに対応した消音指示メッセージ、すなわち、「レ」の音階データを含む消音指示メッセージを合成制御メッセージ組立部134に出力させる。「た」ボタンが押された場合の動作は、図7に示す動作例、図8に示す動作例と同様であり、「ミ」の音階を持った「た」の音声が歌唱合成エンジン2により合成される。   Thus, the “recommend” button is pressed during the period in which the “bu” voice synthesis is performed by the singing synthesis engine 2, and the on-timing signal, the button name signal, and the operation intensity information about the “recommend” button are 50. When output from the sound designating user interface unit 121, the performance control information generating unit 132 reads the scale data of “Re” at the current scale reading position in the melody data in the melody storage area, and the scale of “Re” is read. The synthesis control message assembling unit 134 is caused to output a sound generation instruction message including data and operation intensity information output from the 50-sound designating user interface unit 121 together with button name information indicating a “recommend” button. Next, the performance control information generation unit 132 generates a mute instruction message corresponding to the pronunciation instruction message output to the synthesis control message assembly unit 134 immediately before, that is, a mute instruction message including scale data of “do”. Output to the unit 134. Then, when the user releases his / her finger from the “fu” button and an off timing signal for the “fu” button is output from the 50-sound designating user interface unit 121, the performance control information generating unit 132 immediately assembles the synthesis control message. The synthesis control message assembling unit 134 outputs a mute instruction message corresponding to the pronunciation instruction message output to the unit 134, that is, a mute instruction message including the scale data of “R”. The operation when the “ta” button is pressed is the same as the operation example shown in FIG. 7 and the operation example shown in FIG. 8, and the voice of “ta” having the scale of “mi” is generated by the singing synthesis engine 2. Synthesized.

この図9に示す動作例では、歌唱合成エンジン2は、ユーザが「ふ」ボタンの押圧を開始したときに、「ぶ」の発音記号を示す発音記号メッセージと、「ド」の音階データを含む発音指示メッセージを受け取り、「ド」の音階での「ぶ」の音声の合成を開始する。そして、ユーザが「すすめる」ボタンの押圧を開始したときに、「レ」の音階データを含む発音指示メッセージと「ド」の音階データを含む消音指示メッセージを受け取る。このとき、歌唱合成エンジン2は、「ぶ」の音声の伸ばし音部分である「う」の音声を合成中であるが、「レ」の音階データを含む発音指示メッセージを受け取ることにより、合成中の「う」の音声の音階を「ド」から「レ」に切り換える。そして、歌唱合成エンジン2は、ユーザが「ふ」ボタンから指を離したときに、「レ」の音階データを含む消音指示メッセージを受け取り、「レ」の音階の「う」の音声の合成を終了する。従って、図9に示す動作例では、メロディ「ドレミ」に対して表音文字「ぶ」および「た」を入力するとともに、表音文字「ぶ」に対応した音声の合成中に「すすめる」ボタンを押すことにより、ぶ(ド)、う(レ)、た(ミ)(括弧内は音声の音階)なる音声が合成されることとなる。   In the operation example shown in FIG. 9, the singing synthesis engine 2 includes a phonetic symbol message indicating a phonetic symbol of “bu” and scale data of “do” when the user starts pressing the “fu” button. Upon receipt of the pronunciation instruction message, synthesis of the voice of “bu” in the scale of “do” is started. Then, when the user starts pressing the “recommend” button, a sound generation instruction message including the scale data “re” and a mute instruction message including the scale data “do” are received. At this time, the singing voice synthesis engine 2 is synthesizing the voice of “U”, which is the extended sound part of the voice of “bu”, but is synthesizing by receiving the pronunciation instruction message including the scale data of “le”. Switch the scale of the voice of “u” from “do” to “le”. When the user releases his / her finger from the “fu” button, the singing synthesis engine 2 receives a mute instruction message including the scale data of “re”, and synthesizes the sound of “u” in the scale of “le”. finish. Therefore, in the operation example shown in FIG. 9, the phonetic characters “bu” and “ta” are input to the melody “doremi”, and the “recommend” button is used during the synthesis of the speech corresponding to the phonetic character “bu”. By pressing, the voices of bu (do), u (re), and ta (mi) (in parentheses are the scale of the voice) are synthesized.

なお、厳密には、この動作例において歌唱合成エンジン2では、「レ」の発音開始メッセージが与えられてから「ド」の消音指示メッセージが与えられるまでの間、「ド」の音階での音声と「レ」の音階での音声を重複して合成することとなる。そこで、音階「ド」から音階「レ」への遷移をより自然にするために、歌唱合成エンジン2では、先行する発音指示メッセージおよび消音指示メッセージの対が指定する発音継続期間(この例では「ド」の発音継続期間)と、後発の発音指示メッセージおよび消音指示メッセージの対が指定する発音継続期間(この例では「レ」の発音継続期間)とが重複している場合に、後発の対における発音指示メッセージ(この例では「レ」の発音指示メッセージ)が与えられた時点で、先行する対における発音指示メッセージ(この例では「ド」の発音指示メッセージ)により発音を開始した音声の音量をフェードアウトさせるようにしてもよい。   Strictly speaking, in this example of operation, the singing voice synthesis engine 2 performs the voice in the scale of “do” from the time when the “le” pronunciation start message is given until the “do” mute instruction message is given. And the voices in the scale of “Le” are overlapped and synthesized. Therefore, in order to make the transition from the scale “do” to the scale “le” more natural, the singing synthesis engine 2 uses the pronunciation duration period (in this example, “ ) ”And the pronunciation continuation period specified by the pair of the later pronunciation instruction message and the mute instruction message (in this example, the pronunciation continuation period of“ Le ”) overlap, At the point of time when the pronunciation instruction message (in this example, “le” pronunciation instruction message) is given, the volume of the sound that has been pronounced by the pronunciation instruction message in the preceding pair (in this example, “do” pronunciation instruction message) May be faded out.

図10に示す動作例では、「かえるの歌」のメロディのうち4個の音符からなる部分「ドレミファ」に対する歌詞として、5文字の歌詞「しまうまの」が入力されている。この歌詞がメロディに対して「字余り」である状況に対応するため、図10に示す動作例において、ユーザは、音階読み出し位置制御ボタン部104の「くりかえす」ボタンの操作を行っている。   In the operation example shown in FIG. 10, the five-character lyrics “Sumamano” are input as the lyrics for the part “Doremifa” consisting of four notes in the melody of “Kaeru no Uta”. In order to correspond to the situation where the lyrics are “remaining characters” with respect to the melody, in the operation example shown in FIG. 10, the user operates the “repeat” button of the scale reading position control button unit 104.

さらに詳述すると、図10に示す動作例では、「し」ボタンが押されたとき、「し」の発音記号を示す発音記号メッセージが歌唱合成エンジン2に送られるとともに、メロディデータにおいて最初の「ド」の音階データが読み出され、この「ド」の音階データを含む発音指示メッセージが歌唱合成エンジン2に送られる。そして、音階読み出し位置が「ド」の音階データの位置から「レ」の音階データの位置に進められる。   More specifically, in the operation example shown in FIG. 10, when the “shi” button is pressed, a phonetic symbol message indicating the phonetic symbol of “shi” is sent to the song synthesis engine 2 and the first “ The scale data of “do” is read out, and a pronunciation instruction message including the scale data of “do” is sent to the singing voice synthesis engine 2. Then, the scale reading position is advanced from the position of the scale data of “do” to the position of the scale data of “re”.

次に「ま」ボタンが押されたとき、「ま」の発音記号を示す発音記号メッセージが歌唱合成エンジン2に送られるとともに、メロディデータにおいて現在の音階読み出し位置にある「レ」の音階データが読み出され、この「レ」の音階データを含む発音指示メッセージが歌唱合成エンジン2に送られる。そして、音階読み出し位置が「レ」の音階データの位置から「ミ」の音階データの位置に進められる。   Next, when the “MA” button is pressed, a phonetic symbol message indicating the phonetic symbol of “MA” is sent to the singing voice synthesis engine 2 and the scale data of “RE” at the current scale reading position in the melody data is displayed. The pronunciation instruction message including the scale data of “L” is sent to the singing voice synthesis engine 2. Then, the scale reading position is advanced from the position of the scale data of “Le” to the position of the scale data of “Mi”.

そして、図10に示す動作例では、「ま」ボタンがONである期間内に「くりかえす」ボタンが押される。この場合、50音指定ユーザインタフェース部121は、「くりかえす」ボタンの押圧開始タイミングにおいて、「くりかえす」ボタンについてのオンタイミング信号、ボタン名情報および操作強度情報を出力する。   In the operation example shown in FIG. 10, the “repeat” button is pressed during the period in which the “ma” button is ON. In this case, the 50-sound designation user interface unit 121 outputs an on timing signal, button name information, and operation intensity information for the “repeat” button at the pressing start timing of the “repeat” button.

このようにして「くりかえす」ボタンについてのボタン名情報が出力されると、演奏制御情報生成部132により、音階読み出し位置が「ミ」の音階データの位置から「レ」の音階データの位置に1だけ戻される。   When the button name information about the “repeat” button is output in this way, the performance control information generation unit 132 changes the scale reading position from the position of the scale data of “mi” to the position of the scale data of “re”. Only returned.

そして、「ま」ボタンの後、「う」ボタンが押されると、「う」の発音記号を示す発音記号メッセージが歌唱合成エンジン2に送られるとともに、メロディデータにおいて現在の音階読み出し位置にある「レ」の音階データが読み出され、この「レ」の音階データを含む発音指示メッセージが歌唱合成エンジン2に送られる。そして、音階読み出し位置が「レ」の音階データの位置から「ミ」の音階データの位置に進められる。   Then, when the “u” button is pressed after the “ma” button, a phonetic symbol message indicating the phonetic symbol of “u” is sent to the singing voice synthesis engine 2, and at the current scale reading position in the melody data. The scale data of “R” is read out, and a pronunciation instruction message including the scale data of “L” is sent to the singing synthesis engine 2. Then, the scale reading position is advanced from the position of the scale data of “Le” to the position of the scale data of “Mi”.

次に、「う」ボタンの後、「ま」ボタンが押されると、「ま」の発音記号を示す発音記号メッセージが歌唱合成エンジン2に送られるとともに、メロディデータにおいて現在の音階読み出し位置にある「ミ」の音階データが読み出され、この「ミ」の音階データを含む発音指示メッセージが歌唱合成エンジン2に送られる。そして、音階読み出し位置が「ミ」の音階データの位置から「ファ」の音階データの位置に進められる。   Next, when the “MA” button is pressed after the “U” button, a phonetic symbol message indicating the phonetic symbol of “MA” is sent to the singing synthesis engine 2 and at the current scale reading position in the melody data. The scale data of “M” is read, and a pronunciation instruction message including the scale data of “M” is sent to the singing voice synthesis engine 2. Then, the scale reading position is advanced from the position of the scale data of “Mi” to the position of the scale data of “F”.

従って、図10に示す動作例では、メロディ「ドレミ」に対して1文字多い表音文字「し」、「ま」、「う」、「ま」を入力するとともに、2番目の表音文字「ま」に対応した音声の合成中に「くりかえす」ボタンを押すことにより、し(ド)、ま(レ)、う(レ)、ま(ミ)(括弧内は音声の音階)なる音声が合成されることとなる。このように「くりかえす」ボタンの押圧操作により1つの音階データを歌詞における連続した2個の表音文字に繰り返し適用することができるので、メロディに対して歌詞が「字余り」である状況に対処することができる。なお、図10に示す動作例では、「レ」の音階データを2番目の表音文字「ま」と3番目の表音文字「う」に繰り返し適用するために、前者の表音文字「ま」の音声の合成中に「くりかえす」ボタンを押下しているが、後者の表音文字「う」の入力が行われる前であれば、前者の表音文字「ま」の音声の合成の終了後に「くりかえす」ボタンを押下してもよい。   Therefore, in the operation example shown in FIG. 10, the phonetic character “shi”, “ma”, “u”, “ma”, which is one character larger than the melody “doremi”, is input and the second phonetic character “ Pressing the “Repeat” button while synthesizing the voice corresponding to “ma” will synthesize the voice of “do”, “ma”, “le”, “ma”, and “ma” (in parentheses the scale of the voice). Will be. As described above, since one scale data can be repeatedly applied to two consecutive phonetic characters in the lyrics by pressing the “repeat” button, the situation where the lyrics are “character remainder” with respect to the melody is dealt with. be able to. In the example of operation shown in FIG. 10, in order to repeatedly apply the scale data of “L” to the second phonetic character “MA” and the third phonetic character “U”, the former phonetic character “MA” is used. ”During the voice synthesis, but before the latter phonetic character“ U ”is input, the voice synthesis of the former phonetic character“ MA ”ends. You may press the “Repeat” button later.

以上説明したように、本実施形態におけるメロディ再生モードによれば、RAM150のメロディ記憶領域に音階データの列であるメロディデータを予め記憶させ、50音ボタン部101および50音補助ボタン部102の操作により表音文字を入力することにより、表音文字の入力に合わせて、音階読み出し位置を進めつつ音階データをメロディ記憶領域から順次読み出し、入力した表音文字に対応し、かつ、メロディ記憶領域から読み出した音階データに対応した音階を持った音声を歌唱合成エンジン2に合成させることができる。   As described above, according to the melody playback mode in the present embodiment, melody data, which is a sequence of scale data, is stored in advance in the melody storage area of the RAM 150, and the operation of the 50 sound button unit 101 and the 50 sound auxiliary button unit 102 is performed. By inputting the phonetic character, the scale data is sequentially read from the melody storage area while the scale reading position is advanced in accordance with the input of the phonetic character, corresponding to the input phonetic character, and from the melody storage area. A voice having a scale corresponding to the read scale data can be synthesized by the singing synthesis engine 2.

ところで、操作部の操作に応じて音声を合成させる装置はこれまでにも提供されていた。例えば子供向けの知育発達のための玩具として、50音の表示されたボタンを備え、例えば「あ」のボタンのオンイベントの発生に応じて「あ」の音を合成してスピーカから出力する玩具が提供されている。この種の玩具によれば、ユーザである子供は、ある文字のボタンを見つけて押すことによりその文字の読みを発音させることができるので、読みが発音されるのを楽しみながら文字を憶えることができる。   By the way, an apparatus for synthesizing a voice in response to an operation of an operation unit has been provided so far. For example, as a toy for children's educational development, a toy that has a button with 50 sounds displayed, for example, synthesizes the sound of “A” and outputs it from the speaker in response to the occurrence of an “A” button on-event. Is provided. According to this type of toy, the child who is a user can find a character by reading and pressing the button of a certain character, so that the user can remember the character while enjoying the pronunciation. it can.

しかしながら、この玩具では、ボタン操作により指定された50音が常に一定の音階で発音されるため、50音を連続して入力しても無味乾燥な音声となり、音楽的要素は全くなかった。   However, in this toy, the 50 sounds designated by the button operation are always sounded in a certain scale, so even if 50 sounds are continuously input, the sound becomes dry and there is no musical element.

これに対し、本実施形態のメロディ再生モードによれば、50音ボタン部101および50音補助ボタン部102の操作により表音文字を入力した場合に、予め記憶されたメロディデータに従った音階で各表音文字の発音が行われるので、ユーザである子供は、自分が入力した表音文字が歌唱として合成されるのを聞きながら、歌詞として入力した文字を憶えることができる。   On the other hand, according to the melody reproduction mode of the present embodiment, when a phonetic character is input by operating the 50 sound button unit 101 and the 50 sound auxiliary button unit 102, the melody reproduction mode is in a scale according to the stored melody data. Since each phonetic character is pronounced, the child who is the user can remember the characters entered as lyrics while listening to the synthesized phonetic characters being synthesized as a song.

また、本実施形態によれば、メロディ記憶領域に記憶されたメロディデータに従って、操作部の操作により順次入力される表音文字に適用する音階データを決定するので、同一曲についての歌詞入力を繰り返し行って同一曲の歌唱音声を合成させることができる。従って、歌詞入力の練習を繰り返し行うことができる。   In addition, according to the present embodiment, scale data to be applied to phonograms sequentially input by operation of the operation unit is determined according to the melody data stored in the melody storage area, so that lyrics input for the same song is repeated. You can go and synthesize the singing voice of the same song. Therefore, the practice of inputting lyrics can be repeated.

また、本実施形態のメロディ再生モードでは、50音ボタン部101のボタン操作により表音文字を入力するときのボタン操作の押圧力(操作強度)により、その表音文字の音声を発音させるときの操作強度情報が決定される。従って、歌詞入力のために行う50音ボタン部101のボタン操作により歌唱音声の音楽的表情付けを行うことができる。   Further, in the melody playback mode of the present embodiment, the sound of the phonetic character is generated by the pressing force (operation intensity) of the button operation when inputting the phonetic character by the button operation of the 50 sound button unit 101. Operation intensity information is determined. Therefore, the musical expression of the singing voice can be performed by the button operation of the 50 sound button unit 101 for inputting lyrics.

また、本実施形態のメロディ再生モードによれば、予め記憶されたメロディデータに合わせて発音する歌詞をユーザが自由に入力することができる。従って、歌唱合成エンジン2に替え歌の歌唱合成を行わせることができる。また、歌詞の一部を即興で別の歌詞に変えて歌唱合成を行わせることも可能である。   Further, according to the melody reproduction mode of the present embodiment, the user can freely input the lyrics that are pronounced in accordance with the melody data stored in advance. Therefore, the singing composition engine 2 can synthesize the singing of the replacement song. It is also possible to sing a song by improvising a part of the lyrics with other lyrics.

歌唱合成エンジン2に替え歌の歌唱合成を行わせる場合、メロディ記憶領域に記憶されたメロディデータが示す音符の数に比べて、50音ボタン部101および50音補助ボタン部102の操作により入力する歌詞の表音文字数が不足している「字足りず」状況、過剰である「字余り」状況が発生し得る。本実施形態によれば、「とばす」ボタン、「すすめる」の操作により「字足りず」状況に対処することができ、「くりかえす」ボタンの操作により「字余り」状況に対処することができる。また、「字足りず」状況において、ある音声の発音継続中に「すすめる」ボタンをONにすることにより、メロディ記憶領域から音階データを読み出させ、発音中の音声における伸ばし音部分の音階をその読み出した音階データが示す音階に変化させることができる。従って、「字足りず」状況でも、滑らかで自然な歌唱を実現することができる。なお、「すすめる」ボタンの操作を伴う図9の動作例では、「ぶ」の音声の発音中に「すすめる」ボタンが押されたとき、この「すすめる」ボタンの押圧操作により発生した操作強度情報を「ぶ」の伸ばし音部分「う」の発音指示メッセージに適用したが、入力表音文字「ぶ」を確定させた「ふ」ボタンの押圧操作により発生された操作強度情報、すなわち、「ぶ」の音声の発音指示メッセージに適用した操作強度情報を適用してもよい。   When the singing composition engine 2 performs singing of a replacement song, the lyrics input by operating the 50 sound button unit 101 and the 50 sound auxiliary button unit 102 compared to the number of notes indicated by the melody data stored in the melody storage area There may be a situation where the number of phonetic characters is insufficient, or a situation where there is an excess of letters. According to the present embodiment, it is possible to deal with the “character shortage” situation by the operation of the “skipping” button and “recommend”, and it is possible to deal with the “character remainder” situation by the operation of the “repeat” button. Also, in the “character shortage” situation, by turning on the “Recommend” button while a certain voice is sounding, the scale data is read from the melody storage area, and the scale of the extended sound part in the sound being pronounced is read. The scale data indicated by the read scale data can be changed. Therefore, it is possible to realize a smooth and natural singing even in a situation where the character is insufficient. In the operation example of FIG. 9 accompanied by the operation of the “recommend” button, when the “recommend” button is pressed during the sounding of the sound of “bu”, the operation intensity information generated by the depressing operation of this “recommend” button. Is applied to the pronunciation instruction message of the extended sound part “U” of “BU”, but the operation intensity information generated by pressing the “FU” button that has confirmed the input phonetic character “BU”, that is, “ The operation intensity information applied to the pronunciation instruction message of the voice “” may be applied.

<第2実施形態>
図11は、この発明の第2実施形態である歌唱合成制御部の機能構成を示すブロック図である。本実施形態による歌唱合成制御部も上記第1実施形態におけるものと同様なメロディ再生モードを有している。図11にはこのメロディ再生モードに関連する歌唱合成制御部内の各部が示されるとともに、同メロディ再生モードにおける各部間の情報の流れが示されている。
Second Embodiment
FIG. 11: is a block diagram which shows the function structure of the song synthesis control part which is 2nd Embodiment of this invention. The song synthesis control unit according to the present embodiment also has a melody reproduction mode similar to that in the first embodiment. FIG. 11 shows each part in the singing voice synthesis control section related to the melody reproduction mode, and also shows a flow of information between the parts in the melody reproduction mode.

図11に示すように、本実施形態による歌唱合成制御部は、CPU110(図3参照)により実行されるプログラムとして、上記第1実施形態のものと同様な50音指定ユーザインタフェース部121、音階指定ユーザインタフェース部122、制御用ユーザインタフェース部123、50音/発音記号変換部131、演奏制御情報生成部132および合成制御メッセージ組立部134の他、照合部135を有している。この照合部135は、メロディ再生モードにおいて、50音指定ユーザインタフェース部121から出力される表音文字データを予め与えられた正解歌詞データと照合し、表音文字データが正解歌詞通りの正しい表音文字データであるか否か、表音文字データの出力タイミングが適切なものであるか否かを判定するモジュールである。   As shown in FIG. 11, the singing composition control unit according to the present embodiment is a program executed by the CPU 110 (see FIG. 3) as a 50-sound designation user interface unit 121, scale designation similar to that of the first embodiment. In addition to the user interface unit 122, the control user interface unit 123, the 50 sound / phonetic symbol conversion unit 131, the performance control information generation unit 132, and the synthesis control message assembly unit 134, a collation unit 135 is provided. In the melody playback mode, the collation unit 135 collates the phonogram data output from the 50-sound designation user interface unit 121 with the correct lyric data given in advance, and the phonogram data is correct as the correct lyric. This is a module for determining whether or not the data is character data and whether or not the output timing of the phonetic character data is appropriate.

本実施形態では、複数種類の曲について各曲のメロディを示すメロディデータとその曲の正解歌詞を構成する表音文字データの列である正解歌詞データの対がROM140(図3参照)に記憶されている。歌唱合成制御部が設けられた歌唱合成装置の筐体には、曲選択用の操作子が設けられており、ユーザはこの操作子の操作により、所望の曲のメロディデータと正解歌詞データの対をROM140から読み出し、メロディデータをRAM150のメロディ記憶領域に格納し、正解歌詞データをRAM150の正解歌詞記憶領域に格納する。   In the present embodiment, a pair of melody data indicating the melody of each song and correct lyric data constituting a correct lyric of the song is stored in the ROM 140 (see FIG. 3) for a plurality of types of songs. ing. The singing voice synthesizing device provided with the singing voice synthesizing unit is provided with a tune selection operation unit. The user operates the operation unit to set a pair of melody data and correct lyric data of a desired song. Is read from the ROM 140, the melody data is stored in the melody storage area of the RAM 150, and the correct lyric data is stored in the correct lyric storage area of the RAM 150.

メロディ再生モードにおいて、照合部135は、所定時間間隔で正解歌詞領域から正解歌詞の各表音文字を示す表音文字データを1個ずつ読み出す。なお、この表音文字データを読み出す時間間隔は例えば操作子の操作により指定することができるようにしてもよい。あるいは曲毎に定められた表音文字データの読み出し時間間隔を示す周期データを正解歌詞データに含めておき、照合部135がこの正解歌詞データ内の周期データが示す時間間隔で表音文字データを読み出すようにしてもよい。   In the melody playback mode, the collation unit 135 reads out phonetic character data indicating each phonetic character of the correct lyrics one by one from the correct lyrics region at predetermined time intervals. Note that the time interval for reading out the phonetic character data may be specified by, for example, operating the operator. Or the period data which shows the reading time interval of the phonetic character data defined for every music are included in correct answer lyrics data, and the collation part 135 makes phonetic character data be the time interval which the period data in this correct answer data show. You may make it read.

照合部135は、1個の表音文字データを読み出してから所定の許容時間内にその表音文字データと一致する表音文字データが50音指定ユーザインタフェース部121から出力された場合、照合部135はユーザが正しく歌詞入力を行ったと判定する。一方、1個の表音文字データを読み出してから所定の許容時間内に50音指定ユーザインタフェース部121から表音文字データが出力されなかった場合あるいは許容時間内に表音文字データが出力されたがその表音文字データが正解歌詞領域から読み出した表音文字データと一致していない場合、照合部135はユーザが誤った歌詞入力を行ったと判定する。   When the phonetic character data that matches the phonetic character data is output from the 50-sound designating user interface unit 121 within a predetermined allowable time after reading out one phonetic character data, 135 determines that the user has correctly input the lyrics. On the other hand, when the phonogram data is not output from the 50-tone designation user interface unit 121 within a predetermined allowable time after reading one phonogram data, or the phonogram data is output within the allowable time. However, if the phonogram data does not match the phonogram data read from the correct lyric area, the collation unit 135 determines that the user has entered an incorrect lyric.

照合部135は、このようにして得られる判定結果を制御用ユーザインタフェース部123に供給する。本実施形態における歌唱合成装置の筐体には、正しい歌詞入力が行われたことを示すための正解ランプと、誤った歌詞入力が行われたことを示すためのエラーランプが設けられている。制御用ユーザインタフェース部123は、正しい歌詞入力が行われた旨の判定結果を受け取った場合、正解ランプを点灯させ、誤った歌詞入力が行われた旨の判定結果を受け取った場合、エラーランプを点灯させる。   The collation unit 135 supplies the determination result obtained in this way to the control user interface unit 123. The casing of the singing voice synthesizing apparatus according to the present embodiment is provided with a correct answer lamp for indicating that correct lyrics have been input and an error lamp for indicating that incorrect lyrics have been input. The control user interface unit 123 turns on the correct lamp when receiving the determination result that the correct lyrics input has been performed, and turns on the error lamp when receiving the determination result that the incorrect lyrics input has been performed. Light up.

また、照合部135は、誤った歌詞入力が行われた旨の判定結果が得られた場合、警告音発生指示を合成制御メッセージ組立部134に送る。この警告音発生指示を受け取った合成制御メッセージ組立部134は、例えばブザー音等の警告音を合成させる合成制御メッセージを組み立て、歌唱合成エンジン2(図3参照)に供給し、警告音を出力させる。   Also, the collation unit 135 sends a warning sound generation instruction to the synthesis control message assembly unit 134 when a determination result indicating that an incorrect lyrics input has been performed is obtained. Upon receiving this warning sound generation instruction, the synthesis control message assembling unit 134 assembles a synthesis control message for synthesizing a warning sound such as a buzzer sound, and supplies it to the singing voice synthesis engine 2 (see FIG. 3) to output the warning sound. .

なお、ユーザに対して歌詞を構成する表音文字を入力するタイミングを知らせるため、照合部135が1個の表音文字データを正解歌詞領域から読み出したときに、合成制御メッセージ組立部134が例えばメトロノーム音を合成させる発音指示メッセージを組み立て、歌唱合成エンジン2に供給するようにしてもよい。   Note that when the collation unit 135 reads out one phonogram data from the correct lyric region in order to inform the user when to input the phonograms constituting the lyrics, the synthesis control message assembly unit 134, for example, A pronunciation instruction message for synthesizing the metronome sound may be assembled and supplied to the song synthesis engine 2.

本実施形態によれば、ユーザは単に歌詞を入力して予め記憶されたメロディデータに対応したメロディでの歌唱合成を行わせるだけでなく、適切なタイミングで適切な表音文字の入力を行ったか否かについての判定結果を受け取ることができる。従って、歌唱合成の興趣性が高まるという効果がある。なお、本実施形態では、全ての種類の入力表音文字について正解歌詞通りの表音文字が入力されたときに正解と判定するようにした。しかし、濁点を有する表音文字「ぶ」を入力するのには、「゛」ボタンと「ふ」ボタンの操作が必要であり、半濁点を含む表音文字「ぱ」を入力するのには、「゜」ボタンと「は」ボタンの操作が必要であり、小さい平仮名を後半部分に含む表音文字「てぃ」を入力するのには、「小」ボタンと「い」ボタンと「て」ボタンの操作を必要とする。このように入力表音文字の種類によっては適切なタイミングで完全なボタン操作を要求することが酷な場合もある。そこで、例えばこのように入力に当たって複数のボタン操作が必要な入力表音文字については、最後のボタン操作(上記の例では「ふ」、「は」、「て」のボタン操作)が正しく行われたことを以て、正しい歌詞入力が行われたと判定し、正解歌詞に対応した歌唱合成を行わせるようにしてもよい。すなわち、例えば正解歌詞の表音文字が「ば」である場合には、「は」が入力されれば正解として扱い、「ば」の発音記号を用いた歌唱音声を合成させるのである。また、本実施形態では、表音文字の入力タイミングが適切であり、かつ、入力表音文字が適切であるか否かの判定を行うようにしたが、表音文字の入力タイミングは判定対象とせず、入力表音文字が適切か否かのみの判定を行うようにしてもよい。   According to the present embodiment, the user has not only input lyrics but synthesizes a song with a melody corresponding to melody data stored in advance, and has also input an appropriate phonetic character at an appropriate timing. The determination result about whether or not can be received. Therefore, there is an effect that the interest of singing synthesis is enhanced. In the present embodiment, the correct answer is determined when a phonetic character according to the correct lyrics is input for all types of input phonetic characters. However, in order to input the phonetic character “bu” having a cloud point, it is necessary to operate the “” and “fu” buttons. , “°” and “ha” buttons are required. To enter the phonetic character “Tii” that contains a small hiragana in the latter half, enter the “small” button, “i” button, and “te”. ”Button operation is required. In this way, depending on the type of input phonetic character, it may be harsh to request a complete button operation at an appropriate timing. Therefore, for example, for input phonograms that require multiple button operations for input, the last button operation (in the above example, “F”, “HA”, “TE” button operations) is performed correctly. Therefore, it may be determined that correct lyrics have been input, and singing synthesis corresponding to correct lyrics may be performed. That is, for example, if the phonetic character of the correct lyrics is “BA”, if “HA” is input, it is treated as a correct answer, and the singing voice using the phonetic symbol “BA” is synthesized. In this embodiment, it is determined whether or not the input timing of the phonetic character is appropriate and whether or not the input phonetic character is appropriate. Instead, it may be determined only whether or not the input phonetic character is appropriate.

<他の実施形態>
以上、この発明の第1および第2実施形態について説明したが、これ以外にも、この発明には他の実施形態が考えられる。例えば次の通りである。
<Other embodiments>
Although the first and second embodiments of the present invention have been described above, other embodiments can be considered in addition to this. For example:

(1)上記第1実施形態において、「いぬのおまわりさん」、「チューリップ」等の各種の曲についてのメロディデータをROM140に予め記憶させるとともに、曲を選択する操作子を歌唱合成装置1000の筐体に設け、この操作子の操作により選択された曲のメロディデータをROM140から読み出してRAM150のメロディ記憶領域に格納するようにしてもよい。 (1) In the first embodiment, melody data for various songs such as “Inu no Omarisan” and “Tulip” is stored in the ROM 140 in advance, and an operator for selecting a song is a housing of the singing synthesizer 1000. The melody data of the song selected by the operation of the operator may be read from the ROM 140 and stored in the melody storage area of the RAM 150.

(2)上記第1実施形態の図9に示す動作例において、「すすめる」ボタンを押したときに発音継続中の音声「ぶ」の音階は「ド」であり、「すすめる」ボタンの押圧操作により音声「ぶ」の伸ばし音部分「う」に適用される音階は「レ」であり、両者の音高差は小さい。このため、「すすめる」ボタンの押圧操作時、「レ」の音階データを含む発音指示メッセージを歌唱合成エンジン2に送ったとしても滑らかな歌唱となる。 (2) In the operation example shown in FIG. 9 of the first embodiment, the scale of the sound “Bu” that is continuously sounding when the “recommend” button is pressed is “do”, and the “recommend” button is pressed. Therefore, the scale applied to the extended sound portion “U” of the voice “BU” is “R”, and the pitch difference between the two is small. For this reason, even when the pronunciation instruction message including the scale data of “L” is sent to the singing synthesis engine 2 at the time of pressing the “recommend” button, the singing is smooth.

しかしながら、「すすめる」ボタンの押圧操作によりメロディ記憶領域から読み出される音階データと、先行してメロディ記憶領域から読み出された音階データとの音高差が大きくなる場合もあり得る。そこで、そのような場合が起こることに配慮し、次のような構成にしてもよい。   However, the pitch difference between the scale data read from the melody storage area and the scale data previously read from the melody storage area by pressing the “recommend” button may increase. In view of this situation, the following configuration may be adopted.

まず、メロディ再生モードでは、メロディ領域から音階データを読み出した場合に、その音階データを読み出し済み音階データバッファに保存する。そして、演奏制御情報生成部132は、「すすめる」ボタンの押圧操作に応じて音階データをメロディ記憶領域から読み出したとき、この読み出した音階データと読み出し済み音階データバッファ内の先行する音階データとの音高差を求める。そして、この音高差に基づき、読み出し済み音階データバッファ内の先行する音階データが示す音階から「すすめる」ボタンの押圧操作に応じて読み出した音階データが示す音階まで所定時間を掛けて連続的に音高を変化させるピッチベンドメッセージを合成制御メッセージ組立部134に出力させるのである。この態様によれば、「字足りず」状況において「すすめる」ボタンの操作を伴う歌詞入力により合成される歌唱をより滑らかなものにすることができる。   First, in the melody playback mode, when scale data is read from the melody area, the scale data is stored in the read scale data buffer. Then, when the performance control information generation unit 132 reads scale data from the melody storage area in response to the pressing operation of the “recommend” button, the performance control information generation unit 132 calculates the scale data read and the preceding scale data in the read scale data buffer. Find the pitch difference. Then, based on this pitch difference, it continuously takes a predetermined time from the scale indicated by the preceding scale data in the read scale data buffer to the scale indicated by the scale data read in response to the pressing operation of the “recommend” button. A pitch bend message that changes the pitch is output to the synthesis control message assembly unit 134. According to this aspect, it is possible to make the song synthesized by the lyric input accompanied by the operation of the “recommend” button in the “character shortage” situation smoother.

(3)音声素片データベースに各種の歌い手の音声から採取した音声素片の波形データを記憶させ、歌唱合成制御部の操作部の操作により所望の歌い手の音声素片を選択して歌唱合成に用いるようにしてもよい。 (3) The speech segment waveform data collected from the voices of various singers is stored in the speech segment database, and a desired singer's speech segment is selected by operating the operation unit of the singing synthesis control unit for singing synthesis. You may make it use.

(4)上記各実施形態では、歌唱合成制御部1と歌唱合成エンジン2とオーディオインタフェース3とを一体化した歌唱合成装置を構成したが、歌唱合成制御部1を有する歌唱合成制御装置と、歌唱合成エンジン2およびオーディオインタフェース3を有する歌唱合成装置と別々の装置としてもよい。この場合において、前者の歌唱合成制御装置が合成制御メッセージとしてMIDIメッセージを出力し、後者の歌唱合成装置がMIDIインタフェースを介して合成制御メッセージであるMIDIメッセージを受信し、歌唱音を合成するようにしてもよい。また、後者の歌唱合成装置は、パーソナルコンピュータに対して、歌唱合成エンジンであるアプリケーションソフトウェアをインストールしたものであってもよい。 (4) In each of the above embodiments, the singing composition control unit 1, the singing composition engine 2, and the audio interface 3 are integrated, but the singing composition control unit having the singing composition control unit 1, and the singing It is good also as a separate apparatus from the song synthesis apparatus which has the synthesis engine 2 and the audio interface 3. In this case, the former song synthesis control device outputs a MIDI message as a synthesis control message, and the latter song synthesis device receives a MIDI message which is a synthesis control message via the MIDI interface, and synthesizes a song sound. May be. The latter singing voice synthesizing apparatus may be one in which application software that is a singing voice synthesis engine is installed in a personal computer.

(5)上記(4)の態様において、歌唱合成制御装置をインターネット等のネットワークを介して歌唱合成装置に接続するようにしてもよい。ここで、例えば歌唱合成制御装置は孫が所持しており、この孫の祖父母宅には歌唱合成装置が設置されているとする。また、歌唱合成装置の音声素片データベースには予め収音された孫の音声から得られた音声素片データが記憶されているとする。この態様によれば、孫は歌唱合成制御装置をメロディ再生モードとし、歌詞入力を行うことにより歌唱合成のためのMIDIメッセージ(合成制御メッセージ)を生成し、このMIDIメッセージをネットワークを介して祖父母宅の歌唱合成装置に供給することにより、自分の声による歌唱を祖父母に聞かせることができる。 (5) In the above aspect (4), the singing synthesis control device may be connected to the singing synthesis device via a network such as the Internet. Here, for example, it is assumed that the singing synthesis control device is owned by a grandchild, and the singing synthesis device is installed in the grandparent's house. Further, it is assumed that speech segment data obtained from a grandchild's speech that has been collected in advance is stored in the speech segment database of the singing synthesizer. According to this aspect, the grandchild sets the singing composition control device in the melody reproduction mode, generates a MIDI message (synthetic control message) for singing composition by inputting lyrics, and sends the MIDI message to the grandparents' home via the network. By supplying it to the singing synthesizer, the grandparents can hear the singing of their own voice.

(6)上記各実施形態において、歌唱合成制御部のCPU110が実行するプログラムを、タッチパネルによるGUI(グラフィカルユーザインタフェース)を備えたタブレット型コンピュータ等のためのアプリケーションプログラムとして提供してもよい。 (6) In each of the above embodiments, the program executed by the CPU 110 of the song synthesis control unit may be provided as an application program for a tablet computer or the like having a GUI (graphical user interface) using a touch panel.

(7)上記第2実施形態において、ユーザが誤った歌詞入力を行った場合に、正解歌詞データにおける表音文字データの読み出し位置を進めないように照合部135を構成してもよい。あるいは操作子の操作により、ユーザが誤った歌詞入力を行った場合に表音文字データの読み出し位置を進めるか進めないかを指定できる構成にしてもよい。 (7) In the second embodiment, the collation unit 135 may be configured not to advance the reading position of the phonetic character data in the correct lyrics data when the user inputs wrong lyrics. Alternatively, a configuration may be adopted in which it is possible to specify whether or not to advance the reading position of the phonetic character data when the user inputs wrong lyrics by operating the operator.

(8)歌唱合成制御装置がSMF(Standard MIDI File)形式等の歌詞付きのデータを外部から取り込み、上記第1実施形態におけるメロディデータや歌詞データあるいは上記第2実施形態における正解歌詞データとしてRAM150に格納するようにしてもよい。 (8) The singing composition control apparatus takes in data with lyrics in the SMF (Standard MIDI File) format from the outside, and stores it in the RAM 150 as the melody data and lyrics data in the first embodiment or the correct lyrics data in the second embodiment. You may make it store.

(9)上記リアルタイム演奏モードでは、鍵ボタン部105による音階入力を行わせた後、50音ボタン部101による表音文字の入力を行わせ、50音ボタン部101による表音文字の入力のタイミングにおいて音声を発音させてもよい。あるいはいずれの方法で発音を行わせるかを操作子の操作により選択できるように構成してもよい。 (9) In the real-time performance mode, after the scale input by the key button unit 105 is performed, the phonetic character is input by the 50 sound button unit 101, and the input timing of the phonetic character by the 50 sound button unit 101 is performed. The voice may be pronounced at. Or you may comprise so that it can select by operation of an operation element by which method sounding is performed.

(10)上記各実施形態において、50音指定ユーザインタフェース部121、音階指定ユーザインタフェース部122、制御用ユーザインタフェース部123、50音/発音記号変換部131、演奏制御情報生成部132、モード制御部133、合成制御メッセージ組立部134、照合部135等の各モジュール間の情報の授受に関しては、各モジュール間で情報の授受を直接行わせてもよく、API(Application Programming Interface)経由で各モジュール間の情報の授受を行わせてもよい。 (10) In each of the above embodiments, the 50 sound designation user interface unit 121, the scale designation user interface unit 122, the control user interface unit 123, the 50 sound / phonetic symbol conversion unit 131, the performance control information generation unit 132, and the mode control unit 133, information exchange between the modules such as the composition control message assembling unit 134 and the collating unit 135 may be performed directly between the modules, or between the modules via an API (Application Programming Interface). Information may be exchanged.

1000…歌唱合成装置、1…歌唱合成制御部、2…歌唱合成エンジン、3…オーディオインタフェース、4…スピーカ、100…タッチパネル、101…50音ボタン部、102…50音補助ボタン部、103…モード制御ボタン部、104…音階読み出し位置制御ボタン部、105…鍵ボタン部、106…押圧位置検出部、107…操作強度検出部、108…LED駆動制御部、120…ユーザインタフェース部、121…50音指定ユーザインタフェース部、122…音階指定ユーザインタフェース部、123…制御用ユーザインタフェース部、130…合成エンジン制御部、131…50音/発音記号変換部、132…演奏制御情報生成部、133…モード制御部、134…合成制御メッセージ組立部、135…照合部、140…ROM、150…RAM。 DESCRIPTION OF SYMBOLS 1000 ... Singing synthesis apparatus, 1 ... Singing synthesis control part, 2 ... Singing synthesis engine, 3 ... Audio interface, 4 ... Speaker, 100 ... Touch panel, 101 ... 50 sound button part, 102 ... 50 sound auxiliary button part, 103 ... Mode Control button section 104 ... Scale reading position control button section 105 ... Key button section 106 ... Pressing position detection section 107 ... Operation intensity detection section 108 ... LED drive control section 120 ... User interface section 121 ... 50 sounds Designated user interface unit, 122 ... scale designation user interface unit, 123 ... control user interface unit, 130 ... synthesis engine control unit, 131 ... 50 sound / phonetic symbol conversion unit, 132 ... performance control information generation unit, 133 ... mode control Part 134... Composition control message assembly part 135 135 collation part 140. M, 150 ... RAM.

Claims (5)

音符の音高を指定する音高データの列であるメロディデータを記憶するメロディ記憶手段と、
歌詞を構成する各表音文字を示す表音文字データの列である正解歌詞データを記憶する正解歌詞記憶手段と、
表音文字を指示する操作を受け付ける操作手段と、
前記操作手段に対して表音文字を指示する操作が行われ、1文字の入力表音文字が確定する都度、前記メロディ記憶手段から音高データを順次読み出し、前記入力表音文字が示す音声であって、前記メロディ記憶手段から読み出した音高データが示す音高を有する音声を歌唱合成手段に合成させる合成制御手段と、
前記1文字の入力表音文字が確定する都度、前記正解歌詞データにおいて読み出し対象とする表音文字データの位置を進めつつ前記正解歌詞記憶手段から表音文字データを順次読み出し、前記入力表音文字と一致するか否かを判定し、判定結果を出力する照合手段と
を具備することを特徴とする歌唱合成制御装置。
Melody storage means for storing melody data, which is a string of pitch data for designating the pitch of notes,
Correct lyric storage means for storing correct lyric data which is a string of phonogram data indicating each phonogram constituting the lyrics;
An operation means for receiving an operation for instructing a phonetic character;
Each time the operation means is instructed to indicate a phonetic character and one input phonetic character is confirmed, the pitch data is sequentially read from the melody storage means, and the voice indicated by the input phonetic character is used. Synthesis control means for synthesizing the singing voice synthesizing voice having the pitch indicated by the pitch data read from the melody storage means;
Each time the input phonogram of one character is determined, the phonogram data is sequentially read from the correct lyric storage means while advancing the position of the phonogram data to be read in the correct lyric data, and the input phonogram A singing composition control apparatus comprising: a collating unit that determines whether or not the two match, and outputs a determination result.
前記歌唱合成手段に対して歌唱合成の制御を指令する合成制御メッセージを送信する送信手段と、
前記入力表音文字を確定させた前記操作手段の操作の強度を検出する操作強度検出手段とを具備し、
前記合成制御手段は、前記入力表音文字が示す音声の発音記号を含む合成制御メッセージを前記送信手段に送信させるとともに、前記メロディ記憶手段から読み出した音高データが示す音高および前記操作強度検出手段により検出された前記操作手段の操作の強度に対応した強度での発音を指示する合成制御メッセージを前記送信手段に送信させることを特徴とする請求項1に記載の歌唱合成制御装置。
Transmitting means for transmitting a synthesis control message for instructing control of song synthesis to the song synthesis means;
An operation intensity detecting means for detecting an operation intensity of the operation means that has confirmed the input phonetic character;
The synthesis control unit causes the transmission unit to transmit a synthesis control message including a phonetic symbol indicated by the input phonogram, and detects the pitch and the operation intensity detected by the pitch data read from the melody storage unit. 2. The singing composition control apparatus according to claim 1, wherein a composition control message for instructing sound generation at an intensity corresponding to the operation intensity of the operation means detected by the means is transmitted to the transmission means.
前記合成制御手段は、前記操作手段に対して前記メロディ記憶手段における音高データの読み出し位置の変更を指示する操作が行われるのに応じて、当該操作に従って音高データの読み出し位置を変更する読み出し位置制御手段を具備することを特徴とする請求項1または2に記載の歌唱合成制御装置。   In response to an operation instructing the operation unit to change the position of reading the pitch data in the melody storage unit, the synthesis control unit reads the pitch data according to the operation. The singing composition control apparatus according to claim 1, further comprising a position control unit. 請求項1〜3のいずれか1の請求項に記載の歌唱合成制御装置と、
前記歌唱合成制御装置による制御の下で歌唱音声を合成する歌唱合成手段と
を具備することを特徴とする歌唱合成装置。
A singing synthesis control device according to any one of claims 1 to 3,
A singing voice synthesizing device comprising: singing voice synthesizing means for synthesizing a singing voice under the control of the singing voice synthesis control device.
前記歌唱合成手段は、先行する音声の合成を行わせているときに後発の音声の合成を開始する場合に先行する音声の音量を低下させることを特徴とする請求項4に記載の歌唱合成装置。   5. The singing voice synthesizing apparatus according to claim 4, wherein the singing voice synthesizing unit lowers the volume of the preceding voice when starting to synthesize the later voice while synthesizing the preceding voice. 6. .
JP2015155080A 2015-08-05 2015-08-05 Singing synthesis control device and singing synthesis device Expired - Fee Related JP5979293B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015155080A JP5979293B2 (en) 2015-08-05 2015-08-05 Singing synthesis control device and singing synthesis device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015155080A JP5979293B2 (en) 2015-08-05 2015-08-05 Singing synthesis control device and singing synthesis device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010230070A Division JP2012083569A (en) 2010-10-12 2010-10-12 Singing synthesis control unit and singing synthesizer

Publications (2)

Publication Number Publication Date
JP2015194779A JP2015194779A (en) 2015-11-05
JP5979293B2 true JP5979293B2 (en) 2016-08-24

Family

ID=54433767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015155080A Expired - Fee Related JP5979293B2 (en) 2015-08-05 2015-08-05 Singing synthesis control device and singing synthesis device

Country Status (1)

Country Link
JP (1) JP5979293B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110415677B (en) * 2018-04-26 2023-07-14 腾讯科技(深圳)有限公司 Audio generation method and device and storage medium

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS598838B2 (en) * 1978-12-07 1984-02-27 ヤマハ株式会社 An electronic musical instrument that generates human voice sounds
JPS6175398A (en) * 1984-09-21 1986-04-17 日本ビクター株式会社 Singing sound generator
JPH0812560B2 (en) * 1984-09-29 1996-02-07 日本ビクター株式会社 Singing voice synthesis performance device
JPS6183600A (en) * 1984-09-29 1986-04-28 日本ビクター株式会社 Singing voice synthesizer/performer
JPS6296986A (en) * 1985-10-24 1987-05-06 カシオ計算機株式会社 Musical performer by poem input
JPH04331990A (en) * 1991-05-07 1992-11-19 Casio Comput Co Ltd Voice electronic musical instrument
JP2581352Y2 (en) * 1991-11-07 1998-09-21 株式会社ファンタジア Typing practice equipment
JPH06324677A (en) * 1993-05-13 1994-11-25 Kawai Musical Instr Mfg Co Ltd Text input device of electronic musical instrument
JPH09265299A (en) * 1996-03-28 1997-10-07 Secom Co Ltd Text reading device
JPH1195798A (en) * 1997-09-19 1999-04-09 Dainippon Printing Co Ltd Method and device for voice synthesis
JP3687375B2 (en) * 1998-11-26 2005-08-24 カシオ計算機株式会社 Voice assignment apparatus, voice assignment method, and recording medium recording voice assignment processing program
JP2002268534A (en) * 2001-03-07 2002-09-20 Axiswave:Kk Typing practicing method and system
JP4500695B2 (en) * 2005-02-01 2010-07-14 株式会社エクシング Mobile phone game program and distribution system
JP2007148166A (en) * 2005-11-29 2007-06-14 Yamaha Corp Electronic musical instrument and input device
JP4395493B2 (en) * 2006-06-26 2010-01-06 株式会社タイトー Karaoke equipment

Also Published As

Publication number Publication date
JP2015194779A (en) 2015-11-05

Similar Documents

Publication Publication Date Title
US7605322B2 (en) Apparatus for automatically starting add-on progression to run with inputted music, and computer program therefor
CN108630177B (en) Electronic musical instrument, control method for electronic musical instrument, and recording medium
JP4752425B2 (en) Ensemble system
Kirk et al. Digital sound processing for music and multimedia
JP2012083569A (en) Singing synthesis control unit and singing synthesizer
JP5988540B2 (en) Singing synthesis control device and singing synthesis device
JP4650182B2 (en) Automatic accompaniment apparatus and program
JP4692189B2 (en) Ensemble system
Winkler The realtime-score. A missing-link in computer-music performance
JP5979293B2 (en) Singing synthesis control device and singing synthesis device
JP5228315B2 (en) Program for realizing automatic accompaniment generation apparatus and automatic accompaniment generation method
JPH1124676A (en) Karaoke (sing-along music) device
JPH09218688A (en) Karaoke machine
Weinberg Interconnected musical networks: bringing expression and thoughtfulness to collaborative group playing
JP2007086571A (en) Music information display device and program
JP4618704B2 (en) Code practice device
JP4534926B2 (en) Image display apparatus and program
KR20000053735A (en) web piano system and using method there of
JP6790362B2 (en) Electronic acoustic device
JP6425560B2 (en) Karaoke device with repetitive playback function
WO2023153033A1 (en) Information processing method, program, and information processing device
Manwaring Loop pedals: singing, layering and creating
JP4161714B2 (en) Karaoke equipment
JP2006189515A (en) Electronic keyboard instrument
Puckette et al. Between the Tracks: Musicians on Selected Electronic Music

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160711

R151 Written notification of patent or utility model registration

Ref document number: 5979293

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees