JP2018151547A - Sound production device and sound production control method - Google Patents

Sound production device and sound production control method Download PDF

Info

Publication number
JP2018151547A
JP2018151547A JP2017048456A JP2017048456A JP2018151547A JP 2018151547 A JP2018151547 A JP 2018151547A JP 2017048456 A JP2017048456 A JP 2017048456A JP 2017048456 A JP2017048456 A JP 2017048456A JP 2018151547 A JP2018151547 A JP 2018151547A
Authority
JP
Japan
Prior art keywords
syllable
loop
sound generation
pronunciation
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017048456A
Other languages
Japanese (ja)
Other versions
JP6828530B2 (en
Inventor
桂三 濱野
Keizo Hamano
桂三 濱野
宇新 鄭
U-Sin Jeong
宇新 鄭
健一 山内
Kenichi Yamauchi
健一 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2017048456A priority Critical patent/JP6828530B2/en
Publication of JP2018151547A publication Critical patent/JP2018151547A/en
Application granted granted Critical
Publication of JP6828530B2 publication Critical patent/JP6828530B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a sound production device and a sound production control method, which are capable of improving expressive power when a loop is reproduced.SOLUTION: A loop section in reproduction information is set by operation of depression/release of a loop button 20. A sound production start is instructed in accordance with operation of a performance operator 16, and syllable information corresponding to the instructed sound production and a sound production control parameter which is made to correspond to the syllable information are read. A CPU 10 produces sound of syllables included in the syllable information on the basis of the sound production control parameter in normal reproduction. In loop reproduction, the CPU 10 produces sound of at least one of syllables included in the syllable information in the loop period at a sound production mode different from that during the normal reproduction on the basis of the sound production control parameter.SELECTED DRAWING: Figure 1

Description

本発明は、再生用情報におけるループ区間をループ再生する発音装置及び発音制御方法に関する。   The present invention relates to a sound generation device and a sound generation control method for performing loop reproduction of a loop section in reproduction information.

従来、再生用情報におけるループ区間をループ再生する技術が知られている。例えば、下記特許文献1の再生装置は、終端部に無音区間のある曲における無音区間に設定されたリピートポイントで曲を繰り返し再生する際に、簡単な処理で再生態様を変更できる。また、下記特許文献2の再生装置は、自動演奏による見本演奏時、エラー区間でのメトロノーム音を他の区間と異ならせる。また、発音制御パラメータを用いて、リアルタイム演奏時に、簡単に、表情豊かな音の演奏を行えるようにした発音装置も知られている(下記特許文献3)。   Conventionally, a technique for performing loop reproduction of a loop section in reproduction information is known. For example, the playback device of Patent Document 1 below can change the playback mode with simple processing when a song is repeatedly played at a repeat point set in a silence interval in a song having a silence interval at the end. In addition, the playback device of Patent Document 2 described below makes a metronome sound in an error section different from other sections during a sample performance by automatic performance. There is also known a sounding device that uses a sounding control parameter so that a sound with rich expression can be easily performed during real-time performance (Patent Document 3 below).

特開2010−015053号公報JP 2010-015053 A 特開2007−286087号公報JP 2007-286087 A 特開2016−177276号公報Japanese Patent Laid-Open No. 2006-177276

しかしながら、上記特許文献1、2の装置は、ループ再生でない通常再生時に対してループ再生時の表現力を高める点で改善の余地がある。また、特許文献3の装置は、通常再生時の表情を豊かにするものであるが、ループ再生に関して記載がない。   However, the devices disclosed in Patent Documents 1 and 2 have room for improvement in terms of enhancing the expressive power during loop playback compared to normal playback that is not loop playback. The device of Patent Document 3 enriches the expression during normal playback, but there is no description regarding loop playback.

本発明は上記従来技術の問題を解決するためになされたものであり、その目的は、ループ再生時の表現力を高めることができる発音装置及び発音制御方法を提供することにある。   The present invention has been made to solve the above-described problems of the prior art, and an object of the present invention is to provide a sound generation device and a sound generation control method capable of enhancing the expressive power during loop reproduction.

上記目的を達成するために本発明の請求項1の発音装置は、発音開始を指示する発音指示手段(16)と、音節を少なくとも含む音節情報と前記音節情報に対応付けられた発音制御パラメータとを含む再生用情報(50)における、ループ再生するループ区間を設定する区間設定手段(10)と、前記発音指示手段により開始が指示された発音に対応する音節情報と該音節情報に対応付けられた発音制御パラメータとを読み出す読出手段(10)と、前記ループ区間のループ再生においては、前記発音指示手段による発音開始の指示に応じて、前記読出手段により読み出された前記ループ区間内の音節情報に含まれる音節の少なくとも1つを、前記読出手段により読み出された発音制御パラメータに基づき且つループ再生でない通常再生時とは異なる発音態様で発音させる発音制御手段(10)と、を有することを特徴とする。   In order to achieve the above object, a sound generation device according to claim 1 of the present invention includes a sound generation instruction means (16) for instructing start of sound generation, syllable information including at least syllables, and a sound generation control parameter associated with the syllable information. In the reproduction information (50) including the section setting means (10) for setting a loop section for loop reproduction, the syllable information corresponding to the pronunciation instructed to start by the pronunciation instruction means, and the syllable information. In the loop reproduction of the loop section, the reading means (10) for reading out the sound generation control parameter, and the syllable in the loop section read out by the reading means in response to the sound generation start instruction by the sound generation instruction means At least one of the syllables included in the information is based on the sound generation control parameter read out by the reading means and in normal playback that is not loop playback And tone generation control means (10) to sound at different sound manner, and having a.

上記目的を達成するために本発明の請求項7の発音装置は、発音開始を指示する発音指示手段と、音節を少なくとも含む音節情報と前記音節情報に対応付けられた第1の発音制御パラメータとを含む再生用情報における、ループ再生するループ区間を設定する区間設定手段と、ループ再生でない通常再生においては、前記発音指示手段により開始が指示された発音に対応する音節情報と該音節情報に対応付けられた前記第1の発音制御パラメータとを読み出し、前記ループ区間のループ再生においては、前記ループ区間における前記発音指示手段により開始が指示された発音に対応する音節情報と前記第1の発音制御パラメータとは異なる第2の発音制御パラメータとを読み出す読出手段と、前記通常再生においては、前記発音指示手段による発音開始の指示に応じて、前記読出手段により読み出された音節情報に含まれる音節を、前記読出手段により読み出された前記第1の発音制御パラメータに従った発音態様で発音させ、前記ループ区間のループ再生においては、前記発音指示手段による発音開始の指示に応じて、前記読出手段により読み出された前記ループ区間内の音節情報に含まれる音節を、前記読出手段により読み出された前記第2の発音制御パラメータに従った発音態様で発音させる発音制御手段と、を有することを特徴とする。   In order to achieve the above object, a sound generation device according to claim 7 of the present invention includes sound generation instruction means for instructing start of sound generation, syllable information including at least a syllable, and a first sound generation control parameter associated with the syllable information. In the playback information including the section setting means for setting the loop section for loop playback, and in normal playback that is not loop playback, the syllable information corresponding to the pronunciation instructed to start by the pronunciation instruction means and the syllable information In the loop reproduction of the loop section, the syllable information corresponding to the pronunciation instructed to be started by the sound generation instruction means in the loop section and the first sound generation control are read out. A reading means for reading a second sound generation control parameter different from the parameter; and in the normal reproduction, the sound generation instruction means In response to a sounding start instruction, the syllable included in the syllable information read by the reading unit is caused to sound in a sounding manner according to the first sounding control parameter read by the reading unit, and the loop In the loop playback of the section, the syllable included in the syllable information in the loop section read by the reading means is read by the reading means in response to an instruction to start sounding by the sounding instruction means. Sound generation control means for generating sound in a sound generation mode according to the second sound generation control parameter.

上記目的を達成するために本発明の請求項8の発音装置は、発音開始を指示する発音指示手段と、音節を少なくとも含む音節情報を含む再生用情報におけるループ開始位置及びループ終了位置の指定に基づいて、前記再生用情報におけるループ再生するループ区間を設定する区間設定手段と、前記発音指示手段により開始が指示された発音に対応する音節情報を読み出す読出手段と、前記ループ区間のループ再生において、前記発音指示手段による発音開始の指示に応じて、前記読出手段により読み出された前記ループ区間内の音節情報に含まれる音節を発音させる発音制御手段と、を有し、前記区間設定手段は、前記ループ開始位置に対応する音節の前、及び指定された前記ループ終了位置に対応する音節の後、の少なくともいずれかに音節を追加し、該追加した音節を含めて前記ループ区間を設定することを特徴とする。   In order to achieve the above object, the sound generation device according to claim 8 of the present invention is adapted to specify sound generation instruction means for instructing sound generation start and a loop start position and a loop end position in reproduction information including syllable information including at least syllable. Based on section setting means for setting a loop section for loop playback in the playback information, reading means for reading out syllable information corresponding to the sounding to be started by the sounding instruction means, and loop playback of the loop section Sound generation control means for generating a syllable included in the syllable information in the loop section read by the reading means in response to an instruction to start sounding by the sound generation instruction means, and the section setting means , Before the syllable corresponding to the loop start position and after the syllable corresponding to the designated loop end position. Add a, and sets the loop segment, including the added syllable.

なお、上記括弧内の符号は例示である。   In addition, the code | symbol in the said parenthesis is an illustration.

本発明によれば、ループ再生時の表現力を高めることができる。   According to the present invention, the expressive power during loop playback can be enhanced.

請求項2によれば、ループ再生時には発音制御パラメータの作用の仕方を通常再生時とは異ならせることができる。請求項3によれば、発音態様を異ならせる音節を指定できる。請求項4によれば、表現力を一層高めることができる。請求項5によれば、音節の追加により表現力を高めることができる。請求項6によれば、ループ再生時の発音態様のバリエーションを複数持つことができる。   According to the second aspect, during the loop reproduction, the manner of the sound generation control parameter can be made different from that during the normal reproduction. According to the third aspect, it is possible to specify syllables having different pronunciation modes. According to claim 4, the expressive power can be further enhanced. According to claim 5, the expressive power can be enhanced by adding syllables. According to the sixth aspect, it is possible to have a plurality of variations of the sound generation mode at the time of loop reproduction.

第1の実施の形態に係る発音装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the sounding apparatus which concerns on 1st Embodiment. 再生処理、操作子処理のフローチャートである。It is a flowchart of a reproduction | regeneration process and an operation element process. キーオン時処理、音節情報取得処理のフローチャートである。It is a flowchart of a key-on process and a syllable information acquisition process. 発音指示受付処理、音節情報取得処理、音声素片データ選択処理を説明する図である。It is a figure explaining a pronunciation instruction | indication reception process, a syllable information acquisition process, and a speech segment data selection process. キーオフ時処理のフローチャートである。It is a flowchart of the process at the time of key-off. 押下時処理のフローチャートである。It is a flowchart of the process at the time of pressing. リリース時処理のフローチャートである。It is a flowchart of the process at the time of release. 音節情報取得処理のフローチャートである。It is a flowchart of a syllable information acquisition process. 発音指示受付処理を説明するための楽譜例、歌詞情報テーブル、ピアノロール譜を示す図である。It is a figure which shows the example of a score for explaining pronunciation instruction | indication reception processing, a lyric information table, and a piano roll score. 歌詞情報テーブルの各値を示す図である。It is a figure which shows each value of a lyric information table. 発音制御パラメータの概念図、情報テーブルの概念図、楽譜例を示す図である。It is a figure which shows the conceptual diagram of a pronunciation control parameter, the conceptual diagram of an information table, and the example of a score.

以下、図面を参照して本発明の実施の形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(第1の実施の形態)
図1は、本発明の第1の実施の形態に係る発音装置のハードウェア構成を示すブロック図である。この発音装置1は、例えば鍵盤楽器として構成される。発音装置1において、CPU(Central Processing Unit)10は、発音装置1全体の制御を行う中央処理装置である。ROM(Read Only Memory)11は制御プログラムおよび各種のデータなどが格納される不揮発性のメモリである。RAM(Random Access Memory)3はCPU10のワーク領域および各種のバッファなどとして使用される揮発性のメモリである。表示器15は、動作状態および各種設定画面やユーザに対するメッセージなどが表示される液晶表示器等からなる。演奏操作子16は鍵盤などからなる演奏操作子であり、操作されることにより、キーオン(発音開始の指示)、キーオフ(発音停止の指示)、音高、ベロシティなどの演奏情報を発生させる。この演奏情報はMIDIメッセージの演奏情報であってもよい。また、設定操作子17は、発音装置1を設定する操作つまみや操作ボタンなどの各種設定操作子である。
(First embodiment)
FIG. 1 is a block diagram showing a hardware configuration of a sound producing device according to the first embodiment of the present invention. The sounding device 1 is configured as a keyboard instrument, for example. In the sound generator 1, a CPU (Central Processing Unit) 10 is a central processing device that controls the entire sound generator 1. A ROM (Read Only Memory) 11 is a non-volatile memory in which a control program and various data are stored. A RAM (Random Access Memory) 3 is a volatile memory used as a work area of the CPU 10 and various buffers. The display unit 15 includes a liquid crystal display unit that displays an operation state, various setting screens, a message for the user, and the like. The performance operator 16 is a performance operator composed of a keyboard or the like. When operated, the performance operator 16 generates performance information such as key-on (pronunciation start instruction), key-off (pronunciation stop instruction), pitch, and velocity. This performance information may be MIDI message performance information. The setting operator 17 is various setting operators such as operation knobs and operation buttons for setting the sound producing device 1.

データメモリ18には、歌詞を音節に区切ったテキストデータを含む音節情報、及び歌唱音の音声素片データが格納される音韻データベースなどが格納されている。後述する音節情報(テキストデータ30)及び音韻データベース32が再生用情報となる(図4(b)、(c))。本実施の形態では、音節情報は少なくとも音節を含み、再生用情報は、演奏操作子16の操作に従って、読み出し位置(カーソル位置)にある音節が読み出される音節情報を少なくとも含む。ループボタン20は、再生用情報におけるループ再生(リピート再生)するループ区間を設定するための操作子である。ループボタン20は、押下(オン)及び押下解除(リリースないしオフ)の操作が可能であり、押下解除されると押下前の初期状態に復帰する。   The data memory 18 stores syllable information including text data obtained by dividing lyrics into syllables, and a phonological database in which speech segment data of singing sounds is stored. Syllable information (text data 30) and a phonological database 32 described later serve as reproduction information (FIGS. 4B and 4C). In the present embodiment, the syllable information includes at least a syllable, and the reproduction information includes at least syllable information from which a syllable at a reading position (cursor position) is read in accordance with an operation of the performance operator 16. The loop button 20 is an operator for setting a loop section for loop playback (repeat playback) in the playback information. The loop button 20 can be pressed (on) and released (released or turned off). When released, the loop button 20 returns to the initial state before being pressed.

音源13は、複数の発音チャンネルを有し、CPU10の制御の基で、演奏操作子16を使用するリアルタイム演奏に応じて1つの発音チャンネルが割り当てられる。音源13は、割り当てられた発音チャンネルにおいて、データメモリ18から演奏に対応する音声素片データを読み出して歌唱音データを生成する。サウンドシステム14は、音源13で生成された歌唱音データをデジタル/アナログ変換器によりアナログ信号に変換して、アナログ信号とされた歌唱音を増幅してスピーカ等へ出力する。さらに、バス19は発音装置1における各部の間のデータ転送を行うためのバスである。   The sound source 13 has a plurality of tone generation channels, and one tone generation channel is assigned according to real-time performance using the performance operator 16 under the control of the CPU 10. The sound source 13 reads out the speech segment data corresponding to the performance from the data memory 18 in the assigned sound generation channel and generates singing sound data. The sound system 14 converts the singing sound data generated by the sound source 13 into an analog signal by a digital / analog converter, amplifies the singing sound converted into an analog signal, and outputs the amplified singing sound to a speaker or the like. Further, the bus 19 is a bus for transferring data between the respective units in the sound producing device 1.

図2(a)は、再生処理のフローチャートである。この処理は、ROM11に格納されたプログラムをCPU10が読み出して実行することにより実現される。リアルタイム演奏を行う場合、ユーザはリアルタイム再生を指示し、演奏操作子16を操作して演奏を行うことになる。この処理は、リアルタイム再生が指示されると開始される。   FIG. 2A is a flowchart of the reproduction process. This process is realized by the CPU 10 reading and executing a program stored in the ROM 11. When performing a real-time performance, the user instructs real-time reproduction and operates the performance operator 16 to perform the performance. This process is started when real-time playback is instructed.

まず、CPU10は、ステップS101で、初期化を行い、指示により再生対象とされた再生用情報(テキストデータである歌詞データを含む)を読み出す。ステップS102で、CPU10は、カーソル位置の初期化、すなわち、再生対象となった再生用情報における歌詞を音節に区切ったテキストデータの先頭の音節にカーソルを置く。このカーソル位置が読み出し位置となる。次にCPU10は、操作子処理(図2(b))を実行し(ステップS103)、その他処理を実行して(ステップS104)、処理をステップS103に戻す。「その他処理」においては、ユーザからの指示に応じて、ジャンプ処理、再生処理の終了処理等が実行される。ジャンプ処理は、カーソル位置を複数の音節分、進めるかまたは戻す処理であり、設定操作子17におけるジャンプ用ボタンを操作することで実現される。例えば、ジャンプ用ボタンの所定の操作によって所定の音節数の単位でカーソル位置が進退する。所定の音節数の単位は、例えば表示器15に1行で表示される歌詞に相当する音節群を単位とするが、それに限定されない。   First, in step S101, the CPU 10 performs initialization, and reads reproduction information (including lyric data, which is text data) that is to be reproduced according to an instruction. In step S102, the CPU 10 initializes the cursor position, that is, places the cursor on the first syllable of the text data obtained by dividing the lyrics in the reproduction information to be reproduced into syllables. This cursor position becomes the reading position. Next, the CPU 10 executes a manipulator process (FIG. 2B) (step S103), executes other processes (step S104), and returns the process to step S103. In “other processing”, jump processing, reproduction processing end processing, and the like are executed in accordance with an instruction from the user. The jump process is a process for moving the cursor position forward or backward by a plurality of syllables, and is realized by operating a jump button on the setting operator 17. For example, the cursor position is advanced or retracted by a predetermined number of syllables by a predetermined operation of the jump button. The unit of the predetermined syllable number is, for example, a syllable group corresponding to the lyrics displayed in one line on the display unit 15, but is not limited thereto.

図2(b)は、図2(a)のステップS103で実行される操作子処理のフローチャートである。まず、CPU10は、演奏操作子16がキーオン(押下操作)されたか否かを判別し(ステップS110)、キーオンされるとキーオン時処理(図3(a))を実行して(ステップS111)、図2(b)の処理を終了する。演奏操作子16がキーオンされない場合は、CPU10は、演奏操作子16がキーオフ(離操作)されたか否かを判別し(ステップS112)、キーオフされるとキーオフ時処理(図5)を実行して(ステップS113)、図2(b)の処理を終了する。演奏操作子16がキーオフされない場合は、CPU10は、新たにループボタン20の押下がされたか否かを判別し(ステップS114)、ループボタン20の押下がされると、押下時処理(図6)を実行して(ステップS115)、図2(b)の処理を終了する。ループボタン20の押下がされない場合は、CPU10は、新たにループボタン20のリリース(押下解除操作)がされたか否かを判別し(ステップS116)、ループボタン20のリリースがされると、リリース時処理(図7)を実行して(ステップS117)、図2(b)の処理を終了する。ループボタン20のリリースがされない場合は、CPU10は図2(b)の処理を終了する。   FIG. 2B is a flowchart of the operator processing executed in step S103 of FIG. First, the CPU 10 determines whether or not the performance operator 16 has been key-on (pressed down) (step S110). When the key-on is performed, a key-on process (FIG. 3A) is executed (step S111). The process of FIG. 2B is terminated. If the performance operator 16 is not key-on, the CPU 10 determines whether or not the performance operator 16 is key-off (release operation) (step S112). If the performance operator 16 is key-off, the CPU 10 executes key-off processing (FIG. 5). (Step S113), the process of FIG. If the performance operator 16 is not keyed off, the CPU 10 determines whether or not the loop button 20 has been newly pressed (step S114), and if the loop button 20 is pressed, processing when the loop button 20 is pressed (FIG. 6). Is executed (step S115), and the process of FIG. When the loop button 20 is not pressed, the CPU 10 determines whether or not the loop button 20 has been newly released (press release operation) (step S116). The process (FIG. 7) is executed (step S117), and the process of FIG. When the loop button 20 is not released, the CPU 10 ends the process of FIG.

図3(a)は、図2(b)のステップS111で実行されるキーオン時処理のフローチャートである。図3(b)は、図3(a)のステップS202で実行される音節情報取得処理のフローチャートである。また、キーオン時処理における発音受付処理の説明図を図4(a)に示し、音節情報取得処理の説明図を図4(b)に示し、音声素片データ選択処理の説明図を図4(c)に示す。   FIG. 3A is a flowchart of the key-on process executed in step S111 of FIG. FIG. 3B is a flowchart of the syllable information acquisition process executed in step S202 of FIG. Also, FIG. 4A shows an explanatory diagram of the pronunciation acceptance process in the key-on process, FIG. 4B shows an explanatory diagram of the syllable information acquisition process, and FIG. 4B shows an explanatory diagram of the speech segment data selection process. c).

まず、図3(a)のステップS201では、CPU10は、キーオン操作された演奏操作子16に基づく発音指示を受け付ける。この場合、CPU10は、キーオンのタイミング、操作された演奏操作子16の音高情報およびベロシティなどの演奏情報を受け取る。例えば、図4(a)に示す楽譜の通りユーザがリアルタイム演奏した場合は、最初のキーオンn1の発音指示を受け付けた時に、CPU10はE5の音高情報と鍵速度に応じたベロシティ情報を受け取る。次いで、ステップS202にて、CPU10は、キーオンに対応する音節情報を取得する音節情報取得処理(図3(b))を行う。   First, in step S201 in FIG. 3A, the CPU 10 receives a sound generation instruction based on the performance operator 16 that has been key-on operated. In this case, the CPU 10 receives performance information such as key-on timing, pitch information of the operated performance operator 16 and velocity. For example, when the user performs a real-time performance according to the score shown in FIG. 4A, the CPU 10 receives the pitch information of E5 and the velocity information corresponding to the key speed when receiving the first key-on n1 pronunciation instruction. Next, in step S202, the CPU 10 performs a syllable information acquisition process (FIG. 3B) for acquiring syllable information corresponding to key-on.

図3(b)のステップS211では、CPU10は、カーソル位置の音節を取得する。なお、ユーザの演奏に先立って、図4(a)に示す楽譜に対応してデータメモリ18に格納されている特定の歌詞が指定されており、指定された歌詞を音節に区切ったテキストデータの先頭の音節にカーソルが置かれている。例えば、図4(a)に示す楽譜に対応して指定された歌詞を音節に区切ったテキストデータ30は、図4(b)に示す音節c1〜c42の「は」「る」「よ」「こ」「い」の5つの音節からなるテキストデータとされている。この場合、c1〜c3の音節「は」「る」「よ」はそれぞれ独立しているが、c41の音節「こ」とc42の音節「い」とはグループ化されている。このグループ化を示す情報はグループ化情報31として各音節に埋め込まれたり対応付けられたりしている。グループ化情報31において、「×」はグループ化されていないことを表し、「○」はグループ化されていることを表している。これにより、図4(b)に示すように、最初のキーオンn1の発音指示を受け付けた際には、CPU10は、指定された歌詞の最初の音節c1である「は」をデータメモリ18から読み出す。   In step S211 in FIG. 3B, the CPU 10 acquires the syllable at the cursor position. Prior to the performance of the user, specific lyrics stored in the data memory 18 are specified corresponding to the score shown in FIG. 4A, and the text data of the specified lyrics divided into syllables is specified. The cursor is on the first syllable. For example, the text data 30 obtained by dividing the lyrics designated corresponding to the score shown in FIG. 4A into syllables is “ha”, “ru”, “yo”, “y” of syllables c1 to c42 shown in FIG. The text data is composed of five syllables of “K” and “I”. In this case, the syllables “ha”, “ru”, and “yo” of c1 to c3 are independent, but the syllable “ko” of c41 and the syllable “i” of c42 are grouped. Information indicating this grouping is embedded or associated with each syllable as grouping information 31. In the grouping information 31, “×” indicates that the group is not grouped, and “◯” indicates that the group is grouped. As a result, as shown in FIG. 4B, when receiving the first key-on n1 pronunciation instruction, the CPU 10 reads “ha”, which is the first syllable c1 of the designated lyrics, from the data memory 18. .

次いで、ステップS212では、CPU10は、取得した音節がグループ化されているか否かを、取得された音節のグループ化情報31から判別する。そしてCPU10は、取得された音節が例えばc1の「は」の場合は、そのグループ化情報31が「×」であることからグループ化されていないと判断し、処理をステップS216に進める。ステップS216では、CPU10は、テキストデータ30の次の音節にカーソルを進める。これにより、例えば2音節目のc2の「る」にカーソルが置かれる。なお、後述する設定されたループ区間をループ再生する「ループモード」が設定されている場合は、カーソルを進めるべき次の音節はループモードを考慮したものとされ、通常、ループ区間内における次の音節または先頭の音節となる。ステップS216の処理が終了すると音節情報取得処理は終了する。   Next, in step S212, the CPU 10 determines whether or not the acquired syllables are grouped from the acquired syllable grouping information 31. Then, when the acquired syllable is “ha” of c1, for example, the CPU 10 determines that the grouping information 31 is “x”, and thus the process is advanced to step S216. In step S <b> 216, the CPU 10 advances the cursor to the next syllable of the text data 30. As a result, for example, the cursor is placed on “ru” of c2 of the second syllable. When “loop mode” for loop playback of a set loop section, which will be described later, is set, the next syllable to be advanced by the cursor is considered the loop mode, and normally the next syllable in the loop section is considered. Syllable or first syllable. When the process of step S216 ends, the syllable information acquisition process ends.

一方、ステップS212の判別の結果、取得した音節がグループ化されている場合は、CPU10は、グループ内の音節を取得する。例えば、取得した音節が「こ」であるとき、「こ」と「い」がグループ化されていることから、CPU10は、処理をステップS213へ進める。ステップS213では、CPU10は、グループ内の音節c42である「い」をデータメモリ18から読み出す。次いで、ステップS214では、CPU10は、キーオフ発音フラグをセットして、キーオフされた際にグループ内の次の音節「い」を発音させる準備をする。次のステップS215では、CPU10は、テキストデータ30のグループを越えた次の音節にカーソルを進める。ただし、次の音節がない場合はこの処理はスキップされる。ステップS215の処理が終了すると音節情報取得処理は終了する。   On the other hand, if the acquired syllable is grouped as a result of the determination in step S212, the CPU 10 acquires a syllable in the group. For example, when the acquired syllable is “ko”, since “ko” and “i” are grouped, the CPU 10 advances the process to step S213. In step S <b> 213, the CPU 10 reads “I”, which is the syllable c <b> 42 in the group, from the data memory 18. Next, in step S214, the CPU 10 sets a key-off sound generation flag, and prepares to sound the next syllable “I” in the group when the key is turned off. In the next step S215, the CPU 10 advances the cursor to the next syllable beyond the group of the text data 30. However, this process is skipped when there is no next syllable. When the process of step S215 ends, the syllable information acquisition process ends.

図3(a)のステップS203では、CPU10は、音声素片データを選択する。この音声素片データの選択処理は、CPU10の制御の基に音源13で行われ、取得された音節を発音させる音声素片データが音韻データベース32(図4(c))から選択される。図4(c)に示すように、音韻データベース32には、「音素連鎖データ32a」と「定常部分データ32b」とが記憶されている。音素連鎖データ32aは、無音(#)から子音、子音から母音、母音から(次の音節の)子音または母音など、発音が変化する際の音素片のデータである。定常部分データ32bは、母音の発音が継続する際の音素片のデータである。最初のキーオンn1の発音指示を受け付けて、例えば取得された音節がc1の「は」の場合は、音源13において、音素連鎖データ32aから「無音→子音h」に対応する音声素片データ「#−h」と「子音h→母音a」に対応する音声素片データ「h−a」が選択されると共に、定常部分データ32bから「母音a」に対応する音声素片データ「a」が選択される。   In step S203 in FIG. 3A, the CPU 10 selects speech segment data. This speech segment data selection process is performed by the sound source 13 under the control of the CPU 10, and speech segment data for generating the acquired syllable is selected from the phoneme database 32 (FIG. 4C). As shown in FIG. 4C, the phoneme database 32 stores “phoneme chain data 32a” and “steady part data 32b”. The phoneme chain data 32a is data of phonemes when the pronunciation changes such as silence (#) to consonant, consonant to vowel, vowel to consonant or vowel (next syllable). The stationary part data 32b is phoneme piece data when the vowel sound continues. When the pronunciation instruction of the first key-on n1 is received and, for example, the acquired syllable is “ha” of c1, in the sound source 13, the speech unit data “#” corresponding to “silence → consonant h” from the phoneme chain data 32a. -H "and speech unit data" ha "corresponding to" consonant h → vowel a "are selected, and speech unit data" a "corresponding to" vowel a "is selected from the steady part data 32b. Is done.

次いで、ステップS204にて、ステップS203で選択された音声素片データに基づく発音処理をCPU10の制御の基に音源13が行う。例えば取得された音節がc1の「は」の場合は、ステップS204の発音処理において、「#−h」→「h−a」→「a」の音声素片データの発音が順次、音源13において行われることで、音節c1の「は」の発音が行われる。発音の際には、キーオンn1の発音指示の受付の際に受け取ったE5の音高で、ベロシティ情報に応じた音量で「は」の歌唱音が発音される。ステップS204の発音処理が終了するとキーオン時処理は終了する。   Next, in step S204, the sound source 13 performs sound generation processing based on the speech segment data selected in step S203 under the control of the CPU 10. For example, when the acquired syllable is “ha” of c1, in the sound generation process of step S204, the sound source data of “# -h” → “ha” → “a” is sequentially generated in the sound source 13. As a result, the pronunciation of “ha” in the syllable c1 is performed. At the time of sound generation, the singing sound of “ha” is generated at the volume corresponding to the velocity information at the pitch of E5 received at the time of receiving the sound generation instruction of the key-on n1. When the sound generation process in step S204 ends, the key-on process ends.

図5は、図2(b)のステップS113で実行されるキーオフ時処理のフローチャートである。キーオフ時処理のステップS301、S304の処理はCPU10が実行し、ステップS302、S303、S305の処理はCPU10の制御の基で音源13において実行される。ステップS301では、CPU10は、キーオフ発音フラグがオンか否かを判別する。このキーオフ発音フラグは、取得した音節がグループ化されている場合に図3(b)のステップS214でセットされる。例えば、最初の音節c1はグループ化されていないことから、ステップS301でNoと判断され、処理はステップS305に進む。ステップS305では、CPU10の制御の基に音源13において消音処理が行われて、「は」の歌唱音の発音が停止される。すなわち、所定のエンベロープのリリースカーブで「は」の歌唱音が消音されていく。その後、キーオフ時処理は終了する。   FIG. 5 is a flowchart of the key-off process executed in step S113 of FIG. The process of steps S301 and S304 of the key-off process is executed by the CPU 10, and the processes of steps S302, S303 and S305 are executed by the sound source 13 under the control of the CPU 10. In step S301, the CPU 10 determines whether or not the key-off sound generation flag is on. This key-off sound generation flag is set in step S214 in FIG. 3B when the acquired syllables are grouped. For example, since the first syllable c1 is not grouped, No is determined in step S301, and the process proceeds to step S305. In step S305, the sound source 13 performs a mute process under the control of the CPU 10, and the sound of the “ha” singing sound is stopped. That is, the singing sound of “ha” is muted with a predetermined envelope release curve. Thereafter, the key-off process ends.

一方、キーオフ発音フラグがオンでない場合は、ステップS302で、グループ内の次の音節の発音処理が行われる。これは、図4(b)の例でいえば「こ」の発音が開始された後にキーオフがされた場合が該当する。CPU10は、ステップS203の音節情報取得処理において、音節「い」に対応する音声素片データとして選択された「o−i」→「i」の音声素片データをE5の音高で発音させる。次いで、ステップS303では、消音処理が行われる。例えば、所定のエンベロープのリリースカーブで「い」の歌唱音が消音されていく。なお、「こ」の発音は、発音が「い」に移行した時点において、発音停止されるとする。次いで、ステップS304で、CPU10は、キーオフ発音フラグをリセットしてキーオフ時処理を終了する。   On the other hand, if the key-off sound generation flag is not on, sound generation processing for the next syllable in the group is performed in step S302. In the example of FIG. 4B, this corresponds to a case where key-off is performed after the pronunciation of “ko” is started. In the syllable information acquisition process in step S203, the CPU 10 causes the speech unit data “oi” → “i” selected as speech unit data corresponding to the syllable “I” to be generated at the pitch of E5. Next, in step S303, a mute process is performed. For example, the singing sound of “I” is muted with a release curve of a predetermined envelope. It is assumed that the pronunciation of “ko” is stopped when the pronunciation shifts to “i”. Next, in step S304, the CPU 10 resets the key-off sound generation flag and ends the key-off process.

キーオン時処理及びキーオフ時処理を、図4(b)に示す音節c1〜c42を例にとって説明する。   The key-on process and the key-off process will be described using syllables c1 to c42 shown in FIG. 4B as an example.

CPU10は、最初のキーオンn1の発音指示を受け付けると、最初の音節c1を取得すると共にグループ化されていないと判断する。次いで、音源13において、音節c1を発音する音声素片データ「#−h」,「h−a」,「a」が選択(ステップS203)されて、キーオンn1のベロシティ情報に応じた音量のエンベロープが開始され、「#−h」→「h−a」→「a」の音声素片データをE5の音高で且つ上記エンベロープの音量で発音される(ステップS204)。これにより、「は」の歌唱音が発音される。上記エンベロープは、キーオンn1のキーオフまでサスティンが持続する持続音のエンベロープとされ、キーオンn1の鍵がキーオフされるまで「a」の音声素片データが繰り返し再生される。その後、キーオフされると発音は停止される。   When the CPU 10 receives a sound generation instruction for the first key-on n1, the CPU 10 acquires the first syllable c1 and determines that it is not grouped. Next, in the sound source 13, speech segment data “# -h”, “ha”, “a” for generating the syllable c1 is selected (step S203), and the volume envelope according to the velocity information of the key-on n1. Is started, and voice segment data of “# -h” → “ha” → “a” is generated with the pitch of E5 and the volume of the envelope (step S204). Thereby, the singing sound of “ha” is pronounced. The envelope is an envelope of a sustained sound that continues sustaining until the key-on n1 is turned off, and the speech unit data “a” is repeatedly reproduced until the key-on n1 key is turned off. Thereafter, the sound is stopped when the key is turned off.

リアルタイム演奏の進行に伴い演奏操作子16が操作されて、2回目のキーオンn2が検出されると、CPU10はキーオンn2のタイミング、E5の音高情報と鍵速度に応じたベロシティ情報を受け取る。そしてCPU10は、指定された歌詞のカーソルが置かれた2番目の音節c2である「る」をデータメモリ18から読み出し、この取得した音節「る」のグループ化情報31が「×」であることからグループ化されていないと判断して、3音節目のc3の「よ」にカーソルを進める。ステップS203の音声素片データ選択処理では、音源13において、音素連鎖データ32aから「無音→子音r」に対応する音声素片データ「#−r」と「子音r→母音u」に対応する音声素片データ「r−u」が選択されると共に、定常部分データ32bから「母音u」に対応する音声素片データ「u」が選択される。ステップS204の発音処理では、「#−r」→「r−u」→「u」の音声素片データの発音により、c2の「る」の音節の発音が行われる。   When the performance operator 16 is operated as the real-time performance progresses and the second key-on n2 is detected, the CPU 10 receives velocity information corresponding to the timing of the key-on n2, the pitch information of E5, and the key speed. Then, the CPU 10 reads “ru”, which is the second syllable c2 where the cursor of the designated lyrics is placed, from the data memory 18, and the grouping information 31 of the acquired syllable “ru” is “x”. Therefore, the cursor is moved to “Y” of c3 of the third syllable. In the speech unit data selection process in step S203, the sound source 13 uses the phoneme chain data 32a to generate speech unit data “# -r” corresponding to “silence → consonant r” and speech corresponding to “consonant r → vowel u”. The segment data “ru” is selected, and the speech segment data “u” corresponding to “vowel u” is selected from the steady portion data 32b. In the sound generation process of step S204, the pronunciation of the syllable of “ru” of c2 is performed by the sound generation of the speech segment data “# −r” → “r−u” → “u”.

3回目のキーオンn3は、2回目のキーオンn2がキーオフされる前にキーオンするレガートとされている。3回目のキーオン時処理においては、CPU10はキーオンn3のタイミング、D5の音高情報と鍵速度に応じたベロシティ情報を受け取る。そしてCPU10は、ステップS202の音節情報取得処理では、指定された歌詞のカーソルが置かれた3番目の音節c3である「よ」をデータメモリ18から読み出す。そしてCPU10は、この取得した音節「よ」のグループ化情報31が「×」であることからグループ化されていないと判断して、4音節目のc41の「こ」にカーソルを進める。ステップS203では、音源13において、音素連鎖データ32aから「母音u→子音y」に対応する音声素片データ「u−y」と「子音y→母音o」に対応する音声素片データ「y−o」が選択されると共に、定常部分データ32bから「母音o」に対応する音声素片データ「o」が選択される。これは、3回目のキーオンn3がレガートであって「る」から「よ」へ滑らかにつなげて発音させるためである。ステップS204の発音処理では、「u−y」→「y−o」→「o」の音声素片データの発音が順次行われて、c2の「る」から滑らかにつながるc3の「よ」の音節の発音が行われる。キーオンn3がキーオフされると、3番目の音節c3である「よ」はグループ化されていないことから、ステップS305では、音源13において消音処理が行われて、「よ」の歌唱音の発音が停止される。   The third key-on n3 is a legato that is keyed on before the second key-on n2 is keyed off. In the third key-on process, the CPU 10 receives velocity information corresponding to the key-on n3 timing, D5 pitch information, and key speed. Then, in the syllable information acquisition process in step S202, the CPU 10 reads “yo”, which is the third syllable c3 on which the cursor of the designated lyrics is placed, from the data memory 18. Then, the CPU 10 determines that the grouping information 31 of the acquired syllable “yo” is “x” and determines that it is not grouped, and advances the cursor to “ko” of c41 of the fourth syllable. In step S203, in the sound source 13, the speech element data “u−y” corresponding to “vowel u → consonant y” and the speech element data “y−” corresponding to “consonant y → vowel o” are selected from the phoneme chain data 32a. “o” is selected, and the speech element data “o” corresponding to “vowel o” is selected from the stationary part data 32b. This is because the third key-on n3 is legato and is smoothly connected from “ru” to “yo” to produce sound. In the sound generation process in step S204, sound segment data “u−y” → “yo” → “o” are sequentially sounded, and “good” of c3 smoothly connected from “ru” of c2. Syllable pronunciation is performed. When the key-on n3 is turned off, the third syllable c3 “yo” is not grouped. In step S305, the sound source 13 is muted, and the sound of the “yo” singing sound is generated. Stopped.

そして、4回目のキーオンn4が検出されると、CPU10はキーオンn4のタイミング、E5の音高情報と鍵速度に応じたベロシティ情報を受け取る。そして、4番目の音節c41である「こ」をデータメモリ18から読み出すが、この取得した音節「こ」のグループ化情報31が「○」であり、グループ化されていると判断して、グループ内の音節c42である「い」をデータメモリ18から読み出す。   When the fourth key-on n4 is detected, the CPU 10 receives velocity information corresponding to the timing of the key-on n4, the pitch information of E5, and the key speed. Then, the fourth syllable c41 “ko” is read from the data memory 18. The grouping information 31 of the acquired syllable “ko” is “o”, and it is determined that the group is grouped. “I” which is the syllable c42 in the data is read from the data memory 18.

ステップS203の音声素片データ選択処理では、音源13において、グループ内の音節「こ」および「い」に対応する音声素片データが選択される。すなわち、音節「こ」に対応する音声素片データとして、音素連鎖データ32aから「無音→子音k」に対応する音声素片データ「#−k」と「子音k→母音o」に対応する音声素片データ「k−o」が選択されると共に、定常部分データ32bから「母音o」に対応する音声素片データ「o」が選択される。また、音節「い」に対応する音声素片データとして、音素連鎖データ32aから「母音o→母音i」に対応する音声素片データ「o−i」が選択されると共に、定常部分データ32bから「母音i」に対応する音声素片データ「i」が選択される。そして、「#−k」→「k−o」→「o」の音声素片データの発音により、c41の「こ」の音節の発音が行われ、キーオンn4の鍵がキーオフされるまで「o」の音声素片データが繰り返し再生される。そして、キーオンn4がキーオフされると、「o−i」→「i」の音声素片データの発音により、c41の「こ」と同じ音高E5でc42の「い」の歌唱音が発音される。その後、消音処理が行われて、「い」の歌唱音の発音が停止される。   In the speech unit data selection process in step S203, speech unit data corresponding to the syllables “ko” and “i” in the group is selected in the sound source 13. That is, as speech unit data corresponding to the syllable “ko”, speech unit data “# -k” corresponding to “silence → consonant k” and speech corresponding to “consonant k → vowel o” from the phoneme chain data 32a. The segment data “k-o” is selected, and the speech segment data “o” corresponding to “vowel o” is selected from the steady-state partial data 32b. Also, as speech segment data corresponding to the syllable “I”, speech segment data “oi” corresponding to “vowel o → vowel i” is selected from the phoneme chain data 32a, and from the steady part data 32b. Speech segment data “i” corresponding to “vowel i” is selected. Then, the pronunciation of the speech segment data “# −k” → “k−o” → “o” causes the pronunciation of the syllable “c” of c41, and “o” until the key on key on n4 is keyed off. "Is repeatedly reproduced. Then, when key-on n4 is keyed off, the singing sound of “i” of c42 is pronounced with the same pitch E5 as “ko” of c41 by the pronunciation of the speech segment data of “oi” → “i”. The Thereafter, a mute process is performed, and the pronunciation of the song sound “I” is stopped.

このように、ユーザのリアルタイム演奏に応じた歌唱音である歌声が発音されるようになると共に、リアルタイム演奏時の1押鍵で複数の歌声を発音することができる。グループ化された音節は、1回の押離鍵操作で発音される音節の集合とされ、例えばグループ化されたc41とc42の音節は1回の押離鍵操作で発音される。この場合、1音節目は押鍵時に、2音節目以降は離鍵時に発音される。そして、グループ化の情報は、キーオフにより次の音節を発音するか否かを決定する情報なので、「キーオフ発音情報」ということができる。なお、キーオンn4の鍵がキーオフされる前に、演奏操作子16の他の鍵(キーオンn5とする)のキーオンが行われた場合は、キーオンn4のキーオフ時処理が行われたあとにキーオンn5の発音が行われる。すなわち、キーオンn4のキーオフ時処理としてc42の音節が発音された後に、キーオンn5に対応するc42の次の音節が発音されるようになる。あるいは、キーオンn5に対応する音節をすぐに発音させるため、キーオンn5のキーオン操作により実行されるキーオンn4のキーオフ時処理においては、ステップS302を省略するよう構成してもよい。この場合、c42の音節は発音されず、キーオンn5に応じてすぐにc42の次の音節の発音が行われるようになる。   In this way, a singing voice, which is a singing sound according to the user's real-time performance, can be generated, and a plurality of singing voices can be generated with one key press during real-time performance. The grouped syllables are a set of syllables that are pronounced by one press and release key operation. For example, the grouped syllables c41 and c42 are generated by one press and release key operation. In this case, the first syllable is pronounced when the key is pressed, and the second and subsequent syllables are pronounced when the key is released. The grouping information is information that determines whether or not the next syllable is pronounced by key-off, and can therefore be referred to as “key-off pronunciation information”. If a key on another key (referred to as key-on n5) is performed before the key-on n4 is keyed off, the key-on n5 is performed after the key-on n4 key-off process is performed. Is pronounced. That is, after the syllable c42 is sounded as the key-on n4 key-off process, the next syllable of c42 corresponding to the key-on n5 is pronounced. Alternatively, in order to immediately sound the syllable corresponding to the key-on n5, the key-on n4 key-off process executed by the key-on operation of the key-on n5 may be configured to omit step S302. In this case, the syllable of c42 is not pronounced, and the syllable next to c42 is pronounced immediately in response to key-on n5.

図6は、図2(b)のステップS115で実行される押下時処理のフローチャートである。ループボタン20が押下されることでこの処理が開始され、ステップS401では、CPU10は、ループモードがオン(ON)に設定されているか否かを判別する。そして、ループモードがオンに設定されている場合は、ループ区間が設定済みであり、そのループ再生中にループボタン20が押下された場合であるので、ループ区間を解除または更新する必要がある。そこでCPU10は、ループモードのオフを準備するためのループモードのオフ(OFF)を予約して(ステップS402)、図6の処理を終了する。なお、CPU10は、予約の際には、ループボタン20が押下された時点の読み出し位置をRAM12に記憶させておく。   FIG. 6 is a flowchart of the pressing process executed in step S115 of FIG. This process is started when the loop button 20 is pressed. In step S401, the CPU 10 determines whether or not the loop mode is set to ON. When the loop mode is set to ON, the loop section has already been set and the loop button 20 has been pressed during the loop playback, so it is necessary to cancel or update the loop section. Therefore, the CPU 10 reserves the loop mode OFF (OFF) for preparing the loop mode OFF (step S402), and ends the process of FIG. Note that the CPU 10 stores the read position at the time when the loop button 20 is pressed in the RAM 12 at the time of reservation.

一方、ループモードがオンに設定されていない場合は、ループ区間が未設定の状態でループボタン20が押下された場合であるので、新たにループ区間を設定する必要がある。そこでCPU10は、今回のループボタン20が押下された時点で読み出し位置(カーソル位置)にある音節が不可分音節群に含まれる音節であるか否かを判別する(ステップS403)。ここで、「不可分音節群」は、連続する複数の音節から成る音節群であり、群に含まれる先頭と末尾の音節がループ区間の開始地点または終了地点となることが不適切な音節群である。不可分音節群は予め設定されている。なお、歌詞は日本語に限らず、英語等の他の言語であってもよい。すなわち、日本語では、ほぼ1文字1音節であるが、他の言語においては1文字が1音節とならない場合がある。例えば、英語の歌詞が「september」の場合は、「sep」「tem」「ber」の3音節となる。このうち「tem」は、ループ再生の先頭または末尾になると不自然である。そこで、「sep」「tem」「ber」の3音節を不可分音節群として設定しておく。   On the other hand, when the loop mode is not set to ON, it is a case where the loop button 20 is pressed in a state where the loop section is not set, so that it is necessary to newly set the loop section. Therefore, the CPU 10 determines whether or not the syllable at the reading position (cursor position) at the time when the current loop button 20 is pressed is a syllable included in the inseparable syllable group (step S403). Here, the “inseparable syllable group” is a syllable group composed of a plurality of continuous syllables, and it is inappropriate that the first and last syllables included in the group become the start point or end point of the loop section. is there. The inseparable syllable group is set in advance. The lyrics are not limited to Japanese, but may be other languages such as English. That is, in Japanese, one character is one syllable, but in other languages, one character may not be one syllable. For example, if the English lyrics are “september”, the three syllables are “sep”, “tem”, and “ber”. Of these, “tem” is unnatural when it comes to the beginning or end of loop playback. Therefore, three syllables “sep”, “tem”, and “ber” are set as an inseparable syllable group.

なお、上述したグループは、不可分音節群に含まれる概念であり、グループ化された2つの音節は不可分音節群でもある。しかし、不可分音節群の全てがグループ化されているとは限らない。例えば、図4(b)の例では、「こ」と「い」がグループ化されていたが、「september」の場合は、「sep」「tem」の2音節をグループ化することにより、1回の押離鍵操作における押鍵時に「sep」の音節を、離鍵時に「tem」の音節を押鍵された鍵の音高で発音させることができるようになる。あるいは、「tem」「ber」の2音節をグループ化してもよい。なお、文字や音節に代えてモーラという概念を用いてもよい。   The group described above is a concept included in the inseparable syllable group, and the two grouped syllables are also inseparable syllable groups. However, not all inseparable syllable groups are grouped. For example, in the example of FIG. 4B, “ko” and “i” are grouped. However, in the case of “september”, two syllables “sep” and “tem” are grouped to make 1 It is possible to sound the “sep” syllable at the time of pressing and releasing the key and the “tem” syllable at the time of releasing the key at the pitch of the pressed key. Alternatively, two syllables “tem” and “ber” may be grouped. Note that the concept of mora may be used instead of characters and syllables.

ステップS403で、今回のループボタン20が押下された時点で読み出し位置にある音節が不可分音節群に含まれる音節でない場合は、CPU10は、今回のループボタン20が押下された時点での読み出し位置をループ区間の開始地点(開始位置)として設定(指定)し(ステップS404)、図6の処理を終了する。一方、今回のループボタン20が押下された時点で読み出し位置にある音節が不可分音節群に含まれる音節である場合は、CPU10は、当該不可分音節群における先頭の音節をループ区間の開始地点として設定(指定)する(ステップS405)。これにより開始地点が補正される。その後、図6の処理は終了する。   If it is determined in step S403 that the syllable at the reading position when the current loop button 20 is pressed is not a syllable included in the inseparable syllable group, the CPU 10 determines the reading position when the current loop button 20 is pressed. It is set (designated) as the start point (start position) of the loop section (step S404), and the process of FIG. On the other hand, when the syllable at the reading position when the current loop button 20 is pressed is a syllable included in the inseparable syllable group, the CPU 10 sets the first syllable in the inseparable syllable group as the start point of the loop section. (Specify) (step S405). Thereby, the starting point is corrected. Thereafter, the process of FIG. 6 ends.

図7は、図2(b)のステップS117で実行されるリリース時処理のフローチャートである。まず、CPU10は、ループモードのオフが予約されているか否かを判別する(ステップS501)。そして、ループモードのオフが予約されている場合は、CPU10は、今回のループボタン20のリリース(図2(b)のステップS116)が、ループボタン20の押下操作時(図2(b)のステップS114)と同じ読み出し位置でされたか否かを判別する(ステップS506)。その判別の結果、今回のループボタン20の押下解除操作時(リリース時)の読み出し位置が押下操作時と同じであれば、ループ再生中において非常に短い時間内に(次の音節にカーソルが移動する前に)ループボタン20が押下とリリースとがなされたと判断できる。従って、この場合は、ループモードの解除を意図していると判断できるので、CPU10は、ループモードをオフにすると共に、設定されているループ区間(開始地点及び終了地点の情報)をクリアする(ステップS508)。その後、図7の処理は終了する。   FIG. 7 is a flowchart of the release time process executed in step S117 of FIG. First, the CPU 10 determines whether or not the loop mode is reserved to be turned off (step S501). If it is reserved to turn off the loop mode, the CPU 10 releases the loop button 20 (step S116 in FIG. 2B) at the time of pressing the loop button 20 (FIG. 2B). It is determined whether or not the reading position is the same as in step S114) (step S506). As a result of the determination, if the read position at the time of the release operation (release) of the loop button 20 is the same as that at the time of the release operation, the cursor moves to the next syllable within a very short time during the loop playback. It can be determined that the loop button 20 has been pressed and released. Therefore, in this case, since it can be determined that the loop mode is intended to be canceled, the CPU 10 turns off the loop mode and clears the set loop section (information of the start point and end point) ( Step S508). Thereafter, the process of FIG. 7 ends.

一方、今回のループボタン20のリリース時の読み出し位置が押下操作時と異なれば、ループ再生中において読み出し位置の移動を経ているので、ループモードの更新を意図していると判断できる。そこでCPU10は、ステップS507で、設定済みの現ループ区間を解除すると共に、ループボタン20の押下時の読み出し位置(ステップS402で記憶された位置)を開始地点、リリース時の読み出し位置を終了地点とする、新たなループ区間を設定する。その後、処理はステップS504に進む。   On the other hand, if the reading position when the loop button 20 is released is different from the pressing operation, it can be determined that the loop mode is intended to be updated because the reading position has been moved during loop playback. In step S507, the CPU 10 cancels the current loop section that has been set, and sets the read position when the loop button 20 is pressed (the position stored in step S402) as the start point and the read position when released as the end point. A new loop section is set. Thereafter, the process proceeds to step S504.

ステップS501の判別の結果、ループモードのオフが予約されていない場合は、ループ区間の特に終了地点が未設定の状態でループボタン20がリリースされた場合であるので、終了地点を決定する必要がある。そこでCPU10は、今回のループボタン20がリリースされた時点で読み出し位置にある音節が不可分音節群に含まれる音節であるか否かを判別する(ステップS502)。そして、今回のループボタン20がリリースされた時点で読み出し位置にある音節が不可分音節群に含まれる音節でない場合は、CPU10は、当該リリースされた時点での読み出し位置をループ区間の終了地点(終了位置)として設定(指定)し(ステップS505)、処理をステップS504に進める。一方、今回のループボタン20がリリースされた時点で読み出し位置にある音節が不可分音節群に含まれる音節である場合は、CPU10は、当該不可分音節群における末尾の音節をループ区間の終了地点として設定(指定)し(ステップS503)、処理をステップS504に進める。これにより終了地点が補正される。   As a result of the determination in step S501, if the loop mode OFF is not reserved, it is a case where the loop button 20 is released in a state in which the end point of the loop section is not particularly set, so it is necessary to determine the end point. is there. Therefore, the CPU 10 determines whether or not the syllable at the reading position when the current loop button 20 is released is a syllable included in the inseparable syllable group (step S502). If the syllable at the reading position when the current loop button 20 is released is not a syllable included in the inseparable syllable group, the CPU 10 sets the reading position at the time of the release as the end point of the loop section (end). (Position) is set (designated) (step S505), and the process proceeds to step S504. On the other hand, when the syllable at the reading position when the current loop button 20 is released is a syllable included in the inseparable syllable group, the CPU 10 sets the last syllable in the inseparable syllable group as the end point of the loop section. (Specify) (step S503), and the process proceeds to step S504. Thereby, the end point is corrected.

ステップS504では、CPU10は、ループ区間が設定されたので、ループモードをオンに設定し(ステップS504)、図7の処理を終了する。なお、ステップS504が実行された場合、その後、ステップS103に戻ることで、設定されたループ区間の再生が開始されることになる。すなわち、ユーザは、演奏操作子16を押下(キーオン)するごとに(グループ化された音節は押下と離操作により)、ループ区間内の音節が順次発音される。   In step S504, since the loop section is set, the CPU 10 sets the loop mode to ON (step S504), and ends the process of FIG. When step S504 is executed, the process returns to step S103, and the reproduction of the set loop section is started. That is, each time the user presses (keys on) the performance operator 16 (by pressing and releasing the grouped syllables), the syllables in the loop section are sounded sequentially.

このように、ループ再生でない通常再生においては、ユーザが演奏操作子16を押鍵する毎に、指定された歌詞を音節に区切ったテキストデータ30の音節が、押鍵された鍵の音高で発音されていく。これにより、リアルタイム演奏時に指定された歌詞が歌われる。また、歌唱する歌詞の音節をグループ化することにより、1回の押鍵操作における押鍵時に1音節目を発音させ、離鍵時に2音節目を発音させることができる。   In this way, in normal playback that is not loop playback, each time the user presses the performance operator 16, the syllable of the text data 30 in which the specified lyrics are divided into syllables is the pitch of the pressed key. It is pronounced. Thereby, the lyrics designated at the time of real-time performance are sung. Also, by grouping the syllables of the lyrics to be sung, the first syllable can be pronounced when the key is depressed in one key depression operation, and the second syllable can be pronounced when the key is released.

本実施の形態によれば、CPU10は、ループボタン20の押下操作に応じてループ区間の開始位置を設定すると共に、開始位置が設定された状態で、ループボタン20の押下解除操作(リリース)に応じてループ区間の終了位置を設定する。すなわち、ユーザは、ループボタン20を押して離すだけで開始位置及び終了位置を指定できるので、単一操作子の簡単な操作でループ区間を設定することができる。特に、再生用情報は、演奏操作子16の操作に従って、読み出し位置にある音節が読み出される音節情報を含むので、単一操作子の簡単な操作で音節再生におけるループ区間を設定することができる。   According to the present embodiment, the CPU 10 sets the start position of the loop section in response to the pressing operation of the loop button 20, and performs the pressing release operation (release) of the loop button 20 with the start position set. Accordingly, the end position of the loop section is set. That is, since the user can designate the start position and the end position by simply pressing and releasing the loop button 20, the loop section can be set by a simple operation of a single operator. In particular, since the reproduction information includes syllable information in which the syllable at the reading position is read according to the operation of the performance operator 16, a loop section in syllable reproduction can be set with a simple operation of a single operator.

また、ループ区間の設定操作が押し・離しという単純動作なので、演奏者の重心の移動が少なく姿勢が安定し、設定操作が単純でわかりやすいので、非常に短い区間のループ再生を設定しやすくライブ演奏に適している。なお、ICレコーダやDVDプレーヤにおけるリピート再生では繰り返しの開始地点でボタンを押し・離し、繰り返しの終了地点でボタンを押し・離すことでリピート区間を設定するのが通常である。これらの装置に、本実施の形態のループ区間設定手法を適用してもよく、非常に短いループ区間が容易に設定可能となる効果が期待できる。   In addition, since the loop section setting operation is a simple operation of pushing and releasing, the player's center of gravity moves little and the posture is stable, and the setting operation is simple and easy to understand. Suitable for In repeat playback in an IC recorder or DVD player, it is usual to set a repeat section by pressing and releasing the button at the start point of repetition and pressing and releasing the button at the end point of repetition. The loop section setting method of the present embodiment may be applied to these devices, and an effect that a very short loop section can be easily set can be expected.

また、ループボタン20のリリースによりループ区間が設定されると、そのループ区間の再生が開始されるので、簡単な操作でループ再生を開始することができる。また、ループ区間のループ再生中にループボタン20が押下され、その後、押下操作時と同じ読み出し位置でリリースされると、当該ループ区間の設定が解除されるので、短い時間でのオンとリリースという簡単な操作でループ区間の設定を解除することができる。一方、ループ区間のループ再生中に、ループボタン20が押下され、その後、押下操作時と異なる読み出し位置でリリースされると、ループ区間が新たなループ区間に更新されるので、簡単な操作でループ区間を再設定することができる。   Further, when a loop section is set by releasing the loop button 20, playback of the loop section is started, so that loop playback can be started with a simple operation. In addition, when the loop button 20 is pressed during loop playback of the loop section and then released at the same reading position as the pressing operation, the setting of the loop section is canceled, so it is called on and release in a short time. The loop section setting can be canceled with a simple operation. On the other hand, when the loop button 20 is pressed during loop playback of the loop section, and then released at a reading position different from that at the time of the pressing operation, the loop section is updated to a new loop section. The section can be reset.

また、ループボタン20の押下操作時、リリース時にそれぞれ読み出し位置にある音節が不可分音節群に含まれる音節である場合は、当該不可分音節群の先頭の音節が開始音節、末尾の音節が終了音節としてそれぞれ設定される。これにより、不自然な箇所でループ区間が設定されないようにすることができる。   In addition, when the syllable at the reading position is a syllable included in the inseparable syllable group when the loop button 20 is pressed and released, the first syllable of the inseparable syllable group is the start syllable and the last syllable is the end syllable Each is set. Thereby, it is possible to prevent the loop section from being set at an unnatural place.

なお、本実施の形態において、図7のステップS506、S507を廃止してもよい。そのようにする場合、ステップS501でYESのときにステップS508へ移行するとしてもよい。これにより、ユーザは、ループ区間が設定された状態でループボタン20を押下し、その後リリースしたタイミングでループ区間の設定を解除できる。あるいは、ステップS506、S507を廃止する場合、ステップS501も廃止し、且つ、図6のステップS402で、ループ区間の設定を解除するようにしてもよい。これにより、ユーザは、ループ区間のループ再生中にループボタン20を押下操作するだけで直ちにループ区間の設定を解除できる。その直後のループボタン20のリリースは処理に関与しない。   In the present embodiment, steps S506 and S507 in FIG. 7 may be omitted. When doing so, the process may move to step S508 when YES in step S501. Thereby, the user can cancel the setting of the loop section at the timing when the user presses the loop button 20 in a state where the loop section is set and then releases it. Alternatively, when steps S506 and S507 are abolished, step S501 may also be abolished, and the loop section setting may be canceled in step S402 of FIG. As a result, the user can immediately cancel the setting of the loop section simply by pressing the loop button 20 during loop playback of the loop section. The release of the loop button 20 immediately after that is not involved in the processing.

なお、単一操作子の簡単な操作でループ区間を設定する観点からは、再生用情報が音節情報を含むことは必須でない。また、歌唱合成に限らず、音声合成する発音装置にも本発明を適用可能である。例えば、ハミング音や、スキャット、コーラスなどの歌唱音、または、通常の楽器音あるいは鳥のさえずりや電話のベルなどの効果音などの歌詞のない所定の音を発音できる。音源13は、歌詞のない所定の音の音色を備えており、CPU10は、ユーザが演奏操作子16を利用してリアルタイム演奏を行った際に歌詞のない所定の音を発音させる。図3(a)のステップS202では、音節情報取得処理に替えてキーオフ発音情報処理が行われ、ステップS203の音声素片データ選択処理では、予め定められた音や音声を発音させる音源波形や音声素片データが選択される。歌詞のない所定の音を押鍵された鍵の音高で発音することができることから、カラオケのガイドなどに適用することができる。この場合も、グループ化により、1回の押鍵操作における押鍵時と離鍵時とに、それぞれ歌詞のない所定の音を発音させることができる。   From the viewpoint of setting a loop section by a simple operation of a single operator, it is not essential that the reproduction information includes syllable information. Further, the present invention can be applied not only to singing synthesis but also to a sound generation device that synthesizes speech. For example, a predetermined sound having no lyrics such as a humming sound, a singing sound such as scat or chorus, or a normal instrument sound or a sound effect such as a song of a bird or a telephone bell can be generated. The sound source 13 has a timbre of a predetermined sound without lyrics, and the CPU 10 generates a predetermined sound without lyrics when the user performs a real-time performance using the performance operator 16. In step S202 of FIG. 3 (a), key-off pronunciation information processing is performed instead of the syllable information acquisition process, and in the speech segment data selection process of step S203, a sound source waveform or sound for generating a predetermined sound or sound is generated. Segment data is selected. Since a predetermined sound without lyrics can be generated at the pitch of the depressed key, it can be applied to a karaoke guide or the like. Also in this case, by grouping, a predetermined sound having no lyrics can be generated at the time of key depression and key release in one key depression operation.

なお、図3(a)のステップS204、図5のステップS302における音節の発音処理では、発音される歌詞が表示器15に表示されるとしてもよく、さらには、発音される歌詞に対応するLED等の発光部が点灯されるようにしてもよい。なお、キーオフ発音情報は、音節情報の中に含まれることに替えて、音節情報とは別に記憶されていてもよい。   In the syllable pronunciation processing in step S204 in FIG. 3A and step S302 in FIG. 5, the lyrics to be pronounced may be displayed on the display 15, and further, the LED corresponding to the lyrics to be pronounced. A light emitting unit such as the above may be turned on. Note that the key-off pronunciation information may be stored separately from the syllable information instead of being included in the syllable information.

(第2の実施の形態)
第1の実施の形態に対して、図3(b)に代えて図8を用い、さらに図9〜図11を加えて本発明の第2の実施の形態を説明する。本実施の形態では、ユーザが演奏操作子16を利用した通常のリアルタイム演奏時、あるいはループ再生時に、表情豊かな歌声の演奏を行うことができる。
(Second Embodiment)
In contrast to the first embodiment, FIG. 8 is used instead of FIG. 3B, and FIGS. 9 to 11 are further added to describe the second embodiment of the present invention. In the present embodiment, the user can perform a singing voice with rich expression during normal real-time performance using the performance operator 16 or during loop playback.

図8は、図3(a)のステップS202で実行される音節情報取得処理のフローチャートである。発音指示受付処理を説明するための楽譜例を図9(a)に示し、音節情報取得処理を説明するための歌詞情報テーブルを図9(b)に示し、ピアノロール譜を図9(c)に示す。歌詞情報テーブル50の「値1」を図10(a)に示し、「値2」、「値3」を図10(b)に示す。   FIG. 8 is a flowchart of the syllable information acquisition process executed in step S202 of FIG. FIG. 9A shows an example of a score for explaining the pronunciation instruction receiving process, FIG. 9B shows a lyrics information table for explaining the syllable information acquisition process, and FIG. 9C shows a piano roll score. Shown in “Value 1” in the lyrics information table 50 is shown in FIG. 10A, and “value 2” and “value 3” are shown in FIG.

演奏に先立って、データメモリ18上に、図9(a)に例示する楽譜に対応する歌詞を音節に区切ったテキストデータを含む歌詞情報テーブル50が指定されている。そして、指定された歌詞情報テーブル50のテキストデータの先頭の音節にカーソルが置かれている。本実施の形態における再生用情報に該当する歌詞情報テーブル50は、音節を少なくとも含む音節情報と、音節情報に対応付けられた発音制御パラメータとを含む。図9(b)に示すように、歌詞情報テーブル50は、歌詞を音節に区切ったテキストデータを含む音節情報50aと、各種パラメータタイプのいずれかを指定する発音制御パラメータタイプ50bと、発音制御パラメータの値情報50cとから構成されている。図9(b)に示す例では、音節情報50aは、図4(b)に示すテキストデータ30と同様のc1,c2,c3,c41の歌詞を区切った音節からなる。すなわち、図9(a)にキーオンn1、n2、n3、n4として示す各音符にはそれぞれ、図9(b)にc1、c2、c3、c41として示す、歌詞を区切った音節が対応している。発音制御パラメータタイプ50bにはパラメータa,b,c,dの何れかあるいは複数のパラメータタイプが設定されている。この発音制御パラメータタイプ50bには、声に含まれる倍音成分のバランスを変化させるHarmonics、声の明暗を演出してトーン変化を与えるBrightness、有声音の音色や強弱を演出するResonance、フォルマントを変化させることにより、女性的なあるいは男性的な声の太さや質感を変化させるGenderFactorなどのタイプがある。なお、発音制御パラメータタイプ50bの種類は例示に限定されない。   Prior to performance, a lyric information table 50 including text data in which lyrics corresponding to the score illustrated in FIG. 9A are divided into syllables is designated on the data memory 18. The cursor is placed on the first syllable of the text data in the designated lyrics information table 50. The lyrics information table 50 corresponding to the reproduction information in the present embodiment includes syllable information including at least syllables and pronunciation control parameters associated with the syllable information. As shown in FIG. 9B, the lyric information table 50 includes a syllable information 50a including text data obtained by dividing lyrics into syllables, a pronunciation control parameter type 50b for designating one of various parameter types, and a pronunciation control parameter. Value information 50c. In the example shown in FIG. 9B, the syllable information 50a is composed of syllables obtained by dividing the lyrics of c1, c2, c3, and c41 as in the text data 30 shown in FIG. 4B. That is, each note shown as key-on n1, n2, n3, n4 in FIG. 9 (a) corresponds to a syllable in which lyrics are separated, shown as c1, c2, c3, c41 in FIG. 9 (b). . In the sound generation control parameter type 50b, any one of parameters a, b, c, and d or a plurality of parameter types are set. This pronunciation control parameter type 50b includes Harmonics that change the balance of overtone components included in the voice, Brightness that produces tone changes by producing the tone of the voice, Resonance that produces the tone and strength of voiced sounds, and formants. There are types such as GenderFactor that change the thickness and texture of feminine or masculine voice. Note that the type of the sound generation control parameter type 50b is not limited to the example.

値情報50cは、発音制御パラメータの値を規定する。「値1」は発音制御パラメータの時間上の変化の仕方を設定し、グラフ形状で表すことができる。グラフ形状で表した「値1」の例を図10(a)に示す。この図には、w1〜w6の「値1」が示されており、それぞれ異なる時間上の変化をしているが、これに限られることはなく種々の時間上の変化をする「値1」を設定することができる。「値2」は、図10(b)に示すようにグラフ形状で示す「値1」の横軸の時間を設定しており、「値2」により、効果のかかり始めからかかり終わりまでの時間となる変化の速度を設定できる。「値3」は、図10(b)に示すようにグラフ形状で示す「値1」の縦軸の振幅を設定しており、「値3」により、効果のかかる度合いを示す変化の深さを設定できる。値情報50cで設定される発音制御パラメータの値の設定可能範囲は、発音制御パラメータタイプ50bにより異なっている。ただし、音節情報50aで指定される音節によっては、発音制御パラメータタイプ50bおよびその値情報50cが設定されていないものがあってもよい。例えば、音節c3には発音制御パラメータタイプ50bおよびその値情報50cが設定されていない。この歌詞情報テーブル50の音節情報50a、発音制御パラメータタイプ50b、値情報50cは、ユーザの演奏に先立って作成/編集されて、データメモリ18に格納されている。   The value information 50c defines the value of the sound generation control parameter. “Value 1” can be expressed in a graph shape by setting the manner in which the sound generation control parameter changes over time. An example of “value 1” expressed in a graph shape is shown in FIG. In this figure, “value 1” of w1 to w6 is shown and changes over time. However, the present invention is not limited to this, and “value 1” changes over time. Can be set. “Value 2” sets the time on the horizontal axis of “Value 1” shown in the graph shape as shown in FIG. 10B, and “Value 2” indicates the time from the start of the effect to the end of the effect. You can set the rate of change. “Value 3” sets the amplitude of the vertical axis of “value 1” shown in the graph shape as shown in FIG. 10B, and “value 3” indicates the depth of change indicating the degree of effect. Can be set. The settable range of the sound generation control parameter value set by the value information 50c differs depending on the sound generation control parameter type 50b. However, depending on the syllable specified by the syllable information 50a, there may be one in which the pronunciation control parameter type 50b and its value information 50c are not set. For example, the pronunciation control parameter type 50b and its value information 50c are not set in the syllable c3. The syllable information 50a, the pronunciation control parameter type 50b, and the value information 50c in the lyrics information table 50 are created / edited prior to the performance of the user and stored in the data memory 18.

図8において、図3(b)と同じ処理ステップには同じステップ番号が付してあり、それらの説明は省略する。図8では、図3(b)に対し、ステップS211とステップS212の間にステップS601が挿入されている。まず、ループ再生でない通常再生について説明する。   In FIG. 8, the same processing steps as those in FIG. 3B are denoted by the same step numbers, and the description thereof is omitted. In FIG. 8, step S601 is inserted between step S211 and step S212 with respect to FIG. First, normal playback that is not loop playback will be described.

ステップS601では、CPU10は、ステップS211で取得した音節に対応付けられた発音制御パラメータを、歌詞情報テーブル50を参照して取得する。例えば、最初のキーオンn1の時には、ステップS211で音節c1が取得されることから、歌詞情報テーブル50から、音節c1に対応付けられているパラメータa,パラメータbが取得される。さらに、発音制御パラメータタイプ50bとして、「値1」〜「値3」が値情報50cとして取得される。そして、図8の処理がリターンした後の図3(a)のステップS204の発音処理では、図9(c)にピアノロール譜52で示すように、音源13において、キーオンn1の検出の際に受け取ったE5の音高で、選択された音声素片データの発音が行われて、音節c1の歌唱音が発音される。この発音の際に、「値1」「値2」「値3」で設定されたパラメータaと、「値1」「値2」「値3」で設定されたパラメータbの異なる2つの発音制御パラメータタイプにより、歌唱音の発音制御が行われることから、歌唱される歌声の表情や抑揚、声質や音色に変化を与えることができ、歌声に細かなニュアンスや抑揚をつけられるようになる。   In step S <b> 601, the CPU 10 acquires the pronunciation control parameter associated with the syllable acquired in step S <b> 211 with reference to the lyrics information table 50. For example, at the first key-on n1, the syllable c1 is acquired in step S211, so the parameters a and b associated with the syllable c1 are acquired from the lyrics information table 50. Further, “value 1” to “value 3” are acquired as the value information 50c as the sound generation control parameter type 50b. Then, in the sound generation process in step S204 of FIG. 3A after the process of FIG. 8 returns, as shown by the piano roll score 52 in FIG. 9C, the sound source 13 detects the key-on n1. The selected speech segment data is pronounced at the received pitch of E5, and the singing sound of syllable c1 is pronounced. At the time of this sounding, two different sounding controls of the parameter a set with “value 1”, “value 2” and “value 3” and the parameter b set with “value 1”, “value 2” and “value 3” Since the sound control of the singing sound is performed depending on the parameter type, it is possible to change the expression and inflection, voice quality and tone of the singing voice, and to add fine nuance and inflection to the singing voice.

リアルタイム演奏の進行に伴いキーオンn2が検出されると、キーオンn2に対応する2番目の音節c2がE5の音高で発音される。図9(b)に示すように、音節c2には、発音制御パラメータタイプ50bとしてパラメータbとパラメータcとパラメータdの3つの発音制御パラメータタイプが対応付けられている。それと共に、それぞれの発音制御パラメータタイプはそれぞれの「値1」「値2」「値3」で設定されている。従って、音節c2の発音の際に、図9(c)にピアノロール譜52で示すように、パラメータbとパラメータcとパラメータdの異なる3つの発音制御パラメータタイプにより、歌唱音の発音制御が行われる。これにより、歌唱される歌声の表情や抑揚、声質や音色に変化を与えられる。   When the key-on n2 is detected as the real-time performance progresses, the second syllable c2 corresponding to the key-on n2 is pronounced with a pitch of E5. As shown in FIG. 9B, the syllable c2 is associated with three sound generation control parameter types, parameter b, parameter c, and parameter d, as the sound generation control parameter type 50b. At the same time, the respective sound generation control parameter types are set with the respective “value 1”, “value 2”, and “value 3”. Therefore, when the syllable c2 is pronounced, as shown by the piano roll score 52 in FIG. 9 (c), the pronunciation control of the singing sound is performed by three tone control parameter types having different parameters b, c, and d. Is called. Thereby, a change can be given to the expression, intonation, voice quality and tone of the singing voice.

キーオンn3が検出されると、キーオンn3に対応する3番目の音節c3がD5の音高で発音される。図9(b)に示すように、音節c3には発音制御パラメータタイプ50bが設定されていないことから、音節c3の発音の際には、図9(c)にピアノロール譜52で示すように、発音制御パラメータによる歌唱音の発音制御が行われない。   When the key-on n3 is detected, the third syllable c3 corresponding to the key-on n3 is pronounced with a pitch of D5. As shown in FIG. 9B, since the sound generation control parameter type 50b is not set for the syllable c3, when the syllable c3 is sounded, as shown by the piano roll score 52 in FIG. 9C. The sound generation control of the singing sound by the sound generation control parameter is not performed.

このように、ループ再生でない通常再生においては、演奏操作子16を押鍵する毎に、指定されたテキストデータの音節が、押鍵された鍵の音高で発音されていくようになる。これにより、テキストデータを歌詞とすることで歌声が発音されるようになる。この際に、音節毎に対応付けられた発音制御パラメータにより発音制御が行われるので、歌唱される歌声の表情や抑揚、声質や音色に変化を与えることができ、歌声に細かなニュアンスや抑揚をつけられるようになる。   In this way, in normal playback that is not loop playback, the syllable of the specified text data is pronounced at the pitch of the pressed key each time the performance operator 16 is pressed. Thus, the singing voice is pronounced by using the text data as lyrics. At this time, sound generation control is performed using the sound generation control parameters associated with each syllable, so that the expression and inflection, voice quality and tone of the singing voice can be changed, and fine nuances and inflections can be added to the singing voice. You can be put on.

ところで、CPU10は、ループモードが設定されている場合、ループ区間のループ再生においては、通常再生時とは異なる発音態様で発音させる。その態様にはいくつか種類があるので順に説明する。発音の可変態様として、大別して第1、第2、第3可変態様の3つがある。   By the way, when the loop mode is set, the CPU 10 causes the sound to be generated in a sound generation mode different from that during normal playback in the loop playback of the loop section. There are several types of modes, which will be described in order. There are roughly three variable modes of pronunciation: first, second, and third variable modes.

第1可変態様では、CPU10は、ループ区間内の音節情報に含まれる音節の少なくとも1つを、発音制御パラメータに基づき且つ通常再生時とは異なる発音態様で発音させる。その際、CPU10は、通常再生時に対し、歌詞情報テーブル50で規定される発音制御パラメータを改変して用いる。これにより、「ループ再生ならでは」の効果付与や表現が可能となり、ループ再生時の表現力を高めることができる。   In the first variable mode, the CPU 10 causes at least one of the syllables included in the syllable information in the loop section to be sounded in a sounding manner different from that during normal reproduction based on the sounding control parameter. At this time, the CPU 10 modifies and uses the sound generation control parameters defined in the lyrics information table 50 during normal playback. As a result, it is possible to give and express effects “unique to loop playback”, and to enhance the expressive power during loop playback.

具体的には、CPU10は、ループ再生においては、発音制御パラメータにおける少なくとも1つのパラメータタイプの少なくとも1つの値情報を変更する。例えば、CPU10は、ループ再生時には通常再生時に対し、図10に示すw1〜w6の少なくとも1つの値1〜値3の少なくとも1つを変化させる。これにより、付加される効果の時間的変化、変化速度、変化深さを通常再生時とは異ならせることができる。なお、ループ区間の最初の音節のピッチベンドを最初に一時的に下げてから戻す等によって、しゃくりに似た効果を付加することも可能である。このようにして、ループ再生時には発音制御パラメータの作用の仕方を通常再生時とは異ならせることができる。なお、効果を変化させるために、乗算値等の係数や変換テーブルを用いることが考えられるが、その手法は問わない。なお、ジャンプ処理が適用された場合は、ジャンプ先の最初の音節にしゃくりを適用するようにしてもよい。   Specifically, the CPU 10 changes at least one value information of at least one parameter type in the sound generation control parameter in the loop reproduction. For example, the CPU 10 changes at least one of the values 1 to 3 of at least one of w1 to w6 shown in FIG. As a result, the temporal change, change speed, and change depth of the added effect can be made different from those during normal reproduction. It is also possible to add an effect similar to squealing by temporarily lowering and then returning the pitch bend of the first syllable in the loop section. In this way, the manner in which the sound generation control parameter acts during loop playback can be made different from that during normal playback. In order to change the effect, it is conceivable to use a coefficient such as a multiplication value or a conversion table, but the method is not limited. When jump processing is applied, squealing may be applied to the first syllable of the jump destination.

あるいは、CPU10は、ループ区間に含まれる複数の音節のうち指定に応じた一部の音節を、通常再生時とは異なる発音態様で発音させる対象としてもよい。この指定は、例えば割合及び位置の指定を含み、ユーザにより予め設定される。例えば、ループ区間の後半の指定割合に相当する数の音節にビブラートが付加される等の態様が考えられる。これにより、ユーザはループ区間における発音態様を異ならせる音節を指定できる。   Alternatively, the CPU 10 may set a part of the syllables included in the loop section to be sounded in a sounding manner different from that during normal playback. This designation includes, for example, designation of a ratio and a position, and is preset by the user. For example, a mode in which vibrato is added to the number of syllables corresponding to the specified ratio in the latter half of the loop section is conceivable. As a result, the user can designate a syllable that changes the sound generation mode in the loop section.

なお、ループ区間への態様変化の適用は、例えば図7のステップS504で開始され、適用の解除はステップS508で実行される。なお、ループ再生における発音態様のタイプを、予め定めた複数のルールのうちユーザが選択したルールに基づき決めてもよい。ルールの選択は、図2(a)のステップS104で行えるとする。これにより、ループ再生時の発音態様のバリエーションを複数持つことができる。また、ループ再生時には通常再生時に対してシンガーの変更を行えるようにしてもよいし、複数シンガーのミックスを行えるようにしてもよい。   The application of the mode change to the loop section is started in, for example, step S504 in FIG. 7, and the cancellation of the application is executed in step S508. Note that the type of sound generation mode in loop playback may be determined based on a rule selected by the user from among a plurality of predetermined rules. It is assumed that a rule can be selected in step S104 in FIG. Thereby, it is possible to have a plurality of variations of the sound generation mode during loop reproduction. Further, at the time of loop reproduction, the singer may be changed as compared with the normal reproduction, or a plurality of singer may be mixed.

第2可変態様では、再生用情報は、発音制御パラメータを通常再生時用とは別にループ再生時用に有する。図11(a)は、通常再生時用の第1の発音制御パラメータ33及びループ再生時用の第2の発音制御パラメータ34の概念図である。すなわち、再生用情報は、全音節に対応するループ専用の発音制御パラメータ34を第1の発音制御パラメータ33に対応して持っている。CPU10は、通常再生においては、開始が指示された発音に対応する音節情報と該音節情報に対応付けられた第1の発音制御パラメータ33とを読み出し、上述した方法で発音制御する。一方、ループ再生においては、CPU10は、ループ区間33aにおける開始が指示された発音に対応する音節情報と、ループ区間33aに対応する第2の発音制御パラメータ34aとを読み出す。そして、CPU10は、ループ再生においては、ループ区間内の音節情報に含まれる音節を、第2の発音制御パラメータ34aに従った発音態様で発音させる。   In the second variable mode, the reproduction information has a sound generation control parameter for loop reproduction separately from normal reproduction. FIG. 11A is a conceptual diagram of the first sound generation control parameter 33 for normal reproduction and the second sound generation control parameter 34 for loop reproduction. That is, the reproduction information has a sound generation control parameter 34 dedicated to the loop corresponding to all syllables corresponding to the first sound generation control parameter 33. In normal playback, the CPU 10 reads the syllable information corresponding to the pronunciation instructed to start and the first pronunciation control parameter 33 associated with the syllable information, and controls the pronunciation by the method described above. On the other hand, in the loop reproduction, the CPU 10 reads out the syllable information corresponding to the sound generation instructed to start in the loop section 33a and the second sound generation control parameter 34a corresponding to the loop section 33a. Then, in the loop reproduction, the CPU 10 causes the syllable included in the syllable information in the loop section to be sounded in a sounding manner according to the second sounding control parameter 34a.

あるいは、再生用情報は、全音節に対応するものでないものとして発音制御パラメータを有してもよい。図11(b)は、ループ専用の発音制御パラメータを含む情報テーブル51の概念図である。情報テーブル51において、発音制御パラメータタイプには適用の順番が定められている(No1、No2・・・Last1)。ループ再生においては、CPU10は、ループ区間内で発音開始が指示される順番に対応させて、発音制御パラメータを順番に読み出し、ループ区間内の音節情報に含まれる音節を、読み出された発音制御パラメータに従った発音態様で発音させる。例えば、1個目の音節にNo1、2個目の音節にNo2の発音制御パラメータが適用される。また、ループ区間内の最後の音節には、No1からループ区間内の音節数分目の発音制御パラメータが適用される。   Alternatively, the reproduction information may have a sound generation control parameter as not corresponding to all syllables. FIG. 11B is a conceptual diagram of the information table 51 including sound generation control parameters dedicated to loops. In the information table 51, the order of application is determined for the sound generation control parameter type (No1, No2,... Last1). In the loop playback, the CPU 10 sequentially reads out the sound generation control parameters in correspondence with the order in which the sound generation start is instructed in the loop section, and reads out the syllable included in the syllable information in the loop section. Produce pronunciation in a manner of pronunciation according to the parameters. For example, the sound generation control parameter No. 1 is applied to the first syllable and the sound generation control parameter No. 2 is applied to the second syllable. Also, the tone generation control parameter corresponding to the number of syllables in the loop section from No1 is applied to the last syllable in the loop section.

第3可変態様では、CPU10は、ループ区間を設定する際に音節を追加する。第3可変態様では、再生用情報は、発音制御パラメータを含む必要はない。例えば、ループ区間の開始地点の設定(ステップS404、S405)、ループ区間の終了地点の設定(ステップS503、S505)で、図11(c)に例示する楽譜に対応する音節を有するループ区間が仮設定されたとする。この場合、図11(d)に示すように、キーオンn1の前にキーオンn0に対応する音節を追加してもよい。あるいは、図11(e)に示すように、キーオンn4の後の休符の後にキーオンn5に対応する音節を追加してもよい。このように、CPU10は、仮設定したループ開始位置に対応する音節の前、及びループ終了位置に対応する音節の後、の少なくともいずれかに音節を追加し、該追加した音節を含めて前記ループ区間を設定する。音節の追加により表現力を高めることができる。追加する音節は、「ハイ」等の合いの手に似たものであってもよい。なお、音節追加に伴って、表示器15への歌詞表示にも自動的に反映されるようにしてもよい。追加する音節数は複数でもよい。   In the third variable mode, the CPU 10 adds a syllable when setting the loop section. In the third variable mode, the reproduction information does not need to include the sound generation control parameter. For example, the loop section having the syllable corresponding to the score illustrated in FIG. 11C is temporarily set by setting the start point of the loop section (steps S404 and S405) and setting the end point of the loop section (steps S503 and S505). Suppose that it is set. In this case, as shown in FIG. 11 (d), a syllable corresponding to key-on n0 may be added before key-on n1. Alternatively, as shown in FIG. 11E, a syllable corresponding to key-on n5 may be added after a rest after key-on n4. As described above, the CPU 10 adds a syllable to at least one of the syllable corresponding to the temporarily set loop start position and the syllable corresponding to the loop end position, and includes the added syllable and the loop. Set the interval. Expressive power can be improved by adding syllables. The syllable to be added may be similar to a match such as “high”. It should be noted that it may be automatically reflected in the lyrics display on the display unit 15 as the syllable is added. Multiple syllables may be added.

本実施の形態によれば、ループ再生においては、CPU10は、ループ区間内の音節情報に含まれる音節の少なくとも1つを、発音制御パラメータに基づき且つ通常再生時とは異なる発音態様で発音させる(第1可変態様)。あるいは、CPU10は、ループ区間内の音節情報に含まれる音節を、第2の発音制御パラメータ34aに従った発音態様で発音させる(第2可変態様)。あるいは、CPU10は、ループ区間を設定する際に音節を追加する。これらにより、ループ再生時の表現力を高めることができる。   According to the present embodiment, in loop playback, the CPU 10 causes at least one syllable included in the syllable information in the loop section to sound in a sounding manner different from that during normal playback based on the sounding control parameter ( First variable mode). Alternatively, the CPU 10 causes the syllable included in the syllable information in the loop section to be sounded in a sounding manner according to the second sounding control parameter 34a (second variable manner). Or CPU10 adds a syllable when setting a loop area. As a result, the expressive power during loop playback can be enhanced.

なお、第1、第2、第3可変態様を適宜組み合わせて適用してもよい。ループ再生における発音態様のタイプを決めるルールを選択することについては、第2、第3可変態様にも適用可能である。また、ループ区間のループ再生において、CPU10は、少なくとも1回目の再生と2回目の再生とで発音態様を変化させてもよい。例えば、第1、第2可変態様では、毎回、音量をアップさせる等の制御が考えられる。第3可変態様では、追加する音節数や追加位置を毎回異ならせてもよい。これらにより、表現力を一層高めることができる。なお、本実施の形態では、ループ区間の設定方法は問わない。   Note that the first, second, and third variable modes may be applied in appropriate combination. The selection of the rule that determines the type of sounding mode in loop playback can also be applied to the second and third variable modes. Further, in the loop reproduction of the loop section, the CPU 10 may change the sound generation mode between at least the first reproduction and the second reproduction. For example, in the first and second variable modes, control such as increasing the volume every time can be considered. In the third variable mode, the number of syllables to be added and the addition position may be changed each time. As a result, the expressive power can be further enhanced. In the present embodiment, the loop section setting method does not matter.

なお、本発明を達成するためのソフトウェアによって表される制御プログラムを記憶した記憶媒体を、本装置に読み出すことによって同様の効果を奏するようにしてもよく、その場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、プログラムコードを伝送媒体等を介して供給してもよく、その場合は、プログラムコード自体が本発明を構成することになる。   It should be noted that the same effect may be obtained by reading a storage medium storing a control program represented by software for achieving the present invention into the apparatus, in which case the data is read from the storage medium. The program code itself realizes the new function of the present invention, and the storage medium storing the program code constitutes the present invention. Further, the program code may be supplied via a transmission medium or the like, and in that case, the program code itself constitutes the present invention.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。   Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. A part of the above-described embodiments may be appropriately combined.

10 CPU(区間設定手段、読出手段、発音制御手段)、 16 演奏操作子(発音指示手段)、 20 ループボタン、 50 歌詞情報テーブル(再生用情報)、 50a 音節情報、 50b 発音制御パラメータタイプ、 50c 値情報

10 CPU (section setting means, reading means, pronunciation control means), 16 performance operators (sound generation instruction means), 20 loop buttons, 50 lyrics information table (information for reproduction), 50a syllable information, 50b pronunciation control parameter type, 50c Value information

Claims (11)

発音開始を指示する発音指示手段と、
音節を少なくとも含む音節情報と前記音節情報に対応付けられた発音制御パラメータとを含む再生用情報における、ループ再生するループ区間を設定する区間設定手段と、
前記発音指示手段により開始が指示された発音に対応する音節情報と該音節情報に対応付けられた発音制御パラメータとを読み出す読出手段と、
前記ループ区間のループ再生においては、前記発音指示手段による発音開始の指示に応じて、前記読出手段により読み出された前記ループ区間内の音節情報に含まれる音節の少なくとも1つを、前記読出手段により読み出された発音制御パラメータに基づき且つループ再生でない通常再生時とは異なる発音態様で発音させる発音制御手段と、を有することを特徴とする発音装置。
Pronunciation instruction means for instructing the start of pronunciation;
Section setting means for setting a loop section for loop playback in information for reproduction including syllable information including at least a syllable and a pronunciation control parameter associated with the syllable information;
Reading means for reading out the syllable information corresponding to the pronunciation instructed to start by the pronunciation instruction means and the pronunciation control parameter associated with the syllable information;
In the loop reproduction of the loop section, at least one of the syllables included in the syllable information in the loop section read out by the reading unit in response to a sounding start instruction by the sounding instruction unit is read out by the reading unit. A sound generation device comprising: sound generation control means for generating sound in a sound generation mode different from that during normal playback that is not based on loop playback based on the sound generation control parameter read out by step (b).
前記発音制御パラメータは、複数のパラメータタイプと、各パラメータタイプの可変態様を規定する複数の値情報とを含み、
前記発音制御手段は、前記ループ区間のループ再生においては、前記発音制御パラメータにおける少なくとも1つのパラメータタイプの少なくとも1つの値情報を変更することを特徴とする請求項1に記載の発音装置。
The sound generation control parameter includes a plurality of parameter types and a plurality of value information that defines a variable aspect of each parameter type,
The sound generation device according to claim 1, wherein the sound generation control unit changes at least one value information of at least one parameter type in the sound generation control parameter in loop reproduction of the loop section.
前記発音制御手段は、前記ループ区間のループ再生においては、前記ループ区間に含まれる複数の音節のうち指定に応じた一部の音節を、前記通常再生時とは異なる発音態様で発音させる対象とすることを特徴とする請求項1または2に記載の発音装置。   In the loop playback of the loop section, the sound generation control means is configured to generate a part of syllables according to the designation among a plurality of syllables included in the loop section in a sound generation mode different from that during normal playback. The sounding device according to claim 1, wherein the sounding device is a sound generator. 前記発音制御手段は、前記ループ区間のループ再生において、少なくとも1回目の再生と2回目の再生とで発音態様を変化させることを特徴とする請求項1または2に記載の発音装置。   The sound generation device according to claim 1, wherein the sound generation control unit changes a sound generation mode between at least the first playback and the second playback in the loop playback of the loop section. 前記発音制御手段は、前記ループ区間のループ再生においては、前記ループ区間の再生の前または後に所定の音節を発音させることを特徴とする請求項1〜4のいずれか1項に記載の発音装置。   5. The sound generation device according to claim 1, wherein, in the loop reproduction of the loop section, the sound generation control unit causes a predetermined syllable to sound before or after the reproduction of the loop section. . 前記発音制御手段は、前記ループ区間のループ再生においては、予め定めた複数のルールのうち選択されたルールに基づいて、ループ再生時の発音態様を制御することを特徴とする請求項1〜5のいずれか1項に記載の発音装置。   The sound generation control means controls the sound generation mode at the time of loop reproduction based on a rule selected from a plurality of predetermined rules in the loop reproduction of the loop section. The sounding device according to any one of the above. 発音開始を指示する発音指示手段と、
音節を少なくとも含む音節情報と前記音節情報に対応付けられた第1の発音制御パラメータとを含む再生用情報における、ループ再生するループ区間を設定する区間設定手段と、
ループ再生でない通常再生においては、前記発音指示手段により開始が指示された発音に対応する音節情報と該音節情報に対応付けられた前記第1の発音制御パラメータとを読み出し、前記ループ区間のループ再生においては、前記ループ区間における前記発音指示手段により開始が指示された発音に対応する音節情報と前記第1の発音制御パラメータとは異なる第2の発音制御パラメータとを読み出す読出手段と、
前記通常再生においては、前記発音指示手段による発音開始の指示に応じて、前記読出手段により読み出された音節情報に含まれる音節を、前記読出手段により読み出された前記第1の発音制御パラメータに従った発音態様で発音させ、前記ループ区間のループ再生においては、前記発音指示手段による発音開始の指示に応じて、前記読出手段により読み出された前記ループ区間内の音節情報に含まれる音節を、前記読出手段により読み出された前記第2の発音制御パラメータに従った発音態様で発音させる発音制御手段と、を有することを特徴とする発音装置。
Pronunciation instruction means for instructing the start of pronunciation;
Section setting means for setting a loop section for loop playback in the reproduction information including syllable information including at least syllable and the first pronunciation control parameter associated with the syllable information;
In normal playback that is not loop playback, the syllable information corresponding to the pronunciation instructed to be started by the pronunciation instruction means and the first pronunciation control parameter associated with the syllable information are read out, and the loop playback of the loop section is performed. In the loop section, reading means for reading out syllable information corresponding to the pronunciation instructed to start by the pronunciation instruction means in the loop section and a second pronunciation control parameter different from the first pronunciation control parameter;
In the normal reproduction, the syllable included in the syllable information read by the reading unit in response to an instruction to start sounding by the sounding instruction unit is the first sounding control parameter read by the reading unit. In the loop reproduction of the loop section, the syllable included in the syllable information in the loop section read out by the reading unit in response to the sounding start instruction by the sounding instruction unit A sounding control means for sounding the sound in a sounding manner according to the second sounding control parameter read by the reading means.
発音開始を指示する発音指示手段と、
音節を少なくとも含む音節情報を含む再生用情報におけるループ開始位置及びループ終了位置の指定に基づいて、前記再生用情報におけるループ再生するループ区間を設定する区間設定手段と、
前記発音指示手段により開始が指示された発音に対応する音節情報を読み出す読出手段と、
前記ループ区間のループ再生において、前記発音指示手段による発音開始の指示に応じて、前記読出手段により読み出された前記ループ区間内の音節情報に含まれる音節を発音させる発音制御手段と、を有し、
前記区間設定手段は、前記ループ開始位置に対応する音節の前、及び指定された前記ループ終了位置に対応する音節の後、の少なくともいずれかに音節を追加し、該追加した音節を含めて前記ループ区間を設定することを特徴とする発音装置。
Pronunciation instruction means for instructing the start of pronunciation;
Section setting means for setting a loop section for loop playback in the playback information based on designation of a loop start position and a loop end position in the playback information including syllable information including at least syllables;
Reading means for reading out syllable information corresponding to the pronunciation instructed to start by the pronunciation instruction means;
Sound generation control means for sounding a syllable included in the syllable information in the loop section read by the reading means in response to an instruction to start sound generation by the sound generation instruction means in the loop reproduction of the loop section; And
The section setting means adds a syllable to at least one of a syllable corresponding to the loop start position and a syllable corresponding to the designated loop end position, and includes the added syllable and the A sounding device characterized by setting a loop section.
発音開始を指示する発音指示ステップと、
音節を少なくとも含む音節情報と前記音節情報に対応付けられた発音制御パラメータとを含む再生用情報における、ループ再生するループ区間を設定する区間設定ステップと、
前記発音指示ステップにより開始が指示された発音に対応する音節情報と該音節情報に対応付けられた発音制御パラメータとを読み出す読出ステップと、
前記ループ区間のループ再生においては、前記発音指示ステップによる発音開始の指示に応じて、前記読出ステップにより読み出された前記ループ区間内の音節情報に含まれる音節の少なくとも1つを、前記読出ステップにより読み出された発音制御パラメータに基づき且つループ再生でない通常再生時とは異なる発音態様で発音させる発音制御ステップと、を有することを特徴とする発音制御方法。
A pronunciation instruction step for instructing the start of pronunciation;
A section setting step for setting a loop section for loop playback in the information for playback including syllable information including at least syllable and the pronunciation control parameter associated with the syllable information;
A reading step of reading syllable information corresponding to the pronunciation instructed to start by the pronunciation instruction step and a pronunciation control parameter associated with the syllable information;
In the loop playback of the loop section, at least one of the syllables included in the syllable information in the loop section read out by the reading step in response to the sounding start instruction in the sounding instruction step is the reading step. A sound generation control method comprising: a sound generation control step that causes a sound to be generated in a sound generation mode different from that during normal playback that is not loop playback based on the sound control parameters read by
発音開始を指示する発音指示ステップと、
音節を少なくとも含む音節情報と前記音節情報に対応付けられた第1の発音制御パラメータとを含む再生用情報における、ループ再生するループ区間を設定する区間設定ステップと、
ループ再生でない通常再生においては、前記発音指示ステップにより開始が指示された発音に対応する音節情報と該音節情報に対応付けられた前記第1の発音制御パラメータとを読み出し、前記ループ区間のループ再生においては、前記ループ区間における前記発音指示ステップにより開始が指示された発音に対応する音節情報と前記第1の発音制御パラメータとは異なる第2の発音制御パラメータとを読み出す読出ステップと、
前記通常再生においては、前記発音指示ステップによる発音開始の指示に応じて、前記読出ステップにより読み出された音節情報に含まれる音節を、前記読出ステップにより読み出された前記第1の発音制御パラメータに従った発音態様で発音させ、前記ループ区間のループ再生においては、前記発音指示ステップによる発音開始の指示に応じて、前記読出ステップにより読み出された前記ループ区間内の音節情報に含まれる音節を、前記読出ステップにより読み出された前記第2の発音制御パラメータに従った発音態様で発音させる発音制御ステップと、を有することを特徴とする発音制御方法。
A pronunciation instruction step for instructing the start of pronunciation;
A section setting step for setting a loop section for loop reproduction in the reproduction information including syllable information including at least a syllable and a first sounding control parameter associated with the syllable information;
In normal playback that is not loop playback, the syllable information corresponding to the pronunciation instructed to be started by the sound generation instruction step and the first sound generation control parameter associated with the syllable information are read out, and loop playback of the loop section is performed. A reading step of reading out syllable information corresponding to the sound generation instructed to be started by the sound generation instruction step in the loop section and a second sound generation control parameter different from the first sound generation control parameter;
In the normal reproduction, the syllable included in the syllable information read by the reading step in response to the sounding start instruction by the sounding instruction step is the first sounding control parameter read by the reading step. In the loop playback of the loop section, the syllable included in the syllable information in the loop section read out by the reading step in response to the instruction to start the sound generation by the sound generation instruction step. And a sound generation control step for generating a sound in a sound generation manner according to the second sound generation control parameter read by the reading step.
発音開始を指示する発音指示ステップと、
音節を少なくとも含む音節情報を含む再生用情報におけるループ開始位置及びループ終了位置の指定に基づいて、前記再生用情報におけるループ再生するループ区間を設定する区間設定ステップと、
前記発音指示ステップにより開始が指示された発音に対応する音節情報を読み出す読出ステップと、
前記ループ区間のループ再生において、前記発音指示ステップによる発音開始の指示に応じて、前記読出ステップにより読み出された前記ループ区間内の音節情報に含まれる音節を発音させる発音制御ステップと、を有し、
前記区間設定ステップは、前記ループ開始位置に対応する音節の前、及び指定された前記ループ終了位置に対応する音節の後、の少なくともいずれかに音節を追加し、該追加した音節を含めて前記ループ区間を設定することを特徴とする発音制御方法。
A pronunciation instruction step for instructing the start of pronunciation;
A section setting step for setting a loop section for loop reproduction in the reproduction information based on designation of a loop start position and a loop end position in the reproduction information including at least syllable information;
A reading step of reading syllable information corresponding to the pronunciation instructed to start by the pronunciation instruction step;
In the loop playback of the loop section, there is a sound generation control step of causing the syllable included in the syllable information in the loop section read out by the reading step to sound in response to a sound generation start instruction in the sound generation instruction step. And
The section setting step adds a syllable to at least one of a syllable before the syllable corresponding to the loop start position and a syllable corresponding to the designated loop end position, and includes the added syllable and the A sound generation control method characterized by setting a loop section.
JP2017048456A 2017-03-14 2017-03-14 Pronunciation device and pronunciation control method Active JP6828530B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017048456A JP6828530B2 (en) 2017-03-14 2017-03-14 Pronunciation device and pronunciation control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017048456A JP6828530B2 (en) 2017-03-14 2017-03-14 Pronunciation device and pronunciation control method

Publications (2)

Publication Number Publication Date
JP2018151547A true JP2018151547A (en) 2018-09-27
JP6828530B2 JP6828530B2 (en) 2021-02-10

Family

ID=63680415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017048456A Active JP6828530B2 (en) 2017-03-14 2017-03-14 Pronunciation device and pronunciation control method

Country Status (1)

Country Link
JP (1) JP6828530B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020217801A1 (en) * 2019-04-26 2020-10-29 ヤマハ株式会社 Audio information playback method and device, audio information generation method and device, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007279776A (en) * 2004-07-23 2007-10-25 Matsushita Electric Ind Co Ltd Cg character agent device
JP2016177276A (en) * 2015-03-20 2016-10-06 ヤマハ株式会社 Pronunciation device, pronunciation method, and pronunciation program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007279776A (en) * 2004-07-23 2007-10-25 Matsushita Electric Ind Co Ltd Cg character agent device
JP2016177276A (en) * 2015-03-20 2016-10-06 ヤマハ株式会社 Pronunciation device, pronunciation method, and pronunciation program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020217801A1 (en) * 2019-04-26 2020-10-29 ヤマハ株式会社 Audio information playback method and device, audio information generation method and device, and program
JPWO2020217801A1 (en) * 2019-04-26 2020-10-29
CN113711302A (en) * 2019-04-26 2021-11-26 雅马哈株式会社 Audio information playback method and apparatus, audio information generation method and apparatus, and program
JP7226532B2 (en) 2019-04-26 2023-02-21 ヤマハ株式会社 Audio information reproduction method and device, audio information generation method and device, and program

Also Published As

Publication number Publication date
JP6828530B2 (en) 2021-02-10

Similar Documents

Publication Publication Date Title
JP6728754B2 (en) Pronunciation device, pronunciation method and pronunciation program
JP6465136B2 (en) Electronic musical instrument, method, and program
JP5974436B2 (en) Music generator
US20220076658A1 (en) Electronic musical instrument, method, and storage medium
US20220076651A1 (en) Electronic musical instrument, method, and storage medium
CN113506554A (en) Electronic musical instrument and control method for electronic musical instrument
JP6828530B2 (en) Pronunciation device and pronunciation control method
US20220301530A1 (en) Information processing device, electronic musical instrument, and information processing method
JP4277697B2 (en) SINGING VOICE GENERATION DEVICE, ITS PROGRAM, AND PORTABLE COMMUNICATION TERMINAL HAVING SINGING VOICE GENERATION FUNCTION
JP6167503B2 (en) Speech synthesizer
JP2018151548A (en) Pronunciation device and loop section setting method
JPH10319993A (en) Data editing device
JP6809608B2 (en) Singing sound generator and method, program
JP6399715B1 (en) Singing support device and karaoke device
JP2016177277A (en) Sound generating device, sound generating method, and sound generating program
JP4180548B2 (en) Karaoke device with vocal range notification function
JP7468495B2 (en) Information processing device, electronic musical instrument, information processing system, information processing method, and program
JP7158331B2 (en) karaoke device
JP3265995B2 (en) Singing voice synthesis apparatus and method
WO2022190502A1 (en) Sound generation device, control method therefor, program, and electronic musical instrument
CN110720122B (en) Sound generating device and method
WO2023175844A1 (en) Electronic wind instrument, and method for controlling electronic wind instrument
JP6331470B2 (en) Breath sound setting device and breath sound setting method
JPWO2022190502A5 (en)
JP2023105472A (en) Information processing device, electric musical instrument, electric musical instrument system, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210104

R151 Written notification of patent or utility model registration

Ref document number: 6828530

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151