JP2007178640A - Musical score display device and musical score display program - Google Patents

Musical score display device and musical score display program Download PDF

Info

Publication number
JP2007178640A
JP2007178640A JP2005375951A JP2005375951A JP2007178640A JP 2007178640 A JP2007178640 A JP 2007178640A JP 2005375951 A JP2005375951 A JP 2005375951A JP 2005375951 A JP2005375951 A JP 2005375951A JP 2007178640 A JP2007178640 A JP 2007178640A
Authority
JP
Japan
Prior art keywords
score
note
resolution
musical score
specified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005375951A
Other languages
Japanese (ja)
Inventor
Junichi Minamitaka
純一 南高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2005375951A priority Critical patent/JP2007178640A/en
Publication of JP2007178640A publication Critical patent/JP2007178640A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a musical score display device which displays a musical score at the user's favorite resolution, by performing quantization in units of measures and also displays fingering and lyrics other than the notes in the musical score. <P>SOLUTION: Since the musical score display device which converts music data, representing respective sounds constituting music, into musical score information for displaying a musical score and displays it on a screen quantizes the measures specified in the displayed musical score to resolution that the user has specified, the musical score can be displayed at the user's favorite resolution by performing the quantization in measure units. Furthermore, fingering information on fingers to press keys, corresponding the notes specified in the displayed musical score is input and lyrics are input, so that fingering and lyrics other than the notes can be displayed in the musical score. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、小節単位でクオンタイズを行ってユーザ好みの分解能で楽譜を表示させたり、音符以外の運指や歌詞も楽譜に表示する楽譜表示装置および楽譜表示プログラムに関する。   The present invention relates to a musical score display apparatus and a musical score display program that quantize in units of measures to display a musical score with user-preferred resolution, or display fingerings and lyrics other than notes on a musical score.

曲を構成する各音を表す曲データを楽譜化して表示する楽譜表示装置が知られている。この種の装置としては、例えば特許文献1には、色彩と楽曲の演奏の仕方に関する指示との対応関係を示す関係情報を用いて、楽譜中で演奏指示する部分を指定色で表示して演奏練習を効果的に行えるようにした楽譜表示装置が開示され、また特許文献2には、連桁(ビーム)で繋ぐ音の両端の音の符頭表示位置の差を検出し、検出した符頭表示位置の差(音高差)が所定値より小さければ、連桁の傾きを水平に設定し、一方、符頭表示位置の差(音高差)が所定値より大きければ、連桁の傾きを所定に傾きに設定することによって、連桁で繋ぐ両端の音の音程が小さい場合や音程が極端に大きい場合でも演奏者が見易いように連桁を表示する楽譜表示方法が開示されている。   2. Description of the Related Art Music score display devices that display music data representing each sound constituting a music in a musical score are known. As this type of device, for example, Patent Document 1 uses a relational information indicating a correspondence relationship between colors and instructions regarding how to play music, and displays a portion instructed to perform in a musical score in a designated color. A musical score display device is disclosed in which practice can be effectively performed, and Patent Document 2 detects the difference between the note head display positions of both ends of sounds connected by a beam (beam) and detects the detected note head. If the display position difference (pitch difference) is less than the specified value, the slope of the beam is set to be horizontal, while if the note head display position difference (pitch difference) is greater than the specified value, the beam slope is set. A musical score display method is disclosed in which a string is displayed so that a performer can easily see even when the pitch of the sound of both ends connected by the beam is small or when the pitch is extremely large, by setting to a predetermined inclination.

特開2003−5743号公報Japanese Patent Laid-Open No. 2003-5743 特開平10−74082号公報Japanese Patent Laid-Open No. 10-74082

ところで、従来の楽譜表示装置には、単に曲を構成する各音を表す曲データを楽譜化して表示するだけなので、小節単位でクオンタイズを行ってユーザ好みの分解能で楽譜を表示させたり、音符以外の運指や歌詞も楽譜に表示することができない、という問題がある。
本発明は、このような事情に鑑みてなされたもので、小節単位でクオンタイズを行ってユーザ好みの分解能で楽譜を表示させたり、音符以外の運指や歌詞も楽譜に表示することができる楽譜表示装置および楽譜表示プログラムを提供することを目的としている。
By the way, the conventional music score display device simply displays the music data representing each sound constituting the music as a score, so that it is possible to display the score at a resolution desired by the user by quantizing in units of measures, or other than notes There is a problem that the fingering and lyrics cannot be displayed on the score.
The present invention has been made in view of such circumstances, and a musical score that can be quantized in units of bars and displayed with a user-preferred resolution, and fingering and lyrics other than notes can also be displayed on the musical score. An object of the present invention is to provide a display device and a score display program.

上記目的を達成するため、請求項1に記載の発明では、曲を構成する各音を表す曲データを記憶する曲データ記憶手段と、前記曲データ記憶手段に記憶される曲データを楽譜として表示する楽譜情報に変換して画面表示する楽譜表示手段と、前記楽譜表示手段により画面表示される楽譜中の小節を指定する小節指定手段と、前記小節指定手段により指定された楽譜中の小節をユーザ指定の分解能にクオンタイズするクオンタイズ手段とを具備することを特徴とする。   In order to achieve the above object, according to the first aspect of the present invention, song data storage means for storing song data representing each sound constituting the song, and song data stored in the song data storage means are displayed as a score. A musical score display means for converting into musical score information to be displayed on the screen, a measure designating means for designating a measure in the score displayed on the screen by the musical score display means, and a measure in the musical score designated by the measure designating means Quantizing means for quantizing to a specified resolution is provided.

上記請求項1に従属する請求項2に記載の発明では、前記クオンタイズ手段は、前記小節指定手段により楽譜中で指定された小節の分解能がユーザ指定の分解能と異なる場合、曲を構成する全ての小節の分解能をユーザ指定の分解能にクオンタイズすることを特徴とする。   In the invention according to claim 2 subordinate to claim 1, the quantizing means is configured so that, when the resolution of the measure specified in the score by the measure specifying means is different from the resolution specified by the user, It is characterized in that the measure resolution is quantized to a user-specified resolution.

上記請求項1に従属する請求項3に記載の発明では、前記クオンタイズ手段は、前記小節指定手段により楽譜中で指定された小節の分解能がユーザ指定の分解能と一致する場合、その楽譜中で指定された小節の分解能とは異なる分解能を有する小節をユーザ指定の分解能にクオンタイズすることを特徴とする。   In the invention according to claim 3 subordinate to claim 1, the quantizing means designates the measure specified in the score when the resolution of the measure specified in the score by the measure specifying means matches the resolution specified by the user. A measure having a resolution different from the resolution of the specified measure is quantized to a user-specified resolution.

請求項4に記載の発明では、曲を構成する各音を表す曲データを記憶する曲データ記憶手段と、前記曲データ記憶手段に記憶される曲データを楽譜として表示する楽譜情報に変換して画面表示する楽譜表示手段と、前記楽譜表示手段により画面表示される楽譜中の音符を指定する音符指定手段と、前記音符指定手段により指定された楽譜中の音符に対応して押鍵操作する指を表す運指情報を入力する運指入力手段と、前記運指入力手段により入力された運指情報を前記楽譜情報と共に保存する保存手段とを具備することを特徴とする。   According to a fourth aspect of the invention, song data storage means for storing song data representing each sound constituting a song, and song data stored in the song data storage means are converted into score information for display as a score. A score display means for displaying on a screen, a note specifying means for specifying a note in a score displayed on the screen by the score display means, and a finger for performing a key pressing operation corresponding to a note in the score specified by the note specifying means And fingering input means for inputting fingering information representing the above, and storage means for saving the fingering information input by the fingering input means together with the musical score information.

請求項5に記載の発明では、曲を構成する各音を表す曲データを記憶する曲データ記憶手段と、前記曲データ記憶手段に記憶される曲データを楽譜として表示する楽譜情報に変換して画面表示する楽譜表示手段と、前記楽譜表示手段により画面表示される楽譜中の音符を指定する音符指定手段と、前記音符指定手段により指定された楽譜中の音符に対応して歌詞情報を入力する歌詞入力手段と、前記歌詞入力手段により入力された歌詞情報を前記楽譜情報と共に保存する保存手段とを具備することを特徴とする。   According to the fifth aspect of the present invention, song data storage means for storing song data representing each sound constituting the song, and song data stored in the song data storage means are converted into score information for display as a score. Music score display means for displaying on the screen, note specifying means for specifying the notes in the score displayed on the screen by the score display means, and lyrics information corresponding to the notes in the score specified by the note specifying means are input. It is characterized by comprising lyrics input means and storage means for storing the lyrics information input by the lyrics input means together with the score information.

請求項6に記載の発明では、曲を構成する各音を表す曲データを楽譜として表示する楽譜情報に変換して画面表示する楽譜表示処理と、前記楽譜表示処理により画面表示される楽譜中の小節を指定する小節指定処理と、前記小節指定処理にて楽譜中で指定された小節をユーザ指定の分解能にクオンタイズするクオンタイズ処理とをコンピュータで実行させることを特徴とする。   In the invention described in claim 6, the music data representing each sound constituting the music is converted into musical score information to be displayed as a musical score and displayed on the screen, and the musical score displayed in the musical score displayed on the screen by the musical score display processing. The computer executes a measure designating process for designating a measure and a quantizing process for quantizing the measure designated in the score by the measure designating process to a resolution designated by the user.

上記請求項6に従属する請求項7に記載の発明では、前記クオンタイズ処理は、前記小節指定処理により楽譜中で指定された小節の分解能がユーザ指定の分解能と異なる場合、曲を構成する全ての小節の分解能をユーザ指定の分解能にクオンタイズすることを特徴とする。   In the invention according to claim 7, which is dependent on claim 6, the quantizing process is performed when all the bars constituting the music are composed when the resolution of the bar specified in the score by the bar specifying process is different from the resolution specified by the user. It is characterized in that the measure resolution is quantized to a user-specified resolution.

上記請求項6に従属する請求項8に記載の発明では、前記クオンタイズ処理は、前記小節指定処理により楽譜中で指定された小節の分解能がユーザ指定の分解能と一致する場合、その楽譜中で指定された小節の分解能とは異なる分解能を有する小節をユーザ指定の分解能にクオンタイズすることを特徴とする。   In the invention according to claim 8, which is dependent on claim 6, the quantizing process is specified in the score when the resolution of the measure specified in the score by the measure specifying processing matches the resolution specified by the user. A measure having a resolution different from the resolution of the specified measure is quantized to a user-specified resolution.

請求項9に記載の発明では、曲を構成する各音を表す曲データを楽譜として表示する楽譜情報に変換して画面表示する楽譜表示処理と、前記楽譜表示処理により画面表示される楽譜中の音符を指定する音符指定処理と、前記音符指定処理により楽譜中で指定された音符に対応して押鍵操作する指を表す運指情報を入力する運指入力処理と、前記運指入力処理により入力された運指情報を前記楽譜情報と共に保存する保存処理とをコンピュータで実行させることを特徴とする。   According to the ninth aspect of the present invention, the musical score data representing each sound constituting the musical piece is converted into musical score information to be displayed as a musical score and displayed on the screen, and the musical score displayed in the musical score displayed on the screen by the musical score display processing. A note designating process for designating a note, a fingering input process for inputting fingering information representing a finger to be pressed corresponding to the note designated in the score by the note designating process, and the fingering input process. A storing process for storing the input fingering information together with the score information is executed by a computer.

請求項10に記載の発明では、曲を構成する各音を表す曲データを楽譜として表示する楽譜情報に変換して画面表示する楽譜表示処理と、前記楽譜表示処理により画面表示される楽譜中の音符を指定する音符指定処理と、前記音符指定処理により楽譜中で指定された音符に対応して歌詞情報を入力する歌詞入力処理と、前記歌詞入力処理により入力された歌詞情報を前記楽譜情報と共に保存する保存処理とをコンピュータで実行させることを特徴とする。   In the invention according to claim 10, music score data representing each sound constituting the music is converted into musical score information to be displayed as a musical score and displayed on the screen, and a score in the musical score displayed on the screen by the musical score display processing. A note designating process for designating a note, a lyric input process for inputting lyrics information corresponding to a note designated in the score by the note designating process, and a lyric information inputted by the lyrics input process together with the score information The storing process for storing is executed by a computer.

請求項1、6に記載の発明によれば、曲を構成する各音を表す曲データを楽譜として表示する楽譜情報に変換して画面表示し、画面表示される楽譜中の小節を指定すると、指定された小節をユーザ指定の分解能にクオンタイズするので、小節単位でクオンタイズを行ってユーザ好みの分解能で楽譜を表示させることができる。   According to the first and sixth aspects of the invention, when song data representing each sound constituting a song is converted into score information to be displayed as a score and displayed on the screen, and a measure in the score displayed on the screen is designated, Since the specified measure is quantized to the resolution specified by the user, the score can be displayed at the resolution desired by the user by quantizing in units of measures.

請求項4、9に記載の発明によれば、曲を構成する各音を表す曲データを楽譜として表示する楽譜情報に変換して画面表示し、画面表示される楽譜中の音符を指定すると、指定された音符に対応して押鍵操作する指を表す運指情報を入力する。そして、入力された運指情報を前記楽譜情報と共に保存するので、音符以外に運指も楽譜に表示することができる。   According to the fourth and ninth aspects of the invention, when song data representing each sound constituting a song is converted into score information to be displayed as a score and displayed on the screen, and a note in the score displayed on the screen is designated, Fingering information representing a finger to perform a key pressing operation corresponding to a specified note is input. And since the input fingering information is preserve | saved with the said score information, fingering other than a note can also be displayed on a score.

請求項5、10に記載の発明によれば、曲を構成する各音を表す曲データを楽譜として表示する楽譜情報に変換して画面表示し、画面表示される楽譜中の音符を指定すると、指定された音符に対応して歌詞情報を入力する。そして、入力された歌詞情報を前記楽譜情報と共に保存するので、音符以外に歌詞も楽譜に表示することができる。   According to the fifth and tenth aspects of the present invention, when music data representing each sound constituting a music is converted into musical score information to be displayed as a musical score and displayed on the screen, and a note in the musical score displayed on the screen is designated, Input lyrics information corresponding to the specified note. And since the inputted lyric information is stored together with the musical score information, the lyrics can be displayed on the musical score in addition to the notes.

以下、図面を参照して本発明の実施の形態について説明する。
A.構成
図1は、本発明の実施の一形態による楽譜表示装置の構成を示すブロック図である。この図において、操作部10は、電源スイッチの他、キー入力用のキーボードやマウス等の入力操作子を備え、入力操作に対応したイベントを発生する。このイベントはCPU11に取り込まれる。CPU11は、ROM12に記憶される各種制御プログラムを実行し、操作部10が発生するイベントに対応して装置各部を制御するものであり、その特徴的な処理動作については追って詳述する。
Embodiments of the present invention will be described below with reference to the drawings.
A. Configuration FIG. 1 is a block diagram showing a configuration of a score display apparatus according to an embodiment of the present invention. In this figure, the operation unit 10 includes input operation elements such as a key input keyboard and a mouse in addition to the power switch, and generates an event corresponding to the input operation. This event is captured by the CPU 11. The CPU 11 executes various control programs stored in the ROM 12 and controls each part of the apparatus in response to an event generated by the operation unit 10, and its characteristic processing operation will be described in detail later.

ROM12は、プログラムエリアおよびデータエリアを備える。ROM12のプログラムエリアには、CPU11にロードされる各種制御プログラムが記憶される。各種制御プログラムとは、後述するメインルーチン、楽譜情報生成処理、個別情報生成処理、和音処理、連桁グループ処理、連桁処理、楽譜表示処理および設定処理を含む。ROM12のデータエリアには、音符や休符、譜表などを表示するための楽譜表示データやGUI画面を形成する各種画面データが記憶される。   The ROM 12 includes a program area and a data area. Various control programs loaded on the CPU 11 are stored in the program area of the ROM 12. The various control programs include a main routine, musical score information generation processing, individual information generation processing, chord processing, continuous digit group processing, continuous digit processing, musical score display processing, and setting processing, which will be described later. The data area of the ROM 12 stores musical score display data for displaying notes, rests, staffs, and various screen data for forming a GUI screen.

RAM13は、ワークエリアおよびデータエリアを備える。RAM13のワークエリアには、CPU11の処理に用いられる各種レジスタ/フラグデータが一時記憶される。RAM13のデータエリアは、曲データエリアおよび楽譜情報エリアから構成される。RAM13の曲データエリアには複数曲分の曲情報が格納される。曲情報は、図2に図示するように、演奏パートに対応する複数の演奏トラック[0]〜[N]から構成される。1つの演奏トラックは、対応する演奏パートを形成する各音を表す曲データ[0]〜[N]を有し、その終端には曲の終わりを表すENDデータを備える。曲データは、演奏開始時点からの経過時間(絶対時間)で表される発音開始時刻ITime、音長lGate、音高Pitchおよび次の曲データを指定するポインタpNextから構成される。   The RAM 13 includes a work area and a data area. In the work area of the RAM 13, various register / flag data used for the processing of the CPU 11 are temporarily stored. The data area of the RAM 13 is composed of a song data area and a score information area. The song data area of the RAM 13 stores song information for a plurality of songs. As shown in FIG. 2, the song information is composed of a plurality of performance tracks [0] to [N] corresponding to performance parts. One performance track has music data [0] to [N] representing each sound forming a corresponding performance part, and has END data representing the end of the music at the end. The song data is composed of a sound generation start time ITime, a pitch lGate, a pitch Pitch, and a pointer pNext for designating the next song data, which are expressed as elapsed time (absolute time) from the performance start time.

RAM13の楽譜情報エリアには、後述する楽譜情報生成処理によって上述の曲データ[0]〜[N]から派生される音符データ[0]〜[N]と、後述の設定処理にて生成されるメタ情報とが格納される。曲データ[0]〜[N]に対応して生成される音符データ[0]〜[N]は、図3に図示するように、ポインタnext、ポインタprev、ポインタmEvent、発音開始時刻ITime、小節番号sMeas、拍番号sBeat、座標(ix,iy)、ノートタイプcNoteType、コードcChord、連桁パターン始点cRenKouS、連桁パターン終点cRenKouE、ライン番号cLineおよび段交叉フラグcDanCrossから構成される。   The musical score information area of the RAM 13 is generated by musical note data [0] to [N] derived from the above-mentioned music piece data [0] to [N] by musical score information generation processing described later and by setting processing described later. Meta information is stored. As shown in FIG. 3, note data [0] to [N] generated corresponding to the song data [0] to [N] includes a pointer next, a pointer prev, a pointer mEvent, a pronunciation start time ITime, and a measure. It is composed of a number sMeas, a beat number sBeat, coordinates (ix, iy), a note type cNoteType, a code cChord, a beam pattern start point cRenKouS, a beam pattern end point cRenKouE, a line number cLine, and a crossover flag cDanCross.

ポインタnextは、次の音符データを指定する。ポインタprevは、1つ前の音符データを指定する。ポインタmEventは、対応する曲データ[mEvent]を指定する。発音開始時刻ITimeは、音符データの発音タイミングを演奏開始時点からの経過時間で表す。小節番号sMeasは、音符データが含まれる小節の番号を表す。拍番号sBeatは、音符データの拍番号を表す。座標(ix,iy)は、背景画像となる五線譜上における音符データの表示位置を表す。ノートタイプcNoteTypeは、音符の種類を表す。例えば、「1」の場合には全音符、「2」の場合には2分音符、「4」の場合には4分音符を表す。   The pointer next designates the next note data. The pointer prev designates the previous note data. The pointer mEvent designates corresponding music data [mEvent]. The sound generation start time ITime represents the sound generation timing of the note data by the elapsed time from the performance start time. The bar number sMeas represents the bar number including the note data. The beat number sBeat represents the beat number of the note data. The coordinates (ix, iy) represent the display position of the note data on the staff notation as the background image. Note type cNoteType represents the type of note. For example, “1” represents a whole note, “2” represents a half note, and “4” represents a quarter note.

コードcChordは、「0」の場合に非和音を、「1」の場合に和音開始音を、「2」の場合に和音開始音および和音終了音以外の和音構成音を意味する和音途中音を、「3」の場合に和音終了音を表す。連桁パターン始点cRenkouSは、選択された連桁パターン(後述する)の始点を表す。連桁パターン終点RenkouEは、選択された連桁パターンの終点を表す。ライン番号cLineは、ラインの番号を表す。段交叉フラグDanCrossは、段交叉の有無を表すフラグである。後述の設定処理にて生成されるメタ情報は、上述した音符データに対応して付加されるものであり、演奏開始時点からの経過時間で表す発音開始時刻ITime、メタ情報の内容を識別する識別データおよびメタデータを含む。メタデータとは、具体的には各音符に対応して設けられ、押鍵操作する指の番号を表す運指情報や歌詞情報などを指す。   The chord cChord is a non-chord when it is “0”, a chord start tone when it is “1”, and an intermediate chord that means a chord component other than the chord start tone and chord end tone when it is “2”. , “3” represents a chord end sound. The beam pattern start point cRenkouS represents the start point of the selected beam pattern (described later). The beam pattern end point RenkouE represents the end point of the selected beam pattern pattern. The line number cLine represents a line number. The stage crossing flag DanCross is a flag indicating the presence or absence of stage crossing. Meta information generated in the setting process described later is added corresponding to the above-described note data, and identifies the pronunciation start time ITime expressed by the elapsed time from the performance start time, and the content of the meta information. Includes data and metadata. The metadata specifically refers to fingering information, lyric information, and the like that are provided corresponding to each note and indicate the number of the finger that performs the key pressing operation.

図1において、音源14は、周知の波形メモリ読み出し方式で構成され、RAM13の曲データエリアからCPU11が読み出す曲データを、指定テンポに同期して再生して楽音信号を出力する。サウンドシステム15は、音源14から出力される楽音信号をD/A変換した後に増幅してスピーカSPから発音する。表示部16は、CPU11から供給される表示制御信号に応じて楽譜表示したり、装置の動作状態を表示する。インタフェース(I/F)部17は、CPU11の制御の下に外部MIDI機器とMIDI形式の曲データを授受するMIDIインタフェースを備える。なお、図1には図示していないが、インタフェース(I/F)部17のMIDIインタフェースに、外部MIDI機器としてキーボード装置が接続される場合、当該キーボード装置の押離鍵操作に対応して生じる曲データは、MIDIインタフェースを介してRAM13の曲データエリアに格納されるようになっている。   In FIG. 1, a sound source 14 is configured by a well-known waveform memory reading method, and reproduces music data read by the CPU 11 from the music data area of the RAM 13 in synchronization with a specified tempo and outputs a musical tone signal. The sound system 15 D / A converts the musical tone signal output from the sound source 14 and then amplifies it to generate sound from the speaker SP. The display unit 16 displays a musical score according to a display control signal supplied from the CPU 11 and displays an operation state of the apparatus. The interface (I / F) unit 17 includes a MIDI interface that exchanges music data in the MIDI format with an external MIDI device under the control of the CPU 11. Although not shown in FIG. 1, when a keyboard device is connected as an external MIDI device to the MIDI interface of the interface (I / F) unit 17, it occurs corresponding to a key release operation of the keyboard device. The song data is stored in the song data area of the RAM 13 via the MIDI interface.

B.動作
次に、図4〜図23を参照して上記構成による実施形態の動作について説明する。以下では、先ず最初に全体動作としてメインルーチンの動作を説明した後、続いてメインルーチンからコールされる楽譜情報生成処理、楽譜表示処理および設定処理の各動作について説明する。
B. Operation Next, the operation of the embodiment having the above-described configuration will be described with reference to FIGS. In the following, first, the operation of the main routine will be described as the overall operation, and then each operation of the score information generation processing, score display processing, and setting processing called from the main routine will be described.

(1)メインルーチンの動作
装置電源の投入に応じて、CPU11は図4に図示するメインルーチンを実行してステップSA1に処理を進め、RAM13のワークエリアに設けられる各種レジスタ/フラグ類をリセットしたり、初期値セットする初期化を実行する。この後、ステップSA2に進み、ユーザによるキー操作入力待ち状態となる。そして、ステップSA3〜SA5では、キー操作入力待ち状態下で「曲選択」、「設定」および「再生」の実行を指示するキー操作入力の有無を判断する。
(1) Operation of main routine In response to turning on the power of the apparatus, the CPU 11 executes the main routine shown in FIG. 4 and proceeds to step SA1 to reset various registers / flags provided in the work area of the RAM 13. Or perform initialization to set the initial value. Thereafter, the process proceeds to step SA2 to wait for a key operation input by the user. In steps SA3 to SA5, it is determined whether or not there is a key operation input instructing execution of “song selection”, “setting”, and “playback” while waiting for a key operation input.

「曲選択」を指示するキー操作入力、すなわちRAM13の曲データエリアに記憶される複数曲の曲情報のいずれかを選択すると、ステップSA3の判断結果が「YES」になり、ステップSA6を介して楽譜情報生成処理(後述する)を実行した後、ステップSA9を介して楽譜表示処理(後述する)を実行する。そして、上述のステップSA2に処理を戻してキー操作入力待ちの状態に復帰する。   When a key operation input for instructing “song selection”, that is, any one of a plurality of pieces of song information stored in the song data area of the RAM 13 is selected, the determination result in step SA3 becomes “YES”, and step SA6 is performed. After the score information generation process (described later) is executed, a score display process (described later) is executed via step SA9. Then, the process returns to the above-described step SA2 to return to the key operation input waiting state.

「設定」を指示するキー操作入力が行われた場合には、ステップSA4の判断結果が「YES」になり、ステップSA7を介して設定処理(後述する)を実行する。設定処理では、曲選択された曲データを楽譜として表示するための小節情報を設定する。小節情報とは、例えば音部記号や拍子記号、調記号を指定する他、曲選択された曲データの各小節位置および各段位置を指定する情報である。また、設定処理では、小節単位でクオンタイズを行ってユーザ好みの分解能に設定したり、曲データから派生させる音符データに対応させて運指情報や歌詞情報を設定する処理を行うようになっている。こうした設定処理を実行した後は、ステップSA9を介して楽譜表示処理(後述する)を実行してから上述のステップSA2に処理を戻し、キー操作入力待ちの状態に復帰する。   When a key operation input for instructing “setting” is performed, the determination result in step SA4 is “YES”, and a setting process (described later) is executed via step SA7. In the setting process, bar information for displaying the music data selected as a musical score is set. The bar information is information that specifies, for example, a clef, a time signature, and a key, and also specifies each bar position and each column position of music data selected for the music. Also, in the setting process, the quantization is set in units of measures to set the resolution to the user's preference, or the fingering information and the lyric information are set in correspondence with the note data derived from the song data. . After such setting processing is executed, musical score display processing (described later) is executed via step SA9, and then the processing returns to step SA2 described above to return to a key operation input waiting state.

「再生」を指示するキー操作入力が行われた場合には、ステップSA5の判断結果が「YES」になり、ステップSA8に進む。ステップSA8では、上記ステップSA3にて選択された曲データを再生する再生処理を実行する。この後、ステップSA9を介して楽譜表示処理(後述する)を実行してから上述のステップSA2に処理を戻してキー操作入力待ち状態に復帰する。   When a key operation input for instructing “play” is performed, the determination result in step SA5 is “YES”, and the process proceeds to step SA8. In step SA8, a reproduction process for reproducing the music data selected in step SA3 is executed. Thereafter, a score display process (described later) is executed through step SA9, and then the process returns to step SA2 to return to the key operation input waiting state.

(2)楽譜情報生成処理の動作
次に、図5を参照して楽譜情報生成処理の動作を説明する。上述したメインルーチンのステップSA6(図4参照)を介して本処理が実行されると、CPU11はステップSB1に処理を進め、選択された曲情報、すなわち各演奏トラック毎の曲データ[0]〜[N]について周知のクオンタイズ(時間軸の量子化)を施す。クオンタイズにより、曲データ[0]〜[N]の発音開始時刻ITimeのずれが補正される。次いで、ステップSB2では、演奏トラックを指定するトラックポインタTrptrをゼロリセットする。
(2) Operation of Score Information Generation Processing Next, the operation of score information generation processing will be described with reference to FIG. When this process is executed through step SA6 (see FIG. 4) of the main routine described above, the CPU 11 advances the process to step SB1, and selects the selected song information, that is, song data [0] to [0] for each performance track. [N] is subjected to a known quantization (time-axis quantization). By the quantize, the deviation of the sound generation start time ITime of the music data [0] to [N] is corrected. In step SB2, the track pointer Trptr for designating the performance track is reset to zero.

続いて、ステップSB3〜SB8では、全ての演奏トラックを指定し終える迄、トラックポインタTrptrを歩進させつつ、その歩進されるトラックポインタTrptrで指定される演奏トラックの曲データについて「個別情報生成処理(ステップSB4)」、「和音処理(ステップSB5)」、「連桁グループ処理(ステップSB6)」および「連桁処理(ステップSB7)」を施す。そして、全ての演奏トラックについて処理し終え、ステップSB8において歩進されるトラックポインタTrptrの値がendになると、ステップSB3の判断結果が「YES」になり、本処理を完了させる。   Subsequently, in steps SB3 to SB8, the track pointer Trptr is incremented until all performance tracks have been designated, and “individual information generation” is performed on the music data of the performance track designated by the incremented track pointer Trptr. Processing (step SB4) "," chord processing (step SB5) "," digit group processing (step SB6) "and" digit processing (step SB7) "are performed. When all the performance tracks have been processed and the value of the track pointer Trptr advanced in step SB8 becomes end, the determination result in step SB3 is “YES”, and this processing is completed.

(3)個別情報生成処理の動作
次に、図6を参照して個別情報生成処理の動作を説明する。上述した楽譜情報生成処理のステップSB4(図5参照)を介して本処理が実行されると、CPU11は図6に図示するステップSC1に処理を進め、曲データ[0]〜[N]を指定するノートポインタnptrをゼロリセットする。続いて、ステップSC2では、ノートポインタnptrで指定される曲データ[nptr]が曲終端endに達したかどうかを判断する。曲終端endに達していなければ、判断結果は「NO」になり、ステップSC3に進む。
(3) Operation of Individual Information Generation Process Next, the operation of the individual information generation process will be described with reference to FIG. When this process is executed through step SB4 (see FIG. 5) of the musical score information generation process described above, the CPU 11 proceeds to step SC1 shown in FIG. 6 and designates song data [0] to [N]. The note pointer nptr to be reset is reset to zero. Subsequently, in step SC2, it is determined whether or not the music data [nptr] specified by the note pointer nptr has reached the music end end. If the song end end has not been reached, the determination result is “NO”, and the flow proceeds to step SC3.

ステップSC3では、ノートポインタnptrで現在指定される曲データ[nptr]中の発音開始時刻ITimeに音長lGateを加算した時刻と、ポインタpNextで指定される次の曲データ[pNext]中の発音開始時刻ITimeとの時間差から休符が必要か否かを判断する。休符が必要ならば、判断結果は「YES」になり、ステップSC4に進み、上記ステップSC3で得た時間差に対応する休符を決定し、続くステップSC5では、決定した休符を表示する小節内での表示位置を決めた後、ステップSC6に進む。   In step SC3, the sound start time ITime in the music data [nptr] currently specified by the note pointer nptr is added to the sound length lGate, and the sound generation in the next music data [pNext] specified by the pointer pNext is started. It is determined whether or not a rest is necessary from the time difference from the time ITime. If a rest is necessary, the determination result is “YES”, the process proceeds to step SC4, a rest corresponding to the time difference obtained in step SC3 is determined, and in step SC5, a bar for displaying the determined rest is displayed. After the display position is determined, the process proceeds to step SC6.

一方、休符が不必要な場合には、上記ステップSC3の判断結果が「NO」になり、ステップSC6に進む。ステップSC6では、ノートポインタnptrで現在指定される曲データ[nptr]中の音長lGateに対応するノートタイプcNoteType(音符種類)を決定する。ステップSC7では、その決定したノートタイプcNoteType(音符種類)を表示する小節内での表示位置を決定する。そして、ステップSC8では、例えば次の音符とタイで繋ぐ等の、その他の付帯情報を設定する。次いで、ステップSC9では、ノートポインタnptrを歩進させた後、上記ステップSC2に処理を戻す。以後、ノートポインタnptrが曲終端endに達する迄、上記ステップSC2〜SC9を繰り返し、ノートポインタnptrが曲終端endに達すると、ステップSC2の判断結果が「YES」になり、本処理を終える。   On the other hand, if a rest is not necessary, the determination result in step SC3 is “NO”, and the flow proceeds to step SC6. In step SC6, a note type cNoteType (note type) corresponding to the tone length lGate in the music data [nptr] currently designated by the note pointer nptr is determined. In step SC7, the display position in the measure for displaying the determined note type cNoteType (note type) is determined. In step SC8, other supplementary information is set, such as connecting the next note with a tie. Next, in step SC9, after the note pointer nptr is incremented, the process returns to step SC2. Thereafter, steps SC2 to SC9 are repeated until the note pointer nptr reaches the song end end. When the note pointer nptr reaches the song end end, the determination result at step SC2 is “YES”, and this process ends.

(4)和音処理の動作
次に、図7を参照して和音処理の動作を説明する。上述した楽譜情報生成処理のステップSB5(図5参照)を介して本処理が実行されると、CPU11は図7に図示するステップSD1に処理を進め、曲データ[0]〜[N]を指定するノートポインタnptrをゼロリセットする。続いて、ステップSD2では、和音検出の有無を表すフラグInChordに「0」をセットして未検出状態を表す。次いで、ステップSD3では、ノートポインタnptrで指定される曲データ[nptr]が曲終端endに達したかどうかを判断する。曲終端endに達していなければ、判断結果は「NO」になり、ステップSD4に進む。
(4) Operation of Chord Processing Next, the operation of the chord processing will be described with reference to FIG. When this processing is executed through step SB5 (see FIG. 5) of the musical score information generation process described above, the CPU 11 proceeds to step SD1 shown in FIG. 7 and designates song data [0] to [N]. The note pointer nptr to be reset is reset to zero. Subsequently, in step SD2, “0” is set to a flag InChord indicating the presence / absence of chord detection to indicate an undetected state. Next, in step SD3, it is determined whether or not the music data [nptr] specified by the note pointer nptr has reached the music end end. If the song end end has not been reached, the determination result is “NO”, and the process proceeds to step SD4.

ステップSD4では、ノートポインタnptrで現在指定される曲データ[nptr]中の発音開始時刻ITimeと、当該曲データ[nptr]中のポインタpNextで指定される次の曲データ[pNext]中の発音開始時刻ITimeとが同一であるか否かを判断する。以下、次の音の発音時刻と同一の場合と、そうでない場合とに分けて動作説明を進める。   In step SD4, the sound generation start time ITime in the music data [nptr] currently specified by the note pointer nptr and the sound generation start in the next music data [pNext] specified by the pointer pNext in the music data [nptr] It is determined whether or not the time ITime is the same. In the following, description of the operation will be made separately for the case where the next sound generation time is the same and the case where it is not.

<次の音の発音時刻と同一の場合>
次の音の発音時刻と同一であると、ステップSD4の判断結果が「YES」になり、ステップSD5に進む。ステップSD5では、上述したフラグInChordが「0」、つまり和音未検出状態であるか否かを判断する。和音未検出状態であると、判断結果は「YES」になり、ステップSD7に進み、ノートポインタnptrで指定される曲データ[nptr]に対応して派生する音符データ[nptr]中のコードcChordに、和音開始音を表す値「1」をストアする。次いで、ステップSD8では、和音の検出に伴い、フラグInChordに「1」をセットする。そして、ステップSD9に進み、ノートポインタnptrをインクリメントして歩進させた後、上述のステップSD3に処理を戻す。
<When the next sound is played at the same time>
If it is the same as the sounding time of the next sound, the determination result in step SD4 is “YES”, and the flow proceeds to step SD5. In step SD5, it is determined whether the above-described flag InChord is “0”, that is, whether or not a chord is not detected. If the chord is not detected, the determination result is “YES”, the process proceeds to step SD7, and the code cChord in the note data [nptr] derived corresponding to the music data [nptr] specified by the note pointer nptr The value “1” representing the chord start sound is stored. Next, in step SD8, “1” is set to the flag InChord with the detection of the chord. Then, the process proceeds to step SD9, the note pointer nptr is incremented and stepped, and then the process returns to step SD3 described above.

一方、すでに和音を検出した状態であると、上記ステップSD5の判断結果は「NO」になり、ステップSD6に進む。ステップSD6では、ノートポインタnptrで指定される曲データ[nptr]に対応して派生する音符データ[nptr]中のコードcChordに、和音途中音を表す値「2」をストアする。そして、ステップSD8に進み、フラグInChordに「1」をセットした後、ステップSD9においてノートポインタnptrを歩進させてから上述のステップSD3に処理を戻す。   On the other hand, if the chord has already been detected, the determination result in step SD5 is “NO”, and the process proceeds to step SD6. In step SD6, the value “2” representing the halftone of the chord is stored in the code cChord in the note data [nptr] derived corresponding to the music data [nptr] specified by the note pointer nptr. Then, the process proceeds to step SD8, and after setting the flag InChord to “1”, the note pointer nptr is incremented in step SD9, and then the process returns to step SD3 described above.

<次の音の発音時刻と同一でない場合>
次の音の発音時刻と同一でなければ、前述したステップSD4の判断結果は「NO」になり、ステップSD10に進む。ステップSD10では、フラグInChordが「1」、つまり和音検出状態であるか否かを判断する。和音検出状態であると、判断結果が「YES」になり、ステップSD11に進み、ノートポインタnptrで指定される曲データ[nptr]に対応して派生する音符データ[nptr]中のコードcChordに、和音終了音を表す値「3」をストアする。そして、ステップSD13に進み、フラグInChordをゼロリセットし、続くステップSD9において、ノートポインタnptrをインクリメントして歩進させてから上述のステップSD3に処理を戻す。
<If it is not the same time as the next sound>
If it is not the same as the sounding time of the next sound, the determination result in step SD4 is “NO”, and the process proceeds to step SD10. In step SD10, it is determined whether or not the flag InChord is “1”, that is, whether the chord is being detected. If it is in the chord detection state, the determination result is “YES”, the process proceeds to step SD11, and the code cChord in the note data [nptr] derived corresponding to the music data [nptr] specified by the note pointer nptr is A value “3” representing the chord end sound is stored. In step SD13, the flag InChord is reset to zero. In step SD9, the note pointer nptr is incremented and stepped, and then the process returns to step SD3.

一方、和音未検出状態であれば、上記ステップSD10の判断結果が「NO」になり、ステップSD12に進む。ステップSD12では、ノートポインタnptrで指定される曲データ[nptr]に対応して派生する音符データ[nptr]中のコードcChordに、非和音を表す値「0」をストアする。そして、ステップSD13に進み、フラグInChordをゼロリセットした後、ステップSD9においてノートポインタnptrを歩進させてから上述のステップSD3に処理を戻す。以後、ノートポインタnptrが曲終端endに達する迄、ステップSD3以降の処理を繰り返し、歩進されたノートポインタnptrが曲終端endに達すると、ステップSD3の判断結果が「YES」になり、本処理を終える。   On the other hand, if the chord is not detected, the determination result in step SD10 is “NO”, and the process proceeds to step SD12. In step SD12, a value “0” representing a non-chord is stored in the code cChord in the note data [nptr] derived corresponding to the music data [nptr] specified by the note pointer nptr. In step SD13, the flag InChord is reset to zero, and then the note pointer nptr is incremented in step SD9, and then the process returns to step SD3. Thereafter, the processing after step SD3 is repeated until the note pointer nptr reaches the song end end. When the stepped note pointer nptr reaches the song end end, the determination result at step SD3 becomes “YES”. Finish.

(5)連桁グループ処理の動作
次に、図8を参照して連桁グループ処理の動作を説明する。上述した楽譜情報生成処理のステップSB6(図5参照)を介して本処理が実行されると、CPU11は図8に図示するステップSE1に処理を進め、曲データ[0]〜[N]を指定するノートポインタnptrをゼロリセットする。続いて、ステップSE2では、ノートポインタnptrで指定される曲データ[nptr]をレジスタvnにストアする。次いで、ステップSE3では、ノートポインタnptrで指定される曲データ[nptr]が曲終端endに達したかどうかを判断する。曲終端endに達していなければ、判断結果は「NO」になり、ステップSE4に進む。
(5) Operation of Beam Digit Group Processing Next, the operation of beam digit group processing will be described with reference to FIG. When this process is executed through step SB6 (see FIG. 5) of the musical score information generation process described above, the CPU 11 advances the process to step SE1 shown in FIG. 8 and designates song data [0] to [N]. The note pointer nptr to be reset is reset to zero. Subsequently, in step SE2, music data [nptr] designated by the note pointer nptr is stored in the register vn. Next, in step SE3, it is determined whether or not the music data [nptr] specified by the note pointer nptr has reached the music end end. If the song end end has not been reached, the judgment result is “NO”, and the flow proceeds to step SE4.

ステップSE4では、レジスタvnに格納される曲データ[nptr]が連桁の先頭音となる先頭音条件を満たすかどうかを判断する。ここで言う先頭音条件とは、直前の音の旗(符尾)の無い音符長、つまり4分音符長以上であって、今回判定対象とする音が旗のある8分音符長以下であることを指す。こうした先頭音条件を満たさない場合には、ここでの判断結果は「NO」になり、ステップSE12に進む。ステップSE12では、連桁開始音をサーチし始める音を指定するポインタをノートポインタnptrにセットする。つまり、先頭音条件を満たさずにステップSE12に進んだ場合には、次の音を指定させるべく、ノートポインタnptrを歩進させた後、上述のステップSE2に処理を戻す。   In step SE4, it is determined whether or not the music piece data [nptr] stored in the register vn satisfies the first note condition that is the first note of the consecutive digits. The leading sound condition here is a note length without a flag (tail) of the immediately preceding sound, that is, a quarter note length or more, and a sound to be determined this time is an eighth note length with a flag or less. Refers to that. If such a head sound condition is not satisfied, the determination result here is “NO”, and the flow proceeds to step SE12. In step SE12, a pointer for designating a sound to start searching for the beam start sound is set in the note pointer nptr. That is, when the process proceeds to step SE12 without satisfying the head sound condition, the note pointer nptr is incremented to designate the next sound, and then the process returns to step SE2.

そして、歩進されたノートポインタnptrで指定される曲データ[nptr]が曲終端endに達しておらず、しかも連桁の先頭音となる条件を満たしたとする。そうすると、ステップSE3、SE4の各判断結果はいずれも「YES」になり、ステップSE5に進む。ステップSE5では、レジスタvnに格納される曲データ[nptr]を連桁バッファに保存する。   Then, it is assumed that the music piece data [nptr] specified by the stepped note pointer nptr does not reach the music end point end, and satisfies the condition that it becomes the leading sound of the consecutive digits. Then, the determination results in steps SE3 and SE4 are both “YES”, and the process proceeds to step SE5. In step SE5, the music piece data [nptr] stored in the register vn is stored in the continuous digit buffer.

続いて、ステップSE6では、レジスタvnに格納される曲データ[nptr]中のポインタpNextで指定される次の曲データ[pNext]をレジスタvnxにストアする。次に、ステップSE7では、レジスタvnxに格納された曲データ[pNext]が、レジスタvnに格納される曲データ[nptr]に対して連桁音条件を満たしているか否かを判断する。連桁音条件とは、直前および直後の音と今回判定対象の音とがいずれも旗のある音符長であることを指す。この連桁音条件を満たしていると、ここでの判断結果は「YES」になり、ステップSE8に進む。ステップSE8では、レジスタvnxに格納された曲データ[pNext]を連桁バッファに保存すると共に、レジスタvnxに格納された曲データ[pNext]をレジスタvnにストアした後、ステップSE9に進む。   Subsequently, in step SE6, the next music piece data [pNext] specified by the pointer pNext in the music piece data [nptr] stored in the register vn is stored in the register vnx. Next, in step SE7, it is determined whether or not the song data [pNext] stored in the register vnx satisfies the continuous tone condition for the song data [nptr] stored in the register vn. The continuous tone condition indicates that both the immediately preceding and immediately following sounds and the current determination target sound have a note length with a flag. If this beam condition is satisfied, the determination result here is “YES”, and the flow proceeds to step SE8. In step SE8, the music piece data [pNext] stored in the register vnx is saved in the continuous buffer, and the music piece data [pNext] stored in the register vnx is stored in the register vn. Then, the process proceeds to step SE9.

これに対し、レジスタvnxに格納された曲データ[pNext]が、レジスタvnに格納される曲データ[nptr]に連桁する条件を満たしていないと、上記ステップSE7の判断結果は「NO」になり、ステップSE9に進む。ステップSE9では、レジスタvnxに格納された曲データ[pNext]が連桁の終端音となる連桁終端条件を満たすか否かを判断する。連桁終端条件とは、直前の音と今回判定対象の音とがいずれも旗のある音符長であって、直後の音が旗の無い音符長であることを指す。そして、この連桁終端条件を満たさなければ、判断結果は「NO」になり、上記ステップSE6に処理を戻す。   On the other hand, if the song data [pNext] stored in the register vnx does not satisfy the condition of consecutive to the song data [nptr] stored in the register vn, the determination result in step SE7 is “NO”. Thus, the process proceeds to step SE9. In step SE9, it is determined whether or not the music piece data [pNext] stored in the register vnx satisfies a beam end condition that becomes a beam end sound. The beam end condition indicates that both the immediately preceding sound and the sound to be determined this time have a note length with a flag, and the immediately following sound has a note length without a flag. If the beam end condition is not satisfied, the determination result is “NO”, and the process returns to step SE6.

以後、連桁の終端となる音が検索される迄、ステップSE6〜SE9を繰り返し、連桁の先頭音に続いて連桁される音を検索し、該当する音(曲データ)を連桁バッファに保存する。そして、連桁の終端となる音が検索されると、ステップSE9の判断結果が「YES」になり、ステップSE10に進む。ステップSE10では、予め設定される各種連桁パターン(連桁形状)の内、連桁バッファに保存された連桁の先頭音から終端音に適合する連桁パターンを選択する。そして、ステップSE11では、連桁バッファに保存された連桁の先頭音に対応する音符データ中の連桁パターン始点cRenkouS(図3参照)に、選択された連桁パターンを表す値をセットする一方、連桁バッファに保存された連桁の後端音に対応する音符データ中の連桁パターン終点cRenkouE(図3参照)に、選択された連桁パターンを表す値をセットする。   Thereafter, steps SE6 to SE9 are repeated until the sound that ends the beam is searched, the sound that is continued after the head tone of the beam is searched, and the corresponding sound (song data) is stored in the beam buffer. Save to. Then, when the sound at the end of the beam is searched, the determination result in step SE9 is “YES”, and the flow proceeds to step SE10. In step SE10, among the preset various beam patterns (beam patterns), a beam pattern suitable for the terminal tone is selected from the first sound of the beam stored in the beam buffer. In step SE11, a value representing the selected beam pattern is set in the beam pattern start point cRenkouS (see FIG. 3) in the note data corresponding to the first note of the beam stored in the beam buffer. Then, a value representing the selected beam pattern is set in the beam pattern end point cRenkouE (see FIG. 3) in the note data corresponding to the rear end sound of the beam stored in the beam buffer.

この後、ステップSE12に進み、次の連桁開始音をサーチし始める音を指定するポインタをノートポインタnptrにセットする。すなわち、この場合、連桁の後端音の次の音を指定するポインタをノートポインタnptrにセットした後、ステップSE2に処理を戻す。以後、ノートポインタnptrが曲終端endに達する迄、上述したステップSE3以降を繰り返す。そして、曲データ[0]〜[N]から探し出された連桁グループ(連桁の開始音から終端音までの一連の音列)毎の連桁パターン始点cRenkouSおよび連桁パターン終点cRenkouEを対応する音符データに設定し終えると、ステップSE3の判断結果が「YES」になり、本処理を終える。   Thereafter, the process proceeds to step SE12, and a pointer for designating a sound to start searching for the next beam start sound is set in the note pointer nptr. That is, in this case, after setting the pointer for designating the sound next to the trailing edge of the consecutive digits to the note pointer nptr, the process returns to step SE2. Thereafter, the above-described steps SE3 and after are repeated until the note pointer nptr reaches the music end end. Corresponding to the beam pattern start point cRenkouS and beam pattern end point cRenkouE for each beam group (a series of sound strings from the beam start sound to the end sound) found from the song data [0] to [N] When the setting of the note data to be completed is completed, the determination result in step SE3 is “YES”, and the present process ends.

(6)連桁処理の動作
次に、図9〜図10を参照して連桁処理の動作を説明する。上述した楽譜情報生成処理のステップSB7(図5参照)を介して本処理が実行されると、CPU11は図9に図示するステップSF1に処理を進め、曲データ[0]〜[N]を指定するノートポインタnptrをゼロリセットする。続いて、ステップSF2では、連桁フラグInRenkouをゼロリセットする。連桁フラグInRenkouは、ノートポインタnptrで指定される曲データ[nptr]が連桁される音であるか否かを表すフラグであり、「1」の場合に連桁音を表し、「0」の場合に非連桁音を表す。
(6) Operation of beam processing Next, the operation of beam processing will be described with reference to FIGS. When this process is executed through step SB7 (see FIG. 5) of the musical score information generation process described above, the CPU 11 advances the process to step SF1 shown in FIG. 9, and designates song data [0] to [N]. The note pointer nptr to be reset is reset to zero. Subsequently, in step SF2, the consecutive-digit flag InRenkou is reset to zero. The consecutive-digit flag InRenkou is a flag indicating whether or not the music data [nptr] specified by the note pointer nptr is a consecutive-digit sound. Represents a non-digit sound.

そして、ステップSF3では、ノートポインタnptrで指定される曲データ[nptr]が曲終端endに達したかどうかを判断する。曲終端endに達していなければ、判断結果は「NO」になり、ステップSF4に進む。ステップSF4以降では、ノートポインタnptrで指定される曲データ[nptr]が非連桁音、連桁開始音、連桁中の音および連桁終了音のいずれであるかを判断した結果に応じた処理を実行する。以下、非連桁音、連桁開始音、連桁中の音および連桁終了音の各場合の処理に分けて動作説明を進める。   In step SF3, it is determined whether or not the music data [nptr] specified by the note pointer nptr has reached the music end end. If the song end end has not been reached, the determination result is “NO”, and the process proceeds to step SF4. In step SF4 and after, according to the result of determining whether the music data [nptr] specified by the note pointer nptr is a non-continuous digit tone, a consecutive digit start tone, a tone in a consecutive digit, or a consecutive digit end tone. Execute the process. Hereinafter, the description of the operation is divided into processing for each case of a non-continuous digit tone, a consecutive digit start tone, a tone in the consecutive digits, and a consecutive digit end tone.

<非連桁音の場合>
非連桁音とは、連桁の対象とならない音を指す。そのような音の場合には、後述するステップSF4、SF8、SF9の各判断結果が「NO」になり、図10に図示するステップSF12に進み、ノートポインタnptrをインクリメントして歩進させた後、図9に図示するステップSF3に処理を戻す。
<For non-digit sounds>
A non-continuous sound refers to a sound that is not a target of a continuous beam. In the case of such a sound, the determination results of steps SF4, SF8, and SF9 described later are “NO”, and the process proceeds to step SF12 illustrated in FIG. 10 and the note pointer nptr is incremented and stepped. Then, the process returns to step SF3 shown in FIG.

<連桁開始音の場合>
ステップSF4では、ノートポインタnptrで指定される曲データ[nptr]が連桁開始音であるか否かを判断する。具体的には、ノートポインタnptrで指定される曲データ[nptr]に対応する音符データ中の連桁パターン始点cRenkouS(図3参照)に、連桁パターンを表す値がセットされているかどうかを判断する。そして、連桁開始音であると、このステップSF4の判断結果が「YES」になり、ステップSF5に進み、連桁フラグInRenkouに「1」をセットする。次いで、ステップSF6では、連桁開始音を指定するノートポインタnptrをレジスタvnsにストアする。そして、ステップSF7では、連桁傾き補正値を一時記憶するレジスタiSlopeAdj(以後、連桁傾き補正値iSlopeAdjと称す)をゼロリセットした後、図10に図示するステップSF8に進む。
<In the case of a beam start tone>
In step SF4, it is determined whether or not the music data [nptr] designated by the note pointer nptr is a continuous digit start sound. Specifically, it is determined whether or not a value representing the beam pattern is set at the beam pattern start point cRenkouS (see FIG. 3) in the note data corresponding to the music data [nptr] specified by the note pointer nptr. To do. If it is a consecutive digit start sound, the determination result in step SF4 is “YES”, the process proceeds to step SF5, and “1” is set to the consecutive flag flag InRenkou. Next, in step SF6, the note pointer nptr for designating the beam start sound is stored in the register vns. In step SF7, a register iSlopeAdj (hereinafter referred to as a beam slope correction value iSlopeAdj) for temporarily storing the beam slope correction value is reset to zero, and the process proceeds to step SF8 shown in FIG.

<連桁中の音の場合>
ステップSF8では、ノートポインタnptrで指定される曲データ[nptr]が連桁終了音であるか否かを判断する。具体的には、ノートポインタnptrで指定される曲データ[nptr]に対応する音符データ中の連桁パターン始点cRenkouE(図3参照)に、連桁パターンを表す値がセットされているかどうかを判断する。連桁終了音ではなく、連桁中の音であると、判断結果は「NO」になり、ステップSF9に進む。ステップSF9では、連桁フラグInRenkouが「1」であるか否か、つまり連桁中の音であるかどうかを判断する。
<For sounds in a beam>
In step SF8, it is determined whether or not the music data [nptr] designated by the note pointer nptr is a continuous digit end sound. Specifically, it is determined whether or not a value representing the beam pattern is set at the beam pattern start point cRenkouE (see FIG. 3) in the note data corresponding to the music data [nptr] specified by the note pointer nptr. To do. If the sound is not a continuous digit end sound but a continuous digit, the determination result is “NO” and the process proceeds to step SF9. In step SF9, it is determined whether or not the beam flag InRenkou is “1”, that is, whether or not the sound is in the beam.

連桁中の音であると、ここでの判断結果が「YES」になり、ステップSF10に進む。ステップSF10では、次音との音高差が正であるか否かを判断する。次音との音高差が正であると、判断結果は「YES」になり、ステップSF15に進み、連桁傾き補正値iSlopeAdjをインクリメントした後、ステップSF12に進み、ノートポインタnptrをインクリメントして歩進させてから図9のステップSF3に処理を戻す。   If it is a sound in a beam, the determination result here is “YES”, and the process proceeds to step SF10. In step SF10, it is determined whether or not the pitch difference with the next sound is positive. If the pitch difference with the next tone is positive, the determination result is “YES”, the process proceeds to step SF15, the beam slope correction value iSlopeAdj is incremented, then the process proceeds to step SF12, and the note pointer nptr is incremented. After stepping, the process returns to step SF3 in FIG.

一方、次音との音高差が正でない場合には、上記ステップSF10の判断結果が「NO」になり、ステップSF11に進む。ステップSF11では、次音との音高差が負であるか否かを判断する。次音との音高差が負であると、判断結果は「YES」になり、ステップSF16に進み、連桁傾き補正値iSlopeAdjをデクリメントした後、ステップSF12に進み、ノートポインタnptrをインクリメントして歩進させてから図9のステップSF3に処理を戻す。これに対し、次音との音高差が負でない場合、つまり次音との音高差が無ければ、上記ステップSF11の判断結果は「NO」になり、ステップSF12に進み、ノートポインタnptrをインクリメントして歩進させてから図9のステップSF3に処理を戻す。   On the other hand, if the pitch difference from the next sound is not positive, the determination result in step SF10 is “NO”, and the flow proceeds to step SF11. In step SF11, it is determined whether or not the pitch difference with the next sound is negative. If the pitch difference with the next tone is negative, the determination result is “YES”, the process proceeds to step SF16, the beam slope correction value iSlopeAdj is decremented, and then the process proceeds to step SF12 to increment the note pointer nptr. After stepping, the process returns to step SF3 in FIG. On the other hand, if the pitch difference with the next sound is not negative, that is, if there is no pitch difference with the next sound, the determination result in step SF11 is “NO”, the process proceeds to step SF12, and the note pointer nptr is set. After incrementing and advancing, the process returns to step SF3 in FIG.

<連桁終了音の場合>
さて、歩進されたノートポインタnptrで指定される曲データ[nptr]が連桁終了音になると、上述したステップSF8の判断結果が「YES」になり、ステップSF13に進み、連桁の傾きを算出する。連桁の傾きは、連桁開始音と連桁終了音との音高差と、レジスタiSlopeAdjの連桁傾き補正値とを勘案して算出する。すなわち、連桁する音列において、隣り合う音同士の音高差の正負に応じてインクリメント又はデクリメントされる連桁傾き補正値iSlopeAdjを、連桁開始音と連桁終了音との音高差に乗算して得た値が「0」以下の場合に、連桁開始音と連桁終了音との音高差に対応する連桁の傾きを、連桁傾き補正値iSlopeAdjにて補正する。これにより、簡単な処理で自然な傾きの連桁にすることが可能になる。なお、ステップSF13にて算出される連桁傾きは、連桁開始音および連桁終了音の属性として、これら各音に対応する音符データに登録されるようになっている。
<In the case of a beam that ends the beam>
Now, when the music data [nptr] specified by the stepped note pointer nptr becomes a consecutive digit end sound, the judgment result of the above-mentioned step SF8 becomes “YES”, the process proceeds to step SF13 and the gradient of the consecutive digits is changed. calculate. The slope of the beam is calculated in consideration of the pitch difference between the beam start sound and the beam end sound and the beam slope correction value of the register iSlopeAdj. That is, in the string of consecutive digits, the consecutive slope correction value iSlopeAdj incremented or decremented according to the sign of the pitch difference between adjacent sounds is changed to the pitch difference between the consecutive digit start sound and the consecutive digit end sound. When the value obtained by multiplication is equal to or less than “0”, the gradient of the beam corresponding to the pitch difference between the beam start sound and the beam end sound is corrected by the beam gradient correction value iSlopeAdj. As a result, it is possible to obtain a beam with a natural slope by simple processing. The beam slope calculated in step SF13 is registered in the note data corresponding to each sound as attributes of the beam start sound and beam end sound.

また、上記ステップSF13では、連桁開始音と連桁終了音との音高差に対応する連桁の傾きを、連桁傾き補正値iSlopeAdjにて補正するようにしたが、これに替えて、連桁開始音から連桁終了音までの連桁グループを形成する各音の音高に基づき最小自乗近似を施して連桁の傾きを算出する態様としても自然な傾きの連桁にすることも可能である。   In step SF13, the gradient of the beam corresponding to the pitch difference between the beam start sound and the beam end sound is corrected by the beam gradient correction value iSlopeAdj. As a mode of calculating the slope of a beam by applying a least square approximation based on the pitch of each tone forming a beam group from the beam start sound to the beam end sound, it is possible to use a beam with a natural slope. Is possible.

さて、こうした連桁傾き算出を終えると、CPU11はステップSF14に処理を進め、連桁フラグInRenkouをゼロリセットしてからステップSF12に進み、ノートポインタnptrをインクリメントして歩進させてから図9のステップSF3に処理を戻す。以後、ノートポインタnptrで指定される曲データ[nptr]が曲終端endに達する迄、上述したステップSF3以降の処理を繰り返す。そして、ノートポインタnptrで指定される曲データ[nptr]が曲終端endに達すると、ステップSF3の判断結果が「YES」になり、本処理を終える。   When the calculation of the beam slope is completed, the CPU 11 advances the process to step SF14, resets the beam flag InRenkou to zero, then advances to step SF12, increments the note pointer nptr, and advances the process in FIG. The process returns to step SF3. Thereafter, the processing after step SF3 is repeated until the music data [nptr] designated by the note pointer nptr reaches the music end end. When the song data [nptr] specified by the note pointer nptr reaches the song end end, the determination result in step SF3 is “YES”, and the process is terminated.

(7)楽譜表示処理の動作
次に、図11〜図12を参照して楽譜表示処理の動作を説明する。前述したメインルーチンのステップSA9(図4参照)を介して楽譜表示処理が実行されると、CPU11は図11に図示するステップSG1に進み、背景画像(五線譜)を表示部16の表示面に描画する。続いて、ステップSG2では、小節数を計数する小節カウンタを初期化する。次いで、ステップSG3では、小節カウンタの値が終端endに達したか否か、つまり曲を形成する全ての小節について楽譜表示し終えたかどうかを判断する。全ての小節について楽譜表示し終えていなければ、判断結果は「NO」になり、ステップSG4に進む。ステップSG4では、五線譜上で小節カウンタの値で指定される小節情報に基づき、例えば五線譜上に音部記号や調記号、小節線などを描画する。
(7) Operation of Score Display Processing Next, the operation of the score display processing will be described with reference to FIGS. When the score display process is executed through step SA9 (see FIG. 4) of the main routine described above, the CPU 11 proceeds to step SG1 shown in FIG. 11 and draws a background image (stave score) on the display surface of the display unit 16. To do. Subsequently, in step SG2, a bar counter for counting the number of bars is initialized. Next, in step SG3, it is determined whether or not the value of the measure counter has reached the end end, that is, whether or not the musical score display has been completed for all the measures forming the song. If the score display has not been completed for all the bars, the determination result is “NO”, and the process proceeds to step SG4. In step SG4, for example, a clef, key, bar line, etc. are drawn on the staff based on the bar information specified by the bar counter value on the staff.

そして、ステップSG5では、音符データを指定するノートポインタnptrをゼロリセットする。続いて、ステップSG6では、ノートポインタnptrが1小節分の音を指定し終えた否かを判断する。1小節分の音を指定し終えていなければ、判断結果は「NO」になり、ステップSG7に進み、ノートポインタnptrが現在指定する音符データの表示位置を計算する。次いで、ステップSG8では、上記ステップSG7にて算出した表示位置に、ノートポインタnptrが現在指定する音符データを描画する。この後、ステップSG9に進み、ノートポインタnptrを歩進させてから上記ステップSG6に処理を戻す。   In step SG5, the note pointer nptr for designating note data is reset to zero. Subsequently, in step SG6, it is determined whether or not the note pointer nptr has finished specifying a sound for one measure. If the sound for one measure has not been specified, the determination result is “NO”, the process proceeds to step SG7, and the display position of the note data currently specified by the note pointer nptr is calculated. Next, in step SG8, the note data currently designated by the note pointer nptr is drawn at the display position calculated in step SG7. Thereafter, the process proceeds to step SG9, the note pointer nptr is incremented, and the process returns to step SG6.

こうして、小節カウンタの値で指定される小節を形成する各音の表示位置を順次算出し、それら表示位置に各音符を描画し終えると、上記ステップSG6の判断結果が「YES」になり、ステップSG10に進み、小節カウンタを歩進させた後、上述のステップSG3に処理を戻す。以後、各小節毎に音符の表示位置を算出し、算出した表示位置に対応する音符を描画して行き、全ての小節について音符を描画し終えると、上記ステップSG3の判断結果が「YES」になり、本処理を終える。   In this way, when the display positions of the sounds forming the bars designated by the value of the bar counter are sequentially calculated, and when the notes are drawn at the display positions, the determination result at step SG6 is “YES”, and the step After proceeding to SG10 and incrementing the bar counter, the process returns to step SG3. Thereafter, the display position of the note is calculated for each measure, the notes corresponding to the calculated display position are drawn, and when the notes are drawn for all the measures, the determination result in step SG3 is “YES”. This processing is finished.

なお、音符描画に際しては、対応する音符データが備える属性を参照する。音符データが備える属性とは、前述したノートタイプcNoteType、連桁パターン始点cRenkouSおよび連桁パターン終点RenkouEの他、上述した連桁処理(図9〜図10参照)において算出される連桁傾きを含む。   It should be noted that when a note is drawn, an attribute included in the corresponding note data is referred to. The attributes included in the note data include the above-described note type cNoteType, the beam pattern pattern start point cRenkouS, and the beam pattern pattern end point RenkuE, as well as the beam gradient calculated in the beam pattern processing described above (see FIGS. 9 to 10). .

図12は、楽譜表示処理によって画面表示される楽譜の一例を示す図である。図12(a)は、前述した連桁処理による連桁傾きの補正を行わない場合の譜例である。この譜例では、連桁傾きの補正が行われず、連桁開始音と連桁終了音との音高差だけで連桁の傾きを決めるため、不揃いとなり連桁する音符が見難いものとなっている。これに対し、同図(b)は、前述した連桁処理による連桁傾きの補正を行った譜例である。この譜例では、前述した補正により連桁の傾きが不揃いにならず、連桁する音符を見易く表示できるようになっている。   FIG. 12 is a diagram showing an example of a score displayed on the screen by the score display process. FIG. 12A shows an example of a musical score in the case where correction of the beam slope by the beam processing described above is not performed. In this notation, the slope of the beam is not corrected, and the gradient of the beam is determined only by the pitch difference between the beam start sound and the beam end sound, which makes it uneven and difficult to see the notes in the beam. ing. On the other hand, FIG. 7B shows an example of a musical score in which the beam slope correction is performed by the beam processing described above. In this musical score example, the above-described correction does not cause the gradients of the beams to be uneven, so that the notes of the beams can be easily displayed.

(8)設定処理の動作
次に、図13〜図14を参照して設定処理の動作を説明する。前述したメインルーチンのステップSA7(図4参照)を介して設定処理が実行されると、CPU11は図13に図示するステップSH1に進み、メニュー画面を表示部16に画面表示する。ここで、図14を参照してメニュー画面の一例について説明する。この図に図示するメニュー画面は、小節情報の生成を指示するアイコンIC1、運指情報の入力を指示するアイコンIC2、歌詞情報の入力を指示するアイコンIC3、小節単位のクオンタイズを指示するアイコンIC4および設定した情報の保存を指示するアイコンIC5を有する。メニュー画面に配設されるアイコンIC1〜IC5は、操作部10のマウス操作(クリック)にて選択される。
(8) Operation of Setting Process Next, the operation of the setting process will be described with reference to FIGS. When the setting process is executed via step SA7 (see FIG. 4) of the main routine described above, the CPU 11 proceeds to step SH1 shown in FIG. 13 and displays the menu screen on the display unit 16. Here, an example of the menu screen will be described with reference to FIG. The menu screen illustrated in this figure includes an icon IC1 for instructing generation of measure information, an icon IC2 for instructing input of fingering information, an icon IC3 instructing input of lyrics information, an icon IC4 instructing quantization in units of measures, and It has an icon IC5 for instructing to save the set information. The icons IC <b> 1 to IC <b> 5 arranged on the menu screen are selected by a mouse operation (click) of the operation unit 10.

こうしたメニュー画面が表示部16に画面表示されると、CPU11はステップSH2に進み、メニュー画面においてアイコンクリック操作が為されるまで待機する。そして、メニュー画面においてアイコンクリック操作が行われると、ステップSH2の判断結果が「YES」になり、ステップSH3に進む。ステップSH3〜SH7では、メニュー画面に配設されるアイコンIC1〜IC5のいずれがクリック操作されたかを判断する。すなわち、アイコンIC1がクリックされた場合には、ステップSH3の判断結果が「YES」になり、ステップSH8に進み、音部記号や拍子記号、調記号を指定する他、曲選択された曲データの各小節位置および各段位置を指定する小節情報を生成する小節情報生成処理を実行してから本処理を終える。   When such a menu screen is displayed on the display unit 16, the CPU 11 proceeds to step SH2 and waits until an icon click operation is performed on the menu screen. When an icon click operation is performed on the menu screen, the determination result in step SH2 is “YES”, and the flow proceeds to step SH3. In steps SH3 to SH7, it is determined which of the icons IC1 to IC5 arranged on the menu screen has been clicked. That is, when the icon IC1 is clicked, the determination result in step SH3 is “YES”, and the process proceeds to step SH8 to specify the clef, time signature, key, and the song data of the selected song data. This processing is completed after executing the measure information generation processing for generating measure information for designating each measure position and each step position.

アイコンIC2がクリックされた場合には、ステップSH4の判断結果が「YES」になり、ステップSH9に進み、後述する運指情報入力処理を実行してから本処理を終える。アイコンIC3がクリックされた場合には、ステップSH5の判断結果が「YES」になり、ステップSH10に進み、後述する歌詞情報入力処理を実行してから本処理を終える。アイコンIC4がクリックされた場合には、ステップSH6の判断結果が「YES」になり、ステップSH11に進み、後述する小節クオンタイズ処理を実行してから本処理を終える。アイコンIC5がクリックされた場合には、ステップSH7の判断結果が「YES」になり、ステップSH12に進み、後述する保存処理を実行してから本処理を終える。   When the icon IC2 is clicked, the determination result in step SH4 is “YES”, the process proceeds to step SH9, and after performing a fingering information input process described later, this process is finished. If the icon IC3 is clicked, the determination result in step SH5 is “YES”, the process proceeds to step SH10, and the lyrics information input process described later is executed, and then this process ends. When the icon IC4 is clicked, the determination result in step SH6 is “YES”, the process proceeds to step SH11, and after the measure quantizing process described later is executed, this process is finished. If the icon IC5 is clicked, the determination result in step SH7 is “YES”, the process proceeds to step SH12, and after executing a storage process to be described later, the present process ends.

(8)運指情報入力処理の動作
次に、図15を参照して運指情報入力処理の動作を説明する。前述した設定処理のステップSH9(図13参照)を介して運指情報入力処理が実行されると、CPU11は図15に図示するステップSJ1を介して音符ポイント処理を実行する。そして、ステップSJ2を介して運指入力処理を実行して本処理を終える。
(8) Operation of Fingering Information Input Process Next, the operation of the fingering information input process will be described with reference to FIG. When the fingering information input process is executed via step SH9 (see FIG. 13) of the setting process described above, the CPU 11 executes the note point process via step SJ1 shown in FIG. And a fingering input process is performed via step SJ2 and this process is complete | finished.

(9)音符ポイント処理の動作
上述したステップSJ1(図15参照)を介して本処理が実行されると、CPU11は図16に図示するステップSK1に進み、画面表示されている楽譜上において操作部10のマウスによりポインティングされている位置座標(x,y)を取得する。次いで、ステップSK2では、音符データを指定するノートポインタnptrをゼロリセットする。続いて、ステップSK3では、ノートポインタnptrが曲終端endに達したか否かを判断する。曲終端endに達していなければ、判断結果は「NO」になり、ステップSK4に進む。
(9) Operation of note point processing When this processing is executed via the above-described step SJ1 (see FIG. 15), the CPU 11 proceeds to step SK1 shown in FIG. The position coordinates (x, y) pointed by 10 mice are acquired. Next, at step SK2, the note pointer nptr for designating note data is reset to zero. Subsequently, in step SK3, it is determined whether or not the note pointer nptr has reached the song end end. If the song end end has not been reached, the determination result is “NO”, and the flow proceeds to step SK4.

ステップSK4では、マウスのポインティング座標(x,y)と、ノートポインタnptrで指定される音符データ[nptr]の座標(ix,iy)とを比較する。そして、ステップSK5では、両座標(x,y)、(ix,iy)が一致したか否か、つまり現在のノートポインタnptrで指定される音符データ[nptr]の符頭位置をマウスのポインティングしているかどうかを判断する。符頭位置をポインティングしていなければ、判断結果は「NO」になり、ステップSK6に進み、ノートポインタnptrをインクリメントして歩進させた後、上述のステップSK3に処理を戻す。   In step SK4, the mouse pointing coordinates (x, y) are compared with the coordinates (ix, iy) of the note data [nptr] specified by the note pointer nptr. In step SK5, the mouse is pointed to whether or not both coordinates (x, y) and (ix, iy) match, that is, the note head position of the note data [nptr] specified by the current note pointer nptr. Determine if you are. If the note head position is not pointed, the determination result is “NO”, the process proceeds to step SK6, the note pointer nptr is incremented and stepped, and then the process returns to step SK3.

以後、マウスでポインティングされた位置座標(x,y)に一致する符頭の座標(ix,iy)を有する音符が見つかるまでステップSK3〜SK6を繰り返す。そして、マウスでポインティングされた位置座標(x,y)に一致する符頭の座標(ix,iy)を有する音符が見つかると、ステップSK5の判断結果が「YES」になり、ステップSK7に進み、該当する音符データ中のポインタmEventをレジスタmeorgをストアして本処理を終える。これにより、画面表示された楽譜上にてマウスでポインティングされた音符に対応する曲データ[meorg]が指定される。一方、マウスでポインティングされた位置座標(x,y)に一致する符頭の座標(ix,iy)を有する音符が見つからないまま、ノートポインタnptrが曲終端endに達した場合には、上記ステップSK3の判断結果が「YES」になり、ステップSK8に進み、レジスタmeorgをゼロリセットして本処理を終える。   Thereafter, steps SK3 to SK6 are repeated until a note having the coordinate (ix, iy) of the note head that matches the position coordinate (x, y) pointed by the mouse is found. When a note having a note head coordinate (ix, iy) that matches the position coordinate (x, y) pointed by the mouse is found, the determination result in step SK5 is “YES”, and the process proceeds to step SK7. The pointer mEvent in the corresponding note data is stored in the register meorg, and this processing is finished. As a result, music data [meorg] corresponding to the note pointed with the mouse on the score displayed on the screen is designated. On the other hand, if the note pointer nptr reaches the end of music end without finding a note having the coordinate (ix, iy) of the note head that matches the position coordinate (x, y) pointed by the mouse, the above steps are performed. The determination result at SK3 is “YES”, the process proceeds to step SK8, the register meorg is reset to zero, and this process ends.

(10)運指入力処理の動作
上述したステップSJ2(図15参照)を介して本処理が実行されると、CPU11は図17に図示するステップSL1に進み、ユーザ操作に応じて入力される運指情報をレジスタcFigにストアする。なお、ここで言う運指情報とは、具体的には押鍵操作する指を表す指番号である。次いで、ステップSL2では、レジスタmeorgに格納されるポインタmEventを、曲データを指定するポインタmeにセットする。したがって、ポインタmeは、マウスでポインティングされた音符に対応する曲データ[me]を指定する。そして、ステップSL3では、曲データ[me]中の発音開始時刻lTimeと同じタイミングのメタ情報として、レジスタcFigの運指情報(指番号)をRAM13の楽譜情報エリア(図3参照)に格納して本処理を終える。
(10) Operation of fingering input process When this process is executed through the above-described step SJ2 (see FIG. 15), the CPU 11 proceeds to step SL1 shown in FIG. 17 and is input according to the user operation. The finger information is stored in the register cFig. The fingering information referred to here is specifically a finger number representing a finger to perform a key pressing operation. Next, in step SL2, the pointer mEvent stored in the register meorg is set to the pointer me designating music data. Therefore, the pointer me designates music data [me] corresponding to the note pointed with the mouse. In step SL3, the fingering information (finger number) of the register cFig is stored in the score information area (see FIG. 3) of the RAM 13 as meta information at the same timing as the sound generation start time lTime in the song data [me]. This process is finished.

(11)歌詞情報入力処理の動作
次に、図18を参照して歌詞情報入力処理の動作を説明する。前述した設定処理のステップSH10(図13参照)を介して歌詞情報入力処理が実行されると、CPU11は図18に図示するステップSM1を介して音符ポイント処理(図16参照)を実行し、画面表示された楽譜上にてマウスでポインティングされた音符に対応する曲データ[meorg]を指定する。そして、ステップSM2を介して歌詞入力処理を実行して本処理を終える。
(11) Operation of Lyric Information Input Process Next, the operation of the lyrics information input process will be described with reference to FIG. When the lyric information input process is executed through step SH10 (see FIG. 13) of the setting process described above, the CPU 11 executes the note point process (see FIG. 16) through step SM1 shown in FIG. On the displayed score, music data [meorg] corresponding to the note pointed with the mouse is designated. Then, the lyrics input process is executed via step SM2, and the present process is terminated.

(12)歌詞入力処理の動作
上述のステップSM2(図18参照)を介して本処理が実行されると、CPU11は図19に図示するステップSN1に進み、ユーザ操作に応じて入力される歌詞情報(文字データ)をレジスタstrにストアする。次いで、ステップSN2では、レジスタmeorgに格納されるポインタmEventを、曲データを指定するポインタmeにセットする。したがって、ポインタmeは、マウスでポインティングされた音符に対応する曲データ[me]を指定する。そして、ステップSN3では、曲データ[me]中の発音開始時刻lTimeと同じタイミングのメタ情報として、レジスタstrの歌詞情報をRAM13の楽譜情報エリア(図3参照)に格納して本処理を終える。
(12) Operation of Lyric Input Processing When this processing is executed via the above-described step SM2 (see FIG. 18), the CPU 11 proceeds to step SN1 shown in FIG. 19 and lyrics information input in response to a user operation. (Character data) is stored in the register str. Next, at step SN2, the pointer mEvent stored in the register meorg is set to the pointer me designating the music piece data. Therefore, the pointer me designates music data [me] corresponding to the note pointed with the mouse. In step SN3, the lyrics information in the register str is stored in the score information area (see FIG. 3) of the RAM 13 as meta information at the same timing as the pronunciation start time lTime in the song data [me], and this processing is completed.

(13)小節クオンタイズ処理の動作
次に、図20を参照して小節クオンタイズ処理の動作を説明する。前述した設定処理のステップSH11(図13参照)を介して小節クオンタイズ処理が実行されると、CPU11は図20に図示するステップSP1を介して小節ポイント処理を実行する。そして、ステップSP2を介してクオンタイズ処理を実行して本処理を終える。
(13) Operation of Bar Quantize Processing Next, the operation of bar quantize processing will be described with reference to FIG. When the measure quantize process is executed through step SH11 (see FIG. 13) of the setting process described above, the CPU 11 executes the measure point process through step SP1 shown in FIG. Then, the quantizing process is executed via step SP2 to complete the present process.

(14)小節ポイント処理の動作
上述したステップSP1(図20参照)を介して本処理が実行されると、CPU11は図21に図示するステップSQ1に進み、画面表示されている楽譜上において操作部10のマウスによりポインティングされている位置座標(x,y)を取得する。次いで、ステップSQ2では、小節カウンタをゼロリセットする。続いて、ステップSQ3では、小節カウンタが曲の終わりの小節endに達したか否かを判断する。小節endに達していなければ、判断結果は「NO」になり、ステップSQ4に進む。
(14) Operation of measure point processing When this processing is executed through the above-described step SP1 (see FIG. 20), the CPU 11 proceeds to step SQ1 shown in FIG. 21 and operates on the score displayed on the screen. The position coordinates (x, y) pointed by 10 mice are acquired. Next, in step SQ2, the bar counter is reset to zero. Subsequently, in step SQ3, it is determined whether or not the measure counter has reached the end measure at the end of the song. If the bar end is not reached, the determination result is “NO”, and the flow proceeds to step SQ4.

ステップSQ4では、マウスのポインティング座標(x,y)と、小節カウンタの値で指定される小節の座標(ix,iy)とを比較する。そして、ステップSQ5では、両座標(x,y)、(ix,iy)が一致したか否か、つまり現在の小節カウンタの値で指定される小節の位置がマウスでポインティングされているかどうかを判断する。小節カウンタの値で指定される小節の位置がポインティングされていなければ、判断結果は「NO」になり、ステップSQ6に進み、小節カウンタをインクリメントして歩進させた後、上述のステップSQ3に処理を戻す。   In step SQ4, the pointing coordinate (x, y) of the mouse is compared with the coordinate (ix, iy) of the measure specified by the value of the measure counter. In step SQ5, it is determined whether or not both coordinates (x, y) and (ix, iy) match, that is, whether or not the position of the bar specified by the current bar counter value is pointed by the mouse. To do. If the bar position specified by the bar counter value is not pointed, the determination result is “NO”, the process proceeds to step SQ6, the bar counter is incremented and stepped, and the process proceeds to step SQ3 described above. To return.

以後、マウスでポインティングされた位置座標(x,y)に一致する座標(ix,iy)を有する小節が見つかるまでステップSQ3〜SQ6を繰り返す。そして、マウスでポインティングされた位置座標(x,y)に一致する座標(ix,iy)の小節が見つかると、ステップSQ5の判断結果が「YES」になり、ステップSQ7に進み、該当する小節の小節番号iMeasNoをレジスタiCurMeasにストアして本処理を終える。これにより、画面表示された楽譜上にてマウスでポインティングされた小節の小節番号iMeasNoが指定される。一方、マウスでポインティングされた位置座標(x,y)に一致する座標(ix,iy)を有する小節が見つからないまま、小節カウンタの値が小節endに達した場合には、上記ステップSK3の判断結果が「YES」になり、ステップSQ8に進み、レジスタiCurMeasに小節番号として“−1”をストアして本処理を完了させる。   Thereafter, steps SQ3 to SQ6 are repeated until a bar having coordinates (ix, iy) matching the position coordinates (x, y) pointed by the mouse is found. When a bar with coordinates (ix, iy) matching the position coordinates (x, y) pointed with the mouse is found, the determination result at step SQ5 is “YES”, and the process proceeds to step SQ7. The measure number iMeasNo is stored in the register iCurMeas and the process is terminated. Thereby, the measure number iMeasNo of the measure pointed with the mouse on the score displayed on the screen is designated. On the other hand, when the measure having the coordinate (ix, iy) matching the position coordinate (x, y) pointed by the mouse is not found and the value of the measure counter reaches the measure end, the determination at step SK3 is made. The result is “YES”, the process proceeds to step SQ 8, “−1” is stored as the measure number in the register iCurMeas, and this processing is completed.

(15)クオンタイズ処理の動作
次に、図22を参照してクオンタイズ処理の動作について説明する。上述した小節クオンタイズ処理のステップSP2(図20参照)を介して本処理が実行されると、CPU11は図22に図示するステップSR1に進み、ユーザ操作で指定されるクオンタイズの分解能(例えば、16分音符長、32分音符長および64分音符長のいずれか)をレジスタiQにストアする。次いで、ステップSR2では、上述した小節ポイント処理にてレジスタiCurMeasに格納された小節番号iMeasNoが所定値より大きいか否かでポインティングされた小節のみのクオンタイズか、あるいは曲全体に対するクオンタイズかを判断する。
(15) Quantize Processing Operation Next, the quantization processing operation will be described with reference to FIG. When this process is executed via step SP2 (see FIG. 20) of the measure quantizing process described above, the CPU 11 proceeds to step SR1 shown in FIG. 22, and the quantization resolution specified by the user operation (for example, 16 minutes). Any one of note length, 32nd note length and 64th note length) is stored in the register iQ. Next, in step SR2, it is determined whether the measure is the quantized only for the pointed measure or whether it is quantized for the entire song depending on whether the measure number iMeasNo stored in the register iCurMeas is larger than a predetermined value in the measure point processing described above.

ここで、レジスタiCurMeasに格納された小節番号iMeasNoが所定値より大きい場合、つまりポインティングされた小節に対するクオンタイズ指定であると、判断結果は「YES」になり、ステップSR3に進む。ステップSR3では、レジスタiQに格納されたユーザ指定の分解能を、ポインティングされた小節の分解能を保持するレジスタiBResolution[iResolution]にストアして本処理を終える。これにより、クオンタイズしたい小節をポインティングするだけでその小節の分解能を変更させることが可能になる。   Here, if the bar number iMeasNo stored in the register iCurMeas is larger than a predetermined value, that is, if the quantization is specified for the pointed bar, the determination result is “YES”, and the flow proceeds to step SR3. In step SR3, the user-specified resolution stored in the register iQ is stored in the register iBRResolution [iResolution] holding the resolution of the pointed measure, and the process is terminated. This makes it possible to change the resolution of a measure simply by pointing to the measure to be quantized.

一方、レジスタiCurMeasに格納された小節番号iMeasNoが0より小さい場合、つまり曲全体に対するクオンタイズ指定であると、上記ステップSR2の判断結果は「NO」になり、ステップSR4に進む。ステップSR4では、各小節の分解能を保持するレジスタiBResolution[N](Nは0〜n)の各値が曲全体の現在の分解能iResolutionとが一致するか否かを判断する。そして、一致する場合には、判断結果が「YES」となり、ステップSR5に進み、レジスタiQに格納されたユーザ指定の分解能を、各小節の分解能を保持するレジスタiBResolution[N]のすべてにストアする。次にステップSR6に進み、レジスタiQに格納されたユーザ指定の分解能を、曲全体の現在の分解能iResolutionにストアして本処理を終える。   On the other hand, if the measure number iMeasNo stored in the register iCurMeas is smaller than 0, that is, if the quantization is specified for the entire song, the determination result in step SR2 is “NO”, and the process proceeds to step SR4. In step SR4, it is determined whether or not each value of the register iBRResolution [N] (N is 0 to n) that holds the resolution of each measure matches the current resolution iResolution of the entire song. If they match, the determination result is “YES”, the process proceeds to step SR5, and the user-specified resolution stored in the register iQ is stored in all the registers iBRResolution [N] holding the resolution of each measure. . Next, proceeding to step SR6, the user-specified resolution stored in the register iQ is stored in the current resolution iResolution of the entire tune, and this process is terminated.

これに対し、レジスタiQに格納されたユーザ指定の分解能と、レジスタiOldに格納された現在の分解能iResolutionとが一致しないと、上記ステップSR4の判断結果が「NO」となり、ステップSR7に進む。ステップSR7では、小節カウンタJを初期化する。次いで、ステップSR8〜SR11では、曲終端の小節に達するまで小節カウンタJを歩進させながら、レジスタiResolutionと同じ分解能を有する小節、すなわちを検索し、該当する小節の分解能を保持するレジスタiBResolution[J]にレジスタiQに格納されたユーザ指定の分解能をストアする。つまりSR9で「NO」と判断された小節は曲全体のクオンタイズを決めた後でさらにその小節だけのクオンタイズを変更した小節であるので、一括書き換えの対象からは外すのである。そして、曲終端の小節に達するまで検索し終えると、ステップSR8の判断結果が「YES」となり、ステップSR6に進み、レジスタiQに格納されたユーザ指定の分解能を、曲全体の現在の分解能iResolutionにストアして本処理を終える。   On the other hand, if the user-specified resolution stored in the register iQ does not match the current resolution iResolution stored in the register iOld, the determination result in step SR4 is “NO”, and the process proceeds to step SR7. In step SR7, the bar counter J is initialized. Next, in steps SR8 to SR11, a bar having the same resolution as that of the register iResolution is searched while incrementing the bar counter J until reaching the bar at the end of the song, and a register iBRResolution [J holding the resolution of the corresponding bar is searched. ] Stores the user-specified resolution stored in the register iQ. That is, since the measure determined as “NO” in SR9 is a measure in which the quantize of only the measure is changed after the quantize of the entire song is decided, it is excluded from the batch rewriting target. When the search is completed until the end of the song is reached, the determination result in step SR8 is “YES”, the process proceeds to step SR6, and the user-specified resolution stored in the register iQ is set to the current resolution iResolution of the entire song. Store and finish this process.

(16)保存処理の動作
次に、図23を参照して保存処理の動作について説明する。前述した設定処理のステップSH12(図13参照)を介して本処理が実行されると、CPU11は図23に図示するステップSS1に進み、レジスタlPrevTimeを初期化する。続いて、ステップSS32では、レジスタlPrevTimeに格納される時刻が曲終端endに達したか否かを判断する。曲終端endに達していなければ、判断結果は「NO」になり、ステップSS3に進む。ステップSS3では、レジスタlPrevTimeに格納される時刻に対応したデータ(RAM13の楽譜情報エリアに格納される音符データもしくはメタ情報)の種類を調べる。
(16) Operation of Storage Process Next, the operation of the storage process will be described with reference to FIG. When this process is executed via step SH12 (see FIG. 13) of the setting process described above, the CPU 11 proceeds to step SS1 shown in FIG. 23 and initializes the register lPrevTime. Subsequently, in step SS32, it is determined whether or not the time stored in the register lPrevTime has reached the song end end. If the song end end has not been reached, the determination result is “NO”, and the process proceeds to step SS3. In step SS3, the type of data (note data or meta information stored in the score information area of the RAM 13) corresponding to the time stored in the register lPrevTime is checked.

次いで、ステップSS4では、レジスタlPrevTimeに格納される時刻に対応したデータ(音符データもしくはメタ情報)の発音開始時刻lTimeを、レジスタlCurTimeにストアする。そして、ステップSS5では、レジスタlCurTimeの時刻からレジスタlPrevTimeの時刻を減算してステップタイムlStepTimeを算出する。次いで、ステップSS6では、算出したステップタイムlStepTimeを保存する。次に、ステップSS7では、上記ステップSS3にて調べたデータ種が音符データであるか否かを判断する。   Next, in step SS4, the sound generation start time lTime of the data (note data or meta information) corresponding to the time stored in the register lPrevTime is stored in the register lCurTime. In step SS5, the time of the register lPrevTime is subtracted from the time of the register lCurTime to calculate the step time lStepTime. Next, in step SS6, the calculated step time lStepTime is stored. Next, in step SS7, it is determined whether or not the data type examined in step SS3 is note data.

音符データであれば、判断結果は「YES」になり、ステップSS8に進み、その音符データを保存する。一方、メタ情報ならば、上記ステップSS7の判断結果が「NO」になり、ステップSS9に進み、そのメタ情報を保存する。そして、ステップSS10に進み、レジスタlCurTimeの値を、レジスタlPrevTimeに更新した後、上記ステップSS2に処理を戻す。以後、レジスタlPrevTimeの時刻が曲終端endに達するまで上記ステップSS2〜SS10を繰り返すことによって、音符データおよびメタ情報をそれぞれ時刻順に保存する一方、各データ間隔に相当するステップタイムlStepTimeも保存するようになっている。こうして、レジスタlPrevTimeの時刻が曲終端endに達すると、ステップSS2の判断結果が「YES」になり、本処理を終える。   If it is note data, the determination result is “YES”, and the process proceeds to step SS8 to store the note data. On the other hand, if it is meta information, the determination result in step SS7 is “NO”, and the process proceeds to step SS9 to store the meta information. In step SS10, the value of the register lCurTime is updated to the register lPrevTime, and the process returns to step SS2. Thereafter, by repeating the above steps SS2 to SS10 until the time of the register lPrevTime reaches the end of music end, the note data and the meta information are stored in order of time, while the step time lStepTime corresponding to each data interval is also stored. It has become. Thus, when the time of the register lPrevTime reaches the song end end, the determination result in step SS2 is “YES”, and this processing is completed.

以上のように、本実施の形態では、曲を構成する各音を表す曲データを楽譜として表示する楽譜情報に変換して画面表示する楽譜表示装置において、表示された楽譜中で指定された小節をユーザ指定の分解能にクオンタイズするので、小節単位でクオンタイズを行ってユーザ好みの分解能で楽譜を表示させることができる。また、表示された楽譜中で指定された音符に対応して押鍵操作する指を表す運指情報を入力したり、歌詞を入力するので、音符以外の運指や歌詞も楽譜に表示することができるようになっている。   As described above, in the present embodiment, in the score display device that converts the song data representing each sound constituting the song into score information to be displayed as a score and displays it on the screen, the measure specified in the displayed score is displayed. Is quantized to the resolution specified by the user, so that the score can be displayed at the resolution desired by the user by quantizing in units of measures. Also, because fingering information that represents the finger to be pressed is entered corresponding to the note specified in the displayed score, and lyrics are entered, fingering and lyrics other than notes are also displayed on the score. Can be done.

本発明による実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of embodiment by this invention. 曲データの構成を示す図である。It is a figure which shows the structure of music data. 音符データおよびメタ情報の構成を示す図である。It is a figure which shows the structure of note data and meta information. メインルーチンの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a main routine. 楽譜情報生成処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a score information generation process. 個別情報生成処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of an individual information generation process. 和音処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a chord process. 連桁グループ処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a consecutive beam group process. 連桁処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a consecutive digit process. 連桁処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a consecutive digit process. 楽譜表示処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a score display process. 楽譜表示処理によって画面表示される楽譜の一例を示す図である。It is a figure which shows an example of the score displayed on a screen by a score display process. 設定処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a setting process. メニュー画面の一例を示す図である。It is a figure which shows an example of a menu screen. 運指情報入力処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of fingering information input processing. 音符ポイント処理の動作を説明するための楽譜の一例である。It is an example of the score for demonstrating the operation | movement of a note point process. 運指入力処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a fingering input process. 歌詞情報入力処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a lyric information input process. 歌詞入力処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a lyrics input process. 小節クオンタイズ処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of measure measure processing. 小節ポイント処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of measure point processing. クオンタイズ処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a quantization process. 保存処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a preservation | save process.

符号の説明Explanation of symbols

10 操作部
11 CPU
12 ROM
13 RAM
14 音源
15 サウンドシステム
16 表示部
17 インタフェース部
10 Operation unit 11 CPU
12 ROM
13 RAM
14 sound source 15 sound system 16 display unit 17 interface unit

Claims (10)

曲を構成する各音を表す曲データを記憶する曲データ記憶手段と、
前記曲データ記憶手段に記憶される曲データを楽譜として表示する楽譜情報に変換して画面表示する楽譜表示手段と、
前記楽譜表示手段により画面表示される楽譜中の小節を指定する小節指定手段と、
前記小節指定手段により指定された楽譜中の小節をユーザ指定の分解能にクオンタイズするクオンタイズ手段と
を具備することを特徴とする楽譜表示装置。
Song data storage means for storing song data representing each sound constituting the song;
Musical score display means for converting the musical piece data stored in the musical piece data storage means into musical score information to be displayed as a musical score and displaying it on a screen;
Measure specifying means for specifying a measure in a score displayed on the screen by the score display means;
Quantizing means for quantizing a measure in the score designated by the measure designating means to a resolution designated by the user.
前記クオンタイズ手段は、前記小節指定手段により楽譜中で指定された小節の分解能がユーザ指定の分解能と異なる場合、曲を構成する全ての小節の分解能をユーザ指定の分解能にクオンタイズすることを特徴とする請求項1記載の楽譜表示装置。 The quantizing means quantizes the resolution of all the bars constituting the music to the user-specified resolution when the resolution of the bars specified in the score by the bar specifying means is different from the resolution specified by the user. The musical score display device according to claim 1. 前記クオンタイズ手段は、前記小節指定手段により楽譜中で指定された小節の分解能がユーザ指定の分解能と一致する場合、その楽譜中で指定された小節の分解能とは異なる分解能を有する小節をユーザ指定の分解能にクオンタイズすることを特徴とする請求項1記載の楽譜表示装置。 If the resolution of the measure specified in the score by the measure specifying means matches the resolution specified by the user, the quantizing means specifies a measure having a resolution different from the resolution of the measure specified in the score. 2. The musical score display apparatus according to claim 1, wherein the musical score display apparatus is quantized to a resolution. 曲を構成する各音を表す曲データを記憶する曲データ記憶手段と、
前記曲データ記憶手段に記憶される曲データを楽譜として表示する楽譜情報に変換して画面表示する楽譜表示手段と、
前記楽譜表示手段により画面表示される楽譜中の音符を指定する音符指定手段と、
前記音符指定手段により指定された楽譜中の音符に対応して押鍵操作する指を表す運指情報を入力する運指入力手段と、
前記運指入力手段により入力された運指情報を前記楽譜情報と共に保存する保存手段と
を具備することを特徴とする楽譜表示装置。
Song data storage means for storing song data representing each sound constituting the song;
Musical score display means for converting the musical piece data stored in the musical piece data storage means into musical score information to be displayed as a musical score and displaying it on a screen;
Note designation means for designating notes in the score displayed on the screen by the score display means;
Fingering input means for inputting fingering information representing a finger to perform a key pressing operation corresponding to a note in the score designated by the note designation means;
A score display apparatus comprising: a storage unit that stores fingering information input by the fingering input unit together with the score information.
曲を構成する各音を表す曲データを記憶する曲データ記憶手段と、
前記曲データ記憶手段に記憶される曲データを楽譜として表示する楽譜情報に変換して画面表示する楽譜表示手段と、
前記楽譜表示手段により画面表示される楽譜中の音符を指定する音符指定手段と、
前記音符指定手段により指定された楽譜中の音符に対応して歌詞情報を入力する歌詞入力手段と、
前記歌詞入力手段により入力された歌詞情報を前記楽譜情報と共に保存する保存手段と
を具備することを特徴とする楽譜表示装置。
Song data storage means for storing song data representing each sound constituting the song;
Musical score display means for converting the musical piece data stored in the musical piece data storage means into musical score information to be displayed as a musical score and displaying it on a screen;
Note designation means for designating notes in the score displayed on the screen by the score display means;
Lyrics input means for inputting lyrics information corresponding to the notes in the score designated by the note designation means;
A musical score display device comprising: storage means for storing the lyrics information input by the lyrics input means together with the musical score information.
曲を構成する各音を表す曲データを楽譜として表示する楽譜情報に変換して画面表示する楽譜表示処理と、
前記楽譜表示処理により画面表示される楽譜中の小節を指定する小節指定処理と、
前記小節指定処理にて楽譜中で指定された小節をユーザ指定の分解能にクオンタイズするクオンタイズ処理と
をコンピュータで実行させることを特徴とする楽譜表示プログラム。
A musical score display process for converting music data representing each sound constituting the music into musical score information to be displayed as a musical score and displaying it on the screen;
A measure designating process for designating a measure in the score displayed on the screen by the score display process;
A musical score display program for causing a computer to execute a quantizing process for quantizing a bar specified in a musical score by the bar specifying process to a resolution specified by a user.
前記クオンタイズ処理は、前記小節指定処理により楽譜中で指定された小節の分解能がユーザ指定の分解能と異なる場合、曲を構成する全ての小節の分解能をユーザ指定の分解能にクオンタイズすることを特徴とする請求項6記載の楽譜表示プログラム。 In the quantizing process, when the resolution of the bar specified in the score by the bar specifying process is different from the resolution specified by the user, the resolution of all the bars constituting the music is quantized to the user-specified resolution. The musical score display program according to claim 6. 前記クオンタイズ処理は、前記小節指定処理により楽譜中で指定された小節の分解能がユーザ指定の分解能と一致する場合、その楽譜中で指定された小節の分解能とは異なる分解能を有する小節をユーザ指定の分解能にクオンタイズすることを特徴とする請求項1記載の楽譜表示プログラム。 In the quantizing process, when the resolution of the measure specified in the score by the measure specifying process matches the resolution specified by the user, a measure having a resolution different from the resolution of the measure specified in the score is specified by the user. 2. The musical score display program according to claim 1, wherein the display is quantized to a resolution. 曲を構成する各音を表す曲データを楽譜として表示する楽譜情報に変換して画面表示する楽譜表示処理と、
前記楽譜表示処理により画面表示される楽譜中の音符を指定する音符指定処理と、
前記音符指定処理により楽譜中で指定された音符に対応して押鍵操作する指を表す運指情報を入力する運指入力処理と、
前記運指入力処理により入力された運指情報を前記楽譜情報と共に保存する保存処理と
をコンピュータで実行させることを特徴とする楽譜表示プログラム。
A musical score display process for converting music data representing each sound constituting the music into musical score information to be displayed as a musical score and displaying it on the screen;
A note designation process for designating a note in a score displayed on the screen by the score display process;
Fingering input processing for inputting fingering information representing a finger to perform a key pressing operation corresponding to a note specified in the score by the note specifying processing;
A score display program that causes a computer to execute a storing process for storing fingering information input by the fingering input process together with the score information.
曲を構成する各音を表す曲データを楽譜として表示する楽譜情報に変換して画面表示する楽譜表示処理と、
前記楽譜表示処理により画面表示される楽譜中の音符を指定する音符指定処理と、
前記音符指定処理により楽譜中で指定された音符に対応して歌詞情報を入力する歌詞入力処理と、
前記歌詞入力処理により入力された歌詞情報を前記楽譜情報と共に保存する保存処理と
をコンピュータで実行させることを特徴とする楽譜表示プログラム。
A musical score display process for converting music data representing each sound constituting the music into musical score information to be displayed as a musical score and displaying it on the screen;
A note designation process for designating a note in a score displayed on the screen by the score display process;
Lyrics input processing for inputting lyrics information corresponding to the notes specified in the score by the note specification processing;
A musical score display program for causing a computer to execute storage processing for storing the lyrics information input by the lyrics input processing together with the musical score information.
JP2005375951A 2005-12-27 2005-12-27 Musical score display device and musical score display program Pending JP2007178640A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005375951A JP2007178640A (en) 2005-12-27 2005-12-27 Musical score display device and musical score display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005375951A JP2007178640A (en) 2005-12-27 2005-12-27 Musical score display device and musical score display program

Publications (1)

Publication Number Publication Date
JP2007178640A true JP2007178640A (en) 2007-07-12

Family

ID=38303902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005375951A Pending JP2007178640A (en) 2005-12-27 2005-12-27 Musical score display device and musical score display program

Country Status (1)

Country Link
JP (1) JP2007178640A (en)

Similar Documents

Publication Publication Date Title
JP4650182B2 (en) Automatic accompaniment apparatus and program
JP6175812B2 (en) Musical sound information processing apparatus and program
JP3567123B2 (en) Singing scoring system using lyrics characters
JP3684774B2 (en) Performance instruction device and medium recording program
JP2007178640A (en) Musical score display device and musical score display program
JP3613935B2 (en) Performance practice device and medium recording program
JP2007086571A (en) Music information display device and program
JP4547719B2 (en) Music score display device and music score display program
JP2007225916A (en) Authoring apparatus, authoring method and program
JP2007316666A (en) Musical score display device and musical score display program
JP4301125B2 (en) Fingering information generation device and program
JP4534926B2 (en) Image display apparatus and program
JP2006259401A (en) Karaoke machine
JP6252826B2 (en) Performance practice device, score display device, electronic musical instrument, performance practice method, score display method, and program
JP2014191331A (en) Music instrument sound output device and music instrument sound output program
JP5163928B2 (en) Performance information correction apparatus and performance information correction program
JP2007171672A (en) Musical score display device and musical score display program
JP4508196B2 (en) Song editing apparatus and song editing program
JP2008009448A (en) Musical score display device and musical score display program
JP4626851B2 (en) Song data editing device and song data editing program
JP5413484B2 (en) Performance information correction apparatus and performance information correction program
JP4816930B2 (en) Performance support information generation apparatus and performance support information generation program
JP2000259154A (en) Code judging device
JP5029770B2 (en) Performance support information generation apparatus and performance support information generation program
JP2016057389A (en) Chord determination device and chord determination program