JP2013228457A - Musical score performance device and musical score performance program - Google Patents

Musical score performance device and musical score performance program Download PDF

Info

Publication number
JP2013228457A
JP2013228457A JP2012098803A JP2012098803A JP2013228457A JP 2013228457 A JP2013228457 A JP 2013228457A JP 2012098803 A JP2012098803 A JP 2012098803A JP 2012098803 A JP2012098803 A JP 2012098803A JP 2013228457 A JP2013228457 A JP 2013228457A
Authority
JP
Japan
Prior art keywords
note
notes
time
performance
grouped
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012098803A
Other languages
Japanese (ja)
Other versions
JP5988672B2 (en
Inventor
Akihiro Fujita
明裕 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP2012098803A priority Critical patent/JP5988672B2/en
Priority to US13/868,008 priority patent/US8704067B2/en
Publication of JP2013228457A publication Critical patent/JP2013228457A/en
Application granted granted Critical
Publication of JP5988672B2 publication Critical patent/JP5988672B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To enable performance information including correct time values to be created even if a group of notes is not described in a musical score.SOLUTION: A musical score performance device comprises: bar specified time calculation means for calculating a bar specified time from a rhythm of music; bar performance time calculation means for calculating a bar performance time from pronunciation timing and time values of notes and rests in a bar; comparison means for comparing the bar specified time and the bar performance time; and time value correction means for correcting the pronunciation timing and time values of the notes and rests, on the presumption that there is a group of notes in the bar if the bar specified time does not correspond with the bar performance time. The time value correction means includes: bar note arrangement recording means for storing an arrangement of notes in the bar; means for grouping the notes in the bar for each beat; and note grouping means for performing a note grouping process of changing time values of the grouped notes on the basis of a relation between a performance time of the grouped notes and a reference time for one beat.

Description

本発明は、電子的に取り込まれた楽譜の音楽情報から演奏を行う楽譜演奏技術に関し、特に、楽譜に記述された音符形状から音価を決定するに際して、連符記号が記述されない場合でも正しい音価が求められる楽譜演奏装置及び楽譜演奏プログラムに関する。   The present invention relates to a musical score performance technique for performing music performance based on electronic musical score information. In particular, when determining a note value from a note shape described in a musical score, even if a tuplet symbol is not described, the correct sound The present invention relates to a musical score performance apparatus and a musical score performance program for which a price is required.

楽譜演奏装置は、PDFの楽譜ファイルや、スキャナで取り込まれた楽譜から抽出した音符の描画位置、発音開始時間、持続時間、小節線の描画位置などの楽譜情報から演奏情報を作成し、この演奏情報により自動的に演奏を行うものである。楽譜から楽譜情報を抽出して演奏情報を作成する手順は、例えば特許文献1に記載されている。
楽譜における3連符、5連符などの音価(音符の時間長)は、実際に記述されている音符で示される時間長と異なる。例えば図17の第1小節の矢印部分に示されるように、3連符が8分音符で記述されているような場合、その時間長は8分音符の2/3となる。
The musical score performance apparatus creates performance information from musical score information such as a drawing position of a note extracted from a musical score file of a PDF or a score captured by a scanner, a pronunciation start time, a duration, and a drawing position of a bar line. A performance is automatically performed based on information. A procedure for extracting musical score information from a musical score and creating performance information is described in Patent Document 1, for example.
Note values such as triplets and five-tuplets (time lengths of musical notes) in the score are different from the time lengths indicated by the actually described notes. For example, as shown in the arrow part of the first measure in FIG. 17, when a triplet is described by an eighth note, the time length is 2/3 of an eighth note.

特開平7−129159号公報JP 7-129159 A

楽譜から演奏情報を生成するに際して、記述された音符形状から音価を決定する場合、図17の第1小節の矢印部分のように3連符を示す連符記号(連符を示す数)がある場合は、その記号(数字)を認識できれば正しい音価を求めることができる。しかしながら、連符記号は図17の第3小節の矢印部分のように省略されることが多く、この場合は楽譜を読み取って演奏情報を作成するに際して、通常の8分音符として音価を求めてしまうことになる。
また、連符記号の記載があったとしても、楽譜には指番号などが記載されている場合が多く、楽譜から演奏情報を生成するに際して、指番号と連符記号(連符を示す数)とを区別する必要があり、そのための読取技術が必要であった。
When generating the performance information from the score, when the note value is determined from the described note shape, a tuplet symbol (number indicating a tuplet) indicating a triplet as shown by the arrow in the first bar of FIG. In some cases, if the symbol (number) can be recognized, the correct tone value can be obtained. However, tuplet symbols are often omitted as shown by the arrows in the third bar of FIG. 17. In this case, when reading the score and creating performance information, the note value is obtained as a normal eighth note. Will end up.
Even if tuplet symbols are described, finger numbers and the like are often described in the score, and finger numbers and tuplet symbols (numbers indicating tuplets) are used when generating performance information from the score. And a reading technique for that purpose is necessary.

本発明は上記事情に鑑みて提案されたもので、楽譜において連符記号が記述されない場合であっても、正しい音価を有する演奏情報を作成して自動演奏を可能とした楽譜演奏装置及び楽譜演奏プログラムを提供することを目的としている。   The present invention has been proposed in view of the above circumstances, and even if a tuplet symbol is not described in a musical score, a musical score performance apparatus and a musical score that can automatically perform performance by creating performance information having a correct note value. The purpose is to provide a performance program.

上記目的を達成するため本発明の楽譜演奏装置(請求項1)は、楽曲の拍子から小節規定時間を計算する小節規定時間計算手段と、小節内の音符、休符の発音タイミング、音価(GateTime)から小節演奏時間を計算する小節演奏時間計算手段と、計算された前記小節規定時間と小節演奏時間を比較する比較手段と、前記小節規定時間と小節演奏時間が一致しない場合に小節内に連符が存在すると推定し、音符、休符の発音タイミング、音価を修正する音価修正手段とを備え、前記音価修正手段は、小節内の音符配列を記憶する小節音符配列記録手段と、小節内の音符を拍毎にグルーピングするグルーピング手段と、グルーピングされた音符の演奏時間と前記音符配列から算出される1拍分の基準時間とが一致しない場合に、グルーピングされた音符の音価を変更する連符化処理を行う連符化処理手段とを備えたことを特徴としている。   In order to achieve the above object, a musical score playing apparatus according to the present invention (claim 1) is provided with a bar-defined time calculation means for calculating a bar-specified time from the time signature of a musical piece, a note in a bar, a pronunciation timing of a rest, a note value ( A measure performance time calculating means for calculating a measure performance time from GateTime), a comparison means for comparing the calculated measure specified time with the measure performance time, and when the measure specified time does not match the measure performance time. A note value correcting unit that corrects a note, a rest sound generation timing, and a note value; and the note value correcting unit stores a note arrangement in a measure; Grouping means for grouping notes within a measure for each beat, and when the performance time of the grouped notes does not match the reference time for one beat calculated from the note arrangement It is characterized in that a communicating hatch processing means for performing communication hatching process of changing the note value marks.

請求項2は、請求項1の楽譜演奏装置において、前記連符化処理手段は、グルーピングされた音符の演奏時間が1拍分の基準時間より長い場合でグループ内に前記基準時間より長い音符がない場合、又は、グルーピングされた音符に前記基準時間より長い音符がある場合で演奏時間が前記基準時間の2倍を超える場合に、グルーピングされた音符の音価を変更して連符化処理を行うことを特徴としている。   According to a second aspect of the present invention, there is provided the musical score playing device according to the first aspect, wherein the tuplet processing means includes a note that is longer than the reference time for one beat and a note longer than the reference time is included in the group. If there is no grouped note or if the grouped note has a note longer than the reference time and the playing time exceeds twice the reference time, the note value of the grouped note is changed and tuplet processing is performed. It is characterized by doing.

請求項3は、請求項1の楽譜演奏装置において、前記連符化処理手段は、グルーピングされた音符の演奏時間が1拍分の基準時間より短い場合でグループ内の16分音符数が3つである場合、32分音符が5つ又は7つの場合に、グルーピングされた音符の音価を変更して連符化処理を行うことを特徴としている。   According to a third aspect of the present invention, in the musical score performance device of the first aspect, the tuplet processing means has three sixteenth notes in the group when the performance time of the grouped notes is shorter than the reference time of one beat. In the case where the number of half-notes is five or seven, tuplet processing is performed by changing the note value of the grouped notes.

請求項4は、請求項2又は請求項3の楽譜演奏装置において、前記連符化処理手段による連符化処理は、前記グルーピングされた音符の音価の総時間長に対して、グルーピングされた音符数に応じて予め設定された数を乗じて算出した時間長に音符数の合計音価を変更することを特徴としている。   According to a fourth aspect of the present invention, in the musical score performance device according to the second or third aspect, the tuplet processing by the tuplet processing means is grouped with respect to the total time length of the note values of the grouped notes. The total note value of the number of notes is changed to a time length calculated by multiplying a preset number according to the number of notes.

請求項5は、請求項4の楽譜演奏装置において、グルーピングされた音符数が3である場合はグルーピングされた音符の音価の総時間長を2倍した時間長に、グルーピングされた音符数が5〜7である場合はグルーピングされた音符の音価の総時間長を4倍した時間長に、グルーピングされた音符数が9〜15である場合はグルーピングされた音符の音価の総時間長を8倍した時間長に、グルーピングされた音符数が17〜31である場合はグルーピングされた音符の音価の総時間長を16倍した時間長に、音符数の合計音価をそれぞれ変更することを特徴としている。   According to a fifth aspect of the present invention, in the musical score playing apparatus according to the fourth aspect, when the number of grouped notes is 3, the number of grouped notes is set to a time length that is twice the total time length of the note values of the grouped notes. When the number of grouped notes is 9-15, the total time length of the note values of the grouped notes is 4 times the total time length of the note values of the grouped notes when the number is 5-7. If the number of grouped notes is 17 to 31, the total note value of the number of notes is changed to a time length obtained by multiplying the total time length of the note values of the grouped notes by 16 times. It is characterized by that.

請求項6の楽譜演奏プログラムは、下記の各ステップをコンピュータに実行させることを特徴としている。
楽曲の拍子から小節規定時間を計算する小節規定時間計算ステップ。
小節内の音符、休符の発音タイミング、音価(GateTime)から小節演奏時間を計算する小節演奏時間計算ステップ。
計算された前記小節規定時間と小節演奏時間を比較する比較ステップ。
前記小節規定時間と小節演奏時間が一致しない場合に小節内に連符が存在すると推定し、小節内の音符配列を記憶し、小節内の音符を拍毎にグルーピングし、グルーピングされた音符の演奏時間と前記音符配列から算出される1拍分の基準時間とが一致しない場合に、グルーピングされた音符の音価を変更する連符化処理により、音符、休符の発音タイミング、音価を修正する音価修正ステップ。
According to a sixth aspect of the present invention, there is provided a musical score performance program which causes a computer to execute the following steps.
A bar-specified time calculation step for calculating a bar-specified time from the time signature of the music.
A bar performance time calculation step that calculates the bar performance time from the notes in the bar, the sounding timing of rests, and the note value (GateTime).
A comparison step of comparing the calculated bar specified time and the bar performance time.
If the specified time of the measure does not match the measure performance time, it is assumed that there are tuplets in the measure, the note arrangement in the measure is stored, the notes in the measure are grouped by beat, and the grouped notes are played. When the time and the reference time for one beat calculated from the note arrangement do not match, tally processing that changes the note value of the grouped notes, corrects the sound generation timing and note value of notes and rests Sound value correction step to be performed.

請求項7は、請求項6の楽譜演奏プログラムにおいて、前記連符化処理は、グルーピングされた音符の演奏時間が1拍分の基準時間より長い場合でグループ内に前記基準時間より長い音符がない場合、又は、グルーピングされた音符に前記基準時間より長い音符がある場合で演奏時間が前記基準時間の2倍を超える場合に、グルーピングされた音符の音価を変更する処理を含むことを特徴としている。   According to a seventh aspect of the present invention, in the musical score performance program according to the sixth aspect, in the tuplet forming process, when the performance time of the grouped notes is longer than the reference time for one beat, there is no note longer than the reference time in the group. Or when the grouped note has a note longer than the reference time and the performance time exceeds twice the reference time, the processing includes changing the note value of the grouped note. Yes.

請求項8は、請求項6の楽譜演奏プログラムにおいて、前記連符化処理は、グルーピングされた音符の演奏時間が1拍分の基準時間より短い場合でグループ内の16分音符数が3つである場合、32分音符が5つ又は7つの場合に、グルーピングされた音符の音価を変更する処理を含むことを特徴としている。   According to an eighth aspect of the present invention, in the musical score performance program according to the sixth aspect, the tuplet processing is performed when the performance time of the grouped notes is shorter than the reference time for one beat and the number of sixteenth notes in the group is three. In some cases, when the number of 32nd notes is five or seven, it includes a process of changing the note value of the grouped notes.

請求項9は、請求項7又は請求項8の楽譜演奏プログラムにおいて、前記連符化処理は、前記グルーピングされた音符の音価の総時間長に対して、グルーピングされた音符数に応じて予め設定された数を乗じて算出した時間長に音符数の合計音価を変更することを特徴としている。   According to a ninth aspect of the present invention, in the musical score performance program according to the seventh or eighth aspect, the tuplet processing is performed in advance according to the number of grouped notes with respect to the total time length of the note values of the grouped notes. The total note value of the number of notes is changed to the time length calculated by multiplying the set number.

請求項10は、請求項9の楽譜演奏プログラムにおいて、グルーピングされた音符数が3である場合はグルーピングされた音符の音価の総時間長を2倍した時間長に、グルーピングされた音符数が5〜7である場合はグルーピングされた音符の音価の総時間長を4倍した時間長に、グルーピングされた音符数が9〜15である場合はグルーピングされた音符の音価の総時間長を8倍した時間長に、グルーピングされた音符数が17〜31である場合はグルーピングされた音符の音価の総時間長を16倍した時間長に、音符数の合計音価をそれぞれ変更することを特徴としている。   According to a tenth aspect of the present invention, in the musical score performance program according to the ninth aspect, when the number of grouped notes is 3, the number of grouped notes is set to a time length that is twice the total time length of the note values of the grouped notes. When the number of grouped notes is 9-15, the total time length of the note values of the grouped notes is 4 times the total time length of the note values of the grouped notes when the number is 5-7. If the number of grouped notes is 17 to 31, the total note value of the number of notes is changed to a time length obtained by multiplying the total time length of the note values of the grouped notes by 16 times. It is characterized by that.

本発明の楽譜演奏装置及び楽譜演奏プログラムによれば、楽譜において連符記号が記述されない場合であっても、小節規定時間と小節演奏時間が一致しない場合に小節内に連符部分を推定し、音符、休符の発音タイミング、音価を修正する連符化処理を行うことで、正しい音価を有する演奏情報を作成することができる。
連符化処理は、グルーピングされた音符の演奏時間が1拍分の基準時間より長い場合でグループ内に前記基準時間より長い音符がない場合、グルーピングされた音符に前記基準時間より長い音符がある場合で演奏時間が前記基準時間の2倍を超える場合、又は、グルーピングされた音符の演奏時間が1拍分の基準時間より短い場合でグループ内の音符数が3である場合に、それぞれグルーピングされた音符の音価を変更することで行われる。
According to the musical score performance apparatus and the musical score performance program of the present invention, even if the tuplet symbol is not described in the score, the tuplet portion is estimated in the measure when the measure specified time and the measure performance time do not match, Performing tuplet processing for correcting the sound generation timing and note value of notes and rests makes it possible to create performance information having correct note values.
In the tuplet processing, when the performance time of the grouped notes is longer than the reference time for one beat and there is no note longer than the reference time in the group, the grouped notes have notes longer than the reference time. If the performance time exceeds twice the reference time, or if the performance time of the grouped notes is shorter than the reference time for one beat and the number of notes in the group is 3, grouping is performed respectively. This is done by changing the note value.

本発明の実施形態に係る楽譜演奏装置が組み込まれた自動演奏装置の機能を示すブロック図である。It is a block diagram which shows the function of the automatic performance apparatus incorporating the musical score performance apparatus which concerns on embodiment of this invention. 自動演奏装置のハードウエア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of an automatic performance apparatus. 楽譜情報記憶手段が記憶する情報の詳細を説明するモデル図である。It is a model figure explaining the detail of the information which a musical score information storage means memorize | stores. 演奏情報作成手段の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of a performance information preparation means. 演奏情報作成手段による演奏情報の作成手順を示すフローチャート図である。It is a flowchart figure which shows the production procedure of the performance information by a performance information creation means. 小節情報配列の一例を示すモデル図である。It is a model figure which shows an example of a bar information arrangement | sequence. 楽譜例である。It is a score example. 図7の楽譜例の各音符から得た演奏情報を示す表である。It is a table | surface which shows the performance information obtained from each note of the score example of FIG. 楽譜から小節演奏時間を算出する場合の手順を示すフローチャート図である。It is a flowchart figure which shows the procedure in the case of calculating measure performance time from a score. イベント種類の一例を示すモデル図である。It is a model figure which shows an example of an event kind. 連符推定を行う場合の全体の流れを示すフローチャート図である。It is a flowchart figure which shows the whole flow in the case of performing tuplet estimation. 連符推定を行う場合の詳細手順を示すフローチャート図である。It is a flowchart figure which shows the detailed procedure in the case of performing tuplet estimation. 楽譜例である。This is a sample score. 楽譜例の各音符に対して連符推定処理を行った場合の演奏情報を示す表である。It is a table | surface which shows the performance information at the time of performing a tuplet estimation process with respect to each note of a score example. 楽譜例である。This is a sample score. 図13の楽譜例に対して正しい連符記号が表示された楽譜例である。14 is a musical score example in which correct tuplet symbols are displayed with respect to the musical score example of FIG. 13. 楽譜例である。It is a score example.

以下、図面を参照しながら本発明の楽譜演奏装置について説明する。
図1は、コンピュータ上で動作し本発明の楽譜演奏装置(楽譜演奏プログラム)が組み込まれた自動演奏装置のブロック図であり、楽譜をスキャンした楽譜ファイルやPDF楽譜ファイルを記憶する楽譜ファイル記録手段1と、楽譜ファイルを認識して楽譜情報を生成する楽譜情報生成手段2と、生成された楽譜情報を記憶する楽譜情報記録手段3と、楽譜情報から演奏情報を作成する演奏情報作成手段4と、生成された演奏情報を記憶する演奏情報記録手段5と、演奏情報を順次読み出し実際に音楽を演奏する楽音演奏手段6と、楽譜ファイルや楽譜情報を表示する楽譜表示手段7を備えて構成されている。
本発明の特徴的な構成は、演奏情報作成手段4において、楽譜情報から演奏情報を作成するに際し、連符の推定を行って正しい音価を求めるものであり、そのために必要な連符推定プログラムは演奏情報作成手段4の一部として機能する。
Hereinafter, the musical score playing apparatus of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram of an automatic performance apparatus that operates on a computer and incorporates a score performance apparatus (score performance program) of the present invention, and a score file recording means for storing a score file obtained by scanning a score and a PDF score file. 1, a musical score information generating means 2 for recognizing a musical score file and generating musical score information, a musical score information recording means 3 for storing the generated musical score information, a performance information generating means 4 for generating performance information from the musical score information, , A performance information recording means 5 for storing the generated performance information, a music performance means 6 for sequentially reading the performance information and actually playing the music, and a score display means 7 for displaying a score file and score information. ing.
The characteristic configuration of the present invention is that when the performance information creating means 4 creates performance information from musical score information, a tuplet is estimated to obtain a correct note value, and a tuplet estimation program necessary for that purpose is obtained. Functions as part of the performance information creation means 4.

自動演奏装置のハードウエアは、パーソナルコンピュータ等の汎用情報処理装置によって実現することができる。図2は、コンピュータ上に構築された自動演奏装置のハードウエア構成を示すブロック図であり、バス10に対して、ディスプレイ11、マウス12、キーボード13、ROM14、RAM15、CPU16、HDD17、ディスクドライブ18、MIDIインターフェイス19、オーディオインターフェイス20、ネットワークインターフェイス21を接続して構成されている。   The hardware of the automatic performance device can be realized by a general-purpose information processing device such as a personal computer. FIG. 2 is a block diagram showing a hardware configuration of an automatic performance device constructed on a computer. A display 11, a mouse 12, a keyboard 13, a ROM 14, a RAM 15, a CPU 16, an HDD 17, and a disk drive 18 are connected to the bus 10. , A MIDI interface 19, an audio interface 20, and a network interface 21 are connected to each other.

コンピュータのHDD17には、MIDIインターフェイス19、オーディオインターフェイス20若しくはネットワークインターフェイス21を介して楽譜ファイルを取り込んで演奏情報を作成し自動演奏を行うための楽譜演奏プログラムが、ディスクドライブ18に装着された記録媒体からインストールされ、若しくはインターネットを介して所定のURLよりダウンロードされている。
CPU16は、上記の手順によりインストール又はダウンロードされた所定の制御プログラム(楽譜演奏プログラム)に従って各種処理(各ステップ)を実行し、楽譜演奏装置全体を制御するものであり、楽譜ファイル記憶手段1、楽譜情報生成手段2、楽譜情報記憶手段3を要部機能として備えることで、取り込んだ楽譜情報を電子情報として記憶し、記憶した情報を楽譜表示手段7に表示可能とするとともに、演奏情報作成手段4、演奏情報記憶手段5、楽音演奏手段6を備えることで、楽譜情報に応じて生成した演奏情報により楽音を自動的に演奏可能としている。
RAM15は、CPU16での処理に使用される情報を一時記憶するものである。
The HDD 17 of the computer has a recording medium in which a musical score performance program for taking musical score files to create performance information and performing an automatic performance through the MIDI interface 19, the audio interface 20 or the network interface 21 is mounted on the disk drive 18. Or downloaded from a predetermined URL via the Internet.
The CPU 16 executes various processes (each step) in accordance with a predetermined control program (score performance program) installed or downloaded by the above procedure, and controls the overall score performance apparatus. The score file storage means 1, the score By providing the information generating means 2 and the score information storage means 3 as main functions, the captured score information is stored as electronic information, and the stored information can be displayed on the score display means 7 and the performance information creation means 4 By providing the performance information storage means 5 and the musical sound performance means 6, the musical sound can be automatically played by the performance information generated according to the musical score information.
The RAM 15 temporarily stores information used for processing by the CPU 16.

楽譜ファイル記憶手段1は、RAM15及びHDD17で構成されている。楽譜ファイルは、上述したようにネットワークインターフェイス21等から取り込んでもよいし、コンピュータに対して別途イメージスキャナを接続して取り込むようしてもよい。
楽譜情報生成手段2は、HDD17に記憶されたプログラムとそれを実行するCPU16と、作業記憶領域として使用されるRAM15などで構成されている。
楽譜情報記憶手段3は、RAM15及びHDD17で構成される。
演奏情報作成手段4は、HDD17に記憶されたプログラムと、それを実行するCPU16と、作業記憶領域として使用されるRAM15などで構成される。
演奏情報記憶手段5は、RAM15及びHDD17などで構成される。
楽音演奏手段6は、HDD17に記憶された楽譜演奏プログラムと、プログラムを実行するCPU16と、作業記憶領域として使用されるRAM15、音源装置及びオーディオインターフェイス20などを含んで構成される。音源装置には、D/A変換器、アンプ、スピーカを含むサウンドシステムが含まれている。
楽譜表示手段7は、HDD17に記憶された楽譜演奏プログラムと、プログラムを実行するCPU16と、作業記憶領域として使用されるRAM15、液晶ディスプレイ等のディスプレイ11で構成される。
The score file storage means 1 is composed of a RAM 15 and an HDD 17. As described above, the score file may be imported from the network interface 21 or the like, or may be acquired by connecting a separate image scanner to the computer.
The musical score information generating means 2 includes a program stored in the HDD 17, a CPU 16 that executes the program, and a RAM 15 that is used as a work storage area.
The musical score information storage unit 3 includes a RAM 15 and an HDD 17.
The performance information creating means 4 includes a program stored in the HDD 17, a CPU 16 for executing the program, a RAM 15 used as a work storage area, and the like.
The performance information storage means 5 includes a RAM 15 and an HDD 17.
The musical tone performance means 6 includes a musical score performance program stored in the HDD 17, a CPU 16 for executing the program, a RAM 15 used as a work storage area, a sound source device, an audio interface 20, and the like. The sound source device includes a sound system including a D / A converter, an amplifier, and a speaker.
The score display means 7 includes a score playing program stored in the HDD 17, a CPU 16 for executing the program, a RAM 15 used as a work storage area, and a display 11 such as a liquid crystal display.

楽譜情報記憶手段3は、図3に示すように、パート情報記憶手段31とページ情報記憶手段32を備えて構成されている。パート情報記憶手段32は、パート数分のパート情報33の配列として構成される。各パート情報33には、音色、再生音量、再生定位情報などが含まれる。ページ情報記憶手段31には、ページ数分のページ情報34の配列として記録されている。各ページ情報34には、少なくとも段落情報記憶手段35と、五線情報記憶手段36が含まれる。   As shown in FIG. 3, the musical score information storage unit 3 includes a part information storage unit 31 and a page information storage unit 32. The part information storage means 32 is configured as an array of part information 33 for the number of parts. Each part information 33 includes timbre, reproduction volume, reproduction localization information, and the like. The page information storage unit 31 records an array of page information 34 for the number of pages. Each page information 34 includes at least paragraph information storage means 35 and staff information storage means 36.

段落情報記憶手段35には、その段落に所属する全パートあるいは全五線共通に効力がある段落所属記号情報35aの配列として記録されている。各段落所属記号情報35aに記録される段落所属記号には、段落内でユニークな記号ID、記号カテゴリ情報、記号種類情報、記号カテゴリと記号種類に応じたパラメータ配列、ページ内での記号位置などが含まれる。記号カテゴリの例としては、繰り返し記号、小節線などが挙げられる。記号種類の例としては、D.C.、D.S.、繰り返し括弧など(カテゴリ=繰り返し記号)、単線、二重線、繰り返し始点、繰り返し終点、終止線など(カテゴリ=小節線)が挙げられる。   The paragraph information storage means 35 is recorded as an array of paragraph belonging symbol information 35a effective for all parts belonging to the paragraph or for all staffs. The paragraph belonging symbol recorded in each paragraph belonging symbol information 35a includes a symbol ID unique within the paragraph, symbol category information, symbol type information, parameter array corresponding to the symbol category and symbol type, symbol position within the page, and the like. Is included. Examples of symbol categories include repeated symbols and bar lines. Examples of symbol types include D.C., D.S., repeated parentheses, etc. (category = repeated symbol), single line, double line, repeated start point, repeated end point, end line, etc. (category = bar line).

五線情報記憶手段36には、ページ内の五線数分の五線情報36aの配列として記録されている。各五線情報36aには、所属パートID、所属段落ID、五線所属記号情報36bなどが含まれる。五線所属記号情報36bは、その五線に所属する五線所属記号の配列として記録されている。
五線所属記号情報36bに記録される五線所属記号には、段落内でユニークな記号ID、記号カテゴリ情報、記号種類情報、OnTime、GateTime、記号カテゴリと記号種類に応じたパラメータ配列、ページ内での記号位置(ページの左上を原点とした座標)などが含まれる。
The staff information storage means 36 is recorded as an array of staff information 36a corresponding to the number of staffs in the page. Each staff information 36a includes a belonging part ID, a belonging paragraph ID, staff member symbol information 36b, and the like. The staff affiliation symbol information 36b is recorded as an array of staff affiliation symbols belonging to the staff.
The staff affiliation symbol recorded in the staff affiliation symbol information 36b includes a symbol ID unique within the paragraph, symbol category information, symbol type information, OnTime, GateTime, parameter array according to the symbol category and symbol type, and within the page. Symbol position (coordinates with the origin at the top left of the page).

記号カテゴリの例としては、音符、休符、拍子記号、音部記号、調号、臨時記号などが挙げられる。
記号種類情報の例としては、全音符、4分音符、8分音符、16分音符、32分音符など(カテゴリ=音符)、全休符、4分休符、8分休符、16分休符、32分休符など(カテゴリ=休符)と音記号、へ音記号など(カテゴリ=音部記号)が挙げられる。
パラメータの例としては、音程(MIDIのNoteNo.)、付点の数、ChordID、TimingNo.、連桁IDなど(カテゴリ=音符)、付点の数、ChordID、TimingNo.など(カテゴリID=休符)、ChordID(同一タイミングに発音する音符グループのID)、TimingNo.(発音順番を示す番号)、GateTime(音符、休符の時間長を示す値)、OnTime(小節の先頭から発音開始までの時間)などが挙げられる。
Examples of symbol categories include notes, rests, time signatures, clefs, key signatures, accidental symbols, and the like.
Examples of symbol type information include all notes, quarter notes, eighth notes, sixteenth notes, thirty-second notes, etc. (category = notes), all rests, quarter rests, eighth rests, and sixteenth rests. , 32 minute rests (category = rests), phonetic symbols, staves, etc. (category = clefs).
Examples of parameters include pitch (MIDI NoteNo.), Number of dots, ChordID, TimingNo., Beam ID, etc. (category = note), number of dots, ChordID, TimingNo., Etc. (category ID = rest) ), ChordID (ID of the note group that sounds at the same time), TimingNo. (Number indicating the order of sounding), GateTime (value indicating the length of the note and rest), OnTime (time from the beginning of the bar to the start of sounding) ) And the like.

演奏情報作成手段4は、図4に示すように、楽曲の拍子から小節規定時間を計算する小節規定時間計算手段401と、小節内の音符、休符の発音タイミング、音価(GateTime)から小節演奏時間を計算する小節演奏時間計算手段402と、計算された小節規定時間と小節演奏時間を比較する比較手段403と、小節規定時間と小節演奏時間が一致しない場合に小節内に連符が存在すると推定し、音符、休符の発音タイミング、音価を修正する音価修正手段404とを備えて構成されている。
そして、音価修正手段404は、楽譜における1拍分の時間となる基準時間設定手段441と、小節内の音符配列を記憶する小節音符配列記録手段442と、小節内の音符を拍毎にグルーピングするグルーピング手段443と、グルーピングされた音符の演奏時間と音符配列から算出される1拍分の基準時間との関係からグルーピングされた音符の音価を変更する連符化処理を行う連符化処理手段444とを備えている。
As shown in FIG. 4, the performance information creation means 4 is a measure specified time calculation means 401 for calculating a measure specified time from the time signature of the music, a note in the measure, a sound generation timing of a rest, and a measure from a note value (GateTime). A measure performance time calculation means 402 for calculating the performance time, a comparison means 403 for comparing the calculated measure prescribed time and the measure performance time, and a tuplet in the measure when the measure prescribed time does not match the measure performance time. Then, it is configured to include a note value correcting means 404 that estimates and corrects the sound generation timing of notes and rests and the note value.
Then, the note value correcting means 404 groups the reference time setting means 441 that is the time for one beat in the score, the measure note arrangement recording means 442 that stores the note arrangement within the measure, and groups the notes within the measure into beats. Grouping means 443, and tuplet processing for performing tuplet processing for changing the note value of the grouped notes from the relationship between the performance time of the grouped notes and the reference time for one beat calculated from the note arrangement Means 444.

次に、楽譜演奏装置による楽譜作成の全体手順について、図5のフローチャートを参照しながら説明する。
先ず、楽譜情報生成手段2により楽譜情報の生成が行われる(ステップ41)。楽譜情報生成手段2は、楽譜ファイル記憶手段1から楽譜ファイルを読み出し、そのファイルに含まれる描画情報から、ページ情報、パート情報、段落情報、段落所属記号情報、五線情報、五線所属記号情報が一般に知られている既存技術により生成される。ただし、五線所属記号情報のChordID、TimingNo.、GateTime、OnTimeは演奏情報作成手段4によって与えられる。
生成された楽譜情報は、楽譜情報記憶手段3に記録される。
Next, an overall procedure for creating a score by the score playing apparatus will be described with reference to the flowchart of FIG.
First, musical score information is generated by the musical score information generating means 2 (step 41). The musical score information generating means 2 reads the musical score file from the musical score file storage means 1, and from the drawing information contained in the file, page information, part information, paragraph information, paragraph belonging symbol information, staff information, staff belonging symbol information Are generated by existing techniques that are generally known. However, the chord ID, TimingNo., GateTime, and OnTime of the staff member symbol information are given by the performance information creation means 4.
The generated musical score information is recorded in the musical score information storage means 3.

続いて、演奏情報作成手段4によりステップ42〜ステップ46の手順で演奏情報が作成される。   Subsequently, performance information is created by the performance information creation means 4 in the sequence of steps 42 to 46.

ステップ42では、図6に示すような小節情報配列を作成する。小節情報は各小節に対応するページ番号、段落番号、左側小節線の記号ID、右側小節線の記号ID、楽曲の拍子から求められる小節規定時間、小節番号を含んでいる。
小節規定時間は式(1)で求められる。
小節規定時間=TimeBase×4/Den×Num 式(1)
ここでTimeBaseは、4分音符あたりのTickで、本実施例では480とする。
Denは楽曲の拍子の分母(1拍の長さ)、Numは楽曲拍子の分子(小節内の拍の数)を表す(小節規定時間計算手段401)。
In step 42, a bar information array as shown in FIG. 6 is created. The bar information includes a page number corresponding to each bar, a paragraph number, a symbol ID of the left bar line, a symbol ID of the right bar line, a bar specified time determined from the time signature of the music, and a bar number.
The bar specified time is obtained by the equation (1).
Measure specified time = TimeBase x 4 / Den x Num (1)
Here, TimeBase is Tick per quarter note, and is 480 in this embodiment.
Den represents the denominator of the time signature of the music (length of one beat), and Num represents the numerator of the music time signature (number of beats in the bar) (measured time calculation means 401).

次に、同一タイミングで発音される音符グループを示すChordIDを付与する(ステップ43)。ChordIDは、横方向の位置及び同一の符尾に接しているかどうかによって決定される。
発音順番を示すTimingNo.を付与する(ステップ44)。TimingNo.は、ChordID及び横方向の位置によって決定される。
GateTimeおよびOnTimeを付与する(ステップ45)。GateTimeは音符の種類、付点の数によって決定され、OnTimeはGateTime及びTimingNo.によって決定される。
ステップ42〜ステップ45については、一般に知られている既存技術により行われる。
Next, ChordID indicating a note group that is sounded at the same timing is assigned (step 43). ChordID is determined by the horizontal position and whether it touches the same tail.
TimingNo. Indicating the pronunciation order is assigned (step 44). TimingNo. Is determined by the ChordID and the horizontal position.
GateTime and OnTime are assigned (step 45). GateTime is determined by the note type and the number of points, and OnTime is determined by GateTime and TimingNo.
Steps 42 to 45 are performed by a generally known existing technique.

図7の楽譜に対してステップ45までの手順で得られたChordID、TimingNo.、GateTime、OnTimeの演奏情報の一例を図8に示す。音符No.は、楽譜について上段左から右、続いて下段左から右に数字を順に付けたものである。カテゴリは、音符、休符別を表示する。この楽譜の場合、上段左から音符No.1〜No.10となり、下段左から音符No.11〜No.16となる。
本実施例では、GateTime及びOnTimeなどの時間はTickを用いて表す。4分音符の長さを480Tickと規定している。
FIG. 8 shows an example of performance information of ChordID, TimingNo., GateTime, and OnTime obtained by the procedure up to step 45 for the score of FIG. A note number is a score in which numbers are assigned in order from left to right in the upper row, and then from left to right in the lower row. The category displays notes and rests. In the case of this score, note No. 1 to No. 10 from the upper left, and note No. 11 to No. 16 from the lower left.
In this embodiment, times such as GateTime and OnTime are expressed using Tick. The length of a quarter note is specified as 480Tick.

図7の楽譜を例にOnTime及び小節演奏時間の算出手順について、図9のフローチャートを参照しながら説明する。
TimingNo.を1に初期化する(ステップ91)。
EndTime配列を初期化する(ステップ92)。
TimingNo.=1の音符No.1を読み出す(ステップ93)。
音符No.1のOnTimeを算出する(ステップ94)。TimingNo.は1なので、OnTime=0となる。
音符No.1のEndTimeを計算する(ステップ95)。音符1のOnTimeに音符No.1のGateTimeを加算し、EndTime=240となる。このEndTimeをEndTime配列に加える。
同じTimingNo.の音符があるので、ステップ93へ戻る(ステップ96)。
The procedure for calculating OnTime and measure performance time will be described with reference to the flowchart of FIG. 9, taking the score of FIG. 7 as an example.
TimingNo. Is initialized to 1 (step 91).
The EndTime array is initialized (step 92).
The note No. 1 with TimingNo. = 1 is read (step 93).
OnTime of the note No. 1 is calculated (step 94). Since TimingNo. Is 1, OnTime = 0.
The EndTime of note No. 1 is calculated (step 95). The GateTime of note No. 1 is added to the OnTime of note 1, and EndTime = 240. Add this EndTime to the EndTime array.
Since there is a note of the same TimingNo., The process returns to step 93 (step 96).

音符No.11を読み出す(ステップ93)。
音符No.11のOnTimeを算出する(ステップ91)。これもTimingNo.は1なのでOnTime=0となる。
音符No.11のEndTimeを計算する(ステップ95)。音符No.11のOnTimeに音符No.11のGateTimeを加算し、EndTime = 480となる。
EndTime配列には、240があるのみで、480は無いので480もEndTime配列へ追加する。
TimingNo=1の音符の読み出しが終わったので、TimingNo.を2に更新し、次のTimingNo.の音符を読み出す。
The note No. 11 is read (step 93).
OnTime of note No. 11 is calculated (step 91). This also has a TimingNo. Of 1, so OnTime = 0.
The EndTime of note No. 11 is calculated (step 95). The GateTime of the note No. 11 is added to the OnTime of the note No. 11, and EndTime = 480.
Since there are only 240 in the EndTime array and not 480, 480 is added to the EndTime array.
Since the reading of the note with TimingNo = 1 has been completed, the TimingNo. Is updated to 2, and the note with the next TimingNo. Is read out.

音符No.2を読み出し(ステップ93)、OnTimeを算出する(ステップ94)。音符No.2のOnTimeは、EndTime配列の最も短い時間となる。この場合は240となる。
音符No.2のEndTimeを計算する(ステップ95)。音符No.2のOnTimeに音符No.2のGateTimeを加算して、EndTime=480となる。
480は既にEndTime配列に存在するので480はEndTime配列へは追加しない。さらにTimingNo.=2の音符はもう存在しないので、今回音符No.2のOnTime割り当てた240をEndTime配列から削除する。
TimingNo.を3に更新し、次のTimingNo.の音符を読み出す。
Note No. 2 is read (step 93), and OnTime is calculated (step 94). The OnTime of note No. 2 is the shortest time in the EndTime array. In this case, 240.
The EndTime of note No. 2 is calculated (step 95). Adding GateTime of note No. 2 to OnTime of note No. 2 results in EndTime = 480.
Since 480 already exists in the EndTime array, 480 is not added to the EndTime array. Furthermore, since there is no note with TimingNo. = 2, 240 assigned to OnTime of note No.2 this time is deleted from the EndTime array.
Update TimingNo. To 3 and read the note of the next TimingNo.

音符No.3を読み出し(ステップ93)、OnTimeを計算する(ステップ94)。音符No.3のOnTimeはEndTime配列の最も短い値となる。この場合は480となる。
音符No.3のEndTimeを計算する(ステップ95)。音符No.3のOnTimeに音符No.3のGateTimeを加算し、720となる。この値はEndTime配列にないのでEndTime配列に追加する。今回はTimingNo.3の音符がまだ存在するので、TimingNo.の更新は行われず、EndTime配列の480も削除しない。
Note No. 3 is read (step 93), and OnTime is calculated (step 94). The OnTime of note No. 3 is the shortest value in the EndTime array. In this case, 480.
The EndTime of note No. 3 is calculated (step 95). The GateTime of the note No. 3 is added to the OnTime of the note No. 3 to obtain 720. Since this value is not in the EndTime array, it is added to the EndTime array. Since there is still a note of TimingNo.3 this time, TimingNo. Is not updated and 480 in the EndTime array is not deleted.

ステップ93で同じTimigNo.の音符No.12を読み出し、OnTimeを計算する(ステップ94)。音符No.3のOnTimeはEndTime配列の最も小さい値の480となる。
音符No.3のEndTimeを計算する(ステップ95)。音符No.3のOnTime+GateTime=960となる。この値はEndTime配列に無いので、EndTime配列に追加する。TimingNo.=3の音符も他には無いので、EndTime配列の最も小さい値を削除する。
同様に処理を行うことで、全ての音符のOnTimeが算出されるとともにEndTime配列の更新が行われる。全ての音符の処理が終わったときにEndTime配列に残っている最も大きい値が小節演奏時間となる。
In step 93, the note No. 12 of the same TimigNo. Is read and OnTime is calculated (step 94). The OnTime of note No. 3 is 480, which is the smallest value in the EndTime array.
The EndTime of note No. 3 is calculated (step 95). OnTime + GateTime = 960 for note No.3. Since this value is not in the EndTime array, it is added to the EndTime array. Since there is no other note with TimingNo. = 3, the smallest value in the EndTime array is deleted.
By performing the same processing, the OnTime of all the notes is calculated and the EndTime array is updated. When all notes have been processed, the largest value remaining in the EndTime array is the measure performance time.

本発明の特徴的な構成は、ステップ45に続くステップ46で楽譜における連符推定を行い、ChordID、TimingNo.、GateTime、OnTimeの修正を行うことである。この部分についての詳細説明は後述する。   A characteristic configuration of the present invention is to perform tuplet estimation in a score in step 46 following step 45 and correct ChordID, TimingNo., GateTime, and OnTime. Detailed description of this part will be described later.

ステップ46で連符推定を行った楽譜情報から演奏情報を作成する(ステップ47)。演奏情報はMIDI規格のフォーマットを踏襲しており、以下のような演奏イベント情報の配列で構成される。
ノートイベント :音符の発音開始、発音停止のイベント
コントロールイベント:音量、定位、などを発音チャネルに設定するイベント
音色イベント :発音チャネルの音色を指定するイベント
テンポイベント :楽曲のテンポを設定するイベント
Performance information is created from the musical score information subjected to tuplet estimation in step 46 (step 47). The performance information follows the MIDI standard format, and consists of the following array of performance event information.
Note event: Event for starting and stopping sounding of notes Control event: Event for setting sound volume, localization, etc. to sound channel Sound event: Event for specifying sound color of sound channel Tempo event: Event for setting tempo of music

図10に演奏イベント情報のフォーマットを示す。
イベント種類は、ノートイベント、コントロールイベント、テンポイベントなどを識別する番号である。
Data1は、ノートイベントであればその音程、コントロールイベントであれば、音量、定位などを識別する番号、テンポイベントであればテンポ値が入る。
Data2は、ノートイベントであればその発音強さ(0の場合発音停止を示す)、コントロールイベントであれば、音量、定位などの設定値が入る。
時間情報は楽曲開始からのそのイベント発生までの時間(Tick)が入る。
チャネル番号は、発音、音量などの制御対象となるチャネル番号が入る。
FIG. 10 shows the format of performance event information.
The event type is a number for identifying a note event, a control event, a tempo event, or the like.
Data1 contains the pitch for a note event, a number for identifying volume, localization, etc. for a control event, and a tempo value for a tempo event.
Data2 contains a setting value such as a sound intensity (note that sounding is stopped when 0) for a note event, and a setting value such as volume and panning for a control event.
The time information includes the time (Tick) from the start of the song to the event occurrence.
The channel number is a channel number to be controlled such as sound generation and volume.

図5で示したステップ46(連符推定)における大まかな流れについて、図11のフローチャートを参照しながら説明する。
先ず、ステップ42で作成した小節情報を読み出す(ステップ51)。
この小節に含まれる音符情報を読み出し、音符配列に格納する(ステップ52)。
A rough flow in step 46 (tuplet estimation) shown in FIG. 5 will be described with reference to the flowchart of FIG.
First, the bar information created in step 42 is read (step 51).
The note information contained in this measure is read out and stored in the note arrangement (step 52).

音符上の読み出しは、以下の手順で行われる。
小節情報に記憶されたページ番号を元に、ページ情報を読み出す。
このページ情報から、小節情報の段落番号が示す段落情報を読み出す。
さらに段落情報から小節情報の左小節線の記号IDと一致する段落所属記号を読み出し、この横方向の位置を小節左端位置とする。同様に右小節線の段落所属記号を読み出し、小節右端位置とする。
ページ情報から小節情報の段落番号と所属段落IDが一致する五線情報を読み出す。
小節左端位置と小節右端位置の間に位置し、カテゴリが音符または休符である五線所属記号を小節音符配列に格納する。
Reading on a note is performed in the following procedure.
The page information is read based on the page number stored in the bar information.
The paragraph information indicated by the paragraph number of the measure information is read from the page information.
Further, the paragraph belonging symbol that matches the symbol ID of the left measure line of the measure information is read from the paragraph information, and the horizontal position is set as the left end position of the measure. Similarly, the paragraph belonging symbol of the right bar line is read out and set as the right end position of the bar.
Read the staff information in which the paragraph number of the measure information and the belonging paragraph ID match from the page information.
A staff member symbol that is located between a bar left end position and a bar right end position and whose category is a note or a rest is stored in a bar note array.

小節音符配列から小節演奏時間を算出する(ステップ53)。
小節演奏時間と小節情報の小節規定時間とを比較し(ステップ54)、一致しない場合は連符推定を行う(ステップ55)。ステップ54で小節演奏時間と小節規定時間が一致する場合は、次の小節への処理へ移る(ステップ56)。
The measure performance time is calculated from the measure note arrangement (step 53).
The measure performance time is compared with the specified measure time of the measure information (step 54), and if they do not match, tuplet estimation is performed (step 55). If the measure performance time matches the specified measure time in step 54, the process proceeds to the next measure (step 56).

次に、図11で示したステップ55における連符推定の詳細手順について、図12のフローチャートを参照しながら、図13の楽譜から図14に示す演奏データを作成する場合を例に説明する。
先ず、音価修正手段404の基準時間設定手段441で基準時間を設定する(ステップ61)。基準時間は1拍分の時間とする。図13の楽譜の例では4/4拍子なので1拍は4分音符となり、480Tickである。
6/8拍子などの場合は、基準時間を8分音符3つ分とする。この場合の基準時間は720Tickである。
Next, the detailed procedure for tuplet estimation in step 55 shown in FIG. 11 will be described with reference to the flowchart of FIG. 12, taking as an example the case where the performance data shown in FIG. 14 is created from the score of FIG.
First, the reference time is set by the reference time setting means 441 of the sound value correcting means 404 (step 61). The reference time is the time for one beat. In the example of the score of FIG. 13, since the time signature is 4/4, one beat becomes a quarter note, which is 480 Tick.
In the case of 6/8 time, etc., the reference time is set to three eighth notes. In this case, the reference time is 720 Tick.

TimingNo.の配列を作成する(ステップ62)。この場合、上段音符No.1〜No.12、及び、下段音符No.13〜No.16に対応する1〜16の数が配列に入る。
TimingNo.のインデックスの初期化、更新を行う(ステップ63)。一番最初であればTimingNo.インデックスは0である。
TimingNo.インデックスが示すTimingNo.の音符を読み出す(ステップ64)。この時点では音符No.1、No.13の音符が読み出される。
読み出した音符の内、音価(GateTime)が小さい音符を選択する(ステップ65)。この場合、音符No.1が選択される。
選択した音符を拍グループに加える(ステップ66)。
後述する所定の条件によってグルーピングが完了したかどうか判定し、完了すれば次のステップ68へ進み、完了していなければステップ63へ戻る(ステップ67)。
An array of TimingNo. Is created (step 62). In this case, the numbers of 1 to 16 corresponding to the upper notes No. 1 to No. 12 and the lower notes No. 13 to No. 16 are included in the array.
The Index of TimingNo. Is initialized and updated (step 63). The TimingNo. Index is 0 at the very beginning.
A note of TimingNo. Indicated by the TimingNo. Index is read (step 64). At this time, notes No. 1 and No. 13 are read out.
Among the read notes, a note having a small note value (GateTime) is selected (step 65). In this case, note No. 1 is selected.
The selected note is added to the beat group (step 66).
It is determined whether or not the grouping is completed according to a predetermined condition to be described later. If completed, the process proceeds to the next step 68, and if not completed, the process returns to step 63 (step 67).

ステップ67におけるグループ化完了の条件は、以下のようになる。
・音符の場合
連桁がある場合
小節内最後の音符の場合(A)→グループ化完了
上記以外の場合
後のタイミングに同じ連桁の音符がある(B)→グループ化継続
後のタイミングに同じ連桁の音符はない(C)→グループ化完了
連桁が無い場合(D)→グループ化完了
・休符の場合
拍グループ最初の音符の場合(E)→グループ化完了
上記以外の場合
小節内最後の音符の場合(F)→グループ化完了
上記以外の場合
この休符の前に連桁に属する音符が、拍グループにある場合
この休符の後に、上記音符と同じ連桁のある場合(G)→グループ化継続
上記以外(H)→グループ化完了
上記以外(I)→グループ化継続
The conditions for completion of grouping in step 67 are as follows.
・ In the case of notes When there is a digit In the case of the last note in a bar (A) → Grouping completed In other cases The same timing in the later timing (B) → Same as the timing after grouping There is no continuous note (C) → grouping complete When there is no continuous digit (D) → grouping complete / rest When the first note of the beat group (E) → grouping complete Other than above In the measure In the case of the last note (F) → grouping completed In the case other than the above When the note belonging to the beam is in the beat group before this rest When there is the same beam as the above note after this rest ( G) → Grouping continued Other than above (H) → Grouping completed Other than above (I) → Grouping continued

図13の楽譜についてグループ化を行う場合、先ず、音符No.1についてのグループ化を判断する。音符No.1は、音符で連桁があり、小節内最後の音符の場合以外の場合に該当し、後のタイミングに同じ連桁の音符があるので、上述した(B)のケースに該当し、グループ化を継続する。
次いでTimingNo.インデックスを更新し(ステップ63)、TimingNo.2の音符No.2を読み出す(ステップ64)。TimingNo.2に該当する音符は一つだけなので、音符No.2が選択され(ステップ65)、拍グループに追加する(ステップ66)。音符No.2は、ステップ67においては、音符で連桁があり、小節内最後の音符の場合以外の場合に該当し、後のタイミングに同じ連桁の音符がないので(C)の条件に当てはまり、グループ化が完了する。ステップ63〜ステップ67でグルーピング手段443を構成している。
When grouping the musical scores of FIG. 13, first, grouping for the note No. 1 is determined. Note No. 1 corresponds to the case of note (B) because there are consecutive digits in the note and it is not the case of the last note in the measure, and there is a note of the same consecutive digits at a later timing. Continue grouping.
Next, the TimingNo. Index is updated (step 63), and the note No.2 of TimingNo.2 is read (step 64). Since there is only one note corresponding to TimingNo.2, note No.2 is selected (step 65) and added to the beat group (step 66). Note No. 2 corresponds to the case in step 67 where there are consecutive digits in the note, except for the last note in the bar, and there is no note with the same consecutive digits at a later timing. This is true and grouping is complete. Step 63 to step 67 constitute the grouping means 443.

次に、小節演奏時間計算手段402を使用して拍グループの演奏時間を算出する(ステップ68)。この場合、8分音符が2個であるので、480Tick となる。
続いて、算出された拍グループの演奏時間(480Tick)と基準時間(この楽譜の場合は4/4拍子なので1拍は4分音符となり480Tick)とを比較する(ステップ69)。この拍グループでは、演奏時間と基準時間とが等しいので、拍グループの処理を連符でないと判断して完了する。拍グループの処理を完了する場合は、拍グループを初期化し(ステップ70)、次の拍グループのグルーピングのためにステップ63の処理へ移行する。
Next, the performance time of the beat group is calculated using the measure performance time calculation means 402 (step 68). In this case, since there are two eighth notes, it is 480 Tick.
Subsequently, the performance time (480 Tick) of the calculated beat group is compared with the reference time (in this score, 4/4 time, so one beat becomes a quarter note and 480 Tick) (step 69). In this beat group, since the performance time and the reference time are equal, it is determined that the beat group processing is not a tuplet and is completed. When the beat group processing is completed, the beat group is initialized (step 70), and the process proceeds to step 63 for grouping of the next beat group.

次に、TimingNo.インデックスを更新し(ステップ63)、TimingNo.3の音符No.3及びNo.14を読み出す(ステップ64)。音価が小さい音符No.3が選択され(ステップ65)、拍グループに追加される(ステップ66)。音符No.3は、ステップ67においては、音符で連桁があり、小節内最後の音符の場合以外の場合に該当し、後のタイミングに同じ連桁の音符があるので(B)の条件でステップ63の処理へ移行する。   Next, the TimingNo. Index is updated (step 63), and the notes No.3 and No.14 of TimingNo.3 are read (step 64). A note No. 3 having a small note value is selected (step 65) and added to the beat group (step 66). Note No. 3 corresponds to the case where there is a series of notes in step 67, except for the case of the last note in the measure, and there is a note of the same series at a later timing. The process proceeds to step 63.

TimingNo.インデックスを更新し(ステップ63)、TimingNo.4の音符No.4が読み出され(ステップ64)、拍グループへ追加される(ステップ66)。音符No.4は、ステップ67においては、音符で連桁があり、小節内最後の音符の場合以外の場合に該当し、後のタイミングに同じ連桁の音符があるので(B)の条件でステップ63の処理へ移行する。   TimingNo. Index is updated (step 63), and note No. 4 of Timing No. 4 is read (step 64) and added to the beat group (step 66). Note No. 4 corresponds to the case where there is a string of notes in step 67, except for the case of the last note in the bar, and there is a note of the same string at a later timing. The process proceeds to step 63.

TimingNo.インデックスを更新し(ステップ63)、TimingNo.5の音符No.5が読み出され(ステップ64)、拍グループへ追加される(ステップ66)。音符No.5は、ステップ67においては、音符で連桁があり、小節内最後の音符の場合以外の場合に該当し、後のタイミングに同じ連桁の音符がないので(C)の条件に当てはまり、グループ化が完了する。
次に、拍グループの演奏時間(小節演奏時間計算手段を使用)を算出する(ステップ68)。この場合、16分音符が3個であるので、360Tick となる。
続いて、算出された拍グループの演奏時間(360Tick)と基準時間(この楽譜の場合は4/4拍子なので1拍は4分音符となり480Tick)とを比較する(ステップ69)。この拍グループでは、演奏時間と基準時間とが等しくないので、ステップ71に移行する。
The TimingNo. Index is updated (step 63), and note No. 5 of Timing No. 5 is read (step 64) and added to the beat group (step 66). Note No. 5 corresponds to the case in step 67 where there are consecutive digits in the note, except for the last note in the bar, and there is no note with the same consecutive digits at a later timing. This is true and grouping is complete.
Next, the performance time of the beat group (using the measure performance time calculation means) is calculated (step 68). In this case, since there are three sixteenth notes, 360 Tick.
Subsequently, the performance time (360 Tick) of the calculated beat group is compared with the reference time (in the case of this score, 4/4 time, so one beat becomes a quarter note and 480 Tick) (step 69). In this beat group, since the performance time and the reference time are not equal, the routine proceeds to step 71.

ステップ71では、拍グループの演奏時間(360Tick)が基準時間(480Tick)より短いかを判断し、演奏時間が基準時間より短い場合には、短い場合の処理が行われる(ステップ72)。   In step 71, it is determined whether or not the performance time (360 Tick) of the beat group is shorter than the reference time (480 Tick). If the performance time is shorter than the reference time, processing in the case where it is shorter is performed (step 72).

ステップ72では、拍グループの演奏時間が8分音符(240)になる場合の処理を行う。
本実施例では、楽曲で良く用いられる16分音符の3連符の場合について説明する。ここでは以下のような条件ごとに処理を行う。
(P)拍グループ内の音符数が3の場合
8分音符処理フラグを反転させる。
連符化処理を行い(ステップ73)、拍グループの初期化を行い(ステップ74)、ステップ63へ移行する。ステップ73における連符化処理の詳細手順は後述する。
(Q)拍グループ内の音符数が2であり、演奏時間が8分音符に等しい場合
8分音符処理フラグを反転させる。
拍グループ初期化の処理を行い(ステップ75)、ステップ63へ移行する。
(R)拍グループ内の音符数が1であり、その音符が8分音符であり、8分音符処理フラグが真である場合
8分音符処理フラグを偽にする。
拍グループ初期化処理を行い(ステップ75)、ステップ63へ移行する。
(S)(P)〜(R)のどれにも当てはまらない場合
拍グループ初期化処理を行うことなくステップ63へ移行し、拍グループへ次の音符を追加する。
本実施例では、16分音符が3つの場合について述べたが、32分音符が5つ又は7つの場合、64音符が10個の場合なども同様の処理が行われる。
In step 72, processing is performed when the performance time of the beat group is an eighth note (240).
In this embodiment, a case of a sixteenth note triplet often used in music will be described. Here, processing is performed for each of the following conditions.
(P) When the number of notes in the beat group is 3 The eighth note processing flag is inverted.
A tuplet forming process is performed (step 73), a beat group is initialized (step 74), and the process proceeds to step 63. The detailed procedure of the tuplet processing in step 73 will be described later.
(Q) When the number of notes in the beat group is 2 and the performance time is equal to an eighth note, the eighth note processing flag is inverted.
A beat group initialization process is performed (step 75), and the process proceeds to step 63.
(R) When the number of notes in the beat group is 1, the note is an eighth note, and the eighth note processing flag is true, the eighth note processing flag is set to false.
A beat group initialization process is performed (step 75), and the process proceeds to step 63.
(S) When not applicable to any of (P) to (R) The process proceeds to step 63 without performing the beat group initialization process, and the next note is added to the beat group.
In the present embodiment, the case where there are three sixteenth notes has been described, but the same processing is performed when there are five or seventeenth notes, ten 64 notes, and the like.

ステップ72における8分音符処理フラグの処理は、図15のX、Yなどのように、連桁の後の単独の8分音符を、拍グループとして成立させるためのものである。   The processing of the eighth note processing flag in step 72 is for establishing a single eighth note after the consecutive digits as a beat group, such as X and Y in FIG.

今回(図13の楽譜における音符No.3,4,5)の場合は、上述の(P)の条件(音符数が3)に当てはまるため、8分音符処理フラグを反転し(この場合は偽)、連符化処理を行い(ステップ73)、拍グループの初期化を行い(ステップ74)、ステップ63に移行する。   In the case of this time (note Nos. 3, 4, and 5 in the score of FIG. 13), the eighth note processing flag is reversed (in this case false) because the above-mentioned condition (P) (the number of notes is 3) is satisfied. ), Tuplet processing is performed (step 73), beat groups are initialized (step 74), and the process proceeds to step 63.

音価修正手段404により連符化処理を行うステップ73では、グルーピングされた音符のGateTimeの変更(連符化)を以下の手順で行う。   In step 73 in which the note value correcting means 404 performs tuplet processing, the grouped note GateTime is changed (tupleted) in the following procedure.

先ず、拍グループ内の連続した同一のGateTimeの音符を連符グループとしてまとめる。   First, the same consecutive GateTime notes in the beat group are collected as a tuplet group.

連符グループの音符数に応じて、連符の全ての音符の合計GateTime値を以下の様に設定する。
音符数が3→連符グループの音符のGateTimeの2倍
音符数が5〜7→連符グループの音符のGateTimeの4倍
音符数が9〜15→連符グループの音符のGateTimeの8倍
音符数が17〜31→連符グループの音符のGateTimeの16倍
なお、音符数が2、4、8,16の場合は、通常の音符(連符でない音符)で音価を表現可能であるので、連符化処理からは除かれる。
Depending on the number of notes in the tuplet group, set the total GateTime value for all notes in the tuplet as follows.
3 times the number of notes → 2 times the GateTime of notes in the tuplet group 5 to 7 times → 4 times the GateTime of notes in the tuplet group 9 to 15 notes → 8 times the GateTime of notes in the tuplet group Notes Number 17 to 31 → 16 times GateTime of notes in tuplet group Note that the note value can be expressed with normal notes (notes that are not tuplets) when the number of notes is 2, 4, 8, 16 This is excluded from the tuplet processing.

また、6/8拍子などの3連系の場合は、連符の全ての音符の合計GateTime値を以下の様に設定する。
音符数が2→連符グループの音符のGateTimeの1倍
音符数が4〜5→連符グループの音符のGateTimeの2倍
音符数が7〜11→連符グループの音符のGateTimeの4倍
音符数が12〜23→連符グループの音符のGateTimeの8倍
音符数が25〜47→連符グループの音符のGateTimeの16倍
6/8拍子などの3連系の場合、音符数が3、6、9、24の場合は通常の音符(連符でない音符)で音価を表現可能であるので、連符化処理からは除かれる。
Further, in the case of a triple connection such as a 6/8 time signature, the total GateTime value of all the notes of the tuplet is set as follows.
Number of notes is 2 → 1 time of GateTime of notes of tuplet group Number of notes is 4 to 5 → Time of gate time of notes of tuplet group is 7 to 11 → Number of notes is 7 times of GateTime of notes of tuplet group The number is 12-23 → 8 times the GateTime of notes in the tuplet group The number of notes is 25-47 → 16 times the GateTime of notes in the tuplet group In the case of triple connections such as 6/8 time signature, the number of notes is 3, In the case of 6, 9, and 24, the note value can be expressed by a normal note (a note that is not a tuplet), and thus is excluded from the tuplet processing.

連符グループの音符のGateTimeを下記の式で計算する。
連符グループの最後以外の音符は、式(2)で算出する。
GateTime=合計GateTime÷連符数 式(2)
連符グループ最後の音符は、式(3)で算出する。
GateTime=合計GateTime−(合計GateTime÷連符数)×(連符数−1) 式(3)
最後の音符のみ式(3)で算出するのは、連符グループを構成する音符数で合計GateTimeが割りきれない場合に対処するためである。
Calculate GateTime of tuplet group notes using the following formula.
The notes other than the end of the tuplet group are calculated by the equation (2).
GateTime = Total GateTime / Number of tuplets (2)
The last note of the tuplet group is calculated by equation (3).
GateTime = Total GateTime− (Total GateTime ÷ Number of tuplets) × (Number of tuplets−1) Equation (3)
The reason why only the last note is calculated by Equation (3) is to cope with the case where the total GateTime cannot be divided by the number of notes constituting the tuplet group.

今回の場合は、音符No.3〜音符No.5が連符グループにまとめられ、連符化される。
すなわち、音符No.3〜音符No.5は16分音符なので、連符グループのGateTime(変換前)は120となり、合計GateTimeは、音符数が3であるので上述の算出方法により、連符グループの音符のGateTimeの2倍の240となる。また、変更後のそれぞれの音符のGateTimeは、式(2)及び(3)から80となる。
連符化処理が行われた後は、拍グループの初期化を行い(ステップ74)、ステップ63へ移行し、次の音符についての処理を行う。
In this case, note No. 3 to note No. 5 are grouped into a tuplet group and converted into tuplets.
That is, note No. 3 to note No. 5 are sixteenth notes, so the gate time (before conversion) of the tuplet group is 120, and the total GateTime is three notes. This is 240, which is twice the GateTime of the note. Further, the gate time of each note after the change is 80 from the equations (2) and (3).
After the tuplet forming process is performed, the beat group is initialized (step 74), the process proceeds to step 63, and the process for the next note is performed.

これまでの手順と同様に、音符No.6と音符No.7が読み出され(ステップ64)、拍グループに登録される(ステップ66)。
グルーピング完了(ステップ67)の後、ステップ68で拍グループの演奏時間を計算する(小節演奏時間計算手段を使用)。この場合は、拍グループは16分音符が2個であるので240となる。
拍グループの演奏時間(240)は、基準時間(480)より短いためステップ72の処理に移行する(ステップ71)。
短い場合の処理(ステップ72)では、上述の(Q)の条件(拍グループ内の音符数が2であり、演奏時間が8分音符に等しい)に当てはまるので、連符化を行うことなく、拍グループを初期化して(ステップ75)、ステップ63の処理へ移行する。
As in the procedure so far, note No. 6 and note No. 7 are read (step 64) and registered in the beat group (step 66).
After the grouping is completed (step 67), the performance time of the beat group is calculated in step 68 (using the measure performance time calculation means). In this case, the beat group is 240 because there are two sixteenth notes.
Since the performance time (240) of the beat group is shorter than the reference time (480), the process proceeds to step 72 (step 71).
In the case of the short process (step 72), the above-mentioned condition (Q) (the number of notes in the beat group is 2 and the performance time is equal to the eighth note) is satisfied. The beat group is initialized (step 75), and the process proceeds to step 63.

次に、音符No.8と音符No.16が読み出される(ステップ64)。ステップ65で音符No.8が選択され、ステップ66で拍グループに追加される。
ステップ67では条件(B)なので、ステップ63の処理に移行し次の音符を読み出す。
Next, note No. 8 and note No. 16 are read (step 64). In step 65, note No. 8 is selected, and in step 66, it is added to the beat group.
Since the condition is (B) in step 67, the process proceeds to step 63 and the next note is read.

音符No.9が読み出され(ステップ64)、拍グループに追加される(ステップ66)。ステップ67では条件(G)なので、ステップ63に移行し次の音符を読み出す。   Note No. 9 is read (step 64) and added to the beat group (step 66). Since the condition is (G) in step 67, the process proceeds to step 63 to read the next note.

音符No.10が読み出され(ステップ64)、拍グループに追加される(ステップ66)。ステップ67では条件(C)なのでグループ化を終了する。
ステップ68で拍グループの演奏時間を計算する。この場合は240×3で720となる。
演奏時間と基準時間を比較し、等しくないのでステップ71へ移行する(ステップ69)。
ステップ71で、演奏時間(720)と基準時間(480)を比較し、演奏時間が基準時間より長いのでステップ76へ移行する。
ステップ76では、拍グループに基準時間(4分音符)より長い音符があるか調べる。この場合は無いので連符化処理を行う(ステップ73)。
Note No. 10 is read (step 64) and added to the beat group (step 66). Since the condition is (C) in step 67, the grouping is finished.
In step 68, the performance time of the beat group is calculated. In this case, 240 × 3 is 720.
The performance time and the reference time are compared with each other.
In step 71, the performance time (720) is compared with the reference time (480). Since the performance time is longer than the reference time, the routine proceeds to step 76.
In step 76, it is checked whether there is a note longer than the reference time (quarter note) in the beat group. Since this is not the case, tuplet processing is performed (step 73).

連符化処理(ステップ73)では、音符No.8〜音符No.10が連符グループとしてまとめられる。連符グループの内の音符は8分音符なので、合計GateTimeは、音符数が3の場合で8分音符(240)の2倍の480となり、音符グループの各音符のGateTimeは式(2)及び式(3)から160となる。連符化処理が終わると、拍グループの初期化を行い(ステップ74)、ステップ63へ戻る。   In the tuplet forming process (step 73), note No. 8 to note No. 10 are collected as a tuplet group. Since the notes in the tuplet group are eighth notes, the total GateTime is 480, which is twice the eighth note (240) when the number of notes is 3, and the GateTime of each note in the note group is expressed by Equation (2) and From Equation (3), it becomes 160. When the tuplet processing is completed, the beat group is initialized (step 74), and the process returns to step 63.

音符No.11が読み出され(ステップ64)、拍グループに追加される(ステップ66)。
ステップ67では、条件(D)によりグループ化を完了し、ステップ68で拍グループの演奏時間を算出する。今回、演奏時間は240となる。
ステップ69で演奏時間(240)と基準時間(480)を比較し、等しくないのでステップ71へ移行する。
ステップ71では、演奏時間(240)と基準時間(480)を比較し、演奏時間が基準時間より短いのでステップ72へ移行して短い場合の処理を行う。
ステップ72では、上述の(S)の条件((P)〜(R)のどれにも当てはまらない)に該当するので、ステップ63へ移行する。
Note No. 11 is read (step 64) and added to the beat group (step 66).
In step 67, grouping is completed according to the condition (D), and in step 68, the performance time of the beat group is calculated. This time, the playing time will be 240.
In step 69, the performance time (240) and the reference time (480) are compared.
In step 71, the performance time (240) is compared with the reference time (480).
In step 72, since the condition (S) described above (which does not apply to any of (P) to (R)) is met, the process proceeds to step 63.

音符No.12が読み出され(ステップ64)、拍グループに追加する(ステップ66)。ステップ67では条件(F)によりグループ化が完了する。
ステップ68で拍グループの演奏時間を算出する。この場合、演奏時間は480となる。
ステップ69で拍グループの演奏時間(480)と基準時間(480)を比較し、演奏時間と基準時間が等しいので拍グループを初期化して(ステップ70)、ステップ63へ移行する。
Note No. 12 is read (step 64) and added to the beat group (step 66). In step 67, grouping is completed according to the condition (F).
In step 68, the performance time of the beat group is calculated. In this case, the performance time is 480.
In step 69, the performance time (480) of the beat group is compared with the reference time (480). Since the performance time and the reference time are equal, the beat group is initialized (step 70), and the process proceeds to step 63.

ステップ63では、図13の楽譜における全てのTimingNo.(No.1~12)の処理が完了したので処理を終了する。連符化処理を行うことで、図13の楽譜に連符番号を正しく表記した場合は図16のようになることがわかる。   In step 63, since all timing Nos. (Nos. 1 to 12) in the score of FIG. 13 have been completed, the process ends. By performing the tuplet processing, it can be seen that when tuplet numbers are correctly written in the score of FIG.

また、図12のフローチャートにおけるステップ81及びステップ82は、図15のZのような楽譜(付点音符)に対応するためである。
拍グループに付点4分音符が読み込まれた場合は、付点4分音符の演奏時間は4分音符の1.5倍の720となる。演奏時間(720)は基準時間(480)より長いためステップ71からステップ76に移行する。ステップ76では、基準時間(480)より長い音符(720)があるので、ステップ81へ移行する。
Further, Step 81 and Step 82 in the flowchart of FIG. 12 correspond to a score (dotted note) such as Z in FIG.
When a dotted quarter note is read into the beat group, the performance time of the dotted quarter note is 720, which is 1.5 times the quarter note. Since the performance time (720) is longer than the reference time (480), the routine proceeds from step 71 to step 76. At step 76, there is a note (720) longer than the reference time (480), so the routine proceeds to step 81.

ステップ81では、演奏時間(720)と基準時間(480)を比較し、2倍ではないのでステップ82へ移行する。
ステップ82では演奏時間(720)と基準時間(480)を比較し、演奏時間(720)が基準時間(480)の2倍未満であるのでステップ63へ移行し、TimingNo.を更新する。
ステップ64で次の8分音符を読み、拍グループに追加する。
ステップ67では条件(D)なのでグループ化を完了し、ステップ68で演奏時間を算出する。この場合、演奏時間は、960(720+240)となる。
ステップ69〜ステップ81により、演奏時間(960)が基準時間(480)の2倍であるので、ステップ81からステップ70に移行し、最終的には連符化を行わずに処理を終える。
In step 81, the performance time (720) is compared with the reference time (480), and since it is not twice, the routine proceeds to step 82.
In step 82, the performance time (720) is compared with the reference time (480). Since the performance time (720) is less than twice the reference time (480), the process proceeds to step 63 and the Timing No. is updated.
In step 64, the next eighth note is read and added to the beat group.
Since the condition is (D) at step 67, the grouping is completed, and the playing time is calculated at step 68. In this case, the performance time is 960 (720 + 240).
From step 69 to step 81, the performance time (960) is twice the reference time (480). Therefore, the process proceeds from step 81 to step 70, and finally the process is finished without performing the tuplet.

上述した連符化処理によれば、以下の(1)〜(3)の場合にグルーピングされた音符の音価を変更する連符化処理が行われる。
(1)グルーピングされた音符の演奏時間が1拍分の基準時間より長い場合でグループ内に基準時間より長い音符がない場合(ステップ76でNoの場合)
(2)グルーピングされた音符の演奏時間が1拍分の基準時間より短い場合でグループ内の音符数が3である場合(ステップ72で条件(P)を満足する時)
(3)グルーピングされた音符に基準時間より長い音符がある場合で演奏時間が基準時間の2倍を超える場合(ステップ82でNoの場合)
したがって、グルーピングされた音符に対して、その演奏時間が1拍分の基準時間に等しい場合を除いて、演奏時間が基準時間に対して短い場合及び長い場合の両方について、連桁でつながった複数の音符(グルーピングされた音符)の連符推定を行って正しい音価に処理することができる。その際、音符をグルーピングすることで、3連符、5連符、7連符、10連符などあらゆる連符に対応して処理することができる。
According to the tuplet processing described above, the tuplet processing for changing the note values of the grouped notes in the following cases (1) to (3) is performed.
(1) When the performance time of the grouped notes is longer than the reference time for one beat and there are no notes longer than the reference time in the group (in the case of No in step 76)
(2) When the performance time of the grouped notes is shorter than the reference time for one beat and the number of notes in the group is 3 (when the condition (P) is satisfied in step 72)
(3) When the grouped notes have notes longer than the reference time and the performance time exceeds twice the reference time (No in step 82)
Therefore, for grouped notes, except for the case where the performance time is equal to the reference time for one beat, there are a plurality of strings connected in a series in both cases where the performance time is shorter and longer than the reference time. The tuplet of the notes (grouped notes) can be estimated and processed to the correct note value. At that time, by grouping the notes, it is possible to process corresponding to all tuplets such as triplets, five-tuplets, seven-tuplets, and ten-tuplets.

4…演奏情報作成手段、 401…小節規定時間計算手段、 402…小節演奏時間計算手段、 403…比較手段、 404…音価修正手段、 441…基準時間設定手段、 442…小節音符配列記録手段、 443…グルーピング手段、 444…連符化処理手段。   4 ... Performance information creation means 401 ... Measure specified time calculation means 402 ... Measure performance time calculation means 403 ... Comparison means 404 ... Sound value correction means 441 ... Reference time setting means 442 ... Measure note array recording means, 443 ... Grouping means, 444 ... Tuplet processing means.

以下、図面を参照しながら本発明の楽譜演奏装置について説明する。
図1は、コンピュータ上で動作し本発明の楽譜演奏装置(楽譜演奏プログラム)が組み込まれた自動演奏装置のブロック図であり、楽譜をスキャンした楽譜ファイルやPDF楽譜ファイルを記憶する楽譜ファイル記手段1と、楽譜ファイルを認識して楽譜情報を生成する楽譜情報生成手段2と、生成された楽譜情報を記憶する楽譜情報記手段3と、楽譜情報から演奏情報を作成する演奏情報作成手段4と、生成された演奏情報を記憶する演奏情報記手段5と、演奏情報を順次読み出し実際に音楽を演奏する楽音演奏手段6と、楽譜ファイルや楽譜情報を表示する楽譜表示手段7を備えて構成されている。
本発明の特徴的な構成は、演奏情報作成手段4において、楽譜情報から演奏情報を作成するに際し、連符の推定を行って正しい音価を求めるものであり、そのために必要な連符推定プログラムは演奏情報作成手段4の一部として機能する。
Hereinafter, the musical score playing apparatus of the present invention will be described with reference to the drawings.
Figure 1 is a block diagram of an automatic performance apparatus which operates on the computer music performance apparatus of the present invention (score performance program) is incorporated, music files Symbol for storing music files and PDF score file scanned sheet music a means 1, the score data generating means 2 for generating the musical score information recognizes the score file, a music information storage means 3 for storing the generated musical score information, performance information generation means for generating performance information from the score data It includes a 4, a performance information storage means 5 for storing the generated performance information, and musical sound playing device 6 to play sequentially read actually musical performance information, the musical score display means 7 for displaying the music files or music information Configured.
The characteristic configuration of the present invention is that when the performance information creating means 4 creates performance information from musical score information, a tuplet is estimated to obtain a correct note value, and a tuplet estimation program necessary for that purpose is obtained. Functions as part of the performance information creation means 4.

楽譜情報記憶手段3は、図3に示すように、ページ情報記憶手段31とパート情報記憶手段32を備えて構成されている。パート情報記憶手段32は、パート数分のパート情報33の配列として構成される。各パート情報33には、音色、再生音量、再生定位情報などが含まれる。ページ情報記憶手段31には、ページ数分のページ情報34の配列として記録されている。各ページ情報34には、少なくとも段落情報記憶手段35と、五線情報記憶手段36が含まれる。 As shown in FIG. 3, the score information storage unit 3 includes a page information storage unit 31 and a part information storage unit 32. The part information storage means 32 is configured as an array of part information 33 for the number of parts. Each part information 33 includes timbre, reproduction volume, reproduction localization information, and the like. The page information storage unit 31 records an array of page information 34 for the number of pages. Each page information 34 includes at least paragraph information storage means 35 and staff information storage means 36.

記号カテゴリの例としては、音符、休符、拍子記号、音部記号、調号、臨時記号などが挙げられる。
記号種類情報の例としては、全音符、4分音符、8分音符、16分音符、32分音符など(カテゴリ=音符)、全休符、4分休符、8分休符、16分休符、32分休符など(カテゴリ=休符)音記号、へ音記号など(カテゴリ=音部記号)が挙げられる。
パラメータの例としては、音程(MIDIのNoteNo.)、付点の数、ChordID、TimingNo.、連桁IDなど(カテゴリ=音符)、付点の数、ChordID、TimingNo.など(カテゴリID=休符)、ChordID(同一タイミングに発音する音符グループのID)、TimingNo.(発音順番を示す番号)、GateTime(音符、休符の時間長を示す値)、OnTime(小節の先頭から発音開始までの時間)などが挙げられる。
Examples of symbol categories include notes, rests, time signatures, clefs, key signatures, accidental symbols, and the like.
Examples of symbol type information include all notes, quarter notes, eighth notes, sixteenth notes, thirty-second notes, etc. (category = notes), all rests, quarter rests, eighth rests, and sixteenth rests. , 32 minutes rest (category = rest) , treble clef, cleaver, etc. (category = clef).
Examples of parameters include pitch (MIDI NoteNo.), Number of dots, ChordID, TimingNo., Beam ID, etc. (category = note), number of dots, ChordID, TimingNo., Etc. (category ID = rest) ), ChordID (ID of the note group that sounds at the same time), TimingNo. (Number indicating the order of sounding), GateTime (value indicating the length of the note and rest), OnTime (time from the beginning of the bar to the start of sounding) ) And the like.

ステップ93で同じTimingNo.の音符No.12を読み出し、OnTimeを計算する(ステップ94)。音符No.12のOnTimeはEndTime配列の最も小さい値の480となる。
音符No.12のEndTimeを計算する(ステップ95)。音符No.12のOnTime+GateTime=960となる。この値はEndTime配列に無いので、EndTime配列に追加する。TimingNo.=3の音符も他には無いので、EndTime配列の最も小さい値を削除する。
同様に処理を行うことで、全ての音符のOnTimeが算出されるとともにEndTime配列の更新が行われる。全ての音符の処理が終わったときにEndTime配列に残っている最も大きい値が小節演奏時間となる。
In step 93 and read the same Timi n Gno. Note No.12, it calculates the OnTime (step 94). The OnTime of note No. 12 is 480, which is the smallest value in the EndTime array.
The EndTime of note No. 12 is calculated (step 95). Note No. 12 OnTime + GateTime = 960. Since this value is not in the EndTime array, it is added to the EndTime array. Since there is no other note with TimingNo. = 3, the smallest value in the EndTime array is deleted.
By performing the same processing, the OnTime of all the notes is calculated and the EndTime array is updated. When all notes have been processed, the largest value remaining in the EndTime array is the measure performance time.

ステップ72における8分音符処理フラグの処理は、図15のX、Yなどのように、連桁の後の単独の8分符を、拍グループとして成立させるためのものである。 The processing of the eighth note processing flag in step 72 is for establishing a single eighth rest after the consecutive digits as a beat group, such as X and Y in FIG.

連符化処理(ステップ73)では、音符No.8〜音符No.10が連符グループとしてまとめられる。連符グループの内の音符は8分音符なので、合計GateTimeは、音符数が3の場合で8分音符(240)の2倍の480となり、符グループの各音符のGateTimeは式(2)及び式(3)から160となる。連符化処理が終わると、拍グループの初期化を行い(ステップ74)、ステップ63へ戻る。 In the tuplet forming process (step 73), note No. 8 to note No. 10 are collected as a tuplet group. Because notes eighth note of the tuplet group, total GateTime is twice the next 480 eighth note if the number notes of 3 (240), GateTime of each note in the tuplet group of the formula (2) And 160 from equation (3). When the tuplet processing is completed, the beat group is initialized (step 74), and the process returns to step 63.

Claims (10)

楽曲の拍子から小節規定時間を計算する小節規定時間計算手段と、
小節内の音符、休符の発音タイミング、音価から小節演奏時間を計算する小節演奏時間計算手段と、
計算された前記小節規定時間と小節演奏時間を比較する比較手段と、
前記小節規定時間と小節演奏時間が一致しない場合に小節内に連符が存在すると推定し、音符、休符の発音タイミング、音価を修正する音価修正手段とを備え、
前記音価修正手段は、
小節内の音符配列を記憶する小節音符配列記録手段と、
小節内の音符を拍毎にグルーピングするグルーピング手段と、
グルーピングされた音符の演奏時間と前記音符配列から算出される1拍分の基準時間とが一致しない場合に、グルーピングされた音符の音価を変更する連符化処理を行う連符化処理手段と
を備えたことを特徴とする楽譜演奏装置。
A measure time calculating means for calculating a measure specified time from the time signature of the music;
A measure playing time calculating means for calculating the measure playing time from the note in the measure, the sounding timing of the rest, and the note value;
A comparison means for comparing the calculated bar specified time and the bar performance time;
When the bar specified time and the bar performance time do not match, it is estimated that there is a tuplet in the bar, and includes a note value, a sound generation timing of a rest, a rest, and a note value correcting means for correcting the note value,
The sound value correcting means is
Measure arrangement means for storing note arrangements in a measure;
A grouping means for grouping the notes in a measure by beat,
Tuplet processing means for performing tuplet processing for changing the note value of the grouped notes when the performance time of the grouped notes does not match the reference time for one beat calculated from the note arrangement; A musical score performance device characterized by comprising:
前記連符化処理手段は、グルーピングされた音符の演奏時間が1拍分の基準時間より長い場合でグループ内に前記基準時間より長い音符がない場合、又は、グルーピングされた音符に前記基準時間より長い音符がある場合で演奏時間が前記基準時間の2倍を超える場合に、グルーピングされた音符の音価を変更して連符化処理を行う請求項1に記載の楽譜演奏装置。   The tuplet processing means is configured such that when the performance time of the grouped notes is longer than the reference time for one beat and there is no note longer than the reference time in the group, or the grouped notes are longer than the reference time. 2. The musical score performance apparatus according to claim 1, wherein when there is a long note and the performance time exceeds twice the reference time, the tally processing is performed by changing the note value of the grouped notes. 前記連符化処理手段は、グルーピングされた音符の演奏時間が1拍分の基準時間より短い場合でグループ内の16分音符数が3つである場合、32分音符が5つ又は7つの場合に、グルーピングされた音符の音価を変更して連符化処理を行う請求項1に記載の楽譜演奏装置。   In the case where the performance time of the grouped notes is shorter than the reference time for one beat and the number of sixteenth notes in the group is three, the number of 32nd notes is five or seven. The musical score performance apparatus according to claim 1, wherein tuplet processing is performed by changing note values of grouped notes. 前記連符化処理手段による連符化処理は、前記グルーピングされた音符の音価の総時間長に対して、グルーピングされた音符数に応じて予め設定された数を乗じて算出した時間長に音符数の合計音価を変更する請求項2又は請求項3に記載の楽譜演奏装置。   The tuplet processing by the tuplet processing means is obtained by multiplying the total time length of the note values of the grouped notes by a time length calculated by a number set in advance according to the number of grouped notes. The musical score performance device according to claim 2 or 3, wherein the total note value of the number of notes is changed. グルーピングされた音符数が3である場合はグルーピングされた音符の音価の総時間長を2倍した時間長に、
グルーピングされた音符数が5〜7である場合はグルーピングされた音符の音価の総時間長を4倍した時間長に、
グルーピングされた音符数が9〜15である場合はグルーピングされた音符の音価の総時間長を8倍した時間長に、
グルーピングされた音符数が17〜31である場合はグルーピングされた音符の音価の総時間長を16倍した時間長に、
音符数の合計音価をそれぞれ変更する請求項4に記載の楽譜演奏装置。
When the number of grouped notes is 3, the total time length of the note values of the grouped notes is doubled.
When the number of grouped notes is 5 to 7, the total time length of the note values of the grouped notes is 4 times longer,
When the number of grouped notes is 9 to 15, the total time length of the note values of the grouped notes is multiplied by 8 times.
When the number of grouped notes is 17 to 31, the total time length of the note values of the grouped notes is multiplied by 16 times,
The musical score performance device according to claim 4, wherein the total note value of the number of notes is changed.
楽曲の拍子から小節規定時間を計算する小節規定時間計算ステップと、
小節内の音符、休符の発音タイミング、音価から小節演奏時間を計算する小節演奏時間計算ステップと、
計算された前記小節規定時間と小節演奏時間を比較する比較ステップと、
前記小節規定時間と小節演奏時間が一致しない場合に小節内に連符が存在すると推定し、小節内の音符配列を記憶し、小節内の音符を拍毎にグルーピングし、グルーピングされた音符の演奏時間と前記音符配列から算出される1拍分の基準時間とが一致しない場合に、グルーピングされた音符の音価を変更する連符化処理により、音符、休符の発音タイミング、音価を修正する音価修正ステップと
をコンピュータに実行させるための楽譜演奏プログラム。
Measured time calculation step for calculating the specified measure time from the time signature of the music;
A bar performance time calculation step for calculating the bar performance time from the notes in the bar, the sounding timing of the rest, and the note value,
A comparison step of comparing the calculated bar specified time and the bar performance time;
If the specified time of the measure does not match the measure performance time, it is assumed that there are tuplets in the measure, the note arrangement in the measure is stored, the notes in the measure are grouped by beat, and the grouped notes are played. When the time and the reference time for one beat calculated from the note arrangement do not match, tally processing that changes the note value of the grouped notes, corrects the sound generation timing and note value of notes and rests A musical score performance program for causing a computer to execute a note value correcting step.
前記連符化処理は、グルーピングされた音符の演奏時間が1拍分の基準時間より長い場合でグループ内に前記基準時間より長い音符がない場合、又は、グルーピングされた音符に前記基準時間より長い音符がある場合で演奏時間が前記基準時間の2倍を超える場合に、グルーピングされた音符の音価を変更する処理を含む請求項6に記載の楽譜演奏プログラム。   The tuplet processing is performed when the performance time of the grouped notes is longer than the reference time for one beat and there is no note longer than the reference time in the group, or when the grouped notes are longer than the reference time. The musical score performance program according to claim 6, further comprising a process of changing a note value of the grouped notes when a performance time exceeds twice the reference time in the case where there is a note. 前記連符化処理は、グルーピングされた音符の演奏時間が1拍分の基準時間より短い場合でグループ内の16分音符数が3つである場合、32分音符が5つ又は7つの場合に、グルーピングされた音符の音価を変更する処理を含む請求項6に記載の楽譜演奏プログラム。   The tuplet processing is performed when the performance time of the grouped notes is shorter than the reference time for one beat and the number of sixteenth notes in the group is three, or when the number of 32nd notes is five or seven. The musical score performance program according to claim 6, further comprising a process of changing the note values of the grouped notes. 前記連符化処理は、前記グルーピングされた音符の音価の総時間長に対して、グルーピングされた音符数に応じて予め設定された数を乗じて算出した時間長に音符数の合計音価を変更する請求項7又は請求項8に記載の楽譜演奏プログラム。   The tuplet processing is performed by multiplying a total time value of the number of notes by a time length calculated by multiplying the total time length of the note values of the grouped notes by a number set in advance according to the number of grouped notes. The musical score performance program according to claim 7 or 8, wherein the program is changed. グルーピングされた音符数が3である場合はグルーピングされた音符の音価の総時間長を2倍した時間長に、
グルーピングされた音符数が5〜7である場合はグルーピングされた音符の音価の総時間長を4倍した時間長に、
グルーピングされた音符数が9〜15である場合はグルーピングされた音符の音価の総時間長を8倍した時間長に、
グルーピングされた音符数が17〜31である場合はグルーピングされた音符の音価の総時間長を16倍した時間長に、
音符数の合計音価をそれぞれ変更する請求項9に記載の楽譜演奏プログラム。
When the number of grouped notes is 3, the total time length of the note values of the grouped notes is doubled.
When the number of grouped notes is 5 to 7, the total time length of the note values of the grouped notes is 4 times longer,
When the number of grouped notes is 9 to 15, the total time length of the note values of the grouped notes is multiplied by 8 times.
When the number of grouped notes is 17 to 31, the total time length of the note values of the grouped notes is multiplied by 16 times,
The musical score performance program according to claim 9, wherein the total note value of the number of notes is changed.
JP2012098803A 2012-04-24 2012-04-24 Musical score playing apparatus and musical score playing program Active JP5988672B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012098803A JP5988672B2 (en) 2012-04-24 2012-04-24 Musical score playing apparatus and musical score playing program
US13/868,008 US8704067B2 (en) 2012-04-24 2013-04-22 Musical score playing device and musical score playing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012098803A JP5988672B2 (en) 2012-04-24 2012-04-24 Musical score playing apparatus and musical score playing program

Publications (2)

Publication Number Publication Date
JP2013228457A true JP2013228457A (en) 2013-11-07
JP5988672B2 JP5988672B2 (en) 2016-09-07

Family

ID=49676172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012098803A Active JP5988672B2 (en) 2012-04-24 2012-04-24 Musical score playing apparatus and musical score playing program

Country Status (1)

Country Link
JP (1) JP5988672B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04261596A (en) * 1990-12-31 1992-09-17 Casio Comput Co Ltd Musical score interpreting device
JPH1138965A (en) * 1997-07-16 1999-02-12 Kawai Musical Instr Mfg Co Ltd Sheet of music recognition method and recording medium recording sheet of music recognition program and readable by computer
US20010037719A1 (en) * 2000-05-03 2001-11-08 Gardner Gary L. Digital sheet music display system
JP2008123182A (en) * 2006-11-10 2008-05-29 Kawai Musical Instr Mfg Co Ltd Musical score recognition device and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04261596A (en) * 1990-12-31 1992-09-17 Casio Comput Co Ltd Musical score interpreting device
JPH1138965A (en) * 1997-07-16 1999-02-12 Kawai Musical Instr Mfg Co Ltd Sheet of music recognition method and recording medium recording sheet of music recognition program and readable by computer
US20010037719A1 (en) * 2000-05-03 2001-11-08 Gardner Gary L. Digital sheet music display system
JP2008123182A (en) * 2006-11-10 2008-05-29 Kawai Musical Instr Mfg Co Ltd Musical score recognition device and program

Also Published As

Publication number Publication date
JP5988672B2 (en) 2016-09-07

Similar Documents

Publication Publication Date Title
WO2019058942A1 (en) Playback control method, playback control device, and program
CN106935236A (en) A kind of piano performance appraisal procedure and system
JP6481319B2 (en) Music score display apparatus and music score display method
US20220383842A1 (en) Estimation model construction method, performance analysis method, estimation model construction device, and performance analysis device
US8704067B2 (en) Musical score playing device and musical score playing program
JP5196550B2 (en) Code detection apparatus and code detection program
JP4479701B2 (en) Music practice support device, dynamic time alignment module and program
JP7157377B2 (en) Performance information display device, performance information display method, performance information display program, and electronic musical instrument
JP5988672B2 (en) Musical score playing apparatus and musical score playing program
JP5960488B2 (en) Musical score playing apparatus and musical score playing program
JP5005445B2 (en) Code name detection device and code name detection program
JP4738135B2 (en) Music score recognition apparatus and music score recognition program
TW201719628A (en) Music score production method with fingering marks and system for the same allowing a player to perform by referring to fingering marks
WO2019180830A1 (en) Singing evaluating method, singing evaluating device, and program
JP2019109357A (en) Feature analysis method for music information and its device
JP5153517B2 (en) Code name detection device and computer program for code name detection
JP4613817B2 (en) Fingering display device and program
JP2013003205A (en) Musical score display device, musical score display program and musical score
JP5637169B2 (en) Karaoke device and program
JP6838357B2 (en) Acoustic analysis method and acoustic analyzer
JP2008242131A (en) Capability evaluation system and capability evaluation program
CN111354327A (en) Auxiliary playing method, medium and intelligent piano
JP2007240552A (en) Musical instrument sound recognition method, musical instrument annotation method and music piece searching method
WO2022190453A1 (en) Fingering presentation device, training device, fingering presentation method, and training method
JP5807754B2 (en) Stringed instrument performance evaluation apparatus and stringed instrument performance evaluation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160809

R150 Certificate of patent or registration of utility model

Ref document number: 5988672

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150