JP5772485B2 - Song editing apparatus and program - Google Patents

Song editing apparatus and program Download PDF

Info

Publication number
JP5772485B2
JP5772485B2 JP2011228390A JP2011228390A JP5772485B2 JP 5772485 B2 JP5772485 B2 JP 5772485B2 JP 2011228390 A JP2011228390 A JP 2011228390A JP 2011228390 A JP2011228390 A JP 2011228390A JP 5772485 B2 JP5772485 B2 JP 5772485B2
Authority
JP
Japan
Prior art keywords
performance data
event
sound
performance
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011228390A
Other languages
Japanese (ja)
Other versions
JP2013088585A (en
Inventor
美希 伊藤
美希 伊藤
梅山 康之
康之 梅山
誠一 橋本
誠一 橋本
資司 永田
資司 永田
崇 守尾
崇 守尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2011228390A priority Critical patent/JP5772485B2/en
Publication of JP2013088585A publication Critical patent/JP2013088585A/en
Application granted granted Critical
Publication of JP5772485B2 publication Critical patent/JP5772485B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Description

本発明は、複数個の演奏データを組み合わせて1曲分の演奏データを生成する技術に関する。   The present invention relates to a technique for generating performance data for one song by combining a plurality of performance data.

様々なメロディを示す演奏データを集めてデータベース化し、この中から利用者が選んだデータを合成して1曲分の曲データを生成する技術が各種提案されている。この種の技術に関する文献として、特許文献1がある。同文献に開示された自動編曲装置は、楽曲のメロディを示すデータが供給された場合に、そのデータが示すメロディを複数の区間に分割し、分割された各区間の音の起伏の度合いを示す起伏度数を算出する。そして、各区間の起伏度数に応じて各区間のメロディに割り当てる伴奏を決定し、各区間のメロディと伴奏を時間軸上において繋げた1曲分の曲データを生成する。   Various techniques have been proposed in which performance data representing various melodies are collected into a database, and data selected by the user is synthesized to generate music data for one song. There is Patent Document 1 as a document relating to this type of technology. The automatic arrangement device disclosed in this document divides the melody indicated by the data into a plurality of sections when data indicating the melody of the music is supplied, and indicates the degree of undulation of the sound in each divided section. Calculate the undulation frequency. Then, the accompaniment to be assigned to the melody of each section is determined according to the undulation frequency of each section, and song data for one song in which the melody and accompaniment of each section are connected on the time axis is generated.

特許第2806351号公報Japanese Patent No. 2806351 特開2007−240564号公報JP 2007-240564 A

ところで、従来のこの種の技術では、データベースに収録される演奏データが1曲分の演奏データを1小節や2小節などの比較的短い単位で分割したものである場合があった。この場合、データベース内の演奏データを組合せてできる曲は似通ったものになってしまい、バリエーションの豊かな曲創作の環境を提供できないという問題があった。
本発明は、このような課題に鑑みてなされたものであり、データベースに収録された複数個の演奏データを用いてバリエーションの豊かな楽曲を創作できるようにすることを目的とする。
By the way, in this type of conventional technology, there is a case where performance data recorded in a database is obtained by dividing performance data for one song into relatively short units such as one measure or two measures. In this case, the music that can be created by combining the performance data in the database becomes similar, and there is a problem that it is not possible to provide an environment for creating music with rich variations.
The present invention has been made in view of such a problem, and an object of the present invention is to make it possible to create a musical composition rich in variations using a plurality of performance data recorded in a database.

本発明は、M(Mは1以上の整数)小節分の音の並びにおける各音の発音内容を示す各イベントと各イベントの実行時刻を示すタイミングデータとを含む第1の種類の演奏データと、アウフタクトとそれに続くM小節分の音の並びにおける各音の発音内容を示す各イベントと各イベントの実行時刻を示すタイミングデータとを含む第2の種類の演奏データとを記憶した記憶手段と、前記記憶手段から複数個の演奏データを取得して配列する編集手段であって、前記第1または第2の種類の演奏データの後に前記第2の種類の演奏データを配列する場合に、配列順が前の演奏データに対して、当該演奏データの各イベントが示す各音からなる音の並びの終端を配列順が後の演奏データの各イベントが示す音の並びの中の略アウフタクトの分だけ短くする書き換え処理を施し、この書き換え処理を経た演奏データの後に該当の演奏データを配列する編集手段とを具備する曲編集装置を提供する。   According to the present invention, there is provided a first type of performance data including each event indicating the sound production content of each sound in a sequence of sounds of M (M is an integer of 1 or more) and timing data indicating the execution time of each event; Storage means for storing a second type of performance data including each event indicating the content of pronunciation of each sound in the sequence of sounds following the output and M measures, and timing data indicating the execution time of each event; Editing means for acquiring and arranging a plurality of performance data from the storage means, and arranging the second type of performance data after the first or second type of performance data. For the previous performance data, the end of the sound sequence consisting of the sound indicated by each event of the performance data is the amount corresponding to the approximate output in the sound sequence indicated by the event of the performance data after the arrangement order. Subjected to Kusuru rewriting process, to provide a music editing apparatus comprising an editing means for arranging the performance data corresponding after the performance data over the rewriting process.

この発明において、M小節分の演奏区間の音の並びにおける各音の発音内容を示す各イベントと各イベントの実行時刻を示すタイミングデータとを含む演奏データに対して、当該演奏データの各イベントのうち閾値よりも長い休符を経て発音される音のイベントに音の並びの区切りの位置に該当することを示すマークを付加する処理を施し、この処理を経た演奏データを第1の種類の演奏データとして前記記憶手段に記憶するとともに、M小節よりも長い演奏区間の各音の発音内容を示す各イベントと各イベントの実行時刻を示すタイミングデータとを含む演奏データに対して、当該演奏データの各イベントのうち閾値よりも長い休符を経て発音される音のイベントに前記マークを付加する処理を施し、この処理を経た演奏データを第2の種類の演奏データとして前記記憶手段に記憶する手段を具備してもよい。   In the present invention, with respect to performance data including each event indicating the sound content of each sound in the arrangement of sounds in the performance section for M measures and timing data indicating the execution time of each event, each event of the performance data Of these, a process for adding a mark indicating that the sound event is generated after a rest longer than the threshold value corresponds to the position where the sound sequence is separated is performed, and the performance data obtained through this process is used as the first type of performance. The performance data is stored in the storage means as data, and for performance data including each event indicating the sound content of each sound in a performance section longer than M measures and timing data indicating the execution time of each event. A process of adding the mark to an event of a sound that is generated through a rest longer than a threshold among the events is performed, and the performance data that has undergone this process is used as the second type. Means for storing in the storage means as the performance data may comprise a.

この発明の一実施形態である曲編集装置を示すブロック図である。1 is a block diagram showing a music editing apparatus according to an embodiment of the present invention. 同装置のハードディスク内の演奏データのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the performance data in the hard disk of the same apparatus. 同装置が実行するデータ蓄積処理を示すフローチャートである。It is a flowchart which shows the data storage process which the apparatus performs. 同装置が実行する分割処理の内容を示す図である。It is a figure which shows the content of the division process which the same apparatus performs. 同装置が実行するアウフタクト生成処理の内容を示す図である。It is a figure which shows the content of the output production | generation process which the apparatus performs. 同装置が実行する編集処理を示すフローチャートである。It is a flowchart which shows the edit process which the apparatus performs. 同装置が実行する評価ポイント算出処理の内容を示す図である。It is a figure which shows the content of the evaluation point calculation process which the same apparatus performs. 同装置が実行する評価ポイント算出処理の内容を示す図である。It is a figure which shows the content of the evaluation point calculation process which the same apparatus performs. 同装置が実行する書き換え処理の内容を示す図である。It is a figure which shows the content of the rewriting process which the apparatus performs. 同装置が実行する書き換え処理の内容を示す図である。It is a figure which shows the content of the rewriting process which the apparatus performs. 同装置が実行する書き換え処理の内容を示す図である。It is a figure which shows the content of the rewriting process which the apparatus performs. 同装置が実行する書き換え処理の内容を示す図である。It is a figure which shows the content of the rewriting process which the apparatus performs. 同装置が実行する書き換え処理の内容を示す図である。It is a figure which shows the content of the rewriting process which the apparatus performs. 同装置が実行する歌唱合成処理を示すフローチャートである。It is a flowchart which shows the song synthesis | combination process which the same apparatus performs.

以下、図面を参照し、この発明の実施の形態を説明する。
図1は、この発明の一実施形態である曲編集装置10の構成を示すブロック図である。この曲編集装置10は、様々な創作者がMIDI(Musical Instrument Digital Interface)シーケンサを用いて作成した曲演奏データSMDから、音の並びであるメロディの素材となる複数種類の演奏データMDを生成して当該装置10に蓄積するとともに、当該装置10内に蓄積された複数個の演奏データMDの中から選んだものを組み合わせて1曲分の曲演奏データEMDを生成し、この曲演奏データEMDのメロディと同じメロディを持った歌唱音声の音声信号を出力する。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a music editing device 10 according to an embodiment of the present invention. The music editing apparatus 10 generates a plurality of types of performance data MD as material of a melody that is a sequence of sounds from music performance data SMD created by various creators using a MIDI (Musical Instrument Digital Interface) sequencer. The music performance data EMD for one song is generated by combining the performance data MD stored in the device 10 and selected from the plurality of performance data MD stored in the device 10. The voice signal of the singing voice having the same melody as the melody is output.

図1に示すように、曲編集装置10は、データ読込部11、操作部12、表示部13、放音部14、及び制御部15を有する。データ読込部11は、記憶媒体が装着された場合に、その媒体内の曲演奏データSMDを読み出して制御部15に供給する。図2は、曲演奏データSMDのデータ構造の一例を示す図である。曲演奏データSMDは、音の発音内容を示すノートオンイベントEVON(♯)(♯はノートナンバを示す)及びノートオフイベントEVOFF(♯)と、各イベントEVON(♯)(またはEVOFF(♯))の実行時刻tを各々の前のイベントEVOFF(♯)(またはEVON(♯))の実行時刻tとの時間差(ティック数)として示すタイミングデータであるデルタタイムΔT(h=1、2…)(hは、配列順を示すインデックスである)とをL個のトラックTR−j(j=1〜L)に分けて並べたものである。ここで、本実施形態では、各創作者は、1つの楽曲の曲演奏データSMDを次のルールa1〜f1に従って作成する。
a1.曲演奏データ化する楽曲はハ長調のものとする。
b1.曲演奏データ化する楽曲の最初の音から最後の音までの各音の発音及び消音を指示するイベントEVON(♯)及びEVOFF(♯)とその実行時刻tを示すデルタタイムΔTを曲演奏データSMD内の第1トラックTR−1に記述する。
c1.曲演奏データ化する楽曲の中に演奏の区切り位置がある場合は、トラックTR−1における区切り位置の直前のイベントEVON(♯)のマークとしての役割を果たすイベント(例えば、ノートナンバ126のイベントEVON(126)とする)とその実行時刻t(区切り位置の直前のイベントEVON(♯)のものと同じ実行時刻t)を示すデルタタイムΔTを曲演奏データSMD内の第2トラックTR−2に記述する。
d1.曲演奏データ化する楽曲の中に歌唱曲の最後のメロディに相応しい演奏区間がある場合は、そのことを示すマークとしての役割を果たすイベント(例えば、ノートナンバ125のイベントEVON(125)とする)とこのイベントEVON(125)の実行時刻t(該当の演奏区間の始点の時刻)を示すデルタタイムΔTを曲演奏データSMD内の第3トラックTR−3に記述する。
e1.曲演奏データ化する楽曲の中に歌唱曲の最初のメロディに相応しい演奏区間がある場合は、そのことを示すマークとしての役割を果たすイベント(例えば、ノートナンバ124のイベントEVON(124)とする)とこのイベントEVON(124)の実行時刻t(該当の演奏区間の始点の時刻)を示すデルタタイムΔTを曲演奏データSMD内の第3トラックTR−3に記述する。
f1.曲演奏データ化する楽曲の中に歌唱曲の最初と最後の何れでもない部分(中間部分)のメロディに相応しい演奏区間がある場合は、そのことを示すマークとしての役割を果たすイベント(例えば、ノートナンバ123のイベントEVON(123)とする)とこのイベントEVON(123)の実行時刻t(該当の演奏区間の始点の時刻)を示すデルタタイムΔTを曲演奏データSMD内の第3トラックTR−3に記述する。
As shown in FIG. 1, the music editing device 10 includes a data reading unit 11, an operation unit 12, a display unit 13, a sound emitting unit 14, and a control unit 15. When a storage medium is loaded, the data reading unit 11 reads the music performance data SMD in the medium and supplies it to the control unit 15. FIG. 2 is a diagram showing an example of the data structure of the music performance data SMD. The song performance data SMD includes a note-on event EV ON (#) (# indicates a note number) and a note-off event EV OFF (#) indicating the sound generation content, and each event EV ON (#) (or EV OFF ). Delta time ΔT h (h) which is timing data indicating the execution time t of (#)) as the time difference (number of ticks) from the execution time t of each previous event EV OFF (#) (or EV ON (#)) = 1, 2,...) (H is an index indicating the arrangement order) and are divided into L tracks TR-j (j = 1 to L). Here, in this embodiment, each creator creates music performance data SMD of one music according to the following rules a1 to f1.
a1. The music to be converted into music performance data shall be in C major.
b1. Event EV ON to indicate the pronunciation and the silencing of each sound from the first sound of the music to be music performance data of up to the end of the sound (♯) and EV OFF (♯) and tune the delta time ΔT h indicating its execution time t Described in the first track TR-1 in the performance data SMD.
c1. When there is a performance break position in the music to be converted into music performance data, an event that serves as a mark of the event EV ON (#) immediately before the break position in the track TR-1 (for example, an event of the note number 126) EV and ON (126)) and its execution time t second track in the music playing delta time [delta] t h indicating the (previous event EV ON (♯ delimiter position) same execution time t) from that of data SMD TR -2.
d1. When there is a performance section suitable for the last melody of a song in the music to be converted into music performance data, an event that serves as a mark indicating the performance (for example, an event EV ON (125) of the note number 125) ) and described in the third track TR-3 for this event EV oN (125) the execution time t (corresponding delta time ΔT music performance data in the SMD of h indicating the time) of the start point of the play section.
e1. When there is a performance section suitable for the first melody of the song in the music to be converted into music performance data, an event that serves as a mark indicating this (for example, event EV ON (124) of note number 124) ) and described in the third track TR-3 of the music performance data in the SMD delta time [delta] t h indicating the execution time t (the time of the start point of the corresponding play interval) of this event EV oN (124).
f1. If there is a performance section suitable for the melody of the part (intermediate part) that is neither the first nor the last of the song in the music to be converted into musical performance data, an event that serves as a mark indicating that (for example, a note) the third track number 123 events and EV ON (123)) of this event EV ON (123) the execution time t (corresponding delta time ΔT music performance data in the SMD of h indicating the time) of the start point of the play interval Described in TR-3.

図1において、操作部12は、各種情報の入力操作を受け付け、操作内容を示す信号を制御部15に供給する。表示部13は、制御部15による制御の下に各種情報を表示する。放音部14は、制御部15から出力される音信号を音として出力する。制御部15は、曲編集装置10の制御中枢としての役割を果たす装置である。制御部15は、CPU16、RAM17、ROM18、及びハードディスク19を有する。CPU16は、RAM17をワークエリアとして利用しつつ、ROM18やハードディスク19に記憶されたプログラムを実行する。ハードディスク19には、素材データベースMDB、楽曲データベースBDB、音声素片データベースPDB、及び曲編集プログラムPRGが記憶されている。素材データベースMDBには演奏データMDが記憶される。楽曲データベースBDBには曲演奏データEMDが記憶される。音声素片データベースPDBには音声素片データPDが記憶される。ここで、音声素片データPDは、単一の音素や音素間の遷移部分など、歌唱音声の素材となる各種の音声素片の波形を定義したデータである。曲編集プログラムPRGは、次の3つの機能を有する。
a2.データ蓄積機能
これは、データ読込部11から曲演奏データSMDが供給された場合に、この曲演奏データSMDから複数種類の演奏データMDを生成して素材データベースMDBに記憶する機能である。
b2.編集機能
これは、素材データベースMDBから4個の演奏データMDを取得し、取得した演奏データMDを配列して1曲分の曲演奏データEMDを生成する機能である。
c2.歌唱合成機能
これは、曲演奏データEMDのメロディと同じメロディを持った歌唱音声の音信号を合成し、この音信号を放音部14から放音させる機能である。
In FIG. 1, the operation unit 12 receives an input operation of various information and supplies a signal indicating the operation content to the control unit 15. The display unit 13 displays various information under the control of the control unit 15. The sound emitting unit 14 outputs the sound signal output from the control unit 15 as a sound. The control unit 15 is a device that serves as a control center of the music editing device 10. The control unit 15 includes a CPU 16, a RAM 17, a ROM 18, and a hard disk 19. The CPU 16 executes programs stored in the ROM 18 and the hard disk 19 while using the RAM 17 as a work area. The hard disk 19 stores a material database MDB, a music database BDB, a speech segment database PDB, and a music editing program PRG. Performance data MD is stored in the material database MDB. Music performance data EMD is stored in the music database BDB. Speech unit data PD is stored in the speech unit database PDB. Here, the speech segment data PD is data defining waveforms of various speech segments that are materials of singing speech, such as a single phoneme and a transition portion between phonemes. The song editing program PRG has the following three functions.
a2. Data accumulation function This is a function for generating a plurality of types of performance data MD from the music performance data SMD and storing it in the material database MDB when the music performance data SMD is supplied from the data reading unit 11.
b2. Editing Function This is a function for acquiring four pieces of performance data MD from the material database MDB, and arranging the acquired performance data MD to generate one piece of music performance data EMD.
c2. This is a function that synthesizes a sound signal of a singing voice having the same melody as the melody of the music performance data EMD and emits the sound signal from the sound emitting unit 14.

次に、本実施形態の動作について説明する。本実施形態では、CPU16は、データ蓄積処理、編集処理、及び歌唱合成処理を実行する。以下、各処理について順に説明する。   Next, the operation of this embodiment will be described. In the present embodiment, the CPU 16 performs a data accumulation process, an editing process, and a song composition process. Hereinafter, each process is demonstrated in order.

図3は、データ蓄積処理を示すフローチャートである。図3に示す一連の処理はデータ蓄積機能の働きによって実行される処理である。図3に示す一連の処理は、データ読込部11によって読み出された曲演奏データSMDがRAM17に書き込まれると開始される。図3に示す一連の処理の実行にあたり、利用者は、以下の3つの項目を操作部12により設定し、各々の設定値をRAM17に記憶させる。
a3.データ処理開始位置
この項目では、曲演奏データSMD内における演奏データMDの生成に用いる部分の先頭の小節位置Xを設定する。
b3.アウフタクト
この項目では、アウフタクトのない演奏データMDのみを得たい場合は「アウフタクトなし」と設定し、アウフタクトのない演奏データMD及びアウフタクトのある演奏データMDの両方を得たい場合は「アウフタクトあり」を設定する。
c3.移調
この項目では、演奏データMDと同じ調(ハ長調)の演奏データMDのみを得たい場合は「移調なし」と設定し、演奏データMDと同じ調及びこれと異なる調の演奏データMDを得たい場合は「移調あり」と設定する。
FIG. 3 is a flowchart showing the data accumulation process. A series of processing shown in FIG. 3 is processing executed by the function of the data storage function. A series of processes shown in FIG. 3 is started when the music performance data SMD read by the data reading unit 11 is written in the RAM 17. In executing the series of processes shown in FIG. 3, the user sets the following three items with the operation unit 12 and stores each set value in the RAM 17.
a3. Data processing start position In this item, the first bar position X of the portion used to generate the performance data MD in the music performance data SMD is set.
b3. In this item, if you want to get only performance data MD without the effect, set “No output”. If you want to get both the performance data MD without the effect and the performance data MD with the effect, set “With the effect”. Set.
c3. Transposition In this item, if you want to obtain only the performance data MD in the same key (C major) as the performance data MD, set “No transposition”, and obtain the performance data MD in the same key as the performance data MD and in a different key. If you want, set “With transposition”.

図3において、CPU16は、分割処理を行う(S101)。この分割処理では、CPU16は、図4に示すように、RAM17内の曲演奏データSMDにおけるX小節目(図4の例では、X=2)以降の演奏区間をM(Mは1以上の整数:例えば、M=2とする)小節毎の演奏区間R−i(i=1〜Z:Zは分割した演奏区間の総数である)に分割し、各演奏区間R−i内のイベントEVON(♯),EVOFF(♯)、及びデルタタイムΔTを演奏データMD−iとする。 In FIG. 3, the CPU 16 performs a dividing process (S101). In this division processing, as shown in FIG. 4, the CPU 16 sets the performance section after the X bar (X = 2 in the example of FIG. 4) in the music performance data SMD in the RAM 17 to M (M is an integer of 1 or more). : For example, M = 2) divided into performance sections Ri for each measure (i = 1 to Z: Z is the total number of divided performance sections), and the event EV ON in each performance section Ri (♯), EV OFF (♯ ), and the performance data MD R -i the delta time ΔT h.

次に、CPU16は、変数kの値を初期値であるk=1とした後(S102)、ステップS101において分割した演奏データMDR−i(i=1〜Z)のうちk番目の演奏データMD−kを処理対象として選択する(S103)。CPU16は、第1の判定処理を行う(S104)。この第1の判定処理では、CPU16は、演奏データMD−kの第1トラックTR−1における各イベントEVON(♯)の後のデルタタイムΔTを演奏区間R−k内のメロディをなす各音の音長とし、演奏区間R−kが下記の2つの条件a4及びb4を満たすものであるか否かを判定する。
a4.当該演奏区間R−k内の各イベントEVON(♯)が示す音の中に音長が閾値TH1未満のものが1つ以上あること
b4.当該演奏区間R−k内の各イベントEVON(♯)が示す音の音長の総計が閾値TH2未満であること
Next, the CPU 16 sets the value of the variable k to the initial value k = 1 (S102), and then the kth performance data among the performance data MD R-i (i = 1 to Z) divided in step S101. selecting MD R -k for processing (S103). The CPU 16 performs a first determination process (S104). In the first determination process, CPU 16 forms a melody in the delta-time [Delta] T h playing interval R-k after each event EV ON the first track TR-1 of the performance data MD R -k (♯) It is determined whether or not the performance section R-k satisfies the following two conditions a4 and b4 with the length of each sound.
a4. There is at least one sound represented by each event EV ON (#) in the performance section Rk that has a sound length less than the threshold value TH1. B4. The total length of the sound indicated by each event EV ON (#) in the performance section Rk is less than the threshold TH2.

CPU16は、ステップS104において、処理対象とした演奏データMD−kが上記条件a4及びb4の両方を満たすと判定した場合(S104:Yes)、その演奏データMD−kを破棄する(S105)。ここで、演奏データMD−kを破棄するのは、短か過ぎる音を含むメロディや音が僅かしか含まれていないメロディは歌唱曲のメロディとして利用し難いためである。CPU16は、ステップS105において、演奏データMD−kを破棄した後、ステップS114に進む。このステップS114の処理の内容は後述する。 If the CPU 16 determines in step S104 that the performance data MD R -k to be processed satisfies both the conditions a4 and b4 (S104: Yes), the performance data MD R -k is discarded (S105). . Here, to discard the performance data MD R -k, melody melody or sound including too short sound contains only little is because hardly utilized as a melody singing voice. CPU16 at step S105, after discarding the performance data MD R -k, the process proceeds to step S114. The contents of the process in step S114 will be described later.

CPU16は、ステップS104において、処理対象とした演奏データMD−kが上記条件a4及びb4の両方または一方を満たさないと判定した場合(S104:No)、第2の判定処理を行う(S106)。この第2の判定処理では、CPU16は、設定項目b3において「アウフタクトあり」が設定されているかを判定する。CPU16は、「アウフタクトあり」が設定されている場合(S106:Yes)、アウフタクト生成処理を行う(S107)。アウフタクト生成処理は、曲演奏データSMDから、アウフタクトの各音とそれに続くM(M=2)小節分のメロディの各音を示す各イベントEVON(♯)及びEVOFF(♯)と各イベントEVON(♯)及びEVOFF(♯)の実行時刻を示すデルタタイムΔTとを含む演奏データMDRA−kを生成する処理である。アウフタクト生成処理では、CPU16は、曲演奏データSMDからM(M=2)小節分より長い演奏区間のイベントEVON(♯)及びEVOFF(♯)とデルタタイムΔTを切り出し、切り出したイベントEVON(♯)及びEVOFF(♯)とデルタタイムΔTを演奏データMDRA−kとする。より詳細に説明すると、図5に示すように、CPU16は、RAM17内の曲演奏データSMDの第2トラックTR−2における演奏区間R−1の1つ前の小節(図5の例では第1小節)内のイベントEVON(126)のうち演奏区間R−1に最も近いものの実行時刻tをアウフタクトの始点の時刻tSTRTとし、曲演奏データSMDのトラックTR−j(j=1〜L)における時刻tSTRTから演奏区間R−1の終端までの間の各イベントEVON(♯)及びEVOFF(♯)とデルタタイムΔTを1番目の演奏データMDRA−1とする。CPU16は、2番目の演奏データMDRA−2,3番目の演奏データMDRA−3…Z番目の演奏データMDRA−Zを同様の手順で生成する。 CPU16 at step S104, if the performance data MD R -k was processed is determined not to satisfy one or both of the above conditions a4 and b4 (S104: No), performs the second determination process (S106) . In the second determination process, the CPU 16 determines whether “with output” is set in the setting item b3. The CPU 16 performs the output generation process when “with output” is set (S106: Yes) (S107). The output generation process is performed using each event EV ON (#) and EV OFF (#) and each event EV indicating each sound of the output and subsequent M (M = 2) melody sounds from the music performance data SMD. is ON (♯) and EV OFF processing for generating performance data MD RA -k comprising a delta time [delta] T h indicating the execution time (♯). In pick-up (upbeat) generating process, CPU 16 is, M from music performance data SMD (M = 2) event EV ON longer playing section than bars (♯) and EV OFF and (♯) excised delta time [Delta] T h, cut event EV ON (♯) and EV OFF (♯) and the delta time ΔT h and performance data MD RA -k. More specifically, as shown in FIG. 5, the CPU 16 has a measure (first in the example of FIG. 5) immediately before the performance section R- 1 in the second track TR- 2 of the music performance data SMD in the RAM 17. In the event EV ON (126) in the measure), the execution time t of the event EV ON (126) closest to the performance section R-1 is set as the start time t STRT of the after- effect, and the track TR-j (j = 1 to L) of the music performance data SMD each event EV ON between the time t STRT to the end of the play interval R-1 in the (♯) and an EV OFF (♯) and play a delta time [delta] t h of the first data MD RA -1. CPU16 generates a second performance data MD RA-2,3-th performance data MD RA -3 ... Z th performance data MD RA -Z in the same procedure.

CPU16は、「アウフタクトなし」が設定されている場合(S106:No)、ステップS107を実行することなく、次のステップS108に進む。CPU16は、ステップS108では、第3の判定処理を行う。この第3の判定処理では、CPU16は、演奏データMD−k(ステップS107が実行されている場合は、演奏データMD−k及びMDRA−k)の第2トラックTR−2にイベントEVON(126)が書き込まれているか否かを判定する。CPU16は、演奏データMD−kの第2トラックTR−2にイベントEVON(126)が書き込まれていない場合(S108:No)、第1のマーキング処理を行う(S109)。第1のマーキング処理では、CPU16は、演奏データMD−kの第1トラックTR−1における各イベントEVOFF(♯)の後のデルタタイムΔTを演奏区間R−k内のメロディをなす各音間の休符の長さとし、演奏区間R−k内に閾値TH3以上の長さの休符があるか否かを判定する。CPU16は、演奏区間R−k内のメロディをなす音の間に閾値TH3以上の長さの休符がある場合は、その休符を演奏の区切りの位置とみなす。この場合、CPU16は、演奏データMD−kの第2トラックTR−2にイベントEVON(126)を追記するとともに、トラックTR−1における区切り位置の直前のイベントEVOFF(♯)を選択する。その上で、CPU16は、この選択したイベントEVOFF(♯)の実行時刻tと第2トラックTR−2に追記したイベントEVON(126)の実行時刻tが同時刻になるように第2トラックTR−2における追記したイベントEVON(126)の前後のデルタタイムΔTを書き換える。 If “no output” is set (S106: No), the CPU 16 proceeds to the next step S108 without executing step S107. In step S108, the CPU 16 performs a third determination process. In the third determination process, the CPU 16 sets the event EV on the second track TR-2 of the performance data MD R -k (or performance data MD R -k and MD RA -k when step S107 is executed). It is determined whether ON (126) is written. CPU16, when the second track TR-2 to the event EV ON performance data MD R -k (126) is not written (S108: No), performs the first marking (S109). In the first marking process, CPU 16 forms a melody in the delta-time [Delta] T h playing interval R-k after each event EV OFF in the first track TR-1 of the performance data MD R -k (♯) each It is determined whether there is a rest having a length equal to or greater than the threshold TH3 in the performance section R-k. If there is a rest longer than the threshold value TH3 between the sounds forming the melody in the performance section Rk, the CPU 16 regards the rest as a performance break position. In this case, CPU 16 is configured to append an event EV ON (126) to the second track TR-2 performance data MD R -k, selects a previous event EV OFF delimiter position in the track TR-1 (♯) . Then, the CPU 16 sets the second track so that the execution time t of the selected event EV OFF (#) and the execution time t of the event EV ON (126) added to the second track TR-2 are the same time. Rewrite the delta time ΔT h before and after the event EV ON (126) added in TR-2.

CPU16は、演奏データMD−kの第2トラックTR−2に1つ以上のイベントEVON(126)が書き込まれている場合(S108:Yes)、ステップS109を実行することなく、次のステップS110に進む。CPU16は、ステップS110では、第4の判定処理を行う。この第4の判定処理では、CPU16は、演奏データMD−k(ステップS107が実行されている場合は、演奏データMD−k及びMDRA−k)の第3トラックTR−3にイベントEVON(125)、EVON(124)、またはEVON(123)が書き込まれているか否かを判定する。CPU16は、ステップS110において、演奏データMD−kの第3トラックTR−3にイベントEVON(125)、EVON(124)、及びEVON(123)のいずれも書き込まれていないと判定した場合(S110:No)、第2のマーキング処理を行う(S111)。第2のマーキング処理では、CPU16は、演奏データMD−kの第1トラックTR−1の各イベントEVON(♯)のうちの最後のイベントEVON(♯)の音を演奏区間R−k内のメロディの最後の音とみなす。そして、この最後の音が次の2つの条件を満たすか否かを判定する。
a5.音の音名がハ長調の基音(ド)であること
b5.音の音長が閾値TH4以上であること
CPU16, when the performance data MD R -k second track TR-2 to one or more event EV ON (126) is written (S108: Yes), without executing the step S109, the next step Proceed to S110. In step S110, the CPU 16 performs a fourth determination process. In the fourth determination process, the CPU 16 sets the event EV on the third track TR-3 of the performance data MD R -k (or performance data MD R -k and MD RA -k when step S107 is executed). It is determined whether ON (125), EV ON (124), or EV ON (123) is written. CPU16 at step S110, the event EV ON (125) to the third track TR-3 of the performance data MD R -k, EV ON (124 ), and determines that any unwritten the EV ON (123) In the case (S110: No), the second marking process is performed (S111). In the second marking process, CPU 16, the sound playing section of the last event EV ON (♯) R-k of the first track TR-1 for each event EV ON performance data MD R -k (♯) The last sound of the melody is considered. Then, it is determined whether or not this last sound satisfies the following two conditions.
a5. The note name of the note is a C fundamental key (b) b5. The sound length is greater than or equal to the threshold TH4

CPU16は、2つの条件a5及びb5の両方を満たす場合、演奏データMD−kが曲の最後の部分に相応しいメロディを含んでいるとみなす。この場合、CPU16は、演奏データMD−kの第3トラックTR−3の先頭にイベントEVON(125)を追記する。 CPU16, when both of the two conditions a5 and b5, regarded as the performance data MD R -k contains a melody suited to the last part of the song. In this case, CPU 16 additionally writes the events EV ON (125) to the beginning of the third track TR-3 of the performance data MD R -k.

また、CPU16は、条件a5及びb5のうち少なくとも一方が満たされない場合、演奏データMD−kが、曲の最初の部分と、最初と最後の何れでもない部分(中間部分)に相応しいメロディを含んでいるとみなす。この場合、CPU16は、演奏データMD−kの第3トラックTR−3の先頭にイベントEVON(124)及びイベントEVON(123)を追記する。 Further, CPU 16, when at least one of the conditions a5 and b5 are not met, including performance data MD R -k is the first part of the song, the melody suited to the first and last is neither part (middle part) It is considered to be out. In this case, CPU 16 additionally writes the performance data MD R -k third track TR-3 for the top event EV ON (124) and event EV ON (123).

CPU16は、ステップS110において、演奏データMD−kの第3トラックTR−3にイベントEVON(125)、EVON(124)、及びEVON(123)のいずれかが書き込まれていると判定した場合(S110:Yes)、ステップS111を実行することなく次のステップS112に進む。ステップS112では、第5の判定処理を行う。この第5の判定処理では、CPU16は、設定項目c3において「移調あり」が設定されているか否かを判定する。CPU16は、「移調あり」が設定されている場合(S112:Yes)、移調処理を行う(S113)。移調処理では、演奏データMD−k(ステップS107が実行されている場合は、演奏データMD−k及びMDRA−k)からそのメロディをハ長調と異なる調に移調した演奏データMDを生成する。 CPU16 determines in step S110, the third track TR-3 in the event EV ON performance data MD R -k (125), EV ON (124), and either of the EV ON (123) is written If so (S110: Yes), the process proceeds to the next step S112 without executing step S111. In step S112, a fifth determination process is performed. In the fifth determination process, the CPU 16 determines whether or not “with transposition” is set in the setting item c3. When “with transposition” is set (S112: Yes), the CPU 16 performs transposition processing (S113). The transposition process, (when the step S107 is performed, the performance data MD R -k and MD RA -k) the performance data MD R -k generate performance data MD from the melody was transposed C major different tone To do.

より詳細に説明すると、CPU16は、演奏データMD−kの第1トラックTR−1の各イベントEVON(♯)のノートナンバを短2度高いものに書き換えた演奏データMDR1−kを生成する。また、演奏データMD−kの第1トラックTR−1の各イベントEVON(♯)のノートナンバを長2度高いものに書き換えた演奏データMDR2−kを生成する。また、演奏データMD−kの第1トラックTR−1のイベントEVON(♯)のノートナンバを短3度高いものに書き換えた演奏データMDR3−kを生成する。また、演奏データMD−kの第1トラックTR−1のイベントEVON(♯)のノートナンバを長3度高いものに書き換えた演奏データMDR4−kを生成する。また、演奏データMD−kの第1トラックTR−1のイベントEVON(♯)のノートナンバを4度高いものに書き換えた演奏データMDR5−kを生成する。また、演奏データMD−kの第1トラックTR−1のイベントEVON(♯)のノートナンバを増4度高いものに書き換えた演奏データMDR6−kを生成する。また、演奏データMD−kの第1トラックTR−1のイベントEVON(♯)のノートナンバを5度高いものに書き換えた演奏データMDR7−kを生成する。また、演奏データMD−kの第1トラックTR−1のイベントEVON(♯)のノートナンバを増5度高いものに書き換えた演奏データMDR8−kを生成する。また、演奏データMD−kの第1トラックTR−1のイベントEVON(♯)のノートナンバを長6度高いものに書き換えた演奏データMDR9−kを生成する。また、演奏データMD−kの第1トラックTR−1のイベントEVON(♯)のノートナンバを短7度高いものに書き換えた演奏データMDR10−kを生成する。また、演奏データMD−kの第1トラックTR−1のイベントEVON(♯)のノートナンバを長7度高いものに書き換えた演奏データMDR11−kを生成する。ここで、以下では、ハ長調の演奏データMD−kとハ長調以外の演奏データMDR1−k、MDR2−k、MDR3−k、MDR4−k、MDR5−k、MDR6−k、MDR7−k、MDR8−k、MDR9−k、MDR10−k、MDR11−kを区別しない場合は、演奏データMD−kと記す。 More particularly, CPU 16 may generate performance data MD R -k first track TR-1 of the performance data MD R1 -k the note number is rewritten to those minor second higher of each event EV ON (♯) of To do. Also generates performance data MD R -k first track TR-1 of the performance data MD R2 -k the note number is rewritten to what length 2 degrees higher for each event EV ON (♯) of. Also generates performance data MD R -k performance data MD R3 -k first track TR-1 event EV ON the note number (♯) rewritten to those minor third higher. Also generates performance data MD R -k performance data MD R4 -k the note number of the first track TR-1 event EV ON (♯) is rewritten to that major third higher. Also generates performance data MD R -k first track TR-1 event EV ON (♯) performance data MD R5 -k Rewritten note number to 4 degrees higher that of the. Also generates performance data MD R -k performance data MD R6 -k the note number of the first track TR-1 event EV ON (♯) is rewritten to that increase 4 degrees higher. Also generates performance data MD R -k first track TR-1 event EV ON (♯) performance data MD R7 -k the note number is rewritten to 5 degrees higher that of the. Also generates performance data MD R -k performance data MD R8 -k the note number of the first track TR-1 event EV ON (♯) is rewritten to that increase 5 degrees higher. Also generates performance data MD R -k performance data MD R9 -k first track TR-1 event EV ON the note number (♯) is rewritten to that length 6 degrees higher. Also generates performance data MD R -k performance data MD R10 -k first track TR-1 event EV ON the note number (♯) rewritten to those minor 7 degrees higher. Also generates performance data MD R -k of the first track TR-1 event EV ON (♯) performance data MD R11 -k the note number is rewritten to what length 7 degrees high. Here, in the following, performance data MD R -k in C major and performance data MD R1- k, MD R2- k, MD R3- k, MD R4- k, MD R5- k, MD R6- k, MD R7- k, MD R8- k, MD R9- k, MD R10- k, and MD R11- k are described as performance data MD R- k.

CPU16は、「移調なし」が設定されている場合(S112:No)、ステップS113に実行することなく、ステップS114に進む。ステップS114では、変数kと曲演奏データSMDの分割数Zが同じであるかを判定する。CPU16は、k<Zである場合(S114:No)、ステップS115に進んで変数kをk=k+1にした後、ステップS103以降の処理を繰り返す。CPU16は、k=Zである場合(S114:Yes)、それまでに生成した演奏データMD−k、MDR1−k、MDR2−k、MDR3−k、MDR4−k、MDR5−k、MDR6−k、MDR7−k、MDR8−k、MDR9−k、MDR10−k、MDR11−k、MDRA−k、MDRA1−k、MDRA2−k、MDRA3−k、MDRA4−k、MDRA5−k、MDRA6−k、MDRA7−k、MDRA8−k、MDRA9−k、MDRA10−k、MDRA11−kの各々を演奏データMDとして素材データベースMDBに記憶する(S116)。 When “no transposition” is set (S112: No), the CPU 16 proceeds to Step S114 without executing Step S113. In step S114, it is determined whether the variable k and the division number Z of the music performance data SMD are the same. When k <Z is satisfied (S114: No), the CPU 16 proceeds to step S115 to set the variable k to k = k + 1, and then repeats the processing after step S103. When k = Z is satisfied (S114: Yes), the CPU 16 performs the performance data MD R -k, MD R1- k, MD R2- k, MD R3- k, MD R4- k, MD R5- k, MD R6- k, MD R7- k, MD R8- k, MD R9- k, MD R10- k, MD R11- k, MD RA- k, MD RA1- k, MD RA2- k, MD RA3- k, MD RA4 -k, MD RA5 -k, MD RA6 -k, MD RA7 -k, MD RA8 -k, MD RA9 -k, MD RA10 -k, MD RA11 material database each of the -k as performance data MD Store in the MDB (S116).

図6は、編集処理を示すフローチャートである。図6に示す一連の処理は編集機能の働きによって実行される処理である。図6に示す一連の処理は、操作部12によって演奏データMDの編集が指示されると開始される。図6に示す一連の処理の実行にあたり、利用者は、以下の項目を操作部12により設定し、その設定値をRAM17に記憶させる。
a6.コード進行
この項目では、曲の8小節分のコード進行における第1〜第8小節の各コードのコードネームCN〜CNを設定する。
FIG. 6 is a flowchart showing the editing process. A series of processing shown in FIG. 6 is processing executed by the function of the editing function. A series of processing shown in FIG. 6 is started when editing of the performance data MD is instructed by the operation unit 12. In executing the series of processes shown in FIG. 6, the user sets the following items using the operation unit 12 and stores the setting values in the RAM 17.
a6. Chord progression This item sets the codename CN 1 -CN 8 of each code of the first to eight measures in the chord progression 8 bars of music.

図6において、CPU16は、演奏データ取得処理を行う(S201)。演奏データ取得処理では、CPU16は、曲の第1〜第2小節のメロディの素材とする演奏データMD1〜2、第3〜第4小節のメロディの素材とする演奏データMD3〜4、第5〜第6小節のメロディの素材とする演奏データMD5〜6、及び第7〜第8小節のメロディの素材とする演奏データMD7〜8を素材データベースMDB内の複数の演奏データMDの中から探索し、各々の探索結果をRAM17に読み出す。より具体的には、CPU16は、次の4つのデータ探索処理を行う。 In FIG. 6, the CPU 16 performs performance data acquisition processing (S201). In the performance data acquisition process, the CPU 16 performs the performance data MD 1-2 as the material of the melody of the first to second measures, the performance data MD 3-4 as the material of the melody of the third to fourth measures, Among the plurality of performance data MD in the material database MDB, the performance data MD 5-6 as the melody material of the fifth to sixth measures and the performance data MD 7-8 as the melody material of the seventh to eighth measures are used. The search result is read out to the RAM 17. More specifically, the CPU 16 performs the following four data search processes.

第1のデータ探索処理では、CPU16は、素材データベースMDB内の全演奏データMDのうち第3トラックTR−3にイベントEVON(123)が埋め込まれているものを演奏データMD1〜2の候補とし、演奏データMD1〜2の候補である各演奏データMDと設定項目a5におけるコードネームCN及びCNの和音との適合度を示す評価ポイントPを算出する。評価ポイントPの算出の手順は次の通りである。図7に示すように、評価ポイントPの算出対象がアウフタクトを含まない演奏データMD(演奏データMD−k、MDR1−k、MDR2−k、MDR3−k、MDR4−k、MDR5−k、MDR6−k、MDR7−k、MDR8−k、MDR9−k、MDR10−k、MDR11−kの何れか)である場合、CPU16は、当該演奏データMDの第1トラックTR−1の2小節分のイベントEVON(♯)を評価対象とする。そして、評価対象である2つの小節のイベントEVON(♯)の各々の音長(ティック数)の合計値SUMTCKを求める。次に、評価対象の最初の1小節のイベントEVON(♯)が示す各音の音名が、コードネームCNと対応するコードの各音(図7の例では、CN=Cなので、ド、ミ、ソの3音)、及びこのコードと根音を共通にする5音音階(ペンタトニック)の各音(図7の例では、CN=Cなので、ド、レ、ミ、ソ、ラの5音)に該当するかを判定し、コードの各音と一致する音の音長(ティック数)に5ポイント、コードの各音と一致しないが5音音階の各音と一致する音の音長(ティック数)に3ポイント、それ以外の音の音長(ティック数)に1ポイントを各々乗算する。次に、評価対象の2番目の1小節のイベントEVON(♯)が示す各音の音名が、コードネームCNの和音(図7の例では、CN=Fなので、ファ、ラ、ドの3音)、及びこのコードと根音を共通にする5音音階(ペンタトニック)の各音(図7の例では、CN=Fなので、ファ、ソ、ラ、ド、レの5音)に該当するかを判定し、コードの各音と一致する音の音長(ティック数)に5ポイント、コードの各音と一致しないが5音音階の各音と一致する音の音長(ティック数)に3ポイント、それ以外の音の音長(ティック数)に1ポイントを各々乗算する。その上で、2つの小節のイベントEVON(♯)の各々における音長(ティック数)に該当のポイントを乗じた値の合計値SUMPNTを求める。そして、合計値SUMPNTで合計値SUMTCKを除算した値SUMPNT/SUMTCKを当該演奏データMDの評価ポイントPとする。 In the first data search process, the CPU 16 selects candidates for the performance data MD 1-2 from all the performance data MD in the material database MDB, in which the event EV ON (123) is embedded in the third track TR-3. and then calculates the evaluation point P that indicates the goodness of fit between the chords codename CN 1 and CN 2 in the setting item a5 each performance data MD that is a candidate of the performance data MD 1 to 2. The procedure for calculating the evaluation point P is as follows. As shown in FIG. 7, performance data MD (performance data MD R -k, MD R1- k, MD R2- k, MD R3- k, MD R4- k, MD R5 -k, MD R6 -k, MD R7 -k, MD R8 -k, MD R9 -k, MD R10 -k, MD R11 -k)), the CPU 16 selects the performance data MD. An event EV ON (#) for two measures of one track TR-1 is an evaluation target. Then, a total value SUM TCK of the sound lengths (number of ticks) of each event EV ON (#) of two measures to be evaluated is obtained. Next, the sound name of each sound indicated by the event EV ON (#) of the first one measure to be evaluated is the sound of the chord corresponding to the chord name CN 1 (in the example of FIG. 7, CN 1 = C. 3 sounds), and each tone of the 5-tone scale (Pentatonic) that shares this chord and root sound (in the example of FIG. 7, CN 1 = C, so de, re, mi, so, 5 points, and the sound length (number of ticks) that matches each chord sound is 5 points. The sound that does not match each chord sound but matches each sound of the 5 scales The sound length (number of ticks) is multiplied by 3 points, and the sound length (number of ticks) of other sounds is multiplied by 1 point. Next, the pitch name of each sound indicated by the event EV ON (#) of the second measure 1 to be evaluated is a chord of the chord name CN 2 (in the example of FIG. 7, CN 2 = F, so 3 sounds) and each tone of the 5-tone scale (Pentatonic) that shares this chord with the root note (in the example of FIG. 7, CN 2 = F, so 5 sounds of fa, so, la, de, les) ), 5 points for the sound length (number of ticks) that matches each sound of the chord, and the length of the sound that does not match each sound of the chord but matches each sound of the 5 scales ( The number of ticks) is multiplied by 3 points, and the sound length (number of ticks) of other sounds is multiplied by 1 point. Then, a sum SUM PNT of values obtained by multiplying the sound length (number of ticks) in each event EV ON (#) of the two measures by the corresponding point is obtained. Then, a value SUM PNT / SUM TCK obtained by dividing the total value SUM TCK by the total value SUM PNT is set as the evaluation point P of the performance data MD.

また、図8に示すように、評価ポイントPの算出対象がアウフタクトを含む演奏データMD(MDRA−k、MDRA1−k、MDRA2−k、MDRA3−k、MDRA4−k、MDRA5−k、MDRA6−k、MDRA7−k、MDRA8−k、MDRA9−k、MDRA10−k、MDRA11−kのいずれか)である場合、CPU16は、当該演奏データMDの第1トラックTR−1におけるアウフタクトの終端以降の2小節分のイベントEVON(♯)を評価対象とする。そして、評価対象である2つの小節のイベントEVON(♯)の各々の音長(ティック数)の合計値SUMTCKを求める。次に、評価対象の最初の1小節のイベントEVON(♯)が示す各音の音名が、コードネームCNと対応するコードの各音(図8の例では、CN=Cなので、ド、ミ、ソの3音)、及びこのコードと根音を共通にする5音音階(ペンタトニック)の各音(図8の例では、CN=Cなので、ド、レ、ミ、ソ、ラの5音)に該当するかを判定し、コードの各音と一致する音の音長(ティック数)に5ポイント、コードの各音と一致しないが5音音階の各音と一致する音の音長(ティック数)に3ポイント、それ以外の音の音長(ティック数)に1ポイントを各々乗算する。次に、評価対象の2番目の1小節のイベントEVON(♯)が示す各音の音名が、コードネームCNの和音(図8の例では、CN=Fなので、ファ、ラ、ドの3音)、及びこのコードと根音を共通にする5音音階(ペンタトニック)の各音(図8の例では、CN=Fなので、ファ、ソ、ラ、ド、レの5音)に該当するかを判定し、コードの各音と一致する音の音長(ティック数)に5ポイント、コードの各音と一致しないが5音音階の各音と一致する音の音長(ティック数)に3ポイント、それ以外の音の音長(ティック数)に1ポイントを各々乗算する。その上で、2つの小節のイベントEVON(♯)の各々における音長(ティック数)に該当のポイントを乗じた値の合計値SUMPNTを求める。そして、合計値SUMPNTで合計値SUMTCKを除算した値SUMPNT/SUMTCKを当該演奏データMDの評価ポイントPとする。 Further, as shown in FIG. 8, the performance data MD (MD RA- k, MD RA1- k, MD RA2- k, MD RA3- k, MD RA4- k, MD RA5) whose evaluation points P are to be calculated include the output. -k, MD RA6 -k, MD RA7 -k, MD RA8 -k, MD RA9 -k, MD RA10 -k, if any) of the MD RA11 -k, CPU 16 may first of the performance data MD An event EV ON (#) for two measures after the end of the output in the track TR-1 is an evaluation target. Then, a total value SUM TCK of the sound lengths (number of ticks) of each event EV ON (#) of two measures to be evaluated is obtained. Next, the pitch name of each tone indicated by the event EV ON (#) of the first one measure to be evaluated is the pitch of the chord corresponding to the chord name CN 1 (in the example of FIG. 8, CN 1 = C. 3 sounds), and each tone of the 5-tone scale (Pentatonic) that shares this chord and root sound (in the example of FIG. 8, CN 1 = C, so de, re, mi, so, 5 points, and the sound length (number of ticks) that matches each chord sound is 5 points. The sound that does not match each chord sound but matches each sound of the 5 scales The sound length (number of ticks) is multiplied by 3 points, and the sound length (number of ticks) of other sounds is multiplied by 1 point. Next, the pitch name of each sound indicated by the event EV ON (#) of the second measure 1 to be evaluated is a chord of the chord name CN 2 (in the example of FIG. 8, CN 2 = F, so 3 sounds) and 5 tones (Pentatonic) sounds that share this chord and root sound (in the example of FIG. 8, CN 2 = F, so 5 sounds of Fa, So, La, De, and Les) ), 5 points for the sound length (number of ticks) that matches each sound of the chord, and the length of the sound that does not match each sound of the chord but matches each sound of the 5 scales ( The number of ticks) is multiplied by 3 points, and the sound length (number of ticks) of other sounds is multiplied by 1 point. Then, a sum SUM PNT of values obtained by multiplying the sound length (number of ticks) in each event EV ON (#) of the two measures by the corresponding point is obtained. Then, a value SUM PNT / SUM TCK obtained by dividing the total value SUM TCK by the total value SUM PNT is set as the evaluation point P of the performance data MD.

CPU16は、第1のデータ探索処理では、イベントEVON(123)が埋め込まれている演奏データMDの全てについて評価ポイントPを求めた後、評価ポイントPが最も高いものを演奏データMD1〜2としてRAM17に記憶する。 In the first data search process, the CPU 16 obtains the evaluation point P for all the performance data MD in which the event EV ON (123) is embedded, and then determines the performance data MD 1-2 with the highest evaluation point P. Is stored in the RAM 17.

第2のデータ探索処理では、CPU16は、素材データベースMDB内の全演奏データMDのうち第3トラックTR−3にイベントEVON(124)が埋め込まれているものを演奏データMD3〜4の候補とし、演奏データMD3〜4の候補である各演奏データMDと設定項目a5におけるコードネームCN及びCNの和音との適合度を評価ポイントPに換算し、評価ポイントPが最も高いものを演奏データMD3〜4としてRAM17に記憶する。 In the second data search process, the CPU 16 selects candidates for the performance data MD 3 to 4 that have the event EV ON (124) embedded in the third track TR-3 among all the performance data MD in the material database MDB. and then, converts the fit of the chord codename CN 3 and CN 4 in the setting item a5 each performance data MD which is of the performance data MD 3 to 4 candidate evaluation point P, those evaluation point P has the highest The performance data MD 3 to 4 are stored in the RAM 17.

第3のデータ探索処理では、CPU16は、素材データベースMDB内の全演奏データMDのうち第3トラックTR−3にイベントEVON(124)が埋め込まれているものを演奏データMD5〜6の候補とし、演奏データMD5〜6の候補である各演奏データMDと設定項目a5におけるコードネームCN及びCNの和音との適合度を評価ポイントPに換算し、評価ポイントPが最も高いものを演奏データMD5〜6としてRAM17に記憶する。 In the third data search process, the CPU 16 selects candidates for the performance data MDs 5 to 6 that have the event EV ON (124) embedded in the third track TR-3 among all the performance data MD in the material database MDB. The matching score between each performance data MD, which is a candidate for the performance data MD 5-6 , and the chord of the chord names CN 5 and CN 6 in the setting item a5 is converted into an evaluation point P, and the one with the highest evaluation point P is converted. stored as performance data MD 5~6 to RAM17.

第4のデータ探索処理では、CPU16は、素材データベースMDB内の全演奏データMDのうち第3トラックTR−3にイベントEVON(125)が埋め込まれているものを演奏データMD7〜8の候補とし、演奏データMD7〜8の候補である各演奏データMDと設定項目a5におけるコードネームCN及びCNの和音との適合度を評価ポイントPに換算し、評価ポイントPが最も高いものを演奏データMD7〜8としてRAM17に記憶する。 In the fourth data search process, the CPU 16 selects the performance data MD 7 to 8 that have the event EV ON (125) embedded in the third track TR-3 among all the performance data MD in the material database MDB. The matching score between each performance data MD that is a candidate for the performance data MD 7 to 8 and the chords of the chord names CN 7 and CN 8 in the setting item a5 is converted into an evaluation point P, and the one with the highest evaluation point P is converted. The performance data MD 7 to 8 is stored in the RAM 17.

図6において、CPU16は、第1の配列処理を行う(S202)。第1の配列処理では、CPU16は、演奏データMD5〜6の後に演奏データMD7〜8を配列して曲の第5〜第8小節の4小節分のイベントEVON(♯)及びEVOFF(♯)を含む演奏データMD5〜8を生成する。より詳細に説明すると、CPU16は、配列順が相前後する2つの演奏データMD5〜6及びMD7〜8のうち後の演奏データMD7〜8の種類がアウフタクトのない演奏データMDである場合とアウフタクトのある演奏データMDである場合の各々において次のような処理を行う。 In FIG. 6, the CPU 16 performs a first array process (S202). In the first arrangement processing, the CPU 16 arranges the performance data MD 7 to 8 after the performance data MD 5 to 6 , and the events EV ON (#) and EV OFF for the four measures of the fifth to eighth measures of the song. Performance data MD 5 to 8 including (#) are generated. More specifically, in the case where the type of the subsequent performance data MD 7 to 8 of the two performance data MD 5 to 6 and MD 7 to 8 whose order of arrangement is in sequence is the performance data MD without an outcome, The following processing is performed for each of the performance data MD with the output.

a7.演奏データMD7〜8がアウフタクトのない演奏データMDである場合
この場合、CPU16は、演奏データMD5〜6の各トラックTR−jのイベントEVON(♯)、EVOFF(♯)、及びデルタタイムΔTの後に演奏データMD7〜8の各トラックTR−jのイベントEVON(♯)、EVOFF(♯)、及びデルタタイムΔTを繋げたものを演奏データMD5〜8とする。
a7. In the case where the performance data MD 7 to 8 are performance data MD without an output in this case, the CPU 16 performs the events EV ON (#), EV OFF (#), and delta of each track TR-j of the performance data MD 5 to 6 each track TR-j event EV oN performance data MD 7 to 8 after the time ΔT h (♯), EV OFF (♯), and the performance data MD 5 to 8 those connecting the delta time [delta] T h.

b7.演奏データMD7〜8がアウフタクトのある演奏データMDである場合
この場合、CPU16は、演奏データMD5〜6に対して、演奏データMD5〜6の各イベントEVON(♯)及びEVOFF(♯)が示す各音からなるメロディの終端を配列順が後の演奏データMD7〜8の各イベントEVON(♯)及びEVOFF(♯)が示す音からなるメロディの中のアウフタクトの分だけ短くする書き換え処理を施す。その上で、書き換え処理を経た演奏データMD’5〜6の各トラックTR−jのイベントEVON(♯)、EVOFF(♯)、及びデルタタイムΔTの後に演奏データMD7〜8の各トラックTR−jのイベントEVON(♯)、EVOFF(♯)、及びデルタタイムΔTを繋げたものを演奏データMD5〜8とする。書き換え処理の詳細な手順は次の通りである。この書き換え処理では、まず、演奏データMD7〜8の第1トラックTR−1の各イベントEVON(♯)及びEVOFF(♯)が示す音からなるメロディの中のアウフタクトの演奏区間をアウフタクト演奏区間Rとし、演奏データMD5〜6の第1トラックTR−1のイベントEVON(♯)及びEVOFF(♯)が示す音からなるメロディの演奏区間R5〜6の終端よりもアウフタクト演奏区間Rの分だけ前の時刻を基準時刻tBASISとする(図9)。
b7. In the case where the performance data MD 7 to 8 are performance data MD with an effect In this case, the CPU 16 performs the events EV ON (#) and EV OFF (for the performance data MD 5 to 6 on the performance data MD 5 to 6 ). The end of the melody consisting of each sound indicated by #) is the amount of the outfact in the melody consisting of the sound indicated by each event EV ON (#) and EV OFF (#) of the performance data MD 7 to 8 after the arrangement order. Rewrite processing to shorten it. On top of that, each track TR-j event EV ON performance data MD '5 to 6 which has passed through the rewriting process (♯), EV OFF (♯ ), and each of the performance data MD 7 to 8 after the delta time [Delta] T h event EV ON of the track TR-j (♯), EV OFF (♯), and the performance data MD 5~8 those connecting the delta time ΔT h. The detailed procedure of the rewriting process is as follows. In this rewriting process, first, an after-performance performance section in the melody composed of sounds indicated by the events EV ON (#) and EV OFF (#) of the first track TR-1 of the performance data MD 7 to 8 is performed as an after-performance. and section R a, first track TR-1 event EV ON performance data MD 5 to 6 (♯) and EV OFF (♯) pick-up (upbeat) performance than the end of the play interval R 5 to 6 of the melody composed of the sound indicated by the The time before the section RA is set as the reference time t BASIS (FIG. 9).

次に、演奏データMD5〜6の第2トラックTR−2における一連のイベントEVON(126)の中から基準時刻tBASISに先行し且つ基準時刻tBASISに最も近い時刻を実行時刻tとするイベントEVOFF(126)を選択する(図10)。次に、演奏データMD5〜6の各トラックTR−jにおけるこの選択したイベントEVOFF(126)よりも後のイベントEVON(♯)、EVOFF(♯)、及びデルタタイムΔTを消去する(図11)。次に、演奏データMD5〜6の第1トラックTR−1における消去されずに残ったイベントEVON(♯)及びEVOFF(♯)のうち最後のイベントEVOFF(♯)を選択し、この選択したイベントEVOFF(♯)が示す音の消音時刻が基準時刻tBASISと一致するように当該イベントEVOFF(♯)の実行時刻tを示すデルタタイムΔT(すなわち、当該イベントEVOFF(♯)の前のデルタタイムΔT)を書き換えたものを演奏データMD’5〜6とする(図12)。後の演奏データMD7〜8がアウフタクトのある演奏データMDである場合、以上の処理を経て得られた演奏データMD’5〜6の各トラックTR−jの後に演奏データMD7〜8の各トラックTR−jを繋げたものを演奏データMD5〜8とする(図13)。 Then, the reference time t BASIS the preceding and the reference time t BASIS closest time to the execution time t from a series of events EV ON the second track TR-2 performance data MD 5 to 6 (126) Event EV OFF (126) is selected (FIG. 10). Next, the events EV ON (#), EV OFF (#) and the delta time ΔT h after the selected event EV OFF (126) in each track TR-j of the performance data MD 5-6 are deleted. (FIG. 11). Next, the last event EV OFF (#) is selected from among the events EV ON (#) and EV OFF (#) that remain in the first track TR-1 of the performance data MD 5-6 , and this is selected. selected event EV OFF (♯) delta indicating the execution time t of the event EV OFF as silencing time coincides with the reference time t bASIS sound indicated (♯) time [delta] t h (i.e., the event EV OFF (♯ The data obtained by rewriting the delta time ΔT h ) before) is set as performance data MD ′ 5 to 6 (FIG. 12). When the subsequent performance data MD 7-8 is performance data MD with an effect, each of the performance data MD 7-8 after each track TR-j of the performance data MD ' 5-6 obtained through the above processing. The performance data MD 5 to 8 are connected to the tracks TR-j (FIG. 13).

図6において、CPU16は、第2の配列処理を行う(S203)。第2の配列処理では、CPU16は、演奏データMD3〜4の後に演奏データMD5〜8を配列して曲の第3〜第8小節の6小節分のイベントEVON(♯)及びEVOFF(♯)を含む演奏データMD3〜8を生成する。この第2の配列処理では、配列順が相前後する2つの演奏データMD3〜4及びMD5〜8のうち演奏データMD5〜8の種類がアウフタクトのない演奏データMDである場合は、演奏データMD3〜4の各トラックTR−jのイベントEVON(♯)、EVOFF(♯)、及びデルタタイムΔTの後に演奏データMD5〜8の各トラックTR−jのイベントEVON(♯)、EVOFF(♯)、及びデルタタイムΔTを繋げたものを演奏データMD3〜8とする。また、演奏データMD5〜8の種類がアウフタクトのある演奏データMDである場合は、演奏データMD3〜4に対して上述した書き換え処理を施す。その上で、書き換え処理を経た演奏データMD’3〜4の各トラックTR−jのイベントEVON(♯)、EVOFF(♯)、及びデルタタイムΔTの後に演奏データMD5〜8の各トラックTR−jのイベントEVON(♯)、EVOFF(♯)、及びデルタタイムΔTを繋げたものを演奏データMD3〜8とする。 In FIG. 6, the CPU 16 performs a second array process (S203). In the second arrangement process, the CPU 16 arranges the performance data MD 5 to 8 after the performance data MD 3 to 4 , and the events EV ON (#) and EV OFF for the six bars of the third to eighth bars of the music. Performance data MD 3 to 8 including (#) are generated. In the second arrangement process, when the type of musical data MD 5 to 8 of the performance of the two that arrangement order is tandem data MD 3 to 4 and MD 5 to 8 are performance data MD having no pick-up (upbeat) is playing each track TR-j of the event EV oN data MD 3~4 (♯), EV OFF (♯), and each track TR-j of the event EV oN performance data MD 5~8 after the delta time ΔT h (♯ ), EV OFF (♯), and the performance data MD 3 to 8 those connecting the delta time [delta] T h. Further, when the type of the performance data MD 5 to 8 is performance data MD with an effect, the rewriting process described above is performed on the performance data MD 3 to 4 . After that, each of the performance data MD 5-8 after the event EV ON (#), EV OFF (#) and the delta time ΔT h of each track TR-j of the performance data MD ′ 3-4 after the rewriting process. event EV ON tracks TR-j (♯), EV OFF (♯), and the performance data MD 3 to 8 those connecting the delta time [delta] T h.

次に、CPU16は、第3の配列処理を行う(S204)。第3の配列処理では、CPU16は、演奏データMD1〜2の後に演奏データMD3〜8を配列して1曲分(第1〜第8小節の8小節分)の曲演奏データEMDを生成する。第3の配列処理では、配列順が相前後する2つの演奏データMD1〜2及びMD3〜8のうち演奏データMD3〜8の種類がアウフタクトのない演奏データMDである場合は、演奏データMD1〜2の各トラックTR−jのイベントEVON(♯)、EVOFF(♯)、及びデルタタイムΔTの後に演奏データMD3〜8の各トラックTR−jのイベントEVON(♯)、EVOFF(♯)、及びデルタタイムΔTを繋げたものを曲演奏データEMDとする。また、演奏データMD3〜8の種類がアウフタクトのある演奏データMDである場合は、演奏データMD1〜2に対して上述した書き換え処理を施す。その上で、書き換え処理を経た演奏データMD’1〜2の各トラックTR−jのイベントEVON(♯)、EVOFF(♯)、及びデルタタイムΔTの後に演奏データMD3〜8の各トラックTR−jのイベントEVON(♯)、EVOFF(♯)、及びデルタタイムΔTを繋げたものを曲演奏データEMDとする。 Next, the CPU 16 performs a third array process (S204). In the third arrangement processing, the CPU 16 arranges the performance data MD 3 to 8 after the performance data MD 1 to 2 to generate one piece of music performance data EMD (eight bars of the first to eighth bars). To do. In the third arrangement process, if the type of the performance data MD 3-8 is the performance data MD without the out of the two performance data MD 1-2 and MD 3-8 , the arrangement order of which is the order, the performance data each track TR-j of the event EV oN of MD 1~2 (♯), EV OFF (♯), and each track TR-j of the event EV oN performance data MD 3~8 after the delta time ΔT h (♯) , EV OFF (♯), and those connecting the delta time ΔT h and song performance data EMD. Further, when the type of the performance data MD 3 to 8 is performance data MD with an effect, the rewriting process described above is performed on the performance data MD 1 and 2 . After that, each of the performance data MD 3 to 8 after the event EV ON (#), EV OFF (#), and the delta time ΔT h of each track TR-j of the performance data MD ′ 1 to 2 subjected to the rewriting process. event EV ON of the track TR-j (♯), EV OFF (♯), and those connecting the delta time ΔT h and song performance data EMD.

次に、CPU16は、第1〜第3の配列処理により得られた1曲分の曲演奏データEMDを楽曲データベースBDBに記憶する(S205)。   Next, the CPU 16 stores the music performance data EMD for one music obtained by the first to third arrangement processes in the music database BDB (S205).

図14は、歌唱合成処理を示すフローチャートである。図14に示す一連の処理は歌唱合成機能の働きによって実行される処理である。図14に示す一連の処理は、操作部12によって歌唱音声の発生が指示されると開始される。図14に示す一連の処理の実行にあたり、利用者は、歌唱曲のメロディに乗せる歌詞をひらがな文字の文字列として入力する。   FIG. 14 is a flowchart showing the song synthesis process. A series of processes shown in FIG. 14 is a process executed by the function of the song synthesis function. The series of processes shown in FIG. 14 is started when the operation unit 12 instructs the generation of singing voice. In executing the series of processes shown in FIG. 14, the user inputs lyrics to be placed on the melody of the song as a character string of hiragana characters.

図14において、CPU16は、歌詞として入力された文字列を一連の音声素片に変換する(S301)。CPU16は、ステップS301で得られた音声素片の各々と対応する音声素片データPDを音声素片データベースPDBからRAM17に読み出す(S302)。CPU16は、このRAM17内の音声素片データPDを接続することにより、歌詞として入力された文字列と対応する音声信号を生成する(S303)。CPU16は、楽曲データベースBDBに記憶された曲演奏データEMDの1つをRAM17に読み出す(S304)。CPU16は、ステップS304で生成した音声信号のピッチを曲演奏データEMDのメロディに合わせるためのピッチ変換処理を施す(S305)。CPU16は、このピッチ変換処理を施した音声信号を放音部14から音として放音させる(S306)。この歌唱合成処理の各ステップの詳細な内容については、特許文献2を参照されたい。   In FIG. 14, the CPU 16 converts a character string input as lyrics into a series of speech segments (S301). The CPU 16 reads the speech unit data PD corresponding to each speech unit obtained in step S301 from the speech unit database PDB to the RAM 17 (S302). The CPU 16 generates a speech signal corresponding to the character string input as lyrics by connecting the speech segment data PD in the RAM 17 (S303). The CPU 16 reads one piece of music performance data EMD stored in the music database BDB into the RAM 17 (S304). The CPU 16 performs a pitch conversion process for matching the pitch of the audio signal generated in step S304 with the melody of the music performance data EMD (S305). The CPU 16 emits the sound signal subjected to the pitch conversion process as sound from the sound emitting unit 14 (S306). Please refer to patent document 2 for the detailed contents of each step of this song composition process.

以上が、本実施形態の詳細である。本実施形態によると、次の効果が得られる。
第1に、本実施形態では、編集処理において、演奏データMDの後にアウフタクトのある演奏データMDを配列する場合、配列順が前の演奏データMDに対して書き換え処理を施し、書き換え処理を経た演奏データMDの後に該当の演奏データMDを配列する。よって、データベースMDBに収録された複数個の演奏データMDを用いてバリエーションの豊かな楽曲を創作できる。
The above is the details of the present embodiment. According to this embodiment, the following effects can be obtained.
First, in the present embodiment, in the editing process, when the performance data MD having an effect is arranged after the performance data MD, the performance data MD whose arrangement order is before is subjected to a rewrite process, and the performance data that has undergone the rewrite process. The corresponding performance data MD is arranged after the data MD. Therefore, it is possible to create a musical composition rich in variations using a plurality of performance data MD recorded in the database MDB.

第2に、本実施形態では、データ蓄積処理において、ハ長調の演奏データMDに移調処理を施すことによりハ長調以外の調の演奏データMDを生成し、これらの演奏データMDを元のハ長調の演奏データMDとともに素材データベースMDBに記憶する。よって、本実施形態によると、異なる調のメロディを組み合わせて多様な楽曲を創作することができる。   Secondly, in the present embodiment, in the data accumulation processing, performance data MD in a key other than C major is generated by performing transposition processing on performance data MD in C major, and these performance data MD are converted into the original C major. The performance data MD is stored in the material database MDB. Therefore, according to this embodiment, it is possible to create various musical compositions by combining melody of different tones.

以上、この発明の一実施形態について説明したが、この発明には他にも実施形態があり得る。例えば、以下の通りである。
(1)上記実施形態において、編集処理により得られた1曲分の曲演奏データEMDを楽曲の音信号として放音部14から放音させるようにしてもよい。
Although one embodiment of the present invention has been described above, the present invention may have other embodiments. For example, it is as follows.
(1) In the above embodiment, the music performance data EMD for one piece of music obtained by the editing process may be emitted from the sound emitting unit 14 as a sound signal of the music.

(2)上記実施形態では、4つの演奏データMDを配列して1曲分の曲演奏データEMDを生成した。しかし、2〜3つの演奏データMDや5つ以上の演奏データMDを配列して1曲分の曲演奏データEMDを生成してもよい。また、演奏データMDにおける演奏区間の長さは2小節分である必要はなく、1小節分の長さにしてもよいし、3小節分以上の長さにしてもよい。 (2) In the above embodiment, four pieces of musical performance data MD are arranged to generate one piece of musical piece performance data EMD. However, 2 to 3 performance data MD and 5 or more performance data MD may be arranged to generate music performance data EMD for one song. Further, the length of the performance section in the performance data MD does not have to be two bars, and may be one bar, or may be three bars or more.

(3)上記実施形態における第1のマーキング処理では、演奏区間R−i内のメロディの区切り位置を決定した後、第1トラックTR−jにおける区切り位置の直前のイベントEVOFF(♯)を選択し、この選択したイベントEVOFF(♯)と第2トラックにおけるイベントEVON(126)の実行時刻tが同時刻になるように当該イベントEVON(126)の前後のデルタタイムΔTを書き換えた。しかし、第1トラックTR−jにおける区切り位置の直後のイベントEVON(♯)(すなわち、閾値TH3以上の長さの休符の直後の音の発音を指示するイベントEVON(♯))を選択し、この選択したイベントEVON(♯)と第2トラックにおけるイベントEVON(126)の実行時刻tが同時刻になるように当該イベントEVON(126)の前後のデルタタイムΔTを書き換えてもよい。 (3) In the first marking process in the above embodiment, after determining the melody break position in the performance section Ri, the event EV OFF (#) immediately before the break position in the first track TR-j is selected. Then, the delta time ΔT before and after the event EV ON (126) is rewritten so that the execution time t of the selected event EV OFF (#) and the event EV ON (126) in the second track is the same time. However, the event EV ON (#) immediately after the break position in the first track TR-j (that is, the event EV ON (#) instructing the sound generation immediately after the rest having a length equal to or greater than the threshold TH3) is selected. Even if the delta time ΔT before and after the event EV ON (126) is rewritten so that the execution time t of the selected event EV ON (#) and the event EV ON (126) in the second track is the same time. Good.

(4)上記実施形態では、第1トラックTR−jにおける演奏の区切り位置の直前のイベントEVOFF(♯)のマークであるイベントEVON(126)を第2トラックTR−jに記述した。しかし、第1トラックTR−jにおける演奏の区切り位置の直前のイベントEVOFF(♯)のマークとなるイベントを第1トラックTR−jに記述してもよい。例えば、所定種類のコントロールチェンジイベントを演奏の区切り位置の直前のイベントEVOFF(♯)のマークにし、第1トラックTR−jにおける演奏の区切り位置の直前のイベントEVOFF(♯)とこのコントロールチェンジイベントを連続して記述してもよい。 (4) In the above embodiment, the event EV ON (126), which is the mark of the event EV OFF (#) immediately before the performance break position in the first track TR-j, is described in the second track TR-j. However, an event that becomes the mark of the event EV OFF (#) immediately before the performance break position in the first track TR-j may be described in the first track TR-j. For example, the mark of the previous event EV OFF delimiter position of playing a predetermined type of control change events (♯), the control change and the immediately preceding event EV OFF delimiter position of the performance in the first track TR-j (♯) Events may be described continuously.

(5)上記実施形態における書き換え処理では、相前後する2つの演奏データMDのうち配列順が前のものの第2トラックTR−2における一連のイベントEVON(126)の中から基準時刻tBASISに先行し且つ基準時刻tBASISに最も近い時刻を実行時刻tとするイベントEVOFF(126)を選択し、当該演奏データMDの各トラックTR−jにおけるこの選択したイベントEVOFF(126)よりも後のイベントEVON(♯)、EVOFF(♯)、及びデルタタイムΔTを消去した。しかし、第2トラックTR−2にイベントEVON(126)が1つも記されていない場合もあり得る。この場合、CPU16は、配列順が前の演奏データMDの第1トラックTR−1における一連のイベントEVON(♯)及びEVOFF(♯)の中から基準時刻tBASISの後のイベントEVOFF(♯)であって基準時刻tBASISに最も近い時刻を実行時刻tとするイベントEVOFF(♯)を選択し、当該演奏データMDの各トラックTR−jにおけるこの選択したイベントEVOFF(♯)よりも後のイベントEVON(♯)、EVOFF(♯)、及びデルタタイムΔTを消去するとよい。 (5) In the rewriting process in the above-described embodiment, the reference time t BASIS is selected from the series of events EV ON (126) in the second track TR-2 in which the arrangement order is the previous of the two consecutive performance data MD. An event EV OFF (126) that precedes and is closest to the reference time t BASIS is selected as the event EV OFF (126), and is later than the selected event EV OFF (126) in each track TR-j of the performance data MD. of events EV ON (♯), EV OFF (♯), and to erase the delta time ΔT h. However, there may be a case where no event EV ON (126) is written on the second track TR-2. In this case, the CPU 16 selects the event EV OFF (after the reference time t BASIS from the series of events EV ON (#) and EV OFF (#) in the first track TR-1 of the performance data MD having the previous arrangement order. ♯) is a an event EV OFF to the time closest to the reference time t bASIS the execution time t (♯) select, from the selected event EV OFF in each track TR-j of the performance data MD (♯) event EV ON after also (♯), EV OFF (♯ ), and may want to erase the delta time ΔT h.

(6)上記実施形態では、曲演奏データSMDやこれを分割して得られる演奏データMDは、ノートオンイベントEVON(♯)、ノートオフイベントEVOFF(♯)、及びデルタタイムΔTをL個のトラックTR−j(j=1〜L)に分けて並べたものであった。しかし、曲演奏データSMDやこれを分割して得られる演奏データMDを別のデータフォーマットのものにしてもよい。例えば、演奏データSMD及びMDを、該当するトラックのトラック番号、音源の発音チャネル、イベントの実行時刻を示すタイミングデータ、イベントの種類、及びイベントのパラメータからなるレコードを時系列順に並べた形式(イベントリスト形式)にしてもよい。また、演奏データSMD及びMDを、イベントの種類とそのパラメータのみからなるレコードを時系列順に並べた形式にしてもよい。また、演奏データSMD及びMDを、ピアノロール形式やスコアロール形式にしてもよい。 (6) In the above embodiment, the music performance data SMD and the performance data MD obtained by dividing the music performance data SMD are the note-on event EV ON (#), the note-off event EV OFF (#), and the delta time ΔT h as L The tracks TR-j (j = 1 to L) were divided and arranged. However, the music performance data SMD and the performance data MD obtained by dividing the music performance data SMD may have a different data format. For example, a format in which performance data SMD and MD are arranged in time series in the order of records of track numbers of corresponding tracks, sound source channels of sound sources, timing data indicating event execution times, event types, and event parameters. (List format). Further, the performance data SMD and MD may be in a format in which records consisting only of event types and their parameters are arranged in chronological order. The performance data SMD and MD may be in a piano roll format or a score roll format.

(7)上記実施形態では、ノートナンバ126のイベントEVON(126)を曲演奏データSMD内における演奏の区切り位置を示すマークとし、ノートナンバ125のイベントEVON(125)を歌唱曲の最後の部分のメロディに相応しい演奏区間を示すマークとし、ノートナンバ124のイベントEVON(124)を歌唱曲の最初の部分のメロディに相応しい演奏区間を示すマークとし、ノートナンバ123のイベントEVON(123)を歌唱曲の最初でも最後でもない部分のメロディに相応しい演奏区間を示すマークとした。しかし、演奏の区切り位置や歌唱曲の各部分のメロディに相応しい演奏区間を示すマークとして、別の種類のデータを採用してもよい。また、このマークとしての役割を果たすデータはMIDIにおいてサポートされていない形式のデータであってもよい。 (7) In the above embodiment, the event EV ON (126) of the note number 126 is used as a mark indicating the performance break position in the music performance data SMD, and the event EV ON (125) of the note number 125 is the last of the song. The event EV ON (123) of the note number 123 is set as a mark indicating the performance section appropriate for the melody of the part, the event EV ON (124) of the note number 124 is set as the mark indicating the performance section appropriate to the melody of the first part of the song. Is a mark indicating a performance section suitable for the melody of the song that is not the first or last part of the song. However, another type of data may be adopted as a mark indicating a performance section suitable for a performance break position or a melody of each part of a song. The data serving as the mark may be data in a format not supported by MIDI.

(8)上記実施形態の移調処理では、ハ長調の演奏データMD−k内の各イベントEVON(♯)のノートナンバを半音ずつ高いものに置き換えてハ長調と異なる11種類の演奏データMDR1−k、MDR2−k、MDR3−k、MDR4−k、MDR5−k、MDR6−k、MDR7−k、MDR8−k、MDR9−k、MDR10−k、MDR11−kを生成した。しかし、操作部12の操作により、調の種類を設定し、設定された種類の調の演奏データMD−kだけを生成するようにしてもよい。また、移調処理後に、11種類の演奏データMDR1−k、MDR2−k、MDR3−k、MDR4−k、MDR5−k、MDR6−k、MDR7−k、MDR8−k、MDR9−k、MDR10−k、MDR11−kに対して各々の譜面における調音記号を取り除く処理を施し、ハ長調のメロディを示す演奏データMDへとデータ内容を修正してもよい。 (8) In the transposition processing of the above embodiment, 11 types of performance data MD different from C major are obtained by replacing the note numbers of each event EV ON (#) in C major performance data MD R -k with higher semitones. R1- k, MD R2- k, MD R3- k, MD R4- k, MD R5- k, MD R6- k, MD R7- k, MD R8- k, MD R9- k, MD R10- k, MD R11- k was produced. However, the key type may be set by operating the operation unit 12, and only the performance data MD-k of the set key may be generated. Further, after the transposition processing, 11 types of performance data MD R1 -k, MD R2 -k, MD R3 -k, MD R4 -k, MD R5 -k, MD R6 -k, MD R7 -k, MD R8 -k , MD R9 -k, MD R10 -k, MD R11 -k may be subjected to a process of removing the articulation symbols in each musical score, and the data content may be corrected to performance data MD indicating C major melody.

(9)上記実施形態のアウフタクト生成処理において、CPU16は、演奏データMDRA−kを次のようにして生成してもよい。まず、演奏データMD−kの複製を生成する。次に、この複製である演奏データMD−kにおける演奏区間R−kの始点を時刻t0とし、この時刻t0と1/h(例えば、h=2)小節分だけ後の時刻tとの間の演奏区間R内のイベントEVON(♯)、EVOFF(♯)、及びデルタタイムΔTを複製する。そして、この複製であるイベントEVON(♯)、EVOFF(♯)、及びデルタタイムΔTを元の演奏データMD−kの各トラックTR−jの前に追記したものを演奏データMDRA−kとする。 (9) In the output generation process of the above embodiment, the CPU 16 may generate the performance data MD RA -k as follows. First, to produce a copy of the performance data MD R -k. Then, the play interval R-k in the performance data MD R -k is the replication origin was the time t0, the time t0 as 1 / h (e.g., h = 2) between the time t B after only bars playing interval event EV ON in R B between (♯), EV OFF (♯ ), and replicating the delta time [delta] T. The event EV ON is this replication (♯), EV OFF (♯ ), and playing those append before each track TR-j delta time ΔT the original performance data MD R -k data MD RA - k.

(10)上記実施形態の演奏データ取得処理では、評価対象である一連のイベントEVON(♯)を、コードネームCN及びCNのコードと一致するもの、コードとは一致しないが5音音階の音と一致するもの、コード及び5音音階の何れの音とも一致しないものの3種類に分類し、各イベントEVON(♯)の音長(ティック数)に各々の種類に応じたポイントを乗算した。しかし、評価対象である一連のイベントEVON(♯)を、コードネームCN及びCNのコードと一致するもの、コードとは一致しないが5音音階の音と一致するもの、コード及び5音音階の何れの音とも一致しないいがそれ以外のハ長調音階の音と一致するもの、コード、5音音階、ハ長調音階の何れの音とも一致しないものの4種類に分類し、各イベントEVON(♯)の音長(ティック数)に各々の種類に応じたポイントを乗算してもよい。この場合において、3番目の種類(コード及び5音音階の何れの音とも一致しないいがそれ以外のハ長調音階の音と一致するもの)に該当する場合に1ポイントを乗算し、4番目の種類(コード及び5音音階の何れの音とも一致しないいがそれ以外のハ長調音階の音と一致するもの)に該当する場合にはポイントを乗算しないようにするとよい。 (10) In the performance data acquisition process of the above embodiment, the series of events EV ON (#) to be evaluated match the chords of chord names CN 1 and CN 2 , and they do not match chords but are five tone scales Are classified into three types: those that match the sound of the chord and those that do not match any of the chord and the five-tone scale, and multiply the sound length (number of ticks) of each event EV ON (#) by the point according to each type did. However, a series of events EV ON (#) to be evaluated matches those of chord names CN 1 and CN 2 , does not match chords but matches chord sounds, chords and five tones Each event EV ON is classified into four types: one that does not match any note in the scale or one that does not match any other note in the C major scale, one that does not match any sound in the chord, the fifth scale, or the C major scale. The sound length (number of ticks) of (#) may be multiplied by a point corresponding to each type. In this case, if it falls under the third type (one that does not match any of the chord and the fifth note scale, or one that matches the other C major note), multiply by one point, It is better not to multiply the points when it corresponds to the type (one that does not match any of the chord and the five-tone scale, or matches the other C major notes).

(11)上記実施形態のアウフタクト生成処理では、相前後する演奏データMDRA−i及びMDRA−(i+1)がオーバーラップ部分を有するように各演奏データMDRA−i内に含めるイベントEVON(♯)及びEVOFF(♯)とデルタタイムΔTの切り出し位置を決定した。しかし、例えば、曲演奏データSMDにおける演奏区間R−1〜R−3内のイベントEVON(♯)、EVOFF(♯)、デルタタイムΔTを演奏データMDRA−1とし、演奏区間R−4〜R−6内のイベントEVON(♯)、EVOFF(♯)、デルタタイムΔTを演奏データMDRA−2とし…というように、相前後する演奏データMDRA−i及びMDRA−(i+1)がオーバーラップ部分を持たないように各演奏データMDRA−i内に含めるイベントEVON(♯)及びEVOFF(♯)とデルタタイムΔTの切り出し位置を決定してもよい。 (11) In the output generation process of the above embodiment, the event EV ON () included in each performance data MD RA -i so that the successive performance data MD RA -i and MD RA- (i + 1) have overlapping portions. ♯) and EV OFF (♯) and to determine the cut-out position of the delta time [delta] T h. However, for example, playing section R-1 to R-3 in the event EV ON in music performance data SMD (♯), EV OFF ( ♯), the delta time [Delta] T h and performance data MD RA -1, playing interval R- 4~R-6 in the event EV ON (♯), EV OFF (♯), so that the delta-time [delta] T h and performance data MD RA -2 ..., the performance data MD RA -i and MD RA preceding and succeeding - (i + 1) may determine the event EV oN (♯) and EV OFF (♯) and cut-out position of the delta time [delta] T h including the overlap portion to have no within each performance data MD RA -i.

(12)上記実施形態では、曲演奏データSMD及びMDは、ある決まった時間長分の音の並びであるメロディにおける各音の発音内容を示すデータの配列であった。しかし、曲演奏データSMD及びMDを、ある決まった時間長分のハーモニーやリズムを決定づける音の並びにおける各音の発音内容を示すデータの配列としてもよい。 (12) In the above embodiment, the music performance data SMD and MD are an array of data indicating the pronunciation content of each sound in the melody, which is a sequence of sounds for a certain length of time. However, the music performance data SMD and MD may be an array of data indicating the pronunciation content of each sound in a sequence of sounds that determine the harmony and rhythm for a certain length of time.

(13)上記実施形態における第1〜第4の配列処理では、処理対象である2つの演奏データMD(例えば、演奏データMD5〜6及びMD7〜8とする)について、配列順が前の演奏データMD5〜6の第1トラックTR−1における消去されずに残ったイベントEVON(♯)及びEVOFF(♯)のうち最後のイベントEVOFF(♯)を選択し、この選択したイベントEVOFF(♯)が示す音の消音時刻が基準時刻tBASISと一致するように当該イベントEVOFF(♯)の実行時刻tを示すデルタタイムΔTを書き換えた。しかし、配列順が前の演奏データMD5〜6の第1トラックTR−1における消去されずに残ったイベントイベントEVOFF(♯)が示す音の消音時刻と基準時刻tBASISとの差が所定値未満になるように当該イベントEVOFF(♯)の実行時刻tを示すデルタタイムΔTを書き換えてもよい。要するに、第1〜第4の配列処理では、配列順が前の演奏データMDに対して、当該演奏データMDの各イベントが示す各音からなる音の並びの終端を配列順が後の演奏データの各イベントが示す音の並びの中の略アウフタクトの分だけ短くする処理が実行されればよい。 (13) In the first to fourth arrangement processes in the above embodiment, the arrangement order of the two performance data MD (for example, performance data MD 5-6 and MD 7-8 ) to be processed is the previous one. The last event EV OFF (#) is selected from among the events EV ON (#) and EV OFF (#) that remain in the first track TR-1 of the performance data MD 5-6 , and this selected event is selected. EV OFF (♯) rewrites the delta time [delta] t h indicating the execution time t of the event EV OFF as silencing time coincides with the reference time t bASIS sound indicated (♯). However, the difference between the mute time of the sound indicated by the event event EV OFF (#) remaining without being erased in the first track TR-1 of the performance data MD 5-6 of the previous arrangement order and the reference time t BASIS is predetermined. may be rewritten delta time [delta] t h indicating the execution time t of the event EV OFF to be less than the value (♯). In short, in the first to fourth arrangement processes, with respect to the performance data MD having the previous arrangement order, the performance data having the arrangement order subsequent to the end of the arrangement of the sounds indicated by the events of the performance data MD. It is only necessary to execute a process of shortening by the amount of approximately the outfact in the sound sequence indicated by each event.

10…曲編集装置、11…データ読込部、12…操作部、13…表示部、14…放音部,15…制御部、16…CPU、17…RAM、18…ROM、19…ハードディスク。 DESCRIPTION OF SYMBOLS 10 ... Song editing apparatus, 11 ... Data reading part, 12 ... Operation part, 13 ... Display part, 14 ... Sound emission part, 15 ... Control part, 16 ... CPU, 17 ... RAM, 18 ... ROM, 19 ... Hard disk.

Claims (5)

M(Mは1以上の整数)小節分の音の並びにおける各音の発音内容を示す各イベントと各イベントの実行時刻を示すタイミングデータとを含む第1の種類の演奏データと、アウフタクトとそれに続くM小節分の音の並びにおける各音の発音内容を示す各イベントと各イベントの実行時刻を示すタイミングデータとを含む第2の種類の演奏データとを記憶した記憶手段と、
前記記憶手段から複数個の演奏データを取得して配列する編集手段であって、前記第1または第2の種類の演奏データの後に前記第2の種類の演奏データを配列する場合に、配列順が前の演奏データに対して、当該演奏データの各イベントが示す各音からなる音の並びの終端を配列順が後の演奏データの各イベントが示す音の並びの中の略アウフタクトの分だけ短くする書き換え処理を施し、この書き換え処理を経た演奏データの後に該当の演奏データを配列する編集手段と
を具備することを特徴とする曲編集装置。
M (where M is an integer equal to or greater than 1) bars, a first type of performance data including each event indicating the sound content of each sound and timing data indicating the execution time of each event; Storage means for storing a second type of performance data including each event indicating the sound content of each sound in the subsequent M-bar sound sequence and timing data indicating the execution time of each event;
Editing means for acquiring and arranging a plurality of performance data from the storage means, and arranging the second type of performance data after the first or second type of performance data. For the previous performance data, the end of the sound sequence consisting of the sound indicated by each event of the performance data is the amount corresponding to the approximate output in the sound sequence indicated by the event of the performance data after the arrangement order. A music editing apparatus comprising: editing means for performing a rewriting process for shortening and arranging the performance data after the performance data subjected to the rewriting process.
前記編集手段は、
前記書き換え処理では、
配列順が後の演奏データの各イベントが示す音の並びの中のアウフタクトの音の演奏区間をアウフタクト演奏区間とし、配列順が前の演奏データのイベントが示す音からなる演奏区間の終端よりも前記アウフタクト演奏区間の分だけ前の時刻を基準時刻とし、配列順が前の演奏データにおける音の並びの区切りの位置に該当する各イベントの中から前記基準時刻に先行し且つ前記基準時刻に最も近い時刻を実行時刻とするイベントを選択し、この選択したイベントよりも後のイベントとタイミングデータを消去し、消去されずに残ったイベントのうち最後のイベントが示す音の消音時刻が前記基準時刻と略一致するように当該最後のイベントの実行時刻を示すタイミングデータを書き換える
ことを特徴とする請求項1に記載の曲編集装置。
The editing means includes
In the rewriting process,
In the sequence of sounds indicated by each event of the performance data whose arrangement order is later, the performance section of the sound of the after-effects is defined as the after-performance period, and from the end of the performance section consisting of the sound indicated by the event of the previous performance data The time before the above-mentioned outcome performance section is set as the reference time, and the sequence is preceded by the reference time from the events corresponding to the positions of the sound arrangement breaks in the previous performance data, and the reference time is the longest. Select an event whose execution time is the nearest time, erase the event and timing data after this selected event, and the mute time of the sound indicated by the last event among the remaining events without being erased is the reference time. The music editing apparatus according to claim 1, wherein the timing data indicating the execution time of the last event is rewritten so as to substantially coincide with.
前記第1及び第2の種類の演奏データの各イベントのうち所定値よりも長い休符を経て発音される音のイベントにはマークが付加されており、
前記編集手段は、
前記書き換え処理では、
前記配列順が前の演奏データに含まれる各イベントのうちマークが付加されているイベントを前記区切り位置に該当する各イベントとし、当該イベントの中から前記基準時刻に先行し且つ前記基準時刻に最も近い時刻を実行時刻とするイベントを選択する
ことを特徴とする請求項2に記載の曲編集装置。
Of the events of the first and second types of performance data, a mark is added to a sound event that is sounded through a rest longer than a predetermined value,
The editing means includes
In the rewriting process,
Of the events included in the previous performance data in the arrangement order, the event with a mark is set as each event corresponding to the delimiter position, and the event preceding the reference time and the most in the reference time is selected from the events. The music editing apparatus according to claim 2, wherein an event whose execution time is a near time is selected.
1曲分の音の並びを示す各イベントと各イベントの実行時刻を示すタイミングデータとを含む曲演奏データからM小節分よりも長い演奏区間の各音を示す各イベントと各イベントの実行時刻を示すタイミングデータを切り出し、切り出した各イベント及びタイミングデータを前記第2の種類の演奏データとして前記記憶手段に記憶する手段を具備することを特徴とする請求項1乃至3の何れか1の請求項に記載の曲編集装置。   Each event indicating each sound in a performance section longer than M bars and the execution time of each event from the music performance data including each event indicating the arrangement of sounds for one song and timing data indicating the execution time of each event 4. The method according to claim 1, further comprising means for cutting out the timing data shown and storing each of the cut-out events and timing data in the storage means as the second type of performance data. The music editing device described in 1. コンピュータに、
M(Mは1以上の整数)小節分の音の並びにおける各音の発音内容を示す各イベントと各イベントの実行時刻を示すタイミングデータとを含む第1の種類の演奏データと、アウフタクトとそれに続くM小節分の音の並びにおける各音の発音内容を示す各イベントと各イベントの実行時刻を示すタイミングデータとを含む第2の種類の演奏データとを記憶した記憶手段と、
前記記憶手段から複数個の演奏データを取得して配列する編集手段であって、前記第1または第2の種類の演奏データの後に前記第2の種類の演奏データを配列する場合に、配列順が前の演奏データに対して、当該演奏データの各イベントが示す各音からなる音の並びの終端を配列順が後の演奏データの各イベントが示す音の並びの中の略アウフタクトの分だけ短くする書き換え処理を施し、この書き換え処理を経た演奏データの後に該当の演奏データを配列する編集手段と
を実現させるプログラム。
On the computer,
M (where M is an integer equal to or greater than 1) bars, a first type of performance data including each event indicating the sound content of each sound and timing data indicating the execution time of each event; Storage means for storing a second type of performance data including each event indicating the sound content of each sound in the subsequent M-bar sound sequence and timing data indicating the execution time of each event;
Editing means for acquiring and arranging a plurality of performance data from the storage means, and arranging the second type of performance data after the first or second type of performance data. For the previous performance data, the end of the sound sequence consisting of the sound indicated by each event of the performance data is the amount corresponding to the approximate output in the sound sequence indicated by the event of the performance data after the arrangement order. A program that implements a rewriting process for shortening and editing means for arranging the corresponding performance data after the performance data subjected to the rewriting process.
JP2011228390A 2011-10-18 2011-10-18 Song editing apparatus and program Expired - Fee Related JP5772485B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011228390A JP5772485B2 (en) 2011-10-18 2011-10-18 Song editing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011228390A JP5772485B2 (en) 2011-10-18 2011-10-18 Song editing apparatus and program

Publications (2)

Publication Number Publication Date
JP2013088585A JP2013088585A (en) 2013-05-13
JP5772485B2 true JP5772485B2 (en) 2015-09-02

Family

ID=48532560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011228390A Expired - Fee Related JP5772485B2 (en) 2011-10-18 2011-10-18 Song editing apparatus and program

Country Status (1)

Country Link
JP (1) JP5772485B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3843688B2 (en) * 2000-03-15 2006-11-08 ヤマハ株式会社 Music data editing device

Also Published As

Publication number Publication date
JP2013088585A (en) 2013-05-13

Similar Documents

Publication Publication Date Title
JP6040809B2 (en) Chord selection device, automatic accompaniment device, automatic accompaniment method, and automatic accompaniment program
US8324493B2 (en) Electronic musical instrument and recording medium
CN109036355B (en) Automatic composing method, device, computer equipment and storage medium
US9536508B2 (en) Accompaniment data generating apparatus
US8946534B2 (en) Accompaniment data generating apparatus
JP2004264501A (en) Keyboard musical instrument
JP5293710B2 (en) Key judgment device and key judgment program
JP3637775B2 (en) Melody generator and recording medium
JP2000231381A (en) Melody generating device, rhythm generating device and recording medium
JP6760450B2 (en) Automatic arrangement method
JP2011118218A (en) Automatic arrangement system and automatic arrangement method
JP5772485B2 (en) Song editing apparatus and program
JP5504857B2 (en) Music generation apparatus and program
JP3633335B2 (en) Music generation apparatus and computer-readable recording medium on which music generation program is recorded
JP4259532B2 (en) Performance control device and program
CN113870817A (en) Automatic song editing method, automatic song editing device and computer program product
JP3879524B2 (en) Waveform generation method, performance data processing method, and waveform selection device
JP5909967B2 (en) Key judgment device, key judgment method and key judgment program
JP3531507B2 (en) Music generating apparatus and computer-readable recording medium storing music generating program
JP6421811B2 (en) Code selection method and code selection device
JP6554826B2 (en) Music data retrieval apparatus and music data retrieval program
JP6658785B2 (en) Automatic accompaniment method and automatic accompaniment device
JP4595852B2 (en) Performance data processing apparatus and program
JP3807333B2 (en) Melody search device and melody search program
JP3316547B2 (en) Chording device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150615

R151 Written notification of patent or utility model registration

Ref document number: 5772485

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees