JP2015125344A - Electronic musical instrument, control method of electronic musical instrument, and program - Google Patents

Electronic musical instrument, control method of electronic musical instrument, and program Download PDF

Info

Publication number
JP2015125344A
JP2015125344A JP2013270689A JP2013270689A JP2015125344A JP 2015125344 A JP2015125344 A JP 2015125344A JP 2013270689 A JP2013270689 A JP 2013270689A JP 2013270689 A JP2013270689 A JP 2013270689A JP 2015125344 A JP2015125344 A JP 2015125344A
Authority
JP
Japan
Prior art keywords
accompaniment
melody
pattern
sound
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013270689A
Other languages
Japanese (ja)
Other versions
JP2015125344A5 (en
JP6417663B2 (en
Inventor
広子 奥田
Hiroko Okuda
広子 奥田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013270689A priority Critical patent/JP6417663B2/en
Publication of JP2015125344A publication Critical patent/JP2015125344A/en
Publication of JP2015125344A5 publication Critical patent/JP2015125344A5/ja
Application granted granted Critical
Publication of JP6417663B2 publication Critical patent/JP6417663B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an accompaniment device suitable for playing heterophony music, an electronic musical instrument, an accompaniment generation method, and a program.SOLUTION: A sound of a user performance melody and unison in a normal time is emitted by matching the user performance melody for each accompaniment part. When a prescribed deviation condition is satisfied by appropriately referring to an accompaniment format set/deviation method designation table, various deviation patterns deviating from the unison accompaniment in the normal time are generated so as to play the accompaniment of heterophony music different from so-called western-music.

Description

本発明は、ヘテロフォニー的な音楽の演奏に適した伴奏装置、電子楽器、伴奏生成方法およびプログラムに関する。   The present invention relates to an accompaniment apparatus, an electronic musical instrument, an accompaniment generation method, and a program suitable for heterophonic music performance.

電子楽器は、これまで西洋音楽の演奏をより簡単な操作で実現するために発展してきている。西洋音楽は、一般的には、平均率の音律を基礎として、平均率にしたがったメロディ音の進行にともなって、特定の機能を有するコード音が付加されるとともに、必要に応じて打楽器音等のパターンも付与される。そこで、従来、自動伴奏において、単純な鍵の押鍵で、指定された自動伴奏パターンにて、押鍵数などにしたがった所望のコード名のコードを構成する楽音を発音させて、バンドやオーケストラを従えたような伴奏効果を得ることができる電子楽器が開発されている。上記コード名は、押鍵数や押鍵された鍵の音程などにより決定され、また、コードのルート音は押鍵された鍵の最低音により決定され得る。(例えば、特許文献1参照)   Electronic musical instruments have been developed to realize Western music performance with simpler operations. Western music is generally based on the temperament of the average rate, and with the progress of the melody sound according to the average rate, chord sounds with specific functions are added, and percussion instrument sounds as required This pattern is also given. Therefore, conventionally, in automatic accompaniment, a simple key press and a specified automatic accompaniment pattern are used to sound a musical tone that composes a chord having a desired chord name according to the number of key presses, and a band or orchestra. Electronic musical instruments have been developed that can provide accompaniment effects that follow the above. The chord name is determined by the number of keys pressed, the pitch of the key pressed, and the root sound of the code can be determined by the lowest sound of the key pressed. (For example, see Patent Document 1)

また、微分音を演奏者の意図にしたがって適切に発音でき、非西洋音楽の音律体系にしたがった楽曲の演奏が可能な電子楽器が知られている。(例えば、特許文献2参照)   There is also known an electronic musical instrument that can properly generate a differential sound according to a player's intention and can play a musical piece according to a non-Western music temperament system. (For example, see Patent Document 2)

特開昭57−46296号公報JP 57-46296 A 特許第5041015号公報Japanese Patent No. 5041015

西欧以外の、たとえば、中近東、インド、アジア、アラブなどの音楽においては、西洋音楽とは異なる独特の態様の音楽が古くから演奏されて現在に至っている。   In music other than Western Europe, for example, in the Middle East, India, Asia, Arab, and the like, unique forms of music different from Western music have been played since long ago.

このような、中近東、インド、アジア、アラブなどの音楽における特徴の一つに「ヘテロフォニー」と呼ばれる音楽の態様がある。この「ヘテロフォニー」とは、一般的に、基本的に同じ旋律を複数の楽器(声部)で演奏しつつ、一時的にある楽器が変形や装飾を施すために原旋律から離れた演奏を行うといった形の音楽形態を指している。   One of the features of music in the Middle East, India, Asia, Arab, etc. is a form of music called “heterophony”. This "heterophony" generally performs the same melody with multiple instruments (voice parts) while performing away from the original melody because a certain instrument is temporarily deformed or decorated. It refers to the form of music.

しかしながら、従来の電子楽器は、西洋音楽の演奏を念頭に置いて発展してきたものであり、かかるヘテロフォニーの音楽を演奏することを想定して作られた電子楽器は存在しなかった。さらに、中近東、インド、アジア、アラブなどの西欧以外の音楽で用いられている微分音を発音させられる電子楽器はほとんどなく、その機能も、中近東・インド・アジア・アラブ等の音律に従った演奏を行うには不十分なものであった。そのため、従来の電子楽器を用いて、かかるヘテロフォニーの音楽を演奏しようとした場合には、複数の楽器(声部)をそれぞれ別々に演奏しなければならない等、演奏が困難であるという問題点があった。   However, conventional electronic musical instruments have been developed with Western music performance in mind, and there has been no electronic musical instrument that is designed to perform such heterophony music. Furthermore, there are few electronic musical instruments that can produce differential sounds used in music other than Western Europe such as the Middle East, India, Asia, and Arab, and their functions also follow the temperament of the Middle East, India, Asia, Arab, etc. It was not enough to perform. Therefore, when trying to perform such heterophony music using a conventional electronic musical instrument, there is a problem that it is difficult to perform such as playing multiple musical instruments (voice parts) separately. there were.

本発明は、かかる問題点に鑑みなされたものであり、ヘテロフォニー的な音楽の演奏に適した伴奏装置、電子楽器、伴奏生成方法およびプログラムを提供することを目的とする。   The present invention has been made in view of such problems, and an object of the present invention is to provide an accompaniment apparatus, an electronic musical instrument, an accompaniment generation method, and a program suitable for playing heterophonic music.

上記目的を達成するため、本発明の一態様の伴奏装置は、入力される演奏情報から、所定の条件に基づいて伴奏情報を生成する伴奏情報生成手段と、前記入力された演奏情報が所定の状態にあるか否かを判定する判定手段と、前記所定の状態にあると判定された場合に、前記所定の条件から逸脱した条件に基づいて伴奏情報を生成するように、前記伴奏情報生成手段を制御する制御手段と、を備えたことを特徴とする。   In order to achieve the above object, an accompaniment apparatus according to an aspect of the present invention includes accompaniment information generating means for generating accompaniment information from input performance information based on a predetermined condition, and the input performance information is a predetermined amount. Determining means for determining whether or not the state is in a state; and when determining that the state is in the predetermined state, the accompaniment information generating means so as to generate accompaniment information based on a condition deviating from the predetermined condition And a control means for controlling.

また、本発明の一態様の伴奏装置は、前記伴奏情報生成手段は、夫々異なる所定の条件に基づいて複数のパート夫々に対応する伴奏情報を生成し、前記判定手段は、前記入力された演奏情報の状態が、前記複数のパート夫々に対応する所定の状態にあるか否かを判定し、前記制御手段は、前記入力された演奏情報の状態が前記複数のパート夫々に対応する所定の状態のいずれかに対応すると判定された場合に、前記対応する所定の条件から逸脱した条件に基づいて伴奏情報を生成するように制御することを特徴とする。   In the accompaniment apparatus according to one aspect of the present invention, the accompaniment information generation unit generates accompaniment information corresponding to each of a plurality of parts based on different predetermined conditions, and the determination unit includes the input performance It is determined whether or not the state of information is in a predetermined state corresponding to each of the plurality of parts, and the control means is a predetermined state in which the state of the input performance information corresponds to each of the plurality of parts. When it is determined that any one of the above is supported, control is performed so that accompaniment information is generated based on a condition deviating from the corresponding predetermined condition.

また、本発明の一態様の伴奏装置はさらに、リズムジャンルを指定するリズムジャンル指定手段と、当該リズムジャンル指定手段により指定されるリズムジャンルに基づいたリズム情報を生成するリズム情報生成手段と、を備え、前記判定手段は、前記入力された演奏情報の状態が、前記指定されたリズムジャンルに対応する所定の状態にあるか否かを判定し、前記制御手段は、前記リズムジャンルに対応する所定の状態にあると判定された場合に、前記所定の条件から、前記指定されたリズムジャンルに対応して逸脱した条件に基づいて伴奏情報を生成するように制御することを特徴とする。   The accompaniment apparatus according to one aspect of the present invention further includes: a rhythm genre specifying unit that specifies a rhythm genre; and a rhythm information generating unit that generates rhythm information based on the rhythm genre specified by the rhythm genre specifying unit. And the determination means determines whether or not the state of the input performance information is in a predetermined state corresponding to the designated rhythm genre, and the control means is a predetermined corresponding to the rhythm genre. When it is determined that the accompaniment is in the state, the accompaniment information is controlled to be generated based on a condition deviating from the predetermined condition corresponding to the designated rhythm genre.

また、本発明の一態様の伴奏装置は、入力される演奏情報に基づいてメロディ情報を生成するメロディ情報生成手段をさらに有することを特徴とする。   The accompaniment apparatus according to one aspect of the present invention further includes melody information generation means for generating melody information based on the input performance information.

また、本発明の一態様の伴奏装置は、前記制御手段は、前記所定の条件から逸脱した条件に基づく伴奏情報として、所定の効果を付与した伴奏情報を生成するように、前記伴奏情報生成手段を制御することを特徴とする。   In the accompaniment apparatus according to one aspect of the present invention, the accompaniment information generation unit is configured such that the control unit generates accompaniment information having a predetermined effect as accompaniment information based on a condition deviating from the predetermined condition. It is characterized by controlling.

また、本発明の一態様の伴奏装置は、前記制御手段は、前記所定の条件から逸脱した条件に基づく伴奏情報として、前記入力された演奏情報と、所定の音情報とを組み合わせて伴奏情報を生成するように、前記伴奏情報生成手段を制御することを特徴とする。   In the accompaniment apparatus according to one aspect of the present invention, the control means combines the input performance information and predetermined sound information as accompaniment information based on a condition deviating from the predetermined condition. The accompaniment information generating means is controlled so as to be generated.

また、本発明の一態様の伴奏装置はさらに、音律を指定する音律指定手段を有し、前記所定の音情報は、前記音律指定手段にて指定された音律に含まれるいずれかの音情報であることを特徴とする。   The accompaniment apparatus according to one aspect of the present invention further includes a temperament designating unit that designates a temperament, and the predetermined sound information is any one of the tone information included in the temperament designated by the temperament designating unit. It is characterized by being.

また、本発明の一態様の伴奏装置は、前記伴奏情報生成手段は、前記生成される伴奏情報として、前記入力される演奏情報のユニゾンの伴奏情報を生成することを特徴とする。   The accompaniment apparatus according to one aspect of the present invention is characterized in that the accompaniment information generation unit generates unison accompaniment information of the input performance information as the generated accompaniment information.

また、本発明の一態様の伴奏装置は、前記制御手段は、前記入力された演奏情報が所定の状態にあると判定された時点から、当該演奏情報の入力が終了する時点まで、前記対応する所定の条件から逸脱した条件に基づいて伴奏情報を生成するように制御することを特徴とする。   In the accompaniment apparatus according to one aspect of the present invention, the control unit corresponds to the time from when the input performance information is determined to be in a predetermined state to when the input of the performance information is completed. Control is performed so as to generate accompaniment information based on a condition deviating from a predetermined condition.

また、本発明の一態様の伴奏装置は、前記制御手段は、前記入力された演奏情報が所定の状態にあると判定された時点から、予め定められたタイミングまで、前記対応する所定の条件から逸脱した条件に基づいて伴奏情報を生成するように制御することを特徴とする。   In the accompaniment apparatus according to one aspect of the present invention, the control means starts from the corresponding predetermined condition from the time when the input performance information is determined to be in a predetermined state to a predetermined timing. Control is performed to generate accompaniment information based on the deviating conditions.

また、本発明の一態様の伴奏装置は、前記判定手段は、前記入力される演奏情報の複数の状態夫々を判定可能に構成され、前記所定の状態として、前記複数種の状態を組み合わせた状態にあるか否かを判定することを特徴とする。   In the accompaniment device according to one aspect of the present invention, the determination unit is configured to be able to determine each of a plurality of states of the input performance information, and the predetermined state is a combination of the plurality of states. It is characterized by determining whether it exists in.

また、本発明の一態様の電子楽器は、上記伴奏装置と、前記伴奏装置によって生成された伴奏情報に基づく楽音を発音する音源手段とを備えることを特徴とする。   According to another aspect of the present invention, there is provided an electronic musical instrument including the accompaniment apparatus and sound source means for generating a musical sound based on the accompaniment information generated by the accompaniment apparatus.

本発明によれば、ヘテロフォニー的な音楽の演奏に適した電子楽器、電子楽器の制御方法およびプログラムを実現することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to implement | achieve the electronic musical instrument suitable for the performance of heterophonic music, the control method of an electronic musical instrument, and a program.

図1は、本発明の実施の形態にかかる電子楽器の外観を示す図である。FIG. 1 is a diagram showing an external appearance of an electronic musical instrument according to an embodiment of the present invention. 図2は、本発明の実施の形態にかかる電子楽器のハードウェア構成を示すブロックダイヤグラムである。FIG. 2 is a block diagram showing a hardware configuration of the electronic musical instrument according to the embodiment of the present invention. 図3は、アラビア音楽における旋律体系であるマカーム(Maquam)のうち、「マカーム・バヤティ(Maquam Bayati)」にしたがった音律を示す楽譜である。FIG. 3 is a musical score showing a temperament according to “Makam Bayati” of the melody system in Arabic music. 図4は、「マカーム・バヤティ」で演奏される曲の例を示す図である。FIG. 4 is a diagram showing an example of a song played in “Makam Bayati”. 図5は、他のマカームにしたがった音律の例を示す図であり、図5(a)は、「マカーム・スィカ(Maquam Sikah)」、図5(b)は、「マカーム・フザム(Maquam Huzam)」の例を示す。FIG. 5 is a diagram showing an example of a temperament according to another McCamm. FIG. 5A shows “Maquam Sikah”, and FIG. 5B shows “Makam Huzam”. ) "Example. 図6は、西洋音楽における和声伴奏を行っている楽曲の例を示す図である。FIG. 6 is a diagram showing an example of a musical piece performing a harmony accompaniment in Western music. 図7は、部分的に旋律伴奏的な部分を伴う楽曲の例を示す図である。FIG. 7 is a diagram showing an example of a piece of music accompanied by a part that is partially melodic accompaniment. 図8は、本実施の形態にかかる伴奏フォーマットセット/逸脱方法指定表のうち、ノーマルパターンの場合の一例を示す図である。FIG. 8 is a diagram showing an example of a normal pattern in the accompaniment format set / deviation method designation table according to the present embodiment. 図9は、本実施の形態にかかる伴奏フォーマットセット/逸脱方法指定表のうち、ソロパターンの場合の一例を示す図である。FIG. 9 is a diagram showing an example of a solo pattern in the accompaniment format set / deviation method designation table according to the present embodiment. 図10は、本実施の形態にかかる伴奏フォーマットセット/逸脱方法指定表のうち、フィルインパターンの場合の一例を示す図である。FIG. 10 is a diagram showing an example of a fill-in pattern in the accompaniment format set / deviation method designation table according to the present embodiment. 図11は、ドラムパターン(リズムパターン)の例を示す楽譜である。FIG. 11 is a musical score showing an example of a drum pattern (rhythm pattern). 図12は、ドローンパターンの例を示す楽譜である。FIG. 12 is a musical score showing an example of a drone pattern. 図13は、メロディ逸脱パターンの具体例を示す図である。FIG. 13 is a diagram showing a specific example of the melody departure pattern. 図14は、逸脱トリガーの条件の具体例を示す図である。FIG. 14 is a diagram illustrating a specific example of the condition for the departure trigger. 図15は、プラルトリラーの例を示す楽譜である。FIG. 15 is a musical score showing an example of a pall triller. 図16は、本実施の形態にかかる電子楽器10において実行されるメインフローの例を示すフローチャートである。FIG. 16 is a flowchart showing an example of a main flow executed in the electronic musical instrument 10 according to the present embodiment. 図17は、ヘテロフォニー演奏を行うための自動伴奏処理の例を示すフローチャートである。FIG. 17 is a flowchart showing an example of automatic accompaniment processing for performing a heterophony performance. 図18は、メロディ逸脱トリガー検出処理の例を示すフローチャート(1ページ目)である。FIG. 18 is a flowchart (first page) illustrating an example of melody departure trigger detection processing. 図19は、メロディ逸脱トリガー検出処理の例を示すフローチャート(2ページ目)である。FIG. 19 is a flowchart (second page) showing an example of melody departure trigger detection processing. 図20は、メロディ逸脱処理の例を示すフローチャートである。FIG. 20 is a flowchart illustrating an example of the melody departure process. 図21は、図13の逸脱パターンa「デチューン5%アップ」、逸脱パターンb「16分音符分ディレイ」、逸脱パターンc「ベロシティ10%アップ」、逸脱パターンk「音域指定」の各逸脱パターンの実施例を示すフローチャートである。FIG. 21 shows the deviation patterns of “deviation pattern a“ detune 5% up ”, deviation pattern b“ 16th note delay ”, deviation pattern c“ velocity 10% up ”, deviation pattern k“ tone range designation ”in FIG. It is a flowchart which shows an Example. 図22は、図13の逸脱パターンf「トレモロ/バッテリー奏法」、逸脱パターンg「メロディと開始音を交互に発音」、逸脱パターンh「持続メロディへのトリル挿入」、逸脱パターンi「同音連打」の各逸脱パターンの実施例を示すフローチャートである。FIG. 22 shows the deviation pattern f “tremolo / battery performance”, deviation pattern g “pronunciation of melody and start sound”, deviation pattern h “trill insertion into continuous melody”, deviation pattern i “same beat repeated” in FIG. It is a flowchart which shows the Example of each deviation pattern. 図23は、逸脱パターンf「トレモロ/バッテリー奏法」または逸脱パターンg「メロディと開始音を交互に発音」の場合の逸脱パターン生成処理の例である。FIG. 23 shows an example of a departure pattern generation process in the case of a departure pattern f “tremolo / battery performance” or a departure pattern g “alternative pronunciation of melody and start sound”. 図24は、逸脱パターンh「持続メロディへのトリル挿入」の場合の逸脱パターン生成処理の例である。FIG. 24 shows an example of the departure pattern generation process in the case of the departure pattern h “inserting a toll into a continuous melody”. 図25は、図13の逸脱パターンd「上からのプラルトリラー」、逸脱パターンe「メロディ音に到達するアルペジォ」、逸脱パターンl「ジンスの倚音追加」の各逸脱パターンの実施例を示すフローチャートである。FIG. 25 is a flowchart showing an example of each departure pattern of the departure pattern d “plural trailer from above”, the departure pattern e “arpeggio reaching the melody sound”, and the departure pattern 1 “addition of the stuttering sound of Jins” in FIG. is there. 図26は、逸脱パターンl「ジンスの倚音追加」の場合の逸脱パターン生成処理の例である。FIG. 26 shows an example of a departure pattern generation process in the case of departure pattern 1 “addition of stuttering of Jins”. 図27は、図13の逸脱パターンj「おかず挿入」の逸脱パターンの実施例を示すフローチャートである。FIG. 27 is a flowchart showing an example of the departure pattern of departure pattern j “insert side dish” in FIG. 図28は、種々のフィルインパターンの特徴を説明するテーブルである。FIG. 28 is a table for explaining the characteristics of various fill-in patterns.

以下、添付図面を参照して、本発明の実施の形態について説明する。図1は、本発明の実施の形態にかかる電子楽器の外観を示す図である。図1に示すように、本実施の形態にかかる電子楽器10は、演奏操作子としての鍵盤100を有する。また、鍵盤100の上部には、音色指定ボタン11、自動伴奏開始・終了指示ボタン12、リズムジャンル選択ボタン13、各リズムジャンルにおけるリズムのパターン(エレメント)の指定などを行なうためのリズムエレメント指定ボタン14や、演奏される楽曲に関する種々の情報、たとえば、音色、リズムパターン、コード名などを表示する表示部15を有する。また、本実施の形態にかかる電子楽器10は、ヘテロフォニー的な自動伴奏を付加する際のテンポを設定するテンポ設定ボタン16を有する。   Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a diagram showing an external appearance of an electronic musical instrument according to an embodiment of the present invention. As shown in FIG. 1, an electronic musical instrument 10 according to the present embodiment has a keyboard 100 as a performance operator. Also, on the upper part of the keyboard 100, a tone designation button 11, an automatic accompaniment start / end instruction button 12, a rhythm genre selection button 13, a rhythm element designation button for designating a rhythm pattern (element) in each rhythm genre, etc. 14 and a display unit 15 for displaying various information related to the music to be played, for example, timbre, rhythm pattern, chord name, and the like. The electronic musical instrument 10 according to the present embodiment has a tempo setting button 16 for setting a tempo when adding a heterophony automatic accompaniment.

また、本実施の形態にかかる電子楽器10は、たとえば、88個の鍵(A1〜C8)を有する。また、電子楽器10は、自動伴奏をオンする自動伴奏モード、および、自動伴奏をオフにする通常モードの2つの演奏モードのうち、何れかの下での演奏が可能である。この切り替えは、自動伴奏開始・終了指示ボタン12によって行うことができる。また、本実施の形態にかかるヘテロフォニー演奏を行う際には、鍵盤100が2つの領域101と102に分割(スプリット)される。101はユーザが主に左手で、現在のジンス(音律)を指定するジンス指定鍵盤、102はユーザが主に右手で、ヘテロフォニー音楽の主旋律を演奏するメロディ演奏用鍵盤である。さらに、本実施の形態にかかる電子楽器で、従来の西洋音楽的な自動伴奏等を実現するノーマルモードと、ヘテロフォニー音楽的な自動伴奏等を実現するヘテロフォニーモードとを切り替えるためのモード切替スイッチを備えていても良い。   The electronic musical instrument 10 according to the present embodiment has, for example, 88 keys (A1 to C8). In addition, the electronic musical instrument 10 can perform under one of two performance modes: an automatic accompaniment mode for turning on automatic accompaniment and a normal mode for turning off automatic accompaniment. This switching can be performed by the automatic accompaniment start / end instruction button 12. Further, when performing a heterophony performance according to the present embodiment, the keyboard 100 is divided into two regions 101 and 102 (split). 101 is a gins specification keyboard for the user to mainly specify the current jins (temperament) with the left hand, and 102 is a melody performance keyboard for the user to mainly play the main melody of heterophony music with the right hand. The electronic musical instrument according to the present embodiment further includes a mode changeover switch for switching between a normal mode for realizing conventional Western musical automatic accompaniment and a heterophony mode for realizing heterophonic automatic accompaniment. May be.

図2は、本発明の実施の形態にかかる電子楽器のハードウェア構成を示すブロックダイヤグラムである。図2に示すように、本実施の形態にかかる電子楽器10は、CPU21、ROM(Read Only Memory)22、RAM(Random Access Memory)23、サウンドシステム24、スイッチ群25、鍵盤100および表示部15を備える。   FIG. 2 is a block diagram showing a hardware configuration of the electronic musical instrument according to the embodiment of the present invention. As shown in FIG. 2, the electronic musical instrument 10 according to the present embodiment includes a CPU 21, a ROM (Read Only Memory) 22, a RAM (Random Access Memory) 23, a sound system 24, a switch group 25, a keyboard 100, and a display unit 15. Is provided.

CPU21は、電子楽器10全体の制御、鍵盤100の鍵の押鍵やスイッチ群25を構成するスイッチの操作の検出とそれによる設定等のRAM23への一時記憶、鍵やスイッチの操作にしたがったサウンドシステム24の制御、自動伴奏パターンにしたがった自動伴奏の演奏など、種々の処理を実行する。また、CPU21は、本発明の実施の形態にかかる、メロディ逸脱の各条件を判定するメロディ逸脱トリガー検出処理を実行する逸脱条件判定部、それらの逸脱トリガーに基づいて実際のメロディ逸脱処理を行う逸脱処理部、さらにユーザ演奏メロディや逸脱処理された各種の楽器パートを実際に発音させる音源発音処理を行う発音指示部を備えている。   The CPU 21 controls the entire electronic musical instrument 10, detects key depression of the keyboard 100, detects operation of switches constituting the switch group 25, temporarily stores them in the RAM 23, and sounds according to the operation of the keys and switches. Various processes such as control of the system 24 and performance of automatic accompaniment according to the automatic accompaniment pattern are executed. Further, the CPU 21 according to the embodiment of the present invention, a departure condition determination unit that executes a melody departure trigger detection process that determines each melody departure condition, and a departure that performs an actual melody departure process based on those departure triggers. The processing unit further includes a sound generation instruction unit that performs sound source sound generation processing for actually sounding the user performance melody and various musical instrument parts subjected to deviation processing.

ROM22は、CPU21に実行させる種々の処理、たとえば、スイッチの操作、鍵盤の何れかの鍵の押鍵、押鍵に応じた楽音の発音、さらに上記のメロディ逸脱トリガー検出処理、メロディ逸脱処理、音源発音処理などの各種の処理を実行させるプログラムを記憶する。また、ROM22は、ピアノ、ギター、バスドラム、スネアドラム、シンバルなどの楽音を生成するための波形データを格納した音色波形データ記憶部、および、本実施の形態にかかる逸脱などの条件を格納した伴奏フォーマットセット/逸脱方法指定表の記憶部、伴奏フォーマットセット/逸脱方法指定表で指定されるドラムパターンの実際のリズムパターンを記憶するドラムパターン記憶部、メロディ逸脱でフィルインを挿入する場合のフィルインパターンを記憶するフィルインパターン記憶部、伴奏用のドローンのパターンを記憶するドローンパターン記憶部、さらにプラルトリラーなどの所定の逸脱パターンを記憶する逸脱パターン記憶部などを備えている。これらのドラムパターンやフィルインパターン、ドローンパターン、逸脱パターンなどの各種パターンは、楽音の音色、音高、発音タイミング(発音時刻)、音長などを含むデータ形式(例えばMIDI(Musical Instrument Digital Interface)形式)のデータや、波形データ形式(例えばWAVデータやMP3データ等)のデータとして記憶することが可能である。また、ROM22は、予め定められた所定の音律パターン(トリコルド、テトラコルド、ペンタコルド)のデータと、前記音律パターンを組み合わせた旋律体系(マカーム/ジンス)のデータ(旋律体系データ)が格納されている。   The ROM 22 performs various processes to be executed by the CPU 21, for example, switch operation, key depression of any key on the keyboard, tone generation according to the key depression, melody deviation trigger detection process, melody deviation process, sound source A program for executing various processing such as sound generation processing is stored. In addition, the ROM 22 stores a tone color waveform data storage unit storing waveform data for generating musical sounds such as piano, guitar, bass drum, snare drum, and cymbal, and conditions such as deviation according to the present embodiment. Storage unit for accompaniment format set / deviation method specification table, drum pattern storage unit for storing the actual rhythm pattern of the drum pattern specified in the accompaniment format set / deviation method specification table, fill-in pattern when inserting fill-in with melody deviation Is provided with a fill-in pattern storage unit for storing the accompaniment, a drone pattern storage unit for storing the accompaniment drone pattern, and a departure pattern storage unit for storing a predetermined departure pattern such as a prill trailer. These drum patterns, fill-in patterns, drone patterns, deviation patterns, and other various patterns are in a data format (for example, MIDI (Musical Instrument Digital Interface) format) including tone color, pitch, tone generation timing (sound generation time), tone length, and the like. ) Data and waveform data format data (for example, WAV data, MP3 data, etc.). The ROM 22 stores data of predetermined temperament patterns (tricorde, tetracord, pentacord) determined in advance, and melody system (Makam / Gins) data (melody system data) combining the temperament patterns.

RAM23は、ROM22から読み出されたプログラムや、処理の過程で生じたデータを記憶する。例えば、RAM23には、リズムジャンル選択ボタン13によって選択されたリズムジャンルを記憶するリズムジャンル記憶部、リズムエレメント指定ボタン14によって指定されたリズムのパターン(エレメント)を記憶するリズムパターン(エレメント)記憶部、テンポ設定ボタン16によって設定されたテンポを記憶するテンポ記憶部、メロディ逸脱トリガー検出処理によって判定された各逸脱条件のフラグを記憶する逸脱トリガー記憶部などを有する。   The RAM 23 stores a program read from the ROM 22 and data generated in the course of processing. For example, the RAM 23 stores a rhythm genre storage unit that stores a rhythm genre selected by the rhythm genre selection button 13 and a rhythm pattern (element) storage unit that stores a rhythm pattern (element) specified by the rhythm element specification button 14. A tempo storage unit that stores the tempo set by the tempo setting button 16, a departure trigger storage unit that stores flags of each departure condition determined by the melody departure trigger detection process, and the like.

サウンドシステム24は、音源部26、オーディオ回路27およびスピーカ28を有する。音源部26は、たとえば、音色情報や、押鍵された鍵についての情報或いはリズムパターン、逸脱パターン等についての情報をCPU21から受信すると、ROM22の波形データエリアから所定の波形データを読み出して、所定の音高の楽音データを生成して出力する。また、音源部26は、CPU21から受信した波形データを、そのまま楽音データとして出力することもできる。オーディオ回路27は、楽音データをD/A変換して増幅する。これによりスピーカ28から音響信号が出力される。   The sound system 24 includes a sound source unit 26, an audio circuit 27, and a speaker 28. When the sound source unit 26 receives, for example, timbre information, information about a depressed key or information about a rhythm pattern, deviation pattern, and the like from the CPU 21, it reads predetermined waveform data from the waveform data area of the ROM 22, and Generate and output musical tone data of the pitch of. The sound source unit 26 can also output the waveform data received from the CPU 21 as music data as it is. The audio circuit 27 D / A converts and amplifies the musical sound data. Thereby, an acoustic signal is output from the speaker 28.

スイッチ群25は、図1に示した、音色指定ボタン11、自動伴奏開始・終了指示ボタン12、リズムジャンル選択ボタン13、リズムエレメント指定ボタン14、テンポ設定ボタン16、などの種々のボタンを有し、これらのボタンのON/OFF操作を検知して、操作されたボタンの種類情報と共にCPU21に通知する。   The switch group 25 includes various buttons such as a tone color designation button 11, an automatic accompaniment start / end instruction button 12, a rhythm genre selection button 13, a rhythm element designation button 14, and a tempo setting button 16 shown in FIG. Then, the ON / OFF operation of these buttons is detected and notified to the CPU 21 together with the type information of the operated button.

本実施の形態にかかる電子楽器10は、通常モードの下においては、鍵盤100の鍵の押鍵に基づいて楽音を発生する。その一方、電子楽器10は、モード切替スイッチによってヘテロフォニー的な自動伴奏を行うヘテロフォニーモードにセットした上で、自動伴奏開始・終了指示ボタン12を操作することにより、ヘテロフォニー自動伴奏モードとなる。なお、この場合、例えば、リズムジャンル選択ボタン13によって選択されたリズムに応じて、自動的にヘテロフォニー自動伴奏モードになることとしてもよい。ヘテロフォニー自動伴奏モードにおいては、メロディ演奏用鍵盤102の鍵の押鍵によりユーザ演奏メロディが演奏されると、その鍵に応じた音高の楽音が発音される。その際、ジンス指定鍵盤101で指定されたジンスや、あらかじめ設定されているマカームに応じた音高で発音される。また、伴奏フォーマットセット/逸脱方法指定表等を参照して、各伴奏パートについて、通常時は基本的にユーザ演奏メロティとユニゾンで旋律を発音しつつ、逸脱条件が満たされた場合には、通常時の「ユニゾンによる伴奏」という条件からは逸脱して、ユーザ演奏メロディに基づいて以下に説明する各種の逸脱を施した逸脱パターンが発音される。これにより、ユーザがメロディを演奏すると、ヘテロフォニー的な伴奏を付加したヘテロフォニー音楽が簡単に演奏できることとなる。   The electronic musical instrument 10 according to the present embodiment generates a musical tone based on the key depression of the keyboard 100 under the normal mode. On the other hand, the electronic musical instrument 10 is set to the heterophony automatic accompaniment mode by operating the automatic accompaniment start / end instruction button 12 after setting the heterophony mode for performing the heterophony automatic accompaniment by the mode changeover switch. In this case, for example, the heterophony automatic accompaniment mode may be automatically set according to the rhythm selected by the rhythm genre selection button 13. In the heterophony automatic accompaniment mode, when a user performance melody is played by pressing a key on the melody performance keyboard 102, a musical tone having a pitch corresponding to the key is generated. At that time, the sound is generated with a pitch according to the zinc specified by the Jinz specified keyboard 101 or a preset McCamm. In addition, referring to the accompaniment format set / deviation method specification table, etc., for each accompaniment part, normally when the deviation condition is satisfied while basically playing the melody with user performance melody and unison Deviating from the condition of “accompaniment by unison” at the time, departure patterns with various deviations described below are generated based on the user performance melody. As a result, when the user plays a melody, heterophony music with a heterophonic accompaniment can be easily played.

以下、非西洋音楽の旋律体系、および、本実施の形態においてROM22に格納される伴奏フォーマットセット/逸脱方法指定表等のデータベース、音律パターンのデータおよび旋律体系のデータ、各種逸脱パターン等について説明する。なお、以下で説明しているマカームやジンスの各データについても、本実施の形態のROM22の所定の領域に、マカーム/ジンス用データベースとして記憶されているものとする。   Hereinafter, non-Western music melody system, database such as accompaniment format set / deviation method specification table stored in ROM 22 in this embodiment, temperament pattern data and melody system data, various deviation patterns, etc. will be described. . It is assumed that McCamm and Jins data described below are also stored as a McCamm / Jins database in a predetermined area of the ROM 22 of the present embodiment.

西洋音楽においては、中世まではグレゴリオ聖歌に代表されるようなモノフォニー音楽であったが、その後、多声部から構成されるポリフォニー音楽を経て、現在では和声に裏打ちされた音楽が主流となっている。しかしながら、欧米以外、たとえば、中東、アジア、アフリカなどの地域では、モノフォニー音楽、およびそれが発展したヘテロフォニー音楽が現在でもしばしば演奏される。このモノフォニー音楽やヘテロフォニー音楽では、単旋律を細かい音律にしたがって変化させるスタイルが一般的である。   In Western music, until the Middle Ages, it was monophony music such as that represented by Gregorian chant. After that, after polyphony music composed of polyphonic parts, music backed by harmony has become mainstream. ing. However, in regions other than Europe and America, such as the Middle East, Asia, and Africa, monophony music, and heterophony music from which it is developed, are still often played. In this monophony music and heterophony music, a style in which a single melody is changed according to a fine temperament is common.

図3は、アラビア音楽における旋律体系であるマカーム(Maquam)のうち、「マカーム・バヤティ(Maquam Bayati)」にしたがった音律を示す楽譜である。この「マカーム・バヤティ」は、6つの4音音律(テトラコルド)に分解され得る。「マカーム」は、テトラコルド、トリコルドなどの一定の音律パターンである「ジンス(Jins)」を組み合わせて構成される。なお、音律パターンは、アラビア音楽においては「ジンス」と称され、他の地域(たとえば、旧ペルシャの地域)では「グーシェ」と称される。   FIG. 3 is a musical score showing a temperament according to “Makam Bayati” of the melody system in Arabic music. This “Makam Bayati” can be broken down into six four-tone temperament. “Makam” is configured by combining “Jins”, which is a constant temperament pattern such as Tetra Cord, Tricord. Note that the temperament pattern is referred to as “Jins” in Arabic music, and is referred to as “Gouche” in other regions (for example, the former Persian region).

図3に示す「マカーム・バヤティ」の場合は6つのジンスから構成される。図3の第1小節のジンス(第1ジンス)は「バヤティ(Bayati)」、第2小節のジンス(第2ジンス)は「ラスト(Rast)」、第3小節のジンス(第3ジンス)は「バヤティ」、第4小節のジンス(第4ジンス)は「バヤティ」、第5小節のジンス(第5ジンス)は「ナハワンド(Nahawand)」、第6小節のジンス(第6ジンス)は「バヤティ」である。また、第1ジンス〜第3ジンスは上行音型であり、第4ジンス〜第6ジンスは下行音型である。これらジンスは、4音音律であるテトラコルドである。   In the case of “Makam Bayati” shown in FIG. In FIG. 3, the first bar Jinse (first Jinse) is “Bayati”, the second bar Jinz (second Jinz) is “Last”, and the third bar Jinz (third Jinz) is “Bayati”, 4th bar Jinse (4th Jinse) is “Bayati”, 5th bar Jinz (5th Jinz) is “Nahawand”, 6th bar Jinz (6th Jinz) is “Bayati” Is. Further, the first to third zincs are ascending sound types, and the fourth to sixth zincs are descending sound types. These Jins are tetracords that are four-tone temperament.

図3において、「♭(フラット)」に斜線が引かれている部分は(符号311〜315参照)、その音が単に♭が付されている場合と比較して約1/4音だけ高いことを意味している。たとえば、第1ジンスの第2音は、「E♭」より約1/4音だけ高い楽音である。したがって、全音の音の幅を「1」とすると、第1ジンスの第1音と第2音との間、第2音と第3音との間は、それぞれ、「3/4」となる。図3において、音符間の下に記載されている数字(たとえば、符号301、302参照)は、全音の幅を「1」としたときの、当該隣接する音符間の幅を示している。なお、実際の「マカーム・バヤティ」では、厳密には1/4音の変化ではないが、その変化はほぼ1/4音であることから、本明細書では、これを1/4音として表している。   In FIG. 3, the hatched portion of “フ ラ ッ ト (flat)” (see reference numerals 311 to 315) is higher by about ¼ sound than the case where the sound is simply attached. Means. For example, the second sound of the first Jins is a musical tone that is higher by about 1/4 sound than “E ♭”. Therefore, if the width of the sound of all sounds is “1”, the distance between the first sound and the second sound of the first jins and the distance between the second sound and the third sound are “3/4”, respectively. . In FIG. 3, numerals (for example, reference numerals 301 and 302) described below between the notes indicate the width between the adjacent notes when the width of all the sounds is “1”. In the actual “Makam Bayati”, it is not strictly a change of ¼ sound, but since the change is almost ¼ sound, it is expressed as ¼ sound in this specification. ing.

このように、アラビア音楽におけるマカームにしたがって、電子楽器を演奏する場合には、上記ジンスにしたがって、必要に応じて押鍵された鍵より1/4音高い楽音を発音すれば良い。ところが、図3に示すように、「マカーム・バヤティ」では、使用するジンスによって、同一の鍵を押鍵した場合であっても異なる音高の楽音が発音されることがある。図3に示す「マカーム・バヤティ」において、第2ジンスの第3音(符号321参照)を演奏したい場合には、演奏者は、「B♭」の鍵を押鍵して、電子楽器では、「B♭」より1/4音だけ高い音高の楽音を発音する必要がある。その一方、第5ジンスの第2音(符号322参照)を演奏したい場合にも演奏者は「B♭」の鍵を押鍵し、電子楽器は押鍵されたとおりに「B♭」の音高の楽音を発音する必要がある。   Thus, when playing an electronic musical instrument in accordance with McArm in Arabic music, it is only necessary to produce a musical tone that is ¼ higher than the pressed key according to the above-described jins. However, as shown in FIG. 3, in “Makam Bayati”, musical tones with different pitches may be generated depending on the gins used, even when the same key is pressed. In the “Makam Bayati” shown in FIG. 3, when the player wants to play the third sound of the second Jins (see reference numeral 321), the player presses the “B ♭” key, It is necessary to produce a musical tone having a pitch that is 1/4 higher than “B ♭”. On the other hand, when the player wants to play the second sound of the fifth gin (see reference numeral 322), the player presses the “B ♭” key, and the electronic musical instrument plays the “B ♭” sound as it is pressed. It is necessary to pronounce a high tone.

図4は、「マカーム・バヤティ」で演奏される曲の例を示す図である。この曲では、第2小節は「ラスト」にしたがっており、その一方、第3小節は「ナハワンド」にしたがっている。したがって、第2小節の第3音の音高は、「B♭」より1/4音だけ高くなり(符号401参照)、第2小節の第1音の音高は、「B♭」となる(符号402参照)。   FIG. 4 is a diagram showing an example of a song played in “Makam Bayati”. In this song, the second measure follows "Last", while the third measure follows "Nahawand". Therefore, the pitch of the third note of the second measure is higher than the “B ♭” by ¼ tone (see reference numeral 401), and the pitch of the first note of the second measure is “B ♭”. (See reference numeral 402).

図5は、他のマカームにしたがった音律の例を示す図であり、図5(a)は、「マカーム・スィカ(Maquam Sikah)」、図5(b)は、「マカーム・フザム(Maquam Huzam)」を示す。図5(a)に示すように、「マカーム・スィカ」の第1小節のジンス(第1ジンス)は「スィカ(Sikah)」、第2小節のジンス(第2ジンス)は「ラスト(Rast)」、第3小節のジンス(第3ジンス)は「ラスト」、第4小節のジンス(第4ジンス)は「スィカ」、第5小節のジンス(第5ジンス)は「ナハワンド(Nahawand)」、第6小節のジンス(第6ジンス)は「スィカ」である。また、第1ジンス〜第3ジンスは上行音型であり、第4ジンス〜第6ジンスは下行音型である。ここでも、第2ジンスの第3音(符号501参照)と第5ジンスの第2音(符号502参照)との間で、同一の鍵を押鍵した場合の問題が生じ得る。   FIG. 5 is a diagram showing an example of a temperament according to another McCamm. FIG. 5A shows “Maquam Sikah”, and FIG. 5B shows “Makam Huzam”. ) ". As shown in FIG. 5 (a), the first bar gins (first gins) of “Makam Sika” are “Sikah”, and the second bar gins (second gins) are “Last”. ”, The third bar Jinse (the third Jinse) is“ Last ”, the fourth bar Jinse (the fourth Jinse) is“ Sika ”, the fifth bar Jinse (the fifth Jinse) is“ Nahawand ”, The sixth bar Jinse (6th Jinse) is "Sika". Further, the first to third zincs are ascending sound types, and the fourth to sixth zincs are descending sound types. Here too, a problem may occur when the same key is pressed between the third sound of the second Jinse (see reference numeral 501) and the second sound of the fifth Jinse (see reference numeral 502).

図5(b)に示すように、「マカーム・フザム」の第1小節のジンス(第1ジンス)は「スィカ(Sikah)」、第2小節のジンス(第2ジンス)は「ヒジャーズ(Hijaz)」、第3小節のジンス(第3ジンス)は「ラスト」、第4小節のジンス(第4ジンス)は「スィカ」、第5小節のジンス(第5ジンス)は「ナハワンド(Nahawand)」、第6小節のジンス(第6ジンス)は「スィカ」である。また、第1ジンス〜第3ジンスは上行音型であり、第4ジンス〜第6ジンスは下行音型である。   As shown in FIG. 5 (b), the first bar Jinse (first Jinse) of “Makam Fuzam” is “Sikah”, and the second bar Jinse (second Jinz) is “Hijaz”. ”, The third bar Jinse (the third Jinse) is“ Last ”, the fourth bar Jinse (the fourth Jinse) is“ Sika ”, the fifth bar Jinse (the fifth Jinse) is“ Nahawand ”, The sixth bar Jinse (6th Jinse) is "Sika". Further, the first to third zincs are ascending sound types, and the fourth to sixth zincs are descending sound types.

なお、「マカーム・スィカ」および「マカーム・フザム」にて用いられるジンス「スィカ」は、3音音律であるトリコルドである。また、図5(a)、(b)において「スィカ」が適用される小節の末尾の休符(たとえば、符号511、512参照)は、便宜上記載したもので、「スィカ」にしたがって演奏する際に末尾に休符を入れることを意味しているものではない。   The Jins “Sika” used in “Makam Sika” and “Makam Fuzam” is a tricord that is a three-tone temperament. Further, in FIG. 5A and FIG. 5B, the rest at the end of the measure to which “sika” is applied (for example, see symbols 511 and 512) is described for convenience, and when performing according to “sika” Does not mean that there is a rest at the end.

このように、欧米以外の、中東(アラビア)、アジア、アフリカなどの地域でしばしば演奏されるモノフォニー音楽やヘテロフォニー音楽では、いくつかのジンスが組み合わされたマカームに従った音律で、楽曲が演奏される。   In this way, in monophony music and heterophony music often played in regions such as the Middle East (Arabic), Asia, and Africa other than Europe and the United States, music is played with a temperament according to McCamm, which combines several jins. The

そしてさらに、このようなマカームに従って演奏される音楽のうちでも特に広く演奏されるヘテロフォニー音楽では、複数のパートにより基本的に同じ旋律を複数の楽器(声部)で演奏しつつ、一時的にある楽器が変形や装飾を施すために原旋律から離れた演奏を行うことによって、合奏的な演奏が行われるといったことが一般的に行われる。このようなヘテロフォニー音楽における伴奏の形態は、いわゆる西洋音楽における和声伴奏とは異なり、「旋律伴奏」といった形の伴奏が行われることが一般的である。   In addition, in heterophony music that is particularly widely played among the music played in accordance with such McArm, there is a temporary performance while playing the same melody with multiple instruments (voice parts) by using multiple parts. It is common practice that an instrumental performance is performed by performing a performance away from the original melody in order for a musical instrument to be deformed or decorated. Unlike the so-called harmony accompaniment in so-called Western music, the form of accompaniment in such heterophony music is generally accompanied by accompaniment in the form of “melody accompaniment”.

図6に、西洋音楽における和声伴奏を行っている楽曲の例を、また図7に、部分的に旋律伴奏的な部分を伴う楽曲の例を示す。   FIG. 6 shows an example of a piece of music that is performing a harmonic accompaniment in Western music, and FIG. 7 shows an example of a piece of music that is partly accompanied by a melody accompaniment.

図6は、和声伴奏の例として、ドイツ国歌(ハイドン作曲の弦楽四重奏曲の一節)を示している。この楽曲では、最上音がメロディであり、これに対してその下の音によって和音が付加され、いわゆる西洋音楽的な和音伴奏を構成している。   FIG. 6 shows a German national anthem (a section of a string quartet composed by Haydn) as an example of a harmony accompaniment. In this musical composition, the top sound is a melody, and a chord is added to the melody below it, forming a so-called Western musical chord accompaniment.

これに対して、図7に示した「君が代」の例では、第1パート(上段の五線譜)の最上音がメロディであるのに対し、第2パートが、第1パートと同型の旋律を奏でつつ、ところどころで逸脱して伴奏を行っていることが見て取れる。なお、図7の「君が代」は、正確には「ヘテロフォニー音楽」とはいえないが、曲の一部において、ユニゾンの部分や旋律伴奏的な部分をもつことから、旋律伴奏的な部分をもつ広く知られた曲の例として、説明の便宜のためここで取り上げたものである。   On the other hand, in the example of “Kimigayo” shown in FIG. 7, the top note of the first part (the upper staff) is a melody, whereas the second part plays the same melody as the first part. However, it can be seen that the accompaniment is deviating in some places. Note that “Kimigayo” in FIG. 7 is not exactly “heterophony music”, but it has a unison part and a melodic accompaniment part in the song, so it has a melodic accompaniment part. As an example of a well-known song, it is taken up here for convenience of explanation.

例えば、図7の第1小節から第2小節では、第1パートと第2パートはそれぞれ同じ旋律をユニゾンで演奏しているのに対し、第3小節、第4小節などでは、第2パートは、第1パートのメロディ旋律からは逸脱して、第1パートとは異なる旋律によって伴奏的な役割を担っている。   For example, from the first bar to the second bar in FIG. 7, the first part and the second part play the same melody in unison, whereas in the third and fourth bars, the second part is Deviating from the melody melody of the first part, it plays an accompaniment role by a melody different from the first part.

そして、図7の場合は、第10小節の3拍目から第11小節めの曲の終わりにかけて、再び第1パートと第2パートがユニゾンで同じメロディ旋律を奏でる形に戻っている。   In the case of FIG. 7, from the third beat of the tenth bar to the end of the tune of the eleventh bar, the first part and the second part are again unison and play the same melody melody.

従来の自動伴奏を行う電子楽器では、もっぱら図6に示したような西洋音楽的な和音伴奏を行う電子楽器が主であり、この図7のような楽曲中の旋律伴奏を行っている部分において、ユーザが第1パートの最上音のメロディを演奏した場合に、他のパートを自動的に付加して自動伴奏を行うといった機能を実現することは困難であった。   Conventional electronic musical instruments that perform automatic accompaniment are mainly electronic musical instruments that perform Western-style chord accompaniment as shown in FIG. 6, and in the part that performs melodic accompaniment in the music as shown in FIG. When the user plays the top melody of the first part, it has been difficult to realize a function of automatically adding other parts and performing automatic accompaniment.

本実施の形態にかかる電子楽器10においては、上記のヘテロフォニー音楽における自動伴奏を実現するために、伴奏フォーマットセット/逸脱方法指定表の各データベースをROM22に格納している。   In the electronic musical instrument 10 according to the present embodiment, each database of the accompaniment format set / deviation method designation table is stored in the ROM 22 in order to realize automatic accompaniment in the above heterophony music.

図8から図10は、本実施の形態にかかる伴奏フォーマットセット/逸脱方法指定表の一例である。図8では、ノーマルパターン時の一例を、図9ではソロパターン時の一例を、図10ではフィルインパターン時の一例を、それぞれ示している。以下では、特に必要が無い場合は図8の場合を例に説明を行うが、図9や図10の場合も同様である。   8 to 10 are examples of accompaniment format set / deviation method designation tables according to the present embodiment. FIG. 8 shows an example in the normal pattern, FIG. 9 shows an example in the solo pattern, and FIG. 10 shows an example in the fill-in pattern. Hereinafter, the case of FIG. 8 will be described as an example when there is no particular need, but the same applies to the cases of FIG. 9 and FIG.

図8から図10の各図に示すように、伴奏フォーマットセット/逸脱方法指定表のデータベース(符号800、900、1000参照)には、それぞれ、リズムジャンル名810およびパート名820ごとに、通常時(基本動作指定)の指定としての音色830、音域/ドラムパターン840、メロディとのdetune(デチューン)850、ドローン860などの項目のデータ(各楽器毎の伴奏情報生成の条件)を有しており、さらに、メロディ逸脱方法として、逸脱パターンごとに、その逸脱パターンを実行する場合の条件が定められるメロディ逸脱方法の項目のデータ870を有している。また、通常時にユニゾン伴奏を行うパート(楽器)について、オクターブ変更したユニゾン伴奏(ユーザ演奏メロディから所定オクターブ移動した音による伴奏)を行うよう条件設定がされていても良い。   As shown in each of FIGS. 8 to 10, the accompaniment format set / deviation method designation table database (see reference numerals 800, 900, and 1000) has a normal time for each rhythm genre name 810 and part name 820, respectively. It has data (conditions for generating accompaniment information for each instrument) such as tone color 830, tone range / drum pattern 840, melody detail (detune) 850, drone 860, etc. Furthermore, as a melody departure method, for each departure pattern, there is data 870 of a melody departure method item in which conditions for executing the departure pattern are defined. In addition, for a part (musical instrument) that performs unison accompaniment at normal times, conditions may be set to perform an unison accompaniment with an octave change (accompaniment by a sound moved by a predetermined octave from the user performance melody).

図8の例では、メロディ逸脱方法870としてパターンaからパターンlの12パターンが例示されている。これらのメロディ逸脱方法の各パターンの具体的な内容については後述する。   In the example of FIG. 8, twelve patterns from pattern a to pattern l are illustrated as the melody departure method 870. Specific contents of each pattern of these melody departure methods will be described later.

また図8の例では、リズムジャンル名810として、「アダニ(adani)」、「バラディ(Baradi)」、「マルフーフ(Malfuf)」の例を示している。これらは、それぞれ、アラビア音楽におけるリズムパターンのジャンル(リズムの種類)を表すものである。本実施の形態にかかる電子楽器10は、リズムジャンル選択ボタン13によって所望のリズムジャンルが選択されると、その選ばれたリズムジャンルにかかる伴奏フォーマットセット/逸脱方法指定表のデータを参照して以下の動作を行う。   In the example of FIG. 8, examples of the rhythm genre name 810 include “adani”, “Baradi”, and “Malfuf”. These represent genres (rhythm types) of rhythm patterns in Arabic music. When a desired rhythm genre is selected by the rhythm genre selection button 13, the electronic musical instrument 10 according to the present embodiment refers to the data in the accompaniment format set / deviation method designation table related to the selected rhythm genre as follows. Perform the operation.

なお、このリズムジャンル選択ボタン13は、例えば、従来の自動伴奏機能の付いた電子楽器において、「ロック」や「バラード」「ポップス」などのリズムジャンルを選択するボタンと共用とすることができる。この場合、例えば、ノーマルモードと、ヘテロフォニーモード(アラブ音楽モード等でもよい)とを切り替えるスイッチを別に設け、このモード切替スイッチの操作状態に応じて、どちらかのリズムジャンルが選択されるように構成することが可能である。すなわち、同じリズムジャンル選択ボタン13が押下された場合に、モード切替スイッチの状態に応じて、例えば「ロック」と「adani」のいずれかのリズムジャンルが選択されるようにすることができる。他方、リズムジャンル選択ボタン13を共用とはせずに、リズムジャンル選択ボタン13によって選択されたリズムジャンルに応じて、自動的に、ヘテロフォニーモードになるようにしても良い。例えば、「ロック」ボタンが選択された場合はノーマルモード、「Baradi」ボタンが選択された場合は自動的にヘテロフォニーモードになる等である。   The rhythm genre selection button 13 can be used in common with buttons for selecting a rhythm genre such as “rock”, “ballad”, and “pops” in a conventional electronic musical instrument with an automatic accompaniment function. In this case, for example, a switch for switching between the normal mode and the heterophony mode (which may be the Arab music mode or the like) is separately provided, and either rhythm genre is selected according to the operation state of the mode switch. Is possible. That is, when the same rhythm genre selection button 13 is pressed, for example, either “lock” or “adani” rhythm genre can be selected in accordance with the state of the mode switch. On the other hand, instead of sharing the rhythm genre selection button 13, the heterophony mode may be automatically set according to the rhythm genre selected by the rhythm genre selection button 13. For example, the normal mode is selected when the “lock” button is selected, and the heterophony mode is automatically selected when the “Baradi” button is selected.

リズムジャンル選択ボタン13によって、ヘテロフォニーモードにおけるあるリズムジャンルが選択された後、ユーザが自動伴奏開始・終了指示ボタン12により自動伴奏の開始を指示すると、本実施の形態にかかる電子楽器10は、図8から図10のような伴奏フォーマットセット/逸脱方法指定表のデータベースを参照しながら、ユーザの演奏するメロディパートに合わせて他のパートの演奏を自動的に行って、ヘテロフォニー音楽の伴奏を行う。   When a rhythm genre in the heterophony mode is selected by the rhythm genre selection button 13 and then the user instructs the start of automatic accompaniment by the automatic accompaniment start / end instruction button 12, the electronic musical instrument 10 according to the present embodiment is shown in FIG. While referring to the database of the accompaniment format set / deviation method designation table as shown in FIG. 8 to FIG. 10, the performance of other parts is automatically performed in accordance with the melody part performed by the user, and the accompaniment of heterophony music is performed.

すなわち、ドラムパートなどの所定のパートで、選択されたリズムジャンルのリズム演奏を行うとともに、他の伴奏パートでは、基本的にユーザの演奏するメロディと同じ旋律を演奏しつつ、ある条件が満たされた場合には、一時的にある楽器が変形や装飾を施すためにメロディ(原旋律)から逸脱した演奏を行って、ヘテロフォニー音楽を実現させる。   In other words, a rhythm performance of a selected rhythm genre is performed on a predetermined part such as a drum part, and other accompaniment parts are basically playing the same melody as the melody played by the user, while satisfying certain conditions. In such a case, a musical instrument temporarily performs a performance that deviates from the melody (original melody) in order to give deformation or decoration, thereby realizing heterophony music.

この場合において、ユーザが例えば右手でメロディの演奏を行いつつ、左手でリズムエレメント指定ボタン14を操作することにより、ノーマルパターン、ソロパターン、フィルインパターンなどのリズムのパターン(エレメント)を指定することができる。本実施の形態にかかる電子楽器10は、指定されたリズムのパターン(エレメント)に応じて、図8から図10の伴奏フォーマットセット/逸脱方法指定表のうち適切なものを参照して、指定されたリズムのパターン(エレメント)に合った演奏を行う。   In this case, for example, the user can specify a rhythm pattern (element) such as a normal pattern, a solo pattern, or a fill-in pattern by operating the rhythm element specifying button 14 with the left hand while playing a melody with the right hand. it can. The electronic musical instrument 10 according to the present embodiment is designated by referring to an appropriate one of the accompaniment format set / deviation method designation tables of FIGS. 8 to 10 according to the designated rhythm pattern (element). Perform a performance that matches the rhythm pattern (element).

また、伴奏を行う各パート名820とそれに対応する音色830として、図8の例では、各リズムジャンルごとに5つのパート(音色)で伴奏を行う場合の例が示されている。   In addition, as an example of FIG. 8, each part name 820 to be accompaniment and the corresponding timbre 830 show an example in which accompaniment is performed with five parts (timbres) for each rhythm genre.

例えば図8では、各リズムジャンルに共通して、ドラムに相当する打楽器として「ダルブッカ」という打楽器の音色を、また、ベースに相当する楽器として「ウッドベース」の音色を用いることが示されている。   For example, FIG. 8 shows that a percussion instrument tone “Dalbucca” is used as a percussion instrument corresponding to a drum, and a “wood bass” tone is used as an instrument corresponding to a bass, common to each rhythm genre. .

また、伴奏パート1から3について、伴奏パート1は「ウード」という楽器の音色を、伴奏パート2は「ナイ」という楽器の音色を用いることが指定されている。さらに、伴奏パート3としては、リズムジャンルに応じて、「バイオリン」の音色と「ストリングス」の音色とを切り替えて用いることが指定されている。実際には、これらの各楽器音は、ROM22に格納されている音色のうち、いずれの音色であるかを指定する番号等が記憶されている等により音色が指定され、この指定された音色毎の波形を読み出して、メロディに合わせて、あるいは以下で説明する各種逸脱パターンで指定された音に調整されて、サウンドシステム24を通して発音される。   For accompaniment parts 1 to 3, it is specified that accompaniment part 1 uses the timbre of the musical instrument “Oud” and accompaniment part 2 uses the timbre of the musical instrument “nai”. Further, as the accompaniment part 3, it is specified that the “violin” tone color and the “string” tone color are switched in accordance with the rhythm genre. Actually, the tone of each of these instrument sounds is designated by storing a number or the like for designating which tone color among the tone colors stored in the ROM 22, and for each designated tone color. The waveform is read out and adjusted to the sound specified by various deviation patterns described below in accordance with the melody, and is sounded through the sound system 24.

もちろん、これらの音色の指定は、リズムジャンル毎、またパート毎に、自由に指定することができる。また、伴奏を行うパート数についても、必ず一定のパート数でなければならないというものでもなく、リズムジャンルに応じて任意の数のパートを用いるよう指定しておくことが可能である。   Of course, these tone colors can be freely specified for each rhythm genre and for each part. Also, the number of parts to be accompanied does not necessarily have to be a constant number, and it is possible to specify that an arbitrary number of parts should be used according to the rhythm genre.

また、図8では、「音域/ドラムパターン840」の項目において、各パートごとに音域(オクターブ)の指定や、ドラムパートについては使用するドラムパターンの指定が含まれている。ここで、音域として「0」と指定されているのは、通常通りの音域(ユーザ演奏メロディのオクターブにて登録されている音色のオクターブそのまま)で発音することを表している。   Further, in FIG. 8, the item “sound range / drum pattern 840” includes designation of a sound range (octave) for each part and designation of a drum pattern to be used for the drum part. Here, the designation of “0” as the sound range represents that the sound is generated in the normal sound range (the octave of the timbre registered in the octave of the user performance melody).

一方図9や図10では、リズムエレメント指定ボタン14によってソロパターンが指定された場合(図9)や、フィルインパターンが指定された場合(図10)などに、それぞれ表900や表1000に従って、音域を変化させて演奏することを示している。例えば、これらの表中の音域データが「−1」であった場合は、該当するパートの音を1オクターブ下げた音で発音するようにする。また、「+1」であった場合は1オクターブ上げて演奏し、「+2」の場合は2オクターブ上げて演奏し、「−2」の場合は2オクターブ下げて演奏することを表す。   On the other hand, in FIG. 9 and FIG. 10, when the solo pattern is designated by the rhythm element designation button 14 (FIG. 9), the fill-in pattern is designated (FIG. 10), etc. It shows that the performance is changed. For example, when the range data in these tables is “−1”, the sound of the corresponding part is generated by a sound that is one octave lower. Further, “+1” indicates that the performance is increased by one octave, “+2” indicates that the performance is increased by two octaves, and “−2” indicates that the performance is decreased by two octaves.

例えば、図9の場合、リズムジャンル「adani」において、ソロパターンが指定された場合には、伴奏パート1の「ウード」と、ベースパートの「ウッドベース」が、それぞれ、1オクターブ低い音域で演奏されるということを表している。   For example, in the case of FIG. 9, when a solo pattern is specified in the rhythm genre “adani”, the accompaniment part 1 “Oud” and the bass part “Wood Bass” are each played in a range one octave lower. It means that it is done.

また、ドラムパートについてのこの「音域/ドラムパターン840」の項目では、「ダルブッカ」の音色で演奏されるドラムパターンの番号が指定されている。ここで、「A02」、「A03」「A07」等で示されているのは、ドラムパターン番号である。このドラムパターンの例を図11に示す。   In addition, in the item “sound range / drum pattern 840” for the drum part, the number of the drum pattern played with the tone color “Dalbucca” is designated. Here, “A02”, “A03”, “A07”, and the like are drum pattern numbers. An example of this drum pattern is shown in FIG.

なお、図11において、音程の違いは、例えば一般的なMIDI音源におけるドラムセットなどのように、各音程に対応する音色(サンプリング音)が鳴るようになっているものとしてもよい。例えば、C4(ト音記号下第一線の音)は、ダルブッカをオープンにしたときの音色、F4(ト音記号第一間の音)は、ダルブッカをクローズにしたときの音色、などのようにしてリズムパターンのバラエティを付けることが可能である。   In FIG. 11, the difference in pitch may be such that a tone color (sampling sound) corresponding to each pitch is played, such as a drum set in a general MIDI sound source. For example, C4 (tone on the lower first line of the treble clef) is a tone when the Dalbucca is opened, F4 (tone between the first treble symbols) is a tone when the Dalbucca is closed, etc. It is possible to add a variety of rhythm patterns.

さらに、図8の「メロディとのdetune(デチューン)850」の項目において、各楽器のデチューン幅をあらかじめ設定しておくことが可能である。   Further, in the item “detune with melody” 850 in FIG. 8, the detune width of each instrument can be set in advance.

デチューンとは、各楽器の音色の音高のチューニングの幅を指定するものである。従来より、電子楽器においては、半音の100分の1の音高幅(すなわち、半音の1%の音高幅)を「1セント」と称して、この値を指定することにより各楽器音のチューニングが可能となっている。図8の「メロディとのdetune850」の値は、この「セント」単位でのチューニング幅を表しているものである。   Detune designates the tuning range of the tone pitch of each instrument. Conventionally, in an electronic musical instrument, a pitch range of 1 / 100th of a semitone (that is, a pitch range of 1% of a semitone) is referred to as “1 cent”, and by specifying this value, Tuning is possible. The value of “detune 850 with melody” in FIG. 8 represents the tuning range in units of “cents”.

例えば、図8の「adani」のリズムパターンの場合、伴奏パート1の「ウード」はメロディより2セント低い音で演奏され、伴奏パート2の「ナイ」は3セント高い音で演奏され、伴奏パート3の「バイオリン」は5セント高い音で演奏されるよう指定されている。   For example, in the case of the rhythm pattern “adani” in FIG. 8, “oud” of accompaniment part 1 is played with a sound that is 2 cents lower than the melody, and “nai” of accompaniment part 2 is played with a sound that is 3 cents higher. A “violin” of 3 is designated to be played 5 cents higher.

上述のように、ヘテロフォニー音楽では、複数のパートにより基本的に同じ旋律を複数の楽器(声部)で演奏しつつ、一時的にある楽器が逸脱をするといった形式が一般的であるので、複数の楽器が同じ旋律を演奏する場合が多い。このため、図8のように各楽器毎に多少のチューニングの差異をつけて、音に広がりを持たせる等の効果を得るようにすることが望ましい場合があるからである。   As described above, in heterophony music, a format in which a certain instrument temporarily deviates while a plurality of instruments (voice parts) perform the same melody basically by a plurality of parts is generally used. Often musical instruments play the same melody. For this reason, there are cases where it is desirable to obtain effects such as making the sound broader by giving a slight tuning difference for each instrument as shown in FIG.

また、図8には図示していないが、同様に、各楽器毎にパンの設定をする項目を設けて、各楽器の定位をパートごとに変えるように設定して、さらに音の広がりを得られるように設定することも可能である。この場合、楽器ごとに、例えば、センターを0として、左右に最大−64〜+63までの値によって定位の位置を指定するようにすることが可能である。   Although not shown in FIG. 8, similarly, an item for setting the pan is provided for each musical instrument, and the localization of each musical instrument is set to be changed for each part to obtain further sound spread. It is also possible to set so that In this case, for each instrument, for example, the center can be set to 0, and the localization position can be designated by a value from −64 to +63 at the left and right.

さらに図8の「ドローン860」の項目においては、民族音楽などによく見られる「ドローン」を演奏する場合のドローンのパターン番号が指定されている。   Further, in the item “Drone 860” in FIG. 8, the pattern number of the drone in the case of performing “Drone” often found in folk music is specified.

「ドローン」とは、比較的単調で持続する音を演奏することをいう。低音で演奏される場合が多く、インドの音楽でしばしばみられる主音と5度の音を繰り返し演奏して持続させる音などが該当する。また、バグパイプでは、ファ(F)の音等、一定の低音の持続音を鳴らし続ける場合があるが、これなどもドローンの一種と考えられる。さらに、オルゲンプンクトなども、ドローンの一種と言える。   “Drone” means playing a relatively monotonous and sustained sound. Often played with low tones, such as the main sound often found in Indian music and the sound that is sustained by repeating the fifth sound. In addition, in bagpipes, there is a case where a constant low-pitched continuous sound such as the sound of F (F) is continuously generated, which is also considered as a kind of drone. Orgenpunkt is another type of drone.

このドローンのパターンの例を図12に示す。本実施の形態においては、図9のソロパターンの場合や、図10のフィルインパターンの場合にドローンが指定されている例を示している。ここで、「p10」、「p15」、「p12」は、ドローンのパターン番号を表している。実際には、例えば図12のドローンパターン(例1)がp10として、またドローンパターン(例2)がp15として、ROM22中のドローンパターン記憶エリアにMIDI形式で記憶される等して実現される。   An example of this drone pattern is shown in FIG. In the present embodiment, an example is shown in which a drone is designated in the case of the solo pattern in FIG. 9 or the fill-in pattern in FIG. Here, “p10”, “p15”, and “p12” represent drone pattern numbers. Actually, for example, the drone pattern (example 1) of FIG. 12 is realized as p10 and the drone pattern (example 2) is p15 and is stored in the drone pattern storage area in the ROM 22 in the MIDI format.

また、図8の「メロディ逸脱方法870」の項目では、各種のメロディ逸脱パターンa〜lに対して、その逸脱を行う条件を示している。この「メロディ逸脱方法870」の、各メロディ逸脱パターンa〜lの具体例を図13に示す。また、図14に、各種メロディ逸脱パターンを実行する条件を細分化した、個別の「逸脱トリガー」の例を示す。   In addition, the item “melody departure method 870” in FIG. 8 indicates conditions for performing departure for various melody departure patterns a to l. Specific examples of the melody departure patterns a to l of the “melody departure method 870” are shown in FIG. FIG. 14 shows an example of individual “deviation triggers” in which conditions for executing various melody deviation patterns are subdivided.

本実施の形態にかかる電子楽器10は、図8の「メロディ逸脱方法870」の欄を参照し、各マス目に条件として示されている「逸脱トリガー」の条件が満たされた場合に、該当するマス目の逸脱方法(a〜l)を該当するパートによって演奏する。   The electronic musical instrument 10 according to the present embodiment corresponds to the case where the condition of “deviation trigger” indicated as a condition in each square is satisfied with reference to the column of “melody deviation method 870” in FIG. The deviation method (a to l) of the square to be performed is performed by the corresponding part.

例えば、リズムジャンル選択ボタン13によってリズムジャンル「adani」が選択されている場合であって、リズムエレメント指定ボタン14により「ノーマルパターン」が指定されている場合、図8の表800における「adani」の「メロディ逸脱方法870」の欄が参照される。   For example, when the rhythm genre “adani” is selected by the rhythm genre selection button 13 and “normal pattern” is specified by the rhythm element specification button 14, “adani” in the table 800 of FIG. The column of “Melody departure method 870” is referred to.

そして、ユーザの演奏するメロディ等の状況が、例えば、図14に示す「逸脱トリガー」のうち、トリガーナンバー1「メロディVelocityが直前より大きくなった」の条件と、トリガーナンバー8「メロディが半拍以上延びている」の条件がともに満たされた場合に、伴奏パート1「ウード」の音色で、図13に示した逸脱パターン「i」、すなわち「同音連打」の逸脱を行うことが指定されている。   Then, the situation of the melody played by the user is, for example, the condition of trigger number 1 “melody velocity is greater than before” in “deviation trigger” shown in FIG. When both of the conditions of “extended” are satisfied, it is specified that the deviation of the deviation pattern “i” shown in FIG. Yes.

以下に、図13のメロディ逸脱パターンの各例a〜lの具体的な内容を説明する。   The specific contents of the examples a to l of the melody departure pattern in FIG. 13 will be described below.

逸脱パターン「a」は、「detune 5%up」である。これは、当該逸脱パターンaが指定されたパートについて、図8でそのパートについて設定されている「メロディとのdetune850」の値を、5セント大きくするものである。   The departure pattern “a” is “detune 5% up”. This is to increase the value of “detune with melody 850” set for the part in FIG. 8 by 5 cents for the part for which the deviation pattern a is designated.

実際には、ユーザの演奏しているメロディとのdetuneを広げる方向に変更して該当パートを演奏する。すなわち、該当パートの元のdetune値がプラス値の場合、元のdetune値に+5したdetune値で該当パートを演奏する。一方、該当パートの元のdetune値がマイナス値の場合、元のdetune値に−5したdetune値で該当パートを演奏する。   Actually, the part is played by changing the direction of detune with the melody being played by the user. That is, when the original detail value of the corresponding part is a plus value, the corresponding part is played with a detail value obtained by adding +5 to the original detail value. On the other hand, if the original detune value of the corresponding part is a negative value, the corresponding part is played with a detune value of −5 from the original detune value.

また、この場合、detune値を変化させる幅は、必ず一定値(例えば5セント)でなくても良く、例えば元のdetune値の半分の値(元のdetune値が+4であれば、+2など)をさらに加えるようなこととしても良い。   In this case, the width for changing the detune value is not necessarily a constant value (for example, 5 cents). For example, a value that is half the original detune value (such as +2 if the original detune value is +4). It is also possible to add more.

逸脱パターン「b」は、「delay 16分音符分」である。これは、当該逸脱パターンbが指定されたパートについて、ユーザの演奏しているメロディから、16分音符分ずつ遅らせて発音させるものである。   The departure pattern “b” is “delay 16th note”. This is to cause the part for which the deviation pattern b is designated to be delayed by 16th notes from the melody being played by the user.

この場合、遅らせるタイミングは必ずしも所定の音符長でなくともよい。例えば、自動伴奏について、テンポ設定ボタン16によりユーザが指定したテンポの設定に応じて、遅らせる音符の長さを変化させても良い。   In this case, the timing to delay is not necessarily a predetermined note length. For example, for automatic accompaniment, the length of the delayed note may be changed according to the tempo setting designated by the user using the tempo setting button 16.

逸脱パターン「c」は、「Velocity 10%up」である。これは、当該逸脱パターンcが指定されたパートについて、そのパートの通常時のベロシティ(打鍵強さ・音の強弱)の規定値より10%上げて演奏することにより、通常時よりも大きめの音で発音させるものである。   The departure pattern “c” is “Velocity 10% up”. This is because, for a part for which the deviation pattern c is specified, a sound that is larger than the normal time is played by raising the normal velocity (keying strength / sound strength) of that part by 10%. It is what makes you pronounce.

この場合、ベロシティを大きくする幅は、元の(通常時の規定値の)ベロシティ値に、MIDI規格におけるベロシティ値で「+10」したベロシティ値を用いることとしても良いし、または、ユーザの演奏したメロディのベロシティ値の10%をさらに加えることとしても良い。   In this case, the range in which the velocity is increased may be the velocity value obtained by “+10” as the velocity value in the MIDI standard for the original velocity value (normally specified value), or by the user's performance. An additional 10% of the velocity value of the melody may be added.

通常時のベロシティ規定値は、例えば、各パターンごとにあらかじめ設定されているベロシティ値を用いても良いし、ユーザの演奏したベロシティ値に基づくベロシティ値を用いても良い。この場合、上記逸脱パターン「c」の「Velocity 10%up」の逸脱は、ユーザの演奏しているメロディのベロシティに基づいて、そこから+10%あるいはベロシティ値を+10したベロシティで演奏するようにすることができる。   As the normal velocity value, for example, a velocity value preset for each pattern may be used, or a velocity value based on a velocity value played by the user may be used. In this case, the deviation of “Velocity 10% up” of the deviation pattern “c” is based on the velocity of the melody being played by the user, and is played at a velocity obtained by + 10% or a velocity value +10. be able to.

逸脱パターン「d」は、「上からのプラルトリラー」である。これは、当該逸脱パターンdが指定されたパートについて、ユーザの演奏しているメロディの音に対するプラルトリラーまたはトリルを付加する装飾を行うものである。   The departure pattern “d” is “plural trailer from above”. This is a decoration for adding a prill triller or trill to the sound of the melody being played by the user for the part for which the deviation pattern d is designated.

図15にプラルトリラーの例を示す。プラルトリラーは、西洋音楽では一般的には、図15の上段に示すような記号で表される奏法を指し、原音の上または下の音を演奏してから原音に戻るような装飾を、音符の頭(始め)に付加する装飾を言う。実際には、例えば、図15の下段に示すように、原音「ド」に対して、上の音「レ」から「レドレド−」というように装飾をして演奏する逸脱パターンである。   FIG. 15 shows an example of a pall triller. In Western music, the general ruler generally refers to the renditions represented by symbols as shown in the upper part of Fig. 15, and a decoration that returns to the original sound after playing the sound above or below the original sound is added to the note. This is a decoration that is added to the head. Actually, for example, as shown in the lower part of FIG. 15, it is a deviation pattern in which the original sound “do” is played with decorations such as “red” from the above sound “le”.

他の逸脱パターンでも設定がされている場合があるが、本逸脱パターンdでは、想定楽器が「ナイ・フルート」と設定されている。この場合、当該想定楽器以外のパートで、かかる逸脱パターンを選択しようとした場合には、無効とするなどの処理を含めることも可能である。   Although other deviation patterns may be set, in this deviation pattern d, the assumed musical instrument is set to “nai flute”. In this case, when trying to select such a deviation pattern for a part other than the assumed musical instrument, it is possible to include processing such as invalidation.

例えば、図8の伴奏パートの楽器について、図8に設定されている楽器ではなく、ユーザが任意の楽器を選択できるようになっている場合等には、図8の「メロディ逸脱方法」のマトリクス部分に記載されている条件が満たされた場合であっても、図13の想定楽器以外の楽器では、逸脱パターンでの演奏に移行しないようにする、などの処理が可能である。このような「想定楽器」についての制限処理は、他の逸脱パターンの場合も同様である。   For example, the accompaniment part musical instrument of FIG. 8 is not the musical instrument set in FIG. 8, but if the user can select any musical instrument, the “melody deviation method” matrix of FIG. Even when the conditions described in the portion are satisfied, it is possible to perform processing such as not to shift to a performance with a deviation pattern with an instrument other than the assumed instrument of FIG. The restriction process for such an “assumed instrument” is the same for other deviation patterns.

逸脱パターン「e」は、「指定パターンに合わせてメロディ音に到達するアルペジォ」である。これは、当該逸脱パターンeが指定されたパートについて、現在指定されているテトラコルド(ジンス、またはマカーム内の構成ジンス)に含まれている音を用いて、アルペジォでユーザの演奏しているメロディの音に到達するような装飾を行うものである。   The departure pattern “e” is “Arpeggio that reaches the melody sound according to the specified pattern”. This is because, for the part for which the deviation pattern e is designated, the sound of the melody played by the user in the arpeggio is used by using the sound included in the currently designated Tetra Cord (Jins or the constituent Jins in McCarm). Decorations that reach the sound.

逸脱パターン「f」は、「トレモロ/バッテリー奏法」である。これは、当該逸脱パターンfが指定されたパートについて、ユーザの演奏しているメロディの音と、特定の音とを所定の早さで交互に発音させて、トリルやトレモロ、あるいはバッテリー奏法と呼ばれる効果を付けて演奏するものである。この逸脱パターンfは、例えば、「サントゥール」と呼ばれる民族楽器の演奏形態によるメロディ装飾(逸脱)を行うものである。   The deviation pattern “f” is “tremolo / battery performance”. This is called a trill, tremolo, or battery performance method by causing a melody sound played by the user and a specific sound to be alternately generated at a predetermined speed for a part for which the deviation pattern f is designated. Play with effects. This deviation pattern f is, for example, for performing melody decoration (deviation) by the performance form of the folk instrument called “Santoul”.

具体的には、例えば、ユーザの演奏している音とその隣接音との間でのトリルを発音することが可能である。また、ユーザの演奏している音と、現在指定されているマカーム(またはジンス)の開始音や終止音との間でのトリルまたはトレモロを発音することが可能である。さらに、ユーザの演奏している音と、オクターブ異なる音との間でのトレモロを発音することとしてもよい。   Specifically, for example, it is possible to generate a trill between the sound played by the user and the adjacent sound. In addition, it is possible to generate a trill or tremolo between the sound played by the user and the start sound and stop sound of the currently specified macham (or ginsu). Further, tremolo may be generated between the sound played by the user and the sound different in octave.

逸脱パターン「g」は、「メロディの音価により、メロディと開始音を交互に発音」である。これは、当該逸脱パターンgが指定されたパートについて、ユーザの演奏しているメロディの音が所定以上長く延ばされた場合に、ユーザの演奏している音と、現在指定されているマカーム(またはジンス)の開始音とを、交互に発音させるように装飾するものである。   The departure pattern “g” is “alternative pronunciation of a melody and a start sound according to the note value of the melody”. This is because when the sound of the melody being played by the user is extended longer than a predetermined length for the part for which the deviation pattern g is specified, the sound being played by the user and the currently specified McArm ( Or the start sound of Jinsu).

ここで、本例においては、この逸脱パターンgでは、比較的ゆっくりのリズムで、ユーザ演奏メロディ音と、マカーム(またはジンス)の開始音とを交互発音するものとし、逸脱パターンf、h等の「トリル」「トレモロ」は、比較的早いリズム(短い音)での装飾を行うものとする。   Here, in this example, in this deviation pattern g, it is assumed that the user performance melody sound and the macamu (or Jinsu) start sound are alternately generated with a relatively slow rhythm, and the deviation patterns f, h, etc. “Trill” and “tremolo” are decorated with a relatively fast rhythm (short sound).

逸脱パターン「h」は、「持続メロディへのトリル挿入」である。これは、当該逸脱パターンhが指定されたパートについて、ユーザ演奏メロディ音が所定以上延ばされていた(同じ音で持続されている)場合に、トリルを挿入して装飾(逸脱)を行うものである。   The departure pattern “h” is “inserting a toll into a continuous melody”. This is to perform decoration (deviation) by inserting a trill when the user-played melody sound is extended more than a predetermined length (maintained by the same sound) for the part for which the deviation pattern h is specified. It is.

逸脱パターン「i」は、「同音連打」である。これは、当該逸脱パターンiが指定されたパートについて、ユーザ演奏メロディ音を、短い音符に切って、連打する装飾(逸脱)を行うものである。   The departure pattern “i” is “same beat repeated”. This is a decoration (deviation) in which a user-played melody sound is cut into short notes for a part for which the departure pattern i is specified.

逸脱パターン「j」は、「メロディがない小節後半でフィルイン(おかず)挿入」である。これは、ユーザ演奏メロディ音が休み(演奏されていない)で、小節の後半に来ていると判断された場合に、当該逸脱パターンjが指定されたパートについて、所定のパターンでフィルイン(おかず)を挿入することによって装飾(逸脱)を行うものである。   The deviation pattern “j” is “fill-in insertion in the second half of a measure with no melody”. This is because, when it is determined that the user melody sound is resting (not being played) and is coming in the second half of the measure, the part for which the deviation pattern j is specified is filled in with a predetermined pattern. The decoration (deviation) is performed by inserting.

この場合のフィルイン(おかず)のパターンは、現在指定されているテトラコルド(ジンス、またはマカーム内の構成ジンス)に従って、登録パターンから選択して発音するようにすることができる。   In this case, the fill-in pattern can be selected from the registered pattern according to the currently designated tetracord (Jinz, or the component Jinse in McCarm).

逸脱パターン「k」は、「音域指定」である。これは、当該逸脱パターンkが指定されたパートについて、通常と異なるオクターブでユーザの演奏するメロディ音と同じ旋律を演奏するようにするものである。ユーザの演奏するメロディ音と同じ旋律であっても、楽器によって音域を上げたり下げたりすることで、ヘテロフォニー演奏に厚みをもたせることができる。   The deviation pattern “k” is “sound range designation”. This is to play the same melody as the melody sound played by the user in a different octave for the part for which the deviation pattern k is specified. Even if the melody is the same as the melody sound played by the user, it is possible to increase the thickness of the heterophony performance by raising or lowering the range with an instrument.

例えば、曲が盛り上がったと判定される場合に、ある楽器について、通常より1オクターブ高い音で、ユーザの演奏するメロディ音と同じ旋律を演奏して、より曲調を盛り上げる自動伴奏を施すなどである。   For example, when it is determined that a song is swelled, an automatic accompaniment is performed by playing the same melody as a melody sound played by the user with a sound one octave higher than normal for a certain instrument.

逸脱パターン「l」は、「ジンスの倚音追加」である。これは、当該逸脱パターンlが指定されたパートについて、ユーザが演奏しているメロディ音に対して、倚音を付加して装飾(逸脱)するものである。   The deviation pattern “l” is “addition of Jin's roar”. This is for decorating (departing) by adding a roar to the melody sound played by the user for the part for which the departure pattern l is specified.

倚音とは、非和声音の一種であり、前打音ともいわれるものである。ここでは、ユーザが演奏しているメロディの音に対して、そのメロディ音に隣接する音等を先に発音した後に、ユーザのメロディ音に移行する形の装飾(逸脱)を行う。倚音の長さは、あらかじめ定められた所定の長さだけ倚音を発音した後に、ユーザの演奏するメロディ音に移行する。また、この倚音の長さは、自動伴奏についてテンポ設定ボタン16によりユーザが指定したテンポの設定に応じて、長さを変えるようにしても良い。   Roaring is a kind of non-harmonic sound and is also called pre-percussion sound. Here, decoration (deviation) is performed on the sound of the melody played by the user after the sound adjacent to the melody sound is first generated and then transferred to the user's melody sound. The length of the stuttering sound is shifted to a melody sound played by the user after the stuttering sound is generated for a predetermined length. The length of the stuttering may be changed according to the tempo setting designated by the user with the tempo setting button 16 for automatic accompaniment.

本実施の形態にかかる電子楽器10は、以上のような図13の各種の逸脱について、図8の「メロディ逸脱方法870」の欄を参照して、あるパートについてある逸脱を行うべきか否かを判断する。その際に逸脱条件として判断される個々の要素が、個別の「逸脱トリガー」として図14に示されている。なお、図8〜図10、図13、図14に示す逸脱条件や逸脱パターンは、一例としてのものであり、他の条件や他のトリガーを用いて逸脱条件を判断しても良いし、他の逸脱パターンを定義して、他の逸脱方法を実行することも可能である。   Whether or not the electronic musical instrument 10 according to the present embodiment should make a certain deviation for a certain part with reference to the column of “Melodies Deviating Method 870” in FIG. Judging. The individual elements determined as the departure conditions at that time are shown as individual “deviation triggers” in FIG. The deviation conditions and deviation patterns shown in FIGS. 8 to 10, 13, and 14 are examples, and the deviation conditions may be determined using other conditions or other triggers. It is also possible to define other deviation patterns and perform other deviation methods.

トリガーナンバー「1」は、「メロディベロシティが直前より大きくなった」か否かを示すフラグであり、例えば、ユーザの押鍵するメロディについて、MIDI形式データの「ベロシティ」の値に基づいて判断する。例えば、ユーザの押鍵メロディについて、現在の音のベロシティと、それより前の所定の期間の音のベロシティ値の大小を比較して、現在の音のベロシティ値の方が大きければ、ON(1)とする。   The trigger number “1” is a flag indicating whether or not “the melody velocity has become larger than before”. For example, the melody pressed by the user is determined based on the “velocity” value of the MIDI format data. . For example, for the key depression melody of the user, if the velocity value of the current sound is larger than the velocity value of the current sound and the velocity value of the sound of a predetermined period before that is compared, the ON (1 ).

この場合、急激な変化や誤差(ノイズ)的な誤動作を避けるために、例えば、移動平均のように、直近数音のベロシティ値の平均値を比較するようにしてもよい。また、直前音と現在の音のベロシティ値について、単に大小をみるだけでなく、例えば直前値より20%上がっていたら本トリガーをON(1)とする等の判定を行ってもよい。   In this case, in order to avoid an abrupt change or error (noise) malfunction, for example, the average value of the velocity values of the most recent sounds may be compared, such as a moving average. In addition, the velocity values of the immediately preceding sound and the current sound may be determined not only by their magnitude, but also by determining that this trigger is turned ON (1), for example, if the velocity value is 20% higher than the immediately preceding value.

トリガーナンバー「2」は、「小節の頭」か否かを示すフラグである。これは、例えば、小節の1拍めの拍頭でのみON(1)とするようにしてもよいし、あるいは、小節の拍頭から所定の期間(例えば8分音符1個分等)だけON(1)となるようにしてもよいし、拍頭の前後の所定の期間(例えば拍頭の、16分音符1個分前から、8分音符1個分後まで等)でON(1)となるようにしてもよい。   The trigger number “2” is a flag indicating whether or not it is “the head of a measure”. For example, this may be set to ON (1) only at the beginning of the first beat of the measure, or ON only for a predetermined period (for example, one eighth note) from the beginning of the measure. (1) or ON for a predetermined period before and after the beat (for example, from one 16th note to one eighth note after the start) (1) You may make it become.

トリガーナンバー「3」は、「前のメロディオフから4拍以上オンなし」か否かを示すフラグである。これは、メロディ音が4拍以上演奏されていない場合にON(1)となり、次にメロディ音が押鍵されたときにOFF(0)となるフラグである。この「4拍」との条件も、必要に応じて、他の拍数のフラグを必要な数だけもつようにしても良い。   The trigger number “3” is a flag indicating whether or not “no more than 4 beats from the previous melody off”. This is a flag that is turned on (1) when the melody sound is not played for 4 beats or more and turned off (0) when the melody sound is pressed next time. The condition of “4 beats” may also have a necessary number of other beat number flags as necessary.

トリガーナンバー「4」は、「メロディが2拍以上延びている」か否かを示すフラグであり、文字通り、ユーザの押鍵メロディ音が2拍以上延ばされているときにON(1)となり、当該メロディ音が離鍵されるとOFF(0)となる。   The trigger number “4” is a flag indicating whether or not “the melody is extended by 2 beats or more”, and literally ON (1) when the user's key-pressed melody sound is extended by 2 beats or more. When the melody sound is released, it becomes OFF (0).

トリガーナンバー「5」は、「小節の後半」か否かを示すフラグである。ここでは、4拍子の演奏を想定しているので、小節の3拍目、4拍目にはON(1)となり、それ以外(小節の前半)にはOFF(0)となる。この「小節の後半」フラグは、リズムの拍子などに合わせて、適宜判断基準を変更させることも可能である。   The trigger number “5” is a flag indicating whether or not “the second half of the measure”. Here, since a 4-beat performance is assumed, it is ON (1) at the 3rd and 4th beats of the measure, and OFF (0) at other times (the first half of the measure). This “second half of the measure” flag can be appropriately changed according to the time signature of the rhythm.

トリガーナンバー「6」は、「メロディオフ」か否かを示すフラグであり、メロディ押鍵されている間はOFF(0)となり、メロディ押鍵が無い場合にON(1)となる。   The trigger number “6” is a flag indicating whether or not “melody off”, and is OFF (0) while the melody is pressed, and is ON (1) when no melody is pressed.

トリガーナンバー「7」は、「メロディパターンが3回繰り返し」ているか否かを示すフラグである。実際には、例えば、現在の音を基準に、現在から過去の所定の拍数(半拍、1拍、2拍等)や、所定の音数(例えば、3音〜8音等)で区切ったときに、同じメロディのパターンが3回続けて現れているかどうかを判断して、同じメロディが3回繰り返されている場合にON(1)となり、この条件に合致しないメロディが押鍵されるとOFF(0)となる。繰り返し回数については、3回以外の回数としても良い。   The trigger number “7” is a flag indicating whether or not “the melody pattern is repeated three times”. Actually, for example, based on the current sound, it is divided by a predetermined number of beats from the present (half beat, one beat, two beats, etc.) or a predetermined number of sounds (for example, 3 to 8 sounds). It is determined whether the same melody pattern appears three times in succession, and when the same melody is repeated three times, it becomes ON (1), and a melody that does not meet this condition is pressed. And OFF (0). The number of repetitions may be other than three.

トリガーナンバー「8」は、「メロディが半拍以上延びている」か否かを示すフラグであり、トリガーナンバー「4」と同様、ユーザの押鍵メロディ音が半拍以上延ばされているときにON(1)となり、当該メロディ音が離鍵されるとOFF(0)となるフラグである。   The trigger number “8” is a flag indicating whether or not “the melody is extended more than half a beat”. Like the trigger number “4”, when the user's key-pressed melody sound is extended more than a half beat. Is ON (1), and is OFF (0) when the melody sound is released.

このように、各種のリズムジャンルおよびリズムパターン(エレメント)ごとに、その場合に用いられる各パートの基本の動作設定と、メロディの逸脱方法をROM22に格納しておき、ユーザのメロディ演奏に合わせて、基本的にユーザ演奏メロディと同じ旋律を演奏しつつ、ROM22のメロディ逸脱方法の条件に合致した場合に、適宜、ユーザの演奏するメロディに基づいたメロディの逸脱を行うことにより、本実施の形態にかかる電子楽器10は、ヘテロフォニー的な自動伴奏を付加した演奏を行うことができる。   As described above, for each of various rhythm genres and rhythm patterns (elements), the basic operation setting of each part used in that case and the melody deviation method are stored in the ROM 22 to match the user's melody performance. In this embodiment, the melody deviating based on the melody played by the user is appropriately performed when the melody deviating condition of the ROM 22 is met while basically playing the same melody as the user playing melody. The electronic musical instrument 10 can perform a performance with a heterophony-like automatic accompaniment.

以下、本実施の形態にかかる電子楽器10において実行される処理についてより詳細に説明する。   Hereinafter, the process executed in the electronic musical instrument 10 according to the present embodiment will be described in more detail.

図16は、本実施の形態にかかる電子楽器10において実行されるメインフローの例を示すフローチャートである。電子楽器10のCPU21は、電子楽器10の電源が投入されると、RAM23中のデータの初期化や、表示部15の表示画面のクリアを含むイニシャル処理(初期化処理)を実行する(ステップSA1)。また、このイニシャル処理において、マカームおよびジンスのデータをROM22から読み出し、RAM23の所定の領域に格納する。   FIG. 16 is a flowchart showing an example of a main flow executed in the electronic musical instrument 10 according to the present embodiment. When the power of the electronic musical instrument 10 is turned on, the CPU 21 of the electronic musical instrument 10 executes initial processing (initialization processing) including initialization of data in the RAM 23 and clearing of the display screen of the display unit 15 (step SA1). ). In this initial process, McCamm and Jins data are read from the ROM 22 and stored in a predetermined area of the RAM 23.

イニシャル処理(ステップSA1)が終了すると、CPU21は、リズムジャンル選択ボタン13によって、リズムジャンルの選択が指示されているか否かを調べる(ステップSA2)。リズムジャンル選択ボタン13によって、例えば図8のリズムジャンル名810として示されているような、「アダニ(adani)」、「バラディ(Baradi)」、「マルフーフ(Malfuf)」などのリズムジャンルが選択されている場合(ステップSA2:Yes)、CPU21は、その選択されたリズムジャンルを内部的にセットする(ステップSA3)。すなわち、RAM23の所定のリズムジャンル記憶エリアにリズムジャンルに対応する番号等の情報を記憶し、また、例えば、図8を参照して、選択されているリズムで用いられる楽器の音をプリセット音色リストの中から選択してセットし、また、選択されているリズムのリズムパターンをROM22から読み出す。   When the initial process (step SA1) ends, the CPU 21 checks whether or not the rhythm genre selection button 13 is instructed to select a rhythm genre (step SA2). The rhythm genre selection button 13 selects a rhythm genre such as “adani”, “Baradi”, or “Malfuf” as shown as the rhythm genre name 810 in FIG. If so (step SA2: Yes), the CPU 21 internally sets the selected rhythm genre (step SA3). That is, information such as a number corresponding to a rhythm genre is stored in a predetermined rhythm genre storage area of the RAM 23, and for example, referring to FIG. 8, the sounds of musical instruments used in the selected rhythm are stored in a preset tone color list. The rhythm pattern of the selected rhythm is read out from the ROM 22.

なお、本図16では、リズムジャンルの選択・セットについては、実際のヘテロフォニー演奏が始まる前に行われるものとして、ステップSA2とSA3の処理は、以下のステップSA5からステップSA12のループに入る前に行われることとなっているが、ループ中に変更可能なように構成することとしても差し支えない。   In FIG. 16, it is assumed that rhythm genre selection / set is performed before the actual heterophony performance starts, and the processing of steps SA2 and SA3 is performed before entering the loop from step SA5 to step SA12 below. Although it is supposed to be performed, it may be configured to be changeable during the loop.

続いて、CPU21は、自動伴奏開始・終了指示ボタン12によって、自動伴奏の開始が指示されたか否かを判断する(ステップSA4)。自動伴奏の開始が指示されていない場合は(ステップSA4:No)、本発明に係るヘテロフォニー演奏モードが始動しないので、何もせずに終了する。   Subsequently, the CPU 21 determines whether or not the automatic accompaniment start / end instruction button 12 is instructed to start automatic accompaniment (step SA4). If the start of the automatic accompaniment is not instructed (step SA4: No), the heterophony performance mode according to the present invention is not started, and is terminated without doing anything.

自動伴奏の開始が指示されると(ステップSA4:Yes)、CPU21は、以下のステップSA5からステップSA12の処理を繰り返し実行して、本発明に係るヘテロフォニー演奏を実現する。そして、ステップSA12において、自動伴奏開始・終了指示ボタン12によって自動伴奏の終了が指示されたと判定されるまで、ステップSA5からステップSA12のループを繰り返し実行する。   When the start of automatic accompaniment is instructed (step SA4: Yes), the CPU 21 repeatedly executes the following processing from step SA5 to step SA12 to realize the heterophony performance according to the present invention. Then, in step SA12, the loop from step SA5 to step SA12 is repeatedly executed until it is determined that the end of automatic accompaniment is instructed by the automatic accompaniment start / end instruction button 12.

まず、CPU21は、リズムエレメント指定ボタン14が操作されて、リズムパターン(エレメント)の選択がされたか否かを判定する(ステップSA5)。ここで、本実施の形態にかかる電子楽器10では、前述のように、ユーザは、右手でメロディの演奏を行いつつ、左手でリズムエレメント指定ボタン14を操作することにより、ノーマルパターン、ソロパターン、フィルインパターンなどのリズムのパターン(エレメント)を指定することができる。このリズムパターン(エレメント)の指定が行われた場合(ステップSA5:Yes)、その指定されたリズムパターン(エレメント)のセットを行う(ステップSA6)。具体的には、RAM23の所定のリズムパターン(エレメント)記憶エリアに、リズムパターン(エレメント)に対応する番号等の情報を記憶し、また、これに基づいて、図8から図10のいずれのテーブルを使用するかを、指定されたリズムパターン(エレメント)に応じて切り替える。   First, the CPU 21 determines whether or not a rhythm pattern (element) has been selected by operating the rhythm element designation button 14 (step SA5). Here, in the electronic musical instrument 10 according to the present embodiment, as described above, the user operates the rhythm element designation button 14 with the left hand while playing the melody with the right hand, thereby normal patterns, solo patterns, Rhythm patterns (elements) such as fill-in patterns can be specified. When this rhythm pattern (element) is designated (step SA5: Yes), the designated rhythm pattern (element) is set (step SA6). Specifically, information such as a number corresponding to a rhythm pattern (element) is stored in a predetermined rhythm pattern (element) storage area of the RAM 23, and any of the tables shown in FIGS. Is switched according to the specified rhythm pattern (element).

また、CPU21は、テンポ設定ボタン16によって、テンポの設定がされたか(変更されたか)を調べ(ステップSA7)、テンポ変更操作がされた場合(ステップSA7:Yes)には、適宜指定されたテンポに変更する設定を行う(ステップSA8)。   The CPU 21 checks whether the tempo has been set (changed) using the tempo setting button 16 (step SA7). If a tempo change operation has been performed (step SA7: Yes), an appropriately designated tempo is set. Setting to change to (step SA8).

次に、CPU21は、本実施の形態に係る電子楽器10でヘテロフォニー演奏を行うための、自動伴奏処理を行う(ステップSA9)。この自動伴奏処理については、図17以下を用いて後述する。   Next, the CPU 21 performs an automatic accompaniment process for performing a heterophony performance with the electronic musical instrument 10 according to the present embodiment (step SA9). This automatic accompaniment process will be described later with reference to FIG.

そして、CPU21は、この自動伴奏処理によってなされた種々の処理に基づいて、音源に発音する音色や音高、音長、あるいは波形ファイルの送受信等を行うことによって、サウンドシステム24から実際の音を発音させる処理を行う(ステップSA10)。以下で詳述するが、ここでは、例えば、ジンス指定鍵盤101によって指定されたジンスに基づいて、メロディ演奏用鍵盤102で演奏された主旋律を発音させる。さらに、例えば、ヘテロフォニー演奏に係るメロディの逸脱が指定された楽器について、指定された逸脱を行う音を発音させる等の処理を行う。   The CPU 21 transmits and receives the actual sound from the sound system 24 by performing transmission / reception of a tone color, pitch, tone length, or waveform file to be generated by the sound source based on various processes performed by the automatic accompaniment process. Processing to generate sound is performed (step SA10). Although described in detail below, here, for example, the main melody played on the melody playing keyboard 102 is sounded based on the gins designated by the gins designated keyboard 101. Further, for example, for a musical instrument in which a melody deviation related to a heterophony performance is designated, a process of generating a sound that makes the designated deviation is performed.

より詳細には、まず、ユーザの演奏しているメロディを、指定されたメロディ音色によって発音させる。さらに、図8〜図10を参照し、各パート(820等)ごとに、指定されている音色での発音を行う。この際、各パートごとに、RAM23上に記憶されている逸脱中フラグ[Part,Pattern]を参照し、あるパートが逸脱中であることが判明したら(フラグがON(1)であったら)、そのフラグの立っているPatternの数で示される逸脱パターンに応じた逸脱を行って発音する。また、そのような逸脱中フラグが立っていなければ(フラグがOFF(0)であったら)、そのパートについては、ユーザの演奏しているメロディとユニゾンで同じ旋律を発音させる。なお、各逸脱パターンに応じた逸脱を行った発音の具体的な方法については、以下の各逸脱パターンのフローチャートの説明の部分において詳細に説明する。   More specifically, first, a melody being played by the user is pronounced with a specified melody tone color. Further, referring to FIG. 8 to FIG. 10, for each part (820, etc.), sounding with a designated tone color is performed. At this time, for each part, referring to the deviating flag [Part, Pattern] stored in the RAM 23, if it is found that a part is deviating (if the flag is ON (1)), Deviations are generated according to the deviation pattern indicated by the number of Patterns on which the flag stands. Further, if such a deviation flag is not set (if the flag is OFF (0)), the same melody is generated for the part by the melody being played by the user and the unison. Note that a specific method of pronunciation with deviation according to each departure pattern will be described in detail in the following description of the flowchart of each departure pattern.

音源発音処理(ステップSA10)が終了すると、CPU21は、その他の処理(たとえば、表示部15への画像表示、LED(図示せず)の点灯、消灯など:ステップSA11)を実行する。   When the sound source sound generation process (step SA10) is completed, the CPU 21 executes other processes (for example, image display on the display unit 15, lighting of LEDs (not shown), turning off, etc .: step SA11).

続いて、CPU21は、自動伴奏開始・終了指示ボタン12によって、自動伴奏の終了すなわちヘテロフォニーモードでの演奏の終了が指示されたか否かを判断する(ステップSA12)。そして、自動伴奏終了が指示されない間は(ステップSA12:No)、ステップSA5へ戻り、ループ処理を継続してヘテロフォニー演奏を継続し、自動伴奏の終了が指示されると(ステップSA12:Yes)、図16に示される一連の処理を終了する。   Subsequently, the CPU 21 determines whether or not the automatic accompaniment start / end instruction button 12 is instructed to end the automatic accompaniment, that is, the end of the performance in the heterophony mode (step SA12). When the end of automatic accompaniment is not instructed (step SA12: No), the process returns to step SA5, the loop process is continued to continue the heterophony performance, and the end of automatic accompaniment is instructed (step SA12: Yes). The series of processes shown in FIG.

次に、上述したステップSA9で実行される、本実施の形態に係る電子楽器10でヘテロフォニー演奏を行うための自動伴奏処理について、図17を用いて詳細に説明する。   Next, the automatic accompaniment process for performing the heterophony performance with the electronic musical instrument 10 according to the present embodiment, which is executed in step SA9 described above, will be described in detail with reference to FIG.

図16のメインフローから図17の自動伴奏処理が呼び出されると、CPU21は、伴奏鍵すなわちジンス指定鍵盤101の押鍵があるか否かを判定する(ステップSB1)。そして、伴奏鍵(ジンス指定鍵盤101)の押鍵があった場合(ステップSB1:Yes)その押鍵に応じて、ジンスの設定を変更する(ステップSB2)。   When the automatic accompaniment process of FIG. 17 is called from the main flow of FIG. 16, the CPU 21 determines whether or not there is an accompaniment key, that is, a key press of the Jinz designation keyboard 101 (step SB1). If the accompaniment key (jins designation keyboard 101) has been depressed (step SB1: Yes), the jinth setting is changed according to the depressed key (step SB2).

これは、前述のように、あるマカームの曲であっても、例えば上行音型時と下降音型時でジンスが変わり、同じ鍵を演奏していても発音すべき音が変化する等の、アラビア音楽の特性に合わせるために、適宜、ジンス指定鍵盤101でジンスを指定することができ、これに合わせてジンス設定を変更できるようにしているからである。   This is, as mentioned above, even if it is a song of a certain Macamu, for example, the jinse changes between the ascending sound type and the descending sound type, and the sound to be pronounced changes even if the same key is played, etc. This is because, in order to match the characteristics of Arabic music, it is possible to appropriately specify the zinc on the Jinz designation keyboard 101, and to change the jinth setting accordingly.

次に、CPU21は、メロディ演奏用鍵盤102の押鍵があるか否かを判定する(ステップSB3)。メロディ演奏用鍵盤102の押鍵があった場合には(ステップSB3:Yes)、押鍵されている鍵盤と、現在設定されているジンスとに応じた音高の音を、ユーザ演奏主旋律として発音する(ステップSB4)。   Next, the CPU 21 determines whether or not there is a key depression of the melody performance keyboard 102 (step SB3). When there is a key depression of the melody performance keyboard 102 (step SB3: Yes), a tone having a pitch corresponding to the depressed key and the currently set gins is generated as the main melody of the user performance. (Step SB4).

なお、このとき、ジンス指定鍵盤101によるジンスの指定と、メロディ演奏用鍵盤102によるメロディ演奏音とが矛盾しているような場合、例えば、指定されたジンスでは存在しない(割り当てがなされていない)音がメロディ演奏用鍵盤102で指定されたような場合には、元のマカーム通りに発音したり、あるいは、そのような音は無視することとして発音しない等と処理する。なお、マカームについては、例えば、図16のメインフローにおけるステップSA5からSA12のループ処理に入る前に、図示しない設定ボタンによって、例えばリズムジャンルの設定と同様に、あらかじめユーザが設定しておくことができる。あるいは、リズムジャンルの設定と同時に、自動的にそのリズムで頻用されるマカームが自動設定されるようにしても良い。   At this time, in the case where the specification of the gins by the gins specification keyboard 101 and the melody performance sound by the melody performance keyboard 102 are contradictory, for example, the specified jins does not exist (no assignment is made). When a sound is designated by the melody performance keyboard 102, the sound is generated as per the original McCamm, or such a sound is ignored and not processed. For example, before entering the loop processing from step SA5 to SA12 in the main flow of FIG. 16, the user can set McCamm in advance by using a setting button (not shown), for example, in the same manner as setting the rhythm genre. it can. Or, simultaneously with the setting of the rhythm genre, the McCamm frequently used in the rhythm may be automatically set.

その後、CPU21は、メロディ逸脱トリガーの検出処理を行う(ステップSB5)。このメロディ逸脱トリガー検出処理については、図18、図19を用いて後述するが、ユーザに入力されているメロディの音などに基づいて、図14に示されている、個別の「逸脱トリガー」の条件が満たされたか否かを判別し、各トリガーのフラグ値をONまたはOFFにセットする。   Thereafter, the CPU 21 performs a melody departure trigger detection process (step SB5). This melody departure trigger detection process will be described later with reference to FIGS. 18 and 19, but based on the sound of the melody input to the user, the individual “deviation trigger” shown in FIG. It is determined whether or not the condition is satisfied, and the flag value of each trigger is set to ON or OFF.

個々の逸脱トリガーごとの判定とフラグのセットが行われた後、CPU21は、メロディ逸脱処理を行う(ステップSB6)。このメロディ逸脱処理については、図20以降の図を用いて後述するが、各逸脱トリガーのフラグ値等に基づいて、図8から図10のテーブルを適宜参照することにより、各パート毎に、逸脱を行う条件が成立しているか否かを個別に判断し、ある逸脱パターンを行う条件が満たされていた場合は、その条件が成立したパートについて、条件が成立した逸脱を行うように制御する。   After the determination and flag setting for each departure trigger are performed, the CPU 21 performs melody departure processing (step SB6). This melody departure process will be described later with reference to FIG. 20 and subsequent drawings. By referring to the tables in FIG. 8 to FIG. 10 as appropriate based on the flag values of each departure trigger, the departure from each melody is performed. It is individually determined whether or not a condition for performing the above is satisfied, and if a condition for performing a certain departure pattern is satisfied, control is performed so that the part for which the condition is satisfied performs a departure that satisfies the condition.

そこで、まず、図18と図19を参照して、上記ステップSB5で実行される、メロディ逸脱トリガーの検出処理について説明する。なお、この図において、各トリガーナンバーの逸脱トリガーの判定結果(フラグ)は、RAM23の所定の領域に、Trigger[]の配列で記憶されるものとする。   First, the melody departure trigger detection process executed in step SB5 will be described with reference to FIGS. In this figure, it is assumed that the departure trigger determination result (flag) of each trigger number is stored in a predetermined area of the RAM 23 in an array of Trigger [].

まず、CPU21は、現在の演奏が、小節の頭であるか否かを判定し(ステップSC1)、小節の頭である場合(ステップSC1:Yes)は、トリガーナンバー2(小節の頭)のフラグTrigger[2]をON(1)にセットする(ステップSC2)。一方、小節の頭で無い場合には(ステップSC1:No)、トリガーナンバー2のフラグTrigger[2]をOFF(0)にセットする(ステップSC3)。   First, the CPU 21 determines whether or not the current performance is the beginning of a measure (step SC1). If it is the beginning of a measure (step SC1: Yes), a flag of trigger number 2 (the beginning of the measure) is flagged. Trigger [2] is set to ON (1) (step SC2). On the other hand, if it is not the head of a measure (step SC1: No), the trigger number 2 flag Trigger [2] is set to OFF (0) (step SC3).

具体的には、自動伴奏がオンとなって自動伴奏モードである場合(ヘテロフォニー演奏モードである場合)には、現在選択されているリズムジャンル・リズムパターンに応じたリズムパターンが、テンポ設定ボタン16によって設定されたテンポで再生されているので、そのタイミング(テンポ)に応じて、現在の小節内の拍数位置が調べられる。そして、現在の小節内における拍数位置が、例えば1拍目の頭(小節の最初)から、2拍目の頭の前(1拍目の最後)までに存在する場合に、「小節の頭である」と判断されることとなる。   Specifically, when the automatic accompaniment is on and the automatic accompaniment mode is set (in the case of the heterophony performance mode), a rhythm pattern corresponding to the currently selected rhythm genre / rhythm pattern is displayed on the tempo setting button 16. Since the playback is performed at the tempo set by, the position of the beat number in the current measure is checked according to the timing (tempo). If the beat position in the current measure exists, for example, from the beginning of the first beat (the beginning of the measure) to the front of the second beat (the end of the first beat), It will be judged.

続いて、CPU21は、現在の演奏が、3拍目以降であるか否かを判定し(ステップSC4)、3拍目以降である場合(ステップSC4:Yes)は、トリガーナンバー5(小節の後半)のフラグTrigger[5]をON(1)にセットする(ステップSC5)。一方、小節の頭で無い場合には(ステップSC4:No)、トリガーナンバー5のフラグTrigger[5]をOFF(0)にセットする(ステップSC6)。   Subsequently, the CPU 21 determines whether or not the current performance is after the third beat (step SC4), and when it is after the third beat (step SC4: Yes), the trigger number 5 (the second half of the measure). ) Flag Trigger [5] is set to ON (1) (step SC5). On the other hand, if it is not the head of a measure (step SC4: No), the trigger number 5 flag Trigger [5] is set to OFF (0) (step SC6).

具体的には、ステップSC1と同様、現在のリズムパターンとテンポ設定に基づいて、現在のタイミングが、小節内のどの拍数位置であるかを判断する。そして、現在の小節内における拍数位置が、3拍目の頭(小節の最初)から、次の小節の直前までに存在する場合に、「3拍目以降である」と判断されることとなる。なお、例えばここで4拍のリズムパターンが演奏されているとすると、演奏位置がその3拍目と4拍目の間に存在する場合に、Trigger[5]がON(1)となる。   Specifically, as in step SC1, based on the current rhythm pattern and tempo setting, it is determined which beat position in the measure is the current timing. And, if the beat position in the current measure exists from the beginning of the third beat (the beginning of the measure) to immediately before the next measure, it is determined that it is “after the third beat”. Become. For example, if a 4-beat rhythm pattern is being played, Trigger [5] is turned ON (1) when the performance position is between the third and fourth beats.

次に、CPU21は、現在、ユーザによってメロディ押鍵がある、すなわち、メロディ演奏用鍵盤102でメロディ入力がなされているか否かを判断する(ステップSC7)。各メロディ逸脱トリガーの中には、メロディが押鍵されているときにフラグONとなるもの、または逆に、メロディ押鍵が無い場合にフラグONとなるもの、が含まれているので、このステップSC7の判定によって、以下の処理を振り分けているものである。   Next, the CPU 21 determines whether or not there is a melody pressing key by the user, that is, whether or not a melody is input on the melody performance keyboard 102 (step SC7). Each melody departure trigger includes a trigger that turns on when the melody is pressed, or a flag that turns on when there is no melody pressed. The following processing is distributed according to the determination of SC7.

すなわち、メロディ入力がされている場合(ステップSC7:Yes)には、まず、メロディ押鍵が無い場合にONとなる、トリガーナンバー3(前のメロディオフから4拍以上オンなし)および6(メロディオフ)のフラグTrigger[3]とTrigger[6]をOFF(0)とセットする(ステップSC8)。   That is, when a melody is input (step SC7: Yes), first, the trigger numbers 3 (not on for 4 beats from the previous melody off) and 6 (melody) are turned on when there is no melody pressed. The off flag Trigger [3] and Trigger [6] are set to OFF (0) (step SC8).

他方、メロディ入力がされていない場合(ステップSC7:No)には、メロディ押鍵がある場合にONとなる、トリガーナンバー1(メロディベロシティが直前より大きくなった)、4(メロディが2拍以上延びている)、7(メロディパターンが3回繰り返し)、8(メロディが半拍以上延びている)の各フラグTrigger[1]、Trigger[4]、Trigger[7]、Trigger[8]をOFF(0)とセットする(ステップSC9)。   On the other hand, when the melody is not input (step SC7: No), the trigger number is 1 (the melody velocity is larger than the previous one), 4 (the melody is 2 beats or more) when the melody is pressed. Each of the flags Trigger [1], Trigger [4], Trigger [7], Trigger [8] is OFF. (0) is set (step SC9).

そして、メロディ入力がされていない場合(ステップSC7:No)、CPU21は、上述の各種逸脱トリガーのフラグOFF処理(ステップSC9)に続いて、メロディ押鍵が無い場合にONとなり得るフラグの判定を行う。まず、メロディ押鍵がないことから、トリガーナンバー6「メロディオフ」については、この時点で成立していると判定できるので、ステップSC10において、Trigger[6]がON(1)される(ステップSC10)。   If the melody is not input (step SC7: No), the CPU 21 determines the flag that can be turned ON when there is no melody key following the above-described various deviation trigger flag OFF processing (step SC9). Do. First, since there is no melody pressing key, it can be determined that the trigger number 6 “melody off” has been established at this time, so in step SC10, Trigger [6] is turned ON (1) (step SC10). ).

次に、CPU21は、4拍以上休符であるか、すなわち、前回のメロディ離鍵から4拍以上、メロディの押鍵入力がされていないかどうかが調べられる(ステップSC11)。4拍以上休符であった場合(ステップSC11:Yes)、トリガーナンバー3「前のメロディオフから4拍以上オンなし」の条件が満たされているので、Trigger[3]がON(1)される(ステップSC12)。他方、前回のメロディ離鍵から4拍以上休符では無い場合には、Trigger[3]がOFF(0)とされる(ステップSC13)。   Next, the CPU 21 checks whether the rest is 4 beats or more, that is, whether or not the melody has been pressed for 4 beats or more from the previous melody release (step SC11). When the rest is 4 beats or more (step SC11: Yes), the trigger number 3 “4 beats from the previous melody off and not on” is satisfied, so Trigger [3] is turned ON (1). (Step SC12). On the other hand, if there is no rest for four beats or more from the previous melody release, Trigger [3] is turned OFF (0) (step SC13).

そして、これらの、メロディ入力がされていない場合にONとなり得るフラグ(ここでは、トリガーナンバー3及びトリガーナンバー6)についての判定が終了すると、ステップSD16へ処理を進める。これ以降の処理については後述する。   When the determination of the flags (here, trigger number 3 and trigger number 6) that can be turned on when no melody is input is completed, the process proceeds to step SD16. Subsequent processing will be described later.

一方、メロディ入力がされている場合(ステップSC7:Yes)には、上述のように、ステップSC8における、トリガーナンバー3と6のOFF処理が行われた後、図19のステップSD1へ処理を進めて、メロディ押鍵がある場合にONとなり得るフラグの判定を行う。   On the other hand, when a melody is input (step SC7: Yes), as described above, after the trigger numbers 3 and 6 are turned off in step SC8, the process proceeds to step SD1 in FIG. Thus, the flag that can be turned on when the melody key is pressed is determined.

まず、CPU21は、現在押鍵されているメロディ押鍵が、前回この判定処理が行われたときから後に、新たに押鍵されたものであるか、あるいは、前回の判定以降も押鍵が継続された音であるかを判定する(ステップSD1)。具体的には、例えば、RAM23上に、図示しないバッファを儲けて、毎回のこのステップSD1の処理ごとに、そのときに押鍵されている鍵盤の情報(音高、押鍵開始時刻等)を記憶しておき、次回のステップSD1の処理の際に、前回バッファに記憶された押鍵情報と、現在の押鍵情報とを比較すること等により判断を行うことが可能である。   First, the CPU 21 determines whether the currently pressed melody key has been newly pressed after the previous determination process, or continues to be pressed after the previous determination. It is determined whether the sound has been played (step SD1). Specifically, for example, a buffer (not shown) is provided on the RAM 23, and the information (pitch, key pressing start time, etc.) of the key being pressed at that time at each step SD1 is displayed. It is possible to make a determination by storing the key press information stored in the previous buffer and the current key press information at the time of the next step SD1.

現在押鍵されているメロディ押鍵が新たなメロディ押鍵である場合(ステップSD1:Yes)、トリガーナンバー4(メロディが2拍以上延びている)や、トリガーナンバー8(メロディが半拍以上延びている)の条件は成立しないので、これらのフラグTrigger[4]とTrigger[8]をOFF(0)にセットする(ステップSD2)。   If the currently pressed melody key is a new melody key press (step SD1: Yes), trigger number 4 (melody extends over 2 beats) or trigger number 8 (melody extends over half beats) Therefore, the flags Trigger [4] and Trigger [8] are set to OFF (0) (step SD2).

続いて、CPU21は、現在のメロディ押鍵が新たなメロディ押鍵である場合に成立する可能性がある、トリガーナンバー1(メロディベロシティが直前より大きくなった)と、トリガーナンバー7(メロディパターンが3回繰り返し)について判定を行う(ステップSD3からステップSD9)。   Subsequently, the CPU 21 may be established when the current melody key press is a new melody key press, and trigger number 1 (the melody velocity is greater than before) and trigger number 7 (the melody pattern is The determination is made for (repeat three times) (step SD3 to step SD9).

まず、CPU21は、メロディのベロシティが直前の音のベロシティに比較して、20%以上アップ(強く押鍵された)か否かを判定する(ステップSD3)。また、この条件が成立していなかった場合(ステップSD3:No)には、さらに、メロディのベロシティが、前の小節の平均値より15%以上アップ(強く押鍵された)か否かを判定する(ステップSD5)。   First, the CPU 21 determines whether or not the velocity of the melody is increased by 20% or more (strongly pressed) compared to the velocity of the immediately preceding sound (step SD3). If this condition is not satisfied (step SD3: No), it is further determined whether or not the velocity of the melody is increased by 15% or more (strongly pressed) from the average value of the previous measure. (Step SD5).

ステップSD3の判定、またはステップSD5の判定のいずれかの条件が満たされていた場合(ステップSD3:Yes、ステップSD5:Yes)には、「メロディベロシティが直前より大きくなった」と判断して、トリガーナンバー1のフラグTrigger[1]をON(1)とする(ステップSD4)。一方、ステップSD3の判定条件、およびステップSD5の判定条件のいずれも満たされていなかった場合(ステップSD3:NoからステップSD5:No)には、トリガーナンバー1のフラグTrigger[1]をOFF(0)とする(ステップSD6)。   If any of the determinations of step SD3 or step SD5 is satisfied (step SD3: Yes, step SD5: Yes), it is determined that “the melody velocity is greater than before”, The trigger number 1 flag Trigger [1] is set to ON (1) (step SD4). On the other hand, if neither the determination condition of step SD3 nor the determination condition of step SD5 is satisfied (step SD3: No to step SD5: No), the flag Trigger [1] of the trigger number 1 is turned OFF (0 ) (Step SD6).

また、CPU21は、同じメロディパターンが3回繰り返されたか否かを判断する(ステップSD7)。具体的には、例えば、ユーザによって演奏(押鍵)されたメロディを、RAM23上の図示しないメロディ履歴記憶バッファ等に時系列に記憶しておき、現在押鍵されたメロディを含む数音について、その数音が3回繰り返されているか否かを判断することで判断することが可能である。また、その場合、繰り返しの「数音」の音数については、例えば3音程度から8音程度など、あらかじめ定められた音数でメロディ履歴記憶バッファのメロディ履歴を区切って、メロディ履歴記憶バッファのメロディを、上記の各繰り返し音数で区切った場合に繰り返しの条件が満たされるか否かを逐次調べることによって実現することが可能である。   Further, the CPU 21 determines whether or not the same melody pattern is repeated three times (step SD7). Specifically, for example, a melody played (key pressed) by a user is stored in a time series in a melody history storage buffer (not shown) on the RAM 23, and several sounds including the currently pressed melody are stored. It can be determined by determining whether or not the several sounds are repeated three times. In that case, the number of repeated “several sounds” is divided into a melody history in the melody history storage buffer by a predetermined number of sounds, for example, about 3 to 8 sounds, and the melody history storage buffer It can be realized by sequentially checking whether or not the repetition condition is satisfied when the melody is divided by the number of repeated sounds described above.

このステップSD7での判定の結果に応じて、同じメロディパターンが3回繰り返されていた場合は(ステップSD7:Yes)、トリガーナンバー7のフラグTrigger[7]をON(1)とする(ステップSD8)。他方、同じメロディパターンが3回繰り返されていない場合は(ステップSD7:No)、トリガーナンバー7のフラグTrigger[7]をOFF(0)とする(ステップSD9)。その後、CPU21は、ステップSD16へ処理を進める。これ以降の処理については後述する。   If the same melody pattern has been repeated three times according to the result of determination in step SD7 (step SD7: Yes), the trigger Trigger 7 flag Trigger [7] is set to ON (1) (step SD8). ). On the other hand, when the same melody pattern is not repeated three times (step SD7: No), the trigger Trigger 7 flag Trigger [7] is set to OFF (0) (step SD9). Thereafter, the CPU 21 advances the process to step SD16. Subsequent processing will be described later.

一方、ステップSD1へ戻って、現在押鍵されているメロディ押鍵が新たなメロディ押鍵でなかった場合(ステップSD1:No)、CPU21は、トリガーナンバー4(メロディが2拍以上延びている)や、トリガーナンバー8(メロディが半拍以上延びている)について判定を行う(ステップSD10からステップSD15)。なお、この場合、新たな押鍵があったわけではないので、トリガーナンバー1(メロディベロシティが直前より大きくなった)と、トリガーナンバー7(メロディパターンが3回繰り返し)については、既になされている判定の結果をそのまま保持することとして、これらのフラグのOFF(0)クリアは行わない。   On the other hand, returning to step SD1, if the currently pressed melody key is not a new melody key (step SD1: No), the CPU 21 trigger number 4 (the melody extends two or more beats). Alternatively, the trigger number 8 (the melody extends for more than half a beat) is determined (step SD10 to step SD15). In this case, since there is no new key press, the trigger number 1 (the melody velocity is larger than before) and the trigger number 7 (the melody pattern is repeated three times) are already determined. These flags are held as they are, and OFF (0) clear of these flags is not performed.

まず、CPU21は、現在押鍵されているメロディ音が、半拍以上延びている(継続して押鍵されている)音であるか否かを判定する(ステップSD10)。具体的には、前述した、現在押鍵されているメロディ音の押鍵タイミングと、現在のタイミングとを比較することにより、判断することができる。   First, the CPU 21 determines whether or not the currently pressed melody sound is a sound that is longer than half a beat (continuously pressed) (step SD10). Specifically, the determination can be made by comparing the key pressing timing of the melody sound that is currently pressed with the current timing.

現在押鍵されているメロディ音が、半拍以上延びていない場合(ステップSD10:No)は、トリガーナンバー8のフラグをTrigger[8]をOFF(0)とするとともに、当然、現在押鍵されているメロディ音が2拍以上延びていることもあり得ないので、トリガーナンバー4のフラグTrigger[4]もOFF(0)とする(ステップSD11)。   When the currently pressed melody sound does not extend for more than half a beat (step SD10: No), the trigger number 8 flag is set to Trigger [8] OFF (0) and, of course, the currently pressed key is pressed. Since the melody sound that is being played cannot extend more than two beats, the trigger number 4 flag Trigger [4] is also turned OFF (0) (step SD11).

一方、現在押鍵されているメロディ音が、半拍以上延びている場合(ステップSD10:Yes)は、トリガーナンバー8のフラグをTrigger[8]をON(1)とし(ステップSD12)、さらに、現在押鍵されているメロディ音が2拍以上延びている(継続して押鍵されている)音であるか否かを判定する(ステップSD13)。   On the other hand, if the currently pressed melody sound is longer than half a beat (step SD10: Yes), the trigger number 8 flag is set to Trigger [8] (1) (step SD12). It is determined whether or not the currently pressed melody sound is a sound that has been extended for two or more beats (continuously pressed) (step SD13).

現在押鍵されているメロディ音が、2拍以上延びている場合(ステップSD13:Yes)は、トリガーナンバー4のフラグをTrigger[4]をON(1)とする(ステップSD14)。一方、現在押鍵されているメロディ音が、2拍以上延びていない場合(ステップSD13:No)は、トリガーナンバー4のフラグをTrigger[4]をOFF(0)とする(ステップSD15)。その後、CPU21は、ステップSD16へ処理を進める。   If the currently pressed melody sound extends for two or more beats (step SD13: Yes), the trigger number 4 flag is set to Trigger [4] ON (1) (step SD14). On the other hand, if the currently pressed melody sound does not extend two beats or more (step SD13: No), the trigger number 4 flag is set to OFF (0) with Trigger [4] (step SD15). Thereafter, the CPU 21 advances the process to step SD16.

上記のようにそれぞれの逸脱トリガーについての判定およびフラグセットの処理が行われた後、ステップSC12、SC13、ステップSD8、SD9、SD14、SD15の各処理に続いて、CPU21はステップSD16に処理を進め、演奏が小節の終わりに到達したか否かを判断する(ステップSD16)。   After the determination of each departure trigger and the flag set process are performed as described above, the CPU 21 proceeds to step SD16 following each process of steps SC12, SC13, SD8, SD9, SD14, and SD15. Then, it is determined whether or not the performance has reached the end of the measure (step SD16).

そして、小節の終わりに到達していた場合(ステップSD16:Yes)には、小節ごとに判定が行われるフラグや、他の小節の位置である場合にON(1)となるフラグなどがOFF(0)にクリアされる。具体的には、ここでは、トリガーナンバー1(メロディベロシティが直前より大きくなった)のフラグTrigger[1]、トリガーナンバー2(小節の頭)のフラグTrigger[2]、および、トリガーナンバー5(小節の後半)のフラグTrigger[5]が、それぞれOFF(0)とされる。また、この際、ステップSD5で用いられる、「前の小節のベロシティ値の平均」を算出して、RAM22の所定のバッファに記録し、次の小節におけるステップSD5の処理で用いることとしても良い。   If the end of the measure has been reached (step SD16: Yes), the flag for which determination is performed for each measure, the flag that is ON (1) when the position is at another measure, and the like are OFF ( Cleared to 0). Specifically, here, the trigger Trigger [1] of the trigger number 1 (the melody velocity has become larger than before), the trigger Trigger [2] of the trigger number 2 (start of measure), and the trigger number 5 (measure) The second half) flag Trigger [5] is set to OFF (0). At this time, the “average of velocity values of the previous bar” used in step SD5 may be calculated and recorded in a predetermined buffer of the RAM 22, and used in the process of step SD5 in the next bar.

このようにして、図18から図19のフローにより、図17のステップSB5のメロディ逸脱トリガー検出処理がおこなわれると、次にCPU21は、ステップSB6のメロディ逸脱処理を行う。図20は、本実施の形態におけるメロディ逸脱処理の例である。   Thus, when the melody departure trigger detection process of step SB5 of FIG. 17 is performed according to the flow of FIGS. 18 to 19, the CPU 21 then performs the melody departure process of step SB6. FIG. 20 is an example of melody departure processing in the present embodiment.

図20のフローチャートにおいて、CPU21は、まず、変数Patternに、第1番目の逸脱パターンとしての「逸脱パターンa」を示すデータを記憶させ(ステップSE1)、さらに変数Partに、最初のパートとしてのパート番号1を記憶させる(ステップSE2)。   In the flowchart of FIG. 20, the CPU 21 first stores data indicating “deviation pattern a” as the first deviation pattern in the variable Pattern (step SE1), and further stores the part as the first part in the variable Part. Number 1 is stored (step SE2).

そして、上述の図18から図19のフローにおいて、ユーザの演奏メロディ等の状況に応じて既にセットされた各種の逸脱トリガーに基づいて、変数Partで示されるパートでの、変数Patternで示される逸脱パターンの実行処理を行う(ステップSE3)。   Then, in the flow shown in FIGS. 18 to 19, the deviation indicated by the variable Pattern in the part indicated by the variable Part based on various deviation triggers already set according to the situation of the user's performance melody or the like. A pattern execution process is performed (step SE3).

実際には、このステップSE3では、変数Patternで表される逸脱パターンに対応した、メロディ逸脱の実行処理サブルーチンをコールする。各メロディ逸脱の実行処理サブルーチンについては後述するが、概略としては、変数Partで示されるパートにおいて、変数Patternで示される逸脱パターンの逸脱を行うか否かを、図8から図10の各テーブルに基づいて判断し、逸脱を行うべき場合には、当該Partで示されるパートが当該Patternの逸脱を行うよう処理を行うものである。   Actually, in this step SE3, a melody deviation execution processing subroutine corresponding to the deviation pattern represented by the variable Pattern is called. The execution processing subroutine for each melody departure will be described later. As a general rule, whether or not to deviate from the departure pattern indicated by the variable Pattern in the part indicated by the variable Part is shown in each table of FIGS. Based on this determination, if the departure is to be made, the part indicated by the Part is processed so as to make the departure from the Pattern.

そして、この逸脱パターンの実行処理(ステップSE3)について、ステップSE4でPart番号を+1しながら(ステップSE4)、全パートが検査済みとなるまで上記のステップSE3の逸脱パターンの実行処理を繰り返して実行し(ステップSE5:No)、さらに、全パートの検査が終了すると(ステップSE5:Yes)、パターン変数Patternを+1して(ステップSE6)、再度Partを1から順に変化させながら逸脱パターンの実行処理(ステップSE3)を実行する。   Then, for the departure pattern execution process (step SE3), the part number is incremented by 1 in step SE4 (step SE4), and the above-described departure pattern execution process in step SE3 is repeatedly executed until all parts have been inspected. (Step SE5: No) Further, when the inspection of all the parts is completed (Step SE5: Yes), the pattern variable Pattern is incremented by 1 (Step SE6), and the deviation pattern is executed while changing the Part in order from 1 again. (Step SE3) is executed.

そして、全ての逸脱パターンについて検査し終わったら、このメロディ逸脱処理を終了する(ステップSE7:Yes)。   When all the departure patterns have been inspected, this melody departure process is terminated (step SE7: Yes).

このように、図20の処理では、このように、パート変数Partと逸脱パターン変数Patternを順次変化させながら、すべてのパターンについて全てのパートで逸脱パターンの実行処理(ステップSE3)を行うようになっている。   In this way, in the process of FIG. 20, the deviation pattern execution process (step SE3) is performed for all the patterns for all the patterns while sequentially changing the part variable Part and the deviation pattern variable Pattern. ing.

このステップSE3で実行される逸脱パターンの実行処理について、図13に示したそれぞれの逸脱パターン毎に、対応する逸脱パターン実行処理が備えられている。図21から図27は、逸脱パターン毎の対応する逸脱パターン実行処理を説明するフローチャートである。また、図28は、図27の逸脱パターンjの場合に選択されるフィルインパターンの特徴を示した図である。以下、これらの図を参照して、各逸脱パターンについての逸脱パターン実行処理を説明する。   With respect to the departure pattern execution process executed in step SE3, a corresponding departure pattern execution process is provided for each departure pattern shown in FIG. FIGS. 21 to 27 are flowcharts for explaining the corresponding departure pattern execution processing for each departure pattern. FIG. 28 is a diagram showing the characteristics of the fill-in pattern selected in the case of the deviation pattern j in FIG. Hereinafter, the departure pattern execution process for each departure pattern will be described with reference to these drawings.

図21は、図13の逸脱パターンa「デチューン5%アップ」、逸脱パターンb「16分音符分ディレイ」、逸脱パターンc「ベロシティ10%アップ」、逸脱パターンk「音域指定」の各逸脱パターンの実施例を示すフローチャートである。これらの各逸脱パターンについては、多くのステップで、同様の処理を行うことによって実現できることから、共通の図21を用いて説明する。   FIG. 21 shows the deviation patterns of “deviation pattern a“ detune 5% up ”, deviation pattern b“ 16th note delay ”, deviation pattern c“ velocity 10% up ”, deviation pattern k“ tone range designation ”in FIG. It is a flowchart which shows an Example. Each of these deviation patterns can be realized by performing the same processing in many steps, and will be described with reference to FIG.

CPU21は、図20のステップSE3において、変数Patternが、逸脱パターンa、逸脱パターンb、逸脱パターンc、逸脱パターンk、のいずれかであった場合、図21のステップSF1に処理を移し、逸脱条件が成立しているか否かを判定する(ステップSF1)。この場合、図20のPattern変数と、Part変数の値については、引数の形で図21のサブルーチンに引き継がれて参照可能になるものとする。   When the variable Pattern is any one of the deviation pattern a, the deviation pattern b, the deviation pattern c, and the deviation pattern k in step SE3 in FIG. 20, the CPU 21 moves the process to step SF1 in FIG. Is determined (step SF1). In this case, it is assumed that the values of the Pattern variable and the Part variable in FIG. 20 can be referred to in the form of arguments by being taken over by the subroutine of FIG.

具体的には、リズムエレメント指定ボタン14で指定されているリズムのパターン(エレメント)に対応した伴奏フォーマットセット/逸脱方法指定表のデータベース(図8、図9、図10のテーブルのいずれか)を参照して、リズムジャンル選択ボタン13で選択されているリズムジャンル(例えば、adani、Baradi、Malfufのいずれか)についてのデータ群のうちで、図20のフローで設定されているPart変数及びPattern変数に対応したパート名820の行およびメロディ逸脱方法(パターン)870の列に対応する位置の、逸脱条件を参照する。   Specifically, an accompaniment format set / deviation method specification table database (any one of the tables of FIGS. 8, 9, and 10) corresponding to the rhythm pattern (element) specified by the rhythm element specification button 14 is used. Referring to the data group regarding the rhythm genre selected by the rhythm genre selection button 13 (for example, any one of adani, Baradi, and Malfuf), the Part variable and the Pattern variable set in the flow of FIG. Reference is made to the deviation condition at the position corresponding to the row of the part name 820 and the column of the melody deviation method (pattern) 870 corresponding to.

例えば、リズムパターン(エレメント)がノーマルであれば、図8の伴奏フォーマットセット/逸脱方法指定表800を参照し、その中で、リズムジャンル選択ボタン13で選択されているリズムジャンルがadaniである場合、リズムジャンル名810にadaniと書かれている部分に対応する5行分のデータが対象となる。そして、Part変数がパート1で、Pattern変数が逸脱パターンaであれば、テーブルの801欄のデータを参照することとなる。   For example, if the rhythm pattern (element) is normal, the accompaniment format set / deviation method designation table 800 of FIG. 8 is referred to, and the rhythm genre selected by the rhythm genre selection button 13 is adani. The data for five lines corresponding to the portion where dandy is written in the rhythm genre name 810 is targeted. If the Part variable is Part 1 and the Pattern variable is the deviation pattern a, the data in the 801 column of the table is referred to.

同様に、Part変数が1で、Pattern変数が逸脱パターンbであれば、802欄のデータを参照する。また、Part変数が2で、Pattern変数がパターンaであれば、803欄のデータを参照する。   Similarly, if the Part variable is 1 and the Pattern variable is the deviation pattern b, the data in the column 802 is referred to. If the Part variable is 2 and the Pattern variable is pattern a, the data in the 803 column is referred to.

ここで、例えばテーブル中の801欄のデータとしては何も記載されていない。このような場合は、当該パートでは、現在調査対象となっている逸脱パターンを行うことは無いということを表しているので、ステップSF1の判定はNoとなる。   Here, for example, nothing is described as data in column 801 in the table. In such a case, since the part indicates that the deviation pattern currently being investigated is not performed, the determination in step SF1 is No.

仮に今、リズムパターン(エレメント)がノーマル、選択されているリズムジャンルがBaradiであり、Part変数が3(伴奏パート3)で、Pattern変数が逸脱パターンaの状態で、図21のサブルーチンが呼び出されたとすると、CPU21は、図8の804欄のデータ(データ804という)を参照して、ステップSF1の逸脱条件が成立しているか否かの判定を行う。   If the rhythm pattern (element) is normal, the selected rhythm genre is Baradi, the Part variable is 3 (accompaniment part 3), the Pattern variable is the deviation pattern a, the subroutine of FIG. 21 is called. If so, the CPU 21 refers to the data in the column 804 (referred to as data 804) in FIG. 8 to determine whether or not the departure condition in step SF1 is satisfied.

すると、データ804は「1+2」となっているので、図18と図19の処理で決定された、メロディ逸脱トリガーのトリガーナンバー1(Trigger[1])と、トリガーナンバー2(Trigger[2])とが参照される。そして、図8のデータ804のように逸脱条件が「1+2」となっている場合は、Trigger[1]とTrigger[2]とが、ともにON(1)となっている場合に、逸脱条件成立と判定する。   Then, since the data 804 is “1 + 2”, the trigger number 1 (Trigger [1]) of the melody departure trigger and the trigger number 2 (Trigger [2]) determined by the processing of FIG. 18 and FIG. And are referenced. When the departure condition is “1 + 2” as in the data 804 in FIG. 8, the departure condition is satisfied when both Trigger [1] and Trigger [2] are ON (1). Is determined.

従って、この場合には、「メロディベロシティが直前より大きく」なっていて(トリガーナンバー1)、かつ、「小節の頭」である(トリガーナンバー2)場合に、ステップSF1の判定がYesとなり、伴奏パート3について、逸脱パターンaの逸脱を行うこととなる。   Therefore, in this case, if “melody velocity is greater than immediately before” (trigger number 1) and “start of measure” (trigger number 2), the determination in step SF1 is Yes, and the accompaniment For Part 3, the departure of the departure pattern a is performed.

上記のような判定を行った結果、逸脱条件が成立していた場合(ステップSF1:Yes)、CPU21は、まずRAM23上の所定の領域に割り当てられた、逸脱中フラグ[Part,Pattern]の値をON(1)にセットする(ステップSF2)。その後、CPU21は、Pattern変数で示される逸脱パターンに応じた、具体的な逸脱を設定する(ステップSF4)。   If the departure condition is satisfied as a result of the determination as described above (step SF1: Yes), the CPU 21 firstly sets the value of the departure flag [Part, Pattern] assigned to a predetermined area on the RAM 23. Is set to ON (1) (step SF2). Thereafter, the CPU 21 sets a specific deviation according to the deviation pattern indicated by the Pattern variable (step SF4).

すなわち、Pattern変数が逸脱パターンaである場合、Part変数で示されるパートのデチューンが5%アップされる。また、Pattern変数が逸脱パターンbである場合は、Part変数で示されるパートについて、ユーザ演奏のメロディから16分音符遅れて発音するようにセットされる。また、Pattern変数が逸脱パターンcである場合は、Part変数で示されるパートについて、ベロシティ値が10%アップされる。また、Pattern変数が逸脱パターンkである場合は、Part変数で示されるパートについて、音域指定(音域変更)が行われる。   That is, when the Pattern variable is the deviation pattern a, the detune of the part indicated by the Part variable is increased by 5%. If the Pattern variable is the departure pattern b, the part indicated by the Part variable is set to be sounded with a 16th note delay from the melody of the user performance. When the Pattern variable is the deviation pattern c, the velocity value is increased by 10% for the part indicated by the Part variable. When the Pattern variable is the deviation pattern k, the range designation (sound range change) is performed for the part indicated by the Part variable.

これらの場合、本発明の実施の形態においては、ヘテロフォニー演奏としての「逸脱」を実現するため、いずれも、ユーザの演奏メロディ押鍵に基づいて上記の逸脱が行われる。   In these cases, in the embodiment of the present invention, in order to realize the “deviation” as the heterophony performance, the above deviation is performed based on the user's performance melody pressing key.

すなわち、例えば逸脱パターンaの場合、逸脱していないとき(通常時)は、図8の「メロディとのdetune」で示された、各パートのdetune(ピッチの差)値だけピッチをずらして、ユーザ演奏メロディとユニゾンに同じ旋律を演奏していたところが、逸脱パターンaの条件が成立すると、そのdetuneをさらに5%広げて、ユーザ演奏メロディとユニゾンの演奏を行う。すなわち、Part変数で指定されているパートについて、ややピッチの差を大きく広げてユーザ演奏の旋律とユニゾン演奏が行われることとなる。   That is, for example, in the case of the deviation pattern a, when there is no deviation (normal time), the pitch is shifted by the detune (pitch difference) value of each part indicated by “detune with melody” in FIG. When the user performance melody and unison are playing the same melody, if the condition of the deviation pattern a is satisfied, the detune is further expanded by 5% to perform the user performance melody and unison. That is, with respect to the part specified by the Part variable, the melody of the user performance and the unison performance are performed with a slightly wide pitch difference.

また、逸脱パターンbの場合、ユーザ演奏のメロディから16分音符遅れて発音するようにセットされる。具体的には、例えば、Part変数で指定されているパートについて、16分音符遅れることを示すフラグをセットし、図16のSA10の、実際の発音処理の際に、ユーザの演奏メロディのバッファ(メロディ履歴記憶バッファ)の、16分音符前に演奏された音符の情報を参照して発音するようにすることができる。あるいは、遅延させるタイミング(ここでは16分音符)分の遅延用バッファを用意して、FIFO形式でユーザ演奏メロディを順次記憶すると共に16分音符分遅れた音を読み出して発音するようにしても良い。   Further, in the case of the departure pattern b, it is set so as to sound after a 16th note from the melody of the user performance. Specifically, for example, a flag indicating that the part specified by the Part variable is delayed by a sixteenth note is set, and the buffer of the user's performance melody (SA10 in FIG. The melody history storage buffer) can be sounded with reference to information on notes played before the sixteenth note. Alternatively, a delay buffer for the delay timing (16th note in this case) may be prepared so that the user performance melody is sequentially stored in the FIFO format and the sound delayed by the 16th note is read out and generated. .

また、逸脱パターンcの場合、ベロシティ値が10%アップされる。この場合、Part変数で指定されているパートについて、ベロシティ値を規定値より10%アップして発音する。すなわち、Part変数で指定されているパートについて、逸脱が行われていないときに比べて、やや強調して演奏されることとなる。   In the case of the deviation pattern c, the velocity value is increased by 10%. In this case, the part specified by the Part variable is pronounced with a velocity value increased by 10% from the specified value. That is, the part specified by the Part variable is played with a little emphasis compared to when no deviation is made.

また、逸脱パターンkの場合、Part変数で指定されているパートの音域をオクターブ単位で変更する。この場合、音域を上げるか下げるか、また何オクターブ変更するか、については、楽器やパート毎に、当該逸脱パターンkで音域変更する場合のオクターブ数を、例えば+1オクターブや−2オクターブといった形のテーブルであらかじめ記憶させておくことができる。あるいは、ユーザ演奏メロディの音高と、あらかじめ設定されている各パートの音域とを比較して、各パートの音域のうち、メロディ音より高音の音数の方が多い場合には1オクターブ上げ、メロディ音より低音の音数の方が多い場合は1オクターブ下げる等のように音域変更することも可能である。   In the case of the deviation pattern k, the range of the part specified by the Part variable is changed in octave units. In this case, regarding the number of octaves to be raised or lowered, and how many octaves to change, the number of octaves when changing the range with the deviation pattern k for each instrument or part is, for example, +1 octave or -2 octave. It can be stored in advance in a table. Alternatively, the pitch of the user-played melody is compared with the preset range of each part, and if the number of trebles is higher than the melody of the range of each part, the pitch is increased by one octave. If there are more bass sounds than melody sounds, it is possible to change the range such as lowering the octave.

なお実際には、このステップSF4では、各パート/各逸脱に対応したフラグを立て、必要に応じて、各パートの発音に割り当てられているMIDIチャンネルごとの発音に関する設定等を変更し(例えばデチューン値を変更する逸脱が指定された場合、該当するチャンネルのデチューン値を変更する、あるいは、オクターブ値を変更する逸脱が指定された場合、オクターブ値を設定する等)、これを受けての実際の発音は、図16のSA10における発音処理の際に、これらのフラグ等を参照して,適宜逸脱した音の発音がなされるものとする。具体的には、SA10で、あるパートについて、本図にかかる逸脱パターンa、b、c、kのいずれかのフラグがON(1)だった場合には、本図ステップSF4でセットされたフラグ等を参照して逸脱発音を行うようにして、逸脱していない場合とは異なる発音をするようにすることができる。   Actually, in this step SF4, a flag corresponding to each part / deviation is set, and if necessary, the settings relating to the sound generation for each MIDI channel assigned to the sound of each part are changed (for example, detuned). If a deviation that changes the value is specified, the detune value of the corresponding channel is changed, or if a deviation that changes the octave value is specified, the octave value is set). As for sound generation, it is assumed that a sound that deviates appropriately is generated by referring to these flags and the like during the sound generation processing in SA10 of FIG. Specifically, in SA10, if any of the deviation patterns a, b, c, k according to the drawing is ON (1) for a certain part, the flag set at step SF4 in the drawing. By referring to the above, it is possible to make a deviant pronunciation and to produce a different pronunciation from the case where no deviating sound is generated.

また、ステップSF1に戻って、逸脱条件が成立していないと判断された場合は(ステップSF1:No)、現在のPart変数とPattern変数に対応する逸脱中フラグ[Part,Pattern]が、ON(1)であるか否かを判断する(ステップSF3)。これは、いったん逸脱条件が成立して逸脱パターンで演奏し始めたパートについて、例えば、その小節が終わるまでの間は逸脱を続けて演奏させる、等の処理を実現するために、ステップSF2で逸脱中フラグがセットされている場合、逸脱中の処理フローに処理を移させるためのものである。   Returning to step SF1, if it is determined that the departure condition is not satisfied (step SF1: No), the departure flag [Part, Pattern] corresponding to the current Part variable and Pattern variable is ON ( 1) is determined (step SF3). This is because, in order to realize processing such as, for example, letting a part that has started to play with a departure pattern once the departure condition has been satisfied, for example, to continue playing until the end of the measure, the departure is performed at step SF2. When the middle flag is set, the processing is transferred to the processing flow that is in the departure state.

逸脱中フラグ[Part,Pattern]がON(1)だった場合(ステップSF3:Yes)は、ステップSF5へ処理を進める。ここで、本図21に係る逸脱パターンの場合、逸脱条件が成立した際に、既にステップSF2で逸脱中のフラグを立ててあり、またステップSF4で、例えばデチューン値を設定する等の逸脱処理のための設定を行っているので、ステップSF5以降の処理においては、逸脱を終了する条件の判定と、逸脱を終了させる場合の処理を行っている。   If the departure flag [Part, Pattern] is ON (1) (step SF3: Yes), the process proceeds to step SF5. Here, in the case of the departure pattern according to FIG. 21, when the departure condition is satisfied, a departure flag is already set in step SF2, and in step SF4, for example, a detune value is set. Therefore, in the processing after step SF5, determination of the condition for ending the deviation and processing for ending the deviation are performed.

一方、逸脱中フラグ[Part,Pattern]がOFF(0)だった場合(ステップSF3:No)は、本逸脱処理を終了して、図20に処理を戻す。   On the other hand, when the departure flag [Part, Pattern] is OFF (0) (step SF3: No), the departure process is terminated and the process returns to FIG.

ステップSF4で逸脱の各種設定を行った後、または、ステップSF3で逸脱中フラグ[Part,Pattern]がON(1)だった場合、CPU21は、現在の再生位置が小節の終わりであるか否かを判断する(ステップSF5)。「小節の終わり」に関しては、前述のように、現在演奏されているリズムパターンとテンポに応じて、例えば、小節の終わり(次の小節との境目)から所定の期間前までの間であるか否かを調べることで判断される。   After performing various settings for departure in step SF4 or when the departure flag [Part, Pattern] is ON (1) in step SF3, the CPU 21 determines whether or not the current playback position is the end of a measure. Is determined (step SF5). Regarding “end of measure”, as described above, depending on the rhythm pattern and tempo currently being played, for example, whether it is between the end of a measure (between the next measure) and a predetermined period before Judgment is made by examining whether or not.

現在の再生位置が小節の終わりでなかった場合(ステップSF5:No)は、その小節の間は引き続き逸脱を続けるため、何もせずに図21の逸脱処理を終了する。   If the current playback position is not the end of the measure (step SF5: No), the deviation continues during that measure, so the deviation process of FIG. 21 is terminated without doing anything.

一方、現在の再生位置が小節の終わりであった場合、現在ユーザによってメロディが押鍵されているかどうかを判定する(ステップSF6)。メロディ押鍵中である場合(ステップSF6:Yes)は、当該メロディの押鍵が終了するまで(離鍵されるまで)は、現在の逸脱を続けるように設定を行う(ステップSF7)。実際には、押鍵終了まで逸脱すべきことを表すフラグ等を用いて、そのフラグをセットし、当該フラグがセットされている間は逸脱を実行し、その音が離鍵されたら当該フラグをクリアすることとして実現できる。   On the other hand, if the current reproduction position is the end of the measure, it is determined whether or not the user has pressed the melody (step SF6). If the melody is being depressed (step SF6: Yes), setting is made so as to continue the current deviation until the melody is depressed (until released) (step SF7). Actually, the flag is set using a flag or the like indicating that it should deviate until the end of the key press, the deviation is executed while the flag is set, and when the sound is released, the flag is set. It can be realized as clearing.

そして、CPU21は、この押鍵中のメロディ音が離鍵されたか否かを判定し(ステップSF8)、離鍵された場合には(ステップSF8:Yes)、ステップSF9へ処理を移して、逸脱終了のための処理を行う。一方、離鍵されていない場合には、逸脱終了せず、そのまま本図21の処理を終了して図20の処理へ戻る(ステップSF8:No)。   Then, the CPU 21 determines whether or not the melody sound being pressed is released (step SF8). If the melody is released (step SF8: Yes), the process proceeds to step SF9 to deviate. Process for termination. On the other hand, if the key has not been released, the departure is not terminated, and the process of FIG. 21 is terminated and the process returns to the process of FIG. 20 (step SF8: No).

現在の再生位置が小節の終わりで(ステップSF5:Yes)メロディ押鍵がなかった場合(ステップSF6:No)、あるいは、当該メロディの押鍵が終了するまで逸脱を保持することとされた音の離鍵があった場合(ステップSF8:Yes)には、CPU21は、ステップSF9で、Pattern変数で示される逸脱パターンに応じて設定されていた逸脱設定を解除する(ステップSF9)。   If the current playback position is at the end of the measure (step SF5: Yes) and there is no melody key press (step SF6: No), or the sound whose deviation is to be held until the melody key press is completed. If there is a key release (step SF8: Yes), the CPU 21 cancels the deviation setting set according to the deviation pattern indicated by the Pattern variable in step SF9 (step SF9).

具体的には、ステップSF4で行われた設定を解除すれば良く、例えば、各パートの発音に割り当てられているMIDIチャンネルごとの発音に関する設定を、元の、逸脱前の状態に戻すようにすれば良い。例えば、逸脱パターンaの場合は、該当チャンネルのデチューンを元に戻し、また、逸脱パターンcの場合は、ベロシティ値を元の基準値(標準値)に戻す等を行う。   Specifically, the setting performed in step SF4 may be canceled. For example, the setting relating to the sound generation for each MIDI channel assigned to the sound generation of each part is returned to the original state before the departure. It ’s fine. For example, in the case of the deviation pattern a, the detune of the corresponding channel is restored, and in the case of the deviation pattern c, the velocity value is restored to the original reference value (standard value).

そしてさらに、CPU21は、ステップSF2でセットしていた、逸脱中フラグ[Part,Pattern]の値をOFF(0)にクリアする(ステップSF10)。その後、本図21の逸脱処理を終了して、図20のフローに処理を戻す。   Further, the CPU 21 clears the value of the in-progress flag [Part, Pattern] set in step SF2 to OFF (0) (step SF10). Thereafter, the departure process of FIG. 21 is terminated, and the process returns to the flow of FIG.

このようにして、逸脱パターンa、逸脱パターンb、逸脱パターンc、逸脱パターンk、の場合には、図20のステップSE3から図21の処理を実行することにより、これら各逸脱パターンを実行する。   In this way, in the case of the deviation pattern a, the deviation pattern b, the deviation pattern c, and the deviation pattern k, these deviation patterns are executed by executing the processing from step SE3 to FIG. 21 in FIG.

図22は、図13の逸脱パターンf「トレモロ/バッテリー奏法」、逸脱パターンg「メロディと開始音を交互に発音」、逸脱パターンh「持続メロディへのトリル挿入」、逸脱パターンi「同音連打」の各逸脱パターンの実施例を示すフローチャートである。これらの各逸脱パターンについては、多くのステップで、同様の処理を行うことによって実現できることから、共通の図22を用いて説明する。また、図22の中で、図21の場合と同様の処理を行うステップについては、同一のステップ番号を付してあり、これらのステップでは基本的に図21で説明したのと同様の処理を行うことから、説明を省略する。   FIG. 22 shows the deviation pattern f “tremolo / battery performance”, deviation pattern g “pronunciation of melody and start sound”, deviation pattern h “trill insertion into continuous melody”, deviation pattern i “same beat repeated” in FIG. It is a flowchart which shows the Example of each deviation pattern. Each of these deviation patterns can be realized by performing the same processing in many steps, and will be described with reference to FIG. Also, in FIG. 22, steps that perform the same processing as in FIG. 21 are given the same step numbers, and basically the same processing as described in FIG. 21 is performed in these steps. The description is omitted because it is performed.

本図22においては、図21のステップSF4の代わりに、ステップSG4が実行される。図21によって実現された逸脱パターンa、b、c、kの場合は、逸脱条件が成立した際に、ステップSF4で、例えばデチューン値を設定したり、オクターブ値を設定したり、メロディからの遅れを設定したり、あるいはこれらに関するフラグをセットすることで逸脱が実現されていた。   In FIG. 22, step SG4 is executed instead of step SF4 of FIG. In the case of the deviation patterns a, b, c, and k realized by FIG. 21, when the deviation condition is satisfied, in step SF4, for example, a detune value, an octave value, or a delay from the melody is set. Deviations have been realized by setting or setting flags related to these.

これに対して、本図22によって処理される逸脱パターンf、g、h、iの場合は、逸脱条件が成立した場合に、逸脱した演奏を行わせるために、ステップSG4において実際の音型等の逸脱パターンを生成するようにしている。本図22によって実現される各逸脱パターンf、g、h、iの場合、トレモロやトリル、同音連打など、逸脱条件が満たされた場合にはその音が離鍵されるまでの間継続して当該逸脱を行うタイプの逸脱パターンであり、またその逸脱パターンも逸脱パターンa、b、c、kの場合のように、単純なパラメータの設定のみでは済まないものである。このため、本図22のステップSG4では、各逸脱パターンに応じて、その逸脱中に演奏させる実際の音型等の逸脱パターンを生成することとしている。   On the other hand, in the case of the departure patterns f, g, h, and i processed by this FIG. 22, in order to perform a departure performance when the departure condition is satisfied, in step SG4 the actual sound type and the like. A deviation pattern is generated. In the case of each of the departure patterns f, g, h, i realized by this FIG. 22, if the departure conditions such as tremolo, trill, and the same tone repeated hit are satisfied, the sound continues until the key is released. This is a type of deviation pattern that makes the deviation, and the deviation pattern is not just a simple parameter setting as in the case of the deviation patterns a, b, c, and k. For this reason, in step SG4 of FIG. 22, a departure pattern such as an actual sound type to be played during the departure is generated according to each departure pattern.

実際には、ステップSG4における逸脱パターン生成処理では、各逸脱パターンに応じた逸脱パターン生成処理を行う。この逸脱パターン生成の具体的な処理の例を図23、24に示した。   Actually, in the departure pattern generation processing in step SG4, departure pattern generation processing corresponding to each departure pattern is performed. Examples of specific processing for generating the deviation pattern are shown in FIGS.

図23は、逸脱パターンf「トレモロ/バッテリー奏法」または逸脱パターンg「メロディと開始音を交互に発音」で図22が実行されている場合に、ステップSG4から呼び出されて実行される、逸脱パターン生成処理の例である。   FIG. 23 shows a deviation pattern that is called and executed from step SG4 when FIG. 22 is executed with the deviation pattern f “Tremolo / battery performance” or the deviation pattern g “Alternative pronunciation of melody and start sound”. It is an example of a production | generation process.

図23で、CPU21はまず、現在指定されているジンスの開始音を読み出す(ステップSH1)。具体的には、ジンス指定鍵盤101で指定されているジンス、または、あらかじめ設定されているマカームの開始音(第1音)を、ROM22のマカーム/ジンス用データベースから読み出す。   In FIG. 23, the CPU 21 first reads out the start sound of the currently designated gins (step SH1). More specifically, the Jince designated by the Jince designation keyboard 101 or the preset Macamu start sound (first sound) is read from the McArm / Gins database in the ROM 22.

次に、CPU21は、テンポ設定ボタン16によって設定された、現在の演奏におけるテンポの情報を読み出し、テンポが60BPMすなわち1分間に60拍のテンポ以下であるか否かを判断する(ステップSH2)。現在の演奏のテンポに応じて、スローテンポのときは短めの音符、アップテンポのときは長めの音符といった具合に、トレモロの音符の長さを変えるためである。   Next, the CPU 21 reads tempo information in the current performance set by the tempo setting button 16 and determines whether or not the tempo is 60 BPM, that is, less than 60 beats per minute (step SH2). This is because the length of the tremolo note is changed according to the tempo of the current performance, such as a shorter note at the slow tempo and a longer note at the up tempo.

テンポが60BPM以下であった場合(ステップSH2:Yes)、トレモロ音形パターンを作成する音符長を32分音符にセットする(ステップSH3)。一方、テンポが60BPMより大きい場合(ステップSH2:No)、トレモロ音形パターンを作成する音符長を16分音符にセットする(ステップSH4)。なお、この音符長については、逸脱パターンごとに異なる長さで設定されるようにしても良い。   If the tempo is 60 BPM or less (step SH2: Yes), the note length for creating the tremolo tone pattern is set to the 32nd note (step SH3). On the other hand, if the tempo is greater than 60 BPM (step SH2: No), the note length for creating the tremolo tone pattern is set to the sixteenth note (step SH4). The note length may be set to a different length for each departure pattern.

次に、ステップSH1で読み出されたジンスの開始音と、現在ユーザによって演奏されているメロディ音とを交互に繰り返すトレモロパターンを生成し、RAM23の所定の逸脱パターン記憶エリアに記憶する(ステップSH5)。この際、CPU21は、上記のステップSH3若しくはステップSH4でセットされた音符長のトレモロパターンを生成する。具体的には、例えばMIDIデータとして上記のステップで決定された音長・音高によるトレモロパターンが生成される。   Next, a tremolo pattern that alternately repeats the start sound of Jinse read out in step SH1 and the melody sound currently played by the user is generated and stored in a predetermined deviation pattern storage area of the RAM 23 (step SH5). ). At this time, the CPU 21 generates a tremolo pattern having the note length set in step SH3 or SH4. Specifically, for example, a tremolo pattern based on the tone length and pitch determined in the above steps is generated as MIDI data.

さらにCPU21は、ステップSH5で生成されたトレモロパターンについて、ベロシティを設定する(ステップSH6)。図に示した例では、ステップSH5で一定の(例えば、MIDI規格におけるベロシティ値100)ベロシティ値でトレモロパターンが生成され、さらにステップSH6で、その一定のベロシティ値を変化させて、各音の強弱の変化を付けるようにする例が示されている。すなわち、第1音めと第3音めを、それぞれ、元の音量の20%、10%に、やや強調をして発音するように設定される。   Further, the CPU 21 sets a velocity for the tremolo pattern generated in step SH5 (step SH6). In the example shown in the figure, a tremolo pattern is generated with a constant velocity value (for example, a velocity value of 100 in the MIDI standard) in step SH5, and further, the constant velocity value is changed in step SH6 to change the strength of each sound. An example of adding a change is shown. That is, the first sound and the third sound are set so as to be pronounced with some emphasis at 20% and 10% of the original volume, respectively.

なお、この場合、奇数音目にユーザ演奏メロディ、偶数音目にジンスの開始音という組み合わせの場合、ユーザ演奏メロディ音が若干強調されて、逸脱しながらも安定した印象を与えることができる。一方、奇数音目にジンスの開始音、偶数音目にユーザ演奏メロディという組み合わせの場合、ユーザ演奏メロディとは異なる音がやや強調され、逸脱した印象をより強く与えることができる。   In this case, in the case of the combination of the user performance melody on the odd-numbered sound and the start sound of Jinth on the even-numbered sound, the user-played melody sound is slightly emphasized, and a stable impression can be given while departing. On the other hand, in the case of the combination of the start sound of Jinth for the odd number sound and the user performance melody for the even number sound, the sound different from the user performance melody is slightly emphasized, and a deviating impression can be given more strongly.

図23の逸脱パターン生成(パターンf、g)が終了すると、CPU21は処理を図22へ戻し、ステップSF6へと処理を進める。このようにして図23で生成された逸脱パターンは、図16のステップSA10における音源発音処理の際に、順次読み出されて発音される。すなわち、ステップSA10で、あるパートについて、本逸脱パターンfまたはgの逸脱中フラグがON(1)だった場合、図23で生成されたトレモロパターンが発音される。その際の逸脱パターンの読み出し速度は、現在設定されているテンポに合わせて、読み出し位置を示すポインタ変数などを用いて、同期して順次発音される。この場合、当該パートについては、ユーザ演奏メロディと同じ旋律でのユニゾン演奏は行わず、代わりに逸脱パターンが発音される。また、図22で処理される逸脱パターンの場合、当該押鍵されている音が押鍵継続されている間は継続して逸脱パターンで発音を続けるため、図23で生成されたトレモロパターンについては、ループして繰り返し発音され、現在のユーザ押鍵メロディ音が離鍵されるまで繰り返してトレモロパターンが再生される。   When the departure pattern generation (patterns f and g) in FIG. 23 is completed, the CPU 21 returns the process to FIG. 22 and advances the process to step SF6. The deviation patterns generated in FIG. 23 are sequentially read out and sounded during the sound source sound generation process in step SA10 in FIG. That is, in step SA10, if the deviation flag of the deviation pattern f or g is ON (1) for a certain part, the tremolo pattern generated in FIG. At this time, the reading speed of the departure pattern is sequentially generated in synchronization with the currently set tempo using a pointer variable indicating the reading position. In this case, the part does not perform unison performance with the same melody as the user performance melody, but a deviation pattern is pronounced instead. Further, in the case of the departure pattern processed in FIG. 22, the tremolo pattern generated in FIG. The tremolo pattern is repeatedly reproduced until the current key-pressed melody sound is released.

また、図24は、逸脱パターンh「持続メロディへのトリル挿入」で図22が実行されている場合に、ステップSG4から呼び出されて実行される、逸脱パターン生成処理の例である。   FIG. 24 is an example of a departure pattern generation process that is called from step SG4 and executed when FIG. 22 is executed with the departure pattern h “inserting a toll into a continuous melody”.

図24で、CPU21はまず、ユーザ演奏メロディの音が、現在指定されているジンスの両端の音であるか否かを判断する(ステップSI1)。ユーザ演奏メロディがジンス両端の音であった場合(ステップSI1:Yes)、ジンス内の隣の音からメロディ音へと繰り返すトリル音形パターンを生成する(ステップSI2)。具体的には、例えばジンス内の隣の音からメロディ音へと繰り返すMIDIデータとしてトレモロパターンが生成される。   In FIG. 24, the CPU 21 first determines whether or not the sound of the user performance melody is the sound at both ends of the currently designated gins (step SI1). If the user performance melody is a sound at both ends of Jins (step SI1: Yes), a trill sound pattern that repeats from the adjacent sound in the Jins to the melody sound is generated (step SI2). Specifically, for example, a tremolo pattern is generated as MIDI data that repeats from the adjacent sound in the gin to the melody sound.

一方、ユーザ演奏メロディがジンス両端の音でない場合(ステップSI1:No)、ユーザ演奏メロディがジンス内の偶数番目の音であるか否かを判断する(ステップSI3)。そして、ユーザ演奏メロディがジンス内の偶数番目の音である場合(ステップSI3:Yes)は、ジンスのすぐ上の音からメロディ音へと繰り返すトリル音形パターンを生成する(ステップSI4)。一方、ユーザ演奏メロディがジンス内の偶数番目の音でない場合、すなわちジンス内の奇数番目の音である場合(ステップSI3:No)は、ジンスのすぐ下の音からメロディ音へと繰り返すトリル音形パターンを生成する(ステップSI5)。   On the other hand, if the user performance melody is not a sound at both ends of the jinse (step SI1: No), it is determined whether or not the user performance melody is an even-numbered sound in the jinth (step SI3). If the user performance melody is an even-numbered sound in Jins (step SI3: Yes), a trill sound pattern that repeats from the sound immediately above Jins to the melody sound is generated (step SI4). On the other hand, if the user-played melody is not an even-numbered sound in Jins, that is, if it is an odd-numbered sound in Jins (step SI3: No), a Toll tone shape that repeats from the sound immediately below Jins to the melody sound. A pattern is generated (step SI5).

以上のようにして、図24に示した逸脱パターンhの逸脱パターン生成処理においては、ユーザの演奏メロディに基づいて、ユーザ演奏メロディがジンスの中のいずれの位置の音であるかによって、トリル音形を構成する音を決定し、その音とメロディ音とからトリル音形パターンを生成するようになっている。   As described above, in the departure pattern generation process of the departure pattern h shown in FIG. 24, a trill sound is generated depending on which position in the gin the user performance melody is based on the user performance melody. A sound that forms a shape is determined, and a trill sound shape pattern is generated from the sound and the melody sound.

図24の逸脱パターン生成(パターンh)が終了すると、CPU21は処理を図22へ戻し、ステップSF6へと処理を進める。このようにして図24で生成された逸脱パターンは、図16のステップSA10における音源発音処理の際に、パターンf、gについて上述した処理と同様にして、順次読み出されて発音される。   When the departure pattern generation (pattern h) in FIG. 24 is completed, the CPU 21 returns the process to FIG. 22 and advances the process to step SF6. The departure patterns generated in FIG. 24 are sequentially read out and sounded in the same manner as the processing described above for the patterns f and g in the sound source sound generation processing in step SA10 in FIG.

また、逸脱パターンi「同音連打」で図22が実行されている場合には、ステップSG4から呼び出されて実行される逸脱パターン生成処理において、例えば、所定の音符(音長)で、ユーザ演奏メロディと同じ音を繰り返し発音する、同音連打のパターンが生成される。この場合において、例えば図23のステップSH2からSH4で説明したのと同様、テンポの値に応じて、同音連打する各音符の音長を変化させることとしても良い。   When FIG. 22 is executed with the departure pattern i “same beat repeated”, in the departure pattern generation process called and executed from step SG4, for example, with a predetermined note (sound length), the user performance melody The same tone repeated pattern that repeatedly pronounces the same sound is generated. In this case, for example, as described in steps SH2 to SH4 in FIG. 23, the length of each note to be hit repeatedly may be changed according to the tempo value.

以上のように、図22のステップSG4では、図23や図24に例示したような、各逸脱 パターン番号に応じた逸脱パターン(逸脱用の再生パターン)が生成され、図16のステップSA10における音源発音処理の際に、これらの逸脱用の再生パターンが参照されて、逸脱が実現される。 As described above, in step SG4 in FIG. 22, a departure pattern (reproduction pattern for departure) corresponding to each departure pattern number as illustrated in FIGS. 23 and 24 is generated, and the sound source in step SA10 in FIG. In the sound generation process, the deviation is realized by referring to the reproduction patterns for deviation.

図22へ戻って、ステップSG4における逸脱パターンの生成処理が終了すると、ステップSF6へ処理を移行し、既に説明した図21における処理と同様に処理が進められる。   Returning to FIG. 22, when the departure pattern generation process in step SG4 is completed, the process proceeds to step SF6, and the process proceeds in the same manner as the process in FIG.

ここで、本図22の場合、ステップSF6でNo、若しくはステップSF8でYesの場合、すなわち、逸脱を終了させる条件が満たされた場合、図21のステップSF9に替えてステップSG9の処理が実行される。すなわち、ステップSG9では、Pattern変数で示される逸脱パターンに応じて設定されていた逸脱設定を解除するが、その際、ステップSG4で生成された逸脱パターンをクリアし、またステップSA10においてループ再生に用いられるポインタ変数などがクリアされる。また、前述と同様にステップSF10で逸脱中フラグ[Part,Pattern]の値をOFF(0)にクリアする。   Here, in the case of FIG. 22, in the case of No in step SF6 or Yes in step SF8, that is, when the condition for ending the deviation is satisfied, the process of step SG9 is executed instead of step SF9 of FIG. The That is, in step SG9, the departure setting set according to the departure pattern indicated by the Pattern variable is canceled, but at that time, the departure pattern generated in step SG4 is cleared and used for loop reproduction in step SA10. Cleared pointer variables and so on. Further, in the same manner as described above, the value of the in-progress flag [Part, Pattern] is cleared to OFF (0) in step SF10.

このようにして、逸脱パターンf、逸脱パターンg、逸脱パターンh、逸脱パターンi、の場合には、図20のステップSE3から図22の処理を実行することにより、これら各逸脱パターンを実行する。   In this way, in the case of the deviation pattern f, the deviation pattern g, the deviation pattern h, and the deviation pattern i, the respective deviation patterns are executed by executing the processing from step SE3 to FIG. 22 in FIG.

さらに、図25は、図13の逸脱パターンd「上からのプラルトリラー」、逸脱パターンe「メロディ音に到達するアルペジォ」、逸脱パターンl「ジンスの倚音追加」の各逸脱パターンの実施例を示すフローチャートである。これらの各逸脱パターンについては、多くのステップで、同様の処理を行うことによって実現できることから、共通の図25を用いて説明する。また、図25の中で、図21の場合と同様の処理を行うステップについては、同一のステップ番号を付してあり、これらのステップでは基本的に図21で説明したのと同様の処理を行うことから、説明を省略する。   Further, FIG. 25 shows an example of each of the departure patterns d of “deviation pattern d” from above, “e. Arpeggio reaching the melody sound”, and departure pattern l “addition of stuttering of Jins” in FIG. It is a flowchart. Each of these departure patterns can be realized by performing the same processing in many steps, and will be described with reference to FIG. Also, in FIG. 25, steps that perform the same processing as in FIG. 21 are given the same step numbers. In these steps, basically the same processing as described in FIG. 21 is performed. Since it does, description is abbreviate | omitted.

本図25においては、図21のステップSF4の代わりに、ステップSJ4が実行される。図21によって実現された逸脱パターンa、b、c、kの場合は、逸脱条件が成立した際に、ステップSF4で、例えばデチューン値を設定したり、オクターブ値を設定したり、メロディからの遅れを設定したり、あるいはこれらに関するフラグをセットすることで逸脱が実現されていた。   In FIG. 25, step SJ4 is executed instead of step SF4 of FIG. In the case of the deviation patterns a, b, c, and k realized by FIG. 21, when the deviation condition is satisfied, in step SF4, for example, a detune value, an octave value, or a delay from the melody is set. Deviations have been realized by setting or setting flags related to these.

これに対して、本図25によって処理される逸脱パターンd、e、lの場合は、逸脱条件が成立した場合に、逸脱した演奏を行わせるために、ステップSJ4において実際の音型等の逸脱パターンを生成するようにしている。本図25によって実現される各逸脱パターンd、e、lの場合、プラルトリラーやアルペジォ、倚音など、逸脱条件が満たされた場合には、まずこのステップSJ4で生成された逸脱パターンを発音させた後に、ユーザ演奏メロディ音とユニゾンの演奏に戻るという形の逸脱を行う。このため、本図25のステップSJ4では、各逸脱パターンに応じて、その逸脱の際の最初に付加して演奏させる実際の音型等の逸脱パターンを生成することとしている。   On the other hand, in the case of the deviation patterns d, e, and l processed by this FIG. 25, in order to perform a deviated performance when the deviation condition is satisfied, in step SJ4 the deviation of the actual tone type or the like is performed. A pattern is generated. In the case of each of the departure patterns d, e, and l realized by FIG. 25, when departure conditions such as a prill triller, arpeggio, and stuttering are satisfied, the departure pattern generated in step SJ4 is first pronounced. Later, a departure is made in the form of returning to the user performance melody sound and unison performance. Therefore, in step SJ4 of FIG. 25, according to each departure pattern, a departure pattern such as an actual sound type to be added and played at the beginning of the departure is generated.

実際には、ステップSJ4における逸脱パターン生成処理では、各逸脱パターンに応じた逸脱パターン生成処理を行う。図26は、逸脱パターンl「ジンスの倚音追加」で図25が実行されている場合に、ステップSJ4から呼び出されて実行される、逸脱パターン生成処理の例である。   Actually, in the departure pattern generation processing in step SJ4, departure pattern generation processing corresponding to each departure pattern is performed. FIG. 26 shows an example of the departure pattern generation process that is called and executed from step SJ4 when FIG. 25 is executed with the departure pattern 1 “adding the stuttering of Jins”.

図26で、CPU21はまず、ユーザ演奏メロディの音が、現在指定されているジンスの両端の音であるか否かを判断する(ステップSK1)。ユーザ演奏メロディがジンス両端の音であった場合(ステップSK1:Yes)、ジンス内の隣の音を8分音符ぶんの長さの倚音として発音した後に、メロディ音に戻り、以降メロディ音を発音する倚音の逸脱パターンを生成する(ステップSK2)。具体的には、例えばジンス内の隣の音を8分音符分発音した後にメロディ音へと移行するMIDIデータとして倚音パターンが生成される。   In FIG. 26, the CPU 21 first determines whether or not the sound of the user performance melody is the sound at both ends of the currently designated gins (step SK1). If the user playing melody is a sound at both ends of Jins (step SK1: Yes), the next sound in Jins is pronounced as a stuttering sound of an eighth note length, and then the melody sound is returned. A stuttering deviation pattern is generated (step SK2). More specifically, for example, a stuttering pattern is generated as MIDI data that shifts to a melody sound after the adjacent sound in the Jinse is generated for an eighth note.

一方、ユーザ演奏メロディがジンス両端の音でない場合(ステップSK1:No)、ユーザ演奏メロディがジンス内の偶数番目の音であるか否かを判断する(ステップSK3)。そして、ユーザ演奏メロディがジンス内の偶数番目の音である場合(ステップSK3:Yes)は、ジンスのすぐ上の音を8分音符ぶんの長さの倚音として発音した後に、メロディ音に戻り、以降メロディ音を発音する倚音の逸脱パターンを生成する(ステップSK4)。一方、ユーザ演奏メロディがジンス内の偶数番目の音でない場合、すなわちジンス内の奇数番目の音である場合(ステップSK3:No)は、ジンスのすぐ下の音を8分音符ぶんの長さの倚音として発音した後に、メロディ音に戻り、以降メロディ音を発音する倚音の逸脱パターンを生成する(ステップSK5)。   On the other hand, if the user performance melody is not a sound at both ends of the Jinse (step SK1: No), it is determined whether or not the user performance melody is an even-numbered sound in the gins (step SK3). If the user-played melody is an even-numbered sound in Jins (step SK3: Yes), the sound immediately above Jins is pronounced as a stuttering sound of an eighth note length, and then returned to the melody sound. Subsequently, a stuttering deviation pattern for generating a melody sound is generated (step SK4). On the other hand, if the user performance melody is not an even number sound in Jins, that is, if it is an odd number sound in Jins (step SK3: No), the sound immediately below Jins is the length of an eighth note. After sounding as a roaring sound, the process returns to the melody sound, and a stuttering deviation pattern for generating the melody sound is generated (step SK5).

以上のようにして、図26に示した逸脱パターンlの逸脱パターン生成処理においては、ユーザの演奏メロディに基づいて、ユーザ演奏メロディがジンスの中のいずれの位置の音であるかによって、倚音とする音を決定し、その音を所定の長さの倚音として発音した後に、メロディ音に戻り、以降メロディ音を発音する倚音の逸脱パターンを生成する。なお、倚音の音符長は任意の長さとして差し支えない。   As described above, in the departure pattern generation process of departure pattern l shown in FIG. 26, the sound is generated depending on the position of the user performance melody in the gin based on the user performance melody. Sound is generated as a stuttering sound of a predetermined length, and then the melody sound is returned to and then a stuttering deviation pattern for generating the melody sound is generated. Note that the note length of the stuttering can be any length.

図26の逸脱パターン生成(パターンl)が終了すると、CPU21は処理を図25へ戻し、ステップSJ5へと処理を進める。このようにして図26で生成された逸脱パターンは、図16のステップSA10における音源発音処理の際に、順次読み出されて発音される。なお、図26で生成される逸脱パターンが、倚音とその後に続くユーザ演奏メロディ音(ユニゾン演奏音)との両方を含む場合は、当該パターンを先頭から順次演奏すれば良い。他方、図26で生成される逸脱パターンが倚音部分のみである場合には、図16のステップSA10では、当該倚音部分のみの逸脱パターンを発音した後に、ユーザ演奏メロディ音をユニゾンで演奏する基本動作モードに復帰するように制御しても良い。   When the departure pattern generation (pattern 1) in FIG. 26 is completed, the CPU 21 returns the process to FIG. 25 and proceeds to step SJ5. The deviation patterns generated in FIG. 26 are sequentially read out and sounded during the sound source sound generation process in step SA10 in FIG. If the departure pattern generated in FIG. 26 includes both a stuttering sound and a user performance melody sound (unison performance sound) that follows, the pattern may be played sequentially from the beginning. On the other hand, when the departure pattern generated in FIG. 26 is only the stuttering portion, in step SA10 in FIG. 16, after the departure pattern of only the stuttering portion is generated, the user performance melody sound is played in unison. Control may be performed to return to the basic operation mode.

また、逸脱パターンe「アルペジォ」で図25が実行されている場合には、ステップSJ4から呼び出されて実行される逸脱パターン生成処理において、以下のようにしてアルペジォの逸脱パターンが生成される。まず、CPU21は、現在設定されているマカームまたはジンスから、ROM22のマカーム/ジンス用データベースを参照して、マカームまたはジンスの開始音と現在のメロディ音とのアルペジォ音数をカウントする。そして、所定のアルペジォ用の音長(例えば8分音符分など)の中に、このカウントされたアルペジォ音数がほぼ等しい長さで入るような連符数で、このアルペジォ用音長を分割し、マカームまたはジンスの音を順に発音させるアルペジォパターンを生成する。この場合、マカームまたはジンス上の開始音から上行音形または下行音形のいずれかで、ユーザ演奏メロディ音に到達するようなアルペジォの逸脱パターンが生成されるものとする。   When FIG. 25 is executed with the departure pattern e “Arpeggio”, an arpeggio departure pattern is generated in the following manner in the departure pattern generation process called and executed from Step SJ4. First, the CPU 21 refers to the McArm / Gins database in the ROM 22 from the currently set Macamu or Jins, and counts the number of arpeggio sounds between the Macamu or Jins start sound and the current melody sound. Then, this arpeggio note length is divided by the number of tuplets in which the counted arpeggio number falls within an equal length within a predetermined arpeggio note length (for example, an eighth note). Then, an arpeggio pattern is generated that produces the sounds of McCarm or Jinsu in order. In this case, it is assumed that an arpeggio deviation pattern that reaches the user-played melody sound is generated in either an ascending tone shape or a descending tone shape from the start tone on McCamm or Jins.

また、逸脱パターンd「プラルトリラー」で図25が実行されている場合には、ステップSJ4から呼び出されて実行される逸脱パターン生成処理において、以下のようにしてアルペジォの逸脱パターンが生成される。まず、CPU21は、現在設定されているマカームまたはジンスから、ROM22のマカーム/ジンス用データベースを参照して、マカームまたはジンスの音のうち、現在のメロディ音と隣接する、一つ上の音を決定する。そして、所定の音長(例えば、図15の例では32分音符)で、上の音→メロディ音の繰り返しを所定回数繰り返すパターンを生成する。繰り返し回数は、例えば図15の例では、2回であるが、この回数は任意に決定して良い。そして、繰り返しの最後のメロディ音を持続して、ユーザのメロディ押鍵が終了するまで保持する。   In addition, when FIG. 25 is executed with the departure pattern d “plural trailer”, an arpeggio departure pattern is generated in the following manner in the departure pattern generation process called and executed from step SJ4. First, the CPU 21 refers to the McArm / Gins database in the ROM 22 from the currently set Macamu or Jinse, and determines the upper sound adjacent to the current melody among the Macamu or Jinse sounds. To do. Then, a pattern is generated that repeats the above sound → melody sound a predetermined number of times with a predetermined sound length (for example, a 32nd note in the example of FIG. 15). The number of repetitions is, for example, 2 in the example of FIG. 15, but this number may be arbitrarily determined. The last repeated melody sound is maintained and held until the user's melody pressing is completed.

図25へ戻って、ステップSJ4の処理が終了するか、またはステップSF3でYesすなわち逸脱中フラグ[Part,Pattern]がON(1)であった場合、CPU21は、ステップSJ5へ処理を進め、逸脱パターンの再生が終了したか否かを判断する(ステップSJ5)。前述のように、図26の処理で生成された倚音の逸脱パターンや、あるいはプラルトリラー、アルペジォの逸脱パターンについて、先頭から順次演奏した結果、それらの逸脱パターンの最後まで発音(再生)が終了していた場合には(ステップSJ5:Yes)、CPU21はステップSJ9へ処理を進める。   Returning to FIG. 25, if the process of step SJ4 ends, or if Yes, that is, the deviation flag [Part, Pattern] is ON (1) in step SF3, the CPU 21 advances the process to step SJ5, and deviates. It is determined whether or not the pattern reproduction has been completed (step SJ5). As described above, the stuttering deviation pattern generated by the processing of FIG. 26, or the deviation pattern of the prill triller or arpeggio, is played sequentially from the beginning, and as a result, the sound (reproduction) is completed up to the end of those deviation patterns. If yes (step SJ5: Yes), the CPU 21 advances the process to step SJ9.

一方、逸脱パターンの再生がまだ終了していない場合(ステップSJ5:No)、ユーザによるメロディ音の押鍵中であるか否かが判定される(ステップSJ6)。ユーザによるメロディ音の押鍵がまだ継続している場合は(ステップSJ6:Yes)、本図25の処理を終了する。一方、逸脱パターンの再生がまだ終了していないがユーザによるメロディ音の押鍵が終了(離鍵)された場合には(ステップSJ5:Noの後にステップSJ6:No)、CPU21はステップSJ9へ処理を進める。   On the other hand, when the reproduction of the departure pattern has not been finished yet (step SJ5: No), it is determined whether or not the user is pressing the melody sound (step SJ6). If the user continues to press the melody sound (step SJ6: Yes), the process of FIG. 25 ends. On the other hand, when reproduction of the deviation pattern has not yet finished but the user has finished pressing the key of the melody sound (key release) (step SJ5: No, then step SJ6: No), the CPU 21 proceeds to step SJ9. To proceed.

CPU21は、ステップSJ9で、逸脱パターンに応じた逸脱の解除処理を行う。具体的には、ステップSJ4で生成された逸脱パターンをクリアし、またステップSA10において逸脱パターンの再生に用いられるポインタ変数などがクリアされる。また、前述と同様にステップSF10で逸脱中フラグ[Part,Pattern]の値をOFF(0)にクリアする。   In step SJ9, the CPU 21 performs departure cancellation processing according to the departure pattern. Specifically, the deviation pattern generated in step SJ4 is cleared, and pointer variables used for reproducing the deviation pattern are cleared in step SA10. Further, in the same manner as described above, the value of the in-progress flag [Part, Pattern] is cleared to OFF (0) in step SF10.

このようにして、逸脱パターンd、逸脱パターンe、逸脱パターンl、の場合には、図20のステップSE3から図25の処理を実行することにより、これら各逸脱パターンを実行する。   In this way, in the case of the departure pattern d, the departure pattern e, and the departure pattern l, each of these departure patterns is executed by executing the processing from step SE3 to FIG. 25 in FIG.

さらに、逸脱パターンがj(おかず挿入)の場合、図20のステップSE3から図27の処理が呼び出され得る。なお、ここでいう「おかず」とは、一般的に音楽において用いられる「おかず」を表し、合いの手に当たる対旋律や、フィルインなどをいう。   Furthermore, when the departure pattern is j (side dish insertion), the processing of FIG. 27 can be called from step SE3 of FIG. The “side dish” here refers to “a side dish” that is generally used in music, and refers to counter-melody, fill-in, etc., which is a match.

CPU21は、図20のステップSE3において、変数Patternが、逸脱パターンjであった場合、図27のステップSL1に処理を移し、逸脱条件が成立しているか否かを判定する(ステップSL1)。具体的には、前述と同様、図8〜図10の伴奏フォーマットセット/逸脱方法指定表のデータベースのいずれか、例えば図8を参照して、メロディ逸脱方法870のうちjに対応する列の、リズムジャンルとパートに対応する箇所(例えば、図8の805欄)を参照して、逸脱する条件が満たされたか否かを判定する。   When the variable Pattern is the departure pattern j in step SE3 in FIG. 20, the CPU 21 moves the process to step SL1 in FIG. 27 and determines whether or not the departure condition is satisfied (step SL1). Specifically, as described above, any one of the accompaniment format set / deviation method designation tables in FIGS. 8 to 10, for example, with reference to FIG. With reference to the rhythm genre and the part corresponding to the part (for example, column 805 in FIG. 8), it is determined whether or not the deviating condition is satisfied.

逸脱条件が成立していた場合(ステップSL1:Yes)、CPU21は、逸脱中フラグ[Part,Pattern]をON(1)にセットして(ステップSL2)、ステップSL4へ進む。一方、逸脱条件が成立していない場合(ステップSL1:No)、既にステップSL2で逸脱中フラグ[Part,Pattern]がON(1)にセットされているか否かを判定し(ステップSL3)、逸脱中フラグ[Part,Pattern]がON(1)の場合(ステップSL3:Yes)は、やはりステップSL4へ進む。逸脱中フラグ[Part,Pattern]がON(1)でなかった場合には、図27のメロディ逸脱(パターンj)の処理を終了して図20へ戻る(ステップSL3:No)。   When the departure condition is satisfied (step SL1: Yes), the CPU 21 sets the departure flag [Part, Pattern] to ON (1) (step SL2), and proceeds to step SL4. On the other hand, if the departure condition is not satisfied (step SL1: No), it is determined whether the departure flag [Part, Pattern] is already set to ON (1) in step SL2 (step SL3). When the middle flag [Part, Pattern] is ON (1) (step SL3: Yes), the process proceeds to step SL4. If the departure flag [Part, Pattern] is not ON (1), the melody departure (pattern j) processing of FIG. 27 is terminated and the processing returns to FIG. 20 (step SL3: No).

ステップSL4に処理が進められると、CPU21は、現在設定されているテンポ情報を参照して、現在のテンポが60以下であるか否かを判断する(ステップSL4)。これは、テンポに応じて、通常テンポ用のフィルインとスローテンポ用のフィルインのパターンを使い分けるためであり、他にも、アップテンポ用のフィルインパターンを備えていたり、より細かく区切ったテンポごとにフィルインパターンを備えるようにしても良い。   When the process proceeds to step SL4, the CPU 21 refers to the currently set tempo information and determines whether or not the current tempo is 60 or less (step SL4). This is because the normal tempo fill-in pattern and the slow tempo fill-in pattern are used separately according to the tempo. A pattern may be provided.

現在のテンポが60以下であった場合(ステップSL4:Yes)、現在の拍の位置が3拍中であれば(ステップSL5:Yes)、スローテンポ用の3拍用のフィルインパターンを読み出す(ステップSL6)。また、現在の拍の位置が3拍中でない場合(ステップSL5:No)、スローテンポ用の4拍用のフィルインパターンを読み出す(ステップSL7)。   If the current tempo is 60 or less (step SL4: Yes), if the current beat position is in the middle of three beats (step SL5: Yes), a fill-in pattern for three beats for slow tempo is read (step SL). SL6). If the current beat position is not within 3 beats (step SL5: No), a fill-in pattern for 4 beats for slow tempo is read (step SL7).

なお、ここではリズムは4拍子のリズムを想定しており、また、逸脱条件として、図8の伴奏フォーマットセット/逸脱方法指定表の805欄のデータからも判るように、メロディ逸脱トリガーのトリガーナンバー5(Trigger[5])の「小節の後半」を含める事などにより、現在の拍の位置が3拍中でない場合は、4拍中に該当しているものとする。   Here, the rhythm is assumed to be a rhythm of four beats, and the trigger number of the melody departure trigger is known as the departure condition from the data in the 805 column of the accompaniment format set / deviation method designation table of FIG. If the current beat position is not in 3 beats by including the “second half of measure” of 5 (Trigger [5]), it is assumed that the current beat position is in 4 beats.

一方、現在のテンポが60以下ではなかった場合(ステップSL4:No)、現在の拍の位置が3拍中であれば(ステップSL8:Yes)、通常テンポ用の3拍用のフィルインパターンを読み出す(ステップSL9)。また、現在の拍の位置が3拍中でない場合(ステップSL8:No)、通常テンポ用の4拍用のフィルインパターンを読み出す(ステップSL10)。   On the other hand, if the current tempo is not less than 60 (step SL4: No), if the current beat position is in the middle of 3 beats (step SL8: Yes), the fill-in pattern for 3 beats for the normal tempo is read. (Step SL9). If the current beat position is not within 3 beats (step SL8: No), a fill-in pattern for 4 beats for normal tempo is read (step SL10).

フィルインパターンは、図28のフィルインテーブル2800に例示したような特徴を有するMIDIパターンとして、ROM22の所定の領域(フィルインパターン記憶領域)に記憶されているフィルインパターンを読み出すことで取得される。   The fill-in pattern is acquired by reading a fill-in pattern stored in a predetermined area (fill-in pattern storage area) of the ROM 22 as a MIDI pattern having the characteristics exemplified in the fill-in table 2800 of FIG.

すなわち、ステップSL6では図28の2820の列のいずれかのフィルインパターンが、ステップSL7では図28の2830の列のいずれかのフィルインパターンが、ステップSL9では図28の2840の列のいずれかのフィルインパターンが、ステップSL10では図28の2850の列のいずれかのフィルインパターンが読み出される。なお、図28のa〜fまで例示したフィルインパターンのいずれを選択して発音させるかは、例えば逸脱条件が満たされたパートあるいは楽器に応じて、図28の想定楽器2810の欄の情報を照合して決定するほか、他により詳細な条件をあらかじめ設定しておき、諸々の条件に応じていずれかのパターンを選択するように構成しても良い。   That is, in step SL6, any one of the fill-in patterns in the column 2820 in FIG. 28, in step SL7 any one of the fill-in patterns in the column 2830 in FIG. 28, and in step SL9, any one of the fill-in patterns in the column 2840 in FIG. In step SL10, one of the fill-in patterns in the column 2850 in FIG. 28 is read out. It should be noted that which of the fill-in patterns illustrated in FIGS. 28A to 28F is selected and sounded is checked by checking the information in the column of the assumed instrument 2810 in FIG. 28 according to, for example, the part or instrument in which the deviation condition is satisfied. In addition to the above-described determination, other detailed conditions may be set in advance, and one of the patterns may be selected according to various conditions.

このようにステップSL4からステップSL10の処理によって、ふさわしいフィルインパターンが選択されて読み出されると、CPU21はステップSL11へ処理を進め、ユーザによる新たなメロディ押鍵があったか否かを判断する(ステップSL11)。図8の伴奏フォーマットセット/逸脱方法指定表の805欄のデータのように、メロディ逸脱トリガーのトリガーナンバー6(Trigger[6])の「メロディオフ」が逸脱の条件となっていることから、ユーザによる新たなメロディ押鍵があった場合は逸脱を終了させるためである。   As described above, when an appropriate fill-in pattern is selected and read out by the processing from step SL4 to step SL10, the CPU 21 proceeds to step SL11 and determines whether or not a new melody key has been pressed by the user (step SL11). . As shown in the data in the 805 column of the accompaniment format set / deviation method designation table in FIG. 8, the melody deviation trigger trigger number 6 (Trigger [6]) is “melody off”, which is a deviation condition. This is to terminate the departure when there is a new melody key pressed by.

ユーザによる新たなメロディ押鍵があった場合(ステップSL11:Yes)は、逸脱発音中の音の発音を中断して、ジンスの開始音に発音する音を変更し、小節の終わりまで伸ばして発音するようにセットする(ステップSL12)。具体的には、例えば、ステップSL6、SL7、SL9、SL10で読み出されたフィルインパターンの、現在再生中の位置より先の部分(未再生の部分)に、ジンスの開始音を発音するようMIDIデータを上書きすること等により、図16のSA10で再生される音として、逸脱パターンを中断してジンスの開始音を発音するようにすることができる。   If there is a new melody key press by the user (step SL11: Yes), the sound of the deviation sound is interrupted, the sound that is sounded as the start sound of Jinsu is changed, and the sound is extended to the end of the measure. (Step SL12). Specifically, for example, a MIDI start sound is generated at a portion (unreproduced portion) ahead of the currently reproduced position of the fill-in pattern read out at steps SL6, SL7, SL9, and SL10. By overwriting the data or the like, the departure pattern can be interrupted and the start sound of Jins can be generated as the sound reproduced at SA10 in FIG.

さらに、CPU21は、小節の終わりに到達したか否かを判断する(ステップSL13)。小節の終わりに到達していたら(ステップSL13:Yes)、CPU21は、逸脱パターンjに対応した逸脱設定解除の処理を行う(SL14)。具体的には、例えば、読み出されてRAM23に記憶されていたフィルインパターンをクリアし、またステップSA10において逸脱パターンの再生に用いられるポインタ変数などがクリアされる。さらに、逸脱中フラグ[Part,Pattern]の値をOFF(0)にクリアする(ステップSL15)。   Further, the CPU 21 determines whether or not the end of the measure has been reached (step SL13). If the end of the measure has been reached (step SL13: Yes), the CPU 21 performs deviation setting cancellation processing corresponding to the deviation pattern j (SL14). Specifically, for example, the fill-in pattern read out and stored in the RAM 23 is cleared, and pointer variables used for reproducing the deviation pattern are cleared in step SA10. Further, the value of the deviation flag [Part, Pattern] is cleared to OFF (0) (step SL15).

このようにして、逸脱パターンj(おかず挿入)の場合には、図20のステップSE3から図27の処理を実行することにより、逸脱パターンの実行を行う。   In this way, in the case of the departure pattern j (side dish insertion), the departure pattern is executed by executing the processing from step SE3 to FIG. 27 in FIG.

以上のように、図20のメロディ逸脱処理のフローチャートにより、パート変数Partと逸脱パターン変数Patternを順次変化させながら、すべてのパターンについて全てのパートで、逸脱パターンの実行処理(ステップSE3)を、パターンに応じたそれぞれの処理(図21から図27等)を呼び出して実行し、ヘテロフォニー音楽における、ユーザ演奏メロディに対しての伴奏パート等の各パートの発音すべき音を決定する。そして、メインフロー図16のステップSA10において、ユーザの演奏メロディ音を発音すると共に、他の伴奏楽器について、基本的にユーザ演奏メロディと同じ旋律を演奏しつつ、図20で逸脱が指定された場合には、ユーザ演奏メロディに基づきつつ逸脱をした音の発音を行う。これにより、ユーザの演奏メロディに応じたヘテロフォニー的な伴奏を行う電子楽器が実現される。   As described above, according to the flowchart of the melody departure process of FIG. 20, the execution of the departure pattern (step SE3) is performed for all the patterns for all the patterns while the part variable Part and the departure pattern variable Pattern are sequentially changed. Each of the processes (FIGS. 21 to 27, etc.) corresponding to is called and executed, and the sound to be generated by each part such as the accompaniment part for the user performance melody in the heterophony music is determined. When the user's performance melody sound is generated at step SA10 in FIG. 16 and the other accompaniment instruments are basically playing the same melody as the user performance melody, and the deviation is specified in FIG. The sound of the deviating sound is generated based on the user performance melody. Thereby, the electronic musical instrument which performs the heterophonic accompaniment according to a user's performance melody is implement | achieved.

以上説明したように、本実施形態では、各伴奏パートについて、ユーザ演奏メロディに合わせて、通常時はユーザ演奏メロディとユニゾンをベースとしたオクターブ違い等の旋律を発音しつつ、図8〜図10の伴奏フォーマットセット/逸脱方法指定表で設定された所定の逸脱条件が満たされた場合は、ユーザ演奏メロディに基づき、通常時のユニゾン伴奏からは逸脱した種々の逸脱パターンを発音する。これにより、ユーザがメロディを演奏すると、ヘテロフォニー的な伴奏を付加したヘテロフォニー音楽が簡単に演奏できることとなる。これにより、いわゆる西洋音楽とは異なる旋律伴奏によるヘテロフォニー的音楽の伴奏を行って、ユーザが簡単にヘテロフォニー音楽の演奏を行うことができるようになる。   As described above, in the present embodiment, for each accompaniment part, in accordance with the user performance melody, the melody such as the octave difference based on the user performance melody and the unison is normally pronounced while FIGS. When a predetermined deviation condition set in the accompaniment format set / deviation method designation table is satisfied, various deviation patterns deviating from the normal unison accompaniment are generated based on the user performance melody. As a result, when the user plays a melody, heterophony music with a heterophonic accompaniment can be easily played. Accordingly, the user can easily perform the heterophony music by performing the accompaniment of the heterophony music with the melody accompaniment different from the so-called Western music.

なお、上記実施形態では、電子楽器10に備えられたCPU21によって、逸脱条件判定部、逸脱処理部、発音指示部の機能が実現される例を説明したが、これらの各部については、適宜、外部接続されたパーソナルコンピュータにおけるソフトウェアによって実現されることとしても良い。この場合、必要に応じて、例えば伴奏フォーマットセット/逸脱方法指定表を記憶する部分は、パーソナルコンピュータ内の記憶装置や、ネットワークを介して接続された外部サーバ等であっても良い。また、サウンドシステム24やROM22内の音色波形データ記憶部は、外部ハードウェア音源あるいはソフトウェア音源モジュールを用いる構成であっても良い。   In the above embodiment, the example in which the functions of the departure condition determination unit, the departure processing unit, and the sound generation instruction unit are realized by the CPU 21 provided in the electronic musical instrument 10 has been described. It may be realized by software in a connected personal computer. In this case, if necessary, for example, the part for storing the accompaniment format set / deviation method specification table may be a storage device in the personal computer, an external server connected via a network, or the like. Further, the sound system 24 and the timbre waveform data storage unit in the ROM 22 may be configured to use an external hardware sound source or a software sound source module.

要するに、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   In short, several embodiments of the present invention have been described, but these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

また、上述した各実施形態において記載した手法は、コンピュータに実行させることのできるプログラムとして、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリなどの記録媒体に書き込んで各種装置に適用したり、通信媒体により伝送して各種装置に適用することも可能である。本装置を実現するコンピュータは、記録媒体に記録されたプログラムを読み込み、このプログラムによって動作が制御されることにより、上述した処理を実行する。   In addition, the methods described in the above-described embodiments are, for example, magnetic disks (floppy (registered trademark) disks, hard disks, etc.), optical disks (CD-ROMs, DVDs, etc.), semiconductor memories as programs that can be executed by a computer. It is also possible to write on a recording medium such as the above and apply it to various apparatuses, or transmit it via a communication medium and apply it to various apparatuses. A computer that implements this apparatus reads the program recorded on the recording medium, and executes the above-described processing by controlling the operation by this program.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段などより構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall device configured by a plurality of devices, a plurality of means, and the like.

以上の実施形態に関して、さらに以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[付記1]
入力される演奏情報から、所定の条件に基づいて伴奏情報を生成する伴奏情報生成手段と、
前記入力された演奏情報が所定の状態にあるか否かを判定する判定手段と、
前記所定の状態にあると判定された場合に、前記所定の条件から逸脱した条件に基づいて伴奏情報を生成するように、前記伴奏情報生成手段を制御する制御手段と、
を備える伴奏装置。
[付記2]
前記伴奏情報生成手段は、夫々異なる所定の条件に基づいて複数のパート夫々に対応する伴奏情報を生成し、
前記判定手段は、前記入力された演奏情報の状態が、前記複数のパート夫々に対応する所定の状態にあるか否かを判定し、
前記制御手段は、前記入力された演奏情報の状態が前記複数のパート夫々に対応する所定の状態のいずれかに対応すると判定された場合に、前記対応する所定の条件から逸脱した条件に基づいて伴奏情報を生成するように制御する、付記1に記載の伴奏装置。
[付記3]
前記伴奏装置はさらに、リズムジャンルを指定するリズムジャンル指定手段と、当該リズムジャンル指定手段により指定されるリズムジャンルに基づいたリズム情報を生成するリズム情報生成手段と、を備え、
前記判定手段は、前記入力された演奏情報の状態が、前記指定されたリズムジャンルに対応する所定の状態にあるか否かを判定し、
前記制御手段は、前記リズムジャンルに対応する所定の状態にあると判定された場合に、前記所定の条件から、前記指定されたリズムジャンルに対応して逸脱した条件に基づいて伴奏情報を生成するように制御する、付記1または2に記載の伴奏装置。
[付記4]
前記伴奏装置はさらに、入力される演奏情報に基づいてメロディ情報を生成するメロディ情報生成手段をさらに有する、付記1乃至3のいずれかに記載の伴奏装置。
[付記5]
前記制御手段は、前記所定の条件から逸脱した条件に基づく伴奏情報として、所定の効果を付与した伴奏情報を生成するように、前記伴奏情報生成手段を制御する、付記1乃至4のいずれかに記載の伴奏装置。
[付記6]
前記制御手段は、前記所定の条件から逸脱した条件に基づく伴奏情報として、前記入力された演奏情報と、所定の音情報とを組み合わせて伴奏情報を生成するように、前記伴奏情報生成手段を制御する、付記1乃至5のいずれかに記載の伴奏装置。
[付記7]
前記伴奏装置はさらに、音律を指定する音律指定手段を有し、
前記所定の音情報は、前記音律指定手段にて指定された音律に含まれるいずれかの音情報である、付記6に記載の伴奏装置。
[付記8]
前記伴奏情報生成手段は、前記生成される伴奏情報として、前記入力される演奏情報のユニゾンの伴奏情報を生成する、付記1乃至7のいずれかに記載の伴奏装置。
[付記9]
前記制御手段は、前記入力された演奏情報が所定の状態にあると判定された時点から、当該演奏情報の入力が終了する時点まで、前記対応する所定の条件から逸脱した条件に基づいて伴奏情報を生成するように制御する、付記1乃至8のいずれかに記載の伴奏装置。
[付記10]
前記制御手段は、前記入力された演奏情報が所定の状態にあると判定された時点から、予め定められたタイミングまで、前記対応する所定の条件から逸脱した条件に基づいて伴奏情報を生成するように制御する、付記1乃至8のいずれかに記載の伴奏装置。
[付記11]
前記判定手段は、前記入力される演奏情報の複数の状態夫々を判定可能に構成され、前記所定の状態として、前記複数種の状態を組み合わせた状態にあるか否かを判定する、付記1乃至10のいずれかに記載の伴奏装置。
[付記12]
前記付記1から11のいずれかに記載の伴奏装置と、
前記伴奏装置によって生成された伴奏情報に基づく楽音を発音する音源手段と、
を備える電子楽器。
[付記13]
伴奏装置に用いられる伴奏生成方法であって、前記伴奏装置が、
入力される演奏情報から、所定の条件に基づいて伴奏情報を生成し、
前記入力された演奏情報が所定の状態にあるか否かを判定し、
前記所定の状態にあると判定された場合に、前記所定の条件から逸脱した条件に基づいて伴奏情報を生成するように制御する、伴奏生成方法。
[付記14]
伴奏装置として用いられるコンピュータに、
入力される演奏情報から、所定の条件に基づいて伴奏情報を生成するステップと、
前記入力された演奏情報が所定の状態にあるか否かを判定するステップと、
前記所定の状態にあると判定された場合に、前記所定の条件から逸脱した条件に基づいて伴奏情報を生成するように制御するステップと、
を実行させるプログラム。
Regarding the above embodiment, the invention described in the scope of the original claims of the present application will be additionally described below.
[Appendix 1]
Accompaniment information generating means for generating accompaniment information from input performance information based on a predetermined condition;
Determination means for determining whether or not the input performance information is in a predetermined state;
Control means for controlling the accompaniment information generating means so as to generate accompaniment information based on a condition deviating from the predetermined condition when determined to be in the predetermined state;
An accompaniment device comprising:
[Appendix 2]
The accompaniment information generating means generates accompaniment information corresponding to each of a plurality of parts based on different predetermined conditions,
The determination means determines whether or not the state of the input performance information is in a predetermined state corresponding to each of the plurality of parts,
When it is determined that the state of the input performance information corresponds to one of the predetermined states corresponding to each of the plurality of parts, the control means is based on a condition deviating from the corresponding predetermined condition. The accompaniment apparatus according to appendix 1, which is controlled to generate accompaniment information.
[Appendix 3]
The accompaniment apparatus further includes rhythm genre specifying means for specifying a rhythm genre, and rhythm information generating means for generating rhythm information based on the rhythm genre specified by the rhythm genre specifying means,
The determination means determines whether the state of the input performance information is in a predetermined state corresponding to the designated rhythm genre,
When it is determined that the control unit is in a predetermined state corresponding to the rhythm genre, the control unit generates accompaniment information based on a condition deviating from the predetermined condition corresponding to the designated rhythm genre. The accompaniment apparatus according to appendix 1 or 2, which is controlled as follows.
[Appendix 4]
4. The accompaniment apparatus according to any one of appendices 1 to 3, further comprising melody information generation means for generating melody information based on performance information that is input.
[Appendix 5]
The control means controls the accompaniment information generation means so as to generate accompaniment information having a predetermined effect as accompaniment information based on a condition deviating from the predetermined condition. The accompaniment device described.
[Appendix 6]
The control means controls the accompaniment information generating means so as to generate accompaniment information by combining the input performance information and predetermined sound information as accompaniment information based on a condition deviating from the predetermined condition. The accompaniment device according to any one of appendices 1 to 5.
[Appendix 7]
The accompaniment apparatus further includes a temperament specifying means for specifying a temperament,
The accompaniment apparatus according to appendix 6, wherein the predetermined sound information is any sound information included in the temperament specified by the temperament specifying means.
[Appendix 8]
The accompaniment apparatus according to any one of appendices 1 to 7, wherein the accompaniment information generation unit generates unison accompaniment information of the input performance information as the generated accompaniment information.
[Appendix 9]
The control means performs accompaniment information based on a condition deviating from the corresponding predetermined condition from the time when the input performance information is determined to be in a predetermined state to the time when the input of the performance information is completed. The accompaniment device according to any one of appendices 1 to 8, wherein the accompaniment device is controlled to generate
[Appendix 10]
The control means generates accompaniment information based on a condition deviating from the corresponding predetermined condition from a time point when the input performance information is determined to be in a predetermined state to a predetermined timing. The accompaniment device according to any one of appendices 1 to 8, wherein the accompaniment device is controlled.
[Appendix 11]
The determination means is configured to be able to determine each of a plurality of states of the inputted performance information, and determines whether or not the predetermined state is a combination of the plurality of states. The accompaniment apparatus according to any one of 10.
[Appendix 12]
The accompaniment device according to any one of appendices 1 to 11;
Sound source means for generating a musical sound based on the accompaniment information generated by the accompaniment device;
Electronic musical instrument with
[Appendix 13]
An accompaniment generating method used for an accompaniment device, wherein the accompaniment device is
Accompaniment information is generated based on predetermined conditions from input performance information,
Determining whether the input performance information is in a predetermined state;
An accompaniment generation method for controlling to generate accompaniment information based on a condition deviating from the predetermined condition when it is determined that the predetermined state is established.
[Appendix 14]
In a computer used as an accompaniment device,
Generating accompaniment information from input performance information based on a predetermined condition;
Determining whether the inputted performance information is in a predetermined state;
Controlling to generate accompaniment information based on a condition deviating from the predetermined condition when it is determined that the predetermined condition is present; and
A program that executes

10・・・・電子楽器
11・・・・音色指定ボタン
12・・・・自動伴奏開始・終了指示ボタン
13・・・・リズムジャンル選択ボタン
14・・・・リズムエレメント指定ボタン
15・・・・表示部
16・・・・テンポ設定ボタン
100・・・鍵盤
101・・・ジンス指定鍵盤
102・・・メロディ演奏用鍵盤
21・・・・CPU
22・・・・ROM
23・・・・RAM
24・・・・サウンドシステム
25・・・・スイッチ群
26・・・・音源部
27・・・・オーディオ回路
28・・・・スピーカ
800・・・伴奏フォーマットセットとメロディ逸脱方法指定表(1)ノーマルパターン
900・・・伴奏フォーマットセットとメロディ逸脱方法指定表(2)ソロパターン
1000・・伴奏フォーマットセットとメロディ逸脱方法指定表(3)フィルインパターン
810、910、1010・・・リズムジャンル名
820、920、1020・・・パート名
830、930、1030・・・音色
840、940、1040・・・音域/ドラムパターン
850、950、1050・・・メロディとのdetune
860、960、1060・・・ドローン
870、970、1070・・・メロディ逸脱方法
2800・・フィルインテーブル
2810・・想定楽器
2820・・フィルインパターン(テンポ60以下、2拍フィルイン)
2830・・フィルインパターン(テンポ60以下、1拍フィルイン)
2840・・フィルインパターン(テンポ61以上、2拍フィルイン)
2850・・フィルインパターン(テンポ61以上、1拍フィルイン)
10 .... Electronic musical instrument 11 .... Tone designation button 12 .... Automatic accompaniment start / end instruction button 13 .... Rhythm genre selection button 14 .... Rhythm element designation button 15 .... Display unit 16 ... Tempo setting button 100 ... Keyboard 101 ... Jin specified keyboard 102 ... Melody playing keyboard 21 ... CPU
22 ... ROM
23 ... RAM
24 ... Sound system 25 ... Switch group 26 ... Sound source unit 27 ... Audio circuit 28 ... Speaker 800 ... Accompaniment format set and melody deviation method specification table (1) Normal pattern 900 ... Accompaniment format set and melody deviation method designation table (2) Solo pattern 1000 ... Accompaniment format set and melody deviation method designation table (3) Fill-in patterns 810, 910, 1010 ... Rhythm genre name 820, 920, 1020 ... part name 830, 930, 1030 ... tone 840, 940, 1040 ... range / drum pattern 850, 950, 1050 ... detune with melody
860, 960, 1060 ... Drone 870, 970, 1070 ... Melody deviation method 2800-Fill-in table 2810-Assumed instrument 2820-Fill-in pattern (tempo 60 or less, 2-beat fill-in)
2830 .. Fill-in pattern (tempo 60 or less, 1-beat fill-in)
2840 ・ ・ Fill-in pattern (Tempo 61 or more, 2-beat fill-in)
2850 ・ ・ Fill-in pattern (tempo 61 or more, 1-beat fill-in)

Claims (14)

入力される演奏情報から、所定の条件に基づいて伴奏情報を生成する伴奏情報生成手段と、
前記入力された演奏情報が所定の状態にあるか否かを判定する判定手段と、
前記所定の状態にあると判定された場合に、前記所定の条件から逸脱した条件に基づいて伴奏情報を生成するように、前記伴奏情報生成手段を制御する制御手段と、
を備える伴奏装置。
Accompaniment information generating means for generating accompaniment information from input performance information based on a predetermined condition;
Determination means for determining whether or not the input performance information is in a predetermined state;
Control means for controlling the accompaniment information generating means so as to generate accompaniment information based on a condition deviating from the predetermined condition when determined to be in the predetermined state;
An accompaniment device comprising:
前記伴奏情報生成手段は、夫々異なる所定の条件に基づいて複数のパート夫々に対応する伴奏情報を生成し、
前記判定手段は、前記入力された演奏情報の状態が、前記複数のパート夫々に対応する所定の状態にあるか否かを判定し、
前記制御手段は、前記入力された演奏情報の状態が前記複数のパート夫々に対応する所定の状態のいずれかに対応すると判定された場合に、前記対応する所定の条件から逸脱した条件に基づいて伴奏情報を生成するように制御する、請求項1に記載の伴奏装置。
The accompaniment information generating means generates accompaniment information corresponding to each of a plurality of parts based on different predetermined conditions,
The determination means determines whether or not the state of the input performance information is in a predetermined state corresponding to each of the plurality of parts,
When it is determined that the state of the input performance information corresponds to one of the predetermined states corresponding to each of the plurality of parts, the control means is based on a condition deviating from the corresponding predetermined condition. The accompaniment apparatus according to claim 1, wherein the accompaniment apparatus is controlled to generate accompaniment information.
前記伴奏装置はさらに、リズムジャンルを指定するリズムジャンル指定手段と、当該リズムジャンル指定手段により指定されるリズムジャンルに基づいたリズム情報を生成するリズム情報生成手段と、を備え、
前記判定手段は、前記入力された演奏情報の状態が、前記指定されたリズムジャンルに対応する所定の状態にあるか否かを判定し、
前記制御手段は、前記リズムジャンルに対応する所定の状態にあると判定された場合に、前記所定の条件から、前記指定されたリズムジャンルに対応して逸脱した条件に基づいて伴奏情報を生成するように制御する、請求項1または2に記載の伴奏装置。
The accompaniment apparatus further includes rhythm genre specifying means for specifying a rhythm genre, and rhythm information generating means for generating rhythm information based on the rhythm genre specified by the rhythm genre specifying means,
The determination means determines whether the state of the input performance information is in a predetermined state corresponding to the designated rhythm genre,
When it is determined that the control unit is in a predetermined state corresponding to the rhythm genre, the control unit generates accompaniment information based on a condition deviating from the predetermined condition corresponding to the designated rhythm genre. The accompaniment apparatus according to claim 1 or 2, which is controlled as follows.
前記伴奏装置はさらに、入力される演奏情報に基づいてメロディ情報を生成するメロディ情報生成手段をさらに有する、請求項1乃至3のいずれかに記載の伴奏装置。   The accompaniment apparatus according to any one of claims 1 to 3, further comprising melody information generation means for generating melody information based on input performance information. 前記制御手段は、前記所定の条件から逸脱した条件に基づく伴奏情報として、所定の効果を付与した伴奏情報を生成するように、前記伴奏情報生成手段を制御する、請求項1乃至4のいずれかに記載の伴奏装置。   The said control means controls the said accompaniment information production | generation means so that the accompaniment information which provided the predetermined | prescribed effect as accompaniment information based on the conditions which deviated from the said predetermined conditions is produced | generated. The accompaniment device described in 1. 前記制御手段は、前記所定の条件から逸脱した条件に基づく伴奏情報として、前記入力された演奏情報と、所定の音情報とを組み合わせて伴奏情報を生成するように、前記伴奏情報生成手段を制御する、請求項1乃至5のいずれかに記載の伴奏装置。   The control means controls the accompaniment information generating means so as to generate accompaniment information by combining the input performance information and predetermined sound information as accompaniment information based on a condition deviating from the predetermined condition. The accompaniment apparatus according to any one of claims 1 to 5. 前記伴奏装置はさらに、音律を指定する音律指定手段を有し、
前記所定の音情報は、前記音律指定手段にて指定された音律に含まれるいずれかの音情報である、請求項6に記載の伴奏装置。
The accompaniment apparatus further includes a temperament specifying means for specifying a temperament,
The accompaniment apparatus according to claim 6, wherein the predetermined sound information is any sound information included in the temperament specified by the temperament specifying means.
前記伴奏情報生成手段は、前記生成される伴奏情報として、前記入力される演奏情報のユニゾンの伴奏情報を生成する、請求項1乃至7のいずれかに記載の伴奏装置。   The accompaniment apparatus according to any one of claims 1 to 7, wherein the accompaniment information generating means generates unison accompaniment information of the input performance information as the generated accompaniment information. 前記制御手段は、前記入力された演奏情報が所定の状態にあると判定された時点から、当該演奏情報の入力が終了する時点まで、前記対応する所定の条件から逸脱した条件に基づいて伴奏情報を生成するように制御する、請求項1乃至8のいずれかに記載の伴奏装置。   The control means performs accompaniment information based on a condition deviating from the corresponding predetermined condition from the time when the input performance information is determined to be in a predetermined state to the time when the input of the performance information is completed. The accompaniment apparatus according to claim 1, wherein the accompaniment apparatus is controlled to generate 前記制御手段は、前記入力された演奏情報が所定の状態にあると判定された時点から、予め定められたタイミングまで、前記対応する所定の条件から逸脱した条件に基づいて伴奏情報を生成するように制御する、請求項1乃至8のいずれかに記載の伴奏装置。   The control means generates accompaniment information based on a condition deviating from the corresponding predetermined condition from a time point when the input performance information is determined to be in a predetermined state to a predetermined timing. The accompaniment apparatus according to any one of claims 1 to 8, wherein the accompaniment apparatus is controlled. 前記判定手段は、前記入力される演奏情報の複数の状態夫々を判定可能に構成され、前記所定の状態として、前記複数種の状態を組み合わせた状態にあるか否かを判定する、請求項1乃至10のいずれかに記載の伴奏装置。   The determination unit is configured to be able to determine each of a plurality of states of the input performance information, and determines whether the predetermined state is a combination of the plurality of states. The accompaniment apparatus in any one of thru | or 10. 前記請求項1から11のいずれかに記載の伴奏装置と、
前記伴奏装置によって生成された伴奏情報に基づく楽音を発音する音源手段と、
を備える電子楽器。
The accompaniment apparatus according to any one of claims 1 to 11,
Sound source means for generating a musical sound based on the accompaniment information generated by the accompaniment device;
Electronic musical instrument with
伴奏装置に用いられる伴奏生成方法であって、前記伴奏装置が、
入力される演奏情報から、所定の条件に基づいて伴奏情報を生成し、
前記入力された演奏情報が所定の状態にあるか否かを判定し、
前記所定の状態にあると判定された場合に、前記所定の条件から逸脱した条件に基づいて伴奏情報を生成するように制御する、伴奏生成方法。
An accompaniment generating method used for an accompaniment device, wherein the accompaniment device is
Accompaniment information is generated based on predetermined conditions from input performance information,
Determining whether the input performance information is in a predetermined state;
An accompaniment generation method for controlling to generate accompaniment information based on a condition deviating from the predetermined condition when it is determined that the predetermined state is established.
伴奏装置として用いられるコンピュータに、
入力される演奏情報から、所定の条件に基づいて伴奏情報を生成するステップと、
前記入力された演奏情報が所定の状態にあるか否かを判定するステップと、
前記所定の状態にあると判定された場合に、前記所定の条件から逸脱した条件に基づいて伴奏情報を生成するように制御するステップと、
を実行させるプログラム。
In a computer used as an accompaniment device,
Generating accompaniment information from input performance information based on a predetermined condition;
Determining whether the inputted performance information is in a predetermined state;
Controlling to generate accompaniment information based on a condition deviating from the predetermined condition when it is determined that the predetermined condition is present; and
A program that executes
JP2013270689A 2013-12-27 2013-12-27 Electronic musical instrument, electronic musical instrument control method and program Active JP6417663B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013270689A JP6417663B2 (en) 2013-12-27 2013-12-27 Electronic musical instrument, electronic musical instrument control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013270689A JP6417663B2 (en) 2013-12-27 2013-12-27 Electronic musical instrument, electronic musical instrument control method and program

Publications (3)

Publication Number Publication Date
JP2015125344A true JP2015125344A (en) 2015-07-06
JP2015125344A5 JP2015125344A5 (en) 2017-02-09
JP6417663B2 JP6417663B2 (en) 2018-11-07

Family

ID=53536062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013270689A Active JP6417663B2 (en) 2013-12-27 2013-12-27 Electronic musical instrument, electronic musical instrument control method and program

Country Status (1)

Country Link
JP (1) JP6417663B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021044563A1 (en) * 2019-09-04 2021-03-11

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112473047B (en) 2020-06-19 2022-03-22 国网安徽省电力有限公司电力科学研究院 Fire extinguishing system and fire extinguishing method suitable for extra-high voltage converter station and extra-high voltage converter station

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0271296A (en) * 1989-07-21 1990-03-09 Yamaha Corp Automatic accompanying device for electronic musical instrument
JPH02171800A (en) * 1988-12-24 1990-07-03 Roland Corp Chord adding device for electronic musical instrument
JPH03267998A (en) * 1990-03-18 1991-11-28 Yamaha Corp Electronic musical instrument
JP2000356986A (en) * 1999-06-15 2000-12-26 Casio Comput Co Ltd Automatic accompaniment device and recording medium which records automatic accompaniment processing program
JP2004198574A (en) * 2002-12-17 2004-07-15 Yamaha Corp Performance support device and performance support program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02171800A (en) * 1988-12-24 1990-07-03 Roland Corp Chord adding device for electronic musical instrument
JPH0271296A (en) * 1989-07-21 1990-03-09 Yamaha Corp Automatic accompanying device for electronic musical instrument
JPH03267998A (en) * 1990-03-18 1991-11-28 Yamaha Corp Electronic musical instrument
JP2000356986A (en) * 1999-06-15 2000-12-26 Casio Comput Co Ltd Automatic accompaniment device and recording medium which records automatic accompaniment processing program
JP2004198574A (en) * 2002-12-17 2004-07-15 Yamaha Corp Performance support device and performance support program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021044563A1 (en) * 2019-09-04 2021-03-11
WO2021044563A1 (en) * 2019-09-04 2021-03-11 ローランド株式会社 Automatic musical performance device and automatic musical performance program
JP7190056B2 (en) 2019-09-04 2022-12-14 ローランド株式会社 Automatic performance device and automatic performance program

Also Published As

Publication number Publication date
JP6417663B2 (en) 2018-11-07

Similar Documents

Publication Publication Date Title
KR100658869B1 (en) Music generating device and operating method thereof
JP5041015B2 (en) Electronic musical instrument and musical sound generation program
JP5574474B2 (en) Electronic musical instrument having ad-lib performance function and program for ad-lib performance function
JP6465136B2 (en) Electronic musical instrument, method, and program
JP6175812B2 (en) Musical sound information processing apparatus and program
JP6417663B2 (en) Electronic musical instrument, electronic musical instrument control method and program
JP4867940B2 (en) Musical sound generating apparatus and program
JP2008527463A (en) Complete orchestration system
Harnsberger Essential dictionary of music
RU2145121C1 (en) Method for translating accords
CN113140201A (en) Accompaniment sound generation device, electronic musical instrument, accompaniment sound generation method, and accompaniment sound generation program
JP2022006247A (en) Electronic musical instrument, accompaniment sound indication method, program, and accompaniment sound automatic generation device
JP5909967B2 (en) Key judgment device, key judgment method and key judgment program
JP4175364B2 (en) Arpeggio sound generator and computer-readable medium having recorded program for controlling arpeggio sound
JP7409366B2 (en) Automatic performance device, automatic performance method, program, and electronic musical instrument
JP7452501B2 (en) Automatic performance device, electronic musical instrument, performance system, automatic performance method, and program
JP7425558B2 (en) Code detection device and code detection program
JP5104414B2 (en) Automatic performance device and program
JP3674469B2 (en) Performance guide method and apparatus and recording medium
CN206432006U (en) A kind of piano
Thomas The Use of Color in Three Chamber Works of the Twentieth Century
Gillespie A performance analysis of saxophone trios by William Albright and Daniel Schnyder
JP4900233B2 (en) Automatic performance device
JP5104293B2 (en) Automatic performance device
JP5034471B2 (en) Music signal generator and karaoke device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180924

R150 Certificate of patent or registration of utility model

Ref document number: 6417663

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150