JP5564921B2 - Electronic musical instruments - Google Patents
Electronic musical instruments Download PDFInfo
- Publication number
- JP5564921B2 JP5564921B2 JP2009278513A JP2009278513A JP5564921B2 JP 5564921 B2 JP5564921 B2 JP 5564921B2 JP 2009278513 A JP2009278513 A JP 2009278513A JP 2009278513 A JP2009278513 A JP 2009278513A JP 5564921 B2 JP5564921 B2 JP 5564921B2
- Authority
- JP
- Japan
- Prior art keywords
- sound
- chord
- key
- accompaniment
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Description
本発明は、自動伴奏パターンの演奏が可能な電子楽器および電子楽器のプログラムに関する。 The present invention relates to an electronic musical instrument capable of playing an automatic accompaniment pattern and an electronic musical instrument program.
電子楽器においては、いわゆる「自動伴奏」という機能が良く知られている。自動伴奏においては、一般的に、ユーザの鍵操作によって指定されたコードの構成音に相当する楽音が、自動伴奏パターンが示す伴奏シーケンスにしたがって発音される。また、自動伴奏パターンには、単一或いは複数の楽音によるメロディ音、メロディ音の対旋律などを構成するオブリガート音、および、リズム音も含まれ得る。 In electronic musical instruments, a so-called “automatic accompaniment” function is well known. In automatic accompaniment, generally, a musical sound corresponding to a constituent sound of a chord designated by a user's key operation is generated according to an accompaniment sequence indicated by an automatic accompaniment pattern. The automatic accompaniment pattern may also include a melody sound composed of a single or a plurality of musical sounds, an obligato sound constituting a counter-melody of the melody sound, and a rhythm sound.
自動伴奏の機能を用いることによって、一人の演奏者でも、コード音やリズム音を含む豊富な楽音の演奏が実現できる。その一方、コードの知識の無い演奏者は、この機能を有効に利用できないという問題点があった。 By using the automatic accompaniment function, even a single player can perform a wide variety of musical sounds including chord sounds and rhythm sounds. On the other hand, performers without knowledge of chords have a problem that this function cannot be used effectively.
演奏者によるコード指定を簡易化するために、たとえば、特許文献1においては、押鍵数が基準値を超えるごとに、複数の自動伴奏パターンを所定の順序で順次切り換えて読み出し、自動伴奏パターンが、押鍵数に応じて変化する電子楽器が提案されている。
In order to simplify the chord designation by the performer, for example, in
また、特許文献2においては、演奏者の押鍵を、コード構成音に変換して、当該コード構成音を含む自動伴奏を演奏する電子楽器が提案されている。この電子楽器においては、曲データを利用することで、音階の指定を自動化しており、演奏者がコードの知識を有していなくても、表現を加えた自動伴奏を演奏することが可能となる。
たとえば、特許文献1に開示された技術では、複数のコードパターンが切り換えられるため、演奏形態の変化が画一的になってしまう可能性がある。
For example, in the technique disclosed in
また、特許文献2に開示された技術では、押鍵タイミングや押鍵数を適切に与えない場合には、適切な自動伴奏の演奏ができない可能性がある。すなわち、演奏者はコードの知識を必要としないが、リズムについての一定のセンスや知識を必要とする。
Also, with the technique disclosed in
また、従来の自動伴奏においては、特許文献1に開示されたように、押鍵数に応じて、自動伴奏パターンを変化させることは可能であった。ユーザは、追う件数以外にも自動伴奏パターンを変化させる要素を導入して、ユーザの直感的な演奏表現にしたがった多様な伴奏が可能であることが望ましい。
Further, in the conventional automatic accompaniment, as disclosed in
本発明は、コードに関する知識がない演奏者による演奏であっても、直感的な操作にしたがった適切な自動伴奏を演奏することができる電子楽器および電子楽器のプログラムを提供することを目的とする。 An object of the present invention is to provide an electronic musical instrument and an electronic musical instrument program capable of playing an appropriate automatic accompaniment according to an intuitive operation even if the performance is performed by a player who has no knowledge of chords. .
本発明の目的は、予め定められたコードの自動伴奏パターンであって、少なくとも、コード名およびコード構成音の発音タイミング、を含む自動伴奏データを記憶する記憶手段と、
並列に配置され演奏操作子の操作に基づいて、所定の楽音の楽音データを生成する楽音データ生成手段と、を備えた電子楽器であって、
操作された演奏操作子の数が3つの場合に、操作された複数の演奏操作子について、最低音に対応する演奏操作子から中央の音に相当する演奏操作子の間の度数の、前記最低音に対応する演奏操作子から最高音に相当する演奏操作子の間の度数に対する比率に基づいて、前記コードの転回形を決定する制御手段を備え、
前記制御手段が、前記度数に基づいて決定された転回形およびコード名に基づいて、発音すべきコード構成音の音高を決定し、
前記楽音データ生成手段が、前記制御手段により音高が決定されたコード構成音の楽音データを、前記発音タイミングで生成することを特徴とする電子楽器により達成される。
An object of the present invention is an automatic accompaniment pattern of a predetermined chord, and storage means for storing automatic accompaniment data including at least the chord name and the sound generation timing of the chord constituent sound;
An electronic musical instrument comprising: musical tone data generating means for generating musical tone data of a predetermined musical tone based on an operation of a performance operator arranged in parallel,
In the case where the number of operated performance operators is three, for the plurality of operated performance operators, the minimum of the frequency between the performance operator corresponding to the lowest sound and the performance operator corresponding to the center sound is the minimum. Control means for determining the inversion form of the chord based on the ratio to the frequency between the performance operator corresponding to the sound and the performance operator corresponding to the highest sound ;
The control means determines the pitch of the chord constituting sound to be pronounced based on the turning form and the chord name determined based on the frequency,
The musical tone data generating means generates musical tone data of chord constituent sounds whose pitches are determined by the control means at the sound generation timing.
また、本発明の目的は、予め定められた自動伴奏パターンであって、少なくとも、コード名およびコード構成音の発音タイミング、を含む自動伴奏データを記憶する記憶手段を備えたコンピュータに、
並列に配置された演奏操作子の操作に基づいて、所定の楽音の楽音データを生成する楽音データ生成ステップと、
操作された演奏操作子の数が3つの場合に、操作された複数の演奏操作子において、最低音に対応する演奏操作子から中央の音に相当する演奏操作子の間の度数の、前記最低音に対応する演奏操作子から最高音に相当する演奏操作子の間の度数に対する比率に基づいて、前記コードの転回形を決定する制御ステップと、を実行させ、
前記制御ステップが、前記度数に基づいて決定された転回形およびコード名に基づいて、発音すべきコード構成音の音高を決定するステップを有し、
前記楽音データ生成ステップにおいて、前記制御ステップにおいて音高が決定されたコード構成音の楽音データが、前記発音タイミングで生成されることを特徴とする電子楽器のプログラムにより達成される。
An object of the present invention is a computer having a storage means for storing automatic accompaniment data including at least a chord name and a chord constituting sound, which is a predetermined automatic accompaniment pattern,
A musical sound data generation step for generating musical sound data of a predetermined musical sound based on the operation of performance operators arranged in parallel;
In the case where the number of performance operators operated is three, among the plurality of operated performance operators, the minimum of the frequency between the performance operator corresponding to the lowest sound and the performance operator corresponding to the central sound A control step of determining a turning form of the chord based on a ratio to a frequency between a performance operator corresponding to the sound and a performance operator corresponding to the highest sound ;
The control step includes a step of determining a pitch of a chord constituent sound to be pronounced based on a turning form and a chord name determined based on the frequency;
In the musical sound data generating step, musical tone data of the chord constituent sound whose pitch is determined in the control step is generated by the electronic musical instrument program generated at the sounding timing.
本発明によれば、コードに関する知識がない演奏者による演奏であっても、直感的な操作にしたがった適切な自動伴奏を演奏することができる電子楽器および電子楽器のプログラムを提供することが可能となる。 According to the present invention, it is possible to provide an electronic musical instrument and an electronic musical instrument program capable of playing an appropriate automatic accompaniment according to an intuitive operation even if the performance is performed by a player who has no knowledge of chords. It becomes.
以下、添付図面を参照して、本発明の実施の形態について説明する。図1は、本実施の形態にかかる電子楽器の外観を示す図である。図1に示すように、本実施の形態にかかる電子楽器10は、鍵盤11を有する。また、鍵盤11の上部には、音色の指定、自動伴奏の開始・終了、リズムパターンの指定などを行なうためのスイッチ(符号12、13参照)や、演奏される楽曲に関する種々の情報、たとえば、音色、リズムパターン、コードネームなどを表示する表示部15を有する。本実施の形態にかかる電子楽器10は、たとえば、61個の鍵(C2〜C7)を有する。また、電子楽器10は、自動伴奏をオンする自動伴奏モード、および、自動伴奏をオフにする通常モードの2つの演奏モードのうち、何れかの下での演奏が可能である。自動伴奏モードの下では、C2〜F3の18鍵(符号101参照)が、伴奏用の鍵盤として使用され、F#4〜C7の43鍵(符号102参照)がメロディ用の鍵盤として使用される。符号101で示す鍵域を伴奏鍵域とも称し、符号102で示す鍵域をメロディ鍵域とも称する。
Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a diagram showing an external appearance of an electronic musical instrument according to the present embodiment. As shown in FIG. 1, the electronic
図2は、本発明の実施の形態にかかる電子楽器の構成を示すブロックダイヤグラムである。図2に示すように、本実施の形態にかかる電子楽器10は、CPU21、ROM22、RAM23、サウンドシステム24、スイッチ群25、鍵盤11および表示部15を備える。
FIG. 2 is a block diagram showing the configuration of the electronic musical instrument according to the embodiment of the present invention. As shown in FIG. 2, the electronic
CPU21は、電子楽器10全体の制御、鍵盤11の鍵の押鍵やスイッチ群25を構成するスイッチ(たとえば、図1の符号12、13参照)の操作の検出、鍵やスイッチの操作にしたがったサウンドシステム24の制御、自動伴奏パターンにしたがった自動伴奏の演奏など、種々の処理を実行する。
The
ROM22は、CPU21に実行させる種々の処理、たとえば、スイッチの操作、鍵盤の何れかの鍵の押鍵、押鍵に応じた楽音の発音、自動伴奏パターンを構成する楽音の発音データなどのプログラムを記憶する。また、ROM22は、ピアノ、ギター、バスドラム、スネアドラム、シンバルなどの楽音を生成するための波形データを格納した波形データエリア、および、種々の自動伴奏パターンを示すデータ(自動伴奏データ)を格納した自動伴奏パターンエリアを有する。RAM23は、ROM22から読み出されたプログラムや、処理の過程で生じたデータを記憶する。なお、本実施の形態において、自動伴奏パターンは、メロディ音およびオブリガート音を含むメロディ自動伴奏パターン、コード音を含むコード自動伴奏パターン、並びに、ドラム音を含むリズムパターンを有する。たとえば、メロディ自動伴奏パターンのデータのレコードは、楽音の音色、音高、発音タイミング(発音時刻)、音長などを含む。コード自動伴奏パターンのデータのレコードは、上記情報に加えて、コード構成音を示すデータを含む。また、リズムパターンのデータは、楽音の音色、発音タイミングを含む。
The
サウンドシステム24は、音源部26、オーディオ回路27およびスピーカ28を有する。音源部26は、たとえば、押鍵された鍵についての情報或いは自動伴奏パターンについての情報をCPU21から受信すると、ROM22の波形データエリアから所定の波形データを読み出して、所定の音高の楽音データを生成して出力する。また、音源部26は、波形データ、特に、スネアドラム、バスドラム、シンバルなど打楽器の音色の波形データを、そのまま楽音データとして出力することもできる。オーディオ回路27は、楽音データをD/A変換して増幅する。これによりスピーカ28から音響信号が出力される。
The
本実施の形態にかかる電子楽器10は、通常モードの下においては、鍵盤11の鍵の押鍵に基づいて楽音を発生する。その一方、電子楽器10は、自動伴奏スイッチ(図示せず)が操作されることにより、自動伴奏モードとなる。自動伴奏モードの下では、メロディ鍵域の鍵の押鍵により、その鍵の音高の楽音が発生する。また、伴奏鍵域の鍵の押鍵にしたがって自動伴奏パターンが制御され、制御された自動伴奏パターンにしたがった楽音が発生する。なお、自動伴奏パターンは、ピアノやギターなど音高の変化を伴うメロディ自動伴奏パターン、コード自動伴奏パターンと、バスドラム、スネアドラム、シンバルなど音高の変化を伴わないリズムパターンとを含む。
The electronic
本実施の形態においては、伴奏鍵域の鍵の押鍵タイミングにしたがって、自動伴奏パターン、特に、コード自動伴奏パターンの発音タイミングが制御される。また、本実施の形態においては、伴奏鍵域において押鍵された複数の鍵の間隔によって、コード自動伴奏パターンにおいて発音する和音の転回形が制御される。さらに、伴奏鍵域の押鍵が無い場合には、メロディ自動伴奏パターンおよびコード自動伴奏パターンの発音が停止され、リズムパターンのみの発音となる。 In the present embodiment, the sound generation timing of the automatic accompaniment pattern, particularly the chord automatic accompaniment pattern, is controlled according to the key pressing timing of the key in the accompaniment key range. In the present embodiment, the inversion form of the chord that is generated in the automatic chord accompaniment pattern is controlled by the interval between a plurality of keys pressed in the accompaniment key range. Furthermore, when there is no key depression in the accompaniment key range, the sound generation of the melody automatic accompaniment pattern and the chord automatic accompaniment pattern is stopped and only the rhythm pattern is generated.
図3は、本実施の形態にかかる伴奏鍵域の押鍵と、自動伴奏パターンの制御との関係を概略的に示すタイミングチャート、図4は、自動伴奏パターンのデータ中、コード伴奏データの例を概略的に説明する図、図5は、図4の自動伴奏パターンに対応する楽譜を示す図である。 FIG. 3 is a timing chart schematically showing the relationship between the key depression of the accompaniment key range according to the present embodiment and the control of the automatic accompaniment pattern, and FIG. 4 is an example of chord accompaniment data in the data of the automatic accompaniment pattern. FIG. 5 is a diagram illustrating a musical score corresponding to the automatic accompaniment pattern of FIG.
図3において、符号300は、想定操作を示す。演奏者が、想定操作300と同一音タイミングで押鍵および離鍵を行なうと、コード伴奏データ初期値(符号320参照)と同一のタイミングで、コード自動伴奏パターンが発音される。すなわち、想定操作は、演奏者がコード伴奏データ初期値と同一のコード自動伴奏パターンを演奏するときの操作を想定している。また、この想定操作における押鍵時間(符合351参照)は、想定音長値として、後述する図15の処理において利用される。
In FIG. 3,
図3では、コード自動伴奏データ初期値を、例示的に、1拍を2分割したパルスとして表している。楽曲が4/4拍子と考えた場合に、コード自動伴奏データ初期値におけるパルスの立ち上がりおよび立下りが、それぞれ、16分音符の先頭位置を示す。 In FIG. 3, the chord automatic accompaniment data initial value is exemplarily represented as a pulse obtained by dividing one beat into two. When the musical piece is considered to be a 4/4 time signature, the rise and fall of the pulse in the chord automatic accompaniment data initial value respectively indicate the start position of the sixteenth note.
演奏者による実際の操作が符号310に示すようなものであったと考える。たとえば、1拍目の演奏者の押鍵のタイミング(符号311)は、想定操作より早くなっている。この場合には、本実施の形態にかかるCPU21は、コード自動伴奏データの読み出し時刻を早めるような処理を実行する(符号310参照)。したがって、制御されたコード自動伴奏データは、コード自動伴奏データ初期値よりも発音タイミングが早められたものとなる(符号331参照)。
It is considered that the actual operation by the performer is as shown by
その一方、2拍目の演奏者の押鍵タイミング(符号312参照)は、想定操作より遅くなっている。この場合には、CPU21は、コード自動伴奏データの読み出し時刻を遅くするような処理を実行する(符号322参照)。したがって、制御されたコード自動伴奏データは、コード自動伴奏データ初期値よりも発音タイミングが早められたものとなる(符号332参照)。なお、演奏者による実際の押鍵タイミングが変化する場合であっても、ドラムパターン(符号340参照)およびメロディ自動伴奏パターン(図3においては図示せず)は変化しない。
On the other hand, the key press timing (see reference numeral 312) of the second beat player is later than the assumed operation. In this case, the
また、本実施の形態においては、ユーザが伴奏鍵域の鍵を、所定の期間だけ押鍵しないことにより(符号313参照)、自動伴奏パターンの発音、より詳細には、メロディ自動伴奏パターンおよびコード自動伴奏パターンの楽音の発音が停止され、リズムパターンのみが発音される(符号323、333参照)。
Further, in the present embodiment, when the user does not press the key in the accompaniment key range for a predetermined period (see reference numeral 313), the automatic accompaniment pattern is sounded, more specifically, the melody automatic accompaniment pattern and chord The sound generation of the automatic accompaniment pattern is stopped and only the rhythm pattern is sounded (see
さらに、本実施の形態においては、押鍵タイミングが相対操作における押鍵タイミングより早いか、遅いかだけではなく、押鍵されている時間長が、想定操作における時間長よりも長いか短いかによっても、コード音自動伴奏データを制御できるようになっている。たとえば、5拍目(第2小節1拍目)の演奏者の押鍵の時間長(符号314参照)は、想定操作における押鍵の時間長よりも短い。この場合には、CPU21は、コード自動伴奏データにおいて、発音される楽音の音長を短くするような処理を実行する(符号324参照)。したがって、制御されたコード自動伴奏データにおいては、音長が、コード自動伴奏データ初期値に含まれる楽音の音長よりも短くなる(符号334参照)。
Furthermore, in this embodiment, not only whether the key pressing timing is earlier or later than the key pressing timing in the relative operation, but also depending on whether the time length during which the key is pressed is longer or shorter than the time length in the assumed operation. Also, the chord sound automatic accompaniment data can be controlled. For example, the key press time length (see reference numeral 314) of the player at the 5th beat (the 2nd measure 1st beat) is shorter than the key press time length in the assumed operation. In this case, the
また、6拍目(第2小節2拍目)の演奏者の押鍵の時間長は、想定操作における時間長よりも長い。この場合には、CPU21は、コード自動伴奏データにおいて、発音された楽音の音長を長くするような処理を実行する(符号325参照)。したがって、制御されたコード自動伴奏データにおいては、音長が、コード自動伴奏データ初期値に含まれる楽音の音長よりも長くなる(符号335参照)。
In addition, the time length of the key press by the performer at the sixth beat (second beat of the second measure) is longer than the time length in the assumed operation. In this case, the
上記例において、コード自動伴奏データの発音タイミングを早めること(符号331参照)により、いわゆる「前ノリ」の演奏を実現でき、或いは、コード自動伴奏データの発音タイミングを遅くすること(符号332参照)により、いわゆる「後ノリ」の演奏を実現できる。また、コード自動伴奏データを構成する楽音の音長を短くすること(符号334参照)により、いわゆる「タイト」な演奏を実現でき、或いは、楽音の音長を長くすること(符号335参照)により、いわゆる「ゆるやか」な演奏を実現することができる。 In the above example, the so-called “previous” performance can be realized by advancing the sound generation timing of the automatic chord accompaniment data (see reference numeral 331), or the sound generation timing of the automatic chord accompaniment data is delayed (see reference numeral 332). Thus, a so-called “rear” performance can be realized. Further, by shortening the tone length of the musical sound constituting the automatic chord accompaniment data (see symbol 334), a so-called “tight” performance can be realized, or by increasing the tone length of the musical tone (see symbol 335). So-called “sloppy” performance can be realized.
図4に示すように、本実施の形態において、コード自動伴奏データは、ベース音、第1のコード構成音(ルート音)、第2のコード構成音(第3音)、第3のコード構成音(第5音)、第4のコード構成音(第7音、テンションノート等)を含む。実際には、伴奏データは、上記ベース音およびコード構成音のほか、コード名、発音開始時刻および音長などを含む。 As shown in FIG. 4, in the present embodiment, the chord automatic accompaniment data includes a bass sound, a first chord constituent sound (root sound), a second chord constituent sound (third sound), and a third chord constituent. Sounds (fifth sound), fourth chord constituent sounds (seventh sound, tension notes, etc.). Actually, the accompaniment data includes a chord name, a sounding start time, a sound length, and the like in addition to the bass sound and the chord constituent sound.
図4に示す例では、1拍目および2拍目は、コード名「C7」に基づく楽音となり、3拍目および4拍目は、コード名「F7」に基づく楽音となり、5拍目および6拍目(第2小節1拍目および2拍目)は、コード名「G7」に基づく楽音となり、7拍目および8拍目(第2小節3拍目および4拍目)は、コード名「C6」に基づく楽音となる。 In the example shown in FIG. 4, the first and second beats become musical sounds based on the chord name “C7”, and the third and fourth beats become musical sounds based on the chord name “F7”. The beats (the first and second beats of the second measure) are musical tones based on the chord name “G7”, and the seventh and eighth beats (the third and fourth beats of the second measure) are chord names “ The musical tone is based on “C6”.
また、図4の例では、1拍目および2拍目では、最初に1.5拍(4/4拍子では符点4分音符)の音長、引き続いて、0.5拍(4/4拍子では8分音符)の音長でコード構成音が発音し、0.5拍(4/4拍では8分音符)の音長で、4つのベース音が順次発音する。3拍目および4拍目、並びに、5拍目および6拍目においても同様である。図4に示すコード自動伴奏データを5線譜上に表したものが、図5に示す楽譜である。 In the example of FIG. 4, in the first beat and the second beat, first, the length of 1.5 beats (a quarter note in 4/4 time) is followed by 0.5 beats (4/4). A chord component sound is generated with a note length of 8 notes (time signature), and four bass sounds are sequentially generated with a sound length of 0.5 beats (8/4 notes for 4/4 beats). The same applies to the third and fourth beats and the fifth and sixth beats. The musical score shown in FIG. 5 represents the automatic chord accompaniment data shown in FIG. 4 on a 5-line score.
さらに、本実施の形態においては、伴奏鍵域において、演奏者が押鍵した鍵の間隔に基づいて、コード構成音の順序を変更することができる。コード構成音の順序は、いわゆる3和音の転回形に相当する。転回形には、最低音が根音である場合の基本形、基本形と比較して根音をオクターブ上げることにより、最低音が第3音となる第一転回形、第一転回形と比較して、第3音をオクターブ上げることにより(基本形と比較して、第5音をオクターブ下げることにより)、最低音が第5音となる第二転回形が含まれる。 Furthermore, in this embodiment, the order of chord constituent sounds can be changed in the accompaniment key range based on the interval between keys pressed by the performer. The order of the chord constituent sounds corresponds to a so-called triad inversion. Compared to the first and second inversion forms, the lowest note is the third note by raising the root to an octave compared to the basic and basic forms when the lowest note is the root. The second turning form in which the lowest sound is the fifth sound is included by raising the third sound an octave (by lowering the fifth sound an octave compared to the basic form).
図25は、本実施の形態にかかるコード自動伴奏データの他の例を示す図である。この例では、図4に示す第4のコード構成音は省略されている。その一方、図25に示す例では、コード転回情報が示されている。コード転回情報は、各コードの転回形を示す情報であり、基本形、第一転回形および第二転回形の何れかを示す。コード転回情報は、後述する転回型反映処理(図15のステップ1501)において、コード自動伴奏データに付加される情報である。図25に示すコード自動伴奏データを5線譜上に表したものが、図26に示す楽譜である。
FIG. 25 is a diagram showing another example of the automatic chord accompaniment data according to the present embodiment. In this example, the fourth chord constituent sound shown in FIG. 4 is omitted. On the other hand, in the example shown in FIG. 25, code turn information is shown. The code turning information is information indicating the turning form of each code, and indicates any one of the basic form, the first turning form, and the second turning form. The chord turn information is information added to the chord automatic accompaniment data in a turn type reflection process (
なお、コード自動伴奏データは、コード音伴奏処理(図14)において、その押鍵数に応じてコード構成音が決定され、また、押鍵数が3であるときには、所定の転回形でコード構成音が作られる。したがって、ROM22に、初期的には、コード名、発音開始時刻および音長を、コード自動伴奏データとして格納しておき、コード音伴奏処理において、押鍵数に基づいて、コード構成音を決定し、最終的なコード自動伴奏データを生成しても良い。或いは、ROM22に、コード名、発音開始時刻および音長に加えて、コード構成音を格納しておき、コード音伴奏処理において、ROM22に格納されたコード構成音から、所定のコード構成音を選択して、最終的なコード自動データを生成しても良い。
In the chord accompaniment process (FIG. 14), the chord composition sound is determined according to the number of key presses, and when the number of key presses is 3, the chord auto accompaniment data has a chord configuration in a predetermined turn form. Sound is made. Accordingly, the chord name, the pronunciation start time, and the sound length are initially stored in the
以下、コード自動伴奏データの制御を含む、本実施の形態にかかる電子楽器10において実行される処理についてより詳細に説明する。図6(a)は、本実施の形態にかかる電子楽器において実行されるメインフローの例を示すフローチャートである。また、図6(b)は、本実施の形態にかかるタイマ割り込み処理の例を示す図である。
Hereinafter, processing executed in the electronic
タイマ割り込み処理においては、図6(a)に示すメインフローが実行されているときに、所定の時間間隔で、割込カウンタのカウンタ値がインクリメントされる(ステップ611)。 In the timer interrupt processing, when the main flow shown in FIG. 6A is being executed, the counter value of the interrupt counter is incremented at a predetermined time interval (step 611).
図6(a)に示すように、電子楽器10のCPU21は、電子楽器10の電源が投入されると、RAM23中のデータや、表示部15の画像のクリアクリアを含むイニシャル処理(初期化処理)を実行する(ステップ601)。イニシャル処理(ステップ601)が終了すると、CPU21は、スイッチ群25を構成するスイッチのそれぞれの操作を検出し、検出された操作にしたがった処理を実行するスイッチ処理を実行する(ステップ602)。
As shown in FIG. 6A, when the electronic
たとえば、スイッチ処理(ステップ602)においては、音色指定スイッチや、自動伴奏パターンの種別の指定スイッチ、自動伴奏パターンのオン・オフの指定スイッチなど、種々のスイッチの操作が検出される。自動伴奏パターンがオンとなったときには、CPU21は、演奏モードを、伴奏モードに切り換える。演奏モードを示すデータは、RAM23の所定の領域に指定される。音色や自動伴奏パターンの種別を示すデータも、同様に、RAM23の所定の領域に格納される。
For example, in the switch process (step 602), various switch operations such as a tone color designation switch, an automatic accompaniment pattern type designation switch, and an automatic accompaniment pattern on / off designation switch are detected. When the automatic accompaniment pattern is turned on, the
次いで、CPU21は、鍵盤処理を実行する(ステップ603)。図7は、本実施の形態にかかる鍵盤処理の例をより詳細に示すフローチャートである。鍵盤処理において、CPU21は、鍵盤11の鍵を走査する。鍵の走査結果であるイベント(鍵オン或いはオフ)は、RAM23に一時的に記憶される。CPU21は、RAM23に記憶された鍵の走査結果を参照して、ある鍵についてイベントが有るか否かを判断する(ステップ702)。ステップ702でYesと判断された場合には、CPU11は、当該イベントが生じている鍵が、メロディ鍵域の鍵(メロディ鍵)であるか否かを判断する(ステップ703)。ステップ703でYesと判断された場合には、CPU21は、メロディ鍵処理を実行する(ステップ704)。
Next, the
図8は、本実施の形態にかかるメロディ鍵処理の例をより詳細に示すフローチャートである。図8に示すように、CPU21は、イベントが鍵オンであるか否かを判断する(ステップ801)。ステップ801でYesと判断された場合には、CPU21は、当該鍵オンがあった鍵について発音処理を実行する(ステップ802)。発音処理においては、CPU21は、RAM23に記憶されていたメロディ鍵用の音色データ、および、鍵の音高を示すデータを読み出してRAM23に一時的に記憶する。後述する音源発音処理(図6のステップ605)において、音色や音高を示すデータは音源部26に与えられる。音源部26は、音色および音高を示すデータにしたがって、ROM22の波形データを読み出して、所定の音高の楽音データを生成する。これにより、スピーカ28から所定の楽音が発生する。
FIG. 8 is a flowchart showing in more detail an example of melody key processing according to the present embodiment. As shown in FIG. 8, the
ステップ801でNoと判断された場合には、イベントが鍵オフであったことになる。したがって、CPU21は、鍵オフになった鍵についての消音処理を実行する(ステップ803)。消音処理においては、CPU21は、消音すべき楽音の音高を示すデータを生成し、RAM23に一時的に記憶する。この場合にも、後述する音源発音処理(ステップ605)において、消音すべき楽音の音色および音高を示すデータが、音源部26に与えられる。音源部26は、与えられたデータに基づいて、所定の楽音を消音する。
If it is determined No in
ステップ703でNoと判断された場合には、CPU21は、自動伴奏パターンが演奏中か否かを判断する(ステップ705)。たとえば、ステップ705においては、CPU21は、自動伴奏パターンがオンとなっており演奏モードが伴奏モードであるか否かを判断する。ステップ705でNoと判断された場合には、CPU21は、メロディ鍵処理(ステップ704)を実行する。
When it is determined No in
その一方、ステップ705でYesと判断された場合、つまり、自動伴奏パターンの演奏中であった場合には、CPU21は、伴奏鍵処理を実行する(ステップ706)。図9は、本実施の形態にかかる伴奏鍵処理の一例を示すフローチャートである。図9に示すように、伴奏鍵処理においては、CPU21は、まず、イベントが鍵オンであるか否かを判断する(ステップ901)。ステップ901でYesと判断された場合には、CPU21は、当該鍵の押鍵タイミングが、評価対象範囲であるかどうかを判断する(ステップ902)。評価対象範囲とは、想定操作における押鍵時間に、前後所定の時間を加えた所定の時間範囲である。図3において、想定操作において、1拍目の押鍵時間を符号351で示す。この押鍵時間351の前後に所定の時間を加えた時間範囲(符号350参照)が、評価対象範囲となる。なお、伴奏鍵域における鍵のオンがあった場合(ステップ901でYes)には、当該オンとなった鍵の情報(たとえば鍵番号)がRAM23に格納される。なお、鍵のオフがあった場合(ステップ901でNo)には、たとえば、オフとなった鍵の情報(鍵番号)がRAM23から削除される。
On the other hand, if it is determined Yes in
ステップ902でYesと判断された場合には、CPU21は、タイマをスタートさせて音長カウントを開始する(ステップ903)。なお、本実施の形態においては、複数の押鍵が考えられるが、ステップ902でYesと判断されるのは、評価対象範囲での最初の押鍵についてである。次いで、CPU21は、想定操作における押鍵時刻と、実際の押鍵時刻との間のズレを算出して、タイミング評価値として、RAM23に一時的に記憶する(ステップ904)。たとえば、図3において、1拍目の鍵オンについて考える。想定操作における押鍵時刻は、符号351に示す押鍵時間における立ち上がり時刻である。そこで、「(立ち上がり時刻)−(実際の押鍵時刻)」を算出すればよい。このタイミング評価値は、後述するコード自動伴奏パターン演奏の際に、楽音の発音タイミングの制御に利用される。
If it is determined Yes in
その後、CPU21は、RAM23に一時的に記憶された、押鍵された鍵数を示す押鍵数カウント値をインクリメントする(ステップ905)。押鍵数カウント値は、後述するコード自動伴奏パターン演奏の際に、コード種別を決定するために利用される。なお、ステップ902でNoと判断された場合にも、ステップ905の押鍵数カウント値のインクリメントは実行される。
Thereafter, the
次いで、CPU21は、押鍵数カウント値を参照して、押鍵数が4以上であるか否かを判断する(ステップ906)。本実施の形態において、コード自動伴奏パターンにおけるコード種別を決定するために押鍵数の最高数が4であるため、4以上となった段階(ステップ906でYes)で、CPU21は、押鍵されている鍵のそれぞれの音高を参照して、白鍵と黒鍵との比率を示す白鍵黒鍵比率評価値を算出する(ステップ907)。白鍵黒鍵比率評価値は、たとえば、「黒鍵の押鍵数/白鍵の押鍵数」であっても良いし、「黒鍵の押鍵数/(黒鍵+白鍵)の押鍵数」であっても良い。算出された白鍵黒鍵比率評価値は、RAM23に一時的に記憶される。
Next, the
このように、伴奏鍵域の鍵のオンによってタイマが起動されるとともに、タイミング評価値、押鍵数カウント値、白鍵黒鍵比率表値が得られ、RAM23に一時的に記憶される。
As described above, the timer is started by turning on the key in the accompaniment key range, and the timing evaluation value, the key press count value, and the white key / black key ratio table value are obtained and temporarily stored in the
ステップ906でNoと判断された場合には、CPU21は、押鍵数カウント値を参照して、押鍵数が3であるかを判断する(ステップ908)。ステップ908でNoと判断された場合には処理を終了する。その一方、ステップ908でYesと判断された場合には、CPU21は、指間度数評価処理を実行する(ステップ909)。指間度数評価処理においては、CPU21は、後述する処理にしたがって、コード自動伴奏パターンにしたがって発音する和音の転回形を示すコード転回情報を決定し、決定されたコード転回情報を、RAM23に一時的に記憶する。
When it is determined No in
ステップ901でNoと判断された場合、つまり、鍵オフ(離鍵)と判断された場合には、CPU21は、当該鍵の離鍵タイミングが、評価対象範囲であるかどうかを判断する(ステップ910)。評価対象範囲は、前述したステップ902におけるものと同様である。ステップ910でYesと判断された場合には、CPU21は、タイマを停止して、音長カウントを終了する(ステップ911)。CPU21は、タイマの値を、操作音長値として、RAM23に一時的に記憶する。
If it is determined No in
次いで、CPU21は、RAM23に一時的に記憶された押鍵数カウント値をデクリメントする(ステップ912)。また、CPU21は、押鍵数カウント値を参照して、押鍵数が4以上であるか否かを判断する(ステップ913)。ステップ913でYesと判断された場合には、CPU21は、押鍵されている鍵のそれぞれの音高を参照して、白鍵と黒鍵との比率を示す白鍵黒鍵比率評価値を算出する(ステップ914)。
Next, the
また、ステップ913でNoと判断された場合には、CPU21は、押鍵数カウント値を参照して、押鍵数が3であるかを判断する(ステップ915)。ステップ915でNoと判断された場合には処理を終了する。その一方、ステップ915でYesと判断された場合には、CPU21は、指間度数評価処理を実行する(ステップ916)。
If NO is determined in
次に、指間度数評価処理についてより詳細に説明する。図20(a)〜(c)は、それぞれ、鍵盤においてCMaj(Cメジャー)の和音を演奏したときに押鍵される鍵を示す図である。図20(a)は、基本形の和音で押鍵される鍵(下から、C、E、G)を示している。一般に、和音は左手の小指、中指および親指にて、最低音、中間音および最高音がそれぞれ押鍵される。そこで、本実施の形態において、指間の度数とは、小指、中指、親指で押鍵された鍵のそれぞれの間の半音の数、すなわち、押鍵された鍵の鍵番号の差をいう。 Next, the inter-finger frequency evaluation process will be described in more detail. FIGS. 20A to 20C are diagrams showing keys that are pressed when a chord of CMaj (C major) is played on the keyboard. FIG. 20A shows keys (C, E, and G from the bottom) that are pressed with a basic chord. In general, the chord is pressed by the little finger, middle finger, and thumb of the left hand, respectively, with the lowest, middle, and highest sounds. Therefore, in the present embodiment, the frequency between fingers refers to the number of semitones between keys pressed with the little finger, middle finger, and thumb, that is, the difference between the key numbers of the keys pressed.
CMajの基本形において、最低音Cと中間音Eとの間では、鍵番号の差は4であるため、最低音と中間音との指間の度数D1=4となる。また、中間音Eと最高音Gとの間では、鍵番号の差は3であるため、中間音と最高音との指間の度数D2=3となる。また、最低音と最高音との指間の度数D3=D1+D2=7となる。 In the basic form of CMaj, since the key number difference is 4 between the lowest sound C and the intermediate sound E, the frequency D1 = 4 between the lowest sound and the intermediate sound is between fingers. Further, since the key number difference between the intermediate sound E and the highest sound G is 3, the frequency D2 = 3 between the fingers of the intermediate sound and the highest sound is obtained. Further, the frequency D3 = D1 + D2 = 7 between the fingers of the lowest and highest sounds.
図20(b)は、第一転回形の和音で押鍵される鍵(下から、E、G、C)を示している。CMajの第一転回形において、最低音Eと中間音Gとの指間の度数D1=3であり、中間音Gと最高音Cとの指間の度数D2=5である。また、最低音と最高音との指間の度数D3=8である。図20(c)は、第二転回形の和音で押鍵される鍵(下から、G、C、E)を示している。CMajの第二転回形において、最低音Gと中間音Cとの指間の度数D1=5であり、中間音Cと最高音Eとの指間の度数D2=4である。また、最低音と最高音との指間の度数D3=9である。 FIG. 20 (b) shows keys (E, G, C from the bottom) that are pressed with the first inversion chord. In the first turning form of CMaj, the frequency D1 = 3 between fingers of the lowest note E and the intermediate tone G, and the frequency D2 = 5 between fingers of the intermediate note G and the highest note C. Further, the frequency D3 = 8 between fingers of the lowest and highest sounds. FIG. 20 (c) shows keys (G, C, E from the bottom) that are pressed with the second inversion chord. In the second turning form of CMaj, the frequency D1 = 5 between fingers of the lowest sound G and the intermediate sound C, and the frequency D2 = 4 between fingers of the intermediate sound C and the highest sound E. Further, the frequency D3 = 9 between the fingers of the lowest and highest sounds.
図21は、メジャーコードおよびマイナーコードのそれぞれにおける、基本形、第一転回形、第二転回形について、最低音から中間音、中間音から最高音、最低音から最低音のそれぞれの指間の度数D1、D2、D3を示す表である。表2100においては、メジャーコード(Maj)の指間度数(符号2110参照)、および、マイナーコード(min)の指間度数(符号2120参照)が示される。また、表2100において、指間度数の下に、全体の度数、つまり、最低音から最高音までの指間度数D3に対する比率(D1/D3或いはD2/D3)が示されている。たとえば、メジャーコード(Maj)において、転回形によって、最低音から中間音までの指間度数D1の、最低音から最高音までの指間度数D3に対する比率に差異があることがわかる。 FIG. 21 shows the frequency between the fingers of the lowest tone to the middle tone, the middle tone to the highest tone, and the lowest tone to the lowest tone for each of the major chords and minor chords in the basic form, first turn form, and second turn form. It is a table | surface which shows D1, D2, and D3. In the table 2100, the inter-finger frequency of the major code (Maj) (see reference numeral 2110) and the inter-finger frequency of the minor code (min) (see reference numeral 2120) are shown. In Table 2100, the overall frequency, that is, the ratio (D1 / D3 or D2 / D3) to the frequency between fingers D3 from the lowest sound to the highest sound is shown below the frequency between fingers. For example, in the major chord (Maj), it can be seen that there is a difference in the ratio of the finger frequency D1 from the lowest sound to the intermediate sound to the finger frequency D3 from the lowest sound to the highest sound, depending on the turning form.
また、図22は、メジャーコードCおよびマイナーコードAmのそれぞれにおける、基本形、第一転回形、第二転回形について、最低音から中間音、中間音から最高音、最低音から最低音のそれぞれの、白鍵数の差を示す表である。図22の表2100に従うと、直感的には以下のことが理解できる。 FIG. 22 shows the basic form, the first turning form, and the second turning form for each of the major chord C and the minor chord Am, from the lowest tone to the middle tone, from the middle tone to the highest tone, and from the lowest tone to the lowest tone. It is a table | surface which shows the difference of the number of white keys. According to Table 2100 in FIG. 22, the following can be intuitively understood.
基本形においては、最低音から中間音、中間音から最高音までの白鍵数は等しく、
第1転回形においては、最低音から中間音までの白鍵数の方が、中間音から最高音までの白鍵数より小さく、また、
第2転回形においては、最低音から中間音までの白鍵数の方が、中間音から最高音までの白鍵数より大きい。
In the basic form, the number of white keys from the lowest to middle and from the middle to highest is equal.
In the first turn form, the number of white keys from the lowest tone to the middle tone is smaller than the number of white keys from the middle tone to the highest tone,
In the second turn form, the number of white keys from the lowest tone to the middle tone is larger than the number of white keys from the middle tone to the highest tone.
本実施の形態においては、上述した指間度数の差異、或いは、白鍵数の差異、つまりは、演奏者の指の開き具合に応じて、発音すべきコードの転回形を決定している。 In the present embodiment, the inversion form of the chord to be generated is determined in accordance with the above-described difference in the frequency between fingers or the difference in the number of white keys, that is, the degree of opening of the player's fingers.
図23は、本実施の形態にかかる指間度数評価処理の例を示すフローチャートである。図23に示すように、CPU21は、RAM23に格納された伴奏鍵域におけるオン状態の鍵の情報を取得して、指間度数D1、D2およびD3を算出する(ステップ2301)。
以下の演算では、D1およびD3のみが用いられる。D3は、D1とD2との和であるため、D1およびD2を求めた上で、これらを加算してD3を求めても良いし、D2を求めることなく、鍵の情報(鍵番号)から直接D3を求めても良い。
FIG. 23 is a flowchart illustrating an example of the inter-finger frequency evaluation process according to the present embodiment. As shown in FIG. 23, the
In the following calculation, only D1 and D3 are used. Since D3 is the sum of D1 and D2, after obtaining D1 and D2, these may be added to obtain D3, or directly from the key information (key number) without obtaining D2. D3 may be obtained.
次いで、CPU21は、最低音から中間音までの指間度数D1の、最低音から最高音までの指間度数D3に対する比率D1/D3の値の範囲を調べる(ステップ2302)。比率D1/D3について、0.4<D1/D3≦0.6である場合には、CPU21は、コード転回情報として、基本形を示す情報をRAM23に格納する(ステップ2303)。比率D1/D3について、0.4≧D1/D3である場合には、CPU21は、コード転回情報として、第一転回形を示す情報をRAM23に格納する(ステップ2304)。また、0.6<D1/D3である場合には、CPU21は、コード転回情報として、第二転回形を示す情報をRAM23に格納する(ステップ2305)。コード転回情報は、後述するコード音伴奏処理(図10のステップ1007)において、発音するコード構成音の順序を決定するために利用される。
Next, the
鍵盤処理(図6のステップ603)が終了すると、CPU21は、ソング伴奏処理を実行する(ステップ604)。図10は、本実施の形態にかかるソング伴奏処理の例を示す図である。図10に示すように、CPU21は、自動伴奏パターンが演奏中か否かを判断する(ステップ1001)。ステップ1001でYesと判断された場合には、CPU21は、自動伴奏パターンを構成する楽音(自動伴奏におけるメロディ音、オブリガート音、コード音(和音による伴奏音)、リズム音)を生成する。自動伴奏データには、上述したように概略的には4つの種類の楽音、すなわち、メロディ音、オブリガート音、コード音、リズム音のデータが含まれる。メロディ音およびオブリガート音によってメロディ自動伴奏パターンが構成され、コード音によってコード自動伴奏パターンが構成される。また、リズム音によってリズムパターンが構成される。
When the keyboard process (step 603 in FIG. 6) ends, the
この楽音の生成には、概略的には、以下の4つの処理、割込カウンタ値を参照して、自動伴奏パターンの経過時間を管理するための処理が実行される基準時間処理(ステップ1010)、コード音についての経過時間(伴奏経過時間)を管理する処理が実行される伴奏時間処理(ステップ1011)、ステップ1010で生成される基準時間に基づいて楽音を生成する基準経過時間によるイベント処理(ステップ1012)、および、ステップ1011で生成される伴奏経過時間に基づいて楽音を生成する伴奏経過時間によるイベント処理(ステップ1013)が含まれる。
For the generation of this musical tone, a reference time process (step 1010) in which a process for managing the elapsed time of the automatic accompaniment pattern is executed with reference to the following four processes, that is, the interrupt counter value. , An accompaniment time process (step 1011) in which a process for managing the elapsed time (accompaniment elapsed time) for the chord sound is executed, and an event process by a reference elapsed time for generating a musical sound based on the reference time generated in step 1010 ( Step 1012) and event processing (Step 1013) by accompaniment elapsed time for generating a musical tone based on the accompaniment elapsed time generated in
基準時間処理(ステップ1010)においては、CPU21は、基準時間カウント処理(ステップ1002)および拍先頭処理(ステップ1003)を実行する。
In the reference time process (step 1010), the
図11(a)は、本実施の形態にかかる基準時間カウント処理の例を示すフローチャート、図11(b)は、拍先頭処理の例を示すフローチャートである。基準時間カウント処理においては、CPU21は、割込カウンタのカウンタ値を取得する(ステップ1101)。次いで、CPU21は、予めRAM23の所定の領域に格納されていた伴奏経過時間に、取得したカウンタ値を加算して、基準経過時間を更新する(ステップ1102)。更新された基準経過時間は、RAM23の所定の領域に格納される。
FIG. 11A is a flowchart showing an example of the reference time counting process according to the present embodiment, and FIG. 11B is a flowchart showing an example of the beat start process. In the reference time counting process, the
次いで、CPU21は、RAM23の所定の領域に格納されていた拍内カウント値に、取得したカウンタ値を加算して、拍内カウント値を更新する(ステップ1103)。拍内カウント値は、1拍の間における時間的な位置を示す値である。更新された拍内カウント値も、RAM23の所定の領域に格納される。その後、次回の基準時間カウント処理で使用するために、CPU21は、割込カウンタのカウンタ値をクリアする(ステップ1104)。
Next, the
また、拍先頭処理においては、CPU21は、拍内カウント値を参照して、処理時が、拍の先頭に相当するか否かを判断する(ステップ1111)。ステップ1111でYesと判断された場合には、CPU21は、過去1拍以上にわたって押鍵が無いか否かを判断する(ステップ1112)。ステップ1112でYesと判断された場合には、CPU21は、コード音停止処理を実行する(ステップ1113)。コード音停止処理(ステップ1113)においては、CPU21は、所定の期間(たとえば1小節)だけ、メロディ音、オブリガート音およびコード音の発音を停止する。すなわち、メロディ音、オブリガート音およびコード音のそれぞれに対応する音色および音高の楽音データの発音を、音源部26に対して指示しない。
Further, in the beat start process, the
図3において、ユーザが伴奏鍵域の鍵を、所定の期間だけ押鍵しないことにより(符号313参照)、自動伴奏パターンのうちメロディ音、オブリガート音を含むメロディ自動伴奏パターン、および、コード音を含むコード自動伴奏パターンの発音が停止され、リズムパターンのみが発音されている(符号323、333参照)。これは、拍先頭処理のステップ1111〜1113が実行された結果である。
In FIG. 3, when the user does not press the key in the accompaniment key range for a predetermined period (see reference numeral 313), the melody automatic accompaniment pattern including the melody sound and obligato sound among the automatic accompaniment patterns, and the chord sound are displayed. The automatic chord accompaniment pattern including the sound is stopped and only the rhythm pattern is sounded (see
次に、ステップ1011の伴奏経過時間処理について説明する。 伴奏経過時間処理には、伴奏経過時間カウント処理(ステップ1003)が含まれる。図12は、本実施の形態にかかる経過時間カウント処理の例を示すフローチャートである。図12に示すように、CPU21は、RAM23に格納された基準経過時間を取得する(ステップ1201)。次いで、CPU21は、RAM23に格納されたタイミング評価値を取得する(ステップ1202)。CPU21は、タイミング評価値を伴奏経過時間に反映させる(ステップ1203)。ステップ1203においては、基準経過時間に、タイミング評価値を加算することで、コード自動伴奏パターンにおけるコード音の発音タイミングを規定する伴奏経過時間を得る。
Next, the accompaniment elapsed time processing in
図16において、想定操作および基準経過時間を、それぞれ符号1601、1602で示す。なお、基準経過時間において、n、n+1、・・・は、基準経過時間に基づく内部時刻を示す。
In FIG. 16, the assumed operation and the reference elapsed time are indicated by
いわゆる前ノリによって、想定操作における押鍵タイミングよりも早い時刻に押鍵がされていた場合には、タイミング評価値d1(d1<0)を考慮して、伴奏経過時間=(基準経過時間−d1)となり、伴奏経過時間に基づく内部時刻は、基準経過時間に基づく内部時刻よりも、前倒しとなる(符号1611参照)。 When the key is pressed at a time earlier than the key pressing timing in the assumed operation due to the so-called previous movement, the accompaniment elapsed time = (reference elapsed time−d1) in consideration of the timing evaluation value d1 (d1 <0). ), And the internal time based on the accompaniment elapsed time is ahead of the internal time based on the reference elapsed time (see reference numeral 1611).
その一方、いわゆる後ノリによって想定操作における押鍵タイミングよりも遅い時刻に押鍵がされていた場合には、タイミング評価値d2(d2>0)を考慮して、伴奏経過時間=(基準経過時間−d2)となり、伴奏経過時間に基づく内部時刻は、基準経過時間に基づく内部時刻よりも、遅いものとなる(符号1621参照)。 On the other hand, when the key is pressed at a time later than the key pressing timing in the assumed operation due to the so-called rear glue, the accompaniment elapsed time = (reference elapsed time) in consideration of the timing evaluation value d2 (d2> 0). -D2), and the internal time based on the accompaniment elapsed time is later than the internal time based on the reference elapsed time (see reference numeral 1621).
次に、ステップ1012の基準経過時間によるイベント処理について説明する。基準経過時間によるイベント処理には、メロディ処理(ステップ1005)およびリズム処理(ステップ(ステップ1006)が含まれる。図13(a)は、本実施の形態にかかるメロディ処理の例を示すフローチャート、図13(b)は、リズム処理の例を示すフローチャートである。
Next, event processing based on the reference elapsed time in
図13(a)に示すように、メロディ処理において、CPU21は、RAM23に記憶された基準経過時間を参照する(ステップ1301)。次いで、CPU21は、メロディ自動伴奏パターンを構成するメロディ音およびオブリガート音について、メロディ自動伴奏パターンのデータを参照して、次のイベントを処理すべき時間(ソング時間Δt)が経過しているか否かを判断する(ステップ1302)。
As shown in FIG. 13A, in the melody process, the
ステップ1302でYesと判断された場合には、CPU21は、メロディ自動伴奏パターンのデータから、メロディ音について次のイベントに相当するレコード、および、オブリガート音についての次のイベントに相当するレコードを読み出して(ステップ1303)、当該レコード中の音色、音高および音長を示すデータをRAM23に一時的に記憶する(ステップ1304)。後述するように、音源発音処理(図6のステップ605)において、ステップ1304において一時的に記憶されたメロディ音およびオブリガート音の音色、音高および音長を示すデータは、音源部26に与えられる。
If it is determined Yes in
なお、同一時刻で複数の楽音を生成すべき場合があるため、ステップ1304の後、再度ステップ1301に戻り、ステップ1302でNoと判断されるまで処理が繰り返される。
Since a plurality of musical sounds may be generated at the same time, after
図13(b)に示すように、リズム処理において、CPU21は、RAM23に記憶された基準経過時間を参照する(ステップ1311)。次いで、CPU21は、リズムパターンを構成するリズム音について、リズムパターンのデータを参照して、次のイベントを処理すべき時間(リズム時間Δt)が経過しているか否かを判断する(ステップ1312)。
As shown in FIG. 13B, in the rhythm process, the
ステップ1312でYesと判断された場合には、CPU21は、リズムパターンのデータから、リズム音について次のイベントに相当するレコードを読み出して(ステップ1313)、当該リズム音の音色を示すデータをRAM23に一時的に記憶する(ステップ1314)。後述するように、音源発音処理(ステップ605)において、ステップ1314において一時的に記憶された、リズム音の音色を示すデータが音源部26に与えられる。
If YES is determined in
なお、同一時刻で複数の楽音(リズム音)を生成すべき場合があるため、ステップ1404の後、再度ステップ1311に戻り、ステップ1312でNoと判断されるまで処理が繰り返される。
Since a plurality of musical sounds (rhythm sounds) should be generated at the same time, the process returns to step 1311 again after
次に、ステップ1012の伴奏経過時間によるイベント処理について説明する。伴奏経過時間によるイベント処理には、コード音伴奏処理(ステップ1007)が含まれる。図14は、本実施の形態にかかるコード音伴奏処理の例を示すフローチャートである。図14に示すように、コード音伴奏処理においては、CPU21は、CPU21は、RAM23に記憶された伴奏経過時間を参照する(ステップ1401)。次いで、CPU21は、コード音について、コード自動伴奏パターンのデータを参照して、次のイベントを処理すべき時間(伴奏時間Δt)が経過しているか否かを判断する(ステップ1402)。メロディ処理(図13(a))およびリズム処理(図13(b))においては、基準経過時間が参照されているが、コード音伴奏処理においては、伴奏経過時間が参照される。伴奏経過時間は、図12および図16を参照して説明したように、想定操作における押鍵タイミングと実際の押鍵のタイミングとの差異であるタイミング評価値が反映された伴奏経過時間である。
Next, event processing based on the accompaniment elapsed time in
ステップ1402でYesと判断された場合には、CPU21は、コード自動伴奏パターンのデータから、コード音について次のイベントに相当するレコードを読み出す(ステップ1403)。また、コード音伴奏処理では、演奏者による実際の押鍵における音長や押鍵数にしたがって、音長やコード名を変更するため、また、発音するコード構成音の順序を、コード転回情報にしたがって変更するため、CPU21は、操作反映処理を実行する(ステップ1404)。図15は、本実施の形態にかかる操作反映処理の例を示すフローチャートである。
If it is determined Yes in
図15に示すように、操作反映処理において、CPU21は、ステップ909で得られてRAM23に記憶された操作音長値を参照して、発音すべきコード音の音長に反映させる処理を実行する(ステップ1501)。コード音の音長は以下のように算出される。
As shown in FIG. 15, in the operation reflection process, the
音長=(操作音長値/想定操作における想定音長値)*コード音伴奏データ初期値にて示される音長
ここに、想定操作における想定音長値は、図3に示す想定操作における押鍵時間に相当する。
Sound length = (operation sound length value / assumed sound length value in the assumed operation) * the sound length indicated by the chord sound accompaniment data initial value. Corresponds to key time.
また、休符の長さは、次のコード音の発音タイミングまでのステップ時間から、算出された音長を減じた値となる。図17は、操作反映処理において得られたコード音の再生音長を説明する図である。伴奏例1では、音符の音長t2は、コード音伴奏データ初期値にて示される音長t1の半分であり、これは、(操作音長値/想定操作における想定音長値)=0.5であった場合である。また、伴奏例2では、音符の音長t3は、コード音伴奏データ初期値にて示される音長t1の1.5倍であり、これは、操作音長値/想定操作における想定音長値)=1.5であった場合である。 The rest length is a value obtained by subtracting the calculated sound length from the step time until the next chord sound generation timing. FIG. 17 is a diagram for explaining the playback sound length of the chord sound obtained in the operation reflection process. In the accompaniment example 1, the note sound length t2 is half of the sound length t1 indicated by the chord sound accompaniment data initial value, which is (operation sound length value / assumed sound length value in assumed operation) = 0. This is the case. In the accompaniment example 2, the note length t3 is 1.5 times the length t1 indicated by the chord sound accompaniment data initial value, and this is the operation sound length value / the assumed sound length value in the assumed operation. ) = 1.5.
次いで、CPU21は、押鍵数カウント値を参照して、押鍵数にしたがって、発音すべきコード構成音を決定する(ステップ1502)。図18は、本実施の形態にかかる押鍵数反映処理の例を示すフローチャートである。図18に示すように、CPU12は、RAM23に記憶された押鍵数カウント値を取得して参照する(ステップ1801)。前述したように、本実施の形態において、コード自動伴奏パターンのデータは、ベース音、第1のコード構成音(ルート音)、第2のコード構成音(第3音)、第3のコード構成音(第5音)、第4のコード構成音(第7音、テンションノート等)を含む(図19の符号1900参照)。特に、第4のコード構成音(図19の符号1910)は、第6音、第7音、第9音などを含む3和音以外のコード構成音(便宜上、「テンション付加コード構成音」と称する:符号1904)、或いは、ルート音のオクターブ音に相当する楽音を付加したコード構成音(便宜上、「テンション非付加コード構成音」と称する:符号1905)のいずれかが選択されるようになっている。
Next, the
押鍵数カウント値が「1」である場合には、CPU21は、発音すべきコード構成音が、ベース音だけであること(図19の符号1901参照)を示すコード音制御情報を生成して、RAM23に一時的に記憶する(ステップ1802)。押鍵数カウント値が「2」である場合には、CPU21は、発音すべきコード構成音が、ベース音、第1のコード構成音(ルート)および第3のコード構成音(第5音)を含むこと(符号1902参照)を示すコード音制御情報を生成して、RAM23に一時的に記憶する(ステップ1803)。
When the key press count value is “1”, the
また、押鍵数カウント値が「3」である場合には、CPU21は、コード構成音が、ベース音、第1のコード構成音、第2のコード構成音および第3のコード構成音を含むこと、つまり、ベース音および3和音であること(符号1903参照)を示すコード音制御情報を生成して、RAM23に一時的に記憶する(ステップ1804)。さらに、押鍵数カウント値が「4」以上である場合には、コード構成音が、ベース音、第1のコード構成音、第2のコード構成音、第3のコード構成音および第4のコード構成音を含むことを示すコード音制御情報を生成して、RAM23に記憶する(ステップ1805)。
Further, when the key press count value is “3”, the
押鍵数判断処理(ステップ1502)が終了すると、CPU21は、押鍵数カウント値が4以上であるか否かを判断する(ステップ1503)。ステップ1503でYesと判断された場合には、CPUは、和音反映処理を実行する(ステップ1504)。本実施の形態にかかる和音反映処理において、CPU21は、RAM23に記憶された白鍵黒鍵比率評価値を参照して、押鍵された鍵に黒鍵が含まれる場合には、第4のコード構成音として、第7音やテンションノート等を含むテンション付加コード構成音を選択する(図9の符号1904参照)。その一方、押鍵された鍵に黒鍵が含まれない場合には、CPU21は、第4のコード構成音として、テンションコード非付加コード構成音を選択する(図9の符号1905参照)。選択されたコード音制御情報は、RAM23に一時的に記憶される。
When the key pressing number determination process (step 1502) ends, the
ステップ1503でNoと判断された場合、CPU21は、押鍵数カウント値が3であるかを判断する(ステップ1505)。ステップ1505でYesと判断された場合には、CPU21は、転回形変換反映処理を実行する(ステップ1506)。転回形変換反映処理においては、押鍵数カウント値が3であるときに、指間度数評価処理において得られたコード転回情報にしたがって、コード構成音の順序が変更される。
When it is determined No in
より詳細には、CPU21は、RAM23に格納されたコード転回情報が、基本形を示すもので無いかを判断する(ステップ1511)。ステップ1511でNo、つまり、コード転回情報が基本形を示すものである場合には、そのまま処理を終了する。つまり、音高の低い方から、ルート音、第3音、第5音の順序のコード構成音とするコード音制御情報がそのまま維持される。
More specifically, the
ステップ1512でYesと判断された場合には、CPU21は、コード基本情報が第一転回形を示すものであるかを判断する(ステップ1512)。ステップ1512でYesと判断された場合には、ルート音を1オクターブアップさせる(ステップ1513)。これにより、音高の低い方から、第3音、第5音、ルート音という順序を示す情報を含むコード音制御情報が生成され、RAM23に格納される。
When it is determined Yes in
ステップ1512でNoと判断されることは、コード転回情報が、第二転回形を示すものである。したがって、CPU21は、第5音を1オクターブダウンさせる(ステップ1514)。これにより、音高の低い方から、第5音、ルート音、第3音という順序を示す情報を含むコード音制御情報が生成され、RAM23に格納される。
It is determined as No in
その後、CPU21は、コード構成音の音色、決定されたコード構成音およびコード構成音の順序に基づいて、和音音を構成する楽音のそれぞれの音高、音長を示すデータをRAM23に一時的に記憶する(ステップ1405)。後述するように、音源発音処理(図6のステップ605)において、ステップ1404において一時的に記憶された音色、音高および音長を示すデータは、音源部26に与えられる。
Thereafter, the
なお、コード音伴奏処理では、同一時刻で複数の楽音(和音)を生成すべきであるため、ステップ1404の後、再度ステップ1401に戻り、ステップ1402でNoと判断されるまで処理が繰り返される。
In the chord sound accompaniment process, a plurality of musical tones (chords) should be generated at the same time. Therefore, after
ソング伴奏処理(図6のステップ604)が終了すると、CPU21は、音源発音処理を実行する(ステップ605)。音源発音処理において、CPU21は、たとえば、メロディ鍵処理(図7のステップ704)で生成された、発音すべき楽音の音色および音高を示すデータを音源部26に与え、或いは、消音すべき楽音の音色および音高を示すデータを音源部26に与える。また、CPU21は、ソング伴奏処理(図10)において生成された、メロディ音やオブリガート音の音色、音高および音長を示すデータを、音源部26に与えるとともに、リズム音の音色を示すデータを、音源部26に与える。さらに、CPU21は、コード構成音の音色、コード構成音それぞれの音高および音長を含むデータを、音源部26に与える。
When the song accompaniment process (step 604 in FIG. 6) ends, the
音源部26は、音色、音高、音長等を示すデータにしたがって、ROM22の波形データを読み出して、所定の楽音データを生成する。これにより、スピーカ28から所定の楽音が発生する。
The
音源発音処理(ステップ605)が終了すると、CPU21は、その他の処理(たとえば、表示部15への画像表示など:ステップ606)を実行して、ステップ602に戻る。
When the sound source sound generation process (step 605) ends, the
本実施の形態によれば、CPU21は、操作された複数の鍵について、2つの鍵の間隔を示す指間度数を得て、指間度数のそれぞれに基づいて、コードの転回形を決定する。これにより、演奏者による押鍵の際の指のフォームにしたがってコードの転回形を変化させることができる。したがって、演奏者が、実際のコード演奏の際の鍵名を知らない場合であっても、指のフォームおよびそのフォームの指にて押鍵された鍵の間隔に基づいて適切な転回形のコード構成音を発音することができる。
According to the present embodiment, the
特に、本実施の形態においては、CPU21は、操作された鍵が3つの場合に、最低音に対応する鍵から中央の音に相当する鍵の間の度数に基づいて転回形を決定している。一般に、左手でコードを演奏する場合には、小指、中指或いは人差し指、および、親指の3つの指で鍵を押鍵することが多い。小指と、中指或いは人差し指で押鍵される鍵の間隔を考慮して、適切なコード転回形を決定することができる。
In particular, in the present embodiment, when there are three operated keys, the
さらに、本実施の形態においては、最低音に対応する鍵から中央の音に相当する鍵の間の度数の、最低音に対応する鍵から最高音に相当する鍵の間の度数に対する比率に基づいて、転回形を決定する。すなわち、小指と中指或いは人差し指との間隔と、小指と親指との間隔を考慮して転回形を決定する。これにより、より押鍵した指のフォームにしたがった適切なコード転回形を決定することが可能となる。 Further, in the present embodiment, the frequency between the key corresponding to the lowest sound and the key corresponding to the middle sound is based on the ratio to the frequency between the key corresponding to the lowest sound and the key corresponding to the highest sound. To determine the turning form. That is, the turning form is determined in consideration of the distance between the little finger and the middle finger or the index finger and the distance between the little finger and the thumb. This makes it possible to determine an appropriate code turning form according to the form of the finger that has been pressed more.
本発明は、以上の実施の形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。 The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the claims, and these are also included in the scope of the present invention. Needless to say.
たとえば、前記実施の形態においては、図23に示すように、メジャーコード(Maj)、マイナーコード(min)を区別無く、最低音から中間音までの指間度数D1の、最低音から最高音までの指間度数D3に対する比率D1/D3の値の範囲にしたがって、コード転回情報を決定しているが、これに限定されず、メジャーコード(Maj)およびマイナーコード(min)を区別して、それぞれについてコード転回情報を決定しても良い。 For example, in the above-described embodiment, as shown in FIG. 23, from the lowest sound to the highest sound with the frequency D1 between fingers from the lowest sound to the intermediate sound without distinguishing between the major chord (Maj) and the minor chord (min). The code turn information is determined according to the range of the value of the ratio D1 / D3 to the inter-finger frequency D3. However, the present invention is not limited to this, and the major code (Maj) and the minor code (min) are distinguished from each other. Code turning information may be determined.
図24は、他の実施の形態にかかる指間度数評価処理の例を示すフローチャートである。図24において、ステップ2401は、図23のステップ2302と同様である。次いで、CPU21は、コード自動伴奏パターンを参照して、メジャーコードであるかを判断する(ステップ2402)。ステップ2402でYesと判断された場合に引き続いて実行されるステップ2403〜2406は、図23のステップ2302〜ステップ2305とほぼ同様である。
FIG. 24 is a flowchart illustrating an example of the inter-finger frequency evaluation process according to another embodiment. In FIG. 24,
ただし、ステップ2403〜2406においては、比率D1/D3について、0.52<D1/D3≦0.62である場合には、CPU21は、コード転回情報として、基本形を示す情報をRAM23に格納する(ステップ2404)。比率D1/D3について、0.52≧D1/D3である場合には、CPU21は、コード転回情報として、第一転回形を示す情報をRAM23に格納する(ステップ2405)。また、0.62<D1/D3である場合には、CPU21は、コード転回情報として、第二転回形を示す情報をRAM23に格納する(ステップ2406)。
However, in
ステップ2302でNo、すなわち、コード自動伴奏パターンがマイナーコードである場合にも、CPU21は、メジャーコードと略同様の処理(ステップ2407〜2410)を実行する。このステップ2407〜2410も、図23のステップ2302〜ステップ2305とほぼ同様である。
Even if No in
ただし、ステップ2407〜2410においては、比率D1/D3について、0.38<D1/D3≦0.48である場合には、CPU21は、コード転回情報として、基本形を示す情報をRAM23に格納する(ステップ2408)。比率D1/D3について、0.48≧D1/D3である場合には、CPU21は、コード転回情報として、第一転回形を示す情報をRAM23に格納する(ステップ2409)。また、0.48<D1/D3である場合には、CPU21は、コード転回情報として、第二転回形を示す情報をRAM23に格納する(ステップ2410)。
However, in
上記他の実施の形態においては、コード名がメジャーコードであるか、マイナーコードであるかにより、コード転回形を判断する要素を変化させて、より指のフォームに合致したコード転回形を決定できるようにしている。 In the other embodiments described above, it is possible to determine the code turning form that more closely matches the form of the finger by changing the element that determines the code turning form depending on whether the code name is a major code or a minor code. I am doing so.
特に、上記他の実施の形態においては、前記最低音に対応する演奏操作子から中央の音に相当する演奏操作子の間の度数の、前記最低音に対応する演奏操作子から最高音に相当する演奏操作子の間の度数に対する比率について、コード名がメジャーコードの場合と、前記コード名がマイナーコードの場合とで、基本形、第1転回形、或いは、第2転回形を判断するための値の範囲を変化させている。たとえば、基本形と判断される際の比率の範囲(最大値および最小値)は、コード名がマイナーコードである場合の方が、双方とも小さな値(最小値:0.38、最大値:0.48)としている。これは、基本形において、マイナーコードの場合には、メジャーコードの場合よりも、最低音と中間音との間隔が小さくなることに基づいている。 In particular, in the other embodiments described above, the frequency between the performance operator corresponding to the lowest sound and the performance operator corresponding to the center sound corresponds to the highest sound from the performance operator corresponding to the lowest sound. For determining the ratio between the performance operators to be performed, whether the chord name is a major chord or the chord name is a minor chord, the basic form, the first turn form, or the second turn form The range of values is changed. For example, the ratio range (maximum value and minimum value) for determining the basic form is smaller when the code name is a minor code (minimum value: 0.38, maximum value: 0. 48). This is based on the fact that, in the basic form, the interval between the lowest tone and the intermediate tone is smaller in the case of minor chords than in the case of major chords.
また、前記実施の形態においては、自動伴奏モードにおいて、伴奏鍵域における実際の押鍵タイミング、および、押鍵時間によって、自動伴奏パターンのうち、コード自動伴奏パターンの発音タイミングおよび発音時間(音長)を制御しているが、これに限定されるものではなく、メロディ自動伴奏パターンのメロディ音やオブリガート音の発音タイミングや音長を制御しても良い。 In the above embodiment, in the automatic accompaniment mode, the automatic chord accompaniment pattern sounding timing and sounding time (sound length) of the automatic accompaniment pattern are determined according to the actual key pressing timing and key pressing time in the accompaniment key range. However, the present invention is not limited to this, and the sound generation timing and the sound length of the melody sound or obligato sound of the melody automatic accompaniment pattern may be controlled.
また、前記実施の形態においては、想定操作における押鍵タイミングは拍の先頭であり、実際の押鍵タイミングと想定操作における押鍵タイミングとの比較や、押鍵時間の比較は拍ごとに行なわれるが、これに限定されるものではなく、複数拍(たとえば、2拍)ごと、あるいは、小節ごとであっても良い。 In the above embodiment, the key pressing timing in the assumed operation is the beginning of the beat, and the comparison between the actual key pressing timing and the key pressing timing in the assumed operation and the key pressing time are performed for each beat. However, the present invention is not limited to this, and may be every plural beats (for example, two beats) or every measure.
さらに、前記実施の形態においては、押鍵数カウント値が「4」以上であって、かつ、押鍵された鍵に黒鍵が含まれる場合には、CPU21は、第4のコード構成音として、第7音やテンションノート等を含むテンション付加コード構成音、つまり、より複雑なコードネームとなるコード構成音を選択している。しかしながら、これに限定されるものではなく、黒鍵および白鍵の割合に基づいて、押鍵された鍵のうち、黒鍵の割合が、白鍵の割合以上であれば、テンション付加構成音を選択しても良い。
Furthermore, in the above embodiment, when the key press count value is “4” or more and the black key is included in the pressed key, the
10 電子楽器
11 鍵盤
12、13 スイッチ
15 表示部
21 CPU
22 ROM
23 RAM
24 サウンドシステム
25 スイッチ群
26 音源部
27 オーディオ回路
28 スピーカ
DESCRIPTION OF
22 ROM
23 RAM
24
Claims (2)
並列に配置され演奏操作子の操作に基づいて、所定の楽音の楽音データを生成する楽音データ生成手段と、を備えた電子楽器であって、
操作された演奏操作子の数が3つの場合に、操作された複数の演奏操作子について、最低音に対応する演奏操作子から中央の音に相当する演奏操作子の間の度数の、前記最低音に対応する演奏操作子から最高音に相当する演奏操作子の間の度数に対する比率に基づいて、前記コードの転回形を決定する制御手段を備え、
前記制御手段が、前記度数に基づいて決定された転回形およびコード名に基づいて、発音すべきコード構成音の音高を決定し、
前記楽音データ生成手段が、前記制御手段により音高が決定されたコード構成音の楽音データを、前記発音タイミングで生成することを特徴とする電子楽器。 A storage means for storing automatic accompaniment data which is an automatic accompaniment pattern of a predetermined chord and includes at least a chord name and a sound timing of a chord constituent sound;
An electronic musical instrument comprising: musical tone data generating means for generating musical tone data of a predetermined musical tone based on an operation of a performance operator arranged in parallel,
In the case where the number of operated performance operators is three, for the plurality of operated performance operators, the minimum of the frequency between the performance operator corresponding to the lowest sound and the performance operator corresponding to the center sound is the minimum. Control means for determining the inversion form of the chord based on the ratio to the frequency between the performance operator corresponding to the sound and the performance operator corresponding to the highest sound ;
The control means determines the pitch of the chord constituting sound to be pronounced based on the turning form and the chord name determined based on the frequency,
The electronic musical instrument, wherein the musical sound data generating means generates musical sound data of chord constituent sounds whose pitches are determined by the control means at the sounding timing.
並列に配置された演奏操作子の操作に基づいて、所定の楽音の楽音データを生成する楽音データ生成ステップと、
操作された演奏操作子の数が3つの場合に、操作された複数の演奏操作子において、最低音に対応する演奏操作子から中央の音に相当する演奏操作子の間の度数の、前記最低音に対応する演奏操作子から最高音に相当する演奏操作子の間の度数に対する比率に基づいて、前記コードの転回形を決定する制御ステップと、を実行させ、
前記制御ステップが、前記度数に基づいて決定された転回形およびコード名に基づいて、発音すべきコード構成音の音高を決定するステップを有し、
前記楽音データ生成ステップにおいて、前記制御ステップにおいて音高が決定されたコード構成音の楽音データが、前記発音タイミングで生成されることを特徴とする電子楽器のプログラム。 A computer having a storage means for storing automatic accompaniment data including a chord name and a sound timing of chord constituent sounds, which is a predetermined automatic accompaniment pattern,
A musical sound data generation step for generating musical sound data of a predetermined musical sound based on the operation of performance operators arranged in parallel;
In the case where the number of performance operators operated is three, among the plurality of operated performance operators, the minimum of the frequency between the performance operator corresponding to the lowest sound and the performance operator corresponding to the central sound A control step of determining a turning form of the chord based on a ratio to a frequency between a performance operator corresponding to the sound and a performance operator corresponding to the highest sound ;
The control step includes a step of determining a pitch of a chord constituent sound to be pronounced based on a turning form and a chord name determined based on the frequency;
An electronic musical instrument program characterized in that in the musical sound data generating step, musical tone data of a chord constituting sound whose pitch is determined in the control step is generated at the sounding timing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009278513A JP5564921B2 (en) | 2009-12-08 | 2009-12-08 | Electronic musical instruments |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009278513A JP5564921B2 (en) | 2009-12-08 | 2009-12-08 | Electronic musical instruments |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011123108A JP2011123108A (en) | 2011-06-23 |
JP5564921B2 true JP5564921B2 (en) | 2014-08-06 |
Family
ID=44287081
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009278513A Active JP5564921B2 (en) | 2009-12-08 | 2009-12-08 | Electronic musical instruments |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5564921B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7251050B2 (en) * | 2018-03-23 | 2023-04-04 | カシオ計算機株式会社 | Electronic musical instrument, control method and program for electronic musical instrument |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2551245B2 (en) * | 1991-03-01 | 1996-11-06 | ヤマハ株式会社 | Automatic accompaniment device |
JP2722141B2 (en) * | 1991-08-01 | 1998-03-04 | 株式会社河合楽器製作所 | Automatic accompaniment device |
JP2636640B2 (en) * | 1992-07-09 | 1997-07-30 | ヤマハ株式会社 | Automatic accompaniment device |
JPH0683356A (en) * | 1992-08-31 | 1994-03-25 | Kawai Musical Instr Mfg Co Ltd | Automatic accompaniment device |
JP3517972B2 (en) * | 1994-08-31 | 2004-04-12 | ヤマハ株式会社 | Automatic accompaniment device |
JPH09330085A (en) * | 1996-06-07 | 1997-12-22 | Kawai Musical Instr Mfg Co Ltd | Automatic accompaniment device |
JP2815348B2 (en) * | 1997-06-02 | 1998-10-27 | ローランド株式会社 | Automatic accompaniment device |
-
2009
- 2009-12-08 JP JP2009278513A patent/JP5564921B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011123108A (en) | 2011-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5041015B2 (en) | Electronic musical instrument and musical sound generation program | |
JP5168297B2 (en) | Automatic accompaniment device and automatic accompaniment program | |
JP5293710B2 (en) | Key judgment device and key judgment program | |
JP5732982B2 (en) | Musical sound generation device and musical sound generation program | |
JP2010117419A (en) | Electronic musical instrument | |
JP2008089975A (en) | Electronic musical instrument | |
JP5564921B2 (en) | Electronic musical instruments | |
JP2012098480A (en) | Chord detection device and program | |
JP5692275B2 (en) | Electronic musical instruments | |
JP4628725B2 (en) | Tempo information output device, tempo information output method, computer program for tempo information output, touch information output device, touch information output method, and computer program for touch information output | |
JP5909967B2 (en) | Key judgment device, key judgment method and key judgment program | |
JP5630218B2 (en) | Musical sound generation device and musical sound generation program | |
JP7452501B2 (en) | Automatic performance device, electronic musical instrument, performance system, automatic performance method, and program | |
JP4197153B2 (en) | Electronic musical instruments | |
JP5560574B2 (en) | Electronic musical instruments and automatic performance programs | |
JP6658785B2 (en) | Automatic accompaniment method and automatic accompaniment device | |
JP5640308B2 (en) | Performance device and performance processing program | |
JP5742592B2 (en) | Musical sound generation device, musical sound generation program, and electronic musical instrument | |
US20230035440A1 (en) | Electronic device, electronic musical instrument, and method therefor | |
JP3669066B2 (en) | Electronic musical instruments | |
JP2017129611A (en) | Electronic sound apparatus | |
JP2586744B2 (en) | Automatic accompaniment device for electronic musical instruments | |
JP6102975B2 (en) | Musical sound generation device, musical sound generation program, and electronic musical instrument | |
JP2522906Y2 (en) | Electronic musical instrument | |
JP2024062088A (en) | Automatic playing apparatus, automatic playing program, and automatic playing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140304 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140520 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140602 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5564921 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |