JP2010117419A - Electronic musical instrument - Google Patents

Electronic musical instrument Download PDF

Info

Publication number
JP2010117419A
JP2010117419A JP2008288716A JP2008288716A JP2010117419A JP 2010117419 A JP2010117419 A JP 2010117419A JP 2008288716 A JP2008288716 A JP 2008288716A JP 2008288716 A JP2008288716 A JP 2008288716A JP 2010117419 A JP2010117419 A JP 2010117419A
Authority
JP
Japan
Prior art keywords
sound
timing
automatic accompaniment
data
musical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008288716A
Other languages
Japanese (ja)
Inventor
Mitsuhiro Matsumoto
光広 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2008288716A priority Critical patent/JP2010117419A/en
Publication of JP2010117419A publication Critical patent/JP2010117419A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To allow even a player having no knowledge about a chord and a rhythm to play suitable automatic accompaniment music. <P>SOLUTION: An automatic accompaniment music data including sounding timing of a musical tone to be sounded is stored in a ROM 22. A CPU 21 calculates time difference between operation timing of a keyboard 11 and the reference timing stored in the ROM 22, and controls the sounding timing of the musical tone in the automatic accompaniment music, which is set for the automatic accompaniment data beforehand, based on the calculated time difference. A sound source section 26 generates a musical tone data of the musical tone of an automatic accompaniment pattern in which the sounding timing is controlled, according to instruction of the CPU 21. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、自動伴奏パターンの演奏が可能な電子楽器に関する。   The present invention relates to an electronic musical instrument capable of playing an automatic accompaniment pattern.

電子楽器においては、いわゆる「自動伴奏」という機能が良く知られている。自動伴奏においては、一般的に、ユーザの鍵操作によって指定されたコードの構成音に相当する楽音が、自動伴奏パターンが示す伴奏シーケンスにしたがって発音される。また、自動伴奏パターンには、単一或いは複数の楽音によるメロディ音、メロディ音の対旋律などを構成するオブリガート音、および、リズム音も含まれ得る。   In electronic musical instruments, a so-called “automatic accompaniment” function is well known. In automatic accompaniment, generally, a musical sound corresponding to a constituent sound of a chord designated by a user's key operation is generated according to an accompaniment sequence indicated by an automatic accompaniment pattern. The automatic accompaniment pattern may also include a melody sound composed of a single or a plurality of musical sounds, an obligato sound constituting a counter-melody of the melody sound, and a rhythm sound.

自動伴奏の機能を用いることによって、一人の演奏者でも、コード音やリズム音を含む豊富な楽音の演奏が実現できる。その一方、コードの知識の無い演奏者は、この機能を有効に利用できないという問題点があった。   By using the automatic accompaniment function, even a single player can perform a wide variety of musical sounds including chord sounds and rhythm sounds. On the other hand, performers without knowledge of chords have a problem that this function cannot be used effectively.

演奏者によるコード指定を簡易化するために、たとえば、特許文献1においては、押鍵数が基準値を超えるごとに、複数の自動伴奏パターンを所定の順序で順次切り換えて読み出し、自動伴奏パターンが、押鍵数に応じて変化する電子楽器が提案されている。   In order to simplify the chord designation by the performer, for example, in Patent Document 1, each time the number of key presses exceeds a reference value, a plurality of automatic accompaniment patterns are sequentially switched and read out in a predetermined order. Electronic musical instruments that change according to the number of key presses have been proposed.

また、特許文献2においては、演奏者の押鍵を、コード構成音に変換して、当該コード構成音を含む自動伴奏を演奏する電子楽器が提案されている。この電子楽器においては、曲データを利用することで、音階の指定を自動化しており、演奏者がコードの知識を有していなくても、表現を加えた自動伴奏を演奏することが可能となる。
特開平4−242297号公報 特開2004−177893号公報
Patent Document 2 proposes an electronic musical instrument that converts a player's key press into a chord constituent sound and plays an automatic accompaniment including the chord constituent sound. In this electronic musical instrument, the musical scale data is used to automate the scale specification, and even if the performer has no knowledge of chords, it is possible to perform automatic accompaniment with added expressions. Become.
JP-A-4-242297 JP 2004-177893 A

たとえば、特許文献1に開示された技術では、複数のコードパターンが切り換えられるため、演奏形態の変化が画一的になってしまう可能性がある。   For example, in the technique disclosed in Patent Document 1, since a plurality of chord patterns are switched, there is a possibility that changes in performance form become uniform.

また、特許文献2に開示された技術では、押鍵タイミングや押鍵数を適切に与えない場合には、適切な自動伴奏の演奏ができない可能性がある。すなわち、演奏者はコードの知識を必要としないが、リズムについての一定のセンスや知識を必要とする。   Also, with the technique disclosed in Patent Document 2, there is a possibility that an appropriate automatic accompaniment cannot be performed if the key pressing timing and the number of key presses are not appropriately given. That is, the performer does not need knowledge of chords, but requires a certain sense and knowledge about rhythm.

本発明は、コードやリズムに関する知識がない演奏者であっても、適切な自動伴奏を演奏することができる電子楽器を提供することを目的とする。   An object of the present invention is to provide an electronic musical instrument that can perform an appropriate automatic accompaniment even for a player who has no knowledge of chords and rhythms.

本発明の目的は、予め定められた自動伴奏パターンであって、発音すべき楽音の発音タイミング、を含む自動伴奏データを記憶する記憶手段と、
演奏操作子の操作に基づいて、所定の楽音の楽音データを生成する楽音データ生成手段と、を備えた電子楽器であって、
前記演奏操作子の操作タイミングと、前記自動伴奏データについて予め設定された基準タイミングとの時間差を算出して、前記時間差に基づいて、前記自動伴奏データ中の楽音の前記発音タイミングを制御する制御手段を備え、
前記制御手段が、前記操作タイミングが前記基準タイミングより早い場合には、前記時間差に基づいて、前記自動伴奏パターンの発音タイミングを早め、前記操作タイミングが前記基準タイミングより遅い場合には、前記時間差に基づいて、前記自動伴奏パターンの発音タイミングを遅くして、
前記楽音データ生成手段が、前記制御手段により発音タイミングが制御された自動伴奏パターンの楽音の楽音データを生成することを特徴とする電子楽器により達成される。
An object of the present invention is a storage means for storing automatic accompaniment data including a predetermined automatic accompaniment pattern and a sound generation timing of a musical sound to be generated;
A musical sound data generating means for generating musical sound data of a predetermined musical sound based on an operation of a performance operator;
Control means for calculating a time difference between an operation timing of the performance operator and a reference timing preset for the automatic accompaniment data, and controlling the sound generation timing of the musical sound in the automatic accompaniment data based on the time difference With
When the operation timing is earlier than the reference timing, the control means advances the sound generation timing of the automatic accompaniment pattern based on the time difference, and when the operation timing is later than the reference timing, On the basis of the sounding timing of the automatic accompaniment pattern,
The musical tone data generating means generates musical tone data of a musical sound of an automatic accompaniment pattern whose sounding timing is controlled by the control means.

好ましい実施態様においては、前記制御手段が、前記演算操作子の操作タイミングが、前記基準タイミングから所定の範囲内である評価対象期間であるか否かを判断し、前記評価対象期間での操作であるときに、前記操作タイミングと基準タイミングとの時間差を算出し、
前記操作タイミングが前記基準タイミングより早い場合には、前記時間差の分だけ、前記自動伴奏パターンの発音タイミングを早め、前記操作タイミングが前記基準タイミングより遅い場合には、前記時間差の分だけ、前記自動伴奏パターンの発音タイミングを遅くすることを特徴とする請求項1に記載の電子楽器。
In a preferred embodiment, the control means determines whether or not the operation timing of the arithmetic operator is an evaluation target period within a predetermined range from the reference timing, and the operation in the evaluation target period is performed. At some point, the time difference between the operation timing and the reference timing is calculated,
When the operation timing is earlier than the reference timing, the sounding timing of the automatic accompaniment pattern is advanced by the time difference, and when the operation timing is later than the reference timing, the automatic difference is generated by the time difference. The electronic musical instrument according to claim 1, wherein the sounding timing of the accompaniment pattern is delayed.

また、好ましい実施態様においては、前記基準タイミングが、前記自動伴奏パターンにおける拍の先頭に対応し、
前記制御手段が、前記自動伴奏パターンにおいて、拍ごとに前記操作タイミングと前記基準タイミングとの時間差を算出する。
In a preferred embodiment, the reference timing corresponds to the beginning of a beat in the automatic accompaniment pattern,
The control means calculates a time difference between the operation timing and the reference timing for each beat in the automatic accompaniment pattern.

別の好ましい実施態様においては、前記制御手段が、予め定められたタイミングにおいて、一定の期間だけ前記演奏操作子の操作がなかった場合に、前記自動伴奏パターンに基づく楽音の生成を停止する。   In another preferred embodiment, the control means stops generating the musical tone based on the automatic accompaniment pattern when the performance operator is not operated for a certain period at a predetermined timing.

より好ましい実施態様においては、前記制御手段が、前記自動伴奏パターンにおける拍の先頭において、それ以前に1拍に対応する時間だけ前記演奏操作子の操作がなかった場合に、前記自動伴奏パターンに基づく楽音の生成を停止する。   In a more preferred embodiment, the control means is based on the automatic accompaniment pattern when the performance operator has not been operated for a time corresponding to one beat before the beginning of the beat in the automatic accompaniment pattern. Stop generating music.

また、好ましい実施態様においては、前記自動伴奏パターンが、前記発音すべき楽音の音長を含み、
前記制御手段が、前記演奏操作子が操作された期間と、前記自動伴奏データについて予め設定され、前記記憶手段に記憶された基準操作期間との相違に基づいて、前記自動伴奏データ中の楽音の音長を制御する。
Further, in a preferred embodiment, the automatic accompaniment pattern includes a tone length of the musical sound to be pronounced,
Based on the difference between the period during which the performance operator is operated and the reference operation period set in advance for the automatic accompaniment data and stored in the storage means, the control means is configured to change the musical sound in the automatic accompaniment data. Control the sound length.

より好ましい実施態様においては、前記制御手段が、前記演奏操作子が操作された期間と前記基準操作期間との比を算出し、当該算出された比に基づいて、前記自動伴奏データ中の楽音の音長を制御する。   In a more preferred embodiment, the control means calculates a ratio between a period during which the performance operator is operated and the reference operation period, and based on the calculated ratio, a musical sound in the automatic accompaniment data is calculated. Control the sound length.

さらに別の好ましい実施態様においては、前記演奏操作子が鍵盤であり、
前記自動伴奏パターンが、コード構成音を特定する情報を含み、
前記制御手段が、操作された鍵の白鍵/黒鍵の種別を判断し、黒鍵の数が多くなるのにしたがって、前記コード構成音を指定する情報から、三和音により複雑な音を付加したコード構成音を選択する。
In still another preferred embodiment, the performance operator is a keyboard,
The automatic accompaniment pattern includes information for specifying a chord constituent sound,
The control means judges the type of the white key / black key of the operated key, and adds a complex sound by triad from the information specifying the chord constituent sound as the number of black keys increases Select a chord component sound.

また、本発明の目的は、予め定められた自動伴奏パターンであって、発音すべき楽音の発音タイミングおよび音長を含む自動伴奏データを記憶する記憶手段と、
演奏操作子の操作に基づいて、所定の楽音の楽音データを生成する楽音データ生成手段と、を備えた電子楽器であって、
前記演奏操作子が操作された期間と、前記自動伴奏データについて予め設定され、前記記憶手段に記憶された基準操作期間との相違に基づいて、前記自動伴奏データ中の楽音の音長を制御する制御手段を備え、
前記楽音データ生成手段が、前記発音タイミングで、前記制御手段により音長が制御された自動伴奏パターンの楽音の楽音データを生成することを特徴とする電子楽器により達成される。
An object of the present invention is a storage means for storing automatic accompaniment data including a sound generation timing and a sound length of a musical sound to be generated in a predetermined automatic accompaniment pattern,
An electronic musical instrument comprising: musical tone data generating means for generating musical tone data of a predetermined musical tone based on an operation of a performance operator,
Based on the difference between the period in which the performance operator is operated and the reference operation period preset for the automatic accompaniment data and stored in the storage means, the tone length of the musical sound in the automatic accompaniment data is controlled. With control means,
The musical sound data generating means generates musical sound data of a musical sound of an automatic accompaniment pattern whose sound length is controlled by the control means at the sound generation timing.

さらに、本発明の目的は、予め定められた自動伴奏パターンであって、発音すべき楽音の発音タイミングを含む自動伴奏データを記憶する記憶手段と、
鍵盤の操作に基づいて、所定の楽音の楽音データを生成する楽音データ生成手段と、を備えた電子楽器であって、
操作された鍵の白鍵/黒鍵の種別を判断し、黒鍵の数が多くなるのにしたがって、前記コード構成音を指定する情報から、三和音により複雑な音を付加したコード構成音を選択する制御手段を備え、
前記楽音データ生成手段が、前記発音タイミングで、前記制御手段により選択されたコード構成音に基づいた楽音の楽音データを生成することを特徴とする電子楽器により達成される。
Furthermore, an object of the present invention is a predetermined automatic accompaniment pattern, and storage means for storing automatic accompaniment data including a sound generation timing of a musical sound to be generated;
An electronic musical instrument comprising: musical tone data generating means for generating musical tone data of a predetermined musical tone based on a keyboard operation;
The type of white key / black key of the operated key is judged, and as the number of black keys increases, a chord constituent sound to which a complex sound is added by a triad is added from the information specifying the chord constituent sound. Control means to select,
The musical tone data generating means generates musical tone data of musical sounds based on the chord constituent sound selected by the control means at the sound generation timing.

また、本発明の目的は、予め定められた自動伴奏パターンであって、発音すべき楽音の発音タイミング、を含む自動伴奏データを記憶する記憶手段を備えたコンピュータに、
演奏操作子の操作に基づいて、所定の楽音の楽音データを生成する楽音データ生成ステップと、
前記演奏操作子の操作タイミングと、前記自動伴奏データについて予め設定され、前記記憶手段に記憶された基準タイミングとの時間差を算出して、前記時間差に基づいて、前記自動伴奏データ中の楽音の前記発音タイミングを制御する制御ステップとを実行させ、
前記制御ステップが、前記操作タイミングが前記基準タイミングより早い場合には、前記時間差に基づいて、前記自動伴奏パターンの発音タイミングを早め、前記操作タイミングが前記基準タイミングより遅い場合には、前記時間差に基づいて、前記自動伴奏パターンの発音タイミングを遅くするステップを含み、
前記楽音データ生成ステップにおいて、前記制御ステップにおいて発音タイミングが制御された自動伴奏パターンの楽音の楽音データが生成されることを特徴とする電子楽器のプログラムにより達成される。
Further, an object of the present invention is a computer having a storage means for storing automatic accompaniment data including a predetermined automatic accompaniment pattern and a sound generation timing of a musical sound to be generated.
A musical sound data generation step for generating musical sound data of a predetermined musical sound based on the operation of the performance operator;
A time difference between the operation timing of the performance operator and the reference timing preset for the automatic accompaniment data and stored in the storage means is calculated, and the musical sound in the automatic accompaniment data is calculated based on the time difference. A control step for controlling the sound generation timing,
When the control timing is earlier than the reference timing, the sound generation timing of the automatic accompaniment pattern is advanced based on the time difference, and when the operation timing is later than the reference timing, the time difference is set to the time difference. Based on the step of delaying the sound generation timing of the automatic accompaniment pattern,
The musical sound data generating step is achieved by a program for an electronic musical instrument characterized in that musical sound data of a musical sound of an automatic accompaniment pattern whose sound generation timing is controlled in the control step is generated.

本発明によれば、コードやリズムに関する知識がない演奏者であっても、適切な自動伴奏を演奏することができる電子楽器を提供することが可能となる。   According to the present invention, it is possible to provide an electronic musical instrument that can perform an appropriate automatic accompaniment even for a player who has no knowledge about chords and rhythms.

以下、添付図面を参照して、本発明の実施の形態について説明する。図1は、本実施の形態にかかる電子楽器の外観を示す図である。図1に示すように、本実施の形態にかかる電子楽器10は、鍵盤11を有する。また、鍵盤11の上部には、音色の指定、自動伴奏の開始・終了、リズムパターンの指定などを行なうためのスイッチ(符号12、13参照)や、演奏される楽曲に関する種々の情報、たとえば、音色、リズムパターン、コードネームなどを表示する表示部15を有する。本実施の形態にかかる電子楽器10は、たとえば、61個の鍵(C2〜C7)を有する。また、電子楽器10は、自動伴奏をオンする自動伴奏モード、および、自動伴奏をオフにする通常モードの2つの演奏モードのうち、何れかの下での演奏が可能である。自動伴奏モードの下では、C2〜F3の18鍵(符号101参照)が、伴奏用の鍵盤として使用され、F#4〜C7の43鍵(符号102参照)がメロディ用の鍵盤として使用される。符号101で示す鍵域を伴奏鍵域とも称し、符号102で示す鍵域をメロディ鍵域とも称する。   Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a diagram showing an external appearance of an electronic musical instrument according to the present embodiment. As shown in FIG. 1, the electronic musical instrument 10 according to the present embodiment has a keyboard 11. In addition, on the upper part of the keyboard 11, switches (see reference numerals 12 and 13) for designating a tone color, starting and ending automatic accompaniment, designating a rhythm pattern, etc., and various information relating to the music to be played, for example, It has a display unit 15 for displaying timbre, rhythm pattern, chord name, and the like. The electronic musical instrument 10 according to the present embodiment has, for example, 61 keys (C2 to C7). In addition, the electronic musical instrument 10 can perform under one of two performance modes: an automatic accompaniment mode for turning on automatic accompaniment and a normal mode for turning off automatic accompaniment. Under the automatic accompaniment mode, 18 keys from C2 to F3 (see reference numeral 101) are used as accompaniment keys, and 43 keys from F # 4 to C7 (see reference numeral 102) are used as melody keys. . The key range indicated by reference numeral 101 is also referred to as an accompaniment key range, and the key range indicated by reference numeral 102 is also referred to as a melody key range.

図2は、本発明の実施の形態にかかる電子楽器の構成を示すブロックダイヤグラムである。図2に示すように、本実施の形態にかかる電子楽器10は、CPU21、ROM22、RAM23、サウンドシステム24、スイッチ群25、鍵盤11および表示部15を備える。   FIG. 2 is a block diagram showing the configuration of the electronic musical instrument according to the embodiment of the present invention. As shown in FIG. 2, the electronic musical instrument 10 according to the present embodiment includes a CPU 21, a ROM 22, a RAM 23, a sound system 24, a switch group 25, a keyboard 11, and a display unit 15.

CPU21は、電子楽器10全体の制御、鍵盤11の鍵の押鍵やスイッチ群25を構成するスイッチ(たとえば、図1の符号12、13参照)の操作の検出、鍵やスイッチの操作にしたがったサウンドシステム24の制御、自動伴奏パターンにしたがった自動伴奏の演奏など、種々の処理を実行する。   The CPU 21 follows the control of the electronic musical instrument 10 as a whole, the detection of key depression of the keyboard 11 and the operation of the switches (for example, reference numerals 12 and 13 in FIG. 1), and the operation of the keys and switches. Various processes such as control of the sound system 24 and performance of automatic accompaniment according to the automatic accompaniment pattern are executed.

ROM22は、CPU21に実行させる種々の処理、たとえば、スイッチの操作、鍵盤の何れかの鍵の押鍵、押鍵に応じた楽音の発音、自動伴奏パターンを構成する楽音の発音データなどのプログラムを記憶する。また、ROM22は、ピアノ、ギター、バスドラム、スネアドラム、シンバルなどの楽音を生成するための波形データを格納した波形データエリア、および、種々の自動伴奏パターンを示すデータ(自動伴奏データ)を格納した自動伴奏パターンエリアを有する。RAM23は、ROM22から読み出されたプログラムや、処理の過程で生じたデータを記憶する。なお、本実施の形態において、自動伴奏パターンは、メロディ音およびオブリガート音を含むメロディ自動伴奏パターン、コード音を含むコード自動伴奏パターン、並びに、ドラム音を含むリズムパターンを有する。たとえば、メロディ自動伴奏パターンのデータのレコードは、楽音の音色、音高、発音タイミング(発音時刻)、音長などを含む。コード自動伴奏パターンのデータのレコードは、上記情報に加えて、コード構成音を示すデータを含む。また、リズムパターンのデータは、楽音の音色、発音タイミングを含む。   The ROM 22 stores various processes to be executed by the CPU 21, such as switch operation, key depression of any key on the keyboard, tone generation according to the key press, and tone generation data of the tone constituting the automatic accompaniment pattern. Remember. The ROM 22 stores a waveform data area for storing waveform data for generating musical sounds such as piano, guitar, bass drum, snare drum, and cymbal, and data (automatic accompaniment data) indicating various automatic accompaniment patterns. Automatic accompaniment pattern area. The RAM 23 stores a program read from the ROM 22 and data generated in the course of processing. In the present embodiment, the automatic accompaniment pattern has a melody automatic accompaniment pattern including a melody sound and obligato sound, a chord automatic accompaniment pattern including a chord sound, and a rhythm pattern including a drum sound. For example, the data record of the melody automatic accompaniment pattern includes the tone color, pitch, tone generation timing (sound generation time), tone length, and the like of the musical tone. The record of the chord automatic accompaniment pattern data includes data indicating chord constituent sounds in addition to the above information. The rhythm pattern data includes the tone color of the musical tone and the sounding timing.

サウンドシステム24は、音源部26、オーディオ回路27およびスピーカ28を有する。音源部26は、たとえば、押鍵された鍵についての情報或いは自動伴奏パターンについての情報をCPU21から受信すると、ROM22の波形データエリアから所定の波形データを読み出して、所定の音高の楽音データを生成して出力する。また、音源部26は、波形データ、特に、スネアドラム、バスドラム、シンバルなど打楽器の音色の波形データを、そのまま楽音データとして出力することもできる。オーディオ回路27は、楽音データをD/A変換して増幅する。これによりスピーカ28から音響信号が出力される。   The sound system 24 includes a sound source unit 26, an audio circuit 27, and a speaker 28. For example, when the sound source unit 26 receives information about the depressed key or information about the automatic accompaniment pattern from the CPU 21, the sound source unit 26 reads predetermined waveform data from the waveform data area of the ROM 22, and generates musical tone data of a predetermined pitch. Generate and output. The sound source unit 26 can also output waveform data, particularly waveform data of percussion instrument sounds such as a snare drum, bass drum, and cymbal, as musical sound data. The audio circuit 27 D / A converts and amplifies the musical sound data. Thereby, an acoustic signal is output from the speaker 28.

本実施の形態にかかる電子楽器10は、通常モードの下においては、鍵盤11の鍵の押鍵に基づいて楽音を発生する。その一方、電子楽器10は、自動伴奏スイッチ(図示せず)が操作されることにより、自動伴奏モードとなる。自動伴奏モードの下では、メロディ鍵域の鍵の押鍵により、その鍵の音高の楽音が発生する。また、伴奏鍵域の鍵の押鍵にしたがって自動伴奏パターンが制御され、制御された自動伴奏パターンにしたがった楽音が発生する。なお、自動伴奏パターンは、ピアノやギターなど音高の変化を伴うメロディ自動伴奏パターン、コード自動伴奏パターンと、バスドラム、スネアドラム、シンバルなど音高の変化を伴わないリズムパターンとを含む。   The electronic musical instrument 10 according to the present embodiment generates a musical tone based on the key depression of the keyboard 11 under the normal mode. On the other hand, the electronic musical instrument 10 enters an automatic accompaniment mode when an automatic accompaniment switch (not shown) is operated. Under the automatic accompaniment mode, pressing a key in the melody key range generates a musical tone with the pitch of that key. In addition, the automatic accompaniment pattern is controlled in accordance with the depression of the key in the accompaniment key range, and a musical tone is generated according to the controlled automatic accompaniment pattern. The automatic accompaniment pattern includes an automatic melody accompaniment pattern that accompanies a change in pitch, such as piano and guitar, an automatic chord accompaniment pattern, and a rhythm pattern that does not accompany changes in pitch, such as bass drum, snare drum, and cymbal.

本実施の形態においては、伴奏鍵域の鍵の押鍵タイミングにしたがって、自動伴奏パターン、特に、コード自動伴奏パターンの発音タイミングが制御される。また、伴奏鍵域の押鍵が無い場合には、メロディ自動伴奏パターンおよびコード自動伴奏パターンの発音が停止され、リズムパターンのみの発音となる。   In the present embodiment, the sound generation timing of the automatic accompaniment pattern, particularly the chord automatic accompaniment pattern, is controlled according to the key pressing timing of the key in the accompaniment key range. When there is no key depression in the accompaniment key range, the melody automatic accompaniment pattern and chord automatic accompaniment pattern sounding is stopped and only the rhythm pattern is sounded.

図3は、本実施の形態にかかる伴奏鍵域の押鍵と、自動伴奏パターンの制御との関係を概略的に示すタイミングチャート、図4は、自動伴奏パターンのデータ中、コード伴奏データの例を概略的に説明する図、図5は、図4の自動伴奏パターンに対応する楽譜を示す図である。   FIG. 3 is a timing chart schematically showing the relationship between the key depression of the accompaniment key range according to the present embodiment and the control of the automatic accompaniment pattern, and FIG. 4 is an example of chord accompaniment data in the data of the automatic accompaniment pattern. FIG. 5 is a diagram illustrating a musical score corresponding to the automatic accompaniment pattern of FIG.

図3において、符号300は、想定操作を示す。演奏者が、想定操作300と同一音タイミングで押鍵および離鍵を行なうと、コード伴奏データ初期値(符号320参照)と同一のタイミングで、コード自動伴奏パターンが発音される。すなわち、想定操作は、演奏者がコード伴奏データ初期値と同一のコード自動伴奏パターンを演奏するときの操作を想定している。また、この想定操作における押鍵時間(符合351参照)は、想定音長値として、後述する図15の処理において利用される。   In FIG. 3, reference numeral 300 indicates an assumed operation. When the performer performs key pressing and key release at the same sound timing as the assumed operation 300, an automatic chord accompaniment pattern is generated at the same timing as the chord accompaniment data initial value (see reference numeral 320). That is, the assumed operation is assumed to be an operation when the performer performs the same chord accompaniment pattern as the chord accompaniment data initial value. Further, the key pressing time (see reference numeral 351) in this assumed operation is used as the assumed sound length value in the process of FIG. 15 described later.

図3では、コード自動伴奏データ初期値を、例示的に、1拍を2分割したパルスとして表している。楽曲が4/4拍子と考えた場合に、コード自動伴奏データ初期値におけるパルスの立ち上がりおよび立下りが、それぞれ、16分音符の先頭位置を示す。   In FIG. 3, the chord automatic accompaniment data initial value is exemplarily represented as a pulse obtained by dividing one beat into two. When the musical piece is considered to be a 4/4 time signature, the rise and fall of the pulse in the chord automatic accompaniment data initial value respectively indicate the start position of the sixteenth note.

演奏者による実際の操作が符号310に示すようなものであったと考える。たとえば、1拍目の演奏者の押鍵のタイミング(符号311)は、想定操作より早くなっている。この場合には、本実施の形態にかかるCPU21は、コード自動伴奏データの読み出し時刻を早めるような処理を実行する(符号310参照)。したがって、制御されたコード自動伴奏データは、コード自動伴奏データ初期値よりも発音タイミングが早められたものとなる(符号331参照)。   It is considered that the actual operation by the performer is as shown by reference numeral 310. For example, the key press timing (reference numeral 311) of the performer at the first beat is earlier than the assumed operation. In this case, the CPU 21 according to the present embodiment executes a process for advancing the read time of the automatic chord accompaniment data (see reference numeral 310). Therefore, the controlled chord accompaniment data has a sounding timing earlier than the initial chord accompaniment data initial value (see reference numeral 331).

その一方、2拍目の演奏者の押鍵タイミング(符号312参照)は、想定操作より遅くなっている。この場合には、CPU21は、コード自動伴奏データの読み出し時刻を遅くするような処理を実行する(符号322参照)。したがって、制御されたコード自動伴奏データは、コード自動伴奏データ初期値よりも発音タイミングが早められたものとなる(符号332参照)。なお、演奏者による実際の押鍵タイミングが変化する場合であっても、ドラムパターン(符号340参照)およびメロディ自動伴奏パターン(図3においては図示せず)は変化しない。   On the other hand, the key press timing (see reference numeral 312) of the second beat player is later than the assumed operation. In this case, the CPU 21 executes a process for delaying the read time of the chord accompaniment data (see reference numeral 322). Therefore, the controlled chord accompaniment data has a sounding timing earlier than the initial chord accompaniment data initial value (see reference numeral 332). Even when the actual key pressing timing by the performer changes, the drum pattern (see reference numeral 340) and the automatic melody accompaniment pattern (not shown in FIG. 3) do not change.

また、本実施の形態においては、ユーザが伴奏鍵域の鍵を、所定の期間だけ押鍵しないことにより(符号313参照)、自動伴奏パターンの発音、より詳細には、メロディ自動伴奏パターンおよびコード自動伴奏パターンの楽音の発音が停止され、リズムパターンのみが発音される(符号323、333参照)。   Further, in the present embodiment, when the user does not press the key in the accompaniment key range for a predetermined period (see reference numeral 313), the automatic accompaniment pattern is sounded, more specifically, the melody automatic accompaniment pattern and chord The sound generation of the automatic accompaniment pattern is stopped and only the rhythm pattern is sounded (see reference numerals 323 and 333).

さらに、本実施の形態においては、押鍵タイミングが相対操作における押鍵タイミングより早いか、遅いかだけではなく、押鍵されている時間長が、想定操作における時間長よりも長いか短いかによっても、コード音自動伴奏データを制御できるようになっている。たとえば、5拍目(第2小節1拍目)の演奏者の押鍵の時間長(符号314参照)は、想定操作における押鍵の時間長よりも短い。この場合には、CPU21は、コード自動伴奏データにおいて、発音される楽音の音長を短くするような処理を実行する(符号324参照)。したがって、制御されたコード自動伴奏データにおいては、音長が、コード自動伴奏データ初期値に含まれる楽音の音長よりも短くなる(符号334参照)。   Furthermore, in this embodiment, not only whether the key pressing timing is earlier or later than the key pressing timing in the relative operation, but also depending on whether the time length during which the key is pressed is longer or shorter than the time length in the assumed operation. Also, the chord sound automatic accompaniment data can be controlled. For example, the key press time length (see reference numeral 314) of the player at the 5th beat (the 2nd measure 1st beat) is shorter than the key press time length in the assumed operation. In this case, the CPU 21 executes a process for shortening the tone length of the tone to be generated in the automatic chord accompaniment data (see reference numeral 324). Therefore, in the controlled chord accompaniment data, the tone length is shorter than the tone length of the musical tone included in the chord auto accompaniment data initial value (see symbol 334).

また、6拍目(第2小節2拍目)の演奏者の押鍵の時間長は、想定操作における時間長よりも長い。この場合には、CPU21は、コード自動伴奏データにおいて、発音された楽音の音長を長くするような処理を実行する(符号325参照)。したがって、制御されたコード自動伴奏データにおいては、音長が、コード自動伴奏データ初期値に含まれる楽音の音長よりも長くなる(符号335参照)。   In addition, the time length of the key press by the performer at the sixth beat (second beat of the second measure) is longer than the time length in the assumed operation. In this case, the CPU 21 executes a process for increasing the tone length of the generated musical tone in the automatic chord accompaniment data (see reference numeral 325). Therefore, in the controlled chord accompaniment data, the tone length is longer than the tone length of the musical tone included in the chord auto accompaniment data initial value (see symbol 335).

上記例において、コード自動伴奏データの発音タイミングを早めること(符号331参照)により、いわゆる「前ノリ」の演奏を実現でき、或いは、コード自動伴奏データの発音タイミングを遅くすること(符号332参照)により、いわゆる「後ノリ」の演奏を実現できる。また、コード自動伴奏データを構成する楽音の音長を短くすること(符号334参照)により、いわゆる「タイト」な演奏を実現でき、或いは、楽音の音長を長くすること(符号335参照)により、いわゆる「ゆるやか」な演奏を実現することができる。   In the above example, the so-called “previous” performance can be realized by advancing the sound generation timing of the automatic chord accompaniment data (see reference numeral 331), or the sound generation timing of the automatic chord accompaniment data is delayed (see reference numeral 332). Thus, a so-called “rear” performance can be realized. Further, by shortening the tone length of the musical sound constituting the automatic chord accompaniment data (see symbol 334), a so-called “tight” performance can be realized, or by increasing the tone length of the musical tone (see symbol 335). So-called “sloppy” performance can be realized.

図4に示すように、本実施の形態において、コード自動伴奏データは、ベース音、第1のコード構成音(ルート音)、第2のコード構成音(第3音)、第3のコード構成音(第5音)、第4のコード構成音(第7音、テンションノート等)を含む。実際には、伴奏データは、上記ベース音およびコード構成音のほか、発音開始時刻および音長などを含む。図4に示す例では、1拍目および2拍目は、コード名「C7」に基づく楽音となり、3拍目および4拍目は、コード名「F7」に基づく楽音となり、5拍目および6拍目(第2小節1拍目および2拍目)は、コード名「G7」に基づく楽音となり、7拍目および8拍目(第2小節3拍目および4拍目)は、コード名「C6」に基づく楽音となる。   As shown in FIG. 4, in the present embodiment, the chord automatic accompaniment data includes a bass sound, a first chord constituent sound (root sound), a second chord constituent sound (third sound), and a third chord constituent. Sounds (fifth sound), fourth chord constituent sounds (seventh sound, tension notes, etc.). Actually, the accompaniment data includes a sound generation start time and a sound length in addition to the above bass sound and chord constituent sound. In the example shown in FIG. 4, the first and second beats become musical sounds based on the chord name “C7”, and the third and fourth beats become musical sounds based on the chord name “F7”. The beats (the first and second beats of the second measure) are musical tones based on the chord name “G7”, and the seventh and eighth beats (the third and fourth beats of the second measure) are chord names “ The musical tone is based on “C6”.

また、図4の例では、1拍目および2拍目では、最初に1.5拍(4/4拍子では符点4分音符)の音長、引き続いて、0.5拍(4/4拍子では8分音符)の音長でコード構成音が発音し、0.5拍(4/4拍では8分音符)の音長で、4つのベース音が順次発音する。3拍目および4拍目、並びに、5拍目および6拍目においても同様である。図4に示すコード自動伴奏データを5線譜上に表したものが、図5に示す楽譜である。   In the example of FIG. 4, in the first beat and the second beat, first, the length of 1.5 beats (a quarter note in 4/4 time) is followed by 0.5 beats (4/4). A chord component sound is generated with a note length of 8 notes (time signature), and four bass sounds are sequentially generated with a sound length of 0.5 beats (8/4 notes for 4/4 beats). The same applies to the third and fourth beats and the fifth and sixth beats. The musical score shown in FIG. 5 represents the automatic chord accompaniment data shown in FIG. 4 on a 5-line score.

以下、コード自動伴奏データの制御を含む、本実施の形態にかかる電子楽器10において実行される処理についてより詳細に説明する。図6(a)は、本実施の形態にかかる電子楽器において実行されるメインフローの例を示すフローチャートである。また、図6(b)は、本実施の形態にかかるタイマ割り込み処理の例を示す図である。   Hereinafter, processing executed in the electronic musical instrument 10 according to the present embodiment including control of automatic chord accompaniment data will be described in more detail. FIG. 6A is a flowchart illustrating an example of a main flow executed in the electronic musical instrument according to the present embodiment. FIG. 6B is a diagram illustrating an example of timer interrupt processing according to the present embodiment.

タイマ割り込み処理においては、図6(a)に示すメインフローが実行されているときに、所定の時間間隔で、割込カウンタのカウンタ値がインクリメントされる(ステップ611)。   In the timer interrupt processing, when the main flow shown in FIG. 6A is being executed, the counter value of the interrupt counter is incremented at a predetermined time interval (step 611).

図6(a)に示すように、電子楽器10のCPU21は、電子楽器10の電源が投入されると、RAM23中のデータや、表示部15の画像のクリアクリアを含むイニシャル処理(初期化処理)を実行する(ステップ601)。イニシャル処理(ステップ601)が終了すると、CPU21は、スイッチ群25を構成するスイッチのそれぞれの操作を検出し、検出された操作にしたがった処理を実行するスイッチ処理を実行する(ステップ602)。   As shown in FIG. 6A, when the electronic musical instrument 10 is turned on, the CPU 21 of the electronic musical instrument 10 performs initial processing (initialization processing) including clearing and clearing of data in the RAM 23 and an image on the display unit 15. ) Is executed (step 601). When the initial process (step 601) ends, the CPU 21 detects each operation of the switches constituting the switch group 25, and executes a switch process that executes a process according to the detected operation (step 602).

たとえば、スイッチ処理(ステップ602)においては、音色指定スイッチや、自動伴奏パターンの種別の指定スイッチ、自動伴奏パターンのオン・オフの指定スイッチなど、種々のスイッチの操作が検出される。自動伴奏パターンがオンとなったときには、CPU21は、演奏モードを、伴奏モードに切り換える。演奏モードを示すデータは、RAM23の所定の領域に指定される。音色や自動伴奏パターンの種別を示すデータも、同様に、RAM23の所定の領域に格納される。   For example, in the switch process (step 602), various switch operations such as a tone color designation switch, an automatic accompaniment pattern type designation switch, and an automatic accompaniment pattern on / off designation switch are detected. When the automatic accompaniment pattern is turned on, the CPU 21 switches the performance mode to the accompaniment mode. Data indicating the performance mode is specified in a predetermined area of the RAM 23. Similarly, data indicating the type of timbre and automatic accompaniment pattern is also stored in a predetermined area of the RAM 23.

次いで、CPU21は、鍵盤処理を実行する(ステップ603)。図7は、本実施の形態にかかる鍵盤処理の例をより詳細に示すフローチャートである。鍵盤処理において、CPU21は、鍵盤11の鍵を走査する。鍵の走査結果であるイベント(鍵オン或いはオフ)は、RAM23に一時的に記憶される。CPU21は、RAM23に記憶された鍵の走査結果を参照して、ある鍵についてイベントが有るか否かを判断する(ステップ702)。ステップ702でYesと判断された場合には、CPU11は、当該イベントが生じている鍵が、メロディ鍵域の鍵(メロディ鍵)であるか否かを判断する(ステップ703)。ステップ703でYesと判断された場合には、CPU21は、メロディ鍵処理を実行する(ステップ704)。   Next, the CPU 21 executes keyboard processing (step 603). FIG. 7 is a flowchart showing in more detail an example of keyboard processing according to the present embodiment. In the keyboard process, the CPU 21 scans the keys on the keyboard 11. An event (key on or off) as a key scanning result is temporarily stored in the RAM 23. The CPU 21 refers to the key scanning result stored in the RAM 23 to determine whether or not there is an event for a certain key (step 702). If it is determined Yes in step 702, the CPU 11 determines whether or not the key in which the event has occurred is a melody key range key (melody key) (step 703). When it is determined Yes in step 703, the CPU 21 executes melody key processing (step 704).

図8は、本実施の形態にかかるメロディ鍵処理の例をより詳細に示すフローチャートである。図8に示すように、CPU21は、イベントが鍵オンであるか否かを判断する(ステップ801)。ステップ801でYesと判断された場合には、CPU21は、当該鍵オンがあった鍵について発音処理を実行する(ステップ802)。発音処理においては、CPU21は、RAM23に記憶されていたメロディ鍵用の音色データ、および、鍵の音高を示すデータを読み出してRAM23に一時的に記憶する。後述する音源発音処理(図6のステップ605)において、音色や音高を示すデータは音源部26に与えられる。音源部26は、音色および音高を示すデータにしたがって、ROM22の波形データを読み出して、所定の音高の楽音データを生成する。これにより、スピーカ28から所定の楽音が発生する。   FIG. 8 is a flowchart showing in more detail an example of melody key processing according to the present embodiment. As shown in FIG. 8, the CPU 21 determines whether or not the event is key-on (step 801). If it is determined Yes in step 801, the CPU 21 executes a sound generation process for the key that has been turned on (step 802). In the sound generation process, the CPU 21 reads out the tone color data for the melody key and the data indicating the pitch of the key stored in the RAM 23 and temporarily stores them in the RAM 23. In a sound source sound generation process (step 605 in FIG. 6), which will be described later, data indicating tone color and pitch is given to the sound source unit 26. The sound source unit 26 reads the waveform data in the ROM 22 according to the data indicating the timbre and pitch, and generates musical tone data of a predetermined pitch. Thereby, a predetermined musical sound is generated from the speaker 28.

ステップ801でNoと判断された場合には、イベントが鍵オフであったことになる。したがって、CPU21は、鍵オフになった鍵についての消音処理を実行する(ステップ803)。消音処理においては、CPU21は、消音すべき楽音の音高を示すデータを生成し、RAM23に一時的に記憶する。この場合にも、後述する音源発音処理(ステップ605)において、消音すべき楽音の音色および音高を示すデータが、音源部26に与えられる。音源部26は、与えられたデータに基づいて、所定の楽音を消音する。   If it is determined No in step 801, the event is a key-off. Therefore, the CPU 21 executes a mute process for the key that has been turned off (step 803). In the silencing process, the CPU 21 generates data indicating the pitch of the musical sound to be muted and temporarily stores it in the RAM 23. Also in this case, in the sound source sound generation process (step 605) described later, data indicating the tone color and pitch of the musical sound to be muted is given to the sound source unit 26. The sound source unit 26 mutes a predetermined musical sound based on the given data.

ステップ703でNoと判断された場合には、CPU21は、自動伴奏パターンが演奏中か否かを判断する(ステップ705)。たとえば、ステップ705においては、CPU21は、自動伴奏パターンがオンとなっており演奏モードが伴奏モードであるか否かを判断する。ステップ705でNoと判断された場合には、CPU21は、メロディ鍵処理(ステップ704)を実行する。   When it is determined No in step 703, the CPU 21 determines whether or not the automatic accompaniment pattern is being played (step 705). For example, in step 705, the CPU 21 determines whether or not the automatic accompaniment pattern is on and the performance mode is the accompaniment mode. When it is determined No in step 705, the CPU 21 executes a melody key process (step 704).

その一方、ステップ705でYesと判断された場合、つまり、自動伴奏パターンの演奏中であった場合には、CPU21は、伴奏鍵処理を実行する(ステップ706)。図9は、本実施の形態にかかる伴奏鍵処理の一例を示すフローチャートである。図9に示すように、伴奏鍵処理においては、CPU21は、まず、イベントが鍵オンであるか否かを判断する(ステップ901)。ステップ901でYesと判断された場合には、CPU21は、当該鍵の押鍵タイミングが、評価対象範囲であるかどうかを判断する(ステップ902)。評価対象範囲とは、想定操作における押鍵時間に、前後所定の時間を加えた所定の時間範囲である。図3において、想定操作において、1拍目の押鍵時間を符号351で示す。この押鍵時間351の前後に所定の時間を加えた時間範囲(符号350参照)が、評価対象範囲となる。   On the other hand, if it is determined Yes in step 705, that is, if the automatic accompaniment pattern is being played, the CPU 21 executes accompaniment key processing (step 706). FIG. 9 is a flowchart showing an example of the accompaniment key process according to the present embodiment. As shown in FIG. 9, in the accompaniment key process, the CPU 21 first determines whether or not the event is key-on (step 901). If it is determined Yes in step 901, the CPU 21 determines whether or not the key pressing timing is within the evaluation target range (step 902). The evaluation target range is a predetermined time range obtained by adding a predetermined time before and after the key pressing time in the assumed operation. In FIG. 3, the key pressing time for the first beat is indicated by reference numeral 351 in the assumed operation. A time range (see reference numeral 350) obtained by adding a predetermined time before and after the key pressing time 351 is the evaluation target range.

ステップ902でYesと判断された場合には、CPU21は、タイマをスタートさせて音長カウントを開始する(ステップ903)。なお、本実施の形態においては、複数の押鍵が考えられるが、ステップ902でYesと判断されるのは、評価対象範囲での最初の押鍵についてである。次いで、CPU21は、想定操作における押鍵時刻と、実際の押鍵時刻との間のズレを算出して、タイミング評価値として、RAM23に一時的に記憶する(ステップ904)。たとえば、図3において、1拍目の鍵オンについて考える。想定操作における押鍵時刻は、符号351に示す押鍵時間における立ち上がり時刻である。そこで、「(立ち上がり時刻)−(実際の押鍵時刻)」を算出すればよい。このタイミング評価値は、後述するコード自動伴奏パターン演奏の際に、楽音の発音タイミングの制御に利用される。   If it is determined Yes in step 902, the CPU 21 starts a timer and starts sound length counting (step 903). In the present embodiment, a plurality of key presses can be considered, but it is determined that the first key press in the evaluation target range is determined to be Yes in step 902. Next, the CPU 21 calculates a deviation between the key pressing time in the assumed operation and the actual key pressing time, and temporarily stores it in the RAM 23 as a timing evaluation value (step 904). For example, consider the key-on at the first beat in FIG. The key pressing time in the assumed operation is a rise time in the key pressing time indicated by reference numeral 351. Therefore, “(rise time) − (actual key pressing time)” may be calculated. This timing evaluation value is used for controlling the tone generation timing of a musical tone when performing an automatic chord accompaniment pattern described later.

その後、CPU21は、RAM23に一時的に記憶された、押鍵された鍵数を示す押鍵数カウント値をインクリメントする(ステップ905)。押鍵数カウント値は、後述するコード自動伴奏パターン演奏の際に、コード種別を決定するために利用される。なお、ステップ902でNoと判断された場合にも、ステップ905の押鍵数カウント値のインクリメントは実行される。   Thereafter, the CPU 21 increments the key pressing number count value indicating the number of keys pressed, which is temporarily stored in the RAM 23 (step 905). The key press count value is used to determine the chord type when performing a chord automatic accompaniment pattern performance to be described later. Even when it is determined No in step 902, the increment of the key press count value in step 905 is executed.

次いで、CPU21は、押鍵数カウント値を参照して、押鍵数が4以上であるか否かを判断する(ステップ906)。本実施の形態において、コード自動伴奏パターンにおけるコード種別を決定するために押鍵数の最高数が4であるため、4以上となった段階(ステップ906でYes)で、CPU21は、押鍵されている鍵のそれぞれの音高を参照して、白鍵と黒鍵との比率を示す白鍵黒鍵比率評価値を算出する(ステップ907)。白鍵黒鍵比率評価値は、たとえば、「黒鍵の押鍵数/白鍵の押鍵数」であっても良いし、「黒鍵の押鍵数/(黒鍵+白鍵)の押鍵数」であっても良い。算出された白鍵黒鍵比率評価値は、RAM23に一時的に記憶される。   Next, the CPU 21 refers to the key pressing number count value and determines whether or not the key pressing number is 4 or more (step 906). In the present embodiment, since the maximum number of key presses is 4 to determine the chord type in the automatic chord accompaniment pattern, the CPU 21 is pressed at a stage where the key press is 4 or more (Yes in step 906). The white key / black key ratio evaluation value indicating the ratio of the white key to the black key is calculated with reference to the pitches of the respective keys (step 907). The white key / black key ratio evaluation value may be, for example, “number of black keys pressed / number of white keys pressed” or “number of black keys pressed / (black key + white key) pressed”. It may be “the number of keys”. The calculated white key / black key ratio evaluation value is temporarily stored in the RAM 23.

このように、伴奏鍵域の鍵のオンによってタイマが起動されるとともに、タイミング評価値、押鍵数カウント値、白鍵黒鍵比率表値が得られ、RAM23に一時的に記憶される。   As described above, the timer is started by turning on the key in the accompaniment key range, and the timing evaluation value, the key press count value, and the white key / black key ratio table value are obtained and temporarily stored in the RAM 23.

ステップ901でNoと判断された場合、つまり、鍵オフ(離鍵)と判断された場合には、CPU21は、当該鍵の離鍵タイミングが、評価対象範囲であるかどうかを判断する(ステップ908)。評価対象範囲は、前述したステップ902におけるものと同様である。ステップ908でYesと判断された場合には、CPU21は、タイマを停止して、音長カウントを終了する(ステップ909)。CPU21は、タイマの値を、操作音長値として、RAM23に一時的に記憶する。   If it is determined No in step 901, that is, if it is determined that the key is off (key release), the CPU 21 determines whether the key release timing of the key is within the evaluation target range (step 908). ). The evaluation target range is the same as that in step 902 described above. When it is determined Yes in step 908, the CPU 21 stops the timer and ends the sound length count (step 909). The CPU 21 temporarily stores the timer value in the RAM 23 as the operation sound length value.

次いで、CPU21は、RAM23に一時的に記憶された押鍵数カウント値をデクリメントする(ステップ910)。また、CPU21は、押鍵数カウント値を参照して、押鍵数が4以上であるか否かを判断する(ステップ911)。ステップ911でYesと判断された場合には、CPU21は、押鍵されている鍵のそれぞれの音高を参照して、白鍵と黒鍵との比率を示す白鍵黒鍵比率評価値を算出する(ステップ912)。   Next, the CPU 21 decrements the key press count value temporarily stored in the RAM 23 (step 910). Further, the CPU 21 refers to the key pressing number count value and determines whether or not the key pressing number is 4 or more (step 911). If it is determined Yes in step 911, the CPU 21 refers to the pitch of each pressed key and calculates a white key / black key ratio evaluation value indicating the ratio between the white key and the black key. (Step 912).

鍵盤処理(図6のステップ603)が終了すると、CPU21は、ソング伴奏処理を実行する(ステップ604)。図10は、本実施の形態にかかるソング伴奏処理の例を示す図である。図10に示すように、CPU21は、自動伴奏パターンが演奏中か否かを判断する(ステップ1001)。ステップ1001でYesと判断された場合には、CPU21は、自動伴奏パターンを構成する楽音(自動伴奏におけるメロディ音、オブリガート音、コード音(和音による伴奏音)、リズム音)を生成する。自動伴奏データには、上述したように概略的には4つの種類の楽音、すなわち、メロディ音、オブリガート音、コード音、リズム音のデータが含まれる。メロディ音およびオブリガート音によってメロディ自動伴奏パターンが構成され、コード音によってコード自動伴奏パターンが構成される。また、リズム音によってリズムパターンが構成される。   When the keyboard process (step 603 in FIG. 6) ends, the CPU 21 executes a song accompaniment process (step 604). FIG. 10 is a diagram showing an example of song accompaniment processing according to the present embodiment. As shown in FIG. 10, the CPU 21 determines whether or not the automatic accompaniment pattern is being played (step 1001). If it is determined YES in step 1001, the CPU 21 generates musical sounds (melody sound, obligato sound, chord sound (accompaniment sound by chord), rhythm sound) in the automatic accompaniment pattern. As described above, the automatic accompaniment data generally includes data of four types of musical sounds, that is, melody sounds, obligato sounds, chord sounds, and rhythm sounds. The melody sound and obligato sound constitute an automatic melody accompaniment pattern, and the chord sound constitutes an automatic chord accompaniment pattern. Also, a rhythm pattern is constituted by the rhythm sound.

この楽音の生成には、概略的には、以下の4つの処理、割込カウンタ値を参照して、自動伴奏パターンの経過時間を管理するための処理が実行される基準時間処理(ステップ1010)、コード音についての経過時間(伴奏経過時間)を管理する処理が実行される伴奏時間処理(ステップ1011)、ステップ1010で生成される基準時間に基づいて楽音を生成する基準経過時間によるイベント処理(ステップ1012)、および、ステップ1011で生成される伴奏経過時間に基づいて楽音を生成する伴奏経過時間によるイベント処理(ステップ1013)が含まれる。   For the generation of this musical tone, a reference time process (step 1010) in which a process for managing the elapsed time of the automatic accompaniment pattern is executed with reference to the following four processes, that is, the interrupt counter value. , An accompaniment time process (step 1011) in which a process for managing the elapsed time (accompaniment elapsed time) for the chord sound is executed, and an event process by a reference elapsed time for generating a musical sound based on the reference time generated in step 1010 ( Step 1012) and event processing (Step 1013) by accompaniment elapsed time for generating a musical tone based on the accompaniment elapsed time generated in Step 1011 are included.

基準時間処理(ステップ1010)においては、CPU21は、基準時間カウント処理(ステップ1002)および拍先頭処理(ステップ1003)を実行する。   In the reference time process (step 1010), the CPU 21 executes a reference time count process (step 1002) and a beat start process (step 1003).

図11(a)は、本実施の形態にかかる基準時間カウント処理の例を示すフローチャート、図11(b)は、拍先頭処理の例を示すフローチャートである。基準時間カウント処理においては、CPU21は、割込カウンタのカウンタ値を取得する(ステップ1101)。次いで、CPU21は、予めRAM23の所定の領域に格納されていた伴奏経過時間に、取得したカウンタ値を加算して、基準経過時間を更新する(ステップ1102)。更新された基準経過時間は、RAM23の所定の領域に格納される。   FIG. 11A is a flowchart showing an example of the reference time counting process according to the present embodiment, and FIG. 11B is a flowchart showing an example of the beat start process. In the reference time counting process, the CPU 21 acquires the counter value of the interrupt counter (step 1101). Next, the CPU 21 updates the reference elapsed time by adding the acquired counter value to the accompaniment elapsed time previously stored in a predetermined area of the RAM 23 (step 1102). The updated reference elapsed time is stored in a predetermined area of the RAM 23.

次いで、CPU21は、RAM23の所定の領域に格納されていた拍内カウント値に、拍内カウント値は、1拍の間における時間的な位置を示す値である。取得したカウンタ値を加算して、拍内カウント値を更新する(ステップ1103)。更新された拍内カウント値も、RAM23の所定の領域に格納される。その後、次回の基準時間カウント処理で使用するために、CPU21は、割込カウンタのカウンタ値をクリアする(ステップ1104)。   Next, the CPU 21 has a beat count value stored in a predetermined area of the RAM 23, and the beat count value is a value indicating a temporal position during one beat. The acquired counter value is added to update the in-beat count value (step 1103). The updated in-beat count value is also stored in a predetermined area of the RAM 23. Thereafter, the CPU 21 clears the counter value of the interrupt counter for use in the next reference time counting process (step 1104).

また、拍先頭処理においては、CPU21は、拍内カウント値を参照して、処理時が、拍の先頭に相当するか否かを判断する(ステップ1111)。ステップ1111でYesと判断された場合には、CPU21は、過去1拍以上にわたって押鍵が無いか否かを判断する(ステップ1112)。ステップ1112でYesと判断された場合には、CPU21は、コード音停止処理を実行する(ステップ1113)。コード音停止処理(ステップ1113)においては、CPU21は、所定の期間(たとえば1小節)だけ、メロディ音、オブリガート音およびコード音の発音を停止する。すなわち、メロディ音、オブリガート音およびコード音のそれぞれに対応する音色および音高の楽音データの発音を、音源部26に対して指示しない。   Further, in the beat start process, the CPU 21 refers to the in-beat count value and determines whether or not the processing time corresponds to the start of the beat (step 1111). If it is determined Yes in step 1111, the CPU 21 determines whether or not there is no key depression for the past one beat or more (step 1112). When it is determined Yes in step 1112, the CPU 21 executes chord sound stop processing (step 1113). In the chord sound stop process (step 1113), the CPU 21 stops the sound generation of the melody sound, obligato sound and chord sound for a predetermined period (for example, one measure). That is, the tone generator 26 is not instructed to generate tone data of tone color and pitch corresponding to the melody tone, obligato tone and chord tone, respectively.

図3において、ユーザが伴奏鍵域の鍵を、所定の期間だけ押鍵しないことにより(符号313参照)、自動伴奏パターンのうちメロディ音、オブリガート音を含むメロディ自動伴奏パターン、および、コード音を含むコード自動伴奏パターンの発音が停止され、リズムパターンのみが発音されている(符号323、333参照)。これは、拍先頭処理のステップ1111〜1113が実行された結果である。   In FIG. 3, when the user does not press the key in the accompaniment key range for a predetermined period (see reference numeral 313), the melody automatic accompaniment pattern including the melody sound and obligato sound among the automatic accompaniment patterns, and the chord sound are displayed. The automatic chord accompaniment pattern including the sound is stopped and only the rhythm pattern is sounded (see reference numerals 323 and 333). This is a result of the execution of steps 1111 to 1113 of the beat start process.

次に、ステップ1011の伴奏経過時間処理について説明する。 伴奏経過時間処理には、伴奏経過時間カウント処理(ステップ1003)が含まれる。図12は、本実施の形態にかかる経過時間カウント処理の例を示すフローチャートである。図12に示すように、CPU21は、RAM23に格納された基準経過時間を取得する(ステップ1201)。次いで、CPU21は、RAM23に格納されたタイミング評価値を取得する(ステップ1202)。CPU21は、タイミング評価値を伴奏経過時間に反映させる(ステップ1203)。ステップ1203においては、基準経過時間に、タイミング評価値を加算することで、コード自動伴奏パターンにおけるコード音の発音タイミングを規定する伴奏経過時間を得る。   Next, the accompaniment elapsed time processing in step 1011 will be described. The accompaniment elapsed time processing includes accompaniment elapsed time counting processing (step 1003). FIG. 12 is a flowchart showing an example of elapsed time counting processing according to the present embodiment. As shown in FIG. 12, the CPU 21 acquires the reference elapsed time stored in the RAM 23 (step 1201). Next, the CPU 21 acquires the timing evaluation value stored in the RAM 23 (step 1202). The CPU 21 reflects the timing evaluation value in the accompaniment elapsed time (step 1203). In step 1203, an accompaniment elapsed time that defines the sounding timing of the chord sound in the automatic chord accompaniment pattern is obtained by adding the timing evaluation value to the reference elapsed time.

図16において、想定操作および基準経過時間を、それぞれ符号1601、1602で示す。なお、基準経過時間において、n、n+1、・・・は、基準経過時間に基づく内部時刻を示す。   In FIG. 16, the assumed operation and the reference elapsed time are indicated by reference numerals 1601 and 1602, respectively. In the reference elapsed time, n, n + 1,... Indicate internal times based on the reference elapsed time.

いわゆる前ノリによって、想定操作における押鍵タイミングよりも早い時刻に押鍵がされていた場合には、タイミング評価値d1(d1<0)を考慮して、伴奏経過時間=(基準経過時間−d1)となり、伴奏経過時間に基づく内部時刻は、基準経過時間に基づく内部時刻よりも、前倒しとなる(符号1611参照)。   When the key is pressed at a time earlier than the key pressing timing in the assumed operation due to the so-called previous movement, the accompaniment elapsed time = (reference elapsed time−d1) in consideration of the timing evaluation value d1 (d1 <0). ), And the internal time based on the accompaniment elapsed time is ahead of the internal time based on the reference elapsed time (see reference numeral 1611).

その一方、いわゆる後ノリによって想定操作における押鍵タイミングよりも遅い時刻に押鍵がされていた場合には、タイミング評価値d2(d2>0)を考慮して、伴奏経過時間=(基準経過時間−d2)となり、伴奏経過時間に基づく内部時刻は、基準経過時間に基づく内部時刻よりも、遅いものとなる(符号1621参照)。   On the other hand, when the key is pressed at a time later than the key pressing timing in the assumed operation due to the so-called rear glue, the accompaniment elapsed time = (reference elapsed time) in consideration of the timing evaluation value d2 (d2> 0). -D2), and the internal time based on the accompaniment elapsed time is later than the internal time based on the reference elapsed time (see reference numeral 1621).

次に、ステップ1012の基準経過時間によるイベント処理について説明する。基準経過時間によるイベント処理には、メロディ処理(ステップ1005)およびリズム処理(ステップ(ステップ1006)が含まれる。図13(a)は、本実施の形態にかかるメロディ処理の例を示すフローチャート、図13(b)は、リズム処理の例を示すフローチャートである。   Next, event processing based on the reference elapsed time in step 1012 will be described. The event processing based on the reference elapsed time includes melody processing (step 1005) and rhythm processing (step (step 1006). FIG. 13A is a flowchart showing an example of melody processing according to the present embodiment. FIG. 13B is a flowchart illustrating an example of rhythm processing.

図13(a)に示すように、メロディ処理において、CPU21は、RAM23に記憶された基準経過時間を参照する(ステップ1301)。次いで、CPU21は、メロディ自動伴奏パターンを構成するメロディ音およびオブリガート音について、メロディ自動伴奏パターンのデータを参照して、次のイベントを処理すべき時間(ソング時間Δt)が経過しているか否かを判断する(ステップ1302)。   As shown in FIG. 13A, in the melody process, the CPU 21 refers to the reference elapsed time stored in the RAM 23 (step 1301). Next, the CPU 21 refers to the data of the melody automatic accompaniment pattern for the melody sound and obligato sound constituting the melody automatic accompaniment pattern, and determines whether or not the time (song time Δt) for processing the next event has elapsed. Is determined (step 1302).

ステップ1302でYesと判断された場合には、CPU21は、メロディ自動伴奏パターンのデータから、メロディ音について次のイベントに相当するレコード、および、オブリガート音についての次のイベントに相当するレコードを読み出して(ステップ1303)、当該レコード中の音色、音高および音長を示すデータをRAM23に一時的に記憶する(ステップ1304)。後述するように、音源発音処理(図6のステップ605)において、ステップ1304において一時的に記憶されたメロディ音およびオブリガート音の音色、音高および音長を示すデータは、音源部26に与えられる。   If it is determined Yes in step 1302, the CPU 21 reads out the record corresponding to the next event for the melody sound and the record corresponding to the next event for the obligato sound from the automatic melody accompaniment pattern data. (Step 1303), data indicating the timbre, pitch and pitch in the record are temporarily stored in the RAM 23 (Step 1304). As will be described later, in the sound source sound generation process (step 605 in FIG. 6), data indicating the tone color, pitch, and tone length of the melody sound and obligato sound temporarily stored in step 1304 is given to the sound source unit 26. .

なお、同一時刻で複数の楽音を生成すべき場合があるため、ステップ1304の後、再度ステップ1301に戻り、ステップ1302でNoと判断されるまで処理が繰り返される。   Since a plurality of musical sounds may be generated at the same time, after step 1304, the process returns to step 1301 again, and the process is repeated until it is determined No in step 1302.

図13(b)に示すように、リズム処理において、CPU21は、RAM23に記憶された基準経過時間を参照する(ステップ1311)。次いで、CPU21は、リズムパターンを構成するリズム音について、リズムパターンのデータを参照して、次のイベントを処理すべき時間(リズム時間Δt)が経過しているか否かを判断する(ステップ1312)。   As shown in FIG. 13B, in the rhythm process, the CPU 21 refers to the reference elapsed time stored in the RAM 23 (step 1311). Next, the CPU 21 refers to the rhythm pattern data with respect to the rhythm sounds constituting the rhythm pattern, and determines whether or not the time (rhythm time Δt) for processing the next event has elapsed (step 1312). .

ステップ1312でYesと判断された場合には、CPU21は、リズムパターンのデータから、リズム音について次のイベントに相当するレコードを読み出して(ステップ1313)、当該リズム音の音色を示すデータをRAM23に一時的に記憶する(ステップ1314)。後述するように、音源発音処理(ステップ605)において、ステップ1314において一時的に記憶された、リズム音の音色を示すデータが音源部26に与えられる。   If YES is determined in step 1312, the CPU 21 reads a record corresponding to the next event for the rhythm sound from the rhythm pattern data (step 1313), and stores data indicating the tone color of the rhythm sound in the RAM 23. Temporarily store (step 1314). As will be described later, in the sound source sound generation process (step 605), data indicating the tone color of the rhythm sound temporarily stored in step 1314 is given to the sound source unit 26.

なお、同一時刻で複数の楽音(リズム音)を生成すべき場合があるため、ステップ1404の後、再度ステップ1311に戻り、ステップ1312でNoと判断されるまで処理が繰り返される。   Since a plurality of musical sounds (rhythm sounds) should be generated at the same time, the process returns to step 1311 again after step 1404, and the process is repeated until it is determined No in step 1312.

次に、ステップ1012の伴奏経過時間によるイベント処理について説明する。伴奏経過時間によるイベント処理には、コード音伴奏処理(ステップ1007)が含まれる。図14は、本実施の形態にかかるコード音伴奏処理の例を示すフローチャートである。図14に示すように、コード音伴奏処理においては、CPU21は、CPU21は、RAM23に記憶された伴奏経過時間を参照する(ステップ1401)。次いで、CPU21は、コード音について、コード自動伴奏パターンのデータを参照して、次のイベントを処理すべき時間(伴奏時間Δt)が経過しているか否かを判断する(ステップ1402)。メロディ処理(図13(a))およびリズム処理(図13(b))においては、基準経過時間が参照されているが、コード音伴奏処理においては、伴奏経過時間が参照される。伴奏経過時間は、図12および図16を参照して説明したように、伴奏経過時間は、想定操作における押鍵タイミングと実際の押鍵のタイミングとの差異であるタイミング評価値が反映された伴奏経過時間である。   Next, event processing based on the accompaniment elapsed time in step 1012 will be described. The event processing based on the accompaniment elapsed time includes chord sound accompaniment processing (step 1007). FIG. 14 is a flowchart showing an example of chord sound accompaniment processing according to the present embodiment. As shown in FIG. 14, in the chord sound accompaniment process, the CPU 21 refers to the accompaniment elapsed time stored in the RAM 23 (step 1401). Next, the CPU 21 refers to the chord automatic accompaniment pattern data for the chord sound and determines whether or not the time (accompaniment time Δt) for processing the next event has elapsed (step 1402). In the melody process (FIG. 13 (a)) and the rhythm process (FIG. 13 (b)), the reference elapsed time is referred to. In the chord sound accompaniment process, the accompaniment elapsed time is referred to. As described with reference to FIGS. 12 and 16, the accompaniment elapsed time is an accompaniment reflecting a timing evaluation value that is a difference between the key pressing timing in the assumed operation and the actual key pressing timing. Elapsed time.

ステップ1402でYesと判断された場合には、CPU21は、コード自動伴奏パターンのデータから、コード音について次のイベントに相当するレコードを読み出す(ステップ1403)。また、コード音伴奏処理では、演奏者による実際の押鍵における音長や押鍵数にしたがって、音長やコード名を変更するため、CPU21は、操作反映処理を実行する(ステップ1404)。図15は、本実施の形態にかかる操作反映処理の例を示すフローチャートである。   If it is determined Yes in step 1402, the CPU 21 reads a record corresponding to the next event for the chord sound from the chord accompaniment pattern data (step 1403). In the chord sound accompaniment process, the CPU 21 executes an operation reflecting process in order to change the sound length and chord name according to the actual sound key length and the number of key presses by the performer (step 1404). FIG. 15 is a flowchart illustrating an example of the operation reflection process according to the present embodiment.

図15に示すように、操作反映処理において、CPU21は、ステップ909で得られてRAM23に記憶された操作音長値を参照して、発音すべきコード音の音長に反映させる処理を実行する(ステップ1501)。コード音の音長は以下のように算出される。   As shown in FIG. 15, in the operation reflection process, the CPU 21 refers to the operation sound length value obtained in step 909 and stored in the RAM 23, and executes the process of reflecting the sound length of the chord sound to be generated. (Step 1501). The length of the chord sound is calculated as follows.

音長=(操作音長値/想定操作における想定音長値)*コード音伴奏データ初期値にて示される音長
ここに、想定操作における想定音長値は、図3に示す想定操作における押鍵時間に相当する。
Sound length = (operation sound length value / assumed sound length value in the assumed operation) * the sound length indicated by the chord sound accompaniment data initial value Here, the assumed sound length value in the assumed operation is the value in the assumed operation shown in FIG. Corresponds to key time.

また、休符の長さは、次のコード音の発音タイミングまでのステップ時間から、算出された音長を減じた値となる。図17は、操作反映処理において得られたコード音の再生音長を説明する図である。伴奏例1では、音符の音長t2は、コード音伴奏データ初期値にて示される音長t1の半分であり、これは、(操作音長値/想定操作における想定音長値)=0.5であった場合である。また、伴奏例2では、音符の音長t3は、コード音伴奏データ初期値にて示される音長t1の1.5倍であり、これは、操作音長値/想定操作における想定音長値)=1.5であった場合である。   The rest length is a value obtained by subtracting the calculated sound length from the step time until the next chord sound generation timing. FIG. 17 is a diagram for explaining the playback sound length of the chord sound obtained in the operation reflection process. In the accompaniment example 1, the note sound length t2 is half of the sound length t1 indicated by the chord sound accompaniment data initial value, which is (operation sound length value / assumed sound length value in assumed operation) = 0. This is the case. In the accompaniment example 2, the note length t3 is 1.5 times the length t1 indicated by the chord sound accompaniment data initial value, and this is the operation sound length value / the assumed sound length value in the assumed operation. ) = 1.5.

次いで、CPU21は、押鍵数カウント値を参照して、押鍵数にしたがって、発音すべきコード構成音を決定する(ステップ1502)。図18は、本実施の形態にかかる押鍵数反映処理の例を示すフローチャートである。図18に示すように、CPU12は、RAM23に記憶された押鍵数カウント値を取得して参照する(ステップ1801)。前述したように、本実施の形態において、コード自動伴奏パターンのデータは、ベース音、第1のコード構成音(ルート音)、第2のコード構成音(第3音)、第3のコード構成音(第5音)、第4のコード構成音(第7音、テンションノート等)を含む(図19の符号1900参照)。特に、第4のコード構成音(図19の符号1910)は、第6音、第7音、第9音などを含む3和音以外のコード構成音(便宜上、「テンション付加コード構成音」と称する:符号1904)、或いは、ルート音のオクターブ音に相当する楽音を付加したコード構成音(便宜上、「テンション非付加コード構成音」と称する:符号1905)のいずれかが選択されるようになっている。   Next, the CPU 21 refers to the key pressing number count value and determines a chord constituent sound to be generated according to the key pressing number (step 1502). FIG. 18 is a flowchart showing an example of the key depression number reflecting process according to the present embodiment. As shown in FIG. 18, the CPU 12 acquires and refers to the key press count value stored in the RAM 23 (step 1801). As described above, in the present embodiment, the chord automatic accompaniment pattern data includes the bass sound, the first chord constituent sound (root sound), the second chord constituent sound (third sound), and the third chord constituent. Including a sound (fifth sound) and a fourth chord constituent sound (seventh sound, tension note, etc.) (see reference numeral 1900 in FIG. 19). In particular, the fourth chord constituent sound (reference numeral 1910 in FIG. 19) is a chord constituent sound other than the three chords including the sixth sound, the seventh sound, the ninth sound, and the like (referred to as “tension added chord constituent sound” for convenience). : Code 1904) or a chord constituent sound to which a musical sound equivalent to the octave sound of the root sound is added (referred to as “tension non-added chord constituent sound” for convenience: reference numeral 1905). Yes.

押鍵数カウント値が「1」である場合には、CPU21は、発音すべきコード構成音が、ベース音だけであること(図19の符号1901参照)を示すコード音制御情報を生成して、RAM23に一時的に記憶する(ステップ1802)。押鍵数カウント値が「2」である場合には、CPU21は、発音すべきコード構成音が、ベース音、第1のコード構成音(ルート)および第2のコード構成音(第5音)を含むこと(符号1902参照)を示すコード音制御情報を生成して、RAM23に一時的に記憶する(ステップ1803)。   When the key press count value is “1”, the CPU 21 generates chord sound control information indicating that the chord component sound to be generated is only the bass sound (see reference numeral 1901 in FIG. 19). The data is temporarily stored in the RAM 23 (step 1802). When the key press count value is “2”, the CPU 21 determines that the chord constituent sound to be generated is the base sound, the first chord constituent sound (root), and the second chord constituent sound (fifth sound). (See reference numeral 1902) is generated and temporarily stored in the RAM 23 (step 1803).

また、押鍵数カウント値が「3」である場合には、CPU21は、コード構成音が、ベース音、第1のコード構成音、第2のコード構成音および第3のコード構成音を含むこと、つまり、ベース音および3和音であること(符号1903参照)を示すコード音制御情報を生成して、RAM23に一時的に記憶する(ステップ1804)。さらに、押鍵数カウント値が「4」以上である場合には、コード構成音が、ベース音、第1のコード構成音、第2のコード構成音、第3のコード構成音および第4のコード構成音を含むことを示すコード音制御情報を生成して、RAM23に記憶する(ステップ1805)。   Further, when the key press count value is “3”, the CPU 21 includes the chord constituent sound including the bass sound, the first chord constituent sound, the second chord constituent sound, and the third chord constituent sound. That is, chord sound control information indicating that it is a bass sound and a triad (see reference numeral 1903) is generated and temporarily stored in the RAM 23 (step 1804). Further, when the key press count value is “4” or more, the chord constituent sounds are the base sound, the first chord constituent sound, the second chord constituent sound, the third chord constituent sound, and the fourth chord sound. Chord sound control information indicating that a chord constituent sound is included is generated and stored in the RAM 23 (step 1805).

押鍵数判断処理(ステップ1502)が終了すると、CPU21は、押鍵数カウント値が4以上であるか否かを判断する(ステップ1503)。ステップ1503でYesと判断された場合には、CPUは、和音反映処理を実行する(ステップ1504)。本実施の形態にかかる和音反映処理において、CPU21は、RAM23に記憶された白鍵黒鍵比率評価値を参照して、押鍵された鍵に黒鍵が含まれる場合には、第4のコード構成音として、第7音やテンションノート等を含むテンション付加コード構成音を選択する(図9の符号1904参照)。その一方、押鍵された鍵に黒鍵が含まれない場合には、CPU21は、第4のコード構成音として、テンションコード非付加コード構成音を選択する(図9の符号1905参照)。選択されたコード音制御情報は、RAM23に一時的に記憶される。   When the key pressing number determination process (step 1502) ends, the CPU 21 determines whether or not the key pressing number count value is 4 or more (step 1503). If it is determined Yes in step 1503, the CPU executes a chord reflection process (step 1504). In the chord reflection process according to the present embodiment, the CPU 21 refers to the white key / black key ratio evaluation value stored in the RAM 23, and if the pressed key includes a black key, the fourth code As a constituent sound, a tension added chord constituent sound including the seventh sound and a tension note is selected (see reference numeral 1904 in FIG. 9). On the other hand, if the black key is not included in the depressed key, the CPU 21 selects a tension code non-added chord constituent sound as the fourth chord constituent sound (see reference numeral 1905 in FIG. 9). The selected chord sound control information is temporarily stored in the RAM 23.

その後、CPU21は、コード音の音色、決定されたコード構成音に基づいて、コード音を構成する楽音のそれぞれの音高、音長を示すデータをRAM23に一時的に記憶する(ステップ1405)。後述するように、音源発音処理(図6のステップ605)において、ステップ1404において一時的に記憶された音色、音高および音長を示すデータは、音源部26に与えられる。   Thereafter, the CPU 21 temporarily stores in the RAM 23 data indicating the pitches and lengths of the musical sounds constituting the chord sound based on the tone color of the chord sound and the determined chord constituent sound (step 1405). As will be described later, in the sound source sound generation process (step 605 in FIG. 6), the data indicating the tone color, pitch, and tone length temporarily stored in step 1404 is given to the sound source unit 26.

なお、コード音伴奏処理では、同一時刻で複数の楽音(和音)を生成すべきであるため、ステップ1404の後、再度ステップ1401に戻り、ステップ1402でNoと判断されるまで処理が繰り返される。   In the chord sound accompaniment process, a plurality of musical tones (chords) should be generated at the same time. Therefore, after step 1404, the process returns to step 1401 again, and the process is repeated until it is determined No in step 1402.

ソング伴奏処理(図6のステップ604)が終了すると、CPU21は、音源発音処理を実行する(ステップ605)。音源発音処理において、CPU21は、たとえば、メロディ鍵処理(図7のステップ704)で生成された、発音すべき楽音の音色および音高を示すデータを音源部26に与え、或いは、消音すべき楽音の音色および音高を示すデータを音源部26に与える。また、CPU21は、ソング伴奏処理(図10)において生成された、メロディ音やオブリガート音の音色、音高および音長を示すデータを、音源部26に与えるとともに、リズム音の音色を示すデータを、音源部26に与える。さらに、CPU21は、コード音の音色、コード構成音それぞれの音高および音長を含むデータを、音源部26に与える。   When the song accompaniment process (step 604 in FIG. 6) ends, the CPU 21 executes a sound source sound generation process (step 605). In the sound source sound generation process, for example, the CPU 21 supplies the sound source unit 26 with data indicating the tone color and pitch of the tone to be generated, which is generated by the melody key process (step 704 in FIG. 7), or the tone to be muted. Data indicating the tone color and pitch of the sound is supplied to the sound source unit 26. Further, the CPU 21 gives the data indicating the tone color, pitch, and length of the melody sound and obligato sound generated in the song accompaniment process (FIG. 10) to the sound source unit 26, and the data indicating the tone color of the rhythm sound. To the sound source unit 26. Further, the CPU 21 supplies the sound source unit 26 with data including the tone color of the chord tone and the pitch and tone length of each chord constituent tone.

音源部26は、音色、音高、音長等を示すデータにしたがって、ROM22の波形データを読み出して、所定の楽音データを生成する。これにより、スピーカ28から所定の楽音が発生する。   The sound source unit 26 reads the waveform data in the ROM 22 in accordance with data indicating tone color, pitch, tone length, etc., and generates predetermined musical tone data. Thereby, a predetermined musical sound is generated from the speaker 28.

音源発音処理(ステップ605)が終了すると、CPU21は、その他の処理(たとえば、表示部15への画像表示など:ステップ606)を実行して、ステップ602に戻る。   When the sound source sound generation process (step 605) ends, the CPU 21 executes other processes (for example, image display on the display unit 15, etc .: step 606) and returns to step 602.

本実施の形態によれば、CPU21は、予め定められた想定操作の押鍵タイミングと、実際の鍵盤の押鍵タイミングとの時間差に基づいて、自動伴奏データにおけるコード自動伴奏データの発音タイミングを制御する。これにより、演奏者の押鍵タイミングにしたがって、いわゆる前ノリ或いは後ノリの伴奏を実現することができる。演奏者がリズムパターンについての知識がなくても、押鍵タイミングのみによって、コード自動伴奏データのパターンを時間軸方向に移動することで変化させることが可能となる。   According to the present embodiment, the CPU 21 controls the sound generation timing of the chord automatic accompaniment data in the automatic accompaniment data based on a time difference between a predetermined key pressing timing of an assumed operation and an actual keyboard key pressing timing. To do. Thereby, according to the player's key pressing timing, it is possible to realize a so-called pre-pitch or post-pitch accompaniment. Even if the performer has no knowledge of the rhythm pattern, the automatic chord accompaniment data pattern can be changed by moving it in the time axis direction only by the key pressing timing.

また、本実施の形態によれば、押鍵タイミングについて、想定操作における押鍵タイミングから一定範囲である場合に、CPU21が時間差を算出し、その時間差の分だけ、コード自動伴奏データの楽音の発音タイミングを早め或いは遅くしている。これにより、演奏者は直感的かつ容易に自動伴奏パターンの変化を把握することが可能となる。   Further, according to the present embodiment, when the key pressing timing is within a certain range from the key pressing timing in the assumed operation, the CPU 21 calculates the time difference, and the musical tone of the chord automatic accompaniment data is generated by the time difference. The timing is advanced or delayed. Thereby, the performer can intuitively and easily grasp the change of the automatic accompaniment pattern.

たとえば、想定操作における押鍵タイミングは拍の先頭である。リズムについての知識の無い演奏者であっても、拍の先頭は容易に理解できるため、拍の先頭を基準にすることで、演奏者は簡単に自動伴奏パターンを所望のように変化させることができる。   For example, the key pressing timing in the assumed operation is the beginning of the beat. Even performers without knowledge of the rhythm can easily understand the beginning of the beat, so by using the beginning of the beat as a reference, the player can easily change the automatic accompaniment pattern as desired. it can.

また、本実施の形態においては、一定の期間だけ押鍵が無い場合には、コード伴奏パターンの発音を停止する。これにより、単に押鍵を中断するだけで、コード音の発音を停止することができる。   In the present embodiment, the chord accompaniment pattern is stopped when there is no key depression for a certain period. Thus, the chord sound can be stopped by simply interrupting the key depression.

たとえば、CPU21は、拍の先頭において、それ以前に1拍に対応する時間だけ鍵盤の操作がなかった場合に、コード自動伴奏パターンに基づく楽音の生成を停止する。拍を単位としてコード自動伴奏パターンに基づく楽音の生成の停止を判断するため、演奏者は難しい操作なくかつ直感的に所望のタイミングでのコード伴奏パターンの停止を指示することが可能となる。   For example, the CPU 21 stops the generation of the musical sound based on the automatic chord accompaniment pattern when there is no keyboard operation for the time corresponding to one beat before the beginning of the beat. Since it is determined to stop the generation of the musical sound based on the automatic chord accompaniment pattern in units of beats, the performer can instruct the stop of the chord accompaniment pattern at a desired timing intuitively without any difficult operation.

また、本実施の形態においては、CPU21は、演奏者による実際の押鍵時間と、想定操作における押鍵時間との相違に基づいて、コード自動伴奏データの楽音の音長を制御する。これにより、演奏者は、リズムパターンについての知識を有していなくても、直感的に、押鍵時間を長くする或いは短くするという簡単な行為だけで、コード伴奏データのパターンを所望のように変更することが可能となる。   In the present embodiment, the CPU 21 controls the tone length of the musical tone of the automatic chord accompaniment data based on the difference between the actual key pressing time by the performer and the key pressing time in the assumed operation. As a result, even if the performer does not have knowledge of the rhythm pattern, the chord accompaniment data pattern can be made as desired simply by a simple act of increasing or decreasing the key pressing time. It becomes possible to change.

たとえば、CPU21は、演奏者による実際の押鍵時間と、想定操作における押鍵時間との比に基づいて、コード自動伴奏データの楽音の音長を制御する。これにより、コード自動伴奏データの楽音に、演奏者による実際の押鍵時間を適切に反映させることが可能となる。   For example, the CPU 21 controls the tone length of the musical tone of the automatic chord accompaniment data based on the ratio between the actual key pressing time by the performer and the key pressing time in the assumed operation. This makes it possible to appropriately reflect the actual key pressing time by the performer in the musical tone of the automatic chord accompaniment data.

また、本実施の形態にいては、CPU21は、押鍵された白鍵の数および黒鍵の数に基づいて、押鍵された鍵に黒鍵が含まれる場合には、三和音よりも複雑な音、たとえば、テンションノートを付加したテンション付加コード構成音を選択する。したがって、演奏者にコードについて知識が無い場合にも、単に黒鍵を押鍵することで、より複雑なコード名を有する楽音の発音が可能となる。   Further, in the present embodiment, the CPU 21 is more complicated than the triad when the black key is included in the pressed key based on the number of white keys and black keys pressed. Sound, for example, a tension-added chord constituting sound with a tension note added thereto is selected. Therefore, even if the performer has no knowledge of chords, it is possible to pronounce a musical tone having a more complicated chord name by simply pressing the black key.

本発明は、以上の実施の形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。   The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the claims, and these are also included in the scope of the present invention. Needless to say.

たとえば、前記実施の形態においては、自動伴奏モードにおいて、伴奏鍵域における実際の押鍵タイミング、および、押鍵時間によって、自動伴奏パターンのうち、コード自動伴奏パターンの発音タイミングおよび発音時間(音長)を制御しているが、これに限定されるものではなく、メロディ自動伴奏パターンのメロディ音やオブリガート音の発音タイミングや音長を制御しても良い。   For example, in the embodiment, in the automatic accompaniment mode, the automatic chord accompaniment pattern sounding timing and sounding time (sound length) of the automatic accompaniment pattern according to the actual key pressing timing and key pressing time in the accompaniment key range. However, the present invention is not limited to this, and the sound generation timing and the sound length of the melody sound or obligato sound of the melody automatic accompaniment pattern may be controlled.

また、前記実施の形態においては、想定操作における押鍵タイミングは拍の先頭であり、実際の押鍵タイミングと想定操作における押鍵タイミングとの比較や、押鍵時間の比較は拍ごとに行なわれるが、これに限定されるものではなく、複数拍(たとえば、2拍)ごと、あるいは、小節ごとであっても良い。   In the above embodiment, the key pressing timing in the assumed operation is the beginning of the beat, and the comparison between the actual key pressing timing and the key pressing timing in the assumed operation and the key pressing time are performed for each beat. However, the present invention is not limited to this, and may be every plural beats (for example, two beats) or every measure.

さらに、前記実施の形態においては、押鍵数カウント値が「4」以上であって、かつ、押鍵された鍵に黒鍵が含まれる場合には、CPU21は、第4のコード構成音として、第7音やテンションノート等を含むテンション付加コード構成音、つまり、より複雑なコードネームとなるコード構成音を選択している。しかしながら、これに限定されるものではなく、黒鍵および白鍵の割合に基づいて、押鍵された鍵のうち、黒鍵の割合が、白鍵の割合以上であれば、テンション付加構成音を選択しても良い。   Furthermore, in the above embodiment, when the key press count value is “4” or more and the black key is included in the pressed key, the CPU 21 generates the fourth chord constituent sound. , A tension-added chord composing sound including the seventh sound and a tension note, that is, a chord composing sound having a more complicated chord name is selected. However, the present invention is not limited to this. Based on the ratio of the black key and the white key, if the ratio of the black key among the pressed keys is equal to or greater than the ratio of the white key, the tension-added component sound is not generated. You may choose.

図1は、本実施の形態にかかる電子楽器の外観を示す図である。FIG. 1 is a diagram showing an external appearance of an electronic musical instrument according to the present embodiment. 図2は、本発明の実施の形態にかかる電子楽器の構成を示すブロックダイヤグラムである。FIG. 2 is a block diagram showing the configuration of the electronic musical instrument according to the embodiment of the present invention. 図3は、本実施の形態にかかる電子楽器10にて実行される処理を示すフローチャートである。FIG. 3 is a flowchart showing processing executed by the electronic musical instrument 10 according to the present embodiment. 図4は、自動伴奏パターンのデータ(伴奏データ)の例を説明する図である。FIG. 4 is a diagram for explaining an example of automatic accompaniment pattern data (accompaniment data). 図5は、図4の自動伴奏パターンに対応する楽譜を示す図である。FIG. 5 is a diagram showing a score corresponding to the automatic accompaniment pattern of FIG. 図6(a)は、本実施の形態にかかる電子楽器10において実行されるメインフローの例を示すフローチャート、図6(b)は、本実施の形態にかかるタイマ割り込み処理の霊を示す図である。FIG. 6A is a flowchart illustrating an example of a main flow executed in the electronic musical instrument 10 according to the present embodiment, and FIG. 6B is a diagram illustrating a spirit of timer interrupt processing according to the present embodiment. is there. 図7は、本実施の形態にかかる鍵盤処理の例を示すフローチャートである。FIG. 7 is a flowchart showing an example of keyboard processing according to the present embodiment. 図8は、本実施の形態にかかるメロディ鍵処理の例を示すフローチャートである。FIG. 8 is a flowchart showing an example of melody key processing according to the present embodiment. 図9は、本実施の形態にかかる伴奏鍵処理の一例を示すフローチャートである。FIG. 9 is a flowchart showing an example of the accompaniment key process according to the present embodiment. 図10は、本実施の形態にかかるソング伴奏処理の例を示す図である。FIG. 10 is a diagram showing an example of song accompaniment processing according to the present embodiment. 図11(a)は、本実施の形態にかかる基準時間カウント処理の例を示すフローチャート、図11(b)は、拍先頭処理の例を示すフローチャートである。FIG. 11A is a flowchart showing an example of the reference time counting process according to the present embodiment, and FIG. 11B is a flowchart showing an example of the beat start process. 図12は、本実施の形態にかかる経過時間カウント処理の例を示すフローチャートである。FIG. 12 is a flowchart showing an example of elapsed time counting processing according to the present embodiment. 図13(a)は、本実施の形態にかかるメロディ処理の例を示すフローチャート、図13(b)は、リズム処理の例を示すフローチャートである。FIG. 13A is a flowchart showing an example of melody processing according to this embodiment, and FIG. 13B is a flowchart showing an example of rhythm processing. 図14は、本実施の形態にかかるコード音伴奏処理の例を示すフローチャートである。FIG. 14 is a flowchart showing an example of chord sound accompaniment processing according to the present embodiment. 図15は、本実施の形態にかかる操作反映処理の例を示すフローチャートである。FIG. 15 is a flowchart illustrating an example of the operation reflection process according to the present embodiment. 図16は、本実施の形態における基準経過時間および伴奏経過時間を説明する図である。FIG. 16 is a diagram illustrating the reference elapsed time and the accompaniment elapsed time in the present embodiment. 図17は、操作反映処理において得られたコード音の再生音長を説明する図である。FIG. 17 is a diagram for explaining the playback sound length of the chord sound obtained in the operation reflection process. 図18は、本実施の形態にかかる押鍵数反映処理の例を示すフローチャートである。FIG. 18 is a flowchart showing an example of the key depression number reflecting process according to the present embodiment. 図19は、本実施の形態にかかるコード音におけるコード構成音を説明する図である。FIG. 19 is a diagram for explaining a chord constituent sound in the chord sound according to the present embodiment.

符号の説明Explanation of symbols

10 電子楽器
11 鍵盤
12、13 スイッチ
15 表示部
21 CPU
22 ROM
23 RAM
24 サウンドシステム
25 スイッチ群
26 音源部
27 オーディオ回路
28 スピーカ
DESCRIPTION OF SYMBOLS 10 Electronic musical instrument 11 Keyboard 12, 13 Switch 15 Display part 21 CPU
22 ROM
23 RAM
24 Sound System 25 Switch Group 26 Sound Source 27 Audio Circuit 28 Speaker

Claims (11)

予め定められた自動伴奏パターンであって、発音すべき楽音の発音タイミング、を含む自動伴奏データを記憶する記憶手段と、
演奏操作子の操作に基づいて、所定の楽音の楽音データを生成する楽音データ生成手段と、を備えた電子楽器であって、
前記演奏操作子の操作タイミングと、前記自動伴奏データについて予め設定された基準タイミングとの時間差を算出して、前記時間差に基づいて、前記自動伴奏データ中の楽音の前記発音タイミングを制御する制御手段を備え、
前記制御手段が、前記操作タイミングが前記基準タイミングより早い場合には、前記時間差に基づいて、前記自動伴奏パターンの発音タイミングを早め、前記操作タイミングが前記基準タイミングより遅い場合には、前記時間差に基づいて、前記自動伴奏パターンの発音タイミングを遅くして、
前記楽音データ生成手段が、前記制御手段により発音タイミングが制御された自動伴奏パターンの楽音の楽音データを生成することを特徴とする電子楽器。
Storage means for storing automatic accompaniment data, which is a predetermined automatic accompaniment pattern, including the sound generation timing of a musical sound to be generated;
An electronic musical instrument comprising: musical tone data generating means for generating musical tone data of a predetermined musical tone based on an operation of a performance operator,
Control means for calculating a time difference between the operation timing of the performance operator and a reference timing preset for the automatic accompaniment data, and controlling the tone generation timing of the musical sound in the automatic accompaniment data based on the time difference With
When the operation timing is earlier than the reference timing, the control means advances the sound generation timing of the automatic accompaniment pattern based on the time difference, and when the operation timing is later than the reference timing, On the basis of the sounding timing of the automatic accompaniment pattern,
An electronic musical instrument, wherein the musical sound data generating means generates musical sound data of an automatic accompaniment pattern whose sound generation timing is controlled by the control means.
前記制御手段が、前記演算操作子の操作タイミングが、前記基準タイミングから所定の範囲内である評価対象期間であるか否かを判断し、前記評価対象期間での操作であるときに、前記操作タイミングと基準タイミングとの時間差を算出し、
前記操作タイミングが前記基準タイミングより早い場合には、前記時間差の分だけ、前記自動伴奏パターンの発音タイミングを早め、前記操作タイミングが前記基準タイミングより遅い場合には、前記時間差の分だけ、前記自動伴奏パターンの発音タイミングを遅くすることを特徴とする請求項1に記載の電子楽器。
The control means determines whether or not the operation timing of the arithmetic operator is an evaluation target period that is within a predetermined range from the reference timing, and when the operation is an operation in the evaluation target period, Calculate the time difference between the timing and the reference timing,
When the operation timing is earlier than the reference timing, the sounding timing of the automatic accompaniment pattern is advanced by the time difference, and when the operation timing is later than the reference timing, the automatic difference is generated by the time difference. The electronic musical instrument according to claim 1, wherein the sounding timing of the accompaniment pattern is delayed.
前記基準タイミングが、前記自動伴奏パターンにおける拍の先頭に対応し、
前記制御手段が、前記自動伴奏パターンにおいて、拍ごとに前記操作タイミングと前記基準タイミングとの時間差を算出することを特徴とする請求項1または2に記載の電子楽器。
The reference timing corresponds to the beginning of a beat in the automatic accompaniment pattern,
The electronic musical instrument according to claim 1, wherein the control unit calculates a time difference between the operation timing and the reference timing for each beat in the automatic accompaniment pattern.
前記制御手段が、予め定められたタイミングにおいて、一定の期間だけ前記演奏操作子の操作がなかった場合に、前記自動伴奏パターンに基づく楽音の生成を停止することを特徴とする請求項1ないし3の何れか一項に記載の電子楽器。   4. The control unit according to claim 1, wherein the controller stops generation of a musical sound based on the automatic accompaniment pattern when the performance operator is not operated for a certain period of time at a predetermined timing. The electronic musical instrument according to any one of the above. 前記制御手段が、前記自動伴奏パターンにおける拍の先頭において、それ以前に1拍に対応する時間だけ前記演奏操作子の操作がなかった場合に、前記自動伴奏パターンに基づく楽音の生成を停止することを特徴とする請求項4に記載の電子楽器。   The control means stops generation of a musical sound based on the automatic accompaniment pattern when there is no operation of the performance operator for a time corresponding to one beat before the beginning of the beat in the automatic accompaniment pattern. The electronic musical instrument according to claim 4. 前記自動伴奏パターンが、前記発音すべき楽音の音長を含み、
前記制御手段が、前記演奏操作子が操作された期間と、前記自動伴奏データについて予め設定され、前記記憶手段に記憶された基準操作期間との相違に基づいて、前記自動伴奏データ中の楽音の音長を制御することを特徴とする請求項1ないし5の何れか一項に記載の電子楽器。
The automatic accompaniment pattern includes the length of the musical sound to be pronounced,
Based on the difference between the period during which the performance operator is operated and the reference operation period set in advance for the automatic accompaniment data and stored in the storage means, the control means is configured to change the musical sound in the automatic accompaniment data. The electronic musical instrument according to any one of claims 1 to 5, wherein a sound length is controlled.
前記制御手段が、前記演奏操作子が操作された期間と前記基準操作期間との比を算出し、当該算出された比に基づいて、前記自動伴奏データ中の楽音の音長を制御することを特徴とする請求項6に記載の電子楽器。   The control means calculates a ratio between a period during which the performance operator is operated and the reference operation period, and controls a tone length of the musical sound in the automatic accompaniment data based on the calculated ratio. The electronic musical instrument according to claim 6, wherein 前記演奏操作子が鍵盤であり、
前記自動伴奏パターンが、コード構成音を特定する情報を含み、
前記制御手段が、操作された鍵の白鍵/黒鍵の種別を判断し、黒鍵の数が多くなるのにしたがって、前記コード構成音を指定する情報から、三和音により複雑な音を付加したコード構成音を選択することを特徴とする請求項1ないし7の何れか一項に記載の電子楽器。
The performance operator is a keyboard;
The automatic accompaniment pattern includes information for specifying a chord constituent sound,
The control means judges the type of the white key / black key of the operated key, and adds a complex sound by triad from the information specifying the chord constituent sound as the number of black keys increases The electronic musical instrument according to any one of claims 1 to 7, wherein the selected chord constituent sound is selected.
予め定められた自動伴奏パターンであって、発音すべき楽音の発音タイミングおよび音長を含む自動伴奏データを記憶する記憶手段と、
演奏操作子の操作に基づいて、所定の楽音の楽音データを生成する楽音データ生成手段と、を備えた電子楽器であって、
前記演奏操作子が操作された期間と、前記自動伴奏データについて予め設定され、前記記憶手段に記憶された基準操作期間との相違に基づいて、前記自動伴奏データ中の楽音の音長を制御する制御手段を備え、
前記楽音データ生成手段が、前記発音タイミングで、前記制御手段により音長が制御された自動伴奏パターンの楽音の楽音データを生成することを特徴とする電子楽器。
A storage means for storing automatic accompaniment data, which is a predetermined automatic accompaniment pattern, including a sound generation timing and a sound length of a musical sound to be generated;
An electronic musical instrument comprising: musical tone data generating means for generating musical tone data of a predetermined musical tone based on an operation of a performance operator,
Based on the difference between the period in which the performance operator is operated and the reference operation period preset for the automatic accompaniment data and stored in the storage means, the tone length of the musical sound in the automatic accompaniment data is controlled. With control means,
The electronic musical instrument characterized in that the musical sound data generating means generates musical sound data of an automatic accompaniment pattern musical sound whose sound length is controlled by the control means at the sounding timing.
予め定められた自動伴奏パターンであって、発音すべき楽音の発音タイミングを含む自動伴奏データを記憶する記憶手段と、
鍵盤の操作に基づいて、所定の楽音の楽音データを生成する楽音データ生成手段と、を備えた電子楽器であって、
操作された鍵の白鍵/黒鍵の種別を判断し、黒鍵の数が多くなるのにしたがって、前記コード構成音を指定する情報から、三和音により複雑な音を付加したコード構成音を選択する制御手段を備え、
前記楽音データ生成手段が、前記発音タイミングで、前記制御手段により選択されたコード構成音に基づいた楽音の楽音データを生成することを特徴とする電子楽器。
Storage means for storing automatic accompaniment data, which is a predetermined automatic accompaniment pattern, including the sound generation timing of a musical sound to be generated;
An electronic musical instrument comprising: musical tone data generating means for generating musical tone data of a predetermined musical tone based on a keyboard operation;
The type of white key / black key of the operated key is judged, and as the number of black keys increases, a chord constituent sound to which a complex sound is added by a triad is added from the information specifying the chord constituent sound. Control means to select,
The electronic musical instrument, wherein the musical sound data generating means generates musical sound data of musical sounds based on the chord constituent sound selected by the control means at the sounding timing.
予め定められた自動伴奏パターンであって、発音すべき楽音の発音タイミング、を含む自動伴奏データを記憶する記憶手段を備えたコンピュータに、
演奏操作子の操作に基づいて、所定の楽音の楽音データを生成する楽音データ生成ステップと、
前記演奏操作子の操作タイミングと、前記自動伴奏データについて予め設定され、前記記憶手段に記憶された基準タイミングとの時間差を算出して、前記時間差に基づいて、前記自動伴奏データ中の楽音の前記発音タイミングを制御する制御ステップとを実行させ、
前記制御ステップが、前記操作タイミングが前記基準タイミングより早い場合には、前記時間差に基づいて、前記自動伴奏パターンの発音タイミングを早め、前記操作タイミングが前記基準タイミングより遅い場合には、前記時間差に基づいて、前記自動伴奏パターンの発音タイミングを遅くするステップを含み、
前記楽音データ生成ステップにおいて、前記制御ステップにおいて発音タイミングが制御された自動伴奏パターンの楽音の楽音データが生成されることを特徴とする電子楽器のプログラム。
A computer provided with storage means for storing automatic accompaniment data including a predetermined automatic accompaniment pattern and the sound generation timing of a musical sound to be generated,
A musical sound data generation step for generating musical sound data of a predetermined musical sound based on the operation of the performance operator;
A time difference between the operation timing of the performance operator and the reference timing preset for the automatic accompaniment data and stored in the storage means is calculated, and the musical sound in the automatic accompaniment data is calculated based on the time difference. A control step for controlling the sound generation timing,
When the control timing is earlier than the reference timing, the sound generation timing of the automatic accompaniment pattern is advanced based on the time difference, and when the operation timing is later than the reference timing, the time difference is set to the time difference. Based on the step of delaying the sound generation timing of the automatic accompaniment pattern,
An electronic musical instrument program characterized in that, in the musical sound data generating step, musical sound data of a musical sound of an automatic accompaniment pattern whose sound generation timing is controlled in the control step is generated.
JP2008288716A 2008-11-11 2008-11-11 Electronic musical instrument Pending JP2010117419A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008288716A JP2010117419A (en) 2008-11-11 2008-11-11 Electronic musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008288716A JP2010117419A (en) 2008-11-11 2008-11-11 Electronic musical instrument

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013087383A Division JP5692275B2 (en) 2013-04-18 2013-04-18 Electronic musical instruments

Publications (1)

Publication Number Publication Date
JP2010117419A true JP2010117419A (en) 2010-05-27

Family

ID=42305140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008288716A Pending JP2010117419A (en) 2008-11-11 2008-11-11 Electronic musical instrument

Country Status (1)

Country Link
JP (1) JP2010117419A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164131A (en) * 2013-02-25 2014-09-08 Yamaha Corp Acoustic synthesizer
JP2015148820A (en) * 2015-04-10 2015-08-20 カシオ計算機株式会社 Musical sound generation device and musical sound generation program
CN113140201A (en) * 2020-01-17 2021-07-20 雅马哈株式会社 Accompaniment sound generation device, electronic musical instrument, accompaniment sound generation method, and accompaniment sound generation program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04186299A (en) * 1990-11-20 1992-07-03 Yamaha Corp Electronic musical instrument
JPH1185153A (en) * 1997-09-08 1999-03-30 Casio Comput Co Ltd Playing device
JP2001282238A (en) * 2001-03-16 2001-10-12 Yamaha Corp Automatic playing device
JP2005128208A (en) * 2003-10-23 2005-05-19 Yamaha Corp Performance reproducing apparatus and performance reproducing control program
JP2005189899A (en) * 2005-03-28 2005-07-14 Yamaha Corp Electronic musical instrument
JP2008020876A (en) * 2006-06-15 2008-01-31 Casio Comput Co Ltd Performance apparatus, performance implementing method and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04186299A (en) * 1990-11-20 1992-07-03 Yamaha Corp Electronic musical instrument
JPH1185153A (en) * 1997-09-08 1999-03-30 Casio Comput Co Ltd Playing device
JP2001282238A (en) * 2001-03-16 2001-10-12 Yamaha Corp Automatic playing device
JP2005128208A (en) * 2003-10-23 2005-05-19 Yamaha Corp Performance reproducing apparatus and performance reproducing control program
JP2005189899A (en) * 2005-03-28 2005-07-14 Yamaha Corp Electronic musical instrument
JP2008020876A (en) * 2006-06-15 2008-01-31 Casio Comput Co Ltd Performance apparatus, performance implementing method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164131A (en) * 2013-02-25 2014-09-08 Yamaha Corp Acoustic synthesizer
JP2015148820A (en) * 2015-04-10 2015-08-20 カシオ計算機株式会社 Musical sound generation device and musical sound generation program
CN113140201A (en) * 2020-01-17 2021-07-20 雅马哈株式会社 Accompaniment sound generation device, electronic musical instrument, accompaniment sound generation method, and accompaniment sound generation program
CN113140201B (en) * 2020-01-17 2024-04-19 雅马哈株式会社 Accompaniment sound generation device, electronic musical instrument, accompaniment sound generation method, and accompaniment sound generation program

Similar Documents

Publication Publication Date Title
JP5168297B2 (en) Automatic accompaniment device and automatic accompaniment program
JP5041015B2 (en) Electronic musical instrument and musical sound generation program
JP7521567B2 (en) Electronic musical instrument, electronic musical instrument sound generation method, and program
JP5293710B2 (en) Key judgment device and key judgment program
JP5732982B2 (en) Musical sound generation device and musical sound generation program
JP2010117419A (en) Electronic musical instrument
JP5692275B2 (en) Electronic musical instruments
JP5347854B2 (en) Performance learning apparatus and performance learning program
JP5564921B2 (en) Electronic musical instruments
JP5909967B2 (en) Key judgment device, key judgment method and key judgment program
JP5560574B2 (en) Electronic musical instruments and automatic performance programs
JP2006065186A (en) Device and method for tempo information output, computer program for tempo information output, device and method for touch information output, and computer program for touch information output
JP4197153B2 (en) Electronic musical instruments
JP7452501B2 (en) Automatic performance device, electronic musical instrument, performance system, automatic performance method, and program
JP5742592B2 (en) Musical sound generation device, musical sound generation program, and electronic musical instrument
US20230035440A1 (en) Electronic device, electronic musical instrument, and method therefor
JP5640308B2 (en) Performance device and performance processing program
JP2003122355A (en) Electronic musical instrument
JP6102975B2 (en) Musical sound generation device, musical sound generation program, and electronic musical instrument
JP2017129611A (en) Electronic sound apparatus
JP3669066B2 (en) Electronic musical instruments
JP3620321B2 (en) Automatic accompaniment device
JP2522906Y2 (en) Electronic musical instrument
JP4942938B2 (en) Automatic accompaniment device
JP3557474B2 (en) Tone generator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130709