JP2002333880A - Electronic musical instrument, sound production processing method and program - Google Patents

Electronic musical instrument, sound production processing method and program

Info

Publication number
JP2002333880A
JP2002333880A JP2001137717A JP2001137717A JP2002333880A JP 2002333880 A JP2002333880 A JP 2002333880A JP 2001137717 A JP2001137717 A JP 2001137717A JP 2001137717 A JP2001137717 A JP 2001137717A JP 2002333880 A JP2002333880 A JP 2002333880A
Authority
JP
Japan
Prior art keywords
part data
tempo
main part
data
timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001137717A
Other languages
Japanese (ja)
Inventor
Hideyuki Tanaka
秀幸 田中
Akira Kawai
晃 河合
Kazunori Matsuda
寿徳 松田
Eiji Matsuda
英治 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP2001137717A priority Critical patent/JP2002333880A/en
Publication of JP2002333880A publication Critical patent/JP2002333880A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To give instruction for the tempo of sub-part data by operating play operating elements. SOLUTION: This electronic musical instrument has a memory means (109) for storing main part data (109a) and sub-part data (109b), composed of one or plural parts, the playing control elements (102) for sound instructing by a player, means for successively reading the one or plural main part data out of the memory means, every time a sound production instruction is made by the playing control elements and subjecting the data to sound production processing; a means for determining the playing tempo of a player according to the timing of the sound production instruction, with the timing of the sound production instruction prior to the same and the timing of the main part data read out of the memory means according to the sound production instruction; and a means for reading out the sub-part data stored in the memory means at the decided tempo and subjecting the data to sound production processing.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、予め用意された自
動演奏データを演奏操作子により発音指示がされる毎に
所定量ずつ順次メインパートデータを読み出して発音処
理する技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for sequentially reading out main part data by a predetermined amount each time automatic performance data prepared in advance is instructed by a performance operator to generate a sound.

【0002】[0002]

【従来の技術】従来、電子楽器では、半自動演奏するた
めのメロディパートデータ(メインパートデータ)をメ
モリに記憶させておき、鍵盤により指示されたタイミン
グによってメロディパートデータを読み出して、楽音を
発生させることで、半自動演奏を進行させていた。この
際、伴奏パートデータ(サブパートデータ)は、予め設
定されたテンポで自動伴奏される。
2. Description of the Related Art Conventionally, in an electronic musical instrument, melody part data (main part data) for semi-automatic performance is stored in a memory, and the melody part data is read out at a timing designated by a keyboard to generate a musical tone. By doing so, semi-automatic performance was progressing. At this time, the accompaniment part data (subpart data) is automatically accompanied at a preset tempo.

【0003】[0003]

【発明が解決しようとする課題】しかし、従来の電子楽
器では、伴奏パートデータが予め設定されたテンポに拘
束されるので、演奏者の所望のテンポで伴奏パートデー
タを自動伴奏させることができなかった。
However, in the conventional electronic musical instrument, the accompaniment part data is restricted to a preset tempo, so that the accompaniment part data cannot be automatically accompanied at a desired tempo of the player. Was.

【0004】本発明の目的は、演奏操作子の操作により
サブパートデータのテンポの指示を可能にすることであ
る。
It is an object of the present invention to enable the tempo of subpart data to be designated by operating a performance operator.

【0005】[0005]

【課題を解決するための手段】本発明の一観点によれ
ば、1つ又は複数のパートで構成されているメインパー
トデータ及び1つ又は複数のパートで構成されているサ
ブパートデータを記憶する記憶手段と、演奏者が発音指
示をするための演奏操作子と、前記演奏操作子により発
音指示される毎に順次前記記憶手段から1つ又は複数の
メインパートデータを読み出して発音処理するメインパ
ート発音処理手段と、前記発音指示のタイミング及びそ
の前の発音指示のタイミング、並びに該発音指示に応じ
て前記記憶手段から読み出されるメインパートデータの
タイミングに応じて演奏者の演奏テンポを決定するテン
ポ決定手段と、前記テンポ決定手段により決定されたテ
ンポで前記記憶手段に記憶されているサブパートデータ
を読み出して発音処理するサブパート発音処理手段とを
有する電子楽器が提供される。
According to one aspect of the present invention, storage for storing main part data composed of one or more parts and subpart data composed of one or more parts. Means, a performance operator for the player to instruct sounding, and a main part sounding unit for sequentially reading out one or a plurality of main part data from the storage means each time sounding is instructed by the performance operator. Processing means; and tempo determining means for determining a performance tempo of the player according to the timing of the sounding instruction and the timing of the preceding sounding instruction, and the timing of the main part data read from the storage means in accordance with the sounding instruction. Reading the subpart data stored in the storage means at the tempo determined by the tempo determination means, Electronic musical instrument and a subpart sound processing means for are provided.

【0006】本発明の他の観点によれば、1つ又は複数
のパートで構成されているメインパートデータ及び1つ
又は複数のパートで構成されているサブパートデータが
記憶された記憶手段を準備する準備ステップと、演奏操
作子により発音指示される毎に順次前記記憶手段から1
つ又は複数のメインパートデータを読み出して発音処理
するメインパート発音処理ステップと、前記発音指示の
タイミング及びその前の発音指示のタイミング、並びに
該発音指示に応じて前記記憶手段から読み出されるメイ
ンパートデータのタイミングに応じて演奏者の演奏テン
ポを決定するテンポ決定ステップと、前記決定されたテ
ンポで前記記憶手段に記憶されているサブパートデータ
を読み出して発音処理するサブパート発音処理ステップ
とを有する発音処理方法が提供される。
According to another aspect of the present invention, storage means is provided for storing main part data composed of one or more parts and subpart data composed of one or more parts. A preparatory step, and each time a sounding instruction is given by the performance operator,
Main part sound processing step of reading out one or a plurality of main part data and performing sound processing, the timing of the sound generation instruction and the timing of the previous sound generation instruction, and the main part data read from the storage means in response to the sound generation instruction And a subpart sound processing step of reading subpart data stored in the storage means at the determined tempo and performing sound processing. Is provided.

【0007】本発明のさらに他の観点によれば、1つ又
は複数のパートで構成されているメインパートデータ及
び1つ又は複数のパートで構成されているサブパートデ
ータが記憶された記憶手段を準備する準備手順と、演奏
操作子により発音指示される毎に順次前記記憶手段から
1つ又は複数のメインパートデータを読み出して発音処
理するメインパート発音処理手順と、前記発音指示のタ
イミング及びその前の発音指示のタイミング、並びに該
発音指示に応じて前記記憶手段から読み出されるメイン
パートデータのタイミングに応じて演奏者の演奏テンポ
を決定するテンポ決定手順と、前記決定されたテンポで
前記記憶手段に記憶されているサブパートデータを読み
出して発音処理するサブパート発音処理手順とをコンピ
ュータに実行させるためのプログラムが提供される。
[0007] According to still another aspect of the present invention, there is provided storage means for storing main part data composed of one or more parts and subpart data composed of one or more parts. A main part sounding procedure for sequentially reading out one or a plurality of main part data from the storage means each time sounding is instructed by the performance operator, and performing sounding processing; A tempo determining step of determining a performance tempo of the player according to the timing of the sounding instruction and the timing of the main part data read from the storage means in response to the sounding instruction; and storing the determined tempo in the storage means. A sub-part sound processing procedure for reading out the sub-part data and executing the sound processing. Program for is provided.

【0008】本発明によれば、演奏操作子の操作により
サブパートデータのテンポをリアルタイムで指示するこ
とができるので、演奏者の所望のテンポでサブパートデ
ータの発音処理を行うことができる。
According to the present invention, the tempo of the subpart data can be instructed in real time by operating the performance operator, so that the sound processing of the subpart data can be performed at the tempo desired by the player.

【0009】[0009]

【発明の実施の形態】(第1の実施形態)図1は、本発
明の第1の実施形態による電子楽器の構成を示す。バス
101には、キースイッチ回路103、パネルスイッチ
回路105、表示装置106、外部記憶装置107、R
AM108、ROM109、CPU110及び音源11
3が接続される。CPU110は、ROM109内のコ
ンピュータプログラムに従い、バス101を介して他の
構成要素の制御等を行うことができる。
FIG. 1 shows the configuration of an electronic musical instrument according to a first embodiment of the present invention. The bus 101 includes a key switch circuit 103, a panel switch circuit 105, a display device 106, an external storage device 107,
AM 108, ROM 109, CPU 110 and sound source 11
3 is connected. The CPU 110 can control other components via the bus 101 according to a computer program in the ROM 109.

【0010】鍵盤(演奏操作子)102は、複数の白鍵
及び黒鍵を有する。キースイッチ回路103は、演奏者
が鍵盤102を押鍵又は離鍵すると、鍵盤オンイベント
(発音指示イベント)又は鍵盤オフイベント(消音指示
イベント)を検出する。鍵盤オンイベントは、音高及び
ベロシティの情報を含む。ベロシティ情報は、押鍵速度
を示す。
The keyboard (performance operator) 102 has a plurality of white keys and black keys. When the performer presses or releases the keyboard 102, the key switch circuit 103 detects a keyboard on event (sound generation instruction event) or a keyboard off event (mute instruction event). The key-on event includes pitch and velocity information. The velocity information indicates a key pressing speed.

【0011】操作パネル104は、種々のスイッチを有
し、例えばマニュアル演奏モード又は半自動演奏モード
を指定するためのスイッチ等を有する。パネルスイッチ
回路105は、演奏者が操作パネル104上のスイッチ
を操作すると、スイッチイベントを検出する。
The operation panel 104 has various switches, for example, a switch for designating a manual performance mode or a semi-automatic performance mode. The panel switch circuit 105 detects a switch event when a player operates a switch on the operation panel 104.

【0012】表示装置106は、液晶表示器(LCD)
及び発光ダイオード(LED)等を有し、種々の情報を
表示することができる。外部記憶装置107は、フロッ
ピディスクやCD−ROM等であり、種々の情報を記憶
することができる。
The display device 106 is a liquid crystal display (LCD)
And a light emitting diode (LED), and can display various information. The external storage device 107 is a floppy disk, a CD-ROM, or the like, and can store various information.

【0013】RAM108は、CPU110のワークエ
リアを有し、種々の情報を記憶する。ROM109は、
メロディパートデータ(メインパートデータ)109a
及び自動伴奏パートデータ(サブパートデータ)109
bを記憶する。メロディパートデータ109a及び自動
伴奏パートデータ109bは、それぞれ分けて記憶させ
てもよいし、混在して記憶させてもよく、それぞれのパ
ートは1つ又は複数のパート(チャネル又はトラック)
で構成される。また、メロディパートデータ109a及
び自動伴奏パートデータ109bは、外部記憶装置10
7に記憶させたり、MIDI入出力手段112が外部機
器からMIDIデータとして入力してCPU110に供
給してもよい。
The RAM 108 has a work area for the CPU 110 and stores various information. ROM 109 is
Melody part data (main part data) 109a
And automatic accompaniment part data (subpart data) 109
b is stored. The melody part data 109a and the automatic accompaniment part data 109b may be stored separately or mixedly, and each part may be one or more parts (channels or tracks).
It consists of. The melody part data 109a and the automatic accompaniment part data 109b are stored in the external storage device 10
7, and the MIDI input / output means 112 may input the data as MIDI data from an external device and supply the data to the CPU 110.

【0014】CPU110は、タイマ111を有し、タ
イマ111は、時間情報をCPU110に供給する。自
動伴奏パートデータ109bは、タイマ111の時間情
報に応じて発音タイミング等が制御される。
The CPU 110 has a timer 111, and the timer 111 supplies time information to the CPU 110. In the automatic accompaniment part data 109b, the sounding timing and the like are controlled according to the time information of the timer 111.

【0015】演奏モードには、マニュアル演奏モードと
半自動演奏モードがある。まず、マニュアル演奏モード
について説明する。演奏者が鍵盤102上で演奏操作す
ると、CPU110は、それに応じた楽音パラメータ
(鍵盤オンイベント等)を音源113に供給する。音源
113は、鍵盤オンイベント(音高及びベロシティを含
む)を受けると、波形メモリ114から楽音波形を読み
出し、鍵盤オンイベント中の音高及びベロシティに応じ
た音量で楽音信号を生成する。D/A変換器115は、
楽音信号をデジタル形式からアナログ形式に変換する。
アンプ116は、アナログ形式の楽音信号を増幅し、ス
ピーカ117から楽音を発音させる。
The performance modes include a manual performance mode and a semi-automatic performance mode. First, the manual performance mode will be described. When the player performs a performance operation on the keyboard 102, the CPU 110 supplies musical tone parameters (keyboard on event or the like) according to the operation to the sound source 113. Upon receiving the keyboard ON event (including the pitch and velocity), the sound source 113 reads out the tone waveform from the waveform memory 114 and generates a tone signal at a volume corresponding to the pitch and velocity during the keyboard ON event. The D / A converter 115
Converts a tone signal from a digital format to an analog format.
The amplifier 116 amplifies the analog tone signal and causes the speaker 117 to emit a tone.

【0016】次に、半自動演奏モードについて説明す
る。CPU110は、演奏者が鍵盤102を押鍵する毎
に順次ROM109から1つ又は複数のメロディパート
データ109aを読み出して、音源113に発音処理さ
せる。音源113は、鍵盤オンイベント(音高及びベロ
シティを含む)を受けると、鍵盤オンイベント中の音高
を無視し、鍵盤オンイベント中のベロシティに応じた音
量で楽音信号を生成して発音させる。具体的には、演奏
者が、鍵盤102を用いて、メロディパートデータ10
9aの各音符の発音タイミング及びベロシティのみを指
示すれば、メロディパートデータ109aが読み出され
てメロディパートデータ109aが示す音高で発音され
る。ROM109内には、複数曲分のメロディパートデ
ータ109aが記憶されているので、演奏者は曲の音符
を覚えていなくても、各音符の発音タイミング及びベロ
シティを指定するのみで容易に演奏を行うことができ
る。
Next, the semi-automatic performance mode will be described. The CPU 110 sequentially reads one or a plurality of melody part data 109a from the ROM 109 every time the player presses the keyboard 102, and causes the sound source 113 to perform sound generation processing. Upon receiving the keyboard-on event (including the pitch and velocity), the sound source 113 ignores the pitch during the keyboard-on event and generates a tone signal at a volume corresponding to the velocity during the keyboard-on event to generate a tone. Specifically, the player uses the keyboard 102 to play the melody part data 10.
If only the sounding timing and velocity of each note 9a are indicated, the melody part data 109a is read out and sounded at the pitch indicated by the melody part data 109a. Since the melody part data 109a for a plurality of music pieces is stored in the ROM 109, the player can easily perform the music by simply designating the sounding timing and velocity of each note without having to remember the notes of the music piece. be able to.

【0017】また、上記のメロディパートデータ109
aの発音処理と同時に、自動伴奏パートデータ109b
の自動伴奏処理が行われる。自動伴奏パートデータ10
9bは、基本的に鍵盤102上の操作とは無関係に読み
出され、音源113に供給される。音源113は、自動
伴奏パートデータ109bの発音処理を行う。
The above melody part data 109
Automatic accompaniment part data 109b
Is performed automatically. Automatic accompaniment part data 10
9b is read basically irrespective of the operation on the keyboard 102 and supplied to the sound source 113. The sound source 113 performs a sound generation process of the automatic accompaniment part data 109b.

【0018】通常の自動伴奏処理は、自動伴奏パートデ
ータ109b内のテンポに従って発音処理する。しか
し、それでは、自動伴奏パートデータ109bが予め設
定されたテンポに拘束されるので、演奏者の所望のテン
ポで自動伴奏パートデータ109bを自動伴奏させるこ
とができない。すなわち、演奏者は、メロディパートデ
ータ109aのテンポ(発音タイミング)のみを指示で
き、自動伴奏パートデータ109bのテンポを指示でき
ないため、それぞれのパートのテンポがずれてしまうこ
とがある。
In the normal automatic accompaniment process, a tone generation process is performed according to the tempo in the automatic accompaniment part data 109b. However, in this case, the automatic accompaniment part data 109b is restricted by the preset tempo, so that the automatic accompaniment part data 109b cannot be automatically accompanied at the tempo desired by the player. In other words, the performer can instruct only the tempo (sound generation timing) of the melody part data 109a and cannot instruct the tempo of the automatic accompaniment part data 109b, so that the tempo of each part may be shifted.

【0019】本実施形態では、鍵盤102の操作により
メロディパートデータ109aの発音タイミング及びベ
ロシティを指示する際、その発音タイミングに応じて自
動伴奏パートデータ109bのテンポも制御する。具体
的には、演奏者の押鍵間隔を基に演奏者の演奏テンポを
決定し、そのテンポで自動伴奏パートデータ109bを
自動伴奏させる。これにより、演奏者は、鍵盤102の
押鍵操作により、メロディパートデータ109aのテン
ポ(発音タイミング)のみならず、自動伴奏パートデー
タ109bのテンポをも制御することができる。また、
それぞれのパートのテンポが一致するので、各パートの
同期した演奏が可能になる。
In this embodiment, when the sounding timing and velocity of the melody part data 109a are instructed by operating the keyboard 102, the tempo of the automatic accompaniment part data 109b is controlled in accordance with the sounding timing. Specifically, the performance tempo of the player is determined based on the key press interval of the player, and the automatic accompaniment part data 109b is automatically accompanied at that tempo. Thus, the player can control not only the tempo (sound generation timing) of the melody part data 109a but also the tempo of the automatic accompaniment part data 109b by the key pressing operation of the keyboard 102. Also,
Since the tempos of the respective parts match, synchronized performance of the respective parts becomes possible.

【0020】図2は、電子楽器のメインルーチンの処理
を示すフローチャートである。電子楽器の電源をオンす
ると、以下の処理が開始する。
FIG. 2 is a flowchart showing the processing of the main routine of the electronic musical instrument. When the power of the electronic musical instrument is turned on, the following processing starts.

【0021】ステップS201では、CPU110の初
期化を行う。例えば、CPU110の各ポートの設定を
行う。ステップS202では、RAM108の初期化を
行う。例えば、RAM108内の音色の設定等を行う。
ステップS203では、タイマ111等の初期化を行
う。
In step S201, the CPU 110 is initialized. For example, each port of the CPU 110 is set. In step S202, the RAM 108 is initialized. For example, setting of a tone color in the RAM 108 is performed.
In step S203, initialization of the timer 111 and the like is performed.

【0022】ステップS204では、鍵盤102の操作
により発生する鍵盤イベントの処理を行う。この処理の
詳細は、後に図3を参照しながら説明する。ステップS
205では、自動伴奏パートデータ109bの自動伴奏
処理を行う。この自動伴奏処理は、上述した通りであ
る。ステップS206では、操作パネル104の操作に
より発生するスイッチイベントの処理を行う。例えば、
スイッチイベントに応じて、マニュアル演奏モードと半
自動演奏モードとを切り替える。スイッチS207で
は、MIDI処理を行う。MIDI処理は、MIDI入
出力手段112が外部機器に対してMIDIデータを入
出力する処理である。その後、ステップS204に戻
り、上記の処理を繰り返す。
In step S204, a keyboard event generated by operating the keyboard 102 is processed. Details of this processing will be described later with reference to FIG. Step S
At 205, automatic accompaniment processing of the automatic accompaniment part data 109b is performed. This automatic accompaniment process is as described above. In step S206, processing of a switch event generated by operating the operation panel 104 is performed. For example,
Switching between a manual performance mode and a semi-automatic performance mode according to a switch event. In the switch S207, a MIDI process is performed. The MIDI process is a process in which the MIDI input / output unit 112 inputs and outputs MIDI data to and from an external device. Thereafter, the process returns to step S204, and the above processing is repeated.

【0023】図3は、図2のステップS204の鍵盤イ
ベント処理の詳細を示すフローチャートである。ステッ
プS301では、イベント検出処理を行う。イベント検
出処理は、鍵盤102が押鍵又は離鍵されると、鍵盤オ
ンイベント又は鍵盤オフイベントを検出する。ステップ
S302では、鍵盤イベントが検出されたか否かをチェ
ックする。検出されればステップS303へ進み、検出
されなければ図2の処理に戻る。
FIG. 3 is a flowchart showing details of the keyboard event process in step S204 of FIG. In step S301, an event detection process is performed. The event detection process detects a key-on event or a key-off event when the keyboard 102 is pressed or released. In step S302, it is checked whether a keyboard event has been detected. If detected, the process proceeds to step S303. If not detected, the process returns to the process in FIG.

【0024】ステップS303では、検出された鍵盤イ
ベントが鍵盤オンイベント又は鍵盤オフイベントのいず
れであるかをチェックする。鍵盤オンイベントであれば
ステップS304へ進み、鍵盤オフイベントであればス
テップS305へ進む。
In step S303, it is checked whether the detected keyboard event is a keyboard on event or a keyboard off event. If it is a keyboard on event, the process proceeds to step S304. If it is a keyboard off event, the process proceeds to step S305.

【0025】ステップS304では、鍵盤オンイベント
処理を行う。鍵盤オンイベント処理は、発音処理を行う
ものであり、その詳細は後に図4を参照しながら説明す
る。その後、図2の処理に戻る。
In step S304, a keyboard ON event process is performed. The keyboard on-event processing is for performing sound generation processing, the details of which will be described later with reference to FIG. Thereafter, the process returns to the process of FIG.

【0026】ステップS305では、鍵盤オフイベント
処理を行う。鍵盤オフイベント処理は、発音中の楽音の
消音処理を行う。その後、図2の処理に戻る。
In step S305, a keyboard off event process is performed. The keyboard off event process performs a process of silencing a musical tone being sounded. Thereafter, the process returns to the process of FIG.

【0027】図4は、図3のステップS304の鍵盤オ
ンイベント処理の詳細を示すフローチャートである。ス
テップS401では、演奏モードが半自動演奏モード又
はマニュアル演奏モードのいずれであるかをチェックす
る。半自動演奏モードであればステップS402へ進
み、マニュアル演奏モードであればステップS403へ
進む。
FIG. 4 is a flowchart showing details of the keyboard ON event process in step S304 of FIG. In step S401, it is checked whether the performance mode is the semi-automatic performance mode or the manual performance mode. If the mode is the semi-automatic performance mode, the process proceeds to step S402; if the mode is the manual performance mode, the process proceeds to step S403.

【0028】ステップS402では、半自動演奏鍵盤オ
ンイベント処理を行う。この処理の詳細は、後に図5を
参照しながら説明する。その後、図3の処理に戻る。
In step S402, a semi-automatic performance keyboard ON event process is performed. Details of this processing will be described later with reference to FIG. Then, the process returns to the process of FIG.

【0029】ステップS403では、鍵盤発音処理を行
う。具体的には、鍵盤102の操作に応じて、鍵盤オン
イベント内の音高、及び鍵盤オンイベント内のベロシテ
ィに応じた音量で発音処理を行う。その後、図3の処理
に戻る。
In step S403, keyboard sound generation processing is performed. Specifically, in accordance with the operation of the keyboard 102, the sound generation process is performed at a volume according to the pitch in the keyboard-on event and the velocity in the keyboard-on event. Then, the process returns to the process of FIG.

【0030】図5は、図4のステップS402の半自動
演奏鍵盤オンイベント処理の詳細を示すフローチャート
である。ステップS501では、自動伴奏パートデータ
109bのテンポ検出及び変更処理を行う。この処理
は、鍵盤102の押鍵間隔に応じて自動伴奏パートデー
タ109bのテンポを決定する処理であり、その詳細は
後に図6を参照しながら説明する。
FIG. 5 is a flowchart showing the details of the semi-automatic performance keyboard ON event process of step S402 in FIG. In step S501, tempo detection and change processing of the automatic accompaniment part data 109b is performed. This process is a process of determining the tempo of the automatic accompaniment part data 109b according to the key press interval of the keyboard 102, the details of which will be described later with reference to FIG.

【0031】ステップS502では、1つ又は複数のメ
ロディパートデータ109aをROM109から読み出
す。すなわち、ROM109から所定時間内のメロディ
パートデータ109aを読み出す。和音は、ほぼ同時期
の複数の音符データにより構成されるので、所定時間内
に複数の音符データが存在するときにはそれらをまとめ
て読み出す。和音ではなく単音であるときには、1つの
メロディパートデータ109aを読み出す。
In step S502, one or more melody part data 109a is read from the ROM 109. That is, the melody part data 109a within a predetermined time is read from the ROM 109. Since a chord is composed of a plurality of note data at approximately the same time, when a plurality of note data exist within a predetermined time, they are read out collectively. When it is not a chord but a single tone, one melody part data 109a is read.

【0032】ステップS503では、読み出したメロデ
ィパートデータ109aの処理を行う。そのデータが鍵
盤オンイベント(キーオンイベント)であるときには、
そのイベント内のベロシティを上記の鍵盤操作に応じた
ベロシティに変更し、発音処理する。すなわち、鍵盤操
作により、各音符の発音タイミング及びベロシティ(音
量)が指定される。音高は、メロディパートデータ10
9aのものが指定される。
In step S503, the read melody part data 109a is processed. When the data is a key-on event (key-on event),
The velocity in the event is changed to the velocity according to the above-mentioned keyboard operation, and the sound is processed. That is, the sounding timing and velocity (volume) of each note are designated by keyboard operation. The pitch is the melody part data 10
9a is designated.

【0033】ステップS504では、メロディパートデ
ータ109aの次の読み出しアドレスをセットし、図4
の処理に戻る。
In step S504, the next read address of the melody part data 109a is set.
Return to the processing of.

【0034】図6は、図5のステップS501の自動伴
奏パートのテンポ検出及び変更処理の詳細を示すフロー
チャートである。ステップS601では、テンポ検出用
カウンタcg_time_ctrの値を読み出す。テン
ポ検出用カウンタcg_time_ctrは、鍵盤10
2を押鍵する度に読み出されて0にリセットされる。そ
の後、タイマ111によりテンポ検出用カウンタcg_
time_ctr内の時間情報がインクリメントされ
る。すなわち、テンポ検出用カウンタcg_time_
ctrは、前回の押鍵により0にリセットされ、今回の
押鍵により読み出されるので、演奏者による鍵盤102
の押鍵間隔の時間が格納される。
FIG. 6 is a flowchart showing details of the tempo detection and change processing of the automatic accompaniment part in step S501 in FIG. In step S601, the value of the tempo detection counter cg_time_ctr is read. The tempo detection counter cg_time_ctr is
It is read and reset to 0 each time the key 2 is pressed. After that, the tempo detection counter cg_
The time information in time_ctr is incremented. That is, the tempo detection counter cg_time_
ctr is reset to 0 by the previous key press and is read out by the current key press.
Is stored.

【0035】ステップ602では、メロディパートデー
タ109aをROM109から読み出す。この際、RO
M109からは、デルタタイム及びイベントデータの組
みが読み出される。デルタタイムは、前回のイベントデ
ータと今回のイベントデータとの時間間隔(相対時間)
を示す。デルタタイムがイベントデータの絶対時間で表
現されているときには、前回のイベントデータと今回の
イベントデータとの時間間隔を求めてデルタタイムとす
る。すなわち、このデルタタイムは、メロディパートデ
ータ109aの本来の押鍵間隔に相当する。
In step 602, the melody part data 109a is read from the ROM 109. At this time, RO
From M109, a set of delta time and event data is read. Delta time is the time interval (relative time) between the previous event data and the current event data
Is shown. When the delta time is represented by the absolute time of the event data, the time interval between the previous event data and the current event data is obtained and set as the delta time. That is, the delta time corresponds to the original key press interval of the melody part data 109a.

【0036】ステップS603では、上記のデルタタイ
ムを時間計測カウンタd_time_ctrに格納す
る。
In step S603, the above delta time is stored in a time measurement counter d_time_ctr.

【0037】ステップS604では、テンポ検出用カウ
ンタcg_time_ctrと時間計測カウンタd_t
ime_ctrとを比較し、両者の差が設定値以内であ
るか否かをチェックする。すなわち、演奏者の押鍵間隔
がメロディパートデータの押鍵間隔とほぼ同じであるか
否かをチェックする。両者の差が設定値以内であれば、
演奏者の演奏テンポがメロディパートデータ109aの
本来のテンポにほぼ一致しているので、テンポを変更す
る必要がなく、図5の処理に戻る。一方、両者の差が設
定値より大きければ、演奏者の演奏テンポがメロディパ
ートデータ109aの本来のテンポにずれているので、
ステップS605へ進む。
In step S604, a tempo detection counter cg_time_ctr and a time measurement counter d_t
It is compared with im_ctr to check whether the difference between them is within a set value. That is, it is checked whether the key press interval of the performer is substantially the same as the key press interval of the melody part data. If the difference between them is within the set value,
Since the performance tempo of the player substantially matches the original tempo of the melody part data 109a, there is no need to change the tempo, and the process returns to the processing in FIG. On the other hand, if the difference between the two is greater than the set value, the performance tempo of the performer is shifted from the original tempo of the melody part data 109a.
Proceed to step S605.

【0038】ステップS605では、演奏者の演奏テン
ポTEMPO1を算出する。テンポ検出用カウンタcg
_time_ctrが示す演奏者の押鍵間隔をT1と
し、時間計測カウンタd_time_ctrが示すメロ
ディパートデータ109aが示す押鍵間隔をT2とし、
メロディパートデータ109aが示すテンポをTEMP
O2とする。演奏者の演奏テンポTEMPO1は、次式
で算出される。
In step S605, the performance tempo TEMPO1 of the player is calculated. Tempo detection counter cg
_Time_ctr indicates a key press interval of the player, and T1 indicates a key press interval indicated by the melody part data 109a indicated by the time measurement counter d_time_ctr.
The tempo indicated by the melody part data 109a is TEMP
O2. The performance tempo TEMPO1 of the player is calculated by the following equation.

【0039】TEMPO1=TEMPO2×T1/T2TEMPO1 = TEMPO2 × T1 / T2

【0040】ステップS606では、過去に算出された
複数のテンポTEMPO1の平均値を算出し、テンポT
EMPOを決定する。この際、ステップS604で両者
の差が設定値以内か否かにかかわらず、押鍵する度にテ
ンポTEMPO1を算出し、その平均を求めてテンポT
EMPOを決定することが好ましい。過去の複数のテン
ポを平均することにより、今回の押鍵タイミング及びそ
の前の押鍵タイミングのみならず、さらにそれ以前の押
鍵タイミングをも考慮してテンポを決定することができ
る。
In step S606, the average of a plurality of tempos TEMPO1 calculated in the past is calculated, and the tempo T
Determine the EMPO. At this time, regardless of whether or not the difference between the two is within the set value in step S604, the tempo TEMPO1 is calculated every time the key is pressed, and the average thereof is calculated to determine the tempo TEMPO1.
Preferably, the EMPO is determined. By averaging a plurality of past tempos, the tempo can be determined in consideration of not only the current key press timing and the previous key press timing but also the previous key press timing.

【0041】ステップS607では、自動伴奏パートデ
ータ109bのテンポを上記のテンポTEMPOに変更
する。具体的には、自動伴奏パートデータ109bを構
成する全てのパート(チャネル又はトラック)について
のテンポTEMPOを音源113に供給する。その後、
図2のステップS205の自動伴奏処理では、設定され
たテンポTEMPOで自動伴奏パートデータ109bの
自動伴奏処理を行う。
In step S607, the tempo of the automatic accompaniment part data 109b is changed to the above tempo TEMPO. Specifically, the tempo TEMPO for all parts (channels or tracks) constituting the automatic accompaniment part data 109b is supplied to the sound source 113. afterwards,
In the automatic accompaniment processing of step S205 in FIG. 2, the automatic accompaniment processing of the automatic accompaniment part data 109b is performed at the set tempo TEMPO.

【0042】メロディパートデータ109aの各音符
は、鍵盤109aの各押鍵により発音タイミングが指示
される。自動伴奏パートデータ109bは、鍵盤109
aの押鍵間隔に応じてテンポが決定される。すなわち、
メロディパートデータ109a及び自動伴奏パートデー
タ109bは、共に鍵盤109aの押鍵操作によりテン
ポが決定されるので、それぞれのパートのテンポが一致
し、各パートの同期した演奏が可能になる。
Each musical note of the melody part data 109a is instructed by a key depression of the keyboard 109a at a sound generation timing. The automatic accompaniment part data 109b
The tempo is determined according to the key pressing interval of a. That is,
The tempo of both the melody part data 109a and the automatic accompaniment part data 109b is determined by the operation of depressing the keyboard 109a, so that the tempos of the respective parts match and the synchronized performance of the parts becomes possible.

【0043】以上のように、本実施形態によれば、鍵盤
102を操作することにより、メロディパートデータ1
09aのテンポを指示するのみではなく、自動伴奏パー
トデータ109bのテンポをも指示することができる。
これにより、メロディパートデータ109a及び自動伴
奏パートデータ109bのテンポを一致させることがで
きる。
As described above, according to the present embodiment, the melody part data 1
In addition to instructing the tempo of 09a, the tempo of the automatic accompaniment part data 109b can be instructed.
Thereby, the tempos of the melody part data 109a and the automatic accompaniment part data 109b can be matched.

【0044】(第2の実施形態)本発明の第2の実施形
態による電子楽器は、上記の図1〜図4及びそれらの説
明と同様である。第2の実施形態では、演奏者が、所望
のパートをメロディパートデータ又は自動伴奏パートデ
ータのいずれかに選択することができる。
(Second Embodiment) An electronic musical instrument according to a second embodiment of the present invention is the same as that shown in FIGS. In the second embodiment, a player can select a desired part as either melody part data or automatic accompaniment part data.

【0045】図7は、図2のステップS206のパネル
スイッチ処理の詳細を示すフローチャートである。ステ
ップS701では、操作パネル104内のスイッチを押
すことにより発生するスイッチオンイベントがあるか否
かをチェックする。スイッチオンイベントがあればステ
ップS702へ進み、スイッチオンイベントがなければ
ステップS703へ進む。
FIG. 7 is a flowchart showing details of the panel switch processing in step S206 of FIG. In step S701, it is checked whether there is a switch-on event generated by pressing a switch in the operation panel 104. If there is a switch-on event, the process proceeds to step S702; otherwise, the process proceeds to step S703.

【0046】ステップS702では、スイッチオンイベ
ント処理を行う。この処理の詳細は、後に図8を参照し
ながら説明する。その後、図2の処理に戻る。
In step S702, switch-on event processing is performed. Details of this processing will be described later with reference to FIG. Thereafter, the process returns to the process of FIG.

【0047】ステップS703では、操作パネル104
内のスイッチを離すことにより発生するスイッチオフイ
ベントがあるか否かをチェックする。スイッチオフイベ
ントがあればステップS704へ進み、スイッチオフイ
ベントがなければ図2の処理に戻る。
In step S703, the operation panel 104
Check if there is a switch-off event that occurs when the switch inside is released. If there is a switch off event, the process proceeds to step S704, and if there is no switch off event, the process returns to the process in FIG.

【0048】ステップS704では、スイッチオフイベ
ントに応じた処理を行う。その後、図2の処理に戻る。
In step S704, a process corresponding to the switch off event is performed. Thereafter, the process returns to the process of FIG.

【0049】図8は、図7のステップS702のスイッ
チオンイベント処理の詳細を示すフローチャートであ
る。ステップS801では、自動伴奏パート設定状態で
あるか否かをチェックする。自動伴奏パート設定状態で
あればステップS802へ進み、自動伴奏パート設定状
態でなければステップS806へ進む。初期時には、自
動伴奏パート設定状態でないので、ステップS806へ
進む。
FIG. 8 is a flowchart showing details of the switch-on event processing in step S702 in FIG. In step S801, it is checked whether the automatic accompaniment part is set. If the automatic accompaniment part is set, the process proceeds to step S802. If the automatic accompaniment part is not set, the process proceeds to step S806. At the initial stage, since the automatic accompaniment part is not set, the process proceeds to step S806.

【0050】ステップS806では、操作パネル104
内の自動伴奏パート設定スイッチを押すことによりその
オンイベントが発生しているか否かをチェックする。オ
ンイベントが発生してればステップS807へ進み、オ
ンイベントが発生していなければステップS808へ進
む。
In step S806, the operation panel 104
By pressing the automatic accompaniment part setting switch in the above, it is checked whether or not the ON event has occurred. If an ON event has occurred, the process proceeds to step S807. If an ON event has not occurred, the process proceeds to step S808.

【0051】ステップS807では、自動伴奏パート設
定状態にし、複数パートの演奏データをメロディパート
データ又は自動伴奏パートデータのいずれかに選択可能
にする。その後、図7の処理に戻る。
In step S807, the automatic accompaniment part setting state is set, and the performance data of a plurality of parts can be selected as either melody part data or automatic accompaniment part data. After that, the process returns to the process of FIG.

【0052】ステップS808では、その他のスイッチ
オンイベントの処理を行う。その後、図7の処理に戻
る。
In step S808, other switch-on events are processed. After that, the process returns to the process of FIG.

【0053】次に、操作パネル104内のパート設定ス
イッチを押すと、ステップS801を介して、ステップ
S802でパート選定スイッチオンイベントが発生した
と判断し、ステップS803へ進む。
Next, when the part setting switch in the operation panel 104 is pressed, it is determined through step S801 that a part selection switch-on event has occurred in step S802, and the flow advances to step S803.

【0054】ステップS803では、自動伴奏パートデ
ータとメロディパートデータとを反転処理する。すなわ
ち、所定のパートが自動伴奏パートデータであるときに
パート設定スイッチを押すと、そのパートがメロディパ
ートデータに設定される。逆に、所定のパートがメロデ
ィパートデータであるときにパート設定スイッチを押す
と、そのパートが自動伴奏パートデータに設定される。
これにより、演奏者は、複数パートをパート毎にメロデ
ィパートデータ又は自動伴奏パートデータに設定するこ
とができる。
In step S803, the automatic accompaniment part data and the melody part data are inverted. That is, if the part setting switch is pressed when the predetermined part is the automatic accompaniment part data, that part is set as the melody part data. Conversely, if the part setting switch is pressed when the predetermined part is the melody part data, that part is set as the automatic accompaniment part data.
Thereby, the player can set a plurality of parts as melody part data or automatic accompaniment part data for each part.

【0055】その後、操作パネル104内の自動伴奏パ
ート設定解除スイッチを押すと、自動伴奏パート設定解
除スイッチオンイベントが発生する。すると、ステップ
S801及びS802を介してステップS804へ進
む。ステップS804では、自動伴奏パート設定解除ス
イッチオンイベントが発生していればステップS805
へ進み、発生していなければ図7の処理に戻る。ステッ
プS805では、自動伴奏パート設定解除処理を行う。
その後、図7の処理に戻る。
Thereafter, when an automatic accompaniment part setting release switch in the operation panel 104 is pressed, an automatic accompaniment part setting release switch-on event occurs. Then, the process proceeds to step S804 via steps S801 and S802. In step S804, if an automatic accompaniment part setting release switch-on event has occurred, the process proceeds to step S805.
If not, the process returns to the process of FIG. In step S805, automatic accompaniment part setting release processing is performed.
After that, the process returns to the process of FIG.

【0056】図9は、図4のステップS402の半自動
演奏鍵盤オンイベント処理の詳細を示すフローチャート
である。ステップS901では、自動伴奏パートテンポ
検出及び変更処理を行う。この処理は、図6の処理と同
じである。
FIG. 9 is a flowchart showing details of the semi-automatic performance keyboard ON event process of step S402 in FIG. In step S901, automatic accompaniment part tempo detection and change processing are performed. This processing is the same as the processing in FIG.

【0057】ステップS902では、ROM109内で
メロディパートデータ及び自動伴奏パートデータが混在
している曲データ(演奏データ)を読み取る。
In step S902, music data (performance data) in which melody part data and automatic accompaniment part data are mixed is read from the ROM 109.

【0058】ステップS903では、読み出した曲デー
タが自動伴奏パートデータ又はメロディパートデータの
いずれであるかをチェックする。自動伴奏パートデータ
又はメロディパートデータは、パートを示すチャネル又
はトラックの番号を基に識別することができる。自動伴
奏パートであればステップS904へ進み、メロディパ
ートデータであればステップS905へ進む。
In step S903, it is checked whether the read music data is automatic accompaniment part data or melody part data. The automatic accompaniment part data or the melody part data can be identified based on the channel or track number indicating the part. If it is an automatic accompaniment part, the process proceeds to step S904; if it is melody part data, the process proceeds to step S905.

【0059】ステップS904では、曲データの次の読
み取りアドレスをセットする。その後、ステップS90
2へ進み、上記の処理を繰り返す。すなわち、メロディ
パートデータが読み出されるまで、曲データを読み続け
る。メロディパートデータが読み出されると、ステップ
S905へ進む。
In step S904, the next read address of the music data is set. Then, step S90
Proceed to 2 and repeat the above processing. That is, the music data is continuously read until the melody part data is read. When the melody part data is read, the process proceeds to step S905.

【0060】ステップS905では、読み出したメロデ
ィパートデータの処理を行う。そのデータが鍵盤オンイ
ベント(キーオンイベント)であるときには、そのイベ
ント内のベロシティを上記の鍵盤操作に応じたベロシテ
ィに変更し、発音処理する。すなわち、鍵盤操作によ
り、各音符の発音タイミング及びベロシティ(音量)が
指定される。音高は、メロディパートデータのものが指
定される。
In step S905, the read melody part data is processed. If the data is a key-on event (key-on event), the velocity in the event is changed to a velocity corresponding to the above-mentioned keyboard operation, and sound generation processing is performed. That is, the sounding timing and velocity (volume) of each note are designated by keyboard operation. The pitch of the melody part data is specified.

【0061】次に、ステップS906では、次の読み出
しアドレスをセットし、図4の処理に戻る。
Next, in step S906, the next read address is set, and the flow returns to the processing in FIG.

【0062】図10は、図2のステップS205の自動
伴奏処理の詳細を示すフローチャートである。ステップ
S1001では、半自動演奏中であるか否かをチェック
する。次に、ステップS1002では、ROM109内
でメロディパートデータ及び自動伴奏パートデータが混
在している曲データを読み取る。この際、ROM109
からデルタタイムとイベントデータの組みを読み取る。
FIG. 10 is a flowchart showing the details of the automatic accompaniment processing in step S205 in FIG. In step S1001, it is checked whether a semi-automatic performance is being performed. Next, in step S1002, music data in which the melody part data and the automatic accompaniment part data are mixed is read from the ROM 109. At this time, the ROM 109
Read the set of delta time and event data from.

【0063】次に、ステップS1003では、読み出さ
れた曲データが自動伴奏パート又はメロディパートのい
ずれであるかをチェックする。自動伴奏パートデータで
あればステップS1004へ進み、メロディパートデー
タであればステップS1006へ進む。
Next, in step S1003, it is checked whether the read music data is an automatic accompaniment part or a melody part. If it is the automatic accompaniment part data, the process proceeds to step S1004, and if it is the melody part data, the process proceeds to step S1006.

【0064】ステップS1004では、上記の読み出し
たデルタタイムを基にイベントデータの実行時間を経過
しているか否かをチェックする。実行時間を経過してい
ればステップS1005へ進み、実行時間を経過してい
なければ図2の処理に戻る。
In step S1004, it is checked whether or not the execution time of the event data has elapsed based on the read delta time. If the execution time has elapsed, the process proceeds to step S1005, and if the execution time has not elapsed, the process returns to the processing in FIG.

【0065】ステップS1005では、読み出した自動
伴奏パートデータのイベントデータの処理を行う。その
データが鍵盤オンイベント(キーオンイベント)である
ときには、図6の処理で設定されたテンポで自動伴奏デ
ータの発音処理を行う。すなわち、鍵盤102の押鍵間
隔により、自動伴奏パートデータのテンポが指定され
る。音高及びベロシティ等は、自動伴奏パートデータの
ものが指定される。
In step S1005, processing of the event data of the read automatic accompaniment part data is performed. If the data is a key-on event (key-on event), the automatic accompaniment data is sounded at the tempo set in the process of FIG. That is, the tempo of the automatic accompaniment part data is specified by the key pressing interval of the keyboard 102. The pitch, velocity, etc. are specified in the automatic accompaniment part data.

【0066】次に、ステップS1006では、次の読み
出しアドレスを設定し、図2の処理に戻る。
Next, in step S1006, the next read address is set, and the process returns to the processing in FIG.

【0067】本実施形態によれば、演奏者がメロディパ
ートデータ及び自動伴奏パートデータを選択することが
できる。また、メロディパートデータ及び自動伴奏パー
トデータが混在して記憶されていても、それらのパート
を識別して、各パートに応じた処理を行うことができ
る。メロディパートデータは半自動演奏が行われ、自動
伴奏パートデータは自動伴奏が行われる。
According to the present embodiment, the player can select the melody part data and the automatic accompaniment part data. Further, even if the melody part data and the automatic accompaniment part data are stored in a mixed manner, it is possible to identify those parts and perform a process corresponding to each part. The melody part data is played semi-automatically, and the automatic accompaniment part data is played automatically.

【0068】なお、メインパートデータの例としてメロ
ディパートデータ、サブパートデータの例として自動伴
奏パートデータを説明したが、演奏者は、所望のパート
をメインパートデータ又はサブパートデータとして選択
することができる。
Although the melody part data has been described as an example of the main part data and the automatic accompaniment part data has been described as an example of the subpart data, the performer can select a desired part as the main part data or the subpart data.

【0069】第1及び第2の実施形態は、コンピュータ
がプログラムを実行することによって実現することがで
きる。また、プログラムをコンピュータに供給するため
の手段、例えばかかるプログラムを記録したCD−RO
M等の記録媒体又はかかるプログラムを伝送するインタ
ーネット等の伝送媒体も本発明の実施形態として適用す
ることができる。上記のプログラム、記録媒体及び伝送
媒体は、本発明の範疇に含まれる。
The first and second embodiments can be realized by a computer executing a program. Also, means for supplying the program to a computer, for example, a CD-RO recording the program
A recording medium such as M or a transmission medium such as the Internet for transmitting such a program can also be applied as an embodiment of the present invention. The above-described program, recording medium, and transmission medium are included in the scope of the present invention.

【0070】なお、上記実施形態は、何れも本発明を実
施するにあたっての具体化のほんの一例を示したものに
過ぎず、これらによって本発明の技術的範囲が限定的に
解釈されてはならないものである。すなわち、本発明は
その技術思想、またはその主要な特徴から逸脱すること
なく、様々な形で実施することができる。
It should be noted that each of the above-described embodiments is merely an example of a concrete example for carrying out the present invention, and the technical scope of the present invention should not be interpreted in a limited manner. It is. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features.

【0071】[0071]

【発明の効果】以上説明したように本発明によれば、演
奏操作子の操作によりサブパートデータのテンポをリア
ルタイムで指示することができるので、演奏者の所望の
テンポでサブパートデータの発音処理を行うことができ
る。
As described above, according to the present invention, the tempo of the subpart data can be instructed in real time by operating the performance operator, so that the sound processing of the subpart data is performed at the desired tempo of the player. be able to.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1及び第2の実施形態による電子楽
器の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an electronic musical instrument according to first and second embodiments of the present invention.

【図2】電子楽器のメインルーチンの処理を示すフロー
チャートである。
FIG. 2 is a flowchart showing processing of a main routine of the electronic musical instrument.

【図3】鍵盤イベント処理を示すフローチャートであ
る。
FIG. 3 is a flowchart showing keyboard event processing.

【図4】鍵盤オンイベント処理を示すフローチャートで
ある。
FIG. 4 is a flowchart showing a keyboard on event process.

【図5】半自動演奏鍵盤オンイベント処理を示すフロー
チャートである。
FIG. 5 is a flowchart showing a semi-automatic performance keyboard ON event process.

【図6】自動伴奏パートテンポ検出及び変更処理を示す
フローチャートである。
FIG. 6 is a flowchart showing automatic accompaniment part tempo detection and change processing.

【図7】パネルスイッチ処理を示すフローチャートであ
る。
FIG. 7 is a flowchart illustrating a panel switch process.

【図8】スイッチオンイベント処理を示すフローチャー
トである。
FIG. 8 is a flowchart showing a switch-on event process.

【図9】他の半自動演奏鍵盤オンイベント処理を示すフ
ローチャートである。
FIG. 9 is a flowchart showing another semi-automatic performance keyboard ON event process.

【図10】自動伴奏処理を示すフローチャートである。FIG. 10 is a flowchart showing an automatic accompaniment process.

【符号の説明】[Explanation of symbols]

101 バス 102 鍵盤 103 キースイッチ回路 104 操作パネル 105 パネルスイッチ回路 106 表示装置 107 外部記憶装置 108 RAM 109 ROM 109a メロディパートデータ 109b 自動伴奏パートデータ 110 CPU 111 タイマ 112 MIDI入出力手段 113 音源 114 波形メモリ 115 D/A変換器 116 アンプ 117 スピーカ 101 bus 102 keyboard 103 key switch circuit 104 operation panel 105 panel switch circuit 106 display device 107 external storage device 108 RAM 109 ROM 109a melody part data 109b automatic accompaniment part data 110 CPU 111 timer 112 MIDI input / output means 113 sound source 114 waveform memory 115 D / A converter 116 Amplifier 117 Speaker

フロントページの続き (72)発明者 松田 寿徳 静岡県浜松市寺島町200番地 株式会社河 合楽器製作所内 (72)発明者 松田 英治 静岡県浜松市寺島町200番地 株式会社河 合楽器製作所内 Fターム(参考) 5D378 HA03 MM48 MM65 XX25 Continuing on the front page (72) Inventor Tokutoku Matsuda 200 Terashimacho, Hamamatsu-shi, Shizuoka Prefecture, Japan Kawagoki Seisakusho Co., Ltd. (Reference) 5D378 HA03 MM48 MM65 XX25

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 1つ又は複数のパートで構成されている
メインパートデータ及び1つ又は複数のパートで構成さ
れているサブパートデータを記憶する記憶手段と、 演奏者が発音指示をするための演奏操作子と、 前記演奏操作子により発音指示される毎に順次前記記憶
手段から1つ又は複数のメインパートデータを読み出し
て発音処理するメインパート発音処理手段と、 前記発音指示のタイミング及びその前の発音指示のタイ
ミング、並びに該発音指示に応じて前記記憶手段から読
み出されるメインパートデータのタイミングに応じて演
奏者の演奏テンポを決定するテンポ決定手段と、 前記テンポ決定手段により決定されたテンポで前記記憶
手段に記憶されているサブパートデータを読み出して発
音処理するサブパート発音処理手段とを有する電子楽
器。
1. A storage means for storing main part data composed of one or a plurality of parts and subpart data composed of one or a plurality of parts, and a performance for a player to give a sounding instruction. An operator; main part sound processing means for sequentially reading one or a plurality of main part data from the storage means each time sounding is instructed by the performance manipulator and performing sound processing; A tempo determining means for determining a performance tempo of the player according to the timing of the sounding instruction and the timing of the main part data read from the storage means in response to the sounding instruction; Sub-part sound processing means for reading out the sub-part data stored in the storage means and performing sound processing. Electronic musical instruments.
【請求項2】 前記テンポ決定手段は、前記発音指示の
タイミング及びその前の発音指示のタイミングのみなら
ず、さらにそれ以前の発音指示タイミングをも考慮して
演奏者の演奏テンポを決定する請求項1記載の電子楽
器。
2. The tempo determination means determines a performance tempo of a player in consideration of not only the timing of the sounding instruction and the timing of the sounding instruction before but also the sounding instruction before. Electronic musical instrument according to 1.
【請求項3】 さらに、複数パートの演奏データのうち
からメインパート及びサブパートのデータを指示するパ
ート指示手段を有する請求項1記載の電子楽器。
3. The electronic musical instrument according to claim 1, further comprising a part designating means for designating data of a main part and sub-parts out of performance data of a plurality of parts.
【請求項4】 前記メインパートデータはメロディパー
トデータであり、前記サブパートデータは伴奏パートデ
ータである請求項1記載の電子楽器。
4. The electronic musical instrument according to claim 1, wherein the main part data is melody part data, and the subpart data is accompaniment part data.
【請求項5】 前記演奏操作子は鍵盤である請求項1記
載の電子楽器。
5. The electronic musical instrument according to claim 1, wherein the performance operator is a keyboard.
【請求項6】 前記演奏操作子はベロシティ情報を含む
発音指示をすることができ、前記メインパート発音処理
手段は前記演奏操作子により発音指示される毎に前記ベ
ロシティ情報に応じた音量で発音処理する請求項1記載
の電子楽器。
6. The performance operator can issue a sounding instruction including velocity information, and the main part sounding processing means performs sounding processing at a volume corresponding to the velocity information each time a sounding instruction is issued by the performance operator. The electronic musical instrument according to claim 1.
【請求項7】 前記テンポ決定手段は、前記発音指示の
タイミング及びその前の発音指示のタイミングとの差で
ある第1の発音指示間隔を決定する手段と、該発音指示
に応じて前記記憶手段から読み出されるメインパートデ
ータの発音指示間隔である第2の発音指示間隔を取得す
る手段と、前記第1の発音指示間隔と前記第2の発音指
示間隔との比率を基に演奏者の演奏テンポを決定する請
求項1記載の電子楽器。
7. The tempo determining means determines a first sounding instruction interval, which is a difference between the timing of the sounding instruction and the timing of a sounding instruction preceding the timing, and the storage means according to the sounding instruction. Means for acquiring a second sounding instruction interval which is a sounding instruction interval of main part data read out from the main part data, and a performance tempo of a player based on a ratio between the first sounding instruction interval and the second sounding instruction interval. The electronic musical instrument according to claim 1, wherein the electronic musical instrument is determined.
【請求項8】 前記テンポ決定手段は、前記第1及び第
2の発音指示間隔との比率に対して前記記憶手段に記憶
されているメインパートデータのテンポを乗じた値を基
に演奏者の演奏テンポを決定する請求項7記載の電子楽
器。
8. The player's tempo determination means, based on a value obtained by multiplying a ratio between the first and second sounding instruction intervals by a tempo of main part data stored in the storage means. 8. The electronic musical instrument according to claim 7, wherein a performance tempo is determined.
【請求項9】 前記メインパート発音処理手段は、前記
演奏操作子により発音指示される毎に順次前記記憶手段
から所定時間内のメインパートデータを読み出して発音
処理する請求項1記載の電子楽器。
9. The electronic musical instrument according to claim 1, wherein said main part sound processing means sequentially reads out main part data within a predetermined time from said storage means every time sounding is instructed by said performance operator, and performs sound processing.
【請求項10】 1つ又は複数のパートで構成されてい
るメインパートデータ及び1つ又は複数のパートで構成
されているサブパートデータが記憶された記憶手段を準
備する準備ステップと、 演奏操作子により発音指示される毎に順次前記記憶手段
から1つ又は複数のメインパートデータを読み出して発
音処理するメインパート発音処理ステップと、 前記発音指示のタイミング及びその前の発音指示のタイ
ミング、並びに該発音指示に応じて前記記憶手段から読
み出されるメインパートデータのタイミングに応じて演
奏者の演奏テンポを決定するテンポ決定ステップと、 前記決定されたテンポで前記記憶手段に記憶されている
サブパートデータを読み出して発音処理するサブパート
発音処理ステップとを有する発音処理方法。
10. A preparation step for preparing storage means for storing main part data composed of one or a plurality of parts and subpart data composed of one or a plurality of parts; A main part sound processing step of sequentially reading one or a plurality of main part data from the storage means each time a sound instruction is issued, and performing sound processing; timing of the sound instruction and timing of the sound instruction before the main part; Determining a playing tempo of the player according to the timing of the main part data read from the storage means in response to the sub-part data stored in the storage means at the determined tempo A sub-part sound processing step for processing.
【請求項11】 1つ又は複数のパートで構成されてい
るメインパートデータ及び1つ又は複数のパートで構成
されているサブパートデータが記憶された記憶手段を準
備する準備手順と、 演奏操作子により発音指示される毎に順次前記記憶手段
から1つ又は複数のメインパートデータを読み出して発
音処理するメインパート発音処理手順と、 前記発音指示のタイミング及びその前の発音指示のタイ
ミング、並びに該発音指示に応じて前記記憶手段から読
み出されるメインパートデータのタイミングに応じて演
奏者の演奏テンポを決定するテンポ決定手順と、 前記決定されたテンポで前記記憶手段に記憶されている
サブパートデータを読み出して発音処理するサブパート
発音処理手順とをコンピュータに実行させるためのプロ
グラム。
11. A preparation procedure for preparing storage means storing main part data composed of one or a plurality of parts and subpart data composed of one or a plurality of parts; A main part sound processing procedure for sequentially reading out one or a plurality of main part data from the storage means each time a sound instruction is issued, and performing a sound processing; A tempo determining step of determining the performance tempo of the player according to the timing of the main part data read from the storage means in response to the sub-part data stored in the storage means at the determined tempo A program for causing a computer to execute a subpart sound processing procedure to be processed.
JP2001137717A 2001-05-08 2001-05-08 Electronic musical instrument, sound production processing method and program Pending JP2002333880A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001137717A JP2002333880A (en) 2001-05-08 2001-05-08 Electronic musical instrument, sound production processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001137717A JP2002333880A (en) 2001-05-08 2001-05-08 Electronic musical instrument, sound production processing method and program

Publications (1)

Publication Number Publication Date
JP2002333880A true JP2002333880A (en) 2002-11-22

Family

ID=18984777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001137717A Pending JP2002333880A (en) 2001-05-08 2001-05-08 Electronic musical instrument, sound production processing method and program

Country Status (1)

Country Link
JP (1) JP2002333880A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006308921A (en) * 2005-04-28 2006-11-09 Kawai Musical Instr Mfg Co Ltd Electronic musical instrument
US7838754B2 (en) 2006-03-16 2010-11-23 Yamaha Corporation Performance system, controller used therefor, and program
JP2013049832A (en) * 2011-07-29 2013-03-14 Fujifilm Corp Carbon black composition, carbon black-containing coating film, and magnetic recording medium having the same
JP2016521381A (en) * 2013-04-16 2016-07-21 初紹軍 Electronic musical instruments and music playing methods

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006308921A (en) * 2005-04-28 2006-11-09 Kawai Musical Instr Mfg Co Ltd Electronic musical instrument
US7838754B2 (en) 2006-03-16 2010-11-23 Yamaha Corporation Performance system, controller used therefor, and program
JP2013049832A (en) * 2011-07-29 2013-03-14 Fujifilm Corp Carbon black composition, carbon black-containing coating film, and magnetic recording medium having the same
JP2016521381A (en) * 2013-04-16 2016-07-21 初紹軍 Electronic musical instruments and music playing methods

Similar Documents

Publication Publication Date Title
JP2005055635A (en) Performance evaluation system of electronic musical instrument
JP2008089975A (en) Electronic musical instrument
JP2002333880A (en) Electronic musical instrument, sound production processing method and program
JP4232882B2 (en) Electronic musical instrument demo song playing apparatus and demo song playing method
US7381882B2 (en) Performance control apparatus and storage medium
JP3640235B2 (en) Automatic accompaniment device and automatic accompaniment method
JP3192597B2 (en) Automatic musical instrument for electronic musical instruments
JP2003140654A (en) Automatic accompaniment device for electronic musical instrument
JP2002328676A (en) Electronic musical instrument, sounding treatment method, and program
JP4412618B2 (en) Electronic musical instrument demo song playing apparatus and demo song playing method
JP3226268B2 (en) Concert magic automatic performance device
US6548748B2 (en) Electronic musical instrument with mute control
JP3296202B2 (en) Performance operation instruction device
JPH10222166A (en) Automatic accompaniment playing device
JPH0822282A (en) Automatic accompaniment device for guitar
JP2888712B2 (en) Music generator
JP2003122355A (en) Electronic musical instrument
JP2004240254A (en) Electronic musical instrument
JPH06348258A (en) Automatic playing device of electronic musical instrument
JPH10124050A (en) Electronic musical instrument
JP3862988B2 (en) Electronic musical instruments
JPH10319949A (en) Electronic musical instrument
JPH0926787A (en) Timbre control device
JP2003099049A (en) Electronic musical instrument
JPH06324680A (en) Accompaniment pattern changing device