JP2008122841A - Automatic accompaniment generating apparatus and program for achieving automatic accompaniment generating method - Google Patents

Automatic accompaniment generating apparatus and program for achieving automatic accompaniment generating method Download PDF

Info

Publication number
JP2008122841A
JP2008122841A JP2006309049A JP2006309049A JP2008122841A JP 2008122841 A JP2008122841 A JP 2008122841A JP 2006309049 A JP2006309049 A JP 2006309049A JP 2006309049 A JP2006309049 A JP 2006309049A JP 2008122841 A JP2008122841 A JP 2008122841A
Authority
JP
Japan
Prior art keywords
automatic accompaniment
generation
data
key
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006309049A
Other languages
Japanese (ja)
Other versions
JP4873307B2 (en
Inventor
Yoshihisa Ito
義久 伊藤
Takahiro Kono
恭浩 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2006309049A priority Critical patent/JP4873307B2/en
Publication of JP2008122841A publication Critical patent/JP2008122841A/en
Application granted granted Critical
Publication of JP4873307B2 publication Critical patent/JP4873307B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To free the hands of the user from the operator manipulation for the automatic accompaniment during generating automatic accompaniment data while controlling start/stoppage of automatic accompaniment data generation as it is aimed by a user. <P>SOLUTION: When the key pressing sounds "C3", "E3" and "G3" are input at time t0 after selection of automatic accompaniment pattern data and command of start of the production of the automatic accompaniment data, the generation of automatic accompaniment data is started from the note of the key pressing sounds and the sound production pattern data included in the selected automatic accompaniment pattern data. Even without the input of the keyboard pressing sounds at time t1, the generation of the automatic accompaniment data is continued. Further, in the case where the keyboard is released immediately after newly pressing a keyboard at time t2, the generation of the automatic accompaniment data is stopped. Thereafter, in the case where the user newly presses keyboards (for example, "C3", "E3" and "G3") at time t3, the generation of the automatic accompaniment data is resumed from the not of the pressed keyboard sounds and the sound production pattern data. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、供給された自動伴奏パターンデータおよび入力された演奏音に基づいて自動伴奏データを生成する自動伴奏生成装置および自動伴奏生成方法を実現するためのプログラムに関する。   The present invention relates to an automatic accompaniment generating apparatus and a program for realizing an automatic accompaniment generating method for generating automatic accompaniment data based on supplied automatic accompaniment pattern data and inputted performance sound.

供給された自動伴奏パターンデータおよび入力された演奏音に基づいて自動伴奏データを生成する自動伴奏生成装置は、従来から知られている。   2. Description of the Related Art Conventionally, an automatic accompaniment generating apparatus that generates automatic accompaniment data based on supplied automatic accompaniment pattern data and input performance sound has been known.

このような自動伴奏装置として、たとえば、各伴奏スタイルに対応付けて自動伴奏パターンデータを記憶しておき、ユーザがある1つの伴奏スタイルを選択すると、その伴奏スタイルに対応した自動伴奏パターンデータを読み出し、読み出した自動伴奏パターンデータを、ユーザが鍵盤などを用いて入力した和音に合うように変換することで、自動伴奏データを生成するものがある。ここで、自動伴奏パターンデータは、個々の伴奏音に対応した音高データとタイミングデータをセットにしたものであり、この自動伴奏パターンデータを用いた自動伴奏データの生成は、たとえば、自動伴奏パターンデータ内の音高を所定のルールで変換した後、変換後の全音高を入力和音の根音に応じてシフトすることによってなされる。これにより、入力和音に合った音高の自動伴奏データが生成される(たとえば、特許文献1参照)。   As such an automatic accompaniment device, for example, automatic accompaniment pattern data is stored in association with each accompaniment style, and when a user selects one accompaniment style, automatic accompaniment pattern data corresponding to the accompaniment style is read. In some cases, automatic accompaniment data is generated by converting the read automatic accompaniment pattern data so as to match a chord input by a user using a keyboard or the like. Here, the automatic accompaniment pattern data is a set of pitch data and timing data corresponding to each accompaniment sound, and automatic accompaniment data generation using this automatic accompaniment pattern data is, for example, an automatic accompaniment pattern After converting the pitch in the data according to a predetermined rule, the entire pitch after the conversion is shifted according to the root of the input chord. As a result, automatic accompaniment data having a pitch that matches the input chord is generated (see, for example, Patent Document 1).

一方、押鍵に応じてアルペジオ(分散和音)を生成する、いわゆるアルペジエータと呼ばれるものがある。アルペジエータは、複数のキー番号(音高に対応したノートナンバではなく、単純な番号)とその発音タイミングからなるアルペジオパターンデータを記憶し、同時に押鍵された複数の音の音高に所定のルール(たとえば、音高の低い順)に従って番号を割り振り、アルペジオパターンデータ中のキー番号に対応した番号が割り振られた音高を、その発音タイミングで発生させるようにして、押鍵音を基にアルペジオを生成している。そして、パターン内の一部に固定音高を指定するタイプ(フィックスド・ノート)のアルペジオパターンデータを用いてアルペジオを生成するものもある(たとえば、特許文献2参照)。
特許3319390号公報 特開2001−22354号公報
On the other hand, there is a so-called arpeggiator that generates an arpeggio (dispersed chord) in response to a key press. The arpeggiator stores arpeggio pattern data consisting of multiple key numbers (simple numbers rather than note numbers corresponding to pitches) and their sounding timings, and the predetermined rules for the pitches of multiple pressed keys Numbers are assigned according to the order of the pitches (for example, in order of increasing pitches), and pitches that are assigned numbers corresponding to the key numbers in the arpeggio pattern data are generated at the time of their pronunciation, and arpeggios are generated based on the key press sounds. Is generated. There is also a type that generates arpeggio using arpeggio pattern data of a type (fixed note) in which a fixed pitch is specified in a part of the pattern (for example, see Patent Document 2).
Japanese Patent No. 3319390 JP 2001-22354 A

しかし、上記従来の自動伴奏装置では、ユーザが自動伴奏データを生成する基になる音高の音を押鍵している間、自動伴奏データが生成され、離鍵すると自動伴奏データの生成が停止するので、自動伴奏音を生成している間、少なくとも片手が自動伴奏のための押鍵に占有されてしまう。   However, in the above-described conventional automatic accompaniment device, automatic accompaniment data is generated while the user presses the sound of the pitch that is the basis for generating automatic accompaniment data, and generation of automatic accompaniment data stops when the key is released Therefore, at least one hand is occupied by the key depression for the automatic accompaniment while the automatic accompaniment sound is generated.

また、上記従来のアルペジエータは、通常、ユーザがアルペジオ生成のための押鍵を行った後にその離鍵を行ったとしても、アルペジオ生成が継続する、ホールド機能を備えており、このホールド機能が有効にされた後、ユーザがアルペジオ生成のための押鍵を1度でも行うと、ホールド機能が無効にされない限り、ユーザが離鍵を行ったとしても、アルペジオ生成は途切れない(後述する図4(b)参照)。したがってこの場合、アルペジオ生成に従って発生する楽音は、鳴りっぱなしの状態になる。   In addition, the conventional arpeggiator has a hold function in which the arpeggio generation continues even if the user performs the key release for generating the arpeggio and then releases the key, and this hold function is effective. Once the user presses the key for generating the arpeggio even once, the arpeggio generation is not interrupted even if the user releases the key unless the hold function is disabled (FIG. 4 (described later)). b)). Therefore, in this case, the musical sound generated according to the arpeggio generation remains in a state of being played.

本発明は、この点に着目してなされたものであり、自動伴奏データ生成の開始/停止をユーザの思い通り制御しながら、自動伴奏データの生成中に、ユーザの両手を自動伴奏のための操作子操作から開放することが可能となる自動伴奏生成装置および自動伴奏生成方法を実現するためのプログラムを提供することを目的とする。   The present invention has been made paying attention to this point. While controlling the start / stop of automatic accompaniment data generation as desired by the user, the user's hands are operated for automatic accompaniment during the generation of automatic accompaniment data. It is an object of the present invention to provide a program for realizing an automatic accompaniment generating apparatus and an automatic accompaniment generating method that can be released from a child operation.

上記目的を達成するため、請求項1に記載の自動伴奏生成装置は、自動伴奏パターンデータを供給する供給手段と、演奏音を入力する入力手段と、該入力手段によって入力された演奏音および前記供給手段によって供給された自動伴奏パターンデータに基づいて、自動伴奏データを生成する生成手段と、前記入力手段によって演奏音が入力されたときに、該入力がどのような演奏音の入力状況の下での入力であるかを判別する判別手段と、該判別手段による判別結果に基づいて、前記生成手段による自動伴奏データの生成を停止するか否かを決定する決定手段と、該決定手段によって、前記自動伴奏データの生成を停止すると決定されたときには、当該自動伴奏データの生成を停止させるように前記生成手段を制御する制御手段とを有することを特徴とする。   In order to achieve the above object, an automatic accompaniment generator according to claim 1 is provided with a supply means for supplying automatic accompaniment pattern data, an input means for inputting performance sounds, a performance sound input by the input means, and the Based on the automatic accompaniment pattern data supplied by the supply means, a generation means for generating automatic accompaniment data, and when the performance sound is input by the input means, the input is under what performance sound input status. A determination means for determining whether or not the input is performed, a determination means for determining whether or not to stop generation of automatic accompaniment data by the generation means, based on a determination result by the determination means, and the determination means, Control means for controlling the generation means to stop the generation of the automatic accompaniment data when it is determined to stop the generation of the automatic accompaniment data. The features.

請求項2に記載の自動伴奏生成装置は、請求項1の自動伴奏生成装置において、前記判別手段によって、自動伴奏データの生成中、かつ演奏音が何も入力されていない状態で、新たな演奏音の入力があったことが判別されたときに、前記決定手段は、当該自動伴奏データの生成を停止すると決定することを特徴とする。   The automatic accompaniment generation device according to claim 2 is the automatic accompaniment generation device according to claim 1, wherein the discriminating means generates a new performance while automatic accompaniment data is being generated and no performance sound is input. When it is determined that a sound has been input, the determining means determines to stop generating the automatic accompaniment data.

請求項3に記載の自動伴奏生成装置は、請求項2の自動伴奏生成装置において、前記判別手段によって、自動伴奏データの生成が停止中に、新たな演奏音の入力があったことが判別されたときには、前記制御手段は、自動伴奏データの生成を開始させるように前記生成手段を制御することを特徴とする。   The automatic accompaniment generation device according to claim 3 is the automatic accompaniment generation device according to claim 2, wherein the determination means determines that a new performance sound has been input while generation of automatic accompaniment data is stopped. The control means controls the generation means so as to start generation of automatic accompaniment data.

上記目的を達成するため、請求項4に記載のプログラムは、請求項1と同様の技術的思想によって実現できる。   In order to achieve the above object, the program according to claim 4 can be realized by the same technical idea as claim 1.

請求項1または4に記載の発明によれば、演奏音を入力する入力手段によって演奏音が入力されたときに、該入力がどのような演奏音の入力状況の下での入力であるかが判別され、その判別結果に基づいて、自動伴奏データの生成を停止するか否かが決定され、前記自動伴奏データの生成を停止すると決定されたときには、当該自動伴奏データの生成が停止されるので、ユーザは入力手段から目を離さずに、入力手段から演奏音を入力するだけで、簡単に自動伴奏データの生成を停止させることができる。   According to the first or fourth aspect of the present invention, when the performance sound is input by the input means for inputting the performance sound, the input condition of the performance sound is the input of the performance sound. It is determined, and based on the determination result, it is determined whether or not to stop the generation of the automatic accompaniment data. When it is determined to stop the generation of the automatic accompaniment data, the generation of the automatic accompaniment data is stopped. The user can easily stop the generation of the automatic accompaniment data simply by inputting the performance sound from the input means without taking his eyes off the input means.

請求項2に記載の発明によれば、自動伴奏データを生成中に、その自動伴奏データを生成するための演奏音の入力を止めたとしても、自動伴奏データの生成は継続するので、自動伴奏データの生成中に、ユーザの両手を自動伴奏のための操作子操作から開放することができる。   According to the second aspect of the present invention, since automatic accompaniment data generation continues even if input of performance sound for generating automatic accompaniment data is stopped during generation of automatic accompaniment data, automatic accompaniment During data generation, both hands of the user can be released from the operation of the operator for automatic accompaniment.

請求項3に記載の発明によれば、自動伴奏データを生成中に、その自動伴奏データを生成するための演奏音の入力を止めた後、新たな押離鍵が検出されたときに、その自動伴奏データの生成が停止され、さらに新たな押鍵が検出されると、自動伴奏データの生成が再開されるので、自動伴奏データ生成の開始/停止をユーザの思い通り制御することができる。   According to the third aspect of the present invention, when a new key is detected after the performance sound for generating the automatic accompaniment data is stopped during the generation of the automatic accompaniment data, When the generation of automatic accompaniment data is stopped and a new key press is detected, the generation of automatic accompaniment data is resumed, so that the start / stop of automatic accompaniment data generation can be controlled as desired by the user.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施の形態に係る自動伴奏生成装置の概略構成を示すブロック図である。   FIG. 1 is a block diagram showing a schematic configuration of an automatic accompaniment generator according to an embodiment of the present invention.

同図に示すように、本実施の形態の自動伴奏生成装置は、鍵盤等の演奏操作子および各種スイッチ等の設定操作子からなる操作子群1と、該操作子群1の各操作子の操作状態を検出する検出回路2と、装置全体の制御を司るCPU3と、該CPU3が実行する制御プログラムや各種テーブルデータ等を記憶するROM4と、前記演奏操作子から入力された演奏情報、自動伴奏パターンデータ、各種入力情報および演算結果等を一時的に記憶するRAM5と、前記制御プログラムを含む各種アプリケーションプログラムや各種自動伴奏パターンデータ、各種データ等を記憶する外部記憶装置6と、各種情報等を表示する、たとえば液晶ディスプレイ(LCD)および発光ダイオード(LED)等を備えた表示装置7と、外部MIDI(Musical Instrument Digital Interface)機器等の外部機器100を接続し、この外部機器100とデータの送受信を行う通信インターフェース(I/F)8と、前記演奏操作子から入力された演奏音および前記RAM5に記憶された自動伴奏パターンデータに基づいて生成した自動伴奏データ等を楽音信号に変換する音源回路9と、該音源回路9からの楽音信号に各種効果を付与するための効果回路10と、該効果回路10からの楽音信号を音響に変換する、たとえば、DAC(Digital-to-Analog Converter)やアンプ、スピーカ等のサウンドシステム11とにより構成されている。   As shown in the figure, the automatic accompaniment generator according to the present embodiment includes an operator group 1 including performance operators such as a keyboard and setting operators such as various switches, and each operator of the operator group 1. A detection circuit 2 that detects an operation state, a CPU 3 that controls the entire apparatus, a ROM 4 that stores a control program executed by the CPU 3 and various table data, performance information input from the performance operator, and automatic accompaniment RAM 5 for temporarily storing pattern data, various input information, calculation results, etc., external storage device 6 for storing various application programs including the control program, various automatic accompaniment pattern data, various data, etc. For example, a display device 7 including a liquid crystal display (LCD) and a light emitting diode (LED), and an external MIDI (Musical Instr) a communication interface (I / F) 8 that connects an external device 100 such as a device digital interface) and transmits / receives data to / from the external device 100, performance sound input from the performance operator, and the RAM 5. A sound source circuit 9 for converting automatic accompaniment data generated based on the automatic accompaniment pattern data into a musical sound signal, an effect circuit 10 for imparting various effects to the musical sound signal from the sound source circuit 9, and the effect circuit 10 For example, a sound system 11 such as a DAC (Digital-to-Analog Converter), an amplifier, and a speaker.

上記構成要素2〜10は、バス12を介して相互に接続され、通信I/F8には外部機器100が接続され、音源回路9には効果回路10が接続され、効果回路10にはサウンドシステム11が接続されている。   The above components 2 to 10 are connected to each other via the bus 12, the external device 100 is connected to the communication I / F 8, the effect circuit 10 is connected to the sound source circuit 9, and the sound system is connected to the effect circuit 10. 11 is connected.

外部記憶装置6としては、たとえば、フレキシブルディスクドライブ(FDD)、ハードディスクドライブ(HDD)、CD−ROMドライブおよび光磁気ディスク(MO)ドライブ等を挙げることができる。そして、外部記憶装置6には、前述のように、CPU3が実行する制御プログラムも記憶でき、ROM4に制御プログラムが記憶されていない場合には、この外部記憶装置6に制御プログラムを記憶させておき、それをRAM5に読み込むことにより、ROM4に制御プログラムを記憶している場合と同様の動作をCPU3にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。   Examples of the external storage device 6 include a flexible disk drive (FDD), a hard disk drive (HDD), a CD-ROM drive, and a magneto-optical disk (MO) drive. As described above, the external storage device 6 can also store a control program to be executed by the CPU 3. If the control program is not stored in the ROM 4, the control program is stored in the external storage device 6. By reading it into the RAM 5, it is possible to cause the CPU 3 to perform the same operation as when the control program is stored in the ROM 4. In this way, control programs can be easily added and upgraded.

通信I/F8には、図示例では、外部機器100が接続されているが、これに限られず、たとえばLAN(Local Area Network)やインターネット、電話回線等の通信ネットワークを介して、サーバコンピュータが接続されるようにしてもよい。この場合、外部記憶装置6に上記各プログラムや各種パラメータが記憶されていなければ、通信I/F8は、サーバコンピュータからプログラムやパラメータをダウンロードするために用いられる。クライアントとなる自動伴奏生成装置は、通信I/F8および通信ネットワークを介してサーバコンピュータへとプログラムやパラメータのダウンロードを要求するコマンドを送信する。サーバコンピュータは、このコマンドを受け、要求されたプログラムやパラメータを、通信ネットワークを介して自動伴奏生成装置へと配信し、自動伴奏生成装置が通信I/F8を介して、これらプログラムやパラメータを受信して外部記憶装置6に蓄積することにより、ダウンロードが完了する。   In the illustrated example, the external device 100 is connected to the communication I / F 8. However, the present invention is not limited to this, and a server computer is connected via a communication network such as a LAN (Local Area Network), the Internet, or a telephone line. You may be made to do. In this case, if the above programs and various parameters are not stored in the external storage device 6, the communication I / F 8 is used for downloading the programs and parameters from the server computer. The automatic accompaniment generating apparatus serving as a client transmits a command for requesting downloading of a program and parameters to the server computer via the communication I / F 8 and the communication network. Upon receiving this command, the server computer distributes the requested program and parameters to the automatic accompaniment generator via the communication network, and the automatic accompaniment generator receives these programs and parameters via the communication I / F 8. Then, the download is completed by accumulating in the external storage device 6.

なお、本実施の形態の自動伴奏生成装置は、上述の構成から分かるように、電子鍵盤楽器上に構築されたものであるが、これに限らず、鍵盤を外部接続した汎用的なパーソナルコンピュータ上に構築してもよい。また、鍵盤楽器の実施形態に限らず、弦楽器タイプ、管楽器タイプ、打楽器タイプ等の他の実施形態でもよい。   Note that the automatic accompaniment generator according to the present embodiment is constructed on an electronic keyboard instrument, as can be seen from the above configuration, but is not limited to this, and on a general-purpose personal computer with a keyboard externally connected. You may build it. Further, the present invention is not limited to the keyboard instrument embodiment, and other embodiments such as a string instrument type, a wind instrument type, and a percussion instrument type may be used.

以上のように構成された自動伴奏生成装置が実行する制御処理を、まず図2〜図4を参照してその概要を説明し、次に図5を参照して詳細に説明する。   The control process executed by the automatic accompaniment generator configured as described above will be described first with reference to FIGS. 2 to 4 and then in detail with reference to FIG.

本実施の形態の自動伴奏生成装置は、主として
(A)ユーザの押鍵操作によって入力された演奏情報(本実施の形態では、音高)およびユーザによって選択された自動伴奏パターンデータに基づいて自動伴奏データを生成する自動伴奏データ生成処理
(B)ユーザの押鍵操作に応じて、上記(A)の自動伴奏データ生成処理を開始あるいは停止させる自動伴奏データ生成開始/停止処理
を行う。
The automatic accompaniment generating apparatus of this embodiment is mainly based on (A) performance information (pitch in this embodiment) input by the user's key pressing operation and automatic accompaniment pattern data selected by the user. Automatic accompaniment data generation processing for generating accompaniment data (B) Automatic accompaniment data generation start / stop processing for starting or stopping the automatic accompaniment data generation processing of (A) is performed in response to the user's key pressing operation.

図2は、上記(A)の自動伴奏データ生成処理の制御構成を示すブロック図であり、図3は、自動伴奏パターンデータに含まれる発音パターンデータのフォーマットの一例と、その発音パターンデータとユーザの押鍵操作によって入力された押鍵音の音高に基づいて生成した発音データリストを示す図である。   FIG. 2 is a block diagram showing a control configuration of the automatic accompaniment data generation process of (A), and FIG. 3 shows an example of the format of the pronunciation pattern data included in the automatic accompaniment pattern data, the pronunciation pattern data and the user It is a figure which shows the pronunciation data list produced | generated based on the pitch of the key pressing sound input by the key pressing operation.

自動伴奏パターンデータは、たとえば前記外部記憶装置6内に予め複数種類記憶され、その中からユーザがいずれかを選択すると、選択された自動伴奏パターンデータが、外部記憶装置6から読み出されて、前記RAM5の所定位置に確保された自動伴奏パターンデータ格納領域(図示せず)に格納される。図2には、ユーザが自動伴奏パターンデータ群から選択した自動伴奏パターンデータNに基づいて自動伴奏データを生成する様子が示されている。   A plurality of types of automatic accompaniment pattern data are stored in advance in the external storage device 6, for example, and when the user selects one of them, the selected automatic accompaniment pattern data is read from the external storage device 6, It is stored in an automatic accompaniment pattern data storage area (not shown) secured at a predetermined position in the RAM 5. FIG. 2 shows a state in which automatic accompaniment data is generated based on automatic accompaniment pattern data N selected by the user from the automatic accompaniment pattern data group.

各自動伴奏パターンデータにはそれぞれ、発音パターンデータが含まれている。発音パターンデータは、図3に示すように、発音タイミング(Timing)、ゲートタイム(Gate)、キーナンバ(Key)、オクターブ(Oct)およびベロシティ(Vel)を1組のデータとする複数組のデータによって構成されている。ここで、発音タイミングは、対応する(つまり、同じ組に属する)キーナンバの押鍵音を発音するタイミングをクロック数で表したものであり、本実施の形態では、1拍分の時間を480クロックで表している。ゲートタイムは、上記発音タイミングで発音が開始された押鍵音の発音継続時間(つまり音長)をクロック数で表したものである。キーナンバは、ユーザが複数の鍵を同時に押したとき(押鍵開始タイミングは、同時でもよいし、ずれていてもよく、要は複数鍵が同時に押されている期間があればよい。以下、同様)に入力される押鍵音に対して、音高の低い順に番号付けしたものである。オクターブは、対応するキーナンバの押鍵音をどれだけオクターブシフトするかを示したものである。ベロシティは、対応するキーナンバの押鍵音を発音する際のベロシティの値を示したものである。   Each automatic accompaniment pattern data includes pronunciation pattern data. As shown in FIG. 3, the sound generation pattern data is composed of a plurality of sets of data in which the sound generation timing (Timing), the gate time (Gate), the key number (Key), the octave (Oct), and the velocity (Vel) are set as one set of data. It is configured. Here, the sound generation timing is the timing at which the keying sound of the corresponding key number (that is, belonging to the same group) is generated by the number of clocks. In this embodiment, the time for one beat is 480 clocks. It is represented by The gate time represents the duration of sound generation (ie, the sound length) of the key-pressing sound that has been sounded at the sounding timing in terms of the number of clocks. The key number is determined when the user simultaneously presses a plurality of keys (the key press start timing may be simultaneous or may be shifted, in other words, there may be a period during which a plurality of keys are pressed simultaneously. ) Are numbered in ascending order of pitch. The octave indicates how much the keypad sound of the corresponding key number is shifted by an octave. The velocity indicates the value of velocity when the corresponding key number is pressed.

図3には、ユーザの押鍵により3つの音高“C3”,“E3”および“G3”が同時に入力されたときに、発音パターンデータを用いて生成した発音データリストが記載されている。押鍵音“C3”,“E3”および“G3”には、前記ルールに従って、“1”,“2”および“3”のキーナンバが付与されるので、発音データリストの先頭(“0000”)から1拍半分(“0719”まで)のノートナンバ(Note)は、次のように生成される。すなわち、
タイミング“0000”:C4(キーナンバが“1”の押鍵音の音高(“C3”)を“1”オクターブシフトしたもの)
タイミング“0240”:G3(キーナンバが“3”の押鍵音の音高(“G3”)を“0”オクターブシフトしたもの)
タイミング“0480”:E3(キーナンバが“2”の押鍵音の音高(“E3”)を“0”オクターブシフトしたもの)
他の拍の各タイミングのノートナンバも、同様にして生成される。
FIG. 3 shows a pronunciation data list generated using the pronunciation pattern data when three pitches “C3”, “E3”, and “G3” are simultaneously input by the user's key depression. According to the above rules, the key pressing sounds “C3”, “E3” and “G3” are given key numbers “1”, “2” and “3”, so the head of the pronunciation data list (“0000”) A note number (Note) of half a beat (from “0719”) is generated as follows. That is,
Timing “0000”: C4 (the pitch of the key pressing sound with the key number “1” (“C3”) shifted by “1” octave)
Timing “0240”: G3 (the pitch (“G3”) of the key pressing sound with the key number “3” shifted by “0” octave)
Timing “0480”: E3 (the pitch (“E3”) of the key-pressing sound with the key number “2” shifted by “0” octave)
Note numbers of other timings of other beats are generated in the same manner.

なお、発音パターンデータは、本実施の形態では、1小節長(図3の例では、4/4拍子)のものを採用しているが、発音データリストの生成は、ユーザによる停止の指示があるまで停止されないので、発音データリストは、1小節を超えて生成される。押鍵音が変更されないまま、発音データリストの生成が1小節を超えたときには、2小節目以降のノートナンバは、1小節目で生成されたノートナンバが繰り返し生成される。ここで、発音パターンデータとしては、どのような長さのものを採用してもよく、上記1小節長に限らないのは言うまでもない。   In this embodiment, the pronunciation pattern data is one bar length (4/4 time in the example of FIG. 3), but the generation of the pronunciation data list is instructed by the user to stop. Since it does not stop until there is, the pronunciation data list is generated beyond one measure. When the generation of the pronunciation data list exceeds one measure without changing the key-press sound, the note numbers generated at the first measure are repeatedly generated as the note numbers after the second measure. Here, it is needless to say that the pronunciation pattern data may have any length, and is not limited to the one bar length.

図4は、前記(B)の自動伴奏データ生成開始/停止処理を説明するための図であり、同図には、説明の都合上、従来の自動伴奏生成装置の自動伴奏データ生成処理による制御例も記載されている。具体的には、図4(a)は、この(B)自動伴奏データ生成開始/停止処理による制御例を示し、図4(b)は、図4(a)の制御例と同様の押鍵操作がなされた場合の、従来の自動伴奏生成装置による制御例を示している。   FIG. 4 is a diagram for explaining the automatic accompaniment data generation start / stop process (B). For convenience of explanation, FIG. 4 shows the control by the automatic accompaniment data generation process of the conventional automatic accompaniment generation apparatus. Examples are also given. Specifically, FIG. 4A shows an example of control by this (B) automatic accompaniment data generation start / stop process, and FIG. 4B shows a key depression similar to the control example of FIG. The example of control by the conventional automatic accompaniment production | generation apparatus when operation is made is shown.

この(B)自動伴奏データ生成開始/停止処理は、前述のように、(A)自動伴奏データ生成処理を開始あるいは停止させる処理であり、ユーザの押離鍵時に、その押離鍵がどのような状況下での押離鍵であるかを判別し、その判別結果に基づいて、(A)自動伴奏データ生成処理が制御される。つまり、(B)自動伴奏データ生成開始/停止処理は、主として、ユーザの押離鍵時(図4では、時刻t0〜t6の各時点およびその近傍)の処理を規定している。   As described above, the (B) automatic accompaniment data generation start / stop process is a process for starting or stopping the (A) automatic accompaniment data generation process. It is determined whether or not the key is pressed and released under various circumstances, and (A) automatic accompaniment data generation processing is controlled based on the determination result. That is, (B) automatic accompaniment data generation start / stop processing mainly defines processing at the time when the user presses and releases a key (in FIG. 4, each time point in time t0 to t6 and its vicinity).

図4(a)に示すように、自動伴奏データ生成モードに移行し、自動伴奏パターンデータが選択されて、自動伴奏データの生成開始が指示された後、まず時刻t0で、押鍵音“C3”,“E3”および“G3”が入力されると、CPU3は、この押鍵音の音高と上記選択された自動伴奏パターンデータに含まれる発音パターンデータに基づいた自動伴奏データ(発音データリスト)の生成を開始する。次に時刻t1で、押鍵音“C3”,“E3”および“G3”の入力がなくなったとしても、CPU3は、その自動伴奏データの生成を継続させる。   As shown in FIG. 4 (a), after shifting to the automatic accompaniment data generation mode, automatic accompaniment pattern data is selected and an instruction to start generation of automatic accompaniment data is given. When "," "E3" and "G3" are input, the CPU 3 causes the automatic accompaniment data (pronunciation data list) based on the pitch of the key depression sound and the pronunciation pattern data included in the selected automatic accompaniment pattern data. ) Generation. Next, at time t1, even if the key depression sounds “C3”, “E3” and “G3” are no longer input, the CPU 3 continues to generate the automatic accompaniment data.

次に時刻t2で、ユーザが新たな押鍵(たとえば“C3”)を行った後、直ぐにその離鍵を行うと、CPU3は、自動伴奏データの生成を停止させる。その後、時刻t3で、ユーザが新たな押鍵(たとえば“C3”,“E3”および“G3”)を行うと、CPU3は、この押鍵音の音高と前記発音パターンデータに基づいた自動伴奏データの生成を再開し、続く時刻t4で、ユーザが押鍵を、たとえば“C3”,“F3”および“A3”の鍵に変更する(つまり、“E3”および“G3”を離鍵し、その後直ぐに“F3”および“A3”を押鍵する)と、CPU3は、この押鍵音の音高を基準とした自動伴奏データの生成に変更し、時刻t5で、押鍵音“C3”,“F3”および“A3”の入力がなくなったとしても、その自動伴奏データの生成を継続させる。そして時刻t6で、ユーザが新たな押鍵(たとえば“C3”)を行った後、直ぐにその離鍵を行うと、CPU3は、自動伴奏データの生成を停止させる。   Next, at time t2, if the user releases the key immediately after performing a new key press (for example, “C3”), the CPU 3 stops the generation of the automatic accompaniment data. Thereafter, when the user performs a new key depression (for example, “C3”, “E3”, and “G3”) at time t3, the CPU 3 performs automatic accompaniment based on the pitch of the key depression sound and the pronunciation pattern data. The data generation is resumed, and at time t4, the user changes the key press to, for example, the keys of “C3”, “F3”, and “A3” (that is, “E3” and “G3” are released, Immediately after that, when “F3” and “A3” are pressed, the CPU 3 changes to automatic accompaniment data generation based on the pitch of this key pressing sound, and at time t5, the key pressing sound “C3”, Even if “F3” and “A3” are no longer input, the generation of the automatic accompaniment data is continued. If the user releases the key immediately after the user performs a new key depression (for example, “C3”) at time t6, the CPU 3 stops the generation of the automatic accompaniment data.

これに対して、従来の自動伴奏生成装置では、図4(b)に示すように、時刻t2またはt6で、ユーザが新たな押鍵(“C3”)を行った後、直ぐにその離鍵を行った場合、この押鍵音の音高を基準とした自動伴奏データの生成に変更され、自動伴奏データの生成は停止しない。   On the other hand, in the conventional automatic accompaniment generator, as shown in FIG. 4B, after the user performs a new key press ("C3") at time t2 or t6, the key release is immediately performed. If it is performed, the automatic accompaniment data is generated based on the pitch of the key depression sound, and the automatic accompaniment data generation is not stopped.

このように、本実施の形態の自動伴奏生成装置では、ユーザは鍵盤から目を離さずに、鍵盤に対する押離鍵だけで、自動伴奏データ生成の開始/停止を簡単に制御することができる。また、自動伴奏データの生成中に、その自動伴奏データを生成するための押鍵を止めた(離鍵した)としても、自動伴奏データの生成は継続するので、自動伴奏データの生成中に、ユーザの両手を自動伴奏のための操作子操作から開放することができる。その後、新たな押離鍵が検出されたときに、その自動伴奏データの生成を停止し、さらに新たな押鍵が検出されると、自動伴奏データの生成を再開するようにしたので、自動伴奏データ生成の開始/停止をユーザの思い通り制御することができる。   As described above, in the automatic accompaniment generation apparatus according to the present embodiment, the user can easily control the start / stop of automatic accompaniment data generation by simply pressing and releasing the keyboard without taking his eyes off the keyboard. In addition, even if the key for generating the automatic accompaniment data is stopped during the generation of the automatic accompaniment data (the key is released), the generation of the automatic accompaniment data continues, so during the generation of the automatic accompaniment data, Both hands of the user can be released from the operator operation for automatic accompaniment. After that, generation of the automatic accompaniment data is stopped when a new key is detected, and automatic accompaniment data generation is resumed when a new key is detected. The start / stop of data generation can be controlled as desired by the user.

次に、この制御処理を詳細に説明する。   Next, this control process will be described in detail.

図5は、本実施の形態の自動伴奏生成装置、特にCPU3が実行する自動伴奏データ生成制御処理の手順を示すフローチャートである。なお、本自動伴奏データ生成制御処理は、ユーザが前記自動伴奏データ生成モードを選択したときに起動される。   FIG. 5 is a flowchart showing a procedure of an automatic accompaniment data generation control process executed by the automatic accompaniment generation apparatus of the present embodiment, particularly the CPU 3. The automatic accompaniment data generation control process is activated when the user selects the automatic accompaniment data generation mode.

本自動伴奏データ生成制御処理では、主として、
(1)初期化処理(ステップS1〜S3)
(2)前記(B)自動伴奏データ生成開始/停止処理(ステップS5〜S23)
(3)自動伴奏データ生成制御処理の終了処理(ステップS4)
の各処理がなされる。
In this automatic accompaniment data generation control process,
(1) Initialization process (steps S1 to S3)
(2) (B) Automatic accompaniment data generation start / stop processing (steps S5 to S23)
(3) Completion processing of automatic accompaniment data generation control processing (step S4)
Each process is performed.

上記(1)の初期化処理では、まずCPU3は、前記外部記憶装置6に記憶されている自動伴奏パターンデータ群の一覧を、たとえば前記表示装置7上に表示することでユーザに提示し、ユーザがその中からいずれかの自動伴奏パターンデータを選択すると、選択された自動伴奏パターンデータを外部記憶装置6から前記RAM5の自動伴奏パターンデータ格納領域に読み込む(ステップS1)。次にCPU3は、押鍵音の音高(キーコード)を格納するためにRAM5の所定位置に確保されたキーオンバッファ(図示せず)をクリアし(ステップS2)、さらに、RAM5の所定位置に設けられ、ユーザの押鍵によって自動伴奏データの生成停止が指示されたときにセット(“1”)され、当該押鍵が離鍵されたときにリセット(“0”)されるストップフラグをリセットする(ステップS3)。   In the initialization process (1), first, the CPU 3 presents a list of automatic accompaniment pattern data groups stored in the external storage device 6 to the user by, for example, displaying the list on the display device 7. When one of the automatic accompaniment pattern data is selected, the selected automatic accompaniment pattern data is read from the external storage device 6 into the automatic accompaniment pattern data storage area of the RAM 5 (step S1). Next, the CPU 3 clears a key-on buffer (not shown) secured at a predetermined position in the RAM 5 in order to store the pitch (key code) of the key pressing sound (step S2). A stop flag is set, which is set ("1") when an automatic accompaniment data generation stop is instructed by the user's key depression, and is reset ("0") when the key depression is released. (Step S3).

前記(2)の自動伴奏データ生成開始/停止処理では、CPU3は、ユーザの押離鍵操作を検出し、その検出時の自動伴奏生成装置の動作状況に基づいて、次のようにして自動伴奏データの開始または停止を制御する。すなわち、
(21)自動伴奏データの生成が停止中に、押鍵操作があった場合:自動伴奏データの生成を開始する
(22)自動伴奏データの生成中に、押鍵鍵のすべてについての離鍵操作があった(押されていた1乃至複数の鍵をほぼ同時に離鍵した)場合:何もしない
(23)自動伴奏データの生成中に、押鍵鍵の一部についての離鍵操作があった場合:変更後のキーオンバッファの内容に従って、自動伴奏データの生成を開始する
(24)自動伴奏データの生成中に、キーオンバッファが空の状態で、押鍵操作があった場合:自動伴奏データの生成を停止する
上記(21)の場合は、前記図4(a)の時刻t0または時刻t3の状態に相当する。このとき、押鍵操作が検出され、自動伴奏データの生成はなされておらず、ストップフラグはリセット(“0”)状態であるので、CPU3は、キーオンバッファに押鍵音の音高を書き込む(ステップS5→S6→S7→S8)とともに、キーオンバッファの内容に基づいて自動伴奏データの生成を開始する(ステップS9)。たとえば、前記ステップS1の処理により、前記図3の発音パターンデータを含む自動伴奏パターンデータが読み込まれ、ユーザの押鍵操作により、“C3”,“E3”および“G3”の音高がキーオンバッファに格納されたとすると、ステップS9では、CPU3は、前記RAM5の所定位置に設けられ、自動伴奏データの生成中にセットされ、自動伴奏データの停止中にリセットされる自動伴奏データ生成中フラグをセットする。実際の自動伴奏データ生成処理、つまり、前記(A)自動伴奏データ生成処理は、本実施の形態では、図示しないタイマ割り込み処理中で行われる。タイマ割り込み処理では、自動伴奏データ生成中フラグの状態を常時チェックし、自動伴奏データ生成中フラグがセット状態のときには、前記図3を用いて説明した(A)自動伴奏データ生成処理を行う一方、自動伴奏データ生成中フラグがリセット状態のときには、何もしない。ただし本実施の形態では、自動伴奏データを生成しているとき、つまり、発音データリストを生成しているときには、生成したノートナンバの発音データリストへの登録だけでなく、そのノートナンバに対応するキーオンイベントも同時に生成して音源回路9に供給することで、そのノートナンバに対応する楽音を発生させるようにしている。なお、キーオンイベントの生成処理と、生成したキーオンイベントの音源回路9への供給処理は、タイマ割り込み処理内の自動伴奏データ生成処理の直後に行うようにすればよい。この場合、自動伴奏データの生成が停止されると、発音中の楽音を消音する処理が必要である。たとえば、タイマ割り込み処理に、自動伴奏データ生成中フラグがセット状態からリセット状態に変化した時点を検知する処理を追加しておき、この変化時点が検知されたときに、上記消音処理を行うようにすればよい。ここで、消音処理は、具体的には、現在発音中の楽音に対するキーオフイベントを生成して音源回路9に供給する処理である。
In the automatic accompaniment data generation start / stop process of (2), the CPU 3 detects the user's key release operation, and based on the operation status of the automatic accompaniment generation device at the time of detection, the automatic accompaniment is performed as follows. Control the start or stop of data. That is,
(21) When key pressing operation is performed while generation of automatic accompaniment data is stopped: generation of automatic accompaniment data is started. (22) Key release operation for all key pressing keys during generation of automatic accompaniment data. (When one or more keys that were being pressed were released almost simultaneously): No action (23) During automatic accompaniment data generation, there was a key release operation for part of the key pressed Case: Generation of automatic accompaniment data is started according to the contents of the changed key-on buffer (24) When the key-on buffer is empty and a key depression operation is performed during the generation of automatic accompaniment data: Generation is stopped The case (21) corresponds to the state at time t0 or time t3 in FIG. At this time, the key depression operation is detected, automatic accompaniment data is not generated, and the stop flag is in the reset (“0”) state, so the CPU 3 writes the pitch of the key depression sound in the key-on buffer ( Along with steps S5 → S6 → S7 → S8, generation of automatic accompaniment data is started based on the contents of the key-on buffer (step S9). For example, the automatic accompaniment pattern data including the pronunciation pattern data of FIG. 3 is read by the process of step S1, and the pitches of “C3”, “E3” and “G3” are changed to the key-on buffer by the user's key pressing operation. In step S9, the CPU 3 sets an automatic accompaniment data generation flag which is provided at a predetermined position in the RAM 5 and is set during generation of automatic accompaniment data and reset while the automatic accompaniment data is stopped. To do. In the present embodiment, the actual automatic accompaniment data generation process, that is, the (A) automatic accompaniment data generation process is performed in a timer interrupt process (not shown). In the timer interrupt process, the state of the automatic accompaniment data generation flag is constantly checked. When the automatic accompaniment data generation flag is set, the automatic accompaniment data generation process described with reference to FIG. 3 is performed. Nothing is done when the automatic accompaniment data generation flag is in the reset state. However, in this embodiment, when automatic accompaniment data is generated, that is, when a pronunciation data list is generated, not only the generated note number is registered in the pronunciation data list but also corresponding to the note number. A key-on event is also generated and supplied to the tone generator circuit 9 to generate a musical sound corresponding to the note number. Note that the key-on event generation process and the generated key-on event supply process to the tone generator circuit 9 may be performed immediately after the automatic accompaniment data generation process in the timer interrupt process. In this case, when the generation of the automatic accompaniment data is stopped, it is necessary to perform a process of muting the musical sound being generated. For example, a process for detecting when the automatic accompaniment data generation flag changes from the set state to the reset state is added to the timer interrupt process, and when the change time is detected, the mute process is performed. do it. Here, the mute process is specifically a process of generating a key-off event for a musical sound that is currently being generated and supplying it to the tone generator circuit 9.

前記(22)の場合は、前記図4(a)の時刻t1または時刻t5の状態に相当する。このとき、離鍵操作が検出され、自動伴奏データの生成中であるので、CPU3は、キーオンバッファから離鍵音の音高を削除する(ステップS16→S17→S18)。ここで、離鍵は、押鍵音のすべてに対してなされているので、CPU3は結局、キーオンバッファを空にする。このように、キーオンバッファは空になるので、CPU3は、処理をステップS19からステップS4に戻す。つまり、CPU3は、自動伴奏データの生成に関する実質的な制御(本実施の形態では、前記自動伴奏データ生成中フラグのリセット)を行わないので、自動伴奏データの生成は、タイマ割り込み処理中の(A)自動伴奏データ生成処理によって継続することになる。   The case (22) corresponds to the state at time t1 or time t5 in FIG. At this time, the key release operation is detected, and automatic accompaniment data is being generated. Therefore, the CPU 3 deletes the pitch of the key release sound from the key-on buffer (steps S16 → S17 → S18). Here, since the key release is performed for all the key pressing sounds, the CPU 3 eventually empties the key-on buffer. Since the key-on buffer becomes empty in this way, the CPU 3 returns the process from step S19 to step S4. That is, the CPU 3 does not perform substantial control related to the generation of automatic accompaniment data (in this embodiment, the automatic accompaniment data generation flag is reset). A) It will be continued by automatic accompaniment data generation processing.

前記(23)の場合は、前記図4(a)の時刻t4の状態の一部に相当する。このとき、まず離鍵操作が検出され、自動伴奏データの生成中であるので、CPU3は、キーオンバッファから離鍵音の音高を削除する(ステップS16→S17→S18)。ここで、離鍵は、押鍵音の一部に対してなされているので、CPU3は、キーオンバッファの変更された内容に基づいて自動伴奏データの生成を続ける(ステップS20)。ここまでの処理が、前記(23)の場合に対応する処理である。時刻t4の状態は、“C3”,“E3”および“G3”の3つの押鍵音のうち、後の2つの音が離鍵された後、新たに“F3”および“A3”の2つの音が押鍵された状態を示しているので、時刻t4の状態の制御を行おうとすると、CPU3は、(23)の場合に対応する上記処理に加えて、次の処理を行う。すなわちCPU3は、処理をステップS20→S4→S5→S6→S10→S11と進め、キーオンバッファに新たな押鍵音の音高“F3”および“A3”を追加書き込みし(ステップS11)、その後、キーオンバッファの変更された内容に基づいて自動伴奏データの生成を続ける(ステップS12)。この時刻t4の状態の場合、後の2つの音の離鍵から押鍵までの時間が短いので、ステップS20の処理が実行される間もなく、処理はステップS12に至る。つまり、“C3”だけ格納されたキーオンバッファに基づいた自動伴奏データの生成は行われず、“C3”,“E3”および“G3”が格納されたキーオンバッファに基づいた自動伴奏データの生成から直ちに、“C3”,“F3”および“A3”が格納されたキーオンバッファに基づいた自動伴奏データの生成に移行する。   The case (23) corresponds to a part of the state at time t4 in FIG. At this time, a key release operation is first detected and automatic accompaniment data is being generated, so the CPU 3 deletes the pitch of the key release sound from the key-on buffer (steps S16 → S17 → S18). Here, since the key release is performed for a part of the key pressing sound, the CPU 3 continues to generate automatic accompaniment data based on the changed contents of the key-on buffer (step S20). The processing so far is processing corresponding to the case of (23). The state at time t4 is that two of the three key pressing sounds “C3”, “E3”, and “G3” are released and then two new keys “F3” and “A3” are newly released. Since the sound is shown depressed, the CPU 3 performs the following process in addition to the above process corresponding to the case of (23) when trying to control the state at time t4. That is, the CPU 3 proceeds with the process from step S20 → S4 → S5 → S6 → S10 → S11, and additionally writes the pitches “F3” and “A3” of the new key pressing sound to the key-on buffer (step S11). Generation of automatic accompaniment data is continued based on the changed contents of the key-on buffer (step S12). In the state at this time t4, since the time from the release of the two subsequent sounds to the key depression is short, the process reaches step S12 soon before the process of step S20 is executed. That is, the automatic accompaniment data is not generated based on the key-on buffer storing only “C3”, but immediately after the automatic accompaniment data is generated based on the key-on buffer storing “C3”, “E3”, and “G3”. , The process proceeds to generation of automatic accompaniment data based on the key-on buffer in which “C3”, “F3”, and “A3” are stored.

前記(24)の場合は、前記図4(a)の時刻t2または時刻t6の状態に相当する。このとき、まず押鍵操作が検出され、自動伴奏データの生成中であり、キーオンバッファは空であるので、CPU3は、前記自動伴奏データ生成中フラグをリセットすることで、自動伴奏データの生成を停止し(ステップS5→S6→S10→S13)、キーオンバッファに押鍵音の音高(図4(a)では“C3”)を書き込み(ステップS14)、ストップフラグをセット(“1”)する(ステップS15)。次に離鍵操作が検出され、自動伴奏データの生成は停止中であり、ストップフラグはセット状態であるので、CPU3は、キーオンバッファから離鍵音の音高(図4(a)では“C3”)を削除し(ステップS16→S17→S21→S22)、ストップフラグをリセットする(ステップS23)。時刻t2および時刻t6での押離鍵操作は、1つの鍵を用いてなされているが、複数の鍵を用いて、そのすべてを同時に押離鍵せずに、たとえば、そのうちの一部を押鍵しながら、残りを押鍵した後、一部を押鍵しながら、残りを離鍵し、その後その一部を離鍵するという押離鍵操作でもよい。この場合、最初に一部を押鍵したときに、自動伴奏データの生成が停止する(ステップS13)。そして、キーオンバッファには押鍵音の音高が書き込まれる(ステップS14)ものの、ストップフラグがセットされる(ステップS15)ので、残りが押鍵されたとしても、ステップS7の判別処理で、ステップS8およびS9の処理はスキップされて、ステップS16に処理が進む。つまり、キーオンバッファの内容は書き換わらず、停止中の自動伴奏データの生成も再開されない。その後、キーオンバッファに格納された音高に対する離鍵がなされると、CPU3は、キーオンバッファを空にし(ステップS22)、ストップフラグをリセットする(ステップS23)。このように、複数の鍵を用いて、そのすべてを同時に押離鍵しない場合にも、本自動伴奏データ生成制御処理は対処することができる。   The case (24) corresponds to the state at time t2 or time t6 in FIG. At this time, a key depression operation is first detected and automatic accompaniment data is being generated, and the key-on buffer is empty. Therefore, the CPU 3 resets the automatic accompaniment data generation flag to generate automatic accompaniment data. Stop (steps S5 → S6 → S10 → S13), write the pitch of the key depression sound (“C3” in FIG. 4A) into the key-on buffer (step S14), and set the stop flag (“1”). (Step S15). Next, the key release operation is detected, the generation of automatic accompaniment data is stopped, and the stop flag is set. Therefore, the CPU 3 cancels the pitch of the key release sound from the key-on buffer ("C3" in FIG. 4A). ”) Is deleted (steps S16 → S17 → S21 → S22), and the stop flag is reset (step S23). The key pressing operation at time t2 and time t6 is performed using one key, but using a plurality of keys without pressing all of them simultaneously, for example, pressing a part of them. The key pressing operation may be performed by pressing the remaining key while pressing the key, releasing the key while pressing a part, and then releasing the key. In this case, the generation of automatic accompaniment data stops when a part of the keys is depressed for the first time (step S13). Then, although the pitch of the key depression sound is written in the key-on buffer (step S14), the stop flag is set (step S15), so even if the remaining key is depressed, the determination process in step S7 The processes of S8 and S9 are skipped and the process proceeds to step S16. That is, the contents of the key-on buffer are not rewritten, and the generation of the stopped automatic accompaniment data is not resumed. Thereafter, when the key is released from the pitch stored in the key-on buffer, the CPU 3 empties the key-on buffer (step S22) and resets the stop flag (step S23). As described above, the automatic accompaniment data generation control process can cope with the case where a plurality of keys are used and not all keys are pressed and released simultaneously.

なお、前記ステップS6およびS17の判別処理、つまり、自動伴奏データが生成中かどうかの判別処理は、発音データリストを生成中かどうか、あるいは発音データリストに登録されたノートナンバに対応するキーオンイベントを生成して音源回路9に供給中かどうかなど、自動伴奏データの生成を直接的に判別するようにしてもよいし、自動伴奏データ生成中フラグの状態をチェックすることで、自動伴奏データの生成を間接的に判別するようにしてもよい。   Note that the determination processing in steps S6 and S17, that is, the determination processing whether or not automatic accompaniment data is being generated is the key-on event corresponding to the note number registered in the pronunciation data list or whether the pronunciation data list is being generated. Whether the automatic accompaniment data is being supplied to the tone generator circuit 9 or the like, or by checking the state of the automatic accompaniment data generation flag, You may make it discriminate | determine indirectly.

前記(3)の自動伴奏データ生成制御処理の終了処理では、CPU3は、ユーザが終了操作(たとえば、図示しないモードスイッチを操作することで、自動伴奏データ生成モードを他のモードに変更する操作)を行ったかどうかを常時チェックし(ステップS4)、ユーザが終了操作を行うと、CPU3は、本自動伴奏データ生成制御処理を終了する(ステップS4→終了)。   In the termination process of the automatic accompaniment data generation control process (3), the CPU 3 causes the user to perform a termination operation (for example, an operation for changing the automatic accompaniment data generation mode to another mode by operating a mode switch (not shown)). Is always checked (step S4), and when the user performs an end operation, the CPU 3 ends the automatic accompaniment data generation control process (step S4 → end).

なお、本実施の形態では、自動伴奏パターンデータとして、アルペジオパターンデータを例に挙げたので、それを用いて生成される自動伴奏データは、実際にはアルペジオデータであり、前記従来の自動伴奏装置が生成する種類の自動伴奏データではない。このようにしたのは、専ら説明を簡単化するためであり、本発明は、アルペジオデータの生成と同様に、前記従来の自動伴奏装置が生成する種類の自動伴奏データの生成にも適用できる。   In the present embodiment, since the arpeggio pattern data is taken as an example of the automatic accompaniment pattern data, the automatic accompaniment data generated by using the arpeggio pattern data is actually arpeggio data. Is not the type of automatic accompaniment data generated. The reason for this is to simplify the explanation, and the present invention can be applied to generation of automatic accompaniment data of the type generated by the conventional automatic accompaniment device as well as generation of arpeggio data.

また、本実施の形態では、(A)自動伴奏データ生成処理をタイマ割り込み処理中で行うようにしたが、これに限らず、図5の自動伴奏データ生成制御処理中で行うようにしてもよい。   In this embodiment, (A) the automatic accompaniment data generation process is performed during the timer interrupt process. However, the present invention is not limited to this, and it may be performed during the automatic accompaniment data generation control process of FIG. .

さらに、本実施の形態では、図5の自動伴奏データ生成制御処理を実行することにより、ユーザの意思に拘わらず、図4(a)のような制御処理を実行するようにしたが、これに限らず、図4(a)のような制御処理と図4(b)のような従来の制御処理とをユーザが自由に選択できるようにし、ユーザが選択した方の制御処理を実行するようにしてもよい。   Furthermore, in the present embodiment, the automatic accompaniment data generation control process of FIG. 5 is executed, so that the control process as shown in FIG. 4A is executed regardless of the user's intention. Not limited to this, the control process shown in FIG. 4A and the conventional control process shown in FIG. 4B can be freely selected by the user, and the control process selected by the user is executed. May be.

また、本実施の形態では、鍵盤のいずれの鍵の押離鍵操作でも、本自動伴奏データ生成制御処理に適用できるが、鍵盤を複数の鍵領域に分割し、分割後の複数の鍵域の一部の鍵域内の鍵についての押鍵操作のみに、その適用を制限するようにしてもよい。   In the present embodiment, any key pressing / releasing operation on the keyboard can be applied to the automatic accompaniment data generation control processing. However, the keyboard is divided into a plurality of key areas, and the divided key areas are divided into a plurality of key areas. The application may be limited only to the key pressing operation for keys in a part of the key range.

さらに、自動伴奏データの生成を停止させるための鍵を、鍵盤中の所定の鍵(たとえば、鍵盤の最端部の鍵)に固定的に決めておいてもよい。この場合、その所定鍵が押鍵されると、生成中の自動伴奏データの生成が停止される。その後の自動伴奏データの生成再開は、停止直前の押鍵音の音高に基づいて生成した自動伴奏データで始まるようにしてもよいし、再開のトリガとなった押鍵音の音高に基づいて生成した自動伴奏データで始まるようにしてもよい。なお、上記所定鍵は、工場設定などによって、その位置が予め設定されたものを、その後ユーザが自由に変更できるように構成した方が好ましい。   Furthermore, a key for stopping the generation of automatic accompaniment data may be fixedly determined as a predetermined key in the keyboard (for example, the key at the end of the keyboard). In this case, when the predetermined key is pressed, generation of the automatic accompaniment data being generated is stopped. Subsequent resumption of generation of automatic accompaniment data may start with automatic accompaniment data generated based on the pitch of the key depression sound immediately before the stop, or based on the pitch of the key depression sound that triggered the resumption. You may make it start with the automatic accompaniment data produced | generated in this way. The predetermined key is preferably configured so that the user can freely change the position whose position is set in advance by factory setting or the like.

また、本実施の形態では、自動伴奏データの生成を停止させるための押鍵音の音高を、自動伴奏データの基になる押鍵音の音高に近いもの(前者の音高が“C3”であるのに対して、後者の音高が“C3”,“E3”および“G3”)としたが、これに限らず、自動伴奏データの生成を停止させるための押鍵音として、自動伴奏データの基になる押鍵音と無関係な音高のものを用いてもよい。   In this embodiment, the pitch of the key depression sound for stopping the generation of the automatic accompaniment data is close to the pitch of the key depression sound based on the automatic accompaniment data (the former pitch is “C3 ”, But the latter pitch is“ C3 ”,“ E3 ”and“ G3 ”). However, the present invention is not limited to this, and as a key pressing sound for stopping the generation of automatic accompaniment data, You may use the thing of the pitch which is unrelated to the keystroke sound which becomes the basis of accompaniment data.

また、本実施の形態では、自動伴奏パターンデータは、外部記憶装置6に予め複数種類記憶されているとしたが、これに限らず、前記ROM4に予め複数種類記憶されていてもよいし、ネットワーク上にあるものを、前記通信I/F8を介して取得するようにしてもよい。   In this embodiment, a plurality of types of automatic accompaniment pattern data are stored in advance in the external storage device 6. However, the present invention is not limited to this, and a plurality of types of automatic accompaniment pattern data may be stored in the ROM 4 in advance. What is above may be acquired via the communication I / F 8.

なお、上述した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。   A program in which a storage medium that records a program code of software that realizes the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus is stored in the storage medium. It goes without saying that the object of the present invention can also be achieved by reading and executing the code.

この場合、記憶媒体から読出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードおよび該プログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the program code and the storage medium storing the program code constitute the present invention.

プログラムコードを供給するための記憶媒体としては、たとえば、フレキシブルディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。また、通信ネットワークを介してサーバコンピュータからプログラムコードが供給されるようにしてもよい。   As a storage medium for supplying the program code, for example, a flexible disk, hard disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, magnetic A tape, a non-volatile memory card, a ROM, or the like can be used. Further, the program code may be supplied from a server computer via a communication network.

また、コンピュータが読出したプログラムコードを実行することにより、上述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the OS running on the computer based on the instruction of the program code performs the actual processing. It goes without saying that a case where the functions of the above-described embodiment are realized by performing part or all of the above and the processing thereof is included.

さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明の一実施の形態に係る自動伴奏生成装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the automatic accompaniment production | generation apparatus which concerns on one embodiment of this invention. 自動伴奏データ生成処理の制御構成を示すブロック図である。It is a block diagram which shows the control structure of an automatic accompaniment data generation process. 自動伴奏パターンデータに含まれる発音パターンデータのフォーマットの一例と、その発音パターンデータとユーザの押鍵操作によって入力された押鍵音の音高に基づいて生成した発音データリストを示す図である。It is a figure which shows an example of the format of the pronunciation pattern data contained in automatic accompaniment pattern data, and the pronunciation data list produced | generated based on the pitch pattern data and the pitch of the keystroke sound input by the user's keystroke operation. 自動伴奏データ生成開始/停止処理を説明するための図である。It is a figure for demonstrating automatic accompaniment data generation start / stop processing. 図1の自動伴奏生成装置、特にCPUが実行する自動伴奏データ生成制御処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the automatic accompaniment production | generation apparatus of FIG. 1, especially the automatic accompaniment data production | generation control processing which CPU performs.

符号の説明Explanation of symbols

1…操作子群(入力手段),3…CPU(供給手段、生成手段、判別手段、決定手段、制御手段),4…ROM(供給手段),6…外部記憶装置(供給手段),8…通信I/F(供給手段) DESCRIPTION OF SYMBOLS 1 ... Operator group (input means), 3 ... CPU (supply means, production | generation means, discrimination means, determination means, control means), 4 ... ROM (supply means), 6 ... External storage device (supply means), 8 ... Communication I / F (supply means)

Claims (4)

自動伴奏パターンデータを供給する供給手段と、
演奏音を入力する入力手段と、
該入力手段によって入力された演奏音および前記供給手段によって供給された自動伴奏パターンデータに基づいて、自動伴奏データを生成する生成手段と、
前記入力手段によって演奏音が入力されたときに、該入力がどのような演奏音の入力状況の下での入力であるかを判別する判別手段と、
該判別手段による判別結果に基づいて、前記生成手段による自動伴奏データの生成を停止するか否かを決定する決定手段と、
該決定手段によって、前記自動伴奏データの生成を停止すると決定されたときには、当該自動伴奏データの生成を停止させるように前記生成手段を制御する制御手段と
を有することを特徴とする自動伴奏生成装置。
Supply means for supplying automatic accompaniment pattern data;
Input means for inputting performance sound;
Generating means for generating automatic accompaniment data based on the performance sound input by the input means and the automatic accompaniment pattern data supplied by the supply means;
Discriminating means for discriminating under what input condition of the performance sound when the performance sound is input by the input means;
Determining means for determining whether or not to stop the generation of automatic accompaniment data by the generating means, based on the determination result by the determining means;
An automatic accompaniment generating apparatus, comprising: a control unit that controls the generation unit to stop the generation of the automatic accompaniment data when the determination unit determines to stop the generation of the automatic accompaniment data. .
前記判別手段によって、自動伴奏データの生成中、かつ演奏音が何も入力されていない状態で、新たな演奏音の入力があったことが判別されたときに、前記決定手段は、当該自動伴奏データの生成を停止すると決定することを特徴とする請求項1に記載の自動伴奏生成装置。   When the determination means determines that a new performance sound has been input while the automatic accompaniment data is being generated and no performance sound has been input, the determination means determines that the automatic accompaniment data 2. The automatic accompaniment generating apparatus according to claim 1, wherein it is determined to stop generating data. 前記判別手段によって、自動伴奏データの生成が停止中に、新たな演奏音の入力があったことが判別されたときには、前記制御手段は、自動伴奏データの生成を開始させるように前記生成手段を制御することを特徴とする請求項2に記載の自動伴奏生成装置。   When it is determined by the determining means that a new performance sound has been input while the generation of automatic accompaniment data is stopped, the control means causes the generating means to start generating automatic accompaniment data. The automatic accompaniment generator according to claim 2, wherein the automatic accompaniment generator is controlled. 自動伴奏パターンデータを供給する供給モジュールと、
演奏音を入力する入力手段によって入力された演奏音および前記供給モジュールによって供給された自動伴奏パターンデータに基づいて、自動伴奏データを生成する生成モジュールと、
前記入力手段によって演奏音が入力されたときに、該入力がどのような演奏音の入力状況の下での入力であるかを判別する判別モジュールと、
該判別モジュールによる判別結果に基づいて、前記生成モジュールによる自動伴奏データの生成を停止するか否かを決定する決定モジュールと、
該決定モジュールによって、前記自動伴奏データの生成を停止すると決定されたときには、当該自動伴奏データの生成を停止させるように前記生成モジュールを制御する制御モジュールと
をコンピュータに実行させるためのプログラム。
A supply module for supplying automatic accompaniment pattern data;
A generating module for generating automatic accompaniment data based on the performance sound input by the input means for inputting the performance sound and the automatic accompaniment pattern data supplied by the supply module;
When a performance sound is input by the input means, a determination module for determining under what input state of the performance sound the input is,
A determination module for determining whether to stop the generation of automatic accompaniment data by the generation module, based on a determination result by the determination module;
A program for causing a computer to execute a control module that controls the generation module to stop generation of the automatic accompaniment data when the determination module determines to stop generation of the automatic accompaniment data.
JP2006309049A 2006-11-15 2006-11-15 Program for realizing automatic accompaniment generation apparatus and automatic accompaniment generation method Expired - Fee Related JP4873307B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006309049A JP4873307B2 (en) 2006-11-15 2006-11-15 Program for realizing automatic accompaniment generation apparatus and automatic accompaniment generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006309049A JP4873307B2 (en) 2006-11-15 2006-11-15 Program for realizing automatic accompaniment generation apparatus and automatic accompaniment generation method

Publications (2)

Publication Number Publication Date
JP2008122841A true JP2008122841A (en) 2008-05-29
JP4873307B2 JP4873307B2 (en) 2012-02-08

Family

ID=39507628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006309049A Expired - Fee Related JP4873307B2 (en) 2006-11-15 2006-11-15 Program for realizing automatic accompaniment generation apparatus and automatic accompaniment generation method

Country Status (1)

Country Link
JP (1) JP4873307B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5246816A (en) * 1975-10-13 1977-04-14 Konishiroku Photo Ind Co Ltd Method for adding photographic additive
JPS56147186A (en) * 1980-04-17 1981-11-14 Nippon Musical Instruments Mfg Automatic accompaning device for electronic music instrument
JPS60146295A (en) * 1984-01-10 1985-08-01 ブラザー工業株式会社 Electronic musical instrument
JPH0580767A (en) * 1991-09-20 1993-04-02 Kawai Musical Instr Mfg Co Ltd Start/stop controller for electronic musical instrument

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5246816A (en) * 1975-10-13 1977-04-14 Konishiroku Photo Ind Co Ltd Method for adding photographic additive
JPS56147186A (en) * 1980-04-17 1981-11-14 Nippon Musical Instruments Mfg Automatic accompaning device for electronic music instrument
JPS60146295A (en) * 1984-01-10 1985-08-01 ブラザー工業株式会社 Electronic musical instrument
JPH0580767A (en) * 1991-09-20 1993-04-02 Kawai Musical Instr Mfg Co Ltd Start/stop controller for electronic musical instrument

Also Published As

Publication number Publication date
JP4873307B2 (en) 2012-02-08

Similar Documents

Publication Publication Date Title
JP4049014B2 (en) Music score display device and music score display computer program
JP4379291B2 (en) Electronic music apparatus and program
JP2008139450A (en) Automatic accompaniment generator and program for achieving automatic accompaniment generating method
JP2007322683A (en) Musical sound control device and program
JP6024403B2 (en) Electronic music apparatus, parameter setting method, and program for realizing the parameter setting method
JP4501590B2 (en) Music information display apparatus and program for realizing music information display method
JP3546739B2 (en) Automatic performance device and recording medium
JP3551014B2 (en) Performance practice device, performance practice method and recording medium
JP4873307B2 (en) Program for realizing automatic accompaniment generation apparatus and automatic accompaniment generation method
JP3649014B2 (en) Performance data file playback setting control device
JP5200368B2 (en) Arpeggio generating apparatus and program for realizing arpeggio generating method
JP3358568B2 (en) Performance assisting device and recording medium therefor
JP4648177B2 (en) Electronic musical instruments and computer programs
JP4172335B2 (en) Automatic accompaniment generator and program
JP4214845B2 (en) Automatic arpeggio device and computer program applied to the device
JP3885791B2 (en) Program for realizing automatic accompaniment apparatus and automatic accompaniment method
JP4148184B2 (en) Program for realizing automatic accompaniment data generation method and automatic accompaniment data generation apparatus
JP5402167B2 (en) Arpeggio generating apparatus and program for realizing arpeggio generating method
JP3692811B2 (en) Automatic performance apparatus and method
JP2005284076A (en) Electronic musical instrument
JP4075756B2 (en) Program for realizing automatic accompaniment apparatus and automatic accompaniment method
JP2000250533A (en) Harmony type display device
JP4159439B2 (en) Electronic musical instrument, musical sound generation method, and computer program
JP3788396B2 (en) Electronic music apparatus and computer program for electronic music apparatus
JP5200384B2 (en) Electronic musical instruments and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110621

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111028

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111110

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4873307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees