JP5070908B2 - Automatic accompaniment generator for electronic musical instrument and computer program therefor - Google Patents

Automatic accompaniment generator for electronic musical instrument and computer program therefor Download PDF

Info

Publication number
JP5070908B2
JP5070908B2 JP2007092260A JP2007092260A JP5070908B2 JP 5070908 B2 JP5070908 B2 JP 5070908B2 JP 2007092260 A JP2007092260 A JP 2007092260A JP 2007092260 A JP2007092260 A JP 2007092260A JP 5070908 B2 JP5070908 B2 JP 5070908B2
Authority
JP
Japan
Prior art keywords
data
pattern data
automatic accompaniment
pronunciation
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007092260A
Other languages
Japanese (ja)
Other versions
JP2008250053A (en
Inventor
義久 伊藤
恭浩 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2007092260A priority Critical patent/JP5070908B2/en
Publication of JP2008250053A publication Critical patent/JP2008250053A/en
Application granted granted Critical
Publication of JP5070908B2 publication Critical patent/JP5070908B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、電子楽器にけるアルペジオや各伴奏スタイルに従って伴奏音を生成して出力する自動伴奏生成装置及びそのコンピュータプログラムに関する。   The present invention relates to an automatic accompaniment generation apparatus that generates and outputs accompaniment sounds according to an arpeggio or an accompaniment style in an electronic musical instrument, and a computer program therefor.

本発明の自動伴奏生成装置及びそのコンピュータプログラムに関連する先行技術文献情報として、例えば、下記の特許文献1がある。
特開2005−10445号公報
As prior art document information related to the automatic accompaniment generating apparatus and the computer program of the present invention, for example, there is Patent Document 1 below.
Japanese Patent Laying-Open No. 2005-10445

この特許文献1に記載の発明は、異なる発音パターンデータで規定された複数のアルペジオパターンデータが記憶されていて、演奏者が各アルペジオパターンデータから一つを選択し、入力操作部(鍵盤)によって演奏すると、該入力された演奏内容が選択されたアルペジオパターンに基づいて分散発音されるようにしたものである。
又、演奏される楽曲の進行上の構成に合わせて、アルペジオ演奏中に、読み出し中のアルペジオパターンから他のアルペジオパターンに切替えることができる。
例えば、楽曲の進行上の静かな部分は静かなアルペジオパターンを使い、激しい部分に移行するのに応じて、アルペジオパターンも激しいパターンに切替えることで、楽曲の雰囲気に合致したアルペジオ演奏を行うことができる。
尚、楽曲の進行上の各部分(各セクション)において使用するのに好適なパターンを用意し、各セクションの推移に沿ってパターンを切替えてアルペジオ演奏をすることもあるから、セクションデータと呼ぶこともある。
In the invention described in Patent Document 1, a plurality of arpeggio pattern data defined by different pronunciation pattern data is stored, and a player selects one from each arpeggio pattern data, and uses an input operation unit (keyboard). When a performance is performed, the input performance contents are distributedly generated based on the selected arpeggio pattern.
Also, according to the composition of the music to be played, the arpeggio pattern being read can be switched to another arpeggio pattern during the arpeggio performance.
For example, you can use a quiet arpeggio pattern in the progress of a song, and change the arpeggio pattern to a more intense pattern as you move to a more intense part, so that you can perform an arpeggio performance that matches the atmosphere of the song. it can.
In addition, a pattern suitable for use in each part (each section) in the progression of the music is prepared, and the arpeggio performance may be switched by changing the pattern according to the transition of each section, so it is called section data There is also.

ところで、楽曲の進行上、同一のセクションが比較的長時間持続するような場合、アルペジオパターンも同じものを長時間繰り返し使用することになり、単調な演奏になってしまう。
そのような場合に、アルペジオパターンを切替えて演奏することで単調さを改善することができるが、アルペジオパターンの雰囲気をガラッと変えてしまうと、楽曲の雰囲気と合致しなくなることから、比較的類似した雰囲気のアルペジオパターンに切替えるのが望ましい。
しかしながら、一般的な電子楽器には、セクション切替え用の操作子が備えられているが、セクションよりも細かな単位で更に類似した雰囲気のアルペジオパターンに切替えるための操作子を用意するのは、操作子の設定面積や操作面の煩雑さ等の都合上、得策ではない。
又、アルペジオパターンを切替えるための操作子の操作も面倒であり、セクションの切り替え以外にも頻繁に切替えるとなると演奏に支承をきたしてしまう。
尚、このような状況は、アルペジオ演奏に限らず、予め記憶された伴奏パターンデータを、指定された和音に応じて音高変換して発音させる自動伴奏にも当てはまる。
By the way, when the same section lasts for a relatively long time as the music progresses, the same arpeggio pattern is repeatedly used for a long time, resulting in a monotonous performance.
In such a case, you can improve the monotony by switching and playing the arpeggio pattern, but if you change the atmosphere of the arpeggio pattern, it will not match the atmosphere of the song, so it is relatively similar It is desirable to switch to the arpeggio pattern of the atmosphere.
However, a general electronic musical instrument is equipped with an operator for section switching, but it is necessary to prepare an operator for switching to an arpeggio pattern with a more similar atmosphere in smaller units than a section. This is not a good idea because of the setting area of the child and the complexity of the operation surface.
Also, the operation of the operation element for switching the arpeggio pattern is troublesome, and if it is frequently switched other than the section switching, the performance is supported.
Such a situation is not limited to an arpeggio performance, but also applies to automatic accompaniment in which accompaniment pattern data stored in advance is pitch-converted according to a specified chord.

本発明は、同一のアルペジオパターンや自動伴奏のパターンの使用が長く続いても単調でない自然な演奏を行うことができる電子楽器における自動伴奏生成装置及びそのコンピュータプログラムの提供を目的とする。   An object of the present invention is to provide an automatic accompaniment generating apparatus in an electronic musical instrument that can perform a natural performance that is not monotonous even if the same arpeggio pattern or automatic accompaniment pattern is used for a long time, and a computer program thereof.

前記目的を達成するため、本発明が採用した技術的手段は、夫々複数の発音パターンデータ及び該複数の発音パターンデータに対応して発音パターンデータを再生する順番を指定する発音パターン指定データを含む複数のセクションデータを記憶する自動伴奏パターンデータ記憶手段と、前記複数のセクションデータのうちのいずれかを選択するセクション指定手段と、前記選択されたセクションデータに含まれる複数の前記発音パターンデータを再生する順番を前記発音パターン指定データに基づいて順次切替える切替え手段と、 前記切替え手段により切替えられた前記発音パターンデータに基づいて、自動伴奏音を生成して出力する自動伴奏生成手段と、を含むことを特徴とする電子楽器における自動伴奏生成装置である。 In order to achieve the above object, the technical means adopted by the present invention includes a plurality of pronunciation pattern data and pronunciation pattern designation data for designating the order of reproducing the pronunciation pattern data corresponding to the plurality of pronunciation pattern data. Automatic accompaniment pattern data storage means for storing a plurality of section data, section specifying means for selecting any one of the plurality of section data, and reproducing the plurality of pronunciation pattern data included in the selected section data Switching means for sequentially switching the order to be performed based on the pronunciation pattern designation data; and automatic accompaniment generation means for generating and outputting an automatic accompaniment sound based on the pronunciation pattern data switched by the switching means. An automatic accompaniment generator for an electronic musical instrument characterized by the above.

又、前記各セクションデータが、複数の発音パターンデータを夫々含む複数のトラックを有していることが好ましい。 Further, each section data is preferably has a plurality of tracks including each a plurality of sound pattern data.

又、前記セクションデータが、更に、フィルイン用のフィルイン発音パターンデータを有するものであって、前記フィルイン発音パターンデータへの移行を指示するフィルイン指示手段と、前記フィルインへの移行指示に応じて、その時点で再生されている発音パターンデータの順番を一時記憶する一時記憶手段と、前記指示されたフィルイン発音パターンデータに基づいて自動伴奏を生成して出力すると共に、該フィルイン発音パターンデータの終了に応じて、前記一時記憶されていた順番の発音パターンデータへと復帰し、自動伴奏音の生成を継続する制御手段と、を備えることが好ましい。 The section data further includes fill-in pronunciation pattern data for fill-in, and fill-in instruction means for instructing transition to the fill-in pronunciation pattern data, and according to the transition instruction to the fill-in, Temporary storage means for temporarily storing the order of the pronunciation pattern data reproduced at the time, and generating and outputting an automatic accompaniment sound based on the instructed fill-in pronunciation pattern data, and at the end of the fill-in pronunciation pattern data Accordingly, it is preferable to include control means for returning to the temporarily stored pronunciation pattern data and continuing to generate automatic accompaniment sounds.

前記自動伴奏生成装置に適用されるコンピュータプログラムは、記憶手段に夫々複数の発音パターンデータを含む複数のセクションデータが記憶され、該記憶された発音パターンデータに基づいて、自動伴奏音を生成して出力する電子楽器における自動伴奏生成装置に適用されるコンピュータプログラムにおいて、前記複数のセクションデータのうちのいずれかを選択するステップと、前記選択されたセクションデータに含まれる複数の発音パターンデータを再生する順番を決定するステップと、前記順番を決定するステップより決定された順番にて、前記セクションデータに含まれる複数の発音パターンデータを順次切替えるステップと、前記切替えるステップにより切替えられた発音パターンデータに基づいて、自動伴奏音を生成して出力するステップと、を含むことを特徴とするコンピュータプログラムである。 A computer program applied to the automatic accompaniment generating device stores a plurality of section data including a plurality of pronunciation pattern data in a storage means, and generates an automatic accompaniment sound based on the stored pronunciation pattern data. In a computer program applied to an automatic accompaniment generating device for an electronic musical instrument to be output, a step of selecting any one of the plurality of section data and a plurality of pronunciation pattern data included in the selected section data are reproduced. determining an order, in order determined from the step of determining the order, the steps of switching the plurality of sound patterns data included in the section data sequentially, the sound pattern data is switched by the switching Ru step Based on this, an automatic accompaniment sound is generated and output. A computer program, which comprises the steps of, a.

本発明でいう自動伴奏パターンデータとは、アルペジオパターンデータや音楽ジャンル等の伴奏スタイルデータ等のパターンデータを意味する。
又、一つのセクションデータには、例えば楽曲の中で主として定常的に演奏されるメインセクションデータや、楽曲の中のイントロ部分で演奏されるイントロセクションデータや、楽曲の中のエンディング部分で演奏されるエンディングセクションデータ等が含まれ、更には、曲の変わり目等にタイミングよく演奏される短いフレーズのフィルインセクションが含まれる。
又、発音パターンデータとは、アルペジオパターンや伴奏スタイルパターンのバリエーションを規定するパターンデータであり、この発音パターンデータが前記各セクションデータを規定している。
又、本発明でいう電子楽器は、自動伴奏生成装置を有する電子楽器であれば、電子鍵盤楽器や電子弦楽器等、電子楽器の種類を限定するものではない。
The automatic accompaniment pattern data in the present invention means pattern data such as arpeggio pattern data and accompaniment style data such as a music genre.
One section data is, for example, main section data that is mainly played regularly in the music, intro section data that is played in the intro part of the music, or in the ending part of the music. Ending section data and the like, and a short phrase fill-in section that is played in a timely manner at the turn of the music.
The pronunciation pattern data is pattern data that defines variations of the arpeggio pattern and the accompaniment style pattern, and the pronunciation pattern data defines the section data.
The electronic musical instrument in the present invention is not limited to the type of electronic musical instrument such as an electronic keyboard musical instrument or an electronic string musical instrument as long as it is an electronic musical instrument having an automatic accompaniment generator.

本発明によれば、多数のパターン切替え用操作子を備えたり、演奏中に頻繁に切替え操作を行ったりする必要なしに、同一のアルペジオパターンや自動伴奏のセクションの使用が長く続いても単調でない自然な演奏を行うことができる。   According to the present invention, it is not monotonous even if the use of the same arpeggio pattern or automatic accompaniment section continues for a long time without having to provide a large number of pattern switching operators or frequently performing switching operations during performance. A natural performance can be performed.

以下、本発明に係る電子楽器における自動伴奏生成装置を実施するための最良の形態を図面に基づいて説明する。   The best mode for carrying out an automatic accompaniment generator in an electronic musical instrument according to the present invention will be described below with reference to the drawings.

図1は、電子楽器の概略構成を示すブロック図である。
該電子楽器は、入力操作部1、CPU2,ROM3,RAM4,外部記憶装置5,通信インターフェース(以下「I/F」という)6,表示部7,音源部8を備え、これらがバス9によって接続されている。
又、表示部7にはディスプレイ71が、音源部8にはサウンドシステム81が接続され、通信I/F6を介してコンピュータ等の外部機器61が接続されている。
FIG. 1 is a block diagram showing a schematic configuration of an electronic musical instrument.
The electronic musical instrument includes an input operation unit 1, a CPU 2, a ROM 3, a RAM 4, an external storage device 5, a communication interface (hereinafter referred to as “I / F”) 6, a display unit 7, and a sound source unit 8. Has been.
A display 71 is connected to the display unit 7, a sound system 81 is connected to the sound source unit 8, and an external device 61 such as a computer is connected via the communication I / F 6.

前記入力操作部1は、演奏情報を入力するための演奏操作子(例えば、鍵盤)及び各種設定を入力するための複数の各種スイッチ等を含んでいる。
CPU2は、ROM3や外部記憶装置5に記憶している制御プログラムを実行して電子楽器全体の制御を行うものであり、後述する各手段として機能する。
ROM3は、CPU2が実行する各種制御プログラムや自動伴奏パターンデータを含む各種データを記憶する。
RAM4は、自動伴奏パターンデータを含む各種データや各種入力情報及び演算結果等を一時的に記憶する。
The input operation unit 1 includes a performance operator (for example, a keyboard) for inputting performance information and a plurality of various switches for inputting various settings.
The CPU 2 executes a control program stored in the ROM 3 or the external storage device 5 to control the entire electronic musical instrument, and functions as each unit described later.
The ROM 3 stores various data including various control programs executed by the CPU 2 and automatic accompaniment pattern data.
The RAM 4 temporarily stores various data including automatic accompaniment pattern data, various input information, calculation results, and the like.

外部記憶装置5は、各種アプリケーションプログラム、自動伴奏パターンや各伴奏パターンについての切替えタイミング情報、自動伴奏パターンデータ等のデータを記憶する書き換え可能な不揮発性記憶手段である。
この外部記憶装置5は、例えば、フレキシブルディスクドライブ(FDD)、ハードディスクドライブ(HDD)、CD−R/RWドライブ及び光磁気ディスク(MO)ドライブ等が挙げられる。
これらの記憶装置(ドライブ)には、データを書込み可能、且つ恒久的に保存することができる記憶装置(例えば、フレキシブルディスクやハードディスク等のディスク型記憶装置)が装着又は内蔵されている。
尚、前記ディスク型記憶装置に限らず、データを恒久的(不揮発的)に保存できる記憶装置であれば良く、例えばフラッシュメモリ等の半導体メモリでも良い。
そして、外部記憶装置5には、前述のように、CPU1が実行する制御プログラムも記憶でき、ROM6に制御プログラムが記憶されていない場合には、この記憶装置5に制御プログラムを記憶させておき、それをRAM4に読み込むことにより、ROM3に制御プログラムを記憶している場合と同様の動作をCPU1にさせることができる。
このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。
The external storage device 5 is rewritable nonvolatile storage means for storing various application programs, automatic accompaniment patterns, switching timing information for each accompaniment pattern, automatic accompaniment pattern data, and the like.
Examples of the external storage device 5 include a flexible disk drive (FDD), a hard disk drive (HDD), a CD-R / RW drive, and a magneto-optical disk (MO) drive.
In these storage devices (drives), a storage device (for example, a disk-type storage device such as a flexible disk or a hard disk) in which data can be written and can be permanently stored is mounted or incorporated.
Note that the present invention is not limited to the disk-type storage device, and any storage device that can store data permanently (non-volatile) may be used. For example, a semiconductor memory such as a flash memory may be used.
As described above, the external storage device 5 can also store the control program executed by the CPU 1. If the control program is not stored in the ROM 6, the control program is stored in the storage device 5. By reading it into the RAM 4, it is possible to cause the CPU 1 to perform the same operation as when the control program is stored in the ROM 3.
In this way, control programs can be easily added and upgraded.

通信I/F6は、電子楽器をコンピュータ等の外部機器61と接続するためのインターフェースであり、MIDI(Musical Instruments Digital Interface)インターフェースや、USB(Universal Serial Bus)インターフェース、ネットワークインタフェース等を備えている。
そして、ここを介して外部機器61との間でMIDIデータや楽譜データ、リモートコントロールコマンド等の送受信を行うことができる。
The communication I / F 6 is an interface for connecting an electronic musical instrument to an external device 61 such as a computer, and includes a MIDI (Musical Instruments Digital Interface) interface, a USB (Universal Serial Bus) interface, a network interface, and the like.
Then, MIDI data, musical score data, remote control commands, etc. can be transmitted / received to / from the external device 61 via this.

表示部7は、電子楽器の動作状態や設定状態等を表示する液晶表示パネル等によるディスプレイ71に、これらの情報や楽譜、メッセージ、GUI(グラフィカル・ユーザ・インタフェース)等を表示させるための表示制御回路が含まれている。
音源部8は、演奏及び自動伴奏等の発音パターンデータや演奏データに基づいて音声信号を生成し、これをサウンドシステム81に出力して発音を行わせる発音制御回路が含まれている。
The display unit 7 is a display control for displaying such information, a score, a message, a GUI (graphical user interface), and the like on a display 71 such as a liquid crystal display panel that displays an operation state and a setting state of the electronic musical instrument. The circuit is included.
The sound source unit 8 includes a sound generation control circuit that generates sound signals based on sound generation pattern data and performance data such as performance and automatic accompaniment, and outputs the sound signals to the sound system 81 for sound generation.

図2は、電子楽器の自動伴奏パターンデータの構成の一例を示す構成図である。
本形態で例示する自動伴奏パターンデータDは、アルペジオパターンであって、複数のセクションデータD1,D2・・・から構成されている。
ここでセクションとは、楽曲の進行上の各部分を意味し、セクションデータとは、楽曲の進行上の各部分(セクション)において演奏されるのに好適なパターンデータである。
つまり、楽曲の演奏進行にしたがってセクションデータを切替えて使用することにより、楽曲の雰囲気に合致した伴奏を行うことができる。
典型的なセクションとしては、イントロセクション、メインセクション、フィルインセクション、エンディングセクション等があり、各セクションにつき、雰囲気の異なったバリエーションパターン(例えば、メインセクションにつき、AバリエーションとBバリエーション等)を有することもできる。
尚、図示はしていないが、このような自動伴奏パターンデータDが多数記憶されていて、いずれか一つの自動伴奏パターンデータが選択されて演奏に使用される。
本形態における各セクションデータD1,D2は、別途記憶されている発音パターンデータ1,2,30,・・・のうちいずれか1乃至複数の発音パターンデータを指定する(参照する、あるいは関連付ける、ともいう)パターン指定データD3を夫々含む五つのトラックTから構成されており、各トラックは、トラック番号1〜5が付与され、基本的には、このトラック番号1からトラック番号4のトラックが通常の自動伴奏を生成するデータであり、セクションの切替えが指示されるまで、繰り返し読み出して再生されるものである。
前記トラック番号5のトラックTは、フィルイン用の発音パターン指定データD3から構成されたものであり、通常トラック1〜4の演奏中において、前記入力操作部1の人為的な操作でフィルインを指示することによって、通常トラック1〜4の演奏中に短いフレーズを入れるようにしたものである。
FIG. 2 is a block diagram showing an example of the configuration of automatic accompaniment pattern data for an electronic musical instrument.
The automatic accompaniment pattern data D exemplified in this embodiment is an arpeggio pattern, and is composed of a plurality of section data D1, D2,.
Here, the section means each part in the progress of the music, and the section data is pattern data suitable for being played in each part (section) in the progress of the music.
In other words, accompaniment that matches the atmosphere of the music can be performed by switching and using the section data according to the progress of the music.
Typical sections include intro section, main section, fill-in section, ending section, etc. Each section may have a variation pattern with different atmosphere (for example, A variation and B variation for the main section). it can.
Although not shown, a large number of such automatic accompaniment pattern data D is stored, and any one of the automatic accompaniment pattern data is selected and used for performance.
Each section data D1, D2 in the present embodiment designates (refers to or associates) any one or a plurality of pronunciation pattern data among separately stored pronunciation pattern data 1, 2, 30,. Each track is given track numbers 1 to 5, and basically, tracks with track numbers 1 to 4 are normal. Data for generating an automatic accompaniment, which is repeatedly read and reproduced until a section change is instructed.
The track T having the track number 5 is composed of the sound generation pattern designation data D3 for fill-in, and the fill-in is instructed by the manual operation of the input operation unit 1 during the performance of the normal tracks 1 to 4. Thus, a short phrase is usually entered during the performance of tracks 1 to 4.

各トラックTにおいて発音パターン指定データD3にて指定されているセクションデータとは、別に記憶されている各発音パターンデータD4は、図3に示すようなデータからなる各々異なる発音パターンで構成されており、各発音パターンデータD4には、パターンデータ番号(図示では、1〜14,20,30)が付与されている。
前記パターンデータ番号は、セクションデータの各トラック内でいずれかのパターンデータを指定する際や、パターンデータの内容を編集する際に、該パターンデータ番号で管理するようにしている。
Each of the sound generation pattern data D4 stored separately from the section data specified by the sound generation pattern specifying data D3 in each track T is composed of different sound generation patterns composed of data as shown in FIG. Each tone generation pattern data D4 is assigned a pattern data number (1 to 14, 20, 30 in the figure).
The pattern data number is managed by the pattern data number when specifying any pattern data in each track of the section data or when editing the contents of the pattern data.

前記トラック番号1〜トラック番号4の各トラックTの発音パターン指定データD3には、発音順番号(図示では、各発音パターン指定データの右側の1〜4で示す)が、デフォルト、あるいは演奏者の任意な編集により付与されている。
本形態では、トラック番号1〜トラック番号4の各トラックTを同時に(並列に)再生可能としている。
各トラックTは、四つの演奏パート(例えば、演奏操作子(鍵盤)を四つの領域に分割したときの各領域に対応する)の夫々と対応するものとし、各演奏パートにて演奏された(押鍵された)演奏音を、該演奏パートに対応したトラックの発音パターンデータに応じて分散発音させるようにしている。
そして、各トラックT内における1乃至複数の発音パターン指定データD3で指定される発音パターンデータを、発音順番号順に順次切替えて再生する。
すなわち、トラック1を例に取ると、一回目は、発音パターンデータ1が、二回目は、発音パターンデータ4が、三回目は、発音パターンデータ6が順次指定されて再生される。
In the sound generation pattern designation data D3 of each track T of the track numbers 1 to 4, the sound generation order number (indicated by 1 to 4 on the right side of each sound generation pattern designation data in the drawing) is the default or the player's It is given by arbitrary editing.
In this embodiment, the tracks T having track numbers 1 to 4 can be reproduced simultaneously (in parallel).
Each track T corresponds to each of four performance parts (for example, corresponding to each region when the performance operator (keyboard) is divided into four regions), and each track T is played ( The performance sound (pressed) is distributed according to the sound pattern data of the track corresponding to the performance part.
Then, the sound generation pattern data specified by one or more sound generation pattern specification data D3 in each track T is sequentially switched and reproduced in the order of the sound generation order number.
That is, taking the track 1 as an example, the sound generation pattern data 1 is designated for the first time, the sound pattern data 4 is designated for the second time, and the sound pattern data 6 is designated for the third time.

前記発音パターンデータD4の具体的な構成は、図3(a)に示すように、発音データの出力タイミングをクロックカウントで示すTiming、発音データにおける音長を示すGate、発音させるキー番号を示すKey、キーのオクターブ補正量を示すOct、発音データにおけるベロシティを示すVelのデータから構成されている。
これらの各データは、電子楽器にプリセットされているものでもよいが、楽曲の雰囲気に合うように、編集を行うようにしてもよい。
具体的には、本形態では、四分音符を480クロックとした場合の8分音符刻みの1小節での発音パターンで例示しているが、例えば、4分音符刻みにしたり、2小節以上にしたりする編集や、各データの数値を変更する編集を任意に行う。
又、発音パターンデータD4の各データの編集の他に、自動伴奏データの再生順の編集や、各トラックTに、どの前記発音パターンデータD4を割り当てるか、すなわち発音パターン指定データD3が指定するパターンデータ番号をいくつにするか、トラックT内の発音パターン指定データ数をいくつにするか等の編集、発音順番号の編集も併せて行ってもよい。
この編集時においては、前記ディスプレイ71に、前記各データが文字や記号等の視覚的情報として表示され、これら表示された情報を目視しながら、入力操作部1からの編集操作により、出力タイミング、音長、Key、オクターブ補正量、ベロシティ、各トラックにおける発音パターン指定データD3の値の設定、その数、発音順等を編集するようにしている。
尚、一つのトラック内において指定されている複数の発音パターンデータは、互いにその演奏内容が類似したものとなるように、予め作成乃至編集しておく。
すなわち、一つのトラック内で指定される複数の発音パターンデータは、同じセクションデータが長時間持続的に再生されることによる単調さを改善させるために、共通の音楽的雰囲気を有するが、微妙にその演奏内容が異なるものとされるのである。
一方、一つのセクションデータ内に含まれる複数のトラック間においては、そのような類似性は要求されず、全く音楽的雰囲気は似てなくてもよいが、同時に発音させても違和感がないような演奏内容とする必要はある。
又、各データの編集時においては、入力操作部1による演奏操作をして各データにおける音を聞きながら編集を行うことができる。
編集終了後、ディスプレイ71の表示を閉じることや、所定の更新操作により、各データの情報の更新が行われるようにしている。
As shown in FIG. 3A, the specific structure of the sound generation pattern data D4 is as follows: Timing indicating the output timing of the sound generation data as a clock count, Gate indicating the sound length in the sound generation data, and Key indicating the key number for sound generation. , Oct indicating the octave correction amount of the key, and Vel data indicating the velocity in the sound generation data.
Each of these data may be preset in the electronic musical instrument, but may be edited so as to match the music atmosphere.
Specifically, in the present embodiment, the sound generation pattern in one measure of an eighth note when a quarter note is set to 480 clocks is illustrated, but for example, it is set to a quarter note or two or more measures. Or edit to change the numerical value of each data.
In addition to editing each sound pattern data D4, editing the automatic accompaniment data in the playback order, which sound pattern data D4 is assigned to each track T, that is, the pattern specified by the sound pattern specifying data D3 Editing such as how many data numbers are to be used, how many pronunciation pattern designation data numbers in the track T are to be performed, and editing of pronunciation order numbers may be performed together.
At the time of this editing, each data is displayed as visual information such as characters and symbols on the display 71. While viewing the displayed information, an editing operation from the input operation unit 1 allows output timing, The tone length, key, octave correction amount, velocity, setting of the value of the pronunciation pattern designation data D3 in each track, the number, the order of pronunciation, etc. are edited.
A plurality of pronunciation pattern data designated in one track is created or edited in advance so that the performance contents are similar to each other.
That is, a plurality of pronunciation pattern data specified in one track has a common musical atmosphere in order to improve the monotonousness due to the same section data being reproduced continuously for a long time. The performance content is different.
On the other hand, such a similarity is not required between a plurality of tracks included in one section data, and the musical atmosphere may not be similar at all. It is necessary to make it a performance content.
Further, when editing each data, it is possible to perform editing while listening to the sound in each data by performing a performance operation by the input operation unit 1.
After the editing is completed, the information on each data is updated by closing the display on the display 71 or by a predetermined updating operation.

そして、編集が行われたセクションデータが選択され、前記入力操作部1において、演奏情報を入力するための演奏操作がされると、そのパターン及び操作状態に対応する自動伴奏の出力が指示されたことになり、Timingデータで指定される出力タイミングで、図3(b)に示すような発音データリストLの発音データを前記サウンドシステム81から順次出力する。
前記発音データは、MIDIのノートオンデータとし、その構成要素は音長を示すGate、音高(ノートナンバ)を示すNote、ベロシティを示すVelである。Timingはその発音データが生成されるタイミングを示す。
Then, the edited section data is selected, and when the performance operation for inputting performance information is performed in the input operation unit 1, the output of the automatic accompaniment corresponding to the pattern and the operation state is instructed. That is, the sound system 81 sequentially outputs the sound data in the sound data list L as shown in FIG. 3B at the output timing specified by the Timing data.
The sound generation data is MIDI note-on data, and its constituent elements are a gate indicating a tone length, a note indicating a pitch (note number), and a Vel indicating a velocity. Timing indicates the timing at which the pronunciation data is generated.

発音データリストLにおけるGate及びVelは、発音パターンデータに含まれる各タイミングのGate及びVelをそのまま使用するが、Noteについてはこれとは異なる。
すなわち、入力操作部1の操作に対応するノートナンバに所定順序、例えば音の低い方から順にキー番号を割り振り、各タイミングそのキー番号に対応するノートナンバにOctの値だけオクターブ補正を行ったノートナンバを発音データにおけるNoteとしている。
例えば、図3(a)に示すようなパターン1を選択してC3,E3,G3の演奏操作を行った場合には、これらにそれぞれ1,2,3のキー番号が割り振られる。
そして、タイミング0000における発音データでは、Noteの値はキー番号1のC3を1オクターブ上げたC4とする。
また、タイミング0240における発音データでは、Noteの値はキー番号3のG3とする。
尚、キー番号の割り振り方は上記のものに限定せず、所定順序としては、音の高い順、操作順等でもよい。
又、演奏操作数と発音パターンデータに含まれるキー番号の数が合わない場合には、操作状態から導き出した適当なノートナンバにキー番号を割り振るようにするとよい。
このようにして順次伴奏用の発音データを出力するが、発音パターンデータの最後に達すると、パターンの発音順に基づく次の順位の発音パターンデータが先頭から再生されるようになる。
そして、最後の順位の発音パターンの最後に達すると、先頭の順位の発音パターンに戻り、演奏操作が続く間は周期的に同様な発音データの出力を繰り返す。
The Gate and Vel in the pronunciation data list L use the Gate and Vel at each timing included in the pronunciation pattern data as they are, but the Note is different from this.
That is, a note number corresponding to the operation of the input operation unit 1 is assigned a key number in a predetermined order, for example, in order from the lowest sound, and the note number corresponding to the key number at each timing is octave corrected by the value of Oct. The number is “Note” in the pronunciation data.
For example, when a pattern 1 as shown in FIG. 3A is selected and a performance operation of C3, E3, and G3 is performed, key numbers 1, 2, and 3 are assigned to these, respectively.
In the sound generation data at timing 0000, the value of Note is C4 obtained by raising C3 of key number 1 by one octave.
In the sound generation data at the timing 0240, the value of Note is G3 of key number 3.
Note that the method of assigning key numbers is not limited to the above, and the predetermined order may be the order in which the sounds are high or the operation order.
If the number of performance operations does not match the number of key numbers included in the pronunciation pattern data, the key numbers may be assigned to appropriate note numbers derived from the operation state.
In this way, the sound data for accompaniment is sequentially output. When the end of the sound pattern data is reached, the sound pattern data of the next order based on the pattern sound order is reproduced from the head.
Then, when the end of the last-ranked sound generation pattern is reached, the sound pattern returns to the head-ranked sound pattern, and output of similar sound data is repeated periodically while the performance operation continues.

図4は、本形態のCPU2が自動伴奏生成制御を行う処理を示すフローチャートである。
基本的には、選択されたセクション及び該セクション内のトラック内の発音パターンデータ及び、入力された演奏情報に基づいて、所定の制御プログラムを実行して自動伴奏を行う。
FIG. 4 is a flowchart showing processing in which the CPU 2 of the present embodiment performs automatic accompaniment generation control.
Basically, automatic accompaniment is performed by executing a predetermined control program based on the selected section, the sound pattern data in the track in the section, and the input performance information.

具体的には、ステップS1において選択して読み込まれた自動伴奏パターンデータにおける各セクションデータを参照し、ステップS2において各セクションデータの各トラックでの発音パターン指定データの関連付け(指定)の変更を行う場合、ステップS3において各トラックの編集(発音パターン指定データが指定するパターンデータ番号の変更、トラック内の発音パターン指定データ数の変更、発音パターン再生順の変更等)を行い、この結果を記憶し、以後の自動伴奏においてこの編集された発音パターン指定データが自動伴奏に反映され、変更を行わない場合には、読み込まれた自動伴奏データにおける各セクションデータ内の発音パターンデータが以後の自動伴奏において反映される。   Specifically, each section data in the automatic accompaniment pattern data selected and read in step S1 is referred to, and in step S2, the association (designation) of the pronunciation pattern designation data in each track of each section data is changed. In step S3, each track is edited (change of the pattern data number designated by the pronunciation pattern designation data, change of the number of pronunciation pattern designation data in the track, change of the pronunciation pattern playback order, etc.), and the result is stored. In the subsequent automatic accompaniment, if the edited pronunciation pattern designation data is reflected in the automatic accompaniment and is not changed, the pronunciation pattern data in each section data in the read automatic accompaniment data is Reflected.

次に、ステップS4においていずれかのセクションデータの選択を行うが、ここでセクションデータの選択を行った場合、ステップS5において選択されたセクションデータを指定セクションとして記憶し、以後の自動伴奏においてこの選択されたセクションデータが反映され、セクションデータの選択が行われなかった場合、ステップS6においてセクションデータ1を指定セクションとして記憶し、以後の自動伴奏においてこのセクションデータ1が反映される。   Next, in step S4, any section data is selected. If section data is selected here, the section data selected in step S5 is stored as a designated section, and this selection is performed in the subsequent automatic accompaniment. If the selected section data is reflected and no section data is selected, section data 1 is stored as a designated section in step S6, and this section data 1 is reflected in the subsequent automatic accompaniment.

次に、演奏者による演奏操作が行われるか、あるいは自動伴奏開始指示の操作があると、ステップS7において、その操作により自動伴奏生成開始が指示され、演奏操作と前記ステップS5、又はステップS6にて指定されたセクションデータの内容に基づいて、ステップS8において自動伴奏生成を開始する。
尚、ステップS7以降のステップでは、自動伴奏用の演奏操作情報は、その演奏操作の都度最新の状態を記憶しているものとする。
Next, when a performance operation is performed by the performer or an automatic accompaniment start instruction is issued, in step S7, an automatic accompaniment generation start is instructed by the operation, and the performance operation and the above-described step S5 or step S6 are performed. In step S8, automatic accompaniment generation is started based on the contents of the section data specified in step S8.
In step S7 and subsequent steps, it is assumed that the performance operation information for automatic accompaniment stores the latest state for each performance operation.

次に、ステップS9において、自動伴奏生成終了の指示があればステップS10において自動伴奏生成処理を終了する。
ステップS9において自動伴奏生成終了の指示がなければ、ステップS11においてフィルイン操作の指示を検出する。
尚、自動伴奏生成終了の指示とは、自動伴奏終了スイッチ等の操作による自動伴奏のみの終了を指示する場合だけでなく、電源OFF、リセット等の強制終了操作によって自動伴奏だけでなく演奏自体を直ちに終了する場合のことも示すものとする。
そしてこのような場合には、切替えタイミングとは関係なく自動伴奏も直ちに終了させる。
Next, in step S9, if there is an instruction to end automatic accompaniment generation, the automatic accompaniment generation process ends in step S10.
If there is no instruction to end automatic accompaniment generation in step S9, a fill-in operation instruction is detected in step S11.
The instruction to end the automatic accompaniment generation is not only for instructing the end of only the automatic accompaniment by the operation of the automatic accompaniment end switch etc. It shall also indicate the case of termination immediately.
In such a case, the automatic accompaniment is immediately terminated regardless of the switching timing.

ステップS11においてフィルインが指示されると、ステップS12において、現在自動伴奏の対象となっている順番の発音パターン番号を一時記憶し、該発音パターンデータによる自動伴奏生成を一時中断する。
そして、ステップS13において、演奏操作とトラック5におけるフィルイン用の発音パターンデータに基づいて1ループ分の自動伴奏生成が開始され、その1ループ分の自動伴奏生成が終了すると、ステップS14において演奏操作と前記一時記憶された番号の発音パターンデータに基づいて、自動伴奏生成を再開する。
又、フィルインが指示されなかった場合及びステップS14における自動伴奏生成が再開された場合に、ステップS15においてセクションデータの選択操作があると、ステップS16において前記選択操作のなされたセクションデータが指定セクションとされる。
そしてステップS17において該指定セクションの各トラックで順位が「1」とされている発音パターンデータを各トラックでの自動伴奏対象とする。
ステップS15、又はステップS17の後、ステップS15において現在再生中の伴奏パターデータの読み出しが1ループ分終了する(最後まで達する)と、各トラックにおける次の発音順番号の発音パターンデータに切替わり、演奏操作と切替わった発音パターンデータとに基づいて、該切替わった発音パターンデータの先頭から自動伴奏生成を開始し、前記ステップS9における自動伴奏生成終了指示が行われるまでステップS9からステップS15のルーチンを繰り返すように制御する。
When fill-in is instructed in step S11, in step S12, the pronunciation pattern numbers in the order that are currently the targets of automatic accompaniment are temporarily stored, and automatic accompaniment generation based on the pronunciation pattern data is temporarily suspended.
Then, in step S13, the automatic accompaniment generation for one loop is started based on the performance operation and the sound generation pattern data for fill-in on the track 5, and when the automatic accompaniment generation for one loop is completed, the performance operation is performed in step S14. Automatic accompaniment generation is resumed based on the pronunciation pattern data of the temporarily stored number.
If fill-in is not instructed and automatic accompaniment generation in step S14 is resumed, if section data is selected in step S15, the section data subjected to the selection operation in step S16 is the designated section. Is done.
In step S17, the pronunciation pattern data in which the rank is “1” in each track of the designated section is set as an automatic accompaniment target in each track.
After step S15 or step S17, when the reading of the accompaniment pattern data currently being reproduced in step S15 is completed for one loop (until it reaches the end), it is switched to the pronunciation pattern data of the next pronunciation order number in each track, On the basis of the performance operation and the switched pronunciation pattern data, automatic accompaniment generation is started from the head of the switched pronunciation pattern data, and from step S9 to step S15 until an automatic accompaniment generation end instruction is issued in step S9. Control the routine to repeat.

尚、本発明では、各セクションデータに関連付けられる発音パターンデータは、例えば他の自動伴奏パターンデータのあるセクションデータに関連付けられていてもよい。
又、本形態では、発音パターンデータの切り替えを1ループ毎としたが、例えば2ループ毎や数小節毎等、任意に選択・設定できるようにしてもよい。
又、発音パターンデータの切替え機能にON/OFFが指定できるようになっていてもよく、このON/OFF切り替えはセクション単位で一括してでもよいし、トラック単位で行えてもよい。
又、自動伴奏パターンデータは複数種類装置内に記憶されていてもよいし、外部記憶装置もしくはネットワークを通して参照する形式でもよい。
又、発音パターンデータの切り替えの順番は実施例ではユーザによる指定としたが、例えば、登録順や発音パターンデータの番号や名前順、もしくはランダムにしてもよい。
又、本形態では、フィルイン用の発音パターンデータはセクション内に1つ関連付けられたものを例示したが、フィルイン用の発音パターンデータをセクション内に複数個関連付けてもよい。
又、本形態では、電子楽器の入力操作部の操作を検出したときに、フィルイン用の発音パターンデータに切替えるようにしているが、このフィルイン用の発音パターンデータへの切替えは、例えば、ユーザの演奏の状態(ベロシティなど)を判定して切り替えたり、数小節に1回切替えたりする等に設定してもよい。
又、本形態では、各トラックに関連付けられている全ての発音パターンデータに発音順番号を付け、自動伴奏生成の対象としているが、関連付けられている発音パターンデータのうち一部にのみ発音順番号を付けるようにしてもよく、この場合、発音順番号の付いている発音パターンデータのみが自動伴奏生成の元となる。
又、各トラックに含まれる1乃至複数の伴奏パターンは、本形態においては、別途記憶されている発音パターンデータの番号を発音パターン指定データで指定する方式としたが、これに限らず、各トラック内に発音パターンデータの実体を記憶させる方式としてもよい。
又、自動伴奏生成終了やフィル時の中断の場合、発音途中の自動伴奏音を直ちに中断してもよいし、発音中の音のみ最後まで演奏して終了してもよく、もしくは、発音パターンデータの例えば小節や拍などのきりのよいところまで演奏するようにしてもよい。
又、本形態では、自動伴奏生成の際参照する演奏者の演奏操作情報を、電子楽器の入力操作部の操作により入力するようにしているが、この演奏操作情報の入力は、既に記憶された演奏情報を読み出して取得するようにしてもよい。
又、本形態では、自動伴奏生成装置を電子楽器に適用したものを例示しているが、電子楽器以外の専用装置や汎用的なパーソナルコンピュータ等の外部機器からリモートコントロールを受ける音源装置として構成した自動伴奏生成装置あるいはその制御プログラムにも適用することができる。
In the present invention, the pronunciation pattern data associated with each section data may be associated with section data having other automatic accompaniment pattern data, for example.
In this embodiment, sound pattern data is switched for each loop, but may be arbitrarily selected and set, for example, every two loops or every few bars.
Further, ON / OFF may be designated for the sound pattern data switching function, and this ON / OFF switching may be performed in a unit of sections or in units of tracks.
Further, the automatic accompaniment pattern data may be stored in a plurality of types of devices, or may be in a form referred to through an external storage device or a network.
In addition, although the order of switching the pronunciation pattern data is designated by the user in the embodiment, for example, the order of registration, the order of the numbers and names of the pronunciation pattern data, or the order may be random.
In this embodiment, one fill-in sound pattern data is associated with one section. However, a plurality of fill-in sound pattern data may be associated with a section.
In this embodiment, when the operation of the input operation unit of the electronic musical instrument is detected, the sound pattern data for fill-in is switched. However, the switch to the sound pattern data for fill-in is performed, for example, by the user. The performance state (velocity, etc.) may be determined and switched, or may be set to switch once to several measures.
Also, in this embodiment, all the pronunciation pattern data associated with each track is assigned a pronunciation order number and is subject to automatic accompaniment generation, but only a part of the associated pronunciation pattern data is a pronunciation order number. In this case, only the pronunciation pattern data with the pronunciation sequence number is the source of automatic accompaniment generation.
In the present embodiment, one or a plurality of accompaniment patterns included in each track is a method of designating the number of pronunciation pattern data stored separately using the pronunciation pattern designation data. It is good also as a system which memorize | stores the substance of pronunciation pattern data in it.
In addition, when automatic accompaniment generation ends or when a fill is interrupted, the automatic accompaniment sound in the middle of sounding may be interrupted immediately, or only the sound that is currently sounding may be played to the end, or the sound pattern data For example, you may be allowed to play to a point where measures such as measures and beats are good.
In this embodiment, the player's performance operation information to be referred to when generating the automatic accompaniment is input by operating the input operation unit of the electronic musical instrument. However, the input of this performance operation information has already been stored. The performance information may be read out and acquired.
In this embodiment, the automatic accompaniment generator is applied to an electronic musical instrument. However, the automatic accompaniment generator is configured as a sound source device that receives remote control from an external device such as a dedicated device other than an electronic musical instrument or a general-purpose personal computer. The present invention can also be applied to an automatic accompaniment generator or its control program.

本発明に係る電子楽器における自動伴奏装置の概略構成の一形態を示す構成図。The block diagram which shows one form of schematic structure of the automatic accompaniment apparatus in the electronic musical instrument which concerns on this invention. 自動伴奏パターンデータの一形態を示す構成図。The block diagram which shows one form of automatic accompaniment pattern data. (a)自動伴奏パターンデータにおけるトラックに記憶する発音パターンデータの構成図、(b)伴奏データ生成部がそれを基に生成する伴奏データの一形態を示す構成図。(A) The block diagram of the pronunciation pattern data memorize | stored in the track in automatic accompaniment pattern data, (b) The block diagram which shows one form of the accompaniment data which an accompaniment data generation part produces | generates based on it. 本発明に係る自動伴奏生成制御に関する処理を示すフローチャートである。It is a flowchart which shows the process regarding the automatic accompaniment production | generation control which concerns on this invention.

符号の説明Explanation of symbols

1:入力操作部
2:CPU
3:ROM
4:RAM
5:外部記憶装置
6:通信インターフェース
7:表示部
8:音源部
9:バス9
61:外部機器
71:ディスプレイ
81:サウンドシステム
1: Input operation unit 2: CPU
3: ROM
4: RAM
5: External storage device 6: Communication interface 7: Display unit 8: Sound source unit 9: Bus 9
61: External device 71: Display 81: Sound system

Claims (4)

夫々複数の発音パターンデータ及び該複数の発音パターンデータに対応して発音パターンデータを再生する順番を指定する発音パターン指定データを含む複数のセクションデータを記憶する自動伴奏パターンデータ記憶手段と、
前記複数のセクションデータのうちのいずれかを選択するセクション指定手段と、
前記選択されたセクションデータに含まれる複数の前記発音パターンデータを再生する順番を前記発音パターン指定データに基づいて順次切替える切替え手段と、
前記切替え手段により切替えられた前記発音パターンデータに基づいて、自動伴奏音を生成して出力する自動伴奏生成手段と、
を含むことを特徴とする電子楽器における自動伴奏生成装置。
Automatic accompaniment pattern data storage means for storing a plurality of section data including a plurality of pronunciation pattern data and pronunciation pattern designation data for designating the order of reproducing the pronunciation pattern data corresponding to the plurality of pronunciation pattern data ;
Section specifying means for selecting any of the plurality of section data;
Switching means for sequentially switching the order of reproducing the plurality of pronunciation pattern data included in the selected section data based on the pronunciation pattern designation data ;
Automatic accompaniment generating means for generating and outputting an automatic accompaniment sound based on the pronunciation pattern data switched by the switching means;
An automatic accompaniment generator for an electronic musical instrument characterized by comprising:
前記各セクションデータが、複数の発音パターンデータを夫々含む複数のトラックを有していることを特徴とする請求項1に記載の電子楽器における自動伴奏生成装置。 Wherein each section data, automatic accompaniment generator in an electronic musical instrument according to claim 1, characterized in that it has a plurality of tracks including each a plurality of sound pattern data. 前記セクションデータが、更に、フィルイン用のフィルイン発音パターンデータを有するものであって、
前記フィルイン発音パターンデータへの移行を指示するフィルイン指示手段と、
前記フィルインへの移行指示に応じて、その時点で再生されている発音パターンデータの順番を一時記憶する一時記憶手段と、前記指示されたフィルイン発音パターンデータに基づいて自動伴奏を生成して出力すると共に、該フィルイン発音パターンデータの終了に応じて、前記一時記憶されていた順番の発音パターンデータへと復帰し、自動伴奏音の生成を継続する制御手段と、
を備えていることを特徴とする請求項1に記載の電子楽器における自動伴奏生成装置。
The section data further includes fill-in pronunciation pattern data for fill-in,
Fill-in instruction means for instructing transition to the fill-in pronunciation pattern data;
In response to the instruction to shift to the fill-in, temporary storage means for temporarily storing the order of the pronunciation pattern data reproduced at that time, and automatic accompaniment sounds are generated and output based on the instructed fill-in pronunciation pattern data In addition, in response to the end of the fill-in pronunciation pattern data, the control means returns to the temporarily stored pronunciation pattern data and continues to generate automatic accompaniment sounds;
The automatic accompaniment generator for an electronic musical instrument according to claim 1, comprising:
記憶手段に夫々複数の発音パターンデータを含む複数のセクションデータが記憶され、該記憶された発音パターンデータに基づいて、自動伴奏音を生成して出力する電子楽器における自動伴奏生成装置に適用されるコンピュータプログラムにおいて、
前記複数のセクションデータのうちのいずれかを選択するステップと、
前記選択されたセクションデータに含まれる複数の発音パターンデータを再生する順番を決定するステップと、
前記順番を決定するステップより決定された順番にて、前記セクションデータに含まれる複数の発音パターンデータを順次切替えるステップと、
前記切替えるステップにより切替えられた発音パターンデータに基づいて、自動伴奏音を生成して出力するステップと、
を含むことを特徴とするコンピュータプログラム。
A plurality of section data each including a plurality of pronunciation pattern data is stored in the storage means, and is applied to an automatic accompaniment generator in an electronic musical instrument that generates and outputs an automatic accompaniment sound based on the stored pronunciation pattern data. In a computer program,
Selecting any of the plurality of section data;
Determining an order of reproducing a plurality of pronunciation pattern data included in the selected section data;
Sequentially switching a plurality of pronunciation pattern data included in the section data in the order determined by the step of determining the order;
Based on the sound pattern data is switched by the switching Ru step, a step of generating and outputting an automatic accompaniment sound,
A computer program comprising:
JP2007092260A 2007-03-30 2007-03-30 Automatic accompaniment generator for electronic musical instrument and computer program therefor Expired - Fee Related JP5070908B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007092260A JP5070908B2 (en) 2007-03-30 2007-03-30 Automatic accompaniment generator for electronic musical instrument and computer program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007092260A JP5070908B2 (en) 2007-03-30 2007-03-30 Automatic accompaniment generator for electronic musical instrument and computer program therefor

Publications (2)

Publication Number Publication Date
JP2008250053A JP2008250053A (en) 2008-10-16
JP5070908B2 true JP5070908B2 (en) 2012-11-14

Family

ID=39975059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007092260A Expired - Fee Related JP5070908B2 (en) 2007-03-30 2007-03-30 Automatic accompaniment generator for electronic musical instrument and computer program therefor

Country Status (1)

Country Link
JP (1) JP5070908B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61156099A (en) * 1984-12-27 1986-07-15 ヤマハ株式会社 Automatic performancer
JP3318944B2 (en) * 1992-02-24 2002-08-26 ヤマハ株式会社 Automatic performance device
JP2888164B2 (en) * 1995-04-03 1999-05-10 ヤマハ株式会社 Automatic accompaniment data processing method and automatic accompaniment device
JP2002169548A (en) * 2000-11-29 2002-06-14 Casio Comput Co Ltd Instrument and method for rhythm playing
JP3666392B2 (en) * 2000-12-27 2005-06-29 ヤマハ株式会社 Automatic performance device
JP2002366153A (en) * 2001-06-08 2002-12-20 Casio Comput Co Ltd Automatic accompaniment device and program for automatic accompaniment processing
JP2005010462A (en) * 2003-06-19 2005-01-13 Yamaha Corp Device and program for automatic musical performance, and computer-readable recording medium where automatic musical performance pattern data are recorded

Also Published As

Publication number Publication date
JP2008250053A (en) 2008-10-16

Similar Documents

Publication Publication Date Title
JP2576700B2 (en) Automatic accompaniment device
JP6019803B2 (en) Automatic performance device and program
US20060016323A1 (en) Electronic musical apparatus for transposing musical piece
JP3562333B2 (en) Performance information conversion device, performance information conversion method, and recording medium storing performance information conversion control program
JP4816177B2 (en) Electronic musical instruments and programs
JP3821103B2 (en) INFORMATION DISPLAY METHOD, INFORMATION DISPLAY DEVICE, AND RECORDING MEDIUM CONTAINING INFORMATION DISPLAY PROGRAM
JP5061926B2 (en) Electronic music apparatus and performance data editing display program
JP2008139450A (en) Automatic accompaniment generator and program for achieving automatic accompaniment generating method
JP5070908B2 (en) Automatic accompaniment generator for electronic musical instrument and computer program therefor
JP4270102B2 (en) Automatic performance device and program
JP4376169B2 (en) Automatic accompaniment device
JP3700442B2 (en) Performance system compatible input system and recording medium
JP4168851B2 (en) Karaoke equipment
JP4241833B2 (en) Automatic performance device and program
JP3654026B2 (en) Performance system compatible input system and recording medium
JP3480001B2 (en) Automatic performance data editing device
JP4172335B2 (en) Automatic accompaniment generator and program
JP3797180B2 (en) Music score display device and music score display program
JP3760938B2 (en) Performance information conversion device, performance information conversion method, and recording medium recording performance information conversion control program
JP3637782B2 (en) Data generating apparatus and recording medium
JP3797181B2 (en) Music score display device and music score display program
JP4835433B2 (en) Performance pattern playback device and computer program therefor
JPS6365154B2 (en)
JP4148184B2 (en) Program for realizing automatic accompaniment data generation method and automatic accompaniment data generation apparatus
JPH08234736A (en) Automatic playing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120416

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120724

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120806

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150831

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees