JP4449370B2 - Automatic accompaniment generator and program - Google Patents
Automatic accompaniment generator and program Download PDFInfo
- Publication number
- JP4449370B2 JP4449370B2 JP2003308177A JP2003308177A JP4449370B2 JP 4449370 B2 JP4449370 B2 JP 4449370B2 JP 2003308177 A JP2003308177 A JP 2003308177A JP 2003308177 A JP2003308177 A JP 2003308177A JP 4449370 B2 JP4449370 B2 JP 4449370B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- accompaniment
- note
- timing
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Description
この発明は、伴奏パターンを用いてユーザの押鍵音に従い自動伴奏音情報を生成する自動伴奏生成システムに関する。 The present invention relates to an automatic accompaniment generation system that generates automatic accompaniment sound information according to a user's key press sound using an accompaniment pattern.
従来より、伴奏パターンを用いて自動伴奏を生成する手段としてアルペジエータや伴奏スタイルを使ったものが知られており、例えば、アルペジエータは、特許文献1に示されるようなものがある。
アルペジエータは、押鍵に応じてアルペジオ(分散和音)を生成するものであり、アルペジオパターンとして、複数のキー番号(音高に対応したノートナンバーではなく、単純な番号)とその発音タイミングを記憶している。そして、同時に押鍵された複数のノート番号に所定のルール(例えば、音高の低い順)に従って番号を割り振り、アルペジオパターン中のキー番号に対応した番号が割り振られているノート番号を、その発音タイミングにおいて発生させるようにして、押鍵音を元にアルペジオを生成している。 The arpeggiator generates arpeggios (distributed chords) in response to key presses, and stores multiple key numbers (not note numbers corresponding to pitches) and their sounding timings as arpeggio patterns. ing. A number is assigned to a plurality of note numbers that are simultaneously pressed according to a predetermined rule (for example, in order of increasing pitches), and a note number assigned with a number corresponding to the key number in the arpeggio pattern is pronounced. The arpeggio is generated based on the keystroke sound so that it is generated at the timing.
アルペジエータによる自動伴奏生成においては、ユーザが押鍵している音名が発音されるが、全ての押鍵音が常に自動伴奏に反映されるとは限らない。例えば、アルペジオパターンで想定されている押鍵数よりも多く押鍵されているときは、発音されない押鍵音がある。また、アルペジオパターンによってはオクターブシフトされて発音されるケースもあり、押鍵音の音高が常に発音されるとは限らない。 In automatic accompaniment generation by the arpeggiator, the name of the key pressed by the user is pronounced, but not all key pressing sounds are always reflected in the automatic accompaniment. For example, when a key is pressed more than the number of key presses assumed in the arpeggio pattern, there is a key press sound that is not pronounced. In addition, depending on the arpeggio pattern, there is a case where the sound is generated by being shifted by an octave, and the pitch of the key pressing sound is not always generated.
この発明は、このような事情に鑑み、複数の音符情報(ノートイベント)から成る伴奏パターンデータを使用して自動伴奏音情報を生成する際に、ユーザの演奏操作による押鍵音などの入力音高を常に全て自動伴奏音情報に反映させることができる自動伴奏生成システムを提供することを目的とする。 In view of such circumstances, the present invention provides an input sound such as a key depression sound by a user's performance operation when generating automatic accompaniment sound information using accompaniment pattern data composed of a plurality of note information (note events). An object of the present invention is to provide an automatic accompaniment generating system capable of always reflecting all high accompaniment sound information.
この発明の主たる特徴に従うと、発音タイミングを表わす夫々のタイミング情報(Timing)により時系列的に関連付けられた複数の音符情報(ノートP1;P2;…)から成る伴奏パターンデータ(Ap)を記憶する記憶手段(2〜4)であって、音符情報(P1;P2;…)の夫々は少なくとも時間長を表わす情報(Gate)を含むものと、伴奏音の音高を指示する音高指示情報(Ma,Mb,…)を入力するための入力手段(5,PD)と、記憶手段に記憶された伴奏パターンデータ(Ap)内の各音符情報(P1;P2;…)をそのタイミング情報(Timing)に従って順次読み出す読出し手段(S5〜S6)と、読出し手段により読み出された音符情報(P1;P2;…)のうち、タイミング情報(Timing)が和音とみなし得る所定時間長(例えば、32分音符長)以内で近接している複数の近接音符情報(例えば、ノートP4,P5)については、何れか一つ(例えば、ノートP4)を選定する選定手段(S6:[0029]〜[0030],[0035])と、読出し手段により読み出された音符情報(P1;P2;…)のうち近接音符情報(P4,P5)以外の音符情報と、上記選定手段により選定された音符情報(P4)とから、入力手段により入力されている全ての音高指示情報(Ma,Mb,…)により指示される音高を持つ伴奏音情報(N1a,N1b,…;N2a,N2b,…;…)を生成する生成手段(S6〜S18)と、生成手段により生成された伴奏音情報(N1a,N1b,…;N2a,N2b,…;…)に基づいて伴奏音を発音させる発音手段(7,S14)とを具備する自動伴奏生成装置〔請求項1〕、並びに、発音タイミングを表わす夫々のタイミング情報(Timing)により時系列的に関連付けられた複数の音符情報(P1;P2;…)から成る伴奏パターンデータ(Ap)を記憶する記憶手段(2〜4)であって、音符情報(P1;P2;…)の夫々は少なくとも時間長を表わす情報(Gate)を含むもの、及び、伴奏音の音高を指示する音高指示情報(Ma,Mb,…)を入力するための入力手段(5,PD)を具備し、自動伴奏生成装置として機能するコンピュータに、記憶手段に記憶された伴奏パターンデータ内の各音符情報(P1;P2;…)をそのタイミング情報(Timing)に従って順次読み出す読出しステップ(S5〜S6)と、読出しステップで読み出された音符情報(P1;P2;…)のうち、タイミング情報(Timing)が和音とみなし得る所定時間長(例えば、32分音符長)以内で近接している複数の近接音符情報(例えば、ノートP4,P5)については、何れか一つ(例えば、ノートP4)を選定する選定ステップ(S6:[0035])と、読出しステップで読み出された音符情報(P1;P2;…)のうち近接音符情報(P4,P5)以外の音符情報と、上記選定ステップで選定された音符情報(P4)とから、入力手段により入力されている全ての音高指示情報(Ma,Mb,…)により指示される音高を持つ伴奏音情報(N1a,N1b,…;N2a,N2b,…;…)を生成する生成ステップ(S6〜S18)と、生成ステップで生成された伴奏音情報(N1a,N1b,…;N2a,N2b,…;…)に基づいて伴奏音を発音させるステップ(S14)とから成る手順を実行させるための自動伴奏生成プログラム〔請求項4〕が提供される。なお、括弧書きは、理解の便のために付記した実施例の参照記号、用語、箇所等であり、以下においても同様である。
According to the main feature of the present invention, accompaniment pattern data (Ap) composed of a plurality of note information (notes P1; P2;...) Associated in time series with respective timing information (Timing) representing sound generation timing is stored. Each of the note information (P1; P2;...) Includes storage means (2 to 4) including at least information (Gate) indicating the length of time, and pitch indication information (indicating the pitch of the accompaniment sound) Input means (5, PD) for inputting Ma, Mb,..., And each piece of note information (P1; P2;...) In accompaniment pattern data (Ap) stored in the storage means, with timing information (Timing). ) Among the reading means (S5 to S6) sequentially read out according to (1) and the note information (P1; P2;...) Read out by the reading means, the predetermined time length (for example, timing information (Timing) can be regarded as a chord (for example) For example, the selection means (S6: [0029]) that selects any one (for example, note P4) for a plurality of pieces of adjacent note information (for example, notes P4 and P5) that are close within a 32nd note length). To [0030], [0035]) and note information other than the adjacent note information (P4, P5) among the note information (P1; P2;...) Read by the reading means, and selected by the selecting means. Accompaniment tone information (N1a, N1b,...; N2a, N2b,...) Having pitches indicated by all the pitch indication information (Ma, Mb,...) Input from the note information (P4) by the input means. ...; ...) generating means (S6 to S18) and sounding means for generating accompaniment sounds based on accompaniment sound information (N1a, N1b, ...; N2a, N2b, ...; ...) generated by the generating means (7, S14) The apparatus (claim 1) and accompaniment pattern data (Ap) composed of a plurality of note information (P1; P2;...) Associated in time series with respective timing information (Timing) indicating the sound generation timing are stored. Storage means (2-4), each of note information (P1; P2;...) Including at least information (Gate) indicating time length, and pitch indication information for indicating the pitch of the accompaniment sound Each piece of note information (P1; in the accompaniment pattern data stored in the storage means is stored in a computer having an input means (5, PD) for inputting (Ma, Mb,...) And functioning as an automatic accompaniment generator. P2;... Are sequentially read out in accordance with the timing information (Timing), and the timing information among the reading information (S5 to S6) and the note information (P1; P2;...) Read in the reading step. For a plurality of adjacent note information (for example, notes P4 and P5) that are close within a predetermined time length (for example, 32nd note length) in which (Timing) can be regarded as a chord, any one (for example, note P4) ) In the selection step (S6: [0035]), note information other than the adjacent note information (P4, P5) among the note information (P1; P2;...) Read in the reading step, and the selection step Accompaniment sound information (N1a, N1b,...) Having pitches indicated by all the pitch instruction information (Ma, Mb,...) Input by the input means from the note information (P4) selected in (4). N2a, N2b,...), And accompaniment sounds based on the accompaniment sound information (N1a, N1b,...; N2a, N2b,...) Generated in the generation step. Steps to pronounce Automatic accompaniment generation program for executing the steps consisting the flop (S14) [Claim 4] is provided. Note that the parentheses are reference symbols, terms, parts, etc. of the examples added for convenience of understanding, and the same applies to the following.
この発明の自動伴奏生成装置において、伴奏パターンデータ(Ap)は所定形式の演奏データに含まれ〔請求項2〕、また、生成手段(S6〜S18)は、発音タイミングが前後する音符情報(P1,P2)の時間範囲が重なるとき(Ta〜Tb)、後の音符情報(P2)の発音タイミングに応じて、前の音符情報(P1)から生成される伴奏音情報の時間長(Gate)を制限する制限手段(S9〜S10)を備える〔請求項3〕ことができる。 In the automatic accompaniment generating apparatus according to the present invention, the accompaniment pattern data (Ap) is included in the performance data in a predetermined format (Claim 2), and the generating means (S6 to S18) includes the note information (P1 , P2) when the time ranges overlap (Ta to Tb), the time length (Gate) of the accompaniment sound information generated from the previous note information (P1) is set according to the sound generation timing of the subsequent note information (P2). Limiting means (S9 to S10) for limiting may be provided.
この発明による自動伴奏生成システムでは(請求項1,4)、複数の音符情報(P1;P2;…)から成る伴奏パターンデータ(Ap)が使用され、これら音符情報(P1;P2;…)は、夫々のタイミング情報(Timing)により時系列的に関連付けられており、夫々、少なくとも時間長(長さ)を表わす情報(Gate)を含み、さらに、例えば、音高(Note)、音量(Vel )などの情報を含む。システムは、自動伴奏の開始に伴い、伴奏パターンデータ(Ap)内の各音符情報(P1;P2;…)をタイミング情報(Timing)に従って順次読み出し、その際、タイミング情報(Timing)が和音とみなし得る所定時間長(例えば、32分音符長)以内で近接している複数の近接音符情報(例えば、ノートP4,P5)については、何れか一つ(例えば、ノートP4)を選定する(S6:[0029]〜[0030],[0035])。また、ユーザ押鍵操作などにより所望の音高(例えば、D3,F3)の音高指示情報(Ma,Mb,…)が入力手段(5,PD)から入力されると、有効に入力された全ての音高指示情報(Ma,Mb,…)が指示する所望の音高を取得する。そして、読み出された各音符情報(P1;P2;…)から、但し、近接音符情報(P4,P5)については選定された何れか一つ(P4)から、各音高(Note)を所望の音高に差し替える等の方法を用いて、全音高指示情報(Ma,Mb,…)が指示する所望の音高を持つ伴奏音情報(N1a,N1b,…;N2a,N2b,…;…)を生成し(S13,S17)、音源部(7)を通じて、対応する自動伴奏音を発音させる(S14)。
In the automatic accompaniment generating system according to the present invention (
この発明では、このように、タイミング情報を含む複数の音符情報から成る伴奏パターンデータを使用しユーザの演奏操作に応じて伴奏音情報を自動生成するに際し、伴奏パターンデータから、各タイミング情報に従って各音符情報を順次読み出し、読み出された音符情報が持つ長さや音量などの情報と、ユーザ操作に基づく全ての入力音高(押鍵音高)を持つ伴奏音情報を生成し発音するようにしているので、ユーザ入力音高(押鍵音高)を全て常に使用した自動伴奏音に反映させることができる。さらに、ユーザ入力音高(押鍵音高)が、全て、そのまま音符情報のパターンに乗って直ちに発音されるので、ユーザは、自身の押鍵状態と生成される自動伴奏音との対応を演奏しながら簡単に認識することができる。また、自動伴奏音の元になる伴奏パターンデータ内の音符情報は、各タイミング情報が表わす発音タイミングにつき1音分でよいので、従来の各種伴奏パターンデータと比較してデータ量が少なくなり、これを記憶するメモリなどを節約することができる。さらに、タイミング情報が和音とみなし得る所定時間長以内で近接している複数の近接音符情報については何れか一つを選定して伴奏音情報を生成するようにしているので、和音状態が混ざっている伴奏パターンデータであっても、所望音高の伴奏音情報を生成し発音することができる。 In this invention, in this way, when accompaniment sound information is automatically generated according to a user's performance operation using accompaniment pattern data including a plurality of note information including timing information, each accompaniment pattern data is generated according to each timing information. Read the note information in sequence, generate information such as length and volume of the read note information, and accompaniment sound information with all input pitches (key press tone pitches) based on user operation, and pronounce it Therefore, all the user input pitches (key press tone pitches) can be reflected in the automatically used accompaniment tone. Furthermore, since all the user input pitches (key press tone pitches) are immediately pronounced on the note information pattern as they are, the user plays the correspondence between his key press state and the generated automatic accompaniment sound. It can be easily recognized. In addition, note information in the accompaniment pattern data that is the source of the automatic accompaniment sound may be one note for the sound generation timing represented by each timing information, and therefore the amount of data is reduced compared to conventional various accompaniment pattern data. Can be saved. Furthermore, since the accompaniment sound information is generated by selecting any one of a plurality of adjacent note information that are close within a predetermined time length in which the timing information can be regarded as a chord, the chord state is mixed. Even with accompaniment pattern data, accompaniment sound information having a desired pitch can be generated and pronounced.
また、この発明のシステムで使用される伴奏パターンデータは、MIDIで代表される所定の汎用形式の演奏データに含まれ、その音符情報が該汎用形式で記述されるので(請求項2)、伴奏パターンデータの制作者は、電子楽器などで一般的に利用可能な任意の曲データの一部や、電子楽器などによる実際の演奏を記憶したものを、そのまま利用することができる。 The accompaniment pattern data used in the system of the present invention is included in performance data in a predetermined general format represented by MIDI, and the note information is described in the general format (claim 2). The creator of the pattern data can use a part of any piece of music data that is generally available for electronic musical instruments or the like, or an actual musical performance stored by an electronic musical instrument or the like.
この発明では、さらに、発音タイミングが時間的に前後する音符情報(P1,P2)に時間的な重なり(Ta〜Tb)が生じる場合、前の音符情報(P1)に従って生成される先行伴奏音情報の時間長(Gate)を後の音符情報(P2)のタイミング情報(Timing=Ta)に応じて制限する(請求項3)。例えば、後の音符情報(P2)に従って新しい後続伴奏音情報を生成する際に、既にその時点で発音中の自動伴奏音をオフする(S9〜S10)。これにより、自動伴奏音の同時発音数は、全ユーザ入力音数(押鍵音数)に一致してこれを超えることがない。従って、最大同時発音数を超えたり、先行伴奏音情報により既に発音中の自動伴奏音のオフが来るまで音量が大きくなってしまう、などの問題が起きない。
In the present invention, in addition, in the case where temporal overlap (Ta to Tb) occurs in the note information (P1, P2) whose sound generation timings are temporally changed, the preceding accompaniment sound information generated according to the previous note information (P1). Is limited in accordance with the timing information (Timing = Ta) of the later note information (P2) (claim 3). For example, when new subsequent accompaniment sound information is generated according to the later note information (P2), the automatic accompaniment sound that is already sounding at that time is turned off (S9 to S10). As a result, the number of simultaneous sounds of the automatic accompaniment sound matches the number of all user input sounds (number of key press sounds) and does not exceed this. Therefore, problems such as exceeding the maximum number of simultaneous sounds or increasing the volume until the automatic accompaniment sound that is already sounding is turned off by the preceding accompaniment sound information do not occur.
〔システム構成〕
図1は、この発明の一実施例による自動伴奏生成システムのハードウエア構成例を示す。この例では、自動伴奏生成生成装置には、電子楽器などの音楽専用の音楽情報処理装置が用いられるが、パーソナルコンピュータに演奏入力及び楽音生成機能を設けた汎用の情報処理装置を用いてもよい。この自動伴奏生成装置は、中央処理装置(CPU)1、ランダムアクセスメモリ(RAM)2、読出専用メモリ(ROM)3、外部記憶装置4、入力操作部5、表示部6、音源部7、通信インターフェース(通信I/F)8などの要素を備え、これらの要素1〜8はバス9に接続される。
〔System configuration〕
FIG. 1 shows a hardware configuration example of an automatic accompaniment generation system according to an embodiment of the present invention. In this example, an automatic accompaniment generating / generating apparatus uses a music information processing apparatus dedicated to music such as an electronic musical instrument, but a general-purpose information processing apparatus provided with a performance input and musical tone generating function in a personal computer may be used. . This automatic accompaniment generator includes a central processing unit (CPU) 1, a random access memory (RAM) 2, a read only memory (ROM) 3, an
装置全体を制御するCPU1は、所定の制御プログラムに従い、タイマーの計時クロックを利用して各種処理を実行し、RAM2は、これらの処理で利用される種々の情報を一時的に記憶するための処理バッファとして機能する。例えば、自動伴奏生成プログラムによる処理時には、押鍵音情報(Ma,Mb,…)や伴奏ノート情報(N1a,N1b,…;N2a,N2b,…;…)、パターンノート情報(P1;P2;…)を格納するためのバッファ領域(KeyOnList ,DataList,PatternNote )がRAM2上に確保される。また、ROM3は、CPU1に自動伴奏生成プログラムを含む各種制御プログラムや、パターンノート情報を含む伴奏パターンデータ(Ap)等の各種データを記憶している。
The
外部記憶装置4は、ハードディスク(HD)や、コンパクトディスク・リード・オンリィ・メモリ(CD−ROM)、フレキシブルディスク(FD)、光磁気(MO)ディスク、ディジタル多目的ディスク(DVD)、メモリカード等の記憶媒体を用いた記憶手段である。自動伴奏生成プログラム等の各種制御データ、曲データや伴奏パターン集等の各種データは、ROM3だけでなく外部記憶装置4に記憶させることができる。
The
例えば、ROM3に制御プログラムが記憶されていない場合、HDやCD−ROMなどの外部記憶装置4に制御プログラムを記憶させておきそれをRAM2に読み込むことで、ROM3に制御プログラムを記憶している場合と同様の動作をCPU1にさせることができ、制御プログラムの追加やバージョンアップ等を容易に行うことができる。例えば、自動伴奏生成処理等に用いられるプログラムや各種データ等をインストールすることによって、所望の自動伴奏生成装置を実現することができる。
For example, when the control program is not stored in the
入力操作部5は、マウスやキー等のパネル操作子や演奏鍵盤などの演奏操作子及び検出回路から成り、操作子による設定/演奏入力操作の内容を検出回路で検出し設定情報や押鍵音情報などをシステム本体内に導入する。例えば、パネル操作子にて、自動伴奏のスタート/ストップ等、このシステムの動作状態を設定したり、自動伴奏生成処理に必要な各種情報を入力し、或いは、演奏操作子の操作に従って演奏データを入力することができる。ここで、演奏操作子の演奏鍵盤において、伴奏用鍵域又は伴奏用鍵盤として設定された複数の鍵(以下、「伴奏鍵」という)は、伴奏音の音高を指示する押鍵音情報(音高指示情報)を入力するのに用いられる。表示部6は、ディスプレイ(CRT、LCD等の表示器)10の表示内容や各種インジケータの点灯状態をCPU1からの指令に従って制御し、入力操作部5の操作に対する表示援助を行う。
The
音源部7は、音源(ソフトウエアを含む)や効果付与DSPを含み、CPU1で処理された入力演奏データや自動伴奏データなどに対応する楽音信号を生成し、音源部7に接続されるサウンドシステム11は、D/A変換部やアンプ、スピーカを備え、音源部7からの楽音信号に基づく楽音を発生する。つまり、音源部7及びサウンドシステム11は楽音生成部を形成し、例えば、自動伴奏生成処理時には、押鍵音情報に応じて生成された自動伴奏データに従って伴奏音を発音することができる。
The
また、図示の通信I/F8は、ローカルエリアネットワーク(LAN)や、インターネット、電話回線などの一般用通信ネットワーク、或いは、MIDI用ネットワークに接続される各種インターフェースを一括して表わしており、サーバ等の他のコンピュータやMIDI機器などの種々の外部機器PDと、必要な各種情報を授受することができる。例えば、この装置に制御プログラムや各種データ等が記憶されていない場合、通信I/F8を介して他のコンピュータPDから制御プログラム等をダウンロードすることができる。また、外部機器PDに、他の鍵盤や、弦楽器、管楽器を含むMIDI演奏操作装置を用いて、その演奏操作に基づく演奏データや演奏音を通信I/F8から取り込むこともできる。
The communication I /
〔伴奏パターンデータと自動伴奏生成の例〕
この発明の一実施例による自動伴奏生成システムでは、或る伴奏鍵5を操作(押鍵)すると、自動伴奏生成プログラムに従って、ROM3又は外部記憶装置4に記憶された伴奏パターンデータApを利用して全ての押鍵音高を反映した伴奏データを自動的に生成し楽音生成部7,11から伴奏音を放音することができる。図2及び図3は、この発明の一実施例による伴奏パターンデータと自動伴奏生成例を数値及びタイムチャート(第1周期分のみ)で表わしたものである。
[Example of accompaniment pattern data and automatic accompaniment generation]
In the automatic accompaniment generation system according to one embodiment of the present invention, when an
ここで、図3を用いてこのシステムにおける自動伴奏生成の概要を極く簡単に説明しておく。この自動伴奏生成システムでは、複数のノートイベントP1〜P5から成る伴奏パターンデータApが使用され、これらのノートイベントP1〜P5は、夫々が有するタイミング情報Timingにより時系列的に関連付けられている。伴奏用鍵5から任意の音高(例えば、D3,F3)を指示する押鍵音情報Ma,Mb,…を入力すると、伴奏パターンデータAp内から夫々のタイミング情報Timingに従って、順次、読み出される各ノートイベントP1;P2;…の音高は、有効に入力された全ての押鍵音情報Ma,Mbにより指示される音高(D3,F3)に変更されて、自動伴奏音を表わすノートイベントN1a,N1b,…;N2a,N2b,…;…が次々に生成され、これらのノートイベントN1a,N1b,…;N2a,N2b,…;…に対応する伴奏音が発音される。
Here, the outline of automatic accompaniment generation in this system will be described very simply with reference to FIG. In this automatic accompaniment generation system, accompaniment pattern data Ap composed of a plurality of note events P1 to P5 is used, and these note events P1 to P5 are related in time series by timing information Timing that each has. When key-pressing sound information Ma, Mb,... That designates an arbitrary pitch (for example, D3, F3) is input from the
以下、図2及び図3につき、より詳しく説明する。図2(1)は、1パート分の伴奏パターンデータApの一例を表わしており、この伴奏パターンデータApは、1パート分の一例が図2(1)に示されるように、複数の伴奏パターンノートイベント(以下、「パターンノート」という)P1,P2,…が所定の時間(以下、「パターン時間」という)Tpにわたって時系列的に配列されて成る。各パターンノートP1,P2,…(各行)は、タイミング情報Timing、ゲートタイム情報Gate、音高情報Note、ベロシティ情報Vel (以下、「情報」の用語は省略することがある)等の情報から成り、それらの音高を時間的に展開すると図3(1)のようになる。 Hereinafter, FIG. 2 and FIG. 3 will be described in more detail. FIG. 2 (1) shows an example of accompaniment pattern data Ap for one part. As shown in FIG. 2 (1), the accompaniment pattern data Ap includes a plurality of accompaniment patterns. Note events (hereinafter referred to as “pattern notes”) P1, P2,... Are arranged in a time series over a predetermined time (hereinafter referred to as “pattern time”) Tp. Each pattern note P1, P2,... (Each row) includes information such as timing information Timing, gate time information Gate, pitch information Note, velocity information Vel (hereinafter, the term “information” may be omitted). When these pitches are developed over time, the result is as shown in FIG.
なお、このような伴奏パターンデータApは、MIDIなどの所定の汎用形式で記述されており、既存の曲データ中から引用したものであっても、実際の演奏を記録したものであってもよい。また、図2(1)及び図3(1)は、説明を簡単にするためにパターン時間Tp=1小節分の伴奏パターンデータを例示しているが、これより長くてもよいし、勿論、短くしてより簡単なパターンにしてもよい。 Such accompaniment pattern data Ap is described in a predetermined general-purpose format such as MIDI, and may be quoted from existing music data or recorded actual performance. . 2 (1) and 3 (1) exemplify the accompaniment pattern data for the pattern time Tp = 1 bar for the sake of simplicity, but of course it may be longer, of course, A shorter pattern may be used.
ここで、タイミングTiming及びゲートタイムGateは、それぞれ、各パターンノートP1,P2,…の発音開始時点(タイミング)及びノートオン時間の長さを示す時間情報である。図示の例では、1拍を480クロックとしたクロック数で表わされており、パターン時間Tp=1920クロックである。なお、第1パターンノートP1のゲートタイムGate(P1)=“0490”は、第2パターンノートP2のタイミングTiming(P2)=“0480”を超えており、レガートっぽい演奏表現が企図されている。 Here, the timing Timing and the gate time Gate are time information indicating the sound generation start time (timing) and the length of the note-on time of each pattern note P1, P2,. In the example shown in the drawing, it is represented by the number of clocks in which one beat is 480 clocks, and the pattern time Tp = 1920 clocks. The gate time Gate (P1) = “0490” of the first pattern note P1 exceeds the timing Timing (P2) = “0480” of the second pattern note P2, and a legato-like performance expression is contemplated. .
次に、音高Note及びベロシティVel は、それぞれ、各パターンノートP1,P2,…の音高及び音量(押鍵速度乃至強度)を表わす情報である。図示の例では、音高情報Noteに音高名“C4”,“D4”,…又はノート番号(ナンバ)値を用い、音量情報Vel にはベロシティ値を用いており、各値は、MIDI規格に従い、最小値=“0”又は“1”〜最大値=“127”の範囲内に設定される。 Next, the pitch note and the velocity Vel are information representing the pitch and volume (key press speed or intensity) of the pattern notes P1, P2,. In the example shown in the figure, the pitch name “C4”, “D4”,... Or the note number (number) value is used for the pitch information Note, and the velocity value is used for the volume information Vel. Accordingly, the minimum value = “0” or “1” to the maximum value = “127” is set.
このシステムでは、任意数且つ任意音高の伴奏鍵をユーザが操作(押鍵)して、当該各鍵に対応する音高を表わす押鍵音情報Ma,Mb,…が入力されると、有効に入力された押鍵音情報Ma,Mb,…は、全て、伴奏音の音高を指示する音高指示情報として用いられる。例えば、図2(1)及び図3(1)の伴奏パターンデータApに対して、音高“D3”,“F3”に対応する2鍵が押鍵されると、自動伴奏生成プログラムにより、同鍵操作中、伴奏パターンデータApから、パターンノートP1;P2;…のタイミングTimingに従って、順次、各タイミングTimingに関連付けられたパターンノートP1;P2;…が読み出されるのに伴い、図2(2)及び図3(2)に示すように、押鍵音情報Ma,Mbが指示する2つの音高“D3”,“F3”を持つ伴奏ノートイベントN1a,N1b;N2a,N2b;…を自動伴奏データAnとして自動的に生成する。 In this system, when a user operates (presses) an arbitrary number of accompaniment keys of arbitrary pitches and key depression sound information Ma, Mb,... The key-pressing sound information Ma, Mb,... Input to the are all used as pitch instruction information for instructing the pitch of the accompaniment sound. For example, if two keys corresponding to the pitches “D3” and “F3” are pressed against the accompaniment pattern data Ap in FIGS. 2 (1) and 3 (1), the automatic accompaniment generation program .. (2) as the pattern notes P1; P2;... Associated with each timing Timing are sequentially read from the accompaniment pattern data Ap according to the timing Timing of the pattern notes P1; As shown in FIG. 3 (2), the accompaniment note events N1a, N1b; N2a, N2b;.. Automatically generated as An.
つまり、各パターンノートP1;P2;…のタイミングTimingに基づく読出しタイミング(Tr)が到来する毎に、順次、各パターンノートP1;P2;…;P5が読み出され、これらのゲートタイムGate及びベロシティVel 、並びに、ユーザの押鍵音高“D3”,“F3”(ノートナンバ“62”,“65”)を持つ自動伴奏ノートイベント(以下、「伴奏ノート」という)N1a,N1b;N2a,N2b;…が生成される。そして、このような伴奏ノートの生成は、同一伴奏鍵の押鍵操作が持続している間、継続して行われ、伴奏パターンデータApのパターン時間Tpを1周期として循環的に繰り返される。 That is, every time the read timing (Tr) based on the timing Timing of each pattern note P1; P2;... Arrives, each pattern note P1; Vel, and automatic accompaniment note events (hereinafter referred to as “accompaniment notes”) N1a, N1b; N2a, N2b having key depression pitches “D3”, “F3” (note numbers “62”, “65”) ; Is generated. Such generation of accompaniment notes is continuously performed while the key pressing operation of the same accompaniment key is continued, and is repeated cyclically with the pattern time Tp of the accompaniment pattern data Ap as one cycle.
ここで、或るパターンノートPnのタイミングTiming(Pn)=Taが前のパターンノートPn−1のゲートタイムGate(Pn-1)の消費時点t=Tb=Timing(Pn-1)+Gate(Pn-1)よりも前にある場合、パターンノートPn−1に従ってそのまま伴奏ノートNn−1を生成すると、タイミングTa〜Tbの間、伴奏ノートNn−1の発音を継続しつつ、パターンノートPnに対応する次の伴奏ノートNnが生成されて、発音数が2倍になってしまう。このような場合は、両伴奏ノートNn−1,Nnが重ならないように、先行する伴奏ノートNn−1のゲートタイムGate(Nn-1)を制限する。このため、例えば、次の伴奏ノートNnの生成タイミングTaでは、音源部7によりパターンノートPn−1のゲートタイムGate(Pn-1)に従って既に発音中の全ての伴奏ノートNn−1を消音する。或いは、音源部7に送る伴奏ノートNn−1自体のゲートタイムGate(Nn-1)を、次のパターンノートPnのタイミングTaに合った長さ〔Gate(Nn-1)=Timing(Pn)−Timing(Pn-1)〕に短縮する。
Here, timing Timing (Pn) = Ta of a certain pattern note Pn is consumption time t = Tb = Timing (Pn-1) + Gate (Pn−) when the gate time Gate (Pn−1) of the previous pattern note Pn−1. If the accompaniment note Nn-1 is generated as it is in accordance with the pattern note Pn-1 in the case before 1), the sound of the accompaniment note Nn-1 is continued during the timings Ta to Tb, and it corresponds to the pattern note Pn. The next accompaniment note Nn is generated and the number of pronunciations is doubled. In such a case, the gate time Gate (Nn-1) of the preceding accompaniment note Nn-1 is limited so that the accompaniment notes Nn-1, Nn do not overlap. Therefore, for example, at the generation timing Ta of the next accompaniment note Nn, all the accompaniment notes Nn-1 that are already sounding are muted by the
図示の例では、図3タイムチャートに「(注1)」で示すように、第1パターンノートP1のゲートタイムGate(P1)の消費時点Tb=490(クロック)は、第2のパターンノートP2のタイミングTiming(P2)=480=Taをオーバし、時間Ta〜Tb=480〜490の間、両パターンノートP1,P2が重なる。そこで、第1パターンノートP1に従って生成される第1伴奏ノートN1a,N1bは、次に第2パターンノートP2に従って生成される第2伴奏ノートN2a,N2bに重ならないように、矢印で示すように、タイミングTaで消音され、ゲートタイムGateが第2パターンノートP2のタイミングに合った長さ〔Gate(N1a,N1b) =Timing(P2)−Timing(P1)=480〕に短縮される。 In the illustrated example, as indicated by “(Note 1)” in the time chart of FIG. 3, the consumption time Tb = 490 (clock) of the gate time Gate (P1) of the first pattern note P1 is the second pattern note P2. Timing Timing (P2) = 480 = Ta is exceeded, and both pattern notes P1, P2 overlap during the time Ta-Tb = 480-490. Therefore, as shown by the arrows, the first accompaniment notes N1a and N1b generated according to the first pattern note P1 do not overlap the second accompaniment notes N2a and N2b generated next according to the second pattern note P2. The sound is muted at the timing Ta, and the gate time Gate is shortened to a length [Gate (N1a, N1b) = Timing (P2) −Timing (P1) = 480] that matches the timing of the second pattern note P2.
また、伴奏パターンデータAp内においてタイミングTimingがほぼ等しい〔例えば、32分音符長(60クロック)以内で近接している〕複数のパターンノートは、和音とみなし、適当な所定の方法に従って選ばれた何れか一つのパターンノートについてのみ伴奏ノートを生成し、他のパターンノートは自動伴奏生成に反映させない。 In the accompaniment pattern data Ap, a plurality of pattern notes having substantially the same timing Timing (for example, close to each other within a 32nd note length (60 clocks)) are regarded as chords and selected according to an appropriate predetermined method. Accompaniment notes are generated only for any one pattern note, and other pattern notes are not reflected in automatic accompaniment generation.
図示の例では、図3タイムチャートの「(注2)」に示すように、第4及び第5パターンノートP4,P5は、開始タイミングTcが同じ〔Tc=Timing(P4)=Timing(P5)=1440〕なので、和音とみなされ、時間長が大きい第4パターンノートP4〔Gate(P4)>Gate(P5)〕に従って伴奏ノートN4a,N4bが生成され、第5パターンノートP5は自動伴奏生成に反映されない。つまり、この例では、最長時間のパターンノートを優先する方法を採用し、第5パターンノートP5については、時間範囲Tc〜Td〔Td=Timing(P5)+Gate(P5)=1660〕が第4パターンノートP4の時間範囲Tc〜Te〔Te=Timing(P4)+Gate(P4)=1670〕に含まれるため、自動伴奏音を生成させない。 In the illustrated example, as shown in “(Note 2)” in the time chart of FIG. 3, the fourth and fifth pattern notes P4 and P5 have the same start timing Tc [Tc = Timing (P4) = Timing (P5) = 1440], accompaniment notes N4a and N4b are generated according to the fourth pattern note P4 [Gate (P4)> Gate (P5)] having a large time length, which is regarded as a chord, and the fifth pattern note P5 is used for automatic accompaniment generation. Not reflected. That is, in this example, the method of prioritizing the pattern note with the longest time is adopted, and for the fifth pattern note P5, the time range Tc to Td [Td = Timing (P5) + Gate (P5) = 1660] is the fourth pattern. Since it is included in the time range Tc to Te [Te = Timing (P4) + Gate (P4) = 1670] of the note P4, no automatic accompaniment sound is generated.
〔自動伴奏生成の動作フロー〕
図4及び図5は、この発明の一実施例による自動伴奏生成の動作例を表わすフローチャートである。入力操作部(パネル操作子)5のユーザ操作により自動伴奏スタートが指示され、この自動伴奏生成の動作フローがスタートすると、CPU1は、まず、ユーザ操作或いはデフォルトに従って初期設定を行う(ステップS1:なお、以下においては、記号“S…”単独で該当ステップを表わす)。初期設定には、例えば、この自動伴奏生成に使用する伴奏パターンデータApの設定や、伴奏鍵の設定(例えば、伴奏用鍵域を定めるスプリットポイントの設定、伴奏鍵盤の指定など)、自動伴奏の最大同時発音数(例えば、16)の設定などがある。この伴奏パターンデータApの設定には、予めROM3又は外部記憶装置4に用意された曲データから所望トラックの伴奏パターン部分を選択したり、伴奏パターン集から所望の伴奏パターンを選択したり、ユーザの実演奏による伴奏パターンを記録した後使用登録するなどの方法が用いられる。
[Operation flow for automatic accompaniment generation]
4 and 5 are flowcharts showing an operation example of automatic accompaniment generation according to one embodiment of the present invention. When an automatic accompaniment start is instructed by a user operation of the input operation unit (panel operation unit) 5, and the operation flow of automatic accompaniment generation starts, the
CPU1は、次いで、押鍵音情報格納領域KeyOnList 、伴奏ノート情報格納領域DataList及びパターンノート情報格納領域PatternNote (以下、各領域は、参照記号単独で表わす)をRAM2上にセットして、これらを初期化すると共に(S2)、タイマーをスタートする(S3)。なお、KeyOnList ,DataListは、初期状態では要素数が“0”であり、最大要素数は最大同時発音数となる。また、PatternNote に格納される伴奏パターンデータApの各ノートイベント(パターンノート)のデータ構造は、通常のノートイベント情報と同じ記述形式でよく、初期状態は無効値がセットされる。そして、所定時間間隔のタイマー割込みにより、以後の本処理段階(S4〜S18)に入る。
Next, the
本処理段階では、まず、自動伴奏ストップの指示があったか否かを判別し(S4)、自動伴奏ストップ指示がないときは(S4→NO)、さらに、現在、初期設定(S1)で設定された伴奏パターンデータApのパターンノートを読み出すべき読出しタイミングTrであるか否かを判断する(S5)。ここで、読出しタイミングTrは、伴奏パターンデータApのパターン周期Tpのn倍に個々のパターンノートのタイミングTimingを加算した値であり、Tr=n×Tp+Timingで表わされる。なお、値nは、当初は0であるが、自動伴奏の時間進行がパターン時間Tpを越える毎に“1”ずつ増加する自然数である。 In this processing stage, first, it is determined whether or not an automatic accompaniment stop instruction has been given (S4). When there is no automatic accompaniment stop instruction (S4 → NO), the initial setting (S1) is currently set. It is determined whether or not it is the read timing Tr to read the pattern note of the accompaniment pattern data Ap (S5). Here, the read timing Tr is a value obtained by adding the timing Timing of each pattern note to n times the pattern period Tp of the accompaniment pattern data Ap, and is represented by Tr = n × Tp + Timing. Note that the value n is initially 0, but is a natural number that increases by “1” every time the time progression of the automatic accompaniment exceeds the pattern time Tp.
ここで、読出しタイミングTrであれば(S5→YES)、伴奏パターンデータApから当該パターンノートを読み出してPatternNote に記憶する(S6)。図2及び図3の例では、演奏開始時点t=0(クロック)で処理が開始され、この時点に等しい読出しタイミングTr=Timing(P1)=“0000”で、直ちに第1パターンノートP1を読み出してPatternNote に記憶し、以後も、読出しタイミングTr=n×1920+Timing(n=0又は自然数)毎に、順次、パターンノートP2,P3,…を読み出していく。 If it is the read timing Tr (S5 → YES), the pattern note is read from the accompaniment pattern data Ap and stored in PatternNote (S6). In the example of FIGS. 2 and 3, the processing is started at the performance start time t = 0 (clock), and the first pattern note P1 is immediately read out at the read timing Tr = Timing (P1) = “0000” equal to this time point. Then, the pattern notes P2, P3,... Are sequentially read at every read timing Tr = n × 1920 + Timing (n = 0 or natural number).
なお、読出しタイミングTrの判断(S5)は、或る程度余裕のある時間幅(時間幅は設定可能であってもよい)を持って行われる。また、パターンノート記憶ステップ(S6)では、読出しタイミングTrが同時又は所定の余裕時間(例えば、60クロック)以内で、和音とみなし得るパターンノートを全て読出し、複数イベントが読み出されたときは、適当な方法で選定された何れか1つのパターンノートをPatternNote に記憶する。例えば、図2及び図3のように、タイミングt=Tc=1440で第4及び第5パターンノートP4,P5が読み出されたときは、第4パターンノートP4をPatternNote に記憶する。 Note that the determination of the read timing Tr (S5) is performed with a certain time width (the time width may be set). Also, in the pattern note storage step (S6), when all the pattern notes that can be regarded as chords are read out at the same time or within a predetermined margin time (for example, 60 clocks) and a plurality of events are read out, Any one pattern note selected by an appropriate method is stored in PatternNote. For example, as shown in FIGS. 2 and 3, when the fourth and fifth pattern notes P4 and P5 are read at the timing t = Tc = 1440, the fourth pattern note P4 is stored in the PatternNote.
続いて、KeyOnList を初期化し(S7)、さらに、伴奏鍵5の押鍵に基づく現在の押鍵音情報を取得し、KeyOnList に記憶する(図5:S8)。この場合、初期設定ステップ(S1)で設定された最大同時発音数を超える押鍵については無視し、この発音数以下の押鍵を有効とする。なお、図2及び図3の例では、第1読出しタイミングTr=Timing(P1)=0で、押鍵音記憶ステップ(S8)にて、押鍵音高“D3”(62),“F3”(65)がKeyOnList に記憶される。
Subsequently, the KeyOnList is initialized (S7), and the current key pressing sound information based on the key pressing of the
次いで、発音中の自動伴奏音があるか否かを判断する(S9)。ここで、前のパターンノートに従ったDataList内の伴奏ノートによる自動伴奏音が継続して発音しているときは(S9→YES)、発音中の自動伴奏音をオフするように音源部7に指令し(S10)、DataListを初期化する(S11)。図2及び図3の例で説明すると、第2読出しタイミングTr=Timing(P2)=“0480”=Taで、第2パターンノートP2がPatternNote に記憶され(S6)、このとき、その前の第1パターンノートP1に基づくDataListの伴奏ノートN1a,N1bにより、自動伴奏音が発音中である(S9→YES)。そこで、CPU1は、この時点Taで直ちに、音源部7に全自動伴奏音をオフさせ(S10)、DataListを初期化する(S11)。従って、伴奏ノートN1a,N1bのゲートタイムGateは結果的に値Taに短縮される。
Next, it is determined whether or not there is an automatic accompaniment sound being pronounced (S9). Here, when the automatic accompaniment sound by the accompaniment note in the DataList according to the previous pattern note is continuously sounding (S9 → YES), the
さらに、伴奏鍵5の押鍵タイミングが、PatternNote に格納されているパターンノートのタイミングTimingが表わす時刻Tsより後ろの時刻であるか否かを判定する(S12)。なお、この時刻Tsは読出しタイミングTrに等しい。つまり、時刻Tsは、物理的に厳密に云えば読出しタイミングTrに若干遅れるかもしれないが、音楽データ取扱い上は無視し得る遅れであり読出しタイミングTrと実質的に同じである。
Further, it is determined whether or not the key depression timing of the
ここで、開始時刻Ts以前に押鍵されたときは(S12→NO)、KeyOnList 中の各押鍵音情報に対して、当該パターンノートのタイミングTimingに対応する開始時刻Ts、長さGate及び音量Vel 、並びに、押鍵音高を持つ伴奏ノートを生成し(要するに、パターンノートの音高情報Noteのみを変更された音高に書き換える)、それぞれ、DataListに記憶する(S13)。そして、DataList内の伴奏ノートを音源部7に送り、対応する自動伴奏音をサウンドシステム11から発音させる再生処理を行った後(S14)、ストップ指示判別ステップ(図4:S5)に戻る。
Here, when the key is pressed before the start time Ts (S12 → NO), the start time Ts corresponding to the timing Timing of the pattern note, the length Gate, and the volume for each key press sound information in the KeyOnList Accompaniment notes having Vel and key depression pitches are generated (in short, only the pitch information Note of the pattern note is rewritten with the changed pitch), and each is stored in the DataList (S13). Then, the accompaniment notes in the DataList are sent to the
次いで、読出しタイミング判定ステップに戻って読出しタイミングTrでないと判定されたときは(S4・NO→S5・NO)、続いて、現在の押鍵状態がKeyOnList の押鍵音高と同じか否かを判断する(S15)。ここで、同一押鍵状態が維持されているときは(S15→YES)、ストップ指示判別ステップ(S4)に戻り、読出しタイミングTrの到来毎に(S5・YES)上述の動作(S6〜S14)を繰り返す。 Next, returning to the read timing determination step and determining that it is not the read timing Tr (S4 · NO → S5 · NO), subsequently, it is determined whether or not the current key press state is the same as the key press tone of the KeyOnList. Judgment is made (S15). Here, when the same key pressing state is maintained (S15 → YES), the process returns to the stop instruction determination step (S4), and the above-described operation (S6 to S14) every time the read timing Tr arrives (S5, YES). repeat.
図2及び図3の例では、第1パターンノートP1の開始時刻t=Ts=0(クロック)で伴奏鍵D3,F3が押鍵されるので(S12→NO)、音高情報Noteのみを押鍵音高D3,F3に書き換えた第1伴奏ノートN1a,N1bをDataListに記憶した後(S13)、この押鍵状態が維持されている間、各パターンノートP2,P3,…が、順次、同じ態様で記憶される(S13)。但し、DataListに記憶されるタイミングTimingは、それぞれの伴奏ノートの開始時刻Ts=n×1920+Timing(n=0又は自然数)となる。 In the examples of FIGS. 2 and 3, since the accompaniment keys D3 and F3 are pressed at the start time t = Ts = 0 (clock) of the first pattern note P1 (S12 → NO), only the pitch information Note is pressed. After storing the first accompaniment notes N1a and N1b rewritten to the key pitches D3 and F3 in the DataList (S13), the pattern notes P2, P3,. It is stored in a manner (S13). However, the timing Timing stored in the DataList is the start time Ts = n × 1920 + Timing (n = 0 or natural number) of each accompaniment note.
さて、押鍵状態判定ステップ(S15)において、KeyOnList の押鍵音高とは別の押鍵がなされた判断したときは(S15→NO)、さらに、押鍵変更された時点で、PatternNote のパターンノートが有効か否か、即ち、PatternNote に記憶されているパターンノートが発音持続時間中かどうかをチェックする(S16)。ここで、押鍵変更時点において、このパターンノートのゲートタイムGateが消費されておらず、当該パターンノートの発音期間を維持しているときは(S16→YES)、前述したKeyOnList 初期化〜DataList初期化ステップ(S7〜S11)を経て、押鍵タイミング判定ステップ(S12)に進む。なお、パターンノート有効性判定ステップ(S16)や押鍵タイミング判定ステップ(S12)におけるタイミング比較は、或る程度の時間幅を持って行ってもよい。また、それぞれの時間幅は設定可能であってもよい。 When it is determined in the key pressing state determination step (S15) that a key is pressed that is different from the key pressing pitch of the KeyOnList (S15 → NO), the PatternNote pattern is also displayed when the key is changed. It is checked whether or not the note is valid, that is, whether or not the pattern note stored in PatternNote is during the pronunciation duration (S16). If the gate time Gate of the pattern note is not consumed and the sound generation period of the pattern note is maintained (S16 → YES) at the time of key change, the above-described KeyOnList initialization to DataList initialization are performed. The process proceeds to the key pressing timing determination step (S12) through the conversion step (S7 to S11). The timing comparison in the pattern note validity determination step (S16) and the key pressing timing determination step (S12) may be performed with a certain time width. Each time width may be settable.
この場合、押鍵タイミング判定ステップ(S12)では、PatternNote に格納されているパターンノートの開始時刻Tsの後、つまり、対応する伴奏ノートの発音中に押鍵されたと判定され(S12→YES)、当該パターンノートのタイミング及び長さを押鍵タイミングに応じて調整し、KeyOnList 中の各押鍵音情報に対して、調整されたタイミングTiming及び長さGateと、当該パターンノートの音量Vel と、押鍵音高とを持つ伴奏ノートを生成し、それぞれDataListに記憶する(S17)。そして、当該伴奏ノートの再生処理を行った後(S14)、ストップ指示判別ステップ(S4)に戻る。 In this case, in the key pressing timing determination step (S12), it is determined that the key has been pressed after the pattern note start time Ts stored in PatternNote, that is, while the corresponding accompaniment note is sounded (S12 → YES). The timing and length of the pattern note are adjusted according to the key pressing timing, and for each key pressing sound information in the KeyOnList, the adjusted timing Timing and length Gate, the volume Vel of the pattern note, and the pressing Accompaniment notes having key pitches are generated and stored in the DataList (S17). And after performing the reproduction | regeneration processing of the said accompaniment note (S14), it returns to a stop instruction | indication determination step (S4).
例えば、図3において、第2パターンノートP2の開始時刻Ts=Timing(P2)+1920×0=480=Taより後乃至同パターンP2の終了時刻=960より前(第2伴奏ノートN2a,N2bが発音中)の時点t=Tfで押鍵されたときは、伴奏ノートの途中での押鍵変更と判断され(S16→YES)、当該パターンノートP2のタイミングTimingを押鍵タイミングTfに変更し、ゲートタイムGateをGate(P2)−(Tf−Ta)に変更する調整を行い、ベロシティVel をVel (P2)=72とし音高Noteを新たな押鍵音高とした伴奏ノートをDataListに記憶する(S14)。 For example, in FIG. 3, the start time Ts of the second pattern note P2 = Timing (P2) + 1920 × 0 = 480 = after Ta or before the end time of the pattern P2 = 960 (the second accompaniment notes N2a and N2b are sounded) When the key is pressed at time t = Tf (middle), it is determined that the key has been changed in the middle of the accompaniment note (S16 → YES), the timing Timing of the pattern note P2 is changed to the key pressing timing Tf, and the gate Adjustment is made to change the time Gate to Gate (P2)-(Tf-Ta), and accompaniment notes with the velocity Vel set to Vel (P2) = 72 and the note Note set as the new key-pressed pitch are stored in the DataList ( S14).
また、PatternNote に記憶されているパターンノートの開始時刻Ts以前に別の伴奏用鍵が押鍵された場合〔S15(NO)→S16(NO)〕には、一旦当該パターンノートの記憶ステップに進んでから〔S4(NO)→S5(YES)→S6〕、KeyOnList 初期化〜DataList初期化ステップ(S7〜S11)を経て、伴奏ノートの発音開始以前での押鍵と判定され(S12→NO)、当該パターンノートの音高Noteのみを当該押鍵音高に書き換えて(タイミングTimingは開始時刻Tsとなる)をDataListに記憶する(S13)。 If another accompaniment key is pressed before the pattern note start time Ts stored in PatternNote [S15 (NO) → S16 (NO)], the process proceeds to the pattern note storage step. [S4 (NO) → S5 (YES) → S6], and through KeyOnList initialization to DataList initialization steps (S7 to S11), it is determined that the key is pressed before the start of sounding of the accompaniment note (S12 → NO). Then, only the pitch Note of the pattern note is rewritten to the key depression pitch (timing Timing is the start time Ts) and stored in the DataList (S13).
図2及び図3で説明すると、当初の押鍵(D3,F3)後、PatternNote に記憶されている何れかのパターンノートP1〜P5の開始時刻Ts以前に別の伴奏用鍵が押鍵された場合、例えば、図3の時刻Tg〜Tc〔Tg=Timing(P3)+Gate(P3)=1210〕間のように、前後のパターンノートP3〜P4間にノートイベントが存在しない空白の時間範囲で押鍵された場合は、上述の過程〔S15・S16・S4(NO)→S5(YES)→S6〜S12(NO)〕を経て、PatternNote のパターンノートP4の開始時刻Ts=Timing(P3)=Tc=1440で、同パターンノートに対応する伴奏ノートをDataListに記憶する。 2 and 3, after the initial key depression (D3, F3), another accompaniment key is depressed before the start time Ts of any pattern note P1 to P5 stored in PatternNote. In this case, for example, in the blank time range in which there is no note event between the preceding and following pattern notes P3 to P4, for example, between the times Tg and Tc [Tg = Timing (P3) + Gate (P3) = 1210] in FIG. If the key is locked, the above process [S15, S16, S4 (NO) → S5 (YES) → S6 to S12 (NO)] is performed, and the pattern note P4 start time Ts = Timing (P3) = Tc = 1440, accompaniment notes corresponding to the same pattern notes are stored in the DataList.
なお、この自動伴奏のスタート時に押鍵がないときは、伴奏パターンデータApの読出しタイミング毎に、パターンノートを読み出してPatternNote を更新していく。この間、KeyOnList は初期化(S7)で“空”にされたままであり、DataListも、実質的に伴奏ノートイベントは記憶されない“空”の状態となる。 If there is no key depression at the start of the automatic accompaniment, the pattern note is read and the PatternNote is updated at every read timing of the accompaniment pattern data Ap. During this time, KeyOnList remains “empty” at initialization (S7), and DataList is also in an “empty” state in which accompaniment note events are not substantially stored.
以上のようにして、所定の伴奏ノートの再生処理を行った後(S14)、ストップ指示判別ステップ(S4)に戻った際、パネル操作子5のユーザ操作や曲データ進行の終了などによる自動伴奏ストップ指示を検出すると(S4→YES)、発音中の自動伴奏音があればそのオフを音源部7に指令して(S18)、この自動伴奏生成フローを終了する。
As described above, after performing the reproduction process of a predetermined accompaniment note (S14), when returning to the stop instruction determination step (S4), automatic accompaniment due to the user operation of the
〔種々の実施態様〕
以上、この発明の好適な一実施例について説明したが、これは単なる一例であって、この発明は、その精神を逸脱しない範囲で種々の変更が可能であり、種々の態様で実施することができる。例えば、伴奏パターンデータは、実施例では1パート(トラック)即ち1つの音色又は楽器音を想定しているが、複数のパート(トラック)でもよい。
[Various Embodiments]
Although a preferred embodiment of the present invention has been described above, this is merely an example, and the present invention can be variously modified without departing from the spirit thereof and can be implemented in various modes. it can. For example, the accompaniment pattern data assumes one part (track), that is, one tone color or instrument sound in the embodiment, but may be a plurality of parts (tracks).
伴奏パターンデータ内の音符情報列は、単音状態ばかりでもよいし、和音状態が混ざっていてもよい。伴奏パターンデータ内に和音がある場合、和音中の1音について長さや音量の情報を自動伴奏生成に用いればよい。その際、1音の選び方は、例えば、当該和音中で最初に読み込まれたものや、最長の時間長を持つものなど、適当な様々な方法を適用することができる。また、和音状態の判断の仕方は、例えばタイミング情報が32分音符程度の所定時間幅内にある複数の音符情報を1つの和音と判断するようにしてもよい。 The note information string in the accompaniment pattern data may be a single note state or a chord state. When there is a chord in the accompaniment pattern data, the length and volume information of one sound in the chord may be used for automatic accompaniment generation. At this time, various appropriate methods can be applied to the selection of one sound, for example, the first read in the chord or the longest time length. As a method for determining the chord state, for example, a plurality of note information whose timing information is within a predetermined time width of about 32nd notes may be determined as one chord.
同時発音数の上限は、実施例では16としたが、これに限らない。もしくはユーザ設定可能でもよい。また、音高指示情報を入力する手段には、実施例の特定の鍵盤(伴奏鍵盤)や鍵盤の一部鍵域(伴奏用鍵域)の外に、弦楽器や管楽器など非鍵盤タイプの演奏操作子又は機器を用いてもよい。音高指示情報は、さらに、リアルタイムで演奏されるものでもよいし、MIDI形式などで既に記録されたものを順次受信するようにしてもよい。 Although the upper limit of the number of simultaneous pronunciations is 16 in the embodiment, it is not limited to this. Or it may be user-configurable. In addition to the specific keyboard (accompaniment keyboard) or part of the keyboard range (accompaniment keyboard range), the pitch instruction information can be input using non-keyboard type performance operations such as stringed instruments and wind instruments. A child or a device may be used. The pitch instruction information may be played in real time, or may be received sequentially in the MIDI format or the like.
また、音高指示情報の入力に関して、実施例では実際の押鍵状態で押鍵音の有無を判断しているが、例えば、一度押鍵すれば、離鍵しても音高指示の入力状態を維持(ホールド)するように指令し、異なる押鍵若しくはストップ操作による解除指令が行われるまで、その押鍵を有効とするように構成してもよい。 In addition, regarding the input of the pitch instruction information, in the embodiment, the presence or absence of a key pressing sound is determined in the actual key pressing state. For example, once the key is pressed, the input state of the pitch instruction even if the key is released May be configured to hold (hold) the key and keep the key pressed until a different key pressing or release command is issued due to a stop operation.
P1;P2;… 伴奏パターンデータApを構成するパターンノート(音符情報)、
Tp パターン時間(繰返し周期)、
Ma,Mb,… 押鍵音情報(音高指示情報)、
N1a,N1b;N2a,N2b;… 自動伴奏データAnを構成する伴奏ノート(伴奏音情報)。
P1; P2; ... Pattern notes (note information) constituting the accompaniment pattern data Ap,
Tp pattern time (repetition period),
Ma, Mb, ... Key pressing sound information (pitch instruction information),
N1a, N1b; N2a, N2b; ... Accompaniment notes (accompaniment sound information) constituting the automatic accompaniment data An.
Claims (4)
伴奏音の音高を指示する音高指示情報を入力するための入力手段と、
上記記憶手段に記憶された伴奏パターンデータ内の各音符情報をそのタイミング情報に従って順次読み出す読出し手段と、
上記読出し手段により読み出された音符情報のうち、タイミング情報が和音とみなし得る所定時間長以内で近接している複数の近接音符情報については、何れか一つを選定する選定手段と、
上記読出し手段により読み出された音符情報のうち上記近接音符情報以外の音符情報と、上記選定手段により選定された音符情報とから、上記入力手段により入力されている全ての音高指示情報により指示される音高を持つ伴奏音情報を生成する生成手段と、
上記生成手段により生成された伴奏音情報に基づいて伴奏音を発音させる発音手段と
を具備することを特徴とする自動伴奏生成装置。 Storage means for storing accompaniment pattern data composed of a plurality of note information associated in time series with respective timing information representing pronunciation timing, each of the note information including at least information representing a time length;
Input means for inputting pitch instruction information for instructing the pitch of the accompaniment sound;
Reading means for sequentially reading each note information in the accompaniment pattern data stored in the storage means according to the timing information;
Among the note information read out by the reading means, for a plurality of adjacent note information that is close within a predetermined time length in which the timing information can be regarded as a chord, selection means for selecting any one of them,
Instructed by all pitch indication information input by the input means from the note information other than the proximity note information of the note information read by the reading means and the note information selected by the selection means Generating means for generating accompaniment sound information having a pitch to be played,
An automatic accompaniment generating apparatus comprising: sound generation means for generating an accompaniment sound based on the accompaniment sound information generated by the generation means.
上記記憶手段に記憶された伴奏パターンデータ内の各音符情報をそのタイミング情報に従って順次読み出す読出しステップと、
上記読出しステップで読み出された音符情報のうち、タイミング情報が和音とみなし得る所定時間長以内にある複数の近接音符情報については、何れか一つを選定する選定ステップと、
上記読出しステップで読み出された音符情報のうち上記近接音符情報以外の音符情報と、上記選定ステップで選定された音符情報とから、上記入力手段により入力されている全ての音高指示情報により指示される音高を持つ伴奏音情報を生成する生成ステップと、
上記生成ステップで生成された伴奏音情報に基づいて伴奏音を発音させる発音ステップと
から成る手順を実行させる自動伴奏生成プログラム。 Storage means for storing accompaniment pattern data composed of a plurality of note information time-sequentially associated with respective timing information representing pronunciation timing, each of the note information including at least information representing a time length; and In addition, a computer functioning as an automatic accompaniment generating apparatus, comprising input means for inputting pitch instruction information for instructing the pitch of an accompaniment sound,
A step of sequentially reading out each note information in the accompaniment pattern data stored in the storage means in accordance with the timing information;
Among the note information read out in the reading step, for a plurality of adjacent note information within a predetermined time length in which the timing information can be regarded as a chord, a selection step for selecting any one of them,
Instructed by all the pitch indication information inputted by the input means from the note information other than the proximity note information of the note information read in the reading step and the note information selected in the selection step Generating step for generating accompaniment sound information having a pitch to be played;
An automatic accompaniment generation program for executing a procedure comprising a sound generation step for generating an accompaniment sound based on the accompaniment sound information generated in the generation step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003308177A JP4449370B2 (en) | 2003-09-01 | 2003-09-01 | Automatic accompaniment generator and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003308177A JP4449370B2 (en) | 2003-09-01 | 2003-09-01 | Automatic accompaniment generator and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005077763A JP2005077763A (en) | 2005-03-24 |
JP4449370B2 true JP4449370B2 (en) | 2010-04-14 |
Family
ID=34410719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003308177A Expired - Fee Related JP4449370B2 (en) | 2003-09-01 | 2003-09-01 | Automatic accompaniment generator and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4449370B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5141012B2 (en) * | 2006-12-28 | 2013-02-13 | ヤマハ株式会社 | Arpeggio generator and program |
JP7190053B2 (en) * | 2019-09-04 | 2022-12-14 | ローランド株式会社 | Arpeggiator and programs with its functionality |
-
2003
- 2003-09-01 JP JP2003308177A patent/JP4449370B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005077763A (en) | 2005-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5747715A (en) | Electronic musical apparatus using vocalized sounds to sing a song automatically | |
JP4821533B2 (en) | Arpeggio performance device and program | |
US7470855B2 (en) | Tone control apparatus and method | |
JP3266149B2 (en) | Performance guide device | |
JP5228315B2 (en) | Program for realizing automatic accompaniment generation apparatus and automatic accompaniment generation method | |
JP4449370B2 (en) | Automatic accompaniment generator and program | |
JP2003186466A (en) | Musical score generation processor and program | |
JP4853054B2 (en) | Performance data editing apparatus and program | |
JP6790362B2 (en) | Electronic acoustic device | |
JP3587133B2 (en) | Method and apparatus for determining pronunciation length and recording medium | |
JP3620396B2 (en) | Information correction apparatus and medium storing information correction program | |
JP3752859B2 (en) | Automatic composer and recording medium | |
JP3173310B2 (en) | Harmony generator | |
JP5200368B2 (en) | Arpeggio generating apparatus and program for realizing arpeggio generating method | |
JP4186855B2 (en) | Musical sound control device and program | |
JP4172335B2 (en) | Automatic accompaniment generator and program | |
JPH04331990A (en) | Voice electronic musical instrument | |
JP2601039B2 (en) | Electronic musical instrument | |
JP4389709B2 (en) | Music score display device and music score display program | |
JP3620321B2 (en) | Automatic accompaniment device | |
JPH10319961A (en) | Sound generating timing controller | |
JP2008058796A (en) | Playing style deciding device and program | |
JPH04257895A (en) | Apparatus and method for code-step recording and automatic accompaniment system | |
JP4218566B2 (en) | Musical sound control device and program | |
JP5402167B2 (en) | Arpeggio generating apparatus and program for realizing arpeggio generating method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080304 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081104 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100105 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100118 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130205 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140205 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |