JP4449370B2 - Automatic accompaniment generator and program - Google Patents

Automatic accompaniment generator and program Download PDF

Info

Publication number
JP4449370B2
JP4449370B2 JP2003308177A JP2003308177A JP4449370B2 JP 4449370 B2 JP4449370 B2 JP 4449370B2 JP 2003308177 A JP2003308177 A JP 2003308177A JP 2003308177 A JP2003308177 A JP 2003308177A JP 4449370 B2 JP4449370 B2 JP 4449370B2
Authority
JP
Japan
Prior art keywords
information
accompaniment
note
timing
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003308177A
Other languages
Japanese (ja)
Other versions
JP2005077763A (en
Inventor
大祐 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2003308177A priority Critical patent/JP4449370B2/en
Publication of JP2005077763A publication Critical patent/JP2005077763A/en
Application granted granted Critical
Publication of JP4449370B2 publication Critical patent/JP4449370B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

この発明は、伴奏パターンを用いてユーザの押鍵音に従い自動伴奏音情報を生成する自動伴奏生成システムに関する。   The present invention relates to an automatic accompaniment generation system that generates automatic accompaniment sound information according to a user's key press sound using an accompaniment pattern.

従来より、伴奏パターンを用いて自動伴奏を生成する手段としてアルペジエータや伴奏スタイルを使ったものが知られており、例えば、アルペジエータは、特許文献1に示されるようなものがある。
特開2001−22354号公報
Conventionally, an arpeggiator or an accompaniment style is known as means for generating an automatic accompaniment using an accompaniment pattern. For example, there is an arpeggiator as shown in Patent Document 1.
JP 2001-22354 A

アルペジエータは、押鍵に応じてアルペジオ(分散和音)を生成するものであり、アルペジオパターンとして、複数のキー番号(音高に対応したノートナンバーではなく、単純な番号)とその発音タイミングを記憶している。そして、同時に押鍵された複数のノート番号に所定のルール(例えば、音高の低い順)に従って番号を割り振り、アルペジオパターン中のキー番号に対応した番号が割り振られているノート番号を、その発音タイミングにおいて発生させるようにして、押鍵音を元にアルペジオを生成している。   The arpeggiator generates arpeggios (distributed chords) in response to key presses, and stores multiple key numbers (not note numbers corresponding to pitches) and their sounding timings as arpeggio patterns. ing. A number is assigned to a plurality of note numbers that are simultaneously pressed according to a predetermined rule (for example, in order of increasing pitches), and a note number assigned with a number corresponding to the key number in the arpeggio pattern is pronounced. The arpeggio is generated based on the keystroke sound so that it is generated at the timing.

アルペジエータによる自動伴奏生成においては、ユーザが押鍵している音名が発音されるが、全ての押鍵音が常に自動伴奏に反映されるとは限らない。例えば、アルペジオパターンで想定されている押鍵数よりも多く押鍵されているときは、発音されない押鍵音がある。また、アルペジオパターンによってはオクターブシフトされて発音されるケースもあり、押鍵音の音高が常に発音されるとは限らない。   In automatic accompaniment generation by the arpeggiator, the name of the key pressed by the user is pronounced, but not all key pressing sounds are always reflected in the automatic accompaniment. For example, when a key is pressed more than the number of key presses assumed in the arpeggio pattern, there is a key press sound that is not pronounced. In addition, depending on the arpeggio pattern, there is a case where the sound is generated by being shifted by an octave, and the pitch of the key pressing sound is not always generated.

この発明は、このような事情に鑑み、複数の音符情報(ノートイベント)から成る伴奏パターンデータを使用して自動伴奏音情報を生成する際に、ユーザの演奏操作による押鍵音などの入力音高を常に全て自動伴奏音情報に反映させることができる自動伴奏生成システムを提供することを目的とする。   In view of such circumstances, the present invention provides an input sound such as a key depression sound by a user's performance operation when generating automatic accompaniment sound information using accompaniment pattern data composed of a plurality of note information (note events). An object of the present invention is to provide an automatic accompaniment generating system capable of always reflecting all high accompaniment sound information.

この発明の主たる特徴に従うと、発音タイミングを表わす夫々のタイミング情報(Timing)により時系列的に関連付けられた複数の音符情報(ノートP1;P2;…)から成る伴奏パターンデータ(Ap)を記憶する記憶手段(2〜4)であって、音符情報(P1;P2;…)の夫々は少なくとも時間長を表わす情報(Gate)を含むものと、伴奏音の音高を指示する音高指示情報(Ma,Mb,…)を入力するための入力手段(5,PD)と、記憶手段に記憶された伴奏パターンデータ(Ap)内の各音符情報(P1;P2;…)をそのタイミング情報(Timing)に従って順次読み出す読出し手段(S5〜S6)と、読出し手段により読み出された音符情報(P1;P2;…)のうち、タイミング情報(Timing)が和音とみなし得る所定時間長(例えば、32分音符長)以内で近接している複数の近接音符情報(例えば、ノートP4,P5)については、何れか一つ(例えば、ノートP4)を選定する選定手段(S6:[0029]〜[0030],[0035])と、読出し手段により読み出された音符情報(P1;P2;…)のうち近接音符情報(P4,P5)以外の音符情報と、上記選定手段により選定された音符情報(P4)とから、入力手段により入力されている全ての音高指示情報(Ma,Mb,…)により指示される音高を持つ伴奏音情報(N1a,N1b,…;N2a,N2b,…;…)を生成する生成手段(S6〜S18)と、生成手段により生成された伴奏音情報(N1a,N1b,…;N2a,N2b,…;…)に基づいて伴奏音を発音させる発音手段(7,S14)とを具備する自動伴奏生成装置〔請求項1〕、並びに、発音タイミングを表わす夫々のタイミング情報(Timing)により時系列的に関連付けられた複数の音符情報(P1;P2;…)から成る伴奏パターンデータ(Ap)を記憶する記憶手段(2〜4)であって、音符情報(P1;P2;…)の夫々は少なくとも時間長を表わす情報(Gate)を含むもの、及び、伴奏音の音高を指示する音高指示情報(Ma,Mb,…)を入力するための入力手段(5,PD)を具備し、自動伴奏生成装置として機能するコンピュータに、記憶手段に記憶された伴奏パターンデータ内の各音符情報(P1;P2;…)をそのタイミング情報(Timing)に従って順次読み出す読出しステップ(S5〜S6)と、読出しステップで読み出された音符情報(P1;P2;…)のうち、タイミング情報(Timing)が和音とみなし得る所定時間長(例えば、32分音符長)以内で近接している複数の近接音符情報(例えば、ノートP4,P5)については、何れか一つ(例えば、ノートP4)を選定する選定ステップ(S6:[0035])と、読出しステップで読み出された音符情報(P1;P2;…)のうち近接音符情報(P4,P5)以外の音符情報と、上記選定ステップで選定された音符情報(P4)とから、入力手段により入力されている全ての音高指示情報(Ma,Mb,…)により指示される音高を持つ伴奏音情報(N1a,N1b,…;N2a,N2b,…;…)を生成する生成ステップ(S6〜S18)と、生成ステップで生成された伴奏音情報(N1a,N1b,…;N2a,N2b,…;…)に基づいて伴奏音を発音させるステップ(S14)とから成る手順を実行させるための自動伴奏生成プログラム〔請求項4〕が提供される。なお、括弧書きは、理解の便のために付記した実施例の参照記号、用語、箇所等であり、以下においても同様である。
According to the main feature of the present invention, accompaniment pattern data (Ap) composed of a plurality of note information (notes P1; P2;...) Associated in time series with respective timing information (Timing) representing sound generation timing is stored. Each of the note information (P1; P2;...) Includes storage means (2 to 4) including at least information (Gate) indicating the length of time, and pitch indication information (indicating the pitch of the accompaniment sound) Input means (5, PD) for inputting Ma, Mb,..., And each piece of note information (P1; P2;...) In accompaniment pattern data (Ap) stored in the storage means, with timing information (Timing). ) Among the reading means (S5 to S6) sequentially read out according to (1) and the note information (P1; P2;...) Read out by the reading means, the predetermined time length (for example, timing information (Timing) can be regarded as a chord (for example) For example, the selection means (S6: [0029]) that selects any one (for example, note P4) for a plurality of pieces of adjacent note information (for example, notes P4 and P5) that are close within a 32nd note length). To [0030], [0035]) and note information other than the adjacent note information (P4, P5) among the note information (P1; P2;...) Read by the reading means, and selected by the selecting means. Accompaniment tone information (N1a, N1b,...; N2a, N2b,...) Having pitches indicated by all the pitch indication information (Ma, Mb,...) Input from the note information (P4) by the input means. ...; ...) generating means (S6 to S18) and sounding means for generating accompaniment sounds based on accompaniment sound information (N1a, N1b, ...; N2a, N2b, ...; ...) generated by the generating means (7, S14) The apparatus (claim 1) and accompaniment pattern data (Ap) composed of a plurality of note information (P1; P2;...) Associated in time series with respective timing information (Timing) indicating the sound generation timing are stored. Storage means (2-4), each of note information (P1; P2;...) Including at least information (Gate) indicating time length, and pitch indication information for indicating the pitch of the accompaniment sound Each piece of note information (P1; in the accompaniment pattern data stored in the storage means is stored in a computer having an input means (5, PD) for inputting (Ma, Mb,...) And functioning as an automatic accompaniment generator. P2;... Are sequentially read out in accordance with the timing information (Timing), and the timing information among the reading information (S5 to S6) and the note information (P1; P2;...) Read in the reading step. For a plurality of adjacent note information (for example, notes P4 and P5) that are close within a predetermined time length (for example, 32nd note length) in which (Timing) can be regarded as a chord, any one (for example, note P4) ) In the selection step (S6: [0035]), note information other than the adjacent note information (P4, P5) among the note information (P1; P2;...) Read in the reading step, and the selection step Accompaniment sound information (N1a, N1b,...) Having pitches indicated by all the pitch instruction information (Ma, Mb,...) Input by the input means from the note information (P4) selected in (4). N2a, N2b,...), And accompaniment sounds based on the accompaniment sound information (N1a, N1b,...; N2a, N2b,...) Generated in the generation step. Steps to pronounce Automatic accompaniment generation program for executing the steps consisting the flop (S14) [Claim 4] is provided. Note that the parentheses are reference symbols, terms, parts, etc. of the examples added for convenience of understanding, and the same applies to the following.

この発明の自動伴奏生成装置において、伴奏パターンデータ(Ap)は所定形式の演奏データに含まれ〔請求項2〕、また、生成手段(S6〜S18)は、発音タイミングが前後する音符情報(P1,P2)の時間範囲が重なるとき(Ta〜Tb)、後の音符情報(P2)の発音タイミングに応じて、前の音符情報(P1)から生成される伴奏音情報の時間長(Gate)を制限する制限手段(S9〜S10)を備える〔請求項3〕ことができる。   In the automatic accompaniment generating apparatus according to the present invention, the accompaniment pattern data (Ap) is included in the performance data in a predetermined format (Claim 2), and the generating means (S6 to S18) includes the note information (P1 , P2) when the time ranges overlap (Ta to Tb), the time length (Gate) of the accompaniment sound information generated from the previous note information (P1) is set according to the sound generation timing of the subsequent note information (P2). Limiting means (S9 to S10) for limiting may be provided.

この発明による自動伴奏生成システムでは(請求項1,4)、複数の音符情報(P1;P2;…)から成る伴奏パターンデータ(Ap)が使用され、これら音符情報(P1;P2;…)は、夫々のタイミング情報(Timing)により時系列的に関連付けられており、夫々、少なくとも時間長(長さ)を表わす情報(Gate)を含み、さらに、例えば、音高(Note)、音量(Vel )などの情報を含む。システムは、自動伴奏の開始に伴い、伴奏パターンデータ(Ap)内の各音符情報(P1;P2;…)をタイミング情報(Timing)に従って順次読み出し、その際、タイミング情報(Timing)が和音とみなし得る所定時間長(例えば、32分音符長)以内で近接している複数の近接音符情報(例えば、ノートP4,P5)については、何れか一つ(例えば、ノートP4)を選定する(S6:[0029]〜[0030],[0035])。また、ユーザ押鍵操作などにより所望の音高(例えば、D3,F3)の音高指示情報(Ma,Mb,…)が入力手段(5,PD)から入力されると、有効に入力された全ての音高指示情報(Ma,Mb,…)が指示する所望の音高を取得する。そして、読み出された各音符情報(P1;P2;…)から、但し、近接音符情報(P4,P5)については選定された何れか一つ(P4)から、各音高(Note)を所望の音高に差し替える等の方法を用いて、全音高指示情報(Ma,Mb,…)が指示する所望の音高を持つ伴奏音情報(N1a,N1b,…;N2a,N2b,…;…)を生成し(S13,S17)、音源部(7)を通じて、対応する自動伴奏音を発音させる(S14)。   In the automatic accompaniment generating system according to the present invention (claims 1 and 4), accompaniment pattern data (Ap) comprising a plurality of note information (P1; P2;...) Is used, and these note information (P1; P2;...) Are associated with each timing information (Timing) in time series, and each includes at least information (Gate) indicating time length (length), and further includes, for example, pitch (Note), volume (Vel) Information. As the automatic accompaniment starts, the system sequentially reads each note information (P1; P2;...) In the accompaniment pattern data (Ap) according to the timing information (Timing), and the timing information (Timing) is regarded as a chord. For a plurality of adjacent note information (for example, notes P4 and P5) that are close within a predetermined time length (for example, 32nd note length) to be obtained, any one (for example, note P4) is selected (S6: [0029] to [0030], [0035]). Further, when the pitch instruction information (Ma, Mb,...) Of a desired pitch (for example, D3, F3) is input from the input means (5, PD) by the user's key pressing operation or the like, it is effectively input. A desired pitch indicated by all pitch indication information (Ma, Mb,...) Is acquired. Then, from each of the read note information (P1; P2;...), But for the adjacent note information (P4, P5), each pitch (Note) is selected from any one selected (P4). The accompaniment sound information (N1a, N1b,...; N2a, N2b,...) Having the desired pitch indicated by the whole pitch instruction information (Ma, Mb,...) Is used. Is generated (S13, S17), and the corresponding automatic accompaniment sound is generated through the sound source section (7) (S14).

この発明では、このように、タイミング情報を含む複数の音符情報から成る伴奏パターンデータを使用しユーザの演奏操作に応じて伴奏音情報を自動生成するに際し、伴奏パターンデータから、各タイミング情報に従って各音符情報を順次読み出し、読み出された音符情報が持つ長さや音量などの情報と、ユーザ操作に基づく全ての入力音高(押鍵音高)を持つ伴奏音情報を生成し発音するようにしているので、ユーザ入力音高(押鍵音高)を全て常に使用した自動伴奏音に反映させることができる。さらに、ユーザ入力音高(押鍵音高)が、全て、そのまま音符情報のパターンに乗って直ちに発音されるので、ユーザは、自身の押鍵状態と生成される自動伴奏音との対応を演奏しながら簡単に認識することができる。また、自動伴奏音の元になる伴奏パターンデータ内の音符情報は、各タイミング情報が表わす発音タイミングにつき1音分でよいので、従来の各種伴奏パターンデータと比較してデータ量が少なくなり、これを記憶するメモリなどを節約することができる。さらに、タイミング情報が和音とみなし得る所定時間長以内で近接している複数の近接音符情報については何れか一つを選定して伴奏音情報を生成するようにしているので、和音状態が混ざっている伴奏パターンデータであっても、所望音高の伴奏音情報を生成し発音することができる。   In this invention, in this way, when accompaniment sound information is automatically generated according to a user's performance operation using accompaniment pattern data including a plurality of note information including timing information, each accompaniment pattern data is generated according to each timing information. Read the note information in sequence, generate information such as length and volume of the read note information, and accompaniment sound information with all input pitches (key press tone pitches) based on user operation, and pronounce it Therefore, all the user input pitches (key press tone pitches) can be reflected in the automatically used accompaniment tone. Furthermore, since all the user input pitches (key press tone pitches) are immediately pronounced on the note information pattern as they are, the user plays the correspondence between his key press state and the generated automatic accompaniment sound. It can be easily recognized. In addition, note information in the accompaniment pattern data that is the source of the automatic accompaniment sound may be one note for the sound generation timing represented by each timing information, and therefore the amount of data is reduced compared to conventional various accompaniment pattern data. Can be saved. Furthermore, since the accompaniment sound information is generated by selecting any one of a plurality of adjacent note information that are close within a predetermined time length in which the timing information can be regarded as a chord, the chord state is mixed. Even with accompaniment pattern data, accompaniment sound information having a desired pitch can be generated and pronounced.

また、この発明のシステムで使用される伴奏パターンデータは、MIDIで代表される所定の汎用形式の演奏データに含まれ、その音符情報が該汎用形式で記述されるので(請求項2)、伴奏パターンデータの制作者は、電子楽器などで一般的に利用可能な任意の曲データの一部や、電子楽器などによる実際の演奏を記憶したものを、そのまま利用することができる。   The accompaniment pattern data used in the system of the present invention is included in performance data in a predetermined general format represented by MIDI, and the note information is described in the general format (claim 2). The creator of the pattern data can use a part of any piece of music data that is generally available for electronic musical instruments or the like, or an actual musical performance stored by an electronic musical instrument or the like.

この発明では、さらに、発音タイミングが時間的に前後する音符情報(P1,P2)に時間的な重なり(Ta〜Tb)が生じる場合、前の音符情報(P1)に従って生成される先行伴奏音情報の時間長(Gate)を後の音符情報(P2)のタイミング情報(Timing=Ta)に応じて制限する(請求項3)。例えば、後の音符情報(P2)に従って新しい後続伴奏音情報を生成する際に、既にその時点で発音中の自動伴奏音をオフする(S9〜S10)。これにより、自動伴奏音の同時発音数は、全ユーザ入力音数(押鍵音数)に一致してこれを超えることがない。従って、最大同時発音数を超えたり、先行伴奏音情報により既に発音中の自動伴奏音のオフが来るまで音量が大きくなってしまう、などの問題が起きない。
In the present invention, in addition, in the case where temporal overlap (Ta to Tb) occurs in the note information (P1, P2) whose sound generation timings are temporally changed, the preceding accompaniment sound information generated according to the previous note information (P1). Is limited in accordance with the timing information (Timing = Ta) of the later note information (P2) (claim 3). For example, when new subsequent accompaniment sound information is generated according to the later note information (P2), the automatic accompaniment sound that is already sounding at that time is turned off (S9 to S10). As a result, the number of simultaneous sounds of the automatic accompaniment sound matches the number of all user input sounds (number of key press sounds) and does not exceed this. Therefore, problems such as exceeding the maximum number of simultaneous sounds or increasing the volume until the automatic accompaniment sound that is already sounding is turned off by the preceding accompaniment sound information do not occur.

〔システム構成〕
図1は、この発明の一実施例による自動伴奏生成システムのハードウエア構成例を示す。この例では、自動伴奏生成生成装置には、電子楽器などの音楽専用の音楽情報処理装置が用いられるが、パーソナルコンピュータに演奏入力及び楽音生成機能を設けた汎用の情報処理装置を用いてもよい。この自動伴奏生成装置は、中央処理装置(CPU)1、ランダムアクセスメモリ(RAM)2、読出専用メモリ(ROM)3、外部記憶装置4、入力操作部5、表示部6、音源部7、通信インターフェース(通信I/F)8などの要素を備え、これらの要素1〜8はバス9に接続される。
〔System configuration〕
FIG. 1 shows a hardware configuration example of an automatic accompaniment generation system according to an embodiment of the present invention. In this example, an automatic accompaniment generating / generating apparatus uses a music information processing apparatus dedicated to music such as an electronic musical instrument, but a general-purpose information processing apparatus provided with a performance input and musical tone generating function in a personal computer may be used. . This automatic accompaniment generator includes a central processing unit (CPU) 1, a random access memory (RAM) 2, a read only memory (ROM) 3, an external storage device 4, an input operation unit 5, a display unit 6, a sound source unit 7, a communication Elements such as an interface (communication I / F) 8 are provided, and these elements 1 to 8 are connected to the bus 9.

装置全体を制御するCPU1は、所定の制御プログラムに従い、タイマーの計時クロックを利用して各種処理を実行し、RAM2は、これらの処理で利用される種々の情報を一時的に記憶するための処理バッファとして機能する。例えば、自動伴奏生成プログラムによる処理時には、押鍵音情報(Ma,Mb,…)や伴奏ノート情報(N1a,N1b,…;N2a,N2b,…;…)、パターンノート情報(P1;P2;…)を格納するためのバッファ領域(KeyOnList ,DataList,PatternNote )がRAM2上に確保される。また、ROM3は、CPU1に自動伴奏生成プログラムを含む各種制御プログラムや、パターンノート情報を含む伴奏パターンデータ(Ap)等の各種データを記憶している。   The CPU 1 that controls the entire apparatus executes various processes using a timer clock in accordance with a predetermined control program, and the RAM 2 is a process for temporarily storing various information used in these processes. Functions as a buffer. For example, at the time of processing by the automatic accompaniment generation program, key-press information (Ma, Mb,...), Accompaniment note information (N1a, N1b,...; N2a, N2b,...), Pattern note information (P1; P2;... ) Are stored on the RAM 2 (KeyOnList, DataList, PatternNote). The ROM 3 stores various data such as various control programs including an automatic accompaniment generation program and accompaniment pattern data (Ap) including pattern note information in the CPU 1.

外部記憶装置4は、ハードディスク(HD)や、コンパクトディスク・リード・オンリィ・メモリ(CD−ROM)、フレキシブルディスク(FD)、光磁気(MO)ディスク、ディジタル多目的ディスク(DVD)、メモリカード等の記憶媒体を用いた記憶手段である。自動伴奏生成プログラム等の各種制御データ、曲データや伴奏パターン集等の各種データは、ROM3だけでなく外部記憶装置4に記憶させることができる。   The external storage device 4 is a hard disk (HD), a compact disk read only memory (CD-ROM), a flexible disk (FD), a magneto-optical (MO) disk, a digital multipurpose disk (DVD), a memory card, etc. Storage means using a storage medium. Various control data such as an automatic accompaniment generation program, various data such as song data and accompaniment pattern collections can be stored not only in the ROM 3 but also in the external storage device 4.

例えば、ROM3に制御プログラムが記憶されていない場合、HDやCD−ROMなどの外部記憶装置4に制御プログラムを記憶させておきそれをRAM2に読み込むことで、ROM3に制御プログラムを記憶している場合と同様の動作をCPU1にさせることができ、制御プログラムの追加やバージョンアップ等を容易に行うことができる。例えば、自動伴奏生成処理等に用いられるプログラムや各種データ等をインストールすることによって、所望の自動伴奏生成装置を実現することができる。   For example, when the control program is not stored in the ROM 3, the control program is stored in the ROM 3 by storing the control program in the external storage device 4 such as an HD or a CD-ROM and reading it into the RAM 2. The CPU 1 can be operated in the same manner as described above, and the control program can be easily added or upgraded. For example, a desired automatic accompaniment generating apparatus can be realized by installing programs and various data used for automatic accompaniment generation processing and the like.

入力操作部5は、マウスやキー等のパネル操作子や演奏鍵盤などの演奏操作子及び検出回路から成り、操作子による設定/演奏入力操作の内容を検出回路で検出し設定情報や押鍵音情報などをシステム本体内に導入する。例えば、パネル操作子にて、自動伴奏のスタート/ストップ等、このシステムの動作状態を設定したり、自動伴奏生成処理に必要な各種情報を入力し、或いは、演奏操作子の操作に従って演奏データを入力することができる。ここで、演奏操作子の演奏鍵盤において、伴奏用鍵域又は伴奏用鍵盤として設定された複数の鍵(以下、「伴奏鍵」という)は、伴奏音の音高を指示する押鍵音情報(音高指示情報)を入力するのに用いられる。表示部6は、ディスプレイ(CRT、LCD等の表示器)10の表示内容や各種インジケータの点灯状態をCPU1からの指令に従って制御し、入力操作部5の操作に対する表示援助を行う。   The input operation unit 5 includes a panel operation element such as a mouse and a key, a performance operation element such as a performance keyboard, and a detection circuit. The detection circuit detects the contents of the setting / performance input operation by the operation element, and setting information and a key-press sound. Introduce information into the system itself. For example, you can use the panel controls to set the operating status of this system, such as automatic accompaniment start / stop, input various information necessary for automatic accompaniment generation, or perform performance data according to the operation of the performance controls. Can be entered. Here, in the performance keyboard of the performance operator, a plurality of keys set as accompaniment keys or accompaniment keys (hereinafter referred to as “accompaniment keys”) are key press sound information (indicating the pitch of the accompaniment sound) ( Used to input pitch indication information). The display unit 6 controls display contents of the display (display such as CRT and LCD) 10 and lighting states of various indicators in accordance with commands from the CPU 1, and performs display assistance for the operation of the input operation unit 5.

音源部7は、音源(ソフトウエアを含む)や効果付与DSPを含み、CPU1で処理された入力演奏データや自動伴奏データなどに対応する楽音信号を生成し、音源部7に接続されるサウンドシステム11は、D/A変換部やアンプ、スピーカを備え、音源部7からの楽音信号に基づく楽音を発生する。つまり、音源部7及びサウンドシステム11は楽音生成部を形成し、例えば、自動伴奏生成処理時には、押鍵音情報に応じて生成された自動伴奏データに従って伴奏音を発音することができる。   The sound source unit 7 includes a sound source (including software) and an effect imparting DSP, generates a musical sound signal corresponding to input performance data and automatic accompaniment data processed by the CPU 1, and is connected to the sound source unit 7. 11 includes a D / A converter, an amplifier, and a speaker, and generates a musical sound based on a musical sound signal from the sound source unit 7. That is, the sound source unit 7 and the sound system 11 form a musical sound generation unit, and, for example, in an automatic accompaniment generation process, an accompaniment sound can be generated according to automatic accompaniment data generated according to the key depression sound information.

また、図示の通信I/F8は、ローカルエリアネットワーク(LAN)や、インターネット、電話回線などの一般用通信ネットワーク、或いは、MIDI用ネットワークに接続される各種インターフェースを一括して表わしており、サーバ等の他のコンピュータやMIDI機器などの種々の外部機器PDと、必要な各種情報を授受することができる。例えば、この装置に制御プログラムや各種データ等が記憶されていない場合、通信I/F8を介して他のコンピュータPDから制御プログラム等をダウンロードすることができる。また、外部機器PDに、他の鍵盤や、弦楽器、管楽器を含むMIDI演奏操作装置を用いて、その演奏操作に基づく演奏データや演奏音を通信I/F8から取り込むこともできる。   The communication I / F 8 shown in the figure collectively represents various interfaces connected to a local area network (LAN), a general communication network such as the Internet and a telephone line, or a MIDI network. Various necessary information can be exchanged with various external devices PD such as other computers and MIDI devices. For example, when the control program and various data are not stored in this apparatus, the control program or the like can be downloaded from another computer PD via the communication I / F 8. Further, the performance data and performance sound based on the performance operation can be taken into the external device PD from the communication I / F 8 using another keyboard, a MIDI performance operation device including a stringed instrument and a wind instrument.

〔伴奏パターンデータと自動伴奏生成の例〕
この発明の一実施例による自動伴奏生成システムでは、或る伴奏鍵5を操作(押鍵)すると、自動伴奏生成プログラムに従って、ROM3又は外部記憶装置4に記憶された伴奏パターンデータApを利用して全ての押鍵音高を反映した伴奏データを自動的に生成し楽音生成部7,11から伴奏音を放音することができる。図2及び図3は、この発明の一実施例による伴奏パターンデータと自動伴奏生成例を数値及びタイムチャート(第1周期分のみ)で表わしたものである。
[Example of accompaniment pattern data and automatic accompaniment generation]
In the automatic accompaniment generation system according to one embodiment of the present invention, when an accompaniment key 5 is operated (key depression), the accompaniment pattern data Ap stored in the ROM 3 or the external storage device 4 is used in accordance with the automatic accompaniment generation program. Accompaniment data reflecting all key depression pitches can be automatically generated, and accompaniment sounds can be emitted from the tone generation units 7 and 11. 2 and 3 show accompaniment pattern data and automatic accompaniment generation examples according to one embodiment of the present invention in numerical values and time charts (only for the first period).

ここで、図3を用いてこのシステムにおける自動伴奏生成の概要を極く簡単に説明しておく。この自動伴奏生成システムでは、複数のノートイベントP1〜P5から成る伴奏パターンデータApが使用され、これらのノートイベントP1〜P5は、夫々が有するタイミング情報Timingにより時系列的に関連付けられている。伴奏用鍵5から任意の音高(例えば、D3,F3)を指示する押鍵音情報Ma,Mb,…を入力すると、伴奏パターンデータAp内から夫々のタイミング情報Timingに従って、順次、読み出される各ノートイベントP1;P2;…の音高は、有効に入力された全ての押鍵音情報Ma,Mbにより指示される音高(D3,F3)に変更されて、自動伴奏音を表わすノートイベントN1a,N1b,…;N2a,N2b,…;…が次々に生成され、これらのノートイベントN1a,N1b,…;N2a,N2b,…;…に対応する伴奏音が発音される。   Here, the outline of automatic accompaniment generation in this system will be described very simply with reference to FIG. In this automatic accompaniment generation system, accompaniment pattern data Ap composed of a plurality of note events P1 to P5 is used, and these note events P1 to P5 are related in time series by timing information Timing that each has. When key-pressing sound information Ma, Mb,... That designates an arbitrary pitch (for example, D3, F3) is input from the accompaniment key 5, each piece is sequentially read out from the accompaniment pattern data Ap according to the respective timing information Timing. The pitches of note events P1; P2;... Are changed to pitches (D3, F3) indicated by all key input tone information Ma and Mb that are effectively input, and note events N1a representing automatic accompaniment sounds. , N1b,..., N2a, N2b,... Are generated one after another, and accompaniment sounds corresponding to these note events N1a, N1b,.

以下、図2及び図3につき、より詳しく説明する。図2(1)は、1パート分の伴奏パターンデータApの一例を表わしており、この伴奏パターンデータApは、1パート分の一例が図2(1)に示されるように、複数の伴奏パターンノートイベント(以下、「パターンノート」という)P1,P2,…が所定の時間(以下、「パターン時間」という)Tpにわたって時系列的に配列されて成る。各パターンノートP1,P2,…(各行)は、タイミング情報Timing、ゲートタイム情報Gate、音高情報Note、ベロシティ情報Vel (以下、「情報」の用語は省略することがある)等の情報から成り、それらの音高を時間的に展開すると図3(1)のようになる。   Hereinafter, FIG. 2 and FIG. 3 will be described in more detail. FIG. 2 (1) shows an example of accompaniment pattern data Ap for one part. As shown in FIG. 2 (1), the accompaniment pattern data Ap includes a plurality of accompaniment patterns. Note events (hereinafter referred to as “pattern notes”) P1, P2,... Are arranged in a time series over a predetermined time (hereinafter referred to as “pattern time”) Tp. Each pattern note P1, P2,... (Each row) includes information such as timing information Timing, gate time information Gate, pitch information Note, velocity information Vel (hereinafter, the term “information” may be omitted). When these pitches are developed over time, the result is as shown in FIG.

なお、このような伴奏パターンデータApは、MIDIなどの所定の汎用形式で記述されており、既存の曲データ中から引用したものであっても、実際の演奏を記録したものであってもよい。また、図2(1)及び図3(1)は、説明を簡単にするためにパターン時間Tp=1小節分の伴奏パターンデータを例示しているが、これより長くてもよいし、勿論、短くしてより簡単なパターンにしてもよい。   Such accompaniment pattern data Ap is described in a predetermined general-purpose format such as MIDI, and may be quoted from existing music data or recorded actual performance. . 2 (1) and 3 (1) exemplify the accompaniment pattern data for the pattern time Tp = 1 bar for the sake of simplicity, but of course it may be longer, of course, A shorter pattern may be used.

ここで、タイミングTiming及びゲートタイムGateは、それぞれ、各パターンノートP1,P2,…の発音開始時点(タイミング)及びノートオン時間の長さを示す時間情報である。図示の例では、1拍を480クロックとしたクロック数で表わされており、パターン時間Tp=1920クロックである。なお、第1パターンノートP1のゲートタイムGate(P1)=“0490”は、第2パターンノートP2のタイミングTiming(P2)=“0480”を超えており、レガートっぽい演奏表現が企図されている。   Here, the timing Timing and the gate time Gate are time information indicating the sound generation start time (timing) and the length of the note-on time of each pattern note P1, P2,. In the example shown in the drawing, it is represented by the number of clocks in which one beat is 480 clocks, and the pattern time Tp = 1920 clocks. The gate time Gate (P1) = “0490” of the first pattern note P1 exceeds the timing Timing (P2) = “0480” of the second pattern note P2, and a legato-like performance expression is contemplated. .

次に、音高Note及びベロシティVel は、それぞれ、各パターンノートP1,P2,…の音高及び音量(押鍵速度乃至強度)を表わす情報である。図示の例では、音高情報Noteに音高名“C4”,“D4”,…又はノート番号(ナンバ)値を用い、音量情報Vel にはベロシティ値を用いており、各値は、MIDI規格に従い、最小値=“0”又は“1”〜最大値=“127”の範囲内に設定される。   Next, the pitch note and the velocity Vel are information representing the pitch and volume (key press speed or intensity) of the pattern notes P1, P2,. In the example shown in the figure, the pitch name “C4”, “D4”,... Or the note number (number) value is used for the pitch information Note, and the velocity value is used for the volume information Vel. Accordingly, the minimum value = “0” or “1” to the maximum value = “127” is set.

このシステムでは、任意数且つ任意音高の伴奏鍵をユーザが操作(押鍵)して、当該各鍵に対応する音高を表わす押鍵音情報Ma,Mb,…が入力されると、有効に入力された押鍵音情報Ma,Mb,…は、全て、伴奏音の音高を指示する音高指示情報として用いられる。例えば、図2(1)及び図3(1)の伴奏パターンデータApに対して、音高“D3”,“F3”に対応する2鍵が押鍵されると、自動伴奏生成プログラムにより、同鍵操作中、伴奏パターンデータApから、パターンノートP1;P2;…のタイミングTimingに従って、順次、各タイミングTimingに関連付けられたパターンノートP1;P2;…が読み出されるのに伴い、図2(2)及び図3(2)に示すように、押鍵音情報Ma,Mbが指示する2つの音高“D3”,“F3”を持つ伴奏ノートイベントN1a,N1b;N2a,N2b;…を自動伴奏データAnとして自動的に生成する。   In this system, when a user operates (presses) an arbitrary number of accompaniment keys of arbitrary pitches and key depression sound information Ma, Mb,... The key-pressing sound information Ma, Mb,... Input to the are all used as pitch instruction information for instructing the pitch of the accompaniment sound. For example, if two keys corresponding to the pitches “D3” and “F3” are pressed against the accompaniment pattern data Ap in FIGS. 2 (1) and 3 (1), the automatic accompaniment generation program .. (2) as the pattern notes P1; P2;... Associated with each timing Timing are sequentially read from the accompaniment pattern data Ap according to the timing Timing of the pattern notes P1; As shown in FIG. 3 (2), the accompaniment note events N1a, N1b; N2a, N2b;.. Automatically generated as An.

つまり、各パターンノートP1;P2;…のタイミングTimingに基づく読出しタイミング(Tr)が到来する毎に、順次、各パターンノートP1;P2;…;P5が読み出され、これらのゲートタイムGate及びベロシティVel 、並びに、ユーザの押鍵音高“D3”,“F3”(ノートナンバ“62”,“65”)を持つ自動伴奏ノートイベント(以下、「伴奏ノート」という)N1a,N1b;N2a,N2b;…が生成される。そして、このような伴奏ノートの生成は、同一伴奏鍵の押鍵操作が持続している間、継続して行われ、伴奏パターンデータApのパターン時間Tpを1周期として循環的に繰り返される。   That is, every time the read timing (Tr) based on the timing Timing of each pattern note P1; P2;... Arrives, each pattern note P1; Vel, and automatic accompaniment note events (hereinafter referred to as “accompaniment notes”) N1a, N1b; N2a, N2b having key depression pitches “D3”, “F3” (note numbers “62”, “65”) ; Is generated. Such generation of accompaniment notes is continuously performed while the key pressing operation of the same accompaniment key is continued, and is repeated cyclically with the pattern time Tp of the accompaniment pattern data Ap as one cycle.

ここで、或るパターンノートPnのタイミングTiming(Pn)=Taが前のパターンノートPn−1のゲートタイムGate(Pn-1)の消費時点t=Tb=Timing(Pn-1)+Gate(Pn-1)よりも前にある場合、パターンノートPn−1に従ってそのまま伴奏ノートNn−1を生成すると、タイミングTa〜Tbの間、伴奏ノートNn−1の発音を継続しつつ、パターンノートPnに対応する次の伴奏ノートNnが生成されて、発音数が2倍になってしまう。このような場合は、両伴奏ノートNn−1,Nnが重ならないように、先行する伴奏ノートNn−1のゲートタイムGate(Nn-1)を制限する。このため、例えば、次の伴奏ノートNnの生成タイミングTaでは、音源部7によりパターンノートPn−1のゲートタイムGate(Pn-1)に従って既に発音中の全ての伴奏ノートNn−1を消音する。或いは、音源部7に送る伴奏ノートNn−1自体のゲートタイムGate(Nn-1)を、次のパターンノートPnのタイミングTaに合った長さ〔Gate(Nn-1)=Timing(Pn)−Timing(Pn-1)〕に短縮する。   Here, timing Timing (Pn) = Ta of a certain pattern note Pn is consumption time t = Tb = Timing (Pn-1) + Gate (Pn−) when the gate time Gate (Pn−1) of the previous pattern note Pn−1. If the accompaniment note Nn-1 is generated as it is in accordance with the pattern note Pn-1 in the case before 1), the sound of the accompaniment note Nn-1 is continued during the timings Ta to Tb, and it corresponds to the pattern note Pn. The next accompaniment note Nn is generated and the number of pronunciations is doubled. In such a case, the gate time Gate (Nn-1) of the preceding accompaniment note Nn-1 is limited so that the accompaniment notes Nn-1, Nn do not overlap. Therefore, for example, at the generation timing Ta of the next accompaniment note Nn, all the accompaniment notes Nn-1 that are already sounding are muted by the tone generator 7 according to the gate time Gate (Pn-1) of the pattern note Pn-1. Alternatively, the gate time Gate (Nn-1) of the accompaniment note Nn-1 itself to be sent to the sound source unit 7 is set to a length suitable for the timing Ta of the next pattern note Pn [Gate (Nn-1) = Timing (Pn) − Timing (Pn-1)].

図示の例では、図3タイムチャートに「(注1)」で示すように、第1パターンノートP1のゲートタイムGate(P1)の消費時点Tb=490(クロック)は、第2のパターンノートP2のタイミングTiming(P2)=480=Taをオーバし、時間Ta〜Tb=480〜490の間、両パターンノートP1,P2が重なる。そこで、第1パターンノートP1に従って生成される第1伴奏ノートN1a,N1bは、次に第2パターンノートP2に従って生成される第2伴奏ノートN2a,N2bに重ならないように、矢印で示すように、タイミングTaで消音され、ゲートタイムGateが第2パターンノートP2のタイミングに合った長さ〔Gate(N1a,N1b) =Timing(P2)−Timing(P1)=480〕に短縮される。   In the illustrated example, as indicated by “(Note 1)” in the time chart of FIG. 3, the consumption time Tb = 490 (clock) of the gate time Gate (P1) of the first pattern note P1 is the second pattern note P2. Timing Timing (P2) = 480 = Ta is exceeded, and both pattern notes P1, P2 overlap during the time Ta-Tb = 480-490. Therefore, as shown by the arrows, the first accompaniment notes N1a and N1b generated according to the first pattern note P1 do not overlap the second accompaniment notes N2a and N2b generated next according to the second pattern note P2. The sound is muted at the timing Ta, and the gate time Gate is shortened to a length [Gate (N1a, N1b) = Timing (P2) −Timing (P1) = 480] that matches the timing of the second pattern note P2.

また、伴奏パターンデータAp内においてタイミングTimingがほぼ等しい〔例えば、32分音符長(60クロック)以内で近接している〕複数のパターンノートは、和音とみなし、適当な所定の方法に従って選ばれた何れか一つのパターンノートについてのみ伴奏ノートを生成し、他のパターンノートは自動伴奏生成に反映させない。   In the accompaniment pattern data Ap, a plurality of pattern notes having substantially the same timing Timing (for example, close to each other within a 32nd note length (60 clocks)) are regarded as chords and selected according to an appropriate predetermined method. Accompaniment notes are generated only for any one pattern note, and other pattern notes are not reflected in automatic accompaniment generation.

図示の例では、図3タイムチャートの「(注2)」に示すように、第4及び第5パターンノートP4,P5は、開始タイミングTcが同じ〔Tc=Timing(P4)=Timing(P5)=1440〕なので、和音とみなされ、時間長が大きい第4パターンノートP4〔Gate(P4)>Gate(P5)〕に従って伴奏ノートN4a,N4bが生成され、第5パターンノートP5は自動伴奏生成に反映されない。つまり、この例では、最長時間のパターンノートを優先する方法を採用し、第5パターンノートP5については、時間範囲Tc〜Td〔Td=Timing(P5)+Gate(P5)=1660〕が第4パターンノートP4の時間範囲Tc〜Te〔Te=Timing(P4)+Gate(P4)=1670〕に含まれるため、自動伴奏音を生成させない。   In the illustrated example, as shown in “(Note 2)” in the time chart of FIG. 3, the fourth and fifth pattern notes P4 and P5 have the same start timing Tc [Tc = Timing (P4) = Timing (P5) = 1440], accompaniment notes N4a and N4b are generated according to the fourth pattern note P4 [Gate (P4)> Gate (P5)] having a large time length, which is regarded as a chord, and the fifth pattern note P5 is used for automatic accompaniment generation. Not reflected. That is, in this example, the method of prioritizing the pattern note with the longest time is adopted, and for the fifth pattern note P5, the time range Tc to Td [Td = Timing (P5) + Gate (P5) = 1660] is the fourth pattern. Since it is included in the time range Tc to Te [Te = Timing (P4) + Gate (P4) = 1670] of the note P4, no automatic accompaniment sound is generated.

〔自動伴奏生成の動作フロー〕
図4及び図5は、この発明の一実施例による自動伴奏生成の動作例を表わすフローチャートである。入力操作部(パネル操作子)5のユーザ操作により自動伴奏スタートが指示され、この自動伴奏生成の動作フローがスタートすると、CPU1は、まず、ユーザ操作或いはデフォルトに従って初期設定を行う(ステップS1:なお、以下においては、記号“S…”単独で該当ステップを表わす)。初期設定には、例えば、この自動伴奏生成に使用する伴奏パターンデータApの設定や、伴奏鍵の設定(例えば、伴奏用鍵域を定めるスプリットポイントの設定、伴奏鍵盤の指定など)、自動伴奏の最大同時発音数(例えば、16)の設定などがある。この伴奏パターンデータApの設定には、予めROM3又は外部記憶装置4に用意された曲データから所望トラックの伴奏パターン部分を選択したり、伴奏パターン集から所望の伴奏パターンを選択したり、ユーザの実演奏による伴奏パターンを記録した後使用登録するなどの方法が用いられる。
[Operation flow for automatic accompaniment generation]
4 and 5 are flowcharts showing an operation example of automatic accompaniment generation according to one embodiment of the present invention. When an automatic accompaniment start is instructed by a user operation of the input operation unit (panel operation unit) 5, and the operation flow of automatic accompaniment generation starts, the CPU 1 first performs initial setting according to the user operation or default (step S1: Note that In the following, the symbol “S...” Alone represents the corresponding step). Initial settings include, for example, setting of accompaniment pattern data Ap used for automatic accompaniment generation, setting of accompaniment keys (for example, setting of split points for defining accompaniment key ranges, specification of accompaniment keyboards, etc.), automatic accompaniment There is a setting of the maximum number of simultaneous pronunciations (for example, 16). The accompaniment pattern data Ap can be set by selecting an accompaniment pattern portion of a desired track from song data prepared in advance in the ROM 3 or the external storage device 4, selecting a desired accompaniment pattern from a collection of accompaniment patterns, A method of registering use after recording an accompaniment pattern by an actual performance is used.

CPU1は、次いで、押鍵音情報格納領域KeyOnList 、伴奏ノート情報格納領域DataList及びパターンノート情報格納領域PatternNote (以下、各領域は、参照記号単独で表わす)をRAM2上にセットして、これらを初期化すると共に(S2)、タイマーをスタートする(S3)。なお、KeyOnList ,DataListは、初期状態では要素数が“0”であり、最大要素数は最大同時発音数となる。また、PatternNote に格納される伴奏パターンデータApの各ノートイベント(パターンノート)のデータ構造は、通常のノートイベント情報と同じ記述形式でよく、初期状態は無効値がセットされる。そして、所定時間間隔のタイマー割込みにより、以後の本処理段階(S4〜S18)に入る。   Next, the CPU 1 sets the keying sound information storage area KeyOnList, the accompaniment note information storage area DataList, and the pattern note information storage area PatternNote (hereinafter, each area is represented by a reference symbol alone) on the RAM 2 and initializes them. (S2) and a timer is started (S3). Note that KeyOnList and DataList have an element number of “0” in the initial state, and the maximum number of elements is the maximum number of simultaneous pronunciations. The data structure of each note event (pattern note) of the accompaniment pattern data Ap stored in PatternNote may be the same description format as normal note event information, and an invalid value is set in the initial state. Then, the following processing steps (S4 to S18) are entered by a timer interruption at a predetermined time interval.

本処理段階では、まず、自動伴奏ストップの指示があったか否かを判別し(S4)、自動伴奏ストップ指示がないときは(S4→NO)、さらに、現在、初期設定(S1)で設定された伴奏パターンデータApのパターンノートを読み出すべき読出しタイミングTrであるか否かを判断する(S5)。ここで、読出しタイミングTrは、伴奏パターンデータApのパターン周期Tpのn倍に個々のパターンノートのタイミングTimingを加算した値であり、Tr=n×Tp+Timingで表わされる。なお、値nは、当初は0であるが、自動伴奏の時間進行がパターン時間Tpを越える毎に“1”ずつ増加する自然数である。   In this processing stage, first, it is determined whether or not an automatic accompaniment stop instruction has been given (S4). When there is no automatic accompaniment stop instruction (S4 → NO), the initial setting (S1) is currently set. It is determined whether or not it is the read timing Tr to read the pattern note of the accompaniment pattern data Ap (S5). Here, the read timing Tr is a value obtained by adding the timing Timing of each pattern note to n times the pattern period Tp of the accompaniment pattern data Ap, and is represented by Tr = n × Tp + Timing. Note that the value n is initially 0, but is a natural number that increases by “1” every time the time progression of the automatic accompaniment exceeds the pattern time Tp.

ここで、読出しタイミングTrであれば(S5→YES)、伴奏パターンデータApから当該パターンノートを読み出してPatternNote に記憶する(S6)。図2及び図3の例では、演奏開始時点t=0(クロック)で処理が開始され、この時点に等しい読出しタイミングTr=Timing(P1)=“0000”で、直ちに第1パターンノートP1を読み出してPatternNote に記憶し、以後も、読出しタイミングTr=n×1920+Timing(n=0又は自然数)毎に、順次、パターンノートP2,P3,…を読み出していく。   If it is the read timing Tr (S5 → YES), the pattern note is read from the accompaniment pattern data Ap and stored in PatternNote (S6). In the example of FIGS. 2 and 3, the processing is started at the performance start time t = 0 (clock), and the first pattern note P1 is immediately read out at the read timing Tr = Timing (P1) = “0000” equal to this time point. Then, the pattern notes P2, P3,... Are sequentially read at every read timing Tr = n × 1920 + Timing (n = 0 or natural number).

なお、読出しタイミングTrの判断(S5)は、或る程度余裕のある時間幅(時間幅は設定可能であってもよい)を持って行われる。また、パターンノート記憶ステップ(S6)では、読出しタイミングTrが同時又は所定の余裕時間(例えば、60クロック)以内で、和音とみなし得るパターンノートを全て読出し、複数イベントが読み出されたときは、適当な方法で選定された何れか1つのパターンノートをPatternNote に記憶する。例えば、図2及び図3のように、タイミングt=Tc=1440で第4及び第5パターンノートP4,P5が読み出されたときは、第4パターンノートP4をPatternNote に記憶する。   Note that the determination of the read timing Tr (S5) is performed with a certain time width (the time width may be set). Also, in the pattern note storage step (S6), when all the pattern notes that can be regarded as chords are read out at the same time or within a predetermined margin time (for example, 60 clocks) and a plurality of events are read out, Any one pattern note selected by an appropriate method is stored in PatternNote. For example, as shown in FIGS. 2 and 3, when the fourth and fifth pattern notes P4 and P5 are read at the timing t = Tc = 1440, the fourth pattern note P4 is stored in the PatternNote.

続いて、KeyOnList を初期化し(S7)、さらに、伴奏鍵5の押鍵に基づく現在の押鍵音情報を取得し、KeyOnList に記憶する(図5:S8)。この場合、初期設定ステップ(S1)で設定された最大同時発音数を超える押鍵については無視し、この発音数以下の押鍵を有効とする。なお、図2及び図3の例では、第1読出しタイミングTr=Timing(P1)=0で、押鍵音記憶ステップ(S8)にて、押鍵音高“D3”(62),“F3”(65)がKeyOnList に記憶される。   Subsequently, the KeyOnList is initialized (S7), and the current key pressing sound information based on the key pressing of the accompaniment key 5 is acquired and stored in the KeyOnList (FIG. 5: S8). In this case, the key depression exceeding the maximum simultaneous number of sounds set in the initial setting step (S1) is ignored, and the key depression equal to or less than this number of sounds is validated. In the example of FIGS. 2 and 3, the first read timing Tr = Timing (P1) = 0, and the key press sound pitch “D3” (62), “F3” is stored in the key press sound storing step (S8). (65) is stored in the KeyOnList.

次いで、発音中の自動伴奏音があるか否かを判断する(S9)。ここで、前のパターンノートに従ったDataList内の伴奏ノートによる自動伴奏音が継続して発音しているときは(S9→YES)、発音中の自動伴奏音をオフするように音源部7に指令し(S10)、DataListを初期化する(S11)。図2及び図3の例で説明すると、第2読出しタイミングTr=Timing(P2)=“0480”=Taで、第2パターンノートP2がPatternNote に記憶され(S6)、このとき、その前の第1パターンノートP1に基づくDataListの伴奏ノートN1a,N1bにより、自動伴奏音が発音中である(S9→YES)。そこで、CPU1は、この時点Taで直ちに、音源部7に全自動伴奏音をオフさせ(S10)、DataListを初期化する(S11)。従って、伴奏ノートN1a,N1bのゲートタイムGateは結果的に値Taに短縮される。   Next, it is determined whether or not there is an automatic accompaniment sound being pronounced (S9). Here, when the automatic accompaniment sound by the accompaniment note in the DataList according to the previous pattern note is continuously sounding (S9 → YES), the sound source unit 7 is turned off so as to turn off the automatic accompaniment sound being sounded. Command (S10) and initialize DataList (S11). 2 and 3, the second pattern note P2 is stored in the PatternNote at the second read timing Tr = Timing (P2) = “0480” = Ta (S6). An automatic accompaniment sound is being generated by the accompaniment notes N1a and N1b of the DataList based on one pattern note P1 (S9 → YES). Therefore, the CPU 1 immediately turns off the fully automatic accompaniment sound to the sound source unit 7 at this time Ta (S10) and initializes the DataList (S11). Accordingly, the gate time Gate of the accompaniment notes N1a and N1b is consequently shortened to the value Ta.

さらに、伴奏鍵5の押鍵タイミングが、PatternNote に格納されているパターンノートのタイミングTimingが表わす時刻Tsより後ろの時刻であるか否かを判定する(S12)。なお、この時刻Tsは読出しタイミングTrに等しい。つまり、時刻Tsは、物理的に厳密に云えば読出しタイミングTrに若干遅れるかもしれないが、音楽データ取扱い上は無視し得る遅れであり読出しタイミングTrと実質的に同じである。   Further, it is determined whether or not the key depression timing of the accompaniment key 5 is later than the time Ts indicated by the timing Timing of the pattern note stored in PatternNote (S12). This time Ts is equal to the read timing Tr. In other words, the time Ts may be slightly delayed from the read timing Tr when physically speaking, but it is a negligible delay in handling music data and is substantially the same as the read timing Tr.

ここで、開始時刻Ts以前に押鍵されたときは(S12→NO)、KeyOnList 中の各押鍵音情報に対して、当該パターンノートのタイミングTimingに対応する開始時刻Ts、長さGate及び音量Vel 、並びに、押鍵音高を持つ伴奏ノートを生成し(要するに、パターンノートの音高情報Noteのみを変更された音高に書き換える)、それぞれ、DataListに記憶する(S13)。そして、DataList内の伴奏ノートを音源部7に送り、対応する自動伴奏音をサウンドシステム11から発音させる再生処理を行った後(S14)、ストップ指示判別ステップ(図4:S5)に戻る。   Here, when the key is pressed before the start time Ts (S12 → NO), the start time Ts corresponding to the timing Timing of the pattern note, the length Gate, and the volume for each key press sound information in the KeyOnList Accompaniment notes having Vel and key depression pitches are generated (in short, only the pitch information Note of the pattern note is rewritten with the changed pitch), and each is stored in the DataList (S13). Then, the accompaniment notes in the DataList are sent to the sound source unit 7 and a reproduction process for generating the corresponding automatic accompaniment sound from the sound system 11 is performed (S14), and then the process returns to the stop instruction determination step (FIG. 4: S5).

次いで、読出しタイミング判定ステップに戻って読出しタイミングTrでないと判定されたときは(S4・NO→S5・NO)、続いて、現在の押鍵状態がKeyOnList の押鍵音高と同じか否かを判断する(S15)。ここで、同一押鍵状態が維持されているときは(S15→YES)、ストップ指示判別ステップ(S4)に戻り、読出しタイミングTrの到来毎に(S5・YES)上述の動作(S6〜S14)を繰り返す。   Next, returning to the read timing determination step and determining that it is not the read timing Tr (S4 · NO → S5 · NO), subsequently, it is determined whether or not the current key press state is the same as the key press tone of the KeyOnList. Judgment is made (S15). Here, when the same key pressing state is maintained (S15 → YES), the process returns to the stop instruction determination step (S4), and the above-described operation (S6 to S14) every time the read timing Tr arrives (S5, YES). repeat.

図2及び図3の例では、第1パターンノートP1の開始時刻t=Ts=0(クロック)で伴奏鍵D3,F3が押鍵されるので(S12→NO)、音高情報Noteのみを押鍵音高D3,F3に書き換えた第1伴奏ノートN1a,N1bをDataListに記憶した後(S13)、この押鍵状態が維持されている間、各パターンノートP2,P3,…が、順次、同じ態様で記憶される(S13)。但し、DataListに記憶されるタイミングTimingは、それぞれの伴奏ノートの開始時刻Ts=n×1920+Timing(n=0又は自然数)となる。   In the examples of FIGS. 2 and 3, since the accompaniment keys D3 and F3 are pressed at the start time t = Ts = 0 (clock) of the first pattern note P1 (S12 → NO), only the pitch information Note is pressed. After storing the first accompaniment notes N1a and N1b rewritten to the key pitches D3 and F3 in the DataList (S13), the pattern notes P2, P3,. It is stored in a manner (S13). However, the timing Timing stored in the DataList is the start time Ts = n × 1920 + Timing (n = 0 or natural number) of each accompaniment note.

さて、押鍵状態判定ステップ(S15)において、KeyOnList の押鍵音高とは別の押鍵がなされた判断したときは(S15→NO)、さらに、押鍵変更された時点で、PatternNote のパターンノートが有効か否か、即ち、PatternNote に記憶されているパターンノートが発音持続時間中かどうかをチェックする(S16)。ここで、押鍵変更時点において、このパターンノートのゲートタイムGateが消費されておらず、当該パターンノートの発音期間を維持しているときは(S16→YES)、前述したKeyOnList 初期化〜DataList初期化ステップ(S7〜S11)を経て、押鍵タイミング判定ステップ(S12)に進む。なお、パターンノート有効性判定ステップ(S16)や押鍵タイミング判定ステップ(S12)におけるタイミング比較は、或る程度の時間幅を持って行ってもよい。また、それぞれの時間幅は設定可能であってもよい。   When it is determined in the key pressing state determination step (S15) that a key is pressed that is different from the key pressing pitch of the KeyOnList (S15 → NO), the PatternNote pattern is also displayed when the key is changed. It is checked whether or not the note is valid, that is, whether or not the pattern note stored in PatternNote is during the pronunciation duration (S16). If the gate time Gate of the pattern note is not consumed and the sound generation period of the pattern note is maintained (S16 → YES) at the time of key change, the above-described KeyOnList initialization to DataList initialization are performed. The process proceeds to the key pressing timing determination step (S12) through the conversion step (S7 to S11). The timing comparison in the pattern note validity determination step (S16) and the key pressing timing determination step (S12) may be performed with a certain time width. Each time width may be settable.

この場合、押鍵タイミング判定ステップ(S12)では、PatternNote に格納されているパターンノートの開始時刻Tsの後、つまり、対応する伴奏ノートの発音中に押鍵されたと判定され(S12→YES)、当該パターンノートのタイミング及び長さを押鍵タイミングに応じて調整し、KeyOnList 中の各押鍵音情報に対して、調整されたタイミングTiming及び長さGateと、当該パターンノートの音量Vel と、押鍵音高とを持つ伴奏ノートを生成し、それぞれDataListに記憶する(S17)。そして、当該伴奏ノートの再生処理を行った後(S14)、ストップ指示判別ステップ(S4)に戻る。   In this case, in the key pressing timing determination step (S12), it is determined that the key has been pressed after the pattern note start time Ts stored in PatternNote, that is, while the corresponding accompaniment note is sounded (S12 → YES). The timing and length of the pattern note are adjusted according to the key pressing timing, and for each key pressing sound information in the KeyOnList, the adjusted timing Timing and length Gate, the volume Vel of the pattern note, and the pressing Accompaniment notes having key pitches are generated and stored in the DataList (S17). And after performing the reproduction | regeneration processing of the said accompaniment note (S14), it returns to a stop instruction | indication determination step (S4).

例えば、図3において、第2パターンノートP2の開始時刻Ts=Timing(P2)+1920×0=480=Taより後乃至同パターンP2の終了時刻=960より前(第2伴奏ノートN2a,N2bが発音中)の時点t=Tfで押鍵されたときは、伴奏ノートの途中での押鍵変更と判断され(S16→YES)、当該パターンノートP2のタイミングTimingを押鍵タイミングTfに変更し、ゲートタイムGateをGate(P2)−(Tf−Ta)に変更する調整を行い、ベロシティVel をVel (P2)=72とし音高Noteを新たな押鍵音高とした伴奏ノートをDataListに記憶する(S14)。   For example, in FIG. 3, the start time Ts of the second pattern note P2 = Timing (P2) + 1920 × 0 = 480 = after Ta or before the end time of the pattern P2 = 960 (the second accompaniment notes N2a and N2b are sounded) When the key is pressed at time t = Tf (middle), it is determined that the key has been changed in the middle of the accompaniment note (S16 → YES), the timing Timing of the pattern note P2 is changed to the key pressing timing Tf, and the gate Adjustment is made to change the time Gate to Gate (P2)-(Tf-Ta), and accompaniment notes with the velocity Vel set to Vel (P2) = 72 and the note Note set as the new key-pressed pitch are stored in the DataList ( S14).

また、PatternNote に記憶されているパターンノートの開始時刻Ts以前に別の伴奏用鍵が押鍵された場合〔S15(NO)→S16(NO)〕には、一旦当該パターンノートの記憶ステップに進んでから〔S4(NO)→S5(YES)→S6〕、KeyOnList 初期化〜DataList初期化ステップ(S7〜S11)を経て、伴奏ノートの発音開始以前での押鍵と判定され(S12→NO)、当該パターンノートの音高Noteのみを当該押鍵音高に書き換えて(タイミングTimingは開始時刻Tsとなる)をDataListに記憶する(S13)。   If another accompaniment key is pressed before the pattern note start time Ts stored in PatternNote [S15 (NO) → S16 (NO)], the process proceeds to the pattern note storage step. [S4 (NO) → S5 (YES) → S6], and through KeyOnList initialization to DataList initialization steps (S7 to S11), it is determined that the key is pressed before the start of sounding of the accompaniment note (S12 → NO). Then, only the pitch Note of the pattern note is rewritten to the key depression pitch (timing Timing is the start time Ts) and stored in the DataList (S13).

図2及び図3で説明すると、当初の押鍵(D3,F3)後、PatternNote に記憶されている何れかのパターンノートP1〜P5の開始時刻Ts以前に別の伴奏用鍵が押鍵された場合、例えば、図3の時刻Tg〜Tc〔Tg=Timing(P3)+Gate(P3)=1210〕間のように、前後のパターンノートP3〜P4間にノートイベントが存在しない空白の時間範囲で押鍵された場合は、上述の過程〔S15・S16・S4(NO)→S5(YES)→S6〜S12(NO)〕を経て、PatternNote のパターンノートP4の開始時刻Ts=Timing(P3)=Tc=1440で、同パターンノートに対応する伴奏ノートをDataListに記憶する。   2 and 3, after the initial key depression (D3, F3), another accompaniment key is depressed before the start time Ts of any pattern note P1 to P5 stored in PatternNote. In this case, for example, in the blank time range in which there is no note event between the preceding and following pattern notes P3 to P4, for example, between the times Tg and Tc [Tg = Timing (P3) + Gate (P3) = 1210] in FIG. If the key is locked, the above process [S15, S16, S4 (NO) → S5 (YES) → S6 to S12 (NO)] is performed, and the pattern note P4 start time Ts = Timing (P3) = Tc = 1440, accompaniment notes corresponding to the same pattern notes are stored in the DataList.

なお、この自動伴奏のスタート時に押鍵がないときは、伴奏パターンデータApの読出しタイミング毎に、パターンノートを読み出してPatternNote を更新していく。この間、KeyOnList は初期化(S7)で“空”にされたままであり、DataListも、実質的に伴奏ノートイベントは記憶されない“空”の状態となる。   If there is no key depression at the start of the automatic accompaniment, the pattern note is read and the PatternNote is updated at every read timing of the accompaniment pattern data Ap. During this time, KeyOnList remains “empty” at initialization (S7), and DataList is also in an “empty” state in which accompaniment note events are not substantially stored.

以上のようにして、所定の伴奏ノートの再生処理を行った後(S14)、ストップ指示判別ステップ(S4)に戻った際、パネル操作子5のユーザ操作や曲データ進行の終了などによる自動伴奏ストップ指示を検出すると(S4→YES)、発音中の自動伴奏音があればそのオフを音源部7に指令して(S18)、この自動伴奏生成フローを終了する。   As described above, after performing the reproduction process of a predetermined accompaniment note (S14), when returning to the stop instruction determination step (S4), automatic accompaniment due to the user operation of the panel operator 5 or the end of progression of song data, etc. When a stop instruction is detected (S4 → YES), if there is an automatic accompaniment sound that is sounding, the sound source unit 7 is instructed to turn it off (S18), and this automatic accompaniment generation flow ends.

〔種々の実施態様〕
以上、この発明の好適な一実施例について説明したが、これは単なる一例であって、この発明は、その精神を逸脱しない範囲で種々の変更が可能であり、種々の態様で実施することができる。例えば、伴奏パターンデータは、実施例では1パート(トラック)即ち1つの音色又は楽器音を想定しているが、複数のパート(トラック)でもよい。
[Various Embodiments]
Although a preferred embodiment of the present invention has been described above, this is merely an example, and the present invention can be variously modified without departing from the spirit thereof and can be implemented in various modes. it can. For example, the accompaniment pattern data assumes one part (track), that is, one tone color or instrument sound in the embodiment, but may be a plurality of parts (tracks).

伴奏パターンデータ内の音符情報列は、単音状態ばかりでもよいし、和音状態が混ざっていてもよい。伴奏パターンデータ内に和音がある場合、和音中の1音について長さや音量の情報を自動伴奏生成に用いればよい。その際、1音の選び方は、例えば、当該和音中で最初に読み込まれたものや、最長の時間長を持つものなど、適当な様々な方法を適用することができる。また、和音状態の判断の仕方は、例えばタイミング情報が32分音符程度の所定時間幅内にある複数の音符情報を1つの和音と判断するようにしてもよい。   The note information string in the accompaniment pattern data may be a single note state or a chord state. When there is a chord in the accompaniment pattern data, the length and volume information of one sound in the chord may be used for automatic accompaniment generation. At this time, various appropriate methods can be applied to the selection of one sound, for example, the first read in the chord or the longest time length. As a method for determining the chord state, for example, a plurality of note information whose timing information is within a predetermined time width of about 32nd notes may be determined as one chord.

同時発音数の上限は、実施例では16としたが、これに限らない。もしくはユーザ設定可能でもよい。また、音高指示情報を入力する手段には、実施例の特定の鍵盤(伴奏鍵盤)や鍵盤の一部鍵域(伴奏用鍵域)の外に、弦楽器や管楽器など非鍵盤タイプの演奏操作子又は機器を用いてもよい。音高指示情報は、さらに、リアルタイムで演奏されるものでもよいし、MIDI形式などで既に記録されたものを順次受信するようにしてもよい。   Although the upper limit of the number of simultaneous pronunciations is 16 in the embodiment, it is not limited to this. Or it may be user-configurable. In addition to the specific keyboard (accompaniment keyboard) or part of the keyboard range (accompaniment keyboard range), the pitch instruction information can be input using non-keyboard type performance operations such as stringed instruments and wind instruments. A child or a device may be used. The pitch instruction information may be played in real time, or may be received sequentially in the MIDI format or the like.

また、音高指示情報の入力に関して、実施例では実際の押鍵状態で押鍵音の有無を判断しているが、例えば、一度押鍵すれば、離鍵しても音高指示の入力状態を維持(ホールド)するように指令し、異なる押鍵若しくはストップ操作による解除指令が行われるまで、その押鍵を有効とするように構成してもよい。   In addition, regarding the input of the pitch instruction information, in the embodiment, the presence or absence of a key pressing sound is determined in the actual key pressing state. For example, once the key is pressed, the input state of the pitch instruction even if the key is released May be configured to hold (hold) the key and keep the key pressed until a different key pressing or release command is issued due to a stop operation.

この発明の一実施例による自動伴奏生成システムのハードウエア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the automatic accompaniment production | generation system by one Example of this invention. この発明の一実施例による伴奏パターンデータと自動伴奏生成の例を数値的に説明する図である。It is a figure explaining numerically the example of the accompaniment pattern data by one Example of this invention, and automatic accompaniment production | generation. この発明の一実施例による伴奏パターンデータと1パターン時間(1小節)分の自動伴奏生成の例をタイムチャートで説明する図である。It is a figure explaining the example of the accompaniment pattern data by one Example of this invention and the automatic accompaniment production | generation for 1 pattern time (1 bar) with a time chart. この発明の一実施例による自動伴奏生成の動作例を表わすフローチャートの一部である。It is a part of flowchart which represents the operation example of the automatic accompaniment production | generation by one Example of this invention. この発明の一実施例による自動伴奏生成の動作例を表わすフローチャートの他部である。It is the other part of the flowchart showing the operation example of the automatic accompaniment production | generation by one Example of this invention.

符号の説明Explanation of symbols

P1;P2;… 伴奏パターンデータApを構成するパターンノート(音符情報)、
Tp パターン時間(繰返し周期)、
Ma,Mb,… 押鍵音情報(音高指示情報)、
N1a,N1b;N2a,N2b;… 自動伴奏データAnを構成する伴奏ノート(伴奏音情報)。
P1; P2; ... Pattern notes (note information) constituting the accompaniment pattern data Ap,
Tp pattern time (repetition period),
Ma, Mb, ... Key pressing sound information (pitch instruction information),
N1a, N1b; N2a, N2b; ... Accompaniment notes (accompaniment sound information) constituting the automatic accompaniment data An.

Claims (4)

発音タイミングを表わす夫々のタイミング情報により時系列的に関連付けられた複数の音符情報から成る伴奏パターンデータを記憶する記憶手段であって、音符情報の夫々は少なくとも時間長を表わす情報を含むものと、
伴奏音の音高を指示する音高指示情報を入力するための入力手段と、
上記記憶手段に記憶された伴奏パターンデータ内の各音符情報をそのタイミング情報に従って順次読み出す読出し手段と、
上記読出し手段により読み出された音符情報のうち、タイミング情報が和音とみなし得る所定時間長以内で近接している複数の近接音符情報については、何れか一つを選定する選定手段と、
上記読出し手段により読み出された音符情報のうち上記近接音符情報以外の音符情報と、上記選定手段により選定された音符情報とから、上記入力手段により入力されている全ての音高指示情報により指示される音高を持つ伴奏音情報を生成する生成手段と、
上記生成手段により生成された伴奏音情報に基づいて伴奏音を発音させる発音手段と
を具備することを特徴とする自動伴奏生成装置。
Storage means for storing accompaniment pattern data composed of a plurality of note information associated in time series with respective timing information representing pronunciation timing, each of the note information including at least information representing a time length;
Input means for inputting pitch instruction information for instructing the pitch of the accompaniment sound;
Reading means for sequentially reading each note information in the accompaniment pattern data stored in the storage means according to the timing information;
Among the note information read out by the reading means, for a plurality of adjacent note information that is close within a predetermined time length in which the timing information can be regarded as a chord, selection means for selecting any one of them,
Instructed by all pitch indication information input by the input means from the note information other than the proximity note information of the note information read by the reading means and the note information selected by the selection means Generating means for generating accompaniment sound information having a pitch to be played,
An automatic accompaniment generating apparatus comprising: sound generation means for generating an accompaniment sound based on the accompaniment sound information generated by the generation means.
前記伴奏パターンデータは所定形式の演奏データに含まれることを特徴とする請求項1に記載の自動伴奏生成装置。   2. The automatic accompaniment generating apparatus according to claim 1, wherein the accompaniment pattern data is included in performance data in a predetermined format. 前記生成手段は、発音タイミングが前後する音符情報の時間範囲が重なるとき、後の音符情報の発音タイミングに応じて、前の音符情報から生成される伴奏音情報の時間長を制限する制限手段を備えることを特徴とする請求項1又は2に記載の自動伴奏生成装置。   The generating means includes a restricting means for restricting a time length of the accompaniment sound information generated from the previous note information according to a sound generation timing of the subsequent note information when time ranges of the note information whose sound generation timings precede and follow overlap. The automatic accompaniment generator according to claim 1 or 2, further comprising: 発音タイミングを表わす夫々のタイミング情報により時系列的に関連付けられた複数の音符情報から成る伴奏パターンデータを記憶する記憶手段であって、音符情報の夫々は少なくとも時間長を表わす情報を含むもの、及び、伴奏音の音高を指示する音高指示情報を入力するための入力手段を具備し、自動伴奏生成装置として機能するコンピュータに、
上記記憶手段に記憶された伴奏パターンデータ内の各音符情報をそのタイミング情報に従って順次読み出す読出しステップと、
上記読出しステップで読み出された音符情報のうち、タイミング情報が和音とみなし得る所定時間長以内にある複数の近接音符情報については、何れか一つを選定する選定ステップと、
上記読出しステップで読み出された音符情報のうち上記近接音符情報以外の音符情報と、上記選定ステップで選定された音符情報とから、上記入力手段により入力されている全ての音高指示情報により指示される音高を持つ伴奏音情報を生成する生成ステップと、
上記生成ステップで生成された伴奏音情報に基づいて伴奏音を発音させる発音ステップと
から成る手順を実行させる自動伴奏生成プログラム。
Storage means for storing accompaniment pattern data composed of a plurality of note information time-sequentially associated with respective timing information representing pronunciation timing, each of the note information including at least information representing a time length; and In addition, a computer functioning as an automatic accompaniment generating apparatus, comprising input means for inputting pitch instruction information for instructing the pitch of an accompaniment sound,
A step of sequentially reading out each note information in the accompaniment pattern data stored in the storage means in accordance with the timing information;
Among the note information read out in the reading step, for a plurality of adjacent note information within a predetermined time length in which the timing information can be regarded as a chord, a selection step for selecting any one of them,
Instructed by all the pitch indication information inputted by the input means from the note information other than the proximity note information of the note information read in the reading step and the note information selected in the selection step Generating step for generating accompaniment sound information having a pitch to be played;
An automatic accompaniment generation program for executing a procedure comprising a sound generation step for generating an accompaniment sound based on the accompaniment sound information generated in the generation step.
JP2003308177A 2003-09-01 2003-09-01 Automatic accompaniment generator and program Expired - Fee Related JP4449370B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003308177A JP4449370B2 (en) 2003-09-01 2003-09-01 Automatic accompaniment generator and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003308177A JP4449370B2 (en) 2003-09-01 2003-09-01 Automatic accompaniment generator and program

Publications (2)

Publication Number Publication Date
JP2005077763A JP2005077763A (en) 2005-03-24
JP4449370B2 true JP4449370B2 (en) 2010-04-14

Family

ID=34410719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003308177A Expired - Fee Related JP4449370B2 (en) 2003-09-01 2003-09-01 Automatic accompaniment generator and program

Country Status (1)

Country Link
JP (1) JP4449370B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5141012B2 (en) * 2006-12-28 2013-02-13 ヤマハ株式会社 Arpeggio generator and program
US20220343884A1 (en) * 2019-09-04 2022-10-27 Roland Corporation Arpeggiator, recording medium and method of making arpeggio

Also Published As

Publication number Publication date
JP2005077763A (en) 2005-03-24

Similar Documents

Publication Publication Date Title
US5747715A (en) Electronic musical apparatus using vocalized sounds to sing a song automatically
JP4821533B2 (en) Arpeggio performance device and program
US7470855B2 (en) Tone control apparatus and method
JP3266149B2 (en) Performance guide device
JP5228315B2 (en) Program for realizing automatic accompaniment generation apparatus and automatic accompaniment generation method
JP2636640B2 (en) Automatic accompaniment device
JP4449370B2 (en) Automatic accompaniment generator and program
JP2003186466A (en) Musical score generation processor and program
JP4853054B2 (en) Performance data editing apparatus and program
JP6790362B2 (en) Electronic acoustic device
JP3587133B2 (en) Method and apparatus for determining pronunciation length and recording medium
JP3752859B2 (en) Automatic composer and recording medium
JP3173310B2 (en) Harmony generator
JP5200368B2 (en) Arpeggio generating apparatus and program for realizing arpeggio generating method
JP4186855B2 (en) Musical sound control device and program
JP4172335B2 (en) Automatic accompaniment generator and program
JPH04331990A (en) Voice electronic musical instrument
JP2601039B2 (en) Electronic musical instrument
JP4389709B2 (en) Music score display device and music score display program
JP3620321B2 (en) Automatic accompaniment device
JPH10319961A (en) Sound generating timing controller
JP2008058796A (en) Playing style deciding device and program
JPH04257895A (en) Apparatus and method for code-step recording and automatic accompaniment system
JP4218566B2 (en) Musical sound control device and program
JP5402167B2 (en) Arpeggio generating apparatus and program for realizing arpeggio generating method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080304

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100118

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140205

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees