JP4148184B2 - Program for realizing automatic accompaniment data generation method and automatic accompaniment data generation apparatus - Google Patents

Program for realizing automatic accompaniment data generation method and automatic accompaniment data generation apparatus Download PDF

Info

Publication number
JP4148184B2
JP4148184B2 JP2004153738A JP2004153738A JP4148184B2 JP 4148184 B2 JP4148184 B2 JP 4148184B2 JP 2004153738 A JP2004153738 A JP 2004153738A JP 2004153738 A JP2004153738 A JP 2004153738A JP 4148184 B2 JP4148184 B2 JP 4148184B2
Authority
JP
Japan
Prior art keywords
information
sound
chord
string
accompaniment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004153738A
Other languages
Japanese (ja)
Other versions
JP2005338186A (en
JP2005338186A5 (en
Inventor
明 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2004153738A priority Critical patent/JP4148184B2/en
Publication of JP2005338186A publication Critical patent/JP2005338186A/en
Publication of JP2005338186A5 publication Critical patent/JP2005338186A5/ja
Application granted granted Critical
Publication of JP4148184B2 publication Critical patent/JP4148184B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、リズムパターンに基づいて弦楽器用の自動伴奏データを生成する自動伴奏データ生成方法を実現するためのプログラムおよび自動伴奏データ生成装置に関する。   The present invention relates to a program and an automatic accompaniment data generation apparatus for realizing an automatic accompaniment data generation method for generating automatic accompaniment data for stringed instruments based on a rhythm pattern.

伴奏パターンを用いて自動伴奏データを生成する自動伴奏データ生成装置として、たとえば、アルペジエータと呼ばれるものや、伴奏スタイルに応じて自動伴奏データを生成するものが、従来から知られている。   As an automatic accompaniment data generation device that generates automatic accompaniment data using an accompaniment pattern, for example, a device called an arpeggiator and a device that generates automatic accompaniment data according to an accompaniment style have been known.

アルペジエータは、押鍵に応じてアルペジオ(分散和音)を生成するものであり、アルペジエータには、アルペジオパターンとして、複数のキー番号(音高に対応したノートナンバではなく、単純な番号)とその発音タイミングを記憶しておき、同時に押鍵された複数のノート番号に所定のルール(たとえば、音高の低い順)に従って番号を割り振り、アルペジオパターン中のキー番号に対応した番号が割り振られているノート番号を、その発音タイミングにおいて発生させるようにして、押鍵音を基にアルペジオを生成するようにしたものがある(たとえば、特許文献1参照)。   The arpeggiator generates arpeggios (distributed chords) in response to key presses, and the arpeggiator has multiple key numbers (not note numbers corresponding to pitches) and their pronunciation as arpeggio patterns. The timing is memorized, a number is assigned to a plurality of note numbers simultaneously pressed according to a predetermined rule (for example, in order of increasing pitch), and a number corresponding to the key number in the arpeggio pattern is assigned A number is generated at the sounding timing to generate an arpeggio based on the key-press sound (see, for example, Patent Document 1).

一方、伴奏スタイルに応じて自動伴奏データを生成する装置は、各種スタイル(ジャンル等)に応じた多種類の伴奏パターンを記憶しておき、ユーザの選択した伴奏スタイルに対応する伴奏パターンに基づいて、鍵盤等から検出した入力和音に合わせて自動伴奏データを生成するようにしている。伴奏パターンは、個々の伴奏音の音高に応じた音高データと、その発音タイミングを示すタイミングデータとをセットにしたもので、たとえば、Cmajなどの所定和音に基づいたソースパターンとして用意されている。そして、入力和音の種類に応じてソースパターン内の音高を変換するとともに、全音高を入力和音の根音に応じてシフトし、和音に合った音高の伴奏音を生成するようにしている(たとえば、特許文献2参照)。
また、複数の操作子に異なる弦や異なる奏法を割り当てておき、指定されている和音に応じて各弦に対応する音高を決定し、操作された操作子に対応する弦あるいは奏法の演奏情報を発生させたり、各弦の音をどのタイミングで発生させるかを規定したカッティングやアルペジオ等のテンプレートを記憶しておき、指定されている和音に応じて各弦に対応する音高を決定し、テンプレートに従ったタイミングで各弦の演奏情報を発生させたりするようにしたものもある(たとえば、特許文献3参照)。
特開2001−022354号公報 特許第3319390号公報 特開2000−66677号公報
On the other hand, an apparatus for generating automatic accompaniment data according to an accompaniment style stores various types of accompaniment patterns according to various styles (genres, etc.), and based on the accompaniment pattern corresponding to the accompaniment style selected by the user. The automatic accompaniment data is generated in accordance with the input chord detected from the keyboard or the like. The accompaniment pattern is a set of pitch data corresponding to the pitch of each accompaniment sound and timing data indicating the sound generation timing. For example, the accompaniment pattern is prepared as a source pattern based on a predetermined chord such as Cmaj. Yes. Then, the pitch in the source pattern is converted according to the type of the input chord, and the whole pitch is shifted according to the root of the input chord to generate an accompaniment with a pitch that matches the chord. (For example, refer to Patent Document 2).
Also, assign different strings and different performances to multiple controls, determine the pitch corresponding to each string according to the specified chord, and perform information on the strings or performances corresponding to the operated controls Or a template such as cutting or arpeggio that stipulates when to generate the sound of each string, determines the pitch corresponding to each string according to the specified chord, In some cases, performance information of each string is generated at a timing according to the template (see, for example, Patent Document 3).
JP 2001-022354 A Japanese Patent No. 3319390 JP 2000-66677 A

しかし、上記従来の自動伴奏データ生成装置では、弦楽器用の自動伴奏データを生成するようになっていないので、作成された自動伴奏データに従って弦楽器を演奏した場合、違和感のある演奏になったり、演奏自体ができなかったりすることがあった。   However, the conventional automatic accompaniment data generation device does not generate automatic accompaniment data for stringed instruments. Therefore, when a stringed instrument is played according to the created automatic accompaniment data, the performance becomes uncomfortable or Sometimes it was not possible.

また、上記アルペジエータを用いて、弦楽器で演奏可能な自動伴奏データを生成するには、演奏目的の弦楽器(たとえば、ギター)で演奏可能な音高を予めユーザが考えて(調べて)入力しなければならず、非常に面倒であった。   Also, in order to generate automatic accompaniment data that can be played with a stringed instrument using the arpeggiator, the user must consider (examine) and input a pitch that can be played with a target stringed instrument (for example, a guitar). It was very troublesome.

本発明は、この点に着目してなされたものであり、弦楽器用の自動伴奏データを簡単に生成することが可能となる自動伴奏データ生成方法を実現するためのプログラムおよび自動伴奏データ生成装置を提供することを目的とする。   The present invention has been made paying attention to this point, and provides a program and an automatic accompaniment data generation apparatus for realizing an automatic accompaniment data generation method capable of easily generating automatic accompaniment data for stringed instruments. The purpose is to provide.

上記目的を達成するため、請求項1に記載のプログラムは、リズムパターンを供給するリズムパターン供給ステップと、和音を示す和音情報を供給する和音情報供給ステップと、和音毎に、いずれのフレットを使用するかをフレット番号によって弦毎に規定したボイシング展開用テーブルと、前記和音情報供給ステップによって供給された和音情報が示す和音とに応じて、弦毎にフレット番号を決定する第1の決定ステップと、弦毎の基準音高情報を供給する基準音高情報供給ステップと、前記第1の決定ステップによって決定されたフレット番号および前記基準音高情報供給ステップによって供給された基準音高情報に基づいて、弦毎に発音すべき発音音高を決定する第2の決定ステップと、前記リズムパターン供給ステップによって供給されたリズムパターンの発音タイミング毎に弦別に発音の有無を指定する指定ステップと、該指定ステップによって発音無しが指定された弦については、前記第2の決定ステップによって決定された発音音高の伴奏音情報を生成しない一方、該指定ステップによって発音有りが指定された弦については、前記第2の決定ステップによって決定された発音音高の伴奏音情報を生成する伴奏音情報生成ステップと、該伴奏音情報生成ステップによって生成された伴奏音情報を、自動伴奏データとして登録する登録ステップとを有する自動伴奏データ生成方法をコンピュータに実行させるものであることを特徴とする。 In order to achieve the above object, the program according to claim 1 uses any fret for each of the chords , a rhythm pattern supplying step for supplying a rhythm pattern , a chord information supplying step for supplying chord information indicating a chord, and a chord. A first deciding step for deciding a fret number for each string according to a voicing expansion table that defines for each string by a fret number and a chord indicated by the chord information supplied by the chord information supplying step; A reference pitch information supply step for supplying reference pitch information for each string, a fret number determined by the first determination step, and a reference pitch information supplied by the reference pitch information supply step a second determining step of determining a sound pitch to be sounded for each string, supplied by said rhythm pattern supplying step A designation step of designating the presence or absence of sound by the strings for each tone generation timing of the rhythm pattern, for strings have no sound is designated by the designating step, the accompaniment of the second decision step pronunciation pitch determined by An accompaniment sound information generating step for generating accompaniment sound information of the sound pitch determined by the second determination step for the string for which sound generation is specified by the specifying step while generating no sound information; and the accompaniment the accompaniment sound information generated by the sound information generation step, characterized in that to execute an automatic accompaniment data generation method in a computer and a registration step of registering as an automatic accompaniment data.

好ましくは、 前記自動伴奏データ生成方法は、前記自動伴奏データに含まれるある伴奏音情報の発音停止位置と該伴奏音情報の直後の伴奏音情報の発音開始位置との間に、所定時間以上の無発音区間が存在している場合に、前者の伴奏音情報に含まれる発音長を延長するか否かを設定する設定ステップと、該設定ステップによって延長が設定されたときには、前記発音長が延長されるように、当該伴奏音情報の発音停止位置を変更する変更ステップとをさらに有することを特徴とする。 Preferably, in the automatic accompaniment data generation method, a predetermined time or more is generated between a pronunciation stop position of certain accompaniment sound information included in the automatic accompaniment data and a pronunciation start position of accompaniment sound information immediately after the accompaniment sound information. when the no-sound interval is present, a setting step of setting whether to extend the pronunciation length included in the former accompaniment tone information, sometimes extended by said setting step is set, the sound length is And a change step for changing the sound generation stop position of the accompaniment sound information so as to be extended.

さらに好ましくは、前記音名情報は、コード情報であることを特徴とする。   More preferably, the pitch name information is chord information.

上記目的を達成するため、請求項4に記載の自動伴奏データ生成装置は、請求項1と同様の技術的思想によって実現できる。   In order to achieve the above object, the automatic accompaniment data generating device according to claim 4 can be realized by the same technical idea as in claim 1.

請求項1または4に記載の発明によれば、ボイシング展開用テーブルと供給された和音情報が示す和音とに応じて弦毎に決定されたフレット番号と、弦毎の基準音高情報と、リズムパターンの発音タイミング毎に発音するか否かを弦別に指定した内容とに基づいて伴奏音情報を生成し、該生成された伴奏音情報を自動伴奏データとして登録するようにしたので、弦楽器用の自動伴奏データを簡単に生成することができる。また、リズムパターンの発音タイミング毎に発音するか否かを弦別に指定した内容を変更することで、1つのリズムパターンから多様な自動伴奏データを生成することができる。 According to the first or fourth aspect of the invention, the fret number determined for each string in accordance with the voicing expansion table and the chord indicated by the supplied chord information, the reference pitch information for each string, and the rhythm Since accompaniment sound information is generated based on the content specified for each string whether or not the sound is generated at each pattern generation timing, and the generated accompaniment sound information is registered as automatic accompaniment data. Automatic accompaniment data can be easily generated. Also, by changing the content specified for each string whether or not the rhythm pattern is sounded at every sounding timing, various automatic accompaniment data can be generated from one rhythm pattern.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施の形態に係る自動伴奏データ生成装置の概略構成を示すブロック図である。   FIG. 1 is a block diagram showing a schematic configuration of an automatic accompaniment data generation device according to an embodiment of the present invention.

同図に示すように、本実施の形態の自動伴奏データ生成装置は、文字入力用キーボード、マウス等のポインティングデバイスおよび各種スイッチ等の複数の操作子からなる操作子群1と、該操作子群1の各操作子の操作状態を検出する検出回路2と、装置全体の制御を司るCPU3と、該CPU3が実行する制御プログラムや各種テーブルデータ等を記憶するROM4と、演奏曲データ、伴奏スタイルデータ、各種入力情報および演算結果等を一時的に記憶するRAM5と、前記制御プログラムを含む各種アプリケーションプログラム、各種演奏曲データ、各種伴奏スタイルデータ、各種データ等を記憶する外部記憶装置6と、各種情報等を表示する、たとえば液晶ディスプレイ(LCD)および発光ダイオード(LED)等を備えた表示装置7と、外部MIDI(Musical Instrument Digital Interface)機器等の外部制御機器100を接続し、この外部制御機器100とデータの送受信を行う通信インターフェース(I/F)8と、上記記憶された演奏曲データおよび伴奏スタイルデータ等に基づいて生成された楽音データを楽音信号に変換する音源回路9と、該音源回路9からの楽音信号に各種効果を付与するための効果回路10と、該効果回路10からの楽音信号を音響に変換する、たとえば、DAC(Digital-to-Analog Converter)やアンプ、スピーカ等のサウンドシステム11とにより構成されている。   As shown in the figure, the automatic accompaniment data generating device of the present embodiment includes a manipulator group 1 including a character input keyboard, a pointing device such as a mouse, and a plurality of manipulators such as various switches, and the manipulator group. 1, a detection circuit 2 for detecting the operation state of each operator, a CPU 3 for controlling the entire apparatus, a ROM 4 for storing a control program executed by the CPU 3, various table data, etc., performance music data, accompaniment style data , RAM 5 for temporarily storing various input information and calculation results, various application programs including the control program, various performance music data, various accompaniment style data, various data, and the like, and various information Such as a liquid crystal display (LCD) and a light emitting diode (LED). 7 and an external control device 100 such as an external MIDI (Musical Instrument Digital Interface) device, and a communication interface (I / F) 8 for transmitting / receiving data to / from the external control device 100, and the stored performance music data And a tone generator circuit 9 for converting musical tone data generated based on accompaniment style data or the like into a musical tone signal, an effect circuit 10 for imparting various effects to the musical tone signal from the tone generator circuit 9, and the effect circuit 10 For example, a sound system 11 such as a DAC (Digital-to-Analog Converter), an amplifier, and a speaker.

上記構成要素2〜10は、バス12を介して相互に接続され、通信I/F8には外部制御機器100が接続され、音源回路9には効果回路10が接続され、効果回路10にはサウンドシステム11が接続されている。   The above components 2 to 10 are connected to each other via the bus 12, the external control device 100 is connected to the communication I / F 8, the effect circuit 10 is connected to the sound source circuit 9, and the sound is supplied to the effect circuit 10. A system 11 is connected.

外部記憶装置6としては、たとえば、フレキシブルディスクドライブ(FDD)、ハードディスクドライブ(HDD)、CD−ROMドライブおよび光磁気ディスク(MO)ドライブ等を挙げることができる。そして、外部記憶装置6には、前述のように、CPU3が実行する制御プログラムも記憶でき、ROM4に制御プログラムが記憶されていない場合には、この外部記憶装置6に制御プログラムを記憶させておき、それをRAM5に読み込むことにより、ROM4に制御プログラムを記憶している場合と同様の動作をCPU3にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。   Examples of the external storage device 6 include a flexible disk drive (FDD), a hard disk drive (HDD), a CD-ROM drive, and a magneto-optical disk (MO) drive. As described above, the external storage device 6 can also store a control program to be executed by the CPU 3. If the control program is not stored in the ROM 4, the control program is stored in the external storage device 6. By reading it into the RAM 5, it is possible to cause the CPU 3 to perform the same operation as when the control program is stored in the ROM 4. In this way, control programs can be easily added and upgraded.

通信I/F8には、図示例では、外部制御機器100が接続されているが、これに限られず、たとえばLAN(Local Area Network)やインターネット、電話回線等の通信ネットワークを介して、サーバコンピュータが接続されるようにしてもよい。この場合、外部記憶装置6に上記各プログラムや各種パラメータが記憶されていなければ、通信I/F8は、サーバコンピュータからプログラムやパラメータをダウンロードするために用いられる。クライアントとなるコンピュータ(本実施の形態では、自動伴奏データ生成装置)は、通信I/F8および通信ネットワークを介してサーバコンピュータへとプログラムやパラメータのダウンロードを要求するコマンドを送信する。サーバコンピュータは、このコマンドを受け、要求されたプログラムやパラメータを、通信ネットワークを介してコンピュータへと配信し、コンピュータが通信I/F8を介して、これらプログラムやパラメータを受信して外部記憶装置6に蓄積することにより、ダウンロードが完了する。   In the illustrated example, the external control device 100 is connected to the communication I / F 8. However, the communication I / F 8 is not limited to this. For example, a server computer can be connected via a communication network such as a LAN (Local Area Network), the Internet, or a telephone line. You may make it connect. In this case, if the above programs and various parameters are not stored in the external storage device 6, the communication I / F 8 is used for downloading the programs and parameters from the server computer. A computer serving as a client (in this embodiment, an automatic accompaniment data generation device) transmits a command for requesting downloading of a program and parameters to the server computer via the communication I / F 8 and the communication network. The server computer receives this command and distributes the requested program or parameter to the computer via the communication network. The computer receives the program or parameter via the communication I / F 8 and receives the external storage device 6. Downloading is completed by accumulating in.

なお、本実施の形態の自動伴奏データ生成装置は、上述の構成から分かるように、汎用的なパーソナルコンピュータ上に構築されたものであるが、これに限らず、本発明を実施できる最小限要素のみから構成した専用装置上に構築してもよい。   Note that the automatic accompaniment data generation device of the present embodiment is constructed on a general-purpose personal computer as can be seen from the above configuration, but is not limited to this, and is the minimum element that can implement the present invention. It may be constructed on a dedicated device composed only of the above.

以上のように構成された自動伴奏データ生成装置が実行する制御処理を、図2〜図6を参照して詳細に説明する。   A control process executed by the automatic accompaniment data generating apparatus configured as described above will be described in detail with reference to FIGS.

図2は、本実施の形態の自動伴奏データ生成装置、特にCPU3が実行する自動伴奏データ生成処理の手順を示すフローチャートである。   FIG. 2 is a flowchart showing a procedure of an automatic accompaniment data generating process executed by the automatic accompaniment data generating apparatus of the present embodiment, particularly the CPU 3.

本自動伴奏データ生成処理では、ユーザが選択設定した、各弦の基準音高テーブルおよびコード情報列に基づいて、各弦の発音音高を決定し、該決定した各弦の発音音高とユーザが指定した各弦の発音の有無に基づいて、ユーザが選択設定したリズムパターンの発音タイミング毎に各弦の伴奏音情報を生成し、自動伴奏データとして登録する。ただし、ユーザが発音を無しに設定した弦については、発音音高が決定されたとしても、その伴奏音情報は生成しない。ここで、伴奏音情報は、発音音高、発音タイミングおよび発音長(発音開始から発音終了までの時間)からなる情報とし、自動伴奏データは、伴奏音情報を発音順に並べたものとする。また、本実施の形態の自動伴奏データ生成装置には、発音停止延長機能が備えられ、本自動伴奏データ生成処理には、この発音停止延長機能を実現するための処理も含まれている。   In this automatic accompaniment data generation process, the tone pitch of each string is determined based on the reference pitch table and chord information string of each string selected and set by the user, and the determined tone pitch of each string and the user are determined. The accompaniment sound information of each string is generated for each sound generation timing of the rhythm pattern selected and set by the user based on the presence / absence of sound generation of each string designated by the user and registered as automatic accompaniment data. However, the accompaniment sound information is not generated for the string set by the user without sounding even if the sounding pitch is determined. Here, it is assumed that the accompaniment sound information is information composed of the sound production pitch, the sound production timing, and the sound production length (time from the sound production start to the sound production end), and the automatic accompaniment data is obtained by arranging the accompaniment sound information in the order of pronunciation. Further, the automatic accompaniment data generation apparatus of the present embodiment is provided with a pronunciation stop extension function, and the automatic accompaniment data generation process includes a process for realizing this pronunciation stop extension function.

図2の自動伴奏データ生成処理が起動されると、まず、たとえば前記外部記憶装置6に記憶された複数のリズムパターンが前記表示装置7上に一覧表示される。ユーザがその中からいずれか1つを選択すると、選択されたリズムパターンが、前記RAM5に確保されたリズムパターン格納領域(図示せず)に格納されて設定される(ステップS1)。ここで、リズムパターンとは、所定長の音符列(各音符には、発音タイミングと音符長(発音長)の情報が与えられ、音高の情報は与えられていない)を言い、図4(a)の上段には、選択されたリズムパターンとして、8分音符8個からなる1小節長のリズムパターンが図示されている。なお、本実施の形態では、リズムパターンは、予め作成されて、外部記憶装置6に記憶されたものから選択するようにしているが、これに限らず、自動伴奏データを生成する際に、ユーザが作成または編集したものを用いてもよい。   When the automatic accompaniment data generation process of FIG. 2 is started, first, for example, a plurality of rhythm patterns stored in the external storage device 6 are displayed as a list on the display device 7. When the user selects one of them, the selected rhythm pattern is stored and set in a rhythm pattern storage area (not shown) secured in the RAM 5 (step S1). Here, the rhythm pattern means a note string of a predetermined length (each note is given information on the sounding timing and note length (sounding length), but not given pitch information). In the upper part of a), as the selected rhythm pattern, a one-measure length rhythm pattern consisting of eight eighth notes is shown. In the present embodiment, the rhythm pattern is selected from those created in advance and stored in the external storage device 6. However, the present invention is not limited to this, and when generating automatic accompaniment data, Those created or edited by may be used.

次に、ユーザが選択した各弦の基準音高テーブルを設定する(ステップS2)。図3(b)は、各弦の基準音高テーブル(開放弦テーブル)の一例を示す図であり、同図(b)には、調弦タイプが「ノーマルタイプ」である開放弦テーブルが図示されている。ギターの調弦タイプには、この他に「Open−D」や「Open−G」などがあるので、本実施の形態では、調弦タイプ毎に開放弦テーブルを作成して外部記憶装置6に記憶しておき、その中からユーザにいずれかを選択させるようにしている。なお、本実施の形態では、弦楽器としてギターを想定しているが、これは専ら説明の都合上に過ぎず、本発明は、ベースなどの他の弦楽器にも同様に適用することができる。本発明をギター以外の弦楽器、たとえばベースに適用した場合には、開放弦テーブルは、上記ギター用のテーブル(図3(b))をそのまま使用することができないので、ベース用のテーブルを作成しておく必要がある。   Next, a reference pitch table for each string selected by the user is set (step S2). FIG. 3B is a diagram showing an example of a reference pitch table (open string table) for each string, and FIG. 3B shows an open string table whose tuning type is “normal type”. Has been. Other guitar tuning types include “Open-D” and “Open-G”. In this embodiment, an open string table is created for each tuning type and stored in the external storage device 6. It is memorized and the user is allowed to select one of them. In this embodiment, a guitar is assumed as a stringed instrument. However, this is only for convenience of explanation, and the present invention can be similarly applied to other stringed instruments such as a bass. When the present invention is applied to a stringed instrument other than a guitar, for example, a bass, the open string table cannot use the above guitar table (FIG. 3B) as it is. It is necessary to keep.

図2に戻り、ユーザが選択した、発音停止延長機能の“ON”または“OFF”を設定する(ステップS3)。なお、発音停止延長機能の詳細については、後述する。   Returning to FIG. 2, “ON” or “OFF” of the sound generation stop extension function selected by the user is set (step S3). Details of the sound generation stop extension function will be described later.

次に、コード情報列を入力する(ステップS4)。ここで、コード情報列は、各伴奏音情報の発音音高を決定するための基礎になる情報であり、たとえば、コードネーム(和音名)とその発生(指定)タイミングとを1組とする複数組からなるシーケンスによって構成されている。本実施の形態では、説明の都合上、生成すべき自動伴奏曲1曲分に相当するコード情報列が、予め作成されて前記外部記憶装置6に記憶されている。したがって、上記ステップS4のコード情報列の入力とは、目的のコード情報列を外部記憶装置6から読み出して、前記RAM5に確保されたコード情報列格納領域(図示せず)に格納する処理に相当する。なお、本実施の形態では、コード情報列は、1つのみが外部記憶装置6に記憶されているとしているが、これに限らず、複数種類のコード情報列が記憶されていてもよい。ただし、この場合には、上記ステップS4の処理中に、複数種類のコード情報列からいずれかをユーザに選択させる処理が必要となる。   Next, a code information string is input (step S4). Here, the chord information string is information that is a basis for determining the pitch of each accompaniment sound information. For example, the chord information string includes a plurality of chord names (chord names) and their generation (designation) timing. It is composed of a sequence consisting of a set. In the present embodiment, for convenience of explanation, a chord information sequence corresponding to one automatic accompaniment to be generated is created in advance and stored in the external storage device 6. Therefore, the input of the code information sequence in step S4 corresponds to a process of reading the target code information sequence from the external storage device 6 and storing it in a code information sequence storage area (not shown) secured in the RAM 5. To do. In the present embodiment, only one code information string is stored in the external storage device 6. However, the present invention is not limited to this, and a plurality of types of code information strings may be stored. However, in this case, during the process of step S4, a process for allowing the user to select one of a plurality of types of code information strings is necessary.

次に、入力されたコード情報列内のコード情報を1つ対象にし、その対象コード情報の有効区間を算出する(ステップS5)。ここで、対象コード情報の有効区間は、対象コード情報の発生タイミングと、その次に位置するコード情報の発生タイミングとの差分を算出することによって簡単に求めることができる。なお、対象コード情報がコード情報列の最後に位置する場合には、次に位置するコード情報列は存在しないので、上記方法では、有効区間を算出することができないが、この場合には、対象コード情報列の発生タイミングから当該小節の最後までを有効区間とすればよい。   Next, one piece of code information in the input code information string is targeted, and an effective section of the target code information is calculated (step S5). Here, the valid section of the target code information can be easily obtained by calculating the difference between the generation timing of the target code information and the generation timing of the code information positioned next. Note that when the target code information is located at the end of the code information sequence, there is no code information sequence located next, so the above method cannot calculate an effective section. The valid section may be from the generation timing of the code information sequence to the end of the measure.

対象コード情報がある場合、すなわち、入力されたコード情報列内に、過去に対象になっていないコード情報が少なくとも1つあり、その未対象コード情報を対象にした場合には、その対象コード情報と各弦の基準音高テーブルに基づいて、各弦の発音音高を決定する(ステップS6→S7)。以下、各弦の発音音高の決定方法について説明する。   If there is target code information, that is, there is at least one code information that has not been targeted in the past in the input code information string, and the target code information is targeted, the target code information And the tone pitch of each string is determined based on the reference pitch table of each string (steps S6 → S7). Hereinafter, a method for determining the tone pitch of each string will be described.

図3(a)は、コードネームと、そのコードネームが与えられたときに各弦で発音される楽音の音高とを対応付けたボイシング展開用テーブルの一例を示す図である。本実施の形態では、このボイシング展開用テーブルを用いて、各弦の発音音高を決定するようにしている。同図(a)のボイシング展開用テーブルにおいて、各弦には、整数値が対応付けられている。この整数値のうち、“1”以上の値は、フレット番号を示し、“0”は、開放弦であることを示し、“−1”は、その弦を使用しない(その弦で発音しない)ことを示している。なお、コードネームは、図示されているもの以外にも数多く存在する。すなわち、同図(a)には、ボイシング展開用テーブルの一部のみが図示されている。   FIG. 3A is a diagram showing an example of a voicing expansion table in which a chord name is associated with a pitch of a musical tone that is generated by each string when the chord name is given. In the present embodiment, the tone pitch of each string is determined using this voicing expansion table. In the voicing expansion table in FIG. 4A, each string is associated with an integer value. Among these integer values, a value equal to or greater than “1” indicates a fret number, “0” indicates an open string, and “−1” does not use the string (does not sound with that string). It is shown that. There are many code names other than those shown in the figure. That is, only a part of the voicing expansion table is shown in FIG.

コード情報として、たとえば“C”が対象にされた場合、上記ボイシング展開用テーブルから、コードネームが“C”であるデータ、すなわち、第1弦:0;第2弦:1;第3弦:0;第4弦:2;第5弦:3;第6弦:−1を読み出す。このデータ中、“0”は、前述のように、開放弦であることを示しているので、“0”に対しては、前記図3(b)の開放弦テーブルから、対応する音高を読み出す。また、“−1”は、その弦を使用しないことを示し、“1”以上の値は、フレット番号を示している。したがって、対象コード情報が“C”であって、図3(a)のボイシング展開用テーブルおよび図3(b)の開放弦テーブルを使用した場合、各弦の発音音高は、第1弦:E4;第2弦:C4;第3弦:G3;第4弦:E3;第5弦:C3;第6弦:発音せずと決定される。   For example, when “C” is targeted as the chord information, data having a chord name “C” from the voicing expansion table, that is, the first string: 0; the second string: 1; the third string: 0; 4th string: 2; 5th string: 3; 6th string: -1 is read. In this data, “0” indicates that the string is an open string as described above. Therefore, for “0”, the corresponding pitch is obtained from the open string table of FIG. read out. “−1” indicates that the string is not used, and a value of “1” or more indicates a fret number. Therefore, when the target chord information is “C” and the voicing expansion table of FIG. 3A and the open string table of FIG. 3B are used, the tone pitch of each string is the first string: E4; second string: C4; third string: G3; fourth string: E3; fifth string: C3; sixth string: determined without sounding.

図2に戻り、リズムパターンの発音タイミング毎に各弦で発音するか否かを弦別に設定する画面を前記表示装置7上に表示し(ステップS8)、この設定画面を用いてユーザがリズムパターンの発音タイミング毎に各弦で発音するか否かを設定すると、その設定状態を前記RAM5の所定領域(図示せず)に保存する(ステップS9)。   Returning to FIG. 2, a screen for setting whether or not each string is sounded at each rhythm pattern sounding timing is displayed on the display device 7 (step S8), and the user uses this setting screen to display the rhythm pattern. Is set at each tone generation timing, the setting state is stored in a predetermined area (not shown) of the RAM 5 (step S9).

図4(a)は、ユーザがリズムパターンの発音タイミング毎に各弦で発音するか否かを設定した後の設定画面の一例を示す図である。図示例の設定画面は、前記ステップS1で選択設定されたリズムパターンと、6弦に対応する6本の線上で、発音タイミング毎に発音するか否かを弦別に設定可能なUI(ユーザインターフェース)とによって構成されている。このUI上、“●”がその弦の音を発音することを示し、“○”がその弦の音を発音しないことを示している。発音することが設定されている“●”を“○”に変更するには、カーソルCを“●”に合わせ、クリック操作を行う。逆に、発音しないことが設定されている“○”を“●”に変更するには、同様に、カーソルCを“○”に合わせ、クリック操作を行う。   FIG. 4A is a diagram showing an example of a setting screen after the user has set whether or not to sound each string at each rhythm pattern sounding timing. The setting screen of the illustrated example is a UI (user interface) that can set whether or not to sound at each sounding timing on the rhythm pattern selected and set in step S1 and 6 lines corresponding to 6 strings. And is composed of. On this UI, “●” indicates that the sound of the string is sounded, and “◯” indicates that the sound of the string is not sounded. To change “●” set to be pronounced to “◯”, the cursor C is moved to “●” and a click operation is performed. On the other hand, in order to change “◯” set to not sound to “●”, similarly, the cursor C is moved to “◯” and a click operation is performed.

そして、リズムパターンの発音タイミング毎に各弦の伴奏音情報を、前記ステップS7で決定された発音音高と前記ステップS9で指定された発音の有無情報に基づいて生成する(ステップS10)。図4(b)は、コード情報として“C”が選択され、リズムパターンおよび発音の有無情報として図4(a)に記載のものが設定された場合に生成された自動伴奏データを楽譜表示した図である。図4(a)の発音タイミングTでは、第2弦と第3弦の音だけ発音するように設定されているので、図4(b)の自動伴奏データでは、“C4”と“G3”のみが生成されている。   Then, accompaniment sound information for each string is generated for each rhythm pattern sounding timing based on the sounding pitch determined in step S7 and the sounding presence / absence information specified in step S9 (step S10). FIG. 4 (b) displays the musical accompaniment data generated when “C” is selected as the chord information and the rhythm pattern and the presence / absence information of the pronunciation are set as shown in FIG. 4 (a). FIG. Since the sound generation timing T in FIG. 4 (a) is set so that only the sounds of the second and third strings are sounded, only "C4" and "G3" are set in the automatic accompaniment data in FIG. 4 (b). Has been generated.

次に、発音停止延長機能について説明する。   Next, the pronunciation stop extension function will be described.

図5は、図4(b)の自動伴奏データに対して、発音停止延長がなされたときとなされないときとの発音長の違いを比較したものであり、図5(a)が、発音停止延長がなされないとき(発音停止延長機能が“OFF”に設定されたとき)を示し、図5(b)が、発音停止延長がなされたとき(発音停止延長機能が“ON”に設定されたとき)を示している。なお、図5(a),(b)中、網掛け領域が、発音中の区間を示している。   FIG. 5 compares the difference in pronunciation length between when the pronunciation stop is extended and when it is not extended with respect to the automatic accompaniment data of FIG. 4B. FIG. Fig. 5 (b) shows a case where no sound is extended (when the sound generation stop extension function is set to "OFF"). Fig. 5B shows a case where the sound generation stop extension is made (the sound generation stop extension function is set to "ON"). When). In FIGS. 5 (a) and 5 (b), the shaded area indicates a section during sound generation.

図5(a)と図5(b)を見比べれば分かるように、たとえば、図5(a)の第1弦の先頭から3番目の発音中の区間は、図5(b)では、次の発音開始タイミングの直前まで延長されている。すなわち、発音停止タイミングが延長されている。この発音停止延長機能は、次のようにして実現される。   As can be seen by comparing FIG. 5A and FIG. 5B, for example, the third sounding interval from the beginning of the first string in FIG. 5A is the next in FIG. 5B. It is extended until just before the start of the pronunciation. That is, the sound generation stop timing is extended. This sound generation stop extension function is realized as follows.

すなわち、発音停止延長機能が“ON”設定されている場合には、対象コード情報の有効区間に含まれるすべての伴奏音情報が生成された後、各伴奏音情報について、その伴奏音情報を発音する弦と同じ弦の、リズムパターン上、次に位置する発音タイミングの発音の有無をチェックし、発音がなければ、次に有りになる発音タイミングの直前まで、その伴奏音情報の発音停止タイミングを延長する(ステップS10の但し書き)。本実施の形態では、伴奏音情報は、前述のように、発音音高、発音タイミングおよび発音長からなるので、発音停止タイミングを延長することは、発音長を延長することに相当する。   That is, when the sound generation stop extension function is set to “ON”, after all the accompaniment sound information included in the valid section of the target chord information is generated, the accompaniment sound information is generated for each accompaniment sound information. Check the rhythm pattern of the same string as the one to be played, and check if there is a sound at the next sounding timing.If there is no sound, the sounding stop timing of the accompaniment sound information will be displayed until just before the next sounding timing. Extend (provided in step S10). In the present embodiment, as described above, the accompaniment sound information is composed of the sound production pitch, the sound production timing, and the sound production length. Therefore, extending the sound production stop timing is equivalent to extending the sound production length.

なお、本実施の形態では、発音停止延長機能は、“ON”または“OFF”のいずれかのみを選択でき、“ON”が選択された場合には、同じ弦上で隣接する伴奏音情報間に無音区間があれば、先の伴奏音情報の発音停止タイミングが後の伴奏音情報の発音開始タイミングの直前まで一律に延長されるが、これに限らず、延長する時間を段階的に選択できるようにしてもよい。たとえば、先の伴奏音情報の発音停止タイミングを、後の伴奏音情報の発音開始タイミングのk音符長前まで延長するというように、ユーザが“k”として、8,16,32などの整数値のいずれかを選択できるようにすればよい。もちろん、段階的に選択できる時間の単位は、音符長に限らず、“msec”や“%”など、どのようなものであってもよい。   In the present embodiment, the sounding stop extension function can select only “ON” or “OFF”, and when “ON” is selected, the accompaniment sound information adjacent to each other on the same string is selected. If there is a silent section, the sound generation stop timing of the previous accompaniment sound information is uniformly extended to just before the sound generation start timing of the subsequent accompaniment sound information, but this is not limiting, and the extension time can be selected in stages. You may do it. For example, the user sets “k” as an integer value such as 8, 16, 32 so that the sound generation stop timing of the previous accompaniment sound information is extended to the k note length before the sound generation start timing of the subsequent accompaniment sound information. Any one of the above may be selected. Of course, the unit of time that can be selected in stages is not limited to the note length, but may be any unit such as “msec” or “%”.

このようにして生成された伴奏音情報は、発音順に出力され、前記RAM5に確保された自動伴奏データ格納領域(図示せず)に格納される(ステップS11)。   The accompaniment sound information generated in this way is output in the order of pronunciation and stored in an automatic accompaniment data storage area (not shown) secured in the RAM 5 (step S11).

図6は、本実施の形態の自動伴奏データ生成装置によってアルペジオタイプの自動伴奏データを生成する方法を説明するための図であり、同図(a)は、ユーザがリズムパターンの発音タイミング毎に各弦で発音するか否かを設定した後の設定画面の一例を示し、同図(b)は、コード情報として小節毎に順に“C”,“G”,“F”が指定され、リズムパターンおよび発音の有無情報として同図(a)に記載のものが設定された場合に生成された自動伴奏データを楽譜表示したものである。すなわち、図6(a)に示すように、リズムパターン中の各発音タイミングについて、それぞれ1弦のみで発音するように設定することで、前記図4に示すコードストロークタイプの自動伴奏データだけでなく、アルペジオタイプの自動伴奏データも生成することができる。   FIG. 6 is a diagram for explaining a method for generating arpeggio type automatic accompaniment data by the automatic accompaniment data generation apparatus of the present embodiment. FIG. An example of the setting screen after setting whether or not each string is sounded is shown. FIG. 5B shows “C”, “G”, and “F” specified in order for each measure as chord information, and the rhythm. The automatic accompaniment data generated when the patterns and the presence / absence information of the pronunciation are set as shown in FIG. That is, as shown in FIG. 6 (a), not only the chord stroke type automatic accompaniment data shown in FIG. Arpeggio type accompaniment data can also be generated.

このように、本実施の形態の自動伴奏データ生成装置では、各弦の基準音高テーブル(開放弦テーブル)と、リズムパターンの発音タイミング毎に発音するか否かを弦別に設定可能なUIを用いて設定した内容とに基づいて自動伴奏データを生成するようにしたので、弦楽器用の自動伴奏データを簡単に生成することができる。また、リズムパターンの発音タイミング毎に発音するか否かを弦別に設定可能なUIに設定する内容を変更することで、1つのリズムパターンから多様な自動伴奏データを生成することができる。   As described above, in the automatic accompaniment data generation apparatus according to the present embodiment, a reference pitch table (open string table) for each string and a UI that can be set for each string to determine whether or not to generate sound for each rhythm pattern sounding timing. Since the automatic accompaniment data is generated based on the contents set by using the automatic setting, automatic accompaniment data for stringed instruments can be easily generated. Also, by changing the contents set in the UI that can be set for each string whether or not the rhythm pattern is sounded at every sounding timing, various automatic accompaniment data can be generated from one rhythm pattern.

なお、本実施の形態では、各伴奏音情報の発音音高は、入力されたコード情報列に基づいて決定するようにしたが、これに限らず、鍵盤やギターなどの楽器を演奏して入力した音高に基づいて決定するようにしてもよいし、曲データを再生して得られた音高やコード情報に基づいて決定するようにしてもよい。また、リアルタイムで1つずつコード情報や音高を入力し、その都度、伴奏音情報の発音音高を決定するようにしてもよい。   In this embodiment, the tone pitch of each accompaniment sound information is determined based on the input chord information sequence, but is not limited to this, and is input by playing an instrument such as a keyboard or guitar. The pitch may be determined based on the pitch or the chord information obtained by reproducing the song data. Alternatively, chord information and pitch may be input one by one in real time, and the pronunciation pitch of accompaniment sound information may be determined each time.

また、本実施の形態では、各弦の発音音高は、コード情報、開放弦テーブルおよびボイシング展開用テーブルを用いて決定するようにしたが、これに限らず、ボイシング展開用テーブルを用いないで、開放弦テーブルの各音高から半音ずつ上げて行き、対象コード情報のコード構成音になる音高を算出することによって決定するようにしてもよい。さらに、ボイシング展開用テーブルを用いる場合、そのテーブルデータをユーザ設定可能に構成してもよい。   In this embodiment, the tone pitch of each string is determined using the chord information, the open string table, and the voicing expansion table. However, the present invention is not limited to this, and the voicing expansion table is not used. Alternatively, the pitch may be determined by raising the pitch of each open string table by a semitone and calculating the pitch that will be the chord constituent sound of the target chord information. Furthermore, when a voicing expansion table is used, the table data may be configured to be user-configurable.

また、発音タイミング毎に発音するか否かを弦別に設定可能なUIは、本実施の形態では、前記図4(a)に示すものを使用したが、これは例示に過ぎず、発音タイミング毎に発音するか否かを弦別に設定可能なものであれば、これに限らない。   Further, in the present embodiment, the UI shown in FIG. 4A is used as the UI capable of setting whether or not to sound at each sounding timing. However, this is only an example, and this is just an example. As long as it can be set for each string whether or not it is pronounced, it is not limited to this.

なお、上述した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPU3やMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。   A program in which a storage medium storing software program codes for realizing the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU 3 or MPU) of the system or apparatus is stored in the storage medium. It goes without saying that the object of the present invention can also be achieved by reading and executing the code.

この場合、記憶媒体から読出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium storing the program code constitutes the present invention.

プログラムコードを供給するための記憶媒体としては、たとえば、フレキシブルディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。また、通信ネットワークを介してサーバコンピュータからプログラムコードが供給されるようにしてもよい。   As a storage medium for supplying the program code, for example, a flexible disk, hard disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, magnetic A tape, a non-volatile memory card, a ROM, or the like can be used. Further, the program code may be supplied from a server computer via a communication network.

また、コンピュータが読出したプログラムコードを実行することにより、上述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read out by the computer, not only the functions of the above-described embodiments are realized, but also the OS running on the computer based on the instruction of the program code performs the actual processing. It goes without saying that a case where the functions of the above-described embodiment are realized by performing part or all of the above and the processing thereof is included.

さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU3などが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the case where the CPU 3 or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明の一実施の形態に係る自動伴奏データ生成装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the automatic accompaniment data generation apparatus which concerns on one embodiment of this invention. 図1の自動伴奏データ生成装置、特にCPUが実行する自動伴奏データ生成処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the automatic accompaniment data production | generation process which the automatic accompaniment data production | generation apparatus of FIG. 1, especially CPU performs. ボイシング展開用テーブルおよび各弦の基準音高テーブル(開放弦テーブル)の一例を示す図である。It is a figure which shows an example of the voicing expansion | deployment table and the reference pitch table (open string table) of each string. ユーザがリズムパターンの発音タイミング毎に各弦で発音するか否かを設定した後の設定画面の一例と、コード情報として“C”が選択され、該設定画面に設定された設定状態を用いて生成された自動伴奏データを楽譜表示したものとを示す図である。Using an example of a setting screen after the user sets whether or not each string is sounded at each rhythm pattern sounding timing, and “C” is selected as chord information, and the setting state set on the setting screen is used. It is a figure which shows what produced | generated the accompaniment data displayed as a score. 図4の自動伴奏データに対して、発音停止延長がなされたときとなされないときとの発音長の違いを比較した図である。FIG. 5 is a diagram comparing the difference in pronunciation length between when the sound generation stop is extended and when the automatic accompaniment data of FIG. 4 is not extended. 図1の自動伴奏データ生成装置によってアルペジオタイプの自動伴奏データを生成する方法を説明するための図である。It is a figure for demonstrating the method to produce | generate the arpeggio type automatic accompaniment data by the automatic accompaniment data production | generation apparatus of FIG.

符号の説明Explanation of symbols

3…CPU(リズムパターン供給手段、和音情報供給手段、第1の決定手段、第2の決定手段、指定手段、伴奏音情報生成手段、登録手段),5…RAM(リズムパターン供給手段、和音情報供給手段、記憶手段、登録手段),6…外部記憶装置(リズムパターン供給手段、和音情報供給手段、記憶手段3 ... CPU (rhythm pattern supply means, chord information supply means, first determination means, second determination means, designation means, accompaniment sound information generation means, registration means), 5 ... RAM (rhythm pattern supply means, chord information) Supply means, storage means, registration means), 6 ... external storage device (rhythm pattern supply means, chord information supply means , storage means )

Claims (4)

リズムパターンを供給するリズムパターン供給ステップと、
和音を示す和音情報を供給する和音情報供給ステップと、
和音毎に、いずれのフレットを使用するかをフレット番号によって弦毎に規定したボイシング展開用テーブルと、前記和音情報供給ステップによって供給された和音情報が示す和音とに応じて、弦毎にフレット番号を決定する第1の決定ステップと、
弦毎の基準音高情報を供給する基準音高情報供給ステップと、
前記第1の決定ステップによって決定されたフレット番号および前記基準音高情報供給ステップによって供給された基準音高情報に基づいて、弦毎に発音すべき発音音高を決定する第2の決定ステップと、
前記リズムパターン供給ステップによって供給されたリズムパターンの発音タイミング毎に弦別に発音の有無を指定する指定ステップと、
該指定ステップによって発音無しが指定された弦については、前記第2の決定ステップによって決定された発音音高の伴奏音情報を生成しない一方、該指定ステップによって発音有りが指定された弦については、前記第2の決定ステップによって決定された発音音高の伴奏音情報を生成する伴奏音情報生成ステップと、
該伴奏音情報生成ステップによって生成された伴奏音情報を、自動伴奏データとして登録する登録ステップと
を有する自動伴奏データ生成方法をコンピュータに実行させるためのプログラム。
A rhythm pattern supply step for supplying a rhythm pattern;
A chord information supply step for supplying chord information indicating a chord;
For each chord, the fret number for each string is determined according to the voicing expansion table that defines which fret to use for each string by the fret number and the chord indicated by the chord information supplied by the chord information supplying step. A first determining step for determining
A reference pitch information supply step for supplying reference pitch information for each string ;
Based on said first fret number and reference pitch information supplied by the reference pitch information supplying step determined by the determining step, a second determining step of determining a sound pitch to be sounded for each chord ,
A designation step for designating the presence or absence of sound generation for each string for each sound generation timing of the rhythm pattern supplied by the rhythm pattern supply step;
For the strings for which no sound is specified by the specifying step, the accompaniment sound information of the sound pitch determined by the second determining step is not generated, while for the strings for which the sound is specified by the specifying step, An accompaniment sound information generation step for generating accompaniment sound information of the pronunciation pitch determined in the second determination step;
A program for causing a computer to execute an automatic accompaniment data generation method including a registration step of registering accompaniment sound information generated by the accompaniment sound information generation step as automatic accompaniment data.
前記自動伴奏データ生成方法は、
前記自動伴奏データに含まれるある伴奏音情報の発音停止位置と該伴奏音情報の直後の伴奏音情報の発音開始位置との間に、所定時間以上の無発音区間が存在している場合に、前者の伴奏音情報に含まれる発音長を延長するか否かを設定する設定ステップと、
該設定ステップによって延長が設定されたときには、前記発音長が延長されるように、当該伴奏音情報の発音停止位置を変更する変更ステップと
をさらに有することを特徴とする請求項1に記載のプログラム。
The automatic accompaniment data generation method includes:
When there is a non-sounding section of a predetermined time or more between the pronunciation stop position of certain accompaniment sound information included in the automatic accompaniment data and the pronunciation start position of accompaniment sound information immediately after the accompaniment sound information, A setting step for setting whether to extend the pronunciation length included in the former accompaniment sound information ;
Sometimes extended by the setting step is set, so that the sound length is extended, according to claim 1, further comprising a changing step of changing the sound stop position of the accompaniment tone information program.
前記音名情報は、コード情報であることを特徴とする請求項1または2に記載のプログラム。   The program according to claim 1 or 2, wherein the pitch name information is chord information. リズムパターンを供給するリズムパターン供給手段と、
和音を示す和音情報を供給する和音情報供給手段と、
和音毎に、いずれのフレットを使用するかをフレット番号によって弦毎に規定したボイシング展開用テーブルを記憶した記憶手段と、
前記ボイシング展開用テーブルと、前記和音情報供給手段によって供給された和音情報が示す和音とに応じて、弦毎にフレット番号を決定する第1の決定手段と、
弦毎の基準音高情報を供給する基準音高情報供給手段と、
前記第1の決定手段によって決定されたフレット番号および前記基準音高情報供給手段によって供給された基準音高情報に基づいて、弦毎に発音すべき発音音高を決定する第2の決定手段と、
前記リズムパターン供給手段によって供給されたリズムパターンの発音タイミング毎に弦別に発音の有無を指定する指定手段と、
該指定手段によって発音無しが指定された弦については、前記第2の決定手段によって決定された発音音高の伴奏音情報を生成しない一方、該指定手段によって発音有りが指定された弦については、前記第2の決定手段によって決定された発音音高の伴奏音情報を生成する伴奏音情報生成手段と、
該伴奏音情報生成手段によって生成された伴奏音情報を、自動伴奏データとして登録する登録手段と
を有することを特徴とする自動伴奏データ生成装置。
A rhythm pattern supply means for supplying a rhythm pattern;
Chord information supply means for supplying chord information indicating a chord;
Storage means for storing a voicing expansion table that defines which fret to use for each chord for each string by fret number;
First determining means for determining a fret number for each string according to the voicing expansion table and the chord indicated by the chord information supplied by the chord information supplying means;
Reference pitch information supply means for supplying reference pitch information for each string ;
Based on the first reference pitch information supplied by the fret number and the reference pitch information supply means which is determined by the determining means, second determining means for determining a pronunciation pitch to be sounded for each chord ,
Designating means for designating the presence or absence of sound generation for each string for each sound generation timing of the rhythm pattern supplied by the rhythm pattern supply means;
For the strings for which no sound is specified by the specifying means, the accompaniment sound information of the sound pitch determined by the second determining means is not generated, while for the strings for which the sound is specified by the specifying means, Accompaniment sound information generation means for generating accompaniment sound information of the pronunciation pitch determined by the second determination means;
An automatic accompaniment data generating apparatus comprising: registering means for registering accompaniment sound information generated by the accompaniment sound information generating means as automatic accompaniment data.
JP2004153738A 2004-05-24 2004-05-24 Program for realizing automatic accompaniment data generation method and automatic accompaniment data generation apparatus Expired - Fee Related JP4148184B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004153738A JP4148184B2 (en) 2004-05-24 2004-05-24 Program for realizing automatic accompaniment data generation method and automatic accompaniment data generation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004153738A JP4148184B2 (en) 2004-05-24 2004-05-24 Program for realizing automatic accompaniment data generation method and automatic accompaniment data generation apparatus

Publications (3)

Publication Number Publication Date
JP2005338186A JP2005338186A (en) 2005-12-08
JP2005338186A5 JP2005338186A5 (en) 2008-06-19
JP4148184B2 true JP4148184B2 (en) 2008-09-10

Family

ID=35491870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004153738A Expired - Fee Related JP4148184B2 (en) 2004-05-24 2004-05-24 Program for realizing automatic accompaniment data generation method and automatic accompaniment data generation apparatus

Country Status (1)

Country Link
JP (1) JP4148184B2 (en)

Also Published As

Publication number Publication date
JP2005338186A (en) 2005-12-08

Similar Documents

Publication Publication Date Title
US7572968B2 (en) Electronic musical instrument
JP3684892B2 (en) Chord presentation device and storage medium
US8324493B2 (en) Electronic musical instrument and recording medium
US20050016366A1 (en) Apparatus and computer program for providing arpeggio patterns
WO2019022118A1 (en) Information processing method
JP3637775B2 (en) Melody generator and recording medium
JP3900188B2 (en) Performance data creation device
JP5228315B2 (en) Program for realizing automatic accompaniment generation apparatus and automatic accompaniment generation method
JP2011118218A (en) Automatic arrangement system and automatic arrangement method
JP2012098480A (en) Chord detection device and program
US11955104B2 (en) Accompaniment sound generating device, electronic musical instrument, accompaniment sound generating method and non-transitory computer readable medium storing accompaniment sound generating program
JP4501417B2 (en) Music score display apparatus and program for realizing music score display method
JP4148184B2 (en) Program for realizing automatic accompaniment data generation method and automatic accompaniment data generation apparatus
JP3835456B2 (en) Automatic composer and storage medium
JP4613817B2 (en) Fingering display device and program
JP3358568B2 (en) Performance assisting device and recording medium therefor
JP4062314B2 (en) Automatic performance device and program
JP4221757B2 (en) Music score display apparatus and program for realizing music score display method
JP4853054B2 (en) Performance data editing apparatus and program
JP3900187B2 (en) Performance data creation device
JP3674469B2 (en) Performance guide method and apparatus and recording medium
JP4760348B2 (en) Music selection apparatus and computer program for music selection
JP4129794B2 (en) Program for realizing automatic accompaniment generation apparatus and automatic accompaniment generation method
JP3885791B2 (en) Program for realizing automatic accompaniment apparatus and automatic accompaniment method
JP4873307B2 (en) Program for realizing automatic accompaniment generation apparatus and automatic accompaniment generation method

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060425

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080603

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080616

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120704

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130704

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees