JP2009216772A - Automatic music playing device and program - Google Patents

Automatic music playing device and program Download PDF

Info

Publication number
JP2009216772A
JP2009216772A JP2008057666A JP2008057666A JP2009216772A JP 2009216772 A JP2009216772 A JP 2009216772A JP 2008057666 A JP2008057666 A JP 2008057666A JP 2008057666 A JP2008057666 A JP 2008057666A JP 2009216772 A JP2009216772 A JP 2009216772A
Authority
JP
Japan
Prior art keywords
information
pitch
note
pattern data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008057666A
Other languages
Japanese (ja)
Other versions
JP5104414B2 (en
Inventor
Tokuji Hayakawa
徳次 早川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2008057666A priority Critical patent/JP5104414B2/en
Publication of JP2009216772A publication Critical patent/JP2009216772A/en
Application granted granted Critical
Publication of JP5104414B2 publication Critical patent/JP5104414B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an automatic music playing device can carry out a plurality of different types (conversion modes) of note conversions in one channel. <P>SOLUTION: The automatic music playing device stores a plurality of music playing pattern data, corresponding to the plurality of channels, and stores information as to the note conversion in each hannel in each of a plurality of pitch ranges, corresponding to each of the plurality of channels. The pitch range with pitch information belonging thereto is determined in any of the plurality of pitch ranges when reading out the pitch information sequentially from the music playing pattern data, and the information as to the note conversion in the one channel is predetermined based on the determined pitch range. A note conversion means executes the processing of note-converting the pitch information read out sequentially from the music playing pattern data, based on information as to the predetermined note conversion. The plurality of different types of note conversions is carried out in the one channel, when executing the note conversion based on a chord, by this manner. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は、自動伴奏機能を有するシーケンサ等の自動演奏装置及びプログラムに関する。特に、自動伴奏実行の際に、伴奏コード(和音)に基づいて自動演奏音のノート変換を行うことができる自動演奏装置及びプログラムに関する。   The present invention relates to an automatic performance apparatus such as a sequencer having an automatic accompaniment function and a program. In particular, the present invention relates to an automatic performance apparatus and program capable of performing note conversion of automatic performance sounds based on accompaniment chords (chords) when executing automatic accompaniment.

従来の自動演奏装置の中には、リズムパート、ベースパート及びコードパート等の一部の演奏パートについては、シーケンシャルな演奏データとは別途記憶された伴奏パターンデータ(自動伴奏データ)に基づいて自動伴奏を行うものが知られている。リズムパート以外のベースパート及びコードパートの伴奏パターンデータには、所定のノート変換ルールやノート変換テーブル等のノート変換方法を決めるパラメータとして、例えばCTAB(Channel Table)などと呼ばれる「コード変換情報」が複数のチャンネル毎にそれぞれ対応付けられている。自動演奏装置では、曲の進行に従って別途記憶されている和音進行データによりあるいはユーザにより適宜に指定される伴奏コード(和音)に基づき、それに適した音高(音名)の音に変換するノート変換処理を、前記コード変換情報に従うノート変換方法に従って行うようにしている。こうした自動演奏に関連する技術としては、例えば下記に示す特許文献1に記載されている発明がその一例である。
特開平8-248954号公報
In some conventional automatic performance devices, some performance parts such as rhythm parts, bass parts, and chord parts are automatically based on accompaniment pattern data (automatic accompaniment data) stored separately from sequential performance data. What performs accompaniment is known. In the accompaniment pattern data of the base part and chord part other than the rhythm part, “chord conversion information” called CTAB (Channel Table), for example, is used as a parameter for determining a note conversion method such as a predetermined note conversion rule or note conversion table. Each channel is associated with each other. In an automatic performance device, note conversion is performed to convert the sound into a tone (pitch name) suitable for it based on accompaniment chords (chords) appropriately specified by the chord progression data stored separately according to the progress of the song or by the user. The processing is performed according to a note conversion method according to the chord conversion information. An example of a technique related to such automatic performance is the invention described in Patent Document 1 shown below, for example.
JP-A-8-248954

また、下記に示す特許文献2に記載されている発明に開示されているように、最近では通常の楽器音色だけでなく効果音をも含む特殊な音色、例えばギターにおけるスライドノイズやボディタップ等の奏法に依存した特徴的な効果音(奏法依存音色などと呼ばれる)が通常使用音域外のノートナンバに割り当てられている特殊な音色(これを、通常の楽器音色のみからなる「ギター音色」と区別するために「Mega Guitar(メガギター)音色」と呼ぶ)が開発されており、通常の楽器音色だけでなく効果音(奏法依存音色)をも組み合わせることによって、より自然楽器に近いリアルな自動演奏を再現することができるようにしている。
特開2003-263159号公報
Also, as disclosed in the invention described in Patent Document 2 shown below, recently, special tones including not only normal instrument sounds but also sound effects, such as slide noise and body taps in guitars, etc. A distinctive sound that depends on the playing style (referred to as a playing style-dependent tone) is assigned to a special tone that is assigned to a note number outside the normal operating range (this is distinguished from a “guitar tone” that consists only of normal instrument sounds) "Mega Guitar (Mega Guitar) timbre") has been developed, and by combining not only normal instrument sounds but also sound effects (playing method-dependent timbres), a realistic automatic performance closer to natural instruments can be achieved. It can be reproduced.
Japanese Patent Laid-Open No. 2003-263159

ところで、上記した特殊な音色(Mega Guitar音色)を利用して自動演奏を行う場合、通常の楽器音色についてはノート変換処理を行う設定とする一方で、効果音(奏法依存音色)についてはノート変換処理を行わない設定とする必要がある。これは、効果音については通常の楽器音色と異なり、コード(和音)に基づくノート変換処理が行われてしまうと、効果音が発生されないあるいはユーザが意図していない効果音が生じてしまう恐れがあるからである。そこで、特殊な音色(Mega Guitar音色)を使用する場合、従来技術においては楽器音色用の伴奏パターンデータと効果音(奏法依存音色)用の伴奏パターンデータとを別々に生成し、それぞれにコード変換情報を対応付けておかなければならなかった。すなわち、従来技術では、楽音生成のために演奏情報を送受する1つのチャンネルに対して1つのコード変換情報しか対応付けることができなかったために、楽器音色用の伴奏パターンデータと効果音用の伴奏パターンデータとを別々のチャンネルで処理できるように別データとして用意しておき、それぞれに異なるコード変換情報を対応付けるしかなく、こうしたデータ作成はユーザにとって非常に面倒であった。また、一般的にチャンネルは有限(例えば、MIDIの場合には16チャンネルなど)であって、さらに1チャンネルには同時に1つの伴奏パターンデータしか割り当てできないことに鑑みると、1つの音色(Mega Guitar音色)であるにも関わらず複数のチャンネルを占有する必要があることは、チャンネル不足を引き起こす恐れがあるので都合が悪い、という問題点もあった。   By the way, when performing an automatic performance using the special tone (Mega Guitar tone) described above, note conversion processing is performed for sound effects (performance style-dependent tone) while normal instrument sounds are set to perform note conversion processing. It is necessary to set so that no processing is performed. For sound effects, unlike normal instrument sounds, if note conversion processing based on chords (chords) is performed, sound effects may not be generated or sound effects that are not intended by the user may be generated. Because there is. Therefore, when using special timbres (Mega Guitar timbres), in the conventional technology, accompaniment pattern data for musical instrument timbres and accompaniment pattern data for sound effects (playing method-dependent timbres) are generated separately and converted into chords respectively. Information had to be associated. That is, in the prior art, since only one chord conversion information can be associated with one channel for transmitting and receiving performance information for generating musical sounds, accompaniment pattern data for instrument sounds and accompaniment patterns for sound effects are used. The preparation of such data is very troublesome for the user because the data must be prepared as separate data so that it can be processed by different channels, and different code conversion information is associated with each data. In addition, in general, there are limited channels (for example, 16 channels in the case of MIDI), and only one accompaniment pattern data can be assigned to one channel at a time. However, the necessity of occupying a plurality of channels in spite of this may cause a shortage of channels, which is inconvenient.

本発明は上述の点に鑑みてなされたもので、コード(和音)に基づいて自動演奏音のノート変換を行う際に、1つのチャンネルにおいて複数の異なるタイプ(変換態様)のノート変換を行うことができる自動演奏装置及びプログラムを提供することを目的とする。   The present invention has been made in view of the above points. When performing note conversion of an automatic performance sound based on a chord (chord), a plurality of different types (conversion modes) of note conversion are performed in one channel. An object of the present invention is to provide an automatic performance apparatus and program capable of performing the above.

本発明に係る自動演奏装置は、取得した和音情報に応じて、演奏パターンデータの音高情報をノート変換して自動演奏を行う自動演奏装置であって、複数のチャンネルに対応して複数の演奏パターンデータを記憶し、かつ、前記複数のチャンネル夫々に対応して該チャンネル毎のノート変換に関する情報を複数の音高範囲毎にそれぞれ記憶する記憶手段と、所定の演奏パターンデータから順次に読み出される音高情報が属する音高範囲を前記複数の音高範囲のいずれかに決定する決定手段と、前記決定した音高範囲に基づき、前記所定の演奏パターンデータに対応付けられたチャンネルにおけるノート変換に関する情報を特定する特定手段と、前記所定の演奏パターンデータから順次に読み出された音高情報をノート変換する処理を、前記特定した複数のノート変換に関する情報のいずれかに基づいて行うノート変換手段とを具える。   The automatic performance device according to the present invention is an automatic performance device that performs automatic performance by converting notes of pitch information of performance pattern data according to acquired chord information, and performs a plurality of performances corresponding to a plurality of channels. Storage means for storing pattern data and storing information relating to note conversion for each channel corresponding to each of the plurality of channels for each of a plurality of pitch ranges, and sequentially reading from predetermined performance pattern data Determination means for determining a pitch range to which pitch information belongs to one of the plurality of pitch ranges, and note conversion in a channel associated with the predetermined performance pattern data based on the determined pitch range Specific processing for specifying information; and note conversion processing for pitch information sequentially read from the predetermined performance pattern data. It comprises a note conversion means for performing, based on any information related to a plurality of note conversion was.

この発明によると、複数のチャンネルに対応して複数の演奏パターンデータを記憶し、かつ、前記複数のチャンネル夫々に対応して該チャンネル毎のノート変換に関する情報を複数の音高範囲毎にそれぞれ記憶する。所定の演奏パターンデータから順次に音高情報が読み出されると、該読み出された音高情報が属する音高範囲を前記複数の音高範囲のいずれかに決定し、該決定した音高範囲に基づき、前記演奏パターンデータを処理する該当の1チャンネルにおけるノート変換に関する情報を特定する。ノート変換手段は、前記所定の演奏パターンデータから順次に読み出された音高情報をノート変換する処理を、前記特定したノート変換に関する情報に基づいて行う。こうすることにより、入力された和音(コード)に基づいて自動演奏音のノート変換を行う際に、1つのチャンネルにおいて複数の異なるタイプ(変換態様)のノート変換を行うことができるようになる。   According to the present invention, a plurality of performance pattern data is stored corresponding to a plurality of channels, and information relating to note conversion for each channel is stored for each of a plurality of pitch ranges corresponding to each of the plurality of channels. To do. When pitch information is sequentially read from predetermined performance pattern data, the pitch range to which the read pitch information belongs is determined as one of the plurality of pitch ranges, and the determined pitch range is included in the determined pitch range. On the basis of this, information relating to note conversion in the corresponding one channel for processing the performance pattern data is specified. The note conversion means performs a note conversion process on the pitch information sequentially read from the predetermined performance pattern data based on the specified note conversion information. By doing so, when performing note conversion of the automatic performance sound based on the input chord (chord), a plurality of different types (conversion modes) of note conversion can be performed in one channel.

本発明は、装置の発明として構成し、実施することができるのみならず、方法の発明として構成し実施することができる。また、本発明は、コンピュータまたはDSP等のプロセッサのプログラムの形態で実施することができるし、そのようなプログラムを記憶した記憶媒体の形態で実施することもできる。   The present invention can be constructed and implemented not only as a device invention but also as a method invention. Further, the present invention can be implemented in the form of a program of a processor such as a computer or a DSP, or can be implemented in the form of a storage medium storing such a program.

この発明によれば、複数のチャンネル夫々に対応して該チャンネル毎のノート変換に関する情報を複数の音高範囲毎にそれぞれ記憶しておき、演奏パターンデータの音高情報が属する音高範囲を前記複数の音高範囲のいずれかに決定し、該決定した音高範囲に対応付けられたノート変換に関する情報に従ってノート変換処理を行うようにしたことから、取得した和音に基づいて自動演奏音のノート変換を行う際に、1つのチャンネルにおいて複数の異なるタイプ(変換態様)のノート変換を行うことができるようになる、という効果を得る。   According to the present invention, information relating to note conversion for each channel is stored for each of a plurality of pitch ranges corresponding to each of the plurality of channels, and the pitch range to which the pitch information of the performance pattern data belongs is described above. Since the note conversion process is performed according to the information related to the note conversion associated with the determined pitch range, the note is not automatically recorded based on the acquired chord. When performing the conversion, an effect is obtained that a plurality of different types (conversion modes) of note conversion can be performed in one channel.

以下、この発明の実施の形態を添付図面に従って詳細に説明する。   Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

図1は、この発明に係る自動演奏装置を適用した電子楽器の全体構成の一実施例を示したハード構成ブロック図である。本実施例に示す電子楽器は、マイクロプロセッサユニット(CPU)1、リードオンリメモリ(ROM)2、ランダムアクセスメモリ(RAM)3からなるマイクロコンピュータによって制御される。なお、この実施例に示す電子楽器は、自動演奏用のチャンネルとして例えば16チャンネル分の同時発音が可能である。すなわち、16種類の演奏データを同時再生することが可能となっている。   FIG. 1 is a hardware configuration block diagram showing an embodiment of the overall configuration of an electronic musical instrument to which an automatic performance apparatus according to the present invention is applied. The electronic musical instrument shown in this embodiment is controlled by a microcomputer including a microprocessor unit (CPU) 1, a read only memory (ROM) 2, and a random access memory (RAM) 3. It should be noted that the electronic musical instrument shown in this embodiment can simultaneously generate sound for, for example, 16 channels as channels for automatic performance. That is, 16 types of performance data can be reproduced simultaneously.

CPU1は、この電子楽器全体の動作を制御するものである。このCPU1に対して、通信バス1D(例えばデータ及びアドレスバス)を介してROM2、RAM3、検出回路4,5、表示回路6、音源回路7、効果回路8、外部記憶装置9、MIDIインタフェース(I/F)10、通信インタフェース(I/F)11がそれぞれ接続されている。ROM2は、CPU1により実行あるいは参照される各種制御プログラムや各種データ等を格納する。例えば、ナンバ「01」〜「99」までが付された99個の自動伴奏用のスタイルデータ(後述する図2参照)、複数の「ノート変換テーブル(NTT:Note Transposition Table)」(後述する図3参照)や図示を省略した複数の「ノート変換ルール(NTR:Note Transposition Rule)」、さらにはその他の楽音に関する各種のパラメータやデータなどを記憶する。RAM3は、CPU1が所定のプログラムを実行する際に発生する各種データなどを一時的に記憶するワーキングメモリとして、あるいは現在実行中のプログラムやそれに関連するデータを一時的に記憶するメモリ等として使用される。RAM3の所定のアドレス領域がそれぞれの機能に割り当てられ、レジスタやフラグ、テーブル、メモリなどとして利用される。   The CPU 1 controls the operation of the entire electronic musical instrument. For this CPU 1, a ROM 2, RAM 3, detection circuits 4 and 5, display circuit 6, sound source circuit 7, effect circuit 8, external storage device 9, external storage device 9, MIDI interface (I) via a communication bus 1D (for example, a data and address bus). / F) 10 and a communication interface (I / F) 11 are connected to each other. The ROM 2 stores various control programs executed by or referred to by the CPU 1, various data, and the like. For example, 99 style accompaniment style data with numbers “01” to “99” (see FIG. 2 described later), a plurality of “Note Transposition Tables (NTT)” 3), a plurality of “Note Transposition Rules (NTR)” (not shown), and various parameters and data relating to other musical sounds. The RAM 3 is used as a working memory for temporarily storing various data generated when the CPU 1 executes a predetermined program, or as a memory for temporarily storing a currently executing program and related data. The A predetermined address area of the RAM 3 is assigned to each function and used as a register, flag, table, memory, or the like.

勿論、スタイルデータ以外の各種の自動演奏のデータ(例えば、ソングデータ、あるいはメロディシーケンスやコード(和音)シーケンスなど)が、ROM2及び/又はRAM3に記憶されるようになっていてよい。これらについては特に詳しく説明しないが、どのような種類の自動演奏においても、以下で説明する実施の形態に準じて、及び必要に応じて適宜変形した形態で、本発明を適用することができる。なお、和音演奏は、自動伴奏演奏と同時に、演奏操作子4Aをリアルタイムに押鍵操作して演奏入力するか、あるいは所望の和音シーケンス演奏を図示しないコード(和音)シーケンサに記憶しておき、これを再生読出しすることによって適宜行われるようにしてもよい。   Of course, various automatic performance data other than the style data (for example, song data, melody sequence, chord sequence, etc.) may be stored in the ROM 2 and / or the RAM 3. Although these will not be described in detail, the present invention can be applied to any type of automatic performance according to the embodiment described below and in a form appropriately modified as necessary. In the chord performance, simultaneously with the automatic accompaniment performance, the performance operator 4A is pressed in real time to input the performance, or the desired chord sequence performance is stored in a chord sequencer (not shown). May be performed as appropriate by reproducing and reading.

演奏操作子4Aは、楽音の音高を選択するための複数の鍵を備えた例えば鍵盤等のようなものであり、各鍵に対応してキースイッチを有しており、この演奏操作子4A(鍵盤等)は、ユーザの手弾きによるマニュアル演奏や自動伴奏演奏のためのコード指定(入力)に使用できるのは勿論のこと、自動伴奏用のスタイルデータや自動伴奏対象のセクション(例えばイントロ、メイン、フィルイン、エンディング)等を選択する手段、あるいは音色や効果等を設定する手段などとして使用することもできる。パネル操作子5Aは、自動伴奏用のスタイルデータを選択するスタイル選択スイッチ、自動伴奏対象のセクションを指定するセクション選択ボタン、さらには自動演奏の開始・停止を指示する「自動演奏開始/停止」スイッチ等の各種の操作子である。勿論、パネル操作子5Aは上記した以外にも、音高、音色、効果等を選択・設定・制御するための数値データ入力用のテンキーや文字データ入力用のキーボードなどの各種操作子を含んでいてもよい。検出回路5は、上記パネル操作子5Aの操作状態を検出し、その操作状態に応じたスイッチ情報等をデータ及びアドレスバス1Dを介してCPU1に出力する。   The performance operator 4A is, for example, a keyboard or the like having a plurality of keys for selecting the pitch of a musical tone, and has a key switch corresponding to each key. (Keyboard, etc.) can be used for manual performance by the user's hand-playing and chord designation (input) for automatic accompaniment performance, as well as automatic accompaniment style data and automatic accompaniment target sections (for example, intro, Main, fill-in, ending) or the like, or a means for setting a tone color or an effect can be used. The panel operator 5A includes a style selection switch for selecting style data for automatic accompaniment, a section selection button for designating a section to be automatically accompaniment, and an “automatic performance start / stop” switch for instructing start / stop of automatic performance. And the like. Of course, in addition to the above, the panel operator 5A includes various operators such as a numeric data input numeric keypad and a character data input keyboard for selecting, setting and controlling the pitch, timbre, effect, and the like. May be. The detection circuit 5 detects the operation state of the panel operation element 5A, and outputs switch information or the like corresponding to the operation state to the CPU 1 via the data and address bus 1D.

表示回路6は、例えば液晶表示パネル(LCD)やCRT等から構成されるディスプレイ6Aに、上記パネル操作子5Aの操作に応じた各種画面を表示するのは勿論のこと、ROM2やRAM3さらには外部記憶装置9に記憶されている各種データあるいはCPU1の制御状態などを表示する。ユーザはディスプレイ6Aに表示されるこれらの各種情報を参照することで、スタイルデータの選択や各種演奏パラメータの設定などを容易に行うことができる。   The display circuit 6 displays various screens according to the operation of the panel operation element 5A on the display 6A composed of, for example, a liquid crystal display panel (LCD), a CRT, or the like. Various data stored in the storage device 9 or the control state of the CPU 1 is displayed. By referring to these various types of information displayed on the display 6A, the user can easily select style data and set various performance parameters.

音源回路7は複数のチャンネル(この実施例では16チャンネル)で楽音信号の同時発生が可能であり、データ及びアドレスバス1Dを経由して与えられた、ユーザによる演奏操作子4Aの操作に応じて発生される演奏データ、あるいはスタイルデータに基づく演奏データを入力し、これらの演奏データに基づいて楽音信号を発生する。そして、16個の自動演奏用のチャンネル(例えばMIDIチャンネル)に対応し、同時に16種類の音色(パート)にて楽音の発生が可能である。音源回路7から発生された楽音信号は、効果回路8を介して効果付与されてアンプやスピーカなどを含むサウンドシステム8Aから発音される。この音源回路7と効果回路8とサウンドシステム8Aの構成には、従来のいかなる構成を用いてもよい。例えば、音源回路7はFM、PCM、物理モデル、フォルマント合成等の各種楽音合成方式のいずれを採用してもよく、また専用のハードウェアで構成してもよいし、CPU1によるソフトウェア処理で構成してもよい。   The tone generator circuit 7 can simultaneously generate musical tone signals on a plurality of channels (16 channels in this embodiment), and according to the operation of the performance operator 4A given by the user via the data and address bus 1D. The generated performance data or performance data based on the style data is input, and a musical sound signal is generated based on the performance data. And, it corresponds to 16 channels for automatic performance (for example, MIDI channel), and at the same time, it is possible to generate musical sounds with 16 kinds of timbres (parts). The musical sound signal generated from the sound source circuit 7 is given an effect through the effect circuit 8 and is generated from the sound system 8A including an amplifier, a speaker and the like. Any conventional configuration may be used for the sound source circuit 7, the effect circuit 8, and the sound system 8A. For example, the tone generator circuit 7 may employ any of various tone synthesis methods such as FM, PCM, physical model, formant synthesis, etc., or may be configured with dedicated hardware, or configured with software processing by the CPU 1. May be.

外部記憶装置9は、例えば自動伴奏用のスタイルデータ(図2参照)あるいは「ノート変換テーブル(NTT)」(図3参照)などの各種データや、CPU1が実行する各種制御プログラム等を記憶する。なお、上述したROM2に制御プログラムが記憶されていない場合、この外部記憶装置9(例えばハードディスク)に制御プログラムを記憶させておき、それをRAM3に読み込むことにより、ROM2に制御プログラムを記憶している場合と同様の動作をCPU1にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。なお、外部記憶装置9はハードディスク(HD)に限られず、フレキシブルディスク(FD)、コンパクトディスク(CD‐ROM・CD‐RAM)、光磁気ディスク(MO)、あるいはDVD(Digital Versatile Disk)等の様々な形態の記憶媒体を利用する記憶装置であればどのようなものであってもよい。あるいは、フラッシュメモリなどの半導体メモリであってもよい。   The external storage device 9 stores various data such as automatic accompaniment style data (see FIG. 2) or “note conversion table (NTT)” (see FIG. 3), various control programs executed by the CPU 1, and the like. When no control program is stored in the ROM 2, the control program is stored in the ROM 2 by storing the control program in the external storage device 9 (for example, a hard disk) and reading it into the RAM 3. The CPU 1 can be operated in the same manner as in the case. In this way, control programs can be easily added and upgraded. The external storage device 9 is not limited to a hard disk (HD), but may be a flexible disk (FD), a compact disk (CD-ROM / CD-RAM), a magneto-optical disk (MO), or a DVD (Digital Versatile Disk). Any storage device that uses a storage medium of any form may be used. Alternatively, a semiconductor memory such as a flash memory may be used.

MIDIインタフェース(I/F)10は、外部接続された他のMIDI機器10A等からMIDI形式の演奏データ(MIDIデータ)を当該電子楽器へ入力したり、あるいは当該電子楽器からMIDIデータを他のMIDI機器10A等へ出力するためのインタフェースである。他のMIDI機器10Aは、ユーザによる操作に応じてMIDIデータを発生する機器であればよく、鍵盤型、ギター型、管楽器型、打楽器型、身振り型等どのようなタイプの操作子を具えた(若しくは、操作形態からなる)機器であってもよい。   The MIDI interface (I / F) 10 inputs performance data (MIDI data) in MIDI format from another externally connected MIDI device 10A or the like to the electronic musical instrument, or transmits MIDI data from the electronic musical instrument to other MIDI instruments. This is an interface for outputting to the device 10A or the like. The other MIDI device 10A may be any device that generates MIDI data in response to a user's operation, and includes any type of operator such as a keyboard type, a guitar type, a wind instrument type, a percussion instrument type, and a gesture type ( Alternatively, it may be a device).

通信インタフェース(I/F)11は、例えばLANやインターネット、電話回線等の有線あるいは無線の通信ネットワークXに接続されており、該通信ネットワークXを介してサーバコンピュータ11Aと接続され、当該サーバコンピュータ11Aから制御プログラムあるいは各種データなどを電子楽器側に取り込むためのインタフェースである。すなわち、ROM2や外部記憶装置9(例えば、ハードディスク)等に制御プログラムや各種データが記憶されていない場合には、サーバコンピュータ11Aから制御プログラムや各種データをダウンロードするために用いられる。こうした通信インタフェース11は、有線あるいは無線のものいずれかでなく双方を具えていてよい。   The communication interface (I / F) 11 is connected to a wired or wireless communication network X such as a LAN, the Internet, or a telephone line, and is connected to the server computer 11A via the communication network X, and the server computer 11A. This is an interface for taking control programs or various data from the electronic musical instrument side. That is, when the control program and various data are not stored in the ROM 2 or the external storage device 9 (for example, hard disk), it is used for downloading the control program and various data from the server computer 11A. Such a communication interface 11 may be both wired and wireless and may include both.

なお、本実施例に係る自動演奏装置を電子楽器に適用した場合、演奏操作子4Aは鍵盤楽器の形態に限らず、弦楽器や管楽器等どのようなタイプの形態でもよい。また、演奏操作子4Aやディスプレイ6Aあるいは音源回路7などを1つの装置本体に内蔵したものに限らず、それぞれが別々に構成され、通信インタフェースや各種ネットワーク等の通信手段を用いて各装置を接続するように構成されたものにも同様に適用できることはいうまでもない。
なお、本発明に係る自動演奏装置は上記したような電子楽器の形態に限らず、カラオケ装置やゲーム装置、あるいは携帯電話等の携帯型通信端末、自動演奏ピアノなど、どのような形態の電子楽器・機器に適用してもよい。また、パーソナルコンピュータとアプリケーションソフトウェアという構成であってもよい。
When the automatic performance apparatus according to the present embodiment is applied to an electronic musical instrument, the performance operator 4A is not limited to a keyboard musical instrument, and may be any type such as a stringed musical instrument or a wind instrument. In addition, the performance operator 4A, the display 6A, the tone generator circuit 7 and the like are not limited to those built in one apparatus body, but each is configured separately, and each apparatus is connected using communication means such as a communication interface or various networks. Needless to say, the present invention can be similarly applied to the structure configured as described above.
The automatic musical instrument according to the present invention is not limited to the electronic musical instrument as described above, but can be any electronic musical instrument such as a karaoke device, a game device, a portable communication terminal such as a cellular phone, and an automatic musical piano. -You may apply to equipment. Moreover, the structure of a personal computer and application software may be sufficient.

次に、上記した電子楽器において採用するスタイルデータについて、図2を用いて説明する。図2は、スタイルデータのデータ構成の一実施例を示す概念図である。図2(a)に示すように、スタイルデータ(ファイル)は、演奏スタイル(例えば、ポップス、ロック、ジャズ、ワルツなどのリズム種類に対応した伴奏スタイル)毎に設けられている。   Next, style data employed in the electronic musical instrument described above will be described with reference to FIG. FIG. 2 is a conceptual diagram showing an embodiment of the data structure of style data. As shown in FIG. 2A, style data (file) is provided for each performance style (for example, accompaniment styles corresponding to rhythm types such as pops, rock, jazz, and waltz).

図2(b)に示すように、1つのスタイルデータはヘッダチャンク、トラックチャンク及びCTAB群から構成される。ヘッダチャンクには、例えばデータ形式やスタイルデータ内のトラック数や時間情報の時間分解能などが記憶される。トラックチャンクは図2(c)に示すように、初期設定データである「Initial Setupのイベント群」と、各セクション(イントロ、メイン、フィルイン、エンディング)の伴奏パターンデータである「Source patternのイベント群とそのタイミング情報」とで構成されている。初期設定データは、各チャンネルの音色、演奏パート名、初期テンポなどのデータで構成される。イントロパターンデータは、イントロ演奏(イントロセクション)の伴奏パターンである。メインパターンデータは繰り返し演奏されるメインセクションの伴奏パターンであり、例えば1フレーズ分の演奏区間の短いデータである。図示を省略したが、フィルインパターンデータはフィルイン演奏(フィルインセクション)の伴奏パターンであり、またエンディングパターンデータはエンディング演奏(エンディングセクション)の伴奏パターンである。勿論、これら以外の伴奏セクションがあってもよいことは言うまでもない。また、これらの初期設定データとセクション毎の伴奏パターンデータのそれぞれには、メモリにおける各データの区切りを示すマーカデータを含む「マーカ」が付されている。この「マーカ」には、該「マーカ」に続いて記憶されている各データが初期設定データであるか、あるいはイントロ、メイン、フィルイン、エンディングなどのどのセクションであるかを示す種類情報などが含まれている。   As shown in FIG. 2B, one style data is composed of a header chunk, a track chunk, and a CTAB group. The header chunk stores, for example, the data format, the number of tracks in the style data, the time resolution of time information, and the like. As shown in FIG. 2C, the track chunk includes “Initial Setup event group” that is initial setting data and “Source pattern event group” that is accompaniment pattern data of each section (intro, main, fill-in, and ending). And timing information thereof. The initial setting data includes data such as the tone color of each channel, performance part name, and initial tempo. The intro pattern data is an accompaniment pattern of an intro performance (intro section). The main pattern data is an accompaniment pattern of a main section that is repeatedly played, for example, data having a short performance section for one phrase. Although not shown, the fill-in pattern data is an accompaniment pattern for a fill-in performance (fill-in section), and the ending pattern data is an accompaniment pattern for an ending performance (ending section). Of course, it goes without saying that there may be other accompaniment sections. Each of the initial setting data and the accompaniment pattern data for each section is provided with a “marker” including marker data indicating a delimiter of each data in the memory. This “marker” includes type information indicating whether each data stored subsequent to the “marker” is initial setting data or which section is intro, main, fill-in, ending, etc. It is.

各セクションのパターンデータは、図2(d)に示すように、イベントデータ(Source patternのイベント群)とデルタタイムデータ(タイミング情報)とが演奏順に並べられたシーケンスデータである。イベントデータはその内容によって複数種類に分けられるが、ここでは主に、ノートオン、ノートオフ、プログラムチェンジ、ボリューム、エフェクトなどの自動演奏を指示するデータである。例えばノートイベントは、ノートオン/オフと「1」〜「16」のチャンネル番号、ノートナンバ及びベロシティなどで構成される。他のイベントデータの場合も、そのイベントを示すデータやチャンネル番号などで構成される。デルタタイムデータは、イベントとイベントとの間の時間を示すデータである。   As shown in FIG. 2D, the pattern data of each section is sequence data in which event data (source pattern event group) and delta time data (timing information) are arranged in the order of performance. Event data can be divided into a plurality of types depending on the content, but here, it is mainly data for instructing automatic performance such as note-on, note-off, program change, volume, and effect. For example, the note event includes note on / off, channel numbers “1” to “16”, note number, velocity, and the like. Other event data is also composed of data indicating the event, channel number, and the like. The delta time data is data indicating the time between events.

CTAB群は、図2(e)に示すように、各セクション(イントロ、メイン、フィルイン、エンディング)毎に、「1」〜「16」のチャンネルに対応するだけの複数のCTAB(Channel Table)から構成される。「1」〜「16」のチャンネルに対応する各CTABに設定される情報はノート変換に関する情報であって、図2(f)に示すように、チャンネルナンバ(Channel#)、ソースコードルート(Source Chord Root)、ソースコードタイプ(Source Chord Type)、NTRスプリットポイントの下限(LS:Lower Split point)及び上限(US:Upper Split point)、NTR情報及びNTT情報、ノートリミットの下限(Low Limit)及び上限(High Limit)、パート情報、その他の情報等である。これらの情報の具体的な設定例については後述する(後述する図5又は図8参照)。   As shown in Fig. 2 (e), the CTAB group consists of multiple CTABs (Channel Tables) corresponding to the channels "1" to "16" for each section (intro, main, fill-in, ending). Composed. The information set in each CTAB corresponding to the channels “1” to “16” is information relating to note conversion. As shown in FIG. 2 (f), the channel number (Channel #), the source code route (Source Chord Root), source code type (Source Chord Type), NTR split point lower limit (LS: Lower Split point) and upper limit (US: Upper Split point), NTR information and NTT information, note limit lower limit (Low Limit) and The upper limit (High Limit), part information, and other information. A specific setting example of these pieces of information will be described later (see FIG. 5 or FIG. 8 described later).

チャンネルナンバはMIDIチャンネルに対応する「1」〜「16」のいずれかのナンバであり、1つのセクション内の複数のCTABにおいて、各チャンネルナンバは全て異なる固定ナンバで定義される。ソースコードルートは、そのチャンネルのシーケンスデータ(伴奏パターンデータ)がどのコードルート(和音の根音)で作成されたかを示すものであって、デフォルト値は例えば「C」である。ソースコードタイプは、そのチャンネルのシーケンスデータ(伴奏パターンデータ)がどのコードタイプ(和音の種類)で作成されたかを示すものであって、デフォルト値は例えばメジャー7th(maj7)である。従来知られているように、これらのソースコードルート及びソースコードタイプに基づいて、シーケンスデータがどのようなコードルート、コードタイプで作成されている場合であっても、そのシーケンスデータをCメジャー7thの音(ノート変換を行うときの基準の音)に変換することができるようになっている。   The channel number is one of “1” to “16” corresponding to the MIDI channel, and each channel number is defined by a different fixed number in a plurality of CTABs in one section. The source chord root indicates which chord root (chord root) the sequence data (accompaniment pattern data) of the channel is created, and the default value is, for example, “C”. The source chord type indicates which chord type (chord type) the sequence data (accompaniment pattern data) of the channel is created, and the default value is, for example, major 7th (maj7). As is known in the art, based on these source code roots and source code types, the sequence data is generated in C major 7th, regardless of the code root and code type created by the sequence data. Sound (reference sound for note conversion) can be converted.

NTRスプリットポイントの下限及び上限(分割情報)は、複数の音高範囲(これをゾーンと呼ぶ)を定義するためのものであって、音高(音名)により定義されている。前記ゾーンの境目とする音高をNTRスプリットポイントと呼び、ここでは下限と上限の2つのNTRスプリットポイントを定義することによって、該電子楽器において発音可能な全ての音高範囲(例えば、C-2〜G8)を最大3つのゾーン(zone1〜zone3)に分けることができるようにしている。勿論、より多くのゾーンに分けるように、NTRスプリットポイント(分割情報)を定義することができるようになっていてもよい。詳しくは後述するが(後述する図7参照)、前記ゾーン(zone1〜zone3)は、自動演奏時においてノート変換によってノートナンバを変換する際に、変換前のノートナンバに応じて適用すべきノート変換方法を異ならせて適用するために、ノート変換前のノートナンバ(具体的にはノートナンバに応じた音高)を所定の複数の音高範囲のいずれかに分類するために用いられるものである。   The lower limit and upper limit (division information) of the NTR split point are for defining a plurality of pitch ranges (called zones), and are defined by pitches (pitch names). The pitch at the boundary of the zone is called an NTR split point, and here, by defining two lower and upper NTR split points, all pitch ranges that can be produced by the electronic musical instrument (for example, C-2 ~ G8) can be divided into up to three zones (zone1 ~ zone3). Of course, NTR split points (dividing information) may be defined so as to be divided into more zones. Although details will be described later (see FIG. 7 described later), the zone (zone1 to zone3) is a note conversion to be applied according to the note number before conversion when converting the note number by note conversion during automatic performance. In order to apply different methods, it is used to classify note numbers before note conversion (specifically, pitches corresponding to note numbers) into any of a plurality of predetermined pitch ranges. .

NTR情報は、複数の公知のノート変換ルール(例えば、「Root Transposition Rule」,「Root Fixed Rule」,「その他のRule」など)の中から、どのルールを用いてノート変換を行うのかを指定する情報である。NTT情報は、複数のノート変換テーブルの中から、どのテーブルを用いてノート変換を行うのかを指定する情報である。このNTR情報及びNTT情報に従って指定されるノート変換ルールとノート変換テーブルとの組み合わせに応じて、複数の異なるタイプのノート変換方法の中から1つのノート変換方法(変換態様)が決まる。ノートリミットの下限及び上限はノート変換によってノートナンバを変換した場合に、変換後のノートナンバの範囲がある音域内に収まるように、その音域の下限(Low Limit)及び上限(High Limit)を規定するものである。ここに示す実施例においては、各チャンネルのCTABに、NTR情報及びNTT情報(さらにはノートリミットの下限及び上限)が複数のゾーン(zone)毎に含まれている。つまり、1つのチャンネルに対して、異なる設定でのノート変換を行い得る複数の「コード変換情報」が対応付けられている。   The NTR information specifies which rule is used for note conversion from a plurality of known note conversion rules (for example, “Root Transposition Rule”, “Root Fixed Rule”, “Other Rule”, etc.). Information. NTT information is information that specifies which table is used for note conversion from among a plurality of note conversion tables. One note conversion method (conversion mode) is determined from a plurality of different types of note conversion methods according to the combination of the note conversion rule and the note conversion table specified according to the NTR information and the NTT information. The lower limit and upper limit of the note limit are specified so that when the note number is converted by note conversion, the range of the converted note number falls within a certain range. To do. In the embodiment shown here, CTR of each channel includes NTR information and NTT information (and lower and upper limits of note limits) for each of a plurality of zones. That is, a plurality of “code conversion information” capable of performing note conversion with different settings is associated with one channel.

ここで、上記NTT情報に従って指定されるノート変換テーブルの一実施例を図3に示す。図3(a)に示すように、NTT(ノート変換テーブル)は「ベース(Bass)」、「コード(Chord)」、「メロディ(Melody)」の3種類のいずれかに分類されている。こうしたNTTの種類は、上記したゾーン(zone)の数に対応するだけのものが用意されているとよいが、これに限られるものではない。ここでは上記3つのゾーン(zone1〜zone3)に対応する3種類のNTTが予め用意されている例を示している。上記3種類の各NTTはそれぞれ、図3(b)に示すような属性が「コード音」のノート変換テーブル、図3(c)に示すような属性が「スケール音」のノート変換テーブル、図3(d)に示すような属性が「ノンスケール音」のノート変換テーブルを含む。公知のように、各NTTには属性に応じたインデックスが付されており、テーブル内容としては、和音の種類毎に応じてノートナンバのシフトデータ(0,-1,-2,…)を記憶している。   Here, FIG. 3 shows an example of the note conversion table specified in accordance with the NTT information. As shown in FIG. 3A, NTT (note conversion table) is classified into one of three types: “bass”, “chord”, and “melody”. As for the kind of NTT, it is desirable to prepare only the number corresponding to the number of zones described above, but it is not limited to this. Here, an example is shown in which three types of NTT corresponding to the above three zones (zone 1 to zone 3) are prepared in advance. Each of the above three types of NTT has a note conversion table whose attribute is “chord sound” as shown in FIG. 3B, a note conversion table whose attribute is “scale sound” as shown in FIG. The attribute conversion table shown in FIG. 3D includes a “non-scale sound” note conversion table. As is well known, each NTT has an index according to the attribute, and the table contents store shift data (0, -1, -2, ...) of note numbers according to the type of chord. is doing.

また、伴奏パターンデータのノートナンバを、和音に対応させて上記属性のいずれかに分類するための分類テーブル(Applicable Scale Table)が従来知られている。公知であるが、この分類テーブルの一例を図4に示す。この分類テーブルも「ベース(Bass)」、「コード(Chord)」、「メロディ(Melody)」の3種類のいずれかに分類されていて、それぞれ各和音の種類(Maj,Maj6,Maj7,…)に対して各音名(C,C♯,D,D♯,…)が「コード音(c)」、「スケール音(s)」及び「ノンスケール音(n)」の何れかの属性を有するかを分類したものである。自動伴奏時には、伴奏パターンデータから読み出したノートナンバにより分類テーブルを参照して、このノートナンバを和音の種類に応じてコード音、スケール音及び非スケール音の何れかに分類する。そして、この分類に対応するそれぞれのノート変換テーブルを参照してノート変換が行われる。   Further, a classification table (Applicable Scale Table) for classifying the note numbers of accompaniment pattern data into any of the above attributes corresponding to chords is conventionally known. Although well known, an example of this classification table is shown in FIG. This classification table is also categorized into one of three types: “Bass”, “Chord”, “Melody”, and each chord type (Maj, Maj6, Maj7, etc.) Each note name (C, C #, D, D #, ...) has one of the attributes "chord sound (c)", "scale sound (s)", and "non-scale sound (n)" It is classified whether it has. At the time of automatic accompaniment, the note number is classified by the note number read from the accompaniment pattern data into one of chord sound, scale sound and non-scale sound according to the type of chord. And note conversion is performed with reference to each note conversion table corresponding to this classification.

図2の説明に戻って、パート情報はどの演奏パートに関するデータであるかを示すパートナンバ等であり、スタイルのアウトプットパートに対応する。例えば、パートナンバが「1,2」である場合にはリズムパート1,2に、「3」である場合にはベースパートに、「4,5」である場合にはコードパート1,2に、「6,7」である場合にはフレーズメロディパート1,2に対応する。勿論、演奏パート(アウトプットパート)はこれに限らない。その他の情報としては、例えば現在押鍵中のコードルート及びコードタイプが特定の種類である場合に、そのチャンネルの発音を行うように設定するための所謂「チャンネルスイッチ」(例えば、「0」である場合に当該チャンネルの発音を行わないものと機器設定する)等がある。   Returning to the description of FIG. 2, the part information is a part number indicating which performance part the data relates to, and corresponds to the output part of the style. For example, if the part number is “1, 2”, it will be in the rhythm parts 1 and 2, if it is “3”, it will be in the bass part, and if it is “4, 5”, it will be in the chord parts 1 and 2. , "6, 7" corresponds to phrase melody parts 1 and 2. Of course, the performance part (output part) is not limited to this. Other information includes, for example, a so-called “channel switch” (for example, “0”) for setting the sound generation of the channel when the currently pressed chord root and chord type are of a specific type. In some cases, the device is set not to sound the channel).

ここで、各チャンネルのCTABに設定されるノート変換に関する情報について、具体的な設定例を図5に示す。図5は、CTABに設定されるデータ内容の具体例を説明するための概念図である。この実施例では特殊な音色「Mega Guitar音色」を用いる場合に、図5(b)に示すようにして2分割した各音高範囲において、「C-2」〜「B5」までの低音側のゾーン(zone2)を通常の楽器音色でコードパートの楽音を発生する範囲、「C6」〜「G8」までの高音側のゾーン(zone3)を効果音(奏法依存音色)を発生する範囲としたい場合の設定例について説明する。なお、便宜的に、チャンネルナンバはMIDIチャンネル「1」、ソースコードルートはデフォルト値「C」、ソースコードタイプはデフォルト値メジャー7th(maj7)とした。   Here, a specific setting example is shown in FIG. 5 for information relating to note conversion set in the CTAB of each channel. FIG. 5 is a conceptual diagram for explaining a specific example of data contents set in CTAB. In this embodiment, when a special tone “Mega Guitar tone” is used, in the pitch ranges divided into two as shown in FIG. 5 (b), the bass side from “C-2” to “B5” When you want to set the zone (zone2) as the range for generating the chord part's musical tone with normal instrument sounds, and the zone (zone3) as the high-frequency zone (zone3) from "C6" to "G8" An example of setting will be described. For convenience, the channel number is MIDI channel “1”, the source code root is the default value “C”, and the source code type is the default value major 7th (maj7).

図5(b)に示すようにして、音高範囲を「zone2」と「zone3」とに2分割する場合、NTRスプリットポイントの下限に「C-2」、NTRスプリットポイントの上限に「C6」をそれぞれ設定する。この場合、NTRスプリットポイントの下限に当該電子楽器で発音可能な音高範囲のうち最低音である「C-2」を設定することで、音高範囲を2分割している。ここではzone1を使用しないものとして、zone1に関してNTR情報,NTT情報、ノートリミットの下限(Llim)及び上限(Hlim)についてそれぞれ「ignored(無視)」と設定する。範囲「zone2」に関しては、通常の楽器音色でコードパートの楽音を発生する範囲としたいことから、ノート変換を行う設定とする。すなわち、NTR情報に「Root Transposition Rule」を、NTT情報に「Chord」を設定する。なお、ここではノートリミットの下限及び上限に「C-2」,「C6」(つまりzone2全体)を設定してある。他方、範囲「zone3」に関しては、効果音(奏法依存音色)を発生する範囲としたいことから、ノート変換をしない設定とする。すなわち、NTR情報に「Root Fixed Rule」を、NTT情報に「Bypass(NTTを参照しない)」を設定する。   As shown in Fig. 5 (b), when dividing the pitch range into “zone2” and “zone3”, the lower limit of the NTR split point is “C-2”, and the upper limit of the NTR split point is “C6”. Set each. In this case, the pitch range is divided into two by setting “C-2”, which is the lowest tone of the pitch range that can be produced by the electronic musical instrument, as the lower limit of the NTR split point. Here, assuming that zone 1 is not used, NTR information, NTT information, the lower limit (Llim) and the upper limit (Hlim) of the note limit are set to “ignored” for zone 1. The range “zone 2” is set to perform note conversion because it is a range in which a musical tone of a chord part is generated with a normal instrument tone. That is, “Root Transposition Rule” is set in the NTR information, and “Chord” is set in the NTT information. Here, “C-2” and “C6” (that is, the entire zone 2) are set as the lower and upper limits of the note limit. On the other hand, the range “zone3” is set not to perform note conversion because it is desired to be a range in which a sound effect (performance style-dependent timbre) is generated. That is, “Root Fixed Rule” is set in the NTR information, and “Bypass (Do not refer to NTT)” is set in the NTT information.

次に、本実施例に示す電子楽器において、伴奏パターンデータと入力されたコードとに応じて、音高を変換しながら自動伴奏を実行する処理について、図6及び図7を用いて説明する。図6は、「メイン処理」の一実施例を示すフローチャートである。当該処理はCPU1によって実行される処理であって、電子楽器本体の電源オンに応じて開始され、電子楽器本体の電源オフに応じて終了される。   Next, a process for performing automatic accompaniment while converting the pitch in accordance with the accompaniment pattern data and the input chord in the electronic musical instrument shown in the present embodiment will be described with reference to FIGS. FIG. 6 is a flowchart illustrating an example of “main processing”. This process is a process executed by the CPU 1 and starts when the electronic musical instrument main body is turned on, and ends when the electronic musical instrument main body is turned off.

ステップS1は、初期設定を実行する。初期設定としては、レジスタのクリアや電源オン時における現状の設定状態の初期設定などがある。具体的には、自動伴奏を行うことが可能な状態であるか否かを表す伴奏中フラグを「FALSE(偽:自動伴奏できない状態)」に設定する、あるいはデフォルトのデータとして予め指定されている伴奏パターンデータやセクションを利用できるように機器設定するなどである。ステップS2は、ユーザの手弾きによる演奏操作に応じて発生されたあるいは外部機器から取得した演奏情報(MIDIデータ)に応じて、楽音生成する。ステップS3は、ユーザによるスタイル選択スイッチ等の操作に応じて該当のスタイルデータ(ファイル)を読み込み、RAM3等に一時記憶し演奏に反映させるよう準備する。ステップS4は、伴奏中フラグが「TRUE(正:自動伴奏可能な状態)」であるか否かを判定する。   Step S1 executes initial setting. Initial settings include clearing registers and initial setting of the current setting state when the power is turned on. Specifically, the accompaniment flag indicating whether or not automatic accompaniment is possible is set to “FALSE (false: automatic accompaniment is not possible)” or designated as default data in advance. For example, device settings are made so that accompaniment pattern data and sections can be used. In step S2, a musical tone is generated according to performance information (MIDI data) generated in response to a performance operation by a user's hand-playing or acquired from an external device. In step S3, the corresponding style data (file) is read in response to the user's operation of the style selection switch, etc., and is prepared to be temporarily stored in the RAM 3 and reflected in the performance. In step S4, it is determined whether or not the accompaniment flag is “TRUE (correct: automatic accompaniment possible state)”.

伴奏中フラグが「TRUE」でないと判定された場合には(ステップS4のno)、自動伴奏開始操作(ユーザによる自動演奏開始/停止スイッチ等の操作)がなされたか否かを判定する(ステップS5)。自動伴奏開始操作がなされていないと判定した場合には(ステップS5のno)、自動伴奏を演奏に反映する必要がないので特に自動伴奏に関する処理(後述する割り込み処理)の実行を許可することなしに、ステップS2の処理に戻る。一方、自動伴奏開始操作がなされたと判定した場合には(ステップS5のyes)、演奏対象のセクションを「イントロA」に初期設定すると共に(ステップS6)、前記ユーザが指定したスタイルデータにおける該セクション「IntroA」の先頭位置に演奏位置を初期セットする(ステップS7)。ステップS8は、前記ユーザが指定したスタイルデータにおけるトラックチャンク内の「Initial Setup」に従う設定を行う。ステップS9は、伴奏中フラグを「TRUE」にセットする。ステップS10は、自動伴奏を実現する「割り込み処理」による該「メイン処理」へのタイマ割り込み実行を許可する。これらステップS6〜ステップS10までの一連の処理は、自動伴奏処理を行うための準備処理である。   If it is determined that the accompaniment flag is not “TRUE” (no in step S4), it is determined whether or not an automatic accompaniment start operation (operation of an automatic performance start / stop switch or the like by the user) has been performed (step S5). ). If it is determined that the automatic accompaniment start operation has not been performed (no in step S5), it is not necessary to reflect the automatic accompaniment in the performance, so that execution of processing relating to automatic accompaniment (interrupt processing described later) is not particularly permitted. Then, the process returns to step S2. On the other hand, if it is determined that the automatic accompaniment start operation has been performed (yes in step S5), the performance target section is initialized to “Intro A” (step S6), and the section in the style data designated by the user is set. The performance position is initially set at the head position of “IntroA” (step S7). In step S8, setting is performed according to “Initial Setup” in the track chunk in the style data designated by the user. In step S9, the accompaniment flag is set to “TRUE”. In step S10, the timer interrupt execution to the “main process” by the “interrupt process” for realizing the automatic accompaniment is permitted. A series of processes from step S6 to step S10 is a preparation process for performing an automatic accompaniment process.

上記ステップS4において、伴奏中フラグが「TRUE」であると判定された場合には(ステップS4のno)、自動伴奏停止操作(ユーザによる自動演奏開始/停止スイッチ等の操作)がなされたか否かを判定する(ステップS11)。自動伴奏停止操作がなされたと判定した場合には(ステップS11のyes)、伴奏中フラグを「FALSE」にセットし(ステップS12)、「割り込み処理」による該「メイン処理」へのタイマ割り込み実行を禁止する(ステップS13)。一方、自動伴奏停止操作がなされていないと判定した場合には(ステップS11のno)、タイマ割り込みを許可した状態を維持したままで、ユーザによるスタイル選択に応じて指定されたスタイルデータをROM2等から読み出してバッファに保持する(ステップS14)。そして、ユーザによるセクション指定に応じて、さらに指定されたセクションの伴奏パターンデータのみを次の演奏対象としてバッファに保持する(ステップS15)。上記ステップS13又はステップS15の処理終了後は共に、ステップS2の処理に戻る。   If it is determined in step S4 that the accompaniment flag is "TRUE" (no in step S4), whether or not an automatic accompaniment stop operation (operation of an automatic performance start / stop switch or the like by the user) has been performed. Is determined (step S11). When it is determined that the automatic accompaniment stop operation has been performed (Yes in step S11), the accompaniment flag is set to “FALSE” (step S12), and the timer interrupt execution to the “main process” is performed by the “interrupt process”. It is prohibited (step S13). On the other hand, if it is determined that the automatic accompaniment stop operation has not been performed (no in step S11), the style data specified according to the style selection by the user is stored in the ROM 2 or the like while maintaining the timer interrupt enabled state. Is read out and held in the buffer (step S14). Then, in accordance with the section designation by the user, only the accompaniment pattern data of the designated section is held in the buffer as the next performance target (step S15). After the process of step S13 or step S15 is completed, the process returns to step S2.

次に、自動伴奏を実現する「割り込み処理」について、図7を用いて説明する。図7は、「割り込み処理」の一実施例を示すフローチャートである。当該処理は、「メイン処理」におけるタイマ割り込み許可(図6のステップS10)に応じて、前記「メイン処理」の実行中であっても優先的に処理される。   Next, “interrupt processing” for realizing automatic accompaniment will be described with reference to FIG. FIG. 7 is a flowchart showing an example of “interrupt processing”. The process is preferentially processed even during execution of the “main process” in accordance with the timer interrupt permission (step S10 in FIG. 6) in the “main process”.

ステップS21は、ユーザによるコード鍵域の演奏操作に応じて(あるいは別途記憶されている和音進行データ等に応じて)、出力する伴奏のコード(詳しくはコードタイプとルート(根音))を決定する。ステップS22は、指定されたデータのトラックチャンクを参照して、「Source patternのイベント群とそのタイミング情報」において、現在の演奏位置に対応するイベントがあるか否かを判定する。現在の演奏位置に対応するイベントがあると判定した場合には(ステップS22のyes)、セクション指定とノートイベント内に定義されているチャンネル番号とにより「CTAB」を特定する(ステップS23)。一方、現在の演奏位置に対応するイベントがないと判定した場合には(ステップS22のno)、自動伴奏の停止処理がなされたか否かを判定する(ステップS33)。自動伴奏の停止処理がなされたと判定した場合には(ステップS33のyes)、それ以上自動伴奏を続ける必要がないために、当該処理を終了する。自動伴奏の停止処理がなされていないと判定した場合には(ステップS33のno)、ステップS22の処理に戻って本処理を続ける。   In step S21, an accompaniment chord to be output (specifically, chord type and root (root tone)) is determined according to the performance operation of the chord key range by the user (or according to chord progression data stored separately). To do. The step S22 refers to the track chunk of the designated data, and determines whether or not there is an event corresponding to the current performance position in the “source pattern event group and its timing information”. If it is determined that there is an event corresponding to the current performance position (step S22: yes), “CTAB” is specified by the section designation and the channel number defined in the note event (step S23). On the other hand, if it is determined that there is no event corresponding to the current performance position (no in step S22), it is determined whether automatic accompaniment stop processing has been performed (step S33). If it is determined that the automatic accompaniment stop process has been performed (Yes in step S33), the automatic accompaniment need not be continued any longer, and thus the process ends. If it is determined that the automatic accompaniment stop process has not been performed (no in step S33), the process returns to the process in step S22 to continue the present process.

ステップS24は、指定されたデータのトラックチャンクの「Source patternのイベント群とそのタイミング情報」において、現在の演奏位置に対応するイベントが「ノートイベント」であるか否かを判定する。「ノートイベント」でないと判定した場合には(ステップS24のno)、ステップS32の処理に移る。「ノートイベント」であると判定した場合には(ステップS24のyes)、ノートイベントのノートナンバと「CTAB」のNTRスプリットポイントの下限「LS」と上限「US」とを比較し、当該ノート(ノートナンバに応じた音高)が属する所定の音高範囲であるゾーン(zone)を決定する(ステップS25)。そして、ノートイベントのノートナンバと「CTAB」のソースコード情報(Source Chord RootとSource Chord Type)とを元に、図4に示した「分類テーブル(Applicable Scale Table)」のうち前記決定されたゾーン(zone)のNTT情報に対応したテーブルを参照し、コード音(c)、スケール音(s)及びノンスケール音(n)の何れかにノートの属性を決定し(ステップS26)、前記決定したゾーン(zone)に対応する「CTAB」のNTT情報と前記決定したノートの属性とから、ノート変換処理の際に用いるべき「NTT」を決定する(ステップS27)。   In step S24, it is determined whether or not the event corresponding to the current performance position is the “note event” in the “source pattern event group and its timing information” of the track chunk of the designated data. If it is determined that the event is not a “note event” (No in step S24), the process proceeds to step S32. If it is determined that it is a “note event” (yes in step S24), the note number of the note event is compared with the lower limit “LS” of the NTR split point of “CTAB” and the upper limit “US”, and the note ( A zone which is a predetermined pitch range to which the pitch according to the note number) belongs is determined (step S25). Then, based on the note number of the note event and the source code information (Source Chord Root and Source Chord Type) of “CTAB”, the determined zone in the “classification table (Applicable Scale Table)” shown in FIG. Referring to the table corresponding to the (zone) NTT information, the attribute of the note is determined as one of the chord sound (c), the scale sound (s), and the non-scale sound (n) (step S26). From the NTT information of “CTAB” corresponding to the zone and the determined attribute of the note, “NTT” to be used in the note conversion process is determined (step S27).

ステップS28は、ゾーン(zone)に対応する「CTAB」内のNTR情報に応じて異なるタイプのノート変換処理をそれぞれ実行するよう、NTR情報毎に処理を振り分ける。   In step S28, the process is distributed for each NTR information so that different types of note conversion processes are executed in accordance with the NTR information in the "CTAB" corresponding to the zone.

ここで、NTR情報が「Root Transposition Rule」と設定されている場合には、該当するノート変換ルール「Root Transposition Rule」に則り、またコードタイプとルートとでNTTを参照しながら、ノート変換処理を実行する(ステップS29)。NTR情報が「Root Fixed Rule」と設定されている場合には、該当するノート変換ルール「Root Fixed Rule」に則り、コードタイプとルートとでNTTを参照しながら、ノート変換処理を実行する(ステップS30)。NTR情報が「Root Transposition Rule」及び「Root Fixed Rule」以外の「その他のRule」(例えば、単純なオクターブシフトなど)と設定されている場合には、該当するノート変換ルール「その他のRule」に則りノート変換処理を実行する(ステップS31)。この場合には、NTTを参照しないでよい。こうした各変換ルール(NTR)や変換テーブル(NTT)に従ってのノート変換処理は公知のどのような方法のものであってもよいことから、ここでの説明を省略する。ステップS32は、「CTAB」内のPart情報で指定された音源のチャンネルを指定して、音源回路7にイベントを送る。イベントを送られた音源回路7は、チャンネル毎にイベントをマージして楽音生成に反映させる。その後、ステップS22の処理に戻る。   Here, when the NTR information is set as “Root Transposition Rule”, note conversion processing is performed according to the corresponding note conversion rule “Root Transposition Rule” and referring to NTT by the chord type and root. Execute (Step S29). If the NTR information is set as “Root Fixed Rule”, note conversion processing is executed while referring to NTT by code type and root according to the corresponding note conversion rule “Root Fixed Rule” (step S30). If the NTR information is set to “Other Rule” other than “Root Transposition Rule” and “Root Fixed Rule” (for example, simple octave shift), the corresponding note conversion rule “Other Rule” The note conversion process is executed according to the rules (step S31). In this case, NTT need not be referred to. Since the note conversion processing according to each conversion rule (NTR) or conversion table (NTT) may be any known method, description thereof is omitted here. In step S 32, the sound source channel designated by the part information in “CTAB” is designated, and an event is sent to the sound source circuit 7. The tone generator circuit 7 to which the event has been sent merges the event for each channel and reflects it in the musical tone generation. Thereafter, the process returns to step S22.

以上のように、本実施の形態によれば、1つのチャンネルに対して複数の異なるノート変換に関する情報を所定の音高範囲毎に対応付けておき、自動伴奏時においてノート情報を予め決められた複数の音高範囲に分類し、該音高範囲毎に対応付けられているノート変換に関する情報に従ってノート変換処理を行うようにした。これにより、コードに基づいて自動演奏音のノート変換を行う際には、1つのチャンネルにおいて複数の異なるタイプ(変換態様)のノート変換を行うことができ、効果音(奏法依存音色)を含む特殊な音色であっても1つのチャンネルで制御することができるので、チャンネルを無駄に使用することがない。また、ユーザは楽器音色用の伴奏パターンデータと効果音用の伴奏パターンデータとを別データとして用意する必要がないことからデータ作成が容易になる、という利点もある。   As described above, according to the present embodiment, information related to a plurality of different note conversions is associated with one channel for each predetermined pitch range, and note information is determined in advance during automatic accompaniment. It is classified into a plurality of pitch ranges, and note conversion processing is performed in accordance with information relating to note conversion associated with each pitch range. Thereby, when performing note conversion of an automatic performance sound based on a chord, a plurality of different types (conversion modes) of note conversion can be performed in one channel, and special effects including sound effects (performance style-dependent timbres) are included. Even a simple timbre can be controlled by one channel, so the channel is not wasted. In addition, the user does not have to prepare the accompaniment pattern data for musical instrument tone color and the accompaniment pattern data for sound effects as separate data, so there is an advantage that data creation is facilitated.

なお、上述した実施例においては、通常の楽器音色に加えて効果音(奏法依存音色)等を含む特殊な音色(Mega Guitar音色)を用いた場合について説明したがこれに限らない。通常の音色における自動演奏においても、上記説明した実施の形態に準じて、及び必要に応じて適宜変形した形態で、本発明を適用することができる。例えば通常の音色のみからなるピアノ音色において、低音域をベースパート、中間音域をコードパート、高音域をフレーズメロディの楽音を発生させる場合などにも、本発明を適用することができる。こうした場合における、各チャンネルのCTABに設定されるノート変換に関する情報について、具体的な設定例を図8に示す。図8(a)に示す実施例は通常の楽器音色「ピアノ音色」を用いる場合に、図8(b)に示すようにして3分割した各音高範囲において、「C-2」〜「F♯2」までの低音側のゾーン(zone1)をベースパートの楽音を発生する範囲、「F♯2」〜「C4」までのゾーン(zone2)をコードパートの楽音を発生する範囲、「C4」〜「G8」までの高音側のゾーン(zone3)をフレーズメロディを発生する範囲とした場合の設定例である。   In the above-described embodiment, a case where a special tone color (Mega Guitar tone color) including a sound effect (performance style dependent tone color) or the like is used in addition to a normal musical instrument tone color has been described. The present invention can also be applied to an automatic performance in a normal tone color according to the above-described embodiment and in a form appropriately modified as necessary. For example, in the case of a piano timbre composed of only normal timbres, the present invention can also be applied to a case where a bass part is generated in the low range, a chord part in the intermediate range, and a phrase melody in the high range. FIG. 8 shows a specific setting example for information regarding note conversion set in the CTAB of each channel in such a case. In the embodiment shown in FIG. 8A, when a normal instrument tone “piano tone” is used, “C-2” to “F” in each pitch range divided into three as shown in FIG. 8B. The bass side zone (zone1) up to ♯2 is the range where bass part musical sounds are generated, the zone from zone F2 to C4 (zone2) where the chord part musical sounds are generated, C4 This is a setting example in the case where the high-tone zone (zone3) up to “G8” is set as a range for generating a phrase melody.

また、図示を省略したが、上述した特殊な音色(Mega Guitar音色)を用いる場合において、ゾーン(zone1)をベースパートとユニゾンで動作する低音のフレーズメロディを発生する範囲、ゾーン(zone2)をベースパートの楽音を発生する範囲、ゾーン(zone3)を効果音(奏法依存音色)を発生する範囲とするように、該当するチャンネルのCTABに設定することもできることは言うまでもない。すなわち、何らかのコードを基準として作成されたオリジナルの自動演奏データ(上記した伴奏パターンデータやフレーズメロディデータなど)に基づいて楽音を発生させる際に、コード進行に応じてノート変換を行うものであればどのような形態のものであっても、上記説明した実施の形態に準じて、及び必要に応じて適宜変形した形態で、本発明を適用することができる。さらに、NTRスプリットポイント(分割情報)を適宜に変更して、低音域,中音域、高音域、さらにはそれら以外のより細かな多数の音域毎にノート変換に係る情報をそれぞれ対応付けることで、より多くのさまざまな音色や用途に本発明を適用することができる。   Although not shown in the figure, when using the special tone (Mega Guitar tone) described above, the zone (zone1) is based on the zone (zone2) that generates the bass phrase melody that operates in the base part and unison. It goes without saying that the CTAB of the corresponding channel can also be set so that the range in which the musical sound of the part is generated and the zone (zone 3) are in the range in which the sound effect (performance style-dependent timbre) is generated. That is, when generating a musical tone based on original automatic performance data (accompaniment pattern data, phrase melody data, etc.) created based on some chord, note conversion is performed according to the chord progression. Regardless of the form, the present invention can be applied in accordance with the embodiment described above and in a form appropriately modified as necessary. Furthermore, by changing the NTR split point (divided information) as appropriate, the information related to note conversion is associated with each of the bass, middle, treble, and many other finer ranges. The present invention can be applied to many different timbres and uses.

この発明に係る自動演奏装置を適用した電子楽器の全体構成の一実施例を示したハード構成ブロック図である。1 is a block diagram of a hardware configuration showing an embodiment of an overall configuration of an electronic musical instrument to which an automatic performance device according to the present invention is applied. スタイルデータのデータ構成の一実施例を示す概念図である。It is a conceptual diagram which shows one Example of the data structure of style data. ノート変換テーブルの一実施例を示す概念図である。It is a conceptual diagram which shows one Example of a note conversion table. 分類テーブルの一実施例を示すフローチャートである。It is a flowchart which shows one Example of a classification table. CTABに設定されるデータ内容の具体例を説明するための概念図である。It is a conceptual diagram for demonstrating the specific example of the data content set to CTAB. メイン処理の一実施例を示すフローチャートである。It is a flowchart which shows one Example of a main process. 割り込み処理の一実施例を示すフローチャートである。It is a flowchart which shows one Example of an interruption process. CTABに設定されるデータ内容の別の具体例を説明するための概念図である。It is a conceptual diagram for demonstrating another specific example of the data content set to CTAB.

符号の説明Explanation of symbols

1…CPU、2…ROM、3…RAM、4,5…検出回路、4A…演奏操作子、5A…パネル操作子、6…表示回路、6A…ディスプレイ、7…音源回路、8…効果回路、8A…サウンドシステム、9…外部記憶装置、10…MIDIインタフェース、10A…MIDI機器、11…通信インタフェース、11A…サーバ装置、X…通信ネットワーク、1D…通信バス DESCRIPTION OF SYMBOLS 1 ... CPU, 2 ... ROM, 3 ... RAM, 4,5 ... Detection circuit, 4A ... Performance operator, 5A ... Panel operator, 6 ... Display circuit, 6A ... Display, 7 ... Sound source circuit, 8 ... Effect circuit, 8A ... Sound system, 9 ... External storage device, 10 ... MIDI interface, 10A ... MIDI device, 11 ... Communication interface, 11A ... Server device, X ... Communication network, 1D ... Communication bus

Claims (3)

取得した和音情報に応じて、演奏パターンデータの音高情報をノート変換して自動演奏を行う自動演奏装置であって、
複数のチャンネルに対応して複数の演奏パターンデータを記憶し、かつ、前記複数のチャンネル夫々に対応して該チャンネル毎のノート変換に関する情報を複数の音高範囲毎にそれぞれ記憶する記憶手段と、
所定の演奏パターンデータから順次に読み出される音高情報が属する音高範囲を前記複数の音高範囲のいずれかに決定する決定手段と、
前記決定した音高範囲に基づき、前記所定の演奏パターンデータに対応付けられたチャンネルにおけるノート変換に関する情報を特定する特定手段と、
前記所定の演奏パターンデータから順次に読み出された音高情報をノート変換する処理を、前記特定した複数のノート変換に関する情報のいずれかに基づいて行うノート変換手段と
を具えた自動演奏装置。
In accordance with the acquired chord information, an automatic performance device that performs automatic performance by converting note information of performance pattern data into notes,
Storage means for storing a plurality of performance pattern data corresponding to a plurality of channels, and storing information relating to note conversion for each of the plurality of channels for each of a plurality of pitch ranges;
Determining means for determining, as one of the plurality of pitch ranges, a pitch range to which pitch information sequentially read out from predetermined performance pattern data belongs;
Identifying means for identifying information relating to note conversion in a channel associated with the predetermined performance pattern data based on the determined pitch range;
An automatic performance device comprising note conversion means for performing note conversion processing of pitch information sequentially read from the predetermined performance pattern data based on any of the specified plurality of note conversion information.
前記記憶手段は、音高からなる分割情報を1乃至複数記憶してなり、
前記決定手段は、所定の演奏パターンデータから順次に読み出される音高情報と前記分割情報とを比較して、前記読み出された音高情報が属する音高範囲を前記複数の音高範囲のいずれかに決定することを特徴とする請求項1に記載の自動演奏装置。
The storage means stores one or more pieces of division information including pitches,
The determination means compares pitch information sequentially read from predetermined performance pattern data with the division information, and determines a pitch range to which the read pitch information belongs from any of the plurality of pitch ranges. The automatic performance device according to claim 1, wherein the automatic performance device is determined.
コンピュータに、
複数のチャンネルに対応して複数の演奏パターンデータを記憶し、かつ、前記複数のチャンネル夫々に対応して該チャンネル毎のノート変換に関する情報を複数の音高範囲毎にそれぞれ記憶する手順と、
所定の演奏パターンデータから順次に読み出される音高情報が属する音高範囲を前記複数の音高範囲のいずれかに決定する手順と、
前記決定した音高範囲に基づき、前記所定の演奏パターンデータに対応付けられたチャンネルにおけるノート変換に関する情報を特定する手順と、
前記所定の演奏パターンデータから順次に読み出された音高情報をノート変換する処理を、前記特定した複数のノート変換に関する情報のいずれかに基づいて行う手順と
を実行させるためのプログラム。
On the computer,
A procedure for storing a plurality of performance pattern data corresponding to a plurality of channels, and storing information related to note conversion for each of the plurality of channels for each of a plurality of pitch ranges, respectively.
A procedure for determining a pitch range to which pitch information sequentially read out from predetermined performance pattern data belongs is one of the plurality of pitch ranges;
A procedure for identifying information related to note conversion in a channel associated with the predetermined performance pattern data based on the determined pitch range;
A program for executing a procedure of performing note conversion on pitch information sequentially read from the predetermined performance pattern data based on any of the plurality of specified note conversion information.
JP2008057666A 2008-03-07 2008-03-07 Automatic performance device and program Expired - Fee Related JP5104414B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008057666A JP5104414B2 (en) 2008-03-07 2008-03-07 Automatic performance device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008057666A JP5104414B2 (en) 2008-03-07 2008-03-07 Automatic performance device and program

Publications (2)

Publication Number Publication Date
JP2009216772A true JP2009216772A (en) 2009-09-24
JP5104414B2 JP5104414B2 (en) 2012-12-19

Family

ID=41188744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008057666A Expired - Fee Related JP5104414B2 (en) 2008-03-07 2008-03-07 Automatic performance device and program

Country Status (1)

Country Link
JP (1) JP5104414B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013174771A (en) * 2012-02-27 2013-09-05 Yamaha Corp Electronic musical instrument, and program for realizing control method therefor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04171492A (en) * 1990-11-02 1992-06-18 Brother Ind Ltd Musical interval converter
JPH07121162A (en) * 1993-10-22 1995-05-12 Casio Comput Co Ltd Electronic musical instrument
JPH08248954A (en) * 1995-01-09 1996-09-27 Yamaha Corp Automatic performance device
JP2003263159A (en) * 2002-03-12 2003-09-19 Yamaha Corp Musical sound generation device and computer program for generating musical sound
JP2004206073A (en) * 2002-09-04 2004-07-22 Yamaha Corp Musical performance assisting device, input sound converting device, and program therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04171492A (en) * 1990-11-02 1992-06-18 Brother Ind Ltd Musical interval converter
JPH07121162A (en) * 1993-10-22 1995-05-12 Casio Comput Co Ltd Electronic musical instrument
JPH08248954A (en) * 1995-01-09 1996-09-27 Yamaha Corp Automatic performance device
JP2003263159A (en) * 2002-03-12 2003-09-19 Yamaha Corp Musical sound generation device and computer program for generating musical sound
JP2004206073A (en) * 2002-09-04 2004-07-22 Yamaha Corp Musical performance assisting device, input sound converting device, and program therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013174771A (en) * 2012-02-27 2013-09-05 Yamaha Corp Electronic musical instrument, and program for realizing control method therefor
US9542916B2 (en) 2012-02-27 2017-01-10 Yamaha Corporation Electronic musical instrument and control method therefor

Also Published As

Publication number Publication date
JP5104414B2 (en) 2012-12-19

Similar Documents

Publication Publication Date Title
JP5724231B2 (en) Electronic music apparatus and program
JP5163100B2 (en) Automatic accompaniment apparatus and program
JP3915807B2 (en) Automatic performance determination device and program
JP5104414B2 (en) Automatic performance device and program
JP4670686B2 (en) Code display device and program
JP2001022354A (en) Arpeggio generator and its recording medium
JP3812510B2 (en) Performance data processing method and tone signal synthesis method
JP3632536B2 (en) Part selection device
JP4748027B2 (en) Automatic accompaniment apparatus and program
JP5104415B2 (en) Automatic performance device and program
JP4239706B2 (en) Automatic performance device and program
JP2005099330A (en) Playing data processor and program
JP4003625B2 (en) Performance control apparatus and performance control program
JP3632487B2 (en) Chord detection device for electronic musical instruments
JP3654227B2 (en) Music data editing apparatus and program
JP2002032079A (en) Device and method for automatic music composition and recording medium
JP3933070B2 (en) Arpeggio generator and program
JP3812509B2 (en) Performance data processing method and tone signal synthesis method
JP3873880B2 (en) Performance assist device and performance assist program
JP3752940B2 (en) Automatic composition method, automatic composition device and recording medium
JP4900233B2 (en) Automatic performance device
JP3669301B2 (en) Automatic composition apparatus and method, and storage medium
JP5104293B2 (en) Automatic performance device
JPH10254448A (en) Automatic accompaniment device and medium recorded with automatic accompaniment control program
JPH10171475A (en) Karaoke (accompaniment to recorded music) device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120917

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees