JPH08211865A - Automatic playing device - Google Patents

Automatic playing device

Info

Publication number
JPH08211865A
JPH08211865A JP7277640A JP27764095A JPH08211865A JP H08211865 A JPH08211865 A JP H08211865A JP 7277640 A JP7277640 A JP 7277640A JP 27764095 A JP27764095 A JP 27764095A JP H08211865 A JPH08211865 A JP H08211865A
Authority
JP
Japan
Prior art keywords
data
performance data
style
performance
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7277640A
Other languages
Japanese (ja)
Other versions
JP2940449B2 (en
Inventor
Takuya Nakada
卓也 中田
Yasushi Kurakake
靖 鞍掛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP7277640A priority Critical patent/JP2940449B2/en
Publication of JPH08211865A publication Critical patent/JPH08211865A/en
Application granted granted Critical
Publication of JP2940449B2 publication Critical patent/JP2940449B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE: To provide an automatic playing device in which other similar styles can be substituted for a specified accompaniment even in the case the specified accompaniment is not present. CONSTITUTION: Plural accompaniment style data are stored in a style data memory by being added with style numbers unified to other models. On the other hand, which style data among style data stored in the style data memory are to be substituted for the specified style data when the style data having a style number which is not stored in the style data memory are specified is stored in a substitution table. When automatic playing data specifies style data, whether the style data stored in the style data memory or not is searched and in the case the data are stored, the automatic playing of an accompaniment is executed by reading out the style data and in the case the data are not stored, style data to be substituted are read out by retrieving the substitution table and then the automatic playing of the accompaniment is executed with the style data.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、伴奏パターンな
どの自動演奏データを複数種類記憶し、指定によってそ
のいずれかを読み出して自動演奏を実行する自動演奏装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic performance device for storing a plurality of types of automatic performance data such as accompaniment patterns and reading one of them according to a designation to execute an automatic performance.

【0002】[0002]

【従来の技術】従来の自動演奏装置は、複数の自動演奏
スタイルデータに対して番号を付し、スタイルナンバに
よって指定された伴奏パターンデータを読み出して自動
演奏をするようにしていた。
2. Description of the Related Art A conventional automatic performance apparatus assigns a number to a plurality of automatic performance style data, reads out accompaniment pattern data designated by a style number, and performs automatic performance.

【0003】自動演奏時に使用される伴奏パターンを複
数種類本体内に記憶した自動演奏装置が実用化されてい
る。このような自動演奏装置に使用されるソングデータ
は、メロディのシーケンスデータおよび伴奏パターンの
指定データからなっており、自動演奏装置は、ソングデ
ータから伴奏パターンの指定データを読み出したときは
その伴奏パターンを自動演奏するようになっている。
An automatic performance device in which a plurality of types of accompaniment patterns used during automatic performance are stored in the main body has been put into practical use. The song data used in such an automatic performance device consists of melody sequence data and accompaniment pattern designation data. When the automatic performance device reads out the accompaniment pattern designation data from the song data, the accompaniment pattern Is automatically played.

【0004】[0004]

【発明が解決しようとする課題】このような自動演奏装
置において、他の自動演奏装置で作成されたソングデー
タで自動演奏を行う場合、ソングデータ中に自己の記憶
していない伴奏パターンを指定する指定データが含まれ
ている場合がある。また、ソングデータとは別にMID
Iケーブルなどを介して外部装置から伴奏パターンが指
定された場合にも自己の記憶していない伴奏パターンが
指定される場合がある。従来の自動演奏装置では、この
ような場合、他の伴奏パターンを選択する機能がなかっ
たため、伴奏の自動演奏をさせることが全くできなかっ
た。
In such an automatic performance apparatus, when performing automatic performance with song data created by another automatic performance apparatus, an accompaniment pattern that is not stored in the song data is designated. May contain specified data. In addition to the song data, MID
Even when an accompaniment pattern is specified from an external device via an I cable or the like, an accompaniment pattern that is not stored by itself may be specified. In such a case, the conventional automatic performance device does not have a function of selecting another accompaniment pattern, and thus cannot automatically perform the accompaniment.

【0005】また、伴奏パターンの指定データを含まな
いソングデータの場合には、任意の伴奏パターンデータ
を組み合わせて同時に再生することができるが、全く任
意に組み合わせ可能とすると、音楽的に調和しない組み
合わせになり自動演奏が旨く行かない可能性があった。
Further, in the case of song data which does not include designated data of an accompaniment pattern, arbitrary accompaniment pattern data can be combined and reproduced at the same time. There was a possibility that automatic performance would not work well.

【0006】また、自動演奏するソングデータが特定し
ていない場合には、ソングデータを検索し、さらに伴奏
パターンを検索するが、従来はソングデータや伴奏パタ
ーンデータの名称や番号を指定することによって選択し
ていたので、ユーザは選択すべき対称がどのような内容
のものかを知っていなければ、ソングデータや伴奏パタ
ーンデータを選択することができなかった。
Further, when the song data to be automatically played is not specified, the song data is searched and the accompaniment pattern is further searched. Conventionally, the name or number of the song data or the accompaniment pattern data is designated. Since the user has selected the song data and the accompaniment pattern data, the user cannot select the song data or the accompaniment pattern data unless the user knows what kind of symmetry should be selected.

【0007】この発明は、指定された演奏データが記憶
されていない場合でも、他の類似した演奏データで代用
して自動演奏を実行することができる自動演奏装置を提
供することを目的とする。
It is an object of the present invention to provide an automatic performance device which can execute automatic performance by substituting other similar performance data even when designated performance data is not stored.

【0008】[0008]

【課題を解決するための手段】この出願の請求項1の発
明は、自動演奏のシーケンスデータである演奏データを
複数種類記憶する演奏データ記憶手段と、自動演奏する
演奏データを指定する演奏データ指定手段と、指定され
た演奏データを前記演奏データ記憶手段から読み出して
自動演奏を実行する自動演奏手段とを備えた自動演奏装
置であって、前記演奏データ指定手段が前記演奏データ
記憶手段に記憶されていない演奏データを指定したと
き、該演奏データ記憶手段に記憶されている他の演奏デ
ータを代用して前記自動演奏手段を実行させる代用手段
を備えたことを特徴とする。
According to the invention of claim 1 of this application, performance data storage means for storing a plurality of types of performance data which are sequence data for automatic performance, and performance data designation for specifying performance data to be automatically performed. An automatic performance device comprising means and automatic performance means for reading specified performance data from the performance data storage means and executing an automatic performance, wherein the performance data designating means is stored in the performance data storage means. When the performance data which is not stored is designated, another performance data stored in the performance data storage means is used as a substitute to execute the automatic performance means.

【0009】この出願の請求項2の発明は、前記代用手
段を、前記指定された演奏データに代用すべき演奏デー
タを記憶した代用テーブルと、前記演奏データ記憶手段
に記憶されていない演奏データが指定されたとき該代用
テーブルを検索して代用すべき演奏データを割り出す手
段とで構成したことを特徴とする。
According to the invention of claim 2 of this application, a substitute table storing performance data to be substituted for the designated performance data by the substitute means, and performance data not stored in the performance data storage means are provided. When designated, the substitute table is searched and the performance data to be substituted is calculated.

【0010】この出願の請求項3の発明は、前記代用手
段を、前記演奏データ記憶手段に記憶されていない演奏
データが指定されたとき、該演奏データ記憶手段を検索
して前記指定された演奏データと一定の関係にある演奏
データを代用すべき演奏データとして抽出する手段で構
成したことを特徴とする。
According to the invention of claim 3 of this application, when performance data not stored in the performance data storage means is designated as the substitute means, the performance data storage means is searched to perform the designated performance. It is characterized in that the performance data having a fixed relationship with the data is extracted as performance data to be substituted.

【0011】この出願の請求項4の発明は、前記演奏デ
ータ記憶手段を、一定の関係にある演奏データ毎にグル
ープ化して各グループ別に第1の指定情報を付して記憶
し、さらに各グループ内において各演奏データ毎に個別
の第2の指定情報を付して記憶して構成し、前記代用手
段を、前記演奏データ記憶手段に記憶されていない演奏
データが指定されたとき、指定された演奏データと第1
の指定情報が同一で第2の指定情報が異なるものを代用
すべき演奏データとして抽出する手段で構成したことを
特徴とする。
According to the invention of claim 4 of this application, the performance data storage means is grouped for each performance data having a certain relationship, and the first designation information is added to each group and stored. In the above, each performance data is individually stored with the second designation information stored therein, and the substitute means is designated when performance data not stored in the performance data storage means is designated. Performance data and first
Of the same designation information but different second designation information is extracted as performance data to be substituted.

【0012】この出願の請求項5の発明は、前記指定さ
れた演奏データと少なくとも音楽のジャンルが同一また
は類似した演奏データを前記一定の関係にある演奏デー
タとしたことを特徴とする。
The invention of claim 5 of this application is characterized in that the performance data having at least the same or similar music genre as the specified performance data is the performance data having the fixed relationship.

【0013】この出願の請求項6の発明は、前記指定さ
れた演奏データと少なくとも拍子が同一の演奏データを
前記一定の関係にある演奏データとしたことを特徴とす
る。
The invention of claim 6 of this application is characterized in that performance data having at least the same time signature as the specified performance data is the performance data having the fixed relationship.

【0014】この出願の請求項7の発明は、前記指定さ
れた演奏データとさらにビートが同一の演奏データを前
記一定の関係にある演奏データとしたことを特徴とす
る。
The invention of claim 7 of this application is characterized in that the performance data having the same beat as the designated performance data is used as the performance data having the fixed relationship.

【0015】この出願の請求項8の発明は、記憶された
自動演奏データの特徴を表す特徴データを含む第1の自
動演奏データを記憶した第1記憶手段と、記憶された自
動演奏データの特徴を表す特徴データを含む第2の自動
演奏データを複数記憶した第2記憶手段と、第1の自動
演奏データに含まれる特徴データと一致または類似する
特徴データを有する第2の自動演奏データ検索する検索
手段と、第1の自動演奏データと検索された第2の自動
演奏データとを並行して再生する再生手段と、を備えた
ことを特徴とする。
According to the invention of claim 8 of this application, the first storage means for storing the first automatic performance data including the characteristic data representing the characteristics of the stored automatic performance data, and the characteristics of the stored automatic performance data. And a second storage means for storing a plurality of second automatic performance data including characteristic data representing the second automatic performance data, and a second automatic performance data having characteristic data matching or similar to the characteristic data included in the first automatic performance data. It is characterized in that it comprises a searching means and a reproducing means for reproducing the first automatic performance data and the searched second automatic performance data in parallel.

【0016】この出願の請求項9の発明は、記憶された
自動演奏データのジャンル、拍子、ビートの少なくとも
1つを表すデータを含む自動演奏データを複数記憶した
記憶手段と、ジャンル、拍子、ビートの少なくとも1つ
を指定する指定手段と、前記指定手段により指定された
ジャンル、拍子、ビートの少なくとも1つを検索条件と
して、検索条件に一致または類似した自動演奏データを
検索する検索手段と、を備えたことを特徴とする。
The invention of claim 9 of this application is a storage means for storing a plurality of automatic performance data including data representing at least one of the stored genre, time signature and beat of the automatic performance data, and genre, time signature and beat. Specifying means for specifying at least one of the above, and a searching means for searching automatic performance data that matches or is similar to the search condition, using at least one of the genre, time signature, and beat specified by the specifying means as the search condition. It is characterized by having.

【0017】この発明の自動演奏装置は、演奏データ記
憶手段に複数の演奏データを記憶しており、演奏データ
指定手段によって指定された演奏データを前記演奏デー
タ記憶手段から読み出して自動演奏を実行する。この場
合において、前記演奏データ指定手段が前記演奏データ
記憶手段に記憶されていない演奏データを指定したと
き、演奏データ記憶手段に記憶されている演奏データの
なかから適当なものを代用して自動演奏を実行する。こ
れにより、指定された演奏データがない場合でも演奏で
きなくなることがない。
In the automatic performance apparatus of the present invention, a plurality of performance data is stored in the performance data storage means, and the performance data designated by the performance data designating means is read from the performance data storage means to execute the automatic performance. . In this case, when the performance data designating means designates performance data that is not stored in the performance data storage means, an appropriate performance is automatically substituted from the performance data stored in the performance data storage means. To execute. As a result, even if there is no designated performance data, the performance cannot be stopped.

【0018】この代用する演奏データの選択方式として
は、代用すべき演奏データを代用テーブルに記憶し、演
奏データ記憶手段に記憶されていない演奏データが指定
されたとき該代用テーブルを検索して代用すべき演奏デ
ータを割り出す方式や、演奏データ記憶手段に記憶され
ていない演奏データが指定されたとき演奏データ記憶手
段を検索して前記指定された演奏データとジャンルが同
一,類似、拍子が同一、ビートが同一などの一定の関係
にある演奏データを代用すべき演奏データとして抽出す
る方式などがある。このようにすることにより、他の演
奏データを代用しても近い雰囲気で自動演奏が可能にな
る。
As a method of selecting the substitute performance data, the substitute performance data is stored in the substitute table, and when the performance data not stored in the performance data storage means is designated, the substitute table is searched to substitute the performance data. A method for determining the performance data to be played, or when performance data that is not stored in the performance data storage means is specified, the performance data storage means is searched to have the same genre, similarity, and time signature as the specified performance data. There is a method of extracting performance data having a certain relationship such as the same beat as performance data to be substituted. By doing so, even if other performance data is substituted, it becomes possible to perform an automatic performance in a similar atmosphere.

【0019】また、演奏データ記憶手段内で、ジャンル
が同一,類似、拍子が同一、ビートが同一などの一定の
関係にある演奏データを予めグループ化して記憶してお
くようにすることもできる。この場合には、演奏データ
記憶手段に記憶されていない演奏データが指定されたと
きその指定された演奏データが属すべきグループの他の
演奏データを代用データとして抽出することによって近
い雰囲気の自動演奏が可能になる。
Further, in the performance data storage means, performance data having a certain relationship such as the same genre, similarities, same beats, and same beats may be grouped and stored in advance. In this case, when performance data that is not stored in the performance data storage means is designated, other performance data of the group to which the designated performance data belongs should be extracted as substitute data so that an automatic performance with a similar atmosphere is created. It will be possible.

【0020】また、この発明の自動演奏装置は、第1の
記憶手段と第2の記憶手段のそれぞれに特徴データを含
む自動演奏データを記憶している。そして、第1の記憶
手段に記憶されている自動演奏データに含まれる特徴デ
ータと一致または類似する自動演奏データを第2の記憶
手段のなかから検索し、第1の記憶手段の自動演奏デー
タと第2の記憶手段の検索された自動演奏データとを並
行して再生する。これにより、第1の記憶手段の自動演
奏データと、第2の記憶手段の自動演奏データとが音楽
的にマッチした演奏が可能になる。
Further, the automatic performance device of the present invention stores automatic performance data including characteristic data in each of the first storage means and the second storage means. Then, the automatic performance data matching or similar to the characteristic data included in the automatic performance data stored in the first storage means is searched from the second storage means, and the automatic performance data in the first storage means is searched. The retrieved automatic performance data in the second storage means is reproduced in parallel. As a result, it is possible to perform a musical performance in which the automatic performance data stored in the first storage means and the automatic performance data stored in the second storage means are musically matched.

【0021】また、この発明の自動演奏装置は、自動演
奏データ中に演奏のジャンル、拍子、ビートの少なくと
も1つを表す情報を有しており、検索条件として、ジャ
ンル、拍子、ビートの少なくとも1つを指定して、検索
条件に一致または類似する自動演奏データを検索するよ
うにしている。これにより、ユーザが選択したい自動演
奏データを、ジャンル、拍子、ビートといった漠然とし
た条件により指定することができ、選択の自由度を広げ
ることができる。
Further, the automatic performance device of the present invention has information indicating at least one of the genre, time signature, and beat of performance in the automatic performance data, and at least one of genre, time signature, and beat is used as a search condition. By specifying one, the automatic performance data that matches or is similar to the search condition is searched. As a result, the automatic performance data that the user wants to select can be specified by vague conditions such as genre, time signature, and beat, and the degree of freedom of selection can be expanded.

【0022】[0022]

【発明の実施の形態】図1はこの発明の実施形態である
自動演奏機能を備えた電子楽器のブロック図である。こ
の電子楽器は鍵盤17を備えており、演奏者が自ら演奏
して楽音を発することもできるが、楽曲の自動演奏デー
タであるソングデータを記憶したフロッピィディスクを
フロッピィディスクドライブ13にセットし、このソン
グデータを読み出すことによって自動演奏をすることも
できる。ソングデータは図2(A)に示すように各種の
イベントデータとイベント間の時間間隔を示すデルタタ
イムデータとを交互に記憶したシーケンスデータであ
る。ソングデータ中のイベントデータはメロディの発音
/消音等を制御するメロディデータと伴奏のパターンデ
ータであるスタイルデータを指定するデータからなって
いる。スタイルデータは同電子楽器のROM(スタイル
メモリ)に記憶されている。スタイルデータは、数小節
単位の伴奏パターンを記憶したシーケンスデータであ
る。この電子楽器はソングデータの自動演奏中にスタイ
ルデータを指定するデータを読み出すと、その指定に従
ってスタイルデータを読み出して伴奏の自動演奏を実行
する。
1 is a block diagram of an electronic musical instrument having an automatic performance function according to an embodiment of the present invention. This electronic musical instrument is equipped with a keyboard 17 so that the performer can play the musical piece by himself / herself to generate musical tones, but a floppy disk storing song data which is automatic performance data of a musical piece is set in the floppy disk drive 13, and It is also possible to play automatically by reading the song data. The song data is sequence data in which various event data and delta time data indicating a time interval between events are alternately stored as shown in FIG. The event data in the song data is composed of melody data that controls the pronunciation / silence of the melody and data that specifies style data that is accompaniment pattern data. The style data is stored in the ROM (style memory) of the electronic musical instrument. Style data is sequence data that stores accompaniment patterns in units of several measures. When the electronic musical instrument reads data that specifies style data during automatic performance of song data, the electronic musical instrument reads the style data according to the specification and executes the automatic performance of accompaniment.

【0023】図1において、制御部であるCPU10に
はバスを介してROM11,RAM12,フロッピィデ
ィスクドライブ13,MIDIインタフェース14,タ
イマ15,鍵盤検出回路16,スイッチ検出回路18,
表示回路20,音源回路21が接続されている。ROM
11は、この電子楽器の動作を制御する制御プログラム
を記憶したプログラムメモリと上述のスタイルデータお
よび後述の代用テーブルを記憶したスタイルデータメモ
リからなっている。RAM12にはフロッピィディスク
から自動演奏データが読み込まれるとともに、演奏中に
発生する種々のデータを一時記憶するレジスタが設定さ
れる。フロッピィディスクドライブ13にはソングデー
タなどを記憶したフロッピィディスクがセットされる。
MIDIインタフェース14には他のMIDI機器が接
続され、該他のMIDI機器から入力される自動演奏用
のMIDIデータやスタイルデータを指定するMIDI
データなどを受信する。タイマ15はCPU10に一定
時間毎に割込をかけるための回路であり、割込の間隔は
ソングデータやスタイルデータに含まれるテンポデータ
によって決定される。
In FIG. 1, a CPU 10, which is a control unit, is provided with a ROM 11, a RAM 12, a floppy disk drive 13, a MIDI interface 14, a timer 15, a keyboard detection circuit 16, a switch detection circuit 18, and a bus via a bus.
A display circuit 20 and a sound source circuit 21 are connected. ROM
Reference numeral 11 is composed of a program memory storing a control program for controlling the operation of the electronic musical instrument, a style data memory storing the above-mentioned style data and a substitute table described later. In the RAM 12, automatic performance data is read from the floppy disk and registers for temporarily storing various data generated during the performance are set. A floppy disk storing song data and the like is set in the floppy disk drive 13.
Another MIDI device is connected to the MIDI interface 14, and MIDI for designating MIDI data and style data for automatic performance inputted from the other MIDI device.
Receive data etc. The timer 15 is a circuit for interrupting the CPU 10 at regular intervals, and the interrupt interval is determined by tempo data included in song data and style data.

【0024】鍵盤検出回路16には鍵盤17が接続され
ている。鍵盤17は5オクターブ程度の音域を有するも
のであり、各鍵のオン/オフを検出する鍵オンスイッチ
のほか、各鍵のイニシャルタッチ強度やアフタタッチ強
度を検出するためのセンサを備えている。これら鍵オン
スイッチのオン/オフやセンサの検出値は鍵盤検出回路
16を介してCPU10に読み取られる。スイッチ検出
回路18には各種のスイッチ群19が接続されている。
スイッチ群19は例えば、プレイモード(演奏者が自分
で鍵盤17を操作して演奏するモード)や自動演奏モー
ド(ソングデータを読み出して自動演奏するモード)な
どのモードを選択するモード選択スイッチや、プレイモ
ード時の音色を選択するための音色選択スイッチなどが
設けられている。これらのスイッチのオン/オフはスイ
ッチ検出回路18が検出し、この検出内容はCPU10
によって読み取られる。表示回路20は現在選択されて
いる音色名や自動演奏中には演奏している曲名などの内
容が表示される。音源回路21はCPU10から入力さ
れる発音データに基づいて楽音信号を発生する。この音
源回路21は音程を有しメロディや和音を演奏できる管
弦打楽器等の楽音のほか音程のないリズム音を発生する
こともできる。音程のある楽音を発生するためにCPU
10から音源回路21に入力される発音データは、ノー
トオン信号,音高指定データ,チャンネル指定データな
どである。また、音程のない楽音を発生するためにCP
U10から音源回路21に入力される発音データは、ノ
ートオン信号,リズム楽音指定データ,チャンネル指定
データなどである。この楽音信号はサウンドシステム2
2に入力される。サウンドシステム22はこの楽音信号
に対して種々の効果を付与したのち、増幅してスピーカ
などへ出力する。
A keyboard 17 is connected to the keyboard detection circuit 16. The keyboard 17 has a tone range of about 5 octaves, and is equipped with a key ON switch for detecting ON / OFF of each key, and a sensor for detecting initial touch strength and after touch strength of each key. The on / off state of these key on switches and the detection values of the sensors are read by the CPU 10 via the keyboard detection circuit 16. Various switch groups 19 are connected to the switch detection circuit 18.
The switch group 19 is, for example, a mode selection switch for selecting a mode such as a play mode (a mode in which a performer operates the keyboard 17 to perform) or an automatic performance mode (a mode in which song data is read and automatically performed), A tone color selection switch for selecting a tone color in the play mode is provided. The on / off state of these switches is detected by the switch detection circuit 18, and the detected content is the CPU 10.
Read by The display circuit 20 displays the contents such as the name of the tone color currently selected and the name of the song being played during automatic performance. The tone generator circuit 21 generates a tone signal based on the tone generation data input from the CPU 10. The tone generator circuit 21 can generate musical tones such as orchestral percussion instruments that have a pitch and can play melody and chords, as well as rhythm sounds with no pitch. CPU to generate musical tones
The tone generation data input from 10 to the tone generator circuit 21 is a note-on signal, pitch designation data, channel designation data, and the like. Also, in order to generate a musical sound with no pitch, CP
The tone generation data input from the U10 to the tone generator circuit 21 is a note-on signal, rhythm tone designation data, channel designation data, and the like. This tone signal is sound system 2
Entered in 2. The sound system 22 gives various effects to this tone signal, amplifies it, and outputs it to a speaker or the like.

【0025】図2(A)は前記フロッピィディスクなど
に記憶されているソングデータの概略構成を示す図であ
る。ソングデータの先頭にはヘッダ部が形成されてい
る。ヘッダ部には、このソングデータの曲名,演奏時
間,演奏テンポ,1〜16の各チャンネルの音色などの
データのほか、このソングデータの発表年月日、制作さ
れた国を示す国情報、ソングのジャンル、ソングの拍
子、ビート、メロディを担当する主たる楽器種類、ソン
グを歌う歌手の性別、ソングの作曲者、作詞者、編曲
者、演奏者または歌手/グループ名、ソングデータの作
成者等のデータが書き込まれている。なお、ソングのジ
ャンル音楽の種類を示す名称であり、ロック,ポップ
ス,ジャズ,ラテンなどがある。また、拍子とは、1小
節内の拍数を示すものであり、3拍子,4拍子などが一
般的である。また、ビートとは、1小節に何回リズムを
叩くかの回数であり、4拍子系の曲の場合には4ビー
ト,8ビート,16ビートなどが一般的である。また、
シャッフル,スイングなどもビートの一種である。メロ
ディを担当する主たる楽器種類は、メロディパートを演
奏する楽器音色を示すデータであり、例えばピアノ曲,
ギター曲というように、楽器を指定して曲を検索するた
めなどに用いられる。ソングを歌う歌手の性別は、男性
ソロ,女性ソロ,男女デュエット,男性複数,女性複
数,歌無しなどのデータであり、ソングデータをカラオ
ケ伴奏などに用いる場合にこれらの性別を利用して曲の
検索が可能になる。
FIG. 2A is a diagram showing a schematic structure of song data stored in the floppy disk or the like. A header portion is formed at the beginning of the song data. In the header part, in addition to data such as the song name of this song data, the playing time, the playing tempo, and the timbre of each channel of 1 to 16, the date of announcement of this song data, country information indicating the country of production, song Genre, song beat, beat, main instrument type in charge of melody, gender of song singer, song composer, lyricist, arranger, performer or singer / group name, song data creator, etc. Data has been written. The genre of the song is a name indicating the type of music, and includes rock, pops, jazz, Latin, and the like. In addition, the time signature indicates the number of beats in one bar, and is generally three, four, or the like. Further, the beat is the number of times the rhythm is hit in one bar, and in the case of a 4-beat tune, 4 beats, 8 beats, 16 beats, etc. are common. Also,
Shuffle and swing are also types of beats. The main instrument type that is in charge of the melody is data indicating the tone color of the instrument that plays the melody part.
It is used to search for a song by specifying an instrument, such as a guitar song. The gender of the singer singing the song is data such as male solo, female solo, male and female duet, multiple males, multiple females, no song, etc. When the song data is used for karaoke accompaniment, etc., the gender of the song is used. Search is possible.

【0026】シーケンスデータの本体は、上述したよう
に、デルタタイムデータとイベントデータが交互に書き
込まれる構成になっている。デルタタイムデータは、そ
のデルタタイムデータの直前のイベントデータと直後の
イベントデータとの時間的間隔を示すデータであり、そ
の長さがタイマ15のクロック数で表現されている。イ
ベントデータは、ノートイベント(ノートオン,ノート
オフ)、音量イベント,ピッチベンドイベントなどのそ
の他演奏イベント、コード(和音)指定イベント、バン
クナンバ指定イベント,スタイルナンバ指定イベント,
セクションナンバ指定イベントなどのスタイル指定イベ
ントなどからなっている。ノートイベントや他の演奏イ
ベントが読み出されたときはそのイベントデータを音源
回路21などの動作部に送信する。音源回路21は入力
されたデータに基づいて楽音信号の形成動作を制御す
る。コード指定イベントデータが読み出されたときは、
そのコード指定データに含まれるルートデータとタイプ
データをそれぞれレジスタROOT,TYPEに記憶す
る。このコード指定データはスタイルデータの自動演奏
時にコード音の決定やベース音の音高シフトの基準とし
て使用される。
As described above, the main body of the sequence data has a structure in which the delta time data and the event data are alternately written. The delta time data is data indicating a time interval between the event data immediately before the delta time data and the event data immediately after the delta time data, and its length is represented by the number of clocks of the timer 15. The event data includes note events (note on, note off), volume events, other performance events such as pitch bend events, chord (chord) specified events, bank number specified events, style number specified events,
It is composed of style specified events such as section number specified events. When a note event or another performance event is read, the event data is transmitted to the operation unit such as the tone generator circuit 21. The tone generator circuit 21 controls the musical tone signal forming operation based on the input data. When the code specified event data is read,
The route data and the type data included in the code designation data are stored in the registers ROOT and TYPE, respectively. This chord designation data is used as a reference for determining chord notes and pitch shifting of bass notes during automatic performance of style data.

【0027】ここで、スタイルデータメモリは複数のバ
ンクで構成され、同図(B)および図3に示すように各
バンクにそれぞれ複数(図3においては1〜100)の
スタイルデータが記憶されている。したがって、バンク
ナンバおよびスタイルナンバを指定することによって1
つのスタイルデータを指定することができる。また、各
スタイルデータは4つのセクションデータからなってい
るため実際に演奏する場合には、バンクナンバ,スタイ
ルナンバに加えてセクションナンバを指定することによ
り伴奏の自動演奏に使用するシーケンスデータを1つ指
定することができる。
Here, the style data memory is composed of a plurality of banks, and each bank stores a plurality (1 to 100 in FIG. 3) of style data as shown in FIG. There is. Therefore, by specifying the bank number and style number, 1
One style data can be specified. Also, since each style data consists of four section data, when actually playing, by specifying the section number in addition to the bank number and style number, there is one sequence data used for automatic performance of accompaniment. Can be specified.

【0028】同図(B)において、スタイルデータはヘ
ッダおよびメイン,フィルイン,イントロ,エンディン
グの4つのセクションデータで構成されている。ヘッダ
には、このスタイルデータの名称,ジャンル,拍子,ビ
ートなどこのスタイルデータの種類を示すデータが書き
込まれている。ジャンルとは音楽の種類を示す名称であ
り、ロック,ポップス,ジャズ,ラテンなどがある。ま
た、拍子は1小節内の拍数を示すものであり、3拍子,
4拍子などが一般的である。また、ビートとは1小節に
何回リズムを叩くかの回数であり、4拍子系の曲の場合
には4ビート,8ビート,16ビートなどが一般的であ
る。スタイルデータのうちでジャンルが同一,類似で且
つ拍子が同一のスタイルデータは互いに類似したスタイ
ルデータということができる。
In FIG. 3B, the style data is composed of a header and four section data of main, fill-in, intro and ending. Data indicating the type of style data such as the name, genre, time signature, and beat of this style data is written in the header. The genre is a name indicating the type of music, and includes rock, pops, jazz, Latin, and the like. In addition, the time signature indicates the number of beats in one bar, and the time signature is 3,
4 beats etc. are common. The beat is the number of times the rhythm is hit in one measure, and in the case of a 4-beat tune, 4 beats, 8 beats, 16 beats, etc. are common. Among the style data, the style data having the same genre, the same style, and the same time signature can be referred to as similar style data.

【0029】各セクションデータは数小節分の伴奏パタ
ーンで構成されている。伴奏パターンは、同図右側に示
すようにシーケンスデータであり、イベントデータとし
てリズム音,ベース音,コード音を発生するためのデー
タが書き込まれている。ベース音,コード音は全てCM
7(ハ長調の長7度和音)のコードが指定されたときの
音高で記載されているため、実際に発音するときにはそ
のとき指定されているROOT,TYPEに基づいてこ
れを修正・シフトしたデータを音源回路21に送信す
る。メインセクションデータは曲の演奏中の通常の伴奏
に用いられるスタイルデータである。フィルインセクシ
ョンデータは、曲のフレーズの切れ目にメインセクショ
ンデータに挿入されるデータである。イントロデータは
曲の最初に演奏されるスタイルデータである。エンディ
ングデータは曲の終了時に演奏されるスタイルデータで
ある。このうち、メインスタイルデータは何度も繰り返
して演奏されるため、データの末尾と先頭とがつながり
やすいように構成されている。なお、各セクションデー
タのセクションナンバは、メインデータ:1、フィルイ
ンデータ:2、イントロデータ:3、エンディングデー
タ:4である。
Each section data is composed of an accompaniment pattern for several measures. The accompaniment pattern is sequence data as shown on the right side of the figure, and data for generating rhythm sounds, bass sounds, and chord sounds is written as event data. CM for all bass and chord sounds
Since the 7th chord (7th major chord in C major) is written as the pitch when it was specified, it was corrected / shifted based on the ROOT and TYPE specified at that time when actually pronouncing. The data is transmitted to the sound source circuit 21. The main section data is style data used for normal accompaniment during performance of a piece of music. Fill-in section data is data that is inserted into the main section data at the breaks in the phrase of a song. Intro data is style data that is played at the beginning of a song. The ending data is style data played at the end of the song. Of these, the main style data is played over and over again, so that the end and beginning of the data are easily connected. The section numbers of each section data are main data: 1, fill-in data: 2, intro data: 3, and ending data: 4.

【0030】図3はスタイルデータメモリにおけるスタ
イルデータとスタイルナンバの対応を示す図である。こ
の図はバンク1のみを示している。自動演奏装置や自動
演奏機能を備えた電子楽器には、スタイルデータが記憶
されるが、同図に示したスタイルデータの全てが記憶さ
れるとは限らず、その一部のみが記憶される場合が多
い。しかし、その場合でも、スタイルデータの内容(名
称)とスタイルナンバの対応はこの図と同様であり、同
一のバンクナンバ,スタイルナンバであれば、どの自動
演奏装置,自動演奏機能を備えた電子楽器でも同一のス
タイルデータが指定されるようにする。
FIG. 3 is a diagram showing correspondence between style data and style numbers in the style data memory. This figure shows only bank 1. Style data is stored in an electronic musical instrument or an electronic musical instrument having an automatic performance function, but not all of the style data shown in the figure is stored, but only a part of the style data is stored. There are many. However, even in that case, the correspondence between the content (name) of style data and the style number is the same as in this figure, and if the same bank number and style number are used, which automatic musical instrument and electronic musical instrument with an automatic musical instrument function is provided. But make sure that the same style data is specified.

【0031】なお、各スタイルデータはジャンル別に記
憶されている。この図におけるDance, Ballad, Rock &
Pop, Rhythm & Blues, Hard Rock, Rock & Roll, Jazz,
Latin, Reggae, World がジャンル名である。このう
ち、例えば、Rock & Pop, HardRock, Rock & Rollが互
いに類似し、Rhythm & BluesとRock & Roll が互いに類
似し、Latin とReggaeが互いに類似しているといえる。
Each style data is stored for each genre. Dance, Ballad, Rock & in this figure
Pop, Rhythm & Blues, Hard Rock, Rock & Roll, Jazz,
Latin, Reggae, World are genre names. Of these, for example, Rock & Pop, HardRock, Rock & Roll are similar to each other, Rhythm & Blues and Rock & Roll are similar to each other, and Latin and Reggae are similar to each other.

【0032】図4は前記スタイルデータメモリに記憶さ
れる代用テーブルの構成を示す図である。代用テーブル
には、該スタイルデータメモリに記憶していないスタイ
ルデータが指定された場合に、そのスタイルデータ(指
定スタイル)に代えて伴奏に用いるスタイルデータ(代
用スタイル)が対応して記憶されている。なお、指定ス
タイル,代用スタイルともにバンクナンバとスタイルナ
ンバで記憶されている。代用スタイルとしては、ジャン
ルが同一または類似、かつ、拍子が同一、さらに好まし
くはビートが同一のスタイルが選択される。代用スタイ
ルは、必ずスタイルデータメモリに記憶しているスタイ
ルデータが指定されるため代用スタイルの記憶エリアは
1つでもよいが、演奏に変化を与えるためこの実施形態
では代用スタイルを複数記憶するようにしている。実際
に用いる代用スタイルは、このなかからランダムに選択
してもよく、直前に演奏されていたスタイルデータとの
相性を考慮して選択するようにしてもよい。
FIG. 4 is a diagram showing the structure of the substitute table stored in the style data memory. When the style data not stored in the style data memory is designated, the substitute table stores the style data (substitute style) used for accompaniment instead of the style data (designated style). . Both the designated style and the substitute style are stored as a bank number and a style number. As the substitute style, a style having the same or similar genre, the same time signature, and more preferably the same beat is selected. Since the substitute style always specifies the style data stored in the style data memory, the substitute style may have only one storage area, but in order to change the performance, a plurality of substitute styles should be stored in this embodiment. ing. The substitute style to be actually used may be randomly selected from these, or may be selected in consideration of compatibility with the style data that was played immediately before.

【0033】上記のようにこの実施形態では代用テーブ
ルをスタイルデータメモリに予め記憶しているが、代用
テーブルをソングデータとともにフロッピィディスクか
ら与えられるようにしてもよく、また、ソングデータと
は別に他の装置からMIDIインタフェースなどを介し
て与えられるようにしてもよい。代用テーブルを外部か
ら与える場合には、この電子楽器がどのようなスタイル
データを内蔵しているかが不明であるため、全てのスタ
イルデータ(指定スタイル)に対する代用スタイルが記
載され、且つ、各指定スタイルに対する代用スタイルが
それぞれ複数記載された代用テーブルを用いる。電子楽
器では、スタイルデータメモリに内蔵してないスタイル
データが指定されたとき、自己が内蔵しているスタイル
データのなかで代用テーブルの最も高い優先順位に記載
されているものを選択する。
As described above, in this embodiment, the substitute table is stored in the style data memory in advance. However, the substitute table may be provided from the floppy disk together with the song data, or other than the song data. May be provided from the device of FIG. When a substitute table is given from the outside, it is unclear what style data this electronic musical instrument has. Therefore, substitute styles for all style data (designated styles) are described, and each designated style is specified. A substitute table in which a plurality of substitute styles are described is used. In the electronic musical instrument, when style data that is not stored in the style data memory is designated, the style data stored in the style data memory is selected from the style data stored in the style data memory that has the highest priority in the substitute table.

【0034】図5〜図10を参照して同電子楽器の自動
演奏動作について説明する。プレイモード(鍵盤17を
操作して演奏者が演奏するモード)の動作は従来より周
知であるため説明を省略する。
The automatic performance operation of the electronic musical instrument will be described with reference to FIGS. The operation in the play mode (the mode in which the player operates by operating the keyboard 17) is well known in the art, and therefore the description thereof is omitted.

【0035】図5はシーケンス再生動作を示すフローチ
ャートである。この動作はソングデータの自動演奏動作
がスタートしたのち一定時間毎に行われるタイマ15の
割り込みによって実行される動作である。なお、ソング
データは、自動演奏の開始時にフロッピィディスクから
RAM12のソングデータファイルに読み込まれる。ま
ずダウンカウントレジスタTIME1が0であるか否か
を判断する。このダウンカウントレジスタTIME1
は、ソングデータのデルタタイムデータの値を読み込ん
でこのタイマ割込動作毎にダウンカウントするレジスタ
である。TIME1が0でない場合にはまだ次のシーケ
ンスデータの読出タイミングではないためTIME1か
ら1を減算して(n2)、リターンする。
FIG. 5 is a flow chart showing the sequence reproduction operation. This operation is an operation executed by the interruption of the timer 15 which is performed at regular intervals after the automatic performance of song data is started. The song data is read from the floppy disk into the song data file in the RAM 12 at the start of automatic performance. First, it is determined whether or not the down count register TIME1 is 0. This down count register TIME1
Is a register that reads the value of the delta time data of the song data and counts down for each timer interrupt operation. If TIME1 is not 0, it is not the read timing of the next sequence data yet, so 1 is subtracted from TIME1 (n2) and the process returns.

【0036】n1でTIME1=0であった場合には、
次のシーケンスデータの読み出しタイミングであるため
n3以下の動作に進む。n3ではRAM12のソングデ
ータファイルから次のシーケンスデータを読み出し、そ
のデータがデルタタイムデータであるかイベントデータ
であるかを判断する(n4)。イベントデータである場
合には、図6,図7に示すイベント対応処理を実行する
(n5)。実行ののちn3に戻る。デルタタイムデータ
の場合にはそのデータをTIME1にセットし(n
6)、そのデータが0タイムデータであるか否かを判断
する(n7)。0タイムデータであれば連続してイベン
トデータの読み出しを行うためn3に戻る。0タイムデ
ータでない場合にはn7の判断ののちTIME1から1
を減算して(n2)リターンする。
When TIME1 = 0 at n1,
Since it is the read timing of the next sequence data, the operation proceeds to n3 or less. At n3, the next sequence data is read from the song data file in the RAM 12 and it is determined whether the data is delta time data or event data (n4). If it is event data, the event handling process shown in FIGS. 6 and 7 is executed (n5). After execution, return to n3. In the case of delta time data, set that data in TIME1 (n
6) It is determined whether the data is 0 time data (n7). If the time data is 0, event data is continuously read, and the process returns to n3. If it is not 0 time data, it is judged from n7 and then from TIME1 to 1
Is subtracted (n2) and the process returns.

【0037】図6,図7は上記n5におけるイベント対
応処理を示すフローチャートである。このイベント対応
処理はソングデータから読み出される全てのイベントデ
ータに対応する処理を含んでいる。
FIGS. 6 and 7 are flow charts showing the event handling process at n5. This event corresponding process includes a process corresponding to all the event data read from the song data.

【0038】図6(A)はノートイベントデータが読み
出された場合の動作を示している。ノートイベントデー
タが読み出されると、そのデータがノートオンイベント
データであるかノートオフイベントデータであるかを判
断する(n10)。ノートオンイベントデータの場合に
は、このノートオンイベントデータに含まれるチャンネ
ルナンバ,ノートナンバ,ベロシティデータなどを音源
回路21に送信して発音処理を実行する(n11)。一
方、ノートオフイベントデータであった場合には、対応
する発音チャンネルの消音データを音源回路21に送信
して消音処理を実行する(n12)。
FIG. 6A shows the operation when the note event data is read. When the note event data is read, it is determined whether the data is note-on event data or note-off event data (n10). In the case of note-on event data, the channel number, note number, velocity data, etc. included in this note-on event data are transmitted to the tone generator circuit 21 to execute sound generation processing (n11). On the other hand, if it is the note-off event data, the mute data of the corresponding sounding channel is transmitted to the sound source circuit 21 to execute the mute processing (n12).

【0039】同図(B)はその他演奏イベント処理を示
すフローチャートである。その他演奏イベントとは、例
えば、ピッチベンドデータ,音量調整イベント,テンポ
チェンジイベントなどである。このような演奏イベント
データが読み出された場合には、音源回路21やタイマ
15などの対応する動作部にそのデータを出力する(n
13)。
FIG. 6B is a flow chart showing other performance event processing. Other performance events include, for example, pitch bend data, volume adjustment event, tempo change event, and the like. When such performance event data is read, the data is output to the corresponding operation unit such as the tone generator circuit 21 and the timer 15 (n
13).

【0040】同図(C)はエンドデータが読み出された
場合の処理を示すフローチャートである。エンドデータ
が読み出された場合には、この自動演奏により発音して
いる全ての音源チャンネルに対して発音の停止を指示す
るとともに、図5および後述する図9のタイマ割込処理
を非動作状態にする(n14)。これにより、ソングデ
ータ,スタイルデータに基づく楽音は全て消音され自動
演奏が終了する。
FIG. 6C is a flowchart showing the processing when the end data is read. When the end data is read out, all the sound source channels which are sounding by this automatic performance are instructed to stop sounding, and the timer interrupt processing of FIG. 5 and FIG. (N14). As a result, all the musical tones based on the song data and style data are muted and the automatic performance ends.

【0041】同図(D)はコードデータが読み出された
場合の処理を示すフローチャートである。コードデータ
はルートデータおよびタイプデータからなっているが、
このうちルートデータをROOTレジスタにセットし、
タイプデータをTYPEレジスタにセットする(n1
5)。なお、ROOT,TYPEは自動演奏のスタート
時にリセットされる。
FIG. 6D is a flowchart showing the processing when the code data is read. Code data consists of route data and type data,
Of these, set the route data in the ROOT register,
Set the type data in the TYPE register (n1
5). The ROOT and TYPE are reset at the start of the automatic performance.

【0042】図7はスタイルデータを指定するイベント
データが読み出されたときの動作を示している。同図
(A)はバンクナンバ指定イベントによりバンクナンバ
が指定された場合の動作を示している。バンクナンバが
指定されると、このバンクナンバを新バンクナンバレジ
スタNBANKにセットして(n20)リターンする。
この新バンクナンバNBANKは、次にスタイルナンバ
が新たに指定されたとき指定バンクナンバBANKとし
てセットされる。
FIG. 7 shows the operation when the event data designating the style data is read. FIG. 13A shows the operation when the bank number is designated by the bank number designation event. When the bank number is designated, this bank number is set in the new bank number register NBANK (n20) and the process returns.
This new bank number NBANK is set as the designated bank number BANK when the style number is newly designated next time.

【0043】同図(B)はスタイルナンバ指定イベント
によりスタイルナンバが指定された場合の動作を示すフ
ローチャートである。スタイルナンバが指定されると、
このスタイルナンバを新スタイルナンバレジスタNST
YLEにセットする(n21)。次に、新たなスタイル
ナンバNSTYLEおよびバンクナンバNBANKで指
定されるスタイルデータがスタイルデータメモリに記憶
されているか否かを判断する(n22)。該当のスタイ
ルデータが記憶されている場合には新スタイルナンバN
STYLEおよび新バンクナンバNBANKを指定スタ
イルナンバレジスタSTYLE,指定バンクナンバレジ
スタBANKにセットするとともに(n23)、STY
LE,BANKで指定されるスタイルデータ中のセクシ
ョンナンバSECTIONで指定されるセクションデー
タによる伴奏の自動演奏を開始する(n24)。すなわ
ち、現在の自動演奏の進度に合わせて該セクションデー
タの読み出しポインタをセットするとともに、スタイル
データのダウンカウントレジスタTIME2につぎのシ
ーケンスデータ読出タイミングまでのクロック数をセッ
トする。こののち、リターンする。
FIG. 6B is a flow chart showing the operation when the style number is designated by the style number designation event. When the style number is specified,
This style number is the new style number register NST
Set to YLE (n21). Next, it is determined whether or not the style data designated by the new style number NSTYLE and the bank number NBANK is stored in the style data memory (n22). If the corresponding style data is stored, the new style number N
STYLE and the new bank number NBANK are set in the designated style number register STYLE and the designated bank number register BANK (n23), and STY.
The automatic performance of the accompaniment by the section number designated by the section number SECTION in the style data designated by LE and BANK is started (n24). That is, the read pointer of the section data is set according to the progress of the current automatic performance, and the number of clocks until the next sequence data read timing is set in the style data down count register TIME2. After this, return.

【0044】一方、NSTYLEおよびNBANKで指
定されるスタイルデータがスタイルデータメモリに記憶
されていない場合にはスタイル代用処理(n25)を実
行する。スタイル代用処理の詳細は後述する。
On the other hand, if the style data designated by NSTYLE and NBANK is not stored in the style data memory, the style substitution process (n25) is executed. Details of the style substitution process will be described later.

【0045】同図(C)はセクションナンバ指定イベン
トによりセクションナンバが指定された場合の動作を示
すフローチャートである。セクションナンバが指定され
ると、このセクションナンバをセクションナンバレジス
タSECTIONにセットし(n26)、STYLE,
BANKで指定されているスタイルデータの該セクショ
ンナンバSECTIONで指定されるセクションデータ
による伴奏の自動演奏を開始する(n27)。すなわ
ち、現在の自動演奏の進度に合わせて該セクションデー
タの読み出しポインタをセットするとともに、スタイル
データのダウンカウントレジスタTIME2につぎのシ
ーケンスデータ読出タイミングまでのクロック数をセッ
トする。こののちリターンする。
FIG. 6C is a flow chart showing the operation when the section number is designated by the section number designation event. When the section number is designated, this section number is set in the section number register SECTION (n26), and STYLE,
The automatic performance of the accompaniment by the section data designated by the section number SECTION of the style data designated by BANK is started (n27). That is, the read pointer of the section data is set according to the progress of the current automatic performance, and the number of clocks until the next sequence data read timing is set in the style data down count register TIME2. Then return.

【0046】図8はスタイル代用処理を示すフローチャ
ートである。NSTYLEおよびNBANKで指定され
るスタイルデータを指定スタイルとして代用テーブル
(図4参照)を参照し、スタイルデータメモリ中から代
用可能なスタイルをサーチする(n30)。代用テーブ
ルで代用スタイルを発見した場合にはn31からn32
に進む。このn31では、指定スタイルに関するレコー
ドがない場合、および、代用スタイルのスタイルデータ
をこのスタイルデータメモリに記憶していない場合にN
Oと判断してそのままリターンする。この場合には、S
TYLE,BANKとも書き換えられることなく図7
(B)のスタイルナンバ指定イベント対応処理を抜ける
ことになり、それまでのスタイルで演奏が継続すること
になる。
FIG. 8 is a flow chart showing the style substitution process. By referring to the substitute table (see FIG. 4) with the style data designated by NSTYLE and NBANK as the designated style, the style data memory is searched for a substitutable style (n30). If you find a substitute style in the substitute table, n31 to n32
Proceed to. In this n31, if there is no record relating to the specified style and if the style data of the substitute style is not stored in this style data memory, N
Judge as O and return as it is. In this case, S
TYLE and BANK are not rewritten in FIG.
The processing corresponding to the style number designation event in (B) is to be skipped, and the performance is continued in the style so far.

【0047】n32ではサーチ結果により抽出された代
用スタイルのバンクナンバおよびスタイルナンバをBA
NK,STYLEに書き込み(n32)、STYLE,
BANKで指定されているスタイルデータの該セクショ
ンナンバSECTIONで指定されるセクションデータ
による伴奏の自動演奏を開始する(n33)。すなわ
ち、現在の自動演奏の進度に合わせて該セクションデー
タの読み出しポインタをセットするとともに、スタイル
データのダウンカウントレジスタTIME2につぎのシ
ーケンスデータ読出タイミングまでのクロック数をセッ
トする。こののちリターンする。なお、代用テーブルの
サーチにおいて、複数の代用スタイルが選択可能であっ
た場合には、そのなかで最も優先順位の高いものを選択
するようにしてもよく、ランダムに選択するようにして
もよい。
At n32, the bank number and style number of the substitute style extracted by the search result are BA.
Write to NK, STYLE (n32), STYLE,
The automatic performance of the accompaniment by the section data designated by the section number SECTION of the style data designated by BANK is started (n33). That is, the read pointer of the section data is set according to the progress of the current automatic performance, and the number of clocks until the next sequence data read timing is set in the style data down count register TIME2. Then return. When a plurality of substitute styles can be selected in the substitute table search, the one having the highest priority may be selected or may be selected at random.

【0048】図9は、スタイル再生処理を示すフローチ
ャートである。この動作はソングデータのシーケンス再
生動作(図5)と平行して同一のタイマ割込時に実行さ
れる動作である。まずダウンカウントレジスタTIME
2が0であるか否かを判断する(n41)。このダウン
カウントレジスタTIME2は、セクションデータから
デルタタイムデータの値を読み込んでこのタイマ割込動
作毎にダウンカウントするレジスタである。TIME2
が0でない場合にはまだ次のシーケンスデータの読出タ
イミングではないためTIME2から1を減算して(n
42)、リターンする。
FIG. 9 is a flowchart showing the style reproduction process. This operation is an operation executed at the same timer interruption time in parallel with the song data sequence reproduction operation (FIG. 5). First, the down count register TIME
It is determined whether 2 is 0 (n41). The down count register TIME2 is a register that reads the value of delta time data from the section data and counts down for each timer interrupt operation. TIME2
Is not 0, it is not the read timing of the next sequence data, so 1 is subtracted from TIME2 (n
42) and return.

【0049】n41でTIME2=0であった場合に
は、次のシーケンスデータの読み出しタイミングである
ためn43以下の動作に進む。n43では対応するセク
ションデータから次のシーケンスデータを読み出し、そ
のデータがデルタタイムデータであるかイベントデータ
であるかを判断する(n44)。イベントデータである
場合には、図10に示すイベント対応処理を実行する
(n45)。実行ののちn43に戻る。デルタタイムデ
ータの場合にはそのデータをTIME2にセットし(n
46)、そのデータが0タイムデータであるか否かを判
断する(n47)。0タイムデータであれば連続してイ
ベントデータの読み出しを行うためn43に戻る。0タ
イムデータでない場合にはn47の判断ののち、TIM
E2から1を減算して(n42)リターンする。
When TIME2 = 0 at n41, it is the read timing of the next sequence data, and therefore the operation proceeds to n43 and thereafter. At n43, the next sequence data is read from the corresponding section data and it is determined whether the data is delta time data or event data (n44). If it is event data, the event handling process shown in FIG. 10 is executed (n45). After execution, return to n43. In the case of delta time data, set that data in TIME2 (n
46), it is determined whether the data is 0 time data (n47). If it is 0 time data, the process returns to n43 to read event data continuously. If it is not 0 time data, after the judgment of n47, TIM
Subtract 1 from E2 (n42) and return.

【0050】図10(A)はノートイベントデータが読
み出された場合の動作を示している。ノートイベントデ
ータが読み出されると、そのデータがノートオンイベン
トデータであるかノートオフイベントデータであるかを
判断する(n50)。ノートオンイベントデータの場合
には、このノートオンイベントデータがリズムパートの
データであるか非リズムパートのデータであるかを判断
する(n51)。この判断はノートイベントデータに含
まれるチャンネルナンバに基づいてなされる。リズムパ
ートの場合には、このノートオンイベントデータに含ま
れるチャンネルナンバ,ノートナンバ(リズム音の種類
を示すデータ),ベロシティデータなどを音源回路21
に送信して発音処理を実行する(n53)。一方、非リ
ズムパートのデータの場合には、音高をそのとき指定さ
れているコード(ROOT,TYPE)に合わせて修正
したのち(n52)、そのチャンネルナンバ,ノートナ
ンバ,ベロシティデータなどを音源回路21に送信して
発音処理を実行する(n53)。また、ノートオフイベ
ントデータであった場合には、対応する発音チャンネル
の消音データを音源回路21に送信して消音処理を実行
する(n54)。
FIG. 10A shows the operation when the note event data is read. When the note event data is read, it is determined whether the data is note on event data or note off event data (n50). In the case of note-on event data, it is determined whether the note-on event data is rhythm part data or non-rhythm part data (n51). This determination is made based on the channel number included in the note event data. In the case of a rhythm part, the tone number circuit 21 includes the channel number, note number (data indicating the type of rhythm sound), velocity data, etc. included in the note-on event data.
To execute the pronunciation process (n53). On the other hand, in the case of non-rhythm part data, the pitch is corrected according to the chord (ROOT, TYPE) specified at that time (n52), and then the channel number, note number, velocity data, etc., of the tone generator circuit. 21 to execute sound generation processing (n53). If it is the note-off event data, the mute data of the corresponding sound generation channel is transmitted to the sound source circuit 21 to execute the mute processing (n54).

【0051】同図(B)はその他演奏イベント処理を示
すフローチャートである。その他演奏イベントとは、例
えば、ピッチベンドデータ,音量調整イベント,テンポ
チェンジイベントなどである。このような演奏イベント
データが読み出された場合には、音源回路21やタイマ
15などの対応する動作部にそのデータを出力する(n
56)。
FIG. 6B is a flow chart showing other performance event processing. Other performance events include, for example, pitch bend data, volume adjustment event, tempo change event, and the like. When such performance event data is read, the data is output to the corresponding operation unit such as the tone generator circuit 21 and the timer 15 (n
56).

【0052】同図(C)はエンドデータが読み出された
場合の処理を示すフローチャートである。セクションデ
ータにおいてエンドデータは演奏の終了ではなくセクシ
ョンデータの末尾を意味するため、エンドデータが読み
出された場合には、読出ポインタを該セクションデータ
の先頭に移してこのセクションデータを繰り返し読み出
すことができるようにする(n57)。
FIG. 6C is a flow chart showing the processing when the end data is read. In the section data, the end data does not mean the end of the performance but the end of the section data. Therefore, when the end data is read, the read pointer can be moved to the beginning of the section data and the section data can be read repeatedly. Allow (n57).

【0053】以上の動作により、ソングデータで指定さ
れたスタイルデータがこの電子楽器に記憶されていなか
ったとき、代用テーブルに基づいて代用可能なスタイル
データが選択され、そのスタイルデータに基づいて伴奏
の自動演奏が実行される。なお、この実施形態では代用
テーブル(図4)をスタイルデータ単位で記載し、スタ
イル代用処理(図8)をスタイルナンバが指定されたと
きに実行するようにしているが、代用テーブルをセクシ
ョンデータ単位で記載し、記憶していないセクションデ
ータが指定される毎にそのセクションデータに最も類似
した他のセクションデータを代用するようにしてもよ
い。また、代用テーブルをユーザが書き換え追加できる
ようにしてもよい。
By the above operation, when the style data designated by the song data is not stored in this electronic musical instrument, the substitutable style data is selected based on the substitution table, and the accompaniment is performed based on the style data. Automatic performance is executed. In this embodiment, the substitution table (FIG. 4) is described in units of style data, and the style substitution process (FIG. 8) is executed when the style number is specified. It is also possible to substitute other section data that is most similar to that section data every time the section data that is not stored is specified. Further, the substitution table may be rewritable and added by the user.

【0054】ここで、代用スタイルを選択する方式は上
記図4の代用テーブル,図8のスタイル代用処理に示し
た方式以外にも種々の方式を採用することができる。以
下図11および図12に代用スタイル選択動作の第2,
第3の実施形態を示す。
Here, as a method for selecting a substitute style, various methods other than the method shown in the substitute table of FIG. 4 and the style substitute processing of FIG. 8 can be adopted. The second and subsequent alternative style selection operations are shown in FIGS. 11 and 12.
A 3rd embodiment is shown.

【0055】図11はスタイル代用処理の第2の実施形
態を示すフローチャートである。この実施形態では、代
用テーブルを用いず、NBANK,NSTYLEで指定
されるスタイルデータ(指定スタイル)に類似するスタ
イルデータをスタイルデータメモリから選びだしてそれ
を代用スタイルとして用いるようにしている。スタイル
データの類似は、ジャンル,拍子,ビートに基づいて判
断する。スタイルデータメモリに記憶されているスタイ
ルデータの場合、ジャンル,拍子,ビートはそのスタイ
ルデータのヘッダに書き込まれているが、ソングデータ
から指定されるスタイルデータのジャンル,拍子,ビー
トも何らかの方式で認識されるものとする。たとえば、
ソングデータのスタイルナンバ指定イベントにこれらの
データを書き込んでおく方式や、データ本体を記憶して
いるか否かにかかわらず全スタイルデータのジャンル,
拍子,ビートをスタイルデータメモリに記憶しておく方
式などがある。
FIG. 11 is a flow chart showing the second embodiment of the style substitution process. In this embodiment, instead of using the substitute table, style data similar to the style data (designated style) designated by NBANK and NSTYLE is selected from the style data memory and used as the substitute style. The similarity of style data is determined based on the genre, time signature, and beat. In the case of style data stored in the style data memory, the genre, time signature, and beat are written in the header of the style data, but the genre, time signature, and beat of the style data specified from the song data are also recognized by some method. Shall be done. For example,
Regardless of the method of writing these data in the style number specified event of the song data, and whether or not the data body is stored, the genre of all style data,
There is a method to store the time signature and beat in the style data memory.

【0056】まず、指定スタイルと同一ジャンルのスタ
イルデータをスタイルデータメモリからサーチする(n
60)。同一ジャンルのスタイルデータがサーチされた
場合には(n61)、サーチされたスタイルデータのな
かから指定スタイルと同一拍子のスタイルデータをサー
チする(n64)。このサーチにより同一拍子のデータ
がある場合にはサーチされたスタイルデータのなかから
同一ビートのスタイルデータがあるか否かをサーチする
(n66)。同一のビートのスタイルデータがあればそ
のスタイルデータを代用スタイルデータとして選択する
(n67,n68)。該当するスタイルデータが複数あ
る場合にはそのうちの一つを選択する(n68)。一
方、同一ビートのスタイルデータがない場合にはn64
でサーチされた同一拍子のスタイルデータのなかから一
つを代用スタイルデータとしてランダムあるいは所定の
規則に従って選択する(n69)。以上の動作で選択さ
れた代用スタイルデータのバンクナンバ,スタイルナン
バをBANK,STYLEにセットする(n70)。こ
ののち、このSTYLE,BANKで指定されるスタイ
ルデータ中のセクションナンバSECTIONで指定さ
れるセクションデータによる伴奏の自動演奏を開始して
(n71)リターンする。すなわち、現在の自動演奏の
進度に合わせて該セクションデータの読み出しポインタ
をセットするとともに、スタイルデータのダウンカウン
トレジスタTIME2につぎのシーケンスデータ読出タ
イミングまでのクロック数をセットする。このようにこ
の実施形態では代用テーブルを持たずスタイルデータの
種類を表すデータに基づいて代用スタイルを検索するよ
うにしている。
First, style data of the same genre as the designated style is searched from the style data memory (n
60). When style data of the same genre is searched (n61), style data having the same beat as the designated style is searched from the searched style data (n64). If there is data with the same beat as a result of this search, it is searched from the style data searched for whether there is style data with the same beat (n66). If there is style data of the same beat, that style data is selected as substitute style data (n67, n68). When there are a plurality of applicable style data, one of them is selected (n68). On the other hand, if there is no style data for the same beat, n64
One of the style data having the same time signature searched for is selected as the substitute style data at random or according to a predetermined rule (n69). The bank number and style number of the substitute style data selected by the above operation are set to BANK and STYLE (n70). After this, the automatic performance of the accompaniment by the section data designated by the section number SECTION in the style data designated by STYLE and BANK is started (n71) and the process returns. That is, the read pointer of the section data is set according to the progress of the current automatic performance, and the number of clocks until the next sequence data read timing is set in the style data down count register TIME2. As described above, in this embodiment, a substitute table is not provided and the substitute style is searched based on the data representing the type of style data.

【0057】一方、n61で指定スタイルと同一ジャン
ルのスタイルデータがない場合には類似するジャンルの
スタイルデータがあるか否かをサーチする(n62)。
類似するジャンルのスタイルデータがある場合にはn6
3からn64に復帰する。類似するジャンルのスタイル
データもない場合には代用できるスタイルデータがない
としてそのままリターンする。また、同一または類似す
るジャンルのスタイルデータがサーチされた場合でも拍
子が同一のものがサーチできなかった場合には、代用で
きないとしてn65の判断でそのままリターンする。し
たがって、それまでのスタイルによる演奏が継続するこ
とになる。
On the other hand, if there is no style data of the same genre as the designated style in n61, it is searched whether or not there is style data of a similar genre (n62).
If there is style data of a similar genre, n6
Return from 3 to n64. If there is no style data of a similar genre, there is no substitute style data, and the process returns as it is. Further, even if style data of the same or similar genre is searched, if the one having the same time signature cannot be searched, it is determined that the substitute cannot be performed, and the process returns as it is at n65. Therefore, the performance in the style so far continues.

【0058】図12はスタイル代用処理の第3の実施形
態を示す図である。同図(A)は同実施形態に用いられ
るスタイルデータメモリを示す図である。この実施形態
ではスタイルデータをジャンル,拍子,ビートによって
分類し、ジャンル,拍子,ビートが同一のスタイルデー
タを全て同一のスタイルナンバで記憶するようにしてい
る。バンク0には、そのジャンル,拍子,ビートが同一
のスタイルデータのうち最も基本的なスタイルデータを
記憶し、バンク1〜255に同一のスタイルナンバにそ
のバリエーションとなるようなスタイルデータを記憶す
るようにしている。したがって、指定スタイルがない場
合には、同一のスタイルナンバで異なるバンクナンバの
スタイルデータを代用スタイルとして選択することによ
り、類似した適当なスタイルデータを選択することがで
きる。なお、スタイルナンバ238〜255は代用不可
のスタイルデータの記憶エリアである。すなわち、この
範囲のスタイルデータは同一のスタイルナンバでもバン
ク間で代用不可である。他のスタイルデータと代用でき
ないスタイルデータとは、例えば、ユーザが作成したユ
ーザデータや特殊な民族音楽のデータなどである。
FIG. 12 is a diagram showing a third embodiment of the style substitution processing. FIG. 3A is a diagram showing a style data memory used in the same embodiment. In this embodiment, style data is classified by genre, time signature, and beat, and style data having the same genre, time signature, and beat are all stored with the same style number. The bank 0 stores the most basic style data among the style data having the same genre, time signature, and beat, and the banks 1 to 255 store the style data having the same style number and variations thereof. I have to. Therefore, when there is no designated style, similar style data can be selected by selecting style data having the same style number but different bank numbers as the substitute style. The style numbers 238 to 255 are storage areas of style data that cannot be substituted. That is, the style data in this range cannot be substituted between banks even with the same style number. The style data that cannot be substituted for other style data is, for example, user data created by a user or data of special ethnic music.

【0059】同図(B)はスタイル代用処理を示すフロ
ーチャートである。まず、NBANK,NSTYLEで
指定される指定スタイルがない場合、該スタイルナンバ
NSTYLEが代用可能範囲のナンバであるか否かを判
断する(n80)。代用可能範囲のナンバであれば他の
バンクナンバで同一スタイルナンバのスタイルデータが
記憶されているかをサーチする(n81)。該当するス
タイルデータがサーチされればそのなかから最適なもの
を1つ選択し(n82)、そのバンクナンバをBANK
にセットするとともにNSTYLEをSTYLEにセッ
トする(n83)。こののち、このSTYLE,BAN
Kで指定されるスタイルデータ中のセクションナンバS
ECTIONで指定されるセクションデータによる伴奏
の自動演奏を開始して(n84)リターンする。すなわ
ち、現在の自動演奏の進度に合わせて該セクションデー
タの読み出しポインタをセットするとともに、スタイル
データのダウンカウントレジスタTIME2につぎのシ
ーケンスデータ読出タイミングまでのクロック数をセッ
トする。
FIG. 9B is a flow chart showing the style substitution process. First, when there is no designated style designated by NBANK and NSTYLE, it is determined whether or not the style number NSTYLE is a substitute range number (n80). If the number is within the substitutable range, it is searched whether or not the style data of the same style number is stored in another bank number (n81). If the corresponding style data is searched, one of the most suitable ones is selected (n82) and the bank number is BANK.
, And NSTYLE to STYLE (n83). After this, this STYLE, BAN
Section number S in the style data specified by K
The automatic performance of the accompaniment by the section data designated by ECTION is started (n84) and the process returns. That is, the read pointer of the section data is set according to the progress of the current automatic performance, and the number of clocks until the next sequence data read timing is set in the style data down count register TIME2.

【0060】これにより、バンクナンバの切り換えのみ
で類似するスタイルデータを選択することができる。な
お、n83ではバンクナンバBANKを強制的に0にセ
ットするようにしてもよい。この場合には、バリエーシ
ョンスタイルがない場合には基本スタイルで代用すると
いう処理態様となる。また、この実施形態ではスタイル
データをジャンル,拍子,ビートで分類して同一のもの
のみを同一のスタイルナンバに記憶するようにしたが、
スタイルデータをジャンルと拍子で分類して同一のもの
を同一のスタイルナンバに記憶し、さらに、バンクナン
バでそのスタイルデータがどのようなビートであるかを
識別できるようにしてもよい。また、この実施形態にお
いて、スタイルデータメモリを増設するような場合は、
上記のスタイルナンバとスタイルデータの内容との関係
がそれまでのデータと同じになるように増設するように
する。すなわち、同一,類似のジャンルで同一のスタイ
ルデータは同一のスタイルナンバになるようにメモリの
内容を構成する。
As a result, similar style data can be selected only by switching the bank number. Note that the bank number BANK may be forcibly set to 0 at n83. In this case, if there is no variation style, the basic style is used instead. Further, in this embodiment, style data is classified by genre, time signature, and beat, and only the same items are stored in the same style number.
The style data may be classified by genre and time signature, and the same style data may be stored in the same style number, and the bank number may identify what kind of beat the style data is. In addition, in this embodiment, when the style data memory is additionally installed,
The above-mentioned style number and the contents of the style data are added so that the relationship is the same as the data up to that point. That is, the contents of the memory are configured such that the same style data in the same and similar genres have the same style number.

【0061】以上の実施形態において、スタイルデータ
の内容とそのスタイルデータに対応するスタイルナンバ
あるいはスタイルナンバおよびバンクナンバを複数の機
種の間で統一しておくと、同じソングデータを異なる機
種で再生した場合であっても同じような雰囲気の曲に再
生することができる。
In the above embodiment, if the contents of the style data and the style number corresponding to the style data or the style number and the bank number are unified among a plurality of models, the same song data is reproduced by different models. Even in the case, it is possible to reproduce the music having a similar atmosphere.

【0062】上記実施形態ではソングデータ中にスタイ
ルデータを指定するイベントデータが書き込まれていた
が、これ以外にも外部装置からスタイルデータを指定す
るような構成のものに適用することもできる。
In the above embodiment, the event data for designating the style data is written in the song data, but other than this, it is also possible to apply it to the configuration for designating the style data from an external device.

【0063】また、上記実施形態では同一,類似のジャ
ンルでなければスタイルデータの代用をしないようにし
たが、最悪の場合ジャンルが同一,類似でなくても拍子
が同一であればスタイルデータを代用するようにしても
よい。
Further, in the above embodiment, the style data is not substituted unless it is the same or similar genre, but in the worst case, the style data is substituted if the genre is the same and the beats are the same even if they are not similar. You may do it.

【0064】さらに、上記実施形態では、ソングデータ
の再生時にスタイルナンバなどのスタイルデータを指定
するデータが読み出されたとき、そのスタイルデータを
記憶しているか否かの判断、および、記憶していない場
合には代用するスタイルデータの決定をするようにした
が、ソングデータの再生を開始する前にそのソング中で
選択されるスタイルデータを全て抽出し、その全てにつ
いて予めそのスタイルデータを記憶しているか否かの判
断および代用スタイルの選択を済ませたのち、該ソング
データの再生を開始するようにしてもよい。
Further, in the above embodiment, when the data designating the style data such as the style number is read during the reproduction of the song data, it is determined whether or not the style data is stored and the stored data. If it does not exist, the substitute style data is decided, but before starting the song data playback, all style data selected in the song is extracted and the style data is stored in advance for all of them. It is also possible to start the reproduction of the song data after determining whether or not the song data is selected and selecting a substitute style.

【0065】次に、この発明の他の実施態様について説
明する。図13は好適スタイル検索処理を示すフローチ
ャートである。この好適スタイル検索処理においては、
ソングデータのヘッダ部に記憶されているソングのジャ
ンル,拍子,ビートの情報をもとに、該ソングの再生と
並行して再生するのに好適なスタイルデータを検索す
る。すなわち、この実施形態においては、前述したソン
グデータ中に記憶されているスタイル指定データにより
指定されるスタイルデータに代えて、他のスタイルを該
ソングと並行して再生できるようにしている。このと
き、ソングデータのヘッダ部に記憶されているジャン
ル,拍子,ビートを参照し、これと一致または類似する
スタイルを検索し、その中から選択するようになってい
るので、ソングデータとスタイルデータの相性がよい演
奏が可能となる。ソングデータ中にスタイル指定データ
が記憶されていなくても、該ソングに好適なスタイルデ
ータを選択することも可能になる。
Next, another embodiment of the present invention will be described. FIG. 13 is a flowchart showing the preferred style search process. In this preferred style search process,
Based on the song genre, time signature, and beat information stored in the header portion of the song data, style data suitable for playing in parallel with the playing of the song is searched. That is, in this embodiment, in place of the style data designated by the style designation data stored in the song data described above, another style can be reproduced in parallel with the song. At this time, the genre, time signature, and beat stored in the header of the song data are referred to, a style that matches or is similar to this is searched, and a style is selected from the styles. It is possible to play with a good compatibility. Even if the style designation data is not stored in the song data, it is possible to select the style data suitable for the song.

【0066】まず、n91でソングデータのヘッダ部を
読み出し、該ソングのジャンル,拍子,ビートの情報を
得る。n92でスタイルメモリに記憶されている各スタ
イルデータのヘッダ部を読み、ソングのジャンル,拍
子,ビートと一致または類似する全てのスタイルを検索
する。そして、n93で、検索された全てのスタイルデ
ータを表示回路20に一覧表示する。一覧表示は、例え
ば、スタイルのバンクナンバ,スタイルナンバ,スタイ
ル名,ジャンル,拍子,ビートなどをリスト表示するこ
とにより行う。この後、ユーザは表示された好適なスタ
イルリストの中から任意のスタイルを選択し、選択した
スタイルをソングと並行して再生する。
First, at n91, the header portion of the song data is read out to obtain information on the genre, time signature, and beat of the song. At n92, the header of each style data stored in the style memory is read, and all styles matching or similar to the genre, time signature, and beat of the song are searched. Then, in n93, a list of all the retrieved style data is displayed on the display circuit 20. The list display is performed, for example, by displaying a list of style bank numbers, style numbers, style names, genres, time signatures, beats, and the like. After that, the user selects an arbitrary style from the displayed suitable style list and plays the selected style in parallel with the song.

【0067】なお、検索された複数のスタイルデータの
中からいずれかをランダムに選択し、ソングデータとと
もに再生するようにしてもよい。
It should be noted that any one of the plurality of retrieved style data may be randomly selected and reproduced together with the song data.

【0068】図14はソング検索処理を示すフローチャ
ートである。このソング検索処理においては、ソングデ
ータのヘッダ部に記憶されているソングのジャンル,拍
子,ビートの情報を検索条件として、該検索条件に合致
するソングデータを検索する。すなわち、多数記憶され
ているソングデータの中から、ユーザの好みにあったソ
ングデータを、ソングのジャンル,拍子,ビートを指定
することによって検索可能となっている。
FIG. 14 is a flow chart showing the song search process. In this song search processing, the song data that matches the search conditions is searched using the song genre, time signature, and beat information stored in the header portion of the song data as the search conditions. That is, it is possible to search for song data that suits the user's preference from a large number of stored song data by designating the genre, time signature, and beat of the song.

【0069】n101で検索するソングのジャンル,拍
子,ビートのうちの少なくとも1つを検索条件として指
定する。例えば複数の条件AとBを指定する場合は、A
アンドBまたはAオアBのように検索条件を指定する。
n102でフロッピィディスクに記憶されているソング
データのヘッダを読み、検索条件として指定されたジャ
ンル,拍子,ビートと一致または類似するソングを検索
する。そして、n103で検索された全てのソングデー
タを表示回路20に一覧表示する。なお、検索条件とし
て、ジャンル,拍子,ビート以外の情報、例えば作曲
者,作詞者,歌手名なども合わせて指定するようにして
もよい。
At step n101, at least one of the genre, time signature, and beat of the song to be searched is designated as the search condition. For example, when specifying multiple conditions A and B, A
Specify the search condition like ANDB or AORB.
At n102, the header of the song data stored in the floppy disk is read, and a song matching or similar to the genre, time signature, and beat specified as the search condition is searched. Then, a list of all the song data retrieved in n103 is displayed on the display circuit 20. Information other than the genre, time signature, and beat, such as the composer, the lyricist, and the singer name, may also be specified as the search condition.

【0070】なお、ソングデータのヘッダ部にソングの
ジャンル,拍子,ビート等の情報を記憶させるようにし
たが、記憶形式はこのような形式に限らない。例えば、
ソングデータをスタンダードMIDIファイル形式で記
憶する場合、トラックチャンク中にメタイベントとして
これらの情報を記憶させるようにしてもよいし、トラッ
クチャンクとは異なるチャンクにこれらの情報を記憶さ
せるようにしてもよい。また、ソングデータが記憶され
たファイルとは異なるファイルにこれらの情報を記憶さ
せ、ファイル名などをソングデータのファイルと一致さ
せることにより、ソングデータとこれらの情報を対応さ
せるようにしてもよい。
Although the information such as the genre, time signature, and beat of the song is stored in the header portion of the song data, the storage format is not limited to this. For example,
When the song data is stored in the standard MIDI file format, this information may be stored as a meta event in a track chunk, or may be stored in a chunk different from the track chunk. . Further, these pieces of information may be stored in a file different from the file in which the song data is stored, and the file name and the like may be matched with the file of the song data, so that the song data and these pieces of information are associated with each other.

【0071】また、ソングデータの検索に限らず、スタ
イルデータの検索に、ジャンル,拍子,ビートの情報を
用いてもよい。
Information for genre, time signature, and beat may be used for searching style data, not limited to searching for song data.

【0072】[0072]

【発明の効果】以上のようにこの発明によれば、演奏デ
ータ記憶手段に記憶されていない演奏データが指定され
たとき、適当なものを代用して自動演奏手段を実行する
ようにしたことにより、指定された演奏データがない場
合でも自動演奏が全く不可能になる場合がなくなる。
As described above, according to the present invention, when the performance data which is not stored in the performance data storage means is designated, the automatic performance means is executed by substituting a suitable one. Even if there is no specified performance data, automatic performance will not be impossible at all.

【0073】この場合に、代用すべき演奏データ(代用
データ)を代用テーブルに記憶しておく方式や、演奏デ
ータ記憶手段で指定された演奏データと一定の関係にあ
る類似した演奏データを代用データとして抽出する方式
や、類似する演奏データをグループ化して記憶しこのな
かから代用データを選択するようにすることにより、よ
り的確に代用データを選択することができ、原曲に近い
雰囲気の自動演奏が可能になる。
In this case, the performance data to be substituted (substitution data) is stored in the substitution table, or performance data similar to the performance data designated by the performance data storage means is used as the substitution data. By extracting the data as a group or storing similar performance data as a group and selecting the substitute data from this group, it is possible to select the substitute data more accurately, and an automatic performance with an atmosphere close to the original song. Will be possible.

【0074】また、この発明によれば、第1の演奏デー
タ中に記憶した特徴を表す情報をもとに、第2の演奏デ
ータを検索するので、第1の演奏データと第2の演奏デ
ータとを並行して再生する場合に、音楽的に好ましい演
奏が可能となる。
Further, according to the present invention, the second performance data is searched based on the information representing the characteristics stored in the first performance data. Therefore, the first performance data and the second performance data are retrieved. When and are reproduced in parallel, a musically preferable performance becomes possible.

【0075】また、この発明によれば、演奏データ中に
演奏データのジャンル,拍子,ビートのうちの少なくと
も1つの情報を記憶させることにより、漠然とした条件
での演奏データの検索が可能になる。
Further, according to the present invention, the performance data can be searched under vague conditions by storing at least one information of the genre, time signature and beat of the performance data in the performance data.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の実施形態である自動演奏機能を備え
た電子楽器のブロック図
FIG. 1 is a block diagram of an electronic musical instrument having an automatic performance function according to an embodiment of the present invention.

【図2】同電子楽器のソングデータおよびスタイルデー
タのデータフォーマットを示す図
FIG. 2 is a diagram showing a data format of song data and style data of the electronic musical instrument.

【図3】同電子楽器のスタイルデータメモリの構成を示
す図
FIG. 3 is a diagram showing a configuration of a style data memory of the electronic musical instrument.

【図4】同電子楽器の代用テーブルの構成を示す図FIG. 4 is a diagram showing a configuration of a substitute table of the electronic musical instrument.

【図5】同電子楽器の動作を示すフローチャート(シー
ケンス再生処理)
FIG. 5 is a flowchart showing the operation of the electronic musical instrument (sequence reproduction processing).

【図6】同電子楽器の動作を示すフローチャート(イベ
ント対応処理)
FIG. 6 is a flowchart showing an operation of the electronic musical instrument (event response processing).

【図7】同電子楽器の動作を示すフローチャート(イベ
ント対応処理)
FIG. 7 is a flowchart showing the operation of the electronic musical instrument (event response processing).

【図8】同電子楽器の動作を示すフローチャート(スタ
イル代用処理)
FIG. 8 is a flowchart showing the operation of the electronic musical instrument (style substitution processing).

【図9】同電子楽器の動作を示すフローチャート(スタ
イル再生処理)
FIG. 9 is a flowchart showing the operation of the electronic musical instrument (style reproduction processing).

【図10】同電子楽器の動作を示すフローチャート(イ
ベント対応処理)
FIG. 10 is a flowchart showing an operation of the electronic musical instrument (event response processing).

【図11】スタイル代用処理の第2の実施形態を示す図FIG. 11 is a diagram showing a second embodiment of style substitution processing.

【図12】スタイル代用処理の第3の実施形態を示す図FIG. 12 is a diagram showing a third embodiment of style substitution processing.

【図13】同電子楽器のさらに他の実施形態の動作を示
すフローチャート
FIG. 13 is a flowchart showing an operation of still another embodiment of the electronic musical instrument.

【図14】同電子楽器のさらに他の実施形態の動作を示
すフローチャート
FIG. 14 is a flowchart showing an operation of still another embodiment of the electronic musical instrument.

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 自動演奏のシーケンスデータである演奏
データを複数種類記憶する演奏データ記憶手段と、自動
演奏する演奏データを指定する演奏データ指定手段と、
指定された演奏データを前記演奏データ記憶手段から読
み出して自動演奏を実行する自動演奏手段とを備えた自
動演奏装置であって、 前記演奏データ指定手段が前記演奏データ記憶手段に記
憶されていない演奏データを指定したとき、該演奏デー
タ記憶手段に記憶されている他の演奏データを代用して
前記自動演奏手段を実行させる代用手段を備えたことを
特徴とする自動演奏装置。
1. Performance data storage means for storing a plurality of types of performance data that is sequence data for automatic performance, and performance data designating means for designating performance data to be automatically performed.
An automatic performance device comprising: automatic performance means for reading specified performance data from the performance data storage means and executing an automatic performance, wherein the performance data designating means is not stored in the performance data storage means. An automatic performance device comprising a substitute means for executing the automatic performance means by substituting other performance data stored in the performance data storage means when data is designated.
【請求項2】 前記代用手段は、前記指定された演奏デ
ータに代用すべき演奏データを記憶した代用テーブル
と、前記演奏データ記憶手段に記憶されていない演奏デ
ータが指定されたとき該代用テーブルを検索して代用す
べき演奏データを割り出す手段とからなる請求項1に記
載の自動演奏装置。
2. The substitution means stores a substitution table storing performance data to be substituted for the designated performance data, and a substitution table when performance data not stored in the performance data storage means is designated. 2. The automatic performance device according to claim 1, further comprising means for searching for performance data to be substituted.
【請求項3】 前記代用手段は、前記演奏データ記憶手
段に記憶されていない演奏データが指定されたとき、該
演奏データ記憶手段を検索して前記指定された演奏デー
タと一定の関係にある演奏データを代用すべき演奏デー
タとして抽出する手段である請求項1に記載の自動演奏
装置。
3. When the performance data that is not stored in the performance data storage means is designated, the substitute means searches the performance data storage means to perform in a fixed relationship with the designated performance data. The automatic performance device according to claim 1, which is means for extracting data as performance data to be substituted.
【請求項4】 前記演奏データ記憶手段は、一定の関係
にある演奏データ毎にグループ化して各グループ別に第
1の指定情報を付して記憶し、さらに、各グループ内に
おいて各演奏データ毎に個別の第2の指定情報を付して
記憶したものであって、 前記代用手段は、前記演奏データ記憶手段に記憶されて
いない演奏データが指定されたとき、指定された演奏デ
ータと第1の指定情報が同一で第2の指定情報が異なる
ものを代用すべき演奏データとして抽出する手段である
請求項1に記載の自動演奏装置。
4. The performance data storage means groups performance data having a certain relationship, stores the first designation information for each group, and stores the performance data in each group. When the performance data not stored in the performance data storage means is designated, the substitute means stores the designated performance data and the first performance information. 2. The automatic performance device according to claim 1, wherein the automatic performance device is a means for extracting, as performance data to be substituted, data having the same designation information but different second designation information.
【請求項5】 前記一定の関係にある演奏データは、前
記指定された演奏データと少なくとも音楽のジャンルが
同一または類似した演奏データである請求項3または請
求項4に記載の自動演奏装置。
5. The automatic performance device according to claim 3, wherein the performance data having the fixed relationship is performance data having at least the same or similar music genre as the designated performance data.
【請求項6】 前記一定の関係にある演奏データは、前
記指定された演奏データと少なくとも拍子が同一の演奏
データである請求項3または請求項4に記載の自動演奏
装置。
6. The automatic performance device according to claim 3, wherein the performance data having the fixed relationship is performance data having at least the same time signature as the designated performance data.
【請求項7】 前記一定の関係にある演奏データは、前
記指定された演奏データとさらにビートが同一の演奏デ
ータである請求項5または請求項6に記載の自動演奏装
置。
7. The automatic performance device according to claim 5, wherein the performance data having the fixed relationship is performance data having the same beat as that of the designated performance data.
【請求項8】 記憶された自動演奏データの特徴を表す
特徴データを含む第1の自動演奏データを記憶した第1
記憶手段と、記憶された自動演奏データの特徴を表す特
徴データを含む第2の自動演奏データを複数記憶した第
2記憶手段と、第1の自動演奏データに含まれる特徴デ
ータと一致または類似する特徴データを有する第2の自
動演奏データ検索する検索手段と、第1の自動演奏デー
タと検索された第2の自動演奏データとを並行して再生
する再生手段と、を備えたことを特徴とする自動演奏装
置。
8. A first stored automatic performance data including characteristic data representing characteristics of the stored automatic performance data.
Storage means, second storage means for storing a plurality of second automatic performance data including characteristic data representing characteristics of the stored automatic performance data, and the same or similar to the characteristic data included in the first automatic performance data. A search means for searching for second automatic performance data having characteristic data; and a reproducing means for reproducing the first automatic performance data and the searched second automatic performance data in parallel. Automatic playing device.
【請求項9】 記憶された自動演奏データのジャンル、
拍子、ビートの少なくとも1つを表すデータを含む自動
演奏データを複数記憶した記憶手段と、ジャンル、拍
子、ビートの少なくとも1つを指定する指定手段と、前
記指定手段により指定されたジャンル、拍子、ビートの
少なくとも1つを検索条件として、検索条件に一致また
は類似した自動演奏データを検索する検索手段と、を備
えたことを特徴とする自動演奏装置。
9. A genre of stored automatic performance data,
Storage means for storing a plurality of automatic performance data including data representing at least one of time signature and beat; specification means for specifying at least one of genre, time signature, and beat; genre, time signature specified by the specification means; An automatic performance device comprising: a search unit that searches for automatic performance data that matches or is similar to the search condition, using at least one of the beats as a search condition.
JP7277640A 1994-11-29 1995-10-25 Automatic performance device Expired - Fee Related JP2940449B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7277640A JP2940449B2 (en) 1994-11-29 1995-10-25 Automatic performance device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP6-294784 1994-11-29
JP29478494 1994-11-29
JP7277640A JP2940449B2 (en) 1994-11-29 1995-10-25 Automatic performance device

Publications (2)

Publication Number Publication Date
JPH08211865A true JPH08211865A (en) 1996-08-20
JP2940449B2 JP2940449B2 (en) 1999-08-25

Family

ID=26552490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7277640A Expired - Fee Related JP2940449B2 (en) 1994-11-29 1995-10-25 Automatic performance device

Country Status (1)

Country Link
JP (1) JP2940449B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11119774A (en) * 1997-10-14 1999-04-30 Yamaha Corp Automatic composing device and storage medium
JP2006221192A (en) * 2006-05-01 2006-08-24 Yamaha Corp Musical performance information retrieving device
US7355111B2 (en) 2002-12-26 2008-04-08 Yamaha Corporation Electronic musical apparatus having automatic performance feature and computer-readable medium storing a computer program therefor
US7605322B2 (en) 2005-09-26 2009-10-20 Yamaha Corporation Apparatus for automatically starting add-on progression to run with inputted music, and computer program therefor

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0239196A (en) * 1988-07-29 1990-02-08 Yamaha Corp Automatic playing device
JPH0411288A (en) * 1990-04-27 1992-01-16 Brother Ind Ltd Karaoke (orchestral accompaniment) player with music retrieving function
JPH04242794A (en) * 1990-12-29 1992-08-31 Brother Ind Ltd Electronic music reproducing device
JPH04360199A (en) * 1991-06-06 1992-12-14 Kawai Musical Instr Mfg Co Ltd Automatic player

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0715295B1 (en) 1994-11-29 2000-01-19 Yamaha Corporation Automatic playing apparatus substituting available pattern for absent pattern

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0239196A (en) * 1988-07-29 1990-02-08 Yamaha Corp Automatic playing device
JPH0411288A (en) * 1990-04-27 1992-01-16 Brother Ind Ltd Karaoke (orchestral accompaniment) player with music retrieving function
JPH04242794A (en) * 1990-12-29 1992-08-31 Brother Ind Ltd Electronic music reproducing device
JPH04360199A (en) * 1991-06-06 1992-12-14 Kawai Musical Instr Mfg Co Ltd Automatic player

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11119774A (en) * 1997-10-14 1999-04-30 Yamaha Corp Automatic composing device and storage medium
US7355111B2 (en) 2002-12-26 2008-04-08 Yamaha Corporation Electronic musical apparatus having automatic performance feature and computer-readable medium storing a computer program therefor
US7667127B2 (en) 2002-12-26 2010-02-23 Yamaha Corporation Electronic musical apparatus having automatic performance feature and computer-readable medium storing a computer program therefor
US7605322B2 (en) 2005-09-26 2009-10-20 Yamaha Corporation Apparatus for automatically starting add-on progression to run with inputted music, and computer program therefor
JP2006221192A (en) * 2006-05-01 2006-08-24 Yamaha Corp Musical performance information retrieving device

Also Published As

Publication number Publication date
JP2940449B2 (en) 1999-08-25

Similar Documents

Publication Publication Date Title
JP6040809B2 (en) Chord selection device, automatic accompaniment device, automatic accompaniment method, and automatic accompaniment program
US5696343A (en) Automatic playing apparatus substituting available pattern for absent pattern
JP3099436B2 (en) Chord detection device and automatic accompaniment device
JP3484719B2 (en) Performance guide device with voice input function and performance guide method
JP3239411B2 (en) Electronic musical instrument with automatic performance function
JP2940449B2 (en) Automatic performance device
JPH0717116Y2 (en) Electronic musical instrument
JPH0746272B2 (en) Electronic musical instrument
JP2001195078A (en) Karaoke device
JP3455050B2 (en) Automatic accompaniment device
JPH06202621A (en) Music retrieval device utilizing music performance information
JP6421811B2 (en) Code selection method and code selection device
JP3237421B2 (en) Automatic performance device
JP2016161900A (en) Music data search device and music data search program
JPH0225194B2 (en)
JP6554826B2 (en) Music data retrieval apparatus and music data retrieval program
JP2003099033A (en) Information editing device and musical score editing device
JP3807333B2 (en) Melody search device and melody search program
JP6606844B2 (en) Genre selection device, genre selection method, program, and electronic musical instrument
JPH08314456A (en) Automatic accompaniment device
JP3637782B2 (en) Data generating apparatus and recording medium
JP2760398B2 (en) Automatic performance device
JPH05188961A (en) Automatic accompaniment device
JP3344872B2 (en) Automatic performance device
JPH058638Y2 (en)

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080618

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090618

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110618

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120618

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120618

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140618

Year of fee payment: 15

LAPS Cancellation because of no payment of annual fees