JP3760940B2 - Automatic performance device - Google Patents

Automatic performance device Download PDF

Info

Publication number
JP3760940B2
JP3760940B2 JP2003366394A JP2003366394A JP3760940B2 JP 3760940 B2 JP3760940 B2 JP 3760940B2 JP 2003366394 A JP2003366394 A JP 2003366394A JP 2003366394 A JP2003366394 A JP 2003366394A JP 3760940 B2 JP3760940 B2 JP 3760940B2
Authority
JP
Japan
Prior art keywords
automatic performance
data
character
ensemble
timbre
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003366394A
Other languages
Japanese (ja)
Other versions
JP2004038219A (en
Inventor
祐二 仙場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2003366394A priority Critical patent/JP3760940B2/en
Publication of JP2004038219A publication Critical patent/JP2004038219A/en
Application granted granted Critical
Publication of JP3760940B2 publication Critical patent/JP3760940B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

この発明は、複数種類の音色の楽音を合成して自動演奏する自動演奏装置の表示態様の改善に関する。   The present invention relates to an improvement in the display mode of an automatic performance apparatus that automatically synthesizes musical sounds of a plurality of types of tones.

自動演奏データである楽曲データに基づいて自動演奏を行う自動演奏装置が実用化されている。自動演奏装置は表示器を備えているものが多く、自動演奏動作中はこの表示器に演奏中の曲の楽譜やミキサの操作パネルなどが表示されていた。   An automatic performance apparatus that performs automatic performance based on music data that is automatic performance data has been put into practical use. Many automatic performance devices are equipped with a display, and during the automatic performance operation, the musical score of the song being played, the operation panel of the mixer, etc. were displayed on this display.

また、自動演奏装置には、複数チャンネルのパートのうち任意のチャンネルの楽音を出力しないいわゆるミュート機能を備えたものがあるが、このミュート機能を実行するためには、ミュートしたい音色のパートを担当しているチャンネル番号を何らかの方法で知って、そのチャンネル番号を指定してミュートを行う必要があった。   In addition, some automatic performance devices have a so-called mute function that does not output the musical sound of any channel among the parts of multiple channels. In order to execute this mute function, you are responsible for the part of the tone you want to mute. It was necessary to know the current channel number in some way, and to mute by specifying that channel number.

しかし、従来の音符表示やミキサの表示では、その曲を演奏する楽器の編成がどのようなものであるかを感覚的に知ることができない欠点があった。また、ミュートを指定する場合にも、その音色のチャンネルを先に調べておく必要があり、面倒であった。   However, the conventional note display and mixer display have a drawback that it is not possible to know sensuously what the organization of the musical instrument that plays the song is. Also, when designating mute, it is necessary to check the channel of the tone first, which is troublesome.

この発明は、曲の楽器編成が視覚的に表現でき、且つ、ミュートの指示をその表示に対して行うことができる自動演奏装置を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide an automatic performance device that can visually represent the musical composition of a song and that can perform a mute instruction on the display.

この発明は、複数種類の音色を合成可能な楽音合成手段と、複数の音色を指定する音色指定データを含む自動演奏データを記憶する自動演奏データ記憶手段と、該自動演奏データ記憶手段に記憶されている自動演奏データを読み出し前記音色指定データで指定される音色で前記楽音合成手段を駆動する自動演奏手段とを備えた自動演奏装置において、表示手段と、前記複数種類の音色の楽器に対応するキャラクタを記憶するキャラクタ記憶手段と、前記自動演奏データから音色指定データを読み出し、この音色指定データが指定する複数の音色の組み合わせが所定のアンサンブルの編成になっているかを判定し、所定のアンサンブルの編成になっている場合には、各音色の楽器に対応するキャラクタの配置をそのアンサンブルにおける配置に決定し、所定のアンサンブルの編成になっていなかった場合には、自動演奏データにおける各音色のイベント数に応じて、予め定めた順序に前記各音色の楽器に対応するキャラクタの配置を決定するアンサンブル判定手段と、該アンサンブル判定手段によって決定された配置で、前記複数の音色の楽器に対応するキャラクタを前記表示手段に表示させるキャラクタ表示制御手段と、を設けたことを特徴とする。 According to the present invention, musical tone synthesizing means capable of synthesizing a plurality of kinds of timbres, automatic performance data storage means for storing automatic performance data including timbre designation data for designating a plurality of timbres, and stored in the automatic performance data storage means. In the automatic performance apparatus comprising the automatic performance means for reading the automatic performance data and driving the musical tone synthesis means with the tone specified by the tone specification data, the display means and the musical instruments of the plurality of types are supported. Character storing means for storing a character, timbre designation data is read out from the automatic performance data, a determination is made as to whether a combination of a plurality of timbres designated by the timbre designation data forms a predetermined ensemble, and a predetermined ensemble If it is organized, the character placement corresponding to the instrument of each tone is changed to the placement in that ensemble. Constant and, if not have been to organize the predetermined ensemble, in accordance with the number of events of each tone in the automatic performance data to determine the placement of the corresponding character to the musical instrument of the respective tone in predetermined order ensemble And a character display control means for displaying characters corresponding to the plurality of timbre musical instruments on the display means in an arrangement determined by the ensemble determination means.

この発明の自動演奏装置は、自動演奏データに基づいて楽音合成手段が駆動され、所定の音色で自動演奏を行う。この場合に、音色指定データで指定された音色に対応するキャラクタがキャラクタ記憶手段から読み出され、表示手段に表示される。これにより、自動演奏される曲の音色(楽器)の構成を視覚的に認識することができる。   In the automatic performance apparatus according to the present invention, the musical tone synthesizing means is driven based on the automatic performance data, and the automatic performance is performed with a predetermined tone color. In this case, the character corresponding to the timbre designated by the timbre designation data is read from the character storage means and displayed on the display means. Thereby, the structure of the timbre (musical instrument) of the music played automatically can be visually recognized.

このようにこの発明によれば、自動演奏中に画面に演奏者キャラクタが表示されるため、楽器の編成を視覚的に把握することができ、自動演奏をよりリアルに聴取することができる。また、楽曲データの音色の組み合わせに基づいて編成を判断することにより、どのような楽曲データを読み込んだ場合でもこのキャラクタ表示を行うことができる。   As described above, according to the present invention, the player character is displayed on the screen during the automatic performance, so that the organization of the musical instrument can be visually grasped, and the automatic performance can be heard more realistically. Further, by determining the composition based on the combination of timbres of the music data, this character display can be performed no matter what music data is read.

図1はこの発明の実施形態である自動演奏装置のブロック図である。また、図2は同自動演奏装置のメモリ構成図である。この装置はHDD13に記憶された楽曲データをCPU10が読み出して楽音合成装置15に入力することにより自動演奏する装置である。楽音はスピーカ16から放音されるが、このとき同時にこの演奏に対応した画像がモニタ18に表示される。ここで、演奏に対応した画像とは、その曲のパート編成に対応するキャラクタ(演奏者)の画像である。   FIG. 1 is a block diagram of an automatic performance apparatus according to an embodiment of the present invention. FIG. 2 is a memory configuration diagram of the automatic performance device. This apparatus is an apparatus for automatically performing performance by the CPU 10 reading out the music data stored in the HDD 13 and inputting it to the musical tone synthesizer 15. The musical sound is emitted from the speaker 16, and at the same time, an image corresponding to this performance is displayed on the monitor 18. Here, the image corresponding to the performance is an image of a character (performer) corresponding to the part organization of the song.

同図において、前記CPU10,HDD13,楽音合成装置15はバスに接続されている。バスにはその他ROM11,RAM12,マウス14および画像処理装置17が接続されている。CPU10はこの自動演奏装置全体の動作を制御する。HDD13には複数曲の楽曲データ、モニタ18に表示されるキャラクタデータなどが記憶される。ROM11には制御プログラム、楽音合成装置15が楽音信号を合成するための音色データ、各種テーブルデータなどが記憶されている。RAM12には複数パートの自動演奏制御用のパート制御テーブルなどが設定される。マウス14はモニタ18に表示されるカーソルを移動させ画面上の点を指示するためのデバイスであり、画面に表示された曲名を指示して選曲したり、画面に表示されたキャラクタを指示してミュートしたりするときに使用される。楽音合成装置15はCPU10から入力された楽曲データに基づいて楽音信号を合成する装置である。楽音合成装置15にはスピーカ16が接続されているスピーカ16は楽音合成装置15が合成した楽音信号を放音する。画像処理装置17はCPU10の指示に基づいてモニタ18にキャラクタの画像を表示する。   In the figure, the CPU 10, HDD 13, and musical tone synthesizer 15 are connected to a bus. In addition, a ROM 11, a RAM 12, a mouse 14, and an image processing device 17 are connected to the bus. The CPU 10 controls the operation of the entire automatic performance device. The HDD 13 stores music data of a plurality of songs, character data displayed on the monitor 18, and the like. The ROM 11 stores a control program, tone color data for the tone synthesizer 15 to synthesize a tone signal, various table data, and the like. A part control table for automatic performance control of a plurality of parts is set in the RAM 12. The mouse 14 is a device for moving a cursor displayed on the monitor 18 to indicate a point on the screen. The mouse 14 indicates a song name displayed on the screen and selects a song, or indicates a character displayed on the screen. Used when muting. The musical tone synthesizer 15 is a device that synthesizes musical tone signals based on music data input from the CPU 10. A speaker 16 is connected to the music synthesizer 15, and the speaker 16 emits a music signal synthesized by the music synthesizer 15. The image processing device 17 displays a character image on the monitor 18 based on an instruction from the CPU 10.

図3はHDD13に記憶されている楽曲データの構成例を示す図である。楽曲データはヘッダ部とデータ本体部からなっている。この楽曲データはそれぞれ異なる音色で演奏される複数パートからなる自動演奏データである。データ本体部は全パートのイベントデータ,デュレーションデータを記憶している。なお、この実施形態では全パートのデータを1トラックに記憶しているが、各パート毎にトラックを設けるようにしてもよい。ヘッダ部には、各パートの音色情報および各パートの定位情報が記憶されている。音色情報はMIDIフォーマットのコントロールチェンジ情報として記憶され、コントロールチャンネルナンバとして書き込まれる00H 〜8FH の音色番号は図9に示すように割り当てられている。この音色番号の割り当てはジェネラルMIDIフォーマットとして統一された規格のものである。定位情報はMIDIフォーマットのPAN情報として記憶される。PAN情報は左右の定位を制御する情報であるが、さらに、上下の定位を制御する情報を記憶するようにしてもよい。また、楽曲データによってはこの定位情報が記憶されていないものもあり、この場合には後述の手法で各パートの定位を決定する。 FIG. 3 is a diagram showing a configuration example of music data stored in the HDD 13. The music data consists of a header part and a data body part. This music data is automatic performance data composed of a plurality of parts played with different timbres. The data body stores event data and duration data of all parts. In this embodiment, data of all parts is stored in one track, but a track may be provided for each part. The header part stores tone color information of each part and localization information of each part. Tone color information is stored as the control change information MIDI format, tone number 00 H ~8F H written as a control channel number is assigned as shown in FIG. This timbre number assignment is based on a standard unified as a general MIDI format. The localization information is stored as PAN information in MIDI format. The PAN information is information for controlling the left and right localization, but may further store information for controlling the top and bottom localization. Some music data does not store this localization information. In this case, the localization of each part is determined by a method described later.

図4は、HDD13に記憶されているキャラクタデータファイルの構成を示す図である。キャラクタデータファイルには同図(A)に示すように、楽音合成装置15が合成可能な各音色(楽器)毎に複数(2n個)のキャラクタデータが記憶されている。キャラクタデータは、その楽器を演奏する演奏者を模式的に表現した図形である。なお、楽音合成装置15が合成可能な128音色毎にそれぞれ別のキャラクタデータを記憶してもよいが、メモリを節約するために、たとえば、ピアノとキーボード、テナーサックスとアルトサックスなど演奏姿勢が類似する楽器のキャラクタを共通にしてもよい。また、自然楽器にない電子楽器独自の音色は全てキーボード奏者のキャラクタを用いるようにする。   FIG. 4 is a diagram showing the configuration of the character data file stored in the HDD 13. In the character data file, a plurality (2n) of character data is stored for each tone color (instrument) that can be synthesized by the tone synthesizer 15 as shown in FIG. The character data is a figure that schematically represents the performer who plays the instrument. It should be noted that different character data may be stored for each 128 timbres that can be synthesized by the musical tone synthesizer 15, but in order to save memory, for example, piano and keyboard, tenor saxophone and alto saxophone are similar in performance posture The musical instrument characters may be shared. In addition, the keyboard player character is used for all timbres unique to electronic musical instruments that are not found in natural musical instruments.

同図(B)にギターの演奏者を表現するキャラクタの例を示す。同図上段のように通常のモーションのキャラクタがn個記憶されており、モーションナンバ1〜nで識別される。また、同図下段のように大胆なモーションのキャラクタがn個記憶されており、モーションナンバn+1〜2nで識別される。通常のモーションのキャラクタはこの音色の発音レベルが一定値以下のときに表示され、大胆のモーションのキャラクタはこの音色の発音レベルが一定値を超えたとき表示される。読み出されるキャラクタデータは楽曲の進行に従い1,2,3,‥‥またはn+1,n+2,n+3,‥‥のように順次切り換えられ、モニタ18には実際に演奏しているような動きのあるキャラクタが表示される。   FIG. 2B shows an example of a character expressing a guitar player. As shown in the upper part of the figure, n normal motion characters are stored and identified by motion numbers 1 to n. Further, n bold motion characters are stored as shown in the lower part of the figure, and are identified by motion numbers n + 1 to 2n. A normal motion character is displayed when the tone level of this tone is below a certain value, and a bold motion character is displayed when the tone level of this tone exceeds a certain value. The read character data is sequentially switched as 1, 2, 3,... Or n + 1, n + 2, n + 3,... According to the progress of the music, and the monitor 18 has a character that moves as if it is actually playing. Is displayed.

図5は、ROM11に記憶されているアンサンブル判定テーブルを示す図である。アンサンブル判定テーブルは、楽曲データのヘッダ部から音色番号が読み出されたとき、その音色の組み合わせ(楽器編成)がどのようなアンサンブルやバンドに該当するかを判定するテーブルである。   FIG. 5 is a diagram showing an ensemble determination table stored in the ROM 11. The ensemble determination table is a table for determining what ensemble or band the combination of timbres (musical instrument organization) corresponds to when the timbre number is read from the header portion of the music data.

このアンサンブル判定テーブルには、アンサンブル(バンド)の名称とこのアンサンブルのパート編成が音色番号で記憶されている。小規模のアンサンブルとしては、カルテット,ジャズバンド,ロックバンドなどの編成が記憶され、中・大規模のアンサンブルとして、バロックオーケストラ,クラシカルオーケストラ,19世紀オーケストラ,20世紀オーケストラ,ビッグバンドなどの編成が記憶されている。アンサンブルの判定は、楽曲データ(ヘッダ部)から読み出された複数の音色番号をアンサンブル判定テーブルのパート編成と比較し、一致したときそのアンサンブルであると判定する。複数の音色番号が、どのアンサンブルのパート編成とも完全に一致しない場合には、編成が最も近いアンサンブルに決定する。編成が最も近いアンサンブルの判定は、例えば、楽曲データの複数の音色番号による編成でパートの過不足が最も少ないアンサンブルを割り出すことで行う。   In this ensemble determination table, the name of the ensemble (band) and the part organization of this ensemble are stored as tone numbers. As small-scale ensembles, quartet, jazz band, rock band, etc. are memorized, and as medium- and large-scale ensembles, baroque orchestra, classical orchestra, 19th century orchestra, big band, etc. are memorized. Has been. In the determination of the ensemble, a plurality of timbre numbers read from the music data (header part) are compared with the part organization of the ensemble determination table, and when they match, the ensemble is determined to be the ensemble. If a plurality of timbre numbers do not completely match any ensemble part organization, the ensemble is determined to be the closest ensemble. The determination of the ensemble with the closest composition is performed, for example, by determining the ensemble with the least number of parts in the composition based on a plurality of timbre numbers of the music data.

さらに、アンサンブル判定テーブルには、各アンサンブル毎に、そのアンサンブルを構成する複数パートの標準的な配置が記憶されている。配置は各パート毎に(音色番号,x座標,y座標)のデータの組み合わせで記憶されている。x座標,y座標はモニタ18の画面上に設定される座標でありx座標は0〜127,y座標は0〜127の範囲である。楽曲データに配置情報が記憶されていないとき、この配置データに基づいてキャラクタを表示する。キャラクタは指定されたx,y座標を中心に表示される。   Further, the ensemble determination table stores a standard arrangement of a plurality of parts constituting the ensemble for each ensemble. The arrangement is stored as a combination of (tone color number, x coordinate, y coordinate) data for each part. The x coordinate and the y coordinate are coordinates set on the screen of the monitor 18, and the x coordinate is in the range of 0 to 127, and the y coordinate is in the range of 0 to 127. When arrangement information is not stored in the music data, a character is displayed based on the arrangement data. The character is displayed around the specified x and y coordinates.

なお、楽曲データに配置情報が記憶されておらず、このアンサンブル判定テーブルにも該当する適当な配置が記憶されていない場合には、楽曲の演奏前に各チャンネルのイベント数を全て数え、イベント数の最も多いパートを前列中央に表示し、順次左右,後列に表示するようにする。このような配置手法における配置順位の例を図12に示す。この図では、順位が第1位〜第5位のパートが前列中央から左右に並び、順位が第6位から第9位のものが後列に並ぶようになっている。なお、パートの頻度順位に合わせて段々後列になってゆくように配列するようにしてもよい。   In addition, when arrangement information is not stored in the music data and an appropriate arrangement corresponding to this ensemble determination table is not stored, the number of events of each channel is counted before playing the music, and the number of events The part with the largest number is displayed in the center of the front row, and is displayed sequentially in the left, right, and back rows. An example of the arrangement order in such an arrangement method is shown in FIG. In this figure, the parts with the first to fifth ranks are arranged from the center of the front row to the left and right, and those with the ranks of 6th to 9th are arranged in the back row. In addition, it may be arranged so as to gradually become a back row according to the frequency ranking of the parts.

なお、5〜6人程度の小編成のアンサンブルの場合には、各パートのキャラクタを全員表示することができるが(図10参照)、ビッグバンドや大編成のオーケストラの場合にはキャラクタを全員表示することが不可能である。このような場合には、キャラクタの表示を行わずに楽器配置データに基づいてパート配置のみ表示するようにしてもよく(図11参照)、簡略化して縮小されたキャラクタを表示するようにしてもよい。さらに、各パート配置のみを表示し、各パートの表示色の彩度や明度をそのパートの発音レベルに応じて変化させるようにし、いまどのパートの音が大きく聞こえているかが判るようにしてもよい。   In the case of a small ensemble of about 5 to 6 people, all the characters of each part can be displayed (see FIG. 10), but in the case of a big band or large orchestra, all characters are displayed. Is impossible to do. In such a case, only the part arrangement may be displayed based on the instrument arrangement data without displaying the character (see FIG. 11), or a simplified and reduced character may be displayed. Good. Furthermore, only the arrangement of each part is displayed, and the saturation and brightness of the display color of each part is changed according to the sound level of that part so that it can be understood which part is currently louder. Good.

また、この実施形態では楽曲データに記憶されている音色情報に基づいてどのようなアンサンブルであるかを判定するようにしているが、楽曲データのヘッダ部にこの曲はどの形態のアンサンブルの曲であるかを予めを書き込んでおくようにしてもよい。   In this embodiment, it is determined what type of ensemble is based on the timbre information stored in the music data. However, in the header part of the music data, this music is a music of which form of ensemble. You may make it write beforehand whether there is.

図6はRAM12に設定されるパート管理テーブルを示す図である。楽曲データはCH1〜CH16の16パートの自動演奏データである。パート管理テーブルには各パート毎に指定されている音色番号,ミュートフラグ,表示座標,指定キャラクタ番号を記憶するエリアが設けられている。ミュートフラグはこのパートの楽音を発音するかしないかを指示するフラグであり、自動演奏中に利用者がマウス14を用いて表示中のキャラクタをクリックしたときこのフラグが反転される。このフラグがセットしているとき(“1”のとき)、このパートの楽音は発音しないように制御される。表示座標はこのパートのキャラクタを表示する画面上の座標である。この座標は上述したようにアンサンブル判定テーブル,楽曲データのヘッダ部に記憶されている配置データまたは各パートのイベント数に基づいて決定される。指定キャラクタ番号はキャラクタデータファイルのキャラクタを指定する番号であり音色番号に基づいて決定される。   FIG. 6 shows a part management table set in the RAM 12. The music data is automatic performance data of 16 parts of CH1 to CH16. The part management table is provided with an area for storing a timbre number, a mute flag, display coordinates, and a designated character number designated for each part. The mute flag is a flag for instructing whether or not the musical sound of this part is to be generated. This flag is inverted when the user clicks the displayed character using the mouse 14 during automatic performance. When this flag is set (when “1”), the musical tone of this part is controlled so as not to sound. The display coordinates are coordinates on the screen for displaying the character of this part. As described above, the coordinates are determined based on the ensemble determination table, the arrangement data stored in the header portion of the music data, or the number of events of each part. The designated character number is a number that designates a character in the character data file, and is determined based on the timbre number.

図7,図8は同自動演奏装置の動作を示すフローチャートである。自動演奏動作をしないときにはモニタ18に曲目リストを表示している(n1)。この曲目リストはHDD13に記憶されている楽曲データファイルのディレクトリに基づいて作成される。n2で利用者による選曲があるまで待機する。選曲は、モニタ18に表示された曲目リストのうちのいずれかの曲名をマウス14でクリックすることによって行われる。選曲が行われるとこの曲の楽曲データの記憶エリアをHDD13から検索する(n3)。楽曲データの記憶エリアが検索されると、まずヘッダ部のうちの音色情報を読み出す(n4)。この音色情報から割り出された複数の音色番号でアンサンブル判定テーブル(図5)を検索してこの曲のアンサンブルを割り出す(n5)。編成の割り出し方式は上述したとおりである。次に、各パートのキャラクタおよび表示位置を決定する(n6,n7)。同時に表示態様も決定する。表示態様とは、小規模のアンサンブルの場合にはフルスケールでキャラクタを表示し、大規模のアンサンブルの場合にはパート表示のみまたは縮小したキャラクタを表示するなどである。以上の動作によって決定された内容はパート管理テーブルに記憶される(n8)。   7 and 8 are flowcharts showing the operation of the automatic performance device. When the automatic performance operation is not performed, the music list is displayed on the monitor 18 (n1). This music list is created based on the music data file directory stored in the HDD 13. Wait until there is a song selection by the user at n2. The music selection is performed by clicking one of the music titles in the music list displayed on the monitor 18 with the mouse 14. When music selection is performed, the storage area for the music data of this music is searched from the HDD 13 (n3). When the music data storage area is searched, first, timbre information in the header portion is read (n4). The ensemble determination table (FIG. 5) is searched with a plurality of timbre numbers determined from the timbre information to determine the ensemble of this song (n5). The knitting indexing method is as described above. Next, the character and display position of each part are determined (n6, n7). At the same time, the display mode is determined. The display mode is such that a character is displayed in full scale in the case of a small-scale ensemble, and only a part display or a reduced character is displayed in the case of a large-scale ensemble. The content determined by the above operation is stored in the part management table (n8).

以上の動作により自動演奏の事前設定動作が完了したため、以下自動演奏動作にはいる。まず、自動演奏に用いる各種レジスタをリセットする(n9)。レジスタには、デュレーションタイムをカウントダウンするためのDURレジスタ、各パートのモーションナンバをカウントするmoCNT(i)などがある。などがある。次にパート管理テーブルからキャラクタ指定データを読み出してこのキャラクタをHDD13から読み込む(n10)。読み込んだキャラクタをパート管理テーブルに記憶されている表示位置データに基づいてVRAMに書き込むことによってモニタ18に表示する。n9でモーションレジスタがリセットされているため、この表示はモーションナンバ1のものである。次にDURの値を判断する。DUR=0であれば自動演奏データ読み出しタイミングであるため読み出し処理動作(n13:図8)を実行する。自動演奏動作の最初はDURがリセットされているため必ずこの動作を行う。次にモニタ18に表示されているキャラクタがマウス14でクリックされたかを判断する(n14)。クリックされると、そのキャラクタで表示されるパートをミュートするかミュートを解除(アンミュート)するかの指示であるため、パート管理テーブルの対応するパートのミュートフラグMUTE(i)を反転する(n15)。つぎに、その他処理(n16)を実行し、一定時間を経過したことを判断してDURを1減算してn12に戻る。   Since the automatic performance pre-setting operation is completed by the above operation, the automatic performance operation is started. First, various registers used for automatic performance are reset (n9). The registers include a DUR register for counting down the duration time and moCNT (i) for counting the motion number of each part. and so on. Next, the character designation data is read from the part management table and this character is read from the HDD 13 (n10). The read character is displayed on the monitor 18 by writing it into the VRAM based on the display position data stored in the part management table. Since the motion register is reset at n9, this display is for the motion number 1. Next, the value of DUR is determined. If DUR = 0, it is the automatic performance data read timing, so a read processing operation (n13: FIG. 8) is executed. Since the DUR is reset at the beginning of the automatic performance operation, this operation is always performed. Next, it is determined whether the character displayed on the monitor 18 has been clicked with the mouse 14 (n14). When clicked, it is an instruction to mute or unmute (unmute) the part displayed by the character, so the mute flag MUTE (i) of the corresponding part in the part management table is inverted (n15). ). Next, other processing (n16) is executed, it is determined that a fixed time has elapsed, DUR is decremented by 1, and the process returns to n12.

図8は読み出し処理動作を示すフローチャートである。この動作はDUR=0のとき上記n13で実行される動作である。まず楽曲データを読み出す(n20)。読み出された楽曲データがどのようなデータであるかをn21,n22,n23で判断する。読み出された楽曲データがイベントデータであればそのイベントが発生したパートの番号をiにセットする(n24)。このパートのミュートフラグMUTE(i)を判断する(n25)。MUTE=0であればそのパートはミュートされていないため、通常どおりイベントを実行する(n26)。イベントの実行とは、例えば、ノートオンイベントであれば、その楽音を発音する発音チャンネルを割り当ててキーコードやベロシティデータをその発音チャンネル(楽音合成装置15)に送信するなどの処理である。次に、このパートのモーションカウンタmoCNT(i)に1を加算する。このモーションカウンタは表示されるキャラクタのモーション番号を指定するカウンタである。加算の結果moCNTがnになった場合にはmoCNTを0にセットする(n28,n29)。これは、基本モーションをn個のコマから形成し、それを繰り返し表示するためである。次にこのパートの発音レベルが一定以上であるかを判断する(n30)。この判断は、ノートオンイベント時のベロシティデータで判断してもよく、また、楽音合成装置15から何らかのフィードバックデータを得てそれに基づいて判断してもよい。一定レベル以下の場合にはベースキャラクタbを1にセットする(n31)。また、一定レベル以上の場合にはベースキャラクタナンバbをn+1にセットする(n32)。つぎに、モーション番号MOを計算する(n33)。MOはmoCNT(i)+bで算出される。これにより、このパートの発音レベルが一定以上の場合にはモーション番号n+1以降のキャラクタが読み出されることになり、大きなアクションのキャラクタが表示されることになる。また、ミュートされていないため表示色を濃く指定する(n34)。これらのデータに基づいてパートiに指定されているキャラクタテーブルのなかからモーションナンバMOのキャラクタを読み出してキャラクタ表示を更新する(n35,n36)。こののち、次の楽曲データを読み出すためにn20にもどる。また、n25でMUTE=1であった場合には、このパートはミュートされており発音しないためイベントを実行せずにモーションもMO=1に固定する(n37)。そして表示色をミュートを示す薄色に指定して(n38)、n35に進む。   FIG. 8 is a flowchart showing the read processing operation. This operation is performed at n13 when DUR = 0. First, music data is read (n20). It is determined by n21, n22, and n23 what kind of data the read music data is. If the read music data is event data, the part number where the event occurred is set to i (n24). The mute flag MUTE (i) of this part is determined (n25). If MUTE = 0, the part is not muted, and the event is executed as usual (n26). The execution of an event is, for example, a process of assigning a sound generation channel for generating a musical sound and transmitting a key code and velocity data to the sound generation channel (musical sound synthesizing device 15) in the case of a note-on event. Next, 1 is added to the motion counter moCNT (i) of this part. This motion counter is a counter for designating the motion number of the character to be displayed. When moCNT becomes n as a result of addition, moCNT is set to 0 (n28, n29). This is because a basic motion is formed from n frames and is repeatedly displayed. Next, it is determined whether the sound level of this part is a certain level (n30). This determination may be made based on velocity data at the time of a note-on event, or may be determined based on some feedback data obtained from the musical tone synthesizer 15. If it is below a certain level, the base character b is set to 1 (n31). If it is above a certain level, the base character number b is set to n + 1 (n32). Next, the motion number MO is calculated (n33). MO is calculated by moCNT (i) + b. As a result, when the sound level of this part is above a certain level, the characters after motion number n + 1 are read out, and a large action character is displayed. In addition, the display color is designated dark because it is not muted (n34). Based on these data, the character of the motion number MO is read out from the character table specified for part i and the character display is updated (n35, n36). Thereafter, the process returns to n20 to read the next music data. Also, if MUTE = 1 at n25, this part is muted and does not sound, so the event is not executed and the motion is fixed at MO = 1 (n37). Then, the display color is designated as a light color indicating mute (n38), and the process proceeds to n35.

一方、読み出されたデータがデュレーションデータであった場合にはこのデータをDURにセットして(n40)。図7の動作にリターンする。またエンドデータであった場合には演奏が終了であるため現在発音中の全楽音を消去して(n41)最初の動作n1に戻る。さらにこれら以外のデータであったときには対応する動作(n42)を実行したのちn20にもどる。   On the other hand, if the read data is duration data, this data is set in DUR (n40). Returning to the operation of FIG. If it is end data, since the performance is finished, all musical tones that are currently sounding are erased (n41), and the operation returns to the first operation n1. If the data is other than these, the corresponding operation (n42) is executed and then the process returns to n20.

このようにすることにより、音楽に合わせて、その音楽にあった映像を表示することができ、実際に演奏しているようなリアルな感覚の表示にすることができる。また、ミュートの指示もそのパートの演奏者を指定するのみでよいため、簡略である。 By doing in this way, according to music, the image | video suitable for the music can be displayed, and it can be made the display of the realistic feeling which is actually performing. Also, the mute instruction is simple because it is only necessary to specify the performer of the part.

なお、この実施形態では楽曲データのヘッダ部から音色情報を得たが、イベント数と同様に演奏に先立ってその楽曲で用いられる全ての音色を曲全体から抽出するようにしてもよい。   In this embodiment, the timbre information is obtained from the header portion of the music data. However, all the timbres used in the music may be extracted from the entire music prior to the performance as with the number of events.

この発明の実施形態である自動演奏装置のブロック図Block diagram of an automatic performance apparatus according to an embodiment of the present invention 同自動演奏装置のメモリ構成図Memory configuration diagram of the automatic performance device 楽曲データの構成図Composition of music data キャラクタデータファイルの構成図Character data file configuration diagram アンサンブル判定テーブルの構成図Configuration diagram of ensemble determination table パート管理テーブルの構成図Part management table configuration diagram 同自動演奏装置の動作を示すフローチャートFlow chart showing the operation of the automatic performance device 同自動演奏装置の動作を示すフローチャートFlow chart showing the operation of the automatic performance device 音色番号リストを示す図Figure showing the tone number list ロックバンドの表示例を示す図Figure showing a display example of the rock band オーケストラの表示例を示す図Figure showing an example of orchestra display キャラクタの配置順序の例を示す図A figure showing an example of the arrangement order of characters

Claims (1)

複数種類の音色を合成可能な楽音合成手段と、複数の音色を指定する音色指定データを含む自動演奏データを記憶する自動演奏データ記憶手段と、該自動演奏データ記憶手段に記憶されている自動演奏データを読み出し前記音色指定データで指定される音色で前記楽音合成手段を駆動する自動演奏手段とを備えた自動演奏装置において、
表示手段と、
前記複数種類の音色の楽器に対応するキャラクタを記憶するキャラクタ記憶手段と、
前記自動演奏データから音色指定データを読み出し、この音色指定データが指定する複数の音色の組み合わせが所定のアンサンブルの編成になっているかを判定し、所定のアンサンブルの編成になっている場合には、各音色の楽器に対応するキャラクタの配置をそのアンサンブルにおける配置に決定し、所定のアンサンブルの編成になっていなかった場合には、自動演奏データにおける各音色のイベント数に応じて、予め定めた順序に前記各音色の楽器に対応するキャラクタの配置を決定するアンサンブル判定手段と、
該アンサンブル判定手段によって決定された配置で、前記複数の音色の楽器に対応するキャラクタを前記表示手段に表示させるキャラクタ表示制御手段と、
を設けたことを特徴とする自動演奏装置。
Musical sound synthesizing means capable of synthesizing a plurality of types of timbres, automatic performance data storage means for storing automatic performance data including timbre designation data for designating a plurality of timbres, and automatic performance data stored in the automatic performance data storage means In an automatic performance apparatus comprising an automatic performance means for reading data and driving the musical tone synthesis means with a timbre designated by the timbre designation data,
Display means;
Character storage means for storing characters corresponding to the musical instruments of the plurality of types;
When the timbre designation data is read from the automatic performance data, it is determined whether a combination of a plurality of timbres designated by the timbre designation data has a predetermined ensemble organization. If the arrangement of the character corresponding to each musical instrument is determined to be the arrangement in the ensemble, and if the predetermined ensemble is not organized, a predetermined order is set according to the number of events of each timbre in the automatic performance data. Ensemble determining means for determining the arrangement of characters corresponding to the musical instruments of each timbre ,
Character display control means for causing the display means to display characters corresponding to the plurality of timbre musical instruments in an arrangement determined by the ensemble determination means;
An automatic performance device characterized by the provision of
JP2003366394A 2003-10-27 2003-10-27 Automatic performance device Expired - Fee Related JP3760940B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003366394A JP3760940B2 (en) 2003-10-27 2003-10-27 Automatic performance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003366394A JP3760940B2 (en) 2003-10-27 2003-10-27 Automatic performance device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP20685694A Division JP3579927B2 (en) 1994-08-31 1994-08-31 Automatic performance device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005296666A Division JP4192936B2 (en) 2005-10-11 2005-10-11 Automatic performance device

Publications (2)

Publication Number Publication Date
JP2004038219A JP2004038219A (en) 2004-02-05
JP3760940B2 true JP3760940B2 (en) 2006-03-29

Family

ID=31712902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003366394A Expired - Fee Related JP3760940B2 (en) 2003-10-27 2003-10-27 Automatic performance device

Country Status (1)

Country Link
JP (1) JP3760940B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6444982A (en) * 1987-08-14 1989-02-17 Yamaha Corp Musical video converter
JP2576528B2 (en) * 1987-10-02 1997-01-29 ヤマハ株式会社 Musical sound visualization device
JPS6457298A (en) * 1987-08-28 1989-03-03 Yamaha Corp Musical sound visualizer
JPS63170697A (en) * 1987-09-04 1988-07-14 ヤマハ株式会社 Musical sound image converter
JP3089421B2 (en) * 1988-09-02 2000-09-18 ヤマハ株式会社 Sound processing device
JP2943201B2 (en) * 1990-01-21 1999-08-30 ソニー株式会社 Image creation apparatus and method
JP3563428B2 (en) * 1993-11-30 2004-09-08 ヤマハ株式会社 Multimedia control device
JP3579927B2 (en) * 1994-08-31 2004-10-20 ヤマハ株式会社 Automatic performance device

Also Published As

Publication number Publication date
JP2004038219A (en) 2004-02-05

Similar Documents

Publication Publication Date Title
US5631433A (en) Karaoke monitor excluding unnecessary information from display during play time
US7091410B2 (en) Apparatus and computer program for providing arpeggio patterns
US20020040633A1 (en) Performance instruction apparatus and method
JP2004264501A (en) Keyboard musical instrument
JP3579927B2 (en) Automatic performance device
JP3922224B2 (en) Automatic performance device and program
US6323411B1 (en) Apparatus and method for practicing a musical instrument using categorized practice pieces of music
JP4192936B2 (en) Automatic performance device
JP2000056756A (en) Support apparatus for musical instrument training and record medium of information for musical instrument training
JP4483304B2 (en) Music score display program and music score display device
JP7124371B2 (en) Electronic musical instrument, method and program
JP4259533B2 (en) Performance system, controller used in this system, and program
JP2000338972A (en) Electronic musical instrument with performance guide
JP3267777B2 (en) Electronic musical instrument
JP3760940B2 (en) Automatic performance device
JP3788457B2 (en) Automatic performance device
JPH10240117A (en) Support device for musical instrument practice and recording medium of information for musical instrument practice
JP4179063B2 (en) Performance setting data selection device and program
JP5510207B2 (en) Music editing apparatus and program
JP2009180757A (en) Electronic musical device and performance data editing display program
JP2014191331A (en) Music instrument sound output device and music instrument sound output program
JP3674469B2 (en) Performance guide method and apparatus and recording medium
JP7425558B2 (en) Code detection device and code detection program
WO2023032672A1 (en) Sound generation device, sound generation method, and program
JP4241833B2 (en) Automatic performance device and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050809

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060102

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100120

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110120

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120120

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130120

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees