JP6424501B2 - Performance device and performance program - Google Patents

Performance device and performance program Download PDF

Info

Publication number
JP6424501B2
JP6424501B2 JP2014144118A JP2014144118A JP6424501B2 JP 6424501 B2 JP6424501 B2 JP 6424501B2 JP 2014144118 A JP2014144118 A JP 2014144118A JP 2014144118 A JP2014144118 A JP 2014144118A JP 6424501 B2 JP6424501 B2 JP 6424501B2
Authority
JP
Japan
Prior art keywords
music
performance
operators
acoustic
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014144118A
Other languages
Japanese (ja)
Other versions
JP2016020961A (en
Inventor
明宏 三輪
明宏 三輪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2014144118A priority Critical patent/JP6424501B2/en
Publication of JP2016020961A publication Critical patent/JP2016020961A/en
Application granted granted Critical
Publication of JP6424501B2 publication Critical patent/JP6424501B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、楽曲の音響信号(音響波形データ)から、その中に含まれる、複数種類の音楽要素を抽出して、各音楽要素を表わす波形データを生成するとともに、前記生成した波形データを用いて演奏可能な演奏装置及び演奏プログラムに関する。   The present invention extracts a plurality of types of music elements contained therein from sound signals (sound waveform data) of music, generates waveform data representing each music element, and uses the generated waveform data. The present invention relates to a performance apparatus and a performance program that can be played.

従来から、例えば、下記特許文献1に記載されているように、自動伴奏機能を備えた演奏装置は知られている。この演奏装置は、複数種類の伴奏スタイルのデータセットを予め記憶している。各伴奏スタイルは、楽曲の導入部の伴奏として使用される「イントロ」セクション、楽曲の中間部の伴奏として使用される「メイン」セクション、楽曲の終端部の伴奏として使用される「エンディング」セクションなど、楽曲の各場面にそれぞれ対応する複数のセクションから構成されている。前記各セクションのデータは、楽曲の伴奏パート(例えば、打楽器パート、ベースパート、ピアノ(コード)パートなどの合奏)の短いフレーズ(演奏パターン)を表している。各セクションのデータは、所謂MIDIデータである。すなわち、各セクションのデータは、演奏音の音響波形を表わしているのではなく、各伴奏パートの楽譜に相当するデータであり、音源回路により楽音合成されることにより音響波形信号に変換される。   BACKGROUND ART Conventionally, a playing device provided with an automatic accompaniment function is known as described in, for example, Patent Document 1 below. The playing device stores data sets of a plurality of types of accompaniment styles in advance. Each accompaniment style includes an "intro" section used as an accompaniment for the introduction of the music, a "main" section used as an accompaniment for the middle of the music, an "ending" section used as an accompaniment for the music termination , And a plurality of sections corresponding to each scene of the music. The data of each section represents a short phrase (performance pattern) of an accompaniment part (for example, a percussion part, a bass part, an ensemble such as a piano (cord) part) of music. The data in each section is so-called MIDI data. That is, the data of each section does not represent the acoustic waveform of the performance sound but is data corresponding to the score of each accompaniment part, and is converted into an acoustic waveform signal by synthesizing a musical tone by the tone source circuit.

演奏装置の操作パネルには、演奏するセクションを選択するための複数のスイッチが設けられている。これらのスイッチにセクションのデータがそれぞれ割り当てられている。演奏者が前記スイッチを用いて演奏するセクションを選択するとともに、鍵盤装置を用いてコード(和音)を入力すると、演奏装置の制御部は、前記選択されたセクションのデータと前記入力されたコードに基づいて音源回路を制御し、音源回路に演奏パターンを表す演奏パターンデータを生成させる。各伴奏スタイルの各セクションのデータは、コードの種類とその根音ごとに用意されているのではなく、コードの種類が「M(メジャー)」であって、根音が「C」であるときのデータのみが用意されている。そして、その他のコードの種類や根音が指定された場合には、データの構成音の音高を適宜変更(シフト)して使用することが多い。つまり、演奏者が鍵盤装置を用いて入力したコードが「CM」であるときには、現在選択されているセクションのデータがそのまま音源回路に供給される。一方、演奏者が入力したコードが「CM」とは異なるときには、演奏装置の制御部は、現在選択されているセクションのデータを修正する。例えば、演奏者入力したコードが「Cm(マイナー)」である場合には、現在選択されているセクションのデータを構成する構成音のデータ(ノートナンバ)のうち、鍵音高が「E」であることを表わす構成音のデータを「E♭」であることを表わすデータに変更する。   The operation panel of the playing device is provided with a plurality of switches for selecting a section to play. Section data is assigned to each of these switches. When the player selects a section to play using the switch and inputs a chord (chord) using the keyboard device, the control unit of the playing device receives the data of the selected section and the input code. Based on the tone generator circuit, the tone generator circuit is controlled to generate performance pattern data representing a performance pattern. The data in each section of each accompaniment style is not prepared for each chord type and its root note, but the chord type is "M (major)" and the root note is "C" Only the data of are prepared. When the type of the chord or the root note is specified, the pitch of the component sound of the data is often changed (shifted) and used. That is, when the chord input by the player using the keyboard device is "CM", the data of the currently selected section is supplied as it is to the tone generator circuit. On the other hand, when the chord inputted by the player is different from "CM", the control unit of the playing device corrects the data of the currently selected section. For example, when the chord input by the player is "Cm (minor)", the key pitch is "E" among the data (note number) of the component sounds constituting the data of the currently selected section. The data of the component sound representing a certain thing is changed to data representing that it is "E ♭".

特開2011−137881号公報JP, 2011-137881, A 特開2012−203216号公報JP, 2012-203216, A

上記特許文献1に記載の演奏装置の伴奏スタイルの各セクションのデータはMIDIデータであり、且つ上記のように、「CM」に対応するデータのみを記憶しておくだけで良いので、データ量が小さくて済む。しかし、再生される伴奏の演奏パターンは、MIDIデータに従って音源回路が合成し生成するものであり、生演奏やその録音データと比較すると、魅力に欠けるように感じられることがある。   The data of each section of the accompaniment style of the musical performance apparatus described in Patent Document 1 is MIDI data, and as described above, it is sufficient to store only the data corresponding to "CM". It can be small. However, the performance pattern of the accompaniment to be reproduced is generated by the tone generator circuit according to the MIDI data, and it may seem unattractive when compared with live performance or its recorded data.

そこで、例えば、特許文献2に記載されているように、各伴奏スタイルの各セクションのデータが、音響波形を表わす波形データから構成されている演奏装置も知られている。この演奏装置においては、各伴奏スタイルの各セクションの波形データは装置メーカが予め専用に制作し記憶させたものであって、ユーザ自身が自らの好みに合わせてそれらを制作し追加することができない。また、伴奏スタイルを含む複数の音楽要素の波形データを制作し記憶しておき、演奏する際に、補助的に使用したい波形データをユーザが自由に選択することができない。したがって、メロディ等を演奏しながら補助的に使用する演奏パターンのバリエーションがプリセットのものに限られている。   Therefore, for example, as described in Patent Document 2, there is also known a playing apparatus in which data of each section of each accompaniment style is composed of waveform data representing an acoustic waveform. In this performance apparatus, the waveform data of each section of each accompaniment style is exclusively produced and stored in advance by the apparatus manufacturer, and the user can not produce and add them according to his / her preference . In addition, when producing and storing waveform data of a plurality of music elements including an accompaniment style and performing, it is not possible for the user to freely select waveform data which the user desires to use as a support. Therefore, the variations of the performance pattern to be used supplementally while playing the melody or the like are limited to the preset ones.

本発明は上記問題に対処するためになされたもので、その目的は、生演奏のような演奏を表わす複数の音楽要素の演奏パターンを再生できる演奏装置であって、所望の楽曲の音響信号から音楽要素を抽出して、前記抽出した音楽要素に基づいて演奏パターンを再生できる演奏装置を提供することにある。なお、下記本発明の各構成要件の記載においては、本発明の理解を容易にするために、実施形態の対応箇所の符号を括弧内に記載しているが、本発明の各構成要件は、実施形態の符号によって示された対応箇所の構成に限定解釈されるべきものではない。   The present invention has been made to address the above problems, and its object is to provide a playing device capable of playing back a performance pattern of a plurality of music elements representing a performance such as a live performance, from an acoustic signal of a desired music. An object of the present invention is to provide a playing device capable of extracting music elements and reproducing a playing pattern based on the extracted music elements. In the following description of each component of the present invention, the reference numerals of corresponding parts of the embodiment are described in parentheses in order to facilitate understanding of the present invention, but each component of the present invention is It should not be construed as limited to the configuration of the corresponding portion indicated by the reference numerals of the embodiment.

上記目的を達成するために、本発明の特徴は、複数の操作子(11)と、楽曲を演奏して放音された演奏音の音響波形を表わす音響信号を取得する音響信号取得手段(S12)と、前記音響信号に含まれる第1音楽要素及び第2音楽要素の音響波形をそれぞれ抽出する第1アルゴリズム及び第2アルゴリズムのうちのいずれか一方又は両方に従って、前記音響信号から第1音楽要素及び第2音楽要素のうちのいずれか一方又は両方の音響波形を抽出する音楽要素抽出手段(S14)と、前記抽出した音響波形を、前記複数の操作子のうちのいずれか1つ又は複数の操作子に割り当てる割り当て手段(S15)と、前記音響波形が割り当てられた1つ又は複数の操作子が操作されたことを検知して、前記操作された1つ又は複数の操作子に割り当てられた音響波形を用いて、演奏パターンを表わす演奏パターンデータを生成する演奏パターンデータ生成手段(S100〜S117、S200〜S204)と、を備えた演奏装置としたことにある。   In order to achieve the above object, the present invention is characterized in that a plurality of operators (11) and an acoustic signal acquisition means (S12) for acquiring an acoustic signal representing an acoustic waveform of a played sound emitted by playing music. And the first music element from the sound signal according to one or both of the first algorithm and the second algorithm for respectively extracting the sound waveform of the first music element and the second music element included in the sound signal And music element extraction means (S14) for extracting an acoustic waveform of any one or both of the second music element, and the extracted acoustic waveform, any one or more of the plurality of operators. Assigning means (S15) for assigning to operators, and detecting that one or more operators to which the acoustic waveform has been assigned have been operated, to assign to the operated one or more operators. Using Terra acoustic waveform, play pattern data generating means (S100~S117, S200~S204) for generating performance pattern data representing the performance patterns in that the performance apparatus having a, a.

この場合、前記音楽要素は、前記楽曲のメロディ、伴奏、リズム演奏パートの演奏パターン、及び前記楽曲のイントロ部分、ブリッジ部分、挿入フレーズ部分の演奏パターンのうちのいずれか1つであるとよい。   In this case, the music element may be any one of the melody of the music, the accompaniment, the performance pattern of the rhythm performance part, and the performance pattern of the intro part, the bridge part, and the insertion phrase part of the music.

また、この場合、前記割り当て手段は、前記複数の操作子のうちの1つ又は複数の操作子からそれぞれ構成された第1操作子グループ及び第2操作子グループに、前記第1音楽要素及び第2音楽要素の音響波形データをそれぞれ割り当て、第1操作子グループ及び第2操作子グループのうち、いずれか一方の操作子グループのみが操作されているとき、前記操作されている操作子グループに割り当てられている音楽要素の音響波形に基づいて演奏パターンデータを生成し、前記第1操作子グループ及び第2操作子グループの双方が操作されているとき、前記第1音楽要素及び前記第2音楽要素の音響波形に基づいて演奏パターンデータを生成するとよい。 Further, in this case, the assignment unit is configured to assign the first music element and the second music element group to a first operator group and a second operator group respectively composed of one or more operators among the plurality of operators. The acoustic waveform data of two music elements are respectively assigned, and when only one of the first operator group and the second operator group is operated, the operator is assigned to the operated operator group. Performance pattern data is generated based on the acoustic waveform of the music element being played, and when both the first operator group and the second operator group are operated, the first music element and the second music element Performance pattern data may be generated based on the acoustic waveform of

この場合、前記第1操作子グループを構成する前記操作子の組み合わせと前記再2操作子グループを構成する前記操作子の組み合わせとが異なるとよい。なお、第1操作子グループの一部と第2操作子グループの一部が重複していても良い。つまり、第1操作子グループに属し、且つ第2グループにも属する操作子が存在していてもよい。一方、第1操作子グループと第2操作子グループが独立していても良い。つまり、第1操作子グループに属する全ての操作子は第2操作子グループに属さず、且つ第2操作子グループに属する全ての操作子は第1操作子グループに属さないように構成されていても良い。 In this case, the combination of the operators constituting the first operator group and the combination of the operators constituting the second operator group may be different. Note that part of the first operator group and part of the second operator group may overlap. That is, there may be operators which belong to the first operator group and also to the second group. On the other hand, the first operator group and the second operator group may be independent. That is, all the operators belonging to the first operator group do not belong to the second operator group, and all the operators belonging to the second operator group do not belong to the first operator group. Also good.

本発明において、楽曲の音響信号に含まれる複数の音楽要素とは、メロディ、ボーカル、伴奏、リズム等楽曲の演奏パート毎にその進行中に含まれる音楽フレーズや音楽パターン(以下、演奏パターンと呼ぶ)ばかりでなく、楽曲全体の進行中の特徴的なイントロ部分、ブリッジ(サビ)部分、挿入音楽パターン、効果的部分等をも含む。例えば、第1音楽要素が楽曲導入部の伴奏パートのイントロ演奏パターンを表わし、第2音楽要素が同導入部のリズムパートのドラム演奏パターンを表わしていてもよい。第2音楽要素の演奏パターンが第1音楽要素の演奏パターン中に(内容的に)含まれるような関係になっていてもよい。また、同第2音楽要素がメロディパートのサビ部分の演奏パターンを表していて、第2音楽要素の演奏パターンと第1音楽要素の演奏パターンとが互いに重複せず演奏中に同時再生させても不自然ではない関係であってもよい。また、「操作子グループ」とは、抽出した音楽要素の演奏パターン毎に対応付けた1つまたは複数の操作子の組み合わせを意味する。「操作子グループ」が「操作されている」とは、その操作子グループに属する全ての操作子が操作(例えばオン状態に設定)されていることを意味する。   In the present invention, the plurality of music elements included in the sound signal of music are music phrases and music patterns (hereinafter referred to as performance patterns) included in the process for each playing part of music such as melody, vocal, accompaniment, rhythm and the like As well as the ongoing introductory part of the entire song, the bridge (sabi) part, inserted music patterns, effective parts etc. For example, the first music element may represent the intro performance pattern of the accompaniment part of the music introduction part, and the second music element may represent the drum performance pattern of the rhythm part of the introduction part. The performance pattern of the second music element may be (contentically) included in the performance pattern of the first music element. Also, even if the second music element represents the performance pattern of the chorus portion of the melody part, the performance pattern of the second music element and the performance pattern of the first music element do not overlap each other and are simultaneously reproduced during the performance. The relationship may not be unnatural. Also, “operator group” means a combination of one or more operators associated with each of the performance patterns of the extracted music elements. "Operator group" is "operated" means that all the operators belonging to the operator group are operated (for example, set to the on state).

上記のように構成した演奏装置によれば、所望の楽曲から音楽要素を抽出し、前記抽出した音楽要素の音響波形に基づいて演奏パターンデータを生成できる。つまり、演奏装置に予め音楽要素の音響波形が記憶されているのではなく、所望の楽曲から音楽要素の音響波形が抽出される。つまり、MIDIデータに基づいて音源回路にて演奏パターンデータが合成されるのではなく、原曲の一部の音楽要素の音響波形に基づいて演奏パターンデータが生成される。よって、本発明に係る演奏装置によれば、生演奏のような魅力的な演奏パターンを再生できる。   According to the musical performance apparatus configured as described above, it is possible to extract music elements from a desired music and to generate performance pattern data based on the acoustic waveform of the extracted music elements. That is, the acoustic waveform of the music element is not stored in advance in the performance device, but the acoustic waveform of the music element is extracted from the desired music. That is, performance pattern data is not generated based on MIDI data, but is generated based on the acoustic waveform of part of music elements of the original music. Therefore, according to the playing device of the present invention, it is possible to reproduce an attractive playing pattern such as a live performance.

また、第1操作子グループに属する全ての操作子を同時に操作する(例えば、オン状態に設定する)ことにより、第1音楽要素の所望の演奏パターンを選択し、前記選択した第1音楽要素の音響波形に基づいて演奏パターンデータを生成することができる。また、第2操作子グループに属する全ての操作子を同時に操作する(例えば、オン状態に設定する)ことにより、第2音楽要素の所望の演奏パターンを選択し、前記選択した第2音楽要素の音響波形に基づいて演奏パターンデータを生成することができる。第1操作子グループに属する全ての操作子及び第2操作子グループに属する全ての操作子を操作することにより、第1音楽要素及び第2音楽要素の音響波形に基づいて演奏パターンデータを生成することができる。すなわち、第1音楽要素に基づく演奏パターンと第2音楽要素に基づく演奏パターンとをそれぞれ単独で再生することもできるし、両演奏パターンを同時に再生することもできる。例えば、第1音楽要素及び第2音楽要素が、各楽器の演奏パートにそれぞれ対応していれば、それぞれの楽器の演奏パターンを単独で(つまり一方を選択して)再生することもできるし、それらを重畳した演奏パターンを再生することもできる。よって、これによれば、従来よりも演奏パターンのバリエーションを増やすことができる。   In addition, by simultaneously operating all the operators belonging to the first operator group (for example, setting to the ON state), the desired performance pattern of the first music element is selected, and the selected first music element is selected. Performance pattern data can be generated based on the acoustic waveform. In addition, by simultaneously operating all the operators belonging to the second operator group (for example, setting it to the ON state), the desired performance pattern of the second music element is selected, and the selected second music element is selected. Performance pattern data can be generated based on the acoustic waveform. A performance pattern data is generated based on the acoustic waveforms of the first music element and the second music element by operating all the operators belonging to the first operator group and all the operators belonging to the second operator group. be able to. That is, the performance pattern based on the first music element and the performance pattern based on the second music element can be independently reproduced, or both performance patterns can be simultaneously reproduced. For example, if the first music element and the second music element respectively correspond to the playing parts of each instrument, the playing pattern of each instrument can be reproduced independently (that is, one of them is selected), It is also possible to reproduce a playing pattern in which they are superimposed. Therefore, according to this, it is possible to increase the variation of the playing pattern more than the conventional one.

また、本発明の他の特徴は、前記音楽要素抽出手段は、前記音響信号に適用するアルゴリズムを選択する選択手段を備えた演奏装置としたことにある。   Further, another feature of the present invention is that the music element extraction means is a playing device provided with selection means for selecting an algorithm to be applied to the sound signal.

これによれば、音響信号に適用するアルゴリズム(第1アルゴリズム及び第2アルゴリズム)を選択することができるので、所望の音楽要素データのみを生成することができる。   According to this, since it is possible to select an algorithm (a first algorithm and a second algorithm) to be applied to the sound signal, only desired music element data can be generated.

また、本発明の他の特徴は、前記第1音楽要素は伴奏パートの演奏パターンであり、前記第1音楽要素を表す音響波形は、前記伴奏パートの演奏パターンの和音のタイプ及び根音に対応付けて記憶され、前記演奏パターンデータ生成手段は、操作されている1つ又は複数の前記操作子に対応する和音を検出すると共に、前記検出した和音に対応する前記第1音楽要素の音響波形が記憶されている場合には前記記憶されている音響波形を読み出して再生し、前記検出した和音に対応する前記第1音楽要素の音響波形が記憶されていない場合には、前記第1音楽要素の音響波形が表わす演奏音の発生態様であって和音に関する発生態様を、前記検出した和音に従って変更した演奏音を表わす演奏パターンデータを生成可能である演奏装置としたことにある。なお、「和音のタイプ」とは、メジャー(M)、マイナー(m)、セブンス(7th)など、所謂コードネームのうちの根音の標記を除く部分に相当する。   Further, another feature of the present invention is that the first music element is a performance pattern of an accompaniment part, and an acoustic waveform representing the first music element corresponds to a type of chord and root of the performance pattern of the accompaniment part And the performance pattern data generation unit detects a chord corresponding to the one or more operators being operated, and an acoustic waveform of the first music element corresponding to the detected chord is stored. If stored, the stored acoustic waveform is read out and reproduced, and if the acoustic waveform of the first music element corresponding to the detected chord is not stored, the one of the first music element is stored. It is a playing device capable of generating playing pattern data representing a playing sound represented by an acoustic waveform and relating to a chord in accordance with the detected chord. Located in. The "type of chord" corresponds to a part of the so-called chord name except for the root note mark, such as major (M), minor (m), and seventh (7th).

これによれば、第1音楽要素データ及び第2音楽要素データのうちのいずれか一方又は両方によって表わされた演奏音(フレーズ)のコードを、指定したコードに修正することができる。よって、原曲を簡単にアレンジすることができる。   According to this, it is possible to correct the chord of the performance sound (phrase) represented by one or both of the first music element data and the second music element data to the designated code. Therefore, the original music can be easily arranged.

なお、本発明は、演奏装置としての実施に限られず、演奏装置が備えるコンピュータに適用されるコンピュータプログラム(演奏プログラム)としても実施可能である。   The present invention is not limited to the implementation as a musical performance apparatus, and can also be implemented as a computer program (performance program) applied to a computer included in the musical performance apparatus.

本発明の一実施形態に係る演奏装置の概略を表わす概略図である。It is a schematic diagram showing the outline of the musical instrument concerning one embodiment of the present invention. 図1の音楽要素スイッチを拡大した拡大図である。It is the enlarged view to which the music element switch of FIG. 1 was expanded. 図1の演奏装置の構成を示すブロック図である。It is a block diagram which shows the structure of the musical performance apparatus of FIG. オーディオ音楽要素データセット生成プログラムを示すフローチャートである。It is a flowchart which shows an audio music element data set production | generation program. 原曲の伴奏パートの演奏を表す音響波形データと、基準波形データと、抽出した伴奏波形データとの対応関係を示す概念図である。It is a conceptual diagram which shows the correspondence of the acoustic waveform data showing the performance of the accompaniment part of original music, reference waveform data, and the accompaniment waveform data extracted. 各波形データと操作子との対応関係を示す概念図である。It is a conceptual diagram which shows the correspondence of each waveform data and an operation element. 演奏パターンデータ生成プログラムの前半部分を示すフローチャートである。It is a flowchart which shows the first half of a performance pattern data generation program. 演奏パターンデータ生成プログラムの後半部分を示すフローチャートである。It is a flowchart which shows the second half part of a performance pattern data generation program. 演奏パターンデータ供給プログラムを示すフローチャートである。It is a flowchart which shows a performance pattern data supply program.

本発明の一実施形態に係る演奏装置10について説明する。演奏装置10は、以下説明するように、楽曲の演奏音の音響波形を表わす音響波形データ(例えば、wavフォーマットのデジタル音響信号)を取り込んで、その音響波形データから、複数の伴奏波形データ、複数のリズム波形データ及び複数のブリッジ波形データを抽出して、前記抽出した波形データからなるオーディオ音楽要素データセットを生成する。以下、オーディオ音楽要素データセットを生成するために用いる楽曲を原曲と呼ぶ。伴奏波形データは、原曲の主旋律パート(例えば、ボーカルパート及びメロディパート)を除く伴奏パート(例えば、ドラムパート、ベースパート、及びピアノ(コード)パートの合奏)から切り出されて抽出された演奏パターンの音響波形を表す。伴奏波形データは、MIDI伴奏スタイルのデータと同様に、通常数小節分の演奏を表わしており、原曲の導入部、中間部、終端部などの場面(セクション)ごとに選択されて生成される。また、リズム波形データは、原曲のリズムパート(ドラムパート)から切り出されて抽出された演奏パターンの音響波形を表す。リズム波形データは、原曲の区間(例えば2小節)ごとに構成されている。さらに、ブリッジ波形データは、原曲の進行方向の中で特徴的なメロディラインなどを含むブリッジ(サビ)部分の演奏の音響波形を表す。なお、演奏装置10は、複数の楽曲のオーディオ音楽要素データセットを記憶しておくことができる。演奏者は、演奏しようとする楽曲に適合する1つのオーディオ音楽要素データセットを選択し、前記選択したオーディオ音楽要素データセットの中から所望の音楽要素の波形データを、楽曲演奏の進行に沿って、操作子を使って選択し、その波形データに基づいた演奏パターンを再生させることができる。例えば、演奏者は、右手でメロディパートを実際に演奏しつつ、左手で操作子を選択することにより、所望の伴奏、リズム、ブリッジ(サビ)の演奏パターンを指定する。これにより、予め抽出し記憶しておいた所望の楽曲の演奏パターンをメロディパートの演奏に対する伴奏や補助演奏として利用できる。   A playing device 10 according to an embodiment of the present invention will be described. As described below, the performance device 10 takes in acoustic waveform data (for example, digital audio signal in wav format) representing the acoustic waveform of the musical performance sound of music, and generates a plurality of accompaniment waveform data from the acoustic waveform data. Rhythm waveform data and a plurality of bridge waveform data are extracted to generate an audio music element data set including the extracted waveform data. Hereinafter, the music used to generate the audio music element data set is referred to as an original music. The accompaniment waveform data is a performance pattern extracted and extracted from the accompaniment parts (for example, the ensemble of the drum part, the bass part, and the piano (cord) part) excluding the main melody part (for example, the vocal part and the melody part) of the original music. Represents the acoustic waveform of The accompaniment waveform data, like the MIDI accompaniment style data, usually represents performances of several measures, and is selected and generated for each scene (section) such as the introductory part, the intermediate part, and the end part of the original music. . The rhythm waveform data represents an acoustic waveform of the performance pattern extracted and extracted from the rhythm part (drum part) of the original music. The rhythm waveform data is configured in intervals of the original music (for example, every two measures). Further, the bridge waveform data represents an acoustic waveform of the performance of a bridge (sabi) portion including a characteristic melody line or the like in the traveling direction of the original music. In addition, the performance device 10 can store audio music element data sets of a plurality of music pieces. The player selects one audio music element data set that matches the music to be played, and selects waveform data of the desired music element from the selected audio music element data set, along the progress of the music performance. , And can be selected using an operation element to reproduce a performance pattern based on the waveform data. For example, a player specifies a desired accompaniment, rhythm, and bridge (sabi) performance pattern by actually playing the melody part with the right hand and selecting an operator with the left hand. As a result, the performance pattern of the desired music extracted and stored in advance can be used as accompaniment or auxiliary performance for the performance of the melody part.

また、演奏装置10は、従来の演奏装置のように、MIDIデータから構成された複数の伴奏スタイルのデータセット(以下、MIDI伴奏スタイルデータセットと呼ぶ)も備えている。演奏者は、1つのMIDI伴奏スタイルデータセットを選択し、前記選択したMIDI伴奏スタイルデータセットを用いて演奏することもできる。   The performance device 10 also includes a plurality of accompaniment style data sets (hereinafter referred to as MIDI accompaniment style data sets) configured of MIDI data, as in a conventional performance device. The player can select one MIDI accompaniment style data set and play using the selected MIDI accompaniment style data set.

演奏装置10は、図1乃至図3に示すように、入力操作子11、コンピュータ部12、表示器13、記憶装置14、外部インターフェース回路15、音源回路16及びサウンドシステム17を備えており、これらがバスBUSを介して接続されている。   As shown in FIGS. 1 to 3, the performance device 10 includes an input operator 11, a computer unit 12, a display 13, a storage device 14, an external interface circuit 15, a sound source circuit 16, and a sound system 17. Are connected via the bus BUS.

入力操作子11は、オン・オフ操作に対応したスイッチ、回転操作に対応したボリューム又はロータリーエンコーダ、スライド操作に対応したボリューム又はリニアエンコーダ、マウス、タッチパネルなどから構成される。さらに、入力操作子11には、楽曲を演奏する際に使用される鍵盤装置KYも含まれる。これらの操作子は、演奏者の手によって操作されて、各種パラメータを設定する際、楽曲を演奏する際などに用いられる。また、入力操作子11には、例えば、電子オルガンの足鍵盤が含まれても良い。演奏者が入力操作子11を操作すると、その操作内容を表す操作情報がバスBUSを介して、後述するコンピュータ部12に供給される。   The input operator 11 includes a switch corresponding to the on / off operation, a volume or rotary encoder corresponding to the rotation operation, a volume or linear encoder corresponding to the slide operation, a mouse, a touch panel, and the like. Furthermore, the input operator 11 also includes a keyboard device KY used when playing music. These operators are operated by the player's hand, and are used when setting various parameters, playing music, and the like. Also, the input operator 11 may include, for example, a foot keyboard of an electronic organ. When the player operates the input operator 11, operation information representing the contents of the operation is supplied to the computer unit 12 described later via the bus BUS.

例えば、図2に示すように、入力操作子11には、音楽要素スイッチPSが含まれる。音楽要素スイッチPSには、セクション選択スイッチSSが含まれる。セクション選択スイッチSSには、イントロスイッチIS、メインスイッチMS1、メインスイッチMS2、メインスイッチMS3、フィルインスイッチFS、エンディングスイッチESが含まれる。これらのスイッチは、伴奏スタイル(MIDI及び波形データ)を再生させる際に所望のセクションを選択する際に用いられる。したがって、イントロスイッチIS、メインスイッチMS1、メインスイッチMS2、メインスイッチMS3、フィルインスイッチFS及びエンディングスイッチESのうちの2つ以上のスイッチが同時にオン状態に設定されることは無く、1つのスイッチのみがオン状態に設定される。   For example, as shown in FIG. 2, the input operator 11 includes a music element switch PS. The music element switch PS includes a section selection switch SS. The section selection switch SS includes an intro switch IS, a main switch MS1, a main switch MS2, a main switch MS3, a fill-in switch FS, and an ending switch ES. These switches are used to select a desired section when playing an accompaniment style (MIDI and waveform data). Therefore, two or more of the intro switch IS, the main switch MS1, the main switch MS2, the main switch MS3, the fill-in switch FS and the ending switch ES are not simultaneously set to the ON state, and only one switch is set. It is set to the on state.

また、前記音楽要素スイッチPSには、リズムスイッチRS及びブリッジスイッチBSが含まれる。リズムスイッチRSは、リズム波形データを用いて演奏する際に用いられる。また、ブリッジスイッチBSは、ブリッジ波形データを用いて演奏する際に用いられる。セクション選択スイッチSSのうちの1つのスイッチ、リズムスイッチRS及びブリッジスイッチBSは同時にオン状態に設定可能である。つまり、演奏者は、伴奏波形データ、リズム波形データ及びブリッジ波形データを単独で再生して演奏することもできるし、これらを組み合わせて再生して演奏することができる。   The music element switch PS includes a rhythm switch RS and a bridge switch BS. The rhythm switch RS is used when playing using rhythm waveform data. The bridge switch BS is used when playing using bridge waveform data. One of the section selection switches SS, the rhythm switch RS and the bridge switch BS can be simultaneously set to the on state. That is, the performer can play the accompaniment waveform data, the rhythm waveform data, and the bridge waveform data independently or play them in combination.

また、演奏装置10は、複数の動作モードを備えており、それらの動作モードを切り替える際に入力操作子11が用いられる。動作モードには、既存の楽曲の音響波形データに基づいてオーディオ音楽要素データセットを生成するオーディオ音楽要素データセット生成モード、予め生成し記憶してあるオーディオ音楽要素データセットを用いて演奏するオーディオ音楽要素演奏モードが含まれる。   In addition, the playing device 10 has a plurality of operation modes, and the input operator 11 is used when switching the operation modes. The operation mode includes an audio music element data set generation mode that generates an audio music element data set based on acoustic waveform data of existing music, and an audio music played using the audio music element data set generated and stored in advance. The element playing mode is included.

コンピュータ部12は、バスBUSにそれぞれ接続されたCPU12a、ROM12b及びRAM12cからなる。CPU12aは、詳しくは後述するオーディオ音楽要素データセット生成プログラム、オーディオ音楽要素演奏プログラムなどをROM12bから読み出して実行する。ROM12bには、オーディオ音楽要素データセット生成プログラム(後述する第1乃至第3アルゴリズムを含む)、オーディオ音楽要素演奏プログラム、その他のプログラムに加えて、初期設定パラメータ、表示器13に表示される画像を表わす表示データを生成するための図形データ、文字データなどが記憶されている。RAM12cには、各種プログラムの実行時に、楽曲データを含む各種データが一時的に記憶される。   The computer unit 12 comprises a CPU 12a, a ROM 12b and a RAM 12c connected to the bus BUS. The CPU 12a reads out an audio music element data set generation program, an audio music element performance program, and the like which will be described in detail later from the ROM 12b and executes the program. In addition to the audio music element data set generation program (including the first to third algorithms to be described later), the audio music element performance program, and other programs, the ROM 12b includes an initialization parameter and an image displayed on the display 13. Graphic data, character data and the like for generating display data to be represented are stored. Various data including music data are temporarily stored in the RAM 12 c when the various programs are executed.

表示器13は、液晶ディスプレイ(LCD)によって構成される。コンピュータ部12は、図形データ、文字データなどを用いて表示すべき内容を表わす表示データを生成して表示器13に供給する。表示器13は、コンピュータ部12から供給された表示データに基づいて画像を表示する。例えば、現在選択されているオーディオ音楽要素データセットの名称が表示される。   The display 13 is configured of a liquid crystal display (LCD). The computer unit 12 generates display data representing contents to be displayed using graphic data, character data and the like, and supplies the display data to the display 13. The display 13 displays an image based on the display data supplied from the computer unit 12. For example, the name of the currently selected audio music element data set is displayed.

また、記憶装置14は、HDD、CD、DVDなどの大容量の不揮発性記録媒体と、各記録媒体に対応するドライブユニットから構成されている。記憶装置14には、複数の楽曲の音響波形をそれぞれ表わす複数の音響波形データが記憶されている。音響波形データは、楽曲を所定のサンプリング周期(例えば1/44100秒)でサンプリングして得られた複数のサンプル値からなり、各サンプル値が記憶装置14における連続するアドレスに順に記録されている。楽曲のタイトルを表わすタイトル情報、音響波形データの容量を表わすデータサイズ情報なども音響波形データに含まれている。音響波形データは予め記憶装置14に記憶されていてもよいし、後述する外部インターフェース回路15を介して外部機器から取り込んでもよい。   The storage device 14 is composed of a large-capacity non-volatile storage medium such as an HDD, a CD, and a DVD, and a drive unit corresponding to each storage medium. The storage unit 14 stores a plurality of pieces of acoustic waveform data respectively representing the acoustic waveforms of a plurality of music pieces. The acoustic waveform data is composed of a plurality of sample values obtained by sampling music at a predetermined sampling period (for example, 1/440 seconds), and the sample values are sequentially recorded at successive addresses in the storage device 14. The sound waveform data also includes title information indicating the title of the music, data size information indicating the volume of the sound waveform data, and the like. The acoustic waveform data may be stored in advance in the storage device 14 or may be fetched from an external device via the external interface circuit 15 described later.

外部インターフェース回路15は、演奏装置10を他の電子楽器、パーソナルコンピュータなどの外部機器に接続可能とする接続端子を備えている。演奏装置10は、外部インターフェース回路15を介して、LAN(Local Area Network)、インターネットなどの通信ネットワークにも接続可能である。   The external interface circuit 15 includes a connection terminal that enables the performance device 10 to be connected to an external device such as another electronic musical instrument or a personal computer. The playing device 10 can also be connected to a communication network such as a LAN (Local Area Network) or the Internet via the external interface circuit 15.

音源回路16には、ピアノ、オルガン、バイオリン、トランペットなどの複数の楽器音の音響波形を表す音色波形データを記憶した波形メモリWMが接続されている。音源回路16は、CPU12aによって指定された音色波形データを波形メモリWMから読み出して、CPU12aから供給されるMIDIデータの音符情報に基づいて楽音の音響波形データを生成し、サウンドシステム17に供給する。例えば、MIDI伴奏スタイルデータセットを用いて演奏する際、音源回路16は、各セクションに対応する演奏パターンの音響波形を表す演奏パターンデータを生成し、サウンドシステム17に供給する。また、演奏装置10は、音源回路16にて生成された演奏パターンデータを記憶装置14に記憶可能に構成されている。なお、演奏音にコーラス効果、残響効果などの各種効果を付加するエフェクタ回路も、音源回路16に含まれている。   Connected to the sound source circuit 16 is a waveform memory WM storing timbre waveform data representing acoustic waveforms of a plurality of musical instrument sounds such as a piano, an organ, a violin and a trumpet. The tone generator circuit 16 reads the tone waveform data specified by the CPU 12 a from the waveform memory WM, generates sound waveform data of a musical tone based on the note information of MIDI data supplied from the CPU 12 a, and supplies it to the sound system 17. For example, when playing using the MIDI accompaniment style data set, the tone generator circuit 16 generates performance pattern data representing the acoustic waveform of the performance pattern corresponding to each section, and supplies the performance system data. In addition, the musical performance device 10 is configured to be able to store the musical performance pattern data generated by the tone generator circuit 16 in the storage device 14. Note that the sound source circuit 16 also includes an effector circuit that adds various effects such as a chorus effect and a reverberation effect to the performance sound.

サウンドシステム17には、演奏者が演奏操作のための入力操作子11(鍵盤装置KY)を用いて演奏することにより発生させたMIDI演奏データに基ついて音源回路16が順次楽音合成したメロディパートなどの演奏音データも供給される。また、詳しくは後述するように、サウンドシステム17には、CPU12aからもオーディオ音楽要素データセットに基づいて生成された演奏パターンデータが供給される。サウンドシステム17は、前記演奏音データ及び演奏パターンデータを重畳加算するとともにアナログオーディオ信号に変換するD/A変換器、変換したアナログオーディオ信号を増幅するアンプ、及び増幅されたアナログオーディオ信号を音響信号に変換して放音する左右一対のスピーカを備えている。なお、音源回路16及びサウンドシステム17の機能の全体又は一部の機能を、専用のハードウェアではなく、CPU12aが実行するプログラムによって実現しても良い。   The sound system 17 includes a melody part in which the tone generator circuit 16 sequentially synthesizes a tone based on MIDI performance data generated by the performer using the input operation element 11 (keyboard device KY) for performance operation. Performance sound data is also supplied. Further, as described later in detail, the sound system 17 is also supplied with performance pattern data generated from the CPU 12a based on the audio music element data set. The sound system 17 superimposes and adds the performance sound data and the performance pattern data and converts it into an analog audio signal, an amplifier which amplifies the converted analog audio signal, and an audio signal of the amplified analog audio signal. It is equipped with a pair of left and right speakers that convert into and emit sound. The whole or a part of the functions of the tone generator circuit 16 and the sound system 17 may be realized not by dedicated hardware but by a program executed by the CPU 12a.

つぎに、オーディオ音楽要素データセットを生成する手順について説明する。演奏者が入力操作子11を用いて、演奏装置10の動作モードをオーディオ音楽要素データセット生成モードに設定すると、CPU12aは、図4に示す、オーディオ音楽要素データセット生成プログラムをROM12bから読み込んで実行する。CPU12aは、ステップS10にて、オーディオ音楽要素データセット生成処理を開始する。つぎに、CPU12aは、ステップS11にて、記憶装置14に記憶されている楽曲のタイトルを表示器13に表示させる。演奏者は、入力操作子11を用いて、所望の楽曲(本実施形態では「Song01」とする)を選択する。CPU12aは、ステップS12にて、前記選択された楽曲の音響波形を表す音響波形データを記憶装置14(例えば、オーディオCD)から読み込む。   Next, a procedure for generating an audio music element data set will be described. When the performer sets the operation mode of the musical performance apparatus 10 to the audio music element data set generation mode using the input operator 11, the CPU 12a reads the audio music element data set generation program shown in FIG. 4 from the ROM 12b and executes it. Do. At step S10, the CPU 12a starts an audio music element data set generation process. Next, in step S11, the CPU 12a causes the display 13 to display the title of the music stored in the storage device 14. The player uses the input operator 11 to select a desired music (in this embodiment, “Song 01”). At step S12, the CPU 12a reads acoustic waveform data representing an acoustic waveform of the selected music from the storage device 14 (for example, an audio CD).

演奏装置10は、前記読み込んだ音響波形データに第1アルゴリズム、第2アルゴリズム及び第3アルゴリズムをそれぞれ適用することにより、伴奏、リズム、ブリッジの音楽要素についてそれぞれ複数の伴奏波形データ、リズム波形データ及びブリッジ波形データを生成可能である。演奏装置10は、第1アルゴリズム、第2アルゴリズム及び第3アルゴリズムのうち、前記読み込んだ音響波形データに適用するアルゴリズムを選択可能に構成されている。すなわち、CPU12aは、ステップS13にて、前記読み込んだ音響波形データに適用するアルゴリズムを演奏者に選択させる。例えば、CPU12aは、第1アルゴリズム、第2アルゴリズム及び第3アルゴリズムにそれぞれ対応するアイコン(図示なし)を表示器13に表示する。演奏者は、入力操作子11を用いて、第1アルゴリズム、第2アルゴリズム及び第3アルゴリズムのうちの1つ又は複数のアルゴリズムを選択し、オーディオ音楽要素データセットの生成開始を指示する。   The performance device 10 applies a first algorithm, a second algorithm, and a third algorithm to the read-in acoustic waveform data, respectively, to thereby create a plurality of accompaniment waveform data, rhythm waveform data, and a plurality of accompaniment, rhythm, and bridge music elements. Bridge waveform data can be generated. The playing device 10 is configured to be able to select one of the first algorithm, the second algorithm and the third algorithm, which is to be applied to the read acoustic waveform data. That is, in step S13, the CPU 12a allows the player to select an algorithm to be applied to the read acoustic waveform data. For example, the CPU 12a displays icons (not shown) respectively corresponding to the first algorithm, the second algorithm, and the third algorithm on the display 13. The player uses the input operator 11 to select one or more of the first algorithm, the second algorithm, and the third algorithm, and instructs start of generation of the audio music element data set.

つぎに、CPU12aは、ステップS14にて、前記選択された1つ又は複数のアルゴリズムを、前記読み込んだ音響波形データに適用する。これにより、複数の伴奏波形データ、複数のリズム波形データ及び複数のブリッジ波形データのうち、前記選択されたアルゴリズムに対応する波形データを生成するとともに、前記生成した波形データを入力操作子11に割り当てる。   Next, in step S14, the CPU 12a applies the selected one or more algorithms to the read acoustic waveform data. Thus, among the plurality of accompaniment waveform data, the plurality of rhythm waveform data, and the plurality of bridge waveform data, waveform data corresponding to the selected algorithm is generated, and the generated waveform data is assigned to the input operator 11 .

第1アルゴリズムは、オーディオの楽曲データから伴奏の演奏パターンを表す音響波形データを抽出する技法であり、例えば、特開2014−029425号公報に記載されているアルゴリズムを利用することにより実現される。つまり、CPU12aは、まず、各MIDI伴奏スタイルデータセットを用いて音源回路16に各演奏パターンを表す演奏パターンデータを生成させ、基準波形データ(本発明の基準データ)として記憶装置14に記憶させる。なお、基準波形データは、伴奏セクションごとに生成される。さらに、1つの伴奏セクションに関し、各コード(つまり、全てのルート音及びコードタイプ)の基準波形データが生成される。すなわち、基準波形データは、1つのMIDI伴奏スタイルデータセットが選択され、且つ1つの伴奏セクションが選択された状態において1つのコードが指定されて生成された所定の長さ(例えば2小節)のフレーズの音響波形を表す。基準波形データの名称は、各MIDI伴奏スタイルデータセットの名称と、セクション名と、コード名とを「_」で連結した名称に設定される。例えば、図5に示すように、基準波形データの名称は、「StyleM1_Intro_Am」に設定される。   The first algorithm is a technique for extracting acoustic waveform data representing a performance pattern of accompaniment from music data of audio, and is realized, for example, by using an algorithm described in Japanese Patent Application Laid-Open No. 2014-029425. That is, the CPU 12a first causes the tone generator circuit 16 to generate performance pattern data representing each performance pattern using each MIDI accompaniment style data set, and stores the performance pattern data in the storage device 14 as reference waveform data (reference data of the present invention). The reference waveform data is generated for each accompaniment section. Furthermore, reference waveform data of each chord (ie, all root sounds and chord types) is generated for one accompaniment section. That is, as the reference waveform data, a phrase of a predetermined length (for example, two measures) generated by designating one chord while one MIDI accompaniment style data set is selected and one accompaniment section is selected. Represents the acoustic waveform of The name of the reference waveform data is set to a name obtained by connecting the name of each MIDI accompaniment style data set, the section name, and the code name with "_". For example, as shown in FIG. 5, the name of the reference waveform data is set to "Style M1_Intro_Am".

つぎに、CPU12aは、周知のアルゴリズム(例えば、特開平11−38980号公報)を原曲の音響波形データに適用し、原曲からボーカルパート及びメロディパートを除いた伴奏パートの音響波形データを生成する。つぎに、CPU12aは、前記生成した伴奏パートの音響波形データを複数の区間t1,t2,・・・に分割する。つぎに、CPU12aは、前記分割して得られた各区間の音響波形データと各基準波形データとを比較することにより、前記区間ごとに、最も類似度が大きい基準波形データを検出する。そして、前記検出した基準波形データの区間に対応する区間の音響波形データを前記原曲の音響波形データから切り出し(抽出し)、前記切り出した音響波形データを、前記検出した基準波形データのセクション名及びコード名に関連づけて、伴奏波形データとして記憶する。例えば、図5に示すように、原曲のタイトル、前記検出した基準波形データのセクション名及びコード名を含む名称を、伴奏波形データの名称として設定し、その伴奏波形データを記憶装置14に記憶する。図5に示す例においては、原曲のタイトルは、「Song01」である。そして、区間t1の音響波形データと最も類似する基準波形データのセクション名は「Intro」であり、コード名は「Am」である。よって、この場合、CPU12aは、区間t1の音響波形データの名称を「Song01_Intro_Am.wav」に設定し、伴奏波形データとして記憶装置14に記憶する。つまり、各伴奏波形データの名称は、楽曲のタイトルと、前記検出した基準波形データのセクション名と、コード名とを「_」を介して連結した名称に設定される。これによれば、伴奏波形データの名称によって、その伴奏波形データのセクション及びコードを判別できる。他の区間に関しても、区間t1と同様のルールに従って、伴奏波形データの名称が設定され、それらの伴奏波形データが記憶装置14に記憶される。なお、本実施形態では、基準波形データは、2小節分の演奏パターンを表している。したがって、その演奏パターンに類似する伴奏波形データも2小節分の演奏パターンを表している。   Next, the CPU 12a applies a well-known algorithm (for example, Japanese Patent Laid-Open No. 11-38980) to the acoustic waveform data of the original song to generate acoustic waveform data of the accompaniment part excluding the vocal part and the melody part from the original song. Do. Next, the CPU 12a divides the generated acoustic waveform data of the accompaniment part into a plurality of sections t1, t2,. Next, the CPU 12a detects the reference waveform data with the highest degree of similarity for each section by comparing the acoustic waveform data of each section obtained by the division with each reference waveform data. Then, the acoustic waveform data of the section corresponding to the section of the detected reference waveform data is cut out (extracted) from the sound waveform data of the original music, and the cut out acoustic waveform data is the section name of the detected reference waveform data And it associates with the chord name and stores it as accompaniment waveform data. For example, as shown in FIG. 5, the title including the title of the original music, the section name of the detected reference waveform data, and the name including the code name are set as the name of the accompaniment waveform data, and the accompaniment waveform data is stored in the storage device 14 Do. In the example shown in FIG. 5, the title of the original song is "Song 01". Then, the section name of the reference waveform data most similar to the acoustic waveform data in the section t1 is "Intro", and the code name is "Am". Therefore, in this case, the CPU 12a sets the name of the acoustic waveform data of the section t1 to "Song01_Intro_Am.wav", and stores it in the storage device 14 as accompaniment waveform data. That is, the name of each accompaniment waveform data is set to a title in which the title of the music, the section name of the detected reference waveform data, and the chord name are connected via "_". According to this, the section and chord of the accompaniment waveform data can be determined by the name of the accompaniment waveform data. For the other sections, the names of the accompaniment waveform data are set according to the same rule as that of the section t1, and the accompaniment waveform data is stored in the storage unit 14. In the present embodiment, the reference waveform data represents a performance pattern for two measures. Therefore, the accompaniment waveform data similar to the performance pattern also represents the performance pattern for two measures.

第2アルゴリズムは、例えば、「K.Miyamoto et al.、“Separation of harmonic and non−harmonic sounds based on anisotropy in spectrogram”、Proc. of ASJ Spring Meeting 2008、p.903−904」に記載されているアルゴリズムと同様のアルゴリズムを含む。つまり、CPU12aは、まず、前記読み込んだ音響波形データを用いて原曲のスペクトログラムを計算する。一般に、打楽器の演奏音(単音)のエネルギーは、スペクトログラムにおいて、周波数軸方向には広く分布し、且つ時間軸方向には狭い範囲に分布する傾向にある。一方、ピアノ、ギターなどの演奏音(単音)のエネルギーは、周波数軸方向に間隔をおいて分布し、且つ時間軸方向に広い範囲に分布する傾向にある。上記のような各楽器の演奏音の性質に着目し、原曲のリズムパートとその他の演奏パートとを分離する。すなわち、CPU12aは、前記計算したスペクトログラムに基づいて、原曲のリズムパートのみの演奏を表わす音響波形データを生成する。そして、CPU12aは、前記生成したリズムパートのみの演奏を表わす音響波形データを複数の区間に分割する。なお、本実施形態においては、説明を簡単にするために、これらの区間の長さは、伴奏波形データの長さと同一(つまり、本実施形態では2小節分の長さ)とする。   The second algorithm is described, for example, in "K. Miyamoto et al.," Separation of harmonic and non-harmonic sounds based on anisotropy in spectrogram ", Proc. Of ASJ Spring Meeting 2008, p. 903-904. Includes an algorithm similar to the algorithm. That is, the CPU 12a first calculates the spectrogram of the original music using the read-in acoustic waveform data. In general, the energy of the playing sound (single tone) of a percussion instrument tends to be widely distributed in the frequency axis direction and narrowly distributed in the time axis direction in the spectrogram. On the other hand, the energy of playing sounds (single tones) of a piano, a guitar or the like tends to be distributed at intervals in the frequency axis direction and distributed in a wide range in the time axis direction. Focusing on the nature of the sound played by each instrument as described above, the rhythm part of the original music and the other played parts are separated. That is, the CPU 12a generates acoustic waveform data representing the performance of only the rhythm part of the original music based on the calculated spectrogram. Then, the CPU 12a divides the generated acoustic waveform data representing the performance of the rhythm part into a plurality of sections. In the present embodiment, in order to simplify the description, the lengths of these sections are the same as the length of the accompaniment waveform data (that is, the length of two bars in the present embodiment).

つぎに、CPU12aは、前記分割して形成された複数の音響波形データのうち、類似度の低い12個の音響波形データを選択する。そして、前記選択した12個の音響波形データの名称を、楽曲の先頭側に位置する音響波形データから末尾側に位置する音響波形データに向かって順に「Song01_Rhythm1.wav」、「Song01_Rhythm2.wav」、・・・、「Song01_Rhythm12.wav」に設定し、リズム波形データとして記憶装置14に記憶する。   Next, the CPU 12a selects 12 pieces of acoustic waveform data having a low degree of similarity among the plurality of pieces of acoustic waveform data formed by division. Then, the names of the 12 selected acoustic waveform data are “Song01_Rhythm1.wav” and “Song01_Rhythm2.wav” in order from the acoustic waveform data located at the beginning of the music to the acoustic waveform data located at the end. .., “Song 01 _Rhythm 12. wav” is set, and stored in the storage device 14 as rhythm waveform data.

第3アルゴリズムは、例えば、特開2004−233965号公報に記載されているアルゴリズムと同様のアルゴリズムを含む。つまり、CPU12aは、前記読み込んだ音響波形データを複数の区間に分割し、各区間のクロマベクトルを計算する。そして、各区間のクロマベクトル同士の類似度を計算し、前記計算した類似度に基づいて、反復的に出現する区間をブリッジ区間として抽出する。本実施形態では、12個のブリッジ区間を抽出する。例えば、出現回数の多い順に12個のブリッジ区間を抽出する。なお、本実施形態においては、説明を簡単にするために、各ブリッジ区間の長さは、伴奏波形データの長さと同一(つまり、本実施形態では2小節分の長さ)とする。つぎに、CPU12aは、前記抽出された12個のブリッジ区間の音響波形データの名称を、原曲の先頭側のブリッジ区間から末尾側のブリッジ区間に向かって順に、「Song01_Bridge1.wav」、「Song01_Bridge2.wav」、・・・、「Song01_Bridge12.wav」に設定し、ブリッジ波形データとして記憶装置14に記憶する。   The third algorithm includes, for example, an algorithm similar to the algorithm described in Japanese Patent Laid-Open No. 2004-233965. That is, the CPU 12a divides the read acoustic waveform data into a plurality of sections, and calculates a chroma vector of each section. Then, the similarity between chroma vectors of each interval is calculated, and based on the calculated similarity, an interval which appears repetitively is extracted as a bridge interval. In the present embodiment, 12 bridge sections are extracted. For example, 12 bridge sections are extracted in descending order of the number of appearances. In the present embodiment, in order to simplify the description, the length of each bridge section is the same as the length of the accompaniment waveform data (that is, the length of two bars in the present embodiment). Next, the CPU 12a sequentially names the extracted acoustic waveform data of the 12 bridge sections from the bridge section on the head side of the original music toward the bridge section on the end side of the original song, "Song01_Bridge1.wav", "Song01_Bridge2 .Wav ”,..., And“ Song01_Bridge12.wav ”, and store in the storage device 14 as bridge waveform data.

つぎに、CPU12aは、ステップS15にて、図6に示すように、前記生成した伴奏波形データ、リズム波形データ及びブリッジ波形データを所定の入力操作子11に割り当てる。例えば、セクション選択スイッチSSのうち、前記記憶した各伴奏波形データのセクション名と同一の名称を含むスイッチに、前記各伴奏波形データを割り当てるとともに、コードを指定するために用いられる鍵盤装置KYを構成する1つの鍵又は複数の鍵の組み合わせに割り当てる(以下、単に、伴奏波形データをコードに割り当てるという)。つまり、CPU12aは、伴奏波形データと各スイッチ及び鍵との対応関係を表わすテーブルを生成して記憶装置14に記憶する。なお、演奏者は、伴奏波形データを用いて演奏する際、鍵盤装置KYの所定の第1鍵域(例えば、「C2」〜「B2」)に属する1つ又は複数の鍵を用いてコードを入力する。   Next, in step S15, the CPU 12a assigns the generated accompaniment waveform data, rhythm waveform data and bridge waveform data to a predetermined input operator 11, as shown in FIG. For example, of the section selection switches SS, the accompaniment waveform data is assigned to a switch including the same name as the section name of each stored accompaniment waveform data, and the keyboard device KY used to designate a chord is configured. Assign one key or a combination of a plurality of keys (hereinafter simply referred to as assigning accompaniment waveform data to a chord). That is, the CPU 12 a generates a table indicating the correspondence between the accompaniment waveform data and each switch and key, and stores the table in the storage device 14. When the performer performs using the accompaniment waveform data, the player performs chords using one or more keys belonging to a predetermined first key range (for example, "C2" to "B2") of the keyboard device KY. input.

図6に示すように、例えば、「Song01_Intro_Am.wav」は、イントロスイッチISに割り当てられる。この例では、1つの伴奏波形データのみがイントロスイッチISに割り当てられている。この場合、「Song01_Intro_Am.wav」は全てのコードに割り当てられる。つまり、このオーディオ音楽要素データセットを用いた演奏の際、イントロスイッチISがオン状態に設定され、且ついずれかのコードが入力されたとき、「Song01_Intro_Am.wav」が、演奏パターンを表す演奏パターンデータを生成するためのデータとして選択されるように設定される。   As shown in FIG. 6, for example, "Song01_Intro_Am. Wav" is assigned to the intro switch IS. In this example, only one accompaniment waveform data is assigned to the intro switch IS. In this case, "Song01_Intro_Am.wav" is assigned to all codes. That is, at the time of performance using this audio music element data set, when the intro switch IS is set to the on state and any code is inputted, "Song01_Intro_Am.wav" is a performance pattern data representing a performance pattern. Are set to be selected as data for generating.

また、図6に示すように、例えば、「Song01_Main1_FM.wav」は、メインスイッチMS1に割り当てられる。この例では、セクション名が「Main1」であって、且つコード名が「FM」とは異なる複数の伴奏波形データが存在する。これらの伴奏波形データもメインスイッチMS1に割り当てられる。このように複数の伴奏波形データが同一のスイッチに割り当てられる場合、各伴奏波形データは、まず、各伴奏波形データの名称に含まれるコード名と同一のコードに割り当てられる。例えば、「Song01_Main1_FM.wav」は、「FM」に割り当てられる。さらに、いずれの伴奏波形データのコードとも異なるコードには、そのコードに最も近似するコード名を含む名称が付された伴奏波形データが割り当てられる。例えば、「Fm」がいずれの伴奏波形データにも割り当てられていない場合は、「Song01_Main1_FM.wav」が「Fm」にも割り当てられる。この場合、このオーディオ音楽要素データセットを用いた演奏の際、メインスイッチMS1がオン状態に設定され、「FM」又は「Fm」がコードとして入力されたとき、「Song01_Main_FM.wav」が、演奏パターンを表す演奏パターンデータを生成するためのデータとして選択されるように設定される。   Also, as shown in FIG. 6, for example, “Song01_Main1_FM.wav” is assigned to the main switch MS1. In this example, there is a plurality of accompaniment waveform data whose section name is "Main 1" and whose chord name is different from "FM". These accompaniment waveform data are also assigned to the main switch MS1. As described above, when a plurality of accompaniment waveform data are assigned to the same switch, each accompaniment waveform data is first assigned to the same chord as the chord name included in the name of each accompaniment waveform data. For example, "Song01_Main1_FM.wav" is assigned to "FM". Further, accompaniment waveform data having a name including a chord name most approximate to the chord is assigned to a chord different from any chord of accompaniment waveform data. For example, when "Fm" is not assigned to any accompaniment waveform data, "Song01_Main1_FM.wav" is also assigned to "Fm". In this case, at the time of performance using this audio music element data set, when the main switch MS1 is set to the on state and "FM" or "Fm" is input as a chord, "Song01_Main_FM.wav" indicates the performance pattern. Are set to be selected as data for generating performance pattern data representing.

また、CPU12aは、各リズム波形データを、リズムスイッチRSに割り当てるとともに、鍵盤装置KYを構成する複数の鍵のうちの所定の第2鍵域(例えば、「C3」〜「B3」)に属する鍵に互いに重複しないように割り当てる。つまり、CPU12aは、各リズム波形データと、リズムスイッチRS及び鍵の組み合わせとの対応関係を表わすテーブルを生成して記憶装置14に記憶する。なお、演奏者は、リズム波形データを用いて演奏する際、鍵盤装置KYの所定の第2鍵域(例えば、「C3」〜「B3」)に属する1つの鍵を押鍵してリズム波形データを選択する。図6に示すように、オーディオ音楽要素データセットを用いた演奏の際、例えば、リズムスイッチRSがオン状態に設定されるとともに、鍵盤装置KYの「C3」が押鍵されたとき、「Song01_Rhythm1.wav」が、演奏パターンを表す演奏パターンデータを生成するためのデータとして選択されるように設定される。   Further, the CPU 12a assigns each rhythm waveform data to the rhythm switch RS, and a key belonging to a predetermined second key area (for example, "C3" to "B3") of the plurality of keys constituting the keyboard device KY. Assign to each other so that they do not overlap. That is, the CPU 12a generates a table indicating the correspondence between each rhythm waveform data and the combination of the rhythm switch RS and the key, and stores the table in the storage device 14. When a performer plays using rhythm waveform data, the rhythm waveform data is depressed by pressing one key belonging to a predetermined second key range (for example, "C3" to "B3") of the keyboard device KY. Choose As shown in FIG. 6, when playing using the audio music element data set, for example, when the rhythm switch RS is set to ON and the key "C3" of the keyboard device KY is depressed, "Song01_Rhythm1. “wav” is set to be selected as data for generating performance pattern data representing a performance pattern.

また、CPU12aは、各ブリッジ波形データを、ブリッジスイッチBSに割り当てるとともに、鍵盤装置KYの所定の第3鍵域(例えば、「C4」〜「B4」)に属する鍵に互いに重複しないように割り当てる。つまり、CPU12aは、各ブリッジ波形データと、ブリッジスイッチBS及び鍵の組み合わせとの対応関係を表わすテーブルを生成して記憶装置14に記憶する。図6に示すように、オーディオ音楽要素データセットを用いた演奏の際、例えば、ブリッジスイッチBSがオン状態に設定されるとともに、鍵盤装置KYの「C4」が押鍵されたとき、「Song01_Bridge1.wav」が、演奏パターンを表す演奏パターンデータを生成するためのデータとして選択されるように設定される。   Further, the CPU 12a assigns each bridge waveform data to the bridge switch BS and assigns the bridge waveform data to keys belonging to a predetermined third key area (for example, "C4" to "B4") of the keyboard device KY so as not to overlap with each other. That is, the CPU 12a generates a table showing the correspondence between each bridge waveform data and the combination of the bridge switch BS and the key, and stores the table in the storage device 14. As shown in FIG. 6, when playing using the audio music element data set, for example, when the bridge switch BS is set to the ON state and the key "C4" of the keyboard device KY is depressed, "Song 01_Bridge 1. “wav” is set to be selected as data for generating performance pattern data representing a performance pattern.

なお、前記生成された複数の伴奏波形データ、複数のリズム波形データ及び複数のブリッジ波形データのうちの1つの波形データが本発明の音楽要素の音響波形を表わしている。また、前記生成された複数の伴奏波形データ、複数のリズム波形データ及び複数のブリッジ波形データのうちの1つの波形データが割り当てられた、音楽要素スイッチPSのうちの1つのスイッチと、1つ又は複数の鍵から構成された操作子群が、本発明の操作子グループに相当する。   Note that one of the generated accompaniment waveform data, the plurality of rhythm waveform data, and the plurality of bridge waveform data represents one acoustic waveform of the music element of the present invention. In addition, one of the music element switches PS to which one of the generated accompaniment waveform data, the plurality of rhythm waveform data, and the one of the plurality of bridge waveform data is assigned, and one or more of the music element switches PS An operator group composed of a plurality of keys corresponds to the operator group of the present invention.

上記のようにして生成された複数の伴奏波形データ、複数のリズム波形データ、及び複数のブリッジ波形データからなるオーディオ音楽要素データセットの名称は、その生成元の楽曲のタイトルである「Song01」に関連付けて、「Song01_Component」に設定される。つまり、オーディオ音楽要素データセットの名称は、楽曲のタイトルと「Component」とが「_」で結合された名称に設定される。   The name of an audio music element data set consisting of a plurality of accompaniment waveform data, a plurality of rhythm waveform data, and a plurality of bridge waveform data generated as described above is “Song 01” which is the title of the music piece of the generation source. It associates and is set to "Song01_Component". That is, the name of the audio music element data set is set to a name in which the title of the music and "Component" are combined by "_".

再び、図4の説明に戻る。CPU12aは、上記のようにしてオーディオ音楽要素データセットを生成すると、ステップS16にて、オーディオ音楽要素データセット生成処理を終了する。   It returns to the explanation of FIG. 4 again. After generating the audio music element data set as described above, the CPU 12a ends the audio music element data set generation processing in step S16.

つぎに、オーディオ音楽要素データセットを用いて、伴奏スタイル、リズム、ブリッジなどの演奏パターンを表す演奏パターンデータを生成して、サウンドシステム17に供給する手順について説明する。演奏者が入力操作子11を用いて、演奏装置10の動作モードをオーディオ音楽要素演奏モードに設定すると、CPU12aは、オーディオ音楽要素演奏プログラムをROM12bから読み込んで実行する。オーディオスタイル演奏プログラムは、図7A及び図7Bに示す演奏パターンデータ生成プログラムと、図8に示す演奏パターンデータ供給プログラムからなる。   Next, a procedure of generating performance pattern data representing performance patterns such as accompaniment style, rhythm, bridge and the like using the audio music element data set and supplying the same to the sound system 17 will be described. When the performer sets the operation mode of the musical performance device 10 to the audio music element performance mode using the input operator 11, the CPU 12a reads an audio music element performance program from the ROM 12b and executes the program. The audio style performance program comprises a performance pattern data generation program shown in FIGS. 7A and 7B and a performance pattern data supply program shown in FIG.

まず、演奏パターンデータ生成プログラムについて説明する。CPU12aは、ステップS100にて、演奏パターンデータ生成処理を開始する。つぎに、CPU12aは、ステップS101にて、初期化処理を実行する。例えば、本プログラムにおいて使用するRAM12bの領域(例えば、後述する第1乃至第4領域)に所定の値(例えば、「0」)を書き込む。   First, the performance pattern data generation program will be described. In step S100, the CPU 12a starts a performance pattern data generation process. Next, in step S101, the CPU 12a executes an initialization process. For example, a predetermined value (for example, “0”) is written in an area (for example, first to fourth areas described later) of the RAM 12 b used in the present program.

つぎに、CPU12aは、ステップS102にて、記憶装置14に記憶されているオーディオ音楽要素データセットの名称をリスト形式で表示器13に表示する。演奏者は、演奏操作に先立って、入力操作子11を用いて、1つのオーディオ音楽要素データセット(例えば、「Song01_Component」)を選択する。つぎに、CPU12aは、ステップS103にて、セクション選択スイッチSSのうちのいずれかのスイッチがオン状態に設定されているか否かを検出する。全てのスイッチがオフ状態である場合には、CPU12aは、「No」と判定し、ステップS109に処理を進める。一方、セクション選択スイッチSSのうちのいずれかのスイッチがオン状態である場合には、CPU12aは、ステップS104にて、第1鍵域に属する鍵のうちの少なくともいずれか1つの鍵が押鍵されているか否かを検出する。いずれの鍵も押鍵されていない場合には、CPU12aは、「No」と判定して、ステップS109に処理を進める。一方、少なくともいずれか1つの鍵が押鍵されている場合には、CPU12aは、ステップS105にて。現在押鍵されている鍵の音高を検出し、現在入力されているコードを検出する。   Next, in step S102, the CPU 12a displays the names of the audio music element data sets stored in the storage device 14 on the display 13 in list form. The player uses the input operator 11 to select one audio music element data set (for example, “Song 01_Component”) prior to the performance operation. Next, in step S103, the CPU 12a detects whether any one of the section selection switches SS is set to the on state. If all the switches are in the off state, the CPU 12a determines as “No”, and advances the process to step S109. On the other hand, when any one of the section selection switches SS is in the on state, the CPU 12a, in step S104, presses at least one of the keys belonging to the first key area. To detect if it is If none of the keys has been depressed, the CPU 12a determines that the result is "No" and advances the process to step S109. On the other hand, if at least one key is depressed, the CPU 12a proceeds to step S105. The pitch of the currently depressed key is detected, and the currently input code is detected.

つぎに、CPU12aは、ステップS106にて、セクション選択スイッチSSのうちの現在オン状態に設定されているスイッチ及び前記検出したコードに割り当てられている伴奏波形データを、RAM12bにおける所定の第1領域に読み込む。つぎに、CPU12aは、ステップS107にて、前記読み込んだ伴奏波形データのコードと前記検出したコードとが同一であるか否かを判定する。前記読み込んだ伴奏波形データのコードと前記検出したコードとが同一である場合には、CPU12aは、「Yes」と判定して、ステップS109に処理を進める。一方、前記読み込んだ伴奏波形データのコードと前記検出したコードとが異なる場合には、CPU12aは、「No」と判定して、ステップS108にて、前記読み込んだ伴奏波形データを前記検出したコードに修正する。   Next, in step S106, the CPU 12a causes the accompaniment waveform data assigned to the switch currently set to the on state of the section selection switch SS and the detected chord to a predetermined first area in the RAM 12b. Read Next, in step S107, the CPU 12a determines whether or not the chord of the accompaniment waveform data read in is the same as the chord detected. If the code of the read-in accompaniment waveform data and the detected code are the same, the CPU 12a determines “Yes” and advances the process to step S109. On the other hand, when the read accompaniment waveform data code and the detected code are different, the CPU 12a determines "No" and sets the read accompaniment waveform data to the detected code in step S108. Fix it.

上記のように、図6の第1アルゴリズムによって抽出された伴奏波形データは、MIDI伴奏スタイルのセクション及びコードを指定する操作と同様の操作によって読み出される。   As described above, the accompaniment waveform data extracted by the first algorithm of FIG. 6 is read out by an operation similar to the operation of designating the section and chord of the MIDI accompaniment style.

例えば、イントロスイッチISがオン状態に設定され、且つ第1鍵域の「A」キーと「G#」キーとが押鍵され(簡単なコード指定方法)、又は「A」キーと「C」キーと「E」キーが押鍵される(通常のコード指定方法)ことにより、「Am」コードが入力(指定)されているとする。本実施形態では、図6に示すように、「Song01_Intro_Am.wav」がイントロスイッチIS及び全てのコードに割り当てられている。したがって、「Song01_Intro_Am.wav」が第1領域に読み込まれる。この例では、入力されたコードと伴奏波形データのコードが同一であるので、CPU12aは、「Song01_Intro_Am.wav」を第1領域に保持したまま、ステップS109に処理を進める。一方、イントロスイッチISがオン状態に設定され、且つコードとして「AM」が入力されているとする。上記のように、「Song01_Intro_Am.wav」は全てのコードに割り当てられているので、この場合も「Song01_Intro_Am.wav」が選択される。この例では、入力されているコードと伴奏波形データのコードが異なる。そこで、CPU12aは、「Song01_Intro_Am.wav」に、周知のアルゴリズム(例えば、特開2012−203219)を適用する。すなわち、「Song01_Intro_Am.wav」を構成する楽音のうち、鍵音高が「C」である楽音を分離し、前記分離した楽音をピッチチェンジして「C#」に変更した後、再合成する。このようにして、「Song01_Intro_Am.wav」のコードが「AM」に修正される。   For example, the intro switch IS is set to the on state, and the "A" key and the "G #" key of the first key area are depressed (simple code specification method), or the "A" key and "C" It is assumed that the "Am" code is input (designated) by pressing the key and the "E" key (the usual code designation method). In the present embodiment, as shown in FIG. 6, “Song01_Intro_Am. Wav” is assigned to the intro switch IS and all the codes. Therefore, "Song01_Intro_Am. Wav" is read into the first area. In this example, since the input chord and the chord of the accompaniment waveform data are the same, the CPU 12a advances the process to step S109 while holding "Song01_Intro_Am.wav" in the first area. On the other hand, it is assumed that the intro switch IS is set to the on state, and "AM" is input as a code. As described above, since "Song01_Intro_Am.wav" is assigned to all the codes, "Song01_Intro_Am.wav" is selected in this case as well. In this example, the chords of the input chord and the accompaniment waveform data are different. Therefore, the CPU 12a applies a known algorithm (for example, JP 2012-203219) to "Song 01_Intro_Am.wav". That is, among the tones constituting "Song01_Intro_Am. Wav", tones having a key pitch of "C" are separated, the separated tones are pitch-changed, changed to "C #", and then re-synthesized. Thus, the code of "Song01_Intro_Am.wav" is corrected to "AM".

つぎに、CPU12aは、ステップS109にて、リズムスイッチRSがオン状態に設定されているか否かを検出する。リズムスイッチRSがオフ状態である場合には、CPU12aは、「No」と判定し、ステップS112に処理を進める。一方、リズムスイッチRSがオン状態である場合には、CPU12aは、ステップS110にて、第2鍵域に属する鍵のうちの少なくともいずれか1つの鍵が押鍵されているか否かを検出する。いずれの鍵も押鍵されていない場合には、CPU12aは、「No」と判定して、ステップS113に処理を進める。一方、少なくともいずれか1つの鍵が押鍵されている場合には、CPU12aは、ステップS111にて、第2鍵域に属する鍵であって現在押鍵されている鍵のうち、最後に押鍵された鍵の鍵音高を検出する。つぎに、CPU12aは、ステップS112にて、前記検出した鍵音高に割り当てられているリズム波形データを、RAM12bにおける所定の第2領域に読み込む。   Next, in step S109, the CPU 12a detects whether the rhythm switch RS is set to the on state. If the rhythm switch RS is in the off state, the CPU 12a determines that the result is "No", and advances the process to step S112. On the other hand, when the rhythm switch RS is in the on state, the CPU 12a detects in step S110 whether or not at least one of the keys belonging to the second key area is depressed. If none of the keys has been depressed, the CPU 12a determines that the result is "No" and advances the process to step S113. On the other hand, when at least one key is depressed, the CPU 12a selects the key at the end of the keys currently belonging to the second key area in step S111. Detect the key pitch of the selected key. Next, in step S112, the CPU 12a reads the rhythm waveform data assigned to the detected key pitch to a predetermined second area in the RAM 12b.

つぎに、CPU12aは、ステップS113にて、ブリッジスイッチBSがオン状態に設定されているか否かを検出する。ブリッジスイッチBSがオフ状態である場合には、CPU12aは、「No」と判定し、ステップS117に処理を進める。一方、ブリッジスイッチBSがオン状態である場合には、CPU12aは、ステップS114にて、第3鍵域に属する鍵のうちの少なくともいずれか1つの鍵が押鍵されているか否かを検出する。いずれの鍵も押鍵されていない場合には、CPU12aは、「No」と判定して、ステップS117に処理を進める。一方、少なくともいずれか1つの鍵が押鍵されている場合には、CPU12aは、ステップS115にて、第3鍵域に属する鍵であって現在押鍵されている鍵のうち、最後に押鍵された鍵の鍵音高を検出する。つぎに、CPU12aは、ステップS116にて、前記検出した鍵音高に割り当てられているブリッジ波形データを、RAM12bにおける所定の第3領域に読み込む。   Next, in step S113, the CPU 12a detects whether the bridge switch BS is set to the on state. If the bridge switch BS is in the off state, the CPU 12a determines that the result is "No", and advances the process to step S117. On the other hand, when the bridge switch BS is in the on state, the CPU 12a detects in step S114 whether or not at least one of the keys belonging to the third key area is depressed. If none of the keys has been depressed, the CPU 12a determines that the result is "No" and advances the process to step S117. On the other hand, when at least one key is depressed, the CPU 12a selects the last key of the keys currently belonging to the third key area in step S115. Detect the key pitch of the selected key. Next, in step S116, the CPU 12a reads the bridge waveform data assigned to the detected key pitch to the predetermined third area in the RAM 12b.

つぎに、CPU12aは、ステップS117にて、第1領域、第2領域及び第3領域にそれぞれ記憶されている伴奏波形データ、リズム波形データ及びブリッジ波形データを重畳加算することにより1つの演奏パターンの音響波形を表わす演奏パターンデータを生成し、RAM12bのうちの所定の第4領域に書き込む。そして、以降、CPU12aは、ステップS103〜S117からなる処理を繰り返し実行する。なお、前記演奏パターンデータは、複数のサンプル値からなる。その複数のサンプル値が、再生(D/A変換)される順に第4領域に記憶されている。つまり、第4記憶領域の先頭アドレスから末尾アドレスに向かって順に各サンプル値を読み出してサウンドシステム17に供給することにより、前記演奏パターンデータが表わす演奏パターンを再生することができるように構成されている。   Next, in step S117, the CPU 12a superimposes and adds the accompaniment waveform data, the rhythm waveform data, and the bridge waveform data stored in the first area, the second area, and the third area, respectively, to obtain one performance pattern. Performance pattern data representing an acoustic waveform is generated and written in a predetermined fourth area of the RAM 12b. After that, the CPU 12a repeatedly executes the process including steps S103 to S117. The performance pattern data is composed of a plurality of sample values. The plurality of sample values are stored in the fourth area in the order of reproduction (D / A conversion). That is, by reading out each sample value sequentially from the top address to the end address of the fourth storage area and supplying the sample values to the sound system 17, the performance pattern represented by the performance pattern data can be reproduced. There is.

つぎに、演奏パターンデータ供給プログラムについて説明する。CPU12aは、上記の演奏パターンデータ生成プログラムと平行して、演奏パターンデータ供給プログラムを実行する。   Next, a performance pattern data supply program will be described. The CPU 12a executes a performance pattern data supply program in parallel with the above-mentioned performance pattern data generation program.

CPU12aは、ステップS200にて、演奏パターンデータ供給処理を開始する。つぎに、CPU12aは、ステップS201にて、初期化処理を実行する。例えば、第4領域の1つのアドレスであって、前記演奏パターンデータを構成する1つのサンプル値を記憶しているアドレスを指し示すポインタの値を、前記第4領域の先頭のアドレスに設定する。つぎに、CPU12aは、ステップS202にて、ポインタによって指し示されたアドレスに記憶されているサンプル値をサウンドシステム17に供給する。つぎに、CPU12aは、ステップS203にて、前記ポインタを1つ進める。つまり、ポインタの値を、現在のアドレスから見て1つ後のアドレスに設定する。ただし、現在のアドレスが前記演奏パターンデータの末尾である場合には、前記ポインタの値を第4領域の先頭アドレスに設定する。つぎに、CPU12aは、ステップS204にて、次のサンプリング期間が到来するまで待機した後、ステップS201に処理を進める。これにより、CPU12aは、所定のサンプリング期間(本実施形態では1/44100秒)ごとに、1つのサンプル値をサウンドシステム17に供給する。   At step S200, the CPU 12a starts a performance pattern data supply process. Next, in step S201, the CPU 12a executes an initialization process. For example, a value of a pointer pointing to an address which is one address of the fourth area and which stores one sample value constituting the performance pattern data is set to the top address of the fourth area. Next, in step S202, the CPU 12a supplies the sample value stored at the address pointed by the pointer to the sound system 17. Next, the CPU 12a advances the pointer by one in step S203. That is, the value of the pointer is set to one address after the current address. However, when the current address is at the end of the performance pattern data, the value of the pointer is set to the start address of the fourth area. Next, after waiting for the next sampling period to arrive in step S204, the CPU 12a advances the process to step S201. As a result, the CPU 12a supplies one sample value to the sound system 17 every predetermined sampling period (1 / 44,100 seconds in the present embodiment).

したがって、オーディオ音楽要素データセットの伴奏波形データを用いた演奏においては、現在選択されているセクションの演奏パターンが繰り返し演奏される。また、例えば、セクションの演奏途中で現在選択されているセクションとは異なるセクションのスイッチがオン状態に設定された場合であっても途切れることなく演奏が継続される。なお、現在の小節の末尾に到達するまで現在の演奏パターンの演奏を継続し、その後、次のセクションの先頭から演奏が開始されるように構成されている。つまり、CPU12aは、現在の小節の末尾に到達したとき、ステップS117を実行する。また、次のセクションのスイッチがオン状態に設定された時点において、前記次のセクションの途中の位置であって、現在のセクションにおける演奏進行位置に対応する位置から演奏が継続されてもよい。また、小節の途中で新たにコードが入力されたとき、その小節の末尾に到達したとき、前記新たに入力されたコードに変更され、演奏が継続される。なお、エンディングスイッチESに対応するエンディングセクションの末尾に到達すると、CPU12aは、オーディオ音楽要素データセットを用いた演奏を終了し、音楽要素スイッチPSに属する全ての音楽要素スイッチPSをオフ状態に設定する。また、演奏者が入力操作子11を用いて演奏を中止することを選択した場合にも、CPU12aは、オーディオ音楽要素データセットを用いた演奏を終了し、音楽要素スイッチPSに属する全てのスイッチをオフ状態に設定する。   Therefore, in the performance using the accompaniment waveform data of the audio music element data set, the performance pattern of the currently selected section is repeatedly played. Also, for example, even when the switch of the section different from the currently selected section is set to the on state during the playing of the section, the playing is continued without interruption. The performance of the current performance pattern is continued until the end of the current measure is reached, and thereafter, the performance is started from the beginning of the next section. That is, the CPU 12a executes step S117 when the end of the current measure is reached. In addition, when the switch of the next section is set to the on state, the performance may be continued from the position in the middle of the next section, which corresponds to the playing progress position in the current section. When a chord is newly input in the middle of a bar, when the end of the bar is reached, the chord is changed to the newly input chord, and the performance is continued. When the end of the ending section corresponding to the ending switch ES is reached, the CPU 12a ends the performance using the audio music element data set, and sets all music element switches PS belonging to the music element switch PS to the off state. . Further, even when the player selects to stop the performance using the input operator 11, the CPU 12a ends the performance using the audio music element data set, and all the switches belonging to the music element switch PS Set to off state.

上記のように構成された演奏装置10においては、演奏装置10に伴奏波形データ、リズム波形データ及びブリッジ波形データが予め記憶されているのではなく、所望の楽曲の音響波形データから抽出される。そして、伴奏スタイル、リズム、ブリッジの各演奏パターンを表す演奏パターンデータは、MIDIデータに基づいて音源回路16にて生成されるのではなく、原曲の音響波形データから切り出された波形データに基づいて生成される。したがって、演奏装置10によれば、生演奏のような魅力的な演奏パターンを再生できる。また、演奏装置10においては、伴奏波形データ、リズム波形データ及びブリッジ波形データがそれぞれ割り当てられる操作子群は互いに重複しない。したがって。演奏装置10によれば、既存の楽曲の音響波形データから抽出した各波形データをリアルタイムに択一的又は重畳的に選択(指定)し、前記選択(指定)した波形データを用いて演奏パターンを再生することができる。つまり、伴奏波形データ、リズム波形データ及びブリッジ波形データのうちの1つのみを用いて演奏パターンを再生することもできるし、それらの2つ又は全てを重畳した演奏パターンを再生することもできる。しかも、伴奏波形データに関しては、演奏者が選択(指定)する伴奏スタイルのセクション及びコードに対応する伴奏波形データが無くても、同じセクションの伴奏波形データの構成音を修正することにより、前記伴奏波形データのコードを前記指定したコードに修正できる(S107、S108参照)。よって、従来よりも演奏パターンのバリエーションを増やすことができる。また、既存の楽曲を簡単にアレンジすることができる。なお、伴奏波形データ、リズム波形データ及びブリッジ波形データのうち、2つ又は全ての波形データによってそれぞれ表わされる音響波形を重畳する場合、一部の楽器の演奏が重なる場合がある。この場合、伴奏波形データ、リズム波形データ及びブリッジ波形データのうち、重畳するデータのいずれかの波形データにフィルタを適用して、前記一部の楽器の演奏音の音量を小さくしてもよい。   In the performance device 10 configured as described above, the accompaniment waveform data, the rhythm waveform data, and the bridge waveform data are not stored in advance in the performance device 10, but are extracted from acoustic waveform data of a desired music. The performance pattern data representing each performance pattern of the accompaniment style, rhythm and bridge is not generated by the tone generator circuit 16 based on the MIDI data, but based on the waveform data cut out from the acoustic waveform data of the original music. Generated. Therefore, according to the musical performance apparatus 10, it is possible to reproduce an attractive performance pattern such as a live performance. Further, in the musical performance apparatus 10, the operator groups to which the accompaniment waveform data, the rhythm waveform data and the bridge waveform data are respectively assigned do not overlap each other. Therefore. According to the musical performance apparatus 10, each waveform data extracted from the acoustic waveform data of the existing music is alternatively or superimposedly selected (designated) in real time, and the performance pattern is selected using the selected (designated) waveform data. It can be played back. That is, it is possible to reproduce the performance pattern using only one of the accompaniment waveform data, the rhythm waveform data and the bridge waveform data, and also to reproduce the performance pattern in which two or all of them are superimposed. Moreover, with regard to accompaniment waveform data, even if there is no accompaniment waveform data corresponding to the section and chord of the accompaniment style selected (designated) by the performer, the accompaniment is corrected by correcting the component sound of the accompaniment waveform data of the same section. The code of the waveform data can be corrected to the specified code (see S107 and S108). Therefore, the variation of the playing pattern can be increased more than before. Also, existing songs can be easily arranged. When the acoustic waveforms respectively represented by two or all of the accompaniment waveform data, the rhythm waveform data, and the bridge waveform data are superimposed, the performances of some musical instruments may overlap. In this case, a filter may be applied to any waveform data of the accompaniment waveform data, the rhythm waveform data, and the bridge waveform data to be superimposed to reduce the volume of the performance sound of the part of the musical instrument.

また、音響波形データに適用するアルゴリズムを選択することができるので、必要な波形データのみを生成することができる。例えば、ブリッジ波形データが不要な場合には、伴奏波形データ及びリズム波形データのみを生成することができる。これによれば、記憶装置14の記憶容量が無駄に消費されることを抑制できる。   Further, since an algorithm to be applied to acoustic waveform data can be selected, only necessary waveform data can be generated. For example, when bridge waveform data is unnecessary, only accompaniment waveform data and rhythm waveform data can be generated. According to this, wasteful consumption of the storage capacity of the storage device 14 can be suppressed.

さらに、本発明の実施にあたっては、上記実施形態に限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変更が可能である。   Furthermore, the implementation of the present invention is not limited to the above embodiment, and various modifications can be made without departing from the object of the present invention.

上記実施形態においては、3種類のアルゴリズムを楽曲の音響波形データに適用可能であるが、これらのアルゴリズムは、上記実施形態に限られず、他のアルゴリズムであってもよい。例えば、上記実施形態では、伴奏波形データには、ドラムパートが含まれているが、伴奏パートのうちドラムパートを除く演奏パートの演奏が含まれるようなデータを生成するアルゴリズムを適用しても良い。また、上記実施形態では、ブリッジ波形データには、全ての演奏パートが含まれているが、ボーカルパート及びメロディパートのみが含まれるようなデータを生成するアルゴリズムを適用しても良い。上記のように、同時に(並行して)用いる波形データ間において、楽器の種類が重複しないように構成すれば、同時に用いる波形データの組み合わせを自由に変更することができる。例えば、原曲の導入部における伴奏波形データに対し、原曲の中間部のリズム波形データを組み合わせることができる。これによれば、演奏パターンのバリエーションが飛躍的に増える。   In the above embodiment, three types of algorithms can be applied to the acoustic waveform data of music, but these algorithms are not limited to the above embodiments and may be other algorithms. For example, in the above embodiment, although the accompaniment waveform data includes the drum part, an algorithm may be applied which generates data in which the performance of the playing part excluding the drum part is included among the accompaniment parts. . Further, in the above embodiment, although the bridge waveform data includes all the performance parts, an algorithm may be applied which generates data in which only the vocal parts and the melody parts are included. As described above, if the types of instruments do not overlap between waveform data used simultaneously (in parallel), the combination of waveform data used simultaneously can be freely changed. For example, the rhythm waveform data of the middle part of the original music can be combined with the accompaniment waveform data in the introduction part of the original music. According to this, the variation of the playing pattern increases dramatically.

また、上記実施形態では、原曲全体を用いてオーディオ音楽要素データセットを生成しているが、原曲の一部を用いてもよい。この場合、取り込んだ原曲の音響波形データのうち、オーディオ音楽要素データセットを生成するために用いる部分を選択可能に構成するとよい。   In the above embodiment, the audio music element data set is generated using the entire original song, but a part of the original song may be used. In this case, it is preferable to select a part of the acquired acoustic waveform data of the original music to be used to generate the audio music element data set.

また、オーディオ音楽要素データセットの各波形データに対し、ピッチを変更することなくテンポを変更する周知のアルゴリズムを適用しても良い。また、原曲の音響波形データ及びオーディオ音響波形データセットがネットワークを介してCPU12aに接続されたサーバーに記憶されていても良い。さらに、そのサーバーがオーディオ音楽要素データセットを生成するプログラムを実行し、その結果をCPU12aは利用できるようにしても良い。また、上記実施形態においては、コードを指定する際に鍵盤装置KYを用いているが、外部機器から受信したコードを表す情報を用いてもよい。   In addition, a known algorithm for changing the tempo without changing the pitch may be applied to each waveform data of the audio music element data set. Also, the acoustic waveform data of the original music and the audio acoustic waveform data set may be stored in a server connected to the CPU 12a via the network. Furthermore, the server may execute a program for generating an audio music element data set, and the result may be made available to the CPU 12a. In the above embodiment, the keyboard device KY is used when designating a chord, but information representing a chord received from an external device may be used.

BS・・・ブリッジスイッチ、PS・・・音楽要素スイッチ、ES・・・エンディングスイッチ、FS・・・フィルインスイッチ、IS・・・イントロスイッチ、KY・・・鍵盤装置、MS1・・・メインスイッチ、MS2・・・メインスイッチ、MS3・・・メインスイッチ、RS・・・リズムスイッチ、SS・・・セクション選択スイッチ、WM・・・波形メモリ、10・・・演奏装置、11・・・入力操作子、12・・・コンピュータ部、13・・・表示器、14・・・記憶装置、15・・・外部インターフェース回路、16・・・音源回路、17・・・サウンドシステム BS: bridge switch, PS: music element switch, ES: ending switch, FS: fill-in switch, IS: intro switch, KY: keyboard device, MS1: main switch, MS2: main switch, MS3: main switch, RS: rhythm switch, SS: section selection switch, WM: waveform memory, 10: performance device, 11: input operator , 12: computer unit, 13: display, 14: storage device, 15: external interface circuit, 16: sound source circuit, 17: sound system

Claims (8)

複数の操作子と、
楽曲を演奏して放音された演奏音の音響波形を表わす音響信号を取得する音響信号取得手段と、
前記音響信号に含まれる第1音楽要素及び第2音楽要素の音響波形をそれぞれ抽出する第1アルゴリズム及び第2アルゴリズムのうちのいずれか一方又は両方に従って、前記音響信号から第1音楽要素及び第2音楽要素のうちのいずれか一方又は両方の音響波形を抽出する音楽要素抽出手段と、
前記抽出した音響波形を、前記複数の操作子のうちのいずれか1つ又は複数の操作子に割り当てる割り当て手段と、
前記音響波形が割り当てられた1つ又は複数の操作子が操作されたことを検知して、前記操作された1つ又は複数の操作子に割り当てられた音響波形を用いて、演奏パターンを表わす演奏パターンデータを生成する演奏パターンデータ生成手段と、
を備えた演奏装置。
With multiple operators,
Acoustic signal acquisition means for acquiring an acoustic signal representing an acoustic waveform of the played sound emitted by playing the music;
The first music element and the second music signal are extracted from the sound signal in accordance with one or both of a first algorithm and a second algorithm that respectively extract the sound waveforms of the first music element and the second music element included in the sound signal. Music element extraction means for extracting an acoustic waveform of one or both of the music elements;
Assigning means for assigning the extracted acoustic waveform to any one or more operators of the plurality of operators;
A performance representing a playing pattern by detecting that one or more operators to which the acoustic waveform is assigned is operated, and using the acoustic waveform assigned to the operated one or more operators Performance pattern data generating means for generating pattern data;
A playing device equipped with
請求項1に記載の演奏装置において、
前記音楽要素は、前記楽曲のメロディ、伴奏、リズム演奏パートの演奏パターン、及び前記楽曲のイントロ部分、ブリッジ部分、挿入フレーズ部分の演奏パターンのうちのいずれか1つである、演奏装置。
In the playing device according to claim 1,
The music apparatus is any one of a melody of the music, an accompaniment, a performance pattern of a rhythm performance part, and a performance pattern of an intro part, a bridge part, and an insertion phrase part of the music.
請求項1に記載の演奏装置において、
前記割り当て手段は、前記複数の操作子のうちの1つ又は複数の操作子からそれぞれ構成された第1操作子グループ及び第2操作子グループに、前記第1音楽要素及び第2音楽要素の音響波形データをそれぞれ割り当て、
前記第1操作子グループ及び第2操作子グループのうち、いずれか一方の操作子グループのみが操作されているとき、前記操作されている操作子グループに割り当てられている音楽要素の音響波形に基づいて演奏パターンデータを生成し、前記第1操作子グループ及び第2操作子グループの双方が操作されているとき、前記第1音楽要素及び前記第2音楽要素の音響波形に基づいて演奏パターンデータを生成する、演奏装置。
In the playing device according to claim 1,
The assignment unit is configured to assign the first music element and the second music element to a first operator group and a second operator group respectively composed of one or more operators among the plurality of operators. Assign waveform data respectively,
When only one of the first operator group and the second operator group is operated, based on the acoustic waveform of the music element assigned to the operated operator group. Performance pattern data is generated, and when both the first operator group and the second operator group are operated, performance pattern data is generated based on the acoustic waveforms of the first music element and the second music element A playing device to generate.
請求項3に記載の演奏装置において、
前記第1操作子グループを構成する前記操作子の組み合わせと前記第2操作子グループを構成する前記操作子の組み合わせとが異なる、演奏装置。
In the playing device according to claim 3,
A playing device, wherein a combination of the operators constituting the first operator group and a combination of the operators constituting the second operator group are different.
請求項1に記載の演奏装置において、
前記音楽要素抽出手段は、前記音響信号に適用するアルゴリズムを選択する選択手段を備えた演奏装置。
In the playing device according to claim 1,
The musical instrument extraction means comprises a selection means for selecting an algorithm to be applied to the acoustic signal.
請求項1乃至5のうちのいずれか1つに記載の演奏装置において、
前記第1音楽要素は伴奏パートの演奏パターンであり、
前記第1音楽要素を表す音響波形は、前記伴奏パートの演奏パターンの和音のタイプ及び根音に対応付けて記憶され、
前記演奏パターンデータ生成手段は、
操作されている1つ又は複数の前記操作子に対応する和音を検出すると共に、前記検出した和音に対応する前記第1音楽要素の音響波形が記憶されている場合には前記記憶されている音響波形を読み出して再生し、前記検出した和音に対応する前記第1音楽要素の音響波形が記憶されていない場合には、前記第1音楽要素の音響波形が表わす演奏音の発生態様であって和音に関する発生態様を、前記検出した和音に従って変更した演奏音を表わす演奏パターンデータを生成可能である、演奏装置。
The musical performance apparatus according to any one of claims 1 to 5,
The first music element is a performance pattern of an accompaniment part,
The acoustic waveform representing the first music element is stored in association with the type and chord of the chord of the performance pattern of the accompaniment part,
The performance pattern data generation means
The stored sound is detected when a chord corresponding to the one or more operators being operated is detected, and an acoustic waveform of the first music element corresponding to the detected chord is stored. The waveform is read out and reproduced, and when the acoustic waveform of the first music element corresponding to the detected chord is not stored, the generation mode of the performance sound represented by the acoustic waveform of the first music element is a chord tone A musical performance apparatus capable of generating musical performance pattern data representing a musical performance sound whose generation mode relating to Y. has been changed according to the detected chord.
複数の操作子を有する演奏装置に適用されるコンピュータプログラムであって、前記演奏装置が備えるコンピュータに、
響信号を取得する音響信号取得ステップと、
前記音響信号に含まれる第1音楽要素及び第2音楽要素の音響波形をそれぞれ抽出する第1アルゴリズム及び第2アルゴリズムのうちのいずれか一方又は両方に従って、前記音響信号から第1音楽要素及び第2音楽要素のうちのいずれか一方又は両方の音響波形を抽出する音楽要素抽出ステップと、
前記抽出した音響波形を、前記複数の操作子のうちのいずれか1つ又は複数の操作子に割り当てる割り当てステップと、
前記音響波形が割り当てられた1つ又は複数の操作子が操作されたことを検知して、前記操作された1つ又は複数の操作子に割り当てられた音響波形を用いて、演奏パターンを表わす演奏パターンデータを生成する演奏パターンデータ生成ステップと、を含む処理を実行させるコンピュータプログラム。
A computer program applied to a playing device having a plurality of operators, the computer provided in the playing device comprising:
An acoustic signal acquisition step of acquiring acoustic signals,
The first music element and the second music signal are extracted from the sound signal in accordance with one or both of a first algorithm and a second algorithm that respectively extract the sound waveforms of the first music element and the second music element included in the sound signal. A music element extraction step of extracting an acoustic waveform of one or both of the music elements;
An assignment step of assigning the extracted acoustic waveform to any one or more operators among the plurality of operators.
A performance representing a playing pattern by detecting that one or more operators to which the acoustic waveform is assigned is operated, and using the acoustic waveform assigned to the operated one or more operators A computer program that executes a process including a performance pattern data generation step of generating pattern data.
複数の操作子を有する演奏装置に適用される演奏パターンデータ生成方法であって、  A playing pattern data generation method applied to a playing device having a plurality of operators, comprising:
音響信号を取得する音響信号取得ステップと、  An acoustic signal acquisition step of acquiring an acoustic signal;
前記音響信号に含まれる第1音楽要素及び第2音楽要素の音響波形をそれぞれ抽出する第1アルゴリズム及び第2アルゴリズムのうちのいずれか一方又は両方に従って、前記音響信号から第1音楽要素及び第2音楽要素のうちのいずれか一方又は両方の音響波形を抽出する音楽要素抽出ステップと、  The first music element and the second music signal are extracted from the sound signal in accordance with one or both of a first algorithm and a second algorithm that respectively extract the sound waveforms of the first music element and the second music element included in the sound signal. A music element extraction step of extracting an acoustic waveform of one or both of the music elements;
前記抽出した音響波形を、前記複数の操作子のうちのいずれか1つ又は複数の操作子に割り当てる割り当てステップと、  An assignment step of assigning the extracted acoustic waveform to any one or more operators among the plurality of operators.
前記音響波形が割り当てられた1つ又は複数の操作子が操作されたことを検知して、前記操作された1つ又は複数の操作子に割り当てられた音響波形を用いて、演奏パターンを表わす演奏パターンデータを生成する演奏パターンデータ生成ステップと、を含む演奏パターンデータ生成方法。  A performance representing a playing pattern by detecting that one or more operators to which the acoustic waveform is assigned is operated, and using the acoustic waveform assigned to the operated one or more operators A performance pattern data generation step of generating pattern data.
JP2014144118A 2014-07-14 2014-07-14 Performance device and performance program Expired - Fee Related JP6424501B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014144118A JP6424501B2 (en) 2014-07-14 2014-07-14 Performance device and performance program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014144118A JP6424501B2 (en) 2014-07-14 2014-07-14 Performance device and performance program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018199110A Division JP6733720B2 (en) 2018-10-23 2018-10-23 Performance device, performance program, and performance pattern data generation method

Publications (2)

Publication Number Publication Date
JP2016020961A JP2016020961A (en) 2016-02-04
JP6424501B2 true JP6424501B2 (en) 2018-11-21

Family

ID=55265829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014144118A Expired - Fee Related JP6424501B2 (en) 2014-07-14 2014-07-14 Performance device and performance program

Country Status (1)

Country Link
JP (1) JP6424501B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3840915B2 (en) * 2001-05-15 2006-11-01 ヤマハ株式会社 Performance information editing apparatus and program
JP4243682B2 (en) * 2002-10-24 2009-03-25 独立行政法人産業技術総合研究所 Method and apparatus for detecting rust section in music acoustic data and program for executing the method
JP5598397B2 (en) * 2011-03-25 2014-10-01 ヤマハ株式会社 Accompaniment data generation apparatus and program
JP6047985B2 (en) * 2012-07-31 2016-12-21 ヤマハ株式会社 Accompaniment progression generator and program

Also Published As

Publication number Publication date
JP2016020961A (en) 2016-02-04

Similar Documents

Publication Publication Date Title
JP4321476B2 (en) Electronic musical instruments
US9536508B2 (en) Accompaniment data generating apparatus
US20110185881A1 (en) Automatic accompanying apparatus and computer readable storing medium
JP6733720B2 (en) Performance device, performance program, and performance pattern data generation method
JP4274272B2 (en) Arpeggio performance device
JP6175812B2 (en) Musical sound information processing apparatus and program
JP3915807B2 (en) Automatic performance determination device and program
JP2004078095A (en) Playing style determining device and program
US11955104B2 (en) Accompaniment sound generating device, electronic musical instrument, accompaniment sound generating method and non-transitory computer readable medium storing accompaniment sound generating program
JP6424501B2 (en) Performance device and performance program
JP5969421B2 (en) Musical instrument sound output device and musical instrument sound output program
JP2016161900A (en) Music data search device and music data search program
JP4978177B2 (en) Performance device, performance realization method and program
JP2009180757A (en) Electronic musical device and performance data editing display program
JP4552769B2 (en) Musical sound waveform synthesizer
JP6554826B2 (en) Music data retrieval apparatus and music data retrieval program
JP4172509B2 (en) Apparatus and method for automatic performance determination
JP2006258938A (en) Automatic performance apparatus and program
JP4186802B2 (en) Automatic accompaniment generator and program
JP5104293B2 (en) Automatic performance device
JP4900233B2 (en) Automatic performance device
JP2022151213A (en) karaoke device
JP5387032B2 (en) Electronic music apparatus and program
JP5387031B2 (en) Electronic music apparatus and program
JP4067007B2 (en) Arpeggio performance device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181008

R151 Written notification of patent or utility model registration

Ref document number: 6424501

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees