JP6424501B2 - Performance device and performance program - Google Patents
Performance device and performance program Download PDFInfo
- Publication number
- JP6424501B2 JP6424501B2 JP2014144118A JP2014144118A JP6424501B2 JP 6424501 B2 JP6424501 B2 JP 6424501B2 JP 2014144118 A JP2014144118 A JP 2014144118A JP 2014144118 A JP2014144118 A JP 2014144118A JP 6424501 B2 JP6424501 B2 JP 6424501B2
- Authority
- JP
- Japan
- Prior art keywords
- music
- performance
- operators
- acoustic
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、楽曲の音響信号(音響波形データ)から、その中に含まれる、複数種類の音楽要素を抽出して、各音楽要素を表わす波形データを生成するとともに、前記生成した波形データを用いて演奏可能な演奏装置及び演奏プログラムに関する。 The present invention extracts a plurality of types of music elements contained therein from sound signals (sound waveform data) of music, generates waveform data representing each music element, and uses the generated waveform data. The present invention relates to a performance apparatus and a performance program that can be played.
従来から、例えば、下記特許文献1に記載されているように、自動伴奏機能を備えた演奏装置は知られている。この演奏装置は、複数種類の伴奏スタイルのデータセットを予め記憶している。各伴奏スタイルは、楽曲の導入部の伴奏として使用される「イントロ」セクション、楽曲の中間部の伴奏として使用される「メイン」セクション、楽曲の終端部の伴奏として使用される「エンディング」セクションなど、楽曲の各場面にそれぞれ対応する複数のセクションから構成されている。前記各セクションのデータは、楽曲の伴奏パート(例えば、打楽器パート、ベースパート、ピアノ(コード)パートなどの合奏)の短いフレーズ(演奏パターン)を表している。各セクションのデータは、所謂MIDIデータである。すなわち、各セクションのデータは、演奏音の音響波形を表わしているのではなく、各伴奏パートの楽譜に相当するデータであり、音源回路により楽音合成されることにより音響波形信号に変換される。
BACKGROUND ART Conventionally, a playing device provided with an automatic accompaniment function is known as described in, for example,
演奏装置の操作パネルには、演奏するセクションを選択するための複数のスイッチが設けられている。これらのスイッチにセクションのデータがそれぞれ割り当てられている。演奏者が前記スイッチを用いて演奏するセクションを選択するとともに、鍵盤装置を用いてコード(和音)を入力すると、演奏装置の制御部は、前記選択されたセクションのデータと前記入力されたコードに基づいて音源回路を制御し、音源回路に演奏パターンを表す演奏パターンデータを生成させる。各伴奏スタイルの各セクションのデータは、コードの種類とその根音ごとに用意されているのではなく、コードの種類が「M(メジャー)」であって、根音が「C」であるときのデータのみが用意されている。そして、その他のコードの種類や根音が指定された場合には、データの構成音の音高を適宜変更(シフト)して使用することが多い。つまり、演奏者が鍵盤装置を用いて入力したコードが「CM」であるときには、現在選択されているセクションのデータがそのまま音源回路に供給される。一方、演奏者が入力したコードが「CM」とは異なるときには、演奏装置の制御部は、現在選択されているセクションのデータを修正する。例えば、演奏者入力したコードが「Cm(マイナー)」である場合には、現在選択されているセクションのデータを構成する構成音のデータ(ノートナンバ)のうち、鍵音高が「E」であることを表わす構成音のデータを「E♭」であることを表わすデータに変更する。 The operation panel of the playing device is provided with a plurality of switches for selecting a section to play. Section data is assigned to each of these switches. When the player selects a section to play using the switch and inputs a chord (chord) using the keyboard device, the control unit of the playing device receives the data of the selected section and the input code. Based on the tone generator circuit, the tone generator circuit is controlled to generate performance pattern data representing a performance pattern. The data in each section of each accompaniment style is not prepared for each chord type and its root note, but the chord type is "M (major)" and the root note is "C" Only the data of are prepared. When the type of the chord or the root note is specified, the pitch of the component sound of the data is often changed (shifted) and used. That is, when the chord input by the player using the keyboard device is "CM", the data of the currently selected section is supplied as it is to the tone generator circuit. On the other hand, when the chord inputted by the player is different from "CM", the control unit of the playing device corrects the data of the currently selected section. For example, when the chord input by the player is "Cm (minor)", the key pitch is "E" among the data (note number) of the component sounds constituting the data of the currently selected section. The data of the component sound representing a certain thing is changed to data representing that it is "E ♭".
上記特許文献1に記載の演奏装置の伴奏スタイルの各セクションのデータはMIDIデータであり、且つ上記のように、「CM」に対応するデータのみを記憶しておくだけで良いので、データ量が小さくて済む。しかし、再生される伴奏の演奏パターンは、MIDIデータに従って音源回路が合成し生成するものであり、生演奏やその録音データと比較すると、魅力に欠けるように感じられることがある。
The data of each section of the accompaniment style of the musical performance apparatus described in
そこで、例えば、特許文献2に記載されているように、各伴奏スタイルの各セクションのデータが、音響波形を表わす波形データから構成されている演奏装置も知られている。この演奏装置においては、各伴奏スタイルの各セクションの波形データは装置メーカが予め専用に制作し記憶させたものであって、ユーザ自身が自らの好みに合わせてそれらを制作し追加することができない。また、伴奏スタイルを含む複数の音楽要素の波形データを制作し記憶しておき、演奏する際に、補助的に使用したい波形データをユーザが自由に選択することができない。したがって、メロディ等を演奏しながら補助的に使用する演奏パターンのバリエーションがプリセットのものに限られている。
Therefore, for example, as described in
本発明は上記問題に対処するためになされたもので、その目的は、生演奏のような演奏を表わす複数の音楽要素の演奏パターンを再生できる演奏装置であって、所望の楽曲の音響信号から音楽要素を抽出して、前記抽出した音楽要素に基づいて演奏パターンを再生できる演奏装置を提供することにある。なお、下記本発明の各構成要件の記載においては、本発明の理解を容易にするために、実施形態の対応箇所の符号を括弧内に記載しているが、本発明の各構成要件は、実施形態の符号によって示された対応箇所の構成に限定解釈されるべきものではない。 The present invention has been made to address the above problems, and its object is to provide a playing device capable of playing back a performance pattern of a plurality of music elements representing a performance such as a live performance, from an acoustic signal of a desired music. An object of the present invention is to provide a playing device capable of extracting music elements and reproducing a playing pattern based on the extracted music elements. In the following description of each component of the present invention, the reference numerals of corresponding parts of the embodiment are described in parentheses in order to facilitate understanding of the present invention, but each component of the present invention is It should not be construed as limited to the configuration of the corresponding portion indicated by the reference numerals of the embodiment.
上記目的を達成するために、本発明の特徴は、複数の操作子(11)と、楽曲を演奏して放音された演奏音の音響波形を表わす音響信号を取得する音響信号取得手段(S12)と、前記音響信号に含まれる第1音楽要素及び第2音楽要素の音響波形をそれぞれ抽出する第1アルゴリズム及び第2アルゴリズムのうちのいずれか一方又は両方に従って、前記音響信号から第1音楽要素及び第2音楽要素のうちのいずれか一方又は両方の音響波形を抽出する音楽要素抽出手段(S14)と、前記抽出した音響波形を、前記複数の操作子のうちのいずれか1つ又は複数の操作子に割り当てる割り当て手段(S15)と、前記音響波形が割り当てられた1つ又は複数の操作子が操作されたことを検知して、前記操作された1つ又は複数の操作子に割り当てられた音響波形を用いて、演奏パターンを表わす演奏パターンデータを生成する演奏パターンデータ生成手段(S100〜S117、S200〜S204)と、を備えた演奏装置としたことにある。 In order to achieve the above object, the present invention is characterized in that a plurality of operators (11) and an acoustic signal acquisition means (S12) for acquiring an acoustic signal representing an acoustic waveform of a played sound emitted by playing music. And the first music element from the sound signal according to one or both of the first algorithm and the second algorithm for respectively extracting the sound waveform of the first music element and the second music element included in the sound signal And music element extraction means (S14) for extracting an acoustic waveform of any one or both of the second music element, and the extracted acoustic waveform, any one or more of the plurality of operators. Assigning means (S15) for assigning to operators, and detecting that one or more operators to which the acoustic waveform has been assigned have been operated, to assign to the operated one or more operators. Using Terra acoustic waveform, play pattern data generating means (S100~S117, S200~S204) for generating performance pattern data representing the performance patterns in that the performance apparatus having a, a.
この場合、前記音楽要素は、前記楽曲のメロディ、伴奏、リズム演奏パートの演奏パターン、及び前記楽曲のイントロ部分、ブリッジ部分、挿入フレーズ部分の演奏パターンのうちのいずれか1つであるとよい。 In this case, the music element may be any one of the melody of the music, the accompaniment, the performance pattern of the rhythm performance part, and the performance pattern of the intro part, the bridge part, and the insertion phrase part of the music.
また、この場合、前記割り当て手段は、前記複数の操作子のうちの1つ又は複数の操作子からそれぞれ構成された第1操作子グループ及び第2操作子グループに、前記第1音楽要素及び第2音楽要素の音響波形データをそれぞれ割り当て、第1操作子グループ及び第2操作子グループのうち、いずれか一方の操作子グループのみが操作されているとき、前記操作されている操作子グループに割り当てられている音楽要素の音響波形に基づいて演奏パターンデータを生成し、前記第1操作子グループ及び第2操作子グループの双方が操作されているとき、前記第1音楽要素及び前記第2音楽要素の音響波形に基づいて演奏パターンデータを生成するとよい。 Further, in this case, the assignment unit is configured to assign the first music element and the second music element group to a first operator group and a second operator group respectively composed of one or more operators among the plurality of operators. The acoustic waveform data of two music elements are respectively assigned, and when only one of the first operator group and the second operator group is operated, the operator is assigned to the operated operator group. Performance pattern data is generated based on the acoustic waveform of the music element being played, and when both the first operator group and the second operator group are operated, the first music element and the second music element Performance pattern data may be generated based on the acoustic waveform of
この場合、前記第1操作子グループを構成する前記操作子の組み合わせと前記再2操作子グループを構成する前記操作子の組み合わせとが異なるとよい。なお、第1操作子グループの一部と第2操作子グループの一部が重複していても良い。つまり、第1操作子グループに属し、且つ第2グループにも属する操作子が存在していてもよい。一方、第1操作子グループと第2操作子グループが独立していても良い。つまり、第1操作子グループに属する全ての操作子は第2操作子グループに属さず、且つ第2操作子グループに属する全ての操作子は第1操作子グループに属さないように構成されていても良い。 In this case, the combination of the operators constituting the first operator group and the combination of the operators constituting the second operator group may be different. Note that part of the first operator group and part of the second operator group may overlap. That is, there may be operators which belong to the first operator group and also to the second group. On the other hand, the first operator group and the second operator group may be independent. That is, all the operators belonging to the first operator group do not belong to the second operator group, and all the operators belonging to the second operator group do not belong to the first operator group. Also good.
本発明において、楽曲の音響信号に含まれる複数の音楽要素とは、メロディ、ボーカル、伴奏、リズム等楽曲の演奏パート毎にその進行中に含まれる音楽フレーズや音楽パターン(以下、演奏パターンと呼ぶ)ばかりでなく、楽曲全体の進行中の特徴的なイントロ部分、ブリッジ(サビ)部分、挿入音楽パターン、効果的部分等をも含む。例えば、第1音楽要素が楽曲導入部の伴奏パートのイントロ演奏パターンを表わし、第2音楽要素が同導入部のリズムパートのドラム演奏パターンを表わしていてもよい。第2音楽要素の演奏パターンが第1音楽要素の演奏パターン中に(内容的に)含まれるような関係になっていてもよい。また、同第2音楽要素がメロディパートのサビ部分の演奏パターンを表していて、第2音楽要素の演奏パターンと第1音楽要素の演奏パターンとが互いに重複せず演奏中に同時再生させても不自然ではない関係であってもよい。また、「操作子グループ」とは、抽出した音楽要素の演奏パターン毎に対応付けた1つまたは複数の操作子の組み合わせを意味する。「操作子グループ」が「操作されている」とは、その操作子グループに属する全ての操作子が操作(例えばオン状態に設定)されていることを意味する。 In the present invention, the plurality of music elements included in the sound signal of music are music phrases and music patterns (hereinafter referred to as performance patterns) included in the process for each playing part of music such as melody, vocal, accompaniment, rhythm and the like As well as the ongoing introductory part of the entire song, the bridge (sabi) part, inserted music patterns, effective parts etc. For example, the first music element may represent the intro performance pattern of the accompaniment part of the music introduction part, and the second music element may represent the drum performance pattern of the rhythm part of the introduction part. The performance pattern of the second music element may be (contentically) included in the performance pattern of the first music element. Also, even if the second music element represents the performance pattern of the chorus portion of the melody part, the performance pattern of the second music element and the performance pattern of the first music element do not overlap each other and are simultaneously reproduced during the performance. The relationship may not be unnatural. Also, “operator group” means a combination of one or more operators associated with each of the performance patterns of the extracted music elements. "Operator group" is "operated" means that all the operators belonging to the operator group are operated (for example, set to the on state).
上記のように構成した演奏装置によれば、所望の楽曲から音楽要素を抽出し、前記抽出した音楽要素の音響波形に基づいて演奏パターンデータを生成できる。つまり、演奏装置に予め音楽要素の音響波形が記憶されているのではなく、所望の楽曲から音楽要素の音響波形が抽出される。つまり、MIDIデータに基づいて音源回路にて演奏パターンデータが合成されるのではなく、原曲の一部の音楽要素の音響波形に基づいて演奏パターンデータが生成される。よって、本発明に係る演奏装置によれば、生演奏のような魅力的な演奏パターンを再生できる。 According to the musical performance apparatus configured as described above, it is possible to extract music elements from a desired music and to generate performance pattern data based on the acoustic waveform of the extracted music elements. That is, the acoustic waveform of the music element is not stored in advance in the performance device, but the acoustic waveform of the music element is extracted from the desired music. That is, performance pattern data is not generated based on MIDI data, but is generated based on the acoustic waveform of part of music elements of the original music. Therefore, according to the playing device of the present invention, it is possible to reproduce an attractive playing pattern such as a live performance.
また、第1操作子グループに属する全ての操作子を同時に操作する(例えば、オン状態に設定する)ことにより、第1音楽要素の所望の演奏パターンを選択し、前記選択した第1音楽要素の音響波形に基づいて演奏パターンデータを生成することができる。また、第2操作子グループに属する全ての操作子を同時に操作する(例えば、オン状態に設定する)ことにより、第2音楽要素の所望の演奏パターンを選択し、前記選択した第2音楽要素の音響波形に基づいて演奏パターンデータを生成することができる。第1操作子グループに属する全ての操作子及び第2操作子グループに属する全ての操作子を操作することにより、第1音楽要素及び第2音楽要素の音響波形に基づいて演奏パターンデータを生成することができる。すなわち、第1音楽要素に基づく演奏パターンと第2音楽要素に基づく演奏パターンとをそれぞれ単独で再生することもできるし、両演奏パターンを同時に再生することもできる。例えば、第1音楽要素及び第2音楽要素が、各楽器の演奏パートにそれぞれ対応していれば、それぞれの楽器の演奏パターンを単独で(つまり一方を選択して)再生することもできるし、それらを重畳した演奏パターンを再生することもできる。よって、これによれば、従来よりも演奏パターンのバリエーションを増やすことができる。 In addition, by simultaneously operating all the operators belonging to the first operator group (for example, setting to the ON state), the desired performance pattern of the first music element is selected, and the selected first music element is selected. Performance pattern data can be generated based on the acoustic waveform. In addition, by simultaneously operating all the operators belonging to the second operator group (for example, setting it to the ON state), the desired performance pattern of the second music element is selected, and the selected second music element is selected. Performance pattern data can be generated based on the acoustic waveform. A performance pattern data is generated based on the acoustic waveforms of the first music element and the second music element by operating all the operators belonging to the first operator group and all the operators belonging to the second operator group. be able to. That is, the performance pattern based on the first music element and the performance pattern based on the second music element can be independently reproduced, or both performance patterns can be simultaneously reproduced. For example, if the first music element and the second music element respectively correspond to the playing parts of each instrument, the playing pattern of each instrument can be reproduced independently (that is, one of them is selected), It is also possible to reproduce a playing pattern in which they are superimposed. Therefore, according to this, it is possible to increase the variation of the playing pattern more than the conventional one.
また、本発明の他の特徴は、前記音楽要素抽出手段は、前記音響信号に適用するアルゴリズムを選択する選択手段を備えた演奏装置としたことにある。 Further, another feature of the present invention is that the music element extraction means is a playing device provided with selection means for selecting an algorithm to be applied to the sound signal.
これによれば、音響信号に適用するアルゴリズム(第1アルゴリズム及び第2アルゴリズム)を選択することができるので、所望の音楽要素データのみを生成することができる。 According to this, since it is possible to select an algorithm (a first algorithm and a second algorithm) to be applied to the sound signal, only desired music element data can be generated.
また、本発明の他の特徴は、前記第1音楽要素は伴奏パートの演奏パターンであり、前記第1音楽要素を表す音響波形は、前記伴奏パートの演奏パターンの和音のタイプ及び根音に対応付けて記憶され、前記演奏パターンデータ生成手段は、操作されている1つ又は複数の前記操作子に対応する和音を検出すると共に、前記検出した和音に対応する前記第1音楽要素の音響波形が記憶されている場合には前記記憶されている音響波形を読み出して再生し、前記検出した和音に対応する前記第1音楽要素の音響波形が記憶されていない場合には、前記第1音楽要素の音響波形が表わす演奏音の発生態様であって和音に関する発生態様を、前記検出した和音に従って変更した演奏音を表わす演奏パターンデータを生成可能である演奏装置としたことにある。なお、「和音のタイプ」とは、メジャー(M)、マイナー(m)、セブンス(7th)など、所謂コードネームのうちの根音の標記を除く部分に相当する。 Further, another feature of the present invention is that the first music element is a performance pattern of an accompaniment part, and an acoustic waveform representing the first music element corresponds to a type of chord and root of the performance pattern of the accompaniment part And the performance pattern data generation unit detects a chord corresponding to the one or more operators being operated, and an acoustic waveform of the first music element corresponding to the detected chord is stored. If stored, the stored acoustic waveform is read out and reproduced, and if the acoustic waveform of the first music element corresponding to the detected chord is not stored, the one of the first music element is stored. It is a playing device capable of generating playing pattern data representing a playing sound represented by an acoustic waveform and relating to a chord in accordance with the detected chord. Located in. The "type of chord" corresponds to a part of the so-called chord name except for the root note mark, such as major (M), minor (m), and seventh (7th).
これによれば、第1音楽要素データ及び第2音楽要素データのうちのいずれか一方又は両方によって表わされた演奏音(フレーズ)のコードを、指定したコードに修正することができる。よって、原曲を簡単にアレンジすることができる。 According to this, it is possible to correct the chord of the performance sound (phrase) represented by one or both of the first music element data and the second music element data to the designated code. Therefore, the original music can be easily arranged.
なお、本発明は、演奏装置としての実施に限られず、演奏装置が備えるコンピュータに適用されるコンピュータプログラム(演奏プログラム)としても実施可能である。 The present invention is not limited to the implementation as a musical performance apparatus, and can also be implemented as a computer program (performance program) applied to a computer included in the musical performance apparatus.
本発明の一実施形態に係る演奏装置10について説明する。演奏装置10は、以下説明するように、楽曲の演奏音の音響波形を表わす音響波形データ(例えば、wavフォーマットのデジタル音響信号)を取り込んで、その音響波形データから、複数の伴奏波形データ、複数のリズム波形データ及び複数のブリッジ波形データを抽出して、前記抽出した波形データからなるオーディオ音楽要素データセットを生成する。以下、オーディオ音楽要素データセットを生成するために用いる楽曲を原曲と呼ぶ。伴奏波形データは、原曲の主旋律パート(例えば、ボーカルパート及びメロディパート)を除く伴奏パート(例えば、ドラムパート、ベースパート、及びピアノ(コード)パートの合奏)から切り出されて抽出された演奏パターンの音響波形を表す。伴奏波形データは、MIDI伴奏スタイルのデータと同様に、通常数小節分の演奏を表わしており、原曲の導入部、中間部、終端部などの場面(セクション)ごとに選択されて生成される。また、リズム波形データは、原曲のリズムパート(ドラムパート)から切り出されて抽出された演奏パターンの音響波形を表す。リズム波形データは、原曲の区間(例えば2小節)ごとに構成されている。さらに、ブリッジ波形データは、原曲の進行方向の中で特徴的なメロディラインなどを含むブリッジ(サビ)部分の演奏の音響波形を表す。なお、演奏装置10は、複数の楽曲のオーディオ音楽要素データセットを記憶しておくことができる。演奏者は、演奏しようとする楽曲に適合する1つのオーディオ音楽要素データセットを選択し、前記選択したオーディオ音楽要素データセットの中から所望の音楽要素の波形データを、楽曲演奏の進行に沿って、操作子を使って選択し、その波形データに基づいた演奏パターンを再生させることができる。例えば、演奏者は、右手でメロディパートを実際に演奏しつつ、左手で操作子を選択することにより、所望の伴奏、リズム、ブリッジ(サビ)の演奏パターンを指定する。これにより、予め抽出し記憶しておいた所望の楽曲の演奏パターンをメロディパートの演奏に対する伴奏や補助演奏として利用できる。
A playing
また、演奏装置10は、従来の演奏装置のように、MIDIデータから構成された複数の伴奏スタイルのデータセット(以下、MIDI伴奏スタイルデータセットと呼ぶ)も備えている。演奏者は、1つのMIDI伴奏スタイルデータセットを選択し、前記選択したMIDI伴奏スタイルデータセットを用いて演奏することもできる。
The
演奏装置10は、図1乃至図3に示すように、入力操作子11、コンピュータ部12、表示器13、記憶装置14、外部インターフェース回路15、音源回路16及びサウンドシステム17を備えており、これらがバスBUSを介して接続されている。
As shown in FIGS. 1 to 3, the
入力操作子11は、オン・オフ操作に対応したスイッチ、回転操作に対応したボリューム又はロータリーエンコーダ、スライド操作に対応したボリューム又はリニアエンコーダ、マウス、タッチパネルなどから構成される。さらに、入力操作子11には、楽曲を演奏する際に使用される鍵盤装置KYも含まれる。これらの操作子は、演奏者の手によって操作されて、各種パラメータを設定する際、楽曲を演奏する際などに用いられる。また、入力操作子11には、例えば、電子オルガンの足鍵盤が含まれても良い。演奏者が入力操作子11を操作すると、その操作内容を表す操作情報がバスBUSを介して、後述するコンピュータ部12に供給される。
The
例えば、図2に示すように、入力操作子11には、音楽要素スイッチPSが含まれる。音楽要素スイッチPSには、セクション選択スイッチSSが含まれる。セクション選択スイッチSSには、イントロスイッチIS、メインスイッチMS1、メインスイッチMS2、メインスイッチMS3、フィルインスイッチFS、エンディングスイッチESが含まれる。これらのスイッチは、伴奏スタイル(MIDI及び波形データ)を再生させる際に所望のセクションを選択する際に用いられる。したがって、イントロスイッチIS、メインスイッチMS1、メインスイッチMS2、メインスイッチMS3、フィルインスイッチFS及びエンディングスイッチESのうちの2つ以上のスイッチが同時にオン状態に設定されることは無く、1つのスイッチのみがオン状態に設定される。
For example, as shown in FIG. 2, the
また、前記音楽要素スイッチPSには、リズムスイッチRS及びブリッジスイッチBSが含まれる。リズムスイッチRSは、リズム波形データを用いて演奏する際に用いられる。また、ブリッジスイッチBSは、ブリッジ波形データを用いて演奏する際に用いられる。セクション選択スイッチSSのうちの1つのスイッチ、リズムスイッチRS及びブリッジスイッチBSは同時にオン状態に設定可能である。つまり、演奏者は、伴奏波形データ、リズム波形データ及びブリッジ波形データを単独で再生して演奏することもできるし、これらを組み合わせて再生して演奏することができる。 The music element switch PS includes a rhythm switch RS and a bridge switch BS. The rhythm switch RS is used when playing using rhythm waveform data. The bridge switch BS is used when playing using bridge waveform data. One of the section selection switches SS, the rhythm switch RS and the bridge switch BS can be simultaneously set to the on state. That is, the performer can play the accompaniment waveform data, the rhythm waveform data, and the bridge waveform data independently or play them in combination.
また、演奏装置10は、複数の動作モードを備えており、それらの動作モードを切り替える際に入力操作子11が用いられる。動作モードには、既存の楽曲の音響波形データに基づいてオーディオ音楽要素データセットを生成するオーディオ音楽要素データセット生成モード、予め生成し記憶してあるオーディオ音楽要素データセットを用いて演奏するオーディオ音楽要素演奏モードが含まれる。
In addition, the playing
コンピュータ部12は、バスBUSにそれぞれ接続されたCPU12a、ROM12b及びRAM12cからなる。CPU12aは、詳しくは後述するオーディオ音楽要素データセット生成プログラム、オーディオ音楽要素演奏プログラムなどをROM12bから読み出して実行する。ROM12bには、オーディオ音楽要素データセット生成プログラム(後述する第1乃至第3アルゴリズムを含む)、オーディオ音楽要素演奏プログラム、その他のプログラムに加えて、初期設定パラメータ、表示器13に表示される画像を表わす表示データを生成するための図形データ、文字データなどが記憶されている。RAM12cには、各種プログラムの実行時に、楽曲データを含む各種データが一時的に記憶される。
The
表示器13は、液晶ディスプレイ(LCD)によって構成される。コンピュータ部12は、図形データ、文字データなどを用いて表示すべき内容を表わす表示データを生成して表示器13に供給する。表示器13は、コンピュータ部12から供給された表示データに基づいて画像を表示する。例えば、現在選択されているオーディオ音楽要素データセットの名称が表示される。
The
また、記憶装置14は、HDD、CD、DVDなどの大容量の不揮発性記録媒体と、各記録媒体に対応するドライブユニットから構成されている。記憶装置14には、複数の楽曲の音響波形をそれぞれ表わす複数の音響波形データが記憶されている。音響波形データは、楽曲を所定のサンプリング周期(例えば1/44100秒)でサンプリングして得られた複数のサンプル値からなり、各サンプル値が記憶装置14における連続するアドレスに順に記録されている。楽曲のタイトルを表わすタイトル情報、音響波形データの容量を表わすデータサイズ情報なども音響波形データに含まれている。音響波形データは予め記憶装置14に記憶されていてもよいし、後述する外部インターフェース回路15を介して外部機器から取り込んでもよい。
The
外部インターフェース回路15は、演奏装置10を他の電子楽器、パーソナルコンピュータなどの外部機器に接続可能とする接続端子を備えている。演奏装置10は、外部インターフェース回路15を介して、LAN(Local Area Network)、インターネットなどの通信ネットワークにも接続可能である。
The external interface circuit 15 includes a connection terminal that enables the
音源回路16には、ピアノ、オルガン、バイオリン、トランペットなどの複数の楽器音の音響波形を表す音色波形データを記憶した波形メモリWMが接続されている。音源回路16は、CPU12aによって指定された音色波形データを波形メモリWMから読み出して、CPU12aから供給されるMIDIデータの音符情報に基づいて楽音の音響波形データを生成し、サウンドシステム17に供給する。例えば、MIDI伴奏スタイルデータセットを用いて演奏する際、音源回路16は、各セクションに対応する演奏パターンの音響波形を表す演奏パターンデータを生成し、サウンドシステム17に供給する。また、演奏装置10は、音源回路16にて生成された演奏パターンデータを記憶装置14に記憶可能に構成されている。なお、演奏音にコーラス効果、残響効果などの各種効果を付加するエフェクタ回路も、音源回路16に含まれている。
Connected to the
サウンドシステム17には、演奏者が演奏操作のための入力操作子11(鍵盤装置KY)を用いて演奏することにより発生させたMIDI演奏データに基ついて音源回路16が順次楽音合成したメロディパートなどの演奏音データも供給される。また、詳しくは後述するように、サウンドシステム17には、CPU12aからもオーディオ音楽要素データセットに基づいて生成された演奏パターンデータが供給される。サウンドシステム17は、前記演奏音データ及び演奏パターンデータを重畳加算するとともにアナログオーディオ信号に変換するD/A変換器、変換したアナログオーディオ信号を増幅するアンプ、及び増幅されたアナログオーディオ信号を音響信号に変換して放音する左右一対のスピーカを備えている。なお、音源回路16及びサウンドシステム17の機能の全体又は一部の機能を、専用のハードウェアではなく、CPU12aが実行するプログラムによって実現しても良い。
The
つぎに、オーディオ音楽要素データセットを生成する手順について説明する。演奏者が入力操作子11を用いて、演奏装置10の動作モードをオーディオ音楽要素データセット生成モードに設定すると、CPU12aは、図4に示す、オーディオ音楽要素データセット生成プログラムをROM12bから読み込んで実行する。CPU12aは、ステップS10にて、オーディオ音楽要素データセット生成処理を開始する。つぎに、CPU12aは、ステップS11にて、記憶装置14に記憶されている楽曲のタイトルを表示器13に表示させる。演奏者は、入力操作子11を用いて、所望の楽曲(本実施形態では「Song01」とする)を選択する。CPU12aは、ステップS12にて、前記選択された楽曲の音響波形を表す音響波形データを記憶装置14(例えば、オーディオCD)から読み込む。
Next, a procedure for generating an audio music element data set will be described. When the performer sets the operation mode of the
演奏装置10は、前記読み込んだ音響波形データに第1アルゴリズム、第2アルゴリズム及び第3アルゴリズムをそれぞれ適用することにより、伴奏、リズム、ブリッジの音楽要素についてそれぞれ複数の伴奏波形データ、リズム波形データ及びブリッジ波形データを生成可能である。演奏装置10は、第1アルゴリズム、第2アルゴリズム及び第3アルゴリズムのうち、前記読み込んだ音響波形データに適用するアルゴリズムを選択可能に構成されている。すなわち、CPU12aは、ステップS13にて、前記読み込んだ音響波形データに適用するアルゴリズムを演奏者に選択させる。例えば、CPU12aは、第1アルゴリズム、第2アルゴリズム及び第3アルゴリズムにそれぞれ対応するアイコン(図示なし)を表示器13に表示する。演奏者は、入力操作子11を用いて、第1アルゴリズム、第2アルゴリズム及び第3アルゴリズムのうちの1つ又は複数のアルゴリズムを選択し、オーディオ音楽要素データセットの生成開始を指示する。
The
つぎに、CPU12aは、ステップS14にて、前記選択された1つ又は複数のアルゴリズムを、前記読み込んだ音響波形データに適用する。これにより、複数の伴奏波形データ、複数のリズム波形データ及び複数のブリッジ波形データのうち、前記選択されたアルゴリズムに対応する波形データを生成するとともに、前記生成した波形データを入力操作子11に割り当てる。
Next, in step S14, the
第1アルゴリズムは、オーディオの楽曲データから伴奏の演奏パターンを表す音響波形データを抽出する技法であり、例えば、特開2014−029425号公報に記載されているアルゴリズムを利用することにより実現される。つまり、CPU12aは、まず、各MIDI伴奏スタイルデータセットを用いて音源回路16に各演奏パターンを表す演奏パターンデータを生成させ、基準波形データ(本発明の基準データ)として記憶装置14に記憶させる。なお、基準波形データは、伴奏セクションごとに生成される。さらに、1つの伴奏セクションに関し、各コード(つまり、全てのルート音及びコードタイプ)の基準波形データが生成される。すなわち、基準波形データは、1つのMIDI伴奏スタイルデータセットが選択され、且つ1つの伴奏セクションが選択された状態において1つのコードが指定されて生成された所定の長さ(例えば2小節)のフレーズの音響波形を表す。基準波形データの名称は、各MIDI伴奏スタイルデータセットの名称と、セクション名と、コード名とを「_」で連結した名称に設定される。例えば、図5に示すように、基準波形データの名称は、「StyleM1_Intro_Am」に設定される。
The first algorithm is a technique for extracting acoustic waveform data representing a performance pattern of accompaniment from music data of audio, and is realized, for example, by using an algorithm described in Japanese Patent Application Laid-Open No. 2014-029425. That is, the
つぎに、CPU12aは、周知のアルゴリズム(例えば、特開平11−38980号公報)を原曲の音響波形データに適用し、原曲からボーカルパート及びメロディパートを除いた伴奏パートの音響波形データを生成する。つぎに、CPU12aは、前記生成した伴奏パートの音響波形データを複数の区間t1,t2,・・・に分割する。つぎに、CPU12aは、前記分割して得られた各区間の音響波形データと各基準波形データとを比較することにより、前記区間ごとに、最も類似度が大きい基準波形データを検出する。そして、前記検出した基準波形データの区間に対応する区間の音響波形データを前記原曲の音響波形データから切り出し(抽出し)、前記切り出した音響波形データを、前記検出した基準波形データのセクション名及びコード名に関連づけて、伴奏波形データとして記憶する。例えば、図5に示すように、原曲のタイトル、前記検出した基準波形データのセクション名及びコード名を含む名称を、伴奏波形データの名称として設定し、その伴奏波形データを記憶装置14に記憶する。図5に示す例においては、原曲のタイトルは、「Song01」である。そして、区間t1の音響波形データと最も類似する基準波形データのセクション名は「Intro」であり、コード名は「Am」である。よって、この場合、CPU12aは、区間t1の音響波形データの名称を「Song01_Intro_Am.wav」に設定し、伴奏波形データとして記憶装置14に記憶する。つまり、各伴奏波形データの名称は、楽曲のタイトルと、前記検出した基準波形データのセクション名と、コード名とを「_」を介して連結した名称に設定される。これによれば、伴奏波形データの名称によって、その伴奏波形データのセクション及びコードを判別できる。他の区間に関しても、区間t1と同様のルールに従って、伴奏波形データの名称が設定され、それらの伴奏波形データが記憶装置14に記憶される。なお、本実施形態では、基準波形データは、2小節分の演奏パターンを表している。したがって、その演奏パターンに類似する伴奏波形データも2小節分の演奏パターンを表している。
Next, the
第2アルゴリズムは、例えば、「K.Miyamoto et al.、“Separation of harmonic and non−harmonic sounds based on anisotropy in spectrogram”、Proc. of ASJ Spring Meeting 2008、p.903−904」に記載されているアルゴリズムと同様のアルゴリズムを含む。つまり、CPU12aは、まず、前記読み込んだ音響波形データを用いて原曲のスペクトログラムを計算する。一般に、打楽器の演奏音(単音)のエネルギーは、スペクトログラムにおいて、周波数軸方向には広く分布し、且つ時間軸方向には狭い範囲に分布する傾向にある。一方、ピアノ、ギターなどの演奏音(単音)のエネルギーは、周波数軸方向に間隔をおいて分布し、且つ時間軸方向に広い範囲に分布する傾向にある。上記のような各楽器の演奏音の性質に着目し、原曲のリズムパートとその他の演奏パートとを分離する。すなわち、CPU12aは、前記計算したスペクトログラムに基づいて、原曲のリズムパートのみの演奏を表わす音響波形データを生成する。そして、CPU12aは、前記生成したリズムパートのみの演奏を表わす音響波形データを複数の区間に分割する。なお、本実施形態においては、説明を簡単にするために、これらの区間の長さは、伴奏波形データの長さと同一(つまり、本実施形態では2小節分の長さ)とする。
The second algorithm is described, for example, in "K. Miyamoto et al.," Separation of harmonic and non-harmonic sounds based on anisotropy in spectrogram ", Proc. Of ASJ Spring Meeting 2008, p. 903-904. Includes an algorithm similar to the algorithm. That is, the
つぎに、CPU12aは、前記分割して形成された複数の音響波形データのうち、類似度の低い12個の音響波形データを選択する。そして、前記選択した12個の音響波形データの名称を、楽曲の先頭側に位置する音響波形データから末尾側に位置する音響波形データに向かって順に「Song01_Rhythm1.wav」、「Song01_Rhythm2.wav」、・・・、「Song01_Rhythm12.wav」に設定し、リズム波形データとして記憶装置14に記憶する。
Next, the
第3アルゴリズムは、例えば、特開2004−233965号公報に記載されているアルゴリズムと同様のアルゴリズムを含む。つまり、CPU12aは、前記読み込んだ音響波形データを複数の区間に分割し、各区間のクロマベクトルを計算する。そして、各区間のクロマベクトル同士の類似度を計算し、前記計算した類似度に基づいて、反復的に出現する区間をブリッジ区間として抽出する。本実施形態では、12個のブリッジ区間を抽出する。例えば、出現回数の多い順に12個のブリッジ区間を抽出する。なお、本実施形態においては、説明を簡単にするために、各ブリッジ区間の長さは、伴奏波形データの長さと同一(つまり、本実施形態では2小節分の長さ)とする。つぎに、CPU12aは、前記抽出された12個のブリッジ区間の音響波形データの名称を、原曲の先頭側のブリッジ区間から末尾側のブリッジ区間に向かって順に、「Song01_Bridge1.wav」、「Song01_Bridge2.wav」、・・・、「Song01_Bridge12.wav」に設定し、ブリッジ波形データとして記憶装置14に記憶する。
The third algorithm includes, for example, an algorithm similar to the algorithm described in Japanese Patent Laid-Open No. 2004-233965. That is, the
つぎに、CPU12aは、ステップS15にて、図6に示すように、前記生成した伴奏波形データ、リズム波形データ及びブリッジ波形データを所定の入力操作子11に割り当てる。例えば、セクション選択スイッチSSのうち、前記記憶した各伴奏波形データのセクション名と同一の名称を含むスイッチに、前記各伴奏波形データを割り当てるとともに、コードを指定するために用いられる鍵盤装置KYを構成する1つの鍵又は複数の鍵の組み合わせに割り当てる(以下、単に、伴奏波形データをコードに割り当てるという)。つまり、CPU12aは、伴奏波形データと各スイッチ及び鍵との対応関係を表わすテーブルを生成して記憶装置14に記憶する。なお、演奏者は、伴奏波形データを用いて演奏する際、鍵盤装置KYの所定の第1鍵域(例えば、「C2」〜「B2」)に属する1つ又は複数の鍵を用いてコードを入力する。
Next, in step S15, the
図6に示すように、例えば、「Song01_Intro_Am.wav」は、イントロスイッチISに割り当てられる。この例では、1つの伴奏波形データのみがイントロスイッチISに割り当てられている。この場合、「Song01_Intro_Am.wav」は全てのコードに割り当てられる。つまり、このオーディオ音楽要素データセットを用いた演奏の際、イントロスイッチISがオン状態に設定され、且ついずれかのコードが入力されたとき、「Song01_Intro_Am.wav」が、演奏パターンを表す演奏パターンデータを生成するためのデータとして選択されるように設定される。 As shown in FIG. 6, for example, "Song01_Intro_Am. Wav" is assigned to the intro switch IS. In this example, only one accompaniment waveform data is assigned to the intro switch IS. In this case, "Song01_Intro_Am.wav" is assigned to all codes. That is, at the time of performance using this audio music element data set, when the intro switch IS is set to the on state and any code is inputted, "Song01_Intro_Am.wav" is a performance pattern data representing a performance pattern. Are set to be selected as data for generating.
また、図6に示すように、例えば、「Song01_Main1_FM.wav」は、メインスイッチMS1に割り当てられる。この例では、セクション名が「Main1」であって、且つコード名が「FM」とは異なる複数の伴奏波形データが存在する。これらの伴奏波形データもメインスイッチMS1に割り当てられる。このように複数の伴奏波形データが同一のスイッチに割り当てられる場合、各伴奏波形データは、まず、各伴奏波形データの名称に含まれるコード名と同一のコードに割り当てられる。例えば、「Song01_Main1_FM.wav」は、「FM」に割り当てられる。さらに、いずれの伴奏波形データのコードとも異なるコードには、そのコードに最も近似するコード名を含む名称が付された伴奏波形データが割り当てられる。例えば、「Fm」がいずれの伴奏波形データにも割り当てられていない場合は、「Song01_Main1_FM.wav」が「Fm」にも割り当てられる。この場合、このオーディオ音楽要素データセットを用いた演奏の際、メインスイッチMS1がオン状態に設定され、「FM」又は「Fm」がコードとして入力されたとき、「Song01_Main_FM.wav」が、演奏パターンを表す演奏パターンデータを生成するためのデータとして選択されるように設定される。
Also, as shown in FIG. 6, for example, “Song01_Main1_FM.wav” is assigned to the main switch MS1. In this example, there is a plurality of accompaniment waveform data whose section name is "
また、CPU12aは、各リズム波形データを、リズムスイッチRSに割り当てるとともに、鍵盤装置KYを構成する複数の鍵のうちの所定の第2鍵域(例えば、「C3」〜「B3」)に属する鍵に互いに重複しないように割り当てる。つまり、CPU12aは、各リズム波形データと、リズムスイッチRS及び鍵の組み合わせとの対応関係を表わすテーブルを生成して記憶装置14に記憶する。なお、演奏者は、リズム波形データを用いて演奏する際、鍵盤装置KYの所定の第2鍵域(例えば、「C3」〜「B3」)に属する1つの鍵を押鍵してリズム波形データを選択する。図6に示すように、オーディオ音楽要素データセットを用いた演奏の際、例えば、リズムスイッチRSがオン状態に設定されるとともに、鍵盤装置KYの「C3」が押鍵されたとき、「Song01_Rhythm1.wav」が、演奏パターンを表す演奏パターンデータを生成するためのデータとして選択されるように設定される。
Further, the
また、CPU12aは、各ブリッジ波形データを、ブリッジスイッチBSに割り当てるとともに、鍵盤装置KYの所定の第3鍵域(例えば、「C4」〜「B4」)に属する鍵に互いに重複しないように割り当てる。つまり、CPU12aは、各ブリッジ波形データと、ブリッジスイッチBS及び鍵の組み合わせとの対応関係を表わすテーブルを生成して記憶装置14に記憶する。図6に示すように、オーディオ音楽要素データセットを用いた演奏の際、例えば、ブリッジスイッチBSがオン状態に設定されるとともに、鍵盤装置KYの「C4」が押鍵されたとき、「Song01_Bridge1.wav」が、演奏パターンを表す演奏パターンデータを生成するためのデータとして選択されるように設定される。
Further, the
なお、前記生成された複数の伴奏波形データ、複数のリズム波形データ及び複数のブリッジ波形データのうちの1つの波形データが本発明の音楽要素の音響波形を表わしている。また、前記生成された複数の伴奏波形データ、複数のリズム波形データ及び複数のブリッジ波形データのうちの1つの波形データが割り当てられた、音楽要素スイッチPSのうちの1つのスイッチと、1つ又は複数の鍵から構成された操作子群が、本発明の操作子グループに相当する。 Note that one of the generated accompaniment waveform data, the plurality of rhythm waveform data, and the plurality of bridge waveform data represents one acoustic waveform of the music element of the present invention. In addition, one of the music element switches PS to which one of the generated accompaniment waveform data, the plurality of rhythm waveform data, and the one of the plurality of bridge waveform data is assigned, and one or more of the music element switches PS An operator group composed of a plurality of keys corresponds to the operator group of the present invention.
上記のようにして生成された複数の伴奏波形データ、複数のリズム波形データ、及び複数のブリッジ波形データからなるオーディオ音楽要素データセットの名称は、その生成元の楽曲のタイトルである「Song01」に関連付けて、「Song01_Component」に設定される。つまり、オーディオ音楽要素データセットの名称は、楽曲のタイトルと「Component」とが「_」で結合された名称に設定される。 The name of an audio music element data set consisting of a plurality of accompaniment waveform data, a plurality of rhythm waveform data, and a plurality of bridge waveform data generated as described above is “Song 01” which is the title of the music piece of the generation source. It associates and is set to "Song01_Component". That is, the name of the audio music element data set is set to a name in which the title of the music and "Component" are combined by "_".
再び、図4の説明に戻る。CPU12aは、上記のようにしてオーディオ音楽要素データセットを生成すると、ステップS16にて、オーディオ音楽要素データセット生成処理を終了する。
It returns to the explanation of FIG. 4 again. After generating the audio music element data set as described above, the
つぎに、オーディオ音楽要素データセットを用いて、伴奏スタイル、リズム、ブリッジなどの演奏パターンを表す演奏パターンデータを生成して、サウンドシステム17に供給する手順について説明する。演奏者が入力操作子11を用いて、演奏装置10の動作モードをオーディオ音楽要素演奏モードに設定すると、CPU12aは、オーディオ音楽要素演奏プログラムをROM12bから読み込んで実行する。オーディオスタイル演奏プログラムは、図7A及び図7Bに示す演奏パターンデータ生成プログラムと、図8に示す演奏パターンデータ供給プログラムからなる。
Next, a procedure of generating performance pattern data representing performance patterns such as accompaniment style, rhythm, bridge and the like using the audio music element data set and supplying the same to the
まず、演奏パターンデータ生成プログラムについて説明する。CPU12aは、ステップS100にて、演奏パターンデータ生成処理を開始する。つぎに、CPU12aは、ステップS101にて、初期化処理を実行する。例えば、本プログラムにおいて使用するRAM12bの領域(例えば、後述する第1乃至第4領域)に所定の値(例えば、「0」)を書き込む。
First, the performance pattern data generation program will be described. In step S100, the
つぎに、CPU12aは、ステップS102にて、記憶装置14に記憶されているオーディオ音楽要素データセットの名称をリスト形式で表示器13に表示する。演奏者は、演奏操作に先立って、入力操作子11を用いて、1つのオーディオ音楽要素データセット(例えば、「Song01_Component」)を選択する。つぎに、CPU12aは、ステップS103にて、セクション選択スイッチSSのうちのいずれかのスイッチがオン状態に設定されているか否かを検出する。全てのスイッチがオフ状態である場合には、CPU12aは、「No」と判定し、ステップS109に処理を進める。一方、セクション選択スイッチSSのうちのいずれかのスイッチがオン状態である場合には、CPU12aは、ステップS104にて、第1鍵域に属する鍵のうちの少なくともいずれか1つの鍵が押鍵されているか否かを検出する。いずれの鍵も押鍵されていない場合には、CPU12aは、「No」と判定して、ステップS109に処理を進める。一方、少なくともいずれか1つの鍵が押鍵されている場合には、CPU12aは、ステップS105にて。現在押鍵されている鍵の音高を検出し、現在入力されているコードを検出する。
Next, in step S102, the
つぎに、CPU12aは、ステップS106にて、セクション選択スイッチSSのうちの現在オン状態に設定されているスイッチ及び前記検出したコードに割り当てられている伴奏波形データを、RAM12bにおける所定の第1領域に読み込む。つぎに、CPU12aは、ステップS107にて、前記読み込んだ伴奏波形データのコードと前記検出したコードとが同一であるか否かを判定する。前記読み込んだ伴奏波形データのコードと前記検出したコードとが同一である場合には、CPU12aは、「Yes」と判定して、ステップS109に処理を進める。一方、前記読み込んだ伴奏波形データのコードと前記検出したコードとが異なる場合には、CPU12aは、「No」と判定して、ステップS108にて、前記読み込んだ伴奏波形データを前記検出したコードに修正する。
Next, in step S106, the
上記のように、図6の第1アルゴリズムによって抽出された伴奏波形データは、MIDI伴奏スタイルのセクション及びコードを指定する操作と同様の操作によって読み出される。 As described above, the accompaniment waveform data extracted by the first algorithm of FIG. 6 is read out by an operation similar to the operation of designating the section and chord of the MIDI accompaniment style.
例えば、イントロスイッチISがオン状態に設定され、且つ第1鍵域の「A」キーと「G#」キーとが押鍵され(簡単なコード指定方法)、又は「A」キーと「C」キーと「E」キーが押鍵される(通常のコード指定方法)ことにより、「Am」コードが入力(指定)されているとする。本実施形態では、図6に示すように、「Song01_Intro_Am.wav」がイントロスイッチIS及び全てのコードに割り当てられている。したがって、「Song01_Intro_Am.wav」が第1領域に読み込まれる。この例では、入力されたコードと伴奏波形データのコードが同一であるので、CPU12aは、「Song01_Intro_Am.wav」を第1領域に保持したまま、ステップS109に処理を進める。一方、イントロスイッチISがオン状態に設定され、且つコードとして「AM」が入力されているとする。上記のように、「Song01_Intro_Am.wav」は全てのコードに割り当てられているので、この場合も「Song01_Intro_Am.wav」が選択される。この例では、入力されているコードと伴奏波形データのコードが異なる。そこで、CPU12aは、「Song01_Intro_Am.wav」に、周知のアルゴリズム(例えば、特開2012−203219)を適用する。すなわち、「Song01_Intro_Am.wav」を構成する楽音のうち、鍵音高が「C」である楽音を分離し、前記分離した楽音をピッチチェンジして「C#」に変更した後、再合成する。このようにして、「Song01_Intro_Am.wav」のコードが「AM」に修正される。
For example, the intro switch IS is set to the on state, and the "A" key and the "G #" key of the first key area are depressed (simple code specification method), or the "A" key and "C" It is assumed that the "Am" code is input (designated) by pressing the key and the "E" key (the usual code designation method). In the present embodiment, as shown in FIG. 6, “Song01_Intro_Am. Wav” is assigned to the intro switch IS and all the codes. Therefore, "Song01_Intro_Am. Wav" is read into the first area. In this example, since the input chord and the chord of the accompaniment waveform data are the same, the
つぎに、CPU12aは、ステップS109にて、リズムスイッチRSがオン状態に設定されているか否かを検出する。リズムスイッチRSがオフ状態である場合には、CPU12aは、「No」と判定し、ステップS112に処理を進める。一方、リズムスイッチRSがオン状態である場合には、CPU12aは、ステップS110にて、第2鍵域に属する鍵のうちの少なくともいずれか1つの鍵が押鍵されているか否かを検出する。いずれの鍵も押鍵されていない場合には、CPU12aは、「No」と判定して、ステップS113に処理を進める。一方、少なくともいずれか1つの鍵が押鍵されている場合には、CPU12aは、ステップS111にて、第2鍵域に属する鍵であって現在押鍵されている鍵のうち、最後に押鍵された鍵の鍵音高を検出する。つぎに、CPU12aは、ステップS112にて、前記検出した鍵音高に割り当てられているリズム波形データを、RAM12bにおける所定の第2領域に読み込む。
Next, in step S109, the
つぎに、CPU12aは、ステップS113にて、ブリッジスイッチBSがオン状態に設定されているか否かを検出する。ブリッジスイッチBSがオフ状態である場合には、CPU12aは、「No」と判定し、ステップS117に処理を進める。一方、ブリッジスイッチBSがオン状態である場合には、CPU12aは、ステップS114にて、第3鍵域に属する鍵のうちの少なくともいずれか1つの鍵が押鍵されているか否かを検出する。いずれの鍵も押鍵されていない場合には、CPU12aは、「No」と判定して、ステップS117に処理を進める。一方、少なくともいずれか1つの鍵が押鍵されている場合には、CPU12aは、ステップS115にて、第3鍵域に属する鍵であって現在押鍵されている鍵のうち、最後に押鍵された鍵の鍵音高を検出する。つぎに、CPU12aは、ステップS116にて、前記検出した鍵音高に割り当てられているブリッジ波形データを、RAM12bにおける所定の第3領域に読み込む。
Next, in step S113, the
つぎに、CPU12aは、ステップS117にて、第1領域、第2領域及び第3領域にそれぞれ記憶されている伴奏波形データ、リズム波形データ及びブリッジ波形データを重畳加算することにより1つの演奏パターンの音響波形を表わす演奏パターンデータを生成し、RAM12bのうちの所定の第4領域に書き込む。そして、以降、CPU12aは、ステップS103〜S117からなる処理を繰り返し実行する。なお、前記演奏パターンデータは、複数のサンプル値からなる。その複数のサンプル値が、再生(D/A変換)される順に第4領域に記憶されている。つまり、第4記憶領域の先頭アドレスから末尾アドレスに向かって順に各サンプル値を読み出してサウンドシステム17に供給することにより、前記演奏パターンデータが表わす演奏パターンを再生することができるように構成されている。
Next, in step S117, the
つぎに、演奏パターンデータ供給プログラムについて説明する。CPU12aは、上記の演奏パターンデータ生成プログラムと平行して、演奏パターンデータ供給プログラムを実行する。
Next, a performance pattern data supply program will be described. The
CPU12aは、ステップS200にて、演奏パターンデータ供給処理を開始する。つぎに、CPU12aは、ステップS201にて、初期化処理を実行する。例えば、第4領域の1つのアドレスであって、前記演奏パターンデータを構成する1つのサンプル値を記憶しているアドレスを指し示すポインタの値を、前記第4領域の先頭のアドレスに設定する。つぎに、CPU12aは、ステップS202にて、ポインタによって指し示されたアドレスに記憶されているサンプル値をサウンドシステム17に供給する。つぎに、CPU12aは、ステップS203にて、前記ポインタを1つ進める。つまり、ポインタの値を、現在のアドレスから見て1つ後のアドレスに設定する。ただし、現在のアドレスが前記演奏パターンデータの末尾である場合には、前記ポインタの値を第4領域の先頭アドレスに設定する。つぎに、CPU12aは、ステップS204にて、次のサンプリング期間が到来するまで待機した後、ステップS201に処理を進める。これにより、CPU12aは、所定のサンプリング期間(本実施形態では1/44100秒)ごとに、1つのサンプル値をサウンドシステム17に供給する。
At step S200, the
したがって、オーディオ音楽要素データセットの伴奏波形データを用いた演奏においては、現在選択されているセクションの演奏パターンが繰り返し演奏される。また、例えば、セクションの演奏途中で現在選択されているセクションとは異なるセクションのスイッチがオン状態に設定された場合であっても途切れることなく演奏が継続される。なお、現在の小節の末尾に到達するまで現在の演奏パターンの演奏を継続し、その後、次のセクションの先頭から演奏が開始されるように構成されている。つまり、CPU12aは、現在の小節の末尾に到達したとき、ステップS117を実行する。また、次のセクションのスイッチがオン状態に設定された時点において、前記次のセクションの途中の位置であって、現在のセクションにおける演奏進行位置に対応する位置から演奏が継続されてもよい。また、小節の途中で新たにコードが入力されたとき、その小節の末尾に到達したとき、前記新たに入力されたコードに変更され、演奏が継続される。なお、エンディングスイッチESに対応するエンディングセクションの末尾に到達すると、CPU12aは、オーディオ音楽要素データセットを用いた演奏を終了し、音楽要素スイッチPSに属する全ての音楽要素スイッチPSをオフ状態に設定する。また、演奏者が入力操作子11を用いて演奏を中止することを選択した場合にも、CPU12aは、オーディオ音楽要素データセットを用いた演奏を終了し、音楽要素スイッチPSに属する全てのスイッチをオフ状態に設定する。
Therefore, in the performance using the accompaniment waveform data of the audio music element data set, the performance pattern of the currently selected section is repeatedly played. Also, for example, even when the switch of the section different from the currently selected section is set to the on state during the playing of the section, the playing is continued without interruption. The performance of the current performance pattern is continued until the end of the current measure is reached, and thereafter, the performance is started from the beginning of the next section. That is, the
上記のように構成された演奏装置10においては、演奏装置10に伴奏波形データ、リズム波形データ及びブリッジ波形データが予め記憶されているのではなく、所望の楽曲の音響波形データから抽出される。そして、伴奏スタイル、リズム、ブリッジの各演奏パターンを表す演奏パターンデータは、MIDIデータに基づいて音源回路16にて生成されるのではなく、原曲の音響波形データから切り出された波形データに基づいて生成される。したがって、演奏装置10によれば、生演奏のような魅力的な演奏パターンを再生できる。また、演奏装置10においては、伴奏波形データ、リズム波形データ及びブリッジ波形データがそれぞれ割り当てられる操作子群は互いに重複しない。したがって。演奏装置10によれば、既存の楽曲の音響波形データから抽出した各波形データをリアルタイムに択一的又は重畳的に選択(指定)し、前記選択(指定)した波形データを用いて演奏パターンを再生することができる。つまり、伴奏波形データ、リズム波形データ及びブリッジ波形データのうちの1つのみを用いて演奏パターンを再生することもできるし、それらの2つ又は全てを重畳した演奏パターンを再生することもできる。しかも、伴奏波形データに関しては、演奏者が選択(指定)する伴奏スタイルのセクション及びコードに対応する伴奏波形データが無くても、同じセクションの伴奏波形データの構成音を修正することにより、前記伴奏波形データのコードを前記指定したコードに修正できる(S107、S108参照)。よって、従来よりも演奏パターンのバリエーションを増やすことができる。また、既存の楽曲を簡単にアレンジすることができる。なお、伴奏波形データ、リズム波形データ及びブリッジ波形データのうち、2つ又は全ての波形データによってそれぞれ表わされる音響波形を重畳する場合、一部の楽器の演奏が重なる場合がある。この場合、伴奏波形データ、リズム波形データ及びブリッジ波形データのうち、重畳するデータのいずれかの波形データにフィルタを適用して、前記一部の楽器の演奏音の音量を小さくしてもよい。
In the
また、音響波形データに適用するアルゴリズムを選択することができるので、必要な波形データのみを生成することができる。例えば、ブリッジ波形データが不要な場合には、伴奏波形データ及びリズム波形データのみを生成することができる。これによれば、記憶装置14の記憶容量が無駄に消費されることを抑制できる。
Further, since an algorithm to be applied to acoustic waveform data can be selected, only necessary waveform data can be generated. For example, when bridge waveform data is unnecessary, only accompaniment waveform data and rhythm waveform data can be generated. According to this, wasteful consumption of the storage capacity of the
さらに、本発明の実施にあたっては、上記実施形態に限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変更が可能である。 Furthermore, the implementation of the present invention is not limited to the above embodiment, and various modifications can be made without departing from the object of the present invention.
上記実施形態においては、3種類のアルゴリズムを楽曲の音響波形データに適用可能であるが、これらのアルゴリズムは、上記実施形態に限られず、他のアルゴリズムであってもよい。例えば、上記実施形態では、伴奏波形データには、ドラムパートが含まれているが、伴奏パートのうちドラムパートを除く演奏パートの演奏が含まれるようなデータを生成するアルゴリズムを適用しても良い。また、上記実施形態では、ブリッジ波形データには、全ての演奏パートが含まれているが、ボーカルパート及びメロディパートのみが含まれるようなデータを生成するアルゴリズムを適用しても良い。上記のように、同時に(並行して)用いる波形データ間において、楽器の種類が重複しないように構成すれば、同時に用いる波形データの組み合わせを自由に変更することができる。例えば、原曲の導入部における伴奏波形データに対し、原曲の中間部のリズム波形データを組み合わせることができる。これによれば、演奏パターンのバリエーションが飛躍的に増える。 In the above embodiment, three types of algorithms can be applied to the acoustic waveform data of music, but these algorithms are not limited to the above embodiments and may be other algorithms. For example, in the above embodiment, although the accompaniment waveform data includes the drum part, an algorithm may be applied which generates data in which the performance of the playing part excluding the drum part is included among the accompaniment parts. . Further, in the above embodiment, although the bridge waveform data includes all the performance parts, an algorithm may be applied which generates data in which only the vocal parts and the melody parts are included. As described above, if the types of instruments do not overlap between waveform data used simultaneously (in parallel), the combination of waveform data used simultaneously can be freely changed. For example, the rhythm waveform data of the middle part of the original music can be combined with the accompaniment waveform data in the introduction part of the original music. According to this, the variation of the playing pattern increases dramatically.
また、上記実施形態では、原曲全体を用いてオーディオ音楽要素データセットを生成しているが、原曲の一部を用いてもよい。この場合、取り込んだ原曲の音響波形データのうち、オーディオ音楽要素データセットを生成するために用いる部分を選択可能に構成するとよい。 In the above embodiment, the audio music element data set is generated using the entire original song, but a part of the original song may be used. In this case, it is preferable to select a part of the acquired acoustic waveform data of the original music to be used to generate the audio music element data set.
また、オーディオ音楽要素データセットの各波形データに対し、ピッチを変更することなくテンポを変更する周知のアルゴリズムを適用しても良い。また、原曲の音響波形データ及びオーディオ音響波形データセットがネットワークを介してCPU12aに接続されたサーバーに記憶されていても良い。さらに、そのサーバーがオーディオ音楽要素データセットを生成するプログラムを実行し、その結果をCPU12aは利用できるようにしても良い。また、上記実施形態においては、コードを指定する際に鍵盤装置KYを用いているが、外部機器から受信したコードを表す情報を用いてもよい。
In addition, a known algorithm for changing the tempo without changing the pitch may be applied to each waveform data of the audio music element data set. Also, the acoustic waveform data of the original music and the audio acoustic waveform data set may be stored in a server connected to the
BS・・・ブリッジスイッチ、PS・・・音楽要素スイッチ、ES・・・エンディングスイッチ、FS・・・フィルインスイッチ、IS・・・イントロスイッチ、KY・・・鍵盤装置、MS1・・・メインスイッチ、MS2・・・メインスイッチ、MS3・・・メインスイッチ、RS・・・リズムスイッチ、SS・・・セクション選択スイッチ、WM・・・波形メモリ、10・・・演奏装置、11・・・入力操作子、12・・・コンピュータ部、13・・・表示器、14・・・記憶装置、15・・・外部インターフェース回路、16・・・音源回路、17・・・サウンドシステム BS: bridge switch, PS: music element switch, ES: ending switch, FS: fill-in switch, IS: intro switch, KY: keyboard device, MS1: main switch, MS2: main switch, MS3: main switch, RS: rhythm switch, SS: section selection switch, WM: waveform memory, 10: performance device, 11: input operator , 12: computer unit, 13: display, 14: storage device, 15: external interface circuit, 16: sound source circuit, 17: sound system
Claims (8)
楽曲を演奏して放音された演奏音の音響波形を表わす音響信号を取得する音響信号取得手段と、
前記音響信号に含まれる第1音楽要素及び第2音楽要素の音響波形をそれぞれ抽出する第1アルゴリズム及び第2アルゴリズムのうちのいずれか一方又は両方に従って、前記音響信号から第1音楽要素及び第2音楽要素のうちのいずれか一方又は両方の音響波形を抽出する音楽要素抽出手段と、
前記抽出した音響波形を、前記複数の操作子のうちのいずれか1つ又は複数の操作子に割り当てる割り当て手段と、
前記音響波形が割り当てられた1つ又は複数の操作子が操作されたことを検知して、前記操作された1つ又は複数の操作子に割り当てられた音響波形を用いて、演奏パターンを表わす演奏パターンデータを生成する演奏パターンデータ生成手段と、
を備えた演奏装置。 With multiple operators,
Acoustic signal acquisition means for acquiring an acoustic signal representing an acoustic waveform of the played sound emitted by playing the music;
The first music element and the second music signal are extracted from the sound signal in accordance with one or both of a first algorithm and a second algorithm that respectively extract the sound waveforms of the first music element and the second music element included in the sound signal. Music element extraction means for extracting an acoustic waveform of one or both of the music elements;
Assigning means for assigning the extracted acoustic waveform to any one or more operators of the plurality of operators;
A performance representing a playing pattern by detecting that one or more operators to which the acoustic waveform is assigned is operated, and using the acoustic waveform assigned to the operated one or more operators Performance pattern data generating means for generating pattern data;
A playing device equipped with
前記音楽要素は、前記楽曲のメロディ、伴奏、リズム演奏パートの演奏パターン、及び前記楽曲のイントロ部分、ブリッジ部分、挿入フレーズ部分の演奏パターンのうちのいずれか1つである、演奏装置。 In the playing device according to claim 1,
The music apparatus is any one of a melody of the music, an accompaniment, a performance pattern of a rhythm performance part, and a performance pattern of an intro part, a bridge part, and an insertion phrase part of the music.
前記割り当て手段は、前記複数の操作子のうちの1つ又は複数の操作子からそれぞれ構成された第1操作子グループ及び第2操作子グループに、前記第1音楽要素及び第2音楽要素の音響波形データをそれぞれ割り当て、
前記第1操作子グループ及び第2操作子グループのうち、いずれか一方の操作子グループのみが操作されているとき、前記操作されている操作子グループに割り当てられている音楽要素の音響波形に基づいて演奏パターンデータを生成し、前記第1操作子グループ及び第2操作子グループの双方が操作されているとき、前記第1音楽要素及び前記第2音楽要素の音響波形に基づいて演奏パターンデータを生成する、演奏装置。 In the playing device according to claim 1,
The assignment unit is configured to assign the first music element and the second music element to a first operator group and a second operator group respectively composed of one or more operators among the plurality of operators. Assign waveform data respectively,
When only one of the first operator group and the second operator group is operated, based on the acoustic waveform of the music element assigned to the operated operator group. Performance pattern data is generated, and when both the first operator group and the second operator group are operated, performance pattern data is generated based on the acoustic waveforms of the first music element and the second music element A playing device to generate.
前記第1操作子グループを構成する前記操作子の組み合わせと前記第2操作子グループを構成する前記操作子の組み合わせとが異なる、演奏装置。 In the playing device according to claim 3,
A playing device, wherein a combination of the operators constituting the first operator group and a combination of the operators constituting the second operator group are different.
前記音楽要素抽出手段は、前記音響信号に適用するアルゴリズムを選択する選択手段を備えた演奏装置。 In the playing device according to claim 1,
The musical instrument extraction means comprises a selection means for selecting an algorithm to be applied to the acoustic signal.
前記第1音楽要素は伴奏パートの演奏パターンであり、
前記第1音楽要素を表す音響波形は、前記伴奏パートの演奏パターンの和音のタイプ及び根音に対応付けて記憶され、
前記演奏パターンデータ生成手段は、
操作されている1つ又は複数の前記操作子に対応する和音を検出すると共に、前記検出した和音に対応する前記第1音楽要素の音響波形が記憶されている場合には前記記憶されている音響波形を読み出して再生し、前記検出した和音に対応する前記第1音楽要素の音響波形が記憶されていない場合には、前記第1音楽要素の音響波形が表わす演奏音の発生態様であって和音に関する発生態様を、前記検出した和音に従って変更した演奏音を表わす演奏パターンデータを生成可能である、演奏装置。 The musical performance apparatus according to any one of claims 1 to 5,
The first music element is a performance pattern of an accompaniment part,
The acoustic waveform representing the first music element is stored in association with the type and chord of the chord of the performance pattern of the accompaniment part,
The performance pattern data generation means
The stored sound is detected when a chord corresponding to the one or more operators being operated is detected, and an acoustic waveform of the first music element corresponding to the detected chord is stored. The waveform is read out and reproduced, and when the acoustic waveform of the first music element corresponding to the detected chord is not stored, the generation mode of the performance sound represented by the acoustic waveform of the first music element is a chord tone A musical performance apparatus capable of generating musical performance pattern data representing a musical performance sound whose generation mode relating to Y. has been changed according to the detected chord.
音響信号を取得する音響信号取得ステップと、
前記音響信号に含まれる第1音楽要素及び第2音楽要素の音響波形をそれぞれ抽出する第1アルゴリズム及び第2アルゴリズムのうちのいずれか一方又は両方に従って、前記音響信号から第1音楽要素及び第2音楽要素のうちのいずれか一方又は両方の音響波形を抽出する音楽要素抽出ステップと、
前記抽出した音響波形を、前記複数の操作子のうちのいずれか1つ又は複数の操作子に割り当てる割り当てステップと、
前記音響波形が割り当てられた1つ又は複数の操作子が操作されたことを検知して、前記操作された1つ又は複数の操作子に割り当てられた音響波形を用いて、演奏パターンを表わす演奏パターンデータを生成する演奏パターンデータ生成ステップと、を含む処理を実行させるコンピュータプログラム。 A computer program applied to a playing device having a plurality of operators, the computer provided in the playing device comprising:
An acoustic signal acquisition step of acquiring acoustic signals,
The first music element and the second music signal are extracted from the sound signal in accordance with one or both of a first algorithm and a second algorithm that respectively extract the sound waveforms of the first music element and the second music element included in the sound signal. A music element extraction step of extracting an acoustic waveform of one or both of the music elements;
An assignment step of assigning the extracted acoustic waveform to any one or more operators among the plurality of operators.
A performance representing a playing pattern by detecting that one or more operators to which the acoustic waveform is assigned is operated, and using the acoustic waveform assigned to the operated one or more operators A computer program that executes a process including a performance pattern data generation step of generating pattern data.
音響信号を取得する音響信号取得ステップと、 An acoustic signal acquisition step of acquiring an acoustic signal;
前記音響信号に含まれる第1音楽要素及び第2音楽要素の音響波形をそれぞれ抽出する第1アルゴリズム及び第2アルゴリズムのうちのいずれか一方又は両方に従って、前記音響信号から第1音楽要素及び第2音楽要素のうちのいずれか一方又は両方の音響波形を抽出する音楽要素抽出ステップと、 The first music element and the second music signal are extracted from the sound signal in accordance with one or both of a first algorithm and a second algorithm that respectively extract the sound waveforms of the first music element and the second music element included in the sound signal. A music element extraction step of extracting an acoustic waveform of one or both of the music elements;
前記抽出した音響波形を、前記複数の操作子のうちのいずれか1つ又は複数の操作子に割り当てる割り当てステップと、 An assignment step of assigning the extracted acoustic waveform to any one or more operators among the plurality of operators.
前記音響波形が割り当てられた1つ又は複数の操作子が操作されたことを検知して、前記操作された1つ又は複数の操作子に割り当てられた音響波形を用いて、演奏パターンを表わす演奏パターンデータを生成する演奏パターンデータ生成ステップと、を含む演奏パターンデータ生成方法。 A performance representing a playing pattern by detecting that one or more operators to which the acoustic waveform is assigned is operated, and using the acoustic waveform assigned to the operated one or more operators A performance pattern data generation step of generating pattern data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014144118A JP6424501B2 (en) | 2014-07-14 | 2014-07-14 | Performance device and performance program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014144118A JP6424501B2 (en) | 2014-07-14 | 2014-07-14 | Performance device and performance program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018199110A Division JP6733720B2 (en) | 2018-10-23 | 2018-10-23 | Performance device, performance program, and performance pattern data generation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016020961A JP2016020961A (en) | 2016-02-04 |
JP6424501B2 true JP6424501B2 (en) | 2018-11-21 |
Family
ID=55265829
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014144118A Expired - Fee Related JP6424501B2 (en) | 2014-07-14 | 2014-07-14 | Performance device and performance program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6424501B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3840915B2 (en) * | 2001-05-15 | 2006-11-01 | ヤマハ株式会社 | Performance information editing apparatus and program |
JP4243682B2 (en) * | 2002-10-24 | 2009-03-25 | 独立行政法人産業技術総合研究所 | Method and apparatus for detecting rust section in music acoustic data and program for executing the method |
JP5598397B2 (en) * | 2011-03-25 | 2014-10-01 | ヤマハ株式会社 | Accompaniment data generation apparatus and program |
JP6047985B2 (en) * | 2012-07-31 | 2016-12-21 | ヤマハ株式会社 | Accompaniment progression generator and program |
-
2014
- 2014-07-14 JP JP2014144118A patent/JP6424501B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2016020961A (en) | 2016-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4321476B2 (en) | Electronic musical instruments | |
US9536508B2 (en) | Accompaniment data generating apparatus | |
US20110185881A1 (en) | Automatic accompanying apparatus and computer readable storing medium | |
JP6733720B2 (en) | Performance device, performance program, and performance pattern data generation method | |
JP4274272B2 (en) | Arpeggio performance device | |
JP6175812B2 (en) | Musical sound information processing apparatus and program | |
JP3915807B2 (en) | Automatic performance determination device and program | |
JP2004078095A (en) | Playing style determining device and program | |
US11955104B2 (en) | Accompaniment sound generating device, electronic musical instrument, accompaniment sound generating method and non-transitory computer readable medium storing accompaniment sound generating program | |
JP6424501B2 (en) | Performance device and performance program | |
JP5969421B2 (en) | Musical instrument sound output device and musical instrument sound output program | |
JP2016161900A (en) | Music data search device and music data search program | |
JP4978177B2 (en) | Performance device, performance realization method and program | |
JP2009180757A (en) | Electronic musical device and performance data editing display program | |
JP4552769B2 (en) | Musical sound waveform synthesizer | |
JP6554826B2 (en) | Music data retrieval apparatus and music data retrieval program | |
JP4172509B2 (en) | Apparatus and method for automatic performance determination | |
JP2006258938A (en) | Automatic performance apparatus and program | |
JP4186802B2 (en) | Automatic accompaniment generator and program | |
JP5104293B2 (en) | Automatic performance device | |
JP4900233B2 (en) | Automatic performance device | |
JP2022151213A (en) | karaoke device | |
JP5387032B2 (en) | Electronic music apparatus and program | |
JP5387031B2 (en) | Electronic music apparatus and program | |
JP4067007B2 (en) | Arpeggio performance device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170524 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180306 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180501 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180925 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181008 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6424501 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |