JP2010243892A - Sound search device and program - Google Patents
Sound search device and program Download PDFInfo
- Publication number
- JP2010243892A JP2010243892A JP2009093978A JP2009093978A JP2010243892A JP 2010243892 A JP2010243892 A JP 2010243892A JP 2009093978 A JP2009093978 A JP 2009093978A JP 2009093978 A JP2009093978 A JP 2009093978A JP 2010243892 A JP2010243892 A JP 2010243892A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- search
- timeline
- line
- sound material
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Abstract
Description
本発明は、音素材の検索を支援する技術に関する。 The present invention relates to a technique for supporting search of sound material.
断片的な音波形である音素材を集めたデータベースを有し、このデータベースから検索した音素材を繋ぎ合わせたフレーズを曲として演奏する演奏装置がある。この種の演奏装置のデータベースは、複数の種類の音素材とその各々について求めた複数の種類の特徴量とを対応づけたものとなっている。そして、検索者たるユーザが、自らがイメージする音素材の特徴量を検索画面を介して指定すると、その特徴量に近い特徴量をもった音素材がデータベースから検索され、フレーズの構成要素として提示される。 There is a performance device that has a database that collects sound materials that are fragmentary sound waves, and plays a phrase that combines the sound materials retrieved from this database as a song. The database of this type of performance device associates a plurality of types of sound materials with a plurality of types of feature values obtained for each of them. Then, when the user who is the searcher specifies the feature amount of the sound material that he / she imagines via the search screen, the sound material having the feature amount close to the feature amount is searched from the database and presented as a component of the phrase Is done.
しかしながら、従来の演奏装置の検索画面には、検索条件となる特徴量を指定する条件指定欄が各特徴の種類ごとに個別に設けられていることが多かった。このため、検索者たるユーザは、複数の種類の特徴量を検索条件として音素材の検索を行う場合、それらの各々の条件指定欄の入力内容を見ただけでは自らが探している音素材の検索条件がよく分からないという問題があった。
本発明は、このような背景の下に案出されたものであり、複数の音素材を集めたデータベースからの音素材の検索を容易に行えるようにすることを目的とする。
However, in many cases, a search screen of a conventional performance device is provided with a condition designation field for designating a feature amount as a search condition for each feature type. For this reason, when a user who is a searcher searches for sound material using a plurality of types of feature amounts as search conditions, the user who is searching for the sound material he / she is looking for simply by looking at the input contents of each of the condition specification fields. There was a problem that the search conditions were not well understood.
The present invention has been devised under such a background, and an object of the present invention is to make it easy to search for sound material from a database in which a plurality of sound materials are collected.
本発明は、各音素材とそれらの音素材の特徴量を示す複数種類の特徴量データとを対応づけて記憶する記憶手段と、操作手段と、表示手段と、音素材の特徴量の検索条件を示す画像であるオブジェクトを前記表示手段に表示させ、前記操作手段の操作に応じて、前記オブジェクトの形態と前記オブジェクトが示す特徴量の検索条件とを対応させて変化させ、前記記憶手段に記憶された音素材の中から、前記検索条件が示す特徴量に近い特徴量を有する音素材を検索する制御手段とを具備する音検索装置を提供する。 The present invention relates to a storage means, an operation means, a display means, and a sound material feature value search condition for storing each sound material and a plurality of types of feature value data indicating the feature values of the sound material in association with each other. An object that is an image indicating the object is displayed on the display means, and in accordance with the operation of the operation means, the form of the object and the search condition for the feature value indicated by the object are changed correspondingly and stored in the storage means There is provided a sound search device comprising a control means for searching for a sound material having a feature value close to the feature value indicated by the search condition from the sound material thus obtained.
本発明では、制御手段は、表示手段に表示させるオブジェクトの形態とそのオブジェクトが示す検索条件とを連動して変化させる。よって、操作者たるユーザは、オブジェクトの形態を見ればそのオブジェクトについて自らが指定した検索条件を理解することができ、自らのイメージにマッチした音素材の検索を容易に行うことができる。 In the present invention, the control means changes the form of the object displayed on the display means and the search condition indicated by the object in conjunction with each other. Therefore, the user who is an operator can understand the search condition specified by the user by looking at the form of the object, and can easily search for the sound material that matches the user's image.
なお、特許文献1に開示された演奏データ編集装置は、ある時間長分の音素材の複数のパターンを示すアイコンを操作画面であるソングウィンドウに並べて表示し、そのソングウィンドウにおいて選択されたアイコンと対応するパターンを繋ぎ合わせた曲の楽音信号を発生するものである。しかし、この演奏データ編集装置は、複数の音素材のなかから検索条件に適う音素材を検索するものではなく、本発明とはその内容を異にするものである。
The performance data editing apparatus disclosed in
以下、図面を参照し、この発明の実施の形態を説明する。図1は、この発明の一実施形態である音検索・演奏装置10の構成を示すブロック図である。この音検索・演奏装置10は、パーソナルコンピュータに、本実施形態による音検索・演奏プログラム29をインストールしたものである。ここで、音検索・演奏プログラム29は、ユーザが行う操作に応じて、曲を構成するのに用いる音素材をデータベースから検索し、この検索した音素材を用いて作曲を行い、作曲した曲を演奏する機能を有しており、いわゆるループシーケンサに類するアプリケーションプログラムである。なお、本実施形態における音素材とは、曲中の1拍に相当する区間の音波形や1拍をさらに区分した区間の音波形である。本実施形態における音検索・演奏プログラム29は、オブジェクト、タイムラインという既存のループシーケンサにないGUI(Graphical User Interface)を採用している。本実施形態の特徴は、オブジェクトおよびタイムラインを含むGUIにある。なお、このGUIの詳細については後述する。 Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a sound search / performance device 10 according to an embodiment of the present invention. The sound search / performance device 10 is obtained by installing the sound search / performance program 29 according to the present embodiment in a personal computer. Here, the sound search / performance program 29 searches the database for sound materials used for composing the music in accordance with the operation performed by the user, composes using the searched sound materials, and selects the composed music. This is an application program similar to a so-called loop sequencer. Note that the sound material in the present embodiment is a sound waveform in a section corresponding to one beat in a song or a sound waveform in a section obtained by further dividing one beat. The sound search / performance program 29 in this embodiment employs a GUI (Graphical User Interface) that does not exist in existing loop sequencers such as objects and timelines. A feature of this embodiment is a GUI including an object and a timeline. Details of this GUI will be described later.
図1に示すように、この音検索・演奏装置10は、インターフェース11を介してサウンドシステム91と接続される。この音検索・演奏装置10における操作部13は、マウス14、キーボード15、およびドラムパッド16を含む。表示部17は、たとえば、コンピュータディスプレイである。
As shown in FIG. 1, the sound search / performance device 10 is connected to a
制御部20は、CPU22、RAM23、ROM24、ハードディスク25を有する。CPU22は、RAM23をワークエリアとして利用しつつ、ROM24やハードディスク25に記憶されたプログラムを実行する。ROM24は、IPL(Initial Program Loader)などを記憶した読み出し専用メモリである。
The
ハードディスク25は、曲データベース26、音素材データベース27,28、および音検索・演奏プログラム29を記憶する。
曲データベース26は、曲データmd−k(k=1,2…)を記憶したデータベースである。曲データmd−k(k=1,2…)は、1曲分の音波形を示すデータである。各曲データmd−k(k=1,2…)には個別の曲番号kが付与されている。
The
The
図2は、音素材データベース27,28のデータ構造図である。音素材データベース27は、曲データmd−k(k=1,2…)に含まれる音素材のうちダスティーな感じの強い各音素材(以下、「ダスト音」と呼ぶ)と各々対応する複数のレコードの集合体である。音素材データベース28は、曲データmd−k(k=1,2…)に含まれる音素材のうちアタックが明瞭でエッジ感の強い各音素材(以下、「エッジ音」と呼ぶ)と各々対応する複数のレコードの集合体である。これらの音素材データベース27,28は、曲データベース26の曲データmd−k(k=1,2…)を特徴量解析プログラム(不図示)によって解析することにより生成されたものである。
FIG. 2 is a data structure diagram of the
より具体的に説明すると、音素材データベース27において、1つのエッジ音と対応するレコードは、そのエッジ音が含まれている曲データmd−kの曲番号k、曲データmd−kが示す1曲分の音波形内におけるそのエッジ音を含む区間の始点と終点の時刻tS,tE、およびそのエッジ音を含む区間の音波形(すなわち、音素材)を解析して得られた以下の6種類の特徴量を各々示す9つのフィールドを有する。
a1.低域強度PLOW
これは、音素材に含まれる低域の周波数成分の強度である。
b1.中低域強度PMID-LOW
これは、音素材に含まれる中低域の周波数成分の強度である。
c1.中高域強度PMID-HIGH
これは、音素材に含まれる中高域の周波数成分の強度である。
d1.高域強度PHIGH
これは、音素材に含まれる高域の周波数成分の強度である。
e1.ピーク位置PTIME
これは、当該波形において振幅がピークとなる時刻を時刻tsを基準とした相対時刻として表わしたものである。
f1.ピーク強度PVALUE
これは、音素材におけるピークの振幅である。
More specifically, in the
a1. Low frequency intensity P LOW
This is the intensity of the low frequency component contained in the sound material.
b1. Mid-low range strength P MID-LOW
This is the intensity of the mid-low frequency component contained in the sound material.
c1. Medium and high frequency intensity P MID-HIGH
This is the intensity of the frequency component in the mid-high range included in the sound material.
d1. High frequency intensity P HIGH
This is the intensity of the high frequency component contained in the sound material.
e1. Peak position P TIME
This represents the time at which the amplitude peaks in the waveform as a relative time with respect to the time ts.
f1. Peak intensity P VALUE
This is the amplitude of the peak in the sound material.
同様に、音素材データベース28において、1つのダスト音と対応するレコードは、そのダスト音が含まれている曲データmd−kの曲番号k、曲データmd−kが示す1曲分の音波形内におけるそのダスト音を含む区間の始点と終点の時刻tS,tE、およびそのダスト音を含む区間の音素材を解析して得られた前掲の6種類の特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEを各々示す9つのフィールドを有する。 Similarly, in the sound material database 28, a record corresponding to one dust sound is a sound waveform for one song indicated by the song number k of the song data md-k including the dust sound and the song data md-k. The above-mentioned six types of features P LOW and P MID− obtained by analyzing the start and end times t S and t E of the section including the dust sound and the sound material of the section including the dust sound It has nine fields indicating LOW , P MID-HIGH , P HIGH , P TIME and P VALUE respectively.
図1において、音検索・演奏プログラム29は、オブジェクト管理処理30、タイムライン管理処理31、作曲情報管理処理32、マニュアル演奏処理33、自動演奏処理34、検索処理35、音加工処理36、操作ログ管理処理37の8種類の処理をCPU22に実行させるプログラムである。図1において、音検索・演奏プログラム29は、上述したようにオブジェクトおよびタイムラインを含むGUIをユーザに提供する。その概要を説明すると次の通りである。
In FIG. 1, a sound search / performance program 29 includes an
まず、オブジェクトは、発音させたい音素材の検索条件を表象するパターン画像である。本実施形態において、ユーザは、発音させたい音素材の種類に対応した個数のオブジェクトを作成可能である。オブジェクトの形態は、そのオブジェクトに対応付けられた音素材の検索条件を表す。ユーザは、操作部13の操作により、オブジェクトに対応付けられた音素材の検索条件を変化させ、かつ、これに対応させてオブジェクトの形態を変化させることが可能である。
First, an object is a pattern image that represents a search condition for a sound material to be pronounced. In the present embodiment, the user can create a number of objects corresponding to the type of sound material to be generated. The form of the object represents a sound material search condition associated with the object. The user can change the search condition of the sound material associated with the object and change the form of the object corresponding to this by operating the
次に、タイムラインは、曲に周期的に繰り返し現れる1または複数の音素材の羅列であるフレーズの周期を表象する線画像である。タイムラインは、1小節を表象してもよいし、複数小節を表象してもよい。本実施形態において、フレーズの作曲は、タイムラインと1または複数のオブジェクトを表示部17に表示させ、タイムラインに1または複数のオブジェクトを帰属させることにより行われる。この場合において、タイムラインに帰属する1または複数のオブジェクトは、タイムラインが表象する1つの周期(フレーズ)内において発音する音素材の検索条件と発音タイミングを指定する。本実施形態において、作曲の際には、複数のタイムラインを使用することも可能である。この場合において、各タイムラインは、作曲対象である曲において、同時進行する複数のフレーズの各々の周期を表象する。また、各タイムラインに、別個のオブジェクトを帰属させてもよいし、各タイムラインに共通のオブジェクトを帰属させることも可能である。
Next, the timeline is a line image that represents the period of a phrase that is an enumeration of one or more sound materials that appear periodically and repeatedly in a song. The timeline may represent one bar or a plurality of bars. In the present embodiment, composition of a phrase is performed by displaying a timeline and one or more objects on the
上述したように、音検索・演奏プログラム29は、オブジェクト管理処理30、タイムライン管理処理31、作曲情報管理処理32、マニュアル演奏処理33、自動演奏処理34、検索処理35、音加工処理36、操作ログ管理処理37の8種類の処理をCPU22に実行させるプログラムである。ここで、オブジェクト管理処理30は、操作部13の操作に応じて、オブジェクトの生成、変更、保存を行う処理である。また、タイムライン管理処理31は、操作部13の操作に応じて、タイムラインの生成および変更を行う処理である。また、作曲情報管理処理32は、表示部17に表示されるタイムラインおよびオブジェクトのレイアウト情報を曲データとして保存する処理と、保存された曲データに基づいてタイムラインとオブジェクトを表示部17に再現させる処理とからなる。
As described above, the sound search / performance program 29 includes the
また、マニュアル演奏処理33は、ドラムパッド16の操作等によるマニュアルトリガに応じて、オブジェクトが表象する検索条件に合致した音素材を発音させる処理である。また、自動演奏処理34は、表示部17に表示されたオブジェクトの内容および画面内のレイアウトに関する情報をオブジェクト管理処理30と共有するとともに、表示部17に表示されたタイムラインの内容および画面内のレイアウトに関する情報をタイムライン管理処理31と共有し、表示部17に表示された1または複数のタイムラインと1または複数のオブジェクトに従って1または複数のフレーズの自動演奏を行う処理である。
The
検索処理35は、指定されたオブジェクトに対応付けられた検索条件に従って音素材の検索を行う処理であり、オブジェクト管理処理30、マニュアル演奏処理33、自動演奏処理34においてサブルーチンとして起動される。音加工処理36は、オブジェクトに対応した音素材を発音する際にその音素材の一部のパラメータを変更する処理であり、自動演奏処理34においてサブルーチンとして起動される処理である。操作ログ管理処理37は、オブジェクトやタイムラインの生成、変更等を行う操作部13の操作ログを記録する処理と、記録した操作ログを読み出して操作ログが示す各操作を再現する処理とからなる。
以上が本実施形態による音検索・演奏装置10の構成の詳細である。
The
The above is the detailed configuration of the sound search / performance device 10 according to the present embodiment.
本実施形態では、曲の材料となる音素材を決定する素材決定作業と、その決定した音素材を1または複数のフレーズの時間軸上にマッピングする素材配置作業とを経て1つの曲が作られる。以下、素材決定作業と素材配置作業における本実施形態の動作を説明する。 In the present embodiment, one piece of music is created through a material determination operation for determining a sound material to be a material of a song and a material arrangement operation for mapping the determined sound material on the time axis of one or a plurality of phrases. . Hereinafter, the operation of the present embodiment in the material determination work and the material placement work will be described.
(1)素材決定作業
素材決定作業では、ユーザは、音素材の検索タイミングを決める2つの検索設定である第1検索設定と第2検索設定のうち一方を選択し、オブジェクト出現操作、検索条件指定操作、マニュアル演奏操作、オブジェクト保存操作などを行う。第1検索設定は、オブジェクトに対応付けられた検索条件が変化するたびに、曲データベース26からの音素材の検索を行う検索設定である。第2検索設定は、オブジェクトが示す音素材の発音を行うたびに、それに先立って、曲データベース26からの音素材の検索を行う検索設定である。
(1) Material determination work In the material determination work, the user selects one of the two search settings that determine the sound material search timing, the first search setting and the second search setting, and the object appearance operation and the search condition designation. Perform operations, manual performance operations, object saving operations, etc. The first search setting is a search setting for searching for sound material from the
ユーザは、まず、オブジェクト出現操作を行う。オブジェクト出現操作は、オブジェクトob−n(n=1,2…)の画像を表示部17の表示領域内に出現させる操作である。上述したように、オブジェクトob−nは、曲のフレーズを構成する音素材を表象する画像である。オブジェクト出現操作では、過去作成してハードディスク25に保存したオブジェクトob−nを出現対象として指示することもできるし、音検索・演奏プログラム29に用意されたデフォルトオブジェクト(予め定められた標準的な検索条件を持ったオブジェクトob−n)を出現対象として指示することもできる。
First, the user performs an object appearance operation. The object appearance operation is an operation for causing the image of the object ob-n (n = 1, 2,...) To appear in the display area of the
また、オブジェクト出現操作では、エッジ音のオブジェクトob−nを出現対象として指示することもできるし、ダスト音のオブジェクトob−nを出現対象として指示することもできる。オブジェクト管理処理30では、オブジェクト出現操作において指示されたオブジェクトob−nを表示部17に表示させ、かつ、そのオブジェクトob−nに対応付けられたオブジェクト管理情報をRAM23に書き込む。このオブジェクト管理情報は、オブジェクトob−nが示す音素材の検索条件SC−nを構成する特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEと要検索数Num(1≦Num)を含む。また、オブジェクト管理情報は、検索条件SC−nを用いた検索により得られた音素材のセットである検索結果SR−nを伴う場合がある。
Further, in the object appearance operation, the edge sound object ob-n can be designated as an appearance target, and the dust sound object ob-n can be designated as an appearance target. In the
図3(A)に示すように、エッジ音のオブジェクトob−nは、全体として矩形をなし、矩形の右辺にある縦ストライプ領域51と、この縦ストライプ領域51の左側を上下に4等分した4つの横ストライプ領域52−m(m=1〜4)とを有している。また、エッジ音のオブジェクトob−nにおいて、横ストライプ領域52−1および52−2と、横ストライプ領域52−3および52−4には、エッジ音を模擬した上下対称の三角形55−u,55−dが各々重ねて表示される。ここで、三角形55−u,55−dの上下の頂点の水平方向における位置は、オブジェクトob−nが表象するエッジ音のピーク位置PTIMEを表す。すなわち、この三角形55−u,55−dの上下の頂点が左側にある程、エッジ音の尖った感じが増し、三角形55−u,55−dの上下の頂点が右側にある程、エッジ音の尖った感じが鈍ることとなる。また、三角形55−u,55−dの上下の頂点の高さは、そのピークのピーク強度PVALUEを表す。すなわち、三角形55−u,55−dの上下の頂点が高い程、エッジ音のエッジ感が強くなり、三角形55−u,55−dの上下の頂点が低い程、エッジ音のエッジ感が弱くなる。
As shown in FIG. 3A, the edge sound object ob-n has a rectangular shape as a whole, and the
横ストライプ領域52−m(m=1〜4)は、各々の表示色の濃淡がオブジェクトob−nが表象するエッジ音の高域強度PHIGH、中高域強度PMID-HIGH、中低域強度PMID-LOW、低域強度PLOWを表す。すなわち、例えば横ストライプ領域52−1の表示色が濃い場合、エッジ音は高域強度の強い音となり、例えば横ストライプ領域52−1の表示色が薄くて横ストライプ領域52−2の表示色が濃い場合には、エッジ音は高域強度よりは中高域強度が強い音となる。ダスト音のオブジェクトob−nは、図3(B)に示すように、縦ストライプ領域51と横ストライプ領域52−m(m=1〜4)とからなる部分にダスト音を模擬した砂地模様を重ねたような形態をなしている。エッジ音のオブジェクトob−nと同様、横ストライプ領域52−m(m=1〜4)は、各々の表示色の濃淡がオブジェクトob−nが表象するダスト音の高域強度PHIGH、中高域強度PMID-HIGH、中低域強度PMID-LOW、低域強度PLOWを表す。
The horizontal stripe region 52-m (m = 1 to 4) has a high-frequency intensity P HIGH , a medium-high frequency intensity P MID-HIGH , and a mid-low frequency intensity of the edge sound in which the shade of each display color represents the object ob-n. P MID-LOW , low frequency intensity P LOW . That is, for example, when the display color of the horizontal stripe region 52-1 is dark, the edge sound becomes a high-intensity sound. For example, the display color of the horizontal stripe region 52-1 is light and the display color of the horizontal stripe region 52-2 is low. When it is deep, the edge sound is a sound having a higher mid-high frequency intensity than a high frequency intensity. As shown in FIG. 3B, the dust sound object ob-n has a sand pattern that simulates the dust sound in the portion composed of the
ユーザは、オブジェクト出現操作によって表示部17の表示領域内に一または複数のオブジェクトob−nを表示させた後、オブジェクトob−nを対象として、検索条件指定操作、オブジェクト保存操作などを行うことができる。
The user may display one or a plurality of objects ob-n in the display area of the
検索条件指定操作は、オブジェクトob−nに対応させる音素材の検索条件SC−nを指定する操作である。この検索条件指定操作には次のものがある。
<エッジ音のピーク位置PTIMEおよびピーク強度PVALUEを指定する操作>
この操作では、エッジ音のオブジェクトob−nの三角形55−u,55−dの形状を操作する。具体的には、ユーザは、図4に示すように、エッジ音のオブジェクトob−nの三角形55−u,55−dのうち一方(たとえば、三角形55−uとする)の頂点Cにマウスポインタmpを移動させて左クリックし、そのままマウスポインタmpを任意の方向に移動させて左クリックを解除する。CPU22は、オブジェクト管理処理30では、この操作に応じて、ピーク位置PTIMEおよびピーク強度PVALUEと三角形55−u,55−dの形状とを連動させて変化させる。すなわち、三角形55−u,55−dの各頂点の位置は操作を終えた時点におけるマウスポインタmpの位置となり、三角形55−u,55−dの各頂点のオブジェクトob−nの左辺からの距離は更新後のピーク位置PTIMEを、各頂点の高さは更新後のピーク強度PVALUEを示すものとなる。
The search condition designating operation is an operation of designating a sound material search condition SC-n corresponding to the object ob-n. This search condition specifying operation includes the following.
<Operation to specify peak position P TIME and peak intensity P VALUE of edge sound>
In this operation, the shapes of the triangles 55-u and 55-d of the edge sound object ob-n are operated. Specifically, as shown in FIG. 4, the user moves the mouse pointer to a vertex C of one of the triangles 55-u and 55-d (for example, the triangle 55-u) of the edge sound object ob-n. mp is moved and left-clicked, and the mouse pointer mp is moved in an arbitrary direction to release the left-click. In the
<エッジ音およびダスト音の高域強度PHIGH、中高域強度PMID-HIGH、中低域強度PMID-LOW、低域強度PLOWを指定する操作>
この場合、ユーザは、図5に示すように、マウスポインタmpをオブジェクトob−nの横ストライプ領域52−m(m=1〜4)のいずれか(図5の例では領域52−1)の左側に移動させてキーボード15の所定のキー(たとえば、Shiftキーとする)を押下し、そのままマウスポインタmpを右方向に移動させてキーの押下を解除する。例えば、横ストライプ領域52−4について以上の操作が行われた場合、オブジェクト管理処理30では、マウスポインタmpを右方向への移動量に応じて、低域強度PLOWと横ストライプ領域52−4の表示色の濃度を連動させて更新する。高域強度PHIGH、中高域強度PMID-HIGH、中低域強度PMID-LOWの指定操作も同様である。
<Operation to specify high-frequency intensity P HIGH , mid-high frequency intensity P MID-HIGH , mid-low frequency intensity P MID-LOW , and low-frequency intensity P LOW of edge sound and dust sound>
In this case, as shown in FIG. 5, the user moves the mouse pointer mp to one of the horizontal stripe regions 52-m (m = 1 to 4) of the object ob-n (the region 52-1 in the example of FIG. 5). Move to the left side and press a predetermined key (for example, Shift key) on the
<エッジ音およびダスト音の要検索数Numを指定する操作>
この場合、ユーザは、図6に示すように、マウスポインタmpをオブジェクトob−nの縦ストライプ領域51の下側に移動させてキーボード15の所定のキー(たとえば、Shiftキーとする)を押下し、そのままマウスポインタmpを上方向に移動させてキーの押下を解除する。この操作が行われると、オブジェクト管理処理30では、縦ストライプ領域51内にその下辺から上方向へ伸びるバー95を表示させ、マウスポインタmpの上方向への移動量に応じて、要検索数Numと縦ストライプ領域51のバー95の高さとを連動させて更新する。
<Operation to specify number of search Num required for edge and dust sounds>
In this case, as shown in FIG. 6, the user moves the mouse pointer mp to the lower side of the
さらに、第1検索設定の下では、オブジェクトに対応付けられた検索条件SC−nが変化する度に、オブジェクト管理処理30が検索処理35を起動し、オブジェクトにおける新たな検索条件SC−nでの音素材の検索を検索処理35に行わせる。
例えばエッジ音のオブジェクトob−nに対応付けられた検索条件SC−nが変化して検索処理35が起動された場合、この検索処理35では、RAM23から検索条件SC−nを構成する特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEと要検索数Numを読み出す。そして、特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEが示す6次元の特徴量ベクトルとの間のユークリッド距離が短い上位Num個のレコードを音素材データベース27から検索する。また、その上位Num個の各レコードに各々対応した音素材を検索する。すなわち、各レコードにおいて曲番号kのフィールドと同じ曲番号kの曲データmd−kを検索し、この曲データmd−kにおいて、当該レコードの時刻tS,tEのフィールドが示す始点と終点の間の区間の音素材を検索するのである。そして、このようにして検索した上位Num個の各レコードと上位Num個の音素材を検索結果SR−nとしてオブジェクトob−nに対応付ける。ダスト音のオブジェクトob−nに対応付けられた検索条件SC−nが変化した場合も同様である。
Further, under the first search setting, each time the search condition SC-n associated with the object changes, the
For example, when the search condition SC-n associated with the edge sound object ob-n is changed and the
ユーザは、オブジェクトob−nに所望の特性を持った音素材が対応付けられているか否かを確認するためにマニュアル演奏操作を行うことができる。このマニュアル演奏操作は、マニュアルトリガを発生させ、オブジェクトob−nに対応付けられた音素材をサウンドシステム91から発音させる操作である。マニュアルトリガとして何を採用するかは、音検索・演奏プログラム29に対して設定可能であるが、この例ではドラムパッド16の操作イベントがマニュアルトリガとして指定されているものとする。この場合において、ユーザは、マウスポインタmpをオブジェクトob−nに移動させてドラムパッド16を叩くと、マニュアル演奏処理33が実行される。
The user can perform a manual performance operation to confirm whether or not a sound material having a desired characteristic is associated with the object ob-n. This manual performance operation is an operation for generating a manual trigger and causing the
第1検索設定の下でのマニュアル演奏処理33では、ドラムパッド16が叩かれる都度、マウスポインタmpにより指示されたオブジェクトob−nに対応付けられた検索結果SR−nを構成する音素材(上述した上位Num個の音素材)の中から1つの音素材をランダムに選択し、選択した音素材をサウンドシステム91から発音させる。また、第2検索設定の下でのマニュアル演奏処理33では、ドラムパッド16が叩かれる都度、検索処理35を起動し、マウスポインタmpにより指示されたオブジェクトob−nに対応付けられた検索条件SC−nを検索処理35に引き渡す。そして、検索処理35により得られる検索結果SR−nを構成する音素材(上述した上位Num個の音素材)の中から1つの音素材をランダムに選択し、選択した音素材をサウンドシステム91から発音させる。ユーザは、このようにして発音される音素材を耳で確認し、音素材が所望の特性を有していない場合には、再びオブジェクトob−nに対する検索条件指定操作を行う。
In the
表示部17の表示領域内のオブジェクトob−nを後刻再利用する予定がある場合、ユーザはオブジェクト保存操作を行うことができる。これは表示部17の表示領域内のオブジェクトob−nの保存を指示する操作部13の操作である。あるオブジェクトob−nを対象としてオブジェクト保存操作が行われると、オブジェクト管理処理30では、そのオブジェクトob−nのオブジェクト管理情報を生成し、生成したオブジェクト管理情報をハードディスク25に記憶する。このオブジェクト管理情報は、オブジェクトob−nの検索条件SC−nを構成する特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEと要検索数Num、およびその検索結果SR−nを構成するレコードのセットである。
When the object ob-n in the display area of the
以上のように、素材決定作業では、ユーザは、表示部17の表示領域内におけるオブジェクトob−nの形態を変化させることによって、検索条件SC−nを構成する要検索数Numや特徴量PLOW,PMID-LOW,PMID-HIGH,PHIGH,PTIME,PVALUEを変えつつ、自らがイメージする音に近い音素材を曲データベース26および音素材データベース27,28から検索する。ユーザは、曲を作るのに必要な数のオブジェクトob−n(n=1,2…)とその各々の形態を決め、必要であればそれらのオブジェクトob−n(n=1,2…)のオブジェクト管理情報を保存し、次の素材配置作業に移る。
As described above, in the material determination work, the user changes the form of the object ob-n in the display area of the
(2)素材配置作業
素材配置作業では、ユーザは、操作部13を使用して、1または複数の所望のタイムラインと1または複数の所望のオブジェクトを表示部17の表示領域内に表示させ、各タイムラインと各オブジェクトが所望の位置関係を持つように、各々の位置等の調整を行う。そのためにユーザは、オブジェクト出現操作、オブジェクト複製操作、検索条件指定操作、タイムライン出現操作、タイムライン位置変更操作、オブジェクト位置変更操作、サイズ変更操作、拍子指示操作、グリッド指定操作、パラメータ連動操作、演奏開始操作、レイアウト保存操作、レイアウト読出操作、ログ記録開始操作、ログ記録終了操作、ログ再生操作などを行う。
(2) Material Placement Work In the material placement work, the user uses the
タイムライン出現操作が行われると、タイムライン管理処理31では、図7に例示するタイムラインLINE−iを表示部17の表示領域内に表示させる。このタイムラインLINE−iは、フレーズの周期を表す水平方向に延びた直線画像である。タイムラインLINE−iの左端、右端、および左端と右端を4等分した位置からは下方向に拍案内線63−j(j=1〜5)が延伸している。また、タイムラインLINE−iの隣り合う拍案内線63−j間を等分した位置からはグリッド線gが下方向に延伸している。そして、タイムラインLINE−iの左端と右端の拍案内線63−jの間に挟まれた領域が、タイムラインLINE−iの支配が及ぶ占有領域となっている。この占有領域内のオブジェクトob−nがタイムラインLINE−iに属するオブジェクトとなる。また、タイムラインLINE−iはタイミングポインタ62を内包する。このタイミングポインタ62は、自動演奏において現在の演奏位置を示すポインタであり、自動演奏の際にはタイムラインLINE−iの左端から右端までの移動を周期的に繰り返す。
When the timeline appearance operation is performed, the
ユーザは、操作部13の操作により、表示部17の表示領域内におけるタイムラインLINE−iの水平方向の長さや拍案内線63−j(j=1〜5)の長さの調整をタイムライン管理処理31に行わせることができる。また、ユーザは、操作部13の操作により、タイムラインLINE−iが示すフレーズの周期T、すなわち、タイミングポインタ62がタイムラインLINE−iの左端から右端まで移動する所要時間の調整をタイムライン管理処理31に行わせることができる。タイムライン管理処理31では、操作部13の操作により表示部17に表示される各タイムラインLINE−iについて、表示領域内の水平方向および垂直方向の位置、水平方向の長さ、拍案内線63−j(j=1〜5)の数や長さ、タイムラインが示す周期Tの各情報を管理する。
The user operates the
次にユーザは、タイムラインLINE−iに帰属させるオブジェクトob−nが表示部17の表示領域内に表示されていない場合には、そのオブジェクトob−nを出現させるためのオブジェクト出現操作を行う。このオブジェクト出現操作では、ハードディスク25に保存されているオブジェクト管理情報を読み出し、オブジェクトob−nとして表示させてもよい。また、ユーザは、表示部17の表示領域内に表示されているオブジェクトob−nについて検索条件指定操作を行うことも可能である。オブジェクト管理処理30では、操作部13の操作により表示部17に表示される各オブジェクトob−nについて、表示領域内の水平方向および垂直方向の位置、オブジェクトob−nに対応付けられた検索条件SC−n、検索結果SR−nの各情報を管理する。また、表示中のオブジェクトob−nについて検索条件指定操作が行われた場合、オブジェクト管理処理30では、該当するオブジェクトob−nに対応付けられた検索条件SC−n、検索結果SR−nを更新する。
Next, when the object ob-n to be attributed to the timeline LINE-i is not displayed in the display area of the
ユーザは、表示部17の表示領域内に一または複数のタイムラインLINE−iとオブジェクトob−nを表示させたあと、操作部13を使用してタイムライン位置変更操作やオブジェクト位置変更操作を行うことができる。あるオブジェクトob−nをあるタイムラインLINE−iに帰属させたい場合、そのタイムラインLINE−iの占有領域内に収まるようにそのオブジェクトob−nの位置を調整すればよい。この場合において、共通のオブジェクトob−nを複数のタイムラインLINE−iの各占有領域内に配置し、複数のタイムラインLINE−iに帰属させることも可能である。
The user displays one or more timelines LINE-i and objects ob-n in the display area of the
また、ユーザは、サイズ変更操作によってタイムラインLINE−iのx軸方向の幅やy軸方向の幅を伸縮させたり、拍子指示操作によってタイムラインLINE−i内の拍案内線63−jの数を4本以下や6本以上に増減させたり、グリッド指定操作によってタイムラインLINE−iの拍案内線63−j間のグリッド線gの数を2本以上に増やすこともできる。ユーザは、タイムラインLINE−iが示すフレーズの周期Tを変える操作を行うことなくそのタイムラインLINE−iのx軸方向の幅を大きくする操作を行うことにより、タイムラインLINE−iの占有領域の面積を拡げてその領域内におけるオブジェクトob−nの編集の自由度を高めることができる。 In addition, the user expands or contracts the width in the x-axis direction and the width in the y-axis direction of the timeline LINE-i by the size change operation, or the number of beat guide lines 63-j in the timeline LINE-i by the time signature instruction operation. The number of grid lines g between the beat guide lines 63-j of the timeline LINE-i can be increased to 2 or more by a grid designation operation. The user performs an operation of increasing the width in the x-axis direction of the timeline LINE-i without performing an operation of changing the period T of the phrase indicated by the timeline LINE-i, thereby occupying the area occupied by the timeline LINE-i. The degree of freedom of editing the object ob-n in the area can be increased.
また、ユーザは、パラメータ連動操作を行うことにより、自動演奏時における音素材の発音に関する動作モードを通常モードからパラメータ連動モードに切り換えることができる。ここで、パラメータ連動モードとは、タイムラインLINE−iに属するオブジェクトob−nに対応した音素材を発音させる場合においてその音素材のパラメータ(例えばピッチ、音量、発音タイミングの遅延量)をそのタイムラインLINE−iからそのオブジェクトob−nまでの垂直方向の距離に応じて変化させるモードである。また、通常モードは、タイムラインLINE−iに帰属するオブジェクトob−nが示す音素材のパラメータを変化させずに発音を行うモードである。 Further, the user can switch the operation mode related to the sound material generation during the automatic performance from the normal mode to the parameter interlock mode by performing the parameter interlock operation. Here, the parameter interlocking mode refers to parameters of sound material (for example, pitch, volume, delay amount of sounding timing) when the sound material corresponding to the object ob-n belonging to the timeline LINE-i is sounded. In this mode, the line LINE-i is changed in accordance with the vertical distance from the object ob-n. The normal mode is a mode in which sound is generated without changing the parameters of the sound material indicated by the object ob-n belonging to the timeline LINE-i.
また、ユーザは、必要に応じてオブジェクト複製操作を行うことができる。これは、表示部17の表示領域内に表示されているオブジェクトob−nをその表示領域内に複製する操作である。あるオブジェクトob−nを対象としてオブジェクト複製操作が行われると、オブジェクト管理処理30では、操作の対象であったオブジェクトob−nと同じ形態のオブジェクトob’−nを表示させる。この複製のオブジェクトob’−nは、1個生成することもできるし、複数生成することもできる。ここで、オリジナルのオブジェクトob−nと複製のオブジェクトob’−nは共通の検索条件SC−nおよび検索結果SR−nに対応付けられる。ユーザは、オリジナルのオブジェクトob−nのみならず、複製のオブジェクトob’−nも所望のタイムラインLINE−iに帰属させることができる。ここで、オリジナルのオブジェクトob−nと複製のオブジェクトob’−nは同格であり、かつ、操作に対する運命を共にする。すなわち、CPU22は、オリジナルのオブジェクトob−nと複製のオブジェクトob’−nのいずれかを対象として検索条件指定操作が行われた場合、オリジナルのオブジェクトob−nと複製のオブジェクトob’−nに共通な検索条件SC−nを更新する。
Further, the user can perform an object duplication operation as necessary. This is an operation for copying the object ob-n displayed in the display area of the
ユーザは、以上の各操作により表示部17の表示領域内におけるタイムラインLINE−iとオブジェクトob−nのレイアウトを決定した後、操作部13を使用して演奏開始操作を行う。演奏開始操作が行われると、CPU22は、自動演奏処理34を実行する。この自動演奏処理34では、表示部17の表示領域内に表示されているタイムラインLINE−i(i=1,2…)と各々対応するタイムラインタスクtsk−i(i=1,2…)を立ち上げ、立ち上げたタイムラインタスクtsk−i(i=1,2…)を並列かつ独立に実行する。
The user determines the layout of the timeline LINE-i and the object ob-n in the display area of the
1つのタイムラインLINE−iと対応する1つのタイムラインタスクtsk−iでは、当該タイムラインLINE−iに帰属するオブジェクトob−n(n=1,2…)(すなわち、当該タイムラインLINE−iの占有領域内のオブジェクト)を決定し、当該タイムラインLINE−iに属するオブジェクトob−nが示す音を発音させる制御を周期Tごとに繰り返す。具体的な処理内容は以下の通りである。まず、各タイムラインタスクtsk−iでは、周期Tの間にタイミングポインタ62を当該タイムラインLINE−iの左端から右端まで移動させる操作を周期的に繰り返しつつ、タイミングポインタ62のx座標値を監視する。そして、当該タイムラインLINE−iの占有領域内にある一または複数のオブジェクトob−nのうちいずれかのx座標値(より具体的には、オブジェクトオブジェクトob−nの外延をなす矩形の左上隅のx座標値)とタイミングポインタ62のx座標値が一致すると、そのオブジェクトob−nと対応する音素材を発音させるための処理を行う。
In one timeline task tsk-i corresponding to one timeline LINE-i, an object ob-n (n = 1, 2,...) Belonging to the timeline LINE-i (that is, the timeline LINE-i). And the control for generating the sound indicated by the object ob-n belonging to the timeline LINE-i is repeated every period T. The specific processing contents are as follows. First, in each timeline task tsk-i, the operation of moving the
より具体的には、第1検索設定がなされた状態では、タイムラインタスクtsk−iにおいて、タイムラインLINE−iに属するオブジェクトob−nのx座標値とタイミングポインタ62のx座標値が一致する度に、そのオブジェクトob−nに対応付けられた検索結果SR−nを参照し、この検索結果SR−nを構成する音素材の中から1つをランダムに選択してサウンドシステム91から発音させる。第2検索設定がなされた状態では、タイムラインタスクtsk−iにおいて、タイムラインLINE−iに属するオブジェクトob−nのx座標値とタイミングポインタ62のx座標値が一致するたびに検索処理35を起動し、オブジェクトob−nの検索条件SC−nを検索処理35に引き渡す。そして、検索処理35から返ってくる検索結果SR−nを構成する音素材の中から1つをランダムに選択してサウンドシステム91から発音させる。
More specifically, in the state where the first search setting is made, in the timeline task tsk-i, the x coordinate value of the object ob-n belonging to the timeline LINE-i matches the x coordinate value of the
パラメータ連動モードが指定されている場合には、検索結果SR−nの中から音素材を選択するたびに音加工処理36を起動し、この音加工処理36によりその音素材を加工し、加工した音素材をサウンドシステム91から発音させる。具体的には、音加工処理36では、音素材に対し、パラメータ連動モードに関して事前に指定されたピッチ、音量、発音タイミングの遅延量などのパラメータをタイムラインLINE−iからオブジェクトob−nまでの距離dyに応じて変化させる加工を行う。
When the parameter interlocking mode is designated, the
次に具体例を挙げ、本実施形態においてタイムラインLINE−iとオブジェクトob−nを用いて行われる各種の作曲およびその自動演奏の態様を説明する。 Next, specific examples will be described, and various types of composition performed using the timeline LINE-i and the object ob-n in the present embodiment and modes of automatic performance thereof will be described.
たとえば、図8(A)の配置例では、タイムラインLINE−1の一番左の拍案内線63−1の右隣にオブジェクトob−1があり、左から2番目の拍案内線63−2の右隣にオブジェクトob−2があり、左から3番目の拍案内線63−3の右隣にオブジェクトob−3がある。タイムラインLINE−1およびオブジェクトob−n(n=1〜3)の位置関係をこのようにすると、自動演奏処理34(タイムラインLINE−1に対応したタイムラインタスクtsk−1)では、図8(B)に示すように、周期Tを4等分した時刻t1,t2,t3,t4のうち時刻t1,t2,t3においてオブジェクトob−n(n=1〜3)の各音素材の発音を行う4拍子のフレーズを繰り返す。 For example, in the arrangement example of FIG. 8A, there is an object ob-1 on the right side of the leftmost beat guide line 63-1 of the timeline LINE-1, and the second beat guide line 63-2 from the left. There is an object ob-2 on the right side of, and there is an object ob-3 on the right side of the third beat guide line 63-3 from the left. When the positional relationship between the timeline LINE-1 and the object ob-n (n = 1 to 3) is set as described above, in the automatic performance processing 34 (timeline task tsk-1 corresponding to the timeline LINE-1), FIG. As shown in (B), the sound material of the object ob-n (n = 1 to 3) is pronounced at times t1, t2, t3 among times t1, t2, t3, and t4 obtained by dividing the period T into four equal parts. Repeat the 4-beat phrase to be performed.
図9(A)の配置例は、図8(A)の配置例におけるタイムラインLINE−1の位置を固定したままオブジェクトob−n(n=1〜3)を右に移動させたものである。なお、このようにする代わりに、図8(A)の配置例におけるオブジェクトob−n(n=1〜3)の位置を固定したままタイムラインLINE−1を左に移動させても同様の配置となる。この配置例では、タイムラインLINE−1の拍案内線63−2の右隣にオブジェクトob−1があり、拍案内線63−3の右隣にオブジェクトob−2があり、拍案内線63−4の右隣にオブジェクトob−3がある。タイムラインLINE−1およびオブジェクトob−n(n=1〜3)の位置関係をこのようにすると、自動演奏処理34(タイムラインLINE−1に対応したタイムラインタスクtsk−1)では、図9(B)に示すように、時刻t2,t3,t4においてオブジェクトob−n(n=1〜3)の各音素材の発音を行うフレーズを繰り返す。 In the arrangement example of FIG. 9A, the object ob-n (n = 1 to 3) is moved to the right while the position of the timeline LINE-1 in the arrangement example of FIG. 8A is fixed. . Instead of doing this, the same arrangement is possible even if the timeline LINE-1 is moved to the left while the position of the object ob-n (n = 1 to 3) in the arrangement example of FIG. 8A is fixed. It becomes. In this arrangement example, there is an object ob-1 on the right side of the beat guide line 63-2 on the timeline LINE-1, an object ob-2 on the right side of the beat guide line 63-3, and the beat guide line 63-. There is an object ob-3 on the right of 4. When the positional relationship between the timeline LINE-1 and the object ob-n (n = 1 to 3) is set in this manner, the automatic performance process 34 (timeline task tsk-1 corresponding to the timeline LINE-1) has the configuration shown in FIG. As shown in (B), at time t2, t3, t4, a phrase for sound generation of each sound material of the object ob-n (n = 1 to 3) is repeated.
図10(A)の配置例は、図8(A)の配置例におけるタイムラインLINE−1とオブジェクトob−1の位置を固定したままオブジェクトob−2,ob−3を左に移動させたものである。この配置例では、拍案内線63−1の右隣にオブジェクトob−1があり、拍案内線63−1と拍案内線63−2の間のグリッド線gの右隣にオブジェクトob−2があり、拍案内線63−2の右隣にオブジェクトob−3がある。タイムラインLINE−1およびオブジェクトob−n(n=1〜3)の位置関係をこのようにすると、自動演奏処理34(タイムラインLINE−1に対応したタイムラインタスクtsk−1)では、図10(B)に示すように、時刻t1,(t1+t2)/2,t2においてオブジェクトob−n(n=1〜3)の各音素材の発音を行うフレーズを繰り返す。 In the arrangement example of FIG. 10A, the objects ob-2 and ob-3 are moved to the left while the positions of the timeline LINE-1 and the object ob-1 in the arrangement example of FIG. 8A are fixed. It is. In this arrangement example, the object ob-1 is located on the right side of the beat guide line 63-1, and the object ob-2 is located on the right side of the grid line g between the beat guide line 63-1 and the beat guide line 63-2. There is an object ob-3 right next to the beat guide line 63-2. When the positional relationship between the timeline LINE-1 and the object ob-n (n = 1 to 3) is set in this way, the automatic performance process 34 (timeline task tsk-1 corresponding to the timeline LINE-1) is performed as shown in FIG. As shown in (B), at time t1, (t1 + t2) / 2, t2, a phrase for sounding each sound material of the object ob-n (n = 1 to 3) is repeated.
また、素材配置作業において、ユーザは、表示部17の表示領域内にタイムラインLINE−iを2つ表示させ、同領域内における1または複数のオブジェクトob−nをその2つのタイムラインLINE−iの両方に属するような配置とすることにより、同じ検索結果SR−nの音素材を含む2種類のフレーズを周期的に繰り返す曲を作ることができる。
Further, in the material placement work, the user displays two timelines LINE-i in the display area of the
図11(A)の配置例では、2つのタイムラインLINE−i(i=1,2)の占有領域内に3つのオブジェクトob−n(n=1〜3)があり、タイムラインLINE−1よりもタイムラインLINE−2が左にずれている。そして、タイムラインLINE−1の拍案内線63−1の右隣(タイムラインLINE−2の拍案内線63−2の右隣)にオブジェクトob−1があり、タイムラインLINE−1の拍案内線63−2の右隣(タイムラインLINE−2の拍案内線63−3の右隣)にオブジェクトob−2があり、タイムラインLINE−1の拍案内線63−3の右隣(タイムラインLINE−2の拍案内線63−4の右隣)にオブジェクトob−3がある。 In the arrangement example of FIG. 11A, there are three objects ob-n (n = 1 to 3) in the occupied area of two timelines LINE-i (i = 1, 2), and timeline LINE-1 Rather than the timeline LINE-2. Then, there is an object ob-1 on the right side of the beat guide line 63-1 of the timeline LINE-1 (right next to the beat guide line 63-2 of the timeline LINE-2), and the beat guide of the timeline LINE-1 There is an object ob-2 on the right side of the line 63-2 (right next to the beat guide line 63-3 on the timeline LINE-2), and right next to the beat guide line 63-3 on the timeline LINE-1 (timeline). There is an object ob-3 on the right side of the beat guide line 63-4 of LINE-2.
タイムラインLINE−i(i=1,2)およびオブジェクトob−n(n=1〜3)の位置関係をこのようにすると、自動演奏処理34において、タイムラインLINE−1に対応したタイムラインタスクtsk−1では、図11(B)に示すように、周期Tを4等分した時刻t1,t2,t3,t4のうち時刻t1,t2,t3においてオブジェクトob−n(n=1〜3)の各音素材の発音を行う4拍子のフレーズを繰り返す。また、タイムラインLINE−2に対応したタイムラインタスクtsk−2では、図11(B)に示すように、時刻t2,t3、t4においてオブジェクトob−n(n=1〜3)の各音素材の発音を行う4拍子のフレーズを繰り返す。 When the positional relationship between the timeline LINE-i (i = 1, 2) and the object ob-n (n = 1-3) is set as described above, the timeline task corresponding to the timeline LINE-1 is obtained in the automatic performance processing 34. At tsk−1, as shown in FIG. 11B, the object ob-n (n = 1 to 3) at the times t1, t2, and t3 among the times t1, t2, t3, and t4 obtained by equally dividing the period T into four. Repeat the 4-beat phrase that produces each sound material. In the timeline task tsk-2 corresponding to the timeline LINE-2, as shown in FIG. 11B, each sound material of the object ob-n (n = 1 to 3) at time t2, t3, and t4. Repeat the 4-beat phrase that pronounces.
また、素材配置作業において、ユーザは、動作モードをパラメータ連動モードとし、タイムラインLINE−iの占有領域内における複数のオブジェクトob−nの各々とタイムラインLINE−iの距離を変えることにより、1つのフレーズをなす各音の間に強弱をつけた曲を作ることができる。 In the material placement work, the user changes the distance between each of the objects ob-n and the timeline LINE-i within the occupied area of the timeline LINE-i by setting the operation mode to the parameter interlocking mode. You can create a song with strength between the sounds that make up one phrase.
図12(A)の配置例は、図8(A)の配置例における拍案内線63−2の右隣のオブジェクトob−2をその拍案内線63−2の下端付近まで下に移動させたものである。ここで、パラメータ連動モードが指定され、かつ、音量が連動対象のパラメータとなっている状況において、自動演奏処理34を実行させるとする。この場合、タイムラインLINE−1およびオブジェクトob−n(n=1〜3)の位置関係が図12(A)に示すようになっているため、自動演奏処理34(タイムラインLINE−1に対応したタイムラインタスクtsk−1)において起動される音加工処理36では、タイムラインLINE−1の近くにあるオブジェクトob−1およびob−3の各音素材は音量が大きくされ、タイムラインLINE−1から遠くにあるオブジェクトob−2の音素材は音量が小さくされる。この結果、図12(B)に示すように、周期Tを4等分した時刻t1,t2,t3,t4のうち時刻t1,t2,t3においてオブジェクトob−n(n=1〜3)の各音素材を強→弱→強という強弱で発音するフレーズが繰り返される。
In the arrangement example of FIG. 12A, the object ob-2 on the right side of the beat guide line 63-2 in the arrangement example of FIG. 8A is moved down to the vicinity of the lower end of the beat guide line 63-2. Is. Here, it is assumed that the automatic performance processing 34 is executed in a situation where the parameter interlocking mode is designated and the volume is a parameter to be interlocked. In this case, since the positional relationship between the timeline LINE-1 and the object ob-n (n = 1 to 3) is as shown in FIG. 12A, the automatic performance process 34 (corresponding to the timeline LINE-1). In the
また、素材配置作業において、ユーザは、表示領域内における1または複数のオブジェクトob−nを2つのタイムラインLINE−iの両方に属するような配置とし、その一方のタイムラインLINE−iのx軸方向の幅を縮小または拡大することにより、同じ検索結果SR−nの音素材を含みながら周期T内における各々の発音タイミングを異にする2種類のフレーズからなる曲を作ることができる。 In the material placement work, the user places one or more objects ob-n in the display area so as to belong to both of the two timelines LINE-i, and the x-axis of one timeline LINE-i. By reducing or enlarging the width of the direction, it is possible to create a song composed of two types of phrases having different sounding timings within the period T while including the sound material of the same search result SR-n.
図13(A)の配置例は、図11(A)におけるタイムラインLINE−2のx軸方向の幅を半分に縮め、タイムラインLINE−i(i=1,2)の拍案内線63−1同士が重なるように各々のx軸方向の位置を調整したものである。この配置例では、タイムラインLINE−1の拍案内線63−3の右隣(タイムラインLINE−2の一番右の拍案内線63−5の右隣)のオブジェクトob−3はタイムラインLINE−1にだけに属するものとなっている。また、タイムラインLINE−2は、表示領域内におけるx軸方向の長さがタイムラインLINE−1の半分になっているものの、タイムラインLINE−2が示すフレーズの周期TはタイムラインLINE−1が示すフレーズの周期Tと変わらない。 In the arrangement example of FIG. 13A, the width in the x-axis direction of the timeline LINE-2 in FIG. 11A is reduced by half, and the beat guide line 63- of the timeline LINE-i (i = 1, 2) is obtained. The positions in the x-axis direction are adjusted so that the ones overlap each other. In this arrangement example, the object ob-3 right next to the beat guide line 63-3 of the timeline LINE-1 (right next to the rightmost beat guide line 63-5 of the timeline LINE-2) is the timeline LINE. Belongs to only -1. The timeline LINE-2 has a length in the x-axis direction in the display area that is half that of the timeline LINE-1, but the period T of the phrase indicated by the timeline LINE-2 is the timeline LINE-1. Is the same as the period T of the phrase indicated by.
タイムラインLINE−i(i=1,2)およびオブジェクトob−n(n=1〜3)の位置関係をこのようにすると、自動演奏処理34においてタイムラインLINE−1に対応したタイムラインタスクtsk−1では、図13(B)に示すように、周期Tを4等分した時刻t1,t2,t3,t4のうち時刻t1,t2,t3においてオブジェクトob−1、ob−2およびob−3の各音素材を発音するフレーズを繰り返す。また、タイムラインLINE−2に対応したタイムラインタスクtsk−2では、図13(B)に示すように、時刻t1,t3においてオブジェクトob−1およびob−2の各音素材を発音するフレーズを繰り返す。 When the positional relationship between the timeline LINE-i (i = 1, 2) and the object ob-n (n = 1-3) is set in this way, the timeline task tsk corresponding to the timeline LINE-1 in the automatic performance processing 34. −1, as shown in FIG. 13B, the objects ob-1, ob-2, and ob-3 at the times t1, t2, and t3 among the times t1, t2, t3, and t4 obtained by dividing the period T into four equal parts. Repeat the phrase that pronounces each sound material. Further, in the timeline task tsk-2 corresponding to the timeline LINE-2, as shown in FIG. 13B, phrases that generate the sound materials of the objects ob-1 and ob-2 at times t1 and t3 are displayed. repeat.
また、素材配置作業において、ユーザは、表示領域内における1または複数のオブジェクトob−nを2つのタイムラインLINE−iの両方に属するような配置とし、その一方のタイムラインLINE−iの拍数の設定を変更して拍案内線63−jの数を減らしたり増やすことにより、同じ検索結果SR−nの音素材を含みながら周期Tや拍子を異にする2種類のフレーズを組み合わせた複合リズム(ポリリズム)の曲を作ることができる。 In the material placement work, the user places one or more objects ob-n in the display area so as to belong to both of the two timelines LINE-i, and the number of beats of one timeline LINE-i. By changing the setting of the number of beat guide lines 63-j to reduce or increase the number of beat guide lines 63-j, combined rhythm that combines two phrases with different periods T and time signatures while including the sound material of the same search result SR-n (Polyrhythm) songs can be made.
図14(A)の配置例において、タイムラインLINE−1およびLINE−2は、表示領域内において水平方向の長さが同じであり、拍案内線63−1同士が重なるように各々のx軸方向の位置が調整されている。ここで、タイムラインLINE−1の左端と右端の間を4等分した位置には拍案内線63−2,63−3,63−4がある。また、タイムラインLINE−2の拍案内線の本数はタイムラインLINE−1よりも1本少なく、タイムラインLINE−2の左端と右端の間を3等分した位置に拍案内線63−2,63−3がある。そして、タイムラインLINE−2が示すフレーズの周期T’はタイムラインLINE−1が示すフレーズの周期Tの3/4の長さになっている。オブジェクトob−1は、タイムラインLINE−1およびLINE−2の両方に属しており、タイムラインLINE−1およびLINE−2の各拍案内線63−1の右側に位置している。 In the arrangement example of FIG. 14A, the timelines LINE-1 and LINE-2 have the same horizontal length in the display area, and the respective x-axes so that the beat guide lines 63-1 overlap each other. The position of the direction has been adjusted. Here, there are beat guide lines 63-2, 63-3, 63-4 at positions obtained by equally dividing the left end and the right end of the timeline LINE-1 into four. In addition, the number of beat guide lines of the time line LINE-2 is one less than that of the time line LINE-1, and the beat guide lines 63-2, 63-2, 63-2, 63, 63-3. The period T ′ of the phrase indicated by the timeline LINE-2 is ¾ of the period T of the phrase indicated by the timeline LINE-1. The object ob-1 belongs to both of the timelines LINE-1 and LINE-2, and is located on the right side of each beat guide line 63-1 of the timelines LINE-1 and LINE-2.
このような状況において、自動演奏処理34を実行させると、自動演奏処理34においてタイムラインLINE−1に対応したタイムラインタスクtsk−1では、図14(B)に示すように、周期Tを4等分した時刻t1,t2,t3,t4のうち時刻t1においてオブジェクトob−1の音素材を発音する4拍子のフレーズを繰り返す。また、タイムラインLINE−2に対応したタイムラインタスクtsk−2では、図14(B)に示すように、周期Tの3/4の長さの周期T’を3等分した時刻t1’,t2’,t3’のうち時刻t1’においてオブジェクトob−1の音素材を発音する3拍子のフレーズを繰り返す。 In this situation, when the automatic performance process 34 is executed, in the timeline task tsk-1 corresponding to the timeline LINE-1 in the automatic performance process 34, as shown in FIG. Of the equally divided times t1, t2, t3, and t4, a four-beat phrase that repeats the sound material of the object ob-1 at the time t1 is repeated. In the timeline task tsk-2 corresponding to the timeline LINE-2, as shown in FIG. 14B, the time t1 ′ obtained by dividing the period T ′, which is 3/4 of the period T, into three equal parts. Of t2 ′ and t3 ′, the three-beat phrase that repeats the sound material of the object ob-1 at time t1 ′ is repeated.
本実施形態において、ユーザは、自動演奏処理34の実行中にタイムラインLINE−iを移動させることが可能である。このタイムライン位置変更操作が行われると、タイムライン管理処理31では、操作されたタイムラインLINE−iの位置に関する情報を更新する。自動演奏処理34では、このタイムライン位置変更操作に応じて時々刻々と更新されるタイムラインLINE−iの位置に関する情報が参照される。図15(A)に示す例では、パラメータ連動モードが指定されており、かつ、連動対象のパラメータとして音量が指定されている。このため、図15(A)に示すように、オブジェクトob−1の位置を変えずにタイムラインLINE−1を上に移動させてオブジェクトob−1から遠ざけると、自動演奏処理34において起動される音加工処理36の結果、図15(B)に示すように、発音されるオブジェクトob−1の音素材の音量が徐々に小さくなってゆく。パラメータ連動モードにおける連動対象のパラメータとして発音タイミングの遅延量を指定した場合には、自動演奏中にタイムラインLINE−1の位置を上方向に移動させると、そのタイムラインLINE−1の上方向への移動量に応じてオブジェクトob−1の音素材の発音タイミングを遅延させる擬似ディレイ効果を得ることができる。
In the present embodiment, the user can move the timeline LINE-i during execution of the automatic performance process 34. When this timeline position change operation is performed, the
以上の説明から明らかなように、表示部17に表示されたタイムラインおよびオブジェクトの各々の内容と各々の位置関係により自動演奏される曲の内容が定まる。すなわち、表示部17に表示されたタイムラインおよびオブジェクトのレイアウト情報は曲データとしての役割を果たす。本実施形態では、この曲データの再利用を可能にするための手段が設けられている。さらに詳述すると、ユーザは、素材配置作業を中断するときに、操作部13を使用してレイアウト保存操作を行うことができる。このレイアウト保存操作が行われると、作曲情報管理処理32では、表示部17の表示領域内のタイムラインおよびオブジェクトのレイアウト情報をハードディスク25に保存する。このレイアウト情報は、表示領域内におけるタイムラインLINE−i(i=1,2…)とオブジェクトob−n(n=1,2…)の各々の位置(x座標値.y座標値)を示す配置情報とそれらのオブジェクトob−n(n=1,2…)のオブジェクト管理情報(検索条件SC−nおよび検索結果SR−n)のセットである。
As is clear from the above description, the contents of the music played automatically are determined by the contents of each of the timeline and objects displayed on the
また、ユーザは、作業を再開するときに操作部13を使用してレイアウト読出操作を行うことができる。このレイアウト読出操作が行われると、作曲情報管理処理32では、ハードディスク25に記憶されたレイアウト情報を読み出し、読み出したレイアウト情報からタイムラインおよびオブジェクトの配置情報とオブジェクト管理情報を取り出す。そして、作曲情報管理処理32では、配置情報が示す位置にタイムラインLINE−i(i=1,2…)とオブジェクトob−n(n=1,2…)を表示させるとともに、オブジェクト管理情報に含まれる特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEと要検索数Numを検索条件SC−nとしてRAM23に書き込む。この状態において、ユーザは、タイムライン移動操作やオブジェクト移動操作によって、表示部17の表示領域内に復元されたタイムラインLINE−i(i=1,2…)とオブジェクトob−n(n=1,2…)のレイアウトをさらに変更することができる。曲データであるレイアウト情報は、それが作成された音検索・演奏装置10以外の音検索・演奏装置10に転送して利用することも可能である。この場合、転送元と転送先とで曲データベース26や音素材データベース27,28の内容が異なっていると、曲データに基づく自動演奏の内容が転送元と転送先とで異なったものとなる。曲データ中に含まれるオブジェクトに基づいて検索される音素材が転送元と転送先とで異なったものになる可能性があるからである。
In addition, the user can perform a layout read operation using the
また、本実施形態において、ユーザは、所望の時間を空けて、操作部13を使用してログ記録開始操作とログ記録終了操作を行うことができる。ログ記録開始操作が行われると、操作ログ管理処理37では、以後、ログ記録終了操作が行われるまでの間、表示領域内におけるタイムラインLINE−i(i=1,2…)とオブジェクトob−n(n=1,2…)の各々の動きを示すシーケンスデータを生成し、それらのシーケンスデータのセットをログ情報としてハードディスク25に記憶する。そして、ユーザが操作部13を使用してログ再生操作を行うと、操作ログ管理処理37では、ハードディスク25に記憶されたログ情報を読み出し、そのログ情報をなす各シーケンスデータに従って、表示領域内におけるタイムラインLINE−i(i=1,2…)とオブジェクトob−n(n=1,2…)の各々の動きを再現する。
In the present embodiment, the user can perform a log recording start operation and a log recording end operation using the
以上説明した本実施形態によると、以下の効果が得られる。
上記実施形態では、音検索・演奏プログラム29は、操作部13の操作に応じて、表示部17の表示領域内におけるオブジェクトob−nが示す音素材の検索条件SC−nとそのオブジェクトob−nの形態とを連動させて変化させる。よって、ユーザは、オブジェクトob−nの形態からそのオブジェクトob−nについて自らが指定している検索条件SC−nを把握することができ、自らのイメージにマッチした音素材の検索をより簡単に行うことができる。また、ユーザは、後刻、オブジェクトob−nを見たとき、そのオブジェクトob−nの形態からそのオブジェクトob−nが示す音素材の特徴あるいはそのオブジェクトob−nについて指定した音素材の検索条件SC−nを容易に想像することができる。
According to this embodiment described above, the following effects can be obtained.
In the above-described embodiment, the sound search / performance program 29 responds to the operation of the
また、上記実施形態では、音検索・演奏プログラム29は、表示部17の表示領域内に複数のタイムラインLINE−iが表示されている場合は、その複数のタイムラインLINE−iの各々に対応した複数の種類のフレーズを時間軸上で重ね合わせた曲を発音させる。そして、表示領域内におけるあるオブジェクトob−nが複数のタイムラインLINE−iに属する場合は、複数のタイムラインLINE−iのx軸方向におけるそのオブジェクトob−nの位置に応じた時刻を、複数のフレーズの各々におけるそのオブジェクトob−nに応じた音の発音タイミングとする。よって、ユーザは、表示部17の表示領域内におけるタイムラインLINE−iとオブジェクトob−nを、1つまたは複数のオブジェクトob−nが複数のタイムラインLINE−iに属するような位置関係とすることにより、複数の周期のフレーズを時間軸上で重ね合わせた曲を作ることができる。
In the above embodiment, the sound search / performance program 29 corresponds to each of the plurality of timelines LINE-i when a plurality of timelines LINE-i are displayed in the display area of the
また、ユーザは、オブジェクト保存操作によってハードディスク25に保存したオブジェクト管理情報、レイアウト保存操作によってハードディスク25に保存したレイアウト情報、ログ記録開始操作とログ記録終了操作によってハードディスク25に保存したログ情報などを、音検索・演奏プログラム29をインストールした他のコンピュータのハードディスク25にコピーし、そのコンピュータを用いて素材配置作業を続けることもできる。
The user also stores object management information saved in the
また、ユーザは、素材配置作業の途中で、それまで曲データベース26に記憶されていた曲データmd−k(k=1,2…)以外の曲データmd’−k(k=1,2…)とそれらの曲データmd’−k(k=1,2…)の解析結果であるレコード群を他のユーザから取得して曲データベース26と音素材データベース27,28に各々記憶させ、以後の作業を続けることもできる。表示部17の表示領域内のオブジェクトob−nの形態として指定している検索条件SC−nが同じであっても、検索の対象となる曲データベース26や音素材データベース27,28の収録内容が変われば、その検索結果SR−nとして得られる音素材も変わる。よって、ユーザは、表示部17の表示領域内におけるオブジェクトob−nとタイムラインLINE−iのレイアウトを変えずに曲データベース26と音素材データベース27,28の収録内容を変えることにより、周期Tごとに繰り返すフレーズの各音の発音タイミングは同じで各音の聞こえ方を微妙に変えた曲を作ることができる。
Further, during the material arrangement work, the user sets music data md′-k (k = 1, 2,...) Other than the music data md-k (k = 1, 2...) Stored in the
以上、この発明の一実施形態について説明したが、この発明には他にも実施形態があり得る。例えば、以下の通りである。
(1)上記実施形態において、CPU22は、表示部17の表示領域内にあるオブジェクトob−nが複製された場合、複製したオブジェクトob’−nが示す音の発音態様を決めるパラメータと複製元のオブジェクトob−nが示す音の発音態様を決めるパラメータを対応して制御するようにしてもよい。
(2)上記実施形態では、曲データmd−k(k=1,2…)に含まれる音素材のうちエッジ音とダスト音の音素材を、オブジェクトob−nが示す音として発音させた。しかし、エッジ音やダスト音以外の、音の特徴から分類できる音の単位全般の音素材を発音させてもよい。
Although one embodiment of the present invention has been described above, the present invention may have other embodiments. For example, it is as follows.
(1) In the embodiment described above, when the object ob-n in the display area of the
(2) In the above embodiment, the sound material of the edge sound and the dust sound among the sound materials included in the music data md-k (k = 1, 2,...) Is generated as the sound indicated by the object ob-n. However, sound materials in general sound units other than edge sounds and dust sounds that can be classified from sound characteristics may be generated.
(3)上記実施形態では、タイムラインLINE−iとオブジェクトob−nの位置関係に基づいて、各タイムラインLINE−iに属するオブジェクトob−nを決定するようにしたが、タイムラインLINE−iとオブジェクトob−nとの帰属関係を決定する方法はこれに限定されるものではない。例えば、タイムラインLINE−iとオブジェクトob−nが表示された状態において、マウス14等のポインティングデバイスの操作により1つのタイムラインLINE−iに帰属させる1または複数オブジェクトob−nを逐一指示させ、あるいは1つのタイムラインLINE−iに帰属させる1または複数のオブジェクトob−nを囲む曲線を描かせる操作を行わせることにより各タイムラインLINE−iに属するオブジェクトob−nを決定するようにしてもよい。
(3) In the above embodiment, the object ob-n belonging to each timeline LINE-i is determined based on the positional relationship between the timeline LINE-i and the object ob-n, but the timeline LINE-i The method for determining the belonging relationship between the object ob-n and the object ob-n is not limited to this. For example, in a state where the timeline LINE-i and the object ob-n are displayed, one or more objects ob-n to be attributed to one timeline LINE-i are instructed one by one by operating a pointing device such as the
(4)上記実施形態において、オブジェクトob−nの形状は、円形、多角形、自由図形などであってもよい。この場合において、それらのオブジェクトob−nの形状の変更に対応させて検索条件SC−nを変化させてもよい。たとえば、オブジェクトob−nを五角形の形状とし、その中心から5つの頂点の各々までの長さに応じて、特徴量Pや要検索数Numといった5種類の検索条件SC−nを個別に制御するようにしてもよい。 (4) In the above embodiment, the shape of the object ob-n may be a circle, a polygon, a free figure, or the like. In this case, the search condition SC-n may be changed corresponding to the change in the shape of the object ob-n. For example, the object ob-n has a pentagonal shape, and five types of search conditions SC-n such as the feature amount P and the number of search required Num are individually controlled according to the length from the center to each of the five vertices. You may do it.
(5)上記実施形態における検索条件指定操作では、オブジェクトob−nの表示色の濃淡を変化させたが、表示色の色彩を変化させてもよい。
(6)上記実施形態において、CPU22は、操作部13の操作に応じて、表示部17の表示領域内に表示されたタイムラインLINE−i(i=1,2…)が示すフレーズの各々における小節数や拍子を設定するようにしてもよい。この場合において、CPU22は、タイムラインLINE−iが示すフレーズの拍子に対応させてそのライムラインLINE−iの拍案内線63−j(j=1,2…)の数を増減するとよい。
(5) In the search condition designation operation in the above embodiment, the shade of the display color of the object ob-n is changed, but the color of the display color may be changed.
(6) In the above embodiment, the
(7)上記実施形態において、CPU22は、操作部13の操作に応じて、タイムラインLINE−i(i=1,2…)が示すフレーズの各々におけるテンポを決めるパラメータ(たとえば、BPM(Beats Per Minute ))を設定してもよい。また、CPU22は、操作部13の操作に応じて、タイムラインLINE−i(i=1,2…)が示すフレーズの各々における1拍あたりの時間長を決めるパラメータ(たとえば、タイムベース(分解能))を設定してもよい。
(7) In the above embodiment, the
(8)上記実施形態において、CPU22は、1つのタイムラインLINE−iと対応する1つのタイムラインタスクtsk−iでは、当該タイムラインLINE−iの占有領域内にあるオブジェクトob−nの左上隅のx座標値とタイミングポインタ62のx座標値が一致したときに、そのオブジェクトob−nと対応する音素材を発音させた。しかし、オブジェクトob−nの中心、左下隅、右上隅、右下隅などの他の位置のx座標値とタイミングポインタ62のx座標値が一致したときに、そのオブジェクトob−nと対応する音素材を発音させてもよい。
(8) In the above embodiment, in one timeline task tsk-i corresponding to one timeline LINE-i, the
(9)上記実施形態では、CPU22は、タイムラインLINE−iにおける拍案内線63−j(j=1,2…)の数に関わらず、オブジェクト出現操作によって指定されたタイムラインLINE−i内の任意の位置にオブジェクトob−nを出現させた。しかし、CPU22は、タイムラインLINE−i内に出現させたオブジェクトob−nの位置をそのx座標値(たとえば、オブジェクトob−nの左上隅のx座標値)と直近の拍案内線63−jのx座標値とが一致するように補正するクオンタイズ制御を行ってもよい。
(9) In the embodiment described above, the
(10)上記実施形態において、タイムラインLINE−iは、水平方向に延びた直線画像であった。しかし、タイムランLINE−iは、曲線(閉曲線を含む)であってもよい。
(11)上記実施形態において、タイムランLINE−i内のタイミングポインタ62は、タイムランLINE−iの左端から右端までの軌道を等速に移動する必要はない。たとえば、タイミングポインタ62を、タイムランLINE−iの左端から右端までの軌道上のある区間を拡大、縮小したように移動させてもよい。
(10) In the above embodiment, the timeline LINE-i is a linear image extending in the horizontal direction. However, the time run LINE-i may be a curve (including a closed curve).
(11) In the above embodiment, the
(12)上記実施形態における音加工処理36では、CPU22は、ピッチ、音量、発音タイミングの遅延量などのパラメータを変化させた。しかし、CPU22は、音加工処理36では、リバーブ処理やイコライザ処理などを行い、これらの処理内容を決定づけるパラメータをタイムラインLINE−iからオブジェクトob−nまでの距離dyに応じて変化させてもよい。
(12) In the
(13)上記実施形態では、CPU22は、パラメータ連動モードが指定されている場合、タイムラインLINE−iからオブジェクトob−nまでの距離dyに応じて、そのオブジェクトob−nと対応する音素材のピッチ、音量、発音タイミングの遅延量などを変化させた。しかし、CPU22は、タイムラインLINE−iからオブジェクトob−nまでの距離dyが大きいほど、そのオブジェクトob−nと対応する検索結果SR−nを構成する複数の音素材の中のより低いピッチをもった音素材を選択し、タイムラインLINE−iからオブジェクトob−nまでの距離dyが小さいほど、そのオブジェクトob−nと対応する検索結果SR−nを構成する複数の音素材の中のより高いピッチをもった音素材を選択する、といった制御を行ってもよい。
(13) In the above embodiment,
(14)上記実施形態における操作ログ管理処理37では、CPU22は、マニュアル演奏操作に従って表示領域内のオブジェクトob−nと対応づけられた音素材を発音させるたびに、発音させた音素材とその発音時刻の対をシーケンスデータ化し、このシーケンスデータをオブジェクトob−nのオブジェクト管理情報に含めるようにしてもよい。
(14) In the operation
(15)上記実施形態において、CPU22は、表示部17の表示領域内に表示されているタイムラインLINE−iとそのタイムラインLINE−iに帰属する一または複数のオブジェクトob−nとの位置関係に従って生成されるフレーズをシーケンスデータ化し、このシーケンスデータを新たなオブジェクトob−n(たとえば、オブジェクトob−10とする)と対応づけてもよい。そして、そのオブジェクトob−10を別のタイムラインLINE−i(たとえば、タイムラインLINE−20とする)に帰属させた場合に、オブジェクトob−10とタイムラインLINE−20との位置関係によって決まる発音タイミングにおいてオブジェクトob−10と対応づけられているシーケンスデータを再生するようにするとよい。
(15) In the above embodiment, the
(16)上記実施形態において、CPU22は、表示部17の表示領域内におけるタイムラインLINE−iの位置が上にあるほどタイミングポインタ62の移動の速度を速くし、タイムラインLINE−iの位置が下にあるほどタイミングポインタ62の移動の速度を遅くする、といった制御を行ってもよい。また、表示部17の表示領域内に配置されたオブジェクトob−nをあたかも落下しているかのように上から下に向かって移動させ、重力などを定義するパラメータの設定に従ってその移動の速度を制御してもよい。
(16) In the above embodiment, the
(17)上記実施形態において、オブジェクトob−nは音素材の検索条件SR−nを示す画像であり、1つのタイムラインLINE−iと対応する1つのタイムラインタスクtsk−iでは、CPU22は、タイムラインLINE−iに属するオブジェクトob−nのx座標値とタイミングポインタ62のx座標値が一致したとき、そのオブジェクトob−nの検索条件SR−nに従った検索結果SR−nを構成する複数の音素材の中の一つを選択してサウンドシステム91から発音させた。しかし、オブジェクトob−nを発音対象とする一または複数の音素材そのものを示す画像としてもよい。この態様では、オブジェクトob−n(n=1,2…)の各々と一又は複数の音素材とを予め対応づけておく。そして、1つのタイムラインLINE−iと対応する1つのタイムラインタスクtsk−iでは、CPU22は、タイムラインLINE−iに属するオブジェクトob−nのx座標値とタイミングポインタ62のx座標値が一致したとき、そのオブジェクトob−nと対応づけられている音素材をサウンドシステム91から発音させる。
(17) In the above embodiment, the object ob-n is an image showing the sound material search condition SR-n. In one timeline task tsk-i corresponding to one timeline LINE-i, the
(18)上記実施形態は、本発明を、ループシーケンサに類するアプリケーションプログラムに適用したものであった。しかし、本発明は、ループシーケンサ以外のシーケンサにも適用可能である。たとえば、テンポや拍子などを異ならせた複数のタイムラインLINE−i(i=1,2…)であって各々が一曲分の演奏時間に相当するタイムラインLINE−i(i=1,2…)を表示部17の表示領域内に表示させ、それらの複数のタイムラインLINE−i(i=1,2…)が1または複数のオブジェクトob−nを共有するように各々の位置を指定してもよい。また、1曲分の演奏時間に相当するタイムラインLINE−1とその1曲分の演奏時間の間に繰り返すフレーズの周期Tに相当するタイムラインLINE−2とを表示部17の表示領域内に表示させ、それらのタイムラインLINE−1、LINE−2が1または複数のオブジェクトob−nを共有するように各々の位置を指定してもよい。
(18) In the above embodiment, the present invention is applied to an application program similar to a loop sequencer. However, the present invention can be applied to a sequencer other than the loop sequencer. For example, a plurality of timelines LINE-i (i = 1, 2,...) Having different tempos, time signatures, etc., each corresponding to a performance time for one song, LINE-i (i = 1, 2). ...) Are displayed in the display area of the
10…音検索・演奏装置、11…インターフェース、13…操作部、14…マウス、15…キーボード、16…ドラムパッド、17…表示部、20…制御部、22…CPU、23…RAM、24…ROM、25…ハードディスク、26…曲データベース、27,28…音素材データベース、29…音検索・演奏プログラム、91…サウンドシステム。
DESCRIPTION OF SYMBOLS 10 ... Sound search and performance apparatus, 11 ... Interface, 13 ... Operation part, 14 ... Mouse, 15 ... Keyboard, 16 ... Drum pad, 17 ... Display part, 20 ... Control part, 22 ... CPU, 23 ... RAM, 24 ... ROM, 25 ... Hard disk, 26 ... Music database, 27, 28 ... Sound material database, 29 ... Sound search / performance program, 91 ... Sound system.
Claims (4)
操作手段と、
表示手段と、
音素材の特徴量の検索条件を示す画像であるオブジェクトを前記表示手段に表示させ、前記操作手段の操作に応じて、前記オブジェクトの形態と前記オブジェクトが示す特徴量の検索条件とを対応させて変化させ、前記記憶手段に記憶された音素材の中から、前記検索条件が示す特徴量に近い特徴量を有する音素材を検索する制御手段と
を具備することを特徴とする音検索装置。 Storage means for storing each sound material and a plurality of types of feature data indicating the feature values of the sound material in association with each other;
Operation means;
Display means;
An object, which is an image showing a search condition for a feature value of sound material, is displayed on the display means, and the form of the object and the search condition for the feature value indicated by the object are associated with each other according to the operation of the operation means. A sound search apparatus comprising: control means for searching for a sound material having a feature value close to the feature value indicated by the search condition from among the sound materials stored in the storage means.
前記制御手段は、
前記操作手段の操作に応じて、前記オブジェクトの形態と、前記オブジェクトが示す特徴量および要検索数の検索条件とを対応させて変化させ、前記記憶手段に記憶された音素材の中から、前記検索条件が示す特徴量に近い特徴量を有する音素材を前記検索条件が示す要検索数と同じ数だけ検索する
ことを特徴とする請求項1に記載の音検索装置。 The object is an image showing a search condition for the feature amount of the sound material and the number of search required,
The control means includes
In accordance with the operation of the operation means, the form of the object, the feature amount indicated by the object, and the search conditions for the number of search required are changed correspondingly, and from the sound material stored in the storage means, The sound search device according to claim 1, wherein the sound material having a feature amount close to the feature amount indicated by the search condition is searched in the same number as the number of search required indicated by the search condition.
ことを特徴とする請求項4に記載の演奏装置。 The control means duplicates an object in the display area of the display means in the display area in accordance with an operation of the operation means, a search condition indicated by the duplicated object in the display area, and an object of the duplication source 5. The performance device according to claim 4, wherein the search condition indicated by is updated in common.
各音素材とそれらの音素材の特徴量を示す複数種類の特徴量データとを対応づけて記憶する記憶手段と、
音素材の特徴量の検索条件を示す画像であるオブジェクトを表示手段に表示させ、操作手段の操作に応じて、前記オブジェクトの形態と前記オブジェクトが示す特徴量の検索条件とを対応させて変化させ、前記記憶手段に記憶された音素材の中から、前記検索条件が示す特徴量に近い特徴量を有する音素材を検索する制御手段と
を実現させるプログラム。 On the computer,
Storage means for storing each sound material and a plurality of types of feature data indicating the feature values of the sound material in association with each other;
An object, which is an image indicating a search condition for the feature amount of the sound material, is displayed on the display means, and the form of the object and the search condition for the feature quantity indicated by the object are changed in accordance with the operation of the operation means. And a control unit that searches the sound material stored in the storage unit for a sound material having a feature value close to the feature value indicated by the search condition.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009093978A JP5532659B2 (en) | 2009-04-08 | 2009-04-08 | Sound search apparatus and program |
EP20100158620 EP2239727A1 (en) | 2009-04-08 | 2010-03-31 | Musical performance apparatus and program |
US12/755,265 US9123318B2 (en) | 2009-04-08 | 2010-04-06 | Object based musical composition performance apparatus and program |
CN2010101455650A CN101859559B (en) | 2009-04-08 | 2010-04-08 | Musical performance apparatus and operation method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009093978A JP5532659B2 (en) | 2009-04-08 | 2009-04-08 | Sound search apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010243892A true JP2010243892A (en) | 2010-10-28 |
JP5532659B2 JP5532659B2 (en) | 2014-06-25 |
Family
ID=43096957
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009093978A Expired - Fee Related JP5532659B2 (en) | 2009-04-08 | 2009-04-08 | Sound search apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5532659B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013054228A (en) * | 2011-09-05 | 2013-03-21 | Yamaha Corp | Sound source controller and sound source control program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06175661A (en) * | 1992-12-10 | 1994-06-24 | Yamaha Corp | Electronic musical instrument |
JP2007071903A (en) * | 2005-09-02 | 2007-03-22 | Yamaha Corp | Musical piece creation support device |
JP2007121935A (en) * | 2005-10-31 | 2007-05-17 | Yamaha Corp | Method and system for editing music material |
JP2008164932A (en) * | 2006-12-28 | 2008-07-17 | Sony Corp | Music editing device and method, and program |
JP2008225200A (en) * | 2007-03-14 | 2008-09-25 | Yamaha Corp | Music editing device and program |
JP2009025402A (en) * | 2007-07-17 | 2009-02-05 | Yamaha Corp | Music piece processing apparatus and program |
-
2009
- 2009-04-08 JP JP2009093978A patent/JP5532659B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06175661A (en) * | 1992-12-10 | 1994-06-24 | Yamaha Corp | Electronic musical instrument |
JP2007071903A (en) * | 2005-09-02 | 2007-03-22 | Yamaha Corp | Musical piece creation support device |
JP2007121935A (en) * | 2005-10-31 | 2007-05-17 | Yamaha Corp | Method and system for editing music material |
JP2008164932A (en) * | 2006-12-28 | 2008-07-17 | Sony Corp | Music editing device and method, and program |
JP2008225200A (en) * | 2007-03-14 | 2008-09-25 | Yamaha Corp | Music editing device and program |
JP2009025402A (en) * | 2007-07-17 | 2009-02-05 | Yamaha Corp | Music piece processing apparatus and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013054228A (en) * | 2011-09-05 | 2013-03-21 | Yamaha Corp | Sound source controller and sound source control program |
Also Published As
Publication number | Publication date |
---|---|
JP5532659B2 (en) | 2014-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9123318B2 (en) | Object based musical composition performance apparatus and program | |
JP5842545B2 (en) | SOUND CONTROL DEVICE, SOUND CONTROL SYSTEM, PROGRAM, AND SOUND CONTROL METHOD | |
JP3686906B2 (en) | Music game program and music game apparatus | |
US7514622B2 (en) | Musical sound production apparatus and musical | |
JPWO2005093529A1 (en) | Metronome for changing tempo | |
JP3728942B2 (en) | Music and image generation device | |
JP5509948B2 (en) | Performance apparatus and program | |
JP3770293B2 (en) | Visual display method of performance state and recording medium recorded with visual display program of performance state | |
JP5532659B2 (en) | Sound search apparatus and program | |
JP3603599B2 (en) | Method for visual display of performance system and computer-readable recording medium on which visual display program for performance system is recorded | |
JP4366240B2 (en) | Game device, pitched sound effect generating program and method | |
JP5589741B2 (en) | Music editing apparatus and program | |
JP3719151B2 (en) | Performance pattern processing apparatus, processing program recording medium, and data recording medium | |
JP4094120B2 (en) | How to edit the lyrics data | |
JP5888295B2 (en) | Performance information display device, program | |
JP2010271398A (en) | Sound material retrieval device | |
JP6020134B2 (en) | Performance data set editing program and apparatus | |
JP5399831B2 (en) | Music game system, computer program thereof, and method of generating sound effect data | |
JP3972942B2 (en) | Performance pattern processing apparatus and processing program recording medium | |
JP2006091804A (en) | Automatic music player and program | |
JP4140154B2 (en) | Performance information separation method and apparatus, and recording medium therefor | |
JP3953071B2 (en) | Electronic musical instruments | |
JP2001013964A (en) | Playing device and recording medium therefor | |
JP5867456B2 (en) | Performance information display device, program. | |
JP3535360B2 (en) | Sound generation method, sound generation device, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130730 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130927 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5532659 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140414 |
|
LAPS | Cancellation because of no payment of annual fees |