JP2010262267A - 演奏装置およびプログラム - Google Patents
演奏装置およびプログラム Download PDFInfo
- Publication number
- JP2010262267A JP2010262267A JP2010056129A JP2010056129A JP2010262267A JP 2010262267 A JP2010262267 A JP 2010262267A JP 2010056129 A JP2010056129 A JP 2010056129A JP 2010056129 A JP2010056129 A JP 2010056129A JP 2010262267 A JP2010262267 A JP 2010262267A
- Authority
- JP
- Japan
- Prior art keywords
- timeline
- line
- sound
- timelines
- search
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Abstract
【課題】同時進行するフレーズからなる曲の作曲を容易に行えるようにする。
【手段】CPU22は、マウス14とキーボード15の操作に従い、一又は複数のタイムラインLINE−iと一又は複数のオブジェクトob−nを表示部17に表示させ、マウス14とキーボード15の操作に従い、表示部17の表示領域内におけるそれらの表示位置を変化させる。CPU22は、表示部17の表示領域内に複数のタイムラインLINE−iが表示されている場合は、その複数のタイムラインLINE−iの各々に対応した複数の種類のフレーズを時間軸上で重ね合わせた曲を発音させる。そして、各フレーズ内における音の発音タイミングを表示領域内におけるタイムラインLINE−iとオブジェクトob−nの位置関係に基づいて決定する。
【選択図】図1
Description
本発明は、作曲を支援する技術に関する。
現在、いわゆるDTM(Desk Top Music)の普及に伴い、ループシーケンサと呼ばれる音楽制作アプリケーションプログラムが各種提供されている。ループシーケンサは、曲のイントロ部分の1小節、ドラムソロ4小節、といった曲の一部の時間区間を切り出した音波形である音素材を時間軸上にマッピングしてフレーズを生成し、生成したフレーズの再生を繰り返すプログラムである。ループシーケンサは、曲をなす1周期分のフレーズ内における音の配列を指定する編集画面を提供する。そして、ユーザが、この編集画面を通じて音の配列を指定すると、その音の配列を1周期分のフレーズとして繰り返す曲がループシーケンサによって演奏される。なお、この種のループシーケンサに関する文献として、例えば特許文献1がある。
ところで、音楽制作においては、同時進行する複数のフレーズからなる曲を作曲して演奏する場合がある。このような場合、各フレーズ間のタイミング関係等を調整する試行錯誤を行うことが多いが、従来のループシーケンサは、このような試行錯誤を一回行う度に、各フレーズを構成する音の発音タイミング等を逐一変更せねばならず、面倒であるという問題があった。
本発明は、このような背景の下に案出されたものであり、周期を異にする複数のフレーズからなる曲を簡単に演奏できるようにすることを目的とする。
本発明は、このような背景の下に案出されたものであり、周期を異にする複数のフレーズからなる曲を簡単に演奏できるようにすることを目的とする。
本発明は、操作手段と、表示手段と、前記操作手段の操作に応じて、曲中において繰り返される1または複数音の列の周期を示す画像である1または複数のタイムラインを前記表示手段に表示させるタイムライン管理処理手段と、前記操作手段の操作に応じて、発音対象とする音を示す1または複数のオブジェクトを前記表示手段に表示させるオブジェクト管理処理手段と、前記1または複数のオブジェクトの各々と前記1または複数のタイムラインの各々との帰属関係を決定し、各タイムラインについて並列かつ独立に、当該タイムラインに属する各オブジェクトが示す各音を当該タイムラインの長さ方向における当該オブジェクトの位置により定まる発音タイミングにおいて発音させる制御を当該タイムラインに対応した周期で繰り返す演奏処理手段とを具備する演奏装置を提供する。
本発明では、タイムラインが曲中において繰り返される1または複数音の列の周期を示し、オブジェクトがその周期内において発音する音を示す。操作者たるユーザは、1または複数のオブジェクトが複数のタイムラインのいずれにも属するようにそれらの位置関係を指定することにより、同時進行するフレーズからなる曲の作曲を容易に行うことができる。
本発明では、タイムラインが曲中において繰り返される1または複数音の列の周期を示し、オブジェクトがその周期内において発音する音を示す。操作者たるユーザは、1または複数のオブジェクトが複数のタイムラインのいずれにも属するようにそれらの位置関係を指定することにより、同時進行するフレーズからなる曲の作曲を容易に行うことができる。
以下、図面を参照し、この発明の実施の形態を説明する。
(第1実施形態)
図1は、この発明の第1実施形態である音検索・演奏装置10の構成を示すブロック図である。この音検索・演奏装置10は、パーソナルコンピュータに、本実施形態による音検索・演奏プログラム29をインストールしたものである。ここで、音検索・演奏プログラム29は、ユーザが行う操作に応じて、曲を構成するのに用いる音素材をデータベースから検索し、この検索した音素材を用いて作曲を行い、作曲した曲を演奏する機能を有しており、いわゆるループシーケンサに類するアプリケーションプログラムである。なお、本実施形態における音素材とは、曲中の1拍に相当する区間の音波形や1拍をさらに区分した区間の音波形である。本実施形態における音検索・演奏プログラム29は、オブジェクト、タイムラインという既存のループシーケンサにないGUI(Graphical User Interface)を採用している。本実施形態の特徴は、オブジェクトおよびタイムラインを含むGUIにある。なお、このGUIの詳細については後述する。
(第1実施形態)
図1は、この発明の第1実施形態である音検索・演奏装置10の構成を示すブロック図である。この音検索・演奏装置10は、パーソナルコンピュータに、本実施形態による音検索・演奏プログラム29をインストールしたものである。ここで、音検索・演奏プログラム29は、ユーザが行う操作に応じて、曲を構成するのに用いる音素材をデータベースから検索し、この検索した音素材を用いて作曲を行い、作曲した曲を演奏する機能を有しており、いわゆるループシーケンサに類するアプリケーションプログラムである。なお、本実施形態における音素材とは、曲中の1拍に相当する区間の音波形や1拍をさらに区分した区間の音波形である。本実施形態における音検索・演奏プログラム29は、オブジェクト、タイムラインという既存のループシーケンサにないGUI(Graphical User Interface)を採用している。本実施形態の特徴は、オブジェクトおよびタイムラインを含むGUIにある。なお、このGUIの詳細については後述する。
図1に示すように、この音検索・演奏装置10は、インターフェース11を介してサウンドシステム91と接続される。この音検索・演奏装置10における操作部13は、マウス14、キーボード15、およびドラムパッド16を含む。表示部17は、たとえば、コンピュータディスプレイである。
制御部20は、CPU22、RAM23、ROM24、ハードディスク25を有する。CPU22は、RAM23をワークエリアとして利用しつつ、ROM24やハードディスク25に記憶されたプログラムを実行する。ROM24は、IPL(Initial Program Loader)などを記憶した読み出し専用メモリである。
ハードディスク25は、曲データベース26、音素材データベース27,28、および音検索・演奏プログラム29を記憶する。
曲データベース26は、曲データmd−k(k=1,2…)を記憶したデータベースである。曲データmd−k(k=1,2…)は、1曲分の音波形を示すデータである。各曲データmd−k(k=1,2…)には個別の曲番号kが付与されている。
曲データベース26は、曲データmd−k(k=1,2…)を記憶したデータベースである。曲データmd−k(k=1,2…)は、1曲分の音波形を示すデータである。各曲データmd−k(k=1,2…)には個別の曲番号kが付与されている。
図2は、音素材データベース27,28のデータ構造図である。音素材データベース27は、曲データmd−k(k=1,2…)に含まれる音素材のうちアタックが明瞭でエッジ感の強い各音素材(以下、「エッジ音」と呼ぶ)と各々対応する複数のレコードの集合体である。音素材データベース28は、曲データmd−k(k=1,2…)に含まれる音素材のうちダスティーな感じの強い各音素材(以下、「ダスト音」と呼ぶ)と各々対応する複数のレコードの集合体である。これらの音素材データベース27,28は、曲データベース26の曲データmd−k(k=1,2…)を特徴量解析プログラム(不図示)によって解析することにより生成されたものである。
より具体的に説明すると、音素材データベース27において、1つのエッジ音と対応するレコードは、そのエッジ音が含まれている曲データmd−kの曲番号k、曲データmd−kが示す1曲分の音波形内におけるそのエッジ音を含む区間の始点と終点の時刻tS,tE、およびそのエッジ音を含む区間の音波形(すなわち、音素材)を解析して得られた以下の6種類の特徴量を各々示す9つのフィールドを有する。
a1.低域強度PLOW
これは、音素材に含まれる低域の周波数成分の強度である。
b1.中低域強度PMID-LOW
これは、音素材に含まれる中低域の周波数成分の強度である。
c1.中高域強度PMID-HIGH
これは、音素材に含まれる中高域の周波数成分の強度である。
d1.高域強度PHIGH
これは、音素材に含まれる高域の周波数成分の強度である。
e1.ピーク位置PTIME
これは、当該波形において振幅がピークとなる時刻を時刻tsを基準とした相対時刻として表わしたものである。
f1.ピーク強度PVALUE
これは、音素材におけるピークの振幅である。
a1.低域強度PLOW
これは、音素材に含まれる低域の周波数成分の強度である。
b1.中低域強度PMID-LOW
これは、音素材に含まれる中低域の周波数成分の強度である。
c1.中高域強度PMID-HIGH
これは、音素材に含まれる中高域の周波数成分の強度である。
d1.高域強度PHIGH
これは、音素材に含まれる高域の周波数成分の強度である。
e1.ピーク位置PTIME
これは、当該波形において振幅がピークとなる時刻を時刻tsを基準とした相対時刻として表わしたものである。
f1.ピーク強度PVALUE
これは、音素材におけるピークの振幅である。
同様に、音素材データベース28において、1つのダスト音と対応するレコードは、そのダスト音が含まれている曲データmd−kの曲番号k、曲データmd−kが示す1曲分の音波形内におけるそのダスト音を含む区間の始点と終点の時刻tS,tE、およびそのダスト音を含む区間の音素材を解析して得られた前掲の6種類の特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEを各々示す9つのフィールドを有する。
図1において、音検索・演奏プログラム29は、オブジェクト管理処理30、タイムライン管理処理31、作曲情報管理処理32、マニュアル演奏処理33、自動演奏処理34、検索処理35、音加工処理36、操作ログ管理処理37の8種類の処理をCPU22に実行させるプログラムである。図1において、音検索・演奏プログラム29は、上述したようにオブジェクトおよびタイムラインを含むGUIをユーザに提供する。その概要を説明すると次の通りである。
まず、オブジェクトは、発音させたい音素材の検索条件を表象するパターン画像である。本実施形態において、ユーザは、発音させたい音素材の種類に対応した個数のオブジェクトを作成可能である。オブジェクトの形態は、そのオブジェクトに対応付けられた音素材の検索条件を表す。ユーザは、操作部13の操作により、オブジェクトに対応付けられた音素材の検索条件を変化させ、かつ、これに対応させてオブジェクトの形態を変化させることが可能である。
次に、タイムラインは、曲に周期的に繰り返し現れる1または複数の音素材の羅列であるフレーズの周期を表象する線画像である。タイムラインは、1小節を表象してもよいし、複数小節を表象してもよい。本実施形態において、フレーズの作曲は、タイムラインと1または複数のオブジェクトを表示部17に表示させ、タイムラインに1または複数のオブジェクトを帰属させることにより行われる。この場合において、タイムラインに帰属する1または複数のオブジェクトは、タイムラインが表象する1つの周期(フレーズ)内において発音する音素材の検索条件と発音タイミングを指定する。本実施形態において、作曲の際には、複数のタイムラインを使用することも可能である。この場合において、各タイムラインは、作曲対象である曲において、同時進行する複数のフレーズの各々の周期を表象する。また、各タイムラインに、別個のオブジェクトを帰属させてもよいし、各タイムラインに共通のオブジェクトを帰属させることも可能である。
上述したように、音検索・演奏プログラム29は、オブジェクト管理処理30、タイムライン管理処理31、作曲情報管理処理32、マニュアル演奏処理33、自動演奏処理34、検索処理35、音加工処理36、操作ログ管理処理37の8種類の処理をCPU22に実行させるプログラムである。ここで、オブジェクト管理処理30は、操作部13の操作に応じて、オブジェクトの生成、変更、保存を行う処理である。また、タイムライン管理処理31は、操作部13の操作に応じて、タイムラインの生成および変更を行う処理である。また、作曲情報管理処理32は、表示部17に表示されるタイムラインおよびオブジェクトのレイアウト情報を曲データとして保存する処理と、保存された曲データに基づいてタイムラインとオブジェクトを表示部17に再現させる処理とからなる。
また、マニュアル演奏処理33は、ドラムパッド16の操作等によるマニュアルトリガに応じて、オブジェクトが表象する検索条件に合致した音素材を発音させる処理である。また、自動演奏処理34は、表示部17に表示されたオブジェクトの内容および画面内のレイアウトに関する情報をオブジェクト管理処理30と共有するとともに、表示部17に表示されたタイムラインの内容および画面内のレイアウトに関する情報をタイムライン管理処理31と共有し、表示部17に表示された1または複数のタイムラインと1または複数のオブジェクトに従って1または複数のフレーズの自動演奏を行う処理である。
検索処理35は、指定されたオブジェクトに対応付けられた検索条件に従って音素材の検索を行う処理であり、オブジェクト管理処理30、マニュアル演奏処理33、自動演奏処理34においてサブルーチンとして起動される。音加工処理36は、オブジェクトに対応した音素材を発音する際にその音素材の一部のパラメータを変更する処理であり、自動演奏処理34においてサブルーチンとして起動される処理である。操作ログ管理処理37は、オブジェクトやタイムラインの生成、変更等を行う操作部13の操作ログを記録する処理と、記録した操作ログを読み出して操作ログが示す各操作を再現する処理とからなる。
以上が本実施形態による音検索・演奏装置10の構成の詳細である。
以上が本実施形態による音検索・演奏装置10の構成の詳細である。
本実施形態では、曲の材料となる音素材を決定する素材決定作業と、その決定した音素材を1または複数のフレーズの時間軸上にマッピングする素材配置作業とを経て1つの曲が作られる。以下、素材決定作業と素材配置作業における本実施形態の動作を説明する。
(1)素材決定作業
素材決定作業では、ユーザは、音素材の検索タイミングを決める2つの検索設定である第1検索設定と第2検索設定のうち一方を選択し、オブジェクト出現操作、検索条件指定操作、マニュアル演奏操作、オブジェクト保存操作などを行う。第1検索設定は、オブジェクトに対応付けられた検索条件が変化するたびに、曲データベース26からの音素材の検索を行う検索設定である。第2検索設定は、オブジェクトが示す音素材の発音を行うたびに、それに先立って、曲データベース26からの音素材の検索を行う検索設定である。
素材決定作業では、ユーザは、音素材の検索タイミングを決める2つの検索設定である第1検索設定と第2検索設定のうち一方を選択し、オブジェクト出現操作、検索条件指定操作、マニュアル演奏操作、オブジェクト保存操作などを行う。第1検索設定は、オブジェクトに対応付けられた検索条件が変化するたびに、曲データベース26からの音素材の検索を行う検索設定である。第2検索設定は、オブジェクトが示す音素材の発音を行うたびに、それに先立って、曲データベース26からの音素材の検索を行う検索設定である。
ユーザは、まず、オブジェクト出現操作を行う。オブジェクト出現操作は、オブジェクトob−n(n=1,2…)の画像を表示部17の表示領域内に出現させる操作である。上述したように、オブジェクトob−nは、曲のフレーズを構成する音素材を表象する画像である。オブジェクト出現操作では、過去作成してハードディスク25に保存したオブジェクトob−nを出現対象として指示することもできるし、音検索・演奏プログラム29に用意されたデフォルトオブジェクト(予め定められた標準的な検索条件を持ったオブジェクトob−n)を出現対象として指示することもできる。
また、オブジェクト出現操作では、エッジ音のオブジェクトob−nを出現対象として指示することもできるし、ダスト音のオブジェクトob−nを出現対象として指示することもできる。オブジェクト管理処理30では、オブジェクト出現操作において指示されたオブジェクトob−nを表示部17に表示させ、かつ、そのオブジェクトob−nに対応付けられたオブジェクト管理情報をRAM23に書き込む。このオブジェクト管理情報は、オブジェクトob−nが示す音素材の検索条件SC−nを構成する特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEと要検索数Num(1≦Num)を含む。また、オブジェクト管理情報は、検索条件SC−nを用いた検索により得られた音素材のセットである検索結果SR−nを伴う場合がある。
図3(A)に示すように、エッジ音のオブジェクトob−nは、全体として矩形をなし、矩形の右辺にある縦ストライプ領域51と、この縦ストライプ領域51の左側を上下に4等分した4つの横ストライプ領域52−m(m=1〜4)とを有している。また、エッジ音のオブジェクトob−nにおいて、横ストライプ領域52−1および52−2と、横ストライプ領域52−3および52−4には、エッジ音を模擬した上下対称の三角形55−u,55−dが各々重ねて表示される。ここで、三角形55−u,55−dの上下の頂点の水平方向における位置は、オブジェクトob−nが表象するエッジ音のピーク位置PTIMEを表す。すなわち、この三角形55−u,55−dの上下の頂点が左側にある程、エッジ音の尖った感じが増し、三角形55−u,55−dの上下の頂点が右側にある程、エッジ音の尖った感じが鈍ることとなる。また、三角形55−u,55−dの上下の頂点の高さは、そのピークのピーク強度PVALUEを表す。すなわち、三角形55−u,55−dの上下の頂点が高い程、エッジ音のエッジ感が強くなり、三角形55−u,55−dの上下の頂点が低い程、エッジ音のエッジ感が弱くなる。
横ストライプ領域52−m(m=1〜4)は、各々の表示色の濃淡がオブジェクトob−nが表象するエッジ音の高域強度PHIGH、中高域強度PMID-HIGH、中低域強度PMID-LOW、低域強度PLOWを表す。すなわち、例えば横ストライプ領域52−1の表示色が濃い場合、エッジ音は高域強度の強い音となり、例えば横ストライプ領域52−1の表示色が薄くて横ストライプ領域52−2の表示色が濃い場合には、エッジ音は高域強度よりは中高域強度が強い音となる。ダスト音のオブジェクトob−nは、図3(B)に示すように、縦ストライプ領域51と横ストライプ領域52−m(m=1〜4)とからなる部分にダスト音を模擬した砂地模様を重ねたような形態をなしている。エッジ音のオブジェクトob−nと同様、横ストライプ領域52−m(m=1〜4)は、各々の表示色の濃淡がオブジェクトob−nが表象するダスト音の高域強度PHIGH、中高域強度PMID-HIGH、中低域強度PMID-LOW、低域強度PLOWを表す。
ユーザは、オブジェクト出現操作によって表示部17の表示領域内に一または複数のオブジェクトob−nを表示させた後、オブジェクトob−nを対象として、検索条件指定操作、オブジェクト保存操作などを行うことができる。
検索条件指定操作は、オブジェクトob−nに対応させる音素材の検索条件SC−nを指定する操作である。この検索条件指定操作には次のものがある。
<エッジ音のピーク位置PTIMEおよびピーク強度PVALUEを指定する操作>
この操作では、エッジ音のオブジェクトob−nの三角形55−u,55−dの形状を操作する。具体的には、ユーザは、図4に示すように、エッジ音のオブジェクトob−nの三角形55−u,55−dのうち一方(たとえば、三角形55−uとする)の頂点Cにマウスポインタmpを移動させて左クリックし、そのままマウスポインタmpを任意の方向に移動させて左クリックを解除する。CPU22は、オブジェクト管理処理30では、この操作に応じて、ピーク位置PTIMEおよびピーク強度PVALUEと三角形55−u,55−dの形状とを連動させて変化させる。すなわち、三角形55−u,55−dの各頂点の位置は操作を終えた時点におけるマウスポインタmpの位置となり、三角形55−u,55−dの各頂点のオブジェクトob−nの左辺からの距離は更新後のピーク位置PTIMEを、各頂点の高さは更新後のピーク強度PVALUEを示すものとなる。
<エッジ音のピーク位置PTIMEおよびピーク強度PVALUEを指定する操作>
この操作では、エッジ音のオブジェクトob−nの三角形55−u,55−dの形状を操作する。具体的には、ユーザは、図4に示すように、エッジ音のオブジェクトob−nの三角形55−u,55−dのうち一方(たとえば、三角形55−uとする)の頂点Cにマウスポインタmpを移動させて左クリックし、そのままマウスポインタmpを任意の方向に移動させて左クリックを解除する。CPU22は、オブジェクト管理処理30では、この操作に応じて、ピーク位置PTIMEおよびピーク強度PVALUEと三角形55−u,55−dの形状とを連動させて変化させる。すなわち、三角形55−u,55−dの各頂点の位置は操作を終えた時点におけるマウスポインタmpの位置となり、三角形55−u,55−dの各頂点のオブジェクトob−nの左辺からの距離は更新後のピーク位置PTIMEを、各頂点の高さは更新後のピーク強度PVALUEを示すものとなる。
<エッジ音およびダスト音の高域強度PHIGH、中高域強度PMID-HIGH、中低域強度PMID-LOW、低域強度PLOWを指定する操作>
この場合、ユーザは、図5に示すように、マウスポインタmpをオブジェクトob−nの横ストライプ領域52−m(m=1〜4)のいずれか(図5の例では領域52−1)の左側に移動させてキーボード15の所定のキー(たとえば、Shiftキーとする)を押下し、そのままマウスポインタmpを右方向に移動させてキーの押下を解除する。例えば、横ストライプ領域52−4について以上の操作が行われた場合、オブジェクト管理処理30では、マウスポインタmpの右方向への移動量に応じて、低域強度PLOWと横ストライプ領域52−4の表示色の濃度を連動させて更新する。高域強度PHIGH、中高域強度PMID-HIGH、中低域強度PMID-LOWの指定操作も同様である。
この場合、ユーザは、図5に示すように、マウスポインタmpをオブジェクトob−nの横ストライプ領域52−m(m=1〜4)のいずれか(図5の例では領域52−1)の左側に移動させてキーボード15の所定のキー(たとえば、Shiftキーとする)を押下し、そのままマウスポインタmpを右方向に移動させてキーの押下を解除する。例えば、横ストライプ領域52−4について以上の操作が行われた場合、オブジェクト管理処理30では、マウスポインタmpの右方向への移動量に応じて、低域強度PLOWと横ストライプ領域52−4の表示色の濃度を連動させて更新する。高域強度PHIGH、中高域強度PMID-HIGH、中低域強度PMID-LOWの指定操作も同様である。
<エッジ音およびダスト音の要検索数Numを指定する操作>
この場合、ユーザは、図6に示すように、マウスポインタmpをオブジェクトob−nの縦ストライプ領域51の下側に移動させてキーボード15の所定のキー(たとえば、Shiftキーとする)を押下し、そのままマウスポインタmpを上方向に移動させてキーの押下を解除する。この操作が行われると、オブジェクト管理処理30では、縦ストライプ領域51内にその下辺から上方向へ伸びるバー95を表示させ、マウスポインタmpの上方向への移動量に応じて、要検索数Numと縦ストライプ領域51のバー95の高さとを連動させて更新する。
この場合、ユーザは、図6に示すように、マウスポインタmpをオブジェクトob−nの縦ストライプ領域51の下側に移動させてキーボード15の所定のキー(たとえば、Shiftキーとする)を押下し、そのままマウスポインタmpを上方向に移動させてキーの押下を解除する。この操作が行われると、オブジェクト管理処理30では、縦ストライプ領域51内にその下辺から上方向へ伸びるバー95を表示させ、マウスポインタmpの上方向への移動量に応じて、要検索数Numと縦ストライプ領域51のバー95の高さとを連動させて更新する。
さらに、第1検索設定の下では、オブジェクトに対応付けられた検索条件SC−nが変化する度に、オブジェクト管理処理30が検索処理35を起動し、オブジェクトにおける新たな検索条件SC−nでの音素材の検索を検索処理35に行わせる。
例えばエッジ音のオブジェクトob−nに対応付けられた検索条件SC−nが変化して検索処理35が起動された場合、この検索処理35では、RAM23から検索条件SC−nを構成する特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEと要検索数Numを読み出す。そして、特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEが示す6次元の特徴量ベクトルとの間のユークリッド距離が短い上位Num個のレコードを音素材データベース27から検索する。また、その上位Num個の各レコードに各々対応した音素材を検索する。すなわち、各レコードにおいて曲番号kのフィールドと同じ曲番号kの曲データmd−kを検索し、この曲データmd−kにおいて、当該レコードの時刻tS,tEのフィールドが示す始点と終点の間の区間の音素材を検索するのである。そして、このようにして検索した上位Num個の各レコードと上位Num個の音素材を検索結果SR−nとしてオブジェクトob−nに対応付ける。ダスト音のオブジェクトob−nに対応付けられた検索条件SC−nが変化した場合も同様である。
例えばエッジ音のオブジェクトob−nに対応付けられた検索条件SC−nが変化して検索処理35が起動された場合、この検索処理35では、RAM23から検索条件SC−nを構成する特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEと要検索数Numを読み出す。そして、特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEが示す6次元の特徴量ベクトルとの間のユークリッド距離が短い上位Num個のレコードを音素材データベース27から検索する。また、その上位Num個の各レコードに各々対応した音素材を検索する。すなわち、各レコードにおいて曲番号kのフィールドと同じ曲番号kの曲データmd−kを検索し、この曲データmd−kにおいて、当該レコードの時刻tS,tEのフィールドが示す始点と終点の間の区間の音素材を検索するのである。そして、このようにして検索した上位Num個の各レコードと上位Num個の音素材を検索結果SR−nとしてオブジェクトob−nに対応付ける。ダスト音のオブジェクトob−nに対応付けられた検索条件SC−nが変化した場合も同様である。
ユーザは、オブジェクトob−nに所望の特性を持った音素材が対応付けられているか否かを確認するためにマニュアル演奏操作を行うことができる。このマニュアル演奏操作は、マニュアルトリガを発生させ、オブジェクトob−nに対応付けられた音素材をサウンドシステム91から発音させる操作である。マニュアルトリガとして何を採用するかは、音検索・演奏プログラム29に対して設定可能であるが、この例ではドラムパッド16の操作イベントがマニュアルトリガとして指定されているものとする。この場合において、ユーザは、マウスポインタmpをオブジェクトob−nに移動させてドラムパッド16を叩くと、マニュアル演奏処理33が実行される。
第1検索設定の下でのマニュアル演奏処理33では、ドラムパッド16が叩かれる都度、マウスポインタmpにより指示されたオブジェクトob−nに対応付けられた検索結果SR−nを構成する音素材(上述した上位Num個の音素材)の中から1つの音素材をランダムに選択し、選択した音素材をサウンドシステム91から発音させる。また、第2検索設定の下でのマニュアル演奏処理33では、ドラムパッド16が叩かれる都度、検索処理35を起動し、マウスポインタmpにより指示されたオブジェクトob−nに対応付けられた検索条件SC−nを検索処理35に引き渡す。そして、検索処理35により得られる検索結果SR−nを構成する音素材(上述した上位Num個の音素材)の中から1つの音素材をランダムに選択し、選択した音素材をサウンドシステム91から発音させる。ユーザは、このようにして発音される音素材を耳で確認し、音素材が所望の特性を有していない場合には、再びオブジェクトob−nに対する検索条件指定操作を行う。
表示部17の表示領域内のオブジェクトob−nを後刻再利用する予定がある場合、ユーザはオブジェクト保存操作を行うことができる。これは表示部17の表示領域内のオブジェクトob−nの保存を指示する操作部13の操作である。あるオブジェクトob−nを対象としてオブジェクト保存操作が行われると、オブジェクト管理処理30では、そのオブジェクトob−nのオブジェクト管理情報を生成し、生成したオブジェクト管理情報をハードディスク25に記憶する。このオブジェクト管理情報は、オブジェクトob−nの検索条件SC−nを構成する特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEと要検索数Num、およびその検索結果SR−nを構成するレコードのセットである。
以上のように、素材決定作業では、ユーザは、表示部17の表示領域内におけるオブジェクトob−nの形態を変化させることによって、検索条件SC−nを構成する要検索数Numや特徴量PLOW,PMID-LOW,PMID-HIGH,PHIGH,PTIME,PVALUEを変えつつ、自らがイメージする音に近い音素材を曲データベース26および音素材データベース27,28から検索する。ユーザは、曲を作るのに必要な数のオブジェクトob−n(n=1,2…)とその各々の形態を決め、必要であればそれらのオブジェクトob−n(n=1,2…)のオブジェクト管理情報を保存し、次の素材配置作業に移る。
(2)素材配置作業
素材配置作業では、ユーザは、操作部13を使用して、1または複数の所望のタイムラインと1または複数の所望のオブジェクトを表示部17の表示領域内に表示させ、各タイムラインと各オブジェクトが所望の位置関係を持つように、各々の位置等の調整を行う。そのためにユーザは、オブジェクト出現操作、オブジェクト複製操作、検索条件指定操作、タイムライン出現操作、タイムライン位置変更操作、オブジェクト位置変更操作、サイズ変更操作、拍子指示操作、グリッド指定操作、パラメータ連動操作、演奏開始操作、レイアウト保存操作、レイアウト読出操作、ログ記録開始操作、ログ記録終了操作、ログ再生操作などを行う。
素材配置作業では、ユーザは、操作部13を使用して、1または複数の所望のタイムラインと1または複数の所望のオブジェクトを表示部17の表示領域内に表示させ、各タイムラインと各オブジェクトが所望の位置関係を持つように、各々の位置等の調整を行う。そのためにユーザは、オブジェクト出現操作、オブジェクト複製操作、検索条件指定操作、タイムライン出現操作、タイムライン位置変更操作、オブジェクト位置変更操作、サイズ変更操作、拍子指示操作、グリッド指定操作、パラメータ連動操作、演奏開始操作、レイアウト保存操作、レイアウト読出操作、ログ記録開始操作、ログ記録終了操作、ログ再生操作などを行う。
タイムライン出現操作が行われると、タイムライン管理処理31では、図7に例示するタイムラインLINE−iを表示部17の表示領域内に表示させる。このタイムラインLINE−iは、フレーズの周期を表す水平方向に延びた直線画像である。タイムラインLINE−iの左端、右端、および左端と右端を4等分した位置からは下方向に拍案内線63−j(j=1〜5)が延伸している。また、タイムラインLINE−iの隣り合う拍案内線63−j間を等分した位置からはグリッド線gが下方向に延伸している。そして、タイムラインLINE−iの左端と右端の拍案内線63−jの間に挟まれた領域が、タイムラインLINE−iの支配が及ぶ占有領域となっている。この占有領域内のオブジェクトob−nがタイムラインLINE−iに属するオブジェクトとなる。また、タイムラインLINE−iはタイミングポインタ62を内包する。このタイミングポインタ62は、自動演奏において現在の演奏位置を示すポインタであり、自動演奏の際にはタイムラインLINE−iの左端から右端までの移動を周期的に繰り返す。
ユーザは、操作部13の操作により、表示部17の表示領域内におけるタイムラインLINE−iの水平方向の長さや拍案内線63−j(j=1〜5)の長さの調整をタイムライン管理処理31に行わせることができる。また、ユーザは、操作部13の操作により、タイムラインLINE−iが示すフレーズの周期T、すなわち、タイミングポインタ62がタイムラインLINE−iの左端から右端まで移動する所要時間の調整をタイムライン管理処理31に行わせることができる。タイムライン管理処理31では、操作部13の操作により表示部17に表示される各タイムラインLINE−iについて、表示領域内の水平方向および垂直方向の位置、水平方向の長さ、拍案内線63−j(j=1〜5)の数や長さ、タイムラインが示す周期Tの各情報を管理する。
次にユーザは、タイムラインLINE−iに帰属させるオブジェクトob−nが表示部17の表示領域内に表示されていない場合には、そのオブジェクトob−nを出現させるためのオブジェクト出現操作を行う。このオブジェクト出現操作では、ハードディスク25に保存されているオブジェクト管理情報を読み出し、オブジェクトob−nとして表示させてもよい。また、ユーザは、表示部17の表示領域内に表示されているオブジェクトob−nについて検索条件指定操作を行うことも可能である。オブジェクト管理処理30では、操作部13の操作により表示部17に表示される各オブジェクトob−nについて、表示領域内の水平方向および垂直方向の位置、オブジェクトob−nに対応付けられた検索条件SC−n、検索結果SR−nの各情報を管理する。また、表示中のオブジェクトob−nについて検索条件指定操作が行われた場合、オブジェクト管理処理30では、該当するオブジェクトob−nに対応付けられた検索条件SC−n、検索結果SR−nを更新する。
ユーザは、表示部17の表示領域内に一または複数のタイムラインLINE−iとオブジェクトob−nを表示させたあと、操作部13を使用してタイムライン位置変更操作やオブジェクト位置変更操作を行うことができる。あるオブジェクトob−nをあるタイムラインLINE−iに帰属させたい場合、そのタイムラインLINE−iの占有領域内に収まるようにそのオブジェクトob−nの位置を調整すればよい。この場合において、共通のオブジェクトob−nを複数のタイムラインLINE−iの各占有領域内に配置し、複数のタイムラインLINE−iに帰属させることも可能である。
また、ユーザは、サイズ変更操作によって、タイムラインLINE−iのx軸方向(タイムラインLINE−iの長さ方向と平行な方向)の幅やy軸方向(タイムラインLINE−iの長さ方向と直交する方向)の幅を伸縮させることができる。ユーザは、拍子指示操作によってタイムラインLINE−i内の拍案内線63−jの数を4本以下や6本以上に増減させたり、グリッド指定操作によってタイムラインLINE−iの拍案内線63−j間のグリッド線gの数を2本以上に増やすこともできる。ユーザは、タイムラインLINE−iが示すフレーズの周期Tを変える操作を行うことなくそのタイムラインLINE−iのx軸方向の幅を大きくする操作を行うことにより、タイムラインLINE−iの占有領域の面積を拡げてその領域内におけるオブジェクトob−nの編集の自由度を高めることができる。
また、ユーザは、パラメータ連動操作を行うことにより、自動演奏時における音素材の発音に関する動作モードを通常モードからパラメータ連動モードに切り換えることができる。ここで、パラメータ連動モードとは、タイムラインLINE−iに属するオブジェクトob−nに対応した音素材を発音させる場合においてその音素材のパラメータ(例えばピッチ、音量、発音タイミングの遅延量)をそのタイムラインLINE−iからそのオブジェクトob−nまでの垂直方向の距離に応じて変化させるモードである。また、通常モードは、タイムラインLINE−iに帰属するオブジェクトob−nが示す音素材のパラメータを変化させずに発音を行うモードである。
また、ユーザは、必要に応じてオブジェクト複製操作を行うことができる。これは、表示部17の表示領域内に表示されているオブジェクトob−nをその表示領域内に複製する操作である。あるオブジェクトob−nを対象としてオブジェクト複製操作が行われると、オブジェクト管理処理30では、操作の対象であったオブジェクトob−nと同じ形態のオブジェクトob’−nを表示させる。この複製のオブジェクトob’−nは、1個生成することもできるし、複数生成することもできる。ここで、オリジナルのオブジェクトob−nと複製のオブジェクトob’−nは共通の検索条件SC−nおよび検索結果SR−nに対応付けられる。ユーザは、オリジナルのオブジェクトob−nのみならず、複製のオブジェクトob’−nも所望のタイムラインLINE−iに帰属させることができる。ここで、オリジナルのオブジェクトob−nと複製のオブジェクトob’−nは同格であり、かつ、操作に対する運命を共にする。すなわち、CPU22は、オリジナルのオブジェクトob−nと複製のオブジェクトob’−nのいずれかを対象として検索条件指定操作が行われた場合、オリジナルのオブジェクトob−nと複製のオブジェクトob’−nに共通な検索条件SC−nを更新する。
ユーザは、以上の各操作により表示部17の表示領域内におけるタイムラインLINE−iとオブジェクトob−nのレイアウトを決定した後、操作部13を使用して演奏開始操作を行う。演奏開始操作が行われると、CPU22は、自動演奏処理34を実行する。この自動演奏処理34では、表示部17の表示領域内に表示されているタイムラインLINE−i(i=1,2…)と各々対応するタイムラインタスクtsk−i(i=1,2…)を立ち上げ、立ち上げたタイムラインタスクtsk−i(i=1,2…)を並列かつ独立に実行する。
1つのタイムラインLINE−iと対応する1つのタイムラインタスクtsk−iでは、当該タイムラインLINE−iに帰属するオブジェクトob−n(n=1,2…)(すなわち、当該タイムラインLINE−iの占有領域内のオブジェクト)を決定し、当該タイムラインLINE−iに属するオブジェクトob−nが示す音を発音させる制御を周期Tごとに繰り返す。具体的な処理内容は以下の通りである。まず、各タイムラインタスクtsk−iでは、周期Tの間にタイミングポインタ62を当該タイムラインLINE−iの左端から右端まで移動させる操作を周期的に繰り返しつつ、タイムラインLINE−iの長さ方向の位置を示すタイミングポインタ62のx座標値を監視する。そして、当該タイムラインLINE−iの占有領域内にある一または複数のオブジェクトob−nのうちいずれかのx座標値(より具体的には、オブジェクトob−nの外延をなす矩形の左上隅のx座標値)とタイミングポインタ62のx座標値が一致すると、当該オブジェクトob−nとタイミングポインタ62のx座標値が一致したタイミングを発音タイミングとして、当該オブジェクトob−nと対応する音素材を発音させるための処理を行う。
より具体的には、第1検索設定がなされた状態では、タイムラインタスクtsk−iにおいて、タイムラインLINE−iに属するオブジェクトob−nのx座標値とタイミングポインタ62のx座標値が一致する度に、そのオブジェクトob−nに対応付けられた検索結果SR−nを参照し、この検索結果SR−nを構成する音素材の中から1つをランダムに選択してサウンドシステム91から発音させる。第2検索設定がなされた状態では、タイムラインタスクtsk−iにおいて、タイムラインLINE−iに属するオブジェクトob−nのx座標値とタイミングポインタ62のx座標値が一致するたびに検索処理35を起動し、オブジェクトob−nの検索条件SC−nを検索処理35に引き渡す。そして、検索処理35から返ってくる検索結果SR−nを構成する音素材の中から1つをランダムに選択してサウンドシステム91から発音させる。
パラメータ連動モードが指定されている場合には、検索結果SR−nの中から音素材を選択するたびに音加工処理36を起動し、この音加工処理36によりその音素材を加工し、加工した音素材をサウンドシステム91から発音させる。具体的には、音加工処理36では、音素材に対し、パラメータ連動モードに関して事前に指定されたピッチ、音量、発音タイミングの遅延量などのパラメータをタイムラインLINE−iからオブジェクトob−nまでの距離dyに応じて変化させる加工を行う。
次に具体例を挙げ、本実施形態においてタイムラインLINE−iとオブジェクトob−nを用いて行われる各種の作曲およびその自動演奏の態様を説明する。
たとえば、図8(A)の配置例では、タイムラインLINE−1の一番左の拍案内線63−1の右隣にオブジェクトob−1があり、左から2番目の拍案内線63−2の右隣にオブジェクトob−2があり、左から3番目の拍案内線63−3の右隣にオブジェクトob−3がある。タイムラインLINE−1およびオブジェクトob−n(n=1〜3)の位置関係をこのようにすると、自動演奏処理34(タイムラインLINE−1に対応したタイムラインタスクtsk−1)では、図8(B)に示すように、周期Tを4等分した時刻t1,t2,t3,t4のうち時刻t1,t2,t3においてオブジェクトob−n(n=1〜3)の各音素材の発音を行う4拍子のフレーズを繰り返す。
図9(A)の配置例は、図8(A)の配置例におけるタイムラインLINE−1の位置を固定したままオブジェクトob−n(n=1〜3)を右に移動させたものである。なお、このようにする代わりに、図8(A)の配置例におけるオブジェクトob−n(n=1〜3)の位置を固定したままタイムラインLINE−1を左に移動させても同様の配置となる。この配置例では、タイムラインLINE−1の拍案内線63−2の右隣にオブジェクトob−1があり、拍案内線63−3の右隣にオブジェクトob−2があり、拍案内線63−4の右隣にオブジェクトob−3がある。タイムラインLINE−1およびオブジェクトob−n(n=1〜3)の位置関係をこのようにすると、自動演奏処理34(タイムラインLINE−1に対応したタイムラインタスクtsk−1)では、図9(B)に示すように、時刻t2,t3,t4においてオブジェクトob−n(n=1〜3)の各音素材の発音を行うフレーズを繰り返す。
図10(A)の配置例は、図8(A)の配置例におけるタイムラインLINE−1とオブジェクトob−1の位置を固定したままオブジェクトob−2,ob−3を左に移動させたものである。この配置例では、拍案内線63−1の右隣にオブジェクトob−1があり、拍案内線63−1と拍案内線63−2の間のグリッド線gの右隣にオブジェクトob−2があり、拍案内線63−2の右隣にオブジェクトob−3がある。タイムラインLINE−1およびオブジェクトob−n(n=1〜3)の位置関係をこのようにすると、自動演奏処理34(タイムラインLINE−1に対応したタイムラインタスクtsk−1)では、図10(B)に示すように、時刻t1,(t1+t2)/2,t2においてオブジェクトob−n(n=1〜3)の各音素材の発音を行うフレーズを繰り返す。
また、素材配置作業において、ユーザは、表示部17の表示領域内にタイムラインLINE−iを2つ表示させ、同領域内における1または複数のオブジェクトob−nをその2つのタイムラインLINE−iの両方に属するような配置とすることにより、同じ検索結果SR−nの音素材を含む2種類のフレーズを周期的に繰り返す曲を作ることができる。
図11(A)の配置例では、2つのタイムラインLINE−i(i=1,2)の占有領域内に3つのオブジェクトob−n(n=1〜3)があり、タイムラインLINE−1よりもタイムラインLINE−2が左にずれている。そして、タイムラインLINE−1の拍案内線63−1の右隣(タイムラインLINE−2の拍案内線63−2の右隣)にオブジェクトob−1があり、タイムラインLINE−1の拍案内線63−2の右隣(タイムラインLINE−2の拍案内線63−3の右隣)にオブジェクトob−2があり、タイムラインLINE−1の拍案内線63−3の右隣(タイムラインLINE−2の拍案内線63−4の右隣)にオブジェクトob−3がある。
タイムラインLINE−i(i=1,2)およびオブジェクトob−n(n=1〜3)の位置関係をこのようにすると、自動演奏処理34において、タイムラインLINE−1に対応したタイムラインタスクtsk−1では、図11(B)に示すように、周期Tを4等分した時刻t1,t2,t3,t4のうち時刻t1,t2,t3においてオブジェクトob−n(n=1〜3)の各音素材の発音を行う4拍子のフレーズを繰り返す。また、タイムラインLINE−2に対応したタイムラインタスクtsk−2では、図11(B)に示すように、時刻t2,t3、t4においてオブジェクトob−n(n=1〜3)の各音素材の発音を行う4拍子のフレーズを繰り返す。
また、素材配置作業において、ユーザは、動作モードをパラメータ連動モードとし、タイムラインLINE−iの占有領域内における複数のオブジェクトob−nの各々とタイムラインLINE−iの距離を変えることにより、1つのフレーズをなす各音の間に強弱をつけた曲を作ることができる。
図12(A)の配置例は、図8(A)の配置例における拍案内線63−2の右隣のオブジェクトob−2をその拍案内線63−2の下端付近まで下に移動させたものである。ここで、パラメータ連動モードが指定され、かつ、音量が連動対象のパラメータとなっている状況において、自動演奏処理34を実行させるとする。この場合、タイムラインLINE−1およびオブジェクトob−n(n=1〜3)の位置関係が図12(A)に示すようになっているため、自動演奏処理34(タイムラインLINE−1に対応したタイムラインタスクtsk−1)において起動される音加工処理36では、タイムラインLINE−1の近くにあるオブジェクトob−1およびob−3の各音素材は音量が大きくされ、タイムラインLINE−1から遠くにあるオブジェクトob−2の音素材は音量が小さくされる。この結果、図12(B)に示すように、周期Tを4等分した時刻t1,t2,t3,t4のうち時刻t1,t2,t3においてオブジェクトob−n(n=1〜3)の各音素材を強→弱→強という強弱で発音するフレーズが繰り返される。
また、素材配置作業において、ユーザは、表示領域内における1または複数のオブジェクトob−nを2つのタイムラインLINE−iの両方に属するような配置とし、その一方のタイムラインLINE−iのx軸方向の幅を縮小または拡大することにより、同じ検索結果SR−nの音素材を含みながら周期T内における各々の発音タイミングを異にする2種類のフレーズからなる曲を作ることができる。
図13(A)の配置例は、図11(A)におけるタイムラインLINE−2のx軸方向の幅を半分に縮め、タイムラインLINE−i(i=1,2)の拍案内線63−1同士が重なるように各々のx軸方向の位置を調整したものである。この配置例では、タイムラインLINE−1の拍案内線63−3の右隣(タイムラインLINE−2の一番右の拍案内線63−5の右隣)のオブジェクトob−3はタイムラインLINE−1にだけに属するものとなっている。また、タイムラインLINE−2は、表示領域内におけるx軸方向の長さがタイムラインLINE−1の半分になっているものの、タイムラインLINE−2が示すフレーズの周期TはタイムラインLINE−1が示すフレーズの周期Tと変わらない。
タイムラインLINE−i(i=1,2)およびオブジェクトob−n(n=1〜3)の位置関係をこのようにすると、自動演奏処理34においてタイムラインLINE−1に対応したタイムラインタスクtsk−1では、図13(B)に示すように、周期Tを4等分した時刻t1,t2,t3,t4のうち時刻t1,t2,t3においてオブジェクトob−1、ob−2およびob−3の各音素材を発音するフレーズを繰り返す。また、タイムラインLINE−2に対応したタイムラインタスクtsk−2では、図13(B)に示すように、時刻t1,t3においてオブジェクトob−1およびob−2の各音素材を発音するフレーズを繰り返す。
また、素材配置作業において、ユーザは、表示領域内における1または複数のオブジェクトob−nを2つのタイムラインLINE−iの両方に属するような配置とし、その一方のタイムラインLINE−iの拍数の設定を変更して拍案内線63−jの数を減らしたり増やすことにより、同じ検索結果SR−nの音素材を含みながら周期Tや拍子を異にする2種類のフレーズを組み合わせた複合リズム(ポリリズム)の曲を作ることができる。
図14(A)の配置例において、タイムラインLINE−1およびLINE−2は、表示領域内において水平方向の長さが同じであり、拍案内線63−1同士が重なるように各々のx軸方向の位置が調整されている。ここで、タイムラインLINE−1の左端と右端の間を4等分した位置には拍案内線63−2,63−3,63−4がある。また、タイムラインLINE−2の拍案内線の本数はタイムラインLINE−1よりも1本少なく、タイムラインLINE−2の左端と右端の間を3等分した位置に拍案内線63−2,63−3がある。そして、タイムラインLINE−2が示すフレーズの周期T’はタイムラインLINE−1が示すフレーズの周期Tの3/4の長さになっている。オブジェクトob−1は、タイムラインLINE−1およびLINE−2の両方に属しており、タイムラインLINE−1およびLINE−2の各拍案内線63−1の右側に位置している。
このような状況において、自動演奏処理34を実行させると、自動演奏処理34においてタイムラインLINE−1に対応したタイムラインタスクtsk−1では、図14(B)に示すように、周期Tを4等分した時刻t1,t2,t3,t4のうち時刻t1においてオブジェクトob−1の音素材を発音する4拍子のフレーズを繰り返す。また、タイムラインLINE−2に対応したタイムラインタスクtsk−2では、図14(B)に示すように、周期Tの3/4の長さの周期T’を3等分した時刻t1’,t2’,t3’のうち時刻t1’においてオブジェクトob−1の音素材を発音する3拍子のフレーズを繰り返す。
本実施形態において、ユーザは、自動演奏処理34の実行中にタイムラインLINE−iを移動させることが可能である。このタイムライン位置変更操作が行われると、タイムライン管理処理31では、操作されたタイムラインLINE−iの位置に関する情報を更新する。自動演奏処理34では、このタイムライン位置変更操作に応じて時々刻々と更新されるタイムラインLINE−iの位置に関する情報が参照される。図15(A)に示す例では、パラメータ連動モードが指定されており、かつ、連動対象のパラメータとして音量が指定されている。このため、図15(A)に示すように、オブジェクトob−1の位置を変えずにタイムラインLINE−1を上に移動させてオブジェクトob−1から遠ざけると、自動演奏処理34において起動される音加工処理36の結果、図15(B)に示すように、発音されるオブジェクトob−1の音素材の音量が徐々に小さくなってゆく。パラメータ連動モードにおける連動対象のパラメータとして発音タイミングの遅延量を指定した場合には、自動演奏中にタイムラインLINE−1の位置を上方向に移動させると、そのタイムラインLINE−1の上方向への移動量に応じてオブジェクトob−1の音素材の発音タイミングを遅延させる擬似ディレイ効果を得ることができる。
以上の説明から明らかなように、表示部17に表示されたタイムラインおよびオブジェクトの各々の内容と各々の位置関係により自動演奏される曲の内容が定まる。すなわち、表示部17に表示されたタイムラインおよびオブジェクトのレイアウト情報は曲データとしての役割を果たす。本実施形態では、この曲データの再利用を可能にするための手段が設けられている。さらに詳述すると、ユーザは、素材配置作業を中断するときに、操作部13を使用してレイアウト保存操作を行うことができる。このレイアウト保存操作が行われると、作曲情報管理処理32では、表示部17の表示領域内のタイムラインおよびオブジェクトのレイアウト情報をハードディスク25に保存する。このレイアウト情報は、表示領域内におけるタイムラインLINE−i(i=1,2…)とオブジェクトob−n(n=1,2…)の各々の位置(x座標値.y座標値)を示す配置情報とそれらのオブジェクトob−n(n=1,2…)のオブジェクト管理情報(検索条件SC−nおよび検索結果SR−n)のセットである。
また、ユーザは、作業を再開するときに操作部13を使用してレイアウト読出操作を行うことができる。このレイアウト読出操作が行われると、作曲情報管理処理32では、ハードディスク25に記憶されたレイアウト情報を読み出し、読み出したレイアウト情報からタイムラインおよびオブジェクトの配置情報とオブジェクト管理情報を取り出す。そして、作曲情報管理処理32では、配置情報が示す位置にタイムラインLINE−i(i=1,2…)とオブジェクトob−n(n=1,2…)を表示させるとともに、オブジェクト管理情報に含まれる特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEと要検索数Numを検索条件SC−nとしてRAM23に書き込む。この状態において、ユーザは、タイムライン移動操作やオブジェクト移動操作によって、表示部17の表示領域内に復元されたタイムラインLINE−i(i=1,2…)とオブジェクトob−n(n=1,2…)のレイアウトをさらに変更することができる。曲データであるレイアウト情報は、それが作成された音検索・演奏装置10以外の音検索・演奏装置10に転送して利用することも可能である。この場合、転送元と転送先とで曲データベース26や音素材データベース27,28の内容が異なっていると、曲データに基づく自動演奏の内容が転送元と転送先とで異なったものとなる。曲データ中に含まれるオブジェクトに基づいて検索される音素材が転送元と転送先とで異なったものになる可能性があるからである。
また、本実施形態において、ユーザは、所望の時間を空けて、操作部13を使用してログ記録開始操作とログ記録終了操作を行うことができる。ログ記録開始操作が行われると、操作ログ管理処理37では、以後、ログ記録終了操作が行われるまでの間、表示領域内におけるタイムラインLINE−i(i=1,2…)とオブジェクトob−n(n=1,2…)の各々の動きを示すシーケンスデータを生成し、それらのシーケンスデータのセットをログ情報としてハードディスク25に記憶する。そして、ユーザが操作部13を使用してログ再生操作を行うと、操作ログ管理処理37では、ハードディスク25に記憶されたログ情報を読み出し、そのログ情報をなす各シーケンスデータに従って、表示領域内におけるタイムラインLINE−i(i=1,2…)とオブジェクトob−n(n=1,2…)の各々の動きを再現する。
以上説明した本実施形態によると、以下の効果が得られる。
上記実施形態では、音検索・演奏プログラム29は、操作部13の操作に応じて、表示部17の表示領域内におけるオブジェクトob−nが示す音素材の検索条件SC−nとそのオブジェクトob−nの形態とを連動させて変化させる。よって、ユーザは、オブジェクトob−nの形態からそのオブジェクトob−nについて自らが指定している検索条件SC−nを把握することができ、自らのイメージにマッチした音素材の検索をより簡単に行うことができる。また、ユーザは、後刻、オブジェクトob−nを見たとき、そのオブジェクトob−nの形態からそのオブジェクトob−nが示す音素材の特徴あるいはそのオブジェクトob−nについて指定した音素材の検索条件SC−nを容易に想像することができる。
上記実施形態では、音検索・演奏プログラム29は、操作部13の操作に応じて、表示部17の表示領域内におけるオブジェクトob−nが示す音素材の検索条件SC−nとそのオブジェクトob−nの形態とを連動させて変化させる。よって、ユーザは、オブジェクトob−nの形態からそのオブジェクトob−nについて自らが指定している検索条件SC−nを把握することができ、自らのイメージにマッチした音素材の検索をより簡単に行うことができる。また、ユーザは、後刻、オブジェクトob−nを見たとき、そのオブジェクトob−nの形態からそのオブジェクトob−nが示す音素材の特徴あるいはそのオブジェクトob−nについて指定した音素材の検索条件SC−nを容易に想像することができる。
また、上記実施形態では、音検索・演奏プログラム29は、表示部17の表示領域内に複数のタイムラインLINE−iが表示されている場合は、その複数のタイムラインLINE−iの各々に対応した複数の種類のフレーズを時間軸上で重ね合わせた曲を発音させる。そして、表示領域内におけるあるオブジェクトob−nが複数のタイムラインLINE−iに属する場合は、複数のタイムラインLINE−iのx軸方向におけるそのオブジェクトob−nの位置に応じた時刻を、複数のフレーズの各々におけるそのオブジェクトob−nに応じた音の発音タイミングとする。よって、ユーザは、表示部17の表示領域内におけるタイムラインLINE−iとオブジェクトob−nを、1つまたは複数のオブジェクトob−nが複数のタイムラインLINE−iに属するような位置関係とすることにより、複数の周期のフレーズを時間軸上で重ね合わせた曲を作ることができる。
また、ユーザは、オブジェクト保存操作によってハードディスク25に保存したオブジェクト管理情報、レイアウト保存操作によってハードディスク25に保存したレイアウト情報、ログ記録開始操作とログ記録終了操作によってハードディスク25に保存したログ情報などを、音検索・演奏プログラム29をインストールした他のコンピュータのハードディスク25にコピーし、そのコンピュータを用いて素材配置作業を続けることもできる。
また、ユーザは、素材配置作業の途中で、それまで曲データベース26に記憶されていた曲データmd−k(k=1,2…)以外の曲データmd’−k(k=1,2…)とそれらの曲データmd’−k(k=1,2…)の解析結果であるレコード群を他のユーザから取得して曲データベース26と音素材データベース27,28に各々記憶させ、以後の作業を続けることもできる。表示部17の表示領域内のオブジェクトob−nの形態として指定している検索条件SC−nが同じであっても、検索の対象となる曲データベース26や音素材データベース27,28の収録内容が変われば、その検索結果SR−nとして得られる音素材も変わる。よって、ユーザは、表示部17の表示領域内におけるオブジェクトob−nとタイムラインLINE−iのレイアウトを変えずに曲データベース26と音素材データベース27,28の収録内容を変えることにより、周期Tごとに繰り返すフレーズの各音の発音タイミングは同じで各音の聞こえ方を微妙に変えた曲を作ることができる。
(第2実施形態)
次に、この発明の第2実施形態について説明する。本実施形態の特徴は、オブジェクトob−nと、複数個のタイムラインLINEの集合体であるタイムラインマトリクスMTRXとを含むGUIにある。タイムラインマトリクスMTRXは、x軸方向(水平方向)に延びるM(例えば、M=4とする)個のタイムラインLINE−i0(i=1〜4)とy軸方向(垂直方向)に延びるN(例えば、N=4とする)個のタイムラインLINE−0j(j=1〜4)を交差させた画像である。このタイムラインマトリクスMTRXでは、タイムラインLINE−i0(i=1〜4)の各々とタイムラインLINE−0j(j=1〜4)の各々との交差位置に合計16個の格子点gp−ij(i=1〜4,j=1〜4)が形成される。タイムラインLINE−i0及びLINE−0jの各々は、操作部13の操作により、活性状態と休止状態の2つの状態の一方から他方へと切り替わる。ここで、活性状態とは、曲をなす1つのフレーズを表象する画像として機能している状態を意味し、休止状態とは、曲をなす1つのフレーズを表象する画像として機能していない状態を意味する。
次に、この発明の第2実施形態について説明する。本実施形態の特徴は、オブジェクトob−nと、複数個のタイムラインLINEの集合体であるタイムラインマトリクスMTRXとを含むGUIにある。タイムラインマトリクスMTRXは、x軸方向(水平方向)に延びるM(例えば、M=4とする)個のタイムラインLINE−i0(i=1〜4)とy軸方向(垂直方向)に延びるN(例えば、N=4とする)個のタイムラインLINE−0j(j=1〜4)を交差させた画像である。このタイムラインマトリクスMTRXでは、タイムラインLINE−i0(i=1〜4)の各々とタイムラインLINE−0j(j=1〜4)の各々との交差位置に合計16個の格子点gp−ij(i=1〜4,j=1〜4)が形成される。タイムラインLINE−i0及びLINE−0jの各々は、操作部13の操作により、活性状態と休止状態の2つの状態の一方から他方へと切り替わる。ここで、活性状態とは、曲をなす1つのフレーズを表象する画像として機能している状態を意味し、休止状態とは、曲をなす1つのフレーズを表象する画像として機能していない状態を意味する。
本実施形態において、フレーズの作曲は、タイムラインマトリクスMTRXにおける1又は複数のタイムラインLINE−i0及びLINE−0jに、1又は複数のオブジェクトob−nを帰属させ、オブジェクトob−nを帰属させたタイムラインの全部又は一部を休止状態(この状態のタイムラインをインアクティブタイムラインという)から活性状態(この状態のタイムラインをアクティブタイムラインという)へ切り換えることにより行われる。
本実施形態では、第1実施形態と同様に、素材決定作業と素材配置作業とを経て1つの曲が作られる。以下、素材決定作業と素材配置作業における本実施形態の動作を説明する。素材決定作業では、ユーザは、オブジェクト出現操作、検索条件指定操作、マニュアル演奏操作、オブジェクト保存操作などを行い、曲の材料となる音素材を決定する。これらの各操作が行われた場合にCPU22が行う処理は、第1実施形態のものと同じである。
素材配置作業では、ユーザは、まず、タイムラインマトリクス出現操作を行う。タイムラインマトリクス出現操作が行われると、タイムライン管理処理31では、インアクティブタイムラインの集合体としてのタイムラインマトリクスMTRXを表示部17の表示領域内に表示させる。図16に示すように、このタイムラインマトリクスMTRXにおけるタイムラインLINE−i0(i=1〜4)は、タイムライン自体の1/4の長さの間隔を空けて垂直方向に並んでいる。また、タイムラインLINE−0j(j=1〜4)は、タイムラインLINE−i0間のものと同じ間隔を空けて水平方向に並んでいる。
さらに詳述すると、タイムラインLINE−i0(i=1〜4)のうち最も上のタイムラインLINE−10は、タイムラインLINE−0j(j=1〜4)の上端と交差し、各々の交差位置には格子点gp−1j(j=1〜4)が形成されている。タイムラインLINE−10の下のタイムラインLINE−20は、タイムラインLINE−0j(j=1〜4)の上下の端部間を4等分してできる3つの分割点のうち上側の分割点と交差し、各々の交差位置には格子点gp−2j(j=1〜4)が形成されている。タイムラインLINE−20の下のタイムラインLINE−30は、タイムラインLINE−0j(j=1〜4)の上下の端部間を4等分してできる3つの分割点のうち真中の分割点と交差し、各々の交差位置には格子点gp−3j(j=1〜4)が形成されている。タイムラインLINE−30の下のタイムラインLINE−40は、タイムラインLINE−0j(j=1〜4)の上下の端部間を4等分してできる3つの分割点のうち下側の分割点と交差し、各々の交差位置には格子点gp−4j(j=1〜4)が形成されている。
また、タイムラインLINE−i0(i=1〜4)における各タイムラインLINE−i0上と、隣り合うタイムラインLINE−i0間を等分した各位置と、タイムラインLINE−40及びLINE−30間を等分した距離だけタイムラインLINE−40の下の位置には、タイムラインLINE−i0と平行なグリッド線gがある。また、タイムラインLINE−0j(j=1〜4)における各タイムラインLINE−0j上と、隣り合うタイムラインLINE−0j間を等分した各位置と、タイムラインLINE−04及びLINE−03間を等分した距離だけタイムラインLINE−04の右の位置には、タイムラインLINE−0jと平行なグリッド線gがある。
ユーザは、タイムラインマトリクスMTRXを表示させた後、オブジェクト位置変更操作を行う。図17に示すように、オブジェクト位置変更操作では、素材決定作業において出現させておいたオブジェクトob−nをタイムラインマトリクスMTRXにおける格子点gp−ij(図17の例では、格子点gp−11及びgp−33)上に移動させる。その後、ユーザは、タイムライン切替操作により、タイムラインLINE−i0(i=1〜4)及びLINE−0j(j=1〜4)のうちオブジェクトob−nの移動先の格子点gp−ijにおいて交差しているものをインアクティブタイムラインからアクティブタイムラインへと切り換える。ユーザは、オブジェクトob−nの移動先の格子点gp−ijにおいて交差しているタイムラインLINE−i0及びLINE−0jの全てをアクティブタイムラインとしてもよいし、その一部だけをアクティブタイムラインとしてもよい。
CPU22は、タイムラインマトリクスMTRXにおける1つ以上のタイムラインがアクティブタイムラインになっている間、自動演奏処理34を行う。本実施形態における自動演奏処理34では、タイムラインマトリクスMTRXにおける格子点gp−ij上にオブジェクトob−nがある場合に、当該格子点gp−ij上において交差している2つのタイムラインLINE−i0及びLINE−0jが当該格子点gp−ij上のオブジェクトob−nを共有するものとしてタイムラインLINE−i0及びLINE−0jとオブジェクトob−nの帰属関係を決定する。
より詳細に説明すると、CPU22は、タイムラインマトリクスMTRXにおけるタイムラインLINE−i0又はLINE−0jがインアクティブタイムラインからアクティブタイムラインに切り換わる度に、そのタイムラインLINE−i0又はLINE−0jと対応するタイムラインタスクtsk−i0又はtsk−0jを立ち上げ、立ち上げたタイムラインタスクを実行する。
1つのタイムラインLINE−i0又はLINE−0jと対応する1つのタイムラインタスクtsk−i0又はtsk−0jでは、当該タイムラインの格子点gp−ij上にあるオブジェクトob−nを当該タイムラインに帰属するオブジェクトob−nとして決定する。そして、当該タイムラインに属するオブジェクトob−nが示す音を発音させる制御を周期T毎に繰り返す。具体的な処理内容は次の通りである。
タイムラインLINE−i0と対応するタイムラインタスクtsk−i0では、周期Tの間にタイミングポインタ62を当該タイムラインLINE−i0の左端から右端まで移動させる操作を周期的に繰り返しつつ、タイミングポインタ62のx座標値を監視する。そして、当該タイムラインLINE−i0の格子点gp−ij上にあるオブジェクトob−nのx座標値とタイミングポインタ62のx座標値が一致すると、当該オブジェクトob−nとタイミングポインタ62のx座標値が一致したタイミングを発音タイミングとして、当該オブジェクトob−nと対応する音素材を発音させるための処理を行う。
タイムラインLINE−0jと対応するタイムラインタスクtsk−0jでは、周期Tの間にタイミングポインタ62を当該タイムラインLINE−0jの上端から下端まで移動させる操作を周期的に繰り返しつつ、タイミングポインタ62のy座標値を監視する。そして、当該タイムラインLINE−0jの格子点gp−ij上にあるオブジェクトob−nのy座標値とタイミングポインタ62のy座標値が一致すると、当該オブジェクトob−nとタイミングポインタ62のy座標値が一致したタイミングを発音タイミングとして、当該オブジェクトob−nと対応する音素材を発音させるための処理を行う。
また、ユーザは、必要に応じてタイムライン位置変更操作を行うことができる。本実施形態におけるタイムライン位置変更操作では、タイムラインマトリクスMTRXにおけるタイムラインLINE−i0又はLINE−0jを、両隣のグリッド線gのうち一方と重なる位置まで平行移動させる。ユーザは、タイムラインLINE−i0(i=1〜4)及びLINE−0j(j=1〜4)のうち格子点gp−ij上にオブジェクトob−nがあるものを対象としてタイムライン位置変更操作を行うこともできるし、そうでないものを対象としてタイムライン位置変更操作を行うこともできる。また、インアクティブタイムラインを対象としてタイムライン位置変更操作を行うこともできるし、アクティブタイムラインを対象としてタイムライン位置変更操作を行うこともできる。
本実施形態におけるオブジェクト管理処理30では、CPU22は、図18に示すように、タイムライン位置変更操作の対象となったタイムラインの格子点gp−ij(図18の例では、タイムラインLINE−03の格子点gp−33)上にオブジェクトob−nがある場合、そのオブジェクトob−nを操作の対象となったタイムラインの移動に追随して移動させる。また、CPU22は、操作の対象となったタイムラインの格子点gp−ij上のオブジェクトob−nと対応付けられたRAM23内のオブジェクト管理情報を、そのオブジェクトob−nの移動後の水平方向及び垂直方向の位置を示すものへと書き換える。
次に具体例を挙げ、本実施形態においてタイムラインマトリクスMTRXとオブジェクトob−nを用いて行われる各種の作曲及びその自動演奏の態様を説明する。
たとえば、図19(A)の例では、タイムラインマトリクスMTRXの格子点gp−11上にオブジェクトob−1があり、格子点gp−14上にオブジェクトob−2があり、格子点gp−33上にオブジェクトob−3がある。また、格子点gp−34上にオブジェクトob−4があり、格子点gp−42上にオブジェクトob−5があり、格子点gp−43上にオブジェクトob−6がある。また、この例では、タイムラインLINE−10,LINE−30,及びLINE−03がアクティブタイムラインにされている。
この例の場合、CPU22は、タイムラインLINE−10,LINE−30,及びLINE−03と対応するタイムラインタスクtsk−10,tsk−30,及びtsk−03を立ち上げ、これら3つのタイムラインタスクtsk−10,tsk−30,及びtsk−03を並列かつ独立に実行する。そして、図19(B)に示すように、タイムラインタスクtsk−10では、周期Tを4等分した時刻t1,t2,t3,t4のうち時刻t1においてオブジェクトob−1の音素材の発音を行い、時刻t4においてオブジェクトob−2の音素材の発音を行う。また、図19(C)に示すように、タイムラインタスクtsk−30では、時刻t3においてオブジェクトob−3の音素材の発音を行い、時刻t4においてオブジェクトob−4の音素材の発音を行う。また、図19(D)に示すように、タイムラインタスクtsk−03では,時刻t3においてオブジェクトob−3の音素材の発音を行い、時刻t4においてオブジェクトob−6の音素材の発音を行う。
図20(A)の例は、図19(A)の例においてアクティブタイムラインであったタイムラインLINE−03をインアクティブタイムラインにし、インアクティブタイムラインであったタイムラインLINE−04をアクティブタイムラインにしたものである。この例の場合、CPU22は、タイムラインLINE−03と対応するタイムラインタスクtsk−03に替えてタイムラインLINE−04と対応するタイムラインタスクtsk−04を立ち上げ、実行する。そして、図20(E)に示すように、タイムラインタスクtsk−04では、周期Tを4等分した時刻t1,t2,t3,t4のうち時刻t1においてオブジェクトob−2の音素材の発音を行い、時刻t3においてオブジェクトob−4の音素材の発音を行う。
図21(A)の例は、図19(A)の例においてアクティブタイムラインとなっているタイムラインLINE−03を左のグリッド線gと重なる位置までx軸方向に移動させたものである。この例のように、タイムラインLINE−03をx軸方向に移動させた場合、タイムラインLINE−03の格子点gp−33及びgp−43上のオブジェクトob−3及びob−6は、タイムラインLINE−03に追随して右のグリッド線g上に移動する。また、アクティブタイムラインとなっている残りの2つタイムラインのうちタイムラインLINE−30は、タイムラインLINE−03とオブジェクトob−3を共有している。よって、タイムラインLINE−03を右のグリッド線g上に移動させた以降、図21(C’)に示すように、タイムラインLINE−30と対応するタイムラインタスクtsk−30では、それまで時刻t3において発音させていた音素材を時刻(t3+t4)/2において発音させる。
以上説明したように、本実施形態における音検索・演奏プログラム29では、タイムラインマトリクスMTRXを表示部17の表示領域内に表示させる。また、自動演奏処理34では、タイムラインマトリクスMTRXの格子点gp−ijにおいて交差する2つのタイムラインがその格子点gp−ij上のオブジェクトob−nを共有するものとして、タイムラインとオブジェクトob−nの帰属関係を決定する。そして、この帰属関係に基づいて、アクティブタイムラインとされたタイムラインの各々と対応するフレーズをなす音素材とその発音タイミングを決定する。よって、ユーザは、タイムラインマトリクスMTRXにおける所望の格子点gp−ij上にオブジェクトob−nを配置してアクティブタイムライン化するタイムラインを選ぶ、という簡単な操作により、複数の周期のフレーズを時間軸上で重ね合わせた曲を作ることができる。
また、本実施形態においても、第1実施形態と同様に、レイアウト保存操作が行われた場合、作曲情報管理処理32では、表示領域内のタイムラインマトリクスMTRXの各タイムラインLINE−i0及びLINE−0jの位置、格子点gp−ij上のオブジェクトob−nの位置(x座標値.y座標値)を配置情報とする。そして、この配置情報とオブジェクトob−nのオブジェクト管理情報のセットをレイアウト情報としてハードディスク25に記憶する。また、レイアウト読出操作が行われた場合、このレイアウト情報に基づいて表示領域内の表示内容を復元する。よって、ユーザは、レイアウト保存操作によってハードディスク25に保存したレイアウト情報を、音検索・演奏プログラム29をインストールした他のコンピュータのハードディスク25にコピーし、そのコンピュータを用いて素材配置作業を続けることができる。
以上、この発明の第1および第2実施形態について説明したが、この発明には他にも実施形態があり得る。例えば、以下の通りである。
(1)上記第1および第2実施形態において、CPU22は、表示部17の表示領域内にあるオブジェクトob−nが複製された場合、複製したオブジェクトob’−nが示す音の発音態様(ピッチ、音量、発音タイミングの遅延量など)を、複製元のオブジェクトob−nが示す音素材のパラメータと共通のパラメータにより制御するようにしてもよい。
(2)上記第1および第2実施形態では、曲データmd−k(k=1,2…)に含まれる音素材のうちエッジ音とダスト音の音素材を、オブジェクトob−nが示す音として発音させた。しかし、エッジ音やダスト音以外の、音の特徴から分類できる音の単位全般の音素材を発音させてもよい。
(1)上記第1および第2実施形態において、CPU22は、表示部17の表示領域内にあるオブジェクトob−nが複製された場合、複製したオブジェクトob’−nが示す音の発音態様(ピッチ、音量、発音タイミングの遅延量など)を、複製元のオブジェクトob−nが示す音素材のパラメータと共通のパラメータにより制御するようにしてもよい。
(2)上記第1および第2実施形態では、曲データmd−k(k=1,2…)に含まれる音素材のうちエッジ音とダスト音の音素材を、オブジェクトob−nが示す音として発音させた。しかし、エッジ音やダスト音以外の、音の特徴から分類できる音の単位全般の音素材を発音させてもよい。
(3)上記第1実施形態では、タイムラインLINE−iとオブジェクトob−nの位置関係に基づいて、各タイムラインLINE−iに属するオブジェクトob−nを決定するようにしたが、タイムラインLINE−iとオブジェクトob−nとの帰属関係を決定する方法はこれに限定されるものではない。例えば、タイムラインLINE−iとオブジェクトob−nが表示された状態において、マウス14等のポインティングデバイスの操作により1つのタイムラインLINE−iに帰属させる1または複数オブジェクトob−nを逐一指示させ、あるいは1つのタイムラインLINE−iに帰属させる1または複数のオブジェクトob−nを囲む曲線を描かせる操作を行わせることにより各タイムラインLINE−iに属するオブジェクトob−nを決定するようにしてもよい。
(4)上記第1および第2実施形態において、オブジェクトob−nの形状は、円形、多角形、自由図形などであってもよい。この場合において、それらのオブジェクトob−nの形状の変更に対応させて検索条件SC−nを変化させてもよい。たとえば、オブジェクトob−nを五角形の形状とし、その中心から5つの頂点の各々までの長さに応じて、特徴量Pや要検索数Numといった5種類の検索条件SC−nを個別に制御するようにしてもよい。
(5)上記第1および第2実施形態における検索条件指定操作では、オブジェクトob−nの表示色の濃淡を変化させたが、表示色の色彩を変化させてもよい。
(6)上記第1および第2実施形態において、CPU22は、操作部13の操作に応じて、表示部17の表示領域内に表示されたタイムラインLINE−i(i=1,2…)が示すフレーズの各々における小節数や拍子を設定するようにしてもよい。また、第1実施形態では、CPU22は、タイムラインLINE−iが示すフレーズの拍子に対応させてそのライムラインLINE−iの拍案内線63−j(j=1,2…)の数を増減するとよい。
(6)上記第1および第2実施形態において、CPU22は、操作部13の操作に応じて、表示部17の表示領域内に表示されたタイムラインLINE−i(i=1,2…)が示すフレーズの各々における小節数や拍子を設定するようにしてもよい。また、第1実施形態では、CPU22は、タイムラインLINE−iが示すフレーズの拍子に対応させてそのライムラインLINE−iの拍案内線63−j(j=1,2…)の数を増減するとよい。
(7)上記第1および第2実施形態において、CPU22は、操作部13の操作に応じて、タイムラインLINE−i,LINE−i0,LINE−0jが示すフレーズの各々におけるテンポを決めるパラメータ(たとえば、BPM(Beats Per Minute ))を設定してもよい。また、CPU22は、操作部13の操作に応じて、タイムラインLINE−i,LINE−i0,LINE−0jが示すフレーズの各々における1拍あたりの時間長を決めるパラメータ(たとえば、タイムベース(分解能))を設定してもよい。
(8)上記第1実施形態において、CPU22は、1つのタイムラインLINE−iと対応する1つのタイムラインタスクtsk−iでは、当該タイムラインLINE−iの占有領域内にあるオブジェクトob−nの左上隅のx座標値とタイミングポインタ62のx座標値が一致したときに、そのオブジェクトob−nと対応する音素材を発音させた。しかし、オブジェクトob−nの中心、左下隅、右上隅、右下隅などの他の位置のx座標値とタイミングポインタ62のx座標値が一致したときに、そのオブジェクトob−nと対応する音素材を発音させてもよい。
(9)上記第1実施形態では、CPU22は、タイムラインLINE−iにおける拍案内線63−j(j=1,2…)の数に関わらず、オブジェクト出現操作によって指定されたタイムラインLINE−i内の任意の位置にオブジェクトob−nを出現させた。しかし、CPU22は、タイムラインLINE−i内に出現させたオブジェクトob−nの位置をそのx座標値(たとえば、オブジェクトob−nの左上隅のx座標値)と直近の拍案内線63−jのx座標値とが一致するように補正するクオンタイズ制御を行ってもよい。
(10)上記第1および第2実施形態において、タイムラインLINE−iは、水平方向または垂直方向に延びた直線画像であった。しかし、タイムラインLINE−iは、曲線(閉曲線を含む)であってもよい。
(11)上記第1実施形態において、タイムラインLINE−iの拍案内線63−j(j=1〜5)の長さをy軸方向に伸ばす操作により、当該タイムラインLINE−iの占有領域の面積を広げることができるようにしてもよい。
(11)上記第1実施形態において、タイムラインLINE−iの拍案内線63−j(j=1〜5)の長さをy軸方向に伸ばす操作により、当該タイムラインLINE−iの占有領域の面積を広げることができるようにしてもよい。
(12)上記第1および第2実施形態において、タイムラインLINE−i,LINE−i0,LINE−0jのタイミングポインタ62は、タイムラインLINE−i,LINE−i0の左端から右端までの軌道やタイムラインLINE−0jの上端から下端までの軌道を等速に移動する必要はない。たとえば、タイミングポインタ62を、タイムラインLINE−i,LINE−i0の左端から右端までの軌道上のある区間を拡大、縮小したように移動させてもよいし、タイムラインLINE−0jの上端から下端までの軌道上のある区間を拡大、縮小したように移動させてもよい。
(13)上記第1実施形態における音加工処理36では、CPU22は、ピッチ、音量、発音タイミングの遅延量などのパラメータを変化させた。しかし、CPU22は、音加工処理36では、リバーブ処理やイコライザ処理などを行い、これらの処理内容を決定づけるパラメータをタイムラインLINE−iからオブジェクトob−nまでの距離dyに応じて変化させてもよい。
(14)上記第1実施形態では、CPU22は、パラメータ連動モードが指定されている場合、タイムラインLINE−iからオブジェクトob−nまでの距離dyに応じて、そのオブジェクトob−nと対応する音素材のピッチ、音量、発音タイミングの遅延量などを変化させた。しかし、CPU22は、タイムラインLINE−iからオブジェクトob−nまでの距離dyが大きいほど、そのオブジェクトob−nと対応する検索結果SR−nを構成する複数の音素材の中のより低いピッチをもった音素材を選択し、タイムラインLINE−iからオブジェクトob−nまでの距離dyが小さいほど、そのオブジェクトob−nと対応する検索結果SR−nを構成する複数の音素材の中のより高いピッチをもった音素材を選択する、といった制御を行ってもよい。
(15)上記第1および第2実施形態における操作ログ管理処理37では、CPU22は、マニュアル演奏操作に従って表示領域内のオブジェクトob−nと対応づけられた音素材を発音させるたびに、発音させた音素材とその発音時刻の対をシーケンスデータ化し、このシーケンスデータをオブジェクトob−nのオブジェクト管理情報に含めるようにしてもよい。
(16)上記第1および第2実施形態において、CPU22は、表示部17の表示領域内に表示されているタイムラインLINE−i,LINE−i0,LINE−0jとそのタイムラインLINE−i,LINE−i0,LINE−0jに帰属する一または複数のオブジェクトob−nとの位置関係に従って生成されるフレーズをシーケンスデータ化し、このシーケンスデータを新たなオブジェクトob−n(たとえば、オブジェクトob−10とする)と対応づけてもよい。そして、そのオブジェクトob−10を別のタイムラインLINE(たとえば、タイムラインLINE−6とする)に帰属させた場合に、オブジェクトob−10とタイムラインLINE−6との位置関係によって決まる発音タイミングにおいてオブジェクトob−10と対応づけられているシーケンスデータを再生するようにするとよい。
(17)上記第1実施形態において、CPU22は、表示部17の表示領域内におけるタイムラインLINE−iの位置が上にあるほどタイミングポインタ62の移動の速度を速くし、タイムラインLINE−iの位置が下にあるほどタイミングポインタ62の移動の速度を遅くする、といった制御を行ってもよい。また、表示部17の表示領域内に配置されたオブジェクトob−nをあたかも落下しているかのように上から下に向かって移動させ、重力などを定義するパラメータの設定に従ってその移動の速度を制御してもよい。
(18)上記第1および第2実施形態において、オブジェクトob−nは音素材の検索条件SR−nを示す画像であり、1つのタイムラインLINE−i,LINE−i0,またはLINE−0jと対応する1つのタイムラインタスクtsk−i,tsk−i0,またはtsk−0jでは、CPU22は、タイムラインLINE−i,LINE−i0,またはLINE−0jに属するオブジェクトob−nのx座標値またはy座標値とタイミングポインタ62のx座標値またはy座標値が一致したとき、そのオブジェクトob−nの検索条件SR−nに従った検索結果SR−nを構成する複数の音素材の中の一つを選択してサウンドシステム91から発音させた。しかし、オブジェクトob−nを発音対象とする一または複数の音素材そのものを示す画像としてもよい。この態様では、オブジェクトob−n(n=1,2…)の各々と一又は複数の音素材とを予め対応づけておく。そして、1つのタイムラインLINE−i,LINE−i0,またはLINE−0j(例えば、タイムラインLINE−7とする)と対応する1つのタイムラインタスクtsk−7では、CPU22は、タイムラインLINE−7に属するオブジェクトob−nのx座標値とタイミングポインタ62のx座標値が一致したとき、そのオブジェクトob−nと対応づけられている音素材をサウンドシステム91から発音させる。
(19)上記第1および第2実施形態は、本発明を、ループシーケンサに類するアプリケーションプログラムに適用したものであった。しかし、本発明は、ループシーケンサ以外のシーケンサにも適用可能である。たとえば、テンポや拍子などを異ならせた複数のタイムラインLINE−i(i=1,2…)であって各々が一曲分の演奏時間に相当するタイムラインLINE−i(i=1,2…)を表示部17の表示領域内に表示させ、それらの複数のタイムラインLINE−i(i=1,2…)が1または複数のオブジェクトob−nを共有するように各々の位置を指定してもよい。また、1曲分の演奏時間に相当するタイムラインLINE−1とその1曲分の演奏時間の間に繰り返すフレーズの周期Tに相当するタイムラインLINE−2とを表示部17の表示領域内に表示させ、それらのタイムラインLINE−1、LINE−2が1または複数のオブジェクトob−nを共有するように各々の位置を指定してもよい。
(20)上記第1および第2実施形態では、1つのオブジェクトob−nが2つ以上のタイムラインに帰属する場合であっても、そのオブジェクトob−nが示す音素材の検索先は同じデータベース(オブジェクトob−nがエッジ音のものであれば音素材データベース27,オブジェクトob−nがダスト音のものであれば音素材データベース28)であった。しかし、音素材の各種類(例えば、エッジ音とダスト音)の各々について複数のデータベースを準備し、1つのオブジェクトob−nが2つ以上のタイムラインに帰属する場合に、そのオブジェクトob−nが帰属するタイムライン毎に検索先のデータベースを変えるようにしてもよい。
この実施形態は、例えば、次のようにして実現する。まず、曲データmd−kに含まれるエッジ音のうち固い感じのするものを特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEと対応付けて記憶した音素材データベース27A,曲データmd−kに含まれるエッジ音のうち柔らかい感じのするものを特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEと対応付けて記憶した音素材データベース27B,曲データmd−kに含まれるダスト音のうち固い感じのするものを特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEと対応付けて記憶した音素材データベース28A,曲データmd−kに含まれるダスト音のうち柔らかい感じのするものを特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEと対応付けて記憶した音素材データベース28Bをハードディスク25内に準備しておく。
また、CPU22は、第2実施形態における処理と同様に、操作部13の操作により、表示部17の表示領域にタイムラインマトリクスMTRXとオブジェクトob−nを表示させる。そして、タイムラインマトリクスMTRXのタイムラインLINE−i0(i=1〜4)及びLINE−0j(j=1〜4)のうちアクティブタイムラインにされたものと対応するタイムラインタスクtsk−i0およびtsk−0jを立ち上げて各々実行する。さらに、CPU22は、タイムラインタスクtsk−i0では、タイムラインLINE−i0の格子点gp−ij上のオブジェクトob−nが示すエッジ音(または、ダスト音)の音素材を音素材データベース27A(または、28A)から検索して発音させる。また、タイムラインタスクtsk−0jでは、タイムラインLINE−0jの格子点gp−ij上のオブジェクトob−nが示すエッジ音(または、ダスト音)の音素材を音素材データベース27B(または、28B)から検索して発音させる。
この構成によると、タイムラインLINE−i0上を水平方向に移動するタイミングポインタ62とその格子点gp−ij上のオブジェクトob−nが重なる度に固い感じの音が発音され、タイムラインLINE−0j上を垂直方向に移動するタイミングポインタ62とその格子点gp−ij上のオブジェクトob−nが重なる度に柔らかい感じの音が発音される。よって、独創性のより高い曲を作ることができる。
(21)上記第2実施形態において、CPU22は、タイムラインマトリクスMTRXにおける格子点gp−ij(i=1〜4,j=1〜4)のうちの複数個の格子点gp−ijを辿ってできる軌跡を1つのタイムラインLINE”とし、このタイムラインLINE”の格子点gp−ij上のオブジェクトob−nが示す各音を、当該タイムラインLINE”を一直線状に伸ばしたものの長さ方向における当該オブジェクトob−nの位置により定まる発音タイミングにおいて発音させる制御を繰り返してもよい。
この実施形態は、例えば、次のようにして実現する。ユーザは、タイムラインマトリクスMTRXにおける格子点gp−ij上にオブジェクトob−nを配置する操作を行った後、格子点選択操作を行う。図22(A)に示すように、格子点選択操作では、オブジェクトob−nを配置したものを含む複数個の格子点gp−ij(図22(A)の例では、格子点gp−11,gp−12,gp−13,gp−33,gp−34)を順に選択する。また、この操作では、最後に選択した格子点gp−ijにおいて交差する2つのタイムラインLINE−i0およびLINE−0jのうち一方の終端(図22(A)の例では、タイムラインLINE−30の右端)を選択する。
CPU22は、自動演奏処理34では、格子点選択操作が行われると、格子点選択操作によって選択された複数個の格子点gp−ijとタイムラインLINE−i0またはLINE−0jの終端とを辿ってできる軌跡をタイムラインLINE”とする。また、格子点選択操作によって最初に選択された格子点gp−ijと同操作によって選択されたタイムラインLINE−i0またはLINE−0jの終端との間のタイムラインLINE−i0の数NI(図22(A)の例では、NI=2)およびタイムラインLINE−0jの数NJ(図22(A)の例では、NJ=4)を次式に代入して時間長T”を求める。CPU22は、この時間長T”を当該タイムラインLINE”に対応した周期T”とする。
T”=(NI+NJ)×T/4…(1)
T”=(NI+NJ)×T/4…(1)
そして、CPU22は、タイムラインLINE”と対応するタイムラインタスクtsk”を立ち上げ、実行する。図22(B)及び図22(C)は、タイムラインLINE”とこのタイムラインLINE”を一直線状に伸ばしたものを示す図である。図22(B)および図22(C)に示すように、タイムラインLINE”と対応するタイムラインタスクtsk”では、周期T”の間にタイミングポインタ62を当該タイムラインLINE”の始端から終端まで移動させる操作を繰り返しつつ、タイミングポインタ62のx座標値およびy座標値を監視する。そして、当該タイムラインLINE”の格子点gp−ij上にあるオブジェクトob−nのx座標値及びy座標値とタイミングポインタ62のx座標値及びy座標値が一致すると、そのオブジェクトob−nと対応する音素材を発音させるための処理を行う。
(22)上記第2実施形態では、タイムラインLINE−i0(i=1〜4)とタイムラインLINE−0j(j=1〜4)を直交させた画像をタイムラインマトリクスMTRXとした。しかし、タイムラインLINE−i0(i=1〜4)とタイムラインLINE−0j(j=1〜4)を90度より鋭角な角度や鈍角な角度で交差させた画像をタイムラインマトリクスMTRXとしてもよい。
(23)上記第2実施形態において、タイムラインマトリクスMTRXをなすタイムラインLINE−i0の個数Mを2個または3個としてもよいし、5個以上としてもよい。また、タイムラインマトリクスMTRXをなすタイムラインLINE−0jの個数Nを2個または3個としてもよいし、5個以上としてもよい。タイムラインマトリクスMTRXをなすタイムラインLINE−i0の個数MとタイムラインLINE−0jの個数Nを異なる数としてもよい。また、タイムラインマトリクスMTRXにおける複数個のタイムラインLINEの全てが他のタイムラインLINEと交差して格子点gpを形成している必要はない。タイムラインマトリクスMTRXにおける複数個のタイムラインLINEのうち少なくとも2個のタイムラインLINEが交差して1つの格子点gpを形成していればよい。
(24)上記第2実施形態では、タイムラインマトリクスMTRXは、垂直方向に並ぶタイムラインLINE−i0(i=1〜4)と水平方向に並ぶタイムラインLINE−0j(j=1〜4)を交差させた2次元のマトリクスであった。しかし、垂直方向に並ぶ複数個のタイムラインLINE、水平方向に並ぶ複数個のタイムラインLINE、および水平方向と垂直方向の両方に直交する方向(奥行き方向)に並ぶ複数個のタイムラインLINEを交差させた3次元のマトリクスとしてもよい。
(25)上記第2実施形態において、タイムラインマトリクスMTRXにおける隣り合うタイムラインLINE−i0間と隣り合うタイムラインLINE−0j間に等間隔で3本以上のグリッド線gを設けてもよい。また、操作部13の操作により、隣り合うタイムラインLINE−i0間のグリッド線gの本数や隣り合うタイムラインLINE−0j間のグリッド線gの本数をユーザが設定できるようにしてもよい。
(26)上記第1実施形態において、表示部17の表示領域に表示される各タイムラインLINE−iは、いずれも同じ方向(x軸方向)に延在する線画像であった。しかし、第1の方向(例えば、x軸方向)に延在する線画像としてのタイムラインLINE−iと第2の方向(例えば、y軸方向)に延在する線画像としてのタイムラインLINE−iを表示部17の表示領域に表示させ、表示領域内におけるそれら2種類のタイムラインLINE−iの位置関係を自由に変更できるようにしてもよい。そして、自動演奏処理34では、表示部17の表示領域内における第1の方向に延在するタイムラインLINE−i(例えば、タイムラインLINE−8とする)と第2の方向に延在するタイムラインLINE−i(例えば、タイムラインLINE−9とする)とが交差しており、2つのタイムラインLINE−8及びLINE−9が交差する格子点上にオブジェクトob−nがある場合に、当該格子点において交差しているタイムラインLINE−8及びLINE−9が当該格子点上のオブジェクトob−nを共有するものとして、タイムラインLINE−8及びLINE−9とオブジェクトob−nの帰属関係を決定してもよい。
(27)上記第1および第2実施形態において、低域強度PLOW、中低域強度PMID-LOW
、中高域強度PMID-HIGH、高域強度PHIGH、ピーク位置PTIME、およびピーク強度PVALUE以外の種類の特徴量を音素材の始点と終点の時刻tS,tEと対応付けて音素材データベース27及び28に格納してもよい。
(28)上記第1および第2実施形態において、エッジ音の音素材データベース27とダスト音の音素材データベース28を纏めて1つの音素材データベースとしてもよい。
、中高域強度PMID-HIGH、高域強度PHIGH、ピーク位置PTIME、およびピーク強度PVALUE以外の種類の特徴量を音素材の始点と終点の時刻tS,tEと対応付けて音素材データベース27及び28に格納してもよい。
(28)上記第1および第2実施形態において、エッジ音の音素材データベース27とダスト音の音素材データベース28を纏めて1つの音素材データベースとしてもよい。
(29)上記第2実施形態における自動演奏処理34では、タイムラインマトリクスMTRXの格子点gp−ij上にあるオブジェクトob−nをその格子点gp−ijにおいて交差する2つのタイムラインLINE−i0及びタイムラインLINE−0jの両方に帰属するオブジェクトob−nとし、タイムラインLINE−i0(またはタイムラインLINE−0j)上における格子点gp−ijから外れた位置にあるオブジェクトob−nを当該当該タイムラインLINE−i0(またはタイムラインLINE−0j)にのみ帰属するオブジェクトob−nとしてもよい。この場合において、当該タイムラインLINE−i0(またはタイムラインLINE−0j)と完全に重なっているオブジェクトob−nだけでなく、当該タイムラインLINE−i0(またはタイムラインLINE−0j)の上下(または左右)の所定範囲内にあるオブジェクトob−nについても、当該タイムラインLINE−i0(またはタイムラインLINE−0j)に帰属するものとしてもよい。
10…音検索・演奏装置、11…インターフェース、13…操作部、14…マウス、15…キーボード、16…ドラムパッド、17…表示部、20…制御部、22…CPU、23…RAM、24…ROM、25…ハードディスク、26…曲データベース、27,28…音素材データベース、29…音検索・演奏プログラム、91…サウンドシステム。
Claims (5)
- 操作手段と、
表示手段と、
前記操作手段の操作に応じて、曲中において繰り返される1または複数音の列の周期を示す画像である1または複数のタイムラインを前記表示手段に表示させるタイムライン管理処理手段と、
前記操作手段の操作に応じて、発音対象とする音を示す1または複数のオブジェクトを前記表示手段に表示させるオブジェクト管理処理手段と、
前記1または複数のオブジェクトの各々と前記1または複数のタイムラインの各々との帰属関係を決定し、各タイムラインについて並列かつ独立に、当該タイムラインに属する各オブジェクトが示す各音を当該タイムラインの長さ方向における当該オブジェクトの位置により定まる発音タイミングにおいて発音させる制御を当該タイムラインに対応した周期で繰り返す演奏処理手段と
を具備することを特徴とする演奏装置。 - 前記演奏処理手段は、前記表示手段の表示領域内における前記オブジェクトと前記タイムラインの位置関係に基づいて、前記オブジェクトと前記タイムラインの帰属関係を決定することを特徴とする請求項1に記載の演奏装置。
- 前記演奏処理手段は、前記タイムラインから前記タイムラインに属する各オブジェクトまでの距離に応じて、前記各オブジェクトが示す音の発音態様を示すパラメータを制御することを特徴とする請求項2に記載の演奏装置。
- 前記演奏処理手段は、前記表示手段における複数のタイムラインが交差しており、当該複数のタイムラインが交差している格子点上にオブジェクトがある場合に、当該格子点において交差している複数のタイムラインが当該格子点上のオブジェクトを共有するものとして前記帰属関係を決定することを特徴とする請求項1〜3のいずれか1の請求項に記載の演奏装置。
- コンピュータに、
操作手段の操作に応じて、曲中において繰り返される1または複数音の列の周期を示す画像である1または複数のタイムラインを表示手段に表示させるタイムライン管理処理手段と、
操作手段の操作に応じて、発音対象とする音を示す1または複数のオブジェクトを前記表示手段に表示させるオブジェクト管理処理手段と、
前記1または複数のオブジェクトの各々と前記1または複数のタイムラインの各々との帰属関係を決定し、各タイムラインについて並列かつ独立に、当該タイムラインに属する各オブジェクトが示す各音を当該タイムラインの長さ方向における当該オブジェクトの位置により定まる発音タイミングにおいて発音させる制御を当該タイムラインに対応した周期で繰り返す演奏処理手段と
を実現させるプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010056129A JP5509948B2 (ja) | 2009-04-08 | 2010-03-12 | 演奏装置およびプログラム |
EP20100158620 EP2239727A1 (en) | 2009-04-08 | 2010-03-31 | Musical performance apparatus and program |
US12/755,265 US9123318B2 (en) | 2009-04-08 | 2010-04-06 | Object based musical composition performance apparatus and program |
CN2010101455650A CN101859559B (zh) | 2009-04-08 | 2010-04-08 | 音乐演奏设备和音乐演奏设备的操作方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009093979 | 2009-04-08 | ||
JP2009093979 | 2009-04-08 | ||
JP2010056129A JP5509948B2 (ja) | 2009-04-08 | 2010-03-12 | 演奏装置およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010262267A true JP2010262267A (ja) | 2010-11-18 |
JP5509948B2 JP5509948B2 (ja) | 2014-06-04 |
Family
ID=43360344
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010056129A Expired - Fee Related JP5509948B2 (ja) | 2009-04-08 | 2010-03-12 | 演奏装置およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5509948B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012194525A (ja) * | 2011-03-02 | 2012-10-11 | Yamaha Corp | 発音制御装置、特定装置、発音制御システム、プログラムおよび発音制御方法 |
WO2013030863A1 (ja) * | 2011-08-26 | 2013-03-07 | パイオニア株式会社 | 表示装置、表示方法、およびプログラム |
WO2013031439A1 (ja) | 2011-08-26 | 2013-03-07 | オリンパス株式会社 | 単一発光粒子検出を用いた光分析装置、光分析方法及び光分析用コンピュータプログラム |
JP2013054228A (ja) * | 2011-09-05 | 2013-03-21 | Yamaha Corp | 音源制御装置及び音源制御プログラム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4255985B2 (ja) * | 2006-11-17 | 2009-04-22 | 学校法人 大阪電気通信大学 | 作曲支援装置、作曲支援システム、フレーズベース作曲支援方法及び情報処理プログラム |
-
2010
- 2010-03-12 JP JP2010056129A patent/JP5509948B2/ja not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4255985B2 (ja) * | 2006-11-17 | 2009-04-22 | 学校法人 大阪電気通信大学 | 作曲支援装置、作曲支援システム、フレーズベース作曲支援方法及び情報処理プログラム |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012194525A (ja) * | 2011-03-02 | 2012-10-11 | Yamaha Corp | 発音制御装置、特定装置、発音制御システム、プログラムおよび発音制御方法 |
WO2013030863A1 (ja) * | 2011-08-26 | 2013-03-07 | パイオニア株式会社 | 表示装置、表示方法、およびプログラム |
WO2013031439A1 (ja) | 2011-08-26 | 2013-03-07 | オリンパス株式会社 | 単一発光粒子検出を用いた光分析装置、光分析方法及び光分析用コンピュータプログラム |
JP2013054228A (ja) * | 2011-09-05 | 2013-03-21 | Yamaha Corp | 音源制御装置及び音源制御プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP5509948B2 (ja) | 2014-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9123318B2 (en) | Object based musical composition performance apparatus and program | |
JP5842545B2 (ja) | 発音制御装置、発音制御システム、プログラム及び発音制御方法 | |
US7589727B2 (en) | Method and apparatus for generating visual images based on musical compositions | |
JP5036797B2 (ja) | 発音処理装置、発音処理方法、及び発音処理プログラム | |
US7514622B2 (en) | Musical sound production apparatus and musical | |
JP5198766B2 (ja) | テンポの変化に対応するメトロノーム及び拍の間隔の記録方法 | |
Sentürk et al. | Crossole: A Gestural Interface for Composition, Improvisation and Performance using Kinect. | |
KR19990064283A (ko) | 실시간 음악 생성 시스템 | |
JP2000221976A (ja) | 曲データ作成装置および曲データ作成プログラムを記録した記録媒体 | |
JP5509948B2 (ja) | 演奏装置およびプログラム | |
US20150309703A1 (en) | Music creation systems and methods | |
EP0945849B1 (en) | Tone and picture generator device | |
TWI300000B (ja) | ||
JP5532659B2 (ja) | 音検索装置およびプログラム | |
JP6358203B2 (ja) | 動作評価装置、及びプログラム | |
TWI301417B (ja) | ||
JP3603599B2 (ja) | 演奏システムの視覚的表示方法および演奏システムの視覚的表示プログラムが記録されたコンピュータ読み取り可能な記録媒体 | |
JP5569543B2 (ja) | ギターコード表示装置及びプログラム | |
JP4366240B2 (ja) | ゲーム装置および音高付効果音生成プログラムならびに方法 | |
JP2007014700A (ja) | ゲームプログラム、ゲーム装置及びゲーム方法 | |
JP2017006277A (ja) | ゲームシステム、及びそれに用いられるコンピュータプログラム | |
JP3719151B2 (ja) | 演奏パターン処理装置、処理プログラム記録媒体及びデータ記録媒体 | |
JP4270102B2 (ja) | 自動演奏装置及びプログラム | |
JP5236559B2 (ja) | 音楽演奏ゲーム装置及び音楽演奏ゲーム装置の表示制御方法 | |
US11922910B1 (en) | System for organizing and displaying musical properties in a musical composition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140310 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5509948 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |