JP2007071903A - 楽曲創作支援装置 - Google Patents
楽曲創作支援装置 Download PDFInfo
- Publication number
- JP2007071903A JP2007071903A JP2005255367A JP2005255367A JP2007071903A JP 2007071903 A JP2007071903 A JP 2007071903A JP 2005255367 A JP2005255367 A JP 2005255367A JP 2005255367 A JP2005255367 A JP 2005255367A JP 2007071903 A JP2007071903 A JP 2007071903A
- Authority
- JP
- Japan
- Prior art keywords
- music
- identifier
- audio data
- database
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
【課題】 楽曲の創作を行うユーザに対し、より簡易な作業で楽曲を創作できるような仕組みを提供すること。
【解決手段】 複数の音楽素材のオーディオデータとその特徴とを予めデータベース化しておく。そして合奏曲を創作するユーザが自らの創作に係る合奏曲で登場させる旋律を口ずさむと、その旋律に近い特徴をもつ所定数の音楽素材をデータベースから抽出してタッチディスプレイに表示させる。ユーザは、タッチディスプレイに表示された音楽素材の中から好みの音楽素材を選択する。
【選択図】 図1
【解決手段】 複数の音楽素材のオーディオデータとその特徴とを予めデータベース化しておく。そして合奏曲を創作するユーザが自らの創作に係る合奏曲で登場させる旋律を口ずさむと、その旋律に近い特徴をもつ所定数の音楽素材をデータベースから抽出してタッチディスプレイに表示させる。ユーザは、タッチディスプレイに表示された音楽素材の中から好みの音楽素材を選択する。
【選択図】 図1
Description
本発明は、楽曲創作支援装置に関する。
近年の楽曲創作は、楽曲創作用のアプリケーションプログラムを実装したPC等を用いて行われることが主流となっている。例えば、特許文献1に開示された楽曲データ生成装置は、パーソナルコンピュータの表示装置(ディスプレイ)に創作のベースとなるインターフェース画面を表示させ、テンプレートとして予め準備されている旋律の音楽素材をそのインターフェース画面を介して組み立てていくことによって楽曲の創作が行われる。
特開2004−226892号公報
しかしながら、特許文献1に記された類の装置では、テンプレートを一通り聴いてみなければ自らの好みに最もマッチする音楽素材を決定できないため、より簡易な作業で楽曲の創作を行いたいという希望を持つユーザにとっては使い勝手が悪かった。
本発明は、このような背景の下に案出されたものであり、楽曲の創作を行うユーザに対し、より簡易な作業で楽曲を創作できるような仕組みを提供することを目的とする。
本発明は、このような背景の下に案出されたものであり、楽曲の創作を行うユーザに対し、より簡易な作業で楽曲を創作できるような仕組みを提供することを目的とする。
本発明の好適な態様である楽曲創作支援装置は、楽曲の構成要素となり得る各音楽素材の素材識別子と、それらの音楽素材の特徴を表す特徴パラメータとを各々対応付けて記憶した素材特徴データベースと、前記各音楽素材の素材識別子と、それらの音楽素材のオーディオデータとを各々対応付けて記憶したオーディオデータベースと、音楽素材の素材識別子を記憶するための識別子用バッファと、情報の表示手段と、音楽素材を集音する集音手段と、前記集音された音楽素材を解析してその特徴を表す特徴パラメータを取得すると共に、取得した特徴パラメータに近い特徴を表す特徴パラメータと対応付けられた所定数の素材識別子を前記素材特徴データベースから抽出し、それらの素材識別子を前記表示手段に表示させる第1の表示制御手段と、前記表示手段に表示させた一連の素材識別子の中から、楽曲の構成要素とする素材識別子、又は他の音楽素材の検索キーとする素材識別子を選択する識別子選択手段と、前記識別子選択手段によってある素材識別子が楽曲の構成要素として選択されると、その素材識別子を前記識別子用バッファに記憶する構成要素確定制御手段と、前記識別子選択手段によってある素材識別子が検索キーとして選択されると、選択された音楽素材の特徴パラメータに近い特徴を表す特徴パラメータと対応付けられた所定数の素材識別子を前記素材特徴データベースから抽出し、それらの素材識別子を前記表示手段に表示させる第2の表示制御手段と、前記識別子用バッファに記憶された素材識別子と対応付けて前記オーディオデータベースに記憶されたオーディオデータを基に合成された音を放音する放音手段とを備える。
この態様において、前記第1の表示制御手段は、前記抽出した所定数の素材識別子を、前記取得した音楽素材の特徴パラメータにより近い特徴を表す特徴パラメータと対応付けられているものから順に並べて前記表示手段に表示させ、前記第2の表示制御手段は、前記抽出した所定数の素材識別子を、前記選択した音楽素材の特徴パラメータにより近い特徴を表す特徴パラメータと対応付けられているものから順に並べて前記表示手段に表示させるようにしてもよい。
前記識別子用バッファは、楽曲の構成要素として前記識別子選択手段が選択した複数の素材識別子をその選択の順序に従って記憶するものであり、オーディオデータを記憶するためのオーディオデータ用バッファと、前記識別子用バッファに記憶された一連の素材識別子の各々と対応付けて記憶されたオーディオデータを前記オーディオデータベースから順次読み出し、それらのオーディオデータを読み出した順序に従って前記オーディオデータ用バッファに記憶する手段と、前記オーディオデータ用バッファに記憶された一連のオーディオデータを基に楽曲音を合成する合成手段とを更に備えてもよい。
また、各音響効果の種別を示す音響効果識別子と、それらの音響効果を付与すべくオーディオデータへ施されるべき信号処理の内容を示す音響効果パラメータとを各々対応付けて記憶したエフェクトデータベース13dと、前記エフェクトデータベース13dから所定数の音響効果識別子を抽出し、それらの音響効果識別子を前記表示手段に表示させる第3の表示制御手段と、前記表示手段に表示させた一連の音響効果識別子の中から、音響効果識別子を選択する音響効果選択手段とを更に備え、前記合成手段は、前記選択された音響効果識別子と対応付けて前記エフェクトデータベース13dに記憶された音響効果パラメータに従った信号処理を前記オーディオデータ用バッファに記憶された一連のオーディオデータに施し、当該信号処理を施したオーディオデータを基に楽曲音を合成するようにしてもよい。
本発明によると、楽曲の創作を行うユーザに対し、より簡易な作業で楽曲を創作させることができる。
(発明の実施の形態)
本願発明の実施の形態について説明する。
本実施形態は、以下の2つの特徴を有する。
1つ目の特徴は、合奏曲で繰り返し登場する比較的短い旋律の楽音(以下、「音楽素材」と呼ぶ)をベースやドラム、ギターなどといった楽器の各パート毎に組み合わせることによってオリジナルの合奏曲を創作できるようにした点である。
2つ目の特徴は、複数の音楽素材のオーディオデータとその特徴とを予めデータベース化しておき、合奏曲を創作するユーザが自らの創作に係る合奏曲で登場させる旋律を口ずさむと、その旋律に近い特徴をもつ所定数の音楽素材をデータベースから抽出してユーザの選択に供するようにした点である。
本願発明の実施の形態について説明する。
本実施形態は、以下の2つの特徴を有する。
1つ目の特徴は、合奏曲で繰り返し登場する比較的短い旋律の楽音(以下、「音楽素材」と呼ぶ)をベースやドラム、ギターなどといった楽器の各パート毎に組み合わせることによってオリジナルの合奏曲を創作できるようにした点である。
2つ目の特徴は、複数の音楽素材のオーディオデータとその特徴とを予めデータベース化しておき、合奏曲を創作するユーザが自らの創作に係る合奏曲で登場させる旋律を口ずさむと、その旋律に近い特徴をもつ所定数の音楽素材をデータベースから抽出してユーザの選択に供するようにした点である。
図1は、本実施形態にかかる楽曲創作支援装置のハードウェア構成を示すブロック図であり、図2はその外観を示す斜視図である。図1に示すように、本装置は、CPU11、RAM12、フラッシュメモリ13、マイクロホン14、スピーカ15、起動ボタン16、視聴ボタン17、確定ボタン18、検索ボタン19、モード切替ボタン20及びタッチディスプレイ21を備える。図2に示すように、本装置は、掌に収まるサイズの略直方体の形状を成し、その筐体の正面には、各種ボタン16乃至20、タッチディスプレイ21及びマイクロホン14が、左側面にはスピーカ15が夫々露出されている。また、タッチディスプレイ21は、最大で13の選択項目を表示できるように13の表示領域に区画されている。
また、フラッシュメモリ13は、楽曲創作支援プログラム13a、音楽素材データベース13b、テンプレートデータベース13c及びエフェクトデータベース13dを記憶する。
楽曲創作支援プログラム13aは、本実施形態に特有の機能をCPU11に実現させるプログラムである。
楽曲創作支援プログラム13aは、本実施形態に特有の機能をCPU11に実現させるプログラムである。
図3は、音楽素材データベース13bのデータ構造図である。このデータベースは、各々が、音楽素材と対応する複数のレコードの集合体である。このデータベースを構成する1つのレコードは、「識別子」、「音データ」、及び「特徴」の3つのフィールドを有している。
「識別子」のフィールドには、音楽素材を識別する素材IDが記憶される。ここで、各音楽素材の素材IDは、「ベース 1」や「ドラム 2」などといったように、合奏曲のパートを担当する楽器を表す文字列もしくはコードを一部に含む。
「音データ」のフィールドには、音楽素材のオーディオデータが記憶される。このオーディオデータは、音声素材となる比較的短い旋律であり、人の音声や自然音を録音したり、楽器により実際に演奏してその演奏音を収録することによって得られる。
「特徴」のフィールドには、特徴パラメータを記憶する。特徴パラメータは、各音楽素材の波形の特徴を表すパラメータであり、収録した各音楽素材のオーディオデータに所定の解析処理を施すことによって得られる。
「識別子」のフィールドには、音楽素材を識別する素材IDが記憶される。ここで、各音楽素材の素材IDは、「ベース 1」や「ドラム 2」などといったように、合奏曲のパートを担当する楽器を表す文字列もしくはコードを一部に含む。
「音データ」のフィールドには、音楽素材のオーディオデータが記憶される。このオーディオデータは、音声素材となる比較的短い旋律であり、人の音声や自然音を録音したり、楽器により実際に演奏してその演奏音を収録することによって得られる。
「特徴」のフィールドには、特徴パラメータを記憶する。特徴パラメータは、各音楽素材の波形の特徴を表すパラメータであり、収録した各音楽素材のオーディオデータに所定の解析処理を施すことによって得られる。
テンプレートデータベース13cを構成する各レコードは、「識別子」、「テンプレート」、「シーン数」の3つのフィールドを有する。「識別子」のフィールドには、予め設定されたシーンの配列パターンを識別する配列パターンIDを記憶する。ここで、「シーン」とは、所定の小節分(例えば、16小節分)の複数のパートの演奏内容を表す音楽素材の纏まりを意味する。また、シーンを形成する各パート毎の演奏内容を表した音楽素材の各々を「トラック」と呼ぶ。データベースの「テンプレート」のフィールドには、「第1シーン→第1シーン→第2シーン→第3シーン→第3シーン→第3シーン」といったように、複数のシーンの配列パターンを表す配列テンプレートデータを記憶する。ここで、「第1シーン」は、後述するシーン作成モードにおいてユーザに最初に作られたシーンを表し、「第2シーン」は2番目に作られたシーンを、「第3シーン」は3番目に作られたシーンを夫々表している。上記例の場合、最初に作られたシーンを2回繰り返した後、2番目に作られたシーンを1回挟み、3番目に作られたシーンを3回繰り返すといった演奏手順の合奏曲ができることになる。「シーン数」のフィールドには、配列テンプレートデータが表す配列パターンで登場するシーンの種類の総数を記憶する。上記例の場合、第1乃至第3の3つのシーンが登場するので、シーンの種類の総数は「3」となる。
エフェクトデータベース13dを構成する各レコードは、「識別子」と「パラメータ」の2つのフィールドを有する。「識別子」のフィールドには、音響効果の各種別を示す音響効果IDが記憶される。「パラメータ」のフィールドには、各音響効果の付与に必要な信号処理の内容を決定付けるエフェクトパラメータを記憶する。
ここで、本実施形態にかかる楽曲創作支援装置を用いた合奏曲創作の手順について、図4を参照して概説する。本実施形態においては、トラック作成モード→シーン作成モード→シーン配列モード→エフェクト選択モードと各モードを遷移させながら合奏曲を創作する。
トラック作成モードでは、ユーザが、自らの創作する合奏曲で頻繁に登場させる音楽素材を合奏曲の各パート毎に選択することによって複数のトラックを創作する。
シーン作成モードでは、ユーザが、各トラックを演奏時間が共通する組毎に取り纏めることによって複数のシーンを創作する。
シーン配列モードでは、ユーザが、各シーンをテンプレートデータベース13cから選択した配列テンプレートデータを雛形として並べることによって合奏曲全体にわたる旋律の内容を確定させる。
エフェクト選択モードでは、ユーザが、確定させた合奏曲全体の旋律に付与する音響効果を確定させる。
トラック作成モードでは、ユーザが、自らの創作する合奏曲で頻繁に登場させる音楽素材を合奏曲の各パート毎に選択することによって複数のトラックを創作する。
シーン作成モードでは、ユーザが、各トラックを演奏時間が共通する組毎に取り纏めることによって複数のシーンを創作する。
シーン配列モードでは、ユーザが、各シーンをテンプレートデータベース13cから選択した配列テンプレートデータを雛形として並べることによって合奏曲全体にわたる旋律の内容を確定させる。
エフェクト選択モードでは、ユーザが、確定させた合奏曲全体の旋律に付与する音響効果を確定させる。
次に、本実施形態の動作を説明する。
本実施形態の動作は、トラック作成モード処理、シーン作成モード処理、シーン配列モード処理、エフェクト選択モード処理に大別できる。
図5は、トラック作成モード処理を示すフローチャートである。この処理は、ユーザが楽曲創作支援装置の起動ボタン16を押下すると開始される。
本実施形態の動作は、トラック作成モード処理、シーン作成モード処理、シーン配列モード処理、エフェクト選択モード処理に大別できる。
図5は、トラック作成モード処理を示すフローチャートである。この処理は、ユーザが楽曲創作支援装置の起動ボタン16を押下すると開始される。
起動ボタン16が押下されると、楽曲創作支援装置のCPU11は、音楽素材の最初の検索キーとなる旋律の発音を促すメッセージをスピーカ15から放音する(S100)。
このメッセージが放音されると、ユーザは、図6に示すように、自らの創作する合奏曲の中に頻繁に登場させる予定の旋律の1つを発音する。
このメッセージが放音されると、ユーザは、図6に示すように、自らの創作する合奏曲の中に頻繁に登場させる予定の旋律の1つを発音する。
CPU11は、ユーザが発音した旋律をマイクにより集音して得た音声データの特徴を表す特徴パラメータを取得する(S110)。
CPU11は、音楽素材データベース13bの各レコードの中から、「特徴」のフィールドに記憶された特徴パラメータがステップ110で取得した特徴パラメータにより近い13のレコードを特定し、それらのレコードの「識別子」のフィールドに夫々記憶された素材IDを抽出する(S120)。
CPU11は、音楽素材データベース13bの各レコードの中から、「特徴」のフィールドに記憶された特徴パラメータがステップ110で取得した特徴パラメータにより近い13のレコードを特定し、それらのレコードの「識別子」のフィールドに夫々記憶された素材IDを抽出する(S120)。
CPU11は、ステップ120で抽出した13の素材IDを、ステップ110で取得した特徴パラメータにより近い特徴パラメータと対応付けられているものから順に並べてタッチディスプレイ21の各表示領域に表示させる(S130)。
図7は、ステップ130にて素材IDが表示された状態のタッチディスプレイ21を示す図である。この図において、最も右側の表示領域には、ユーザの発音した旋律から取得されたものと最も近い特徴パラメータと対応付けられた音楽素材の素材IDである「ベース 1」が表示され、その左隣の表示領域には、2番目に近い特徴パラメータと対応付けられた音楽素材の素材IDである「ドラム 1」が表示されている。
図7は、ステップ130にて素材IDが表示された状態のタッチディスプレイ21を示す図である。この図において、最も右側の表示領域には、ユーザの発音した旋律から取得されたものと最も近い特徴パラメータと対応付けられた音楽素材の素材IDである「ベース 1」が表示され、その左隣の表示領域には、2番目に近い特徴パラメータと対応付けられた音楽素材の素材IDである「ドラム 1」が表示されている。
タッチディスプレイ21に素材IDが表示されると、ユーザは、試聴操作、確定操作、検索操作、モード切替操作のいずれかを行うことができる。
試聴操作は、図8(a)のように、タッチディスプレイ21の各表示領域に表示された表示項目のうちの1つを選択した後、試聴ボタン17を押下することによって行われる。
確定操作は、図8(b)のように、タッチディスプレイ21の各表示領域に表示された表示項目のうちの1つ又は複数を選択した後、確定ボタン18を押下することによって行われる。
検索操作は、図8(c)のように、タッチディスプレイ21の各表示領域に表示された表示項目のうちの1つを選択した後、検索ボタン19を押下することによって行われる。
モード切替操作は、図8(d)のように、タッチディスプレイ21の各表示領域に表示された表示項目の何れも選択することなく、モード切替ボタン20を押下することによって行われる。
試聴操作は、図8(a)のように、タッチディスプレイ21の各表示領域に表示された表示項目のうちの1つを選択した後、試聴ボタン17を押下することによって行われる。
確定操作は、図8(b)のように、タッチディスプレイ21の各表示領域に表示された表示項目のうちの1つ又は複数を選択した後、確定ボタン18を押下することによって行われる。
検索操作は、図8(c)のように、タッチディスプレイ21の各表示領域に表示された表示項目のうちの1つを選択した後、検索ボタン19を押下することによって行われる。
モード切替操作は、図8(d)のように、タッチディスプレイ21の各表示領域に表示された表示項目の何れも選択することなく、モード切替ボタン20を押下することによって行われる。
試聴操作が行われると、楽曲創作支援装置のCPU11は、その操作により選択された素材IDを「識別子」のフィールドに記憶しているレコードを音楽素材データベース13bから特定し、特定したレコードの「音データ」のフィールドに記憶されたオーディオデータが表す楽音をスピーカ15から放音させる(S140)。
ユーザは、スピーカ15から放音される楽音を聴取し、その音色が自らの創作する合奏曲のパートの1つを担当させる楽器のものであるか、及びその旋律が自らの創作する合奏曲に頻繁に登場させるものと完全にマッチするものであるかを判断する。放音された楽音がこの2つの条件を共に満たすものであると判断したとき、ユーザは、確定操作を行う。一方、条件の両方又は一方を満たすものでないと判断したとき、ユーザは、別の音楽素材を対象として再び試聴操作を行うか、検索操作を行う。
ユーザは、スピーカ15から放音される楽音を聴取し、その音色が自らの創作する合奏曲のパートの1つを担当させる楽器のものであるか、及びその旋律が自らの創作する合奏曲に頻繁に登場させるものと完全にマッチするものであるかを判断する。放音された楽音がこの2つの条件を共に満たすものであると判断したとき、ユーザは、確定操作を行う。一方、条件の両方又は一方を満たすものでないと判断したとき、ユーザは、別の音楽素材を対象として再び試聴操作を行うか、検索操作を行う。
別の素材IDを対象として試聴操作が行われると、ステップ140の処理が繰り返される。
確定操作が行われると、CPU11は、その操作で選択された素材IDを、新たなトラックを識別する固有のトラックIDと対応付けてRAM12に記憶する(S150)。なお、上述のように、確定操作においては1つではなく複数の素材IDを選択してから確定ボタン18を操作してもよいが、そのような操作が行われた場合、本ステップでは、選択された複数の素材IDの各々を固有のトラックIDと対応付けてRAM12に記憶する。つまり、素材IDとトラックIDの複数の対がRAM12へ一度に記憶されることになる。
確定操作が行われると、CPU11は、その操作で選択された素材IDを、新たなトラックを識別する固有のトラックIDと対応付けてRAM12に記憶する(S150)。なお、上述のように、確定操作においては1つではなく複数の素材IDを選択してから確定ボタン18を操作してもよいが、そのような操作が行われた場合、本ステップでは、選択された複数の素材IDの各々を固有のトラックIDと対応付けてRAM12に記憶する。つまり、素材IDとトラックIDの複数の対がRAM12へ一度に記憶されることになる。
検索操作が行われると、CPU11は、その操作で選択された素材IDを「識別子」のフィールドに記憶しているレコードを音楽素材データベース13bから特定し、特定したレコードの「特徴」のフィールドに記憶されている特徴パラメータをRAM12に読み出す(S160)。
CPU11は、音楽素材データベース13bの各レコードの中から、「特徴」のフィールドに記憶された特徴パラメータがステップ160で読み出した特徴パラメータにより近い13のレコードを特定し、それらのレコードの「識別子」のフィールドに夫々記憶された素材IDを抽出する(S170)。
CPU11は、ステップ170で抽出した13の素材IDを、ステップ160で読み出した特徴パラメータにより近い特徴パラメータと対応付けられているものから順に並べてタッチディスプレイ21の各表示領域に表示させる(S180)。
CPU11は、音楽素材データベース13bの各レコードの中から、「特徴」のフィールドに記憶された特徴パラメータがステップ160で読み出した特徴パラメータにより近い13のレコードを特定し、それらのレコードの「識別子」のフィールドに夫々記憶された素材IDを抽出する(S170)。
CPU11は、ステップ170で抽出した13の素材IDを、ステップ160で読み出した特徴パラメータにより近い特徴パラメータと対応付けられているものから順に並べてタッチディスプレイ21の各表示領域に表示させる(S180)。
このステップ180を経た直後のタッチディスプレイ21の表示内容は図7に示したところと同様であり、表示領域の各々に素材IDが新たに表示される。
本ステップにてタッチディスプレイ21の各表示領域に素材IDが表示された状態でユーザが試聴操作を再び行うと、ステップ140の処理が繰り返され、ユーザの選択した音楽素材の楽音がスピーカ15から放音される。また、確定操作を行うとステップ150の処理が繰り返され、ユーザの選択した音楽素材の素材IDと固有のトラックIDの対がRAM12に記憶される。更に、検索操作を行うと、ステップ160乃至ステップ180の処理が繰り返され、ユーザが選択した音楽素材と特徴が似通った別の13の音楽素材の素材IDがタッチディスプレイ21に表示される。
本ステップにてタッチディスプレイ21の各表示領域に素材IDが表示された状態でユーザが試聴操作を再び行うと、ステップ140の処理が繰り返され、ユーザの選択した音楽素材の楽音がスピーカ15から放音される。また、確定操作を行うとステップ150の処理が繰り返され、ユーザの選択した音楽素材の素材IDと固有のトラックIDの対がRAM12に記憶される。更に、検索操作を行うと、ステップ160乃至ステップ180の処理が繰り返され、ユーザが選択した音楽素材と特徴が似通った別の13の音楽素材の素材IDがタッチディスプレイ21に表示される。
ユーザは、試聴操作及び検索操作によって、自らの創作する合奏曲の中に登場させる各旋律に最も近い音楽素材を音楽素材データベース13bから探し出し、確定操作によってそれらの音楽素材の各々に固有のトラックIDを割り振っていく。
必要な全ての音楽素材を探し出してそれらの確定操作を終えたユーザは、モード切替操作を行う。モード切替操作が行われると、シーン作成モード処理が開始される。
必要な全ての音楽素材を探し出してそれらの確定操作を終えたユーザは、モード切替操作を行う。モード切替操作が行われると、シーン作成モード処理が開始される。
図9は、シーン作成モード処理を示すフローチャートである。この図において、モード切替操作が行われると、CPU11は、トラック作成モード処理にてRAM12に記憶しておいたトラックIDの各々をタッチディスプレイ21に表示させる(S200)。
図10は、ステップ200にて素材IDが表示された状態のタッチディスプレイ21を示す図である。この図において、最も右側の表示領域には、トラック作成モードの最初の確定操作で選択された音楽素材に割り振られたトラックIDである「トラックA」が表示され、その左隣の表示領域には、次の確定操作で選択された音楽素材に割り振られたトラックIDである「トラックB」が表示されている。
図10は、ステップ200にて素材IDが表示された状態のタッチディスプレイ21を示す図である。この図において、最も右側の表示領域には、トラック作成モードの最初の確定操作で選択された音楽素材に割り振られたトラックIDである「トラックA」が表示され、その左隣の表示領域には、次の確定操作で選択された音楽素材に割り振られたトラックIDである「トラックB」が表示されている。
タッチディスプレイ21に素材IDが表示されると、ユーザは、試聴操作、確定操作、及びモード切替操作のいずれかを行うことができる。
試聴操作が行われると、CPU11は、その操作で選択されたトラックIDと対応付けてRAM12に記憶されている素材IDを特定する(S210)。
CPU11は、ステップ210で特定した素材IDを「識別子」のフィールドに記憶しているレコードを音楽素材データベース13bから特定し、特定したレコードの「音データ」のフィールドに記憶されたオーディオデータが表す楽音をスピーカ15から放音させる(S220)。
ユーザは、スピーカ15から放音される楽音を聴取することにより、図10のタッチディスプレイ21から選択したトラックIDがトラック作成モードの確定操作で選択したどの音楽素材に対応するものであるかを了解する。楽音を聴取することによってトラックIDと音楽素材との対応関係を了解したユーザは、別のトラックIDを対象として試聴操作を再び行う。
試聴操作が行われると、ステップ210及びステップ220の処理が繰り返され、別のトラックIDと対応する音楽素材がスピーカ15から放音される。
試聴操作が行われると、CPU11は、その操作で選択されたトラックIDと対応付けてRAM12に記憶されている素材IDを特定する(S210)。
CPU11は、ステップ210で特定した素材IDを「識別子」のフィールドに記憶しているレコードを音楽素材データベース13bから特定し、特定したレコードの「音データ」のフィールドに記憶されたオーディオデータが表す楽音をスピーカ15から放音させる(S220)。
ユーザは、スピーカ15から放音される楽音を聴取することにより、図10のタッチディスプレイ21から選択したトラックIDがトラック作成モードの確定操作で選択したどの音楽素材に対応するものであるかを了解する。楽音を聴取することによってトラックIDと音楽素材との対応関係を了解したユーザは、別のトラックIDを対象として試聴操作を再び行う。
試聴操作が行われると、ステップ210及びステップ220の処理が繰り返され、別のトラックIDと対応する音楽素材がスピーカ15から放音される。
全てのトラックIDを対象として試聴操作を行い、タッチディスプレイ21に表示された各トラックIDとシーン作成モードの確定操作で選択した音楽素材の全ての対応関係を了解したユーザは、1つのシーンとして取り纏めるトラックIDの組を対象として確定操作を行う。つまり、演奏時間を同じくさせる複数の音楽素材と夫々対応するトラックIDを順次選択してから、確定ボタン18を選択する。
確定操作が行われると、CPU11は、その操作で選択された複数のトラックIDの組を、新たなシーンを識別する固有のシーンIDと対応付けてRAM12に記憶する(S230)。
確定操作が行われると、CPU11は、その操作で選択された複数のトラックIDの組を、新たなシーンを識別する固有のシーンIDと対応付けてRAM12に記憶する(S230)。
ユーザは、確定操作を繰り返すことによって、タッチディスプレイ21に表示された各トラックIDを演奏時間を同じくする音楽素材と対応するトラックIDの組毎に取り纏め、取り纏めたトラックIDの組の各々にランダムなシーンIDを割り振っていく。
必要なトラックIDの全ての組を取りまとめてそれらの確定操作を終えたユーザは、モード切替操作を行う。モード切替操作が行われると、シーン配列モード処理が開始される。
必要なトラックIDの全ての組を取りまとめてそれらの確定操作を終えたユーザは、モード切替操作を行う。モード切替操作が行われると、シーン配列モード処理が開始される。
図11は、シーン配列モード処理を示すフローチャートである。この図において、モード切替操作が行われると、CPU11は、マルチシーケンストラックをRAM12に確保する(S300)。このトラックは、第1乃至第4の4つのトラックを有しており、各々のトラックは、パートID、トラックID、及び素材IDの配列やオーディオデータを記憶できるバッファとなっている。
続いて、CPU11は、テンプレートデータベース13cの各レコードの中から、「シーン数」のフィールドの数がシーン作成モード処理にてRAM12に記憶されたシーンIDの総数と同じであるレコードを特定し、特定したレコードの「識別子」のフィールドに夫々記憶された配列パターンIDを抽出する(S310)。
続いて、CPU11は、テンプレートデータベース13cの各レコードの中から、「シーン数」のフィールドの数がシーン作成モード処理にてRAM12に記憶されたシーンIDの総数と同じであるレコードを特定し、特定したレコードの「識別子」のフィールドに夫々記憶された配列パターンIDを抽出する(S310)。
CPU11は、ステップ310で抽出した配列パターンIDをタッチディスプレイ21の各表示領域に表示させる(S320)。
配列パターンIDが表示されると、ユーザは、試聴操作又はモード切替操作のいずれかを行うことができる。
配列パターンIDが表示されると、ユーザは、試聴操作又はモード切替操作のいずれかを行うことができる。
試聴操作が行われると、CPU11は、その操作で選択された配列パターンIDを「識別子」のフィールドに記憶したレコードをテンプレートデータベース13cから特定し、特定したレコードの「テンプレート」のフィールドに記憶された配列テンプレートデータを読み出す(S330)。
CPU11は、シーン作成モード処理でRAM12に記憶しておいた各シーンIDをステップ330で読み出した配列テンプレートデータに沿ってマルチシーケンストラックに配列する(S340)。
例えば、「シーンA」、「シーンB」、「シーンC」の3つのシーンIDがこの順番で素材IDの組と対応付けてRAM12に記憶されており、テンプレートデータベース13cから読み出した配列テンプレートデータが「第1シーン→第1シーン→第2シーン→第3シーン→第3シーン→第3シーン」となっている場合は、「シーンA→シーンA→シーンB→シーンC→シーンC→シーンC」のシーンIDの配列がマルチシーケンストラックの1つのトラック(例えば、第1トラック)に記憶されることになる。
CPU11は、シーン作成モード処理でRAM12に記憶しておいた各シーンIDをステップ330で読み出した配列テンプレートデータに沿ってマルチシーケンストラックに配列する(S340)。
例えば、「シーンA」、「シーンB」、「シーンC」の3つのシーンIDがこの順番で素材IDの組と対応付けてRAM12に記憶されており、テンプレートデータベース13cから読み出した配列テンプレートデータが「第1シーン→第1シーン→第2シーン→第3シーン→第3シーン→第3シーン」となっている場合は、「シーンA→シーンA→シーンB→シーンC→シーンC→シーンC」のシーンIDの配列がマルチシーケンストラックの1つのトラック(例えば、第1トラック)に記憶されることになる。
続いて、CPU11は、ステップ340を経てマルチシーケンストラックの各トラックに記憶された一連のシーンIDの各々を、シーン作成モード処理にてそれらのシーンIDと対応付けられたトラックIDの組と夫々置き換える(S350)。
例えば、「シーンA」、「シーンB」、「シーンC」の3つのシーンIDの各々が、3つのトラックIDの組と夫々対応付けられている場合は、それらの3つのトラックIDの配列がマルチシーケンストラックの3つのトラック(例えば、第1乃至第3トラック)に個別に記憶されることになる。
例えば、「シーンA」、「シーンB」、「シーンC」の3つのシーンIDの各々が、3つのトラックIDの組と夫々対応付けられている場合は、それらの3つのトラックIDの配列がマルチシーケンストラックの3つのトラック(例えば、第1乃至第3トラック)に個別に記憶されることになる。
CPU11は、ステップ350を経てマルチシーケンストラックの各トラックに記憶されたトラックIDの各々を、トラック作成モード処理にてそれらのトラックIDと対応付けられた素材IDと夫々置き換える(S360)。
CPU11は、ステップ360を経てマルチシーケンストラックの各トラックに記憶された一連の素材IDの各々を、それらの素材IDと対応付けて音楽素材データベース13bに記憶されたオーディオデータと夫々置き換える(S370)。
CPU11は、ステップ360を経てマルチシーケンストラックの各トラックに記憶された一連の素材IDの各々を、それらの素材IDと対応付けて音楽素材データベース13bに記憶されたオーディオデータと夫々置き換える(S370)。
CPU11は、ステップ370を経てマルチシーケンストラックに記憶された一連のオーディオデータをミキシングする(S380)。
CPU11は、ステップ380でミキシングしたオーディオデータが表す合奏曲の楽音をスピーカ15から放音させる(S390)。
CPU11は、ステップ380でミキシングしたオーディオデータが表す合奏曲の楽音をスピーカ15から放音させる(S390)。
ユーザは、スピーカ15から放音される合奏曲の楽音を聴取し、その演奏手順の内容が自らの創作イメージにマッチするものであるか否か判断する。演奏手順の内容が自らの創作イメージにマッチすると判断したとき、ユーザは、モード切替操作を行う。一方、自らの創作イメージにマッチするものでないと判断したとき、ユーザは、別の配列パターンIDを対象として試聴操作を行う。
ユーザによって試聴操作が再び行われると、ステップ330乃至ステップ390の処理が繰り返され、各シーンを他の配列パターンに沿って配列して得た合奏曲の楽音が放音される。一方、モード切替操作が行われると、エフェクト選択モード処理が実行される。
ユーザによって試聴操作が再び行われると、ステップ330乃至ステップ390の処理が繰り返され、各シーンを他の配列パターンに沿って配列して得た合奏曲の楽音が放音される。一方、モード切替操作が行われると、エフェクト選択モード処理が実行される。
図12は、エフェクト選択モード処理を示すフローチャートである。この図において、モード切替操作が行われると、CPU11は、エフェクトデータベース13dの各レコードの「識別子」のフィールドに記憶された音響効果IDを抽出する(S400)。
CPU11は、ステップ400で抽出した音響効果IDをタッチディスプレイ21の各表示領域に表示させる(S410)。
CPU11は、ステップ400で抽出した音響効果IDをタッチディスプレイ21の各表示領域に表示させる(S410)。
音響効果IDが表示されると、ユーザは試聴操作を行う。つまり、表示された音響効果IDの中の1つを選択して試聴ボタン17を選択する。
試聴操作が行われると、CPU11は、その操作で選択された音響効果IDを「識別子」のフィールドに記憶したレコードをテンプレートデータベース13cから特定し、特定したレコードの「パラメータ」のフィールドに記憶されたエフェクトパラメータを読み出す(S420)。
CPU11は、ステップ420で読み出したエフェクトパラメータに従った信号処理をシーン配列モード処理のステップ380でミキシングしたオーディオデータに施す(S430)。
試聴操作が行われると、CPU11は、その操作で選択された音響効果IDを「識別子」のフィールドに記憶したレコードをテンプレートデータベース13cから特定し、特定したレコードの「パラメータ」のフィールドに記憶されたエフェクトパラメータを読み出す(S420)。
CPU11は、ステップ420で読み出したエフェクトパラメータに従った信号処理をシーン配列モード処理のステップ380でミキシングしたオーディオデータに施す(S430)。
CPU11は、ステップ430で信号処理を施したオーディオデータが表す合奏曲の楽音をスピーカ15から放音させる(S440)。
ユーザは、スピーカ15から放音される合奏曲の楽音を聴取し、その音響効果の内容が自らの創作イメージにマッチするものであるか否か判断する。音響効果の内容が自らの創作イメージにマッチしないと判断したとき、ユーザは、別の音響効果IDを対象として試聴操作を行う。
ユーザによって試聴操作が再び行われると、ステップ420乃至ステップ440の処理が繰り返され、他の音響効果が付与された合奏曲の楽音が放音される。
ユーザは、スピーカ15から放音される合奏曲の楽音を聴取し、その音響効果の内容が自らの創作イメージにマッチするものであるか否か判断する。音響効果の内容が自らの創作イメージにマッチしないと判断したとき、ユーザは、別の音響効果IDを対象として試聴操作を行う。
ユーザによって試聴操作が再び行われると、ステップ420乃至ステップ440の処理が繰り返され、他の音響効果が付与された合奏曲の楽音が放音される。
以上説明した本実施形態では、トラック作成モード→シーン作成モード→シーン配列モード→エフェクト選択モードとモードを遷移させ、各モードにおいてタッチディスプレイ21に表示される各表示項目のどれかを選択していくだけでオリジナルの合奏曲を完成させることができる。
また、トラック作成モードにおいては、ユーザが自らの創作に係る合奏曲で登場させる旋律を口ずさむと、その旋律に特徴が近い音楽素材の素材IDがタッチディスプレイ21に表示され、タッチディスプレイ21に表示された素材IDの1つを選択して検索ボタン19を押下する検索操作を行なうと、その素材IDの音楽素材と似かよった特徴の別の13の音楽素材の素材IDが表示されるようになっている。また、素材IDの1つを選択して試聴ボタン17を押下する試聴操作を行なうと、その素材IDの音楽素材がスピーカ15から放音されるようになっており、素材IDの1つを選択して確定ボタン18を押下する確定操作を行なうと、その素材IDの音楽素材が楽曲のパートの構成要素として確定されるようにようになっている。従って、ユーザは、検索操作による音楽素材の検索→試聴操作による音楽素材の試聴→確定操作による楽曲のパートの構成要素の確定、という3段階の操作を再帰的に繰り返していくことにより、合奏曲の構成要素として用いる音楽素材を手際よく集めていくことができる。
また、トラック作成モードにおいては、ユーザが自らの創作に係る合奏曲で登場させる旋律を口ずさむと、その旋律に特徴が近い音楽素材の素材IDがタッチディスプレイ21に表示され、タッチディスプレイ21に表示された素材IDの1つを選択して検索ボタン19を押下する検索操作を行なうと、その素材IDの音楽素材と似かよった特徴の別の13の音楽素材の素材IDが表示されるようになっている。また、素材IDの1つを選択して試聴ボタン17を押下する試聴操作を行なうと、その素材IDの音楽素材がスピーカ15から放音されるようになっており、素材IDの1つを選択して確定ボタン18を押下する確定操作を行なうと、その素材IDの音楽素材が楽曲のパートの構成要素として確定されるようにようになっている。従って、ユーザは、検索操作による音楽素材の検索→試聴操作による音楽素材の試聴→確定操作による楽曲のパートの構成要素の確定、という3段階の操作を再帰的に繰り返していくことにより、合奏曲の構成要素として用いる音楽素材を手際よく集めていくことができる。
(他の実施形態)
本実施形態は、種々の変形実施が可能である。
上記実施形態において、楽曲創作支援装置のタッチディスプレイ21は、13の選択項目を表示できるように13の表示領域に区画されていたが、これよりも多い選択項目を表示できるように区分してもよいし、反対に、少ない選択項目を表示できるように区分してもよい。要するに、複数の表示領域に区分されていればその数は問わない。
本実施形態は、種々の変形実施が可能である。
上記実施形態において、楽曲創作支援装置のタッチディスプレイ21は、13の選択項目を表示できるように13の表示領域に区画されていたが、これよりも多い選択項目を表示できるように区分してもよいし、反対に、少ない選択項目を表示できるように区分してもよい。要するに、複数の表示領域に区分されていればその数は問わない。
上記実施形態では、各音楽素材のオーディオデータとその特徴とを予めデータベース化しておき、合奏曲を創作するユーザが自らの創作に係る合奏曲で登場させる旋律を口ずさむと、その旋律に近い特徴をもつ所定数の音楽素材をデータベースから抽出してユーザの選択に供するようになっていた。これに対し、「ロック」、「ポップス」、「エイトビート」などといったような、波形の特徴とは異なる属性を各音楽素材のオーディオデータと対応付けてデータベース化しておき、合奏曲を創作するユーザが自らの創作に係る合奏曲で登場させる旋律の属性を選択すると、その属性を有する所定数の音楽素材をデータベースから抽出してユーザの選択に供するようにしてもよい。
この変形例の動作及び概要を概念的に示すと、「楽曲の構成要素となり得る各音楽素材の素材識別子と、それらの音楽素材の一又は複数の属性を表す属性情報とを各々対応付けて記憶した素材属性データベースと、前記各音楽素材の素材識別子と、それらの音楽素材のオーディオデータとを各々対応付けて記憶したオーディオデータベースと、音楽素材の素材識別子を記憶するための識別子用バッファと、情報の表示手段と、音楽素材の属性を選択する属性選択手段と、前記選択された属性の属性情報と対応付けられた所定数の素材識別子を前記素材属性データベースから抽出し、それらの素材識別子を前記表示手段に表示させる第1の表示制御手段と、前記表示手段に表示させた一連の素材識別子の中から、楽曲の構成要素とする素材識別子、又は他の音楽素材の検索キーとする素材識別子を選択する識別子選択手段と、前記識別子選択手段によってある素材識別子が楽曲の構成要素として選択されると、その素材識別子を前記識別子用バッファに記憶する構成要素確定制御手段と、前記識別子選択手段によってある素材識別子が検索キーとして選択されると、選択された音楽素材と共通の属性を表す属性情報と対応付けられた所定数の素材識別子を前記素材属性データベースから抽出し、それらの素材識別子を前記表示手段に表示させる第2の表示制御手段と、前記識別子用バッファに記憶された素材識別子と対応付けて前記オーディオデータベースに記憶されたオーディオデータを基に合成された音を放音する放音手段とを備えた楽曲創作支援装置。」となる。
この変形例の動作及び概要を概念的に示すと、「楽曲の構成要素となり得る各音楽素材の素材識別子と、それらの音楽素材の一又は複数の属性を表す属性情報とを各々対応付けて記憶した素材属性データベースと、前記各音楽素材の素材識別子と、それらの音楽素材のオーディオデータとを各々対応付けて記憶したオーディオデータベースと、音楽素材の素材識別子を記憶するための識別子用バッファと、情報の表示手段と、音楽素材の属性を選択する属性選択手段と、前記選択された属性の属性情報と対応付けられた所定数の素材識別子を前記素材属性データベースから抽出し、それらの素材識別子を前記表示手段に表示させる第1の表示制御手段と、前記表示手段に表示させた一連の素材識別子の中から、楽曲の構成要素とする素材識別子、又は他の音楽素材の検索キーとする素材識別子を選択する識別子選択手段と、前記識別子選択手段によってある素材識別子が楽曲の構成要素として選択されると、その素材識別子を前記識別子用バッファに記憶する構成要素確定制御手段と、前記識別子選択手段によってある素材識別子が検索キーとして選択されると、選択された音楽素材と共通の属性を表す属性情報と対応付けられた所定数の素材識別子を前記素材属性データベースから抽出し、それらの素材識別子を前記表示手段に表示させる第2の表示制御手段と、前記識別子用バッファに記憶された素材識別子と対応付けて前記オーディオデータベースに記憶されたオーディオデータを基に合成された音を放音する放音手段とを備えた楽曲創作支援装置。」となる。
11…CPU、12…RAM、13…フラッシュメモリ、14…マイクロホン、15…スピーカ、16…起動ボタン、17…試聴ボタン、18…確定ボタン、19…検索ボタン、20…モード切替ボタン、21…タッチディスプレイ
Claims (4)
- 楽曲の構成要素となり得る各音楽素材の素材識別子と、それらの音楽素材の特徴を表す特徴パラメータとを各々対応付けて記憶した素材特徴データベースと、
前記各音楽素材の素材識別子と、それらの音楽素材のオーディオデータとを各々対応付けて記憶したオーディオデータベースと、
音楽素材の素材識別子を記憶するための識別子用バッファと、
情報の表示手段と、
音楽素材を集音する集音手段と、
前記集音された音楽素材を解析してその特徴を表す特徴パラメータを取得すると共に、取得した特徴パラメータに近い特徴を表す特徴パラメータと対応付けられた所定数の素材識別子を前記素材特徴データベースから抽出し、それらの素材識別子を前記表示手段に表示させる第1の表示制御手段と、
前記表示手段に表示させた一連の素材識別子の中から、楽曲の構成要素とする素材識別子、又は他の音楽素材の検索キーとする素材識別子を選択する識別子選択手段と、
前記識別子選択手段によってある素材識別子が楽曲の構成要素として選択されると、その素材識別子を前記識別子用バッファに記憶する構成要素確定制御手段と、
前記識別子選択手段によってある素材識別子が検索キーとして選択されると、選択された音楽素材の特徴パラメータに近い特徴を表す特徴パラメータと対応付けられた所定数の素材識別子を前記素材特徴データベースから抽出し、それらの素材識別子を前記表示手段に表示させる第2の表示制御手段と、
前記識別子用バッファに記憶された素材識別子と対応付けて前記オーディオデータベースに記憶されたオーディオデータを基に合成された音を放音する放音手段と
を備えた楽曲創作支援装置。 - 請求項1に記載の楽曲創作支援装置において、
前記第1の表示制御手段は、
前記抽出した所定数の素材識別子を、前記取得した音楽素材の特徴パラメータにより近い特徴を表す特徴パラメータと対応付けられているものから順に並べて前記表示手段に表示させ、
前記第2の表示制御手段は、
前記抽出した所定数の素材識別子を、前記選択した音楽素材の特徴パラメータにより近い特徴を表す特徴パラメータと対応付けられているものから順に並べて前記表示手段に表示させる
ことを特徴とする楽曲創作支援装置。 - 請求項1又は2に記載の楽曲創作支援装置において、
前記識別子用バッファは、
楽曲の構成要素として前記識別子選択手段が選択した複数の素材識別子をその選択の順序に従って記憶するものであり、
オーディオデータを記憶するためのオーディオデータ用バッファと、
前記識別子用バッファに記憶された一連の素材識別子の各々と対応付けて記憶されたオーディオデータを前記オーディオデータベースから順次読み出し、それらのオーディオデータを読み出した順序に従って前記オーディオデータ用バッファに記憶する手段と、
前記オーディオデータ用バッファに記憶された一連のオーディオデータを基に楽曲音を合成する合成手段と
を更に備える楽曲創作支援装置。 - 請求項3に記載の楽曲創作支援装置において、
各音響効果の種別を示す音響効果識別子と、それらの音響効果を付与すべくオーディオデータへ施されるべき信号処理の内容を示す音響効果パラメータとを各々対応付けて記憶したエフェクトデータベースと、
前記エフェクトデータベースから所定数の音響効果識別子を抽出し、それらの音響効果識別子を前記表示手段に表示させる第3の表示制御手段と、
前記表示手段に表示させた一連の音響効果識別子の中から、音響効果識別子を選択する音響効果選択手段と
を更に備え、
前記合成手段は、
前記選択された音響効果識別子と対応付けて前記エフェクトデータベースに記憶された音響効果パラメータに従った信号処理を前記オーディオデータ用バッファに記憶された一連のオーディオデータに施し、当該信号処理を施したオーディオデータを基に楽曲音を合成する
ことを特徴とする楽曲創作支援装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005255367A JP2007071903A (ja) | 2005-09-02 | 2005-09-02 | 楽曲創作支援装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005255367A JP2007071903A (ja) | 2005-09-02 | 2005-09-02 | 楽曲創作支援装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007071903A true JP2007071903A (ja) | 2007-03-22 |
Family
ID=37933432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005255367A Withdrawn JP2007071903A (ja) | 2005-09-02 | 2005-09-02 | 楽曲創作支援装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007071903A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009025386A (ja) * | 2007-07-17 | 2009-02-05 | Yamaha Corp | 楽曲を制作するための装置およびプログラム |
JP2010243892A (ja) * | 2009-04-08 | 2010-10-28 | Yamaha Corp | 音検索装置およびプログラム |
JP2010271398A (ja) * | 2009-05-19 | 2010-12-02 | Yamaha Corp | 音素材検索装置 |
US9263013B2 (en) | 2014-04-30 | 2016-02-16 | Skiptune, LLC | Systems and methods for analyzing melodies |
-
2005
- 2005-09-02 JP JP2005255367A patent/JP2007071903A/ja not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009025386A (ja) * | 2007-07-17 | 2009-02-05 | Yamaha Corp | 楽曲を制作するための装置およびプログラム |
JP2010243892A (ja) * | 2009-04-08 | 2010-10-28 | Yamaha Corp | 音検索装置およびプログラム |
JP2010271398A (ja) * | 2009-05-19 | 2010-12-02 | Yamaha Corp | 音素材検索装置 |
US9263013B2 (en) | 2014-04-30 | 2016-02-16 | Skiptune, LLC | Systems and methods for analyzing melodies |
US9454948B2 (en) | 2014-04-30 | 2016-09-27 | Skiptune, LLC | Systems and methods for analyzing melodies |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20060230910A1 (en) | Music composing device | |
TW202006534A (zh) | 音頻合成方法、裝置、儲存媒體和計算機設備 | |
JP2010518459A (ja) | 配布オーディオファイル編集用ウェブポータル | |
Lavengood | What makes it sound’80s? The Yamaha DX7 electric piano sound | |
JP6452229B2 (ja) | カラオケ効果音設定システム | |
JP2007078751A (ja) | 合奏システム | |
JP2008139426A (ja) | 評価用データのデータ構造、カラオケ装置及び記録媒体 | |
JP4926756B2 (ja) | カラオケ効果音出力システム | |
Fischer et al. | Instrument timbre enhances perceptual segregation in orchestral music | |
JP2007121935A (ja) | 音楽素材編集方法及び音楽素材編集システム | |
JP2009042784A (ja) | オンライン作曲のためのシステム、方法及びコンピュータ読取り可能な記録媒体 | |
JP2007071903A (ja) | 楽曲創作支援装置 | |
Nuanáin et al. | Rhythmic concatenative synthesis for electronic music: techniques, implementation, and evaluation | |
Zagorski-Thomas | An Analysis of Space, Gesture and Interaction in Kings of Leon's ‘Sex On Fire' | |
JP3623557B2 (ja) | 自動作曲システムおよび自動作曲方法 | |
CN111883090A (zh) | 基于移动终端的音频文件的制作方法及装置 | |
JP2009180757A (ja) | 電子音楽装置及び演奏データ編集表示プログラム | |
JP2007140308A (ja) | 音色及び/又は効果設定装置並びにプログラム | |
JP6611633B2 (ja) | カラオケシステム用サーバ | |
JP2011215347A (ja) | タイミング指定装置、曲再生装置、カラオケシステム及びタイミング指定方法 | |
KR100789588B1 (ko) | 음악 파일의 믹싱 방법 및 이를 이용한 단말기 | |
Exarchos | ‘Past’masters, present beats: exponential sound staging as sample-based (re) mastering in contemporary hip hop practice | |
JP2007233078A (ja) | 評価装置、制御方法及びプログラム | |
KR100666010B1 (ko) | 인터넷을 이용한 편곡 시스템 및 그 방법 | |
Miller | “The Sound of Silence”: A Comparative Analysis of the Recordings by Simon and Garfunkel and Disturbed |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080722 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090128 |