JP2018146853A - フレーズデータベース生成装置、フレーズデータベース生成方法およびフレーズデータベース生成プログラム - Google Patents
フレーズデータベース生成装置、フレーズデータベース生成方法およびフレーズデータベース生成プログラム Download PDFInfo
- Publication number
- JP2018146853A JP2018146853A JP2017043016A JP2017043016A JP2018146853A JP 2018146853 A JP2018146853 A JP 2018146853A JP 2017043016 A JP2017043016 A JP 2017043016A JP 2017043016 A JP2017043016 A JP 2017043016A JP 2018146853 A JP2018146853 A JP 2018146853A
- Authority
- JP
- Japan
- Prior art keywords
- data
- audio data
- phrase
- event data
- phrase database
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
【課題】入手しやすいオーディオデータを用いて多様な利用方法を有しかつ編曲作業において高い自由度を有するフレーズデータベースを生成することが可能なフレーズデータベース生成装置、フレーズデータベース生成方法およびフレーズデータベース生成プログラムを提供する。
【解決手段】記憶装置7はフレーズデータベース300を記憶する。参照オーディオデータ取得部110は、参照用のオーディオデータを参照オーディオデータRDを取得する。対象オーディオデータ抽出部120は、取得された参照オーディオデータRDから一または複数の対象オーディオデータOBを抽出する。イベントデータ列生成部180は、抽出された対象オーディオデータOBを演奏情報を表すイベントデータ列EDに変換する。登録部190は、イベントデータ列EDをフレーズデータFDとしてフレーズデータベース300に登録する。
【選択図】図2
【解決手段】記憶装置7はフレーズデータベース300を記憶する。参照オーディオデータ取得部110は、参照用のオーディオデータを参照オーディオデータRDを取得する。対象オーディオデータ抽出部120は、取得された参照オーディオデータRDから一または複数の対象オーディオデータOBを抽出する。イベントデータ列生成部180は、抽出された対象オーディオデータOBを演奏情報を表すイベントデータ列EDに変換する。登録部190は、イベントデータ列EDをフレーズデータFDとしてフレーズデータベース300に登録する。
【選択図】図2
Description
本発明は、複数のフレーズデータを記憶するフレーズデータベースを生成するためのフレーズデータベース生成装置、フレーズデータベース生成方法およびフレーズデータベース生成プログラムに関する。
楽曲データを自動的に生成する種々の楽曲生成装置が提案されている。例えば、特許文献1に記載された楽曲生成装置では、新たな楽曲データの生成のために参照される楽曲データのうち楽曲の生成のために参照される区間のデータが参照演奏データとして切り出される。参照演奏データが音符または休符等の演奏情報に従って複数のフレーズデータに分割される。分割された複数のフレーズデータがフレーズデータベースに記憶される。新たな楽曲データの生成の際には、元楽曲データにおいて楽曲生成対象区間のデータがターゲット区間データとして指定される。ターゲット区間データは、音符または休符等の演奏情報に従って複数のターゲットフレーズ区間に分割される。
使用者の検索対象指定操作に応じて、ターゲットフレーズ区間のデータに適合するフレーズデータがフレーズデータベースにおいて検索される。元楽曲データにおいて、各ターゲットフレーズ区間のデータが、検索されたフレーズデータにより置換される。それにより、新たな楽曲データが生成される。
上記の特許文献1に記載された楽曲生成装置においては、フレーズデータベースを生成するために、参照される楽曲データがオーディオデータである場合、生成されるフレーズデータもオーディオデータとなる。オーディオデータは、音の波形を示すサンプリングデータ列である。オーディオデータからなる楽曲データは入手しやすい。一方、MIDI(Musical Instrument Digital Interface)形式のデータ(以下、MIDIデータと呼ぶ。)は、演奏情報を示すイベントデータ列からなる。MIDIデータは多様な利用方法を有するとともに、編曲作業において高い自由度を有する。しかしながら、MIDIデータの編集作業に慣れない者にとってMIDIデータからなるフレーズデータを作成することは困難である。
本発明の目的は、入手しやすいオーディオデータを用いて多様な利用方法を有しかつ編曲作業において高い自由度を有するフレーズデータベースを生成することが可能なフレーズデータベース生成装置、フレーズデータベース生成方法およびフレーズデータベース生成プログラムを提供することである。
(1)本発明に係るフレーズデータベース生成装置は、楽曲データの生成のために使用可能な複数のフレーズデータをデータベースとして記憶する記憶手段と、参照用のオーディオデータを参照オーディオデータとして取得する取得手段と、取得された参照オーディオデータから一または複数の対象オーディオデータを抽出する抽出手段と、抽出された各対象オーディオデータを、演奏情報を表すイベントデータ列に変換する変換手段と、変換により得られたイベントデータ列を記憶手段に記憶されたデータベースにフレーズデータとして登録する登録手段とを備える。
そのフレーズデータベース生成装置においては、参照オーディオデータから一または複数の対象オーディオデータが抽出され、抽出された各対象オーディオデータがイベントデータ列に変換され、イベントデータ列がフレーズデータベースにフレーズデータとして登録される。したがって、入手しやすいオーディオデータを用いて多様な利用方法を有しかつ編曲作業において高い自由度を有するフレーズデータベースを生成することが可能となる。
(2)変換手段は、オーディオデータから音符の要素と表情の要素とを分離し、音符の要素を音符イベントデータに変換し、表情の要素を表情付けイベントデータに変換してもよい。この場合、使用者がイベントデータ列のイベントデータに表情を付加する作業を行うことなく、表情が付加された多様なフレーズデータをフレーズデータベースに登録することが可能となる。
(3)変換手段は、対象オーディオデータを予め定められた複数の変換規則に基づいて複数のイベントデータに変換し、変換により得られた複数のイベントデータにより構成されるイベントデータ列を生成する。この場合、対象オーディオデータが容易に複数種類のイベントデータに変換される。
(4)本発明に係るフレーズデータベース生成方法は、参照用のオーディオデータを参照オーディオデータとして取得するステップと、取得された参照オーディオデータから一または複数の対象オーディオデータを抽出するステップと、抽出された各対象オーディオデータを、演奏情報を表すイベントデータ列に変換するステップと、変換により得られたイベントデータ列を、記憶手段に記憶されたデータベースに、楽曲データの生成のために使用可能なフレーズデータとして登録するステップとを含む。
(5)本発明に係るフレーズデータベース生成プログラムは、参照用のオーディオデータを参照オーディオデータとして取得するステップと、取得された参照オーディオデータから一または複数の対象オーディオデータを抽出するステップと、抽出された各対象オーディオデータを、演奏情報を表すイベントデータ列に変換するステップと、変換により得られたイベントデータ列を、記憶手段に記憶されたデータベースに、楽曲データの生成のために使用可能なフレーズデータとして登録するステップとを、コンピュータに実行させるためのものである。
本発明によれば、入手しやすいオーディオデータを用いて多様な利用方法を有しかつ編曲作業において高い自由度を有するフレーズデータベースを生成することが可能となる。
以下、本発明の実施の形態に係るフレーズデータベース生成装置、フレーズデータベース生成方法およびフレーズデータベース生成プログラムについて図面を用いて詳細に説明する。
(1)電子音楽装置の構成
図1は本発明の一実施の形態に係るフレーズデータベース生成装置を含む電子音楽装置の構成を示すブロック図である。
図1は本発明の一実施の形態に係るフレーズデータベース生成装置を含む電子音楽装置の構成を示すブロック図である。
図1の電子音楽装置1は、例えば楽曲生成装置または電子楽器である。電子音楽装置1は、演奏操作子2、設定操作子3および表示器4を備える。演奏操作子2は、例えば鍵盤を含み、バス14に接続される。使用者の演奏動作に基づく演奏データが楽曲データとして演奏操作子2により入力される。設定操作子3は、オンオフ操作される操作スイッチ、回転操作される操作スイッチ、またはスライド操作される操作スイッチ等を含み、バス14に接続される。この設定操作子3は、音量の調整、電源のオンオフおよび各種設定を行うために用いられる。表示器4はバス14に接続される。表示器4には、楽曲名、楽譜、またはその他の各種情報が表示される。表示器4がタッチパネルディスプレイであってもよい。この場合、演奏操作子2または設定操作子3の一部または全てが表示器4に表示されてもよい。使用者は、表示器4を操作することにより各種操作を指示することができる。
電子音楽装置1は、音源部5およびサウンドシステム6を備える。音源部5はバス14に接続され、演奏操作子2から入力される楽曲データまたは後述する記憶装置7から与えられる楽曲データ等に基づいてオーディオデータ(音響信号)を生成する。オーディオデータは、音の波形を示すサンプリングデータ列である。サウンドシステム6は、デジタルアナログ(D/A)変換回路、増幅器およびスピーカを含む。このサウンドシステム6は、音源部5から与えられるオーディオデータをアナログ音信号に変換し、アナログ音信号に基づく音を発生する。
電子音楽装置1は、記憶装置7、RAM(ランダムアクセスメモリ)9、ROM(リードオンリメモリ)10、CPU(中央演算処理装置)11および通信I/F(インタフェース)12をさらに備える。記憶装置7、RAM9、ROM10、CPU11および通信I/F12はバス14に接続される。外部電子音楽装置13等の外部機器が通信I/F12を介してバス14に接続されてもよい。
記憶装置7は、ハードディスク、光学ディスク、磁気ディスクまたはメモリカード等の記憶媒体を含む。この記憶装置7には、楽曲データが記憶されるととともにフレーズデータベース300が記憶される。フレーズデータベース300の構成については後述する。本実施の形態では、楽曲データは、楽曲を表すオーディオデータである。演奏操作子2から入力される楽曲データが記憶装置7に記憶されてもよい。
ROM10は、例えば不揮発性メモリからなり、フレーズデータベース生成プログラム、楽曲データ生成プログラムおよび制御プログラム等のコンピュータプログラムを記憶する。RAM9は、例えば揮発性メモリからなり、CPU11の作業領域として用いられるとともに、各種データを一時的に記憶する。CPU11は、ROM10に記憶されたフレーズデータベース生成プログラム、楽曲データ生成プログラムおよび制御プログラムを実行する。記憶装置7、RAM9、ROM10およびCPU11がフレーズデータベース生成装置100および楽曲データ生成装置200を構成する。なお、フレーズデータベース生成プログラムおよび楽曲データ生成プログラムが記憶装置7に記憶されてもよい。
フレーズデータベース生成プログラムおよび楽曲データ生成プログラムは、コンピュータが読み取り可能な記録媒体に格納された形態で提供され、ROM10または記憶装置7にインストールされてもよい。また、通信I/F12が通信網に接続されている場合、通信網に接続されたサーバから配信されたフレーズデータベース生成プログラムおよび楽曲データ生成プログラムがROM10または記憶装置7にインストールされてもよい。
(2)フレーズデータベース生成装置100および楽曲データ生成装置200
図2はフレーズデータベース生成装置100および楽曲データ生成装置200の機能的な構成を示すブロック図である。図3は差分ピッチの検出方法を示す模式図である。図4はフレーズデータベース生成装置100によるフレーズデータベース生成処理の一例を示す模式図である。
図2はフレーズデータベース生成装置100および楽曲データ生成装置200の機能的な構成を示すブロック図である。図3は差分ピッチの検出方法を示す模式図である。図4はフレーズデータベース生成装置100によるフレーズデータベース生成処理の一例を示す模式図である。
図2に示すように、フレーズデータベース生成装置100は、参照オーディオデータ取得部110、対象オーディオデータ抽出部120、周波数検出部130、振幅検出部140、波形検出部150、音符要素検出部160、表情要素検出部170、イベントデータ列生成部180、登録部190およびフレーズデータベース300を含む。表情要素検出部170は、差分ピッチ検出部171、音量検出部172および音色検出部173を含む。フレーズデータベース生成装置100の各部の機能は、図1のCPU11がROM10または記憶装置7に記憶されたフレーズデータベース生成プログラムを実行することにより実現される。
楽曲データ生成装置200は、元楽曲データ取得部210、ターゲット区間指定部220、ターゲットフレーズ分割部230、フレーズデータ検索部240、データ変換部250およびフレーズデータ置換部260を含む。楽曲データ生成装置200の各部の機能は、図1のCPU11がROM10または記憶装置7に記憶された楽曲データ生成プログラムを実行することにより実現される。
フレーズデータベース生成装置100において、参照オーディオデータ取得部110は、記憶装置7に記憶される楽曲データまたは演奏操作子2から入力される楽曲データを参照オーディオデータRDとして取得する。また、参照オーディオデータ取得部110は、外部電子音楽装置13から与えられる楽曲データを参照オーディオデータRDとして取得してもよい。対象オーディオデータ抽出部120は、参照オーディオデータ取得部110により取得された参照オーディオデータRDのうち楽曲生成の際に参照の対象とされる区間のデータを一または複数の対象オーディオデータOBとして抽出する。この場合、対象オーディオデータ抽出部120は、参照オーディオデータRDを複数の区間に分割することにより一または複数の対象オーディオデータOBを得る。例えば、参照オーディオデータRDが所定区間ごとに分割されてもよく、休符区間で分割されてもよい。あるいは、参照オーディオデータRDからコードが検出され、参照オーディオデータRDがコードの区間ごとに分割されてもよい。また、使用者の設定操作子3の操作に基づいて参照オーディオデータRDの一部または全てが対象オーディオデータOBとして抽出されてもよい。
周波数検出部130は、対象オーディオデータ抽出部120により抽出された対象オーディオデータOBの周波数を所定時間ごとに検出する。振幅検出部140は、対象オーディオデータ抽出部120により抽出された対象オーディオデータOBの振幅を所定時間ごとに検出する。波形検出部150は、対象オーディオデータ抽出部120により抽出された対象オーディオデータOBの波形を所定時間ごとに検出する。
音符要素検出部160は、周波数検出部130により検出された周波数および振幅検出部140により検出された振幅に基づいて音符要素を検出する。本実施の形態では、音符要素は、音符のピッチ、音符の長さ(デュレーション)および音の強さ(ベロシティ)を含む。例えば、図3(a)に示すように、対象オーディオデータOBの周波数の時間的変化が検出される。実際の周波数fの時間的変化において音名に相当する周波数N1,N2が特定される。それにより、図3(b)に示すように、各音符の音名が検出されるとともに、各音符の長さが検出される。図3(b)の例では、音名の“C”および音名の“D”が特定される。また、対象オーディオデータOBにおいて各音符に相当する区間の振幅に基づいて各音符についての音の強さが検出される。
表情要素検出部170は、周波数検出部130により検出された周波数、振幅検出部140により検出された振幅および波形検出部150により検出された波形に基づいて表情要素を検出する。本実施の形態では、表示要素は、音量、ピッチの変動および音色を含む。表情要素検出部170において、差分ピッチ検出部171は、検出された周波数の変化に基づいて各音符のピッチを基準とするピッチの変動を差分ピッチとして検出する。差分ピッチは、半音以下のピッチであり、数セント〜数十セント程度である。例えば、図3(c)に示すように、図3(a)の実際の周波数fと音名に相当する周波数N1,N2との差分に相当する差分ピッチdが検出される。
音量検出部172は、検出された振幅に基づいて音量を検出する。音色検出部173は、検出された波形に基づいて音色を検出する。例えば、複数の音色に対応する波形が予め記憶され、検出された波形が予め記憶された波形と比較されることにより音色が検出される。
本実施の形態では、図4に示されるように、対象オーディオデータOBの周波数、振幅および波形が検出される。周波数および振幅に基づいて音符要素が検出される。上記のように、音符要素には、音符のピッチ、音符の長さおよび音の強さが含まれる。また、周波数、振幅および波形に基づいて表情要素が検出される。上記のように、表情要素には、音量、ピッチの変動および音色が含まれる。
図2のイベントデータ列生成部180は、以下に示される複数の変換規則に基づいて、音符要素検出部160により検出された音符要素および表情要素検出部170により検出された表情要素を表すMIDI形式のイベントデータ列EDを生成する。本実施の形態では、図4に示すように、音符のピッチ、音符の長さおよび音の強さに基づいて「ノートオン」および「ノートオフ」が生成される。「ノートオン」は、発音を表すイベントデータであり、音符のピッチに対応するノート番号および音の強さであるベロシティの値を含む。「ノートオフ」は消音を表すイベントデータである。時間軸上での「ノートオン」から「ノートオフ」までの時間が音符の長さを表す。
音量に基づいて「ボリューム」または「エクスプレッション」が生成される。「ボリューム」は音量を調整するためのイベントデータであり、音量を表す値を含む。「エクスプレッション」は音量を変化させるためのイベントデータであり、音量を表す値を含む。「エクスプレッション」を用いて楽曲にクレッシェンドまたはデクレッシェンド等の抑揚を付けることができ、「ボリューム」を用いて楽曲の複数のパートの基本的なミックスバランスを設定することができる。
ピッチの変動に基づいて「ピッチベンド」が生成される。「ピッチベンド」は、ピッチを変化させるためのイベントデータであり、基準値を中心とするピッチの変化量を示す値を含む。音色に基づいて「プログラムチェンジ/バンクセレクト」が生成される。「プログラムチェンジ」は、音色を切り替えるためのイベントデータであり、音色を示す値を含む。「バンクセレクト」は、複数の音色を含むバンクを切り替えるためのイベントデータであり、バンクを示す値を含む。なお、音色を同じバンク内で切り替える場合には、イベントデータとして「プログラムチェンジ」のみが生成される。
図2の登録部190は、イベントデータ列生成部180により生成されたイベントデータ列EDをフレーズデータFDとして記憶装置7のフレーズデータベース300に登録する。
図2の楽曲データ生成装置200において、元楽曲データ取得部210は、記憶装置7に記憶される楽曲データまたは演奏操作子2から入力される楽曲データを元楽曲データBD1として取得する。元楽曲データBD1は、新たな楽曲データの生成に用いられる楽曲データである。ターゲット区間指定部220は、使用者による設定操作子3の操作に基づいて元楽曲データBD1のうち変更対象区間のデータ(以下、ターゲット区間データTSと呼ぶ。)を指定する。図4の例では、元楽曲データBD1のうちターゲット区間データTSa,TSbが指定される。
図2のターゲットフレーズ分割部230は、ターゲット区間指定部220により指定された各ターゲット区間データTSを音符または休符等の演奏情報に基づいて分割することにより複数のターゲットフレーズTFを得る。
フレーズデータ検索部240は、ターゲットフレーズ分割部230により得られた各ターゲットフレーズTFについて所定の条件に適合するフレーズデータFDをフレーズデータベース300内の複数のフレーズデータFDから検索する。データ変換部250は、フレーズデータ検索部240により検索されたフレーズデータFDの各音高をターゲットフレーズTFに基づいて調整し、調整後のフレーズデータFDaを生成する。例えば、データ変換部250は、フレーズデータFDの各音高をターゲットフレーズTFのコード、調または音域に適合するように調整する。
フレーズデータ置換部260は、ターゲット区間データTSにおいて変更対象となるターゲットフレーズTFをデータ変換部250により得られたフレーズデータFDaで置換する。それにより、新たな楽曲データBD2が生成される。
(3)フレーズデータベース生成装置100の動作
まず、図5を参照しながらフレーズデータベース生成処理について説明する。図5はフレーズデータベース生成装置100により行われるフレーズデータベース生成処理を示すフローチャートである。図5のフレーズデータベース生成処理は、図1のCPU11がROM10または記憶装置7に記憶されたフレーズデータベース生成プログラムを実行することにより行われる。
まず、図5を参照しながらフレーズデータベース生成処理について説明する。図5はフレーズデータベース生成装置100により行われるフレーズデータベース生成処理を示すフローチャートである。図5のフレーズデータベース生成処理は、図1のCPU11がROM10または記憶装置7に記憶されたフレーズデータベース生成プログラムを実行することにより行われる。
図2の参照オーディオデータ取得部110が参照オーディオデータRDを取得する(ステップS1)。参照オーディオデータRDは、例えば単音のピアノパート、ドラムパート等を表すオーディオデータである。次に、対象オーディオデータ抽出部120が参照オーディオデータRDから一または複数の対象オーディオデータOBを抽出する(ステップS2)。
その後、イベントデータ列生成部180が後述するイベントデータ列生成処理を行う(ステップS3)。それにより、イベントデータ列EDが生成される。次いで、登録部190がイベントデータ列EDをフレーズデータFDとしてフレーズデータベース300に登録する(ステップS5)。その後、登録部190は、全ての対象オーディオデータOBについてフレーズデータFDが登録されたか否かを判定する(ステップS5)。いずれかの対象オーディオデータOBについてフレーズデータFDが登録されていない場合には、次の対象オーディオデータOBについてステップS2〜S5の処理が繰り返される。全ての対象オーディオデータOBについてフレーズデータFDが登録された場合には、フレーズデータベース生成処理が終了される。
次に、図6および図7を参照しながら図5のステップS3のイベントデータ列生成処理について説明する。図6および図7は図5のイベントデータ列生成処理の詳細を示すフローチャートである。図8はピッチの連続的な変化を表すイベントデータの例を示す模式図、図9はクレッシェンドを表すイベントデータの例を示す模式図、図10はアクセントを表すイベントデータの例を示す模式図である。以下のイベントデータ列生成処理により生成される各イベントデータはイベントの発生すべき時点を表す時間情報を含む。
図2のイベントデータ列生成部180は、図1の書き込み用のイベントリストを図1の記憶装置7またはRAM9に用意する(ステップS11)。振幅検出部140は、対象オーディオデータOBの振幅を検出する(ステップS12)。音量検出部172は、振幅に基づいて音量を検出する(ステップS13)。イベントデータ列生成部180は、音量に基づいてイベントデータを生成する(ステップS14)。図4の例では、音量に関するイベントデータとして「ボリューム」または「エクスプレッション」が生成される。
波形検出部150は、対象オーディオデータOBの波形を検出する(ステップS15)。音色検出部173は、波形に基づいて音色を検出する(ステップS16)。イベントデータ列生成部180は、音色に基づいてイベントデータを生成する(ステップS17)。例えば、ストリングス系の音色を用いるパートにおいて、弦を弾いたような音が検出された場合、音色を用意されたピチカート音色に切り替えるための「プログラムチェンジ」が生成される。
音符要素検出部160は、対象オーディオデータOBから音符要素を検出する(ステップS18)。具体的には、音符要素検出部160は、周波数に基づいて音符のピッチおよび音符の長さを検出し、振幅に基づいて音の強さを検出する。イベントデータ列生成部180は、音符要素に基づいてイベントデータを生成する(ステップS19)。図4の例では、音符要素に関するイベントデータとして「ノートオン」または「ノートオフ」が生成される。「ノートオン」にはベロシティの値が含まれる。
差分ピッチ検出部171は、対象オーディオデータOBから差分ピッチを検出する(ステップS20)。イベントデータ列生成部180は、差分ピッチ検出部171により差分ピッチが検出されたか否かを判定する(ステップS21)。差分ピッチが検出された場合には、イベントデータ列生成部180は、差分ピッチに基づいてイベントデータを生成する(ステップS22)。図4の例では、差分ピッチに関するイベントデータとして「ピッチベンド」が生成される。
図8の例では、音のピッチが連続的に変化する。図8の横軸は時間を表し、縦軸はピッチを表す。図8では、「ノートオン」が符号「ON」および番号で表され、「ノートオフ」が符号「OF」および番号で表され、「ピッチベンド」が符号「PB」および番号で表される。
時間軸上でノートオンON1とノートオフOF1との間、ノートオンON2とノートオフOF2との間、ノートオンON3とノートオフOF3との間およびノートオンON4の後に、ピッチベンドPB1〜PB7が例えば10ms間隔で配置される。ピッチベンドPB1〜PB7の値は、連続的に変化するように設定される。これにより、ノートオンON1〜ON4により発生される複数の音のピッチが連続的に変化する。
差分ピッチが検出されない場合には、イベントデータ列生成部180は、ステップS23に進む。ステップS23において、イベントデータ列生成部180は、振幅の変化があるか否かを判定する(ステップS23)。振幅の変化がある場合には、イベントデータ列生成部180は、振幅の変化に基づいてイベントデータを生成する(ステップS24)。図4の例では、振幅の変化に関するイベントデータとして「ボリューム」または「エクスプレッション」が生成される。
さらに、イベントデータ列生成部180は、振幅の変化が強さに関する音楽記号に相当するか否かを判定する(ステップS25)。振幅の変化が強さに関する音楽記号に相当する場合には、イベントデータ列生成部180は、音楽記号に基づいてイベントデータを生成する(ステップS26)。
図9の例では、振幅の変化が音楽記号のクレッシェンドに相当する。図9の横軸は時間を表し、縦軸は音量を表す。図9では、「ノートオン」が符号「ON」および番号で表され、「ノートオフ」が符号「OF」および番号で表され、「エクスプレッション」が符号「EX」および番号で表される。
時間軸上でノートオンON1とノートオフOF1との間、ノートオンON2とノートオフOF2との間、ノートオンON3とノートオフOF3との間およびノートオンON4の後に、エクスプレッションEX1〜EX7が配置される。エクスプレッションEX1〜EX7の値は徐々に増加するように設定される。これにより、ノートオンON1〜ON4により発生される複数の音の強さが徐々に増加する。振幅の変化が音楽記号のデクレッシェンドに相当する場合には、エクスプレッションEX1〜EX7の値が徐々に減少するように設定される。
図10の例では、振幅の変化が音楽記号のアクセントに相当する。図10の横軸は時間を表し、縦軸はベロシティを表す。時間軸上でノートオンON1〜ON6が順に配置される。ノートオンON1〜ON3のベロシティの値は増加するように設定され、ノートオンON4〜ON6のベロシティの値は減少するように設定される。それにより、ノートオンON4〜ON6により発生される1つの音の強さが増加および減少する。強さに関する音楽記号の他の例としては、ディミヌエンド、ピアニッシモ、ピアノメゾピアノ、メゾフォルテ、フォルテ、フォルティッシモ、ピアノ・ピアニッシモ、フォルテ・フォルティッシモ、リタルダンド、アッチェレランド等が挙げられる。
イベントデータ列生成部180は、図7のステップS23において振幅の変化がない場合またはステップS25において振幅の変化が強さに関する音楽記号に相当しない場合には、ステップS27に進む。ステップS27では、イベントデータ列生成部180は、対象オーディオデータOBの全ての区間についてイベントデータの生成が終了したか否かを判定する。対象オーディオデータOBのいずれかの区間についてイベントデータの生成が終了していない場合には、ステップS12〜S27の処理が繰り返される。対象オーディオデータOBの全ての区間についてイベントデータの生成が終了した場合には、イベントデータ列生成部180は、生成されたイベントデータをイベントリストに書き込むことによりイベントデータ列EDを生成する(ステップS28)。
本実施の形態では、複数のイベントデータがステップS28においてイベントリストに書き込まれるが、ステップS14,S17,S19,S22,S24,S26において生成された各イベントデータが生成直後に時間情報に基づいてイベントリストに書き込まれてもよい。
(4)実施の形態の効果
本実施の形態に係るフレーズデータベース生成装置100によれば、参照オーディオデータRDから一または複数の対象オーディオデータOBが抽出され、抽出された各対象オーディオデータOBがMIDI形式のイベントデータ列に変換され、イベントデータ列がMIDI形式のフレーズデータFDとしてフレーズデータベース300に登録される。また、フレーズデータFDには表情要素も付加される。
本実施の形態に係るフレーズデータベース生成装置100によれば、参照オーディオデータRDから一または複数の対象オーディオデータOBが抽出され、抽出された各対象オーディオデータOBがMIDI形式のイベントデータ列に変換され、イベントデータ列がMIDI形式のフレーズデータFDとしてフレーズデータベース300に登録される。また、フレーズデータFDには表情要素も付加される。
オーディオデータからなる楽曲データは参照オーディオデータRDとして入手しやすいため、フレーズデータベース300に多様なMIDI形式のフレーズデータFDを登録することが可能となる。この場合、使用者は、オーディオデータからの波形の切り出し作業およびMIDIデータの編集作業に慣れていなくても、オーディオデータからなる楽曲データを用いてMIDI形式のフレーズデータFDを容易に得ることができる。
また、MIDI形式のフレーズデータFDは、多様な利用方法を有する。例えば、MIDI形式のフレーズデータFDを用いて表示器4に容易に楽譜を表示することができる。また、楽曲の再生テンポを任意に設定すること、および音色を容易に変更することが可能である。それにより、フレーズデータFDの選択後の編集作業の自由度が高くなる。
(5)他の実施の形態
上記実施の形態では、表情要素として、音量、ピッチの変動および音色に関する要素がフレーズデータFDに付加されるが、表情要素はこれらに限定されず、例えば移調等の調の変更に関する要素であってもよい。
上記実施の形態では、表情要素として、音量、ピッチの変動および音色に関する要素がフレーズデータFDに付加されるが、表情要素はこれらに限定されず、例えば移調等の調の変更に関する要素であってもよい。
音色に関するイベントデータを生成する際に、対象オーディオデータOBを周波数分析するとともに生成されたイベントデータの再生結果を周波数分析し、対象オーディオデータOBのスペクトルとイベントデータの再生結果のスペクトルとが近づくように音源部5のフィルタまたはイコライザのパラメータを調整するためのイベントデータを生成してもよい。周波数分析では、短い所定時間ごとに分析結果の評価を行い、フィルタまたはイコライザのパラメータをデータとして出力する。パラメータとしては、「カットオフ(ブライトネス)」、「Q(レゾナンス/ハーモニーコンテンツ)」、「イコライザ周波数」、「イコライザゲイン」等が挙げられる。フィルタまたはイコライザのパラメータを調整するためには、「コントロールチェンジ」の「モジュレーション」、「サウンドコントロール」等の種々のイベントデータを用いることができる。
ある音名の音をピッチの連続的な変化により他の音名の音に移行させる場合には、1つの「ノートオン」および複数の「ピッチベンド」を用いることにより音のピッチを変化させてもよく、ある音名に対応する「ノートオン」と他の音名に対応する「ノートオン」との間に複数の「ピッチベンド」を配置することにより音のピッチを変化させてもよい。これら両方の方法により生成されたフレーズデータFDがフレーズデータベース300に登録されてもよい。
上記実施の形態では、演奏情報を表すイベントデータ列としてMIDI形式のイベントデータ列が用いられるが、演奏情報を表すイベントデータ列としてMIDIの拡張規格等の他の形式のイベントデータ列が用いられてもよい。
フレーズデータベース生成装置100は、パーソナルコンピュータ、スマートデバイス(Smart Device)等の電子機器に適用されてもよい。上記実施の形態に係るフレーズデータベース生成装置100は、CPU11等のハードウエアおよびフレーズデータベース生成プログラム等のソフトウエアにより実現されているが、図2のフレーズデータベース生成装置100の各構成要素が電子回路等のハードウエアにより実現されてもよい。
(6)請求項の各構成要素と実施の形態の各部との対応
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることができる。上記実施の形態では、記憶装置7が記憶手段の例であり、参照オーディオデータ取得部110が取得手段の例であり、対象オーディオデータ抽出部120が抽出手段の例であり、周波数検出部130、振幅検出部140、波形検出部150、音符要素検出部160、表情要素検出部170およびイベントデータ列生成部180が変換手段の例であり、登録部190が登録手段の例である。
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることができる。上記実施の形態では、記憶装置7が記憶手段の例であり、参照オーディオデータ取得部110が取得手段の例であり、対象オーディオデータ抽出部120が抽出手段の例であり、周波数検出部130、振幅検出部140、波形検出部150、音符要素検出部160、表情要素検出部170およびイベントデータ列生成部180が変換手段の例であり、登録部190が登録手段の例である。
1…電子音楽装置,2…演奏操作子,3…設定操作子,4…表示器,5…音源部,6…サウンドシステム,7…記憶装置,9…RAM,10…ROM,11…CPU,12…通信I/F,13…外部電子音楽装置,14…バス,100…フレーズデータベース生成装置,110…参照オーディオデータ取得部,120…対象オーディオデータ抽出部,130…周波数検出部,140…振幅検出部,150…波形検出部,160…音符要素検出部,300…フレーズデータベース,170…表情要素検出部,171…差分ピッチ検出部,172…音量検出部,173…音色検出部,180…イベントデータ列生成部,190…登録部,200…楽曲データ生成装置,210…元楽曲データ取得部,220…ターゲット区間指定部,230…ターゲットフレーズ分割部,240…フレーズデータ検索部,250…データ変換部,260…フレーズデータ置換部
Claims (5)
- 楽曲データの生成のために使用可能な複数のフレーズデータをデータベースとして記憶する記憶手段と、
参照用のオーディオデータを参照オーディオデータとして取得する取得手段と、
取得された参照オーディオデータから一または複数の対象オーディオデータを抽出する抽出手段と、
抽出された各対象オーディオデータを、演奏情報を表すイベントデータ列に変換する変換手段と、
変換により得られたイベントデータ列を前記記憶手段に記憶されたデータベースにフレーズデータとして登録する登録手段とを備える、フレーズデータベース生成装置。 - 前記変換手段は、オーディオデータから音符の要素と表情の要素とを分離し、音符の要素を音符イベントデータに変換し、表情の要素を表情付けイベントデータに変換する、請求項1記載のフレーズデータベース生成装置。
- 前記変換手段は、対象オーディオデータを予め定められた複数の変換規則に基づいて複数のイベントデータに変換し、変換により得られた複数のイベントデータにより構成されるイベントデータ列を生成する、請求項1または2記載のフレーズデータベース生成装置。
- 参照用のオーディオデータを参照オーディオデータとして取得するステップと、
取得された参照オーディオデータから一または複数の対象オーディオデータを抽出するステップと、
抽出された各対象オーディオデータを、演奏情報を表すイベントデータ列に変換するステップと、
変換により得られたイベントデータ列を、記憶手段に記憶されたデータベースに、楽曲データの生成のために使用可能なフレーズデータとして登録するステップとを含む、フレーズデータベース生成方法。 - 参照用のオーディオデータを参照オーディオデータとして取得するステップと、
取得された参照オーディオデータから一または複数の対象オーディオデータを抽出するステップと、
抽出された各対象オーディオデータを、演奏情報を表すイベントデータ列に変換するステップと、
変換により得られたイベントデータ列を、記憶手段に記憶されたデータベースに、楽曲データの生成のために使用可能なフレーズデータとして登録するステップとを、
コンピュータに実行させるためのフレーズデータベース生成プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017043016A JP2018146853A (ja) | 2017-03-07 | 2017-03-07 | フレーズデータベース生成装置、フレーズデータベース生成方法およびフレーズデータベース生成プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017043016A JP2018146853A (ja) | 2017-03-07 | 2017-03-07 | フレーズデータベース生成装置、フレーズデータベース生成方法およびフレーズデータベース生成プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018146853A true JP2018146853A (ja) | 2018-09-20 |
Family
ID=63591204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017043016A Pending JP2018146853A (ja) | 2017-03-07 | 2017-03-07 | フレーズデータベース生成装置、フレーズデータベース生成方法およびフレーズデータベース生成プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018146853A (ja) |
-
2017
- 2017-03-07 JP JP2017043016A patent/JP2018146853A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6740802B1 (en) | Instant musician, recording artist and composer | |
US7838755B2 (en) | Music-based search engine | |
JP3675287B2 (ja) | 演奏データ作成装置 | |
CN112382257B (zh) | 一种音频处理方法、装置、设备及介质 | |
JP4274272B2 (ja) | アルペジオ演奏装置 | |
JP6733720B2 (ja) | 演奏装置、演奏プログラム、及び演奏パターンデータ生成方法 | |
JP6175812B2 (ja) | 楽音情報処理装置及びプログラム | |
CN112669811B (zh) | 一种歌曲处理方法、装置、电子设备及可读存储介质 | |
JP2005173632A (ja) | 演奏データ作成装置 | |
US7030312B2 (en) | System and methods for changing a musical performance | |
JP2002073064A (ja) | 音声処理装置、音声処理方法および情報記録媒体 | |
JP3835443B2 (ja) | 楽音生成装置 | |
WO2020218075A1 (ja) | 情報処理装置および方法、並びにプログラム | |
JP2018146853A (ja) | フレーズデータベース生成装置、フレーズデータベース生成方法およびフレーズデータベース生成プログラム | |
JP3702691B2 (ja) | 自動演奏の制御データ入力装置 | |
JP5088179B2 (ja) | 音処理装置およびプログラム | |
JP3620396B2 (ja) | 情報修正装置及び情報修正プログラムを記録した媒体 | |
JP6424907B2 (ja) | 演奏情報検索方法を実現するためのプログラム、当該演奏情報検索方法および演奏情報検索装置 | |
JP3702690B2 (ja) | 自動演奏の制御データ入力装置 | |
JP7425558B2 (ja) | コード検出装置及びコード検出プログラム | |
Mazzola et al. | Software Tools and Hardware Options | |
JP4760348B2 (ja) | 楽曲選択装置および楽曲選択用コンピュータプログラム | |
JP6424501B2 (ja) | 演奏装置及び演奏プログラム | |
JP2005173631A (ja) | 演奏データ作成装置 | |
JP3775039B2 (ja) | メロディ生成装置と記録媒体 |