JP2017032602A - 伴奏パターンデータ生成装置および伴奏パターンデータ生成プログラム - Google Patents
伴奏パターンデータ生成装置および伴奏パターンデータ生成プログラム Download PDFInfo
- Publication number
- JP2017032602A JP2017032602A JP2015148912A JP2015148912A JP2017032602A JP 2017032602 A JP2017032602 A JP 2017032602A JP 2015148912 A JP2015148912 A JP 2015148912A JP 2015148912 A JP2015148912 A JP 2015148912A JP 2017032602 A JP2017032602 A JP 2017032602A
- Authority
- JP
- Japan
- Prior art keywords
- data
- volume
- sections
- section
- accompaniment pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Abstract
【課題】専門的な知識および熟練を要することなく音量バランスのとれた複数の伴奏パターンデータを容易に生成することを可能にする伴奏パターンデータ生成装置および伴奏パターンデータ生成プログラムを提供する。
【解決手段】データ部分抽出部2は、楽曲データから複数の区間のデータ部分を抽出する。データ部分指定部5は、抽出された複数の区間のデータ部分のうち少なくとも一部の複数の区間のデータ部分を指定する。基準音量検出部4は、複数の区間のデータ部分についての基準音量をそれぞれ検出する。目標音量設定部9は、複数の区間のデータ部分に共通の目標音量を設定する。音量調整部8は、基準音量および目標音量に基づいて複数の区間のデータ部分の音量を調整する。伴奏パターンデータ生成部7は、音量が調整された複数の区間のデータ部分に基づいて複数の伴奏パターンデータをそれぞれ生成する。
【選択図】図1
【解決手段】データ部分抽出部2は、楽曲データから複数の区間のデータ部分を抽出する。データ部分指定部5は、抽出された複数の区間のデータ部分のうち少なくとも一部の複数の区間のデータ部分を指定する。基準音量検出部4は、複数の区間のデータ部分についての基準音量をそれぞれ検出する。目標音量設定部9は、複数の区間のデータ部分に共通の目標音量を設定する。音量調整部8は、基準音量および目標音量に基づいて複数の区間のデータ部分の音量を調整する。伴奏パターンデータ生成部7は、音量が調整された複数の区間のデータ部分に基づいて複数の伴奏パターンデータをそれぞれ生成する。
【選択図】図1
Description
本発明は、伴奏パターンデータを生成する伴奏パターンデータ生成装置および伴奏パターンデータ生成プログラムに関する。
自動伴奏機能を備えた電子楽器では、自動伴奏データを用いてユーザの演奏に合わせた自動伴奏を行うことができる。自動伴奏データは伴奏スタイルデータと呼ばれ、ジャズ、ロック、クラシック等の音楽ジャンルごとに複数種類の自動伴奏データが用意されている。各自動伴奏データには、イントロセクション、メインセクション、エンディングセクション等の複数のセクションが用意され、各セクションは雰囲気の異なる複数のバリエーションタイプを有する。さらに、各セクションは、コードトラック、ベーストラック、ドラムトラック、フレーズトラック等の複数のトラック(パート)により構成される。各トラックには、自動伴奏データの基となる伴奏パターンデータが対応付けられている。各伴奏パターンデータは、あるコードを基準とした1小節から数小節の長さのMIDI(Musical Instrument Digital Interface)形式の音符列またはオーディオ形式のフレーズデータである。
ユーザの演奏に伴って供給されたコード情報に適合するように、各伴奏パターンデータが読み出され、必要に応じて音高変換が行われることにより、自動伴奏が行われる(例えば、特許文献1参照)。
自動伴奏データの制作の際には、各セクションに含まれる各トラックの伴奏パターンデータを用意しなくてはならない。この場合、楽曲データから切り出したデータ部分を伴奏パターンデータとして使用すると、伴奏パターンデータの全てを作成する場合に比べて作業が軽減される。
楽曲データから切り出したデータ部分の音量は、元になる楽曲データの音量により決まるため、例えば一部のセクションの音量感が大きすぎるなど、作成者が望む印象と異なる結果が生じ得る。同じセクション内の複数のトラックに対応付けられた伴奏パターンデータのそれぞれの元になる楽曲データが異なる場合には、元になる楽曲データにより音量も異なる可能性が高い。そのため、同じセクション内の複数のトラック間での音量調整が必要になる。また、セクション間での音量感についても、作成者が大き目の音量感を持たせたいセクション、および控えめな音量感であってほしいセクション等が存在するが、セクション間で作成者の抱く音量バランスと異なる結果が生じ得る。
したがって、楽曲データから切り出したデータ部分を伴奏パターンデータとして使用する場合、複数の伴奏パターンデータの音量調整作業が必要になる。しかしながら、このような音量調整作業に慣れていないユーザ、セクションの種類および役割等の自動伴奏データの仕組みに関する専門的な知識の少ないユーザにとって、複数の伴奏パターンデータの音量調整作業は困難である。
本発明の目的は、専門的な知識および熟練を要することなく音量バランスのとれた複数の伴奏パターンデータを容易に生成することを可能にする伴奏パターンデータ生成装置および伴奏パターンデータ生成プログラムを提供することである。
(1)本発明に係る伴奏パターンデータ生成装置は、1つ以上の楽曲データから複数の区間のデータ部分を抽出する抽出手段と、抽出された複数の区間のデータ部分のうち少なくとも一部の複数の区間のデータ部分を指定する指定手段と、指定された複数の区間のデータ部分についての基準音量をそれぞれ検出する検出手段と、指定された複数の区間のデータ部分に共通の目標音量を設定する設定手段と、検出された基準音量および設定された目標音量に基づいて、指定された複数の区間のデータ部分の音量を調整する調整手段と、音量が調整された複数の区間のデータ部分に基づいて複数の伴奏パターンデータをそれぞれ生成する伴奏パターンデータ生成手段とを備える。
その伴奏パターンデータ生成装置によれば、楽曲データから抽出された複数のデータ部分のうち指定された複数のデータ部分についての基準音量がそれぞれ検出されるとともに、指定された複数のデータ部分に共通の目標音量が設定され、基準音量および目標音量に基づいて複数のデータ部分の音量が調整される。それにより、ユーザは、複数のデータ部分の音量バランスを考慮せずに、楽曲データから抽出した複数のデータ部分を伴奏パターンデータとして使用することができる。また、ユーザによる複数の伴奏パターンデータの音量調整作業が不要となりまたは軽減される。したがって、専門的な知識および熟練を要することなく音量バランスのとれた複数の伴奏パターンデータを容易に生成することができる。
(2)抽出された複数の区間のデータ部分の各々は、複数のセクションのいずれかに対応し、指定手段は、同じセクションに対応する複数の区間のデータ部分を指定し、調整手段は、同じセクションに対応する複数の区間のデータ部分についてそれぞれ検出された基準音量および同じセクションに対応する複数の区間のデータ部分に共通に設定された目標音量に基づいて、同じセクションに対応する複数の区間のデータ部分の音量を調整してもよい。
この場合、同じセクションに対応する複数のデータ部分の音量がそれぞれの基準音量および共通な目標音量に基づいて調整されるので、ユーザが音量調整作業を行うことなく、同じセクション内で音量バランスのとれた複数の伴奏パターンデータを生成することができる。
(3)伴奏パターンデータ生成装置は、2つ以上のセクション間の音量の傾向を示す音量傾向情報を取得する音量傾向情報取得手段をさらに備え、設定手段は、取得された音量傾向情報に基づいて、2つ以上のセクションに目標音量をそれぞれ設定し、指定手段は、2つ以上のセクションの各々に対応する複数の区間のデータ部分を指定し、調整手段は、2つ以上のセクションの各々に対応する複数の区間のデータ部分についてそれぞれ検出された基準音量および当該セクションに設定された目標音量に基づいて、当該セクションに対応する複数の区間のデータ部分の音量を調整してもよい。
この場合、複数のセクション間の音量傾向情報に基づいて各セクションの目標音量が設定され、各セクションに対応する各データ部分の基準音量および当該セクションに設定された目標音量に基づいて、当該セクションに対応する複数のデータ部分の音量が調整されるので、ユーザがセクション間の音量バランスに関する知識を有しない場合でも、複数のセクション間で音量バランスのとれた複数の伴奏パターンデータを生成することができる。
(4)本発明に係る伴奏パターンデータ生成プログラムは、1つ以上の楽曲データから複数の区間のデータ部分を抽出するステップと、抽出された複数の区間のデータ部分のうち少なくとも一部の複数の区間のデータ部分を指定するステップと、指定された複数の区間のデータ部分についての基準音量をそれぞれ検出するステップと、指定された複数の区間のデータ部分に共通の目標音量を設定するステップと、検出された基準音量および設定された目標音量に基づいて、指定された複数の区間のデータ部分の音量を調整するステップと、音量が調整された複数の区間のデータ部分に基づいて複数の伴奏パターンデータをそれぞれ生成するステップとを、コンピュータに実行させるものである。
その自動伴奏データ生成プログラムによれば、楽曲データから抽出された複数のデータ部分のうち指定された複数のデータ部分についての基準音量がそれぞれ検出されるとともに、指定された複数のデータ部分に共通の目標音量が設定され、基準音量および目標音量に基づいて複数のデータ部分の音量が調整される。それにより、ユーザは、複数のデータ部分の音量バランスを考慮せずに、楽曲データから抽出した複数のデータ部分を伴奏パターンデータとして使用することができる。また、ユーザによる複数の伴奏パターンデータの音量調整作業が不要となりまたは軽減される。したがって、専門的な知識および熟練を要することなく音量バランスのとれた複数の伴奏パターンデータを容易に生成することができる。
本発明によれば、専門的な知識および熟練を要することなく音量バランスのとれた複数の伴奏パターンデータを容易に生成することができる。
以下、本発明の一実施の形態に係る伴奏パターンデータ生成装置を含む自動伴奏データ生成装置および伴奏パターンデータ生成プログラムを含む自動伴奏データ生成プログラムについて図面を用いて説明する。
(1)自動伴奏データ生成装置の構成
図1は、自動伴奏データ生成装置100の機能的な構成を示すブロック図である。図1の自動伴奏データ生成装置100は、伴奏パターンデータ生成装置200、セクションデータ登録部10、自動伴奏データ生成部11および自動伴奏データ設定部12を含む。伴奏パターンデータ生成装置200は、楽曲データ取得部1、データ部分抽出部2、表示部3、基準音量検出部4およびデータ部分指定部5を含む。また、伴奏パターンデータ生成装置200は、伴奏パターンデータ生成部7、音量調整部8および目標音量設定部9を含む。自動伴奏データ生成装置100の各部の動作については後述する。
図1は、自動伴奏データ生成装置100の機能的な構成を示すブロック図である。図1の自動伴奏データ生成装置100は、伴奏パターンデータ生成装置200、セクションデータ登録部10、自動伴奏データ生成部11および自動伴奏データ設定部12を含む。伴奏パターンデータ生成装置200は、楽曲データ取得部1、データ部分抽出部2、表示部3、基準音量検出部4およびデータ部分指定部5を含む。また、伴奏パターンデータ生成装置200は、伴奏パターンデータ生成部7、音量調整部8および目標音量設定部9を含む。自動伴奏データ生成装置100の各部の動作については後述する。
図2は、図1の自動伴奏データ生成装置100のハードウエア構成の一例を示すブロック図である。図2の自動伴奏データ生成装置100は、例えば、パーソナルコンピュータ、タブレット端末または携帯電話からなる。自動伴奏データ生成装置100は、CPU(中央演算処理装置)110、ROM(リードオンリメモリ)120、RAM(ランダムアクセスメモリ)130、記憶装置140、表示装置150、入力装置160および出力装置170を含む。
ROM120は、例えば不揮発性メモリからなり、システムプログラムおよび自動伴奏データ生成プログラム等のコンピュータプログラムを記憶する。RAM130は、例えば揮発性メモリからなり、CPU110の作業領域として用いられるとともに、各種データを一時的に記憶する。CPU110は、ROM120に記憶された自動伴奏データ生成プログラムをRAM130上で実行することにより後述の自動伴奏データ生成処理を行う。これにより、図1の各ブロックの機能が実現される。なお、図1の各構成要素の一部または全てが電子回路等のハードウエアにより構成されてもよい。
記憶装置140は、ハードディスク、光学ディスク、磁気ディスクまたはメモリカード等の記録媒体を含む。記憶装置140には、例えば、後述する楽曲データ、セクション割り当て規則、伴奏パターンデータ、自動伴奏データ等の各種データ、または上記の自動伴奏データ生成プログラムが記憶される。本実施の形態では、コンピュータが読み取り可能な記録媒体に格納された自動伴奏データ生成プログラムまたは通信網に接続されたサーバから配信された自動伴奏データ生成プログラムがROM120または記憶装置140にインストールされてもよい。さらに、サーバに格納された自動伴奏データ生成プログラムがRAM130上で実行されてもよい。
表示装置150は、液晶表示装置または有機EL(エレクトロルミネッセンス)表示装置等からなる。入力装置160は、マウス、キーボード、マイクまたは電子楽器等を含む。ユーザは、マウスまたはキーボード等を操作することにより、各種操作、データの設定および入力等を行うことができ、マイクまたは電子楽器を用いて楽曲データを入力することができる。また、表示装置150および入力装置160がタッチパネルディスプレイとして一体化されてもよい。出力装置170は、スピーカまたはヘッドフォン等の音声出力装置を含む。
自動伴奏データ生成装置100は、CPU110の代わりにDSP(Digital Signal Processor)を備えてもよく、またはCPU110に加えてDSPを備えてもよい。また、本実施の形態に係る自動伴奏データ生成装置100が電子音楽装置に設けられてもよい。
(2)自動伴奏データの構成
図1および図2の自動伴奏データ生成装置100は、楽曲データから自動伴奏データを生成する機能を有する。図3は、自動伴奏データの構成を示すブロック図である。
図1および図2の自動伴奏データ生成装置100は、楽曲データから自動伴奏データを生成する機能を有する。図3は、自動伴奏データの構成を示すブロック図である。
図3に示すように、ジャズ、ロック、クラッシック等の音楽ジャンルのカテゴリーごとに一または複数の自動伴奏データADが用意される。図3には、ジャズのカテゴリーに対応する自動伴奏データADが示される。各自動伴奏データADには、複数のセクションが用意される。セクションは、楽曲の進行上の異なる役割を果たす各部分を意味する。本実施の形態では、複数のセクションとして、楽曲の先頭に挿入されるイントロセクション、楽曲の本体部であるメインセクション、小節または楽節のつなぎ目部分等に挿入されるフィルインセクション、および楽曲の末尾に挿入されるエンディングセクションが用意される。各セクションは、雰囲気または盛り上がり度の異なる複数のバリエーションタイプを有する。バリエーションタイプは、雰囲気または盛り上がり度に応じてアルファベット“A”(普通(静か))、“B”(少し派手)、“C”(派手)、および “D”(かなり派手)等で表される。本実施の形態では、各セクションは、役割を表す用語とバリエーションタイプを表すアルファベットとの組み合わせで表現される。
例えば、図3では、セクションIA,IBが「イントロA」および「イントロB」と表現され、セクションMA〜MCが「メインA」、「メインB」および「メインC」と表現され、セクションFAA,FAB,…,FCCが「フィルインAA」、「フィルインAB」、…、「フィルインCC」と表現され、セクションEA,EBが「エンディングA」および「エンディングB」と表現されている。
各自動伴奏データADは、複数のセクションにそれぞれ対応する複数のセクションデータSDを含む。各セクションは、複数のトラック(伴奏パート)により構成される。例えば、図3では、トラックTR1〜TR5が「トラック1」〜「トラック5」と表現されている。トラックの種類としては、リズムトラック、ベーストラック、フレーズトラック、リズミックコード(コード刻み)トラック、パッドコード(コード伸ばし)トラック等が挙げられる。各トラックには、伴奏パターンデータおよび付随情報が対応付けられる。伴奏パターンデータは、1小節から数小節の長さのMIDI(Musical Instrument Digital Interface)形式の音符列またはオーディオ形式のフレーズデータである。付随情報は少なくともトラック名を含み、トラックの種類によっては、付随情報が基準コード情報および音高変換規則(音高変換テーブル情報、音域、コード変更時の再発音規則等)をさらに含む。以下、各トラックに対応付けられる伴奏パターンデータおよび付随情報をトラックデータTDと呼ぶ。
各セクションデータSDは、セクションを特定するためのセクション特定情報SIおよび複数のトラックTR1〜TR5に対応するトラックデータTDにより構成される。セクション特定情報SIは、例えば、セクション名およびセクションデータ長等を含む。
(3)自動伴奏データ生成装置100の動作
以下、図4および図5を参照しながら図1および図2の自動伴奏データ生成装置100の動作を説明する。図4は、図1の自動伴奏データ生成装置100による自動伴奏データ生成処理を示すフローチャートである。図5は、自動伴奏データ生成処理の一例を示す説明図である。
以下、図4および図5を参照しながら図1および図2の自動伴奏データ生成装置100の動作を説明する。図4は、図1の自動伴奏データ生成装置100による自動伴奏データ生成処理を示すフローチャートである。図5は、自動伴奏データ生成処理の一例を示す説明図である。
図2の記憶装置140には、MIDI形式のデータまたはオーディオ形式のデータ(音の波形を示すサンプリングデータ列)からなる楽曲データが記憶される。楽曲データは、ユーザの演奏操作に基づく楽曲データであってもよく、ユーザにより作成された楽曲データであってもよい。
図1の自動伴奏データ設定部12は、図2の入力装置160を用いたユーザの操作に基づいて、これから生成する自動伴奏データの設定を行う(図4のステップS1)。具体的には、自動伴奏データの名前、テンポ、拍子および音楽ジャンル等の設定が行われる。
図1の楽曲データ取得部1は、図2の記憶装置140に記憶された一または複数の楽曲データを取得する(ステップS2)。楽曲データ取得部1が図1の入力装置160を通して楽曲データを取得し、またはインターネット等の通信網を経由して楽曲データを取得してもよい。図5の例では、楽曲データMD1,MD2,MD3が取得される。楽曲データMD1,MD2,MD3の各々は、複数のトラックを含む楽曲データであってもよく、特定のトラックのみを含む楽曲データであってもよい。
図1のデータ部分抽出部2は、楽曲データ取得部1により取得された一または複数の楽曲データに構造解析を行うことにより楽曲データを情景の流れに従った複数の区間に分割するとともに各区間の構造情報を取得する(ステップS3)。MIDI形式の楽曲データの構造解析には、特許第2806351号に記載された方法を用いることができる。オーディオ形式の楽曲データの構造解析には、Emiru Tsunoo et al. “RHYTHM MAP: EXTRACTION OF UNIT RHYTHMIC PATTERNS AND ANALYSIS OF RHYTHMIC STRUCTURE FROM MUSIC ACOUSTIC SIGNALS,” in ICASSP 2009, pp. 185-188に記載された方法を用いることできる。
構造解析により各区間のタイプが判別される。区間のタイプは、各区間の構造の種類を示し、例えば音楽的な盛り上がりの程度および類似度により分類される。各構造情報は、タイプ、元曲情報、開始位置、終了位置、および盛り上がり度(起伏度数)等を含む。元曲情報は当該区間を含む楽曲データのファイル名、パス、番号等のコンテンツを特定できる情報であり、開始位置は楽曲データにおける当該区間の開始位置を示し、終了位置は楽曲データにおける当該区間の終了位置を示し、盛り上がり度は感情的な盛り上がりを数値で示す。
図2の記憶装置140には、予め定められたセクション割り当て規則が記憶される。図1のデータ部分抽出部2は、記憶装置140に記憶されたセクション割り当て規則を取得し、または入力装置160を用いてユーザにより入力されたセクション割り当て規則を取得し(ステップS4)、各区間に対応する構造情報および取得されたセクション割り当て規則に基づいて、各セクションに楽曲データのいずれかの区間を割り当てる(ステップS5)。
図5の例では、セクションMAのトラックTR1、トラックTR2およびトラックTR3にそれぞれ楽曲データMD1の区間T1、楽曲データMD2の区間T4および楽曲データMD3の区間T5が割り当てられる。また、セクションMBのトラックTR1、トラックTR2およびトラックTR3にそれぞれ楽曲データMD2の区間T3、楽曲データMD1の区間T2および楽曲データMD3の区間T5が割り当てられる。
図1の表示部3は、データ部分抽出部2による各セクションへの区間の割り当ての結果(以下、セクション割り当て結果と呼ぶ。)を図2の表示装置150に表示させる(ステップS6)。例えば、表示部3は、図5の説明図の内容を表示装置150に表示させる。ユーザは、図2の入力装置160を用いて図2の表示装置150に表示されたセクション割り当て結果の確定指示を与えることができる。また、ユーザは、図2の入力装置160を用いて図2の表示装置150に表示されたセクション割り当て結果の変更操作を行うことができる。
図1のデータ部分抽出部2はユーザによるセクション割り当て結果の確定指示が検出されたか否かを判定し(ステップS7)、確定指示が検出された場合にはステップS10に進み、確定指示が検出されない場合にはセクション割り当て結果の変更操作が検出されたか否かを判定する(ステップS8)。変更操作が検出されない場合にはステップS7に戻り、変更操作が検出された場合には変更操作に基づいてセクション割り当て結果を変更し(ステップS9)、ステップS7に戻る。
ステップS10において、データ部分抽出部2は、図2の記憶装置140に各セクションデータSDの記憶領域を確保する(ステップS10)。各セクションデータSDの記憶領域は、一または複数のトラックデータTDの記憶領域を含む。
データ部分抽出部2は、構造情報に基づいて楽曲データから各セクションに割り当てられた区間のデータ部分を抽出する(ステップS11)。具体的には、データ部分抽出部2は、楽曲データから構造情報の開始位置および終了位置により示される区間のデータ部分を抽出する。
次に、図1の基準音量検出部4、データ部分指定部5、音量傾向情報取得部6、音量調整部8および目標音量設定部9が後述する音量調整処理を行う(ステップS12)。
さらに、伴奏パターンデータ生成部7は、音量調整後のデータ部分に基づいて伴奏パターンデータを生成する(ステップS13)。この場合、伴奏パターンデータは、音量調整後のデータ部分と同一であってもよく、または音量調整後のデータ部分にタイムストレッチ処理またはクオンタイズ処理(MIDI形式の楽曲データの場合)等により必要な修正を行うことにより得られるデータであってもよい。さらに、伴奏パターンデータ生成部7は、生成した伴奏パターンデータを図2の記憶装置140に確保された記憶領域に記憶する(ステップS14)。この場合、各伴奏パターンデータは、セクションデータSDの記憶領域のうち該当するトラックデータTDの記憶領域に記憶される。
その後、セクションデータ登録部10は、入力装置160を用いたユーザの操作に基づいて、セクションデータSDの登録を行う(ステップS15)。具体的には、セクションデータ登録部10は、セクション特定情報SIをセクションデータSDの記憶領域に記憶するとともに、トラックデータTDの記憶領域にトラック名、音高変換規則等の情報を記憶する。次に、自動伴奏データ生成部11は、複数のセクションデータSDを組み合わせることにより自動伴奏データADを生成する(ステップS16)。
(4)音量調整処理
図6は、図4の音量調整処理を示すフローチャートである。図7は、音量調整処理の一例を示す説明図である。
図6は、図4の音量調整処理を示すフローチャートである。図7は、音量調整処理の一例を示す説明図である。
まず、図1のデータ部分指定部5は、データ部分抽出部2により抽出された複数のデータ部分から音量調整の対象となるデータ部分を指定する(ステップS21)。指定されるデータは、データ部分抽出部2により抽出された全てのデータ部分でもよく、入力装置160を用いて選択されたデータ部分でもよい。図7(a)の例では、楽曲データMD1の区間T1,T2、楽曲データMD2の区間T3,T4および楽曲データMD3の区間T5から抽出されるデータ部分が指定される。
各データ部分は音量を示す音量情報を含む。データ部分がMIDI形式のデータの場合には音量情報は音量値を指定するメッセージ(音量データ)または各音符イベントデータのベロシティ値であり、データ部分がオーディオ形式のデータの場合には音量情報は波形の振幅値である。図7(a)には、各データ部分が割り当てられるセクションおよびトラック、ならびに各データ部分の音量の平均値、最小値および最大値が示される。
図2の記憶装置140には、予め定められた一または複数の音量傾向情報が記憶される。音量傾向情報は、セクション間の音量バランスを表す。図1の音量傾向情報取得部6は、記憶装置140に記憶された音量傾向情報を取得し、または入力装置160を用いて選択または入力された音量傾向情報を取得する(ステップS22)。セクションMBの音量感をセクションMAの音量感よりも大きくなるような音量傾向にしたい場合、図7(b)の例のように、セクションMBの目標音量がセクションMAの目標音量よりも大きくなるように定義される。この場合、例えば、2つのセクションMB間に配置されるセクションFBBの目標音量は、2つのセクションMA間に配置されるセクションFAAの目標音量よりも大きく設定される。
図1の目標音量設定部9は、取得された音量傾向情報に基づいて音量の大きいセクションから順にデータ部分を並び替え(ステップS23)、並び替え後の先頭のセクションを対象セクションとする(ステップS24)。図7(c)の例では、セクションMBの各トラックTR1〜TR3のデータ部分およびセクションMAの各トラックTR1〜TR3のデータ部分がこの順に並ぶ。まず、セクションMBが対象セクションとなり、次に、セクションMAが対象セクションとなる。
次に、目標音量設定部9は、音量傾向情報に基づいて、対象セクションの目標音量を設定する(ステップS25)。図7(b)の例では、セクションMBのトラックTR1〜TR3に共通の目標音量として100が設定され、セクションMAのトラックTR1〜TR3に共通の目標音量として90が設定される。
次に、図1の基準音量検出部4は、対象セクションに含まれる各トラックのデータ部分について基準音量を検出する(ステップS26)。基準音量は、例えば、データ部分の音量の平均値、最小値または最大値である。図7(c)の例では、基準音量として音量の平均値が検出される。セクションMBのトラックTR1,TR2,TR3の基準音量はそれぞれ60、85および120であり、セクションMAのトラックTR1,TR2,TR3の基準音量はそれぞれ80、65および120である。
次に、図1の音量調整部8は、対象セクションに含まれる各トラックのデータ部分について基準音量を目標音量に近づけるかまたは等しくするための倍率を算出し(ステップS27)、算出した倍率に基づいて各トラックのデータ部分の音量を調整する(ステップS28)。具体的には、倍率は、目標音量を基準音量で除算することにより算出される。図7(c)の例では、セクションMBのトラックTR1,TR2,TR3についての倍率はそれぞれ1.67、1.18および0.83であり、セクションMAのトラックTR1,TR2,TR3についての倍率はそれぞれ1.13、1.38および0.75である。セクションMBのトラックTR1,TR2,TR3のデータ部分の音量にそれぞれ倍率1.67、1.18および0.83が乗算され、セクションMAのトラックTR1,TR2,TR3のデータ部分の音量にそれぞれ倍率1.13、1.38および0.75が乗算される。
音量調整部8は、全てのセクションの音量調整が終了したか否かを判定し(ステップS29)、全てのセクションの音量調整が終了していない場合には次のセクションを対象セクションとし(ステップS30)、ステップS25に戻り、全てのセクションの音量調整が終了した場合には音量調整処理を終了する。
このようにして、同一のセクションMB内の複数のトラックTR1,TR2,TR3のデータ部分の基準音量が目標音量の100にほぼ等しくなるようにデータ部分の音量が調整される。また、同一のセクションMA内の複数のトラックTR1,TR2,TR3のデータ部分の基準音量が目標音量の90にほぼ等しくなるようにデータ部分の音量が調整される。本例では、楽曲データMB3の区間T5から抽出されたデータ部分がセクションMBのトラックTR3に割り当てられる場合には当該データ部分の音量が120から100に調整され、同じデータ部分がセクションMAのトラックTR3に割り当てられる場合には当該データ部分の音量が120から90に調整される。このように、データ部分が割り当てられるセクションにより異なる音量調整が行われる場合がある。
(5)実施の形態の効果
本実施の形態に係る伴奏パターンデータ生成装置200を含む自動伴奏データ生成装置100によれば、同じセクションに含まれる複数のトラックのデータ部分の音量がそれぞれの基準音量および共通な目標音量に基づいて調整されるので、ユーザが音量調整作業を行うことなく、または各データ部分の音量の状態を把握することなく、同じセクション内で音量バランスのとれた複数のトラックの伴奏パターンデータを生成することができる。
本実施の形態に係る伴奏パターンデータ生成装置200を含む自動伴奏データ生成装置100によれば、同じセクションに含まれる複数のトラックのデータ部分の音量がそれぞれの基準音量および共通な目標音量に基づいて調整されるので、ユーザが音量調整作業を行うことなく、または各データ部分の音量の状態を把握することなく、同じセクション内で音量バランスのとれた複数のトラックの伴奏パターンデータを生成することができる。
また、複数のセクション間の音量傾向情報に基づいて各セクションの目標音量が設定され、各セクションに対応する各データ部分の基準音量および当該セクションに設定された目標音量に基づいて、当該セクションに対応する複数のデータ部分の音量が調整されるので、ユーザが自動伴奏データの仕組み、特にセクション間の音量バランスに関する知識を有しない場合でも、複数のセクション間で音量バランスのとれた複数の伴奏パターンデータを生成することができる。
また、ユーザは、音量傾向情報を任意に定めることにより複数のセクション間の音量バランスを任意に設定および変更することができる。それにより、複数のセクション間の伴奏パターンデータの音量バランスを、生成する自動伴奏データごとに調整することができる。
さらに、楽曲データから抽出された複数のデータ部分に基づいて伴奏パターンデータを生成することができるので、ユーザは音符列またはフレーズデータの作成作業を自ら行う必要がなく、伴奏パターンデータの編集作業が不要となりまたは軽減される。したがって、専門的な知識および熟練を要することなく自動伴奏データを容易に生成することができる。
(6)他の実施の形態
上記の実施の形態における説明では、複数の楽曲データから複数のセクションの各トラックに対応付けられる複数のデータ部分が抽出されるが、1つの楽曲データから複数のセクションの各トラックに対応付けられる複数のデータ部分が抽出されてもよい。なお、抽出される複数のデータ部分にトラック単位でMIDI形式のデータ部分とオーディオ形式のデータ部分とが混在してもよい。
上記の実施の形態における説明では、複数の楽曲データから複数のセクションの各トラックに対応付けられる複数のデータ部分が抽出されるが、1つの楽曲データから複数のセクションの各トラックに対応付けられる複数のデータ部分が抽出されてもよい。なお、抽出される複数のデータ部分にトラック単位でMIDI形式のデータ部分とオーディオ形式のデータ部分とが混在してもよい。
セクションの種類は上記実施の形態におけるセクションに限定されず、ブレーク、ソロ等の他のセクションが用いられてもよい。また、上記実施の形態では、セクションが楽曲の進行上での役割を表す用語と盛り上がり度を表すアルファベットとの組み合わせにより表現されるが、本発明はこれに限定されない。各セクションが他の形式で表現されてもよい。
上記実施の形態では、各セクションに対応付けられた伴奏パターンデータを含む複数のセクションデータSDが自動伴奏データADとして記憶装置140に記憶されるが、複数の伴奏パターンデータが自動伴奏データ生成装置100とは別の場所(例えばサーバ)に記憶され、複数の伴奏パターンデータの記憶場所を示す情報が複数のセクションデータSDとして記憶装置140に記憶されてもよい。
上記実施の形態では、楽曲データの構造解析により分割された複数の区間からデータ部分が抽出されるが、楽曲データからユーザの操作により各セクションの各トラックに割り当てられるデータ部分が抽出されてもよい。
ユーザが複数の音量傾向情報から自動伴奏データごとに音量傾向情報を選択することができるように音量傾向情報取得部6が構成されてもよく、ユーザが自動伴奏データごとに音量傾向情報を定義することができるように音量傾向情報取得部6が構成されてもよい。
(7)請求項の各構成要素と実施の形態の各部との対応
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることができる。
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることができる。
上記実施の形態では、データ部分抽出部2が抽出手段の例であり、データ部分指定部5が指定手段の例であり、基準音量検出部4が検出手段の例であり、目標音量設定部9が設定手段の例であり、伴奏パターンデータ生成部7が伴奏パターンデータ生成手段の例であり、音量傾向情報取得部6が音量傾向情報取得手段の例である。
本発明は、伴奏パターンデータを生成するため等に利用することができる。
1…楽曲データ取得部,2…データ部分抽出部,3…表示部,4…基準音量検出部,5…データ部分指定部,6…音量傾向情報取得部,7…伴奏パターンデータ生成部,8…音量調整部,9…目標音量設定部,10…セクションデータ登録部,11…自動伴奏データ生成部,12…自動伴奏データ設定部,100…自動伴奏データ生成装置,110…CPU,120…ROM,130…RAM,140…記憶装置,150…表示装置,160…入力装置,170…出力装置,200…伴奏パターンデータ生成装置
Claims (4)
- 1つ以上の楽曲データから複数の区間のデータ部分を抽出する抽出手段と、
抽出された複数の区間のデータ部分のうち少なくとも一部の複数の区間のデータ部分を指定する指定手段と、
指定された複数の区間のデータ部分についての基準音量をそれぞれ検出する検出手段と、
前記指定された複数の区間のデータ部分に共通の目標音量を設定する設定手段と、
検出された基準音量および設定された目標音量に基づいて、前記指定された複数の区間のデータ部分の音量を調整する調整手段と、
音量が調整された複数の区間のデータ部分に基づいて複数の伴奏パターンデータをそれぞれ生成する伴奏パターンデータ生成手段とを備える、伴奏パターンデータ生成装置。 - 前記抽出された複数の区間のデータ部分の各々は、複数のセクションのいずれかに対応し、
前記指定手段は、同じセクションに対応する複数の区間のデータ部分を指定し、
前記調整手段は、前記同じセクションに対応する複数の区間のデータ部分についてそれぞれ検出された基準音量および前記同じセクションに対応する複数の区間のデータ部分に共通に設定された目標音量に基づいて、前記同じセクションに対応する複数の区間のデータ部分の音量を調整する、請求項1記載の伴奏パターンデータ生成装置。 - 2つ以上のセクション間の音量の傾向を示す音量傾向情報を取得する音量傾向情報取得手段をさらに備え、
前記設定手段は、取得された音量傾向情報に基づいて、前記2つ以上のセクションに目標音量をそれぞれ設定し、
前記指定手段は、前記2つ以上のセクションの各々に対応する複数の区間のデータ部分を指定し、
前記調整手段は、前記2つ以上のセクションの各々に対応する複数の区間のデータ部分についてそれぞれ検出された基準音量および当該セクションに設定された目標音量に基づいて、当該セクションに対応する複数の区間のデータ部分の音量を調整する、請求項1記載の伴奏パターンデータ生成装置。 - 1つ以上の楽曲データから複数の区間のデータ部分を抽出するステップと、
抽出された複数の区間のデータ部分のうち少なくとも一部の複数の区間のデータ部分を指定するステップと、
指定された複数の区間のデータ部分についての基準音量をそれぞれ検出するステップと、
前記指定された複数の区間のデータ部分に共通の目標音量を設定するステップと、
検出された基準音量および設定された目標音量に基づいて、前記指定された複数の区間のデータ部分の音量を調整するステップと、
音量が調整された複数の区間のデータ部分に基づいて複数の伴奏パターンデータをそれぞれ生成するステップとを、
コンピュータに実行させる、伴奏パターンデータ生成プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015148912A JP2017032602A (ja) | 2015-07-28 | 2015-07-28 | 伴奏パターンデータ生成装置および伴奏パターンデータ生成プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015148912A JP2017032602A (ja) | 2015-07-28 | 2015-07-28 | 伴奏パターンデータ生成装置および伴奏パターンデータ生成プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017032602A true JP2017032602A (ja) | 2017-02-09 |
Family
ID=57987784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015148912A Pending JP2017032602A (ja) | 2015-07-28 | 2015-07-28 | 伴奏パターンデータ生成装置および伴奏パターンデータ生成プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017032602A (ja) |
-
2015
- 2015-07-28 JP JP2015148912A patent/JP2017032602A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8710343B2 (en) | Music composition automation including song structure | |
AU2012213646B2 (en) | Semantic audio track mixer | |
JP5974436B2 (ja) | 楽曲生成装置 | |
US11087727B2 (en) | Auto-generated accompaniment from singing a melody | |
US9165543B1 (en) | Apparatus, method, and computer-readable storage medium for rhythmic composition of melody | |
JPWO2008062816A1 (ja) | 自動作曲システム | |
JP2017111372A (ja) | 音声合成方法、音声合成制御方法、音声合成装置および音声合成制御装置 | |
JP2011039333A (ja) | カラオケホスト装置及びプログラム | |
JP2017032601A (ja) | 自動伴奏データ生成装置および自動伴奏データ生成プログラム | |
JP2015082028A (ja) | 歌唱合成装置および歌唱合成プログラム | |
JP6565528B2 (ja) | 自動アレンジ装置及びプログラム | |
JP2019200427A (ja) | 自動アレンジ方法 | |
CN112669811B (zh) | 一种歌曲处理方法、装置、电子设备及可读存储介质 | |
CN108369800B (zh) | 声处理装置 | |
JP2007140165A (ja) | カラオケ装置およびカラオケ装置用プログラム | |
JP2015087617A (ja) | カラオケのガイドボーカル生成装置及びガイドボーカル生成方法 | |
JP2013213907A (ja) | 評価装置 | |
JP2019101148A (ja) | 通信カラオケシステム | |
JP7419768B2 (ja) | 楽曲生成方法および楽曲生成システム | |
JP2017032602A (ja) | 伴奏パターンデータ生成装置および伴奏パターンデータ生成プログラム | |
JP4218066B2 (ja) | カラオケ装置およびカラオケ装置用プログラム | |
JP2018155911A (ja) | 自動伴奏装置、自動伴奏プログラムおよび伴奏データ生成方法 | |
JP6177027B2 (ja) | 歌唱採点システム | |
JP4180548B2 (ja) | 声域告知機能付きカラオケ装置 | |
CN115004294A (zh) | 编曲生成方法、编曲生成装置以及生成程序 |