JP4075677B2 - Automatic accompaniment generator and program - Google Patents

Automatic accompaniment generator and program Download PDF

Info

Publication number
JP4075677B2
JP4075677B2 JP2003126232A JP2003126232A JP4075677B2 JP 4075677 B2 JP4075677 B2 JP 4075677B2 JP 2003126232 A JP2003126232 A JP 2003126232A JP 2003126232 A JP2003126232 A JP 2003126232A JP 4075677 B2 JP4075677 B2 JP 4075677B2
Authority
JP
Japan
Prior art keywords
accompaniment
section
data
type
variations
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003126232A
Other languages
Japanese (ja)
Other versions
JP2004333611A (en
Inventor
智恵子 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2003126232A priority Critical patent/JP4075677B2/en
Publication of JP2004333611A publication Critical patent/JP2004333611A/en
Application granted granted Critical
Publication of JP4075677B2 publication Critical patent/JP4075677B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、メロディ等の曲の演奏情報である楽曲データを分析して、該楽曲データに基づく曲にあった伴奏を自動生成する自動伴奏生成装置及びプログラムに関する。特に、各セクションに対して割り当て可能な伴奏パターン数が異なる伴奏スタイルを使用する場合であっても、各セクションにおける曲の盛り上がり傾向を正しく反映した伴奏を自動生成することのできるようにした自動伴奏生成装置及びプログラムに関する。
【0002】
【従来の技術】
【特許文献1】
特許第3327188号公報
【特許文献2】
特許第2806351号公報
電子楽器やシーケンサーなどにおいて、自動伴奏を行うために必要とされる自動伴奏データを生成する際には伴奏スタイルデータが参照される。伴奏スタイルデータはロックやポップス等の音楽ジャンルの演奏スタイル(伴奏スタイル)を想定して定義されたデータであり、複数種類の伴奏パターン(セクションデータとも呼ぶ)を複数含んで構成されている。伴奏スタイルデータに含まれる伴奏パターンとしては、例えば、楽曲の中で主として定常的に演奏される「メインA」や「メインB」や「メインC」等のメインセクションデータや、楽曲の中のイントロ部分で演奏される「イントロA」や「イントロB」等のイントロセクションデータ、楽曲の中のエンディング部分で演奏される「エンディングA」や「エンディングB」等のエンディングセクションデータ等がある。個々の伴奏パターンは、例えば当該セクションデータの名称(種類)、小節数等からなる設定情報と、実際の伴奏の元になる演奏イベント及び発音タイミング等からなるパターンデータとにより構成されている。
【0003】
従来から、メロディ等の曲の演奏情報である楽曲データの分析に基づいて、該曲にあった伴奏を行うための自動伴奏データなどを自動的に生成する装置が知られている。例えば、上記特許文献1に記載の発明においては、楽曲データを分析してコード進行列と共に自動伴奏データにおけるセクションデータ列(つまりイントロA、メインA、エンディングAなどの該曲を構成するセクションデータの並び)を自動生成することができるようになっている。また、上記特許文献2に記載の発明においては、楽曲データを分析して前記セクションデータ列を自動生成する際において、セクションデータ(伴奏パターン)を指定するためのデータ指定情報であるバリエーションタイプの判定を行い、各セクションに対して割り当て可能な1乃至複数のセクションデータの中から、曲の盛り上がり傾向に対応するパターンデータを定義したセクションデータを割り当てることができるようになっている。例えば、バリエーションタイプが「タイプA」及び「タイプB」である2種類のセクションデータが用意されているメインセクションにおいて、楽曲データの分析の結果として「普通」「派手」の2種類の盛り上がり傾向を検出した場合、「普通」と検出された場合には当該メインセクションに対してバリエーションタイプ「タイプA」のセクションデータ「メインA」が、「派手」と検出された場合には当該メインセクションに対してバリエーションタイプ「タイプB」のセクションデータ「メインB」がそれぞれ割り当てられることになる。
【0004】
【発明が解決しようとする課題】
ところで、自動伴奏データを構成する各セクションタイプに対して割り当て可能な伴奏パターン数(バリエーションタイプ数)は伴奏スタイル毎に異なる。しかし、従来の自動伴奏生成装置においては、自動伴奏データを構成する各セクションタイプに対して割り当て可能な伴奏パターン数がいずれの伴奏スタイルについても共通であることを前提として制御するものであったために、各セクションタイプに対して割り当て可能な伴奏パターン数が異なっている伴奏スタイルを使用した場合には不都合が生じていた。すなわち、各セクションに対して割り当て可能な伴奏パターン数が異なっている伴奏スタイルを使用した場合には、検出されたセクションに対して自動的に割り当てられたバリエーションタイプに応じた伴奏パターンが検出された曲の盛り上がり傾向とあわない可能性がある。検出された曲の盛り上がり傾向とあわないバリエーションタイプの伴奏パターンが割り当てられた場合には、つまり使用する伴奏スタイルによっては自動伴奏が曲の盛り上がり傾向とあわなくなって自動伴奏のメリハリが変わってしまうことが生ずる。また、メロディと自動伴奏の雰囲気があわなくなってしまうことから都合が悪い。そのため、従来では使用しようとする伴奏スタイルの各セクションの盛り上がり傾向をユーザ自身が調べて使用する伴奏スタイルを考慮して処理を実行するよう操作を行わなければならない、あるいはバリエーションタイプの自動的な割り当て後に聴感上無難なバリエーションタイプの伴奏パターンにユーザ自身が個別に変更する操作を行わなければならなかったが、こうした操作をユーザ自身がわざわざ行わなければならないのは手間が掛かり面倒である、という問題点があった。
【0005】
本発明は上述の点に鑑みてなされたもので、各セクションに対して割り当て可能な伴奏パターンの数が異なる伴奏スタイルを使用した場合においても、自動検出された曲の盛り上がり傾向の種類数に関わらずに曲の雰囲気にあった伴奏を自動生成することのできるようにした自動伴奏生成装置及びプログラムを提供することを目的とする。
【0006】
【課題を解決するための手段】
本発明に係る自動伴奏生成装置は、取得した楽曲データの曲構造を解析して該楽曲データを複数の区間に分割するとともに、分割された各区間毎に曲の起伏を検出する曲解析手段であって、前記起伏は複数の起伏種類のうちのいずれかを特定する情報であるものと、複数の各伴奏スタイルについて、曲の各区間に割り当てる伴奏パターンを複数のバリエーションに対応させて複数記憶した伴奏スタイル記憶手段であって、伴奏スタイルによって該伴奏スタイル内のバリエーション数が前記起伏種類の数と一致しない場合があるとともに、バリエーションの組み合わせが伴奏スタイルによって異なるものを記憶したものと、曲の区間に対して割り当てるべきバリエーションを指定する指定情報を曲の起伏種類毎に定義したバリエーション割り当て規則を記憶する割り当て規則記憶手段であって前記割り当て規則は各伴奏スタイル内の複数のバリエーションの組み合わせタイプ毎に記憶されているものと、使用する対象の伴奏スタイルを選択する選択手段と、前記選択た伴奏スタイル内のバリエーションの組み合わせタイプと、曲の各区間の起伏種類に応じて、前記割り当て規則記憶手段を参照して、各区間に対して割り当てるべきバリエーションを決定し、決定されたバリエーションに対応する伴奏パターンを用いて取得した楽曲データに対応した伴奏データを生成する伴奏生成手段とを具備することを特徴とする。
【0007】
この発明によると、バリエーション割り当て規則に基づいて、選択した伴奏スタイル内のバリエーションの組み合わせタイプと、検出された曲の各区間の起伏種類に応じて、曲の各区間に対して割り当てるべきバリエーションを決定し、決定したバリエーションに対応する伴奏パターンを用いて取得した楽曲データに対応した伴奏データを生成する。バリエーション割り当て規則は曲の区間に対して割り当てるべきバリエーションを指定する指定情報を曲の起伏種類毎に定義したデータであり、伴奏スタイル内の複数のバリエーションの組み合わせタイプ毎に記憶される。伴奏スタイル記憶手段は複数の各伴奏スタイルについて、曲の各区間に割り当てる伴奏パターンを複数のバリエーションに対応させて複数記憶している。このバリエーションの組み合わせ(伴奏パターン)は、伴奏スタイルによって異なる。曲解析手段は、取得した楽曲データの曲構造を解析して楽曲データを複数の区間に分割し、分割した複数の区間毎に曲の起伏を検出する。前記検出する曲の起伏は、複数の起伏種類のうちのいずれかを特定する情報である。ここで、取得した楽曲データと選択した伴奏スタイルとの組み合わせによっては、該伴奏スタイル内のバリエーション数が楽曲データにおける各区間毎に検出された曲の起伏種類の数と一致しない場合がある。こうした伴奏スタイルに含まれる複数の伴奏パターン数(バリエーション数)と曲の起伏の種類数とが異なる場合においても、各伴奏スタイル内の複数のバリエーションの組み合わせタイプ毎に各区間に割り当てるバリエーションを記憶した前記バリエーション割り当て規則に基づいて、各区間に対して割り当てるべきバリエーションを決定するようにすることにより、曲の起伏に沿った伴奏を行う自動伴奏データを生成するすなわち、各セクションにおける曲の盛り上がり傾向を正しく反映した伴奏を自動生成することができるようになる。
【0008】
本発明は、装置の発明として構成し実施することができるのみならず、方法の発明として構成し実施することができる。また、本発明は、コンピュータまたはDSP等のプロセッサのプログラムの形態で実施することができるし、そのようなプログラムを記憶した記憶媒体の形態で実施することもできる。
【0009】
【発明の実施の形態】
以下、この発明の実施の形態を添付図面に従って詳細に説明する。
【0010】
図1は、この発明に係る自動伴奏生成装置の全体構成の一実施例を示したハード構成ブロック図である。当該自動伴奏生成装置のハードウエア構成例はコンピュータを用いて構成されており、そこにおいて所定の楽曲データを分析して該楽曲データに基づく曲の雰囲気にあった伴奏(詳しくは自動伴奏データ)を自動生成する処理は、コンピュータが「自動伴奏生成処理」を実現する所定の制御プログラムを含むソフトウエアを実行することにより実施される。詳しくは後述するが「自動伴奏生成処理」(図3参照)では、所定の楽曲データを分析することによって曲のセクション構成を自動判別してセクションデータ列を生成すると共に曲の盛り上がり傾向を検出し、該検出した曲の盛り上がり傾向に基づいてバリエーションタイプ決定テーブル(図2参照)から前記自動判別したセクションデータ列の各セクション毎に割り当てるべき伴奏パターン(セクションデータ)のバリエーションタイプを決定することにより、自動伴奏を行うために必要な自動伴奏データを生成する。実際の伴奏演奏時においては、該生成した自動伴奏データから、セクションデータ列順に配置された各セクション毎に対応する伴奏パターン(セクションデータ)のパターンデータを読み出して伴奏を自動的に演奏する。このようにして、メロディ等の曲の雰囲気にあった伴奏を自動生成する。勿論、こうした「自動伴奏生成処理」はコンピュータソフトウエアの形態に限らず、DSP(Digital Signal Processor)によって処理されるマイクロプログラムの形態でも実施可能であり、また、この種のプログラムの形態に限らず、ディスクリート回路又は集積回路若しくは大規模集積回路等を含んで構成された専用ハードウエア装置の形態で実施するようにしてもよい。
【0011】
本実施例に示す自動伴奏生成装置は、マイクロプロセッサユニット(CPU)1、リードオンリメモリ(ROM)2、ランダムアクセスメモリ(RAM)3からなるマイクロコンピュータによって制御される。CPU1は、この自動伴奏生成装置全体の動作を制御する。このCPU1に対して、通信バス1D(例えばデータ及びアドレスバス)を介してROM2、RAM3、通信インタフェース(I/F)4、入力操作部5、表示部6、外部記憶装置7、音源8がそれぞれ接続されている。ROM2は、CPU1により実行あるいは参照される各種制御プログラム(例えば、自動伴奏生成処理(後述する図3参照)など)や各種データ等(例えば、バリエーションタイプ決定テーブル(後述する図2参照)など)を格納する。RAM3は、CPU1が所定のプログラムを実行する際に発生する各種データなどを一時的に記憶するワーキングメモリとして、あるいは現在実行中のプログラムやそれに関連するデータを一時的に記憶するメモリ等として使用される。RAM3の所定のアドレス領域がそれぞれの機能に割り当てられ、レジスタやフラグ、テーブル、メモリなどとして利用される。
【0012】
通信インタフェース(I/F)4は、例えばLANやインターネット、電話回線等の有線あるいは無線の通信ネットワークに接続されており、該通信ネットワークを介して外部機器4A等と接続され、当該外部機器4Aから制御プログラムや各種データを自動伴奏生成装置本体側に取り込むためのインタフェースである。こうした通信インタフェース4は、有線あるいは無線のものいずれかでなく双方を具えていてよい。入力操作部5は、自動伴奏を生成する対象の曲(詳しくは楽曲データ)の選択、伴奏に使用する音色や伴奏スタイルなどの設定、あるいは自動検出する曲の盛り上がり傾向の種類数の設定などの各種指示を行うためのスイッチ類(操作子)である。勿論、入力操作部5はこれら以外にも数値データ入力用のテンキーや文字データ入力用のキーボード、あるいはディスプレイ6Aに表示される所定のポインティングデバイスを操作するために用いるマウスなどの各種操作子を含んでいてもよい。表示部6は例えば液晶表示パネル(LCD)やCRT等から構成されるディスプレイ6Aに、伴奏スタイル名や楽曲データに付された曲名、あるいはバリエーションタイプ決定テーブルなどを一覧表示したり、CPU1の制御状態などの各種情報を表示したりする。
【0013】
外部記憶装置7は上記したROM2と同様に、制御プログラムや各種データなどを記憶する。前記ROM2に制御プログラムが記憶されていない場合、この外部記憶装置7(例えばハードディスク)に制御プログラムを記憶させておき、それを前記RAM3に読み込むことにより、ROM2に制御プログラムを記憶している場合と同様の動作をCPU1にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。なお、外部記憶装置7はハードディスク(HD)に限られず、フレキシブルディスク(FD)、コンパクトディスク(CD−ROM・CD−RAM)、光磁気ディスク(MO)、あるいはDVD(Digital Versatile Disk)等の着脱自在な様々な形態の外部記録媒体を利用する記憶装置であってもよい。あるいは、半導体メモリなどであってもよい。
【0014】
音源8は複数のチャンネルで楽音信号の同時発生が可能であり、通信バス1Dを経由して与えられた、楽曲データや自動伴奏データ等の各種演奏情報を入力し、これらの演奏情報に基づいて楽音信号を発生する。音源8から発生された楽音信号は、アンプやスピーカなどを含むサウンドシステム8Aから発音される。この音源8から発生された楽音信号に対して、効果回路など(図示せず)を用いて所定の効果を付与するようにしてもよい。前記楽曲データや自動伴奏データの形式はMIDI形式のようなディジタル符号化されたものであってもよいし、PCM、DPCM、ADPCMのような波形サンプルデータ方式からなるものであってもよい。この音源8とサウンドシステム8Aの構成には、従来のいかなる構成を用いてもよい。例えば、音源8はFM、PCM、物理モデル、フォルマント合成等の各種楽音合成方式のいずれを採用してもよく、また専用のハードウェアで構成してもよいし、CPU1によるソフトウェア処理で構成してもよい。
【0015】
なお、上述した自動伴奏生成装置は入力操作部5やディスプレイ6Aあるいは音源8などを1つの装置本体に内蔵したものに限らず、それぞれが別々に構成され、MIDIインタフェースや各種ネットワーク等の通信手段を用いて各装置を接続するように構成されたものであってもよいことは言うまでもない。さらに、本発明に係る自動伴奏生成装置を適用する装置は、電子楽器、パーソナルコンピュータ、PDAや携帯電話等の携帯型通信端末、あるいはカラオケ装置やゲーム装置など、どのような形態の装置・機器に適用してもよい。携帯型通信端末に適用した場合、端末のみで所定の機能が完結している場合に限らず、機能の一部をサーバ側に持たせ、端末とサーバとからなるシステム全体として所定の機能を実現するようにしてもよい。
【0016】
次に、ROM2やRAM3あるいは外部記憶装置7などに予め複数記憶されており、自動伴奏データ生成時において各セクション毎に割り当てるべき伴奏パターン(セクションデータ)のバリエーションタイプを決定する際に参照するデータであるバリエーションタイプ決定テーブルについて説明する。図2は、バリエーションタイプ決定テーブルのデータ構造の一実施例を示す概念図である。このバリエーションタイプ決定テーブルは予めプリセットされたものやユーザが設定したものなど、曲の盛り上がり傾向の種類数毎に用意されている。例えば、曲の盛り上り傾向の種類数として「普通」・「派手」の2種類のものや「弱々しい」・「普通」・「派手」・「力強い」の4種類のものなど、それぞれの種類数に対応するバリエーションタイプ決定テーブルが予め用意される。ここに示した図2においては、曲の盛り上がり傾向の種類数が「普通」と「派手」の2種類の場合に対応するバリエーションタイプ決定テーブルを実施例として示している。
【0017】
図2から理解できるように、バリエーションタイプ決定テーブルは曲の盛り上がり傾向の種類毎に、各セクションタイプ(ここではイントロ、メイン、エンディング、フィルイン)に対して、セクション種類群タイプに含まれる使用可能な伴奏パターンの中から実際に割り当てるべき伴奏パターンを指定するデータ指定情報であるバリエーションタイプを定義したデータである。セクション種類群タイプは所定の伴奏スタイルにおいて使用可能である伴奏パターンの組み合わせであって、例えば伴奏スタイル毎に対応するようにしてタイプ1〜タイプ4までの4種類のセクション種類群タイプが割り当てられる。この実施例において、セクション種類群タイプ1に含まれる伴奏パターンは各セクションタイプ毎にイントロA/B、メインA/B、フィルインAA/AB/BA/BB、エンディングA/Bであり、セクション種類群タイプ2に含まれる伴奏パターンはイントロA/B/C、メインA/B/C/D、フィルインAA/BB/CC/DD/BA、エンディングA/B/Cであり、セクション種類群タイプ3に含まれる伴奏パターンはイントロA、メインA/B、フィルインAB/BA、エンディングAであり、セクション種類群タイプ4に含まれる伴奏パターンはイントロA、メインA、フィルインAA、エンディングAである。したがって、例えば伴奏パターンに対応するセクション種類群タイプが上記したタイプ3であるような場合には、イントロセクションに対してはイントロAのみ、メインセクションに対してはメインA又はメインBのいずれか、フィルインセクションに対してはフィルインAB又はフィルインBAのいずれか、エンディングセクションに対してはエンディングAのみが割り当て可能な伴奏パターンということになる。
【0018】
ところで、既に述べたように、伴奏スタイルによっては自動伴奏生成時において検出されたセクションに対して自動的に割り当てられたバリエーションタイプをそのまま用いると、曲の盛り上がり傾向とあわない伴奏パターンが割り当てられてしまう可能性がある。そこで、図1に示す自動伴奏生成装置においては、楽曲データを分析することによって検出した曲の盛り上がり傾向とセクションタイプとの組み合わせに基づき、該バリエーションタイプ決定テーブルを参照して、曲の盛り上がり傾向に沿った伴奏パターンとして各セクション種類群タイプに含まれる伴奏パターンの中からどの伴奏パターンを割り当てればよいかを決定する。すなわち、使用する伴奏パターンの選択に従ってタイプ1〜タイプ4の中からいずれかのセクション種類群タイプが1つ決定され、該決定されたセクション種類群タイプに含まれる伴奏パターンを各セクションタイプ毎に割り当てることができるようになっている。例えば、セクション種類群タイプ2の場合、盛り上がり傾向が「普通」である場合にはイントロA/B/Cのうち「イントロB」、メインA/B/C/Dのうち「メインB」、エンディングA/B/Cのうち「エンディングB」、盛り上がり傾向が「派手」である場合には「イントロB」、「メインC」、「エンディングB」がそれぞれ割り当てられる。一方、セクション種類群タイプ3の場合、盛り上がり傾向が「普通」である場合には「イントロA」、「メインA」、「エンディングA」、盛り上がり傾向が「派手」である場合には「イントロA」、「メインB」、「エンディングA」がそれぞれ割り当てられる。このようにして、バリエーションタイプ決定テーブルを参照することによって、曲の盛り上がり傾向にあわせてそれぞれの伴奏スタイルでの適切な伴奏パターンを割り当てることができるようになっている。
【0019】
なお、セクション種類群タイプや各セクション種類群タイプに含まれる伴奏パターン(バリエーションタイプ)あるいは曲の盛り上がり傾向等の数や種類は上述した実施例のものに限らない。また、バリエーションタイプ決定テーブル毎にセクション種類群タイプやバリエーションタイプあるいは曲の盛り上がり傾向等の数や種類等が異なって定義されていてよいことは言うまでもない。
なお、バリエーションタイプ決定テーブルはセクション種類群タイプ別に用意してあってもよい。
【0020】
図1に示した自動伴奏生成装置においては、ユーザにより選択された楽曲データを分析し、該分析結果に基づいて自動伴奏データのセクションデータ列を自動生成し、実際の伴奏演奏時において該セクションデータ列に従い各セクション毎の伴奏パターンを参照することにより、選択された楽曲データの曲の雰囲気にあった伴奏を自動演奏することができるようになっている。こうした曲の雰囲気にあった自動伴奏を行うために必要な自動伴奏データを生成する自動伴奏生成処理は、図1に示した自動伴奏生成装置のCPU1が自動伴奏生成処理を実現する所定のプログラム(ソフトウエア)を実行することにより実施される。そこで、この「自動伴奏生成処理」の処理動作について、図3を用いて説明する。図3は、「自動伴奏生成処理」の一実施例を示したフローチャートである。以下、図3に示したフローチャートに従って、当該処理の処理動作を説明する。
【0021】
ステップS1では、ユーザ設定を行う。ここで行われるユーザ設定としては、例えば伴奏で使用する音色の指定や使用する伴奏スタイルの設定、自動伴奏を付する対象としての楽曲データの選択などがある。ユーザ設定としてはこの他にも、ユーザによるバリエーションタイプ決定テーブルのデータ内容変更やデータ追加(例えば盛り上がり傾向種類数の設定など)の適宜の設定があってよい。ステップS2では、使用する伴奏スタイルよりセクション種類群タイプを検出する。すなわち、上記ステップS1において設定された使用する伴奏スタイルに対応するセクション種類群タイプを1つ決定する。例えば、伴奏スタイルとして「ジャズ」が設定されたような場合にはセクション種類群タイプ2、伴奏スタイルとして「ドラム」が設定されたような場合にはセクション種類群タイプ4などのようにして、使用する伴奏スタイルに対応するセクション種類群タイプを決定する。
【0022】
ステップS3では、上記ステップS1において自動伴奏を付する対象として選択された楽曲データを分析することによりセクション情報列を自動検出し、自動伴奏データの生成を開始する。この楽曲データの分析によるセクション情報列の自動検出は公知のどのような方法であってもよいことから、ここでの説明を省略する。ここで自動検出されるセクション情報列には、セクションの配置位置(開始位置/終了位置)に関する位置情報、セクションタイプ(イントロセクション、メインセクション、エンディングセクション、フィルインセクションなど)、曲の盛り上がり傾向などの各種情報が含まれる。ステップS4では、バリエーションタイプ決定テーブルが上記ステップS2で検出されたセクション種類群タイプに対応しているものか否かを判定する。すなわち、上記ステップS3により曲の盛り上り傾向の種類数を自動検出することにより、予め曲の盛り上り傾向の種類数に対応するようにして用意されている複数のバリエーションタイプ決定テーブルの中から、自動検出した曲の盛り上り傾向の種類数に対応するバリエーションタイプ決定テーブルを1つ決定する。そして、上記ステップS2で検出されたセクション種類群タイプが、該決定されたバリエーションタイプ決定テーブルのセクション種類群タイプに含まれているものであるか否かを判定する。
【0023】
バリエーションタイプ決定テーブルがセクション種類群タイプに対応していないものであると判定した場合(ステップS4のNO)、バリエーションタイプ決定テーブルが対応しているセクション種類群タイプの中から代用できるセクション種類群タイプを検出する(ステップS5)。例えば、検出されたセクション種類群タイプがタイプ5である一方、バリエーションタイプ決定テーブルに含まれるセクション種類群タイプがタイプ1〜タイプ4までであってタイプ5を含まないものであるような場合には、バリエーションタイプ決定テーブルに含まれるタイプ1〜タイプ4の中からタイプ5に代用できるものをセクション種類群タイプとして決定する。
【0024】
以上のようにして決定された各情報を元に、各セクション毎に割り当てるべき伴奏パターンを決定することにより自動伴奏データを完成させる。上記ステップS1〜ステップS5に引き続き処理するステップS6及びステップS7の処理は、各セクション情報毎に実行される処理である。ステップS6では、バリエーションタイプ決定テーブルのセクション種類群タイプを参照して、セクション情報内のセクションタイプと自動検出した曲の盛り上がり傾向とに従い当該セクションに割り当てる伴奏パターンのバリエーションタイプを決定する。ステップS7では、伴奏スタイル、セクションタイプ、前記決定したバリエーションタイプの伴奏パターンをセクション情報内の位置情報に基づき所定位置に配置することにより自動伴奏データを完成する。
【0025】
なお、上述した実施例ではバリエーションタイプ決定テーブルを用意したがこれに限らず、アルゴリズムによりバリエーションタイプを決定してもよい。アルゴリズムで決定する場合において、例えば曲の盛り上がり傾向が2種類で、使用する伴奏スタイルのバリエーションタイプ数が4種類とした場合、静かな演奏のもの2種類と賑やかな演奏のもの2種類に分類して、静かな演奏のもの2種類のうち賑やかな方を「普通」に、賑やかな演奏のもの2種類のうち静かな方を「派手」に割り当てるなどする。静かな演奏のもの、賑やかな演奏のものの判別は、バリエーションタイプから行ってもよいし、各セクションに割り当てられた伴奏パターン内の音色情報や音符情報などから分析するようにしてもよい。反対に、曲の盛り上がり傾向の種類の方がバリエーションタイプ数よりも多い場合には、余った傾向のセクションのバリエーションタイプをデフォルトのものに決定するなどしてもよい。
なお、上述した実施例において自動検出されるセクションのタイプとしては、イントロセクションとメインセクションとエンディングセクションとフィルインセクションとしたがこれに限らず、イントロセクション、エンディングセクション、メインセクションだけあるいは任意のセクションを選択的に自動検出するようにしてもよい。
なお、上述した実施例においては自動検出されるセクション情報に位置情報も含めたが、各セクションの位置は予め決められているものであってもよい。例えば、楽曲データが予め所定の区間毎に区切られており、各区間につき1つのセクションを配置する際にセクションタイプとバリエーションタイプとを自動決定する、というように構成してもよい。
【0026】
なお、楽曲データや自動伴奏データのフォーマットは、各イベントの発生時刻を1つ前のイベントからの時間で表した「イベント+相対時間」、イベントの発生時刻を曲や小節内における絶対時間で表した「イベント+絶対時間」、音符の音高と符長あるいは休符と休符長で表した「音高(休符)+符長」、演奏の最小分解能毎にメモリの領域を確保し、イベントの発生する時刻に対応するメモリ領域にイベントを記憶した「ベタ方式」等、どのような形式であってもよい。
【0027】
【発明の効果】
この発明によれば、予め使用可能な伴奏パターンの中から割り当てるべき伴奏パターンを曲の盛り上がり傾向毎に記憶したバリエーションタイプ決定テーブルを記憶しておき、選択された伴奏スタイルに応じたテーブルに基づき各セクションに対して伴奏パターン(バリエーションタイプ)を割り当てるようにしたので、各セクションに対して割り当て可能な伴奏パターン数が異なる伴奏スタイルを使用した場合においても、自動検出された曲の盛り上がり傾向の種類数に関わらずに曲の雰囲気にあった伴奏を自動生成することができるようになる、という効果を得る。
【図面の簡単な説明】
【図1】 この発明に係る自動伴奏生成装置の全体構成の一実施例を示したハード構成ブロック図である。
【図2】 バリエーションタイプ決定テーブルのデータ構造の一実施例を示す概念図である。
【図3】 自動伴奏生成処理の一実施例を示したフローチャートである。
【符号の説明】
1…CPU、2…ROM、3…RAM、4…通信インタフェース、4A…外部機器、5…入力操作部、6…表示部、6A…ディスプレイ、7…外部記憶装置、8…音源、8A…サウンドシステム、1D…通信バス
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an automatic accompaniment generating apparatus and program for analyzing music data that is performance information of music such as a melody and automatically generating accompaniment for the music based on the music data. In particular, even when using accompaniment styles with different numbers of accompaniment patterns that can be assigned to each section, an automatic accompaniment that can automatically generate an accompaniment that correctly reflects the tendency of the music in each section to rise The present invention relates to a generation device and a program.
[0002]
[Prior art]
[Patent Document 1]
Japanese Patent No. 3327188
[Patent Document 2]
Japanese Patent No. 2806351
Accompaniment style data is referred to when generating automatic accompaniment data required for performing automatic accompaniment in an electronic musical instrument, sequencer, or the like. The accompaniment style data is data defined assuming a performance style (accompaniment style) of a music genre such as rock or pop, and includes a plurality of types of accompaniment patterns (also referred to as section data). The accompaniment patterns included in the accompaniment style data include, for example, main section data such as “Main A”, “Main B”, and “Main C” that are mainly regularly played in the music, and intros in the music. There are intro section data such as “Intro A” and “Intro B” played in the part, and ending section data such as “Ending A” and “Ending B” played in the ending part of the music. Each accompaniment pattern includes, for example, setting information including the name (type) of the section data, the number of bars, and the like, and pattern data including a performance event and a sounding timing as a source of the actual accompaniment.
[0003]
2. Description of the Related Art Conventionally, an apparatus that automatically generates automatic accompaniment data and the like for performing accompaniment for a song based on analysis of song data that is performance information of a song such as a melody is known. For example, in the invention described in Patent Document 1, the music data is analyzed, and the section data string in the automatic accompaniment data together with the chord progression string (that is, the section data constituting the music such as intro A, main A, and ending A). Can be automatically generated. Further, in the invention described in Patent Document 2, variation type determination that is data designation information for designating section data (accompaniment pattern) when music data is analyzed and the section data string is automatically generated. The section data defining the pattern data corresponding to the rising tendency of the music can be assigned from one or more section data that can be assigned to each section. For example, in the main section where two types of section data of “type A” and “type B” are prepared, two types of excitement tendencies of “normal” and “flash” are analyzed as a result of the analysis of music data. If detected, the section data “main A” of the variation type “type A” is detected for the main section when “normal” is detected, and the main section is detected when “flash” is detected for the variation type “type A”. Thus, the section data “main B” of the variation type “type B” is respectively assigned.
[0004]
[Problems to be solved by the invention]
By the way, the number of accompaniment patterns (number of variation types) that can be assigned to each section type constituting the automatic accompaniment data differs for each accompaniment style. However, in the conventional automatic accompaniment generator, control is performed on the premise that the number of accompaniment patterns that can be assigned to each section type constituting the automatic accompaniment data is common to all accompaniment styles. When using accompaniment styles that differ in the number of accompaniment patterns that can be assigned to each section type, inconvenience arises. In other words, when using an accompaniment style with a different number of accompaniment patterns that can be assigned to each section, an accompaniment pattern corresponding to the variation type automatically assigned to the detected section was detected. There is a possibility that it does not match the trend of the song. If a variation-type accompaniment pattern that does not match the detected trend of the song is assigned, that is, depending on the style of accompaniment used, the auto accompaniment may not match the song's trend and the sharpness of the automatic accompaniment will change. Will occur. Also, it is inconvenient because the atmosphere of melody and automatic accompaniment is lost. For this reason, in the past, the user has to check the climax of each section of the accompaniment style that he / she wants to use and perform the operation in consideration of the accompaniment style to be used, or automatically assign the variation type. Later, the user had to perform individual changes to the accompaniment pattern of the variation type that was safe for hearing. However, it was troublesome and cumbersome for the user to perform such an operation. There was a point.
[0005]
The present invention has been made in view of the above points, and even when using accompaniment styles in which the number of accompaniment patterns that can be assigned to each section is different, the number of types of swelling tendency of automatically detected songs is affected. It is an object of the present invention to provide an automatic accompaniment generating apparatus and program that can automatically generate an accompaniment that matches the atmosphere of a song.
[0006]
[Means for Solving the Problems]
The automatic accompaniment generator according to the present invention analyzes the song structure of the acquired song data. , Divide the music data into multiple sections And Split Each section Song analysis means for detecting the undulation of each song, wherein the undulation is information specifying any one of a plurality of undulation types, and accompaniment assigned to each section of the song for a plurality of accompaniment styles Accompaniment style storage means for storing a plurality of patterns corresponding to a plurality of variations, and depending on the accompaniment style, the number of variations in the accompaniment style may not match the number of undulation types, and the combination of variations is an accompaniment style. Depending on what you remember, Of the song each Should be assigned to the interval variation Specify Finger Constant information , Undulation of song type Variations defined for each Discount Allocation rules Write Remember Assignment rules Storage means Because , The allocation rule is stored for each combination type of a plurality of variations in each accompaniment style; Selecting means for selecting an accompaniment style to be used, and said selection Shi Accompaniment style Inside Variation Combination types and song sections Ups and downs type In response to the , Referring to the allocation rule storage means, Should be assigned to each leg variation Decide Accompaniment generation that generates accompaniment data corresponding to music data acquired using an accompaniment pattern corresponding to the determined variation Means and tools Prepare It is characterized by that.
[0007]
According to this invention , Ba Riot Discount Based on the allocation rules Combination types of variations within the selected accompaniment style, Of detected songs Of each section Undulation type In response to the ,Of the song Should be assigned to each leg variation Decide And generate accompaniment data corresponding to the music data acquired using the accompaniment pattern corresponding to the determined variation. To do. Variation Discount The allocation rules are , Of the song each Should be assigned to the interval variation Specify Finger Constant information on the undulation of the song type Data defined for each each Accompaniment style For each combination type of multiple variations Remembered. The accompaniment style storage means stores a plurality of accompaniment patterns assigned to each section of the music in association with a plurality of variations. This combination of variations (accompaniment pattern) varies depending on the accompaniment style. The song analysis means Analyzing the song structure of the obtained song data Easy The music data is divided into a plurality of sections, and the undulation of the music is detected for each of the divided sections. The undulation of the music to be detected is information for specifying any one of a plurality of undulation types. Here, depending on the combination of the acquired music data and the selected accompaniment style, the number of variations in the accompaniment style may not match the number of undulation types of music detected for each section in the music data. Even when the number of multiple accompaniment patterns (variations) included in these accompaniment styles differs from the number of types of undulations, the variation assigned to each section is stored for each combination type of multiple variations in each accompaniment style. The Riot Discount Based on allocation rules ,each Should be assigned to the interval variation Decide By doing , Generate automatic accompaniment data for accompaniment along the undulation of the song , In other words, accompaniment that correctly reflects the tendency of the song to rise in each section can be automatically generated.
[0008]
The present invention may be constructed and implemented not only as an apparatus invention but also as a method invention. Further, the present invention can be implemented in the form of a program of a processor such as a computer or a DSP, or can be implemented in the form of a storage medium storing such a program.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.
[0010]
FIG. 1 is a hardware configuration block diagram showing an embodiment of the overall configuration of the automatic accompaniment generating apparatus according to the present invention. The hardware configuration example of the automatic accompaniment generating apparatus is configured by using a computer, in which predetermined music data is analyzed and accompaniment (specifically, automatic accompaniment data) that matches the atmosphere of the music based on the music data. The automatic generation process is performed by the computer executing software including a predetermined control program for realizing the “automatic accompaniment generation process”. As will be described later in detail, in the “automatic accompaniment generation process” (see FIG. 3), by analyzing predetermined music data, the section structure of the music is automatically determined to generate a section data string, and the tendency of the music to rise is detected. By determining the variation type of the accompaniment pattern (section data) to be assigned to each section of the section data string automatically determined from the variation type determination table (see FIG. 2) based on the detected tendency of the song to rise, Automatic accompaniment data necessary for performing automatic accompaniment is generated. At the time of actual accompaniment performance, the accompaniment pattern is automatically played by reading out the pattern data of the accompaniment pattern (section data) corresponding to each section arranged in the section data string order from the generated automatic accompaniment data. In this way, accompaniment that matches the atmosphere of a song such as a melody is automatically generated. Of course, such “automatic accompaniment generation processing” is not limited to the form of computer software, but can be implemented in the form of a microprogram processed by a DSP (Digital Signal Processor), and is not limited to the form of this type of program. Alternatively, the present invention may be implemented in the form of a dedicated hardware device configured to include a discrete circuit, an integrated circuit, a large-scale integrated circuit, or the like.
[0011]
The automatic accompaniment generator shown in this embodiment is controlled by a microcomputer comprising a microprocessor unit (CPU) 1, a read only memory (ROM) 2, and a random access memory (RAM) 3. The CPU 1 controls the operation of the entire automatic accompaniment generator. For this CPU 1, ROM 2, RAM 3, communication interface (I / F) 4, input operation unit 5, display unit 6, external storage device 7, and sound source 8 are respectively connected via a communication bus 1D (for example, data and address bus). It is connected. The ROM 2 stores various control programs executed or referred to by the CPU 1 (for example, automatic accompaniment generation processing (see FIG. 3 to be described later)) and various data (for example, variation type determination table (see FIG. 2 to be described later)). Store. The RAM 3 is used as a working memory for temporarily storing various data generated when the CPU 1 executes a predetermined program, or as a memory for temporarily storing a currently executing program and related data. The A predetermined address area of the RAM 3 is assigned to each function and used as a register, flag, table, memory, or the like.
[0012]
The communication interface (I / F) 4 is connected to, for example, a wired or wireless communication network such as a LAN, the Internet, or a telephone line, and is connected to the external device 4A or the like via the communication network. This is an interface for loading a control program and various data into the automatic accompaniment generator main body. Such a communication interface 4 may include both of them, not wired or wireless. The input operation unit 5 selects a target song (specifically song data) for generating an automatic accompaniment, sets a tone color and accompaniment style used for the accompaniment, or sets the number of types of climax of the song to be automatically detected. These are switches (operators) for performing various instructions. Of course, the input operation unit 5 includes various operators such as a numeric keypad for inputting numeric data, a keyboard for inputting character data, or a mouse used for operating a predetermined pointing device displayed on the display 6A. You may go out. The display unit 6 displays a list of accompaniment style names, song names attached to song data, variation type determination tables, etc. on a display 6A composed of, for example, a liquid crystal display panel (LCD) or a CRT, and the control state of the CPU 1 Various information such as is displayed.
[0013]
The external storage device 7 stores a control program, various data, and the like, similar to the ROM 2 described above. When the control program is not stored in the ROM 2, the control program is stored in the external storage device 7 (for example, a hard disk) and read into the RAM 3 to store the control program in the ROM 2. A similar operation can be performed by the CPU 1. In this way, control programs can be easily added and upgraded. The external storage device 7 is not limited to a hard disk (HD), but a flexible disk (FD), a compact disk (CD-ROM / CD-RAM), a magneto-optical disk (MO), a DVD (Digital Versatile Disk), etc. It may be a storage device that uses various external recording media. Alternatively, a semiconductor memory or the like may be used.
[0014]
The sound source 8 can simultaneously generate music signals on a plurality of channels, and inputs various performance information such as music data and automatic accompaniment data given via the communication bus 1D, and based on the performance information. Generate a musical tone signal. A musical sound signal generated from the sound source 8 is generated from a sound system 8A including an amplifier and a speaker. A predetermined effect may be applied to the musical sound signal generated from the sound source 8 using an effect circuit or the like (not shown). The music data and automatic accompaniment data may be digitally encoded such as the MIDI format, or may be a waveform sample data system such as PCM, DPCM, or ADPCM. Any conventional configuration may be used for the configuration of the sound source 8 and the sound system 8A. For example, the sound source 8 may employ any of various tone synthesis methods such as FM, PCM, physical model, formant synthesis, etc., or may be constituted by dedicated hardware, or by software processing by the CPU 1. Also good.
[0015]
The automatic accompaniment generator described above is not limited to the input operation unit 5, the display 6A, the sound source 8, and the like built in one apparatus body, but each is configured separately, and communication means such as a MIDI interface and various networks are provided. Needless to say, the apparatus may be configured to be connected to each other. Furthermore, the apparatus to which the automatic accompaniment generating apparatus according to the present invention is applied may be any device / equipment such as an electronic musical instrument, a personal computer, a portable communication terminal such as a PDA or a mobile phone, or a karaoke apparatus or a game apparatus. You may apply. When applied to a portable communication terminal, not only when a predetermined function is completed with only the terminal, but also a part of the function is provided on the server side, and the predetermined function is realized as a whole system composed of the terminal and the server. You may make it do.
[0016]
Next, a plurality of data stored in advance in the ROM 2, RAM 3, external storage device 7, etc., and referred to when determining the variation type of the accompaniment pattern (section data) to be assigned to each section at the time of automatic accompaniment data generation. A certain variation type determination table will be described. FIG. 2 is a conceptual diagram showing an example of the data structure of the variation type determination table. This variation type determination table is prepared for each number of types of climax of music, such as preset ones and those set by the user. For example, there are two types of song climax, “normal” and “flashy”, and four types of “weak”, “normal”, “flashy”, and “strong” A variation type determination table corresponding to the number of types is prepared in advance. In FIG. 2 shown here, the variation type determination table corresponding to the case where the number of types of climax of music is “normal” and “flashy” is shown as an example.
[0017]
As can be understood from FIG. 2, the variation type determination table can be used for each section type (here, intro, main, ending, fill-in) included in the section type group type for each type of climax of the song. This is data defining a variation type, which is data designation information for designating an accompaniment pattern to be actually allocated from the accompaniment patterns. The section type group type is a combination of accompaniment patterns that can be used in a predetermined accompaniment style. For example, four section type group types from type 1 to type 4 are assigned so as to correspond to each accompaniment style. In this embodiment, the accompaniment patterns included in section type group type 1 are intro A / B, main A / B, fill-in AA / AB / BA / BB, and ending A / B for each section type. The accompaniment patterns included in Type 2 are Intro A / B / C, Main A / B / C / D, Fill-in AA / BB / CC / DD / BA, and Ending A / B / C. Accompaniment patterns included are intro A, main A / B, fill-in AB / BA, and ending A. Accompaniment patterns included in section type group type 4 are intro A, main A, fill-in AA, and ending A. Therefore, for example, when the section type group type corresponding to the accompaniment pattern is type 3 described above, only intro A for the intro section, either main A or main B for the main section, This means an accompaniment pattern in which either fill-in AB or fill-in BA can be assigned to the fill-in section, and only ending A can be assigned to the ending section.
[0018]
By the way, as already mentioned, depending on the accompaniment style, if the variation type automatically assigned to the section detected at the time of automatic accompaniment generation is used as it is, an accompaniment pattern that does not match the climax of the song is assigned. There is a possibility. Therefore, in the automatic accompaniment generating device shown in FIG. 1, the variation type determination table is referred to based on the combination of the song swell and the section type detected by analyzing the song data, and the song swells. Which accompaniment pattern should be assigned from among the accompaniment patterns included in each section type group type is determined as the accompaniment pattern along. That is, according to the selection of the accompaniment pattern to be used, one section type group type is determined from among type 1 to type 4, and the accompaniment pattern included in the determined section type group type is assigned to each section type. Be able to. For example, in the case of the section type group type 2, when the excitement tendency is “normal”, “intro B” in intro A / B / C, “main B” in main A / B / C / D, ending Of A / B / C, “Ending B” is assigned, and “Intro B”, “Main C”, and “Ending B” are assigned when the rising tendency is “Flashy”. On the other hand, in the case of the section type group type 3, “Intro A”, “Main A”, “Ending A” when the rising tendency is “Normal”, and “Intro A” when the rising tendency is “Flashy”. ”,“ Main B ”, and“ Ending A ”. In this way, by referring to the variation type determination table, it is possible to assign an appropriate accompaniment pattern in each accompaniment style according to the climax of the song.
[0019]
It should be noted that the number and types of section type group types and accompaniment patterns (variation types) included in each section type group type or the tendency of music to swell are not limited to those of the above-described embodiments. Further, it goes without saying that the section type group type, the variation type, or the number and type of the climax of the song may be defined differently for each variation type determination table.
The variation type determination table may be prepared for each section type group type.
[0020]
In the automatic accompaniment generating apparatus shown in FIG. 1, the music data selected by the user is analyzed, and a section data string of automatic accompaniment data is automatically generated based on the analysis result, and the section data is recorded during actual accompaniment performance. By referring to the accompaniment pattern for each section according to the sequence, the accompaniment that matches the atmosphere of the music of the selected music data can be automatically played. The automatic accompaniment generation process for generating the automatic accompaniment data necessary for performing the automatic accompaniment suitable for the atmosphere of such a song is a predetermined program (see FIG. 1) in which the CPU 1 of the automatic accompaniment generation apparatus shown in FIG. This is implemented by executing software. The processing operation of this “automatic accompaniment generation process” will be described with reference to FIG. FIG. 3 is a flowchart showing an example of “automatic accompaniment generation processing”. Hereinafter, the processing operation of the processing will be described according to the flowchart shown in FIG.
[0021]
In step S1, user settings are made. The user settings performed here include, for example, specification of a timbre used in accompaniment, setting of an accompaniment style to be used, selection of music data as a target to be accompanied by automatic accompaniment, and the like. In addition to the above, the user settings may include appropriate settings for changing the data contents of the variation type determination table and adding data (for example, setting the number of types of climax tendency). In step S2, the section type group type is detected from the accompaniment style to be used. That is, one section type group type corresponding to the accompaniment style to be used set in step S1 is determined. For example, when “Jazz” is set as the accompaniment style, the section type group type 2 is used, and when “Drum” is set as the accompaniment style, the section type group type 4 is used. The section type group type corresponding to the accompaniment style is determined.
[0022]
In step S3, the section information sequence is automatically detected by analyzing the music data selected as the target to which automatic accompaniment is added in step S1, and generation of automatic accompaniment data is started. Since automatic detection of the section information sequence by analysis of the music data may be performed by any known method, description thereof is omitted here. The section information column that is automatically detected here includes location information related to the placement position (start position / end position) of the section, section type (intro section, main section, ending section, fill-in section, etc.) Various information is included. In step S4, it is determined whether the variation type determination table corresponds to the section type group type detected in step S2. That is, by automatically detecting the number of types of music climax in step S3, from among a plurality of variation type determination tables prepared in advance so as to correspond to the number of types of music climax. One variation type determination table corresponding to the number of types of rising tendency of the automatically detected music is determined. Then, it is determined whether or not the section type group type detected in step S2 is included in the section type group type of the determined variation type determination table.
[0023]
If it is determined that the variation type determination table does not correspond to the section type group type (NO in step S4), the section type group type that can be substituted from the section type group types supported by the variation type determination table Is detected (step S5). For example, when the detected section type group type is type 5, while the section type group type included in the variation type determination table is type 1 to type 4 and does not include type 5. Among the types 1 to 4 included in the variation type determination table, those that can be substituted for type 5 are determined as section type group types.
[0024]
Automatic accompaniment data is completed by determining the accompaniment pattern to be assigned to each section based on the information determined as described above. The processes in step S6 and step S7, which are subsequently performed from step S1 to step S5, are performed for each section information. In step S6, with reference to the section type group type of the variation type determination table, the accompaniment pattern variation type to be assigned to the section is determined according to the section type in the section information and the automatically detected climax of the song. In step S7, the accompaniment style, the section type, and the accompaniment pattern of the determined variation type are arranged at predetermined positions based on the position information in the section information, thereby completing automatic accompaniment data.
[0025]
In the embodiment described above, the variation type determination table is prepared. However, the present invention is not limited to this, and the variation type may be determined by an algorithm. When the algorithm determines, for example, when there are two types of song climax and the number of accompaniment style variations used is four, it is classified into two types of quiet performances and two types of lively performances. For example, one of two types of quiet performances is assigned to “normal”, and one of two types of live performances is assigned to “quiet”. Discrimination between a quiet performance and a lively performance may be made from a variation type, or may be analyzed from timbre information or note information in an accompaniment pattern assigned to each section. On the other hand, if the number of types of climax of the song is greater than the number of variation types, the variation type of the remaining trend section may be determined as the default one.
In the above-described embodiment, the types of sections automatically detected are the intro section, the main section, the ending section, and the fill-in section. You may make it detect automatically selectively.
In the embodiment described above, the position information is included in the automatically detected section information. However, the position of each section may be determined in advance. For example, the music data may be divided in advance for each predetermined section, and the section type and the variation type may be automatically determined when one section is arranged for each section.
[0026]
The format of music data and automatic accompaniment data is “event + relative time”, which shows the time of occurrence of each event as the time from the previous event, and the time of occurrence of the event as absolute time in the music or measure. "Event + absolute time", "pitch (note) + note length" expressed in terms of note pitch and note length or rest and rest length, memory area for each minimum performance resolution, Any format such as a “solid method” in which an event is stored in a memory area corresponding to the time at which the event occurs may be used.
[0027]
【The invention's effect】
According to the present invention, the variation type determination table storing the accompaniment patterns to be allocated among the accompaniment patterns that can be used in advance is stored for each tendency of excitement of the music, Since accompaniment patterns (variation types) are assigned to sections, even when accompaniment styles with different numbers of accompaniment patterns that can be assigned to each section are used, the number of types of climax tendencies that are automatically detected Regardless of this, it is possible to automatically generate accompaniment that matches the atmosphere of the song.
[Brief description of the drawings]
FIG. 1 is a block diagram of a hardware configuration showing an embodiment of the overall configuration of an automatic accompaniment generator according to the present invention.
FIG. 2 is a conceptual diagram illustrating an example of a data structure of a variation type determination table.
FIG. 3 is a flowchart showing an embodiment of automatic accompaniment generation processing.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... CPU, 2 ... ROM, 3 ... RAM, 4 ... Communication interface, 4A ... External device, 5 ... Input operation part, 6 ... Display part, 6A ... Display, 7 ... External storage device, 8 ... Sound source, 8A ... Sound System, 1D ... communication bus

Claims (2)

取得した楽曲データの曲構造を解析して該楽曲データを複数の区間に分割するとともに、分割された各区間毎に曲の起伏を検出する曲解析手段であって、前記起伏は複数の起伏種類のうちのいずれかを特定する情報であるものと、
複数の各伴奏スタイルについて、曲の各区間に割り当てる伴奏パターンを複数のバリエーションに対応させて複数記憶した伴奏スタイル記憶手段であって、伴奏スタイルによって該伴奏スタイル内のバリエーション数が前記起伏種類の数と一致しない場合があるとともに、バリエーションの組み合わせが伴奏スタイルによって異なるものを記憶したものと、
曲の区間に対して割り当てるべきバリエーションを指定する指定情報を曲の起伏種類毎に定義したバリエーション割り当て規則を記憶する割り当て規則記憶手段であって前記割り当て規則は各伴奏スタイル内の複数のバリエーションの組み合わせタイプ毎に記憶されているものと、
使用する対象の伴奏スタイルを選択する選択手段と、
前記選択た伴奏スタイル内のバリエーションの組み合わせタイプと、曲の各区間の起伏種類に応じて、前記割り当て規則記憶手段を参照して、各区間に対して割り当てるべきバリエーションを決定し、決定されたバリエーションに対応する伴奏パターンを用いて取得した楽曲データに対応した伴奏データを生成する伴奏生成手段と
を具備することを特徴とする自動伴奏生成装置。
Analyzes the music structure obtained music data, while dividing the music piece data into a plurality of sections, a music analyzing means for detecting the undulation of the songs to each section divided, the undulating plurality of undulations Information that identifies one of the types,
Accompaniment style storage means for storing a plurality of accompaniment patterns assigned to each section of a song in association with a plurality of variations for each of a plurality of accompaniment styles, wherein the number of variations in the accompaniment style depends on the number of the undulation types. With different combinations of variations depending on the accompaniment style,
The specified information that specifies the variations that should be assigned to each section of the song, a allocation rule storage means for the VARIATION allocation rules defined in the undulating type each song remembers to the allocation rule each What is stored for each combination type of multiple variations in the accompaniment style,
A selection means for selecting an accompaniment style to be used;
Combination type VARIATION of said selected within accompaniment styles, depending on the undulating type of each segment of the song, by referring to the allocation rule storage means, to determine the variations to be allocated for each section, is determined automatic accompaniment generating apparatus according to claim ingredients Bei to Rukoto the accompaniment generating means for generating an accompaniment data corresponding to the music data obtained using an accompaniment pattern corresponding to the variation were.
前記伴奏生成手段は前記割り当て規則記憶手段を参照する際に、前記選択した伴奏スタイル内のバリエーションの組み合わせタイプが前記割り当て規則記憶手段内に記憶されているバリエーションの組み合わせタイプのいずれとも一致しない場合、前記割り当て規則記憶手段内に記憶されているいずれかのバリエーションの組み合わせを代用して、各区間に対して割り当てるべきバリエーションを決定することを特徴とする請求項1に記載の自動伴奏生成装置。When the accompaniment generation means refers to the assignment rule storage means, if the combination type of variations in the selected accompaniment style does not match any of the combination types of variations stored in the assignment rule storage means, 2. The automatic accompaniment generator according to claim 1, wherein a variation to be allocated to each section is determined by substituting any combination of variations stored in the allocation rule storage means.
JP2003126232A 2003-05-01 2003-05-01 Automatic accompaniment generator and program Expired - Fee Related JP4075677B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003126232A JP4075677B2 (en) 2003-05-01 2003-05-01 Automatic accompaniment generator and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003126232A JP4075677B2 (en) 2003-05-01 2003-05-01 Automatic accompaniment generator and program

Publications (2)

Publication Number Publication Date
JP2004333611A JP2004333611A (en) 2004-11-25
JP4075677B2 true JP4075677B2 (en) 2008-04-16

Family

ID=33503223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003126232A Expired - Fee Related JP4075677B2 (en) 2003-05-01 2003-05-01 Automatic accompaniment generator and program

Country Status (1)

Country Link
JP (1) JP4075677B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019200390A (en) 2018-05-18 2019-11-21 ローランド株式会社 Automatic performance apparatus and automatic performance program
CN111081272B (en) * 2019-12-16 2024-04-05 腾讯科技(深圳)有限公司 Method and device for identifying climax clips of songs

Also Published As

Publication number Publication date
JP2004333611A (en) 2004-11-25

Similar Documents

Publication Publication Date Title
US7968787B2 (en) Electronic musical instrument and storage medium
JP3293510B2 (en) Data selection device
JP3220183B2 (en) Chord detection device and automatic accompaniment device
JP3419278B2 (en) Performance setting data selection device, performance setting data selection method, and recording medium
JP4075677B2 (en) Automatic accompaniment generator and program
JP4179063B2 (en) Performance setting data selection device and program
JP4239706B2 (en) Automatic performance device and program
JP4748027B2 (en) Automatic accompaniment apparatus and program
JP3933070B2 (en) Arpeggio generator and program
JP3487176B2 (en) Performance information creation display device and recording medium therefor
JP2007140163A (en) Karaoke device and program for karaoke device
JP2000112472A (en) Automatic music composing device, and recording medium
JP5104414B2 (en) Automatic performance device and program
JP3752940B2 (en) Automatic composition method, automatic composition device and recording medium
JP3775390B2 (en) Performance setting data selection device, performance setting data selection method, and recording medium
JP6597533B2 (en) Waveform data selection device and waveform data selection method
JP4144488B2 (en) Accompaniment data generation apparatus and program
JP3775039B2 (en) Melody generator and recording medium
JP5104415B2 (en) Automatic performance device and program
JP2008089750A (en) Musical sound reproducing device and program
JP4858174B2 (en) Electronic musical instruments and programs
JP5387031B2 (en) Electronic music apparatus and program
JP4595851B2 (en) Performance data editing apparatus and program
JP5387032B2 (en) Electronic music apparatus and program
JP4218065B2 (en) Karaoke device and program for karaoke device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080121

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110208

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120208

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130208

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140208

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees