JP2004333611A - Automatic accompaniment generating device and program - Google Patents

Automatic accompaniment generating device and program Download PDF

Info

Publication number
JP2004333611A
JP2004333611A JP2003126232A JP2003126232A JP2004333611A JP 2004333611 A JP2004333611 A JP 2004333611A JP 2003126232 A JP2003126232 A JP 2003126232A JP 2003126232 A JP2003126232 A JP 2003126232A JP 2004333611 A JP2004333611 A JP 2004333611A
Authority
JP
Japan
Prior art keywords
accompaniment
music
data
section
style
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003126232A
Other languages
Japanese (ja)
Other versions
JP4075677B2 (en
Inventor
Chieko Koga
智恵子 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2003126232A priority Critical patent/JP4075677B2/en
Publication of JP2004333611A publication Critical patent/JP2004333611A/en
Application granted granted Critical
Publication of JP4075677B2 publication Critical patent/JP4075677B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To automatically generate an accompaniment on which the climax tendencies of a piece of music are reflected. <P>SOLUTION: According to a variation type allocation rule stored corresponding to an accompaniment style, accompaniment patterns to be allocated to respective sections are determined on the basis of the detected upsurges of the piece of music. The variation type allocation rule is data wherein specified data specification information for specifying a accompaniment pattern to be allocated to a specified section of the piece of music is defined by the tendencies of upsurges of the piece of music. The music structure of acquired musical piece data is analyzed to detect the upsurges of the piece of music by a plurality of divided sections. According to a variation type allocation rule corresponding to a selected accompaniment style, accompaniment patterns to be allocated to the respective sections are determined on the basis of the upsurges of the piece of music. Consequently, even when the number of accompaniment patterns which can be used for the selected accompaniment style is different from the number of kinds of upsurges of the piece of musical, an accompaniment on which the tendencies of upsurges of the piece of music are correctly reflected can automatically be generated. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は、メロディ等の曲の演奏情報である楽曲データを分析して、該楽曲データに基づく曲にあった伴奏を自動生成する自動伴奏生成装置及びプログラムに関する。特に、各セクションに対して割り当て可能な伴奏パターン数が異なる伴奏スタイルを使用する場合であっても、各セクションにおける曲の盛り上がり傾向を正しく反映した伴奏を自動生成することのできるようにした自動伴奏生成装置及びプログラムに関する。
【0002】
【従来の技術】
【特許文献1】特許第3327188号公報
【特許文献2】特許第2806351号公報
電子楽器やシーケンサーなどにおいて、自動伴奏を行うために必要とされる自動伴奏データを生成する際には伴奏スタイルデータが参照される。伴奏スタイルデータはロックやポップス等の音楽ジャンルの演奏スタイル(伴奏スタイル)を想定して定義されたデータであり、複数種類の伴奏パターン(セクションデータとも呼ぶ)を複数含んで構成されている。伴奏スタイルデータに含まれる伴奏パターンとしては、例えば、楽曲の中で主として定常的に演奏される「メインA」や「メインB」や「メインC」等のメインセクションデータや、楽曲の中のイントロ部分で演奏される「イントロA」や「イントロB」等のイントロセクションデータ、楽曲の中のエンディング部分で演奏される「エンディングA」や「エンディングB」等のエンディングセクションデータ等がある。個々の伴奏パターンは、例えば当該セクションデータの名称(種類)、小節数等からなる設定情報と、実際の伴奏の元になる演奏イベント及び発音タイミング等からなるパターンデータとにより構成されている。
【0003】
従来から、メロディ等の曲の演奏情報である楽曲データの分析に基づいて、該曲にあった伴奏を行うための自動伴奏データなどを自動的に生成する装置が知られている。例えば、上記特許文献1に記載の発明においては、楽曲データを分析してコード進行列と共に自動伴奏データにおけるセクションデータ列(つまりイントロA、メインA、エンディングAなどの該曲を構成するセクションデータの並び)を自動生成することができるようになっている。また、上記特許文献2に記載の発明においては、楽曲データを分析して前記セクションデータ列を自動生成する際において、セクションデータ(伴奏パターン)を指定するためのデータ指定情報であるバリエーションタイプの判定を行い、各セクションに対して割り当て可能な1乃至複数のセクションデータの中から、曲の盛り上がり傾向に対応するパターンデータを定義したセクションデータを割り当てることができるようになっている。例えば、バリエーションタイプが「タイプA」及び「タイプB」である2種類のセクションデータが用意されているメインセクションにおいて、楽曲データの分析の結果として「普通」「派手」の2種類の盛り上がり傾向を検出した場合、「普通」と検出された場合には当該メインセクションに対してバリエーションタイプ「タイプA」のセクションデータ「メインA」が、「派手」と検出された場合には当該メインセクションに対してバリエーションタイプ「タイプB」のセクションデータ「メインB」がそれぞれ割り当てられることになる。
【0004】
【発明が解決しようとする課題】
ところで、自動伴奏データを構成する各セクションタイプに対して割り当て可能な伴奏パターン数(バリエーションタイプ数)は伴奏スタイル毎に異なる。しかし、従来の自動伴奏生成装置においては、自動伴奏データを構成する各セクションタイプに対して割り当て可能な伴奏パターン数がいずれの伴奏スタイルについても共通であることを前提として制御するものであったために、各セクションタイプに対して割り当て可能な伴奏パターン数が異なっている伴奏スタイルを使用した場合には不都合が生じていた。すなわち、各セクションに対して割り当て可能な伴奏パターン数が異なっている伴奏スタイルを使用した場合には、検出されたセクションに対して自動的に割り当てられたバリエーションタイプに応じた伴奏パターンが検出された曲の盛り上がり傾向とあわない可能性がある。検出された曲の盛り上がり傾向とあわないバリエーションタイプの伴奏パターンが割り当てられた場合には、つまり使用する伴奏スタイルによっては自動伴奏が曲の盛り上がり傾向とあわなくなって自動伴奏のメリハリが変わってしまうことが生ずる。また、メロディと自動伴奏の雰囲気があわなくなってしまうことから都合が悪い。そのため、従来では使用しようとする伴奏スタイルの各セクションの盛り上がり傾向をユーザ自身が調べて使用する伴奏スタイルを考慮して処理を実行するよう操作を行わなければならない、あるいはバリエーションタイプの自動的な割り当て後に聴感上無難なバリエーションタイプの伴奏パターンにユーザ自身が個別に変更する操作を行わなければならなかったが、こうした操作をユーザ自身がわざわざ行わなければならないのは手間が掛かり面倒である、という問題点があった。
【0005】
本発明は上述の点に鑑みてなされたもので、各セクションに対して割り当て可能な伴奏パターンの数が異なる伴奏スタイルを使用した場合においても、自動検出された曲の盛り上がり傾向の種類数に関わらずに曲の雰囲気にあった伴奏を自動生成することのできるようにした自動伴奏生成装置及びプログラムを提供することを目的とする。
【0006】
【課題を解決するための手段】
本発明に係る自動伴奏生成装置は、取得した楽曲データの曲構造を解析して前記楽曲データを複数の区間に分割し、該分割した複数の各区間に対して少なくとも自動伴奏用データである所定の伴奏パターンを割り当てることにより、前記楽曲データに対応した自動伴奏データを生成する自動伴奏生成装置であって、曲の所定区間に対して割り当てるべき伴奏パターンを指定する所定のデータ指定情報を曲の起伏の傾向毎に定義したバリエーションタイプの割り当て規則を所定の伴奏スタイル毎に応じて記憶する記憶手段と、使用する対象の伴奏スタイルを選択する選択手段と、取得した楽曲データから分割した複数の区間毎に曲の起伏を検出する検出手段と、前記選択された伴奏スタイルに対応するバリエーションタイプの割り当て規則に基づいて、前記検出された曲の起伏に応じて各区間に対して割り当てるべき伴奏パターンを決定する決定手段とを具備し、前記選択された伴奏スタイルで使用可能な伴奏パターン数と前記検出した曲の起伏の種類数が異なる場合において、前記伴奏パターン決定手段により決定した伴奏パターンに基づき曲の起伏に沿った伴奏を行う自動伴奏データを生成することを特徴とする。
【0007】
この発明によると、所定の伴奏スタイルに対応して記憶されたバリエーションタイプの割り当て規則に基づいて、検出された曲の起伏に応じて各区間に対して割り当てるべき伴奏パターンを決定する。バリエーションタイプの割り当て規則は曲の所定区間に対して割り当てるべき伴奏パターンを指定する所定のデータ指定情報を曲の起伏の傾向毎に定義したデータであり、所定の伴奏スタイル毎に対応するように記憶される。取得した楽曲データの曲構造を解析して前記楽曲データを複数の区間に分割し、分割した複数の区間毎に曲の起伏を検出する。そして、選択された伴奏スタイルに対応するバリエーションタイプの割り当て規則に基づいて、前記検出された曲の起伏に応じて各区間に対して割り当てるべき伴奏パターンを決定する。このようにすると、選択された伴奏スタイルで使用可能な伴奏パターン数と検出した曲の起伏の種類数が異なる場合においても、曲の起伏に沿った伴奏を行う自動伴奏データを生成するようになる。すなわち、各セクションに対して割り当て可能な伴奏パターン数が異なる伴奏スタイルを使用する場合であっても、各セクションにおける曲の盛り上がり傾向を正しく反映した伴奏を自動生成することができるようになる。
【0008】
本発明は、装置の発明として構成し実施することができるのみならず、方法の発明として構成し実施することができる。また、本発明は、コンピュータまたはDSP等のプロセッサのプログラムの形態で実施することができるし、そのようなプログラムを記憶した記憶媒体の形態で実施することもできる。
【0009】
【発明の実施の形態】以下、この発明の実施の形態を添付図面に従って詳細に説明する。
【0010】
図1は、この発明に係る自動伴奏生成装置の全体構成の一実施例を示したハード構成ブロック図である。当該自動伴奏生成装置のハードウエア構成例はコンピュータを用いて構成されており、そこにおいて所定の楽曲データを分析して該楽曲データに基づく曲の雰囲気にあった伴奏(詳しくは自動伴奏データ)を自動生成する処理は、コンピュータが「自動伴奏生成処理」を実現する所定の制御プログラムを含むソフトウエアを実行することにより実施される。詳しくは後述するが「自動伴奏生成処理」(図3参照)では、所定の楽曲データを分析することによって曲のセクション構成を自動判別してセクションデータ列を生成すると共に曲の盛り上がり傾向を検出し、該検出した曲の盛り上がり傾向に基づいてバリエーションタイプ決定テーブル(図2参照)から前記自動判別したセクションデータ列の各セクション毎に割り当てるべき伴奏パターン(セクションデータ)のバリエーションタイプを決定することにより、自動伴奏を行うために必要な自動伴奏データを生成する。実際の伴奏演奏時においては、該生成した自動伴奏データから、セクションデータ列順に配置された各セクション毎に対応する伴奏パターン(セクションデータ)のパターンデータを読み出して伴奏を自動的に演奏する。このようにして、メロディ等の曲の雰囲気にあった伴奏を自動生成する。勿論、こうした「自動伴奏生成処理」はコンピュータソフトウエアの形態に限らず、DSP(Digital Signal Processor)によって処理されるマイクロプログラムの形態でも実施可能であり、また、この種のプログラムの形態に限らず、ディスクリート回路又は集積回路若しくは大規模集積回路等を含んで構成された専用ハードウエア装置の形態で実施するようにしてもよい。
【0011】
本実施例に示す自動伴奏生成装置は、マイクロプロセッサユニット(CPU)1、リードオンリメモリ(ROM)2、ランダムアクセスメモリ(RAM)3からなるマイクロコンピュータによって制御される。CPU1は、この自動伴奏生成装置全体の動作を制御する。このCPU1に対して、通信バス1D(例えばデータ及びアドレスバス)を介してROM2、RAM3、通信インタフェース(I/F)4、入力操作部5、表示部6、外部記憶装置7、音源8がそれぞれ接続されている。ROM2は、CPU1により実行あるいは参照される各種制御プログラム(例えば、自動伴奏生成処理(後述する図3参照)など)や各種データ等(例えば、バリエーションタイプ決定テーブル(後述する図2参照)など)を格納する。RAM3は、CPU1が所定のプログラムを実行する際に発生する各種データなどを一時的に記憶するワーキングメモリとして、あるいは現在実行中のプログラムやそれに関連するデータを一時的に記憶するメモリ等として使用される。RAM3の所定のアドレス領域がそれぞれの機能に割り当てられ、レジスタやフラグ、テーブル、メモリなどとして利用される。
【0012】
通信インタフェース(I/F)4は、例えばLANやインターネット、電話回線等の有線あるいは無線の通信ネットワークに接続されており、該通信ネットワークを介して外部機器4A等と接続され、当該外部機器4Aから制御プログラムや各種データを自動伴奏生成装置本体側に取り込むためのインタフェースである。こうした通信インタフェース4は、有線あるいは無線のものいずれかでなく双方を具えていてよい。入力操作部5は、自動伴奏を生成する対象の曲(詳しくは楽曲データ)の選択、伴奏に使用する音色や伴奏スタイルなどの設定、あるいは自動検出する曲の盛り上がり傾向の種類数の設定などの各種指示を行うためのスイッチ類(操作子)である。勿論、入力操作部5はこれら以外にも数値データ入力用のテンキーや文字データ入力用のキーボード、あるいはディスプレイ6Aに表示される所定のポインティングデバイスを操作するために用いるマウスなどの各種操作子を含んでいてもよい。表示部6は例えば液晶表示パネル(LCD)やCRT等から構成されるディスプレイ6Aに、伴奏スタイル名や楽曲データに付された曲名、あるいはバリエーションタイプ決定テーブルなどを一覧表示したり、CPU1の制御状態などの各種情報を表示したりする。
【0013】
外部記憶装置7は上記したROM2と同様に、制御プログラムや各種データなどを記憶する。前記ROM2に制御プログラムが記憶されていない場合、この外部記憶装置7(例えばハードディスク)に制御プログラムを記憶させておき、それを前記RAM3に読み込むことにより、ROM2に制御プログラムを記憶している場合と同様の動作をCPU1にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。なお、外部記憶装置7はハードディスク(HD)に限られず、フレキシブルディスク(FD)、コンパクトディスク(CD−ROM・CD−RAM)、光磁気ディスク(MO)、あるいはDVD(Digital Versatile Disk)等の着脱自在な様々な形態の外部記録媒体を利用する記憶装置であってもよい。あるいは、半導体メモリなどであってもよい。
【0014】
音源8は複数のチャンネルで楽音信号の同時発生が可能であり、通信バス1Dを経由して与えられた、楽曲データや自動伴奏データ等の各種演奏情報を入力し、これらの演奏情報に基づいて楽音信号を発生する。音源8から発生された楽音信号は、アンプやスピーカなどを含むサウンドシステム8Aから発音される。この音源8から発生された楽音信号に対して、効果回路など(図示せず)を用いて所定の効果を付与するようにしてもよい。前記楽曲データや自動伴奏データの形式はMIDI形式のようなディジタル符号化されたものであってもよいし、PCM、DPCM、ADPCMのような波形サンプルデータ方式からなるものであってもよい。この音源8とサウンドシステム8Aの構成には、従来のいかなる構成を用いてもよい。例えば、音源8はFM、PCM、物理モデル、フォルマント合成等の各種楽音合成方式のいずれを採用してもよく、また専用のハードウェアで構成してもよいし、CPU1によるソフトウェア処理で構成してもよい。
【0015】
なお、上述した自動伴奏生成装置は入力操作部5やディスプレイ6Aあるいは音源8などを1つの装置本体に内蔵したものに限らず、それぞれが別々に構成され、MIDIインタフェースや各種ネットワーク等の通信手段を用いて各装置を接続するように構成されたものであってもよいことは言うまでもない。さらに、本発明に係る自動伴奏生成装置を適用する装置は、電子楽器、パーソナルコンピュータ、PDAや携帯電話等の携帯型通信端末、あるいはカラオケ装置やゲーム装置など、どのような形態の装置・機器に適用してもよい。携帯型通信端末に適用した場合、端末のみで所定の機能が完結している場合に限らず、機能の一部をサーバ側に持たせ、端末とサーバとからなるシステム全体として所定の機能を実現するようにしてもよい。
【0016】
次に、ROM2やRAM3あるいは外部記憶装置7などに予め複数記憶されており、自動伴奏データ生成時において各セクション毎に割り当てるべき伴奏パターン(セクションデータ)のバリエーションタイプを決定する際に参照するデータであるバリエーションタイプ決定テーブルについて説明する。図2は、バリエーションタイプ決定テーブルのデータ構造の一実施例を示す概念図である。このバリエーションタイプ決定テーブルは予めプリセットされたものやユーザが設定したものなど、曲の盛り上がり傾向の種類数毎に用意されている。例えば、曲の盛り上り傾向の種類数として「普通」・「派手」の2種類のものや「弱々しい」・「普通」・「派手」・「力強い」の4種類のものなど、それぞれの種類数に対応するバリエーションタイプ決定テーブルが予め用意される。ここに示した図2においては、曲の盛り上がり傾向の種類数が「普通」と「派手」の2種類の場合に対応するバリエーションタイプ決定テーブルを実施例として示している。
【0017】
図2から理解できるように、バリエーションタイプ決定テーブルは曲の盛り上がり傾向の種類毎に、各セクションタイプ(ここではイントロ、メイン、エンディング、フィルイン)に対して、セクション種類群タイプに含まれる使用可能な伴奏パターンの中から実際に割り当てるべき伴奏パターンを指定するデータ指定情報であるバリエーションタイプを定義したデータである。セクション種類群タイプは所定の伴奏スタイルにおいて使用可能である伴奏パターンの組み合わせであって、例えば伴奏スタイル毎に対応するようにしてタイプ1〜タイプ4までの4種類のセクション種類群タイプが割り当てられる。この実施例において、セクション種類群タイプ1に含まれる伴奏パターンは各セクションタイプ毎にイントロA/B、メインA/B、フィルインAA/AB/BA/BB、エンディングA/Bであり、セクション種類群タイプ2に含まれる伴奏パターンはイントロA/B/C、メインA/B/C/D、フィルインAA/BB/CC/DD/BA、エンディングA/B/Cであり、セクション種類群タイプ3に含まれる伴奏パターンはイントロA、メインA/B、フィルインAB/BA、エンディングAであり、セクション種類群タイプ4に含まれる伴奏パターンはイントロA、メインA、フィルインAA、エンディングAである。したがって、例えば伴奏パターンに対応するセクション種類群タイプが上記したタイプ3であるような場合には、イントロセクションに対してはイントロAのみ、メインセクションに対してはメインA又はメインBのいずれか、フィルインセクションに対してはフィルインAB又はフィルインBAのいずれか、エンディングセクションに対してはエンディングAのみが割り当て可能な伴奏パターンということになる。
【0018】
ところで、既に述べたように、伴奏スタイルによっては自動伴奏生成時において検出されたセクションに対して自動的に割り当てられたバリエーションタイプをそのまま用いると、曲の盛り上がり傾向とあわない伴奏パターンが割り当てられてしまう可能性がある。そこで、図1に示す自動伴奏生成装置においては、楽曲データを分析することによって検出した曲の盛り上がり傾向とセクションタイプとの組み合わせに基づき、該バリエーションタイプ決定テーブルを参照して、曲の盛り上がり傾向に沿った伴奏パターンとして各セクション種類群タイプに含まれる伴奏パターンの中からどの伴奏パターンを割り当てればよいかを決定する。すなわち、使用する伴奏パターンの選択に従ってタイプ1〜タイプ4の中からいずれかのセクション種類群タイプが1つ決定され、該決定されたセクション種類群タイプに含まれる伴奏パターンを各セクションタイプ毎に割り当てることができるようになっている。例えば、セクション種類群タイプ2の場合、盛り上がり傾向が「普通」である場合にはイントロA/B/Cのうち「イントロB」、メインA/B/C/Dのうち「メインB」、エンディングA/B/Cのうち「エンディングB」、盛り上がり傾向が「派手」である場合には「イントロB」、「メインC」、「エンディングB」がそれぞれ割り当てられる。一方、セクション種類群タイプ3の場合、盛り上がり傾向が「普通」である場合には「イントロA」、「メインA」、「エンディングA」、盛り上がり傾向が「派手」である場合には「イントロA」、「メインB」、「エンディングA」がそれぞれ割り当てられる。このようにして、バリエーションタイプ決定テーブルを参照することによって、曲の盛り上がり傾向にあわせてそれぞれの伴奏スタイルでの適切な伴奏パターンを割り当てることができるようになっている。
【0019】
なお、セクション種類群タイプや各セクション種類群タイプに含まれる伴奏パターン(バリエーションタイプ)あるいは曲の盛り上がり傾向等の数や種類は上述した実施例のものに限らない。また、バリエーションタイプ決定テーブル毎にセクション種類群タイプやバリエーションタイプあるいは曲の盛り上がり傾向等の数や種類等が異なって定義されていてよいことは言うまでもない。
なお、バリエーションタイプ決定テーブルはセクション種類群タイプ別に用意してあってもよい。
【0020】
図1に示した自動伴奏生成装置においては、ユーザにより選択された楽曲データを分析し、該分析結果に基づいて自動伴奏データのセクションデータ列を自動生成し、実際の伴奏演奏時において該セクションデータ列に従い各セクション毎の伴奏パターンを参照することにより、選択された楽曲データの曲の雰囲気にあった伴奏を自動演奏することができるようになっている。こうした曲の雰囲気にあった自動伴奏を行うために必要な自動伴奏データを生成する自動伴奏生成処理は、図1に示した自動伴奏生成装置のCPU1が自動伴奏生成処理を実現する所定のプログラム(ソフトウエア)を実行することにより実施される。そこで、この「自動伴奏生成処理」の処理動作について、図3を用いて説明する。図3は、「自動伴奏生成処理」の一実施例を示したフローチャートである。以下、図3に示したフローチャートに従って、当該処理の処理動作を説明する。
【0021】
ステップS1では、ユーザ設定を行う。ここで行われるユーザ設定としては、例えば伴奏で使用する音色の指定や使用する伴奏スタイルの設定、自動伴奏を付する対象としての楽曲データの選択などがある。ユーザ設定としてはこの他にも、ユーザによるバリエーションタイプ決定テーブルのデータ内容変更やデータ追加(例えば盛り上がり傾向種類数の設定など)の適宜の設定があってよい。ステップS2では、使用する伴奏スタイルよりセクション種類群タイプを検出する。すなわち、上記ステップS1において設定された使用する伴奏スタイルに対応するセクション種類群タイプを1つ決定する。例えば、伴奏スタイルとして「ジャズ」が設定されたような場合にはセクション種類群タイプ2、伴奏スタイルとして「ドラム」が設定されたような場合にはセクション種類群タイプ4などのようにして、使用する伴奏スタイルに対応するセクション種類群タイプを決定する。
【0022】
ステップS3では、上記ステップS1において自動伴奏を付する対象として選択された楽曲データを分析することによりセクション情報列を自動検出し、自動伴奏データの生成を開始する。この楽曲データの分析によるセクション情報列の自動検出は公知のどのような方法であってもよいことから、ここでの説明を省略する。ここで自動検出されるセクション情報列には、セクションの配置位置(開始位置/終了位置)に関する位置情報、セクションタイプ(イントロセクション、メインセクション、エンディングセクション、フィルインセクションなど)、曲の盛り上がり傾向などの各種情報が含まれる。ステップS4では、バリエーションタイプ決定テーブルが上記ステップS2で検出されたセクション種類群タイプに対応しているものか否かを判定する。すなわち、上記ステップS3により曲の盛り上り傾向の種類数を自動検出することにより、予め曲の盛り上り傾向の種類数に対応するようにして用意されている複数のバリエーションタイプ決定テーブルの中から、自動検出した曲の盛り上り傾向の種類数に対応するバリエーションタイプ決定テーブルを1つ決定する。そして、上記ステップS2で検出されたセクション種類群タイプが、該決定されたバリエーションタイプ決定テーブルのセクション種類群タイプに含まれているものであるか否かを判定する。
【0023】
バリエーションタイプ決定テーブルがセクション種類群タイプに対応していないものであると判定した場合(ステップS4のNO)、バリエーションタイプ決定テーブルが対応しているセクション種類群タイプの中から代用できるセクション種類群タイプを検出する(ステップS5)。例えば、検出されたセクション種類群タイプがタイプ5である一方、バリエーションタイプ決定テーブルに含まれるセクション種類群タイプがタイプ1〜タイプ4までであってタイプ5を含まないものであるような場合には、バリエーションタイプ決定テーブルに含まれるタイプ1〜タイプ4の中からタイプ5に代用できるものをセクション種類群タイプとして決定する。
【0024】
以上のようにして決定された各情報を元に、各セクション毎に割り当てるべき伴奏パターンを決定することにより自動伴奏データを完成させる。上記ステップS1〜ステップS5に引き続き処理するステップS6及びステップS7の処理は、各セクション情報毎に実行される処理である。ステップS6では、バリエーションタイプ決定テーブルのセクション種類群タイプを参照して、セクション情報内のセクションタイプと自動検出した曲の盛り上がり傾向とに従い当該セクションに割り当てる伴奏パターンのバリエーションタイプを決定する。ステップS7では、伴奏スタイル、セクションタイプ、前記決定したバリエーションタイプの伴奏パターンをセクション情報内の位置情報に基づき所定位置に配置することにより自動伴奏データを完成する。
【0025】
なお、上述した実施例ではバリエーションタイプ決定テーブルを用意したがこれに限らず、アルゴリズムによりバリエーションタイプを決定してもよい。アルゴリズムで決定する場合において、例えば曲の盛り上がり傾向が2種類で、使用する伴奏スタイルのバリエーションタイプ数が4種類とした場合、静かな演奏のもの2種類と賑やかな演奏のもの2種類に分類して、静かな演奏のもの2種類のうち賑やかな方を「普通」に、賑やかな演奏のもの2種類のうち静かな方を「派手」に割り当てるなどする。静かな演奏のもの、賑やかな演奏のものの判別は、バリエーションタイプから行ってもよいし、各セクションに割り当てられた伴奏パターン内の音色情報や音符情報などから分析するようにしてもよい。反対に、曲の盛り上がり傾向の種類の方がバリエーションタイプ数よりも多い場合には、余った傾向のセクションのバリエーションタイプをデフォルトのものに決定するなどしてもよい。
なお、上述した実施例において自動検出されるセクションのタイプとしては、イントロセクションとメインセクションとエンディングセクションとフィルインセクションとしたがこれに限らず、イントロセクション、エンディングセクション、メインセクションだけあるいは任意のセクションを選択的に自動検出するようにしてもよい。
なお、上述した実施例においては自動検出されるセクション情報に位置情報も含めたが、各セクションの位置は予め決められているものであってもよい。例えば、楽曲データが予め所定の区間毎に区切られており、各区間につき1つのセクションを配置する際にセクションタイプとバリエーションタイプとを自動決定する、というように構成してもよい。
【0026】
なお、楽曲データや自動伴奏データのフォーマットは、各イベントの発生時刻を1つ前のイベントからの時間で表した「イベント+相対時間」、イベントの発生時刻を曲や小節内における絶対時間で表した「イベント+絶対時間」、音符の音高と符長あるいは休符と休符長で表した「音高(休符)+符長」、演奏の最小分解能毎にメモリの領域を確保し、イベントの発生する時刻に対応するメモリ領域にイベントを記憶した「ベタ方式」等、どのような形式であってもよい。
【0027】
【発明の効果】
この発明によれば、予め使用可能な伴奏パターンの中から割り当てるべき伴奏パターンを曲の盛り上がり傾向毎に記憶したバリエーションタイプ決定テーブルを記憶しておき、選択された伴奏スタイルに応じたテーブルに基づき各セクションに対して伴奏パターン(バリエーションタイプ)を割り当てるようにしたので、各セクションに対して割り当て可能な伴奏パターン数が異なる伴奏スタイルを使用した場合においても、自動検出された曲の盛り上がり傾向の種類数に関わらずに曲の雰囲気にあった伴奏を自動生成することができるようになる、という効果を得る。
【図面の簡単な説明】
【図1】この発明に係る自動伴奏生成装置の全体構成の一実施例を示したハード構成ブロック図である。
【図2】バリエーションタイプ決定テーブルのデータ構造の一実施例を示す概念図である。
【図3】自動伴奏生成処理の一実施例を示したフローチャートである。
【符号の説明】
1…CPU、2…ROM、3…RAM、4…通信インタフェース、4A…外部機器、5…入力操作部、6…表示部、6A…ディスプレイ、7…外部記憶装置、8…音源、8A…サウンドシステム、1D…通信バス
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an automatic accompaniment generation device and a program for analyzing music data, which is performance information of a music such as a melody, and automatically generating an accompaniment for the music based on the music data. In particular, even when using an accompaniment style in which the number of accompaniment patterns that can be assigned to each section is different, an automatic accompaniment that can automatically generate an accompaniment that correctly reflects the climax of the music in each section. The present invention relates to a generation device and a program.
[0002]
[Prior art]
[Patent Document 1] Japanese Patent No. 3327188
[Patent Document 2] Japanese Patent No. 2806351
In an electronic musical instrument, a sequencer, or the like, when generating automatic accompaniment data required for performing automatic accompaniment, the accompaniment style data is referred to. The accompaniment style data is data defined assuming a performance style (accompaniment style) of a music genre such as rock and pop, and includes a plurality of types of accompaniment patterns (also referred to as section data). Examples of the accompaniment pattern included in the accompaniment style data include, for example, main section data such as “Main A”, “Main B”, and “Main C”, which are mainly played in the music, and introductory music in the music. There are intro section data such as “Intro A” and “Intro B” played in the part, and ending section data such as “Ending A” and “Ending B” played in the ending part of the music. Each accompaniment pattern is composed of, for example, setting information including the name (type) of the section data, the number of measures, and the like, and pattern data including a performance event and a sounding timing that are the source of the actual accompaniment.
[0003]
2. Description of the Related Art Conventionally, there has been known an apparatus that automatically generates, for example, automatic accompaniment data for performing accompaniment corresponding to a music based on analysis of music data that is performance information of the music such as a melody. For example, in the invention described in Patent Literature 1, the music data is analyzed and the chord progression sequence and the section data sequence in the automatic accompaniment data (that is, the section data of the song data such as intro A, main A, ending A, etc.) Line) can be automatically generated. Further, in the invention described in Patent Document 2, when the music data is analyzed and the section data string is automatically generated, the determination of the variation type, which is data designation information for designating section data (accompaniment pattern), is performed. Is performed, and section data defining pattern data corresponding to the climax of the music can be allocated from one or a plurality of section data that can be allocated to each section. For example, in a main section in which two types of section data having variation types of “type A” and “type B” are prepared, as a result of analysis of music data, two types of “central” and “flashy” tend to rise. If it is detected, if it is detected as "Normal", the section data "Main A" of the variation type "Type A" for the main section, and if it is detected as "Fancy", it will be Thus, the section data "main B" of the variation type "type B" is respectively assigned.
[0004]
[Problems to be solved by the invention]
By the way, the number of accompaniment patterns (number of variation types) that can be assigned to each section type constituting the automatic accompaniment data differs for each accompaniment style. However, in the conventional automatic accompaniment generation device, the control is performed on the assumption that the number of accompaniment patterns that can be assigned to each section type constituting the automatic accompaniment data is common to all accompaniment styles. However, when using accompaniment styles in which the number of accompaniment patterns that can be assigned to each section type is different, inconvenience has occurred. That is, when the accompaniment style in which the number of accompaniment patterns that can be assigned to each section is different, an accompaniment pattern corresponding to the variation type automatically assigned to the detected section is detected. There is a possibility that it does not match the trend of music excitement. If an accompaniment pattern of a variation type that does not match the detected song's excitement tendency is assigned, that is, depending on the accompaniment style used, the automatic accompaniment will not match the song's excitement tendency and the sharpness of the automatic accompaniment will change Occurs. In addition, it is inconvenient because the atmosphere of the melody and the automatic accompaniment no longer match. For this reason, conventionally, the user must check the climax of each section of the accompaniment style to be used and perform an operation in consideration of the accompaniment style to be used, or automatically assign a variation type. The user had to perform an operation of individually changing to a variation-type accompaniment pattern that is safe to hear later, but it is troublesome and troublesome for the user to manually perform such an operation. There was a point.
[0005]
The present invention has been made in view of the above points, and even when using an accompaniment style in which the number of accompaniment patterns that can be assigned to each section is different, regardless of the number of types of automatically detected music swelling tendencies. It is an object of the present invention to provide an automatic accompaniment generation device and a program capable of automatically generating an accompaniment suited to the ambience of a tune without having to do so.
[0006]
[Means for Solving the Problems]
The automatic accompaniment generation device according to the present invention analyzes the music structure of the acquired music data, divides the music data into a plurality of sections, and sets at least predetermined data, which is data for automatic accompaniment, for each of the plurality of divided sections. An automatic accompaniment generation device that generates automatic accompaniment data corresponding to the music data by assigning the accompaniment pattern of the music data. Storage means for storing, in accordance with each predetermined accompaniment style, variation type assignment rules defined for each undulation tendency; selecting means for selecting an accompaniment style to be used; and a plurality of sections divided from the acquired music data Detecting means for detecting the undulation of the music every time; and a variation type assignment rule corresponding to the selected accompaniment style. Deciding means for deciding an accompaniment pattern to be assigned to each section in accordance with the ups and downs of the detected music, wherein the number of accompaniment patterns available in the selected accompaniment style and the When the number of types of undulations is different, automatic accompaniment data for performing accompaniment along the undulation of the music is generated based on the accompaniment pattern determined by the accompaniment pattern determination means.
[0007]
According to the present invention, the accompaniment pattern to be assigned to each section is determined according to the undulation of the detected music piece, based on the variation type assignment rules stored corresponding to the predetermined accompaniment style. The variation type assignment rule is data that defines predetermined data specifying information for specifying an accompaniment pattern to be assigned to a predetermined section of a song for each undulation tendency of the song, and is stored so as to correspond to each predetermined accompaniment style. Is done. The music data of the acquired music data is analyzed to divide the music data into a plurality of sections, and the undulation of the music is detected for each of the plurality of divided sections. Then, based on the variation type assignment rule corresponding to the selected accompaniment style, an accompaniment pattern to be assigned to each section is determined according to the undulation of the detected music. In this way, even when the number of available accompaniment patterns in the selected accompaniment style is different from the number of detected undulation types of the music, the automatic accompaniment data for performing the accompaniment along the undulation of the music is generated. . That is, even when using an accompaniment style in which the number of accompaniment patterns that can be assigned to each section is different, it is possible to automatically generate an accompaniment that correctly reflects the climax of the music in each section.
[0008]
The invention can be constructed and implemented not only as a device invention, but also as a method invention. Further, the present invention can be implemented in the form of a program of a computer or a processor such as a DSP, or can be implemented in the form of a storage medium storing such a program.
[0009]
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.
[0010]
FIG. 1 is a block diagram of a hardware configuration showing an embodiment of the entire configuration of the automatic accompaniment generation device according to the present invention. An example of a hardware configuration of the automatic accompaniment generating apparatus is configured by using a computer, in which predetermined music data is analyzed and accompaniment (in detail, automatic accompaniment data) suitable for a music atmosphere based on the music data is generated. The process of automatic generation is performed by a computer executing software including a predetermined control program for realizing “automatic accompaniment generation process”. In the “automatic accompaniment generation processing” (see FIG. 3), the section configuration of the music is automatically determined by analyzing predetermined music data to generate a section data string and to detect the climax of the music. By determining a variation type of an accompaniment pattern (section data) to be assigned to each section of the automatically determined section data sequence from a variation type determination table (see FIG. 2) based on the detected climax of the music, Automatic accompaniment data necessary for performing automatic accompaniment is generated. At the time of actual accompaniment performance, pattern data of an accompaniment pattern (section data) corresponding to each section arranged in the section data sequence is read from the generated automatic accompaniment data, and the accompaniment is automatically played. In this way, an accompaniment suitable for the atmosphere of the music such as a melody is automatically generated. Of course, such "automatic accompaniment generation processing" is not limited to the form of computer software, but can also be implemented in the form of a microprogram processed by a DSP (Digital Signal Processor), and is not limited to this type of program. The present invention may be implemented in the form of a dedicated hardware device including a discrete circuit or an integrated circuit or a large-scale integrated circuit.
[0011]
The automatic accompaniment generation apparatus shown in this embodiment is controlled by a microcomputer including a microprocessor unit (CPU) 1, a read-only memory (ROM) 2, and a random access memory (RAM) 3. The CPU 1 controls the operation of the entire automatic accompaniment generation device. The ROM 1, the RAM 3, the communication interface (I / F) 4, the input operation unit 5, the display unit 6, the external storage device 7, and the sound source 8 are transmitted to the CPU 1 via a communication bus 1D (for example, a data and address bus). It is connected. The ROM 2 stores various control programs (for example, an automatic accompaniment generation process (see FIG. 3 described later) and the like) and various data (for example, a variation type determination table (see FIG. 2 described later) and the like) executed or referred to by the CPU 1. Store. The RAM 3 is used as a working memory for temporarily storing various data generated when the CPU 1 executes a predetermined program, or as a memory for temporarily storing a program currently being executed and data related thereto. You. A predetermined address area of the RAM 3 is assigned to each function and used as a register, a flag, a table, a memory, and the like.
[0012]
The communication interface (I / F) 4 is connected to a wired or wireless communication network such as a LAN, the Internet, and a telephone line, and is connected to an external device 4A and the like via the communication network. This is an interface for taking control programs and various data into the main body of the automatic accompaniment generation device. Such a communication interface 4 may comprise both wired or wireless, not both. The input operation unit 5 is used to select a tune (specifically, music data) for which an automatic accompaniment is to be generated, to set a tone color and an accompaniment style to be used for the accompaniment, or to set the number of types of singing tendencies of the automatically detected tune. Switches (operators) for performing various instructions. Of course, the input operation unit 5 also includes various operation devices such as a numeric keypad for inputting numerical data, a keyboard for inputting character data, and a mouse used for operating a predetermined pointing device displayed on the display 6A. You may go out. The display unit 6 displays a list of accompaniment style names, song names attached to song data, variation type determination tables, and the like on a display 6A constituted by, for example, a liquid crystal display panel (LCD), a CRT, or the like. And other information.
[0013]
The external storage device 7 stores a control program, various data, and the like, similarly to the ROM 2 described above. When the control program is not stored in the ROM 2, the control program is stored in the external storage device 7 (for example, a hard disk), and is read into the RAM 3 so that the control program is stored in the ROM 2. Similar operations can be performed by the CPU 1. By doing so, it is possible to easily add a control program or upgrade the version. Note that the external storage device 7 is not limited to a hard disk (HD), and is a removable disk such as a flexible disk (FD), a compact disk (CD-ROM / CD-RAM), a magneto-optical disk (MO), or a DVD (Digital Versatile Disk). It may be a storage device using various types of external recording media. Alternatively, it may be a semiconductor memory or the like.
[0014]
The tone generator 8 is capable of simultaneously generating musical tone signals on a plurality of channels. The tone generator 8 receives various pieces of performance information such as music data and automatic accompaniment data provided via the communication bus 1D, based on the performance information. Generates a tone signal. A tone signal generated from the sound source 8 is generated by a sound system 8A including an amplifier, a speaker, and the like. A predetermined effect may be applied to the tone signal generated from the sound source 8 using an effect circuit or the like (not shown). The format of the music data and the automatic accompaniment data may be a digitally encoded format such as a MIDI format, or may be a waveform sampled data format such as PCM, DPCM, and ADPCM. As the configuration of the sound source 8 and the sound system 8A, any conventional configuration may be used. For example, the sound source 8 may adopt any of various tone synthesis methods such as FM, PCM, physical model, and formant synthesis, may be constituted by dedicated hardware, or may be constituted by software processing by the CPU 1. Is also good.
[0015]
The above-described automatic accompaniment generation apparatus is not limited to the one in which the input operation unit 5, the display 6A, the sound source 8 and the like are built in one apparatus main body, but each is separately configured and has a communication means such as a MIDI interface and various networks. It is needless to say that the apparatus may be configured so as to connect each apparatus by using the apparatus. Furthermore, the apparatus to which the automatic accompaniment generation apparatus according to the present invention is applied can be applied to any form of apparatus / equipment such as an electronic musical instrument, a personal computer, a portable communication terminal such as a PDA or a mobile phone, or a karaoke apparatus or a game apparatus. May be applied. When applied to a portable communication terminal, not only the case where the specified function is completed only with the terminal, but also a part of the function is provided on the server side, and the predetermined function is realized as the whole system consisting of the terminal and the server You may make it.
[0016]
Next, a plurality of data is stored in advance in the ROM 2, the RAM 3, the external storage device 7, or the like, and is referred to when determining a variation type of an accompaniment pattern (section data) to be assigned to each section when generating automatic accompaniment data. A certain variation type determination table will be described. FIG. 2 is a conceptual diagram showing one embodiment of the data structure of the variation type determination table. This variation type determination table is prepared for each number of types of music swelling tendency, such as a preset type or a user-set one. For example, there are two types of song swelling tendencies: "normal" and "flashy", and four types of "weak", "normal", "flashy" and "powerful". A variation type determination table corresponding to the number of types is prepared in advance. In FIG. 2 shown here, a variation type determination table corresponding to the case where the number of types of music swelling tendency is “normal” and “flashy” is shown as an embodiment.
[0017]
As can be understood from FIG. 2, the variation type determination table includes, for each section type (here, intro, main, ending, and fill-in) for each type of song swelling tendency, the available type included in the section type group type. This is data defining a variation type, which is data designation information for designating an accompaniment pattern to be actually assigned from the accompaniment patterns. The section type group type is a combination of accompaniment patterns that can be used in a predetermined accompaniment style. For example, four section type group types from type 1 to type 4 are assigned so as to correspond to each accompaniment style. In this embodiment, the accompaniment patterns included in the section type group type 1 are intro A / B, main A / B, fill-in AA / AB / BA / BB, and ending A / B for each section type. Accompaniment patterns included in type 2 are intro A / B / C, main A / B / C / D, fill-in AA / BB / CC / DD / BA, and ending A / B / C. The accompaniment patterns included are intro A, main A / B, fill-in AB / BA, and ending A, and the accompaniment patterns included in section type group type 4 are intro A, main A, fill-in AA, and ending A. Therefore, for example, when the section type group type corresponding to the accompaniment pattern is the above-described type 3, only intro A for the intro section, any of main A or main B for the main section, Either fill-in AB or fill-in BA can be assigned to the fill-in section, and only ending A can be assigned to the ending section.
[0018]
By the way, as described above, depending on the style of accompaniment, if the variation type automatically assigned to the section detected at the time of automatic accompaniment generation is used as it is, an accompaniment pattern that does not match the climax of the song is assigned. May be lost. Therefore, in the automatic accompaniment generation apparatus shown in FIG. 1, the variation type determination table is referred to based on the combination of the swelling tendency of the tune detected by analyzing the music data and the section type, and the swelling tendency of the tune is determined. It is determined which accompaniment pattern should be assigned from the accompaniment patterns included in each section type group type as the accompaniment pattern along. That is, one of the section type group types is determined from type 1 to type 4 according to the selection of the accompaniment pattern to be used, and the accompaniment pattern included in the determined section type group type is assigned to each section type. You can do it. For example, in the case of the section type group type 2, when the climax tendency is “normal”, “intro B” of intro A / B / C, “main B” of main A / B / C / D, and ending If A / B / C is “ending B”, and the climax is “flashy”, “intro B”, “main C”, and “ending B” are assigned, respectively. On the other hand, in the case of section type group type 3, “intro A”, “main A”, “ending A” when the climax is “normal”, and “intro A” when the climax is “flashy” , "Main B" and "Ending A" are respectively assigned. In this way, by referring to the variation type determination table, it is possible to assign an appropriate accompaniment pattern in each accompaniment style according to the climax of the music.
[0019]
Note that the number and types of section type group types, accompaniment patterns (variation types) included in each section type group type, and the tendency of music to rise, are not limited to those in the above-described embodiment. Also, it goes without saying that the number and type of section type group types, variation types, and climaxes of songs may be defined differently for each variation type determination table.
The variation type determination table may be prepared for each section type group type.
[0020]
The automatic accompaniment generation device shown in FIG. 1 analyzes music data selected by the user, automatically generates a section data string of the automatic accompaniment data based on the analysis result, and outputs the section data sequence during an actual accompaniment performance. By referring to the accompaniment patterns of each section according to the columns, it is possible to automatically play the accompaniment that matches the atmosphere of the music of the selected music data. The automatic accompaniment generation processing for generating the automatic accompaniment data necessary for performing the automatic accompaniment according to the atmosphere of the music is performed by a predetermined program (the CPU 1 of the automatic accompaniment generation apparatus shown in FIG. 1) that implements the automatic accompaniment generation processing. Software). Therefore, the processing operation of the "automatic accompaniment generation processing" will be described with reference to FIG. FIG. 3 is a flowchart showing one embodiment of the "automatic accompaniment generation process". Hereinafter, the processing operation of this processing will be described with reference to the flowchart shown in FIG.
[0021]
In step S1, user settings are made. The user settings performed here include, for example, designation of a tone color to be used for accompaniment, setting of an accompaniment style to be used, and selection of music data to which an automatic accompaniment is added. In addition to the user setting, there may be an appropriate setting such as a change of data content of the variation type determination table or addition of data (for example, setting of the number of types of climax tendency) by the user. In step S2, a section type group type is detected from the accompaniment style to be used. That is, one section type group type corresponding to the accompaniment style used in step S1 is determined. For example, when "jazz" is set as the accompaniment style, section type group type 2 is used, and when "drum" is set as the accompaniment style, section type group type 4 is used. The section type group type corresponding to the accompaniment style to be performed is determined.
[0022]
In step S3, the section information sequence is automatically detected by analyzing the music data selected as the target to which the automatic accompaniment is added in step S1, and the generation of the automatic accompaniment data is started. The automatic detection of the section information sequence based on the analysis of the music data may be performed by any known method, and a description thereof will be omitted. The section information sequence automatically detected here includes position information on the section arrangement position (start position / end position), section type (intro section, main section, ending section, fill-in section, etc.), song swelling tendency, etc. Various information is included. In step S4, it is determined whether or not the variation type determination table corresponds to the section type group type detected in step S2. In other words, by automatically detecting the number of types of music swelling tendencies in step S3, a plurality of variation type determination tables prepared in advance corresponding to the number of types of music swelling tendencies are obtained. One variation type determination table corresponding to the number of types of automatically detected music swelling tendency is determined. Then, it is determined whether or not the section type group type detected in step S2 is included in the determined section type group type in the variation type determination table.
[0023]
If it is determined that the variation type determination table does not correspond to the section type group type (NO in step S4), a section type group type that can be substituted from among the section type group types supported by the variation type determination table Is detected (step S5). For example, when the detected section type group type is type 5 and the section type group type included in the variation type determination table is type 1 to type 4 and does not include type 5, A type that can be substituted for the type 5 among the types 1 to 4 included in the variation type determination table is determined as the section type group type.
[0024]
Automatic accompaniment data is completed by determining an accompaniment pattern to be assigned to each section based on each information determined as described above. The processes of steps S6 and S7, which are performed subsequent to steps S1 to S5, are processes performed for each section information. In step S6, with reference to the section type group type in the variation type determination table, the variation type of the accompaniment pattern to be assigned to the section is determined according to the section type in the section information and the tendency of the automatically detected music to rise. In step S7, the accompaniment style, section type, and accompaniment pattern of the determined variation type are arranged at predetermined positions based on the position information in the section information, thereby completing the automatic accompaniment data.
[0025]
In the embodiment described above, the variation type determination table is prepared. However, the present invention is not limited to this, and the variation type may be determined by an algorithm. In the case where the algorithm decides, for example, if the song has two kinds of climax tendency and the number of variation types of the accompaniment style to be used is four, it is classified into two kinds of quiet performance and two kinds of lively performance. Of the two types of quiet performances, the lively one is assigned to "normal", and the quieter one of the two types of lively performance is assigned to "flashy". The discrimination of a quiet performance or a lively performance may be performed based on the variation type, or may be analyzed based on timbre information or note information in an accompaniment pattern assigned to each section. On the other hand, if the number of types of the climax tendency of the music is greater than the number of the variation types, the variation type of the surplus tendency section may be determined as the default type.
In the above-described embodiment, the types of sections automatically detected include the intro section, the main section, the ending section, and the fill-in section, but are not limited thereto. The intro section, the ending section, the main section only, or an arbitrary section may be used. Alternatively, automatic detection may be performed.
Although the position information is included in the automatically detected section information in the above-described embodiment, the position of each section may be determined in advance. For example, the music data may be divided into predetermined sections in advance, and the section type and the variation type may be automatically determined when one section is arranged for each section.
[0026]
The format of music data and automatic accompaniment data is expressed as “event + relative time”, which indicates the time of occurrence of each event as the time from the immediately preceding event, and the time of occurrence of the event is expressed as the absolute time within the song or bar. "Event + absolute time", "pitch (rest) + note length" expressed by note pitch and note length or rest and rest length, secure memory area for each minimum resolution of performance, It may be in any form, such as a “solid method” in which the event is stored in a memory area corresponding to the time when the event occurs.
[0027]
【The invention's effect】
According to the present invention, a variation type determination table is stored in which accompaniment patterns to be assigned from available accompaniment patterns in advance are stored for each music excitement tendency, and based on a table corresponding to the selected accompaniment style, Since the accompaniment patterns (variation types) are assigned to the sections, even when using different accompaniment styles in which the number of accompaniment patterns that can be assigned to each section is different, the number of types of tune-up tendencies of the music automatically detected. This makes it possible to automatically generate an accompaniment suited to the atmosphere of the music regardless of the music.
[Brief description of the drawings]
FIG. 1 is a block diagram of a hardware configuration showing an embodiment of an overall configuration of an automatic accompaniment generation device according to the present invention.
FIG. 2 is a conceptual diagram illustrating an example of a data structure of a variation type determination table.
FIG. 3 is a flowchart showing an embodiment of an automatic accompaniment generation process.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... CPU, 2 ... ROM, 3 ... RAM, 4 ... Communication interface, 4A ... External equipment, 5 ... Input operation part, 6 ... Display part, 6A ... Display, 7 ... External storage device, 8 ... Sound source, 8A ... Sound System, 1D ... communication bus

Claims (3)

取得した楽曲データの曲構造を解析して前記楽曲データを複数の区間に分割し、該分割した複数の各区間に対して少なくとも自動伴奏用データである所定の伴奏パターンを割り当てることにより、前記楽曲データに対応した自動伴奏データを生成する自動伴奏生成装置であって、
曲の所定区間に対して割り当てるべき伴奏パターンを指定する所定のデータ指定情報を曲の起伏の傾向毎に定義したバリエーションタイプの割り当て規則を所定の伴奏スタイル毎に応じて記憶する記憶手段と、
使用する対象の伴奏スタイルを選択する選択手段と、
取得した楽曲データから分割した複数の区間毎に曲の起伏を検出する検出手段と、
前記選択された伴奏スタイルに対応するバリエーションタイプの割り当て規則に基づいて、前記検出された曲の起伏に応じて各区間に対して割り当てるべき伴奏パターンを決定する決定手段と
を具備し、
前記選択された伴奏スタイルで使用可能な伴奏パターン数と前記検出した曲の起伏の種類数が異なる場合において、前記伴奏パターン決定手段により決定した伴奏パターンに基づき曲の起伏に沿った伴奏を行う自動伴奏データを生成することを特徴とする自動伴奏生成装置。
The song data is divided into a plurality of sections by analyzing the song structure of the acquired song data, and at least a predetermined accompaniment pattern, which is data for automatic accompaniment, is assigned to each of the divided sections. An automatic accompaniment generator for generating automatic accompaniment data corresponding to the data,
Storage means for storing, in accordance with each predetermined accompaniment style, variation type allocation rules in which predetermined data specification information for specifying an accompaniment pattern to be allocated to a predetermined section of the music is defined for each undulation tendency of the music;
Selecting means for selecting an accompaniment style to be used;
Detecting means for detecting the undulation of the music for each of a plurality of sections divided from the acquired music data,
Determining means for determining an accompaniment pattern to be assigned to each section according to the undulation of the detected music, based on an assignment rule of a variation type corresponding to the selected accompaniment style,
When the number of available accompaniment patterns in the selected accompaniment style is different from the number of types of undulations of the detected music, automatic accompaniment along the undulations of the music based on the accompaniment pattern determined by the accompaniment pattern determination unit is performed. An automatic accompaniment generation device for generating accompaniment data.
前記バリエーションタイプの割り当て規則を適宜に変更可能な変更手段を具えたことを特徴とする請求項1に記載の自動伴奏生成装置。2. The automatic accompaniment generation apparatus according to claim 1, further comprising a change unit that can appropriately change the assignment rule of the variation type. コンピュータに、
曲の所定区間に対して割り当てるべき伴奏パターンを指定する所定のデータ指定情報を曲の起伏の傾向毎に定義したバリエーションタイプの割り当て規則を所定の伴奏スタイル毎に応じて記憶する手順と、
使用する対象の伴奏スタイルを選択する手順と、
取得した楽曲データから分割した複数の区間毎に曲の起伏を検出する手順と、
前記選択された伴奏スタイルに対応するバリエーションタイプの割り当て規則に基づいて、前記検出された曲の起伏に応じて各区間に対して割り当てるべき伴奏パターンを決定する手順と
を実行させるためのプログラム。
On the computer,
A procedure of storing, in accordance with each predetermined accompaniment style, variation type allocation rules in which predetermined data specification information specifying an accompaniment pattern to be allocated to a predetermined section of the music is defined for each undulation tendency of the music;
Steps to select the accompaniment style to use,
A procedure for detecting undulations of a song for each of a plurality of sections divided from the acquired song data;
Determining an accompaniment pattern to be assigned to each section in accordance with the undulation of the detected music piece, based on a variation type assignment rule corresponding to the selected accompaniment style.
JP2003126232A 2003-05-01 2003-05-01 Automatic accompaniment generator and program Expired - Fee Related JP4075677B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003126232A JP4075677B2 (en) 2003-05-01 2003-05-01 Automatic accompaniment generator and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003126232A JP4075677B2 (en) 2003-05-01 2003-05-01 Automatic accompaniment generator and program

Publications (2)

Publication Number Publication Date
JP2004333611A true JP2004333611A (en) 2004-11-25
JP4075677B2 JP4075677B2 (en) 2008-04-16

Family

ID=33503223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003126232A Expired - Fee Related JP4075677B2 (en) 2003-05-01 2003-05-01 Automatic accompaniment generator and program

Country Status (1)

Country Link
JP (1) JP4075677B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111081272A (en) * 2019-12-16 2020-04-28 腾讯科技(深圳)有限公司 Song climax fragment identification method and device
US10803845B2 (en) 2018-05-18 2020-10-13 Roland Corporation Automatic performance device and automatic performance method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10803845B2 (en) 2018-05-18 2020-10-13 Roland Corporation Automatic performance device and automatic performance method
CN111081272A (en) * 2019-12-16 2020-04-28 腾讯科技(深圳)有限公司 Song climax fragment identification method and device
CN111081272B (en) * 2019-12-16 2024-04-05 腾讯科技(深圳)有限公司 Method and device for identifying climax clips of songs

Also Published As

Publication number Publication date
JP4075677B2 (en) 2008-04-16

Similar Documents

Publication Publication Date Title
JP2002032080A (en) Device and method for automatic music composition and recording medium
JP2001331175A (en) Device and method for generating submelody and storage medium
JP6733720B2 (en) Performance device, performance program, and performance pattern data generation method
JP2007140165A (en) Karaoke device and program for karaoke device
US11955104B2 (en) Accompaniment sound generating device, electronic musical instrument, accompaniment sound generating method and non-transitory computer readable medium storing accompaniment sound generating program
JP4075677B2 (en) Automatic accompaniment generator and program
US7355111B2 (en) Electronic musical apparatus having automatic performance feature and computer-readable medium storing a computer program therefor
JP4179063B2 (en) Performance setting data selection device and program
JP4748027B2 (en) Automatic accompaniment apparatus and program
JP3933070B2 (en) Arpeggio generator and program
JP4239706B2 (en) Automatic performance device and program
JP3487176B2 (en) Performance information creation display device and recording medium therefor
JP3536709B2 (en) Additional sound generator
JP2007140163A (en) Karaoke device and program for karaoke device
JP5104414B2 (en) Automatic performance device and program
JP2002032079A (en) Device and method for automatic music composition and recording medium
JP3752940B2 (en) Automatic composition method, automatic composition device and recording medium
JP2000112472A (en) Automatic music composing device, and recording medium
JP3775390B2 (en) Performance setting data selection device, performance setting data selection method, and recording medium
JP3775388B2 (en) Performance setting data selection device, performance setting data selection method, and recording medium
JP2005173492A (en) Code progress data generating system and program
JP5104415B2 (en) Automatic performance device and program
JP5104293B2 (en) Automatic performance device
JP4218065B2 (en) Karaoke device and program for karaoke device
JP2005165119A (en) Automatic music composition apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080121

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110208

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120208

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130208

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140208

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees