JP2004280008A - Apparatus and program for automatic accompaniment - Google Patents

Apparatus and program for automatic accompaniment Download PDF

Info

Publication number
JP2004280008A
JP2004280008A JP2003075001A JP2003075001A JP2004280008A JP 2004280008 A JP2004280008 A JP 2004280008A JP 2003075001 A JP2003075001 A JP 2003075001A JP 2003075001 A JP2003075001 A JP 2003075001A JP 2004280008 A JP2004280008 A JP 2004280008A
Authority
JP
Japan
Prior art keywords
code
chord
data
event
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003075001A
Other languages
Japanese (ja)
Other versions
JP3960242B2 (en
Inventor
Chieko Koga
智恵子 古賀
Shigetetsu Oguri
成哲 小栗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2003075001A priority Critical patent/JP3960242B2/en
Publication of JP2004280008A publication Critical patent/JP2004280008A/en
Application granted granted Critical
Publication of JP3960242B2 publication Critical patent/JP3960242B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an automatic accompaniment apparatus capable of determining proper chords for an introduction section. <P>SOLUTION: The automatic accompaniment device has a detection means of detecting a chord having a tonic function from chord information included in music data and a generation means of generating chord information corresponding to the introduction section of the music data according to the detected chord having the tonic function. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、自動伴奏装置及び自動伴奏プログラムに関し、より詳しくは、曲データに自動的に伴奏を付与する自動伴奏装置及び自動伴奏プログラムに関する。
【0002】
【従来の技術】
従来、MIDIデータ等の曲データを再生する際に、自動的に該曲データに対して伴奏を付与する自動伴奏装置が知られている。例えば、曲データの伴奏データを作成する際に予め保存されている伴奏スタイル内のセクションを組み合わせるものがある。伴奏スタイルには、曲データのイントロダクションパートに用いるイントロセクション、曲データの本体部(メインパート)に用いるメインセクション及びエンディングパートに用いるエンディングセクションなどが含まれる。伴奏データの作成は、曲データの開始位置以前にイントロセクションを配置し、曲データの開始位置から終了位置までには、メインセクションを配置し、終了位置以降にエンディングセクションが配置される。(例えば、特許文献1参照。)
また、伴奏データを作成する曲データを解析することにより、曲データのコード進行と伴奏スタイルのセクション列を自動生成し、曲データの前後にイントロセクション及びエンディングセクションを追加することが行われる。(例えば、特許文献2参照。)
【0003】
【特許文献1】特許第2828119号公報
【特許文献2】特許第3327188号公報
【0004】
【発明が解決しようとする課題】
従来の自動伴奏装置において、曲データに含まれるコード情報を元に曲本体部分に対応するコードを決定している。しかし、イントロセクションは、曲データの開始前に演奏されるものなので、曲データ中にイントロセクションに対応するコード情報が含まれていないことが多い。このような場合に、イントロセクションに対応するコードは、例えば、曲本体部分の最初のコード(曲データの最初のコード)をイントロセクションの最初のコードとして用いる事により決定されている。
【0005】
上記の方法では、曲データの最初のコードが必ずしもイントロセクションを開始するのにふさわしいコードとは限らない。よって、イントロセクションに対応するコードを曲データの最初のコードに基づいて決定すると、イントロセクションからメインセクションに移る時に調感が変わるなど、不安定な自動伴奏になることがある。
【0006】
本発明の目的は、イントロセクションに対して適切なコードを決定することのできる自動伴奏装置を提供することである。
【0007】
【課題を解決するための手段】
本発明の一観点によれば、自動伴奏装置は、曲データに含まれるコード情報からトニックの機能を持つコードを検出する検出手段と、前記検出したトニックの機能を有するコードに基づき、前記曲データのイントロセクションに対応するコード情報を生成する生成手段とを有する。
【0008】
【発明の実施の形態】
図1は、本発明の実施例による自動伴奏装置1のハードウェア構成を示すブロック図である。
【0009】
自動伴奏装置1のバス10には、RAM11、ROM12、CPU13、検出回路15、表示回路18、外部記憶装置20、音源回路21、効果回路22、通信インターフェイス26が接続される。
【0010】
ユーザは、検出回路15に接続される設定操作子17を用いて、各種設定をすることができる。設定操作子17は、例えば、マウス、文字入力用キーボード、カーソルキー、スイッチ、ジョイスティック、ジョグシャトル等、ユーザの入力に応じた信号を出力できるものならどのようなものでもよい。
【0011】
また、設定操作子17は、マウス等の他の操作子を用いて操作する表示部19上に表示されるソフトスイッチ等でもよい。本実施例では、後述するように、表示部19上に表示される各種ボタンをカーソルキー、マウス等で選択することにより入力操作を行う。
【0012】
表示回路18は、表示部19に接続され、各種情報を表示部19に表示することができる。
【0013】
外部記憶装置20には、各種パラメータ、各種データ、及び本実施例を実現するためのプログラム、曲データMD(図2)及び伴奏スタイルデータSS(図3)等を記憶することができる。
【0014】
RAM11は、フラグ、レジスタ又はバッファ、各種パラメータ等を記憶するCPU13のワーキングエリアを有する。ROM12には、各種パラメータ及び制御プログラム、又は本実施例を実現するためのプログラム等を記憶することができる。CPU13は、ROM12又は、外部記憶装置20に記憶されている制御プログラム等に従い、演算又は制御を行う。
【0015】
タイマ14は、CPU13に接続されており、基本クロック信号、割り込み処理タイミング等をCPU13に供給する。
【0016】
音源回路21は、外部記憶装置20等に記録された曲データMD(図2)及び伴奏スタイルデータSS(図3)、通信インターフェイス26に接続された外部機器2等から供給されるMIDI信号等の演奏信号に応じて楽音信号を生成し、効果回路22を介して、サウンドシステム23に供給する。
【0017】
効果回路22は、音源回路21から供給されるデジタル形式の楽音信号に各種効果を与える。サウンドシステム23は、D/A変換器及びスピーカを含み、供給されるデジタル形式の楽音信号をアナログ形式に変換し、発音する。
【0018】
通信インターフェイス26は、LAN(ローカルエリアネットワーク)やインターネット、電話回線等の通信ネットワークに接続可能であり、該通信ネットワークを介して、サーバコンピュータと接続することができる。さらに、通信インターフェイス26として、電子楽器、その他の楽器、音響機器、コンピュータ等に接続できるものであり、少なくともMIDI信号を送受信できるものを備えていてもよい。この場合、通信インターフェイス26は、専用のMIDIインターフェイスに限らず、RS−232C、USB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインターフェイスを用いて構成してもよい。
【0019】
外部機器2は、通信インターフェイス26に接続される音響機器、楽器等の他の電子音楽装置又は通信ネットワークを介して接続されるコンピュータ等である。外部機器2が電子音楽装置である場合の形態は鍵盤楽器に限らず、弦楽器タイプ、管楽器タイプ、打楽器タイプ等の形態でもよい。また、音源装置、自動演奏装置等を1つの電子楽器本体に内蔵したものに限らず、それぞれが別体の装置であり、MIDIや各種ネットワーク等の通信手段を用いて各装置を接続するものであってもよい。
【0020】
なお、通信インターフェイス26は、有線のものに限らず無線でもよい。また双方を備えていてもよい。
【0021】
図2は、本実施例による曲データMDのフォーマットを表す概念図である。曲データMDは、例えばMIDIデータ等の自動演奏データであり、ヘッダー情報HC、演奏データPD、スタイルセクションSS、コードシーケンスCS等を含んで構成される。
【0022】
ヘッダー情報HCには、例えば、初期音量値、初期テンポ値、トラック音色、効果設定等の情報が記録されている。また、本実施例の曲データMDは、ヘッダー情報HC中に曲データMDに対応する楽曲の調を表す調情報(Key Signature)KSが記録されている。調情報KSは、「CMaj」や「Amin」等の調名で記録されていてもよいし、「♯」や「♭」等の調号、該調号の数、及びMaj又はmin(長調又は単調)の区分で記録されていてもよい。
【0023】
演奏データPDは、例えば、トラック1〜nの複数のトラックTRを有し、各トラックTRは、タイミングデータTMと該タイミングデータTMの表すタイミングに再生されるべきイベントを表すイベントデータEVを含んで構成される。
【0024】
タイミングデータTMは、イベントデータEVで表される各種イベントを処理すべき時間を表すデータである。本実施例では、タイミングデータTMは、小節数、該小節での拍数、及び該拍におけるクロック数(小節:拍:クロック)で表している。なお、イベントの処理時間は、演奏開始からの絶対時間で表してもよいし、前のイベントからの経過時間である相対時間で表すようにしてもよい。
【0025】
イベントデータEVは、楽曲を再生させる為の各種イベントの内容を表すデータである。イベントには、ノートオンイベントとノートオフイベントの組合せである楽曲の発生に直接関係する音符を表すノートイベント(音符データ)と、ピッチチェンジイベント(ピッチベンドイベント)、テンポチェンジイベント、音色チェンジイベントなどの楽曲の再生態様などを設定するための設定イベントが含まれる。それぞれのノートイベントには、音高、発音長(ゲートタイム)、音量(ベロシティ)等が記録されている。
【0026】
スタイルセクションSSは、伴奏スタイルデータのセクションを指定するためのシーケンスデータであり、演奏データPDのトラックTRと同様に、タイミングデータTMと該タイミングデータTMの表すタイミングに再生されるべき伴奏スタイルデータのセクションを表すイベントデータEVを含んで構成される。
【0027】
コードシーケンスCSは、曲データMDのコード進行を表すコード情報をコードイベントとして記録するシーケンスデータであり、演奏データPDのトラックTRと同様に、タイミングデータTMと該タイミングデータTMの表すタイミングにおける楽曲データMDのコード情報を表すコードイベント(イベントデータEV)を含んで構成される。
【0028】
なお、スタイルセクションSS及びコードシーケンスCSは、マスタートラックとして、同一のトラックに記憶するようにしてもよい。
【0029】
図3は、本実施例による伴奏スタイルデータSDのフォーマットを表す概念図である。伴奏スタイルデータSDは、例えばSMF(Standard MIDI File)フォーマットに準拠した、自動演奏データであり、ヘッダー情報HC及びイントロセクションIT、メインセクションMN、エンディングセクションED等の複数のセクションを含んで構成される。伴奏スタイルデータSDは、ジャズ、ロック、クラッシック等の音楽ジャンルに対応するとともに各ジャンルごとに複数種類のものが用意されており、伴奏スタイル名で識別される。
【0030】
ヘッダー情報HCは、当該伴奏スタイルデータの伴奏スタイル名、拍子情報、テンポ情報等を含む当該伴奏スタイルデータ全体の設定情報である。
【0031】
イントロセクションITは、演奏データPDの最初ノートイベントEVの前に演奏されるセクションであり、メインセクションMNは、演奏データPDと同時に演奏されるセクションであり、エンディングセクションEDは、演奏データPDの最後のノートイベントEVの後に演奏されるセクションである。なお、イントロセクションITは、演奏データPDのトラックTRの内のメロディパートに対応するトラックTR(メロディパート)の最初のノートイベントEVの前に演奏されるようにしてもよい。また、エンディングセクションEDは、メロディパートの最後のノートイベントEVの後に演奏されるようにしてもよい。
【0032】
各セクション(イントロセクションIT、メインセクションMN、エンディングセクションED)は、設定情報SI及びパターンデータPTを含んで構成される。
【0033】
なお、伴奏スタイルデータSDに含まれるセクションは、上記のものに限らず、例えば、フィルインセクション、間奏セクション等の楽曲の他の部分に対応するセクションを含ませるようにしてもよい。また、例えば、イントロA、イントロB等のように各セクションを複数種類用意してもよい。
【0034】
設定情報SIは、各セクションのセクション名(イントロ、メイン、エンディング等)、小節数(例えば、1小節、4小節、8小節等)、及び各パートごとの設定情報が含まれる。
【0035】
パターンデータPTは、実際の伴奏データの元になるノートイベントが含まれる。パターンデータPTの形式は、曲データMDの演奏データPDと同様である。また、パターンデータPTには、和音伴奏を行うためのトラック、ベース音による伴奏を行うためのトラック、リズムトラック等の複数のトラックが含まれる。なお、パターンデータPTにおいては、リズムトラックを除く各トラックの伴奏データは、所定のコードに基づいて作成されており、演奏時に、コードシーケンスCSに指定されるコード情報に従ってコード変換される。例えば、所定のコードはCメジャーであり、伴奏データ中の音高を演奏時に指定されるコードに合うように変換される。なお、この伴奏データの所定のコードは、固定でも良いし可変でも良い。
【0036】
図4は、本実施例によるイントロコード決定処理の概要を表す概念図である。この図は、図2の曲データMD中のスタイルセクションSSとコードシーケンスCSをリスト表示したものである。左欄はタイミングTMを示し、右欄はタイミングTMに実行すべきイベントEVを示す。
【0037】
上段の図は、本実施例によるイントロコード決定処理を実行する前のスタイルセクションSSとコードシーケンスCSをリスト表示したものである。スタイルセクションSSとコードシーケンスCSは、例えば、図2の曲データMD中の演奏データPDに対して、周知の自動伴奏付加機能、例えば、オートアレンジャー(登録商標)等により付加されている。このとき、従来の処理では、イントロセクション用のコードとして、演奏データPDの開始位置のコードであるDm7が選択されてしまう。
【0038】
下段の図は、上段のスタイルセクションSSとコードシーケンスCSに対して本実施例によるイントロコード決定処理を行った場合のスタイルセクションSSとコードシーケンスCS´をリスト表示したものである。
【0039】
本実施例のイントロコード決定処理では、例えば、コードシーケンスCS中のトニック機能を持つコードイベントを検索し、該検索したコードイベントの内の最後のコードイベント(図では、CMaj)を検出する。一方、イントロセクションに有効な調を判断して、検出したコードイベントのタイプにより調情報を修正するとともに、該修正した調情報における調のI度の音名をルートにした検出したコードイベントと同一のタイプのコードイベントを生成して、イントロセクション用のコードとする。
【0040】
図5は、本実施例のイントロコード決定処理の一例を表すフローチャートである。
【0041】
ステップSA1では、イントロコード決定処理をスタートする。ステップSA2では、イントロコード決定処理を行うためのユーザ設定が行われる。ここでのユーザ設定とは、例えば、処理対象の曲データMDの選択、伴奏スタイル(伴奏スタイルデータ)の選択及び生成(自動又は手動)、コードシーケンスCSの用意(既存のコードシーケンスの使用、コードシーケンスの自動生成、又はユーザによる手動でのコードシーケンス作成)等である。
【0042】
ステップSA3では、図1のRAM11内に用意されるバッファChordを初期化する。
【0043】
ステップSA4では、調情報KSを取得する。調情報KSの取得は、例えば、ステップSA2で選択されている曲データMD中から調情報KSを検出することにより行われる。また、例えば、ユーザによる入力、演奏データPDからの自動検出等が可能である。なお、ここで取得する調情報KSは、イントロセクションで有効な調である。すなわち、演奏データPDの先頭部分で有効な調である。
【0044】
ステップSA5では、コードシーケンス(ステップSA2で作成若しくは予め曲データMDに含まれていたもの)から、コードイベントを一つ読み出す。ステップSA6では、ステップSA5で読み出したコードイベントがあるか否かを判断する。コードイベントが有る場合は、YESの矢印で示すステップSA7に進む。コードイベントが無い場合は、コードシーケンスの末尾に達したと判断して、NOの矢印で示すステップSA9に進む。
【0045】
ステップSA7では、ステップSA5で読み出したコードイベントが、トニック機能を持つトニックコードであるか否かを判断する。ここで、トニック機能とは、一般的な音楽理論で考えられているような、終止感を有するコードであり、例えば、有る調におけるI度の音をルートとするコードであるか、又は、VI度、III度の音をルートとするコードである。トニックコードである場合は、YESの矢印で示すステップSA8に進み、トニックコードで無い場合は、NOの矢印で示すステップSA5に戻る。
【0046】
ステップSA8では、バッファChordに、ステップSA5で読み出したコードイベントの値を格納する。その後、ステップSA5に戻る。
【0047】
ステップSA9では、バッファChordが初期状態であるか否かを判断する。初期状態である場合は、YESの矢印で示すステップSA14に進み、コードイベントがない旨を表すメッセージを出力してステップSA15に進みイントロコード決定処理を終了する。なお、この時、デフォルトのコードイベントを生成して、イントロセクションの範囲に有効な位置にコードイベントを挿入するようにしてもよい。
【0048】
初期状態でない、すなわちステップSA8で、ステップSA5で読み出したコードイベントの値が格納された場合は、NOの矢印で示すステップSA10に進む。
【0049】
ステップSA10では、バッファChordに格納されているコードイベントが、Maj系であるか否かを判断する。コードイベントがMaj系である場合は、YESの矢印で示すステップSA11に進む。コードイベントがMaj系でない場合、すなわち、min系である場合は、NOの矢印で示すステップSA12に進む。
【0050】
ステップSA10におけるコードイベントがMaj系かMin系であるかの判断は、例えば、図6に示すコードイベント分類テーブルを用いて行う。コードイベント分類テーブルは、コードイベントをMaj系とmin系とのいずれかに分類するためのテーブルであり、Maj系とmin系とのそれぞれに、分類されるべきコードタイプが記録されている。例えば、「Maj」、「Maj6」、「Maj7」、「7th」等は、Maj系のコードイベントとして分類される。また、例えば、「min」、「min6」、「min7」、「min♭5」、「minMaj7」等は、min系のコードイベントとして分類される。なお、コードイベント分類テーブルは、ユーザによるコードタイプの追加等の編集を可能にしてもよい。また、Maj系か、min系のいずれか一方のコードタイプのみを記録し、該記録に適合しないものは、他方の系統のコードイベントであると判断するようにしてもよい。
【0051】
また、ステップSA10におけるコードイベントがMaj系かMin系であるかの判断は、該コードイベントの示すコードの構成音のルート(根音)と第3音の距離が長3度であるか短3度であるかで判断するようにしてもよい。
【0052】
図5に戻り、ステップSA11では、ステップSA4で取得した調情報KSをMaj調に修正する。これは、楽曲の最後のコードが調性を表す性質を利用したものであり、この場合は、ステップSA10で、コードシーケンスの最終コードがMaj系であると判断されたために、曲データMDの調情報KSを該最終コードの調性に合わせる処理である。その後ステップSA13に進む。ステップSA12では、ステップSA11と同様の理由により、ステップSA4で取得した調情報KSをmin調に修正する。
【0053】
ステップSA11及びステップSA12での調情報KSの修正は、例えば、図7に示す調情報修正テーブルを参照して行う。図7の調情報修正テーブルは、同一の調号及びその数ごとにMaj調及びmin調の調名が記録されており、Maj調からmin調への調情報の修正は、同一調号の同一数の列を参照することにより行われる。
【0054】
図5に戻り、ステップSA13では、ステップSA11又はステップSA12で修正した調におけるI度の音名をルートとし、且つ、バッファChordに格納されているコードイベントと同一のコードタイプのコードをイントロセクション用のコードイベントとして生成し、コードシーケンスのイントロセクションに対応する部分(イントロセクションの範囲に有効な位置)に追加する。なお、コードシーケンスのイントロセクションに対応する部分に既にコードイベントがある場合は、該コードイベントを無効化するか、このステップSA13で生成したコードイベントで上書きする。その後、ステップSA15に進み、イントロコード決定処理を終了する。
【0055】
以上、本発明の実施例によれば、曲データMD中の、例えば、コードシーケンスの中から最後のコードイベントを検出し、該検出したコードイベントがトニック機能を有する場合には、該コードイベントに基づき調情報KSを修正するとともに、修正された調情報KS及び検出したコードイベントに基づきイントロセクション用のコードイベントを生成することができる。
【0056】
従って、イントロセクションの自動伴奏データを安定した聴感にすることができる。また、イントロセクションと、次のセクション(例えば、メインセクション)との繋がりを自然なものにすることができる。
【0057】
また、曲データ中のコードの使用状況を上述のように分析するだけでなく、調情報を併せて考慮するため、一層安定した聴感を得られるコードを決定することができる。
【0058】
さらに、本発明の実施例によれば、曲データ中の調情報の調性(Maj若しくはmin)が適切でない場合、例えば、楽譜をもとに曲データを作成した際に、シャープやフラットなどの調号の数だけに基づいて調情報を入力して調情報が実際の調性とは逆である場合等に、曲データ中のコードの使用状況を考慮することにより、適切な調性でのコードを決定することができる。よって、安定した聴感を得られるコードを決定することができる。
【0059】
なお、曲データMDの最後のコードイベントが、トニック機能を持つコードであることが明らかな場合等に上述のイントロコード決定処理を簡略化することができる。その場合の処理の一例を、図8に示す。
【0060】
図8は、本実施例の変形例によるイントロコード決定処理を表すフローチャートである。
【0061】
ステップSB1〜ステップSB8までの処理は、図5のステップSA4を省略した点を除き、図5のステップSA1〜ステップSA9の処理と同一であるので、その説明を省略する。また、ステップSB10の処理は、ステップSA14の処理と同一である。
【0062】
ステップSB9は、バッファChordに格納されているコードイベントをイントロセクション用のコードイベントとして、コードシーケンスのイントロセクションに対応する部分(イントロセクションの範囲に有効な位置)に追加する。なお、コードシーケンスのイントロセクションに対応する部分に既にコードイベントがある場合は、該コードイベントを無効化するか、このステップSB9で決定したコードイベントで上書きする。その後、ステップSB11に進み、イントロコード決定処理を終了する。
【0063】
つまり、この変形例では、図5のステップSA10〜ステップSA12の処理を簡略化し、曲データPD(コードシーケンス)の最後のコードをイントロセクションのコードとして決定している。すなわち、この変形例では、最後のコードをトニック機能を有するコードと仮定して、最後のコードをイントロセクションのコードとして用いている。従って、ステップSB6におけるコードイベントがトニック機能を有するか否かの処理も省略することができる。
【0064】
以上、本発明の実施例及びその変形例によれば、曲データを分析することにより、イントロセクションの自動伴奏データが安定した聴感になるようなコードを自動的に決定することができる。
【0065】
なお、上述の実施例及びその変形例では、曲中に転調がないものとして説明したが、転調がある場合には、曲先頭(イントロセクションの範囲)の調に合うように、ステップSA13又はステップSB9で生成したコードイベントをトランスポーズすればよい。
【0066】
なお、本実施例の自動伴奏装置1は、電子楽器の形態に限らず、カラオケ装置や、ゲーム装置、携帯電話等の携帯型通信端末、自動演奏ピアノに適用してもよい。携帯型通信端末に適用した場合、端末のみで所定の機能が完結している場合に限らず、機能の一部をサーバ側に持たせ、端末とサーバとからなるシステム全体として所定の機能を実現するようにしてもよい。
【0067】
また、音源装置、自動演奏装置等を1つの電子楽器本体に内蔵したものに限らず、それぞれが別体の装置であり、MIDIや各種ネットワーク等の通信手段を用いて各装置を接続するものであってもよい。
【0068】
また、本実施例は、本実施例に対応するコンピュータプログラム等をインストールした市販のコンピュータ等によって、実施させるようにしてもよい。
【0069】
その場合には、本実施例に対応するコンピュータプログラム等を、CD−ROMやフロッピー(登録商標)ディスク等の、コンピュータが読み込むことが出来る記憶媒体に記憶させた状態で、ユーザに提供してもよい。
【0070】
以上実施例に沿って本発明を説明したが、本発明はこれらに制限されるものではない。例えば、種々の変更、改良、組合せ等が可能なことは当業者に自明であろう。
【0071】
【発明の効果】
以上説明したように、本発明によれば、イントロセクションに対して適切なコードを決定することのできる自動伴奏装置を提供することができる。
【図面の簡単な説明】
【図1】本発明の実施例による自動伴奏装置1のハードウェア構成を示すブロック図である。
【図2】本実施例による曲データMDのフォーマットを表す概念図である。
【図3】本実施例による伴奏スタイルデータSDのフォーマットを表す概念図である。
【図4】本実施例によるイントロコード決定処理の概要を表す概念図である。
【図5】本実施例のイントロコード決定処理の一例を表すフローチャートである。
【図6】本実施例によるコードイベント分類テーブルの一例を示す概念図である。
【図7】本実施例による調情報修正テーブルの一例を示す概念図である。
【図8】本実施例の変形例によるイントロコード決定処理を表すフローチャートである。
【符号の説明】
1…自動伴奏装置、2…外部機器、10…バス、11…RAM、12…ROM、13…CPU、14…タイマ、15…検出回路、17…操作子、18…表示回路、19…表示部、20…外部記憶装置、21…音源回路、22…効果回路、23…サウンドシステム、26…通信I/F
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an automatic accompaniment apparatus and an automatic accompaniment program, and more particularly, to an automatic accompaniment apparatus and an automatic accompaniment program for automatically providing accompaniment to music data.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there has been known an automatic accompaniment apparatus that automatically gives an accompaniment to music data when reproducing music data such as MIDI data. For example, there is a combination of sections in an accompaniment style stored in advance when creating accompaniment data of music data. The accompaniment style includes an intro section used for an introduction part of music data, a main section used for a main part (main part) of music data, an ending section used for an ending part, and the like. To create the accompaniment data, an intro section is arranged before the start position of the music data, a main section is arranged from the start position to the end position of the music data, and an ending section is arranged after the end position. (For example, refer to Patent Document 1.)
Also, by analyzing the music data for creating the accompaniment data, a section sequence of the chord progression and the accompaniment style of the music data is automatically generated, and an intro section and an ending section are added before and after the music data. (For example, see Patent Document 2.)
[0003]
[Patent Document 1] Japanese Patent No. 2828119 [Patent Document 2] Japanese Patent No. 3327188 [0004]
[Problems to be solved by the invention]
In a conventional automatic accompaniment apparatus, a chord corresponding to a music main body is determined based on chord information included in music data. However, since the intro section is played before the start of the music data, the music data often does not include chord information corresponding to the intro section. In such a case, the code corresponding to the intro section is determined, for example, by using the first code of the music body (the first code of the music data) as the first code of the intro section.
[0005]
In the above method, the first chord of the music data is not always suitable for starting the intro section. Therefore, if the chord corresponding to the intro section is determined based on the first chord of the music data, unstable automatic accompaniment may occur, such as a change in tonality when moving from the intro section to the main section.
[0006]
An object of the present invention is to provide an automatic accompaniment device that can determine an appropriate chord for an intro section.
[0007]
[Means for Solving the Problems]
According to one aspect of the present invention, an automatic accompaniment apparatus includes a detecting unit configured to detect a chord having a tonic function from chord information included in music data, and the music data based on the detected code having a tonic function. Generating means for generating code information corresponding to the intro section of (i).
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a block diagram showing a hardware configuration of an automatic accompaniment device 1 according to an embodiment of the present invention.
[0009]
To the bus 10 of the automatic accompaniment device 1, a RAM 11, a ROM 12, a CPU 13, a detection circuit 15, a display circuit 18, an external storage device 20, a sound source circuit 21, an effect circuit 22, and a communication interface 26 are connected.
[0010]
The user can make various settings using the setting operator 17 connected to the detection circuit 15. The setting operator 17 may be any device such as a mouse, a character input keyboard, a cursor key, a switch, a joystick, a jog shuttle, or the like, as long as it can output a signal according to a user input.
[0011]
The setting operator 17 may be a software switch or the like displayed on the display unit 19 operated by using another operator such as a mouse. In this embodiment, as described later, an input operation is performed by selecting various buttons displayed on the display unit 19 with a cursor key, a mouse, or the like.
[0012]
The display circuit 18 is connected to the display unit 19 and can display various information on the display unit 19.
[0013]
The external storage device 20 can store various parameters, various data, programs for implementing the present embodiment, music data MD (FIG. 2), accompaniment style data SS (FIG. 3), and the like.
[0014]
The RAM 11 has a working area of the CPU 13 for storing flags, registers or buffers, various parameters, and the like. The ROM 12 can store various parameters and control programs, programs for implementing the present embodiment, and the like. The CPU 13 performs calculation or control according to a control program or the like stored in the ROM 12 or the external storage device 20.
[0015]
The timer 14 is connected to the CPU 13 and supplies a basic clock signal, interrupt processing timing, and the like to the CPU 13.
[0016]
The tone generator circuit 21 receives music data MD (FIG. 2) and accompaniment style data SS (FIG. 3) recorded in the external storage device 20 and the like, MIDI signals supplied from the external device 2 connected to the communication interface 26, and the like. A tone signal is generated in accordance with the performance signal and supplied to the sound system 23 via the effect circuit 22.
[0017]
The effect circuit 22 gives various effects to the digital tone signal supplied from the tone generator 21. The sound system 23 includes a D / A converter and a speaker, converts a supplied digital tone signal into an analog format, and generates a sound.
[0018]
The communication interface 26 can be connected to a communication network such as a LAN (local area network), the Internet, or a telephone line, and can be connected to a server computer via the communication network. Further, the communication interface 26 can be connected to an electronic musical instrument, other musical instruments, audio equipment, a computer, or the like, and may include at least an interface capable of transmitting and receiving MIDI signals. In this case, the communication interface 26 is not limited to a dedicated MIDI interface, and may be configured using a general-purpose interface such as RS-232C, USB (Universal Serial Bus), or IEEE 1394 (Itriple 1394).
[0019]
The external device 2 is an audio device connected to the communication interface 26, another electronic music device such as a musical instrument, or a computer connected via a communication network. The form in which the external device 2 is an electronic music device is not limited to a keyboard instrument, but may be a string instrument type, a wind instrument type, a percussion instrument type, or the like. Further, the sound source device, the automatic performance device, and the like are not limited to those built in one electronic musical instrument main body, but each device is a separate device, and each device is connected using communication means such as MIDI or various networks. There may be.
[0020]
The communication interface 26 is not limited to a wired one, and may be a wireless one. Also, both may be provided.
[0021]
FIG. 2 is a conceptual diagram illustrating the format of the music data MD according to the present embodiment. The music data MD is automatic performance data such as MIDI data, for example, and includes header information HC, performance data PD, a style section SS, a chord sequence CS, and the like.
[0022]
In the header information HC, for example, information such as an initial volume value, an initial tempo value, a track timbre, and effect settings are recorded. In the music data MD of this embodiment, key information (Key Signature) KS indicating the key of the music corresponding to the music data MD is recorded in the header information HC. The key information KS may be recorded with a key name such as “CMaj” or “Amin”, a key number such as “♯” or “♭”, the number of the key numbers, and Maj or min (major or min. (Monotonic).
[0023]
The performance data PD has, for example, a plurality of tracks TR of tracks 1 to n. Each track TR includes timing data TM and event data EV indicating an event to be reproduced at the timing represented by the timing data TM. Be composed.
[0024]
The timing data TM is data representing the time to process various events represented by the event data EV. In this embodiment, the timing data TM is represented by the number of measures, the number of beats in the measure, and the number of clocks in the beat (measure: beat: clock). The processing time of an event may be represented by an absolute time from the start of the performance, or may be represented by a relative time which is an elapsed time from a previous event.
[0025]
The event data EV is data representing the contents of various events for reproducing music. The events include a note event (note data) representing a note directly related to the generation of a song that is a combination of a note-on event and a note-off event, and a pitch change event (pitch bend event), a tempo change event, a tone change event, and the like. A setting event for setting the reproduction mode of the music is included. Each note event records a pitch, a note length (gate time), a volume (velocity), and the like.
[0026]
The style section SS is sequence data for designating the section of the accompaniment style data. Like the track TR of the performance data PD, the style section SS includes the timing data TM and the accompaniment style data to be reproduced at the timing represented by the timing data TM. It is configured to include event data EV representing a section.
[0027]
The code sequence CS is sequence data for recording, as a code event, code information indicating the chord progression of the music data MD. Like the track TR of the performance data PD, the timing data TM and the music data at the timing represented by the timing data TM are recorded. It is configured to include a code event (event data EV) representing MD code information.
[0028]
Note that the style section SS and the code sequence CS may be stored in the same track as a master track.
[0029]
FIG. 3 is a conceptual diagram illustrating a format of the accompaniment style data SD according to the present embodiment. The accompaniment style data SD is, for example, automatic performance data conforming to the SMF (Standard MIDI File) format, and includes header information HC and a plurality of sections such as an intro section IT, a main section MN, and an ending section ED. . The accompaniment style data SD corresponds to music genres such as jazz, rock, and classical music, and a plurality of types are prepared for each genre, and are identified by accompaniment style names.
[0030]
The header information HC is setting information of the entire accompaniment style data including the accompaniment style name, time signature information, tempo information, and the like of the accompaniment style data.
[0031]
The intro section IT is a section that is played before the first note event EV of the performance data PD, the main section MN is a section that is played simultaneously with the performance data PD, and the ending section ED is a section that is played at the end of the performance data PD. Is a section performed after the note event EV. The intro section IT may be played before the first note event EV of the track TR (melody part) corresponding to the melody part among the tracks TR of the performance data PD. The ending section ED may be played after the last note event EV of the melody part.
[0032]
Each section (intro section IT, main section MN, ending section ED) is configured to include setting information SI and pattern data PT.
[0033]
The sections included in the accompaniment style data SD are not limited to those described above, and may include sections corresponding to other parts of the music, such as a fill-in section and an interlude section. Further, for example, a plurality of types of sections may be prepared, such as intro A and intro B.
[0034]
The setting information SI includes a section name (intro, main, ending, etc.) of each section, the number of measures (for example, one measure, four measures, eight measures, etc.), and setting information for each part.
[0035]
The pattern data PT includes a note event that is a source of actual accompaniment data. The format of the pattern data PT is the same as the performance data PD of the music data MD. The pattern data PT includes a plurality of tracks such as a track for performing a chord accompaniment, a track for performing an accompaniment using a bass sound, and a rhythm track. In the pattern data PT, the accompaniment data of each track other than the rhythm track is created based on a predetermined code, and is converted at the time of performance according to the code information specified in the code sequence CS. For example, the predetermined chord is C major, and the pitch in the accompaniment data is converted so as to match the chord specified during the performance. The predetermined chord of the accompaniment data may be fixed or variable.
[0036]
FIG. 4 is a conceptual diagram illustrating an outline of an intro code determination process according to the present embodiment. This figure shows a list of style sections SS and chord sequences CS in the music data MD of FIG. The left column shows the timing TM, and the right column shows the event EV to be executed at the timing TM.
[0037]
The upper diagram shows a list of style sections SS and code sequences CS before executing the intro code determination process according to the present embodiment. The style section SS and the chord sequence CS are added to the performance data PD in the music data MD of FIG. 2 by a well-known automatic accompaniment addition function, for example, an auto arranger (registered trademark) or the like. At this time, in the conventional processing, Dm7, which is the code at the start position of the performance data PD, is selected as the code for the intro section.
[0038]
The lower diagram shows a list of the style section SS and the code sequence CS ′ when the intro code determination processing according to the present embodiment is performed on the upper style section SS and the code sequence CS.
[0039]
In the intro code determination processing of the present embodiment, for example, a code event having a tonic function in the code sequence CS is searched, and the last code event (CMaj in the figure) among the searched code events is detected. On the other hand, a valid key is determined for the intro section, and the key information is corrected according to the type of the detected chord event, and the same chord event as the detected chord event having the root of the I degree of the key in the corrected key information is used. Is generated as a code for the intro section.
[0040]
FIG. 5 is a flowchart illustrating an example of the intro code determination process according to the present embodiment.
[0041]
At step SA1, an intro code determination process is started. In step SA2, a user setting for performing the intro code determination process is performed. The user settings here include, for example, selection of music data MD to be processed, selection and generation of an accompaniment style (accompaniment style data) (automatic or manual), preparation of a code sequence CS (use of an existing code sequence, code Automatically generating a sequence or manually creating a code sequence by a user).
[0042]
In step SA3, a buffer Chord prepared in the RAM 11 of FIG. 1 is initialized.
[0043]
In step SA4, key information KS is obtained. The acquisition of the key information KS is performed, for example, by detecting the key information KS from the music data MD selected in step SA2. Further, for example, input by a user, automatic detection from performance data PD, and the like are possible. The key information KS acquired here is a key valid in the intro section. That is, the key is valid at the head of the performance data PD.
[0044]
In step SA5, one code event is read from the code sequence (created in step SA2 or previously included in the music data MD). In step SA6, it is determined whether or not there is a code event read in step SA5. If there is a code event, the process proceeds to Step SA7 indicated by a YES arrow. If there is no code event, it is determined that the end of the code sequence has been reached, and the flow advances to step SA9 indicated by a NO arrow.
[0045]
In step SA7, it is determined whether or not the code event read in step SA5 is a tonic code having a tonic function. Here, the tonic function is a chord having a sense of end as considered in general music theory. For example, the tonic function is a chord having a root of the I-degree sound in a certain key, or VI. This is a chord whose root is the third and third sounds. If it is a tonic code, the process proceeds to step SA8 indicated by a YES arrow, and if it is not a tonic code, the process returns to step SA5 indicated by a NO arrow.
[0046]
At step SA8, the value of the code event read at step SA5 is stored in the buffer Chord. Thereafter, the flow returns to step SA5.
[0047]
At Step SA9, it is determined whether or not the buffer Chord is in the initial state. If it is in the initial state, the flow advances to step SA14 indicated by a YES arrow to output a message indicating that there is no code event, and the flow advances to step SA15 to end the intro code determination process. At this time, a default code event may be generated, and the code event may be inserted at a valid position in the range of the intro section.
[0048]
If it is not in the initial state, that is, if the value of the code event read out in step SA5 is stored in step SA8, the process proceeds to step SA10 indicated by a NO arrow.
[0049]
In step SA10, it is determined whether or not the code event stored in the buffer Chord is of the Maj type. If the code event is of the Maj type, the process proceeds to step SA11 indicated by a YES arrow. If the code event is not the Maj system, that is, if the code event is the min system, the process proceeds to step SA12 indicated by a NO arrow.
[0050]
The determination as to whether the code event is a Maj system or a Min system in step SA10 is made using, for example, a code event classification table shown in FIG. The code event classification table is a table for classifying a code event into one of a Maj system and a min system, and a code type to be classified is recorded in each of the Maj system and the min system. For example, "Maj", "Maj6", "Maj7", "7th", etc. are classified as Maj-type code events. For example, "min", "min6", "min7", "min @ 5", "minMaj7", and the like are classified as min-related code events. The code event classification table may allow the user to edit the code type such as adding a code type. Alternatively, only the code type of either the Maj system or the min system may be recorded, and a code event that does not conform to the recording may be determined to be a code event of the other system.
[0051]
Further, whether the chord event is a Maj system or a Min system in step SA10 is determined by determining whether the distance between the root (root note) of the constituent sound of the chord indicated by the chord event and the third sound is major third or minor three. It may be determined based on the degree.
[0052]
Returning to FIG. 5, in step SA11, the key information KS acquired in step SA4 is corrected to the Maj key. This utilizes the property that the last chord of the music indicates tonality. In this case, the final chord of the chord sequence is determined to be Maj-based in step SA10, and thus the key of the music data MD is changed. This is a process of adjusting the information KS to the tonality of the final code. Thereafter, the flow advances to step SA13. In step SA12, for the same reason as in step SA11, the key information KS obtained in step SA4 is corrected to the min key.
[0053]
The correction of the key information KS in steps SA11 and SA12 is performed with reference to, for example, a key information correction table shown in FIG. The key information correction table in FIG. 7 records the same key signature and the key names of the Maj key and the Min key for each number. Modification of the key information from the Maj key to the Min key is the same for the same key key. This is done by referring to a sequence of numbers.
[0054]
Returning to FIG. 5, in step SA13, a chord of the same chord type as the chord event stored in the buffer Chord is used as the root for the note name of the I degree in the key modified in step SA11 or SA12. Is generated as a code event, and is added to a portion corresponding to the intro section of the code sequence (a position valid in the range of the intro section). If a code event already exists in a portion corresponding to the intro section of the code sequence, the code event is invalidated or overwritten with the code event generated in step SA13. Thereafter, the flow advances to step SA15 to end the intro code determination process.
[0055]
As described above, according to the embodiment of the present invention, the last chord event in the music data MD, for example, is detected from the chord sequence, and if the detected chord event has a tonic function, The key information KS can be corrected based on the key information KS, and a code event for the intro section can be generated based on the corrected key information KS and the detected code event.
[0056]
Therefore, the automatic accompaniment data of the intro section can be made to have a stable audibility. Further, the connection between the intro section and the next section (for example, the main section) can be made natural.
[0057]
Further, not only the usage of the chords in the music data is analyzed as described above, but also the key information is taken into consideration, so that it is possible to determine a chord that can obtain a more stable audibility.
[0058]
Further, according to the embodiment of the present invention, when the tonality (Maj or min) of the key information in the music data is not appropriate, for example, when the music data is created based on the music score, the sharpness, flatness, etc. When key information is input based on only the number of key signatures and the key information is opposite to the actual key, the use of chords in the song data is The code can be determined. Therefore, it is possible to determine a code that can provide a stable hearing.
[0059]
In addition, when it is clear that the last chord event of the music data MD is a chord having a tonic function, the above-described intro chord determination processing can be simplified. FIG. 8 shows an example of the processing in that case.
[0060]
FIG. 8 is a flowchart illustrating an intro code determination process according to a modification of the present embodiment.
[0061]
The processing from step SB1 to step SB8 is the same as the processing from step SA1 to step SA9 in FIG. 5 except that step SA4 in FIG. 5 is omitted, and a description thereof will be omitted. Further, the processing in step SB10 is the same as the processing in step SA14.
[0062]
A step SB9 adds the code event stored in the buffer Chord as a code event for the intro section to a portion corresponding to the intro section of the code sequence (a position valid in the range of the intro section). If a code event already exists in a portion corresponding to the intro section of the code sequence, the code event is invalidated or overwritten with the code event determined in step SB9. After that, the process proceeds to Step SB11 to end the intro code determination process.
[0063]
That is, in this modification, the processing of steps SA10 to SA12 in FIG. 5 is simplified, and the last code of the music data PD (code sequence) is determined as the code of the intro section. That is, in this modification, the last code is assumed to be a code having a tonic function, and the last code is used as the code of the intro section. Therefore, the process of determining whether the code event has a tonic function in step SB6 can be omitted.
[0064]
As described above, according to the embodiment of the present invention and the modified example thereof, by analyzing music data, it is possible to automatically determine a code such that the automatic accompaniment data of the intro section has a stable audibility.
[0065]
In the above-described embodiment and its modified example, the description has been made assuming that there is no modulation in the music. However, if there is the modulation, step SA13 or step SA13 is performed so as to match the key at the beginning of the music (range of the intro section). The code event generated in SB9 may be transposed.
[0066]
Note that the automatic accompaniment device 1 of the present embodiment is not limited to the form of an electronic musical instrument, and may be applied to a karaoke device, a game device, a portable communication terminal such as a mobile phone, or an automatic performance piano. When applied to a portable communication terminal, not only the case where the specified function is completed only with the terminal, but also a part of the function is provided on the server side, and the predetermined function is realized as the whole system consisting of the terminal and the server You may make it.
[0067]
Further, the sound source device, the automatic performance device, and the like are not limited to those built in one electronic musical instrument main body, but each device is a separate device, and each device is connected using communication means such as MIDI or various networks. There may be.
[0068]
Further, the present embodiment may be implemented by a commercially available computer or the like in which a computer program or the like corresponding to the present embodiment is installed.
[0069]
In this case, a computer program or the like corresponding to the present embodiment may be provided to a user in a state of being stored in a computer-readable storage medium such as a CD-ROM or a floppy (registered trademark) disk. Good.
[0070]
Although the present invention has been described with reference to the embodiments, the present invention is not limited thereto. For example, it will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.
[0071]
【The invention's effect】
As described above, according to the present invention, it is possible to provide an automatic accompaniment apparatus capable of determining an appropriate chord for an intro section.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a hardware configuration of an automatic accompaniment device 1 according to an embodiment of the present invention.
FIG. 2 is a conceptual diagram showing a format of music data MD according to the embodiment.
FIG. 3 is a conceptual diagram showing a format of accompaniment style data SD according to the embodiment.
FIG. 4 is a conceptual diagram illustrating an outline of an intro code determination process according to the embodiment.
FIG. 5 is a flowchart illustrating an example of an intro code determination process according to the present embodiment.
FIG. 6 is a conceptual diagram illustrating an example of a code event classification table according to the embodiment.
FIG. 7 is a conceptual diagram showing an example of a key information correction table according to the embodiment.
FIG. 8 is a flowchart illustrating an intro code determination process according to a modification of the embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Automatic accompaniment apparatus, 2 ... External equipment, 10 ... Bus, 11 ... RAM, 12 ... ROM, 13 ... CPU, 14 ... Timer, 15 ... Detection circuit, 17 ... Operator, 18 ... Display circuit, 19 ... Display part , 20 ... External storage device, 21 ... Sound source circuit, 22 ... Effect circuit, 23 ... Sound system, 26 ... Communication I / F

Claims (3)

曲データに含まれるコード情報からトニックの機能を持つコードを検出する検出手段と、
前記検出したトニックの機能を有するコードに基づき、前記曲データのイントロセクションに対応するコード情報を生成する生成手段とを有する自動伴奏装置。
Detecting means for detecting a chord having a tonic function from the chord information included in the song data;
Generating means for generating chord information corresponding to the intro section of the music data, based on the chord having the detected tonic function.
前記生成手段は、前記検出したトニックの機能を有するコードと前記曲データに含まれる調情報に基づき前記曲データのイントロセクションに対応するコード情報を生成する請求項1記載の自動伴奏装置。2. The automatic accompaniment apparatus according to claim 1, wherein the generation unit generates chord information corresponding to an intro section of the music data based on the detected chord having the function of the tonic and key information included in the music data. 曲データに含まれるコード情報からトニックの機能を持つコードを検出する検出手順と、
前記検出したトニックの機能を有するコードに基づき、前記曲データのイントロセクションに対応するコード情報を生成する生成手順とを有する自動伴奏処理をコンピュータに実行させるためのプログラム。
A detection procedure for detecting a chord having a tonic function from the chord information included in the song data,
A program for causing a computer to execute an automatic accompaniment process having a generation procedure of generating chord information corresponding to an intro section of the music data based on the detected code having the function of the tonic.
JP2003075001A 2003-03-19 2003-03-19 Automatic accompaniment device and automatic accompaniment program Expired - Fee Related JP3960242B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003075001A JP3960242B2 (en) 2003-03-19 2003-03-19 Automatic accompaniment device and automatic accompaniment program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003075001A JP3960242B2 (en) 2003-03-19 2003-03-19 Automatic accompaniment device and automatic accompaniment program

Publications (2)

Publication Number Publication Date
JP2004280008A true JP2004280008A (en) 2004-10-07
JP3960242B2 JP3960242B2 (en) 2007-08-15

Family

ID=33290422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003075001A Expired - Fee Related JP3960242B2 (en) 2003-03-19 2003-03-19 Automatic accompaniment device and automatic accompaniment program

Country Status (1)

Country Link
JP (1) JP3960242B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097302A (en) * 2011-11-04 2013-05-20 Casio Comput Co Ltd Automatic tone correction device, automatic tone correction method and program therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097302A (en) * 2011-11-04 2013-05-20 Casio Comput Co Ltd Automatic tone correction device, automatic tone correction method and program therefor

Also Published As

Publication number Publication date
JP3960242B2 (en) 2007-08-15

Similar Documents

Publication Publication Date Title
EP2690619B1 (en) Accompaniment data generation device
US9536508B2 (en) Accompaniment data generating apparatus
JP3528654B2 (en) Melody generator, rhythm generator, and recording medium
JP5891656B2 (en) Accompaniment data generation apparatus and program
JP5821229B2 (en) Accompaniment data generation apparatus and program
JP4315120B2 (en) Electronic music apparatus and program
JP5598397B2 (en) Accompaniment data generation apparatus and program
JP3960242B2 (en) Automatic accompaniment device and automatic accompaniment program
JP3879524B2 (en) Waveform generation method, performance data processing method, and waveform selection device
JP3654227B2 (en) Music data editing apparatus and program
JP4186802B2 (en) Automatic accompaniment generator and program
JP3632487B2 (en) Chord detection device for electronic musical instruments
JP3777976B2 (en) Performance information analyzing apparatus and recording medium
JP5104414B2 (en) Automatic performance device and program
JP5626062B2 (en) Accompaniment data generation apparatus and program
JP3733887B2 (en) Music data editing apparatus and program
JP3738634B2 (en) Automatic accompaniment device and recording medium
JP3906800B2 (en) Automatic performance device and program
JP2005249903A (en) Automatic performance data editing device and program
JP2002333883A (en) Musical piece data editing system, method and program
JP2002278553A (en) Playing information analyzer
JP2004294595A (en) Device and program for automatic accompaniment
JP2004279870A (en) Program and device for accompaniment data generation
JP2004117678A (en) Playing data editing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070507

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110525

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130525

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140525

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees