JP2017058594A - 自動アレンジ装置及びプログラム - Google Patents

自動アレンジ装置及びプログラム Download PDF

Info

Publication number
JP2017058594A
JP2017058594A JP2015185299A JP2015185299A JP2017058594A JP 2017058594 A JP2017058594 A JP 2017058594A JP 2015185299 A JP2015185299 A JP 2015185299A JP 2015185299 A JP2015185299 A JP 2015185299A JP 2017058594 A JP2017058594 A JP 2017058594A
Authority
JP
Japan
Prior art keywords
accompaniment
data
accent
performance information
note
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015185299A
Other languages
English (en)
Other versions
JP6565528B2 (ja
Inventor
大地 渡邉
Daichi Watanabe
大地 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015185299A priority Critical patent/JP6565528B2/ja
Priority to US15/262,548 priority patent/US10354628B2/en
Publication of JP2017058594A publication Critical patent/JP2017058594A/ja
Application granted granted Critical
Publication of JP6565528B2 publication Critical patent/JP6565528B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/051Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or detection of onsets of musical sounds or notes, i.e. note attack timings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/325Musical pitch modification
    • G10H2210/331Note pitch correction, i.e. modifying a note pitch or replacing it by the closest one in a given scale
    • G10H2210/335Chord correction, i.e. modifying one or several notes within a chord, e.g. to correct wrong fingering or to improve harmony
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/341Rhythm pattern selection, synthesis or composition
    • G10H2210/361Selection among a set of pre-established rhythm patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Theoretical Computer Science (AREA)

Abstract

【課題】原曲の持つアクセント位置を考慮した品質のよい自動アレンジを行なう。【解決手段】原演奏情報を取得し(20)、該取得した原演奏情報に基づき、該原演奏情報によって表される曲中の1以上のアクセント位置を抽出し(24)、既存の伴奏パターンデータを取得し(25)、前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音の時間位置を、前記抽出した1以上のアクセント位置に合うように、調整することにより、アレンジした伴奏データを生成する(26)。こうして、既存の伴奏パターンデータをベースにして、原演奏情報が持つ曲中のアクセント位置(リズム的要素)に調和した伴奏データを生成することができ、既存の伴奏パターンデータ及び原演奏情報(原曲)の特徴を残したアレンジを自動的に行なうことができる。【選択図】 図2

Description

本発明は、音楽演奏情報を自動的にアレンジ(編曲)する装置及びプログラムに関し、特に原曲の持つアクセント位置を考慮することにより、品質のよい自動アレンジを行なう技術に関する。
下記特許文献1には、所与の楽曲の複数パートのMIDI形式の自動演奏データからユーザが所望のパートを選択して、該選択されたパートについて希望する形式の楽譜を生成する技術が示されている。そこにおいて、一例として、ユーザがメロディパートを選択し、該選択したメロディパートのメロディに適した伴奏データを自動的に生成し、該選択したメロディパートと自動生成された伴奏データに基づく伴奏パートとからなる楽譜を生成することが示されている。メロディに適した伴奏データを自動的に生成する手法として、具体的には、演奏レベルに応じた複数の伴奏パターンを予め用意しておき、ユーザが選択した演奏レベルに対応する伴奏パターンを選択し、該選択された伴奏パターンに基づきメロディにおける和音進行を考慮して伴奏データを自動生成している。
特開2005−202204号公報
上述した特許文献1における伴奏データの自動生成は、所与のメロディに基づき伴奏のアレンジ(編曲)を自動的に行なっていると言える。しかし、特許文献1における伴奏データの自動生成は、既存の伴奏パターン(和音バッキングあるいはアルペジオ等)を構成する楽音の音高をメロディの和音進行に応じて変更する程度のものでしかない。故に、原曲の持つリズム的要素に調和した伴奏アレンジを行なうことができるものではなかった。そのため、自動アレンジによって追加された伴奏が原曲のリズム的要素に調和していないことにより、原曲が本来持っていたアクセント位置が打ち消されてしまう、という不都合がある。また、そのようにして自動生成された伴奏データに基づく伴奏演奏を原曲のメロディ演奏と一緒に、例えば鍵盤楽器等で演奏した場合、演奏者の右手(メロディ演奏)と左手(伴奏演奏)のアクセント位置が調和していないことにより、演奏しにくいものとなる、という不都合がある。
本発明は上述の点に鑑みてなされたものであり、自動アレンジの品質を向上させることができる自動アレンジ装置及びプログラムを提供しようとするものである。
本発明に係る自動アレンジ装置は、原演奏情報を取得する手段と、前記取得した原演奏情報に基づき、該原演奏情報によって表される曲中の1以上のアクセント位置を抽出する手段と、既存の伴奏パターンデータを取得する手段と、前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音の時間位置を、前記抽出した1以上のアクセント位置に合うように、調整することにより、アレンジした伴奏データを生成する手段とを備える。
本発明によれば、原演奏情報に適した伴奏データを生成する(アレンジする)にあたって、既存の伴奏パターンデータを基にして、該伴奏パターンデータに基づき生成される1以上の伴奏音の時間位置を、前記原演奏情報から抽出した1以上のアクセント位置に合うように、調整することにより該伴奏データを生成する(アレンジする)。従って、原演奏情報が持つ曲中のアクセント位置(リズム的要素)に調和した伴奏データを生成することができ、既存の伴奏パターンデータ及び原演奏情報(原曲)の特徴を残したアレンジを自動的に行なうことができる。また、そのようにして自動生成された伴奏データに基づく伴奏演奏を原曲のメロディ演奏と一緒に、例えば鍵盤楽器等で演奏した場合、演奏者の右手(メロディ演奏)と左手(伴奏演奏)のアクセント位置(リズム的要素)が調和するものとなるため、演奏し易いものとなる。従って、品質の良いアレンジを自動的に提供することができる。
一実施例において、前記伴奏データを生成する手段は、(1)前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音において、前記抽出したアクセント位置の1つに合う時間位置に伴奏音が存在する場合、該1つのアクセント位置に合う時間位置に存在する1つの伴奏音を前記アレンジした伴奏データの中に含め、(2)前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音において、前記抽出したアクセント位置の1つに合う時間位置に伴奏音が存在しない場合、該1つのアクセント位置に近い時間位置に存在する伴奏音を該アクセント位置に合う時間位置にずらして、前記アレンジした伴奏データの中に含める、ように構成されていてよい。これにより、原演奏情報の持つアクセント位置に調和した伴奏データを生成することができる。
別の実施例において、前記伴奏データを生成する手段は、(1)前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音のうち、所定の音符分解能より細かい時間位置に位置する1つの伴奏音が、前記抽出したアクセント位置の1つに合っている場合、該細かい時間位置に位置する1つの伴奏音を前記アレンジした伴奏データの中に含め、(2)前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音のうち、前記所定の音符分解能より細かい時間位置に位置する伴奏音が、前記抽出したアクセント位置に合っていない場合、該細かい時間位置に位置する伴奏音を前記アレンジした伴奏データの中に含めない、ように構成されていてよい。これによれば、上記(1)の特徴により、前述と同様に、原演奏情報が持つ曲中のアクセント位置(リズム的要素)に調和した伴奏データを生成することができ、かつ、上記(2)の特徴により、所定の音符分解能よりも細かな分解能の伴奏音は、それがアクセント位置に該当していない限り、前記アレンジした伴奏データから省略されるので、初心者にも演奏し易いアレンジを提供することができる。
本発明に係る自動アレンジ装置を構成する各手段は、それぞれの機能を実現するように構成された専用装置又は回路によって構成され得るし、それぞれの機能を実現するように構成されたプログラムモジュール及び該プログラムモジュールを実行可能なプロセッサ(CPUのような汎用プロセッサあるいはDSPのような専用プロセッサ)の組み合わせによっても構成され得る。
また、本発明は、装置の発明として実施しうるのみならず、各手段の機能を実現するステップからなるコンピュータ実装された方法の発明としても実施することができ、また、該方法を実行するためのプロセッサにより実行可能な命令群からなるプログラムの発明としても実施することができ、また、該プログラムを記憶した非一過性のコンピュータ読取可能な記憶媒体の発明としても実施することができる。
本発明に係る自動アレンジ装置の一実施例を示すハードウェア構成ブロック図。 CPUによる制御の下で実行される本発明の一実施例に係る処理の機能ブロック図。 第1実施例として、或る原演奏情報の第1及び第2小節に関して行なったアクセント位置抽出結果の一例を示す図であって、(a)は該原演奏情報の第1及び第2小節のリズムイメージの一例を示す図、(b)は(a)のリズムイメージを持つ原演奏情報から抽出したアクセント位置抽出結果を示す表。 第1実施例に従う実例を示す図であり、(a)は取得した伴奏パターンデータ(テンプレート)の一例を示す楽譜、(b)は取得した和音情報に応じて(a)の伴奏パターンデータに基づき生成される伴奏音の音高をシフトした一例を示す楽譜、(c)は図3に示すアクセント位置抽出結果に応じて(b)に示す伴奏音のアクセント位置を調整した一例を示す楽譜。 第1実施例として、図2において実行される伴奏データを生成する処理(アレンジ処理)の具体例を示すフローチャート。 第2実施例として、別の或る原演奏情報の第1及び第2小節に関して行なったアクセント位置抽出結果の一例を示す図であって、(a)は該原演奏情報の第1及び第2小節のリズムイメージの一例を示す図、(b)は(a)のリズムイメージを持つ原演奏情報から抽出したアクセント位置抽出結果を示す表。 第2実施例に従う実例を示す図であり、(a)は取得した伴奏パターンデータ(テンプレート)の一例を示す楽譜、(b)は取得した和音情報に応じて(a)の伴奏パターンデータに基づき生成される伴奏音の音高をシフトした一例を示す楽譜、(c)は図3に示すアクセント位置抽出結果に応じて(b)に示す伴奏音のアクセント位置を調整した一例を示す楽譜。 第2実施例として、図2において実行される伴奏データを生成する処理(アレンジ処理)の具体例を示すフローチャート。
図1は、本発明に係る自動アレンジ装置の一実施例を示すハードウェア構成ブロック図である。この自動アレンジ装置は、必ずしも自動アレンジのための専用装置として構成されている必要はなく、パーソナルコンピュータ、携帯端末装置、電子楽器など、コンピュータ機能を持つ任意の装置又は機器において、本発明に係る自動アレンジ用のアプリケーションプログラムをインストールしてなるものであればよい。この自動アレンジ装置のハードウェア構成は、コンピュータにおいて周知の構成、例えば、CPU(中央処理ユニット)1、ROM(リードオンリメモリ)2、RAM(ランダムアクセスメモリ)3、文字及び記号等を入力するためのキーボート及びマウスを含む入力装置4、ディスプレイ5、プリンタ6、不揮発的な大容量メモリであるハードディスク7、USBメモリ等の可搬媒体8のためのメモリインターフェイス(I/F)9、音源回路ボード10、スピーカ等のサウンドシステム11、外部の通信ネットワークに接続するための通信インターフェイス(I/F)12などを含む。ROM2及び/又はハードディスク7には、本発明に係る自動アレンジ用のアプリケーションプログラム及びその他のアプリケーションプログラム並びに制御プログラムが非一過的に記憶される。
図2は、CPU1による制御の下で実行される本発明の一実施例に係る処理の機能ブロック図である。まず、ブロック20では、アレンジの対象となる音楽演奏情報(これを原演奏情報という)を取得する。原演奏情報を取得するための具体的構成はどのようなものであってもよい。例えば、取得する原演奏情報のデータ形式は、スタンダードMIDIファイル(SMF)のような所定形式で符号化されたデータであってもよいし、あるいは五線譜に描かれた楽譜のイメージ情報であってもよく、また可聴的なオーディオ波形データからなるものであってもよく、楽曲を表現しうるものであればその他任意のデータ形式からなっていてよい。楽譜イメージからなる原演奏情報を取得した場合は、公知の楽譜解析技術に従って該イメージを解析し、原演奏情報を構成する個々の音符の音高、拍位置(時間位置)、音価等を符号化し、かつ、その強弱記号、アクセント記号等の各種記号をその時間位置と共に符号化する。オーディオ波形データからなる場合も同様に、公知の音高及び音量等の解析技術に従って該オーディオ波形を解析し、原演奏情報を構成する個々の音符の音高、拍位置(時間位置)、音価等を符号化し、かつ、音量をその時間位置と共に符号化すればよい。また、取得する原演奏情報の音楽的パート構成は、任意であってよく、例えば、メロディパートのみからなっていてもよいし、ピアノ譜のように右手パート(メロディパート)と左手パート(伴奏又は和音パート)とからなっていてもよいし、メロディパートと和音バッキング、アルペジオ及びリズム(ドラム)等の複数の伴奏パートとからなっていてもよい。例えば、取得する原演奏情報がメロディパートのみからなる場合は、本発明に従って伴奏パートの演奏情報を追加するアレンジを行なうことができる。あるいは、取得する原演奏情報がメロディパートとその他の伴奏パートからなる場合は、本発明に従って原演奏情報が持つ伴奏パートの演奏内容とは異なる(例えば、初心者向けに簡単化した、又は上級者向けに複雑化した)伴奏演奏情報を提供するようなアレンジを行なうことができる。また、原演奏情報を取得するための構成若しくは経路は任意であり、例えば、所望の原演奏情報を保持している可搬媒体8からメモリI/F9を介して取得してもよいし、あるいは、通信I/F12を介して外部のソース又はサーバから所望の原演奏情報を選択的に取得するようにしてもよい。CPU1がブロック20の処理を実行するとき、原演奏情報を取得する手段として機能する。
ブロック21では、前記取得した原演奏情報における楽曲の和音進行を示す和音情報を取得する。前記取得した原演奏情報内に和音情報が含まれていれば、その和音情報を取得すればよい。前記取得した原演奏情報内に和音情報が含まれていなければ、公知の和音解析技術を用いて、原演奏情報に含まれるメロディ進行を解析することにより和音を検出し、この検出に基づいて和音情報を取得すればよい。あるいは、ユーザが入力装置4等を介して和音情報を入力し、このユーザ入力に基づいて和音情報を取得するようにしてもよい。取得した和音情報は、追って、ハーモニーとなる伴奏データを生成するときに、該伴奏データが示す伴奏音の音高をシフトするために利用される。
ブロック22及び23では、前記取得した原演奏情報からメロディパートとそれ以外のパート(もしあれば)を分離し、メロディパートの原演奏情報を取得し(ブロック22)、かつ、メロディパート以外のパート(もしあれば)の原演奏情報を取得する(ブロック23)。なお、原演奏情報がパート情報若しくはそれと同等の識別情報を含んでいれば、そのパート情報又は識別情報を利用してパート別の原演奏情報を取得すればよい。また、原演奏情報が楽譜イメージからなっている場合は、該楽譜がピアノ譜のようにメロディ譜(ト音記号譜)と伴奏譜(ヘ音記号譜)からなっているならば、あるいはパート別の五線譜からなっているならば、それに基づき各パートの原演奏情報を取得することができる。パート別の五線譜からなっていない場合は、楽譜を解析することにより、メロディ、和音、ベース等の各パートの音符を推定的に抽出すればよい。
ブロック24では、前記取得した原演奏情報に基づき、該原演奏情報によって表される曲中の1以上のアクセント位置を抽出する。この場合、原演奏情報に含まれる全てのパートの組み合わせから曲のアクセント位置を抽出するようにしてもよいし、原演奏情報に含まれる一部のパートから曲のアクセント位置を抽出するようにしてもよく、例えばどのパートからアクセント位置を抽出するかの選択をユーザによって行なうことができるようにしてよい。なお、このアクセント位置の抽出は、曲(あるいは1コーラス)の全体にわたって行なわれ、原演奏情報の時間的進行に関連づけて、抽出した1以上のアクセント位置が特定される(記憶される)。CPU1がブロック24の処理を実行するとき、前記取得した原演奏情報に基づき、該原演奏情報によって表される曲中の1以上のアクセント位置を抽出する手段として機能する。
具体的にアクセント位置を抽出するための手法(アルゴリズム)は、特定の手法(アルゴリズム)に限られるものではなく、何らかの基準に従って多少なりともアクセント位置を抽出できるものであればどのような手法(アルゴリズム)を採用してよい。アクセント位置を抽出するための手法(アルゴリズム)のいくつかの例を示すと次の通りである。例示したこれらの手法(アルゴリズム)から、1つのみを採用してもよく、あるいは、複数を組み合わせて採用してもよい。
(1)原演奏情報が和音パートを含む場合、和音パート(若しくは和音パートとメロディパートを含めて)において発音タイミング毎に同時に発音される音数を求め、該音数が所定の閾値以上の発音タイミング(つまり時間位置若しくは拍位置)を、アクセント位置として抽出する。これは、特にピアノ演奏などの場合、強調される箇所ほど同時に弾かれる音数が多い、という特性を考慮したものである。
(2)原演奏情報内にアクセント記号が存在する場合、該アクセント記号が存在する発音タイミング(時間位置)を、アクセント位置として抽出する。
(3)原演奏情報がMIDIファイルである場合、ベロシティ値が所定閾値以上であるノートイベントの発音タイミング(時間位置)を、アクセント位置として抽出する。
(4)原演奏情報(例えばメロディ)中の1フレーズにおける音の位置を考慮してアクセント位置として抽出する。例えば、1フレーズにおける最初の音あるいは最後の音は、アクセントが強いと思われるので、それらの音の発音タイミング(時間位置)を、アクセント位置として抽出する。あるいは、1フレーズ中で音高が最大又は最小の音も、アクセントが強いと思われるので、それらの音の発音タイミング(時間位置)を、アクセント位置として抽出する。
(5)原演奏情報中のメロディ進行において、直前の音よりも音高が所定閾値以上高音側又は低音側に大きく変化している音は、アクセントが強いと思われるので、それらの音の発音タイミング(時間位置)を、アクセント位置として抽出する。
(6)原演奏情報中のメロディ(あるいは伴奏)の各音を1小節内の拍位置を考慮して重み付けし、その重み付け値が所定閾値以上の音の発音タイミング(時間位置)を、アクセント位置として抽出する。例えば、1小節内の1拍目の音に最大の重みを与え、2拍目以降の表拍(オンビート)の音に2番目の重みを与え、裏拍(オフビート)の音にその音価に応じた重みを与える(例えば8分音符に3番目の重み、16分音符に4番目の重み)。
(7)原演奏情報中のメロディ(あるいは伴奏)の各音の音価又はデュレーションを重み付けし、その重み付け値が所定閾値以上の音の発音タイミング(時間位置)を、アクセント位置として抽出する。すなわち、発音時間が長い音が、短い音よりも、よりアクセントが強いとみなす。
ブロック25では、既存の伴奏パターンデータを取得する。多数の既存の伴奏パターンデータ(テンプレート)が、内部のデータベース(例えばハードディスク7又は可搬媒体8)あるいは外部のデータベース(例えばインターネット上のサーバ)に記憶されており、ユーザは、アレンジを行なおうとする原演奏情報の楽曲の拍子やリズム等を考慮して、該データベースから所望の伴奏パターンデータ(テンプレート)を選択する。このようなユーザ選択に応じて、ブロック25において、既存の伴奏パターンデータが取得される。なお、原演奏情報の楽曲の全体を通じて同じ伴奏パターンデータを選択する(取得する)必要はなく、何小節分かの区間に分けて異なる伴奏パターンデータを選択する(取得する)ようにしてよい。また、同時に演奏される複数種類の伴奏パターンデータ(例えば和音バッキングパターンとドラムリズムパターン)の組み合わせを同時に取得してもよい。CPU1がブロック25の処理を実行するとき、既存の伴奏パターンデータを取得する手段として機能する。
なお、一実施例において、既存の伴奏パターンデータのソースとして、公知の伴奏スタイルデータ(自動伴奏データ)のバンクを利用してよい。公知の伴奏スタイルデータ(自動伴奏データ)のバンクにおいては、各カテゴリー(Pop&Rock、あるいはCountry&Blues、Standard&Jazzなど)別に複数セットの伴奏スタイルデータを記憶しており、各1セットの伴奏スタイルデータは、イントロセクション、メインセクション、フィルインセクション、エンディングセクション等の各セクション別に伴奏データセットを含んでおり、1セクション分の伴奏データセットは、リズム1、リズム2、ベース、リズミック和音1、リズミック和音2、フレーズ1、フレーズ2等の複数パートの伴奏パターンデータ(テンプレート)を含んでいる。このような公知の伴奏スタイルデータ(自動伴奏データ)のバンクにおける最下位層のパート別の伴奏パターンデータ(テンプレート)が、前記ブロック25において取得される伴奏パターンデータである。前記ブロック25においては、ある1セクション分の伴奏データセットのうち1パートのみの伴奏パターンデータを取得してもよいし、全パート若しくは一部の複数パートの伴奏パターンデータを組み合わせて取得してもよい。なお、公知のように、リズミック和音1、リズミック和音2、フレーズ1、フレーズ2等の音高要素を含むパートの伴奏パターンデータ(テンプレート)においては、基準和音名(例えばCメジャー和音)を示す情報及び音高変換ルールを既定する情報等が追加的に含まれている。伴奏パターンデータ(テンプレート)の実体は、MIDI規格等に従って分散的に符号化されたデータであってもよいし、オーディオ波形データのような時間軸に沿うデータであってもよい。
ブロック26では、前記ブロック25で取得した伴奏パターンデータ(テンプレート)に基づき伴奏音のデータ(伴奏データ)を生成することを行い、その際に、伴奏パターンデータに基づき生成される1以上の伴奏音の時間位置(発音タイミング)を、前記ブロック24で抽出した1以上のアクセント位置に合うように、調整することにより、アレンジした伴奏データを生成する。例えば、1乃至複数小節からなる伴奏パターンデータ(テンプレート)を1回又は複数回繰り返すことにより所望の区間の伴奏データを生成するようになっており、該区間における1以上の伴奏音の時間位置(発音タイミング)を前記抽出した1以上のアクセント位置に合わせて変更することにより、アレンジした伴奏データを生成する。CPU1がブロック26の処理を実行するとき、前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音の時間位置を、前記抽出した1以上のアクセント位置に合うように、調整することにより、アレンジした伴奏データを生成する手段として機能する。
ブロック27は、前記ブロック25で取得した伴奏パターンデータ(テンプレート)が和音バッキングやアルペジオのような音高要素を持つ伴奏音を含む場合に行なわれる処理であり、前記ブロック26においてアレンジした伴奏データを生成する際に、前記ブロック21で取得した和音情報に応じて、生成する伴奏データの音高をシフトする。なお、前記ブロック25で取得した伴奏パターンデータ(テンプレート)がドラムリズムパターンからなる場合は、このブロック27の処理は省略される。
ブロック28では、前記ブロック26で生成したアレンジ済の伴奏データを含むアレンジ済の演奏情報をユーザに対して提供する。アレンジ済の演奏情報をどのような形式で提供するかについては、設計上、任意に選定してよい。例えば、前記ブロック26で生成したアレンジ済の伴奏データのみを、MIDI規格のような所定形式に従って符号化された電子データの状態で提供する、あるいは、具体的な楽譜イメージでディスプレイ5に表示するか又はプリンタ6で紙にプリント出力するか又は電子的イメージデータとして提供する、ようにしてよい。別の例として、前記ブロック22及び23で分離した前記原演奏情報のメロディパートとそれ以外のパート(もしあれば)のうち少なくとも1パートの原演奏情報を適宜に選択し(例えばユーザの希望に従って選択し)、該選択した少なくとも1パートの原演奏情報と前記ブロック26で生成したアレンジ済の伴奏データとを合成し、こうして合成したアレンジ済演奏情報を、前述と同様に、符号化された電子データの状態で、あるいは物理的又は電子的楽譜イメージデータの状態で、提供するようにしてもよい。
<第1実施例>
次に、前記ブロック26における伴奏データ生成処理の一具体例を、第1実施例として説明する。この第1実施例において、前記ブロック26における伴奏データ生成処理は、例えば、1)前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音において、前記抽出したアクセント位置の1つに合う時間位置に伴奏音が存在する場合、該1つのアクセント位置に合う時間位置に存在する1つの伴奏音を前記アレンジした伴奏データの中に含め、他方、2)前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音において、前記抽出したアクセント位置の1つに合う時間位置に伴奏音が存在しない場合、該1つのアクセント位置に近い時間位置に存在する伴奏音を該アクセント位置に合う時間位置にずらして、前記アレンジした伴奏データの中に含める、ようにすることからなる。これにより、原演奏情報の持つアクセント位置に調和した伴奏データを生成することができる。例えば、上記1)に従って生成する伴奏音の一例が、後述する図4(c)における発音タイミングA3における伴奏音である。また、上記2)に従って生成する伴奏音の一例が、後述する図4(c)における発音タイミングA4における伴奏音である。
さらに詳しくは、該第1実施例において、このブロック26における伴奏データ生成処理は、例えば、前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音のうち、前記抽出した1以上のアクセント位置から所定長以上(例えば1拍分以上)離れた時間位置に存在する1以上の伴奏音については、前記アレンジした伴奏データの中に含めるようにすることからなる。これにより、ユーザが選択した既存の伴奏パターンデータの特徴を残したアレンジを行なうことができる。このような既存の伴奏パターンデータの特徴を残した伴奏音の一例が、後述する図4(c)における発音タイミングA1,A2,A5,A6,A7における伴奏音である。
ここで、第1実施例に従う前記ブロック24〜27における処理の具体例について図3及び図4を参照して説明する。図3は、或る原演奏情報の第1及び第2小節に関して前記ブロック24で行なったアクセント位置抽出結果の一例を示す図であって、(a)は該原演奏情報の第1及び第2小節のリズムイメージの一例を示す図、(b)は(a)のリズムイメージを持つ原演奏情報から抽出したアクセント位置抽出結果を示す表である。この例では、前記(1)で述べたような手法、つまり、原演奏情報における和音パートとメロディパートを含む発音タイミング毎に同時に発音される音数を求める手法、に従ってアクセント位置抽出を行なった例を示している。
図3(b)において、「小節番号」は、原演奏情報における小節番号を示し、「1」は第1小節、「2」は第2小節である。「拍番号」は、1小節中の拍番号を示し、「1」は1拍目、「2」は2拍目、「3」は3拍目、「4」は4拍目である。なお、原演奏情報に係る曲が4分の4拍子であるとしている。「差分クロック」は、原演奏情報における音符の位置の拍位置からのずれを、4分音符の長さを480クロックとしたクロック数で示している。差分クロック「0」は拍位置に音符(発音タイミング)が位置していることを示し、差分クロック「240」は拍位置から8分音符長だけずれた位置に音符(発音タイミング)が位置していることを示している。「音符数」は、発音タイミング毎に同時に発音される音数を示している。「長さ」は、各発音タイミングにおいて発音される音符の長さを示している。なお、「8分音符+4分音符」とは、第1小節の末尾の8分音符と第2小節の先頭の4分音符がシンコペーションでつながっていることを示す。「アクセント」は、アクセント位置として抽出されたか否かを示しており、記号Aがアクセント位置として抽出されたことを示し、記号−がアクセント位置として抽出されなかったことを示す。なお、この例では、アクセント位置として抽出される音数の閾値が「3」に設定されているものとする。結局、図3の例では、第1小節の3拍目の付点4分音符長の発音タイミングと、第1小節の4拍目の裏拍から第2小節の1拍目までシンコペーションで延びる「8分音符+4分音符」長の発音タイミングがアクセント位置として抽出される。
図4(a)は、前記ブロック25で取得した伴奏パターンデータ(テンプレート)の一例を示す楽譜である。Cメジャー和音を4分音符長で規則的に刻んだ和音バッキングパターンからなっている。公知のように、音高情報を含む伴奏パターンデータ(テンプレート)は、基準調若しくはルートが予め定義されており、図4(a)では、基準調若しくはルートはCである。図4(b)は、前記ブロック21で取得した和音情報の一例、及び前記ブロック27の処理によって、該取得した和音情報に応じて図4(a)の伴奏パターンデータに基づき生成される伴奏音の音高をシフトした一例を示す楽譜である。この例では、原演奏情報の第1小節の1拍目から4拍目の表拍(8分音符長)までがCメジャー和音、第1小節の4拍目の裏拍(8分音符長)から第2小節の終わりまでがFメジャー和音である。図4(b)においては、原演奏情報の和音を反映して、第2小節の和音バッキングパターンの音高がFメジャー和音にシフトされる。
図4(c)は、前記ブロック26で行なわれた伴奏データ生成結果を示す楽譜であり、前記図3(b)に示すアクセント位置抽出結果に応じて、図4(b)に示す伴奏音のアクセント位置を調整した例を示す。第1小節の3拍目に付点4分音符長のアクセント(リズム的アクセント)があるため、図4(b)における第1小節の3拍目の4分音符長のCメジャー和音を、図4(c)の発音タイミングA3に示すように、付点4分音符長に変更する。また、第1小節の4拍目の裏拍(8分音符長)に「8分音符+4分音符」長のシンコペーションのアクセント(リズム的アクセント)があるため、図4(b)における第1小節の4拍目の4分音符長のCメジャー和音の発音タイミングを、図4(c)の発音タイミングA4に示すように、裏拍(8分音符長)の時間位置に移動し、かつ、第2小節の1拍目まで続く「8分音符+4分音符」長のシンコペーションに変更し、かつ、第1小節の4拍目の裏拍(8分音符長)からFメジャー和音に切り替わるのに合わせて、発音タイミングA4で発音する和音の音高をFメジャー和音にシフトする。図4(c)において、発音タイミングA1,A2,A5,A6,A7は、アクセント位置から所定長以上(例えば1拍分以上)離れているので、アクセント位置による調整の影響を受けることなく、伴奏パターンデータ(テンプレート)における和音発音タイミングが維持される。
図3及び4に示したような処理が、第1及び第2小節に限らず、必要な全ての小節にわたって実行される。こうして、ブロック26では、必要な全ての小節にわたって、アレンジ済の伴奏データを生成する。
次に、第1実施例に従って、前記ブロック26において実行される伴奏データ生成処理(アレンジ処理)の具体的手順の一例について、図5を参照して説明する。図5において、ステップS1では、RAM3内においてアレンジ用記憶領域を設定する。ステップS2では、前記ブロック25でユーザによって選択された伴奏パターンデータ(例えば前記図4(a)参照)を、該伴奏パターンデータを使用する区間の長さ分だけ繰り返し、かつ、該伴奏パターンデータに基づく伴奏音の音高を原演奏情報の和音進行に従って音高変換し(例えば前記図4(b)参照)、前記アレンジ用記憶領域に格納する。以下、アレンジ用記憶領域に格納されたデータを現在アレンジデータという。ステップS3では、アレンジ処理のための現在位置を、アレンジ用記憶領域内の現在アレンジデータの最初の音符の発音タイミングに設定する。
ステップS4では、前記ブロック24において行なったアクセント位置抽出結果(例えば前記図3参照)を参照して、上記現在位置がアクセント位置であるかを判定する。NOであれば、ステップS5に進み、上記現在位置から所定範囲(例えば4分音符長未満)内にアクセント位置があるかを判定する。ステップS5がNOであれば、ステップS6に進み、アレンジ用記憶領域内の現在アレンジデータの末尾まで処理したか否かを判定する。末尾まで処理していなければ、ステップS7に進み、現在アレンジデータ中の次の音符の発音タイミングを現在位置とする。ステップS7の後、ステップS4に戻る。前記図4(c)における発音タイミングA1,A2に関する処理は、上記ステップS4のNO、ステップS5のNO、ステップS6のNOを経てステップS7に進み、ステップS4に戻るルートで行なわれる。
例えば、前記図4(c)における発音タイミングA3のように、処理の現在位置がアクセント位置である場合、ステップS4でYESと判定され、ステップS8に進む。ステップS8では、現在位置に発音タイミングを持つ音符(音符群)をアレンジ用記憶領域内の現在アレンジデータから抽出する。前記図4(c)における発音タイミングA3においては、Cメジャー和音を構成する音符群が抽出される。次のステップS9では、該抽出した音符群の長さを当該アクセント位置における原演奏情報の音符長に変更する。前記図4(c)における発音タイミングA3の例では、付点4分音符長に変更される。こうして、アレンジ用記憶領域内の現在アレンジデータにおけるアクセント位置に対応する音符の長さが、原演奏情報のリズム的アクセントに調和するように調整される。
次に、ステップS10では、上記のように変更された音符長が所定期間よりも長ければ、該変更された音符長に重複する発音タイミングを持つ他の音符(音符群)を現在アレンジデータから検出し、検出した音符(音符群)を現在アレンジデータから削除する。例えば、この所定期間は、8分音符長、4分音符長など、ユーザによって適宜に設定可能である。該所定期間を長く設定するほど、長いデュレーションを持つ原演奏のアクセント感がアレンジした伴奏データに対してより強く反映されることとなり、他方、該所定期間を短く設定するほど、現在アレンジデータから音符を削除する確率が減るため、伴奏パターンデータの持つビート感が維持され易くなる。例えば、この所定期間が4分音符長に設定されているとすると、前記図4(b)の第1小節の3拍目の音符群が前記図4(c)における発音タイミングA3に示すように付点4分音符長に変更されたとき、ステップS10の処理により、該所定期間よりも長い音符長に変更されたと判定され、該変更された音符長に重複する発音タイミングを持つ音符として前記図4(b)の第1小節の4拍目の音符群が検出され、これらの音符群が現在アレンジデータから削除される。
次に、ステップS11では、上記のように音符長を変更した音符(音符群)の途中で和音変更がなされるかを判定する。前記図4(c)の発音タイミングA3において付点4分音符長に変更された音符群については、その途中で和音変更がなされていないので、ステップS11ではNOと判定され、前記ステップS6にジャンプし、前記ステップ7を経てステップS4に戻る。このとき、前記図4(b)の第1小節の4拍目の音符群は既に消去されたため、現在アレンジデータ中の次の発音タイミングは、前記図4(b)の第2小節の1拍目である。従って、ステップS4では、現在位置(第2小節の1拍目)がアクセント位置に該当していないと判定する。
ステップS4のNOからステップS5に進み、上記現在位置から所定範囲(例えば4分音符長未満)内にアクセント位置があるかを判定する。前記図4(b)の第2小節の1拍目が現在位置である場合、そこから8分音符長だけ前の位置がアクセント位置として抽出されている(前記図3参照)ので、ステップS5ではYESと判定し、ステップS12に進む。ステップS12では、該当するアクセント位置が現在位置よりも時間的に先行している場合、現在アレンジデータ内において該当アクセント位置において発音状態となる音符イベントが存在していないかどうかを判定する。前記図4(b)の第2小節の1拍目が現在位置である場合、現在アレンジデータ中には、その8分音符長だけ前のアクセント位置には、音符イベントが存在していないので、ステップS12はYESと判定され、ステップS13に進む。
ステップS13では、現在位置に発音タイミングを持つ音符(音符群)を現在アレンジデータから抽出する。上記例の場合、前記図4(b)の第2小節の1拍目のFメジャー和音の構成音が抽出される。次に、ステップS14では、前ステップで抽出した音符(音符群)の発音タイミングを該当アクセント位置に変更する。次に、ステップS15では、前ステップで該当アクセント位置に変更した音符(音符群)の長さを拡張又は調整する。一例として、前ステップで抽出した音符(音符群)の発音タイミングを時間的に先行するアクセント位置まで移動したことに伴い、その分だけ音符長を拡張する。例えば、図4(c)の発音タイミングA4に示すように、第1小節の4拍目の裏拍(8分音符長)から第2小節の1拍目まで続く「8分音符+4分音符」長のシンコペーションとなるように拡張する。
ステップS15の後、前記ステップS10及びS11に進む。なお、上記のように音符長を変更した音符(音符群)の途中で和音変更がなされる場合は、ステップS11のYESからステップS16に進む。ステップS16では、長さを変更した音符(音符群)の音高を変更後の和音に応じてシフトする。
以上のように、上記第1実施例によれば、原演奏情報が持つアクセント位置(及びリズム的アクセント)を考慮した伴奏データを自動的に生成することができ、従って、品質のよい自動アレンジを行なうことができる。
<第2実施例>
次に、前記ブロック26における伴奏データ生成処理の別の具体例を、第2実施例として説明する。この第2実施例においては、原則として、前記抽出したアクセント位置に該当しない伴奏音は、アレンジした伴奏データの中に含めないようにしている。加えて、前記伴奏パターンデータ中の伴奏音が所定の音符分解能より細かい時間位置に位置する場合、前記抽出したアクセント位置に該当しない限り、アレンジした伴奏データの中に含めないようにしている。すなわち、第2実施例においては、該所定の音符分解能に関連して、前記ブロック26における伴奏データ生成処理が、1)前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音のうち、該所定の音符分解能より細かい時間位置に位置する1つの伴奏音が、前記抽出したアクセント位置の1つに合っている場合、該細かい時間位置に位置する1つの伴奏音を前記アレンジした伴奏データの中に含め、2)前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音のうち、前記所定の音符分解能より細かい時間位置に位置する伴奏音が、前記抽出したアクセント位置に合っていない場合、該細かい時間位置に位置する伴奏音を前記アレンジした伴奏データの中に含めない、ようにしている。前記所定の音符分解能は、4分音符分解能あるいは8分音符分解能等、ユーザによって任意に設定可能である。
第2実施例に従う前記ブロック24〜27における処理の具体例について図6及び図7を参照して説明する。図6は、前記図3と同様に、或る原演奏情報の第1及び第2小節に関して前記ブロック24で行なったアクセント位置抽出結果の一例を示す図であって、(a)は該原演奏情報の第1及び第2小節のリズムイメージの一例を示す図、(b)は(a)のリズムイメージを持つ原演奏情報から抽出したアクセント位置抽出結果を示す表である。表の見方は、前記図3と同様である。ただし、図6に関する原演奏情報は、前記図3に関する原演奏情報とは異なるものであるため、両者のアクセント位置抽出結果は異なっている。
図7(a)は、第2実施例において、前記ブロック25で取得した伴奏パターンデータ(テンプレート)の一例を示す楽譜である。Cメジャー和音を4分音符長で規則的に刻んだ和音バッキングパターンとベースパターンの組み合わせからなっている。図7(b)は、第2実施例において、前記ブロック21で取得した和音情報の一例、及び前記ブロック27の処理によって、該取得した和音情報に応じて図7(a)の伴奏パターンデータに基づき生成される伴奏音(和音及びベース音)の音高をシフトした一例を示す楽譜である。この例では、原演奏情報の第1小節がCメジャー和音、第2小節がGメジャー和音である。従って、図7(b)においては、原演奏情報の和音を反映して、第2小節の和音の音高がGメジャー和音にシフトされ、ベース音も同様に音高シフトされる。
図7(c)は、第2実施例に従って、前記ブロック26で行なわれた伴奏データ生成処理結果を示す楽譜であり、前記図6に示すアクセント位置抽出結果に応じて、図7(b)に示す伴奏音のアクセント位置を調整した例を示す。なお、一例として、前記所定の音符分解能は、8分音符分解能に設定されているものとしている。図7(a)に示す伴奏パターンデータ(テンプレート)においては、元々8分音符分解能よりも細かい分解能の音が存在していないので、上記1)及び2)のように所定音符分解能よりも細かい時間位置に位置する伴奏音がアクセント位置に合っている場合は前記アレンジした伴奏データの中に含めるが、アクセント位置に合っていない前記アレンジした伴奏データの中に含めない、という処理は図示例には現れていない。一方、図6に示すように、原演奏情報における第1小節の1拍目、3拍目、4拍目と第2小節の1拍目、3拍目、4拍目の音数が「4」又は「3」であるので、閾値「3」を考慮して、これらがアクセント位置として抽出される。これに対して、第1小節の2拍目と第2小節の2拍目の音数は「2」であるので、これらはアクセント位置として抽出されない。従って、図7(c)に示すように、生成される伴奏データにおいては、元の伴奏パターンデータにおける第1小節の2拍目と第2小節の2拍目の和音が消去されている(発音タイミングA12及びA16)。
次に、第2実施例に従って、前記ブロック26において実行される伴奏データ生成処理(アレンジ処理)の具体的手順の一例について、図8を参照して説明する。図8において、ステップS0では、ユーザの選択に従って、アレンジ処理のための音符分解能を設定する。例えば8分音符長の分解能に設定されと仮定する。ステップS1及びS2は、図5における同一符号の処理と同様の処理を行なう。例えば、図7(a)に示すような伴奏パターンデータを使用する区間の長さ分だけ繰り返したものが、アレンジ用記憶領域内に現在アレンジデータとして格納され、この現在アレンジデータは和音情報に応じて図7(b)に示すような音高にシフトされる。次のステップS20では、アレンジ処理のための現在位置を、アレンジ用記憶領域内の現在アレンジデータの第1小節の1拍目に設定する。
ステップS21では、現在アレンジデータの現在位置に音符イベントがあるかどうかを判定する。図7(b)の例では、現在位置が第1小節の1拍目の場合、音符イベントがあるので、YESと判定され、ステップS22に進む。ステップS22では、現在位置がアクセント位置であるどうか判定する。図6の例では、第1小節の1拍目はアクセント位置であるので、YESと判定され、ステップS23に進む。
ステップS23では、現在位置より後の、前記設定された分解能に相当する音符長(例えば8分音符長)未満の範囲内において、原演奏情報においてアクセント位置があるかを判定する。例えば、現在位置より16分音符長だけ後の位置にアクセント位置があれば、YESと判定され、ステップS24に進む。ステップS24では、現在アレンジデータにおいてこのアクセント位置に音符イベントがあるかを判定する。もし音符イベントがあれば、ステップS25に進み、該当アクセント位置の音符を除き、現在位置より後の分解能に相当する音符長未満の範囲内にある音符を、現在アレンジデータから削除する。
現在位置より後の、前記設定された分解能に相当する音符長(例えば8分音符長)未満の範囲内において、原演奏情報においてアクセント位置が存在せず、又は存在していても当該アクセント位置において現在アレンジデータ内に音符イベントが存在していない場合、ステップS26に進む。ステップS26では、現在位置より後の分解能に相当する音符長未満の範囲内にある音符を、現在アレンジデータからすべて削除する。
こうして、ステップS23〜S26により、1)前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音のうち、所定の音符分解能より細かい時間位置に位置する1つの伴奏音が、前記抽出したアクセント位置の1つに合っている場合、該細かい時間位置に位置する1つの伴奏音を前記アレンジした伴奏データの中に含め、2)前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音のうち、前記所定の音符分解能より細かい時間位置に位置する伴奏音が、前記抽出したアクセント位置に合っていない場合、該細かい時間位置に位置する伴奏音を前記アレンジした伴奏データの中に含めない、ようにする処理がなされる。
ステップS26の後、ステップS6に進み、アレンジ用記憶領域内の現在アレンジデータの末尾まで処理したか否かを判定する。末尾まで処理していなければ、ステップS27に進み、現在位置を、前記設定された音符分解能に相当する音符長(例えば8分音符)だけ後の拍位置(例えば1拍目の裏拍)に設定する。ステップS27の後、ステップS21に戻る。
前記図6及び図7(b)の例では、現在位置が第1小節の1拍目の場合、音符イベントがあり、かつアクセント位置に該当しているので、ステップS22のYES、ステップS23のNO、ステップS26、ステップS6のNOを経て、ステップS27に至る。従って、現在アレンジデータの第1小節の1拍目の音符(音符群)が削除されることなく残され、図7(c)の発音タイミングA11に示すように、これらの第1小節の1拍目の音符(音符群)がアレンジ済伴奏データに含まれる。
次に、前記図6及び図7(b)の例では、現在位置が第1小節の1拍目の裏拍の場合、音符イベントがないので、ステップS21のNO、ステップS23のNO、ステップS26、ステップS6のNOを経て、ステップS27に至る。この場合、ステップS27では、現在位置を、第1小節の2拍目(表拍)に設定する。
前記図6及び図7(b)の例では、現在位置が第1小節の2拍目(表拍)の場合、音符イベントがあるが、アクセント位置に該当していないので、ステップS22ではNOと判定され、ステップS28に進む。ステップS28では、現在位置に発音タイミングを持つ音符を現在アレンジデータから削除する。これにより、現在アレンジデータの第1小節の2拍目(表拍)の音符(音符群)が削除され、図7(c)の発音タイミングA12に示すように、第1小節の2拍目の音符がアレンジ済伴奏データに含まれないものとなる。
ステップS28の後、前記ステップS23に進み、前述と同様の処理を繰り返す、その後の処理においては、前記図6及び図7(b)の例では、第1小節の3拍目及び4拍目、第2小節の1拍目、3拍目及び4拍目において、音伴奏パターンデータに音符イベントがあり、かつ、原演奏情報のアクセント位置に該当するため、それらの伴奏音データが現在アレンジデータ内に残され、図7(c)の発音タイミングA13,A14,A15,A17,A18に示すように、それらの音符(音符群)がアレンジ済伴奏データに含まれることになる。一方、第2小節の2拍目の場合、音符イベントがあるがアクセント位置に該当していないので、それらの伴奏音データが現在アレンジデータから削除され、図7(c)の発音タイミングA16に示すように、それらの音符(音符群)がアレンジ済伴奏データに含まれないものとなる。
以上のように、上記第2実施例によれば、第1実施例と同様に、原演奏情報が持つアクセント位置(及びリズム的アクセント)を考慮した伴奏データを自動的に生成することができ、従って、品質のよい自動アレンジを行なうことができる。また、所定の音符分解能よりも細かな分解能の伴奏音は、それがアクセント位置に該当していない限り、前記アレンジした伴奏データから省略されるので、初心者にも演奏し易いアレンジを提供することができる。
上記実施例では、原演奏情報によって表される曲中の強いアクセント位置を判定し、この強いアクセント位置に応じて伴奏音の時間位置を調整している。しかし、これに限らず、原演奏情報によって表される曲中の1以上の弱いアクセント位置を判定し、この弱いアクセント位置に応じて伴奏音の時間位置を調整するようにしてもよい。例えば、取得した原演奏情報に基づき、現時点が曲中の弱いアクセント位置に該当するか否かを判断し、現時点が弱いアクセント位置に該当すると判断されたとき、取得した伴奏パターンデータに基づき生成される1以上の伴奏音の時間位置を、前記抽出した1以上のアクセント位置に合うように、調整することにより、アレンジした伴奏データを生成するようにしてよい。これにより、原演奏情報によって表される曲中の1以上の弱いアクセント位置に同調して伴奏演奏も弱いアクセントを示すようにアレンジすることができる。
1 CPU(中央処理ユニット)
2 ROM(リードオンリメモリ)
3 RAM(ランダムアクセスメモリ)
4 入力装置
5 ディスプレイ
6 プリンタ
7 ハードディスク
8 可搬媒体
9 メモリインターフェイス
10 音源回路ボード
11 サウンドシステム
12 通信インターフェイス

Claims (5)

  1. 原演奏情報を取得する手段と、
    前記取得した原演奏情報に基づき、該原演奏情報によって表される曲中の1以上のアクセント位置を抽出する手段と、
    既存の伴奏パターンデータを取得する手段と、
    前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音の時間位置を、前記抽出した1以上のアクセント位置に合うように、調整することにより、アレンジした伴奏データを生成する手段と、
    を備える自動アレンジ装置。
  2. 前記伴奏データを生成する手段は、(1)前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音において、前記抽出したアクセント位置の1つに合う時間位置に伴奏音が存在する場合、該1つのアクセント位置に合う時間位置に存在する1つの伴奏音を前記アレンジした伴奏データの中に含め、(2)前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音において、前記抽出したアクセント位置の1つに合う時間位置に伴奏音が存在しない場合、該1つのアクセント位置に近い時間位置に存在する伴奏音を該アクセント位置に合う時間位置にずらして、前記アレンジした伴奏データの中に含める、ように構成されている、請求項1に記載の自動アレンジ装置。
  3. 前記伴奏データを生成する手段は、前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音のうち、前記抽出した1以上のアクセント位置から離れた時間位置に存在する1以上の伴奏音については、前記アレンジした伴奏データの中に含めるように構成されている、請求項1又は2に記載の自動アレンジ装置。
  4. 前記伴奏データを生成する手段は、(1)前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音のうち、所定の音符分解能より細かい時間位置に位置する1つの伴奏音が、前記抽出したアクセント位置の1つに合っている場合、該細かい時間位置に位置する1つの伴奏音を前記アレンジした伴奏データの中に含め、(2)前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音のうち、前記所定の音符分解能より細かい時間位置に位置する伴奏音が、前記抽出したアクセント位置に合っていない場合、該細かい時間位置に位置する伴奏音を前記アレンジした伴奏データの中に含めない、ように構成されている、請求項1に記載の自動アレンジ装置。
  5. コンピュータに、
    原演奏情報を取得する手順と、
    前記取得した原演奏情報に基づき、該原演奏情報によって表される曲中の1以上のアクセント位置を抽出する手順と、
    既存の伴奏パターンデータを取得する手順と、
    前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音の時間位置を、前記抽出した1以上のアクセント位置に合うように、調整することにより、アレンジした伴奏データを生成する手順と、
    を実行させるためのプログラム。
JP2015185299A 2015-09-18 2015-09-18 自動アレンジ装置及びプログラム Active JP6565528B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015185299A JP6565528B2 (ja) 2015-09-18 2015-09-18 自動アレンジ装置及びプログラム
US15/262,548 US10354628B2 (en) 2015-09-18 2016-09-12 Automatic arrangement of music piece with accent positions taken into consideration

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015185299A JP6565528B2 (ja) 2015-09-18 2015-09-18 自動アレンジ装置及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019137836A Division JP6760450B2 (ja) 2019-07-26 2019-07-26 自動アレンジ方法

Publications (2)

Publication Number Publication Date
JP2017058594A true JP2017058594A (ja) 2017-03-23
JP6565528B2 JP6565528B2 (ja) 2019-08-28

Family

ID=58282941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015185299A Active JP6565528B2 (ja) 2015-09-18 2015-09-18 自動アレンジ装置及びプログラム

Country Status (2)

Country Link
US (1) US10354628B2 (ja)
JP (1) JP6565528B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210225345A1 (en) * 2020-01-17 2021-07-22 Yamaha Corporation Accompaniment Sound Generating Device, Electronic Musical Instrument, Accompaniment Sound Generating Method and Non-Transitory Computer Readable Medium Storing Accompaniment Sound Generating Program

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6645085B2 (ja) 2015-09-18 2020-02-12 ヤマハ株式会社 自動アレンジ装置及びプログラム
CN114005424A (zh) * 2021-09-16 2022-02-01 北京灵动音科技有限公司 信息处理方法、装置、电子设备及存储介质
US11756515B1 (en) * 2022-12-12 2023-09-12 Muse Cy Limited Method and system for generating musical notations for musical score

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3356182B2 (ja) 1992-02-07 2002-12-09 ヤマハ株式会社 作編曲アシスト装置
JP2636640B2 (ja) 1992-07-09 1997-07-30 ヤマハ株式会社 自動伴奏装置
JP3528654B2 (ja) * 1999-02-08 2004-05-17 ヤマハ株式会社 メロディ生成装置及びリズム生成装置と記録媒体
JP4483304B2 (ja) 2004-01-16 2010-06-16 ヤマハ株式会社 楽譜表示プログラム及び楽譜表示装置
US7525036B2 (en) 2004-10-13 2009-04-28 Sony Corporation Groove mapping
JP4487958B2 (ja) 2006-03-16 2010-06-23 ソニー株式会社 メタデータ付与方法及び装置
JP4821532B2 (ja) * 2006-09-21 2011-11-24 ヤマハ株式会社 アルペジオ演奏装置及びプログラム
WO2008133097A1 (ja) * 2007-04-13 2008-11-06 Kyoto University 音源分離システム、音源分離方法及び音源分離用コンピュータプログラム
CN102576524A (zh) * 2009-06-01 2012-07-11 音乐策划公司 接收、分析并编辑音频来创建音乐作品的系统和方法
JP5821229B2 (ja) 2011-03-25 2015-11-24 ヤマハ株式会社 伴奏データ生成装置及びプログラム
JP5598398B2 (ja) 2011-03-25 2014-10-01 ヤマハ株式会社 伴奏データ生成装置及びプログラム
US9012754B2 (en) 2013-07-13 2015-04-21 Apple Inc. System and method for generating a rhythmic accompaniment for a musical performance
US9263018B2 (en) 2013-07-13 2016-02-16 Apple Inc. System and method for modifying musical data
US9251773B2 (en) * 2013-07-13 2016-02-02 Apple Inc. System and method for determining an accent pattern for a musical performance

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210225345A1 (en) * 2020-01-17 2021-07-22 Yamaha Corporation Accompaniment Sound Generating Device, Electronic Musical Instrument, Accompaniment Sound Generating Method and Non-Transitory Computer Readable Medium Storing Accompaniment Sound Generating Program
US11955104B2 (en) * 2020-01-17 2024-04-09 Yamaha Corporation Accompaniment sound generating device, electronic musical instrument, accompaniment sound generating method and non-transitory computer readable medium storing accompaniment sound generating program

Also Published As

Publication number Publication date
US20170084259A1 (en) 2017-03-23
US10354628B2 (en) 2019-07-16
JP6565528B2 (ja) 2019-08-28

Similar Documents

Publication Publication Date Title
US9728173B2 (en) Automatic arrangement of automatic accompaniment with accent position taken into consideration
KR100658869B1 (ko) 음악생성장치 및 그 운용방법
CN112382257B (zh) 一种音频处理方法、装置、设备及介质
JP6760450B2 (ja) 自動アレンジ方法
JP6705272B2 (ja) 発音制御装置、発音制御方法、及びプログラム
JP6565528B2 (ja) 自動アレンジ装置及びプログラム
JP5974436B2 (ja) 楽曲生成装置
JP3637775B2 (ja) メロディ生成装置と記録媒体
US11176917B2 (en) Automatic arrangement of music piece based on characteristic of accompaniment
JP2000315081A (ja) 自動作曲装置及び方法並びに記憶媒体
CN113874932A (zh) 电子乐器、电子乐器的控制方法及存储介质
JP6693176B2 (ja) 歌詞生成装置および歌詞生成方法
JP2015060200A (ja) 演奏データファイル調整装置、方法、およびプログラム
JP6693596B2 (ja) 自動伴奏データ生成方法及び装置
JP6496998B2 (ja) 演奏情報編集装置および演奏情報編集プログラム
JP6459162B2 (ja) 演奏データとオーディオデータの同期装置、方法、およびプログラム
JP2013210501A (ja) 素片登録装置,音声合成装置,及びプログラム
JP6075314B2 (ja) プログラム,情報処理装置,及び評価方法
CN113870817A (zh) 自动编曲方法、自动编曲装置及计算机程序产品
JP6565529B2 (ja) 自動アレンジ装置及びプログラム
JP3664126B2 (ja) 自動作曲装置
CN115004294A (zh) 编曲生成方法、编曲生成装置以及生成程序
JP6809608B2 (ja) 歌唱音生成装置及び方法、プログラム
JP6439239B2 (ja) 演奏データファイル検索方法、システム、プログラム、端末装置、およびサーバ装置
JP6606844B2 (ja) ジャンル選択装置、ジャンル選択方法、プログラムおよび電子楽器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190715

R151 Written notification of patent or utility model registration

Ref document number: 6565528

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151