JP2014029425A - 伴奏進行生成装置及びプログラム - Google Patents

伴奏進行生成装置及びプログラム Download PDF

Info

Publication number
JP2014029425A
JP2014029425A JP2012170313A JP2012170313A JP2014029425A JP 2014029425 A JP2014029425 A JP 2014029425A JP 2012170313 A JP2012170313 A JP 2012170313A JP 2012170313 A JP2012170313 A JP 2012170313A JP 2014029425 A JP2014029425 A JP 2014029425A
Authority
JP
Japan
Prior art keywords
data
beat
section
style
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012170313A
Other languages
English (en)
Other versions
JP6047985B2 (ja
Inventor
Dan Shinoi
暖 篠井
Takuya Fujishima
琢哉 藤島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2012170313A priority Critical patent/JP6047985B2/ja
Priority to US13/956,165 priority patent/US9378719B2/en
Publication of JP2014029425A publication Critical patent/JP2014029425A/ja
Application granted granted Critical
Publication of JP6047985B2 publication Critical patent/JP6047985B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • G10H1/42Rhythm comprising tone forming circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/061Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/071Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/341Rhythm pattern selection, synthesis or composition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • G10H2240/141Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

【課題】 曲データを解析して当該曲データの中で演奏されている演奏パターンに最も類似するパターンを有する適切な伴奏スタイルを特定する。
【解決手段】 曲データの拍位置を抽出し、該抽出した拍位置に基づいて曲データを同じ拍数からなる複数の区間データに分割する。このとき、パターンデータの拍数に応じた異なる拍単位に曲データを分割して、1つの曲データに基づいて同じ拍数からなる複数の区間データを組み合わせた系列データを複数生成する。複数の系列データ各々に含まれる各区間データと複数のパターンデータとを比較して類似度を算出し、区間データ毎に算出した類似度の最も高いパターンデータを特定する。系列データのうち特定したパターンデータの相関が高いいずれかの系列データを選択する。これにより、例え誤った拍位置が抽出されたとしても、最も類似するパターンを有する伴奏スタイルを適切に特定することができるようになる。
【選択図】 図2

Description

この発明は、曲データの演奏パターンに対応する伴奏スタイルを演奏進行順に設定した伴奏進行データを生成する伴奏進行生成装置及びプログラムに関する。特に、拍が既知でない曲データを解析して、当該曲データの中で演奏されている演奏パターンに最も類似するパターンを有した伴奏スタイルの特定を行う技術に関する。
従来、電子楽器やシーケンサなどにおいては、ロックやポップスあるいはジャズ等の伴奏スタイル毎に分類されたイントロ、メイン、エンディング等の予め決められた演奏パターンの楽音を再生するセクションデータのうち、どの伴奏スタイルのどのセクションデータをどのような順番で演奏するかを示す伴奏進行データ(伴奏シーケンスデータとも呼ばれる)を予め作成しておくことで、ユーザが演奏曲のメロディ進行にあわせて所望の伴奏スタイルに応じた演奏パターンの自動伴奏を簡単な操作で演奏することのできるようにしている(例えば、下記に示す特許文献1参照)。
また、最近では、音響信号(オーディオ信号)を解析してリズムパターンを検出し、該リズムパターンと予めデータベース等に用意されたパターンとのマッチングを行うことにより、検出したリズムパターンに最も類似するパターンを特定する技術が知られている。例えば、下記に示す特許文献2に記載の装置では、音響信号のビート検出をベースに拍子と小節線とを確定し、該確定した小節単位で検出したリズムパターンにマッチするパターンを特定することが行われている。従来の装置では、周波数解析により拍ごとの音の変化度合いに従って先に小節線を確定してから、該確定した小節線に従う各小節毎にリズムパターンを検出し、これを予め用意されたパターンと比較することによりマッチングを行っている。
特開2000-163064号公報 特開2008-275975号公報
上述したように、予め伴奏進行データが作成してある場合、ユーザはメロディラインをマニュアル演奏しながら、それにあった伴奏を簡単な操作で自動演奏させることができる。そのため、例えばユーザが新しく発売された音楽CDに収録されている曲を伴奏付きで演奏したいような場合であっても、ユーザは予め伴奏進行データを生成しておく必要がある。しかし、そのような場合にどの伴奏スタイルのどのセクションデータ(以下、「スタイルデータ」と記す)を選択すればよいのかを、ユーザはわからないのがほとんどである。仮にユーザが適切であろうと判断して任意のスタイルデータを選択してみても、実際に自動伴奏を行わせてみると演奏したい曲にあわないことが多いが、ユーザは試行錯誤しながら適当なスタイルデータを当てはめて確かめながら伴奏進行データを生成するしかなく、その作業は非常に面倒でありまた時間がかかる。
そこで、上記した特許文献2に記載の技術を採用することが考えられる。しかし、特許文献2に記載の技術では、音響信号をビート検出することにより抽出される拍子に基づき小節線の位置を求めているが、求められた小節線の位置は必ずしも正しい位置であるとは限らないのが実情である。すなわち、公知のビート検出方法においては、正しくは1拍を検出しなければならないにもかかわらず、その1拍を半拍あるいは2拍などとして誤った拍子を抽出してしまうことが多々ある。拍子が誤って抽出されてしまえば、該検出された拍子に基づいて確定される小節線の位置も当然に不正確となる。そして、そもそも不正確であるかもしれない小節線の位置に従って検出されるリズムパターンは、必ずしも演奏を正しく反映したパターンとは言えない。それ故に、そのリズムパターンを使用してのマッチング結果が、音響信号の中で演奏されている演奏パターンに最も類似するスタイルデータであるとは限らないので問題となる。
本発明は上述の点に鑑みてなされたもので、曲データを解析して当該曲データの中で演奏されている演奏パターンに最も類似するパターンを有する適切な伴奏スタイルを特定する伴奏進行生成装置及びプログラムを提供しようとするものである。
本発明に係る伴奏進行生成装置は、同じ拍数の異なる演奏パターンからなる複数のパターンデータを記憶する記憶手段と、曲データを取得する取得手段と、前記取得した曲データの拍位置を抽出する抽出手段と、前記抽出した拍位置に基づいて前記曲データを同じ拍数からなる複数の区間データに分割する分割手段であって、該分割手段は、前記パターンデータの拍数に応じた異なる拍単位に前記曲データを分割するものと、前記各区間データと前記複数のパターンデータとを比較し、演奏パターンの類似度を算出する算出手段と、前記区間データ毎に前記算出した類似度の最も高いパターンデータを特定すると共に、前記曲データを異なる拍単位に分割した複数の区間データの組み合わせのうち、前記特定したパターンデータの相関が高い区間データの組み合わせを選択する選択手段と、前記選択した区間データの組み合わせに基づいて前記抽出した拍位置を更新すると共に、該更新した拍位置に従って前記曲データにおける小節線位置を確定する位置確定手段とを備える。
本発明によると、曲データの拍位置を抽出し、該抽出した拍位置に基づいて曲データを同じ拍数からなる複数の区間データに分割する。このとき、予め記憶されているパターンデータの拍数に応じた異なる拍単位に曲データを分割することにより、1つの曲データに基づいて同じ拍数からなる複数の区間データを組み合わせた系列データを複数生成する。これら複数の系列データ各々に含まれる区間データは全て同じ拍数からなるものであるが、これらの拍数は系列データ毎に異なることになる。前記各系列データに含まれる各区間データと予め記憶されている複数のパターンデータとを比較することによって演奏パターンの類似度を算出し、前記区間データ毎に類似度の最も高いパターンデータを特定する。各系列データつまりは前記曲データを異なる拍単位に分割した複数の区間データの組み合わせのうち、前記特定したパターンデータの相関が高い系列データ(区間データの組み合わせ)を選択する。この選択によって、曲データの中で演奏されている演奏パターンに最も類似するパターンを有した伴奏スタイルの特定が行われることになる。そして、選択した区間データの組み合わせに基づいて前記抽出した拍位置を更新すると共に、該更新した拍位置に従って前記曲データにおける小節線位置を確定する。このように、本願発明は従来のような先に小節線を確定してから伴奏スタイルの特定を行うものでないことから、例え誤った拍位置を抽出したとしても、曲データの中で演奏されている演奏パターンに最も類似するパターンを有する伴奏スタイルを適切に特定することができるようになる。
本発明は、装置の発明として構成し、実施することができるのみならず、方法の発明として構成し実施することができる。また、本発明は、コンピュータまたはDSP等のプロセッサのプログラムの形態で実施することができるし、そのようなプログラムを記憶した記憶媒体の形態で実施することもできる。
本発明によれば、曲データを異なる拍単位に分割した複数の区間データの組み合わせのうち、各区間データ毎に特定される類似度の最も高いパターンデータの相関が高い区間データの組み合わせを選択することにより伴奏スタイルを特定することから、例え誤った拍位置を抽出していたとしても、曲データの中で演奏されている演奏パターンに最も類似するパターンを有する適切な伴奏スタイルの特定を行うことができるようになる、という効果が得られる。
本発明に係る伴奏進行生成装置の一実施例を示す機能ブロック図である。 伴奏進行生成処理の一実施例を示すフローチャートである。 スタイル決定について説明するための概念図である。
以下、この発明の実施の形態を添付図面に従って詳細に説明する。
図1は、この発明に係る伴奏進行生成装置の一実施例を示す機能ブロック図である。図1において、図中の矢印はデータの流れを表す。なお、伴奏進行生成装置としては図1に示す以外の機能を有する場合もあるが、ここでは必要最小限の機能を有する場合について説明する。
本実施例に示す伴奏進行生成装置は、大きく分けて記憶部Mと制御部1とにより構成される。記憶部Mは、伴奏進行データを生成する対象の曲データや、伴奏スタイル(ロック、ポップス、ジャズ等)にあった演奏内容をパターン化した伴奏スタイルデータなどの各種データ、制御部1により実行あるいは参照される伴奏進行生成処理(図2参照)などの各種アプリケーションソフトウェアプログラム等を記憶する。なお、伴奏進行データを生成する対象の曲データは、記憶部Mに記憶された多数の中からユーザが任意に選択できるようにしてあってよい。
曲データは、例えばメロディパートを含む1乃至複数パートを表すオーディオデータであって、該オーディオデータは各パートにおける楽音の音響信号(オーディオ信号)をデジタル信号化したデータである。曲データは利用者が作成したもの、図示しない電子楽器やCD再生機あるいはインターネット等の通信ネットワークを介して接続されたサーバ装置等の外部機器から取得したものなどであってよい。なお、この実施形態においては、曲の始めから終わりまで一貫して拍子が変わらないデータであるものとする。
伴奏スタイルデータは、リズムパート、ベースパート、コードバッキングパート等の伴奏パートを表す例えばMIDI形式の演奏データであって、ロックやポップスあるいはジャズ等の伴奏スタイル毎に演奏データがパターン化されたデータである。1つのスタイルデータは、楽曲の中で主として定常的に繰り返し演奏されるメインスタイルデータ、楽曲の中のイントロ部分で演奏されるイントロスタイルデータ、楽曲の中のエンディング部分で演奏されるエンディングスタイルデータ、曲の盛り上がりや曲調の切り替わりなどの節目に一時的に挿入されるフィルインスタイルデータ等の複数のセクションデータから構成され、各セクションデータが1つの演奏パターンに対応したパターンデータである。すなわち、伴奏スタイル及びセクションにより演奏パターンを特定できるようになっている。なお、これらの各セクションデータは一般的にセクションごとに異なる1〜複数小節の長さであるが、この実施形態においては全て同じ拍数(例えば1小節4拍)の長さの演奏データからなるものである。伴奏スタイルデータは、スタイルデータの他にこうしたスタイルの長さ(小節数や拍数など)や伴奏スタイル名あるいはセクション名などの各種情報を有する。
なお、各セクションには複数のバリエーション(例えばメインセクションについては、メインAスタイルデータ、メインBスタイルデータなど)があってもよい。また、伴奏スタイルデータのうち、リズムパートを除く各パートのデータは基準のコード(例えばCメジャ)に基づいて作成されており、生成した伴奏パートを実際のノートデータに展開するときには演奏のために指定されたコードに応じた音高に変換されるのは勿論である。さらに、伴奏スタイルデータに関しても図示を省略した外部機器(電子楽器やサーバ装置等)から取得できるようになっていてよい。
また、記憶部Mは上記の他に、後述する制御部1による伴奏進行生成処理(図2参照)の実行に伴って適宜に生成されるスタイルオーディオデータ、拍情報、伴奏進行データなどを記憶する。こうした記憶部Mはハードディスク等の外部記憶装置であってもよいし、フレキシブルディスク(FD)、コンパクトディスク(CD)、光磁気ディスク(MO)、DVD(Digital Versatile Diskの略)等の着脱自在な様々な形態の外部記憶媒体を利用する記憶装置であってもよい。若しくは、RAM等の半導体メモリであってもよい。
制御部1は、図示を省略したCPU、ROM 、RAMなどからなる独立したコンピュータにより構成されてなり、記憶部Mに記憶された中から任意のアプリケーションソフトウェアプログラムを実行することが可能である。本実施形態では、後述する伴奏生成処理(図2参照)を実行することによって、図1に示したMIDI再生部2、オーディオ再生部3、拍位置抽出部4、スタイル決定部5、データ生成部6に相当する各機能を実現する。
MIDI再生部2は、複数のトラック(パート)毎にオーディオ信号の同時発生が可能であり、記憶部Mからスタイルデータ(MIDIデータ)を取得し、該取得したスタイルデータを再生することによりオーディオ信号を生成する。この実施形態において、MIDI再生部2は記憶部Mに記憶された全ての伴奏スタイルデータに関してリズムパート(打楽器パート)のスタイルデータのみを選択的に再生することにより、リズムパートに関してのみ1小節分の長さのオーディオ信号を生成するようになっている。生成したオーディオ信号は、デジタル信号化によりオーディオデータ(以下、「スタイルオーディオデータ」と記す)に変換してから記憶部Mに記憶するために出力する。なお、MIDI再生部2の楽音合成方式は波形メモリ方式、FM方式、物理モデル方式、高調波合成方式、フォルマント合成方式等のどのような方式を採用してもよく、またこれらの各種楽音合成方式のいずれを単独または複数を組み合わせたものであってもよい。
オーディオ再生部3は、記憶部Mから曲データ(オーディオデータ)やスタイルオーディオデータを取得し、これらを所定の演奏テンポに基づき再生してそれぞれのオーディオ信号を生成する。オーディオ再生部3は、生成したオーディオ信号を打楽器成分(非調波音とも呼ぶ)と非打楽器成分(調波音とも呼ぶ)とに分離することができるようになっている。ここでは曲データに基づきオーディオ信号を生成する場合に、分離した打楽器成分のオーディオ信号のみを拍位置抽出部4又はスタイル決定部5に供給するようにしている。なお、オーディオ信号を打楽器成分と非打楽器成分とに分離する方法には種々の方法があるが、それらは公知であることからここでの説明を省略する。
なお、上記したMIDI再生部2やオーディオ再生部3はコンピュータプログラムの形態に限らず、DSP(ディジタル・シグナル・プロセッサ)によって処理されるマイクロプログラムの形態でも実施可能であり、また、この種のプログラムの形態に限らず、ディスクリート回路又は集積回路若しくは大規模集積回路等を含んで構成された専用ハードウエア装置の形態で実施してもよい。
拍位置抽出部4は、オーディオ再生部3により分離された打楽器成分のオーディオ信号のビート検出を行って拍位置を抽出する(例えば図3(a)参照)。抽出した拍位置は、記憶部Mに記憶する(図中では拍情報と記した)。拍情報は曲データの再生開始時刻からの経過時間を表すタイミングデータからなり、例えば曲データにおいて拍位置に該当する位置にあるサンプリング波形を示す位置情報(サンプル番号など)や時/分/秒/ミリ秒といった時間情報などで示される。なお、ビート検出による拍位置の抽出方法には種々の方法があるが、公知であることからここでの説明を省略する。なお、既に曲データから抽出された拍位置が曲データ内あるいは記憶部M等に記憶済みである場合には、上記したビート検出を行わずにそれらを曲データあるいは記憶部Mから取得することにより抽出すればよい(ただし、記憶済みの拍位置が必ずしも正しいとは限らず、誤っていることもある)。
スタイル決定部5は、以下に示す処理を経て、曲データの中で演奏されている演奏パターンに最も類似するパターンを有した伴奏スタイル(より詳しくはスタイルデータ)の特定を小節単位に行う。以下、説明する。
スタイル決定部5は、まずオーディオ再生部3から曲データの再生に伴って生成される打楽器成分のオーディオ信号を取得する一方、記憶部Mから記憶済みの拍情報を取得して、該取得した拍情報に基づき打楽器成分のオーディオ信号をスタイルの長さ(ここでは例えば4拍)にあわせた拍数分ずつ順に切り出して断片化する。このとき、再生中の曲進行に合わせて所定の拍数(例えば1拍)分ずつ切り出し開始位置をずらしながら、スタイルの長さ(拍数)と同じ拍数分ずつ打楽器成分のオーディオ信号(以下、「区間信号」と記す)を切り出していく。ここに示す例では、「1〜4拍の区間」、「2〜5拍の区間」、「3〜6拍の区間」、「4〜7拍の区間」…といった具合に、一部波形が重複する部分を含むように打楽器成分のオーディオ信号が4拍分ずつ断片化されて切り出される(例えば図3(b)参照)。
スタイル決定部5は、切り出した区間信号の1つ1つと、記憶部Mに記憶された全てのスタイルオーディオデータに基づいてオーディオ再生部3で順次に生成される複数のオーディオ信号(以下、「スタイル信号」と記す)それぞれとを比較する。すなわち、個々の区間信号に対する記憶部Mに記憶されている全ての伴奏スタイルのスタイルデータ(ただし、リズムパートのもの)との総当りでマッチングを行うことにより、個々の区間信号毎に多数のスタイル信号各々との類似度を求める。こうすると、例えば「1〜4拍の区間」の区間信号に対して「(ロック,ポップ,ジャズ等)メインAスタイルデータ」に基づき生成されたスタイル信号との類似度が「80%」、「(ロック,ポップ,ジャズ等)メインBスタイルデータ」に基づき生成されたスタイル信号との類似度が「65%」、「5〜8拍の区間」の区間信号に対して「(ロック,ポップ,ジャズ等)メインAスタイルデータ」に基づき生成されたスタイル信号との類似度が「90%」、「(ロック,ポップ,ジャズ等)メインBスタイルデータ」に基づき生成されたスタイル信号との類似度が「35%」などのように、個々の区間信号と各スタイル信号の類似度ひいては各スタイル信号の元となったスタイルデータとの類似度が求まる。
なお、上記した区間信号とスタイル信号といった2つのオーディオ信号を比較してそれらの信号の類似度を求める方法は公知であるからここでの説明を省略するが、一例を挙げるなら、例えば2つのオーディオ信号の音量の時間変化の包絡線(エンベロープ)をそれぞれ求め、2つのオーディオ信号は同じ所定拍数(例えば4拍)であるものとみなしてこれらのオーディオ信号の時間方向の長さを正規化して一致させてから、前記求めた包絡線を比較することによりそれらの信号の類似度を計算する方法などがある。
次に、スタイル決定部5は重なり合わずかつ隙間ない区間信号の組み合わせを決定する。ここで、重なり合わずかつ隙間ない区間信号の組み合わせとは、区間信号を構成する拍数(この例では4拍)ごとにとびとびに切り出された区間信号の組み合わせである。例えば「1〜4拍の区間」、「5〜8拍の区間」、「9〜12拍の区間」…の各区間信号の組み合わせ、「2〜5拍の区間」、「6〜9拍の区間」、「10〜13拍の区間」…の各区間信号の組み合わせ、「3〜6拍の区間」、「7〜10拍の区間」、「11〜14拍の区間」…の各区間信号の組み合わせ、「4〜7拍の区間」、「8〜11拍の区間」、「12〜15拍の区間」…の各区間信号の組み合わせの計4系列の組み合わせが決定される(例えば図3(b)参照)。つまりは、スタイルの長さ(拍数)に応じた数の系列の組み合わせが決定される。例えばスタイルの長さが「3拍」である場合には「3」系列の組み合わせが決定されるし、スタイルの長さが「8拍」である場合には「8」系列の組み合わせが決定される。
上記のようにして決定した4系列の組み合わせのうち、各区間信号毎の任意のスタイルデータとの類似度の平均値が最も高いいずれか1つの組み合わせを決定する。すなわち、各区間信号毎の各スタイルデータの相関の高いいずれかの組み合わせを決定する。そして、前記決定した各スタイルデータの相関が高いいずれかの組み合わせを元に拍位置を更新すると共に、該更新した拍位置に基づき小節線を確定する。一例として、「1〜4拍の区間」、「5〜8拍の区間」、「9〜12拍の区間」…の各区間信号の組み合わせに決定された場合には拍位置の更新を行わなくてよいが、例えば「3〜6拍の区間」、「7〜10拍の区間」、「11〜14拍の区間」…の各区間信号の組み合わせに決定された場合には、抽出した「3拍」目を「1拍」目として後続する拍をそれぞれ更新し、元の「3〜6拍」が第1小節、「7〜10拍」が第2小節、「11〜14拍」が第3小節…となる小節線の確定が行われる。
ところで、既に説明したように一般的に音響信号をビート検出する際には誤った拍子で抽出してしまうことがあり、その場合には上述したように区間信号にスタイル信号をマッチングさせて類似度を求めたとしてもその類似度は正しいものとは限らず、それに基づきスタイルを決定するとなれば最適でないスタイルに決定されてしまう恐れが大きい。そこで、この実施形態ではその問題に対処するために、スタイル決定部5において、拍情報に基づき打楽器成分のオーディオ信号をスタイルの長さの等倍(例えば4拍分)にあわせた拍数分ずつ順に切り出して断片化することに加えて、スタイルの長さの定倍(例えば、1/2倍や2倍など)にあわせた拍数分ずつ順に切り出して断片化し、それらについても重なり合わずかつ隙間ない区間信号の組み合わせを決定するようにしている(例えば図3(c)及び図3(d)参照)。そして、これら等倍、1/2倍、2倍で切り出した各区間信号をそれぞれ組み合わせた複数系列データ(この例では各4系列の計12系列)のうち各スタイルデータの相関の高いいずれかの組み合わせ(系列データ)を決定し、これに基づき拍位置を更新して該更新した拍位置に基づき小節線を確定するようにしている。
データ生成部6は、前記決定した小節線と前記特定したスタイルデータとに基づき伴奏進行データを生成する。ここで生成する伴奏進行データは、前記決定した小節線に対応する時間位置を表すタイミングデータと、前記決定した小節線によって示される各小節毎に前記区間信号毎に求めた最も類似度の高いスタイルデータを指し示す情報(例えば伴奏スタイル名及びセクション名など)とが組み合わされて、演奏進行順に配列されたデータである。
次に、図1に示した各機能を実現する伴奏進行生成処理について、図2及び図3を用いて説明する。図2は、伴奏進行生成処理の一実施例を示すフローチャートである。この「伴奏進行生成処理」は、ユーザによる「伴奏進行データ」の自動生成指示操作などに応じて制御部1(より具体的にはコンピュータ)によって実行される。図3は、スタイル決定について説明するための概念図である。
ステップS1は、記憶部Mに記憶されている伴奏スタイルデータを順に取得し、所定の演奏テンポに応じて各伴奏スタイルデータに含まれている打楽器パートのスタイルデータを選択的に再生することによりスタイルオーディオデータを生成し、該生成したスタイルオーディオデータをRAM等の記憶部Mに記憶する。すなわち、曲データとのパターン比較に用いるために、スタイルデータの形式(MIDIデータ)を曲データのデータ形式(オーディオ形式)に変換して記憶しておく。
ステップS2は、記憶部Mに記憶されている曲データのうち例えばユーザにより選択された曲データを取得し、該取得した曲データに基づき打楽器成分のオーディオ信号のみを分離して取り出す。すなわち、曲データにおいて主に演奏パターンを反映しているパートはリズムパートであるので、予め曲データのうち打楽器成分と非打楽器成分とを分離して打楽器成分(つまりはリズムパート)のみを利用できるようにしておく。なお、打楽器成分と非打楽器成分とを分離するための前処理として、例えばボーカルを除去しておくなどの処理を行ってもよいことは言うまでもない。
ステップS3は、取り出した打楽器成分のオーディオ信号をビート検出等により解析して拍位置を抽出する。図3(a)に、打楽器成分のオーディオ信号と抽出された拍位置の一例を示す。図中に付した符号「1」〜「9」は、ビート検出により得られた拍位置を便宜的に示すものである。拍位置の抽出方法は公知であるが一例を簡単に説明すると、例えば図3(a)に示すように先頭のビート位置「1」を最初に決定しておき、2番目のビート位置「2」を先頭のビート位置「1」から所定のビート間隔だけ離れた位置付近であってかつ相関が取れる位置に決定する。後続する各ビートの位置(例えば3番目)については、前のビート位置(例えば2番目)から所定のビート間隔だけ離れた位置付近であってかつ相関が取れる位置に順番に決定していけばよい。
図2の説明に戻って、ステップS4は切り出す打楽器成分の曲データの比較長さ(区間)を決める。すなわち、曲データとスタイルデータとをマッチングするために、拍情報に基づき打楽器成分のオーディオ信号をスタイルの長さにあわせた拍数分ずつ順に切り出して断片化するための長さ(区間)を決める。ただし、この実施形態では拍位置が正しく抽出されていない場合を考慮して、スタイルの長さの等倍(4拍)の他に、1/2倍(2拍)や2倍(8拍)の拍数分ずつの長さにも切り出して断片化するようにしている。すなわち、打楽器成分のオーディオ信号をビート検出により解析して拍位置を抽出するときに、拍が正しく検出されないことがある。例えば、正しいテンポが60bpmである曲データから「4拍」分の長さの区間を切り出す場合を考える。四分音符の長さを正しく拍として抽出すれば、正しいテンポである60bpmが検出され、その4拍分である4秒間の区間が切り出される。ところが、より大まかな二分音符の長さを誤って拍として抽出してしまうと、半テンポである30bpmが誤って検出され、誤った4拍分である8秒間の区間が切り出されてしまう。あるいは、より細かい八分音符の長さを誤って拍として抽出してしまうと、倍テンポである120bpmが誤って検出され、誤った4拍分である2秒間の区間が切り出されてしまう。このように半テンポや倍テンポにて拍が検出されてしまうことがあることを考慮して、1拍の長さをビート検出により抽出された長さの1/2倍や2倍とする、つまりは正常テンポの4拍分の長さに相当するだけの拍数分ずつの長さにも打楽器成分のオーディオ信号を切り出して断片化する。そうであるならば、1/2倍や2倍に限らないのは言うまでもない。
ステップS5は、切り出し開始位置から前記決定した比較長さ分(区間)だけ打楽器成分のオーディオ信号を切り出すことにより区間信号を生成する。初回の切り出し開始位置はビート検出時に求めた先頭のビート位置であるが、この実施形態において以降の切り出し開始位置は後述するように初回の切り出し開始位置から1拍分ずらした位置とする(後述のステップS8参照)。ステップS6は、切り出した打楽器成分の曲データ(区間信号)と記憶部Mに記憶された全てのスタイルオーディオデータとを比較して、それぞれの類似度を計算して記憶部Mに記憶する。
ステップS7は、打楽器成分の曲データの最後までに関し上記ステップS5及びステップS6の処理を行ったか否かを判定する。打楽器成分の曲データの最後まで上記各処理を行ったと判定した場合には(ステップS7のYES)、ステップS9の処理に進む。一方、打楽器成分の曲データの最後まで上記各処理を行っていないと判定した場合には(ステップS7のNO)、切り出し開始位置を1拍分ずらした位置としてから(ステップS8)、上記ステップS5の処理に戻る。すなわち、打楽器成分の曲データの最後まで上記各処理を行うまでステップS5及びS6の処理を繰り返す。
ステップS9は、切り出した打楽器成分の曲データ(区間信号)が重なりあわずかつ隙間ない組み合わせのうち、類似度の平均が高い組み合わせを求める。ここで、区間信号が重なりあわずかつ隙間ない組み合わせとして、例えばスタイルの長さの等倍(4拍)で打楽器成分の曲データを切り出した場合には、図3(b)に示すように、「1〜4拍の区間」(Audio1)、「5〜8拍の区間」(Audio5)、「9〜12拍の区間」(Audio9)…の各区間信号からなる組み合わせ(第1系列データ)、「2〜5拍の区間」(Audio2)、「6〜9拍の区間」(Audio6)、「10〜13拍の区間」(Audio10)…の各区間信号の組み合わせ(第2系列データ)、「3〜6拍の区間」(Audio3)、「7〜10拍の区間」(Audio7)…の各区間信号の組み合わせ(第3系列データ)、「4〜7拍の区間」(Audio4)、「8〜11拍の区間」(Audio8)…「(N−3)〜N拍の区間」(AudioN)の各区間信号の組み合わせ(第4系列データ)の計4系列の組み合わせが決定される。なお、スタイルの長さの1/2倍(2拍)で打楽器成分の曲データを切り出した場合を図3(c)に、スタイルの長さの2倍(8拍)で打楽器成分の曲データを切り出した場合を図3(d)に示してある。
上述したように、記憶部Mには、Audio1〜AudioNの各区間信号毎に全てのスタイルオーディオデータとの比較により計算された類似度が記憶されている。そこで、まず上記4系列の各データを構成する各区間信号毎に最も類似度の高いスタイルデータを特定する。例えば第1系列データに関し、Audio1に対して「(ロック,ポップ,ジャズ等)メインAスタイルデータ」との類似度が「80%」、「(ロック,ポップ,ジャズ等)メインBスタイルデータ」との類似度が「65%」、「(ロック,ポップ,ジャズ等)メインCスタイルデータ」との類似度が「70%」であり、Audio5に対して「(ロック,ポップ,ジャズ等)メインAスタイルデータ」との類似度が「50%」、「(ロック,ポップ,ジャズ等)メインBスタイルデータ」との類似度が「35%」、「(ロック,ポップ,ジャズ等)メインCスタイルデータ」との類似度が「70%」である場合には、Audio1に対して「(ロック,ポップ,ジャズ等)メインAスタイルデータ」が、Audio2に対して「(ロック,ポップ,ジャズ等)メインCスタイルデータ」が特定され、この場合における当該系列の類似度の平均値は「75%」となる。このようにして、残りの第2系列〜第4系列の各データについても同様に類似度の平均値を求め、これらを比較することによって例えば図3(b)に示した4系列の組み合わせのうち類似度の平均値が高いいずれか1つの系列データを求める。
図2の説明に戻り、ステップS10は、打楽器成分の曲データの比較長さ(例えば、伴奏スタイルの等倍、1/2倍、2倍)の全てについて上記ステップS5〜S9の処理を行ったか否かを判定する。打楽器成分の曲データの比較長さ(例えば、伴奏スタイルの等倍、1/2倍、2倍)の全てについて上記ステップS5〜S9の処理を行っていないと判定した場合には(ステップS10のNO)、ステップS4の処理に戻ってステップS4〜S10の処理を繰り返す。
打楽器成分の曲データの比較長さ(例えば、伴奏スタイルの等倍、1/2倍、2倍)の全てについて上記ステップS5〜S9の処理を行ったと判定した場合には(ステップS10のYES)、類似度の平均が高い比較長さそれぞれのうち最も平均の高い比較長さの組みあわせを選択する(ステップS11)。例えば図3(b)〜図3(c)に示した12系列の組み合わせのうち、類似度の平均値が高いいずれか1つの系列データが選択される。ステップS12は、選択した最も平均の高い組み合わせに基づいて拍位置を更新すると共に小節線を決定する。ここで、スタイルの長さの等倍(4拍)ではなく、1/2倍(2拍)や2倍(8拍)の長さに切り出した区間信号の組み合わせのいずれかが選択された場合には、ビート検出により抽出した拍位置が誤っているものとして拍位置の更新を行う。例えば、1/2倍(2拍)に切り出した区間信号の組み合わせが選択された場合には、各区間信号を2拍ではなく4拍分の長さであるとしてビート検出により抽出された拍位置の更新を行う(2拍分追加する)。一方、2倍(8拍)に切り出した区間信号の組み合わせが選択された場合には、各区間信号を8拍ではなく4拍分の長さであるとしてビート検出により抽出された拍位置の更新を行う(4拍分減らす)。
ステップS13は、伴奏進行データを生成する。伴奏進行データは、小節線に対応するタイミングデータと確定したスタイルデータを示す伴奏スタイル指示情報とを含む。伴奏進行データに設定されるスタイルデータは、類似度の平均が最も高い比較長さの組みあわせの選択に応じて(ステップS11参照)、自動的に最も類似度の高いスタイルデータに決まる。図3(e)は、伴奏スタイル指示情報を伴奏スタイル名(StyleA,StyleB,StyleCなど)とセクション名(MainA,MainB,MainC,Ending)との組み合わせにより表した例である。このようにして、伴奏スタイル毎に分類されたイントロ、メイン、エンディング等のセクションデータのうち、どの伴奏スタイルのどのセクションデータをどのような順番で演奏するかを示す伴奏進行データが自動的に生成される。
以上のように、本発明に係る伴奏進行生成装置では、曲データの拍位置を抽出し、該抽出した拍位置に基づいて曲データを同じ拍数からなる複数の区間データに分割する。このとき、予め記憶されているパターンデータの拍数に応じた異なる拍単位に曲データを分割することにより、1つの曲データに基づいて同じ拍数からなる複数の区間データを組み合わせた系列データを複数生成するようにした(図3(b)〜図3(d)参照)。これら複数の系列データ各々に含まれる各区間データと予め記憶されている複数のパターンデータとを比較して演奏パターンの類似度を算出し、前記区間データ毎に算出した類似度の最も高いパターンデータを特定する。それから、各系列データのうち特定したパターンデータの相関が高いいずれかの系列データを選択する。この選択に応じて伴奏スタイルが特定される。そして、選択した系列データに基づいて拍位置を更新すると共に、該更新した拍位置に従って小節線位置を確定する。このようにすることによって、例え誤った拍位置が抽出されたとしても、曲データの中で演奏されている演奏パターンに最も類似するパターンを有する伴奏スタイルを適切に特定することができるようになる。また、確定した小節線位置は上述したように演奏進行順にスタイルデータを並べた伴奏進行データ以外の他のデータの生成等にも利用することができる。例えば、確定した小節線位置は、リズムパート以外のパートのスタイルデータに基づき伴奏を行う際に参照するコードが演奏進行順に並べられたコード進行データ(伴奏進行データ)において各コードを反映するタイミングを決めるために利用してよい。
以上、図面に基づいて実施形態の一例を説明したが、本発明はこれに限定されるものではなく、様々な実施形態が可能であることは言うまでもない。例えば、上述した実施例では、曲データがオーディオデータでありスタイルデータがMIDIデータである場合を例に示したがこれに限らず、曲データがMIDIデータでありスタイルデータがオーディオデータである場合であってもよい。あるいは、曲データ及びスタイルデータの両方ともがMIDIデータ又はオーディオデータであってもよい。特に、スタイルデータは繰り返し再生(ループ再生)されるドラムのみのオーディオデータであって、拍数の分かる(又は抽出可能な)データからなるものであってよい。スタイルデータがオーディオデータである場合にはデータの形式を変換する必要がないので、図2のステップS1の処理を行わなくてよい。他方、曲データがMIDIデータである場合には、図2のステップS2の処理を行う前に、データの形式をMIDIからオーディオに変換する処理を行う必要があるのは勿論である。
なお、上述のスタイルデータは、典型的には複数パートの演奏データでありコード指定に応じて音高が加工されて楽音生成に使われるが、複数の打楽器音などからなり押鍵による指示によって鳴らす楽器音を増減させるアルペジオタイプのようなものであってもよい。
なお、上述したようにして、区間信号が重なりあわずかつ隙間ない組み合わせのうち類似度の平均が高い組み合わせに応じて自動的に特定されるスタイルデータを伴奏進行データに設定することに限らず、該当する区間信号毎に求められた類似度の高いいくつかのスタイルデータを候補としてユーザに提示し、該提示した候補の中からユーザが任意のスタイルデータを選択して伴奏進行データに設定することのできるようになっていてもよい。
1…制御部、2…MIDI再生部、3…オーディオ再生部、4…拍位置抽出部、5…スタイル決定部、6…データ生成部、M…記憶部

Claims (4)

  1. 同じ拍数の異なる演奏パターンからなる複数のパターンデータを記憶する記憶手段と、
    曲データを取得する取得手段と、
    前記取得した曲データの拍位置を抽出する抽出手段と、
    前記抽出した拍位置に基づいて前記曲データを同じ拍数からなる複数の区間データに分割する分割手段であって、該分割手段は、前記パターンデータの拍数に応じた異なる拍単位に前記曲データを分割するものと、
    前記各区間データと前記複数のパターンデータとを比較し、演奏パターンの類似度を算出する算出手段と、
    前記区間データ毎に前記算出した類似度の最も高いパターンデータを特定すると共に、前記曲データを異なる拍単位に分割した複数の区間データの組み合わせのうち、前記特定したパターンデータの相関が高い区間データの組み合わせを選択する選択手段と、
    前記選択した区間データの組み合わせに基づいて前記抽出した拍位置を更新すると共に、該更新した拍位置に従って前記曲データにおける小節線位置を確定する位置確定手段と
    を備える伴奏進行生成装置。
  2. 前記分割手段は、前記曲データを分割位置が1拍ずつずれた複数の区間データに分割することを特徴とする請求項1に記載の伴奏進行生成装置。
  3. 前記確定した小節線位置を表すタイミングデータと、前記特定した類似度の最も高いパターンデータとを含んでなる伴奏進行データを生成する生成手段をさらに備える請求項1又は2に記載の伴奏進行生成装置。
  4. コンピュータに、
    同じ拍数の異なる演奏パターンからなる複数のパターンデータを所定の記憶手段に記憶する手順と、
    曲データを取得する手順と、
    前記取得した曲データの拍位置を抽出する手順と、
    前記抽出した拍位置に基づいて前記曲データを同じ拍数からなる複数の区間データに分割する手順であって、該手順は、前記パターンデータの拍数に応じた異なる拍単位に前記曲データを分割するものと、
    前記各区間データと前記複数のパターンデータとを比較し、演奏パターンの類似度を算出する手順と、
    前記区間データ毎に前記算出した類似度の最も高いパターンデータを特定すると共に、前記曲データを異なる拍単位に分割した複数の区間データの組み合わせのうち、前記特定したパターンデータの相関が高い区間データの組み合わせを選択する手順と、
    前記選択した区間データの組み合わせに基づいて前記抽出した拍位置を更新すると共に、該更新した拍位置に従って前記曲データにおける小節線位置を確定する手順と
    を実行させるプログラム。
JP2012170313A 2012-07-31 2012-07-31 伴奏進行生成装置及びプログラム Active JP6047985B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012170313A JP6047985B2 (ja) 2012-07-31 2012-07-31 伴奏進行生成装置及びプログラム
US13/956,165 US9378719B2 (en) 2012-07-31 2013-07-31 Technique for analyzing rhythm structure of music audio data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012170313A JP6047985B2 (ja) 2012-07-31 2012-07-31 伴奏進行生成装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2014029425A true JP2014029425A (ja) 2014-02-13
JP6047985B2 JP6047985B2 (ja) 2016-12-21

Family

ID=50024189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012170313A Active JP6047985B2 (ja) 2012-07-31 2012-07-31 伴奏進行生成装置及びプログラム

Country Status (2)

Country Link
US (1) US9378719B2 (ja)
JP (1) JP6047985B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016020961A (ja) * 2014-07-14 2016-02-04 ヤマハ株式会社 演奏装置及び演奏プログラム
JP2016191855A (ja) * 2015-03-31 2016-11-10 カシオ計算機株式会社 ジャンル選択装置、ジャンル選択方法、プログラムおよび電子楽器
JP2019008336A (ja) * 2018-10-23 2019-01-17 ヤマハ株式会社 演奏装置、演奏プログラム、及び演奏パターンデータ生成方法
WO2019043797A1 (ja) * 2017-08-29 2019-03-07 Pioneer DJ株式会社 楽曲解析装置および楽曲解析プログラム
CN110415730A (zh) * 2019-07-25 2019-11-05 深圳市平均律科技有限公司 一种音乐分析数据集构建方法及基于其的音高、时值提取方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9160837B2 (en) 2011-06-29 2015-10-13 Gracenote, Inc. Interactive streaming content apparatus, systems and methods
CN108335688B (zh) * 2017-12-28 2021-07-06 广州市百果园信息技术有限公司 音乐中主节拍点检测方法及计算机存储介质、终端
JP2020170939A (ja) * 2019-04-03 2020-10-15 ヤマハ株式会社 音信号処理装置、及び音信号処理方法
CN111653256B (zh) * 2020-08-10 2020-12-08 浙江大学 一种基于编码-解码网络的音乐伴奏自动生成方法及其系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004127019A (ja) * 2002-10-03 2004-04-22 Sony Corp 情報処理装置および画像表示制御方法と画像表示制御プログラム
JP2005227850A (ja) * 2004-02-10 2005-08-25 Toshiba Corp 情報処理装置、情報処理方法及びプログラム
JP2008275975A (ja) * 2007-05-01 2008-11-13 Kawai Musical Instr Mfg Co Ltd リズム検出装置及びリズム検出用コンピュータ・プログラム
JP2010113278A (ja) * 2008-11-10 2010-05-20 Yamaha Corp 楽曲処理装置およびプログラム
WO2012074070A1 (ja) * 2010-12-01 2012-06-07 ヤマハ株式会社 リズムパターンの類似度に基づく楽音データの検索

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2550825B2 (ja) * 1992-03-24 1996-11-06 ヤマハ株式会社 自動伴奏装置
US5495073A (en) * 1992-05-18 1996-02-27 Yamaha Corporation Automatic performance device having a function of changing performance data during performance
US5457282A (en) * 1993-12-28 1995-10-10 Yamaha Corporation Automatic accompaniment apparatus having arrangement function with beat adjustment
JP3196604B2 (ja) * 1995-09-27 2001-08-06 ヤマハ株式会社 和音分析装置
US6175072B1 (en) * 1998-08-05 2001-01-16 Yamaha Corporation Automatic music composing apparatus and method
JP3557917B2 (ja) * 1998-09-24 2004-08-25 ヤマハ株式会社 自動作曲装置および記憶媒体
JP3531507B2 (ja) 1998-11-25 2004-05-31 ヤマハ株式会社 楽曲生成装置および楽曲生成プログラムを記録したコンピュータで読み取り可能な記録媒体
JP3528654B2 (ja) * 1999-02-08 2004-05-17 ヤマハ株式会社 メロディ生成装置及びリズム生成装置と記録媒体
JPWO2004019197A1 (ja) * 2002-08-22 2005-12-15 松下電器産業株式会社 リズムパターンを用いた制御システム、方法およびプログラム
WO2005050137A2 (en) * 2003-11-17 2005-06-02 Gsi Lumonics Corporation Absolute encoder employing concatenated, multi-bit, interpolated sub-encoders
JP2005227628A (ja) * 2004-02-13 2005-08-25 Matsushita Electric Ind Co Ltd リズムパターンを用いた制御システム、方法およびプログラム
US7026536B2 (en) * 2004-03-25 2006-04-11 Microsoft Corporation Beat analysis of musical signals
JP2006106818A (ja) * 2004-09-30 2006-04-20 Toshiba Corp 音楽検索装置、音楽検索方法及び音楽検索プログラム
US7193148B2 (en) * 2004-10-08 2007-03-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating an encoded rhythmic pattern
JP2008090633A (ja) * 2006-10-02 2008-04-17 Sony Corp 動きデータ生成装置、動きデータ生成方法及び動きデータ生成プログラム
JP5982980B2 (ja) * 2011-04-21 2016-08-31 ヤマハ株式会社 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記憶媒体
JP5970934B2 (ja) * 2011-04-21 2016-08-17 ヤマハ株式会社 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記録媒体
US9263018B2 (en) * 2013-07-13 2016-02-16 Apple Inc. System and method for modifying musical data
US9251773B2 (en) * 2013-07-13 2016-02-02 Apple Inc. System and method for determining an accent pattern for a musical performance

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004127019A (ja) * 2002-10-03 2004-04-22 Sony Corp 情報処理装置および画像表示制御方法と画像表示制御プログラム
JP2005227850A (ja) * 2004-02-10 2005-08-25 Toshiba Corp 情報処理装置、情報処理方法及びプログラム
JP2008275975A (ja) * 2007-05-01 2008-11-13 Kawai Musical Instr Mfg Co Ltd リズム検出装置及びリズム検出用コンピュータ・プログラム
JP2010113278A (ja) * 2008-11-10 2010-05-20 Yamaha Corp 楽曲処理装置およびプログラム
WO2012074070A1 (ja) * 2010-12-01 2012-06-07 ヤマハ株式会社 リズムパターンの類似度に基づく楽音データの検索

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016020961A (ja) * 2014-07-14 2016-02-04 ヤマハ株式会社 演奏装置及び演奏プログラム
JP2016191855A (ja) * 2015-03-31 2016-11-10 カシオ計算機株式会社 ジャンル選択装置、ジャンル選択方法、プログラムおよび電子楽器
WO2019043797A1 (ja) * 2017-08-29 2019-03-07 Pioneer DJ株式会社 楽曲解析装置および楽曲解析プログラム
JPWO2019043797A1 (ja) * 2017-08-29 2020-10-01 AlphaTheta株式会社 楽曲解析装置および楽曲解析プログラム
US11176915B2 (en) 2017-08-29 2021-11-16 Alphatheta Corporation Song analysis device and song analysis program
JP2019008336A (ja) * 2018-10-23 2019-01-17 ヤマハ株式会社 演奏装置、演奏プログラム、及び演奏パターンデータ生成方法
CN110415730A (zh) * 2019-07-25 2019-11-05 深圳市平均律科技有限公司 一种音乐分析数据集构建方法及基于其的音高、时值提取方法

Also Published As

Publication number Publication date
JP6047985B2 (ja) 2016-12-21
US9378719B2 (en) 2016-06-28
US20140033902A1 (en) 2014-02-06

Similar Documents

Publication Publication Date Title
JP6047985B2 (ja) 伴奏進行生成装置及びプログラム
Bittner et al. Medleydb: A multitrack dataset for annotation-intensive mir research.
JP4949687B2 (ja) ビート抽出装置及びビート抽出方法
JP4823804B2 (ja) コード名検出装置及びコード名検出用プログラム
JP4767691B2 (ja) テンポ検出装置、コード名検出装置及びプログラム
US8946534B2 (en) Accompaniment data generating apparatus
JP4613923B2 (ja) 楽音処理装置およびプログラム
JP2002116754A (ja) テンポ抽出装置、テンポ抽出方法、テンポ抽出プログラム及び記録媒体
JP5229998B2 (ja) コード名検出装置及びコード名検出用プログラム
JP6151121B2 (ja) コード進行推定検出装置及びコード進行推定検出プログラム
JP6565528B2 (ja) 自動アレンジ装置及びプログラム
JP2019200427A (ja) 自動アレンジ方法
JP2008065153A (ja) 楽曲構造解析方法、プログラムおよび装置
JP6263383B2 (ja) 音声信号処理装置、音声信号処理装置の制御方法、プログラム
JP6263382B2 (ja) 音声信号処理装置、音声信号処理装置の制御方法、プログラム
JP5005445B2 (ja) コード名検出装置及びコード名検出用プログラム
JP3750533B2 (ja) 波形データ録音装置および録音波形データ再生装置
JP5287617B2 (ja) 音響処理装置およびプログラム
JP5153517B2 (ja) コード名検出装置及びコード名検出用コンピュータ・プログラム
JP4926044B2 (ja) 音信号の特徴を記述する装置および方法
JP6056799B2 (ja) プログラム、情報処理装置、及びデータ生成方法
JP6252421B2 (ja) 採譜装置、及び採譜システム
JP6424907B2 (ja) 演奏情報検索方法を実現するためのプログラム、当該演奏情報検索方法および演奏情報検索装置
JP4186802B2 (ja) 自動伴奏生成装置及びプログラム
JP6183002B2 (ja) 演奏情報解析方法を実現するためのプログラム、当該演奏情報解析方法および演奏情報解析装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161107

R151 Written notification of patent or utility model registration

Ref document number: 6047985

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151