JP2023098055A - 自動演奏装置および自動演奏プログラム - Google Patents
自動演奏装置および自動演奏プログラム Download PDFInfo
- Publication number
- JP2023098055A JP2023098055A JP2021214552A JP2021214552A JP2023098055A JP 2023098055 A JP2023098055 A JP 2023098055A JP 2021214552 A JP2021214552 A JP 2021214552A JP 2021214552 A JP2021214552 A JP 2021214552A JP 2023098055 A JP2023098055 A JP 2023098055A
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- input
- probability
- likelihood
- performance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/40—Rhythm
- G10H1/42—Rhythm comprising tone forming circuits
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/18—Selecting circuits
- G10H1/26—Selecting circuits for automatically producing a series of tones
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/38—Chord
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/111—Automatic composing, i.e. using predefined musical rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/111—Automatic composing, i.e. using predefined musical rules
- G10H2210/115—Automatic composing, i.e. using predefined musical rules using a random process to generate a musical note, phrase, sequence or structure
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/341—Rhythm pattern selection, synthesis or composition
- G10H2210/356—Random process used to build a rhythm pattern
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/375—Tempo or beat alterations; Music timing control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/571—Chords; Chord sequences
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
- G10H2240/141—Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process
Abstract
【課題】演奏パターンを自動演奏する場合でも、単調さが抑制された表現力豊かな演奏を実現できる自動演奏装置および自動演奏プログラムを提供すること。【解決手段】演奏パターンPaには発音タイミングである拍位置毎に、発音させるノートが時系列順に記憶される。また発音確率パターンPbには、拍位置毎に当該拍位置において発音させる確率が記憶される。この発音確率パターンPbに記憶される確率に応じて、演奏パターンPaの拍位置毎に発音する/しないが決定される。このように、演奏パターンPaにおいて発音する/しないを発音確率パターンPbの確率によって変動させることができる。これにより、同一の演奏パターンPaを繰り返し自動演奏する場合でも、当該自動演奏が単調になるのが抑制され、表現力豊かな自動演奏を実現できる。【選択図】図2
Description
本発明は、自動演奏装置および自動演奏プログラムに関するものである。
特許文献1には、自動伴奏データの検索装置が開示されている。該装置では、利用者がリズム入力装置10の鍵盤を押鍵すると、押鍵されたこと即ち演奏操作がなされたことを示すトリガーデータと、押鍵の強度即ち当該演奏操作の強度を示すベロシティデータとが、1小節を単位とした入力リズムパターンとして情報処理装置20へ入力される。
情報処理装置20は、自動伴奏データを複数含んだデータベースを有している。自動伴奏データは、各々が固有のリズムパターンを持つ複数のパートで構成されている。情報処理装置20は、リズム入力装置10から入力リズムパターンを入力すると、その入力リズムパターンと同一又は類似したリズムパターンを持つ自動伴奏データを検索し、検索された自動伴奏データの名称等を一覧表示する。情報処理装置20は、その一覧表示から利用者によって選択された自動伴奏データに基づく音を出力する。
しかしながら、出力に用いられる自動伴奏データに含まれるリズムパターンは固定されている。従って、一旦自動伴奏データが選択されると同一のリズムパターンが繰り返し出力され続けるため、出力される自動伴奏データに基づく音が単調になるという問題点があった。
本発明は、上記問題点を解決するためになされたものであり、演奏パターンを自動演奏する場合でも、単調さが抑制された表現力豊かな演奏を実現できる自動演奏装置および自動演奏プログラムを提供することを目的としている。
この目的を達成するために本発明の自動演奏装置は、発音するノートの発音タイミングが設定される演奏パターンを自動演奏するものであり、前記演奏パターンの発音タイミング毎にノートを発音する確率が設定された発音確率パターンを取得する発音確率パターン取得手段と、前記発音確率パターン取得手段で取得された発音確率パターンに設定された発音タイミング毎の確率に基づき、前記演奏パターンの発音タイミング毎にノートを発音するかを決定して自動演奏を行う自動演奏手段と、を備えている。
本発明の自動演奏プログラムは、コンピュータに自動演奏を実行させるプログラムであり、発音するノートの発音タイミングが設定される演奏パターンの発音タイミング毎にノートを発音する確率が設定された発音確率パターンを取得する発音確率パターン取得ステップと、前記発音確率パターン取得ステップで取得された発音確率パターンに設定された発音タイミング毎の確率に基づき、前記演奏パターンの発音タイミング毎にノートを発音するかを決定して自動演奏を行う自動演奏ステップと、を前記コンピュータに実行させるものである。
以下、好ましい実施例について、添付図面を参照して説明する。図1は、一実施形態であるシンセサイザ1の外観図である。シンセサイザ1は、演奏者(ユーザ)の演奏操作による楽音や、所定の伴奏音等を混ぜ合わせて出力(放音)する電子楽器(自動演奏装置)である。シンセサイザ1は、演奏者の演奏による楽音や、伴奏音等を混ぜ合わせた波形データに対して演算処理を行うことで、リバーブやコーラス、ディレイ等の効果(エフェクト)を施すことができる。
図1に示す通り、シンセサイザ1には、主に鍵盤2と演奏者からの各種設定が入力される設定ボタン3とが配設される。鍵盤2には、複数の鍵2aが配設され、演奏者の演奏による演奏情報を取得するための入力装置である。演奏者による鍵2aの押鍵/離鍵操作に応じたMIDI(Musical Instrument Digital Interface)規格の演奏情報が、CPU10(図4参照)へ出力される。
本実施形態のシンセサイザ1には、発音タイミング毎に発音するノートが設定される演奏パターンPaが記憶され、その演奏パターンPaに基づいて演奏を行うことで自動演奏が行われる。その際、演奏パターンの発音タイミング毎におけるノートを発音するか否かが、当該発音タイミング毎に確率が設定された発音確率パターンPbに応じて切り替えられる。また、発音確率パターンPbにおいて発音タイミング毎に設定される確率は、演奏者による鍵2aからの演奏情報に応じて決定される。以下、演奏パターンPaに基づく自動演奏のことを、単に「自動演奏」と略す。
次に、図2,3を参照して、演奏パターンPa及び発音確率パターンPbを説明する。図2(a)は、演奏パターンPaを模式的に示した図であり、図2(b)は、発音確率パターンPbを模式的に示した図であり、図2(c)は、図2(a)の演奏パターンPaに図2(b)は発音確率パターンPbを適用した場合の演奏パターンPa’を模式的に表す図である。
図2(a)に示す通り、演奏パターンPaには発音タイミングである拍位置毎に、発音させるノートが時系列順に記憶される。演奏パターンPaに記憶される拍位置の順に対応するノートを演奏することで、演奏パターンPaによる自動演奏を行うことできる。
また、図2(b)に示す通り、発音確率パターンPbには、拍位置毎に当該拍位置のノートを発音させる確率(0~100%)が記憶される。この発音確率パターンPbに記憶される確率に応じて拍位置毎に発音する/しないが決定される。
図2(a)の演奏パターンPaに、図2(b)の発音確率パターンを適用することで、実際に自動演奏に用いられる演奏パターンPa’が作成される。かかる演奏パターンPa’を図2(c)に示す。
図2(c)の演奏パターンPa’においては、図2(a)では発音する拍位置だった拍位置B2,B5,B12,B14には、発音しないことを表す「-」がそれぞれ設定され、これらの拍位置では自動演奏において発音が行われない。一方で、図2(c)の演奏パターンPa’では、「発音しない」と決定された拍位置B2等には、発音確率パターンPbで0%より大きな確率が設定されているので、次回の自動演奏の際には「発音する」と決定される可能性がある。
このように、演奏パターンPaにおいて発音する/しないを発音確率パターンPbの拍位置毎に設定された確率によって決定することで、演奏パターンPaを自動演奏する度に発音が行われる拍位置を変動させることができる。これにより、同一の演奏パターンPaを繰り返し自動演奏する場合でも、当該自動演奏が単調になるのが抑制され、表現力豊かな自動演奏を実現できる。
本実施形態には、発音確率パターンPbの拍位置毎の確率を設定する手法(以下「動作モード」という)として、モード1とモード2との2つが設けられる。動作モードのうちのモード1は、発音確率パターンPbにおいて必ず発音する所定の拍位置には「100%」が設定され、その他の拍位置には、後述する鍵2aへの演奏情報の入力に基づいて最尤推定される入力パターンPiに応じた確率が設定される。以下、このような発音確率パターンPbのことを「変動発音確率パターン」という。
図2(d)は、モード1における変動発音確率パターンを模式的に示した図である。図2(d)に示す通り、変動発音確率パターンにおいて発音する拍位置には100%は設定され、それ以外の拍位置には、任意の確率が設定可能ないわゆるワイルドカードを表す「*」を設定される。変動発音確率パターンにおいて「*」が設定された拍位置には、鍵2aへの演奏情報の入力に基づいて最尤推定される入力パターンPiに応じた確率がそれぞれ設定される。
例えば、図2(d)においては、拍位置B2,B3,B5,B6,B8,B9,B11,B12,B14,B15に「*」が設定されているので、鍵2aへの演奏情報の入力に基づいて最尤推定される入力パターンPiに応じた確率が「50%」である場合、これらの拍位置のそれぞれに「50%」が設定される。
このように動作モードがモード1の場合、鍵2aへの演奏情報の入力に基づいて最尤推定される入力パターンPiに応じた確率、即ち演奏者の演奏に応じた確率が発音確率パターンPbに設定される。これにより、演奏者の演奏に応じて、演奏パターンPaの発音する/しないを切り替えることができるので、演奏者の演奏に合致した自動演奏を出力できる。また、発音確率パターンPbにおける全ての拍位置に、確率を設定する必要がないので、発音確率パターンPbを容易に作成することができる。
また、変動発音確率パターンにおいて、必ず発音させる拍位置には、予め「100%」が設定される。例えば、小節の先頭等、音楽的に意味のある拍位置に「100%」を設定することで、自動演奏の曲調やリズムを適切に維持することができる。
なお、変動発音確率パターンには、予め「100%」が設定されるものに限られず、「50%」や「75%」等、100%以下の確率が設定されても良い。また、変動発音確率パターンの「*」が設定された全ての拍位置に、鍵2aへの演奏情報の入力に基づいて最尤推定される入力パターンPiに応じた確率が設定されるものに限られず、変動発音確率パターンにおいて「*」が設定された一部の拍位置に当該確率が設定されても良い。
次に、動作モードがモード2の場合を説明する。モード2では、予め最尤推定される演奏パターンPaに対応する発音確率パターンPb(例えば図2(e))を複数記憶しておく。そして、記憶された発音確率パターンPbのうち、鍵2aへの演奏情報の入力に基づいて最尤推定される入力パターンPiに応じた発音確率パターンPbが取得され、自動演奏に用いられる。
このように動作モードがモード2の場合、予め記憶された発音確率パターンPbのうち、鍵2aへの演奏情報の入力に基づいて最尤推定される入力パターンPiに応じた発音確率パターンPbが取得される。これによっても、演奏者の演奏に応じて、演奏パターンPaの発音する/しないを切り替えることができ、演奏者の演奏に合致した自動演奏を出力できる。
また、発音確率パターンPbの各拍位置の確率が予め記憶される。発音確率パターンPbの各拍位置に設定される確率を、対応する(最尤推定の)入力パターンPiに応じて詳細に設定することで、発音確率パターンPbを演奏者の意図や嗜好に応じたものとすることができる。
ここで本実施形態の演奏パターンPaには、1つの拍位置に1つのノートが設定されるのみならず、1つの拍位置に複数のノートが和音として設定可能に構成される。和音が設定された場合の発音確率パターンPbの適用について、図3を参照して説明する。
図3(a)は、和音が含まれる演奏パターンPaを模式的に示した図であり、図3(b)は、図3(a)の演奏パターンPaに適用される発音確率パターンPbを模式的に示した図であり、図3(c),(d)は、それぞれ図3(a)の演奏パターンPaに図3(b)の発音確率パターンPbを適用した演奏パターンPa’を模式的に示した図である。
図3(a)に示す和音が含まれる演奏パターンPaに、図3(b)に示す発音確率パターンPbを適用する際、和音を構成するノートの1つ1つに該当する拍位置の発音確率パターンPbの確率が適用される。例えば、図3(a)の演奏パターンPaの拍位置B3においては、ド・ミ・ソによる3音の和音が設定されている。これら3音のそれぞれに図3(b)の発音確率パターンPbの拍位置B3の「30%」の確率が適用され、これら3音の発音する/しないが独立して決定される。
このように、図3(a)の演奏パターンPaに図3(b)の発音確率パターンPbを適用した場合の演奏パターンPa’を図3(c),(d)に示す。図3(a)の演奏パターンPaには、ド・ミ・ソによる3音の和音が連続して設定されるのに対し、図3(c),(d)の演奏パターンPa’では、ド・ミ・ソによる3音を拍位置毎の発音確率パターンPbの確率に応じて発音する/しないが設定される。
これにより、和音を構成する音を変動させることができるので、演奏パターンPaによる自動演奏が単調になるのをより抑制できると共に、当該和音を変化に富んだものとすることができる。また、和音を構成するノート毎に発音するか否かが決定されるので、和音を構成する全てのノートが発音されない事態を抑制することができる。これにより、自動演奏による和音の発音に対する違和感を抑制できる。
なお、和音を構成するノートの全てに、該当する拍位置の発音確率パターンPbの確率を適用するものに限られず、例えば、和音を構成するノートうちの特定のノート(例えば、最も音高が高いノートや、最も音高が低いノート)に発音確率パターンPbの確率を適用しても良い。また、発音確率パターンPbに、和音を構成するノート毎に確率を設定し、和音を構成するノートのそれぞれに対応する確率を適用しても良い。
次に、図4~図8を参照して、シンセサイザ1の電気的構成を説明する。図4は、シンセサイザ1の電気的構成を示すブロック図である。シンセサイザ1は、CPU10と、フラッシュROM11と、RAM12と、鍵盤2と、上記した設定ボタン3と、音源13と、Digital Signal Processor14(以下「DSP14」と称す)とを有し、それぞれバスライン15を介して接続される。DSP14にはデジタルアナログコンバータ(DAC)16が接続され、そのDAC16にはアンプ17が接続され、アンプ17にはスピーカ18が接続される。
CPU10は、バスライン15により接続された各部を制御する演算装置である。フラッシュROM11は書き換え可能な不揮発性のメモリであり、制御プログラム11aと、入力パターンテーブル11bと、状態パターンテーブル11cと、変動発音確率テーブル11dと、発音確率対照テーブル11eと、固定発音確率テーブル11fと、遷移ルート間尤度テーブル11gとが設けられる。CPU10によって制御プログラム11aが実行されると、図11のメイン処理が実行される。
入力パターンテーブル11bは、演奏情報と、その演奏情報に合致する入力パターンPiとが記憶されるデータテーブルである。ここで、入力パターンPiにおける拍位置と入力パターンテーブル11bについて、図5を参照して説明する。
図5(a)は、拍位置を説明するための図である。本実施形態では、図5(a)に示す通り、各入力パターンPiの演奏時間は、4分の4拍子における2小節分の長さとされる。この2小節分の長さを16分音符の長さで等分した(即ち、32等分した)拍位置B1~B32が、時間的位置の1単位とされる。なお、図5(a)の時間ΔTは16分音符の長さを表している。入力パターンテーブル11bには、入力パターンPiとその入力パターンPiに対応する拍位置毎の音高の配置が対応付けられて記憶される。かかる入力パターンテーブル11bを図5(b)に示す。
図5(b)は、入力パターンテーブル11bを模式的に示した図である。図5(b)に示す通り、入力パターンPiにはそれぞれ、拍位置B1~B32に対する音高(ド、レ、ミ、・・・)が設定される。また、入力パターンPiには、ある拍位置B1~B32に対して単一の音高だけが設定されるのでなく、2以上の音高の組み合わせも指定できる。本実施形態では、2以上の音高が同時に入力されることを指定する場合には、その拍位置B1~B32に対して、該当する音高名が「&」で連結される。例えば、図5(b)における入力パターンP3の拍位置B5では、音高「ド&ミ」が指定されるが、これは「ド」と「ミ」とが同時に入力されることが指定されている。
なお、入力パターンPiにおいて、演奏情報の入力が指定される拍位置B1~B32に対して音高が定義され、一方で、演奏情報の入力が指定されない拍位置B1~B32に対して音高は定義されない。また、本実施形態において入力パターンテーブル11bには、演奏情報が設定される拍位置間の時間的な間隔が大きい入力パターンPi順に、入力パターンP1,P2,P3・・・が設定される。
本実施形態では、拍位置B1~B32と音高との組み合わせを管理するため、これらの組み合わせを「状態」として定義する。かかる入力パターンPiに対する状態を、図6(a)を参照して説明する。
図6(a)は、入力パターンの状態を説明するための表である。図6に示す通り、入力パターンP1の拍位置B1から順に、音高が指定されている拍位置B1~B32に対して、状態J1,J2,・・・が定義される。具体的には、入力パターンP1の拍位置B1が状態J1,入力パターンP1の拍位置B5が状態J2,・・・,入力パターンP1の拍位置B32が状態J8と定義され、入力パターンP2の拍位置B1が状態J8に続いて、状態J9と定義される。以下、状態J1,J2,・・・に対して、特に区別しない場合は「状態Jn」と略す。
状態パターンテーブル11cには、状態Jn毎に、該当する入力パターンPiの名称と、拍位置B1~B32と、音高とが記憶される。かかる状態パターンテーブル11cについて、図6(b)を参照して説明する。
図6(b)は、状態パターンテーブル11cを模式的に示した図である。状態パターンテーブル11cは、シンセサイザ1で指定可能な音楽ジャンル(ロックやポップ、ジャズ等)に対して、状態Jn毎に、該当する入力パターンPiの名称と、拍位置B1~B32と、音高とが記憶されるデータテーブルである。本実施形態において、状態パターンテーブル11cには音楽ジャンル毎の入力パターンが記憶され、状態パターンテーブル11cの中から、選択された音楽ジャンルに応じた入力パターンPiが参照される。
具体的には、音楽ジャンル「ロック」に該当する入力パターンPiが状態パターンテーブル11crとされ、音楽ジャンル「ポップ」該当する入力パターンPiが状態パターンテーブル11cpとされ、音楽ジャンル「ジャズ」に該当する入力パターンPiが状態パターンテーブル11cjとされ、その他の音楽ジャンルについても、同様に入力パターンPiが記憶される。以下、状態パターンテーブル11cにおける状態パターンテーブル11cp,11cr,11cj・・・について、特に区別しない場合は「状態パターンテーブル11cx」と称す。
鍵2aからの演奏情報が入力された場合、その演奏情報の拍位置および音高と、選択されている音楽ジャンルに該当する状態パターンテーブル11cxの拍位置および音高とから「尤もらしい」状態Jnが推定され、該状態Jnから入力パターンPiが取得される。
図4に戻る。変動発音確率テーブル11dは、上記した動作モードがモード1の場合における変動発音確率パターンが記憶されるデータテーブルであり、発音確率対照テーブル11eは、最尤推定された入力パターンPiに対応する確率が記憶されるデータテーブルであり、固定発音確率テーブル11fは、上記した動作モードがモード1の場合における発音確率パターンPbが記憶されるデータテーブルである。図7を参照して、変動発音確率テーブル11d、発音確率対照テーブル11e及び固定発音確率テーブル11fを説明する。
図7(a)は、変動発音確率テーブル11dを模式的に示した図である。図7(a)に示す通り、変動発音確率テーブル11dには、複数の変動発音確率パターンが記憶される。動作モードがモード1の場合は、変動発音確率テーブル11dから1つの変動発音確率パターンが演奏者から選択され、選択された変動発音確率パターンが自動演奏に用いられる。
本実施形態において、変動発音確率テーブル11dには音楽ジャンル毎の変動発音確率パターンが記憶され、変動発音確率テーブル11dの中から、選択された音楽ジャンルに応じた変動発音確率パターンが参照される。具体的には、音楽ジャンル「ロック」、「ポップ」、「ジャズ」に該当する変動発音確率パターンがそれぞれ変動発音確率テーブル11dr,11dp,11djとされ、その他の音楽ジャンルについても、同様に変動発音確率パターンが記憶される。以下、変動発音確率テーブル11dr,11dp,11dj・・・について、特に区別しない場合は「変動発音確率テーブル11dx」と称す。
図7(b)は、発音確率対照テーブル11eを模式的に示した図である。図7(b)に示す通り、発音確率対照テーブル11eには、最尤推定された入力パターンPi毎に、対応する確率が記憶される。図7(a)の変動発音確率テーブル11dで取得された変動発音確率パターンに、この発音確率対照テーブル11eから入力パターンPiに応じて取得した確率を設定することで、自動演奏に用いられる発音確率パターンPbが作成される。
発音確率対照テーブル11eには、上記した入力パターンテーブル11bと同様の並び順、即ち演奏情報が設定される拍位置間の時間的な間隔が大きい入力パターンPi順に、大きな確率の値が記憶される。これによって、演奏者が入力した演奏情報の間隔が長い程、小さな確率が取得され、演奏者が入力した演奏情報の間隔が短い程、大きな確率が取得される。
従って、演奏者が入力した演奏情報の間隔が長い程、自動演奏される演奏パターンPaが発音する確率が低くなり、自動演奏される演奏パターンPaで発音される拍位置が疎らとなる。これにより、演奏者が入力した演奏情報の間隔が長い、即ちスローテンポな演奏者の演奏に合致した演奏パターンPaによる自動演奏とすることができる。
一方で、演奏者が入力した演奏情報の間隔が短い程、自動演奏される演奏パターンPaが発音する確率が高くなり、自動演奏される演奏パターンPaで発音される拍位置が頻繁となる。これにより、演奏者が入力した演奏情報の間隔が短い、即ちアップテンポな演奏者の演奏に合致した演奏パターンPaによる自動演奏とすることができる。
なお、発音確率対照テーブル11eに、演奏情報が設定される拍位置間の時間的な間隔が大きい入力パターンPi順に大きな確率の値が記憶するものに限られず、例えば、演奏情報が設定される拍位置間の時間的な間隔が大きい入力パターンPi順に小さな確率の値を発音確率対照テーブル11eに記憶しても良いし、対応する入力パターンPiに関係がないランダムな確率の値を発音確率対照テーブル11eに記憶しても良い。
図7(c)は、固定発音確率テーブル11fを模式的に示した図である。図7(c)に示す通り、固定発音確率テーブル11fには、入力パターンPiに対応した発音確率パターンPbが記憶される。動作モードがモード2の場合、最尤推定された入力パターンPiに対応する発音確率パターンPbが固定発音確率テーブル11fから取得され、自動演奏に用いられる。
本実施形態において、固定発音確率テーブル11fには音楽ジャンル毎の発音確率パターンPbが記憶され、固定発音確率テーブル11fの中から、選択された音楽ジャンルに応じた発音確率パターンPbが参照される。具体的には、音楽ジャンル「ロック」、「ポップ」、「ジャズ」に該当する発音確率パターンPbがそれぞれ固定発音確率テーブル11fr,11fp,11fjとされ、その他の音楽ジャンルについても、同様に発音確率パターンPbが記憶される。以下、固定発音確率テーブル11fr,11fp,11fj・・・について、特に区別しない場合は「固定発音確率テーブル11fx」と称す。
図4に戻る。遷移ルート間尤度テーブル11gは、状態Jn間の遷移ルートRmと、その遷移ルートRmの拍位置B1~B32間の距離である拍距離と、遷移ルートRmに対するパターン遷移尤度および打ち損ない尤度とが記憶されるデータテーブルである。ここで、遷移ルートRm及び遷移ルート間尤度テーブル11gについて、図8を参照して説明する。
図8(a)は、遷移ルートRmを説明するための図であり、図8(b)は、遷移ルート間尤度テーブル11gを模式的に示した図である。図8(a)の横軸は拍位置B1~B32を表している。図8(a)に示す通り、時間経過により、拍位置が拍位置B1から拍位置B32へ進行するとともに、各入力パターンPiにおける状態Jnも変化していく。本実施形態では、かかる状態Jn間の遷移において、想定される状態Jn間の経路が予め設定される。以下、予め設定された状態Jn間の遷移に対する経路のことを「遷移ルートR1,R2,R3,・・・」と称し、これらを特に区別しない場合は「遷移ルートRm」と称す。
図8(a)では、状態J3に対する遷移ルートを示している。状態J3への遷移ルートとして、大きく分けて状態J3と同一の入力パターンPi(即ち入力パターンP1)の状態Jnから遷移する場合と、状態J3とは異な入力パターンPiの状態Jnから遷移する場合との2種類が設定される。
状態J3と同一の入力パターンP1における、状態Jnからの遷移として、直前の状態である状態J2から状態J3へ遷移する遷移ルートR3と、状態J3の2つ前の状態である状態J1からの遷移ルートである遷移ルートR2とが設定される。即ち、本実施形態では、同一のパターン間における状態Jnへの遷移ルートとして、直前の状態Jnから遷移する遷移ルートと、2つ前の状態から遷移する「音飛び」の遷移ルートとの、多くとも2の遷移ルートが設定される。
一方で、状態J3とは異なるパターンの状態Jnから遷移する遷移ルートとして、入力パターンP2の状態J11から状態J3へ遷移する遷移ルートR8と、入力パターンP3の状態J21から状態J3へ遷移する遷移ルートR15と、入力パターンP10の状態J74から状態J3へ遷移する遷移ルートR66等が挙げられる。即ち、別の入力パターンPi間における状態Jnへの遷移ルートとして、その遷移元である別の入力パターンPiの状態Jnが、遷移先の状態Jnの拍位置の直前のものである遷移ルートが設定される。
図8(a)で例示した遷移ルート以外にも、状態J3への遷移ルートRmが複数設定される。また、状態J3と同様に、各状態Jnに対しても1又は複数の遷移ルートRmが設定される。
鍵2aからの演奏情報に基づいて「尤もらしい」状態Jnが推定され、その状態Jnに対応する入力パターンPiが参照される。本実施形態では、状態Jn毎に設定される、鍵2aからの演奏情報と状態Jnとの「尤もらしさ」を表す数値である尤度に基づいて、状態Jnが推定される。本実施形態では、状態Jnに対する尤度が、状態Jnそのものに基づく尤度や、遷移ルートRmに基づく尤度、あるいは、入力パターンPiに基づく尤度を統合することで算出される。
遷移ルート間尤度テーブル11gに記憶される、パターン遷移尤度および打ち損ない尤度は、遷移ルートRmに基づく尤度である。具体的に、まずパターン遷移尤度は、遷移ルートRmに対する遷移元の状態Jnと、遷移先の状態Jnとが同一の入力パターンPiであるかどうかを表す尤度である。本実施形態では、遷移ルートRmの遷移元と遷移先との状態Jnが同一の入力パターンPiである場合は、パターン遷移尤度に「1」が設定され、遷移ルートRmの遷移元と遷移先との状態Jnが別の入力パターンPiである場合は、パターン遷移尤度に「0.5」が設定される。
例えば、図8(b)において、遷移ルートR3は、遷移元が入力パターンP1の状態J2であり、遷移先が同じく入力パターンP1の状態J3なので、遷移ルートR3のパターン遷移尤度には「1」が設定される。一方で、遷移ルートR8は、遷移元が入力パターンP2の状態J11であり、遷移先が入力パターンP1の状態J3なので、遷移ルートR8は異なるパターン間の遷移ルートである。従って、遷移ルートR8のパターン遷移尤度には「0.5」が設定される。
また、遷移ルート間尤度テーブル11gに記憶される打ち損ない尤度は、遷移ルートRmに対する遷移元の状態Jnと、遷移先の状態Jnとが同一の入力パターンPiであり、なおかつ遷移元の状態Jnが遷移先の状態Jnよりも2つ前の状態Jnであるかどうか、即ち、遷移ルートRmに対する遷移元の状態Jnと、遷移先の状態Jnとが音飛びによる遷移ルートであるかどうかを表す尤度である。本実施形態では、遷移ルートRmの遷移元と遷移先との状態Jnが音飛びによる遷移ルートRmに対しては、打ち損ない尤度に「0.45」が設定され、音飛びによる遷移ルートRmではない場合は、打ち損ない尤度に「1」が設定される。
例えば、図8(b)において、遷移ルートR1は、同一の入力パターンP1における隣接した状態J1と状態J2との遷移ルートであり、音飛びによる遷移ルートではないので、打ち損ない尤度に「1」が設定される。一方で、遷移ルートR2は、遷移先である状態J3が、遷移元の状態J1よりも2つ先の状態であるので、打ち損ない尤度に「0.45」が設定される。
上述した通り、同一の入力パターンPiにおいては、遷移先の状態Jnの2つ前の状態Jnを遷移元の状態Jnとした、音飛びによる遷移ルートRmも設定される。実際の演奏においては、音飛びによる遷移が発生する確率は、通常の遷移が発生する確率よりも低い。そこで、音飛びによる遷移ルートRmの打ち損ない尤度の方が、音飛びでない通常の遷移ルートRmの打ち損ない尤度よりも小さな値を設定することで、実際の演奏と同様に、音飛びによる遷移ルートRmの遷移先の状態Jnよりも、通常の遷移ルートRmの遷移先の状態Jnを優先して推定することができる。
また、図8(b)に示す通り、遷移ルート間尤度テーブル11gには、シンセサイザ1に指定される各音楽ジャンルに対して、遷移ルートRm毎に、その遷移ルートRmの遷移元の状態Jnと、遷移先の状態Jnと、パターン遷移尤度と、打ち損ない尤度とが対応付けられて記憶される。本実施形態では、遷移ルート間尤度テーブル11gも音楽ジャンル毎に遷移ルート間尤度テーブルが記憶され、音楽ジャンル「ロック」に該当する遷移ルート間尤度テーブルが遷移ルート間尤度テーブル11grとされ、音楽ジャンル「ポップ」に該当する遷移ルート間尤度テーブルが遷移ルート間尤度テーブル11gpとされ、音楽ジャンル「ジャズ」に該当する遷移ルート間尤度テーブルが遷移ルート間尤度テーブル11gjとされる。その他の音楽ジャンルについても、遷移ルート間尤度テーブルが定義される。以下、遷移ルート間尤度テーブル11gにおける遷移ルート間尤度テーブル11gp,11gr,11gj、・・・について、特に区別しない場合は「遷移ルート間尤度テーブル11gx」と称す。
図4に戻る。RAM12は、CPU10が制御プログラム11a等のプログラム実行時に各種のワークデータやフラグ等を書き換え可能に記憶するメモリであり、自動演奏に用いられる演奏パターンPaが記憶される演奏パターンメモリ12aと、自動演奏に用いられる発音確率パターンPbが記憶される発音確率パターンメモリ12bと、最尤推定された入力パターンPiが記憶される最尤パターンメモリ12cと、推定された遷移ルートRmが記憶される遷移ルートメモリ12dと、前回鍵2aが押鍵されたタイミングから今回鍵2aが押鍵されたタイミングまでの時間(即ち、打鍵間隔)が記憶されるIOIメモリ12eと、音高尤度テーブル12fと、同期尤度テーブル12gと、IOI尤度テーブル12hと、尤度テーブル12iと、前回尤度テーブル12jとを有している。図9(a)を参照して、音高尤度テーブル12fを説明する。
図9(a)は、音高尤度テーブル12fを模式的に示した図である。音高尤度テーブル12fは、鍵2aからの演奏情報の音高と、状態Jnの音高との関係を表す尤度である、音高尤度が記憶されるデータテーブルである。本実施形態では、音高尤度として、鍵2aからの演奏情報の音高と、状態パターンテーブル11cx(図6(b))の状態Jnの音高とが完全一致している場合は「1」が設定され、部分一致している場合は「0.54」が設定され、不一致の場合は「0.4」が設定される。鍵2aからの演奏情報が入力された場合に、かかる音高尤度が全状態Jnに対して設定される。
図9(a)には、図6(b)の音楽ジャンル「ロック」の状態パターンテーブル11crにおいて、鍵2aからの演奏情報の音高として「ド」が入力された場合の音高尤度テーブル12fを例示している。状態パターンテーブル11crにおける状態J1と状態J74との音高は「ド」なので、音高尤度テーブル12fにおける状態J1と状態J74との音高尤度には、「1」が設定される。また、状態パターンテーブル11crにおける状態J11の音高はワイルドカード音高なので、いずれの音高が入力されても完全一致したとされる。従って、音高尤度テーブル12fにおける状態J11との音高尤度にも「1」が設定される。
状態パターンテーブル11crにおける状態J2の音高は「レ」であり、鍵2aからの演奏情報の音高の「ド」とは不一致なので、音高尤度テーブル12fにおける状態J2には「0.4」が設定される。また、状態パターンテーブル11crにおける状態J21の音高は「ド&ミ」であり、鍵2aからの演奏情報の音高の「ド」とは部分一致するので、音高尤度テーブル12fにおける状態J21には「0.54」が設定される。このように設定された音高尤度テーブル12fに基づいて、鍵2aからの演奏情報の音高に最も近い音高の状態Jnが推定できる。
図4に戻る。同期尤度テーブル12gは、鍵2aからの演奏情報が入力された2小節におけるタイミングと、状態Jnにおける拍位置B1~B32との関係を表す尤度である、同期尤度が記憶されるデータテーブルである。図9(b)を参照して、同期尤度テーブル12gを説明する。
図9(b)は、同期尤度テーブル12gを模式的に示した図である。図9(b)に示す通り、同期尤度テーブル12gには、各状態Jnに対する同期尤度が記憶される。本実施形態では、同期尤度は、鍵2aからの演奏情報が入力された2小節間におけるタイミングと、状態パターンテーブル11cxに記憶される状態Jnの拍位置B1~B32との差から、後述の数式2のガウス分布に基づいて算出される。
具体的には、鍵2aからの演奏情報が入力されたタイミングとの差が小さい拍位置B1~B32の状態Jnには、大きな値の同期尤度が設定され、一方で、鍵2aからの演奏情報が入力されたタイミングとの差が大きい拍位置B1~B32の状態Jnには、小さな値の同期尤度が設定される。このように設定された同期尤度テーブル12gの同期尤度に基づき、鍵2aからの演奏情報に対する状態Jnを推定することで、鍵2aからの演奏情報が入力されたタイミングに、最も近い拍位置の状態Jnが推定できる。
図4に戻る。IOI尤度テーブル12hは、IOIメモリ12eに記憶される打鍵間隔と、遷移ルート間尤度テーブル11gxに記憶される遷移ルートRmの拍距離との関係を表す、IOI尤度が記憶されるデータテーブルである。図10(a)を参照して、IOI尤度テーブル12hについて説明する。
図10(a)は、IOI尤度テーブル12hを模式的に示した図である。図10(a)に示す通り、IOI尤度テーブル12hには、各遷移ルートRmに対するIOI尤度が記憶される。本実施形態では、IOI尤度は、IOIメモリ12eに記憶される打鍵間隔と、遷移ルート間尤度テーブル11gxに記憶される遷移ルートRmの拍距離とから、後述の数式1にて算出される。
具体的には、IOIメモリ12eに記憶される打鍵間隔との差が小さい拍距離の遷移ルートRmには、大きな値のIOI尤度が設定され、一方で、IOIメモリ12eに記憶される打鍵間隔との差が大きい拍距離の遷移ルートRmには、小さな値のIOI尤度が設定される。このように設定された遷移ルートRmのIOI尤度に基づいて、該遷移ルートRmの遷移先の状態Jnを推定することで、IOIメモリ12eに記憶される打鍵間隔に最も近い拍距離とされる遷移ルートRmに基づいた状態Jnを推定できる。
図4に戻る。尤度テーブル12iは、上述したパターン遷移尤度、打ち損ない尤度、音高尤度、同期尤度およびIOI尤度を、状態Jn毎に統合した結果の尤度を記憶するデータテーブルであり、前回尤度テーブル12jは、尤度テーブル12iの記憶された状態Jn毎の尤度の、前回値を記憶するデータテーブルである。尤度テーブル12i及び前回尤度テーブル12jについて、図10(b),(c)を参照して説明する。
図10(b)は、尤度テーブル12iを模式的に示した図であり、図10(c)は、前回尤度テーブル12jを模式的に示した図である。図10(b)に示す通り、尤度テーブル12iには、状態Jn毎にそれぞれ、パターン遷移尤度、打ち損ない尤度、音高尤度、同期尤度およびIOI尤度を統合した結果が記憶される。これらの尤度のうち、パターン遷移尤度、打ち損ない尤度およびIOI尤度は、遷移先の状態Jnに対応する遷移ルートRmの各尤度が統合される。また、図10(c)に示す前回尤度テーブル12jには、前回の処理で統合され、尤度テーブル12iに記憶された各状態Jnの尤度が記憶される。
図4に戻る。音源13は、CPU10から入力される演奏情報に応じた波形データを出力する装置である。DSP14は、音源13から入力された波形データを演算処理するための演算装置である。DSP14によって、音源13から入力された波形データに対してエフェクトが適用される。
DAC16は、DSP14から入力された波形データを、アナログ波形データに変換する変換装置である。アンプ17は、該DAC16から出力されたアナログ波形データを、所定の利得で増幅する増幅装置であり、スピーカ18は、アンプ17で増幅されたアナログ波形データを楽音として放音(出力)する出力装置である。
次に、図11~図14を参照して、CPU10で実行されるメイン処理について説明する。図11は、メイン処理のフローチャートである。メイン処理は、シンセサイザ1の電源投入時に実行される。
メイン処理は、まず設定ボタン3(図1参照)を介して演奏者から選択された演奏パターンPaを取得し、演奏パターンメモリ12aに記憶する(S1)。S1の処理において取得される演奏パターンPaは、予めフラッシュROM11に記憶された演奏パターンPaから選択されるが、入力パターンテーブル11b(図5(b)参照)に記憶されている入力パターンPiを選択し、選択された入力パターンPiを演奏パターンPaとして演奏パターンメモリ12aに記憶しても良い。
かかる演奏者によって選択された演奏パターンPaの取得と共に、設定ボタン3を介して演奏者によって選択された音楽ジャンルを取得する。音楽ジャンル毎に記憶される、状態パターンテーブル11c、変動発音確率テーブル11d、固定発音確率テーブル11f又は遷移ルート間尤度テーブル11gに対して、取得された音楽ジャンルに該当する状態パターンテーブル11cx、変動発音確率テーブル11dx、固定発音確率テーブル11fx又は遷移ルート間尤度テーブル11gxが参照される。以下、「S1の処理で取得された音楽ジャンル」のことを「該当音楽ジャンル」という。
S1の処理の後、設定ボタン3を介して演奏者によって選択された動作モードを取得し(S2)、取得された動作モードがモード1かを確認する(S3)。S3の処理において、動作モードがモード1の場合は(S3:Yes)、設定ボタン3を介して演奏者によって選択された変動発音確率パターンを変動発音確率テーブル11dから取得し、発音確率パターンメモリ12bに保存する(S4)。一方で、S3の処理において、動作モードがモード2の場合は(S3:No)、S4の処理をスキップする。
S3,S4の処理の後、キー入力、即ち、鍵2aからの演奏情報が入力されたかを確認する(S5)。S5の処理において、鍵2aからの演奏情報が入力されていない場合は(S5:No)、S5の処理を繰り返す。
一方で、S5の処理において、鍵2aからの演奏情報が入力された場合は(S5:Yes)、演奏パターンメモリ12aの演奏パターンPaに基づいて自動演奏を開始する(S6)。この際、演奏パターンメモリ12aの演奏パターンPaに規定されているテンポが取得され、該テンポに基づいて演奏パターンPaが自動演奏される。以下、かかるテンポのことを「自動演奏のテンポ」という。
S6の処理の後、最尤パターン検索処理を実行する(S7)。ここで、図12~図14を参照して、最尤パターン検索処理を説明する。
図12は、最尤パターン検索処理のフローチャートである。最尤パターン検索処理では、まず、尤度算出処理を行う(S30)。図13(a)を参照して、尤度算出処理を説明する。
図13(a)は、尤度算出処理のフローチャートである。尤度算出処理では、まず、前回の鍵2aからの演奏情報の入力がされた時刻と、今回鍵2aからの演奏情報の入力がされた時刻との差から、鍵2aからの演奏情報の入力の時間差、即ち、打鍵間隔を算出し、IOIメモリ12eへ保存する(S50)。
S50の処理の後、IOIメモリ12eの打鍵間隔と、上記した自動演奏のテンポと、該当音楽ジャンルの遷移ルート間尤度テーブル11gxにおける各遷移ルートRmの拍距離とから、IOI尤度を算出し、IOI尤度テーブル12hへ保存する(S51)。具体的には、IOIメモリ12eの打鍵間隔をx,自動演奏のテンポをVm,遷移ルート間尤度テーブル11gxに記憶される、ある遷移ルートRmの拍距離をΔτとすると、IOI尤度Gは数式1のガウス分布によって算出される。
S51の処理の後、鍵2aからの演奏情報の音高から、状態Jn毎に音高尤度を算出し、音高尤度テーブル12fへ保存する(S52)。図9(a)で上述した通り、鍵2aからの演奏情報の音高と、該当音楽ジャンルの状態パターンテーブル11cxの各状態Jnの音高とを比較して、完全に一致する状態Jnに対しては、音高尤度テーブル12fにおける該当する状態Jnの音高尤度に「1」が設定され、部分的に一致する状態Jnに対しては、音高尤度テーブル12fにおける該当する状態Jnの音高尤度に「0.54」が設定され、不一致である状態Jnに対しては、音高尤度テーブル12fにおける該当する状態Jnの音高尤度に「0.4」が設定される。
S52の処理の後、鍵2aからの演奏情報が入力された時刻に該当する拍位置と該当音楽ジャンルの状態パターンテーブル11cxの拍位置とから同期尤度を算出し、同期尤度テーブル12gへ保存する(S53)。具体的には、鍵2aからの演奏情報が入力された時刻を、2小節単位における拍位置に変換したものをtp,該当音楽ジャンルの状態パターンテーブル11cxの拍位置τとすると、同期尤度Bは、数式2のガウス分布によって算出される。
S53の処理の後、尤度算出処理を終了し、図12の最尤パターン検索処理へ戻る。
図12に戻る。S30の尤度算出処理の後、状態間尤度統合処理を実行する(S31)。ここで、図13(b)を参照して、状態間尤度統合処理を説明する。
図13(b)は、状態間尤度統合処理のフローチャートである。この状態間尤度統合処理では、図13(a)の尤度算出処理で算出された各尤度から、状態Jn毎に尤度を算出する処理である。状態間尤度統合処理は、まず、カウンタ変数nに1を設定する(S60)。以下、状態間尤度統合処理における「状態Jn」の「n」はカウンタ変数nを表し、例えば、カウンタ変数nが1である場合の状態Jnは、「状態J1」を表す。
S60の処理の後、前回尤度テーブル12jに記憶される尤度の最大値と、音高尤度テーブル12fにおける状態Jnの音高尤度と、同期尤度テーブル12gにおける状態Jnの同期尤度とから、状態Jnにおける尤度を算出し、尤度テーブル12iに保存する(S61)。具体的には、前回尤度テーブル12jに記憶される尤度の最大値をLp_M,音高尤度テーブル12fにおける状態Jnの音高尤度をPi_n,同期尤度テーブル12gにおける状態Jnの同期尤度をB_nとし、状態Jnにおける尤度L_nの対数である対数尤度log(L_n)は、数式3のViterbiアルゴリズムによって算出される。
S61の後、カウンタ変数nに1を加算し(S62)、加算されたカウンタ変数nが、状態Jnの数よりも大きいかを確認する(S63)。S63の処理において、カウンタ変数nが、状態Jnの数以下である場合は、S61の処理以下を繰り返す。一方で、カウンタ変数nが、状態Jnの数より大きい場合は(S63:Yes)、状態間尤度統合処理を終了して、図12の最尤パターン検索処理に戻る。
図12に戻る。S31の状態間尤度統合処理の後、遷移間尤度統合処理を実行する(S32)。図14を参照して、遷移間尤度統合処理を説明する。
図14は、遷移間尤度統合処理のフローチャートである。遷移間尤度統合処理では、図13(a)の尤度算出処理で算出された各尤度と、予め設定されている遷移ルート間尤度テーブル11gのパターン遷移尤度および打ち損ない尤度とから、各遷移ルートRmの遷移先の状態Jnに対する尤度を算出する処理である。
遷移間尤度統合処理は、まず、カウンタ変数mに1を設定する(S70)。以下、遷移間尤度統合処理における「遷移ルートRm」の「m」はカウンタ変数mを表し、例えば、カウンタ変数mが1である場合の、遷移ルートRmは「遷移ルートR1」を表す。
S70の処理の後、前回尤度テーブル12jにおける遷移ルートRmの遷移元の状態Jnの尤度と、IOI尤度テーブル12hにおける遷移ルートRmのIOI尤度と、該当音楽ジャンルの遷移ルート間尤度テーブル11gxにおけるパターン遷移尤度および打ち損ない尤度と、音高尤度テーブル12fにおける遷移ルートRmの遷移先の状態Jnの音高尤度と、同期尤度テーブル12gにおける遷移ルートRmの遷移先の状態Jnの同期尤度とに基づいて、尤度を算出する(S71)。
具体的に、前回尤度テーブル12jにおける遷移ルートRmの遷移元の状態Jnの前回尤度をLp_mb,IOI尤度テーブル12hにおける遷移ルートRmのIOI尤度をI_m,該当音楽ジャンルの遷移ルート間尤度テーブル11gxにおけるパターン遷移尤度をPs_m,該当音楽ジャンルの遷移ルート間尤度テーブル11gxにおける打ち損ない尤度をMs_mとし、音高尤度テーブル12fにおける遷移ルートRmの遷移先の状態Jnの音高尤度をPi_mfと、同期尤度テーブル12gにおける遷移ルートRmの遷移先の状態Jnの同期尤度をB_mfとし、尤度Lの対数である対数尤度log(L)は、数式4のViterbiアルゴリズムによって算出される。
S71の処理の後、S70の処理で算出された尤度Lが、尤度テーブル12iにおける遷移ルートRmの遷移先の状態Jnの尤度よりも大きいかを確認する(S72)。S72の処理において、S70の処理で算出された尤度Lが、尤度テーブル12iにおける遷移ルートRmの遷移先の状態Jnの尤度よりも大きい場合は、尤度テーブル12iにおける遷移ルートRmの遷移先の状態Jnに該当するメモリ領域に、S70の処理で算出された尤度Lを保存する(S73)。
一方で、S72の処理において、S70の処理で算出された尤度Lが、尤度テーブル12iにおける遷移ルートRmの遷移先の状態Jnの尤度以下の場合は(S72:No)、S73の処理をスキップする。
S72,S73の処理の後、カウンタ変数mに1を加算し(S74)、その後、カウンタ変数mが遷移ルートRmの数より大きいかを確認する(S75)。S75の処理において、カウンタ変数mが遷移ルートRmの数以下の場合は(S75:No)、S71の処理以下を繰り返し、カウンタ変数mが遷移ルートRmの数より大きい場合は(S75:Yes)、遷移間尤度統合処理を終了し、図12の最尤パターン検索処理に戻る。
図12に戻る。S32の遷移間尤度統合処理の後、尤度テーブル12iにおける最大値の尤度を取る状態Jnを取得し、その状態Jnに該当する入力パターンPiを該当音楽ジャンルの状態パターンテーブル11cxから取得して最尤パターンメモリ12cに保存する(S33)。即ち、鍵2aからの演奏情報に最尤な状態Jnが尤度テーブル12iから取得され、その状態Jnに該当する入力パターンPiが取得される。これにより、鍵2aからの演奏情報に最尤な入力パターンPiを選択(推定)することができる。
S33の処理の後、尤度テーブル12iにおける最大値の尤度が、S32の遷移間尤度統合処理で更新されたかを確認する(S34)。即ち、S33の処理でパターンの決定に用いられた状態Jnの尤度が、図14のS71~S73の処理による前回尤度Lp_mbに基づく尤度によって、更新されたかを確認する。
S34の処理において、尤度テーブル12iにおける最大値の尤度が、遷移間尤度統合処理で更新された場合には(S34:Yes)、尤度テーブル12iにおける最大値の尤度を取る状態Jnと、前回尤度テーブル12jにおける最大値の尤度を取る状態Jnとから、今回の遷移ルートRmを取得し、遷移ルートメモリ12dへ保存する(S35)。具体的には、尤度テーブル12iにおける最大値の尤度を取る状態Jnと、前回尤度テーブル12jにおける最大値の尤度を取る状態Jnとを、該当音楽ジャンルの遷移ルート間尤度テーブル11gxの遷移先の状態Jnと遷移元の状態Jnとで検索し、これら状態Jnが一致する遷移ルートRmが、該当音楽ジャンルの遷移ルート間尤度テーブル11gxから取得され、遷移ルートメモリ12dへ保存される。
S34の処理において、尤度テーブル12iにおける最大値の尤度が遷移間尤度統合処理で更新されなかった場合は(S34:No)、S35の処理をスキップする。
S34,S35の処理の後、前回尤度テーブル12jへ尤度テーブル12iの値を設定し(S36)、S36の処理の後、最尤パターン検索処理を終了して、図11のメイン処理へ戻る。
図11へ戻る。S7の最尤パターン検索処理の後、設定ボタン3を介して演奏者によって選択された動作モードを確認する(S8)。S8の処理において、動作モードがモード1である場合は(S8:「モード1」)、最尤パターンメモリ12cの入力パターンPiに該当する確率を発音確率対照テーブル11eから取得し、取得した確率を発音確率パターンメモリ12bの発音確率パターンPbに適用する(S9)。具体的には、動作モードがモード1の場合の発音確率パターンメモリ12bには、「*」が設定された拍位置が存在しているので、その「*」が設定された拍位置に発音確率対照テーブル11eから取得された確率が設定される。
一方で、S8の処理において、動作モードがモード2である場合は(S8:「モード2」)、最尤パターンメモリ12cの入力パターンPiに該当する発音確率パターンPbを固定発音確率テーブル11fから取得し、発音確率パターンPbへ保存する(S10)。
S9,S10の処理の後、発音確率パターンメモリ12bの発音確率パターンPbに基づき、自動演奏の現在の拍位置において発音する/しないを決定する(S11)。具体的には、発音確率パターンメモリ12bの発音確率パターンPbから自動演奏の現在の拍位置の確率を取得する。その確率に基づいて発音する/しないを決定する。この際、演奏パターンメモリ12aの演奏パターンPaの現在の拍位置が和音である場合は、上記した通り、その和音を構成するノート毎に発音する/しないが決定される。
なお、確率に基づいて発音する/しないを決定する手法は、既知のものが用いられるが、例えば、1~100の範囲の整数の疑似乱数を発生させ、確率が40%の場合に、発生させた疑似乱数が1~40の時は「発音する」と決定し、41~100の時は「発音しない」と決定するものが挙げられる。
S11の処理の後、S11の処理で決定された現在の拍位置での発音する/しないに応じた演奏パターンメモリ12aの演奏パターンPaの現在の拍位置のノートによる楽音と、鍵2aの演奏情報に基づいた楽音とを出力し(S12)、S6以下の処理を繰り返す。
以上、上記実施形態に基づき説明したが、種々の改良変更が可能であることは容易に推察できるものである。
上記実施形態では、自動演奏装置としてシンセサイザ1を例示した。しかし、必ずしもこれに限られるものではなく、電子オルガンや電子ピアノ、シーケンサ等、演奏者の演奏による楽音と共に、自動演奏を出力する電子楽器に適用しても良い。
上記実施形態では、発音確率パターンPbを変動発音確率テーブル11d又は固定発音確率テーブル11fに記憶されたものを取得したが、これに限られない。例えば、演奏者が設定ボタン3等を介して発音確率パターンPbを作成し、作成された発音確率パターンPbを自動演奏に用いても良い。これにより、演奏者の意図や嗜好が考慮された発音確率パターンPbによる自動演奏を実現できる。
上記実施形態では、動作モードがモード1の場合に、最尤推定された入力パターンPiに該当する確率を発音確率パターンPbの「*」の拍位置に設定した。しかし、これに限られず、例えば、設定ボタン3を介して演奏者から取得された確率を発音確率パターンPbの「*」の拍位置に設定しても良い。
或いは、最尤推定された入力パターンPiに該当する確率を発音確率パターンPbの「*」の拍位置に設定した上で、「*」の拍位置において設定された確率に設定ボタン3を介して演奏者から取得された確率を加算することで、「*」の拍位置における確率を設定ボタン3で調整できるようにしても良い。
上記実施形態では、動作モードがモード2の場合に、最尤推定された入力パターンPiに該当する発音確率パターンPbを固定発音確率テーブル11fから取得したが、これに限られない。例えば、設定ボタン3を介して演奏者から指定された発音確率パターンPbを固定発音確率テーブル11fから取得しても良い。
上記実施形態では、入力された演奏情報に基づいて入力パターンPiを最尤推定し、最尤推定された入力パターンPiに対応する確率や発音確率パターンPbを取得したが、これに限られない。入力された演奏情報が有するその他の性質や特徴も最尤推定の対象とすることができ、その最尤推定の結果を確率や発音確率パターンの取得に用いることができる。例えば、入力された演奏情報に基づいて、演奏者が演奏している曲のテンポや曲調、演奏している曲の音楽ジャンル(ロック、ポップス等)等を最尤推定し、最尤推定されたテンポ等に対応する確率や発音確率パターンPbを取得しても良い。この場合、発音確率対照テーブル11e(図7(b)参照)には最尤推定されたテンポ等毎に対応する確率を設定し、固定発音確率テーブル11f(図7(c)参照)には、最尤推定されたテンポ等毎に対応する発音確率パターンPbを設定すれば良い。
上記実施形態では、発音確率パターンメモリ12bの発音確率パターンPbの確率に応じて、演奏パターンメモリ12aの演奏パターンの各拍位置で発音する/しないを決定した。しかし、これに限られず、例えば、発音確率パターンメモリ12bの発音確率パターンPbの確率に応じて、演奏パターンメモリ12aの演奏パターンの各拍位置における音量(ベロシティ)を決定しても良い。
例えば、発音確率パターンメモリ12bの発音確率パターンPbのある拍位置の確率が「60%」である場合、その拍位置に対応する演奏パターンメモリ12aの演奏パターンの拍位置の音量を、最大音量を100%とした際の60%に相当する音量に設定して当該拍位置のノートによる楽音を出力すれば良い。この他にも、発音される音の長さやステレオ位置(Pan)、音色のパラメータ(フィルタやエンベロープ等)、音響効果のかかり具合等を、発音確率パターンPbの確率に応じて変化させても良い。
上記実施形態では、自動演奏に用いられる演奏パターンPaとして、時系列順にノートが設定されたものを例示したが、これに限られない。例えば、ドラムパターン、ベースパターン等のリズムパターンや、人間の歌声等の音声データを自動演奏に用いられる演奏パターンPaとしても良い。
上記実施形態では、入力パターンPiの演奏時間は、4分の4拍子における2小節分の長さとした。しかし、必ずしもこれに限られるものではなく、入力パターンPiの演奏時間は1小節分でも良いし、3小節分以上でも良い。また、入力パターンPiにおける1小節当たりの拍子は4分の4拍子に限られるものではなく、4分の3拍子や8分の6拍子等、他の拍子を適宜用いても良い。
上記実施形態では、演奏情報を鍵盤2からの入力される構成とした。しかしながらこれに代えて、外部のMIDI規格の鍵盤キーボードをシンセサイザ1に接続し、かかる鍵盤キーボードから演奏情報を入力する構成としても良い。或いは、外部のMIDI機器であるシーケンサや別のシンセサイザ等の電子楽器、DAW等の音楽制作ソフトウェアが実行されているPC等をシンセサイザ1に接続し、演奏情報を入力する構成としても良い。更には、フラッシュROM11やRAM12に記憶されたMIDIデータから演奏情報を入力する構成としても良い。
上記実施形態では、楽音をシンセサイザ1に設けられた音源13、DSP14、DAC16、アンプ17及びスピーカ18から出力する構成とした。しかしながらこれに代えて、MIDI規格の音源装置をシンセサイザ1に接続し、かかる音源装置からシンセサイザ1の楽音を出力する構成としても良い。
上記実施形態では、制御プログラム11aをシンセサイザ1のフラッシュROM11に記憶し、シンセサイザ1上で動作する構成とした。しかし、必ずしもこれに限られるものではなく、PC(パーソナル・コンピュータ)や携帯電話、スマートフォンやタブレット端末等の他のコンピュータ上で制御プログラム11aを動作させる構成としても良い。この場合、シンセサイザ1の鍵盤2の代わりに、PC等に有線または無線で接続されたMIDI規格の鍵盤キーボードや文字入力用のキーボードから、演奏情報を入力する構成としても良いし、PC等の表示装置に表示されたソフトウェアキーボードから、演奏情報を入力する構成としても良い。
上記実施形態に挙げた数値は一例であり、他の数値を採用することは当然可能である。
1 シンセサイザ(自動演奏装置)
2 鍵盤(入力手段)
11a 制御プログラム(自動演奏プログラム)
11b 入力パターンテーブル(入力パターン記憶手段)
11f 固定発音確率テーブル(発音確率パターン記憶手段)
Pa 演奏パターン
Pb 発音確率パターン
Pi 入力パターン
S4,S10 発音確率パターン取得手段、発音確率パターン取得ステップ
S7 入力パターン選択手段
S9 発音確率パターン取得手段、確率取得手段、発音確率パターン取得ステップ
S11,S12 自動演奏手段、自動演奏ステップ
S30 尤度算出手段
2 鍵盤(入力手段)
11a 制御プログラム(自動演奏プログラム)
11b 入力パターンテーブル(入力パターン記憶手段)
11f 固定発音確率テーブル(発音確率パターン記憶手段)
Pa 演奏パターン
Pb 発音確率パターン
Pi 入力パターン
S4,S10 発音確率パターン取得手段、発音確率パターン取得ステップ
S7 入力パターン選択手段
S9 発音確率パターン取得手段、確率取得手段、発音確率パターン取得ステップ
S11,S12 自動演奏手段、自動演奏ステップ
S30 尤度算出手段
Claims (14)
- 発音するノートの発音タイミングが設定される演奏パターンを自動演奏する自動演奏装置であって、
前記演奏パターンの発音タイミング毎にノートを発音する確率が設定された発音確率パターンを取得する発音確率パターン取得手段と、
前記発音確率パターン取得手段で取得された発音確率パターンに設定された発音タイミング毎の確率に基づき、前記演奏パターンの発音タイミング毎にノートを発音するかを決定して自動演奏を行う自動演奏手段と、を備えていることを特徴とする自動演奏装置。 - 前記自動演奏手段は、前記演奏パターンにおける所定の発音タイミングが複数のノートによる和音で構成される場合、当該和音を構成するノート毎に、前記発音確率パターン取得手段で取得された発音確率パターンに設定された当該発音タイミングの確率に基づいて発音するかを決定して、前記演奏パターンによる自動演奏を行うものであることを特徴とする請求項1記載の自動演奏装置。
- 演奏情報を入力する入力手段と、
前記入力手段に入力された演奏情報に基づいて、最尤推定された確率を取得する確率取得手段と、を備え、
前記発音確率パターン取得手段は、前記演奏パターンの発音タイミング毎におけるノートを発音する確率として前記確率取得手段によって取得された確率が設定された発音確率パターンを取得するものであることを特徴とする請求項1又は2に記載の自動演奏装置。 - 複数の入力パターンが記憶される入力パターン記憶手段と、
前記入力手段で入力された演奏情報に基づいて、前記入力パターン記憶手段に記憶された複数の入力パターンのうち最尤推定された入力パターンを選択する入力パターン選択手段と、を備え、
前記確率取得手段は、前記入力パターン選択手段で選択された入力パターンに対応する確率を取得するものであることを特徴とする請求項3記載の自動演奏装置。 - 前記確率取得手段は、前記入力パターン選択手段で選択された入力パターンのノート間の発音タイミングが短い程、大きな値の確率を取得するものであることを特徴とする請求項4記載の自動演奏装置。
- 複数の前記発音確率パターンが記憶される発音確率パターン記憶手段と、
演奏情報を入力する入力手段と、
前記発音確率パターン取得手段は、前記発音確率パターン記憶手段に記憶される発音確率パターンのうち、前記入力手段に入力された演奏情報に基づいて、最尤推定された発音確率パターンを取得するものであることを特徴とする請求項1又は2に記載の自動演奏装置。 - 複数の入力パターンが記憶される入力パターン記憶手段と、
前記入力手段に入力された演奏情報に基づいて、前記入力パターン記憶手段に記憶された複数の入力パターンのうち最尤推定された入力パターンを選択する入力パターン選択手段と、を備え、
前記発音確率パターン取得手段は、前記発音確率パターン記憶手段に記憶される発音確率パターンのうち、前記入力パターン選択手段で選択された入力パターンに対応する発音確率パターンを取得するものであることを特徴とする請求項6記載の自動演奏装置。 - 前記入力手段へ入力された演奏情報に基づいて、前記入力パターン記憶手段に記憶される複数の入力パターンを構成する各ノートの全て又は一部について、それぞれ尤度を算出する尤度算出手段を備え、
前記入力パターン選択手段は、前記尤度算出手段により算出された尤度に基づいて、前記入力パターン記憶手段に記憶される複数の入力パターンのうちの1つの入力パターンを最尤推定するものであることを特徴とする請求項4,5又は7のいずれかに記載の自動演奏装置。 - 前記尤度算出手段は、前記入力手段へ入力された演奏情報の音高に基づいて、前記入力パターン記憶手段に記憶される複数の入力パターンを構成する各ノートの全て又は一部について、それぞれ尤度を算出するものであることを特徴とする請求項8記載の自動演奏装置。
- 前記尤度算出手段は、前記入力手段へ入力された演奏情報の拍位置に基づいて、前記入力パターン記憶手段に記憶される複数の入力パターンを構成する各ノートの全て又は一部について、それぞれ尤度を算出するものであることを特徴とする請求項8又は9に記載の自動演奏装置。
- 前記尤度算出手段は、前記入力手段へ入力された前回の演奏情報と今回の演奏情報との入力間隔に基づいて、前記入力パターン記憶手段に記憶される複数の入力パターンを構成する各ノートの全て又は一部について、1のノートの次に他のノートが発せられる尤度をそれぞれ算出するものであることを特徴とする請求項8から10のいずれかに記載の自動演奏装置。
- 前記入力パターン選択手段は、演奏情報が前記入力手段へ入力されると前記入力パターンの選択処理を実行するものであることを特徴とする請求項4,5,7,8,9,10又は11のいずれかに記載の自動演奏装置。
- 前記発音確率パターン取得手段は、ユーザによって作成された発音確率パターンを取得するものであることを特徴とする請求項1から12のいずれかに記載の自動演奏装置。
- コンピュータに自動演奏を実行させる自動演奏プログラムであって、
発音するノートの発音タイミングが設定される演奏パターンの発音タイミング毎にノートを発音する確率が設定された発音確率パターンを取得する発音確率パターン取得ステップと、
前記発音確率パターン取得ステップで取得された発音確率パターンに設定された発音タイミング毎の確率に基づき、前記演奏パターンの発音タイミング毎にノートを発音するかを決定して自動演奏を行う自動演奏ステップと、を前記コンピュータに実行させることを特徴とする自動演奏プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021214552A JP2023098055A (ja) | 2021-12-28 | 2021-12-28 | 自動演奏装置および自動演奏プログラム |
US17/987,870 US20230206889A1 (en) | 2021-12-28 | 2022-11-16 | Automatic performance apparatus, automatic performance method, and non-transitory computer readable medium |
EP22209150.6A EP4207182A1 (en) | 2021-12-28 | 2022-11-23 | Automatic performance apparatus, automatic performance method, and automatic performance program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021214552A JP2023098055A (ja) | 2021-12-28 | 2021-12-28 | 自動演奏装置および自動演奏プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023098055A true JP2023098055A (ja) | 2023-07-10 |
Family
ID=84361433
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021214552A Pending JP2023098055A (ja) | 2021-12-28 | 2021-12-28 | 自動演奏装置および自動演奏プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230206889A1 (ja) |
EP (1) | EP4207182A1 (ja) |
JP (1) | JP2023098055A (ja) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02113296A (ja) * | 1988-10-24 | 1990-04-25 | Fujitsu Ltd | リズム発生装置 |
US5496962A (en) * | 1994-05-31 | 1996-03-05 | Meier; Sidney K. | System for real-time music composition and synthesis |
EP1274069B1 (en) * | 2001-06-08 | 2013-01-23 | Sony France S.A. | Automatic music continuation method and device |
JP5982980B2 (ja) | 2011-04-21 | 2016-08-31 | ヤマハ株式会社 | 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記憶媒体 |
JP2019200390A (ja) * | 2018-05-18 | 2019-11-21 | ローランド株式会社 | 自動演奏装置および自動演奏プログラム |
-
2021
- 2021-12-28 JP JP2021214552A patent/JP2023098055A/ja active Pending
-
2022
- 2022-11-16 US US17/987,870 patent/US20230206889A1/en active Pending
- 2022-11-23 EP EP22209150.6A patent/EP4207182A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230206889A1 (en) | 2023-06-29 |
EP4207182A1 (en) | 2023-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3707364B2 (ja) | 自動作曲装置、方法及び記録媒体 | |
JP5574474B2 (ja) | アドリブ演奏機能を有する電子楽器およびアドリブ演奏機能用プログラム | |
EP3570271B1 (en) | Automatic performance device and automatic performance method | |
US9142203B2 (en) | Music data generation based on text-format chord chart | |
JP7190056B2 (ja) | 自動演奏装置および自動演奏プログラム | |
JP2007219139A (ja) | 旋律生成方式 | |
JP7190054B2 (ja) | アルペジエータおよびその機能を備えたプログラム | |
US11908440B2 (en) | Arpeggiator, recording medium and method of making arpeggio | |
JP2023098055A (ja) | 自動演奏装置および自動演奏プログラム | |
US11955104B2 (en) | Accompaniment sound generating device, electronic musical instrument, accompaniment sound generating method and non-transitory computer readable medium storing accompaniment sound generating program | |
JP3633335B2 (ja) | 楽曲生成装置および楽曲生成プログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JP4259532B2 (ja) | 演奏制御装置、およびプログラム | |
WO2021044560A1 (ja) | アルペジエータおよびその機能を備えたプログラム | |
JP2010117419A (ja) | 電子楽器 | |
US20240135907A1 (en) | Automatic performance device, non-transitory computer-readable medium, and automatic performance method | |
JP2002032079A (ja) | 自動作曲装置及び方法並びに記憶媒体 | |
JP7409366B2 (ja) | 自動演奏装置、自動演奏方法、プログラム、及び電子楽器 | |
JP7400798B2 (ja) | 自動演奏装置、電子楽器、自動演奏方法、及びプログラム | |
JP2018151548A (ja) | 発音装置及びループ区間設定方法 | |
JP3933070B2 (ja) | アルペジオ生成装置及びプログラム | |
JP2024062088A (ja) | 自動演奏装置、自動演奏プログラム及び自動演奏方法 | |
JP2021124688A (ja) | ベースライン音自動生成装置、電子楽器、ベースライン音自動生成方法及びプログラム | |
JP2024062127A (ja) | 伴奏音自動生成装置、電子楽器、伴奏音自動生成方法及びプログラム | |
JP2013174901A (ja) | 電子楽器 | |
JP5974473B2 (ja) | 曲編集装置、曲編集方法及びプログラム |