JP2024062088A - 自動演奏装置、自動演奏プログラム及び自動演奏方法 - Google Patents

自動演奏装置、自動演奏プログラム及び自動演奏方法 Download PDF

Info

Publication number
JP2024062088A
JP2024062088A JP2022169862A JP2022169862A JP2024062088A JP 2024062088 A JP2024062088 A JP 2024062088A JP 2022169862 A JP2022169862 A JP 2022169862A JP 2022169862 A JP2022169862 A JP 2022169862A JP 2024062088 A JP2024062088 A JP 2024062088A
Authority
JP
Japan
Prior art keywords
performance
rhythm
pattern
input
velocity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022169862A
Other languages
English (en)
Inventor
智子 伊藤
郁生 田中
頼子 笹森
孝明 萩野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Roland Corp
Original Assignee
Roland Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Roland Corp filed Critical Roland Corp
Priority to JP2022169862A priority Critical patent/JP2024062088A/ja
Priority to US18/460,662 priority patent/US20240135907A1/en
Publication of JP2024062088A publication Critical patent/JP2024062088A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/46Volume control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/005Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/071Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/221Keyboards, i.e. configuration of several keys or key-like input devices relative to one another
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/265Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors
    • G10H2220/271Velocity sensing for individual keys, e.g. by placing sensors at different points along the kinematic path for individual key velocity estimation by delay measurement between adjacent sensor signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

Figure 2024062088000001
【課題】演奏者の演奏に適合した演奏パターンに自動的に切り替えることができる自動演奏装置、自動演奏プログラム及び自動演奏方法を提供すること。
【解決手段】シンセサイザ1において、鍵2aの押鍵/離鍵から検出されたリズムと、各リズムパターンとの類似度が算出され、最も類似度が高く、鍵2aの押鍵/離鍵から検出されたリズムと最も類似するリズムパターンが取得される。取得された最も類似したリズムパターンに対応する演奏パターンPaが取得され、演奏している演奏パターンPaに切り替えられる。これにより、演奏者は演奏している鍵盤2から手を放し、設定ボタン3を操作する等、演奏を中断することなく、鍵盤2の演奏のリズムに適合した演奏パターンPaに、自動的に切り替えることができる。
【選択図】図6

Description

本発明は、自動演奏装置、自動演奏プログラム及び自動演奏方法に関するものである。
特許文献1には、伴奏スタイルデータASDに基づいて作成されるパターン伴奏音を、繰り返し再生する電子楽器が開示されている。伴奏スタイルデータASDには、イントロ、メイン、エンディング等の「セクション」と、静か、少し派手、派手等の「盛り上がり度」との組み合わせに応じた複数の伴奏セクションデータが含まれている。演奏者は、設定操作部102を介して伴奏スタイルデータASDのうち、演奏している曲のセクション及び盛り上がり度に対応する伴奏セクションデータを選択する。これにより、演奏している曲に加え、その曲に適したパターン伴奏音を出力できる。
特開2021-113895号公報
しかしながら、演奏者が演奏している曲の曲調が変化して、出力しているパターン伴奏音の盛り上がり度と不一致となった場合に、パターン伴奏音を切り替える必要がある。この場合、演奏者は演奏操作を行いながら、伴奏スタイルデータASDから変化した曲調に合致する伴奏セクションデータを設定操作部102を介して手動で選択しなければならないといった問題があった。
本発明は、上記問題点を解決するためになされたものであり、演奏者の演奏に適合した演奏パターンに自動的に切り替えることができる自動演奏装置、自動演奏プログラム及び自動演奏方法を提供することを目的としている。
この目的を達成するために本発明の自動演奏装置は、複数の演奏パターンを記憶するパターン記憶手段と、そのパターン記憶手段に記憶される演奏パターンに基づいて演奏を行う演奏手段と、入力装置から演奏情報を入力する入力手段と、その入力手段で入力された演奏情報からリズムを検出するリズム検出手段と、前記パターン記憶手段に記憶された複数の演奏パターンのうち、前記リズム検出手段で検出されたリズムに対応する演奏パターンを取得する取得手段と、前記演奏手段により演奏されている演奏パターンを前記取得手段で取得された演奏パターンに切り替える切替手段とを備えている。
本発明の自動演奏プログラムは、記憶部と、演奏情報を入力する入力部とを備えたコンピュータに、自動演奏を実行させるプログラムであり、前記記憶部を、複数の演奏パターンを記憶するパターン記憶手段として機能させ、前記パターン記憶手段に記憶される演奏パターンに基づき演奏を行う演奏ステップと、前記入力部で演奏情報を入力する入力ステップと、その入力ステップで入力された演奏情報からリズムを検出するリズム検出ステップと、前記パターン記憶手段に記憶された複数の演奏パターンのうち、前記リズム検出ステップで検出されたリズムに対応する演奏パターンを取得する取得ステップと、前記演奏ステップにより演奏されている演奏パターンを前記取得ステップで取得された演奏パターンに切り替える切替ステップとを前記コンピュータに実行させるものである。
本発明の自動演奏方法は、複数の演奏パターンを記憶するパターン記憶手段と、演奏情報を入力する入力装置とを備えた自動演奏装置で実行される方法であり、前記パターン記憶手段に記憶される演奏パターンに基づき演奏を行う演奏ステップと、前記入力装置で演奏情報を入力する入力ステップと、その入力ステップで入力された演奏情報からリズムを検出するリズム検出ステップと、前記パターン記憶手段に記憶された複数の演奏パターンのうち、前記リズム検出ステップで検出されたリズムに対応する演奏パターンを取得する取得ステップと、前記演奏ステップにより演奏されている演奏パターンを前記取得ステップで取得された演奏パターンに切り替える切替ステップとを備えている。
一実施形態であるシンセサイザの外観図である。 (a)~(c)は、それぞれリズムパターンを表す図であり、(d)は、ベロシティの平均値が中間値よりも大きい場合を表す図であり、(e)は、ベロシティの平均値が中間値よりも大きい場合のドラムの音量変化を表す図であり、(f)は、ベロシティの平均値が中間値よりも大きい場合のベースの音量変化を表す図であり、(g)は、ベロシティの平均値が中間値よりも小さい場合のベロシティの変化を表す図であり、(h)は、ベロシティの平均値が中間値よりも小さい場合を表す図であり、(i)は、ベロシティの平均値が中間値よりも小さい場合のベースの音量変化を表す図であり、(j)は、鍵盤における鍵域を表す図である。 シンセサイザの機能ブロック図である。 (a)は、シンセサイザの電気的構成を示すブロック図であり、(b)は、リズムテーブルを模式的に示した図であり、(c)は、スタイルテーブルを模式的に示した図である。 メイン処理のフローチャートである。 演奏パターン切替処理のフローチャートである。 演奏パターン音量変更処理のフローチャートである。
以下、好ましい実施例について、添付図面を参照して説明する。図1は、一実施形態であるシンセサイザ1の外観図である。シンセサイザ1は、演奏者(ユーザ)の演奏操作による楽音や、所定の伴奏音等を混ぜ合わせて出力(放音)する電子楽器(自動演奏装置)である。シンセサイザ1は、演奏者の演奏による楽音や、伴奏音等を混ぜ合わせた波形データに対して演算処理を行うことで、リバーブやコーラス、ディレイ等の効果(エフェクト)を施すことができる。
図1に示す通り、シンセサイザ1には、主に鍵盤2と演奏者からの各種設定が入力される設定ボタン3とが配設される。鍵盤2には、複数の鍵2aが配設され、演奏者の演奏による演奏情報を取得するための入力装置である。演奏者による鍵2aの押鍵/離鍵操作(即ち演奏操作)に応じたMIDI(Musical Instrument Digital Interface)規格の演奏情報が、CPU10(図4参照)へ出力される。
本実施形態のシンセサイザ1には、発音タイミング毎に発音するノートが設定される演奏パターンPaが複数記憶され、演奏パターンPaに基づいて演奏を行うことで自動演奏が行われる。その際、記憶される演奏パターンPaのうち、演奏者による鍵2aの押鍵/離鍵のリズムに合致する演奏パターンPaに切り替えられる。また、鍵2aの押鍵のベロシティ(強度)に基づいて自動演奏されている演奏パターンPaの音量が変更される。以下、演奏パターンPaに基づく自動演奏のことを単に「自動演奏」と略す。
まず演奏パターンPaの切り替えを説明する。本実施形態では、鍵2aの押鍵/離鍵からリズムが検出され、そのリズムが予め設定されるリズムパターンと照合され、最も類似するリズムパターンに対応する演奏パターンPaが取得され、演奏中の演奏パターンPaから切り替えられる。
リズムパターンは、4分の4拍子における1小節中に配置される音のそれぞれの継続時間である「ノート継続時間」、配置されるそれぞれの音とその直前に発音される音との間の時間である「ノート間隔」、及び、配置される音の数である「音数」が設定されるものである。リズムパターンの長さは、最大で1小節とされる。
本実施形態では、リズムパターンRP1~RP3等の複数のリズムパターンが設けられ、鍵2aの押鍵/離鍵から検出されたリズムと、各リズムパターンとが照合され、最も類似するリズムパターンが取得される。図2(a)~(c)を参照し、リズムパターンRP1~RP3を例にリズムパターンを説明する。
図2(a)~(c)は、リズムパターンRP1~RP3を表す図である。リズムパターンRP1は、図2(a)に示すように、1小節中に2分音符が2つ配置されるものである。図2(a)においては、リズムパターンRP1を音符で表現したが、リズムパターンRP1の実データには、1つ目の2分音符のノート継続時間および2つ目の2分音符のノート継続時間と、1つ目の2分音符と2つ目の2分音符との間のノート間隔と、配置される音数(即ち「2」)とが設定される。
リズムパターンRP2は、図2(b)に示すように、1小節中に四分音符と四分休符とが、交互に配置されるものであり、リズムパターンRP3は、図2(c)に示すように、1小節中に3つ連続した八分音符と1つの八分休符とが、交互に配置されるものである。リズムパターンRP1と同様に、リズムパターンRP2,RP3の実データにもそれぞれ、1小節中に配置される音のノート継続時間、ノート間隔および音数が設定される。
リズムパターンに、複数のノート継続時間やノート間隔が含まれる場合は、リズムパターンの1小節内に出現する音の順に、対応するノート継続時間やノート間隔が設定される。本実施形態では、これらノート継続時間、ノート間隔および音数の組み合わせが、リズムパターンや鍵2aの押鍵/離鍵のリズムを表す指標として用いられる。
なお、図2(a)~(c)においては「ラ」(A)の位置に音符を配置しているが、本実施形態における、鍵2aの押鍵/離鍵から検出されたリズムとリズムパターンとの照合では、押鍵/離鍵された鍵2aの音高は問わないものとする。
このように設定された複数のリズムパターンと、鍵2aの押鍵/離鍵から検出されたリズム、即ち鍵2aの押鍵/離鍵から検出されたノート継続時間、ノート間隔および音数とが照合され、最も類似するリズムパターンが取得される。具体的には、鍵盤2から出力された演奏情報が順次蓄積され、直近の第1期間内に検出された演奏情報のノートオン/ノートオフの情報から、それぞれの音のノート継続時間およびノート間隔と、音数とが取得される。本実施形態では、第1期間として「3秒間」が設定されるが、これに限られず、第1期間は3秒間より長くても良いし、3秒間より短くても良い。
このうちノート継続時間として、直近の第1期間内において検出された、連続する同一の音高のノートオンからノートオフまでの時間が取得される。直近の第1期間内に、連続する同一の音高のノートオン及びノートオフが複数検出された場合は、検出されたノートオン及びノートオフの順に、それぞれのノート継続時間が取得される。
ノート間隔として、直近の第1期間内において検出された、あるノートオフからその次のノートオンまでの時間が取得される。ノート継続時間と同様に、直近の第1期間内に、ノートオフ及びノートオンが複数検出された場合は、検出されたノートオフ及びノートオンの順に、それぞれのノート間隔が取得される。また音数として、直近の第1期間内において検出されたノートオンの数が取得される。
複数のリズムパターンのそれぞれについて、リズムパターンに設定されるノート継続時間、ノート間隔および音数が、直近の第1期間内のノート継続時間、ノート間隔および音数とどれぐらい類似しているかを表す類似度が算出される。具体的に、まずノート継続時間、ノート間隔および音数のそれぞれについての「スコア」が取得され、取得されたスコアを合計することで類似度が算出される。
このうちノート継続時間のスコアについて、まずリズムパターンに含まれるノート継続時間と、対応する直近の第1期間内で取得されたノート継続時間との差分が算出される。算出された差分の絶対値が小さい順に1から5の整数がノート継続時間のスコアとして取得される。本実施形態では、ノート継続時間の差分の絶対値が0~0.05秒の間の場合は「5」がノート継続時間のスコアとして取得され、0.05~0.1秒の間の場合は「4」が、0.1~0.15秒の間の場合は「3」が、0.15~0.2秒の間の場合は「2」が、0.2秒より大きい場合は「1」がそれぞれノート継続時間のスコアとして取得される。リズムパターンに1つのノート継続時間のみが含まれる場合は、これらのスコアが当該リズムパターンのノート継続時間のスコアとして取得される。
一方でリズムパターンに複数のノート継続時間が含まれる場合、それら複数のノート継続時間毎に上記のスコアが取得され、取得されたスコアの平均値が当該リズムパターンのノート継続時間のスコアとされる。具体的に、リズムパターンからノート継続時間が順に取得され、一方で直近の第1期間内に取得されたノート継続時間も順に取得される。そして、取得されたリズムパターンのノート継続時間と、そのノート継続時間に対応する順番の直近の第1期間内に取得されたノート継続時間との各スコアが取得される。取得された各スコアの平均値が当該リズムパターンのノート継続時間のスコアとされる。
例えば、リズムパターンにノート継続時間が3つ含まれる場合は、そのリズムパターンの最初のノート継続時間と、直近の第1期間内に最初に取得されたノート継続時間とのスコアが取得される。また、リズムパターンの2番目のノート継続時間と、直近の第1期間内に2番目に取得されたノート継続時間とのスコアが取得され、リズムパターンの3番目のノート継続時間と、直近の第1期間内に3番目に取得されたノート継続時間とのスコアが取得される。このように取得された3つのスコアの平均値が当該リズムパターンのノート継続時間のスコアとされる。
ノート間隔のスコアについて、まずリズムパターンに含まれるノート間隔と、対応する直近の第1期間内のノート間隔との差分が算出される。算出された差分の絶対値が小さい順に1から5の整数がノート間隔のスコアとして取得される。ノート間隔の差分の絶対値が0~0.05秒の間の場合は「5」がノート間隔のスコアとして取得され、0.05~0.1秒の間の場合は「4」が、0.1~0.15秒の間の場合は「3」が、0.15~0.2秒の間の場合は「2」が、0.2秒より大きい場合は「1」がそれぞれノート間隔のスコアとして取得される。リズムパターンに1つのノート間隔のみが含まれる場合は、これらのスコアが当該リズムパターンのノート間隔のスコアとして取得される。
一方でリズムパターンに複数のノート間隔が含まれる場合、上記のノート継続時間と同様に、複数のノート間隔毎に上記のスコアが取得され、取得されたスコアの平均値が当該リズムパターンのノート間隔のスコアとされる。具体的に、リズムパターンからノート間隔が順に取得され、一方で直近の第1期間内に取得されたノート間隔も順に取得される。そして、取得されたリズムパターンのノート間隔と、そのノート間隔に対応する順番の直近の第1期間内に取得されたノート間隔との各スコアが取得される。取得された各スコアの平均値が当該リズムパターンのノート間隔のスコアとされる。
音数のスコアについて、リズムパターンに含まれる音数と、取得された直近の第1期間内の音数との差分を算出し、算出された差分の絶対値が小さい順に1から5の整数が音数のスコアとして取得される。音数の差分の絶対値が0の場合は「5」が音数のスコアとして取得され、1の場合は「4」が、2の場合は「3」が、3の場合は「2」が、4以上の場合は「1」が当該リズムパターンの音数のスコアとして取得される。
なお、ノート継続時間またはノート間隔のスコアに対応する、ノート継続時間またはノート間隔の差分の絶対値の範囲や、ノート継続時間又はノート間隔のスコアの値は上記したものに限られず、その他のノート継続時間またはノート間隔の差分の絶対値の範囲や、ノート継続時間またはノート間隔のスコアの値が設定されても良い。同様に、音数のスコアに対応する音数の差分の絶対値の範囲や、音数のスコアの値は上記に限られず、その他の音数の差分の絶対値の範囲や、音数のスコアの値が設定されても良い。
このように取得されたノート継続時間、ノート間隔および音数のスコアの合計が、当該リズムパターンの類似度として算出される。複数のリズムパターンの全てについて同様に類似度が算出される。そして、複数のリズムパターンのうち類似度が最も大きなリズムパターンが、直近の第1期間内に取得された鍵2aの押鍵/離鍵のリズムに最も類似したリズムパターンとして取得される。
そして、取得された最も類似したリズムパターンに対応する演奏パターンPaが取得され、演奏している演奏パターンPaから切り替えられる。これにより、演奏者は演奏している鍵盤2から手を放し、設定ボタン3を操作する等、演奏を中断することなく、鍵盤2の演奏のリズムに適合した演奏パターンPaに自動的に切り替えることができる。
次に、自動演奏される演奏パターンPaの音量の変更を説明する。本実施形態では、演奏パターンPaの音量が鍵2aの押鍵時のベロシティに基づいて変更される。より具体的に、演奏パターンPaには、ドラム、ベース、アカンプ(音高を有する楽器)等の複数の演奏パートが含まれ、演奏パート毎に鍵2aの押鍵時のベロシティに基づいて音量が変更される。
まず、上記した演奏パターンPaの切り替えと同様に、鍵盤2から出力された演奏情報が順次蓄積され、直近の第2期間内に取得された演奏情報の各ベロシティが取得される。そして、取得された各ベロシティの平均値Vが算出される。本実施形態では、第2期間として第1期間と同様「3秒間」が設定されるが、これに限られず、第2期間は3秒間よりも長くても良いし、短くても良い。
算出された平均値Vからベロシティの中間値Vmを減算した値である差分値ΔVが算出される。ベロシティの中間値Vmは、差分値ΔVの算出において基準となる基準値であり、本実施形態においてベロシティが取り得る最大値の「127」と最小値の「0」との中間値である「64」が設定される。ここで中間値とは、ベロシティが取り得る最大値と最小値とを足して2で割った値、または、その前後の値を意味し、「略中間値」と表現しても良い。
そして、算出された差分値ΔVに演奏パート毎に設定される重み係数を乗算した値を、演奏パート毎の音量の設定値に加算したものが、変更後の演奏パート毎の音量とされる。図2(d)~(i)を参照して、演奏パターンPaの音量の変更を説明する。
図2(d)は、ベロシティの平均値Vが中間値Vmよりも大きい場合を表す図であり、図2(e)は、ベロシティの平均値Vが中間値Vmよりも大きい場合のドラムの音量変化を表す図であり、図2(f)は、ベロシティの平均値Vが中間値Vmよりも大きい場合のベースの音量変化を表す図である。
図2(d)に示すように、ベロシティの平均値Vaがベロシティの中間値Vmより大きい場合は、ベロシティの平均値Vaとベロシティの中間値Vmとの差分値ΔVaは正の値となる。このような正の値の差分値ΔVaに演奏パート毎の重み係数を乗算した値が、それぞれ各演奏パートの音量の変化量とされ、各演奏パートの音量の設定値に算出された音量の変化量を加算したものが、変更後の各演奏パートの音量とされる。本実施形態において各演奏パートの音量の設定値は、設定ボタン3で設定される。
本実施形態において重み係数は、演奏パターンPa毎およびその演奏パターンPaの演奏パート毎に、設定ボタン3を介して予め演奏者によって設定される。特に、ある演奏パートについて重み係数を0に設定すれば、その演奏パートの音量はベロシティの平均値Vに依らず一定(即ち音量の設定値のまま)とすることができる。なお、α,β等の重み係数は演奏パターンPa及び演奏パートによらず、全て同一の値でも良い。
また、本実施形態において音量の設定値は、演奏パターンPa毎および演奏パート毎に、設定ボタン3を介して予め演奏者によって設定される。なお、音量の設定値も演奏パターンPa及び演奏パートによらず、全て同一の音量でも良い。
例えば図2(e)に示すように、演奏パートのうちのドラムの音量の変化量は、差分値ΔVaにドラムの重み係数α(ただし、α>0)を乗算したαΔVaとされる。この音量変化αΔVaを、ドラムの音量の設定値d1に加算した結果の音量d2が、変更後のドラムの音量とされる。
同様に、図2(f)に示すように、演奏パートのうちのベースの音量の変化量は、差分値ΔVaにベースの重み係数βを乗算したβΔVaとされる。本実施形態において重み係数β(ただし、β>0)は、上記したドラムの重み係数αよりも大きい値とされる。ベースの音量の設定値b1に音量変化βΔVaを加算した結果の音量b2が変更後のベースの音量とされる。
本実施形態において、α,β等の重み係数は、演奏パターンPa毎およびその演奏パターンPaの演奏パート毎に予め設定される。なお、α,β等の重み係数は演奏パターンPa及び演奏パートによらず全て同一の係数を設定しても良いし、重み係数を設定ボタン3を介して演奏者が任意に設定できるようにしても良い。また、重み係数を正の値としたが、これに限られず、負の値としても良い。
図2(d)~(f)において差分値ΔVaは正の値であり、更に重み係数α,βがそれぞれ正の値であるため、変更後のドラム、ベースの音量d2,b2は、それぞれドラム、ベースの音量の設定値d1,b1よりも大きくなる。即ち演奏者の演奏の盛り上がりにより、鍵2aの強打が継続された場合に、それに応じて演奏パターンPaの音量が増大される。このように音量が変化する演奏パターンPaによって、演奏者の演奏をより盛り上げることができる。
次に、差分値ΔVが負である場合を説明する。図2(g)は、ベロシティの平均値Vが中間値Vmよりも小さい場合を表す図であり、図2(h)は、ベロシティの平均値Vが中間値Vmよりも小さい場合のドラムの音量変化を表す図であり、図2(i)は、ベロシティの平均値Vが中間値Vmよりも小さい場合のベースの音量変化を表す図である。
図2(g)に示すように、ベロシティの平均値Vbがベロシティの中間値Vmよりも小さい場合は、ベロシティの平均値Vbとベロシティの中間値Vmとの差分値ΔVbは、負の値となる。
図2(h)に示すように、ドラムの音量の変化量は、差分値ΔVbに重み係数αを乗算したαΔVbとされる。ドラムの音量の設定値d1に音量変化αΔVbを加算した結果の音量d3が、変更後のドラムの音量とされる。同様に、図2(i)に示すように、演奏パートのうちのベースの音量の変化量は、差分値ΔVbに重み係数βを乗算したβΔVaとされる。ベースの音量の設定値b1に音量変化βΔVaを加算した結果の音量b3が変更後のベースの音量とされる。
図2(g)~(i)において差分値ΔVbは負の値であり、更に重み係数α,βがそれぞれ正の値であるため、変更後のドラム、ベースの音量d3,b3は、それぞれドラム、ベースの音量の設定値d1,b1よりも小さくなる。即ち演奏者が演奏において繊細な表現をするために、鍵2aの弱打が継続された場合に、それに応じて演奏パターンPaの音量が低減される。これにより、演奏者の繊細な演奏に合致しつつも、演奏の妨げにならない演奏パターンPaを自動演奏することができる。
本実施形態では、各演奏パートの音量が、音量の設定値にベロシティの差分値ΔVに基づく値を加算したものとされる。即ち各演奏パートの音量は、音量の設定値を中心とし、差分値ΔVの正負および大きさに応じて変動するため、音量の設定値から著しくかけ離れるのが抑制される。従って、演奏パターンPaにおける演奏パート間の音量のバランスを、予め演奏パート毎に設定された音量の設定値のバランスに近似した状態を維持することができる。これにより、鍵2aの押鍵時のベロシティに基づいて演奏パターンPaの演奏パート毎の音量を変更する場合の、聴取者の違和感を抑制できる。
また、演奏パート毎に重み係数を異ならせることで、音量の変化量を演奏パート毎に異ならせることができる。これにより、演奏パターンPaの各演奏パートの音量の変化が画一的になるのを抑制でき、変化の富んだ表現豊かな自動演奏を実現できる。
以上のように本実施形態では、鍵2aの押鍵/離鍵のリズムに応じて演奏パターンPaを切り替え、鍵2aの押鍵時のベロシティに応じて演奏パターンPaの音量を変更するが、更に演奏パターンPaの切り替えに用いられる演奏情報を出力する鍵盤2における鍵2aの範囲と、演奏パターンPaの音量の変更に用いられる演奏情報を出力する鍵盤2における鍵2aの範囲とが設定可能に構成される。以下、鍵盤2における鍵2aの一連の範囲のことを「鍵域」という。
図2(j)は、鍵盤2における鍵域を表す図である。具体的に、鍵域としては主に、鍵盤2に設けられる全ての鍵2aで構成される鍵域kAと、鍵盤2のうちの最も低音に該当する鍵2aから中央付近の音に該当する鍵2aまでの範囲で構成される鍵域kLと、その鍵域kLよりも高音な鍵2aで構成される鍵域kRとが主に設けられる。
このうち、鍵域kLは演奏者が左手で演奏する左手パートに対応する。一方、鍵域kRは演奏者が右手で演奏する右手パートに対応する。本実施形態では、演奏パターンPaの切り替えに用いられる鍵域であるリズム鍵域kHとして、鍵域kLが設定される。
ここで鍵域kLは、演奏者の左手パートに対応する鍵域であり、左手パートでは主に伴奏が演奏され、その伴奏によりリズムが生み出される。このような左手パートに対応する鍵域kLの演奏情報からリズムが検出され、そのリズムに基づいて演奏パターンPaを切り替えることで、演奏者の演奏におけるリズムに合致した演奏パターンPaを自動演奏することができる。
一方で、演奏パターンPaの音量の変更に用いられる鍵域であるベロシティ鍵域kVとして、鍵域kRが設定される。ここで鍵域kRは、演奏者の右手パートに対応する鍵域であり、右手パートでは主に主旋律が演奏される。このように主旋律が演奏される鍵域kRの演奏情報からベロシティが検出され、そのベロシティに基づいて演奏パターンPa音量を変更することで、演奏の主旋律の抑揚に合致した音量の演奏パターンPaを自動演奏することができる。
次に図3を参照して、シンセサイザ1の機能を説明する。図3は、シンセサイザ1の機能ブロック図である。図3に示すように、シンセサイザ1は、パターン記憶手段200と、演奏手段201と、入力手段202と、リズム検出手段203と、取得手段204と、切替手段205とを有する。
パターン記憶手段200は、複数の演奏パターンを記憶する手段であり、図4で後述のスタイルテーブル11cで実現される。演奏手段201は、パターン記憶手段200に記憶される演奏パターンに基づいて演奏を行う手段であり、図4で後述のCPU10で実現される。入力手段202は、入力装置から演奏情報を入力する手段であり、CPU10で実現される。また、入力装置は鍵盤2で実現される。
リズム検出手段203は、入力手段202で入力された演奏情報からリズムを検出する手段であり、CPU10で実現される。取得手段204は、パターン記憶手段200に記憶された複数の演奏パターンのうち、リズム検出手段203で検出されたリズムに対応する演奏パターンを取得する手段であり、CPU10で実現される。切替手段205は、演奏手段201により演奏されている演奏パターンを、取得手段204で取得された演奏パターンに切り替える手段であり、CPU10で実現される。
入力された演奏情報から検出されたリズムに基づいて演奏パターンが取得され、取得された演奏パターンが演奏されている演奏パターンに切り替えられる。これにより、演奏者は演奏を中断することなく、演奏に適合した演奏パターンに、自動的に切り替えることができる。
次に、図4を参照して、シンセサイザ1の電気的構成を説明する。図4(a)は、シンセサイザ1の電気的構成を示すブロック図である。シンセサイザ1は、CPU10と、フラッシュROM11と、RAM12と、上記した鍵盤2及び設定ボタン3と、音源13と、DSP(Digital Signal Processor)14とを有し、それぞれバスライン15を介して接続される。DSP14にはDAC(Digital Analog Converter)16が接続され、そのDAC16にはアンプ17が接続され、アンプ17にはスピーカ18が接続される。
CPU10は、バスライン15により接続された各部を制御する演算装置である。フラッシュROM11は書き換え可能な不揮発性のメモリであり、制御プログラム11aと、リズムテーブル11bと、スタイルテーブル11cとを有している。CPU10によって制御プログラム11aが実行されると、図5のメイン処理が実行される。リズムテーブル11bは、上記したリズムパターンが記憶されるデータテーブルであり、スタイルテーブル11cは、上記した演奏パターンPaが記憶されるデータテーブルである。図4(b),(c)を参照して、リズムテーブル11b及びスタイルテーブル11cを説明する。
図4(b)は、リズムテーブル11bを模式的に示した図である。リズムテーブル11bには、リズムの複雑さを表すリズムレベル(L1,L2,・・・)と、そのリズムレベルに対応するリズムパターン(RP1,RP2,RP3,・・・)とが対応付けられて記憶される。
「リズムの複雑さ」は、1小節中に配置される音と音との時間間隔や、1小節中に配置される音の不規則さ等により設定される。例えば、1小節中に配置される音と音との時間間隔が短い程「リズムが複雑」とされ、1小節中に配置される音と音との時間間隔が長い程「リズムがシンプル」であるとされる。また、1小節中に音が不規則に配置される程「リズムが複雑」とされ、1小節中に音が規則的に配置される程「リズムがシンプル」とされる。リズムレベルは、リズムがシンプルな順にレベルL1、レベルL2、レベルL3、・・・が設定される。またリズムテーブル11bのリズムパターンには、上記したノート継続時間、ノート間隔および音数が記憶される。
詳細は後述するが、演奏パターンPaの切り替えにおいては、検出された鍵2aの押鍵/離鍵のリズムと、リズムテーブル11bに記憶される全てのリズムパターンとの類似度が算出され、最も類似度が高いリズムパターンに対応するリズムレベルが取得される。
図4(c)は、スタイルテーブル11cを模式的に示した図である。スタイルテーブル11cには、上記したリズムレベル毎に、そのリズムレベルに対応する演奏パターンPaが記憶される。演奏パターンPaは、更にイントロ、メイン(メイン1、メイン2等)、エンディング等の曲の段階を表すセクション毎に設定される。
例えば、レベルL1に対応する演奏パターンPaとして、イントロ用の演奏パターンPa_L1_i、メイン1用の演奏パターンPa_L1_m1、エンディング用の演奏パターンPa_L1_e等がスタイルテーブル11cに記憶される。同様に、レベルL2,L3及びそれ以外のリズムレベルについても、それぞれセクション毎の演奏パターンPaが記憶される。
詳細は後述するが、鍵2aの押鍵/離鍵のリズムに基づき取得されたリズムレベルと、設定ボタン3を介して設定されたセクションとに対応する演奏パターンPaがスタイルテーブル11cから取得され、自動演奏されている演奏パターンPaが、取得された演奏パターンPaに切り替えられる。
図4(a)に戻る。RAM12は、CPU10が制御プログラム11a等のプログラム実行時に各種のワークデータやフラグ等を書き換え可能に記憶するメモリであり、上記したリズム鍵域kHが記憶されるリズム鍵域メモリ12aと、上記したベロシティ鍵域kVが記憶されるベロシティ鍵域メモリ12bと、入力情報メモリ12cと、上記したリズムレベルが記憶されるリズムレベルメモリ12dと、上記したセクションが記憶されるセクションメモリ12eと、演奏パターンPaの演奏パート毎の音量が記憶される音量メモリ12fとを有している。
入力情報メモリ12cには、鍵盤2から入力された演奏情報とその演奏情報が入力された時刻とを組み合わせた情報が、演奏情報が入力された順に記憶される。本実施形態において、入力情報メモリ12cはリングバッファで構成され、直近の第1期間(第2期間)内の、演奏情報とその演奏情報が入力された時刻とを組み合わせた情報を記憶可能に構成される。以下、演奏情報とその演奏情報が入力された時刻とを組み合わせた情報のことを「入力情報」という。
音源13は、CPU10から入力される演奏情報に応じた波形データを出力する装置である。DSP14は、音源13から入力された波形データを演算処理するための演算装置である。DAC16は、DSP14から入力された波形データを、アナログ波形データに変換する変換装置である。アンプ17は、DAC16から出力されたアナログ波形データを、所定の利得で増幅する増幅装置である。スピーカ18は、アンプ17で増幅されたアナログ波形データを楽音として放音(出力)する出力装置である。
次に、図5~図7を参照して、CPU10で実行されるメイン処理について説明する。図7は、メイン処理のフローチャートである。メイン処理は、シンセサイザ1の電源投入時に実行される処理である。
メイン処理はまず、設定ボタン3を介して演奏者から演奏パターンPaの自動演奏の開始指示をあったかを確認する(S1)。S1の処理において、演奏パターンPaの自動演奏の開始指示がなかった場合は(S1:No)、S1の処理を繰り返す。一方でS1の処理において、演奏パターンPaの自動演奏の開始指示があった場合は(S1:Yes)、リズム鍵域kH、ベロシティ鍵域kV、リズムレベル、セクション及び演奏パターンPaの各演奏パートの音量の初期値を、それぞれリズム鍵域メモリ12a、ベロシティ鍵域メモリ12b、リズムレベルメモリ12d、セクションメモリ12e及び音量メモリ12fに設定する(S2)。
具体的に、リズム鍵域メモリ12aには鍵域kL(図2(j)参照)が設定され、ベロシティ鍵域メモリ12bには鍵域kR(図2(j)参照)が設定され、リズムレベルメモリ12dにはレベルL1が設定され、セクションメモリ12eにはイントロが設定され、音量メモリ12fには、各演奏パートの音量の初期値として設定ボタン3で設定された値が取得され設定される。なお、S2の処理で各メモリに設定される初期値は、これに限られず、他の値が設定されても良い。
S2の処理の後、リズムレベルメモリ12d及びセクションメモリ12eのリズムレベル及びセクションの初期値に応じた演奏パターンPaをスタイルテーブル11cから取得する。取得された演奏パターンPaの各演奏パートの音量に、音量メモリ12fの各演奏パートの音量の初期値を適用したものの自動演奏を開始する(S3)。
S3の処理の後、キー入力、即ち、鍵2aからの演奏情報が入力されたかを確認する(S4)。S4の処理において、鍵2aからの演奏情報が入力された場合は(S4:Yes)、入力された演奏情報に対応する楽音を出力する(S5)。具体的に、入力された演奏情報が音源13に出力され、音源13において入力された演奏情報に対応する波形データが取得され、その波形データがDSP14、DAC16、アンプ17及びスピーカ18を介することで楽音として出力される。これにより、演奏者の演奏に応じた楽音が出力される。
S5の処理の後、入力された演奏情報とその演奏情報が入力された時刻とを、入力情報として入力情報メモリ12cに追加する(S6)。S4の処理において、鍵2aからの演奏情報が入力されていない場合は(S4:No)、S5,S6の処理をスキップする。
S4,S6の処理の後、設定ボタン3を介して演奏者からリズム鍵域kH又はベロシティ鍵域kVが変更されたかを確認する(S7)。S7の処理において、リズム鍵域kH又はベロシティ鍵域kVが変更された場合は、変更されたリズム鍵域kH又はベロシティ鍵域kVを、対応するリズム鍵域メモリ12a又はベロシティ鍵域メモリ12bに保存する(S8)。一方で、リズム鍵域kH及びベロシティ鍵域kVが変更されない場合は(S7:No)、S8の処理をスキップする。
S7,S8の処理の後、図6,7で後述の演奏パターン切替処理(S9)及び演奏パターン音量変更処理(S10)を実行する。S10の演奏パターン音量変更処理の後、シンセサイザ1のその他の処理(S11)を実行し、S4以下の処理を繰り返す。ここで、図6,7を参照して、S9の演奏パターン切替処理とS10の演奏パターン音量変更処理とを説明する。
図6は、演奏パターン切替処理のフローチャートである。演奏パターン切替処理はまず、設定ボタン3を介して演奏者からセクションが変更されたかを確認する(S20)。S20の処理において、セクションが変更された場合は(S20:Yes)、変更されたセクションを取得し、セクションメモリ12eに保存する(S21)。これにより、演奏者が演奏している段階を考慮して、設定ボタン3で設定されたセクションがセクションメモリ12eに記憶される。記憶されたセクションは、後述するS30,S31の処理によって自動演奏される演奏パターンPaに反映される。
一方でS20の処理において、セクションが変更されない場合は(S20:No)、S21の処理をスキップする。S20,S21の処理の後、パターン自動切替がオンかを確認する(S22)。パターン自動切替は、図2で上記した鍵2aの押鍵/離鍵のリズムに基づいて演奏パターンPaを切り替えるかどうかの設定である。パターン自動切替がオンの場合は、鍵2aの押鍵/離鍵から検出されたリズムによって演奏パターンPaを切り替えられる。一方で、パターン自動切替がオフの場合は、設定ボタン3を介して演奏者から設定されたリズムレベルに対応する演奏パターンPaに切り替えられる。
S22の処理において、パターン自動切替がオンの場合は(S22:Yes)、前回のS24~S26(詳細は後述)の処理によるリズムレベルの決定から第1期間が経過したかを確認する(S23)。S23の処理において、前回のリズムレベルの決定から第1期間が経過した場合は(S23:Yes)、直近の第1期間内の入力情報メモリ12cの入力情報であって、リズム鍵域メモリ12aのリズム鍵域kHに該当する演奏情報の入力情報からリズムを取得する(S24)。
具体的にS24の処理では、入力情報メモリ12cから直近の第1期間内の入力情報が取得され、取得された入力情報のうち、リズム鍵域kHに該当する演奏情報の入力情報が更に取得される。取得された入力情報から、図2で上記した手法によりリズム、即ちノート継続時間、ノート間隔および音数が取得される。
S24の処理の後、S24の処理で取得されたリズムとリズムテーブル11bの各リズムパターンとの類似度を算出する(S25)。具体的には、図2で上記した通り、リズムテーブル11bに記憶されるリズムパターン毎にノート継続時間、ノート間隔および音数と、S24の処理で取得されたノート継続時間、ノート間隔および音数とのスコアがそれぞれ取得され、リズムパターン毎に取得されたノート継続時間、ノート間隔および音数スコアを合計することで、リズムパターン毎の類似度が算出される。
S25の処理の後、算出されたリズムパターン毎の類似度のうち、最も高い類似度のリズムパターンに対応するリズムレベルをリズムテーブル11bから取得し、リズムレベルメモリ12dに保存する(S26)。これによって、直近の第1期間内に鍵2aの押鍵/離鍵から検出されたリズムに最も類似するリズムパターンに対応するリズムレベルが、リズムレベルメモリ12dに保存される。
S23の処理において、前回のリズムレベルの決定から第1期間が経過していない場合は(S23:Yes)、S24~S26の処理をスキップする。
S22の処理において、パターン自動切替がオフの場合は(S22:No)、設定ボタン3を介して演奏者からリズムレベルが変更されたかを確認する(S27)。S27の処理において、演奏者からリズムレベルが変更された場合は(S27:Yes)、変更されたリズムレベルをリズムレベルメモリ12dに保存する(S28)。一方でS27の処理において、演奏者からリズムレベルが変更されていない場合は(S27:No)、S28の処理をスキップする。
S23,S26~S28の処理の後、S20~S28の処理によってリズムレベルメモリ12d又はセクションメモリ12eの値が変更されたかを確認する(S29)。S29の処理において、リズムレベルメモリ12d又はセクションメモリ12eの値が変更されたことを確認した場合は(S29:Yes)、リズムレベルメモリ12dのリズムレベル及びセクションメモリ12eのセクションに対応する演奏パターンPaをスタイルテーブル11cから取得する(S30)。
S30の処理の後、自動演奏を行う出力対象の演奏パターンPaを、S30の処理で取得された演奏パターンPaに切り替える(S31)。S31の処理によって演奏パターンPaに切り替えられた場合、切り替えられる前の演奏パターンPaの終端までその演奏パターンPaによる自動演奏を行った後に、S30の処理で取得された演奏パターンPaによる自動演奏が開始される。これにより、自動演奏している演奏パターンPaの途中で、別の演奏パターンPaに切り替わることが抑制されるので、演奏パターンPaの切り替えに対する聴取者の違和感を抑制できる。
S29の処理において、リズムレベルメモリ12d及びセクションメモリ12eの値がいずれも変更されなかったことを確認した場合は(S29:No)、S30,S31の処理をスキップする。S29,S31の処理の後、演奏パターン切替処理を終了する。
図7は、演奏パターン音量変更処理のフローチャートである。演奏パターン音量変更処理はまず、音量自動変更がオンかを確認する(S40)。音量自動変更は、図2で上記した鍵2aの押鍵/離鍵から検出されたベロシティによって演奏パターンPaの各演奏パートの音量を変更するかどうかの設定である。音量自動変更がオンの場合は、鍵2aの押鍵時のベロシティに基づき各演奏パートの音量が変更を切り替えられる。一方で、音量自動変更がオフの場合は、各演奏パートの音量が設定ボタン3を介して演奏者から設定された音量に変更される。
S40の処理において、音量自動変更がオンの場合は(S40:Yes)、前回のS42,S43(詳細は後述)の処理、即ち前回の音量の決定から第2期間が経過したかを確認する(S41)。S41の処理において、前回の音量の決定から第2期間が経過した場合は(S41:Yes)、直近の第2期間内の入力情報メモリ12cの入力情報であって、ベロシティ鍵域メモリ12bのベロシティ鍵域kVに該当する演奏情報の入力情報からベロシティの平均値Vを取得する(S42)。
具体的にS42の処理では、入力情報メモリ12cから直近の第2期間内の入力情報が取得され、取得された入力情報のうち、ベロシティ鍵域kVに該当する演奏情報の入力情報が更に取得される。取得された入力情報の演奏情報から各ベロシティが取得され、取得された各ベロシティの平均を算出することでベロシティの平均値Vが取得される。
S42の処理の後、取得されたベロシティの平均値Vから各演奏パートの音量を決定し、音量メモリ12fに保存する(S43)。具体的には図2で上記した通り、ベロシティの平均値Vからベロシティの中間値Vmを減算した差分値ΔVが算出され、算出された差分値ΔVに、演奏パート毎の重み係数(図2におけるα,β等)を乗算した変化量が算出される。
そして、演奏パート毎に設定ボタン3により設定されている音量の設定値が取得され、算出された演奏パート毎の変化量を、取得された音量の設定値にそれぞれ加算することで、演奏パート毎の変更後の音量が算出される。そして、算出された変更後の音量のそれぞれが音量メモリ12fに保存される。これによって、鍵2aの押鍵/離鍵のベロシティに応じて設定された演奏パターンPaの各演奏パートの音量が音量メモリ12fに保存される。
S41の処理において、前回の音量の決定から第2期間が経過していない場合は(S41:No)、S42,S43の処理をスキップする。S40の処理において、音量自動切替がオフの場合は(S40:No)、設定ボタン3を介して演奏者から演奏パターンPaの各演奏パートのいずれかの音量が変更されたかを確認する(S44)。
S44の処理において、各演奏パートのいずれかの音量が変更された場合は(S44:Yes)、変更された演奏パートの音量を音量メモリ12fに保存する(S45)。一方でS44の処理において、各演奏パートの音量が変更されていない場合は(S44:No)、S45の処理をスキップする。
S41,S43~S45の処理の後、S40~S45の処理によって音量メモリ12fの値が変更されたかを確認する(S46)。S46の処理において、音量メモリ12fの値が変更されたことを確認した場合は(S46:Yes)、音量メモリ12fの各演奏パートの音量を自動演奏している演奏パターンPaの各演奏パートの音量に適用する(S47)。
この際、自動演奏している演奏パターンPaの各演奏パートに変更後の音量が即時に適用される。これにより、鍵2aの押鍵時のベロシティの変化に追従して、演奏パターンPaの音量を変化させることができるので、演奏者の演奏の盛り上がりや繊細な演奏に追従した好適な音量の演奏パターンPaを自動演奏できる。
一方で、S46の処理において音量メモリ12fの値が変更されていないことを確認した場合は(S46:No)、S47の処理をスキップする。S46,S47の処理の後、演奏パターン音量変更処理を終了する。
以上、上記実施形態に基づき説明したが、種々の改良変更が可能であることは容易に推察できるものである。
上記実施形態では、図6のS24~S26の処理においてレベルL1,L2等のリズムレベルを鍵2aの押鍵/離鍵のリズムに応じて取得したが、これに限られない。リズムレベルを鍵2aの押鍵/離鍵に関する他の情報、例えば、鍵2aの押鍵時のベロシティに応じてリズムレベルを取得しても良い。この場合、ベロシティが小さい順にレベルL1,L2,・・・と取得すれば良い。
これにより、鍵2aの押鍵時のベロシティが大きい程、複雑なリズムのリズムレベルが取得されるので、鍵2aの押鍵時のベロシティが大きく、盛り上がりのある演奏の場合に、その演奏に拍車をかけるように複雑なリズムに対応する演奏パターンPaの自動演奏を出力できる。一方で、鍵2aの押鍵時のベロシティが小さく繊細な演奏の場合、その演奏の雰囲気を壊さない、シンプルなリズムに対応する演奏パターンPaの自動演奏を出力できる。
上記実施形態では、図7のS43の処理においてベロシティの差分値ΔVを用いて、変更後の各演奏パートの音量を設定したが、これに限られない。例えば、ベロシティの差分値ΔVの代わりに、鍵2aの押鍵/離鍵のリズムに応じて変更後の各演奏パートの音量を設定しても良い。具体的に、鍵2aの押鍵/離鍵のリズムに基づいてリズムレベルが取得され、そのリズムレベルに相当する数値を取得し、その数値に重み係数を乗算したものを各演奏パートの音量の設定値に加算することで、変更後の各演奏パートの音量を算出しても良い。
この場合「リズムレベルに相当する数値」として、例えば、リズムが最もシンプルなレベルL1に「-5」、レベルL2に「0」、レベルL3に「5」のように、リズムがシンプルな程「リズムレベルに相当する数値」に小さな値を設定し、リズムが複雑な程「リズムレベルに相当する数値」に大きな値を設定すれば良い。
これにより、鍵2aの押鍵/離鍵が素早く繰り返される、リズムが速く盛り上がりのある演奏の場合に、その演奏に拍車をかけるように音量の大きな演奏パターンPaの自動演奏を出力できる。一方で、鍵2aの押鍵/離鍵がゆっくり行われる、リズムが遅く繊細な演奏の場合、その演奏の雰囲気を壊さない、音量の小さな演奏パターンPaの自動演奏を出力できる。
なお、変更後の各演奏パートの音量の設定に、ベロシティの差分値ΔVと鍵2aの押鍵/離鍵のリズムとの両方を用いても良い。また、ベロシティの差分値ΔVのみを用いて変更後の音量を設定する演奏パートと、鍵2aの押鍵/離鍵のリズムのみを用いて変更後の音量を設定する演奏パートと、ベロシティの差分値ΔVと鍵2aの押鍵/離鍵のリズムとの両方を用いて変更後の音量を設定する演奏パートとを混在させても良い。
上記実施形態では、図2(d),(g)において、差分値ΔVの算出の基準となる基準値を、ベロシティの中間値Vmとしたが、これに限られない。例えば、基準値をベロシティが取り得る最大値でも良いし、最小値でも良いし、最大値と最小値との間の任意の値でも良い。また、基準値をセクションメモリ12eのセクションや自動演奏している演奏パターンPa毎に変化させても良い。
上記実施形態では、図2(a)~(c)においてリズムパターンの長さを4分の4拍子における1小節としたが、これに限られない。リズムパターンの長さは1小節以上でも良いし、1小節以下でも良い。また、リズムパターンの長さの1小節の基準となる拍子は、4分の4拍子に限られず、4分の3拍子や4分の2拍子等の他の拍子でも良い。また、リズムパターンに用いられる時間の単位は小節に限られず、秒や分、Tick値など、他の時間の単位を用いても良い。
上記実施形態では、リズムパターンにテンポを定義しなかったが、これに限られない。例えば、リズムパターンのテンポの初期値を120BPM(Beats Per Minute)とし、演奏者が設定ボタン3によりリズムパターンのテンポを変更できるようにしても良い。テンポが変更された場合には、それに応じてリズムパターンに含まれる音符と休符の実時間の長さを補正すれば良い。
上記実施形態では、図6のS25の処理において、鍵2aの押鍵/離鍵から検出されたリズムに最も類似するリズムパターンを、ノート継続時間、ノート間隔および音数のスコアに基づく類似度を用いて取得したが、これに限られない。類似度以外の他の指標を用いて、鍵2aの押鍵/離鍵から検出されたリズムに最も類似するリズムパターンを取得しても良い。
また、リズムを表す指標や類似度は、ノート継続時間、ノート間隔および音数に基づいて算出するものに限られない。例えば、ノート継続時間とノート間隔とに基づいて算出しても良いし、ノート継続時間と音数とに基づいて算出しても良いし、ノート間隔と音数とに基づいて算出しても良いし、ノート継続時間のみ、ノート間隔のみ又は音数のみに基づいて算出しても良い。また、類似度を、ノート継続時間、ノート間隔および音数とその他のリズムを表す指標とに基づいて算出しても良い。
上記実施形態では、リズムパターンには、含まれる音ぶんのノート継続時間およびノート間隔を設定したが、これに限られない。例えば、リズムパターンに含まれる音のノート継続時間およびノート間隔の平均値のみを設定しても良い。この場合、類似度の算出においては、この場合、直近の第1期間内に鍵2aの押鍵/離鍵から検出されたノート継続時間およびノート間隔の平均値と、リズムパターンに設定されるノート継続時間およびノート間隔の平均値との類似度をそれぞれ算出すれば良い。また、平均値の代わりに、ノート継続時間およびノート間隔の最大値や最小値、中央値等の他の値を用いても良い。更にリズムパターンに、ノート継続時間の平均値とノート間隔の最大値とを設定しても良いし、ノート継続時間の最小値とノート間隔の平均値とを設定しても良い。
上記実施形態では、リズムパターンに複数のノート継続時間またはノート間隔が含まれる場合、個々に取得されたノート継続時間またはノート間隔のスコアの平均値をノート継続時間またはノート間隔のスコアとしたが、これに限られない。個々に取得されたノート継続時間またはノート間隔のスコアの最大値や最小値、中央値などの他の値を、ノート継続時間またはノート間隔のスコアとしても良い。
上記実施形態では、類似度を、ノート継続時間のスコアと、ノート間隔のスコアと、音数のスコアとを合計したものとしたが、これに限られない。例えば、類似度を、ノート継続時間、ノート間隔および音数のスコアのそれぞれに重み係数を乗算し、重み係数を乗算したスコアを合計したものとしても良い。この場合、セクションメモリ12eのセクションに応じて、ノート継続時間、ノート間隔および音数のそれぞれの重み係数を変化させても良い。
これにより、鍵2aの押鍵/離鍵から検出されたリズムに最も類似するリズムパターンを取得する際に、ノート継続時間、ノート間隔および音数うちのどの指標を重視するかをセクション毎に変化させることができるので、よりセクションに合致した態様の演奏パターンPaを自動演奏することができる。
上記実施形態では、図6のS20,S21の処理により、セクションを設定ボタン3により演奏者が手動で変更したが、これに限られない。例えば、セクションを自動で変更させても良い。この場合、「イントロ」に該当する演奏パターンPaを終端まで自動演奏した場合に、「メイン1」に該当する演奏パターンPaを終端まで自動演奏し、「メイン2」に該当する演奏パターンPaを終端まで自動演奏し、・・・、最後に「エンディング」に該当する演奏パターンPaを終端まで自動演奏して、自動演奏を終了しても良い。
或いは、予め切り替えるセクションのプログラムを記憶させておき(例えば、イントロ→メイン1→メイン2を2回→メイン1を3回→・・・→エンディング)、記憶させた順に該当するセクションの演奏パターンPaの自動演奏を行っても良い。
上記実施形態では、第1期間と第2期間とを同一の時間としたが、これに限られない。第1期間と第2期間とを異なった時間にしても良い。また、図6のS24の処理において、リズムを取得する入力情報を直近の第1期間内の入力情報メモリ12cの入力情報としたが、これに限られない。例えば、直近の第1期間よりも短い期間の入力情報メモリ12cの入力情報でも良いし、直近の第1期間よりも長い期間の入力情報メモリ12cの入力情報でも良い。
同様に、図7のS42の処理において、ベロシティを取得する入力情報を直近の第2期間内の入力情報メモリ12cの入力情報としたが、これに限られない。例えば、直近の第2期間よりも短い期間の入力情報メモリ12cの入力情報でも良いし、直近の第2期間よりも長い期間の入力情報メモリ12cの入力情報でも良い。
上記実施形態では、図6のS31の処理において、演奏パターンPaを切り替える場合、自動演奏されている切り替える前の演奏パターンPaの終端までその演奏パターンPaによる自動演奏を行った後に、S30の処理で取得された演奏パターンPaによる自動演奏を開始したが、これに限られない。自動演奏されている切り替える前の演奏パターンPaの終端よりも前のタイミングで、S30の処理で取得された演奏パターンPaによる自動演奏をしても良い。
例えば、S31の処理が実行時に自動演奏されている演奏パターンがある拍子(ビート)の途中である場合は、その拍子までその演奏パターンPaで自動演奏をし、その次の拍子からS30の処理で取得された演奏パターンPaによる自動演奏を開始しても良い。
上記実施形態では、図7のS47の処理において、変更後の各演奏パートの音量を自動演奏している演奏パターンPaに即時に適用したが、これに限られない。例えば、S47の処理の実行時に、自動演奏されている演奏パターンPaが途中である場合は、変更前の音量で演奏パターンPaの終端まで自動演奏し、その次の演奏パターンPaの開始から変更後の音量で自動演奏をしても良い。また、S47の処理の実行時に自動演奏されている演奏パターンがある拍子(ビート)の途中である場合は、その拍子まで変更前の音量で自動演奏をし、その次の拍子から切り替えられた後の音量で自動演奏をしても良い。
上記実施形態では、図2(j)において、リズム鍵域kHやベロシティ鍵域kVに設定される鍵域を、鍵盤2における鍵2aの一連の範囲としたが、これに限られない。例えば、鍵域を、鍵盤2における飛び飛びの鍵2aで構成されても良い。例えば、図2(j)における鍵域kLのうちの白鍵の鍵2aをリズム鍵域kHに設定しても良いし、鍵域kRのうちの黒鍵の鍵2aをベロシティ鍵域kVに設定しても良い。
上記実施形態では、自動演奏装置としてシンセサイザ1を例示した。しかし、これに限られず、電子オルガンや電子ピアノ等、演奏者の演奏による楽音と共に、演奏パターンPaを自動演奏できる電子楽器に適用しても良い。
上記実施形態では、演奏情報を鍵盤2からの入力される構成とした。しかしながらこれに代えて、外部のMIDI規格の鍵盤キーボードをシンセサイザ1に接続し、かかる鍵盤キーボードから演奏情報を入力する構成としても良い。或いは、フラッシュROM11やRAM12に記憶されたMIDIデータから演奏情報を入力する構成としても良い。
上記実施形態では、自動演奏に用いられる演奏パターンPaとして、時系列順にノートが設定されたものを例示したが、これに限られない。例えば、人間の歌声や拍手、動物の鳴き声等の音声データを自動演奏に用いられる演奏パターンPaとしても良い。
上記実施形態では、伴奏音や楽音をシンセサイザ1に設けられた音源13、DSP14、DAC16、アンプ17及びスピーカ18から出力する構成とした。しかしながらこれに代えて、MIDI規格の音源装置をシンセサイザ1に接続し、かかる音源装置からシンセサイザ1の伴奏音や楽音を出力する構成としても良い。
上記実施形態では、制御プログラム11aをシンセサイザ1のフラッシュROM11に記憶し、シンセサイザ1上で動作する構成とした。しかし、必ずしもこれに限られるものではなく、PC(パーソナル・コンピュータ)や携帯電話、スマートフォンやタブレット端末等の他のコンピュータ上で制御プログラム11aを動作させる構成としても良い。この場合、シンセサイザ1の鍵盤2の代わりに、PC等に有線または無線で接続されたMIDI規格の鍵盤キーボードや文字入力用のキーボードから演奏情報を入力しても良いし、PC等の表示装置に表示されたソフトウェアキーボードから演奏情報を入力しても良い。
上記実施形態に挙げた数値は一例であり、他の数値を採用することは当然可能である。
1 シンセサイザ(自動演奏装置)
2 鍵盤(入力装置、入力部)
S4 入力手段、入力ステップ
11a 制御プログラム(自動演奏プログラム)
11c スタイルテーブル(パターン記憶手段)
S3 演奏手段、演奏ステップ
S24,S25 リズム検出手段、リズム検出ステップ
S26,S30 取得手段、取得ステップ
S31 切替手段、切替ステップ
S42 ベロシティ検出手段
S43 音量変更手段の一部、差分算出手段、設定値取得手段
S47 音量変更手段の一部

Claims (13)

  1. 複数の演奏パターンを記憶するパターン記憶手段と、
    そのパターン記憶手段に記憶される演奏パターンに基づいて演奏を行う演奏手段と、
    入力装置から演奏情報を入力する入力手段と、
    その入力手段で入力された演奏情報からリズムを検出するリズム検出手段と、
    前記パターン記憶手段に記憶された複数の演奏パターンのうち、前記リズム検出手段で検出されたリズムに対応する演奏パターンを取得する取得手段と、
    前記演奏手段により演奏されている演奏パターンを前記取得手段で取得された演奏パターンに切り替える切替手段とを備えていることを特徴とする自動演奏装置。
  2. 前記演奏情報には、音高が含まれ、
    前記リズム検出手段は、前記入力手段で入力された演奏情報のうち、所定の音高の演奏情報からリズムを検出するものであることを特徴とする請求項1記載の自動演奏装置。
  3. 前記入力装置は、複数の鍵を有する鍵盤で構成され、
    前記リズム検出手段は、前記入力手段で入力された演奏情報のうち、前記鍵盤において演奏者の左手で演奏する左手パートに対応する鍵で入力された演奏情報からリズムを検出するものであることを特徴とする請求項2記載の自動演奏装置。
  4. 前記リズム検出手段は、直近の第1期間内に前記入力手段で入力された演奏情報からリズムを検出するものであることを特徴とする請求項1記載の自動演奏装置。
  5. 前記演奏情報には、ベロシティが含まれ、
    前記入力手段で入力された演奏情報からベロシティを検出するベロシティ検出手段と、
    そのベロシティ検出手段で検出されたベロシティに基づいて、前記演奏手段により演奏されている演奏パターンの音量を変更する音量変更手段とを備えていることを特徴とする請求項1記載の自動演奏装置。
  6. 前記演奏情報には、音高が含まれ、
    前記ベロシティ検出手段は、前記入力手段で入力された演奏情報のうち、所定の音高の演奏情報のベロシティを検出するものであることを特徴とする請求項5記載の自動演奏装置。
  7. 前記入力装置は、複数の鍵を有する鍵盤で構成され、
    前記ベロシティ検出手段は、前記入力手段に入力された演奏情報のうち、前記鍵盤において演奏者の右手パートに対応する鍵で入力された演奏情報のベロシティを検出するものであることを特徴とする請求項6記載の自動演奏装置。
  8. 前記ベロシティ検出手段は、直近の第2期間内に前記入力手段で入力された演奏情報からベロシティを検出するものであることを特徴とする請求項5記載の自動演奏装置。
  9. 前記演奏パターンは、複数の演奏パートで構成され、
    前記音量変更手段は、前記ベロシティ検出手段で検出されたベロシティに基づいて、前記演奏手段により演奏されている演奏パターンの演奏パート毎の音量を変更するものであることを特徴とする請求項5記載の自動演奏装置。
  10. 前記音量変更手段は、
    前記ベロシティ検出手段で検出されたベロシティから、前記ベロシティの基準となる値である基準値を減算した値である差分値を算出する差分算出手段と、
    前記演奏パターンの音量の設定値を取得する設定値取得手段とを備え、
    前記設定値取得手段で取得された音量の設定値に、前記差分算出手段で算出された差分値に基づく値を加算した値を、前記演奏手段により演奏されている演奏パターンの音量に適用するものであることを特徴とする請求項5記載の自動演奏装置。
  11. 前記基準値は、前記ベロシティが取り得る最小値と最大値との略中間値であることを特徴とする請求項10記載の自動演奏装置。
  12. 記憶部と、演奏情報を入力する入力部とを備えたコンピュータに、自動演奏を実行させる自動演奏プログラムにおいて、
    前記記憶部を、複数の演奏パターンを記憶するパターン記憶手段として機能させ、
    前記パターン記憶手段に記憶される演奏パターンに基づき演奏を行う演奏ステップと、
    前記入力部で演奏情報を入力する入力ステップと、
    その入力ステップで入力された演奏情報からリズムを検出するリズム検出ステップと、
    前記パターン記憶手段に記憶された複数の演奏パターンのうち、前記リズム検出ステップで検出されたリズムに対応する演奏パターンを取得する取得ステップと、
    前記演奏ステップにより演奏されている演奏パターンを前記取得ステップで取得された演奏パターンに切り替える切替ステップとを前記コンピュータに実行させることを特徴とする自動演奏プログラム。
  13. 複数の演奏パターンを記憶するパターン記憶手段と、演奏情報を入力する入力装置とを備えた自動演奏装置で実行される自動演奏方法であって、
    前記パターン記憶手段に記憶される演奏パターンに基づき演奏を行う演奏ステップと、
    前記入力装置で演奏情報を入力する入力ステップと、
    その入力ステップで入力された演奏情報からリズムを検出するリズム検出ステップと、
    前記パターン記憶手段に記憶された複数の演奏パターンのうち、前記リズム検出ステップで検出されたリズムに対応する演奏パターンを取得する取得ステップと、
    前記演奏ステップにより演奏されている演奏パターンを前記取得ステップで取得された演奏パターンに切り替える切替ステップとを備えていることを特徴とする自動演奏方法。
JP2022169862A 2022-10-23 2022-10-24 自動演奏装置、自動演奏プログラム及び自動演奏方法 Pending JP2024062088A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022169862A JP2024062088A (ja) 2022-10-24 2022-10-24 自動演奏装置、自動演奏プログラム及び自動演奏方法
US18/460,662 US20240135907A1 (en) 2022-10-23 2023-09-03 Automatic performance device, non-transitory computer-readable medium, and automatic performance method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022169862A JP2024062088A (ja) 2022-10-24 2022-10-24 自動演奏装置、自動演奏プログラム及び自動演奏方法

Publications (1)

Publication Number Publication Date
JP2024062088A true JP2024062088A (ja) 2024-05-09

Family

ID=90970565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022169862A Pending JP2024062088A (ja) 2022-10-23 2022-10-24 自動演奏装置、自動演奏プログラム及び自動演奏方法

Country Status (2)

Country Link
US (1) US20240135907A1 (ja)
JP (1) JP2024062088A (ja)

Also Published As

Publication number Publication date
US20240135907A1 (en) 2024-04-25

Similar Documents

Publication Publication Date Title
JP3812328B2 (ja) 自動伴奏パターン発生装置及び方法
US8314320B2 (en) Automatic accompanying apparatus and computer readable storing medium
JP5574474B2 (ja) アドリブ演奏機能を有する電子楽器およびアドリブ演奏機能用プログラム
JP2658463B2 (ja) 自動演奏装置
JP6175812B2 (ja) 楽音情報処理装置及びプログラム
CN114446266A (zh) 音响处理系统、音响处理方法及程序
JP7190054B2 (ja) アルペジエータおよびその機能を備えたプログラム
US11908440B2 (en) Arpeggiator, recording medium and method of making arpeggio
JP7190053B2 (ja) アルペジエータおよびその機能を備えたプログラム
JP7190284B2 (ja) ハーモニー生成装置およびそのプログラム
JP5897805B2 (ja) 楽音制御装置
JP2024062088A (ja) 自動演奏装置、自動演奏プログラム及び自動演奏方法
JP7282183B2 (ja) アルペジエータおよびその機能を備えたプログラム
JP2010117419A (ja) 電子楽器
JP5564921B2 (ja) 電子楽器
JP5560574B2 (ja) 電子楽器および自動演奏プログラム
US20230035440A1 (en) Electronic device, electronic musical instrument, and method therefor
JP3239706B2 (ja) 歌唱音声合成装置
JP5692275B2 (ja) 電子楽器
JP2018155797A (ja) 電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム
JP2023098055A (ja) 自動演奏装置および自動演奏プログラム
JP2016057389A (ja) コード決定装置及びコード決定プログラム
JP2022046904A (ja) 電子楽器、録音再生プログラム及び録音再生方法
JP2636216B2 (ja) 楽音発生装置
JP2000029466A (ja) 電子鍵盤楽器