JP7409366B2 - 自動演奏装置、自動演奏方法、プログラム、及び電子楽器 - Google Patents

自動演奏装置、自動演奏方法、プログラム、及び電子楽器 Download PDF

Info

Publication number
JP7409366B2
JP7409366B2 JP2021203446A JP2021203446A JP7409366B2 JP 7409366 B2 JP7409366 B2 JP 7409366B2 JP 2021203446 A JP2021203446 A JP 2021203446A JP 2021203446 A JP2021203446 A JP 2021203446A JP 7409366 B2 JP7409366 B2 JP 7409366B2
Authority
JP
Japan
Prior art keywords
voicing
chord
type
timing
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021203446A
Other languages
English (en)
Other versions
JP2023088608A (ja
Inventor
順 吉野
敏之 橘
真吾 岡野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2021203446A priority Critical patent/JP7409366B2/ja
Priority to US17/980,789 priority patent/US20230186879A1/en
Priority to EP22205981.8A priority patent/EP4198965A1/en
Publication of JP2023088608A publication Critical patent/JP2023088608A/ja
Priority to JP2023209732A priority patent/JP2024015509A/ja
Application granted granted Critical
Publication of JP7409366B2 publication Critical patent/JP7409366B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/18Selecting circuits
    • G10H1/26Selecting circuits for automatically producing a series of tones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • G10H1/42Rhythm comprising tone forming circuits
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/005Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/341Rhythm pattern selection, synthesis or composition
    • G10H2210/356Random process used to build a rhythm pattern
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/341Rhythm pattern selection, synthesis or composition
    • G10H2210/361Selection among a set of pre-established rhythm patterns
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/341Rhythm pattern selection, synthesis or composition
    • G10H2210/366Random process affecting a selection among a set of pre-established patterns
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/341Rhythm pattern selection, synthesis or composition
    • G10H2210/371Rhythm syncopation, i.e. timing offset of rhythmic stresses or accents, e.g. note extended from weak to strong beat or started before strong beat
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/395Special musical scales, i.e. other than the 12- interval equally tempered scale; Special input devices therefor
    • G10H2210/525Diatonic scales, e.g. aeolian, ionian or major, dorian, locrian, lydian, mixolydian, phrygian, i.e. seven note, octave-repeating musical scales comprising five whole steps and two half steps for each octave, in which the two half steps are separated from each other by either two or three whole steps
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/555Tonality processing, involving the key in which a musical piece or melody is played
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/581Chord inversion
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/611Chord ninth or above, to which is added a tension note

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、コードを自動演奏する自動演奏装置、自動演奏方法、プログラム、及び電子楽器に関する。
ジャズのピアノパートやギターパート等の演奏においては、同じ構成音やコード音を繰り返し演奏する場合でも、毎回異なるタイミングで演奏をする場合がある。
また、ジャズの演奏において、演奏する楽曲のコード(和音)のボイシング(構成音)をコード譜通りに行うのではなく、ジャズ特有の緊張感をもったテンションノートを含むコード(和音)を用いるのが一般的である。テンションノートとは、長調と短調による音楽の和声と共に使用される非和声音のうち、和音の響きに緊張感を与え、かつ和音進行を阻害しない構成音をいう。テンションノートは、コード種により一律に決まるわけではない。
電子楽器による自動演奏において、指定されたコードネームのテンションノートを用いた自動演奏を実現して粋なサウンドの演奏データを作成可能とするために、次のような従来技術が知られている(例えば特許文献1)。自動演奏時に、ルート音データ、タイプデータ及びアヴェイラブルノートスケールデータを1組に含んでなる和音データが順次指定され、このアヴェイラブルノートスケールデータが参照される。
特開平10-78779号公報
しかし、従来の予め決まった演奏をデータ化した自動伴奏では、テンションノートの制御が難しく、音数が増えてテンションノートがメロディの邪魔をしてしまったり、毎回決まった演奏になってしまうなど、ジャズ等の音楽の特徴を再現することができなかった。
例えば特許文献1に記載のような従来技術をもってしても、アヴェイラブルノートスケールデータを含む、予め決まった和音データに基づいて自動演奏が実行されるにすぎず、同じ和音について演奏時の偶然性に基づいて演奏タイミングや小節内の音数、ボイシング(音の構成)を微妙に変えて自動演奏させることができないという課題があった。
そこで、本発明は、演奏者による楽器のライブ演奏におけるタイミング及びボイシングを表現可能な、自然な自動コード伴奏を実現することを目的とする。
態様の一例の自動演奏装置は、発音させる音数を確率的に選択する音数選択手段と、音域に対応するボイシングタイプを決定するボイシングタイプ決定手段と、楽曲の調とコードにより決定されるスケールに基づく複数のボイシングパターンから、選択された音数と、決定されたボイシングタイプとの組合せに対応するボイシングパターンを選択するボイシングパターン選択手段と、選択されたボイシングパターンに基づきボイシングされたコードの発音を音源に指示する発音指示手段と、を備える。
本発明によれば、確率的に選択された音数とボイシングタイプとの組合せからボイシングパターンを選択して、ボイシングされたコードの発音を音源に指示するので、演奏者による楽器のライブ演奏におけるボイシングを表現可能な、自然な自動コード伴奏の実現が可能となる。
電子楽器の実施形態のハードウェア構成例を示す図である。 自動演奏装置の自動コード伴奏処理の例を示すフローチャートである。 タイミングデータ生成処理の詳細例を示すフローチャートである。 タイミングデータ生成処理で使用される頻度テーブルのデータ構成例を示す図である。 ノートタイミングテーブルのデータ構成例とそのデータによるノートタイミングの楽譜表現を示す図である。 アンティシペーション・コード取得処理の詳細例を示すフローチャートである。 アンティシペーション・コード取得処理の説明図である。 ボイシング処理の詳細例を示すフローチャートである。 コード進行データ、スケール決定テーブル、及びスケール毎のボイシングテーブルのデータ構成例を示す図である。 ボイシング処理で使用される頻度テーブルのデータ構成例を示す図である。 スケールの例とそのスケールにおけるボイシングのバリエーションの例の楽譜表現を示す図である。 自動演奏装置と電子楽器が個別に動作する他の実施形態の接続形態を示す図である。 自動演奏装置と電子楽器が個別に動作する他の実施形態における自動演奏装置のハードウェア構成例を示す図である。
以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。図1は、電子楽器の一例である電子鍵盤楽器の実施形態のハードウェア構成例を示す図である。図1において、電子鍵盤楽器100は、例えば電子ピアノとして実現され、CPU(中央演算処理装置)101、ROM(リードオンリーメモリ)102、RAM(ランダムアクセスメモリ)103、鍵盤部104、スイッチ部105、及び音源LSI106を備え、それらがシステムバス108によって相互に接続された構成を有する。また、音源LSI106の出力はサウンドシステム107に入力する。
この電子鍵盤楽器100は、ピアノパートを自動コード伴奏する自動演奏装置の機能を備える。そして、この電子鍵盤楽器100の自動演奏装置は、例えばジャズの自動ピアノ伴奏の発音データを、プログラムされたデータを単に再生するのではなく、ある一定の音楽的ルールの範囲内でアルゴリズムにより自動生成することができる。
CPU101は、RAM103を作業用メモリとして使用しながらROM102に記憶された制御プログラムをRAM103にロードして実行することにより、図1の電子鍵盤楽器100の制御動作を実行する。特に、CPU101は、後述するフローチャートによって示される制御プログラムをROM102からRAM103にロードして実行することにより、ピアノパートを自動コード伴奏する制御動作を実行する。
鍵盤部104は、複数の演奏操作子としての各鍵の押鍵又は離鍵操作を検出し、CPU101に通知する。CPU101は、後述するピアノパートの自動コード伴奏のための制御動作のほかに、鍵盤部104から通知された押鍵又は離鍵操作の検出通知に基づいて、演奏者による鍵盤演奏に対応する楽音の発音又は消音を制御するための発音指示データを生成する処理を実行する。CPU101は、生成した発音指示データを、音源LSI106に通知する。
スイッチ部105は、演奏者による各種スイッチの操作を検出し、CPU101に通知する。
音源LSI106は、楽音発生のための大規模集積回路である。音源LSI106は、CPU101から入力する発音指示データに基づいて、デジタル楽音波形データを生成し、サウンドシステム107に出力する。サウンドシステム107は、音源LSI106から入力したデジタル楽音波形データをアナログ楽音波形信号に変換した後、そのアナログ楽音波形信号を内蔵のアンプで増幅して内蔵のスピーカから放音する。
上記構成を有する電子鍵盤楽器100の自動演奏装置の実施形態(以下「本自動演奏装置」と記載)によるピアノパートの自動コード伴奏処理の詳細について、以下に説明する。図2は、本自動演奏装置の自動コード伴奏処理の例を示すフローチャートである。この処理は、図1のCPU101が、ROM102に記憶されたピアノパートの自動コード伴奏の制御処理のプログラムをRAM103にロードして実行する処理である。
演奏者が図1のスイッチ部105を操作して自動伴奏のジャンル(例えば「ジャズ」)やテンポを選択した後、スイッチ部105にある特には図示しない自動伴奏のスタートスイッチを押すと、CPU101は、図2のフローチャートで例示される自動コード伴奏処理をスタートする。
まず、CPU101は、カウンタリセット処理を実行する(ステップS201)。具体的には、CPU101は、ピアノパートの自動コード伴奏の開始時からの小節数を表すRAM103に記憶されている小節カウンタ変数値を、ピアノパートの自動コード演奏の第1小節を示す値(例えば「1」)にリセットする。また、CPU101は、小節内の拍数(拍位置)を示すRAM103に記憶されている拍カウンタ変数値を、1拍目を示す値(例えば「1」)にリセットする。次に、自動演奏装置による自動ピアノ伴奏の制御は、RAM103に記憶されるtick変数の値(以下この変数の値を「tick変数値」と記載)を単位として進行する。図2のROM102内には、自動コード伴奏の時間分解能を示すTimeDivision定数(以下この定数の値を「TimeDivision定数値」と呼ぶ)が予め設定されており、このTimeDivision定数値は4分音符の分解能を示している。この値が例えば128ならば、4分音符は「128×tick変数値」の時間長を有する。ここで、1tickが実際に何秒になるかは、自動コード伴奏のピアノパートに対して指定されるテンポによって異なる。今、ユーザ設定に従ってRAM103上のTempo変数に設定される値を「Tempo変数値[ビート/分]」とすれば、1tickの秒数(以下「tick秒数値」と記載)は、下記(1)式により算出される。
tick秒数値=60/Tempo変数値/TimeDivision変数値
・・・(1)
そこで、図2のステップS201のカウンタリセット処理において、CPU101はまず、上記(1)式に対応する演算処理により、tick秒数値を算出し、RAM103上の「tick秒変数」に記憶させる。なお、Tempo変数値としては、初期状態では図2のROM102の定数から読み出した所定の値、例えば60[ビート/秒]が、初期設定されてもよい。或いは、Tempo変数が不揮発性メモリに記憶され、電子鍵盤楽器100の電源の再投入時に、前回終了時のTempo変数値がそのまま保持されていてもよい。
次に、CPU101は、図2のステップS201のカウンタリセット処理において、まず、RAM103上のtick変数値を0にリセットする。その後、内蔵する特には図示しないタイマのハードウェアに対して、上述のようにして算出されRAM103上のtick秒変数に保存されているtick秒数値によるタイマ割込みを設定する。この結果、タイマにおいて上記tick秒数値の秒数が経過する毎に、割込み(以下「tick割込み」と記載)が発生することになる。
演奏者が、ピアノパートの自動コード伴奏の途中で、図1のスイッチ部105を操作して自動コード伴奏のテンポを変更した場合、CPU101は、ステップS201のカウンタリセット処理と同様にして、RAM103上のTempo変数値に再設定されたTempo変数値を用いて前述した(1)式に対応する演算処理を再度実行することにより、tick秒数値を算出する。その後、CPU101は、内蔵のタイマのハードウェアに対して、新たに算出したtick秒数値によるタイマ割込みを設定する。この結果、タイマにおいて新たに設定されたtick秒数値の秒数が経過する毎に、tick割込みが発生することになる。
CPU101は、ステップS201のカウンタリセット処理の後、ステップS202~S211の一連の処理をループ処理として繰り返し実行する。このループ処理は、ステップS210で、自動コード伴奏データがなくなった又は演奏者が図1のスイッチ部105の特には図示しないスイッチにより自動ピアノ伴奏の終了を指示したと判定されるまで、繰り返し実行される。
CPU101は、上記ループ処理内の、ステップS211のカウンタ更新処理において、タイマから新たなtick割込み要求が発生している場合には、tick割込み処理によりRAM103上のtickカウンタ変数値をカウントアップする。その後、CPU101は、tick割込みを解除する。CPU101は、tick割込み要求が発生していない場合には、tick割込み処理によるtickカウンタ変数値はカウントアップせずに、そのままステップS211のカウンタ更新処理を終了する。この結果、tickカウンタ変数値は、演奏者が設定したTempo変数値に対応して算出されているtick秒数値の秒数毎に、カウントアップされてゆくことになる。
CPU101は、ステップS211でtick秒数値の秒数毎にカウントアップされる上記tickカウンタ変数値を基準として、自動コード伴奏の進行を制御する。以下、このtickカウンタ変数値=1を単位とするテンポに同期した時間単位を[tick]と記載する。前述したように、4分音符の分解能を示すTimeDivision定数値が例えば128ならば、4分音符は128[tick]の時間長を有する。従って、自動コード伴奏されるピアノパートが例えば4拍子であれば、1拍=128[tick]となり、1小節=128[tick]×4拍=512[tick]となる。CPU101は、上記ループ処理のステップS211のカウンタ更新処理において、例えば4拍子のピアノパートが選択されている場合、tickカウンタ変数値が128の倍数に更新される毎にRAM103に記憶されている拍カウンタ変数値を1→2→3→4→1→2→3・・・と、1から4の間でループさせて更新する。また、CPU101は、ステップS211のカウンタ更新処理において、上記拍カウンタ変数値が変化するタイミングで、各拍の先頭からのtick時間をカウントする拍内tickカウンタ変数値を0にリセットする。更に、CPU101は、ステップS211のカウンタ更新処理において、上記拍カウンタ変数値が4から1に変化するタイミングで、RAM103に記憶されている小節カウンタ変数値を+1ずつカウントアップしてゆく。この小節カウンタ変数値はピアノパートの自動コード伴奏の開始時からの小節数を表しており、拍カウンタ変数値は小節カウンタ変数値が表す各小節内での拍数(拍位置)を表していることになる。また、拍内tickカウンタ変数値の値が、0から63(=128÷2-1)ならば表拍、64から127ならば裏拍のタイミングを示す。この値は、後述する図6のフローチャートで例示されるアンティシペーション・コード取得処理のステップS602で判定される。
CPU101は、ループ処理として上記ステップS211を繰り返し実行してtickカウンタ変数値、拍内tickカウンタ変数値、拍カウンタ変数値、及び小節カウンタ変数値を更新しながら、以下に説明するステップS202からS210の一連の制御処理を実行する。
図2のステップS202からS210の一連の制御処理の詳細について、以下に説明する。まず、CPU101は、現在のタイミングが小節の先頭のタイミングかを判定する(ステップS202)。具体的には、CPU101は、RAM103に記憶されている小節カウンタ変数値が、ステップS202を前回実行したときと今回実行したときとで変化している(+1されている)か否かを判定する。
ステップS202の判定がYESならば、CPU101は、タイミングデータ生成処理を実行する(ステップS203)。この処理において、CPU101は、更新された小節カウンタ変数値が示す新たな1小節分のコードの発音タイミングを示すノートタイミングテーブルデータを生成し、RAM103に記憶させる。また、CPU101は、生成されたノートタイミングデータの各発音タイミングに対応する更新された小節カウンタ変数値が示す新たな1小節分の各自動コード伴奏データを、例えばROM102からRAM103に読み込む。自動コード伴奏データは例えば、コード及びキーを少なくとも含む。この処理の詳細は、図3のフローチャートを用いて後述する。ステップS202の判定がNOならば、CPU101は、ステップS203のタイミングデータ生成処理は実行せずにスキップする。
次に、CPU101は、現在のタイミングがノートオフのタイミングであるか否かを判定する(ステップS204)。具体的には、CPU101は、RAM103に記憶されている現在の拍カウンタ変数値及び拍内tickカウンタ変数値が、ステップS203でRAM103に記憶したノートタイミングデータの何れかのコード消音タイミングの拍番号及び[tick]時間と一致するか否かを判定する。この場合の何れかのコード消音タイミングの拍番号は、後述する図5(c)又は(e)に例示されるノートタイミングデータにおいて、0でない「Gate」項目値が設定されているタイミングが含まれる何れかの「拍」項目値である。また、上述の何れかのコード消音タイミングの[tick]時間は、その0でない「Gate」項目値が設定されているタイミングの「Tick」項目値と当該「Gate」項目値とを加算して得られる[tick]時間値である。
ステップS204の判定がYESになったら、CPU101は、ノートオフ処理を実行する(ステップS205)。具体的には、CPU101は、ステップS204で判定したタイミングに対応して後述するステップS208のボイシング処理においてRAM103に記憶されているボイシングテーブルデータが示すボイス群の消音を、音源LSI508に指示する。
ステップS204の判定がNOならば、CPU101は、現在のタイミングがノートオンのタイミングであるか否かを判定する(ステップS206)。具体的には、CPU101は、RAM103に記憶されている現在の拍カウンタ変数値及び拍内tickカウンタ変数値が、ステップS203でRAM103に記憶したノートタイミングテーブルの何れかのコード発音タイミングの拍番号及び[tick]時間と一致するか否かを判定する。この場合の何れかのコード発音タイミングの拍番号は、後述する図5(a)又は(c)に例示されるノートタイミングテーブルにおいて、0でない「Gate」項目値が設定されているタイミングが含まれる何れかの「拍」項目値である。また、上述の何れかのコード発音タイミングの[tick]時間は、その0でない「Gate」項目値が設定されているタイミングの「Tick」項目値である。
ステップS206の判定がYESならば、CPU101は、アンティシペーション・コード取得処理を実行する(ステップS207)。この処理の詳細は、図6に例示されるフローチャートを用いて後述する。
続いて、CPU101は、ボイシング処理を実行する(ステップS208)。この処理において、CPU101は、RAM103に記憶されている現在の小節の自動コード伴奏データから抽出した今回のノートオンに対応するコード及びキーに対してボイシングテーブルデータを決定し、RAM103のノートオンエリアに記憶する。RAM103に記憶されている現在の小節の自動コード伴奏データは、後に詳述するステップS203のタイミングデータ生成処理にて読み込まれる。ステップS208のボイシング処理の詳細は、図8に例示されるフローチャートを用いて後述する。
ステップS208の処理の後、CPU101は、ノートオン処理を実行する(ステップS209)。この処理において、CPU101は、ステップS207のアンティシペーションのタイミングの発音、及びステップS208のボイシング処理においてRAM103に記憶されたボイシングテーブルデータが示すボイス群の各ボイスに対応するノートナンバの楽音の発音を、音源LSI508に指示する。このとき各ノートナンバと共に音源LSI508に指定されるベロシティは、ステップS206で判定されたノートオンタイミングに対応して現在の小節のノートタイミングデータに記憶されている「Velocity」項目値である。ステップS209の処理を実行するCPU101は、発音指示手段として動作する。
ステップS206の判定がNOの場合、又はステップS209の処理の後、CPU101は、ROM102等から読み込むべき自動コード伴奏データがまだあり、かつ演奏者が図1のスイッチ部105の特には図示しないスイッチにより自動ピアノ伴奏の終了を指示していないか否かを判定する(ステップS210)。
ステップS210の判定がYESならば、CPU101は、ステップS211で前述したカウンタ更新処理を実行した後、ステップS202の処理に戻ってループ処理を継続する。ステップS210の判定がNOになったら、CPU101は、図2のフローチャートで例示される自動コード伴奏処理を終了する。
図3は、図2のステップS203のタイミングデータ生成処理の詳細例を示すフローチャートである。この処理において、CPU101は、ステップS202で判定された小節の先頭のタイミングごとに、新たに更新された現在の小節内で発音するノートタイミングとゲートタイムを決定する。この場合、CPU101は、当該小節内でのコードの発音回数(タイミングタイプ)と、各コードをどのようなタイミングで発音させるかを指定するノートタイミングテーブルを、確率的に決定する。
図3のフローチャートにおいて、CPU101はまず、RAM103上で新たに更新されている小節カウンタ変数値に対応する小節の1小節分の自動コード伴奏データを、例えばROM102から取得し、RAM103に記憶する(ステップS301)。1小節分の自動コード伴奏データは例えば、1つの組がコードを少なくとも含む0組以上のデータ組を含む。その小節において発音されるべきコードが無い場合には、そのデータ組は0組となる。なお、演奏者は、図1のスイッチ部105内の特には図示しない選択スイッチにより、自動コード伴奏データの楽曲を予め選択することができる。それにより、自動コード伴奏データの楽曲のキーと後述するテンポ範囲が決定される。
次に、CPU101は、例えば図1のROM102に記憶されているタイミングタイプ選択用頻度テーブルを参照することにより、タイミングタイプを確率的に決定する(ステップS302)。タイミングタイプは、1小節中でのコードの発音回数を指定するデータである。即ち、ステップS302では、現在の小節で発音されるコードの発音回数が確率的に決定されることになる。
図4(a)は、ステップS302の処理を実現するために図1のROM102に記憶されるタイミングタイプ選択用頻度テーブルのデータ構成例を示す図である。図4(a)に例示される「Type0」、「Type1」、「Type2」、「Type3」、及び「TypeC」は夫々、以下の意味を有するタイミングタイプを示している。なお、図4(a)及び以下の説明では、「タイミングタイプ」を「Type」と略記する場合がある。
Type0: 1小節中で0回のコードの発音を指示
Type1: 1小節中で1回のコードの発音を指示
Type2: 1小節中で2回のコードの発音を指示
Type3: 1小節中で3回のコードの発音を指示
TypeC: 1小節中での先頭及びコードの変更毎にコードの発音を指示
図4(a)に例示されるタイミングタイプ選択用頻度テーブルの左端列に登録される「Ballad」、「Slow」、「Mid」、「Fast」、及び「Very Fast」は夫々、自動コード伴奏データのテンポ範囲を示している。演奏者が自動コード伴奏の開始時に、図1のスイッチ部105内の特には図示しない選択スイッチによって、複数提供される自動コード伴奏楽曲のうちの所望の1つを選択した場合、選択された自動コード伴奏データには、上記「Ballad」、「Slow」、「Mid」、「Fast」、又は「Very Fast」の何れかのテンポ範囲が予め設定されている。ここで、「Ballad」は例えば70未満のテンポ範囲に対応する。「Slow」は例えば70以上100未満のテンポ範囲に対応する。「Mid」は例えば100以上150未満のテンポ範囲に対応する。「Fast」は例えば150以上250未満のテンポ範囲に対応する。そして、「Very Fast」は例えば250以上のテンポ範囲に対応する。
CPU101は、図3のステップS302において、ROM102に記憶されている図4(a)に例示されるタイミングタイプ選択用頻度テーブルを用いて、次のような制御処理を実行する。まず、図3のステップS301にてROM102から読み込まれる自動コード伴奏データに例えばテンポ範囲「Ballad」が設定されている場合には、CPU101は、図4(a)に例示されるタイミングタイプ選択用頻度テーブルにおいて、左端項目に「Ballad」が登録されている行のデータを参照する。この行には、上述のType0、Type1、Type2、Type3、又はTypeCの各タイミングタイプが夫々、0%、10%、20%、10%、又は60%の確率で選択されることを示す各頻度値が設定されている。これに対して、CPU101は、例えば1から100までの値域を有する任意の乱数値を発生する。そして、CPU101は例えば、生成した乱数値が1から10の乱数範囲(「Type1」の頻度値10%に対応)にあれば、タイミングタイプ「Type1」を選択する。又は、CPU101は例えば、生成した乱数値が11から30の乱数範囲(「Type2」の頻度値20%に対応)にあれば、タイミングタイプ「Type2」を選択する。又は、CPU101は例えば、生成した乱数値が31から40の乱数範囲(「Type3」の頻度値10%に対応)にあれば、タイミングタイプ「Type3」を選択する。又は、CPU101は例えば、生成した乱数値が41から100の乱数範囲(「TypeC」の頻度値60%に対応)にあれば、タイミングタイプ「TypeC」を選択する。なお、「Type0」は図4(a)の例では頻度値が0%なので乱数範囲は設定されず選択されない。勿論、「Type0」に対して、それが一定の確率(頻度値)で選択されるような乱数範囲が設定されてもよい。このようにして、CPU101は、「Type0」、「Type1」、「Type2」、「Type3」、及び「TypeC」の各タイミングタイプを夫々、タイミングタイプ選択用頻度テーブルの「Ballad」行に設定された0%、10%、20%、10%、及び60%の各確率で選択することができる。
図3のステップS301にてROM102から読み込まれる自動コード伴奏データに例えばテンポ範囲「Slow」、「Mid」、「Fast」、又は「Very Fast」が設定されている場合も、「Ballad」が設定されている上述の場合と同様にして、CPU101は例えば、図4(a)に例示される構成を有するタイミングタイプ選択用頻度テーブルにおいて、左端項目に「Slow」、「Mid」、「Fast」、又は「Very Fast」が登録されている何れかの行の各頻度値を参照する。次に、CPU101は、その行の「Type0」、「Type1」、「Type2」、「Type3」、又は「TypeC」の各タイミングタイプに対して夫々設定されている頻度値[%]に応じた1から100の範囲内の各乱数範囲を設定する。そして、CPU101は、1から100の範囲で乱数値を発生させ、生成された乱数値が上記各乱数範囲のどの範囲に入るかによって、「Type0」、「Type1」、「Type2」、「Type3」、又は「TypeC」の何れかのタイミングタイプを選択する。このようにして、CPU101は、「Type0」、「Type1」、「Type2」、「Type3」、及び「TypeC」の各タイミングタイプを夫々、タイミングタイプ選択用頻度テーブルの各テンポ範囲の行に設定された各頻度値に対応する確率で選択することができる。
「Ballad」のようにテンポがゆっくりとした自動コード伴奏では、小節内での発音はコード毎に行われる場合が多いので、「TypeC」が選択される頻度値(確率)が、例えば図4(a)の60%というように大きくなる。
音楽のコード伴奏の内容は、テンポに大きな影響を受ける。例えば、テンポが速い曲に多くの発音回数のコード(=多くのノートタイミング)が含まれてしまうと、せわしない演奏になり、自然な演奏からは乖離してしまい、非常に機械的な演奏になってしまう。同時に、スローなテンポの楽曲でも、発音回数が多い演奏は不自然なものとなってしまう。
一方、一つの楽曲の中でも、相応しい変化は必要なため、各タイミングタイプの発生確率が画一的に決定されるのはよくない。
そこで、本実施形態では、頻度テーブルという手法、即ち図4(a)に例示されるタイミングタイプ選択用頻度テーブルを用いることにより、自動コード伴奏のテンポに合う適切なタイミングタイプ(1小節中のコードの発音回数)を確率的に選択することが可能となる。
次に、図3に例示されるフローチャートにおいて、CPU101は、ステップS302で確率的に選択したタイミングタイプの内容を判定する(ステップS303)。CPU101は、タイミングタイプが「Type1」、「Type2」、又は「Type3」の何れかである場合はステップ304を、タイミングタイプが「Type0」である場合はステップS305を、タイミングタイプが「TypeC」である場合はステップS306及びステップS307を、夫々実行する。
ステップS303での判定の結果、タイミングタイプが「Type1」、「Type2」、又は「Type3」の何れかである場合、即ち小節内でのコードの発音回数が1回、2回、又は3回である場合には、CPU101は、ステップS304において、タイミングタイプ毎にROM102に記憶されている例えば複数のノートタイミングテーブルのうちの1つを確率的に選択し、RAM103に記憶する。このように、本実施形態では、確率的に選択されたタイミングタイプ(小節内でのコードの発音回数)毎に、更に複数のバリエーションの中から1つのノートタイミングテーブルを確率的に選択することができる。
図5(a)及び(c)は、例えばタイミングタイプ「Type2」に対して複数(例えば8個)用意されるノートタイミングテーブル1及び2のデータ構成例を示す図である。これらの例に示されるように、1つのノートタイミングテーブルには、1小節分の例えば1~4拍及びそれを更に半拍ずつ区切った横方向8列の発音タイミングの夫々について、次のような情報が設定される。なお、この例は、自動コード伴奏が4拍子である場合の例であり、自動コード伴奏が他の拍子である場合にはその拍子数に対応した拍数に基づいて発音タイミングが区切られる。
まず、図5(a)又は(c)の左端の列に「Tick」の文字列が設定されている行(以降、この行を「Tick行」と呼ぶ)の上記半拍単位の各先頭タイミング毎に、そのタイミングが含まれる拍の先頭からそのタイミングの先頭までの[tick]時間が設定される。これらの値としては、第1、第2、第3、及び第4拍の各拍の前半の半拍(以降「表拍」)の先頭タイミングでは、各拍の先頭なので、0[tick]が設定される。また、これらの値としては、第1、第2、第3、及び第4拍の各拍の後半の半拍(以降「裏拍」)の先頭タイミングでは、各拍(=128[tick])のちょうど半分なので、64[tick]が設定される。なお、図5(a)又は(c)は、1拍が128[tick]である場合の例である。
次に、図5(a)又は(c)の左端の列に「Gate」の文字列が設定されている行(以降、この行を「Gate行」と呼ぶ)の上記半拍単位の各先頭タイミング毎に、そのタイミングがコードの発音タイミングであれば、そこで発音されるコード音の長さを[tick]時間で表した値が設定される。図5(a)に例示される「Type2ノートタイミングテーブル1」では、Gate行において、第1拍の裏拍及び第3拍の裏拍の2つのタイミングにおいて共に、コード音長=15[tick]が設定される。一方、図5(c)に例示される「Type2ノートタイミングテーブル2」では、Gate行において、第1拍の表拍及び第2拍の裏拍の2つのタイミングにおいて共に、コード音長=15[tick]が設定される。
更に、図5(a)又は(c)の左端の列に「Velocity」の文字列が設定されている行(以降、この行を「Velocity行」と呼ぶ)の上記半拍単位の各先頭タイミング毎に、そのタイミングがコードの発音タイミングであれば、そこで発音されるコード音を構成する各ボイスのベロシティ値(最大値は127)が設定される。図5(a)に例示される「Type2ノートタイミングテーブル1」では、Velocity行において、第1拍の裏拍及び第3拍の裏拍の2つのタイミングにおいて共に、ベロシティ値=75が設定される。図5(c)に例示される「Type2ノートタイミングテーブル2」でも同様に、Velocity行において、第1拍の表拍及び第2拍の裏拍の2つのタイミングにおいて共に、ベロシティ値=75が設定される。発音が行われないタイミングでは、ベロシティ値=0が設定される。
以上のようにして、図3のステップS303->ステップS304において、例えば図5(a)の「Type2ノートタイミングテーブル1」が選択された場合には、図5(b)の楽譜表現として示されるような発音タイミングで1小節分のコード音が発音され、例えば図5(c)の「Type2ノートタイミングテーブル2」が選択された場合には、図5(d)の楽譜表現として示されるような図5(b)とは異なる発音タイミングで1小節分のコード音が発音される結果になる。
上述したようなノートタイミングテーブルとしては、「Type1」、「Type2」、及び「Type3」の夫々について、図5(a)及び(c)として例示したように、複数のノートタイミングテーブルがROM102に用意されてよい。そしてこの場合、CPU101は、ステップS302で決定したタイミングタイプに対応して、ROM102に記憶されている複数のノートタイミングテーブルの中から1つを確率的に選択し、RAM103に記憶する。
この確率的な選択動作を実現するために、本実施形態では、図4(b)に例示されるようなデータ構成を有する、タイミングタイプ別ノートタイミングテーブル選択用頻度テーブルがROM102に記憶されて用いられる。この頻度テーブルとしては、タイミングタイプ別に異なる設定のものが用意されてよい。図4(b)に例示されるデータ構成を有するタイミングタイプ別ノートタイミングテーブル選択用頻度テーブルにおいて、左端項目に「No」が登録されている行には、図5(a)又は(c)に例示されるような選択され得るタイミングタイプのノートタイミングテーブルの番号が、1から順に図4(b)の例では8まで設定されている。また、左端項目に「頻度」が登録されている行の各列には、同じ列に設定されている番号を有するノートタイミングテーブルが選択される頻度値[%]が設定される。図4(b)に例示されるような頻度テーブルに対して、CPU101は、図4(a)のタイミングタイプ選択用頻度テーブルの場合と同様に、例えば1から100までの値域を有する任意の乱数値を発生する。そして、CPU101は例えば、生成された乱数値が1から20の乱数範囲(番号1のノートタイミングテーブルの選択確率20%に対応)にあれば、ノートタイミングテーブル1を選択する。又は、CPU101は例えば、生成された乱数値が21から40の乱数範囲(番号2のノートタイミングテーブルの選択確率20%に対応)にあれば、ノートタイミングテーブル2を選択する。他の番号のノートタイミングテーブルも、ノートタイミングテーブル1又は2の場合と同様に、確率的に選択される。
以上のようにして、本実施形態では、小節毎に、まず図3のステップS302において、図4(a)に例示されるタイミングタイプ選択用頻度テーブルを用いることにより、現在選択されている自動コード伴奏のテンポに適合する小節内でのコード発音回数を、タイミングタイプとして確率的に選択することが可能となる。
そして、小節毎に、次に図3のステップS303->ステップS304において、図4(b)に例示されるタイミングタイプ別ノートタイミングテーブル選択用頻度データを用いることにより、選択されたタイミングタイプ(「Type1」、「Type2」、又は「Type3」)毎に用意されている、夫々異なるコード発音タイミングを有する複数のノートタイミングテーブルのうちの1つを、確率的に選択することが可能となる。
これにより、本実施形態では、小節毎にコード発音回数及びコード発音タイミングを確率的に変化させながら、自動コード伴奏を実施することが可能となる。即ち、演奏者がピアノやギターのライブジャズ演奏等において、各小節内でのコードの発音回数と半拍単位でのコードの発音タイミングを変化させながら行う音楽表現を、自動コード伴奏においても実現することが可能となる。
図3のステップS303での判定の結果、タイミングタイプが「Type0」である場合、CPU101は、ステップS305において、ROM102に記憶されている「Type0」専用の1つのノートタイミングテーブルを選択しRAM103に記憶する。
図5(e)は、タイミングタイプ「Type0」に対して用意される1つのノートタイミングテーブルのデータ構成例を示す図である。基本的なデータ構成は、図5(a)又は図5(c)に例示される「Type1~3」の場合のテーブル例と同様である。ただし、図5(e)に例示される「Type0のノートタイミングテーブル」のGate行において、1小節分の半拍単位の8つの発音タイミングのどのタイミングにも、コード音長=0[tick]が設定されている。
以上のようにして、CPU101が、ステップS303->ステップS305として、例えば図5(e)の「Type0ノートタイミングテーブル」を選択した場合には図5(f)の楽譜表現として示されるように、その小節は全休符となり、コード音は発音されない結果となる。
このようにして、本実施形態では、小節毎に、タイミングタイプ「Type0」が確率的に選択されることにより、音楽表現としてその小節ではコード音を発音させないといった自動コード伴奏を実現することが可能となる。
図3のステップS303での判定の結果、タイミングタイプが「TypeC」である場合、まずCPU101は、ステップS306において、ステップS301でROM102から取得された自動コード伴奏データに設定されているコード位置をサーチする。
そして、CPU101は、ステップS307において、ステップS306でサーチしたコード位置に合わせて、図5(a)又は(c)などと同様の形式のノートタイミングテーブルを生成しRAM103に記憶する。
以上のようにして、CPU101が、ステップS303->ステップS306として、「TypeC」のためのノートタイミングテーブルを生成した場合には、その小節では自動コード伴奏データによりコードが変化する毎に、変化したコードが発音される結果となる。
図6は、図2のステップS207のアンティシペーション・コード取得処理の詳細例を示すフローチャートである。この処理は、アンティシペーションを発生させる。「アンティシペーション」とは、指定されたコードを半拍先取りする演奏をいう。自動コード伴奏の楽曲の曲調によってアンティシペーションさせると効果的なものとそうでないものとがあるため、演奏者は、図1のスイッチ部105内の特には図示しない切替えスイッチによって、アンティシペーションのオン又はオフを切り替えることができる。又は、自動コード伴奏がROM102に記憶される工場出荷時点で、アンティシペーションのオン又はオフが設定されてもよい。
図6のフローチャートにおいて、まずCPU101は、ステップS601、ステップS602、及びステップS603において、以下の全ての判定がYESとなった場合に、ステップS604に移行してアンティシペーションを発生させる。
ステップS601:演奏者の設定又は工場設定により、アンティシペーション処理がオンか否か。
ステップS602:現在のノートタイミングは裏拍であるか否か。
ステップS603:次拍に自動コード伴奏のコードチェンジ(現在のコードとは異なるコード)は存在するか。
図7は、アンティシペーション・コード取得処理の説明図である。例えば図7(a)に示されるように、コード進行として、CM7(第1小節1拍目表拍)、A7(第2小節1拍目表拍)、Dm7(第3小節1拍目表拍)、G7(第4小節1拍目表拍)、CM7(第5小節1拍目表拍)、A7(第6小節1拍目表拍)、Dm7(第7小節1拍目表拍)、G7(第7小節3拍目表拍)、及びCM7(第8小節1拍目表拍)の各コードが与えられたとする。
また、図7(b)の第7小節の拡大図に示されるように、現在のタイミング701が、「現在位置」と表記してある第7小節2拍目裏拍の先頭タイミングに位置しているとする。第7小節2拍目裏拍の次の第7小節3拍目の表拍の先頭タイミングには、コードG7が指定されている。
この場合、図2のステップS207のアンティシペーション・コード取得処理では、現在のタイミング701である第7小節2拍目裏拍のタイミングにおいて、次拍である第7小節3拍目の表拍に指定されているコードG7が半拍先行して発音指示される。
具体的には、今、アンティシペーション処理がオンにされているとすれば、CPU101は、図7のタイミング701において図2のステップS207のアンティシペーション・コード取得処理を実行した場合、図6のステップS601、ステップS602、及びステップS603の何れの判定もYESとなる。
なお、CPU101は、図2のステップS211のカウンタ更新処理の説明で前述したように、RAM103に記憶されている拍内tickカウンタ変数値が例えば64[tick]になったか否かを判定することにより、図6のステップS602で現在のタイミングが裏拍の先頭タイミングであるか否かを判定する。
また、CPU101は、RAM103に記憶されている現在の拍及び次の拍のコード指定を確認することにより、図6のステップS603で次拍にコードチェンジが存在するか否かを判定する。
次拍にコードチェンジが存在しない場合(ステップS603の判定がNO)、CPU101は現時点でのコードを取得する(ステップS604)。
次拍にコードチェンジが存在する場合(ステップS603の判定がYES)、すなわち次拍でコードが変化する場合、CPU101は次拍のコードを取得する(ステップS605)。
最後にCPU101は取得したコードを、後述するボイシング処理で使用するために発音コードデータとして、RAM103に記憶する(ステップS606)。
以上のように、ステップS601、ステップS602,及びステップS603の全ての判定がYESとなることにより、CPU101はアンティシペーション処理を実行する。すなわち、次拍のコードを今回発音するコードとして取得する。
なお、発音タイミングが4拍目の裏拍である場合は、次小節の伴奏データをRAM103に読み込み、次小節の1拍目のコードを参照してコードチェンジがあるか否かを判断すればよい。
図8は、図2のステップS208のボイシング処理の詳細例を示すフローチャートである。ボイシング処理において、CPU101は、RAM103に記憶されている現在の小節の自動コード伴奏データから抽出した今回のノートオンに対応するコード及びキーに対してボイシングテーブルデータを決定し、RAM103のノートオンエリアに記憶する。
CPU101は、まず、図6のステップS606でRAM103に記憶した発音コードデータが、RAM103に記憶されている前回発音時のコードと同じであるか否かを判定する(ステップS801)。
ステップS801の判定がYESの場合、CPU101は、前回選択したボイシングテーブルデータの使用を継続し、図8のフローチャートで例示される図2のステップS208のボイシング処理を終了する。この結果、CPU101は、前述した図2のステップS209のノートオン処理において、RAM103に記憶されている前回と同じボイシングテーブルデータが示すボイス群の各ボイスに対応するノートナンバの楽音の発音を、音源LSI508に指示する。
ステップS801の判定がNOの場合、CPU101は、以下に説明するボイシング処理を実行する。
まず、CPU101は、今回のノートオンのタイミングにおける楽曲キーを、RAM103に読み込まれている自動コード伴奏データから取得する(ステップS803)。
自動コード伴奏データは、図2のステップS203のタイミングデータ生成処理内の前述した図3のステップS301にて、RAM103に読み込まれている。コードについては、図6のステップS606でRAM103に記憶した発音コードデータを以下のボイシング処理で使用する。尚、キーについては楽曲を通して変わらない場合が多いため、小節ごとに読込むのではなく、図3のステップS301において、別途キー情報としてRAM103に読込んでおいて、その情報をここで使用するようにしてもよい。
なお、CPU101は、取得したコードの情報を、次回に前述したステップS801で判定する前回のコード情報として、RAM103に記憶させる。
今例えば、RAM103に読み込まれている自動コード伴奏データによって、図9(a)に例示されるように、キー=C(図中「KeyC」と表記)、コード進行=Dm7、G7、CM7、FM7、Bm7♭5、E7、Am7、及びA7(例えば1小節毎に1コード)が順次指定されるものとする。
ここで例えば、図9(a)に例示される第2小節中の、前述したノートタイミングデータによって指定される任意のノートオンタイミング(コード発音タイミング)において、図8のフローチャートで例示される図2のステップS208のボイシング処理が実行された場合を考える。この場合、CPU101は例えば、ステップS803において、コード=G7とキー=Cを取得する。
また例えば、図9(a)に例示される第6小節中の、前述したノートタイミングデータによって指定される任意のノートオンタイミング(コード発音タイミング)において、図8のフローチャートで例示される図2のステップS208のボイシング処理が実行された場合を考える。この場合、CPU101は例えば、ステップS803において、コード=E7とキー=Cを取得する。
次に、CPU101は、ROM102に記憶されているスケール決定テーブルを参照することにより、スケールを決定する処理を実行する(ステップS804)。
図9(b)は、スケール決定テーブルのデータ構成例である。スケール決定テーブルは、取得されているコードのコードタイプ(図9(b)に例示される表の横方向の各列)と、キーの音高からそのコードのルート音の音高までの度数(図9(b)に例示される表の縦方向の各行)とに応じて、図9(b)に例示される表の各行と各列が交差する登録位置に、コードが有するスケールの名称が登録されている。
スケールとしては、図9(b)に示されるように、メジャースケール、リディアンスケール、ミクソリディアンスケール、ミクソリディアン#11スケール、ミクソリディアンスケール♭9スケール、ミクソリディアンスケール♭9♭13スケール、オルタードスケール、ドリアンスケール、フィリジアンスケール、エオリアンスケール、ロクリアンスケールなどが登録可能である。その他、様々な音楽ジャンルで使用され得るスケールが登録されてよい。
いま例えば、CPU101が、ステップS803において、現在のノートオンタイミングである、図9(a)のコード進行中の第2小節の任意のノートオンタイミング(コード発音タイミング)において、コード=G7とキー=Cを取得している場合を考える。この場合、CPU101は、キー=CからコードG7のルート音Gまでの度数=5(図9(b)中の「V」)と、コードタイプ=7とによって、図9(b)に例示されるスケール決定テーブルを参照する。この結果、CPU101は、「V」行と「7」列の交差位置から、スケール=「ミクソリディアン」を決定する。
また例えば、CPU101が、ステップS803において、現在のノートオンタイミングである、図9(a)のコード進行中の第6小節の任意のノートオンタイミング(コード発音タイミング)において、コード=E7とキー=Cを取得している場合を考える。この場合、CPU101は、キー=CからコードE7のルート音Eまでの度数=3(図9(b)中の「III」)と、コードタイプ=7とによって、図9(b)に例示されるスケール決定テーブルを参照する。この結果、CPU101は、「III」行と「7」列の交差位置から、スケール=「ミクソリディアン♭9♭13」を決定する。
次に、CPU101は、ステップS804で決定したスケール毎に予め用意されてROM102に記憶されているボイシングテーブルを、ROM102から取得する(ステップS805)。図9(c)は、スケール=「ミクソリディアン」である場合のボイシングテーブルのデータ構成例を示す図である。CPU101は例えば、前述したように、ステップS803でコード=G7とキー=Cを取得し、更にステップS804でスケール=「ミクソリディアン」を決定した場合に、図9(c)に例示されるボイシングテーブルをROM102から取得する。
コード伴奏においては、コードのボイシングが重要である。ボイシングとは、1つのコードを発音させるのに、オクターブの中でどのボイスをどのように積み重ねるかを決定することである。ジャズなどの音楽ジャンルでは、コード伴奏において、ルート音に対して半音単位で9度、11度、又は13度上のいわゆるテンション音を使うことが多く、これらのボイスを使うことによって緊張感があり音楽性豊かなコード演奏が実現される。コード演奏においては、どのスケールを使うのかがポイントになり、キーとコードによって使えるテンションが異なる。そこで、本実施形態では、CPU101が、図8のステップS803及びステップS804によって、現在のノートオンタイミングで指定される例えばコード=G7とキー=Cとに基づいて、演奏可能な、例えば「ミクソリディアン」スケールを決定する。
更に、本実施形態では、今回のノートオンタイミングで例えばコード=G7を「ミクソリディアン」スケールで発音させる場合に、同じ「G7のミクソリディアン」であっても、複数種類(図9(c)では例えば6種類)のボイシングのバリエーションから1つのボイシング(ボイシングパターン)を確率的に選択し、そのボイシングでコード=G7をノートオンさせることができる。
例えば、図9(c)に例示されるボイシングテーブルにおいて、1番のボイシングテーブルデータが選択された場合、コード=G7のノートオンにおいて、ルート音Gに対して、半音単位で4半音(長3度:B)、9半音(長6度:E)、10半音(短7度:F)、及び14半音(長9度:A)の音程を有する4音からなるボイス群が使用される。
また例えば、3番のボイシングテーブルデータが選択された場合には、コード=G7のノートオンにおいて、ルート音Gに対して、半音単位で4半音(長3度:B)、10半音(短7度:F)、及び14半音(長9度:A)の音程を有する3音からなるボイス群が使用される。
なお、ジャズ演奏などのテンションが入ったコード演奏では、一般的にルート音は発音されない場合が多いため、ボイシングテーブルのボイス群もルート音(度数1)を含まない場合が多い。
ボイシングテーブルから1組のボイシングテーブルデータを決定するための要素としては、ジャズをはじめとする多くの音楽ジャンルで一般的にAtype又はBtypeと呼ばれるボイシングタイプや、何音で発音させるかを指示するポリ数が関係してくる。Atype、BTypeとは音域の広いボイシングであるか、音域の狭いボイシングであるかの違いである。Atypeでは、テンション音を含めたボイシングで、ルート音に対して例えば3度、5度、7度、9度とボイスを積み上げてできるようなボイシングタイプをいう。Btypeとは、Atypeのボイシングタイプから、例えば7度、9度をオクターブ下げて、Atypeと比較して音域を狭くしたボイシングタイプをいう。
図9(c)に例示されるボイシングテーブルでは、1番と2番のボイシングテーブルデータは、ボイシングタイプ=Atype、ポリ数=4音である場合に選択できることを示している。これらの2つのボイシングテーブルデータは、どちらもボイシングタイプ=Atype、ポリ数=4音の場合に選択できるが、その場合にどちらが選択されるかは、後述する図10(b)に例示されるボイシングテーブルデータ選択用頻度テーブルを用いて後述する図8のステップS810の処理により確率的に決定される。
また、3番のボイシングテーブルデータは、ボイシングタイプ=Atype、ポリ数=3音である場合に選択できることを示している。ボイシングタイプ=Atype、ポリ数=3音である場合に選択できるボイシングテーブルデータは、3番のみであるため、その場合は必ず3番のボイシングテーブルデータが選択される。
更に、4番と5番のボイシングテーブルデータは、ボイシングタイプ=Btype、ポリ数=4音である場合に選択できることを示している。これらの2つのボイシングテーブルデータは、どちらもボイシングタイプ=Btype、ポリ数=4音の場合に選択できるが、その場合にどちらが選択されるかは、後述する図10(b)に例示されるボイシングテーブルデータ選択用頻度テーブルを用いて後述する図8のステップS810の処理により確率的に決定される。
そして、6番のボイシングテーブルデータは、ボイシングタイプ=Btype、ポリ数=3音である場合に選択できることを示している。ボイシングタイプ=Btype、ポリ数=3音である場合に選択できるボイシングテーブルデータは、6番のみであるため、その場合は必ず6番のボイシングテーブルデータが選択される。
上述のボイシングテーブルデータの選択動作を実現するために、CPU101はまず、予め用意してROM102に記憶されているポリ数選択用頻度テーブルを参照することにより、ポリ数を確率的に決定する(ステップS806)。図10(a)は、ポリ数選択用頻度テーブルのデータ構成例を示す図である。図10(a)に例示されるポリ数選択用頻度テーブルの左端列に登録される「Ballad」、「Slow」、「Mid」、「Fast」、及び「Very Fast」は夫々、図4(a)のタイミングタイプ選択用頻度テーブルの場合と同様に、自動コード伴奏データのテンポ範囲を示している。
CPU101は、図8のステップS806において、ROM102に記憶されている図10(a)に例示されるポリ数選択用頻度テーブルを用いて、次のような制御処理を実行する。まず、図2のステップS203のタイミングデータ生成処理内の図3のステップS301にてROM102から読み込まれる自動コード伴奏データに例えばテンポ範囲「Ballad」が設定されている場合には、CPU101は、図10(a)に例示されるポリ数選択用頻度テーブルにおいて、左端項目に「Ballad」が登録されている行のデータを参照する。この行には、ポリ数3又はポリ数4が夫々、10%又は90%の確率で選択されることを示す各頻度値[%]が設定されている。これに対して、CPU101は、前述した図3のステップS302の場合と同様にして、例えば1から100までの値域を有する任意の乱数値を発生する。そして、CPU101は例えば、生成した乱数値が1から10の乱数範囲(「ポリ数3」の頻度値10%に対応)にあれば、「ポリ数3」を選択する。又は、CPU101は例えば、生成した乱数値が11から100の乱数範囲(「ポリ数4」の頻度値90%に対応)にあれば、「ポリ数4」を選択する。このようにして、CPU101は、「ポリ数3」及び「ポリ数4」の各ポリ数を夫々、ポリ数選択用頻度テーブルの「Ballad」行に設定された10%及び90%の各確率で選択することができる。
図3のステップS301にてROM102から読み込まれる自動コード伴奏データに例えばテンポ範囲「Slow」、「Mid」、「Fast」、又は「Very Fast」が設定されている場合も、「Ballad」が設定されている上述の場合と同様にして、CPU101は例えば、図10(a)に例示される構成を有するポリ数選択用頻度テーブルにおいて、左端項目に「Slow」、「Mid」、「Fast」、又は「Very Fast」が登録されている何れかの行の各頻度値を参照する。次に、CPU101は、その行の「ポリ数3」又は「ポリ数4」の各ポリ数に対して夫々設定されている頻度値[%]に応じた1から100の範囲内の各乱数範囲を設定する。そして、CPU101は、1から100の範囲で乱数値を発生させ、生成された乱数値が上記各乱数範囲のどの範囲に入るかによって、「ポリ数3」又は「ポリ数4」の何れかのポリ数を選択する。このようにして、CPU101は、「ポリ数3」及び「ポリ数4」の各ポリ数を夫々、ポリ数選択用頻度テーブルの各テンポ範囲の行に設定された各頻度値に対応する確率で選択することができる。
ポリ数は、楽曲のテンポや曲調により、自然な演奏になる内容が異なる。このため、本実施形態では、「Ballad」、「Slow」、「Mid」、「Fast」、又は「Very Fast」等の曲調ごとに、ポリ数の出現する度合いを決定する図10(a)に例示されるデータ構成を有するポリ数選択用頻度テーブルが参照される。
上述のステップS806の処理を実行するCPU101は、音数選択手段として動作する。
ステップS806でポリ数を決定した後、CPU101は、ノートオンされるコードが、前述したボイシングタイプのAtypeであるべきかBtypeであるべきかを判定する。具体的には、CPU101は、ノートオンされるコードのルート音の音高がF#以上であるか否かを判定する(ステップS807)。
ステップS807の判定がNOならば、CPU101は、現在のコードのボイシングタイプとして、Atypeを選択する(ステップS808)。
ステップS807の判定がYESならば、CPU101は、現在のコードのボイシングタイプとして、Btypeを選択する(ステップS809)。
ステップS807の判定は、1オクターブを半分の位置で分割して、各コードが或る音域内に収まり、コードの遷移によって音域が飛びすぎないようにするためである。
ステップS807~S809を実行するCPU101は、ボイシングタイプ決定手段として動作する。
最後に、CPU101は、前述したステップS805にてROM102から取得している図9(c)に例示されるボイシングテーブルに対応して用意されROM102に記憶されているボイシングテーブルデータ選択用頻度テーブルを用いて、ステップS806~S809の処理により決定したポリ数(3又は4)とボイシングタイプ(A又はB)の組合せに基づいて、図9(c)に例示されるボイシングテーブルから最適なボイシングテーブルデータを確率的に抽出し、RAM103に記憶する(ステップS810)。
ステップS810を実行するCPU101は、ボイシングパターン選択手段として動作する。
図10(b)は、ボイシングテーブルデータ選択用頻度テーブルのデータ構成例を示す図である。図10(b)に例示されるボイシングテーブルデータ選択用頻度テーブルの左端列に登録される「4/A」、「4/B」、「3/A」、及び「3/B」は夫々、ステップS806~S809で決定されたポリ数(3又は4)とボイシングタイプ(Atype又はBtype)の組合せを示している。
CPU101は、図8のステップS810において、次のような制御処理を実行する。まず、ステップS806~S809で決定された「ポリ数/ボイシングタイプ」が「4/A」である場合には、CPU101は、図10(b)に例示されるボイシングテーブルデータ選択用頻度テーブルにおいて、左端項目に「4/A」が登録されている行のデータを参照する。番号1又は2のボイシングテーブルデータが夫々、60%又は40%の確率で選択されることを示す各頻度値[%]が設定されている。他の番号のボイシングテーブルデータには、頻度値として0%が設定されているため、「4/A」の組合せに対してはこれらの番号のボイシングテーブルデータは選択され得ない。これに対して、CPU101は、前述したステップS806の場合と同様にして、例えば1から100までの値域を有する任意の乱数値を発生する。そして、CPU101は例えば、生成した乱数値が1から60の乱数範囲(番号1の頻度値60%に対応)にあれば、番号1のボイシングテーブルデータを選択する。又は、CPU101は例えば、生成した乱数値が61から100の乱数範囲(番号1の頻度値40%に対応)にあれば、番号1のボイシングテーブルデータを選択する。このようにして、CPU101は、番号1及び番号2の各ボイシングテーブルデータを夫々、ボイシングテーブルデータ選択用頻度テーブルの「4/A」行に設定された60%及び40%の各確率で選択する。
ステップS806~S809で決定された「ポリ数/ボイシングタイプ」が「4/B」、「3/A」、又は「3/B」である場合も、「4/A」が設定されている上述の場合と同様にして、CPU101は例えば、図10(b)に例示される構成を有するボイシングテーブルデータ選択用頻度テーブルにおいて、左端項目に「4/B」、「3/A」、又は「3/B」が登録されている何れかの行の各頻度値を参照する。次に、CPU101は、その行の番号1から6の各ボイシングテーブルデータに対して夫々設定されている頻度値[%]に応じた1から100の範囲内の各乱数範囲を設定する。そして、CPU101は、1から100の範囲で乱数値を発生させ、生成された乱数値が上記各乱数範囲のどの範囲に入るかによって、番号1から6の何れかのボイシングテーブルデータを選択する。このようにして、CPU101は、図9(c)のボイシングテーブル上の番号1から6の各ボイシングテーブルデータを夫々、図10(b)のボイシングテーブルデータ選択用頻度テーブルの各「ポリ数/ボイシングタイプ」の行に設定された各頻度値に対応する確率で選択する。
CPU101は、ステップS810において、上述のようにして図9(c)のボイシングテーブルから抽出したボイシングテーブルデータを、RAM103に記憶する。
ステップS810の処理の後、CPU101は、図8のフローチャートで例示される図2のステップS208のボイシング処理を終了する。
以上説明したボイシング処理により、本実施形態では、自動コード伴奏において、ノートオンされるコード及びキーに対応して、音楽理論に則ったスケールを適切に選択し、そのスケールに対応する複数のバリエーションのボイシングテーブルデータの候補を、ボイシングテーブルとして提供することができる。続いて、本実施形態では、確率的に決定されるポリ数とボイシングタイプの組合せに基づいて、上記複数のバリエーションのボイシングテーブルデータの候補のうちの1組を、確率的に抽出することができる。そして、本実施形態では、このようにして抽出したボイシングテーブルデータとして与えられるボイス群を使って、自動コード伴奏におけるコードのノートオン処理を実行することができる。これにより、音楽理論に則りながら多彩なバリエーションの自動コード伴奏を実現することが可能となる。
図11(a)はC7(ミクソリディアンスケール)の楽譜表現であり、図11(b)、(c)、(d)、(e)、(f)、及び(g)は、C7(ミクソリディアンスケール)におけるボイシングのバリエーションの例を示す楽譜表現である。図11(b)は、ボイシングタイプがAtypeで9度及び13度のテンション音を含むポリ数=4音のC7コードの例の楽譜表現である。図11(c)は、ボイシングタイプがAtypeで9度のテンション音を含むポリ数=4音のC7コードの例の楽譜表現である。図11(d)はボイシングタイプがAtypeで9度のテンション音を含むポリ数=3音のC7コードの例の楽譜表現である。図11(e)は、ボイシングタイプがBtypeで9度及び13度のテンション音を含むポリ数=4音のC7コードの例の楽譜表現である。図11(f)は、ボイシングタイプがBtypeで9度のテンション音を含むポリ数=4音のC7コードの例の楽譜表現である。図11(g)はボイシングタイプがBtypeで13度のテンション音を含むポリ数=3音のC7コードの例の楽譜表現である。
また、図10(h)はマイナースケールで使用されるC7(ミクソリディアン♭9♭13」スケールの楽譜表現であり、図10(i)及び(j)は、「C7ミクソリディアン♭9♭13」スケールにおけるボイシングのバリエーションの例を示す楽譜表現である。図11(i)は、ボイシングタイプがAtypeで♭9度のテンション音を含むポリ数=4音のC7コードの例の楽譜表現である。図11(j)は、ボイシングタイプがAtypeで♭9度及び♭13度のテンション音を含むポリ数=4音のC7コードの例の楽譜表現である。
図11に例示したように、本実施形態では、多彩なボイシングのコードで自動コード伴奏を行うことが可能である。
以上説明した実施形態は、本発明による自動演奏装置が図1の電子鍵盤楽器100に内蔵されている実施形態であった。一方、自動演奏装置と電子楽器は、夫々個別の装置であってもよい。具体的には、例えば図12に示されるように、自動演奏装置は例えばスマートフォンやタブレット端末(以下「スマートフォン等1201」と記載)に自動演奏アプリとしてインストールされ、電子楽器は例えば自動コード伴奏機能を持たない電子鍵盤楽器1202であってよい。この場合、スマートフォン等1201と電子鍵盤楽器1202は、例えばMIDI over Bluetooth Low Energy(以下「BLE-MIDI」と記載、Bluetoothは登録商標)と呼ばれる規格に基づいて無線通信する。BLE-MIDIは、無線規格Bluetooth Low Energy上で楽器間の通信の標準規格MIDI(Musical Instrument Digital Interface:楽器デジタルインタフェース)で通信が行えるようにした楽器間無線通信規格である。電子鍵盤楽器1202は、Bluetooth Low Energy規格でスマートフォン等1201に接続することができる。その状態で、スマートフォン等1201上で実行される自動演奏アプリによって、図2から図11で説明した自動コード伴奏機能に基づく自動コード伴奏データが、BLE-MIDI規格の通信路を介して、MIDIデータとして電子鍵盤楽器1202に送信される。電子鍵盤楽器1202は、BLE-MIDI規格で受信した自動コード伴奏MIDIデータに基づいて、図2から図11で説明した自動コード伴奏を実施する。
図13は、図12に示される接続形態を有する自動演奏装置と電子楽器が個別に動作する他の実施形態における自動演奏装置1201のハードウェア構成例を示す図である。図13において、CPU1301、ROM1302、及びRAM1303、タッチパネルディスプレイ1305は、図1のCPU101、ROM102、及びRAM103と同様の機能を有する。CPU1301が、RAM1303にダウンロードされインストールされた自動演奏アプリのプログラムを実行することにより、CPU101が制御プログラムを実行することにより実現した、図2から図11で説明した自動コード伴奏機能と同じ機能を実現する。このとき、図1のスイッチ部105と同等の機能は、タッチパネルディスプレイ1305によって提供される。そして、自動演奏アプリは、自動コード伴奏用の制御データを自動コード伴奏MIDIデータに変換してBLE-MIDI通信インタフェース1305に引き渡す。
BLE-MIDI通信インタフェース1305は、自動演奏アプリにより生成された自動コード伴奏MIDIデータを、BLE-MIDI規格に従って電子鍵盤楽器1202に送信する。この結果、電子鍵盤楽器1202が、図1の電子鍵盤楽器100の場合と同様の自動コード伴奏を実施する。
なお、BLE-MIDI通信インタフェース1305の代わりに、有線のMIDIケーブルで電子鍵盤楽器1202に接続するMIDI通信インタフェースが用いられてもよい。
以上説明したようにして、本実施形態では、従来技術で課題であった、ジャズ等の特徴となるテンションノートを含んだコードの発音構成(ボイシング)と、より自然な音数、音域による自動コード伴奏が実現され、あたかもジャズ等のピアニストが演奏しているかのような、コードパートの自動伴奏を提供することが可能となる。
特に、本実施形態では、コードの発音をより自然な音域で、コードチェンジの際には音域移動が少なくてすむテンションノートを含んだ演奏ポジションでの発音、コードチェンジが無い場合はボイシングをいたずらに変化させずに自然な発音をさせ、曲調や、テーマ・ソロと言ったジャズ等の特有の楽曲構成に合わせ、同時に発音させる音数(場合によっては発音させない)もアルゴリズムにより頻度調整し、より自然なコード伴奏を提供することが可能となる。
これにより、演奏者があたかもジャムセッションに参加しているかのような演奏体験が得られるようになる。また、例えばジャズを演奏したいけれどジャムセッションに参加する勇気がなく、躊躇している方のトレーニングの一環として活用も可能となる。また、ジャズ等の特徴を捉えた自動コード伴奏により、ジャズ等でのソロ(アドリブ)を演奏する際のフレージングの研究や練習など、教育の一環として活用することも可能となる。
このように、本実施形態による自動演奏装置では、演奏者による楽器のライブ演奏におけるタイミング及びボイシングを表現可能な、自然な自動コード伴奏の実現が可能となる。
以上の実施形態に関して、更に以下の付記を開示する。
(付記1)
発音させる音数を確率的に選択する音数選択手段と、
音域に対応するボイシングタイプを決定するボイシングタイプ決定手段と、
楽曲の調とコードにより決定されるスケールに基づく複数のボイシングパターンから、前記選択された音数と、前記決定されたボイシングタイプとの組合せに対応するボイシングパターンを選択するボイシングパターン選択手段と、
選択された前記ボイシングパターンに基づきボイシングされたコードの発音を音源に指示する発音指示手段と、
を備える自動演奏装置。
(付記2)
前記組合せに対応するボイシングパターンが複数ある場合は、前記複数のボイシングパターンからいずれか1つを確率的に選択する、付記1に記載の自動演奏装置。
(付記3)
前記ボイシングタイプ決定手段は、発音すべきコードのルートの音高に基づき前記ボイシングタイプを決定する、付記1又は2に記載の自動演奏装置。
(付記4)
楽音情報を送受信する通信手段を更に備え、
前記発音指示手段は、前記通信手段を介して、前記音源に前記コードの発音を指示する、
付記1乃至3の何れか1項に記載の自動演奏装置。
(付記5)
付記1乃至3の何れか1項に記載の自動演奏装置と前記音源とを備え、前記自動演奏装置の前記発音指示手段による前記選択されたボイシングパターンに基づきボイシングされたコードの発音の指示に基づいて、前記音源が自動コード伴奏を実施する電子楽器。
(付記6)
発音させる音数を選択し、
音域に対応するボイシングタイプを決定し、
楽曲の調とコードにより決定されるスケールに基づく複数のボイシングパターンから、前記選択された音数と、前記決定されたボイシングタイプとの組合せに対応するボイシングパターンを選択し、
選択された前記ボイシングパターンに基づきボイシングされたコードの発音を音源に指示する、
自動演奏方法。
(付記7)
発音させる音数を選択し、
音域に対応するボイシングタイプを決定し、
楽曲の調とコードにより決定されるスケールに基づく複数のボイシングパターンから、前記選択された音数と、前記決定されたボイシングタイプとの組合せに対応するボイシングパターンを選択し、
選択された前記ボイシングパターンに基づきボイシングされたコードの発音を音源に指示する、
処理をコンピュータに実行させるためのプログラム。
100 電子鍵盤楽器
101 CPU
102 ROM
103 RAM
104 鍵盤部
105 スイッチ部
106 音源LSI
107 サウンドシステム
108 システムバス

Claims (7)

  1. 発音させる音数を確率的に選択する音数選択手段と、
    音域に対応するボイシングタイプを決定するボイシングタイプ決定手段と、
    楽曲の調とコードにより決定されるスケールに基づく複数のボイシングパターンから、前記選択された音数と、前記決定されたボイシングタイプとの組合せに対応するボイシングパターンを選択するボイシングパターン選択手段と、
    選択された前記ボイシングパターンに基づきボイシングされたコードの発音を音源に指示する発音指示手段と、
    を備える自動演奏装置。
  2. 前記組合せに対応するボイシングパターンが複数ある場合は、前記複数のボイシングパターンからいずれか1つを確率的に選択する、請求項1に記載の自動演奏装置。
  3. 前記ボイシングタイプ決定手段は、発音すべきコードのルートの音高に基づき前記ボイシングタイプを決定する、請求項1又は2に記載の自動演奏装置。
  4. 楽音情報を送受信する通信手段を更に備え、
    前記発音指示手段は、前記通信手段を介して、前記音源に前記コードの発音を指示する、
    請求項1乃至3の何れか1項に記載の自動演奏装置。
  5. 請求項1乃至3の何れか1項に記載の自動演奏装置と前記音源とを備え、前記自動演奏装置の前記発音指示手段による前記選択されたボイシングパターンに基づきボイシングされたコードの発音の指示に基づいて、前記音源が自動コード伴奏を実施する電子楽器。
  6. 発音させる音数を選択し、
    音域に対応するボイシングタイプを決定し、
    楽曲の調とコードにより決定されるスケールに基づく複数のボイシングパターンから、前記選択された音数と、前記決定されたボイシングタイプとの組合せに対応するボイシングパターンを選択し、
    選択された前記ボイシングパターンに基づきボイシングされたコードの発音を音源に指示する、
    自動演奏方法。
  7. 発音させる音数を選択し、
    音域に対応するボイシングタイプを決定し、
    楽曲の調とコードにより決定されるスケールに基づく複数のボイシングパターンから、前記選択された音数と、前記決定されたボイシングタイプとの組合せに対応するボイシングパターンを選択し、
    選択された前記ボイシングパターンに基づきボイシングされたコードの発音を音源に指示する、
    処理をコンピュータに実行させるためのプログラム。
JP2021203446A 2021-12-15 2021-12-15 自動演奏装置、自動演奏方法、プログラム、及び電子楽器 Active JP7409366B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021203446A JP7409366B2 (ja) 2021-12-15 2021-12-15 自動演奏装置、自動演奏方法、プログラム、及び電子楽器
US17/980,789 US20230186879A1 (en) 2021-12-15 2022-11-04 Automatic music playing control device, electronic musical instrument, method of playing automatic music playing device, and non-transitory computer-readable recording medium
EP22205981.8A EP4198965A1 (en) 2021-12-15 2022-11-08 Automatic music playing control device, electronic musical instrument, method of playing automatic music playing device, and program
JP2023209732A JP2024015509A (ja) 2021-12-15 2023-12-13 自動演奏装置、自動演奏方法、プログラム、及び電子楽器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021203446A JP7409366B2 (ja) 2021-12-15 2021-12-15 自動演奏装置、自動演奏方法、プログラム、及び電子楽器

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023209732A Division JP2024015509A (ja) 2021-12-15 2023-12-13 自動演奏装置、自動演奏方法、プログラム、及び電子楽器

Publications (2)

Publication Number Publication Date
JP2023088608A JP2023088608A (ja) 2023-06-27
JP7409366B2 true JP7409366B2 (ja) 2024-01-09

Family

ID=84329704

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021203446A Active JP7409366B2 (ja) 2021-12-15 2021-12-15 自動演奏装置、自動演奏方法、プログラム、及び電子楽器
JP2023209732A Pending JP2024015509A (ja) 2021-12-15 2023-12-13 自動演奏装置、自動演奏方法、プログラム、及び電子楽器

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023209732A Pending JP2024015509A (ja) 2021-12-15 2023-12-13 自動演奏装置、自動演奏方法、プログラム、及び電子楽器

Country Status (3)

Country Link
US (1) US20230186879A1 (ja)
EP (1) EP4198965A1 (ja)
JP (2) JP7409366B2 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018537727A (ja) 2015-09-29 2018-12-20 アンパー ミュージック, インコーポレイテッドAmper Music, Inc. 言語および/またはグラフィカルアイコンベースの音楽体験記述子を採用する自動化音楽作曲および生成機械、システムおよびプロセス

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4719834A (en) * 1981-06-17 1987-01-19 Hall Robert J Enhanced characteristics musical instrument
JP3704901B2 (ja) 1996-07-10 2005-10-12 ヤマハ株式会社 自動演奏装置、自動演奏方法及び記録媒体
US5850051A (en) * 1996-08-15 1998-12-15 Yamaha Corporation Method and apparatus for creating an automatic accompaniment pattern on the basis of analytic parameters
US7705231B2 (en) * 2007-09-07 2010-04-27 Microsoft Corporation Automatic accompaniment for vocal melodies
EP2772904B1 (en) * 2013-02-27 2017-03-29 Yamaha Corporation Apparatus and method for detecting music chords and generation of accompaniment.

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018537727A (ja) 2015-09-29 2018-12-20 アンパー ミュージック, インコーポレイテッドAmper Music, Inc. 言語および/またはグラフィカルアイコンベースの音楽体験記述子を採用する自動化音楽作曲および生成機械、システムおよびプロセス

Also Published As

Publication number Publication date
JP2023088608A (ja) 2023-06-27
JP2024015509A (ja) 2024-02-02
EP4198965A1 (en) 2023-06-21
US20230186879A1 (en) 2023-06-15

Similar Documents

Publication Publication Date Title
JP5574474B2 (ja) アドリブ演奏機能を有する電子楽器およびアドリブ演奏機能用プログラム
JP2007219139A (ja) 旋律生成方式
JP7409366B2 (ja) 自動演奏装置、自動演奏方法、プログラム、及び電子楽器
JP7400798B2 (ja) 自動演奏装置、電子楽器、自動演奏方法、及びプログラム
JP2003288077A (ja) 曲データ出力装置及びプログラム
JP6417663B2 (ja) 電子楽器、電子楽器の制御方法およびプログラム
JP3724347B2 (ja) 自動作曲装置及び方法並びに記憶媒体
CN113140201A (zh) 伴奏音生成装置、电子乐器、伴奏音生成方法及伴奏音生成程序
JP7452501B2 (ja) 自動演奏装置、電子楽器、演奏システム、自動演奏方法、及びプログラム
JP3455050B2 (ja) 自動伴奏装置
WO2022201945A1 (ja) 自動演奏装置、電子楽器、演奏システム、自動演奏方法、及びプログラム
JP2007248880A (ja) 演奏制御装置、およびプログラム
JP7505196B2 (ja) ベースライン音自動生成装置、電子楽器、ベースライン音自動生成方法及びプログラム
JP2007240558A (ja) コード検出領域設定装置、該装置を具えたコード表示装置、及びこれらのプログラム
JP7331887B2 (ja) プログラム、方法、情報処理装置、および画像表示システム
JP6582517B2 (ja) 制御装置およびプログラム
JP2021124688A (ja) ベースライン音自動生成装置、電子楽器、ベースライン音自動生成方法及びプログラム
US20230035440A1 (en) Electronic device, electronic musical instrument, and method therefor
JP4175364B2 (ja) アルペジオ発音装置およびアルペジオ発音を制御するためのプログラムを記録したコンピュータ読み取り可能な媒体
JP2024062127A (ja) 伴奏音自動生成装置、電子楽器、伴奏音自動生成方法及びプログラム
JP3800947B2 (ja) 演奏データ処理装置及び方法並びに記憶媒体
JP2016191855A (ja) ジャンル選択装置、ジャンル選択方法、プログラムおよび電子楽器
JP2023098055A (ja) 自動演奏装置および自動演奏プログラム
JP4942938B2 (ja) 自動伴奏装置
JPH0320794A (ja) 電子楽器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221222

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20231010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231204

R150 Certificate of patent or registration of utility model

Ref document number: 7409366

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150