JP2018163183A - 電子楽器、方法、及びプログラム - Google Patents

電子楽器、方法、及びプログラム Download PDF

Info

Publication number
JP2018163183A
JP2018163183A JP2017058581A JP2017058581A JP2018163183A JP 2018163183 A JP2018163183 A JP 2018163183A JP 2017058581 A JP2017058581 A JP 2017058581A JP 2017058581 A JP2017058581 A JP 2017058581A JP 2018163183 A JP2018163183 A JP 2018163183A
Authority
JP
Japan
Prior art keywords
sound
priority
priority sound
automatic performance
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017058581A
Other languages
English (en)
Other versions
JP6465136B2 (ja
Inventor
厚士 中村
Atsushi Nakamura
厚士 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017058581A priority Critical patent/JP6465136B2/ja
Priority to US15/921,484 priority patent/US10347229B2/en
Priority to CN201810244499.9A priority patent/CN108630177B/zh
Publication of JP2018163183A publication Critical patent/JP2018163183A/ja
Application granted granted Critical
Publication of JP6465136B2 publication Critical patent/JP6465136B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0016Means for indicating which keys, frets or strings are to be actuated, e.g. using lights or leds
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • G10H1/344Structural association with individual keys
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/005Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/071Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/341Rhythm pattern selection, synthesis or composition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • G10H2210/385Speed change, i.e. variations from preestablished tempo, tempo change, e.g. faster or slower, accelerando or ritardando, without change in pitch
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/021Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs, seven segments displays
    • G10H2220/026Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs, seven segments displays associated with a key or other user input device, e.g. key indicator lights
    • G10H2220/061LED, i.e. using a light-emitting diode as indicator

Abstract

【課題】電子楽器、電子楽器の制御方法、及びプログラムに関し、演奏技術が上達途中であっても音楽的な意味づけを行いながら上手にレッスンを行うことができる電子楽器を提供する。【解決手段】例えば指定される拍子によって決まる複数拍毎に決まる小節毎に、自動演奏曲データから優先音が決定される。この優先音は、例えば小節内の強拍タイミングで自動演奏曲データによりノートオンされる楽音である。また、優先音の候補がコード構成音である場合には、その中で例えばメロディを構成し得る1つの楽音が優先音として決定される。自動演奏曲データの先頭から順次、決定された優先音が例えば鍵盤上の光る鍵として演奏者に表示されながら、その表示した優先音の鍵を演奏者が押鍵等して演奏する毎にその次の優先音までの自動演奏曲データが自動演奏される。【選択図】図9

Description

本発明は、電子楽器、電子楽器の制御方法、及びプログラムに関する。
自動演奏に同期して鍵盤上で演奏すべき鍵を光らせることにより、演奏者が楽曲演奏を上達できるようにした光鍵盤を装備した電子楽器が知られている。
このような楽器演奏レッスンを初心者でも容易に行えるようにするために従来、鍵盤上の鍵を押鍵するタイミングと記録されているメロディの出力タイミングが合っていればどの鍵を押鍵してもメロディが再生されるようにした光鍵盤楽器の技術が知られている。
また、本格的な楽器演奏レッスンを可能とするために従来、押鍵すべきメロディに対応する鍵が全て光り、それらの光る鍵を押鍵するとメロディが再生されるようにした光鍵盤楽器の技術が知られている。
しかし、タイミングが合っていればどの鍵を押鍵してもメロディが再生されるようにした光鍵盤楽器の従来技術では、ユーザによっては簡単すぎる可能性がある。
また、押鍵すべきメロディに対応する全ての光る鍵を正しく押鍵したときにメロディが再生されるようにした光鍵盤楽器の従来技術では、ユーザによっては難しすぎる可能性がある。
そこで、本発明は、演奏技術が上達途中であっても音楽的な意味づけを行いながら上手にレッスンを行うことができる電子楽器を提供することを目的とする。
態様の一例では、曲データをそれぞれの区間長で区切った区間ごとに優先音をそれぞれ決定する優先音決定処理と、区間に対応して決定された優先音を示す識別子を表示する優先音表示処理と、演奏者が優先音を示す識別子を指定すると、指定された優先音及び、指定された優先音と次の区間の優先音の間の優先音以外の音の自動演奏を進行させる自動演奏処理と、を実行する処理部を有する。
本発明によれば、演奏技術が上達途中であっても音楽的な意味づけを行いながら上手にレッスンを行うことができる電子楽器を提供することが可能となる。
電子鍵盤楽器の一実施形態の外観例を示す図である。 電子鍵盤楽器の制御システムの一実施形態のハードウェア構成例を示すブロック図である。 自動演奏曲データのデータ構成例を示す図である。 鍵点灯制御データのデータ構成例を示す図である。 本実施形態における電子楽器の制御処理例を示すメインフローチャートである。 初期化処理の詳細例を示すフローチャートである。 スイッチ処理の詳細例を示すフローチャートである。 テンポ変更処理の詳細例を示すフローチャートである。 自動演奏曲読込み処理の詳細例を示すフローチャートである。 本実施形態の動作説明図である。 自動演奏開始処理の詳細例を示すフローチャートである。 押鍵/離鍵処理の詳細例を示すフローチャートである。 自動演奏割込み処理の詳細例を示すフローチャートである。
以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。本実施形態ではまず、自動演奏の曲データ(以下「自動演奏曲データ」と呼ぶ)を所定の区間長毎に区切って得た区間毎、例えば自動演奏曲データの拍子(4拍子、3拍子等)によって決まる複数拍(例えば4拍、3拍等)毎に決まる小節毎に、自動演奏曲データから優先音が決定される。この優先音は、例えば小節内の強拍(中強拍を含む)のタイミングで自動演奏曲データによりノートオンされる楽音である。また、優先音の候補がコード構成音である場合には、その中で例えばメロディを構成し得る1つの楽音が優先音として決定される。そして、本実施形態では、自動演奏曲データの先頭から順次、決定された優先音が例えば鍵盤上の光る鍵として演奏者に表示されながら、その表示した優先音の鍵を演奏者が押鍵等して演奏する毎にその次の優先音までの自動演奏曲データが自動演奏される。
演奏者が優先音として光る鍵を押鍵等すると、次の優先音の鍵が光ると共に、当該次の優先音の手前まで自動演奏が進行し、そこで演奏者が当該次に光っている優先音の鍵を押鍵等するまで一旦停止する。演奏者が光るタイミングに合わせて当該次に光っている優先音の鍵を押鍵等すれば、更にその次の優先音の鍵が光ってそこまで自動演奏が進行する。従って、演奏者は、音楽的に重要な意味を有する例えば各小節の強拍及び中強拍(4拍子の場合は第1拍目と第2拍目、3拍子の場合は第1泊目)のタイミングで光る鍵を追いながら、無理のないレッスンを行うことが可能となる。
また、本実施形態では、自動演奏曲データの自動演奏に合わせて、例えば自動演奏曲データの一部として電子楽器の演奏データに対応して与えられている歌詞データに基づく歌声が、当該演奏に対応する音高及び音長で音声合成されながら出力される。この場合も、演奏者が優先音として光る鍵を押鍵等すると、次の優先音の鍵が光ると共に、当該次の優先音の手前まで電子楽器の自動演奏が進行しながら、歌声の歌唱も進行する。
これにより、演奏者は、歌声の歌唱も楽しみながら、レッスンを行うことが可能となる。
図1は、電子鍵盤楽器の一実施形態100の外観例を示す図である。電子鍵盤楽器100は、演奏操作子としての複数の鍵からなりそれぞれの鍵が光る機能を有する鍵盤101と、音量の指定、自動演奏のテンポ設定、自動演奏開始等の各種設定を指示する第1のスイッチパネル102と、自動演奏曲の選曲や音色の選択等を行う第2のスイッチパネル103と、自動演奏時の歌詞や各種設定情報を表示するLCD104(Liquid Crystal Display:液晶ディスプレイ)等を備える。また、電子鍵盤楽器100は、特には図示しないが、演奏により生成された楽音を放音するスピーカを裏面部、側面部、又は背面部等に備える。
図2は、図1の電子鍵盤楽器100の制御システム200の一実施形態のハードウェア構成例を示す図である。図2において、制御システム200は、CPU(中央演算処理装置)201、ROM(リードオンリーメモリ)202、RAM(ランダムアクセスメモリ)203、音源LSI(大規模集積回路)204、音声合成LSI205、図1の鍵盤101、第1のスイッチパネル102、及び第2のスイッチパネル103が接続されるキースキャナ206、図1の鍵盤101の各鍵を光らせるための各LED(Light Emitting Diode:発光ダイオード)を発光制御するLEDコントローラ207、及び図1のLCD104が接続されるLCDコントローラ208が、それぞれシステムバス209に接続される構成を備える。また、CPU201には、自動演奏のシーケンスを制御するためのタイマ210が接続される。更に、音源LSI204及び音声合成LSI205からそれぞれ出力されるデジタル楽音波形データ及びデジタル歌声音声データは、D/Aコンバータ211、212によりそれぞれアナログ楽音波形信号及びアナログ歌声音声信号に変換される。アナログ楽音波形信号及びアナログ歌声音声信号は、ミキサ213で混合され、その混合信号がアンプ214で増幅された後に、特には図示しないスピーカ又は出力端子から出力される。
CPU201は、RAM203をワークメモリとして使用しながらROM202に記憶された制御プログラムを実行することにより、図1の電子鍵盤楽器100の制御動作を実行する。また、ROM202は、上記制御プログラム及び各種固定データのほか、自動演奏曲データを記憶する。
CPU601には、本実施形態で使用するタイマ604が実装されており、例えば電子鍵盤楽器100における自動演奏の進行をカウントする。
音源LSI204は、特には図示しない波形ROMから楽音波形データを読み出し、D/Aコンバータ211に出力する。音源LSI204は、同時に最大256ボイスを発振させる能力を有する。
音声合成LSI205は、CPU201から、歌詞のテキストデータと音高と音長を与えられると、それに対応する歌声の音声データを合成し、D/Aコンバータ212に出力する。
キースキャナ206は、図1の鍵盤101の押鍵/離鍵状態、第1のスイッチパネル102、及び第2のスイッチパネル103のスイッチ操作状態を定常的に走査し、CPU201に割り込みを掛けて状態変化を伝える。
LEDコントローラ207は、CPU201からの指示により鍵盤101の鍵を光らせて演奏者の演奏をナビゲートするIC(集積回路)である。
LCDコントローラ609は、LCD505の表示状態を制御するICである。
図1及び図2の構成例を有する本実施形態の動作について、以下に詳細に説明する。図3は、図2のROM202からRAM203に読み込まれる自動演奏曲データのデータ構成例を示す図である。このデータ構成例は、MIDI(Musical Instrument Digital Interface)用ファイルフォーマットの一つであるスタンダードMIDIファイルのフォーマットに準拠している。この自動演奏曲データは、チャンクと呼ばれるデータブロックから構成される。具体的には、自動演奏曲データは、ファイルの先頭にあるヘッダチャンクと、それに続く右手パート用の演奏データ及び歌詞データが格納されるトラックチャンク1と、左手パート用の演奏データ及び歌詞データが格納されるトラックチャンク2とから構成される。
ヘッダチャンクは、ChunkID、ChunkSize、FormatType、NumberOfTrack、及びTimeDivisionの4つの値からなる。ChunkIDは、ヘッダチャンクであることを示す"MThd"という半角4文字に対応する4バイトのアスキーコード「4D 54 68 64」(数字は16進数)である。ChunkSizeは、ヘッダチャンクにおいて、ChunkIDとChunkSizeを除く、FormatType、NumberOfTrack、及びTimeDivisionの部分のデータ長を示す4バイトデータであり、データ長は6バイト:「00 00 00 06」(数字は16進数)に固定されている。FormatTypeは、本実施形態の場合、複数トラックを使用するフォーマット1を意味する2バイトのデータ「00 01」(数字は16進数)である。NumberOfTrackは、本実施形態の場合、右手パートと左手パートに対応する2トラックを使用することを示す2バイトのデータ「00 02」(数字は16進数)である。TimeDivisionは、4分音符あたりの分解能を示すタイムベース値を示すデータであり、本実施形態の場合、10進法で480を示す2バイトのデータ「01 E0」(数字は16進数)である。
トラックチャンク1、2はそれぞれ、ChunkID、ChunkSizeと、DeltaTime[i]及びEvent[i]からなる演奏データ組(0≦i≦L:トラックチャンク1/右手パートの場合、0≦i≦M:トラックチャンク2/左手パートの場合)とからなる。ChunkIDは、トラックチャンクであることを示す"MTrk"という半角4文字に対応する4バイトのアスキーコード「4D 54 72 6B」(数字は16進数)である。ChunkSizeは、各トラックチャンクにおいて、ChunkIDとChunkSizeを除く部分のデータ長を示す4バイトデータである。DeltaTime[i]は、その直前のEvent[i−1]の実行時刻からの待ち時間(相対時間)を示す1〜4バイトの可変長データである。Event[i]は、電子鍵盤楽器100に対して演奏を指示するコマンドであり、ノートオン、ノートオフ、音色変更などを指示するMIDIイベントと、歌詞データ又は拍子が指示されるメタイベントとがある。各演奏データ組DeltaTime[i]及びEvent[i]において、その直前のEvent[i−1]の実行時刻からDeltaTime[i]だけ待った上でEvent[i]が実行されることにより、自動演奏が実現される。
図4は、図2のRAM203上に生成される鍵点灯制御データのデータ構成例を示す図である。鍵点灯制御データは、図1の鍵盤101上の何れかの鍵を光らせるための制御データであり、1曲の自動演奏曲に対してN個(Nは1以上の自然数)のデータ組LightNote[0]〜LightNote[N−1]からなる。1つの鍵点灯制御データ組LightNote[i](0≦i≦N−1)は、LightOnTime及びLightOnKeyの2つの値からなる。LightOnTimeは、鍵が発光される自動演奏開始時を基準とする経過時刻を示すデータである。LightOnKeyは、発光される鍵のキーナンバーを示すデータである。
図5は、本実施形態における電子楽器の制御処理例を示すメインフローチャートである。この制御処理は例えば、図2のCPU201が、ROM202からRAM203にロードされた制御処理プログラムを実行する動作である。
CPU201は、まず初期化処理を実行した後(ステップS501)、ステップS502からS507の一連の処理を繰り返し実行する。
この繰返し処理において、CPU201はまず、スイッチ処理を実行する(ステップS502)。ここでは、CPU201は、図2のキースキャナ206からの割込みに基づいて、図1の第1のスイッチパネル102又は第2のスイッチパネル103のスイッチ操作に対応する処理を実行する。
次に、CPU201は、図2のキー・スキャナ207からの割込みに基づいて図1の鍵盤101の何れかの鍵が操作されたか否かを判定し(ステップS503)、その判定がYESならば、押鍵/離鍵処理を実行する(ステップS506)。ここでは、CPU201は、演奏者による何れかの鍵の押鍵又は離鍵の操作に応じて、図2の音源LSI204に対して、発音開始又は発音停止の指示を出力する。また、CPU201は、演奏者により押鍵された鍵が現在光っている鍵と一致するか否かの判定処理及びそれに伴う制御処理を実行する。ステップS503の判定がNOならば、CPU201は、ステップS506の処理はスキップする。
そして、CPU201は、音源LSI204において発音中の楽音のエンベロープ制御等のその他定常サービス処理を実行する(ステップS507)。
図6は、図5のステップS501の初期化処理の詳細例を示すフローチャートである。CPU201は、本実施形態に特に関連する処理として、TickTimeの初期化処理を実行する。本実施形態において、自動演奏は、TickTimeという時間を単位として進行する。図3の自動演奏曲データのヘッダチャンク内のTimeDivision値として指定されるタイムベース値は4分音符の分解能を示しており、この値が例えば480ならば、4分音符は480TickTimeの時間長を有する。また、図3の自動演奏曲データのトラックチャンク内の待ち時間DeltaTime[i]値も、TickTimeの時間単位によりカウントされる。ここで、1TickTimeが実際に何秒になるかは、自動演奏曲データに対して指定されるテンポによって異なる。今、テンポ値をTempo[ビート/分]、上記タイムベース値をTimeDivisionとすれば、TickTimeの秒数は、次式により算出される。
TickTime[秒]=60/Tempo/TimeDivision (1)
そこで、図6のフローチャートで例示される初期化処理において、CPU201はまず、上記(1)式に対応する演算処理により、TickTime[秒]を算出する(ステップS601)。なお、テンポ値Tempoは、初期状態では図2のROM202に所定の値、例えば60[ビート/秒]が記憶されているとする。或いは、不揮発性メモリに、前回終了時のテンポ値が記憶されていてもよい。
次に、CPU201は、図2のタイマ210に対して、ステップS601で算出したTickTime[秒]によるタイマ割込みを設定する(ステップS602)。この結果、タイマ210において上記TickTime[秒]が経過する毎に、CPU201に対して自動演奏のための割込み(以下「自動演奏割込み」と記載)が発生する。従って、この自動演奏割込みに基づいてCPU201で実行される自動演奏割込み処理(後述する図13)では、1TickTime毎に自動演奏を進行させる制御処理が実行されることになる。
続いて、CPU201は、図2のRAM203の初期化等のその他初期化処理を実行する(ステップS603)。その後、CPU201は、図6のフローチャートで例示される図5のステップS501の初期化処理を終了する。
図7は、図5のステップS502のスイッチ処理の詳細例を示すフローチャートである。
CPU201はまず、図1の第1のスイッチパネル102内のテンポ変更スイッチにより自動演奏のテンポが変更されたか否かを判定する(ステップS701)。その判定がYESならば、CPU201は、テンポ変更処理を実行する(ステップS702)。この処理の詳細は、図8を用いて後述する。ステップS701の判定がNOならば、CPU201は、ステップS702の処理はスキップする。
次に、CPU201は、図1の第2のスイッチパネル103において何れかの自動演奏曲が選曲されたか否かを判定する(ステップS703)。その判定がYESならば、CPU201は、自動演奏曲読込み処理を実行する(ステップS704)。この処理の詳細は、図9及び図10を用いて後述する。ステップS703の判定がNOならば、CPU201は、ステップS704の処理はスキップする。
続いて、CPU201は、図1の第1のスイッチパネル102において自動演奏開始スイッチが操作されたか否かを判定する(ステップS705)。その判定がYESならば、CPU201は、自動演奏開始処理を実行する(ステップS706)。この処理の詳細は、図11を用いて後述する。ステップS705の判定がNOならば、CPU201は、ステップS706の処理はスキップする。
最後に、CPU201は、図1の第1のスイッチパネル102又は第2のスイッチパネル103においてその他のスイッチが操作されたか否かを判定し、各スイッチ操作に対応する処理を実行する(ステップS707)。その後、CPU201は、図7のフローチャートで例示される図5のステップS502のスイッチ処理を終了する。
図8は、図7のステップS702のテンポ変更処理の詳細例を示すフローチャートである。前述したように、テンポ値が変更されるとTickTime[秒]も変更になる。図8のフローチャートでは、CPU201は、このTickTime[秒]の変更に関する制御処理を実行する。
まず、CPU201は、図5のステップS501の初期化処理で実行された図6のステップS601の場合と同様にして、前述した(1)式に対応する演算処理により、TickTime[秒]を算出する(ステップS801)。なお、テンポ値Tempoは、図1の第1のスイッチパネル102内のテンポ変更スイッチにより変更された後の値がRAM203等に記憶されているものとする。
次に、CPU201は、図5のステップS501の初期化処理で実行された図6のステップS602の場合と同様にして、図2のタイマ210に対して、ステップS801で算出したTickTime[秒]によるタイマ割込みを設定する(ステップS802)。その後、CPU201は、図8のフローチャートで例示される図7のステップS702のテンポ変更処理を終了する。
図9は、図7のステップS704の自動演奏曲読込み処理の詳細例を示すフローチャートである。ここでは、図1の第2のスイッチパネル103により選曲された自動演奏曲をROM202からRAM203に読み込む処理と、図3の鍵点灯制御データを生成する処理が実行される。
まずCPU201は、図1の第2のスイッチパネル103により選曲された自動演奏曲を、図2のデータフォーマットで、ROM202からRAM203に読み込む(ステップS901)。
次に、CPU201は、ステップS901でRAM203に読み込んだ自動演奏曲データのトラックチャンク1のEvent[i](1≦i≦L−1)中の全ノートオンイベントについて、以下の処理を実行する。今、1つのノートオンイベントをEvent[j](jは1からL−1の範囲の何れか)としたとき、CPU201は、曲先頭からそのノートオンイベントEvent[j]までの全イベントの待ち時間DeltaTime[0]〜DeltaTime[j]までを累算することにより、TickTimeを単位とするそのノートオンEvent[j]のイベント発生時刻を算出する。CPU201は、この処理を、全てのノートオンイベントについて実行し、各イベント発生時刻をRAM203に記憶する(以上、ステップS902)。なお、本実施形態では、右手パートの鍵を光らせてナビゲートを行うため、トラックチャンク1のみについて自動演奏曲読込み処理を実行するものとする。勿論、トラックチャンク2が選択されてもよい。
次に、CPU201は、現在指定されているテンポ値Tempoと拍子とに基づいて、自動演奏曲の先頭から各小節区間と小節内の拍(強拍/弱拍)を設定し、その情報をRAM203に記憶する(ステップS903)。ここで、テンポ値Tempoは、初期設定値又は図1の第1のスイッチパネル102内のテンポスイッチにより設定された値である。また、拍子は、図3の自動演奏曲データのトラックチャンク1中の何れかのEvent[i]として設定されるメタイベントにより指定される。曲の途中で拍子が変更される場合もある。前述したように、タイムベース値が示すTickTime時間が4分音符のTickTimeを単位とする時間長を決定し、4拍子が設定されていれば、4分音符4個で1小節になり、更に1TickTime[秒]は前述した(1)式により算出できる。また、4拍子の場合、1小節内の第1拍目と第3拍目が強拍(第3拍目は厳密には中強拍だがこれも便宜上強拍とする)、第2拍目と第4拍目が弱拍となる。3拍子の場合には、1小節内の第1拍目が強拍、第2拍目と第3泊目が弱拍となる。2拍子の場合には、1小節内の第1拍目が強拍、第2拍目が弱拍となる。図10のb0からb19は、2/4拍子の童謡「どんぐりころころ」(作詞:青木存義、作曲:梁田貞或)の自動演奏曲の一部における各小節の拍(強拍又は弱拍)期間を例示するものである。ステップS903において、CPU201は、上述の各情報から、1つの自動演奏曲の各小節の各拍のTickTimeを単位とする期間(時間範囲)を算出する。例えば、第1小節の第1拍目の強拍期間b0は、TickTimeを単位として、0から479の時間範囲である。また、第1小節の第2拍目の弱拍期間b1は、480から959の時間範囲である。以下同様に、最終小節の第4拍目までの各拍の期間が算出される。
次に、CPU201は、ステップS903で算出された各拍期間を参照しながら、ステップS904で第1小節の第1番目の強拍期間を指定した後、ステップS915で強拍位置を順次インクリメントしながら、ステップS914で最終小節の最後の強拍になったと判定されるまで、各強拍毎に以下のステップS905からS913の一連の処理を繰り返し実行する。
上記繰返し処理において、CPU201はまず、ステップS902でRAM203に算出されているノートオンイベントのうち、イベント発生時刻が現在指定されている強拍期間の先頭(又は先頭から所定TickTime内)でノートオンするノートオンイベントを、優先音候補として抽出する(ステップS905)。
次に、CPU201は、ステップS905で優先音候補が抽出できたか否かを判定する(ステップS906)。
ステップS905で優先音候補が抽出できなかったと判定された(ステップS906の判定がNOである)場合、CPU201は、シンコペーションが発生していると判定し、直前の弱拍期間に位置する最終音を優先音候補として抽出する(ステップS907)。
ステップS905で優先音候補が抽出できたと判定された(ステップS906の判定がYESである)場合、CPU201は、ステップS907の処理はスキップする。
次に、CPU201は、抽出された優先音候補が単音であるか否かを判定する(ステップS908)。
抽出された優先音候補が単音であると判定された(ステップS908の判定がYESである)場合、CPU201は、抽出されている単音の優先音候補を優先音として採用する(ステップS909)。図10の例では、強拍期間b0の先頭のG4音、強拍期間b2の先頭のG4音、強拍期間b4の先頭のG4音等の「○」印で囲まれた音に対応するノートオンイベントが、ステップS909で優先音として採用される。
抽出された優先音候補が単音ではないと判定された(ステップS908の判定がNOである)場合、CPU201は更に、優先音候補はコード構成音であるか否かを判定する(ステップS910)。
優先音候補がコード構成音であると判定された(ステップS910の判定がYESである)場合、CPU201は、コード構成音の主音を優先音として採用する(ステップS911)。
優先音候補がコード構成音ではないと判定された(ステップS910の判定がNOである)場合、CPU201は、複数の優先音候補のうちの音高が最高の音(以下「最高音」と記載)を優先音として採用する(ステップS912)。図10の例では、強拍期間b6のG3音、強拍期間b8のE3音、強拍期間b10のC4音、強拍期間b12のG3音、強拍期間b14のG3音、強拍期間b16のG3音、強拍期間b18のA3音等の「○」印で囲まれた音に対応するノートオンイベントが、ステップS912で優先音として採用される。
ステップS909、S911又はS912の処理の後、CPU201は、RAM203に記憶される図4のデータ構成例を有する鍵点灯制御データの末尾に鍵点灯制御データ組LightNote[i]のエントリを追加する。そして、CPU201は、上記エントリのLightOnTime値として、ステップS909、S911又はS912で採用された優先音のノートオンイベントに対してステップS902で計算されRAM203に記憶されているイベント発生時刻を設定する。また、CPU201は、上記エントリのLightOnKey値として、ステップS909、S911又はS912で採用された優先音のノートオンイベントに設定されているキーナンバーを設定する(以上、ステップS913)。
その後、CPU201は、最終小節の最後の強拍まで処理が完了したか否かを判定する(ステップS914)。
ステップS914の判定がNOならば、CPU201は、次の強拍期間を指定した後(ステップS915)、ステップS905の処理に戻る。
ステップS914の判定がYESになったならば、CPU201は、図9のフローチャートで例示される図7のステップS704の自動演奏曲読込み処理を終了する。
以上の図9のフローチャートで例示される自動演奏曲読込み処理により、RAM203に、図3のデータフォーマット例を有する自動演奏曲データが展開されると共に、図4のデータフォーマット例を有する鍵点灯制御データが生成される。図10の自動演奏曲の例においては、各拍位置で「○」印で囲まれた音に対応するノートオンイベントに対応する鍵点灯制御データが生成される。
図11は、図7のステップS706の自動演奏開始処理の詳細例を示すフローチャートである。
CPU201はまず、図4に例示される鍵点灯制御データ組LightNote[i](1≦i≦N−1)の夫々iを指定するためのRAM203上の変数LightOnIndexの値を0に初期設定する(ステップS1101)。これにより、図4の例では、初期状態としてまず、鍵点灯制御データ組LightNote[LightOnIndex]=LightNote[0]が参照される。
次に、CPU201は、図2のLEDコントローラ207から鍵盤101を制御して、LightOnIndex=0が示す図4の先頭の鍵点灯制御データ組LightNote[0]におけるLightOnKey値(=LightNote[0].LightOnKey)に対応するキーナンバーの鍵の下に配置されているLEDを点灯させる(ステップS1102)。
次に、CPU201は、自動演奏の進行において、TickTimeを単位として、直前のイベントの発生時刻からの相対時間をカウントするためのRAM203上の変数DeltaTimeの値を0に初期設定する(ステップS1103)。
続いて、CPU201は、自動演奏の進行において、TickTimeを単位として、曲の先頭からの経過時刻をカウントするためのRAM203上の変数AutoTimeを0に初期設定する(ステップS1104)。
更に、CPU201は、図3に例示される自動演奏曲データのトラックチャンク1内の演奏データ組DeltaTime[i]及びEvent[i](1≦i≦L−1)の夫々iを指定するためのRAM203上の変数AutoIndexの値を0に初期設定する(ステップS1105)。これにより、図3の例では、初期状態としてまず、トラックチャンク1内の先頭の演奏データ組DeltaTime[0]及びEvent[0]が参照される。
最後に、CPU201は、自動演奏を停止させることを指示するRAM203上の変数AutoStopの初期値を1(停止)に設定する(ステップS1106)。その後、CPU201は、図11のフローチャートで例示される図7のステップS706の自動演奏開始処理を終了する。
図12は、図5のステップS506の押鍵/離鍵処理の詳細例を示すフローチャートである。
まずCPU201は、キースキャナ206からの割込みにより発生した鍵操作が押鍵であるか否かを判定する(ステップS1201)。
鍵操作が押鍵であると判定された(ステップS1201の判定がYESである)場合には、CPU201は、図2の音源LSI204に対して押鍵処理を実行する(ステップS1202)。この処理は通常の自動演奏の処理であるためその詳細は省略するが、キースキャナ206から通知された押鍵のキーナンバー及びベロシティを指定したノートオン命令を、音源LSI204に発行する。
次に、CPU201は、キースキャナ206から通知された押鍵のキーナンバーが、RAM203に記憶されているLightOnIndex値が示す鍵点灯制御データ組LightNote[LightOnIndex]内のLightOnKey値(=LightNote[LightOnIndex].LightOnKey)に等しいか否かを判定する(ステップS1203)。
ステップS1203の判定がNOならば、CPU201は、図12のフローチャートで例示される図5のステップS506の押鍵/離鍵処理を終了する)。
ステップS1203の判定がYESならば、CPU201は、LEDコントローラ207から鍵盤101を制御して、LightNote[LightOnIndex].LightOnKeyに対応するキーナンバーの鍵の下に配置されているLEDを消灯させる(ステップS1204)。
次に、CPU201は、鍵点灯制御データを参照するLightOnIndex値を+1インクリメントする(ステップS1205)。
更に、CPU201は、AutoStop値を0にリセットして、演奏者が光っている鍵を押鍵したことにより自動演奏の停止状態を解除する(ステップS1206)。
その後、CPU201は、自動演奏割込みを発生させて自動演奏割込み処理(図13)を開始させる。自動演奏割込み処理の終了後に、CPU201は、図12のフローチャートで例示される図5のステップS506の押鍵/離鍵処理を終了する。
一方、鍵操作が離鍵であると判定された(ステップS1201の判定がNOである)場合には、CPU201は、図2の音源LSI204に対して離鍵処理を実行する(ステップS1208)。この処理は通常の自動演奏の処理であるためその詳細は省略するが、キースキャナ206から通知された離鍵のキーナンバー及びベロシティを指定したノートオフ命令を、音源LSI204に発行する。
図13は、上述の図12のステップS1207からの割込み、又は図2のタイマ210においてTickTime[秒]毎に発生する割込み(図6のステップS602又は図8のステップS802を参照)に基づいて実行される自動演奏割込み処理の詳細例を示すフローチャートである。以下の処理は、図3に例示される自動演奏曲データのトラックチャンク1の演奏データ組に対して実行される。図10の例では、上パート(右手パート)の楽音群に対する処理である。
まずCPU201は、AutoStop値が0であるか否か、即ち自動演奏の停止が指示されてない(進行が指示されている)か否かを判定する(ステップS1301)。
自動演奏の停止が指示されていると判定された(ステップS1301の判定がNOである)場合には、CPU201は、自動演奏の進行は行わずに図13のフローチャートで例示される自動演奏割込み処理をそのまま終了する。
自動演奏の停止が指示されてない(進行が指示されている)と判定された(ステップS1301の判定がYESである)場合には、CPU201はまず、前回のイベントの発生時刻からの相対時刻を示すDeltaTime値が、AutoIndex値が示すこれから実行しようとする演奏データ組の待ち時間DeltaTime[AutoIndex]に一致したか否かを判定する(ステップS1302)。
ステップS1302の判定がNOならば、CPU201は、前回のイベントの発生時刻からの相対時刻を示すDeltaTime値を+1インクリメントさせて、今回の割込みに対応する1TickTime単位分だけ時刻を進行させる(ステップS1303)。その後、CPU201は、後述するステップS1310に移行する。
ステップS1302の判定がYESになると、CPU201は、AutoIndex値が示す演奏データ組のイベントEvent[AutoIndex]を実行する(ステップS1304)。
ステップS1304において実行されるイベントEvent[AutoIndex]が、例えばノートオンイベントであれば、そのノートオンイベントにより指定されるキーナンバー及びベロシティにより、図2の音源LSI204に対して楽音の発音命令が発行される。一方、イベントEvent[AutoIndex]が、例えばノートオフイベントであれば、そのノートオフイベントにより指定されるキーナンバー及びベロシティにより、図2の音源LSI204に対して楽音の消音命令が発行される。
更に、イベントEvent[AutoIndex]が、例えば歌詞を指定するメタイベントであれば、その歌詞のテキストデータと、その直前に指定されているノートオンイベントのキーナンバーに対応するピッチとにより、図2の音声合成LSI205に対して音声の発生命令が発行される。また、そのノートオンイベントに対応するノートオフイベントが実行された時点で、図2の音声合成LSI205に対して発音させていた音声の消音命令が発行される。これにより、図10の例では、楽譜の上に表示されている歌詞のテキストデータに対応する音声が発音される。
続いて、CPU201は、演奏データ組を参照するためのAutoIndex値を+1インクリメントする(ステップS1305)。
また、CPU201は、今回実行したイベントの発生時刻からの相対時刻を示すDeltaTime値を0にリセットする(ステップS1306)。
そして、CPU201は、AutoIndex値が示す次に実行される演奏データ組の待ち時間DeltaTime[AutoIndex]が0であるか否か、即ち、今回のイベントと同時に実行されるイベントであるか否かを判定する(ステップS1307)。
ステップS1307の判定がNOならば、CPU201は、後述するステップS1310に移行する。
ステップS1307の判定がYESならば、CPU201は、AutoIndex値が示す次に実行される演奏データ組のイベントEvent[AutoIndex]がノートオンイベントであって、かつ自動演奏開始時からの現在の経過時刻を示すAutoTime値が、LightOnIndex値が示す鍵点灯制御データ組LightNote[LightOnIndex]のLightOnTime値(=LightNote[LightOnIndex].LightOnTime)に到達したか否かを判定する(ステップS1308)。
ステップS1308の判定がNOならば、CPU201は、ステップS1304に戻って、AutoIndex値が示す次に実行される演奏データ組のイベントEvent[AutoIndex]を今回実行されたイベントと同時に実行する。CPU201は、今回同時に実行される回数分だけ、ステップS1304からS1308の処理を繰り返し実行する。以上の処理シーケンスは、例えば和音などのように複数のノートオンイベントが同時タイミングで発音されるような場合に実行される。
ステップS1308の判定がYESになった場合には、演奏者が次の光る鍵を押鍵するまで自動演奏を停止させるために、CPU201は、AutoStop値を1にセットする(ステップS1309)。その後、CPU201は、図13のフローチャートで示される自動演奏割込み処理を終了する。この処理シーケンスは、図10の例のb2、b4、b6、b10、b14、及びb18の各優先音のノートオンイベントが実行される直前に発音されていた音を消音させるノートオフイベントが実行された後に実行される。
前述したステップS1303又はS1307の処理の後、CPU201は、次回の自動演奏処理のための準備として、自動演奏開始時からの経過時刻を示すAutoTime値を+1インクリメントさせて、今回の割込みに対応する1TickTime単位分だけ時刻を進行させる(ステップS1310)。
続いて、CPU201は、上記AutoTime値に所定のオフセット値LightOnOffsetを加算した値が、LightOnIndex値が示す次回の鍵点灯制御データ組LightNote[LightOnIndex]のLightOnTime値(=LightNote[LightOnIndex].LightOnTime)に到達したか否かを判定する(ステップS1311)。即ち、次回点灯されるべき鍵の点灯時刻から一定時間内に近づいたか否かが判定される。
ステップS1311の判定がYESになったら、CPU201は、図2のLEDコントローラ207から鍵盤101を制御して、LightOnIndex値が示す図4の鍵点灯制御データ組LightNote[LightOnIndex]におけるLightOnKey値に対応するキーナンバーの鍵の下に配置されているLEDを点灯させる(ステップS1312)。
ステップS1311の判定がNOならば、CPU201は、ステップS1312の処理はスキップする。
最後に、CPU201は、ステップS1308の場合と同様に、AutoIndex値が示す次に実行される演奏データ組のイベントEvent[AutoIndex]がノートオンイベントであって、かつ自動演奏開始時からの次の経過時刻を示すAutoTime値が、LightOnIndex値が示す鍵点灯制御データ組LightNote[LightOnIndex]のLightOnTime値に到達したか否かを判定する(ステップS1313)。
ステップS1313の判定がYESになった場合には、演奏者が次の光る鍵を押鍵するまで自動演奏を停止させるために、CPU201は、AutoStop値を1にセットする(ステップS1314)。この処理シーケンスは、ノートオフイベントの実行からその直後の優先音のノートオンイベントの実行までの間に時間が空いている場合、例えば休符になっているような場合に実行される。図10の例では、b8、b12、及びb16の各優先音のノートオンイベントが実行されるタイミングの直前(1TickTime前)に図13の自動演奏割込み処理が実行されたときに実行される。
ステップS1313の判定がNOならば、CPU201は、ステップS1314の処理はスキップする。
その後、CPU201は、図13のフローチャートで示される自動演奏割込み処理を終了する。
前述した図12のフローチャートで例示される押鍵/離鍵処理と上述の図13のフローチャートで例示される自動演奏割込み処理により、自動演奏曲データの先頭から順次、決定された優先音が例えば鍵盤101上の光る鍵として演奏者に表示されながら、その表示した優先音の鍵を演奏者が押鍵等して演奏する毎にその次の優先音までの自動演奏曲データが自動演奏されるというインタラクティブな動作を実現することが可能となる。
また、ステップS1304の説明で前述したように、自動演奏曲データの自動演奏に合わせて、音源LSI204に対して発行されるノートオンやノートオフのイベントデータに対応して、例えばトラックチャンク1のメタイベントとして与えられている歌詞データに基づく歌声を、当上記ノートオン/ノートオフイベントに対応する音高及び音長で音声合成LSI205から出力させることが可能となる。この場合も、演奏者が優先音として光る鍵を押鍵等すると、次の優先音の鍵が光ると共に、当該次の優先音の手前まで音源LSI204による自動演奏を進行させながら、音声合成LSI205による歌声の歌唱も進行させることが可能となる。
以上の説明において、自動演奏割込み処理は図3に例示される自動演奏曲データのうち、鍵を光らせる制御に関連するトラックチャンク1についてのみ説明したが、トラックチャンク2については通常の自動演奏割込み処理が実行される。即ち、トラックチャンク2については、図13のステップS1309と、ステップS1310からS1308を省略した自動演奏割込み処理が、タイマ210等からの割込みに基づいて実行される。この場合に、トラックチャンク2に関する図13のステップS1301に相当する自動演奏の停止/進行の制御は、トラックチャンク1に関する図13のフローチャート等で設定されたAutoStop値が判定されることによりトラックチャンク1の場合と同期して制御される。
以上説明した実施形態は、電子鍵盤楽器について本発明を実施したものであるが、本発明は電子管楽器など他の電子楽器にも適用することができる。例えば電子管楽器に本発明が適用される場合には、優先音を決定する際にコード構成音に関する例えば図9のステップS908、S910〜S912の制御処理は不要であり、ステップS909の単音のみから優先音が決定されればよい。
以上の実施形態に関して、更に以下の付記を開示する。
(付記1)
曲データをそれぞれの区間長で区切った区間ごとに優先音をそれぞれ決定する優先音決定処理と、
前記区間に対応して決定された前記優先音を示す識別子を表示する優先音表示処理と、
演奏者が前記優先音を示す識別子を指定すると、前記指定された優先音及び、前記指定された優先音と次の区間の優先音の間の前記優先音以外の音の自動演奏を進行させる自動演奏処理と、
を実行する処理部を有することを特徴とする電子楽器。
(付記2)
前記優先音決定処理は、前記曲データからコード構成音を特定し、前記コード構成音を特定できた場合は、前記特定したコード構成音の中で音長が異なる1つの音を前記優先音として決定し、前記コード構成音を特定できなかった場合は、前記区間中の最高音を前記優先音として決定する、ことを特徴とする付記1に記載の電子楽器。
(付記3)
前記区間は小節であり、
前記優先音決定処理は、前記小節毎に、強拍のタイミングで、前記曲データから前記優先音を決定する、
ことを特徴とする付記1又は2に記載の電子楽器。
(付記4)
前記強拍のタイミングがシンコペーションに対応している場合には、前記シンコペーションの処理により前記強拍のタイミングからずらされたタイミングで、前記曲データから前記優先音を決定する、
ことを特徴とする付記3に記載の電子楽器。
(付記5)
前記電子楽器は電子鍵盤楽器であり、前記自動演奏処理は、前記演奏者への前記優先音を示す識別子の表示を鍵盤上の前記優先音に対応する鍵を光らせることにより行う、ことを特徴とする付記1乃至4の何れかに記載の電子楽器。
(付記6)
前記自動演奏処理は、前記曲データの自動演奏に合わせて、前記曲データに対応する歌詞データに基づく歌声を前記曲データに対応する音高及び音長で音声合成しながら出力する、ことを特徴とする付記1乃至5の何れかに記載の電子楽器。
(付記7)
曲データをそれぞれの区間長で区切った区間ごとに優先音をそれぞれ決定する優先音決定処理と、
前記区間に対応して決定された前記優先音を示す識別子を表示する優先音表示処理と、
演奏者が前記優先音を示す識別子を指定すると、前記指定された優先音及び、前記指定された優先音と次の区間の優先音の間の前記優先音以外の音の自動演奏を進行させる自動演奏処理と、
を実行することを特徴とする自動演奏方法。
(付記8)
曲データをそれぞれの区間長で区切った区間ごとに優先音をそれぞれ決定するステップと、
前記区間に対応して決定された前記優先音を示す識別子を表示するステップと、
演奏者が前記優先音を示す識別子を指定すると、前記指定された優先音及び、前記指定された優先音と次の区間の優先音の間の前記優先音以外の音の自動演奏を進行させるステップと、
を電子楽器を制御するコンピュータに実行させることを特徴とするプログラム。
100 電子鍵盤楽器
101 鍵盤
102 第1のスイッチパネル
103 第2のスイッチパネル
104 LCD
200 制御システム
201 CPU
202 ROM
203 RAM
204 音源LSI
205 音声合成LSI
206 キースキャナ
207 LEDコントローラ
208 LCDコントローラ
209 システムバス
210 タイマ
211、212 D/Aコンバータ
213 ミキサ
214 アンプ
本発明は、電子楽器、方法、及びプログラムに関する。
態様の一例は優先音候補として、或る区間における最初に発生させる音が複数あった場合、前記複数の前記優先音候補のなかのいずれかの優先音候補を優先音として決定する優先音決定処理と、前記或る区間に対して前記優先音決定処理により決定された優先音を、演奏者に指定させるために少なくとも表示させる優先音表示処理と、決定された前記優先音が指定されることにより、決定された前記優先音を発音部に発音させるとともに、前記或る区間の最後まで自動演奏を進行させる自動演奏処理、を実行する電子楽器である
また、態様の一例は、第1区間の直後の第2区間の最初に新たに発生させる音が無い場合であって前記第1区間の最後に発生させる音が有る場合に、前記第1区間の最後に発生させる音を優先音と決定し、前記第2区間の最初に新たに発生させる音が有る場合に、前記第2区間の最初に発生させる音を優先音と決定する優先音決定処理と、前記優先音として決定された、前記第1区間の最後に発生させる音または前記第2区間の最初に発生させる音を、演奏者に指定させるために少なくとも表示させる優先音表示処理と、決定された前記優先音が指定されることにより、決定された前記優先音を発音部に発音させるとともに、前記第2区間の最後まで自動演奏を進行させる自動演奏処理、を実行する電子楽器である。

Claims (8)

  1. 曲データをそれぞれの区間長で区切った区間ごとに優先音をそれぞれ決定する優先音決定処理と、
    前記区間に対応して決定された前記優先音を示す識別子を表示する優先音表示処理と、
    演奏者が前記優先音を示す識別子を指定すると、前記指定された優先音及び、前記指定された優先音と次の区間の優先音の間の前記優先音以外の音の自動演奏を進行させる自動演奏処理と、
    を実行する処理部を有することを特徴とする電子楽器。
  2. 前記優先音決定処理は、前記曲データからコード構成音を特定し、前記コード構成音を特定できた場合は、前記特定したコード構成音の中で音長が異なる1つの音を前記優先音として決定し、前記コード構成音を特定できなかった場合は、前記区間中の最高音を前記優先音として決定する、ことを特徴とする請求項1に記載の電子楽器。
  3. 前記区間は小節であり、
    前記優先音決定処理は、前記小節毎に、強拍のタイミングで、前記曲データから前記優先音を決定する、
    ことを特徴とする請求項1又は2に記載の電子楽器。
  4. 前記強拍のタイミングがシンコペーションに対応している場合には、前記シンコペーションの処理により前記強拍のタイミングからずらされたタイミングで、前記曲データから前記優先音を決定する、
    ことを特徴とする請求項3に記載の電子楽器。
  5. 前記電子楽器は電子鍵盤楽器であり、前記自動演奏処理は、前記演奏者への前記優先音を示す識別子の表示を鍵盤上の前記優先音に対応する鍵を光らせることにより行う、ことを特徴とする請求項1乃至4の何れかに記載の電子楽器。
  6. 前記自動演奏処理は、前記曲データの自動演奏に合わせて、前記曲データに対応する歌詞データに基づく歌声を前記曲データに対応する音高及び音長で音声合成しながら出力する、ことを特徴とする請求項1乃至5の何れかに記載の電子楽器。
  7. 曲データをそれぞれの区間長で区切った区間ごとに優先音をそれぞれ決定する優先音決定処理と、
    前記区間に対応して決定された前記優先音を示す識別子を表示する優先音表示処理と、
    演奏者が前記優先音を示す識別子を指定すると、前記指定された優先音及び、前記指定された優先音と次の区間の優先音の間の前記優先音以外の音の自動演奏を進行させる自動演奏処理と、
    を実行することを特徴とする自動演奏方法。
  8. 曲データをそれぞれの区間長で区切った区間ごとに優先音をそれぞれ決定するステップと、
    前記区間に対応して決定された前記優先音を示す識別子を表示するステップと、
    演奏者が前記優先音を示す識別子を指定すると、前記指定された優先音及び、前記指定された優先音と次の区間の優先音の間の前記優先音以外の音の自動演奏を進行させるステップと、
    を電子楽器を制御するコンピュータに実行させることを特徴とするプログラム。
JP2017058581A 2017-03-24 2017-03-24 電子楽器、方法、及びプログラム Active JP6465136B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017058581A JP6465136B2 (ja) 2017-03-24 2017-03-24 電子楽器、方法、及びプログラム
US15/921,484 US10347229B2 (en) 2017-03-24 2018-03-14 Electronic musical instrument, method of controlling the electronic musical instrument, and recording medium
CN201810244499.9A CN108630177B (zh) 2017-03-24 2018-03-23 电子乐器、电子乐器的控制方法、以及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017058581A JP6465136B2 (ja) 2017-03-24 2017-03-24 電子楽器、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018163183A true JP2018163183A (ja) 2018-10-18
JP6465136B2 JP6465136B2 (ja) 2019-02-06

Family

ID=63582855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017058581A Active JP6465136B2 (ja) 2017-03-24 2017-03-24 電子楽器、方法、及びプログラム

Country Status (3)

Country Link
US (1) US10347229B2 (ja)
JP (1) JP6465136B2 (ja)
CN (1) CN108630177B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7143576B2 (ja) * 2017-09-26 2022-09-29 カシオ計算機株式会社 電子楽器、電子楽器の制御方法及びそのプログラム
JP6587007B1 (ja) * 2018-04-16 2019-10-09 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP6587008B1 (ja) * 2018-04-16 2019-10-09 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP6610714B1 (ja) * 2018-06-21 2019-11-27 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP6547878B1 (ja) 2018-06-21 2019-07-24 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP6610715B1 (ja) 2018-06-21 2019-11-27 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP7059972B2 (ja) 2019-03-14 2022-04-26 カシオ計算機株式会社 電子楽器、鍵盤楽器、方法、プログラム
JP7176548B2 (ja) * 2020-06-24 2022-11-22 カシオ計算機株式会社 電子楽器、電子楽器の発音方法、及びプログラム
JP7192830B2 (ja) * 2020-06-24 2022-12-20 カシオ計算機株式会社 電子楽器、伴奏音指示方法、プログラム、及び伴奏音自動生成装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59195690A (ja) * 1983-04-22 1984-11-06 ヤマハ株式会社 電子楽器
JPH10240244A (ja) * 1997-02-26 1998-09-11 Casio Comput Co Ltd 押鍵指示装置
JP2000322058A (ja) * 1999-05-06 2000-11-24 Casio Comput Co Ltd 演奏案内装置および演奏案内方法
JP2006058384A (ja) * 2004-08-17 2006-03-02 Yamaha Corp 自動演奏装置及びプログラム
JP2013097302A (ja) * 2011-11-04 2013-05-20 Casio Comput Co Ltd 自動調修正装置、自動調修正方法及びそのプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58192070A (ja) 1982-05-04 1983-11-09 セイコーインスツルメンツ株式会社 電子楽器用鍵盤
JPH05181460A (ja) 1991-12-27 1993-07-23 Casio Comput Co Ltd 表示装置付自動演奏装置
CN2134694Y (zh) * 1992-07-13 1993-05-26 耿宪温 乐器导引装置
CN1155137A (zh) * 1996-01-12 1997-07-23 乐光启 引导式键盘乐器
US6388181B2 (en) * 1999-12-06 2002-05-14 Michael K. Moe Computer graphic animation, live video interactive method for playing keyboard music
JP2002049301A (ja) * 2000-08-01 2002-02-15 Kawai Musical Instr Mfg Co Ltd 押鍵表示装置、電子楽器システム、押鍵表示方法、及び記憶媒体
JP2002333877A (ja) * 2001-05-10 2002-11-22 Yamaha Corp 演奏練習装置、演奏練習装置の制御方法、演奏支援用プログラムおよび記録媒体
CN1744149A (zh) * 2005-05-26 2006-03-08 艾凯 乐器光引导演奏装置
JP2010190942A (ja) 2009-02-16 2010-09-02 Casio Computer Co Ltd 電子楽器および電子楽器のプログラム
JP5423213B2 (ja) * 2009-07-31 2014-02-19 カシオ計算機株式会社 演奏教習装置および演奏教習プログラム
US8525011B2 (en) * 2010-05-19 2013-09-03 Ken Ihara Method, system and apparatus for instructing a keyboardist
DE102013007910B4 (de) * 2012-05-10 2021-12-02 Kabushiki Kaisha Kawai Gakki Seisakusho Automatische Begleitungsvorrichtung für elektronisches Tastenmusikinstrument und in dieser verwendete Slash-Akkord-Bestimmungsvorrichtung
JP2015148683A (ja) * 2014-02-05 2015-08-20 ヤマハ株式会社 電子鍵盤楽器及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59195690A (ja) * 1983-04-22 1984-11-06 ヤマハ株式会社 電子楽器
JPH10240244A (ja) * 1997-02-26 1998-09-11 Casio Comput Co Ltd 押鍵指示装置
JP2000322058A (ja) * 1999-05-06 2000-11-24 Casio Comput Co Ltd 演奏案内装置および演奏案内方法
JP2006058384A (ja) * 2004-08-17 2006-03-02 Yamaha Corp 自動演奏装置及びプログラム
JP2013097302A (ja) * 2011-11-04 2013-05-20 Casio Comput Co Ltd 自動調修正装置、自動調修正方法及びそのプログラム

Also Published As

Publication number Publication date
JP6465136B2 (ja) 2019-02-06
US20180277077A1 (en) 2018-09-27
CN108630177B (zh) 2023-07-28
CN108630177A (zh) 2018-10-09
US10347229B2 (en) 2019-07-09

Similar Documents

Publication Publication Date Title
JP6465136B2 (ja) 電子楽器、方法、及びプログラム
US7605322B2 (en) Apparatus for automatically starting add-on progression to run with inputted music, and computer program therefor
JP3598598B2 (ja) カラオケ装置
US5939654A (en) Harmony generating apparatus and method of use for karaoke
JP2576700B2 (ja) 自動伴奏装置
JP5168297B2 (ja) 自動伴奏装置および自動伴奏プログラム
JP3807275B2 (ja) コード提示装置およびコード提示用コンピュータプログラム
JP4650182B2 (ja) 自動伴奏装置及びプログラム
JP4038836B2 (ja) カラオケ装置
JP2008089975A (ja) 電子楽器
JP6179221B2 (ja) 音響処理装置および音響処理方法
JPH11282483A (ja) カラオケ装置
JP2007086571A (ja) 曲情報表示装置及びプログラム
JP6977741B2 (ja) 情報処理装置、情報処理方法、演奏データ表示システム、およびプログラム
JP6828530B2 (ja) 発音装置及び発音制御方法
JP4534926B2 (ja) 画像表示装置及びプログラム
JP7425558B2 (ja) コード検出装置及びコード検出プログラム
US20230035440A1 (en) Electronic device, electronic musical instrument, and method therefor
JP7158331B2 (ja) カラオケ装置
JP2018151548A (ja) 発音装置及びループ区間設定方法
CN110720122B (zh) 音发生装置及方法
JPH1185174A (ja) 利用者が伴奏音楽を演奏できるカラオケ装置
JPH10247059A (ja) 演奏ガイド装置、演奏ガイド用演奏データ作成装置および記憶媒体
CN117877459A (zh) 记录介质、音响处理方法以及音响处理系统
JP3669301B2 (ja) 自動作曲装置及び方法並びに記憶媒体

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181224

R150 Certificate of patent or registration of utility model

Ref document number: 6465136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150