JP3630266B2 - Automatic accompaniment device - Google Patents
Automatic accompaniment device Download PDFInfo
- Publication number
- JP3630266B2 JP3630266B2 JP14587297A JP14587297A JP3630266B2 JP 3630266 B2 JP3630266 B2 JP 3630266B2 JP 14587297 A JP14587297 A JP 14587297A JP 14587297 A JP14587297 A JP 14587297A JP 3630266 B2 JP3630266 B2 JP 3630266B2
- Authority
- JP
- Japan
- Prior art keywords
- automatic accompaniment
- accompaniment
- data
- automatic
- volume
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は、曲の伴奏音を自動的に発生する自動伴奏装置に関し、特に外部からの要因に反応して伴奏パターンを変化させる技術に関する。
【0002】
【従来の技術】
従来、1つの曲に対応する自動伴奏データに従って自動伴奏を行う自動伴奏装置が知られている。ユーザは、この自動伴奏装置で発生される伴奏音に合わせて、例えば楽器を演奏したり、歌を歌ったりすることができる。なお、本明細書でいう「自動伴奏装置」は、数小節のリズムパターンで成る伴奏音を繰り返して発生する装置ではなく、例えばシーケンサやカラオケ装置等のように、曲全体の伴奏音を発生する装置をいう。
【0003】
しかし、この従来の自動伴奏装置は、自動伴奏装置の周囲の状況とは全く無関係に、自動伴奏データに忠実に従った伴奏音を発生する。従って、例えば演奏者によるメロディ演奏又は歌手による歌が盛り上がっても、自動伴奏は予め決められたとおりの画一的な伴奏パターンで独自に進行するだけである。従って、伴奏と演奏、或るいは伴奏と歌とに一体感が得られないという問題があった。
【0004】
このような問題を解消するために、従来、画一的な自動伴奏をリアルタイムに変化させる幾つかの試みがなされている。例えば、打鍵の強さによって伴奏パターンを変化させたり、鍵やスイッチを叩く時間間隔によって伴奏パターンを変化させ、これによって変化に富んだ自動伴奏を行わせる試みがなされている。
【0005】
【発明が解決しようとする課題】
しかしながら、このような試みは特に鍵盤型の電子楽器を対象とするものであり、ピアノ、ギター、管楽器等といったアコースティック楽器や歌は対象外である。従って、これらのアコースティック楽器の演奏者や歌手は、自動伴奏装置が発生する画一的な伴奏パターンに従って演奏し、或いは歌わなければならないという問題が残っている。
【0006】
本発明はこのような問題を解消するためになされたものであり、その目的は、演奏や歌の盛り上がりに応じて伴奏パターンが変化する自動伴奏を行うことのできる自動伴奏装置を提供することにある。
【0007】
【課題を解決するための手段】
本発明の第1の態様に係る自動伴奏装置は、上記目的を達成するために、
伴奏音信号に基づいて伴奏音を自動的に発生する自動伴奏装置であって、
複数の伴奏パターンのそれぞれに対応する複数の自動伴奏データを記憶する自動伴奏データ記憶手段と、
外部からの音量を検出する音量検出手段と、
該音量検出手段における検出結果に応じて該自動伴奏データ記憶手段から1つの自動伴奏データを選択する選択手段と、
該選択手段で選択された自動伴奏データに従って伴奏音信号を生成する伴奏音信号生成手段、とを備えている。
【0008】
自動伴奏データ記憶手段は、例えばリードオンリメモリ(以下、「ROM」と略す)又はランダムアクセスメモリ(以下、「RAM」と略す)で構成できる。自動伴奏データ記憶手段をRAMで構成する場合は、この自動伴奏装置を動作させるに先立って、自動伴奏データが自動伴奏データ記憶手段にロードされる。
【0009】
この自動伴奏データ記憶手段には、複数の曲のそれぞれ対応する複数の自動伴奏データを記憶するように構成できる。この場合、自動伴奏させる曲の種類は、例えば操作パネルに設けた曲選択スイッチで選択するように構成できる。各自動伴奏データは、1曲分の伴奏パターンを発生するための音符データ群で構成できる。各音符データとしては、例えば発音タイミングを規定するステップタイムデータが付加されたMIDIメッセージや、ステップタイム、音高、音長及びベロシティを指定するデータで構成される音符データ、その他種々の形式のデータを用いることができる。また、各自動伴奏データは、複数のパートを担当する音符データ群で構成することができる。
【0010】
上記音量検出手段は、例えばマイクロフォン、A/D変換器及び中央処理装置(以下、「CPU」という)で構成できる。なお、マイクロフォンの代わりに振動ピックアップ、マグネチックピックアップ等を用いてもよい。この音量検出手段は、例えばマイクロフォンからのアナログ信号をA/D変換器でデジタル信号に変換する。そして、この変換により得られたデジタル信号を量子化することにより音量値が得られる。この音量値は、選択手段において自動伴奏データを選択するために使用される。
【0011】
上記選択手段は、音量検出手段で検出された音量値に応じて1つの自動伴奏データを選択する。この選択手段はCPUで構成することができる。この選択手段で選択された自動伴奏データは、伴奏音信号生成手段において、伴奏音信号を生成するために使用される。伴奏音信号生成手段で生成された伴奏音信号は、例えばスピーカに供給される。これにより、この自動伴奏装置において伴奏音信号に基づく伴奏音が発生される。
【0012】
この本発明の第1の態様に係る自動伴奏装置によれば、複数の伴奏パターンのそれぞれに対応して自動伴奏データが作成されるので、音量検出手段で検出された音量値に応じて伴奏パターンが変化することになる。例えば、選択手段は、音量値が所定値以下の場合は通常の伴奏パターンに対応する自動伴奏データを選択し、該所定値より大きい場合は複雑なリズムパターンを有する伴奏パターンに対応する自動伴奏データを選択するように構成することができる。
【0013】
この構成によれば、通常の演奏又は歌が行われている状態ではマイクロフォンから入力される音量値が所定値以下になるので通常の伴奏パターンで伴奏音が発生されるが、演奏又は歌が盛り上がることによってマイクロフォンから入力される音量値が所定値を超えると複雑なリズムパターンを有する伴奏パターンで伴奏音が発生されるように変化する。従って、演奏や歌の盛り上がりに合わせて自動伴奏音を変化させることができる。
【0014】
前記選択手段は、前記音量検出手段で検出された複数の音量を表す値の平均値に基づいて前記自動伴奏データ記憶手段から1つの自動伴奏データを選択するように構成できる。この構成によれば、瞬間的に演奏や歌の音量が大きくなっても、平均音量が所定値より小さければ直ちに伴奏パターンが変化することはない。従って、全体的な曲の盛り上がりに従って徐々に複雑なリズムパターンでの自動伴奏に移行させることができる。
【0015】
前記選択手段は、前記音量検出手段で検出された複数の音量を表す値の変化パターンに基づいて前記自動伴奏データ記憶手段から1つの自動伴奏データを選択するように構成できる。この構成によれば、音量変化のパターンに応じて伴奏パターンを変化させることができるので、演奏者又は歌手は恣意的に音量を特定のパターンで変化させることにより、所望の伴奏パターンによる自動伴奏を行わせることができる。
【0016】
なお、この構成では、音量変化のパターンによって伴奏パターンを変化させるように構成しているが、音量変化のパターンによって伴奏を停止させたり、再開させたり、或いはリズムや音色を変更したりするように構成することもできる。
【0017】
また、本発明の第2の態様に係る自動伴奏装置は、上記と同様の目的で、
伴奏音信号に基づいて伴奏音を自動的に発生する自動伴奏装置であって、
複数の伴奏パターンのそれぞれに対応する複数の自動伴奏データを記憶する自動伴奏データ記憶手段と、
ソロイストの状態を検出する検出手段と、
該検出手段における検出結果に応じて該自動伴奏データ記憶手段から1つの自動伴奏データを選択する選択手段と、
該選択手段で選択された自動伴奏データに従って伴奏音信号を生成する伴奏音信号生成手段、とを備えている。
【0018】
自動伴奏データ記憶手段は、上述した本発明の第1の態様に係る自動伴奏装置と同様にROM又はRAMで構成できる。また、この自動伴奏データ記憶手段に記憶する自動伴奏データも、上述した本発明の第1の態様に係る自動伴奏装置と同様に作成できる。
【0019】
上記検出手段は、演奏者又は歌手といったソロイストの状態を検出するセンサ、A/D変換器及びCPUで構成される。この検出手段は、例えばセンサからのアナログ信号をA/D変換器でデジタル信号に変換する。そして、この変換により得られたデジタル信号を量子化することによりセンサ値を得る。このセンサ値は、選択手段において自動伴奏データを選択するために使用される。
【0020】
上記選択手段は、検出手段における検出結果、つまりセンサ値に応じて1つの自動伴奏データを選択する。この選択手段はCPUで構成することができる。この選択手段で選択された自動伴奏データは、伴奏音信号生成手段において、伴奏音信号を生成するために使用される。伴奏音信号生成手段で生成された伴奏音信号は、例えばスピーカに供給される。これにより、この自動伴奏装置において伴奏音信号に基づく伴奏音が発生される。
【0021】
この本発明の第2の態様に係る自動伴奏装置によれば、複数の伴奏パターンのそれぞれに対応して自動伴奏データが作成されるので、検出手段で検出されたセンサ値に応じて伴奏パターンが変化することになる。例えば、選択手段は、センサ値が所定値以下の場合は通常の伴奏パターンに対応する自動伴奏データを選択し、該所定値より大きい場合は複雑なリズムパターンを有する伴奏パターンに対応する自動伴奏データを選択するように構成することができる。
【0022】
この構成によれば、ソロイストが通常の演奏又は歌を行っている状態ではセンサからのセンサ値が所定値以下になるので通常の伴奏パターンで伴奏音が発生されるが、演奏又は歌が盛り上がることによってソロイストが興奮状態になり、これによってセンサからのセンサ値が所定値を超えると複雑なリズムパターンを有する伴奏パターンで伴奏音が発生されるように変化する。従って、ソロイストの状態に合わせて自動伴奏音を変化させることができる。
【0023】
また、前記選択手段は、前記選択手段は、前記検出手段で検出された複数の、ソロイストの状態を表す値の平均値に基づいて前記自動伴奏データ記憶手段から1つの自動伴奏データを選択するように構成できる。この構成によれば、この構成によれば、瞬間的にセンサ値が大きくなっても、センサ値の平均値が所定値より小さければ直ちに伴奏パターンが変化することはない。従って、全体的な曲の盛り上がり、つまりソロイストの興奮状態が高まるに従って徐々に複雑なリズムパターンでの自動伴奏に移行させることができる。
【0024】
また、前記選択手段は、前記検出手段で検出された複数の、ソロイストの状態を表す値の平均値に基づいて前記自動伴奏データ記憶手段から1つの自動伴奏データを選択するように構成できる。この構成によれば、センサ値の変化のパターンに応じて伴奏パターンを変化させることができるので、ソロイストの興奮状態に応じた伴奏パターンによる自動伴奏を行わせることができる。
【0025】
更に、前記ソロイストの状態は、ソロイストの体温、心拍数及び発汗量の少なくとも1つとすることができる。この場合、選択手段は、センサからのソロイストの体温、心拍数及び発汗量のセンサ値に基づいて自動伴奏データを選択するように構成してもよいし、これらの2つ以上の組み合わせに基づいて自動伴奏データを選択するように構成してもよい。例えば、選択手段は、心拍数が所定値以下の場合は通常の伴奏パターンに対応する自動伴奏データを選択し、該所定値より大きい場合は複雑なリズムパターンを有する伴奏パターンに対応する自動伴奏データを選択するように構成することができる。
【0026】
【発明の実施の形態】
以下、本発明の自動伴奏装置の実施の形態につき図面を参照しながら詳細に説明する。なお、この実施の形態では、自動伴奏装置は、音量変化パターンに応じて伴奏パターンを変更しながら動作するものとする。
【0027】
図1は、本発明の実施の形態に係る自動伴奏装置の構成を示すブロック図である。本自動伴奏装置は、アドレスバス20及びデータバス21によって相互に接続されたCPU10、プログラムメモリ11、ワークメモリ12、操作パネル13、音量変化パターンテーブル14、自動伴奏データテーブル15及び音源16で構成されている。アドレスバス20は、上記各要素間でアドレス信号を、データバス21はデータ信号をそれぞれ送受するために使用される。
【0028】
CPU10は、プログラムメモリ11に記憶されている制御プログラムに従って自動伴奏装置の全体を制御する。このCPU10が行う処理の詳細については後にフローチャートを参照しながら詳細に説明する。このCPU10には、A/D変換器18及びタイマ10aが接続されている。また、A/D変換器18にはマイクロフォン19が接続されている。
【0029】
マイクロフォン19は、楽器音又は歌声を入力するために使用される。このマイクロフォン19からのアナログ信号はA/D変換器18でデジタル信号に変換された後、CPU10に供給される。CPU10は、このデジタル信号(以下、「音量データ」という)に基づいて音量変化パターンを得る。
【0030】
また、タイマ10aは一定時間間隔でタイマ割込信号を発生する。CPU10は、このタイマ割込信号に応じて、A/D変換器18からのデジタル信号を取り込み、順次音量レベルレジスタ(詳細は後述)に格納する。
【0031】
プログラムメモリ11は、例えばROMで構成されている。このプログラムメモリ11には、上述した制御プログラムの他に、CPU10が使用する種々の固定データが記憶されている。また、このプログラムメモリ11には、複数の楽器音に対応する複数の音色パラメータが音域毎に記憶されている。1つの音色パラメータは、所定の楽器音の所定の音域の音色を指定するために使用される。各音色パラメータは、例えば波形アドレス、周波数データ、エンベロープデータ、フィルタ係数等で構成されている。
【0032】
なお、このプログラムメモリ11はRAMで構成ですることもきる。この場合、自動伴奏装置を動作させるに先立って、上記制御プログラム、固定データ、音色パラメータ等を、例えばフロッピーディスク、磁気ディスク、光ディスク、ROMカード、CD−ROM等といった記憶媒体からプログラムメモリにロードするように構成すればよい。
【0033】
ワークメモリ12はRAMで構成されている。このワークメモリ12は、CPU10が種々のデータを一時的に記憶するために使用される。このワークメモリ12には、この自動伴奏装置を制御するための各種レジスタ、カウンタ、フラグ等が定義されている。これらの詳細については後述する。
【0034】
操作パネル13には、例えば図2に示すように、自動伴奏スイッチ130、インジケータ131、曲選択スイッチ132、ディスプレイ装置133が設けられている。なお、実際の自動伴奏装置には、上記以外に音色選択スイッチ、音響効果選択スイッチ、音量スイッチ、種々のインジケータ等が設けられているが、図2には、本発明の説明に必要なもののみが示されている。
【0035】
自動伴奏スイッチ130は例えば押釦スイッチで構成され、ユーザが自動伴奏の開始及び停止を制御するために使用される。この自動伴奏装置では、自動伴奏スイッチ130が押される毎に自動伴奏モードと停止モードとが交互に設定される。現在何れのモードにあるかは、後述する自動伴奏フラグによって記憶される。インジケータ131は、自動伴奏モードである場合に点灯し、停止モードである場合に消灯するように制御される。
【0036】
曲選択スイッチ132は、アップスイッチ132aとダウンスイッチ132bとで成るアップダウンスイッチで構成されている。アップスイッチ132a及びダウンスイッチ132bは例えば押釦スイッチで構成できる。アップスイッチ132aは曲番号をインクリメントし、ダウンスイッチ132bは曲番号をデクリメントするために使用される。この曲選択スイッチ132によって選択された曲番号は、後述する曲番号レジスタに記憶される。
【0037】
ディスプレイ装置133は、LCD、LED、CRTその他の表示器で構成することができる。このディスプレイ装置133は種々のメッセージを表示するために使用される。上述した曲番号はこのディスプレイ装置133に表示され、その表示内容(曲番号)は曲選択スイッチ132が操作される毎に変化する。
【0038】
操作パネル13には、図示しないパネルインタフェース回路が含まれている。このパネルインタフェース回路は、CPU10からの指令に応じて操作パネル13上の各スイッチをスキャンする。パネルインタフェース回路は、このスキャンにより得られた各スイッチの開閉状態を示す信号に基づいて、各スイッチをそれぞれ1ビットに対応させたパネルデータを作成する。各ビットは、例えば「1」でスイッチオン、「0」でスイッチオフ状態を表す。このパネルデータは、データバス21を介してCPU10に送られる。このパネルデータは、操作パネル13上の各スイッチのオン又はオフイベントが発生したかどうかを判断するために使用される。
【0039】
また、パネルインタフェース回路は、CPU10から送られてきた文字、数字、記号等を表示するためのデータをディスプレイ装置133に送り、また、インジケータを点灯するためのデータをインジケータ131に送る。これにより、CPU10から送られてきた例えば文字、数字、記号等のデータに従ったメッセージがディスプレイ装置133に表示され、またインジケータ131が点灯又は消灯される。
【0040】
自動伴奏データテーブル15は、例えばROMで構成されている。この自動伴奏データテーブル15には、例えば図3に示すように、m×n個(mは2以上の整数、nは1以上の整数)の自動伴奏データが記憶されている。これにより、n種類の曲の伴奏をm種類の伴奏パターンで自動伴奏できるようになっている。各自動伴奏データの先頭は、アドレスADDRij(i=1、2、・・・nであり、j=1、2、・・・mである)で指定される。
【0041】
各自動伴奏データは、例えば図4に示すように、複数の音符データと自動伴奏データの終わりを表すENDデータとで構成されている。各音符データは1音を発生するために使用される。各音符データは、キーナンバ、ステップタイム、ゲートタイム及びベロシティと呼ばれる各1バイトのデータで構成されている。ENDデータは、キーナンバ及びステップタイムと呼ばれる各1バイトのデータで構成される。
【0042】
「キーナンバ」の最上位ビットは、当該データが音符データであるかENDデータであるかを識別するために使用される。この最上位ビットが音符データであることを表している場合は、以下の7ビットはキーナンバとして使用される。一方、最上位ビットがENDデータであることを表している場合は、以下の7ビットは使用されない。キーナンバは鍵盤装置の各鍵に付された番号に対応するものであり、音高を指定するために使用される。
【0043】
「ステップタイム」は発音開始のタイミング(時刻)を指定するために使用される。「ゲートタイム」は発音すべき音の長さ(音長)を指定するために使用される。「ベロシティ」は発音すべき音の強さを指定するために使用される。1つの伴奏パターンに対応する自動伴奏データは、このような音符データ及びENDデータがステップタイム順に並べられて構成されている。
【0044】
なお、本実施の形態では、自動伴奏データとして、図4に示した音符データを用いたが、ステップタイムデータが付されたMIDIメッセージで構成することもできる。また、自動伴奏データとしては、その他の種々の形式のデータを用いることができる。
【0045】
また、自動伴奏データテーブル15は、ROMに限定されず、RAM、ROMカード、RAMカード、フロッピーディスク、CD−ROM等で構成できる。自動伴奏データテーブル15としてフロッピーディスク、CD−ROMを用いる場合は、これらに記憶された自動伴奏データを一且ワークメモリ12にロードし、ワークメモリ12内の自動伴奏データに基づき自動伴奏を行うように構成するのが好ましい。また、自動伴奏データテーブル15としてRAMを用いる場合は、本自動伴奏装置を動作させるに先立って、例えばフロッピーディスク、磁気ディスク、光ディスク、ROMカード、CD−ROM等といった記憶媒体に格納されている自動伴奏データを自動伴奏データメモリ(RAM)にロードするように構成すればよい。
【0046】
音量変化パターンテーブル14は、例えばROMで構成されている。この音量変化パターンテーブル14は、例えば図5に示すように、m×n個の音量変化パターンと自動伴奏データの先頭アドレスとを対応付けるために使用される。各音量変化パターンは、一定時間毎にサンプリングされた4個の音量データ(aij、bij、cij及びdij)によって構成されている。なお、音量変化パターンに含まれる音量データは4個に限らず、任意の数とすることができる。この数が大きくなるにつれて音量変化パターンを細かく定義することができる。
【0047】
この音量変化パターンテーブル14では、各音量変化パターンに対応して各曲の自動演奏データの先頭アドレスADDRijが記憶されている。所定の音量変化パターンが検出された場合に、該音量変化パターンに対応する自動伴奏データの先頭アドレスADDRijがこの音量変化パターンテーブル14から読み出され、音符データの読み出しアドレスを決定するために使用される。
【0048】
音源16は複数の発音チャンネルを備えている。この音源16は、詳細は図示しないが、波形メモリ、波形読出回路、エンベロープ生成回路、D/A変換器等により構成されている。波形メモリは例えばROMで構成され、各音色パラメータに対応する波形データを記憶している。波形データは、例えば楽器音に対応する楽音信号をパルスコード変調(PCM)することによって作成できる。波形読出回路は、この波形メモリから波形データを読み出す。エンベロープ生成回路は、この波形読出回路で読み出された波形データにエンベロープを付加するためのエンベロープ信号を生成する。
【0049】
CPU10は、音符データが自動伴奏データテーブル15から読み出されると、少なくとも1個の発音チャンネルを発音用に割り当て、この割り当てられた発音チャンネルに音色パラメータを供給する。この発音チャンネルは、音色パラメータを受け取ることにより楽音信号の生成を開始する。即ち、音色パラメータ中の波形アドレスで示される波形メモリの位置から、同じく音色パラメータ中の周波数データに応じた速度で波形データを順次読み出し、これに音色パラメータ中のエンベロープデータで指定されるエンベロープを付加し、以て楽音信号を生成する。この音源16で生成された楽音信号は、スピーカ17に供給される。そして、このスピーカ17で音響信号に変換されて放音される。
【0050】
次に、ワークメモリ12に定義さる主要なレジスタ、カウンタ、フラグ等について説明する。なお、下記以外のレジスタ、カウンタ、フラグ等については出現の都度説明する。
【0051】
(1)自動伴奏フラグ:本自動伴奏装置が自動伴奏モードにあるか停止モードにあるかを記憶する。
(2)音量レベルレジスタ:タイマ割込が発生する毎にその時点の音量データを順次格納する。このレジスタはスタック構造を有する。
(3)音量変化パターンレジスタ:現在の音量変化パターンを記憶する。音量レベルレジスタが満杯になった場合にその内容がセットされる。
(4)読出アドレスレジスタ:現在処理中の自動伴奏データの先頭アドレスADDRijが格納される。
(5)カレントポインタ:現在処理中である自動伴奏データ内の音符データが置かれている位置を指定する。このカレントポインタの内容は、読出アドレスレジスタの内容からの相対値である。
(6)ステップタイムカウンタ:自動伴奏の進行を管理する。曲の先頭でゼロにクリアされ、以後1ステップタイム毎にインクリメントされる。ここで1ステップタイムとは、例えば1拍の1/24、1/48、1/96等といった時間をいい、自動伴奏装置で固有に決められる。この1ステップタイムの絶対時間はテンポによって決定される。
(7)読出タイミングカウンタ:1ステップタイムに相当する時間でラウンドするカウンタである。この読出タイミングカウンタの内容が最大値からゼロに変化した場合に、発音タイミングになったかどうかを調べるタイミング(以下、「チェックタイミング」という)であると判断される。
(8)曲番号レジスタ:操作パネル13の曲選択スイッチ132によって選択された曲の曲番号を記憶する。
(9)新パネルデータレジスタ:今回のスキャンで操作パネル13から得られたパネルデータを記憶する。
(10)旧パネルデータレジスタ:前回のスキャンで操作パネル13から得られたパネルデータを記憶する。
【0052】
次に、以上の構成において、図6〜図10に示したフローチャートを参照しながら本発明の実施の形態に係る自動伴奏装置の動作について説明する。なお、上記フローチャートに示された処理は、何れもCPU10によって行われる。
【0053】
図6は本自動伴奏装置のメイン処理を示すフローチャートである。このメイン処理ルーチンは電源の投入又は図示しないリセットスイッチの押下により起動される。メイン処理では、先ず、初期化処理が行われる(ステップS10)。この初期化処理では、CPU10の内部のハードウェアが初期状態に設定されると共に、ワークメモリ12に定義されているレジスタ、カウンタ、フラグ等に初期値が設定される。また、この初期化処理では、電源投入時に不要な音が発生されるのを防止するために、音源16に所定のデータが送られる。
【0054】
この初期化処理が終了すると、次いで、パネル処理が行われる(ステップS11)。このパネル処理においては、操作パネル13上の各種スイッチの操作に応じて、その操作されたスイッチの機能を実現するための処理が行われる。このパネル処理の詳細は後述する。
【0055】
次いで、伴奏パターン切換処理が行われる(ステップS12)。この伴奏パターン切換処理では、音量変化パターンに応じて伴奏パターンを切り換える処理が行われる。この伴奏パターン切換処理の詳細は後述する。
【0056】
次いで、自動伴奏処理が行われる(ステップS13)。この自動伴奏処理では、自動伴奏データに基づく発音処理が行われる。この自動伴奏処理の詳細についても後述する。
【0057】
次いで、「その他の処理」が行われる(ステップS14)。この「その他の処理」では、上述した以外の処理、例えば図示しないMIDIインタフェースからのMIDIメッセージの送受処理等が行われる。その後シーケンスはステップS11に戻り、以下ステップS11〜S14の各処理が繰り返される。この繰り返し実行の過程で、操作パネル13が操作されるとそれらに応じた処理が行われ、音量レベルレジスタが満杯になると伴奏パターンを切り換える処理が行われ、また自動伴奏データに基づく発音処理が行われる。これにより自動伴奏装置としての各種機能が実現されている。
【0058】
次に、タイマ割込処理について、図7のフローチャートを参照しながら説明する。タイマ割込処理は、タイマ10aから一定周期で発生されるタイマ割込信号に応じて、上記メイン処理に割り込んで行われる。従って、タイマ割込処理は、上述したメイン処理と並行して行われることになる。
【0059】
タイマ割込処理では、先ず音量レベルの読み込みが行われる(ステップS20)。即ち、CPU10は、A/D変換器18から音量データを読み込む。この音量データは、その時点でマイクロフォン19からA/D変換器18に供給されている信号の振幅を表す。次いで、この音量データは、音量レベルレジスタに格納される(ステップS21)。ここで、音量レベルレジスタは、4個の音量データを記憶できるように構成されており、音量データは順次この音量レベルレジスタにスタックされる。
【0060】
次いで、音量レベルレジスタが満杯であるかどうかが調べられる(ステップS22)。即ち、音量レベルレジスタに4個の音量データが格納されたかどうかが調べられる。そして、満杯であることが判断されると、音量レベルレジスタの内容が音量変化パターンレジスタに格納される(ステップS23)。これにより、以後はこの音量変化パターンレジスタに格納された新しい音量変化パターンに従って自動伴奏が行われることになる。
【0061】
次いで、音量レベルレジスタの内容がクリアされる(ステップS24)。これにより、次回のタイマ割込処理では、最初から音量データのスタックが再開される。その後、シーケンスはメイン処理ルーチンの割り込まれた位置にリターンする。上記ステップS22で音量レベルレジスタが満杯でないことが判断されると、未だ4個の音量データが得られていないものと認識され、シーケンスはメイン処理ルーチンの割り込まれた位置にリターンする。
【0062】
次に、パネル処理について、図8のフローチャートを参照しながら説明する。このパネル処理ルーチンは、メイン処理ルーチンから一定周期でコールされる。
【0063】
パネル処理では、先ず、スイッチイベントの有無が調べられる(ステップS30)。これは以下の手順で行われる。先ず、CPU10は、操作パネル13からパネルデータ(以下、「新パネルデータ」という)を読み込み、新パネルデータレジスタに格納する。次いで、この新パネルデータと、前回のパネル処理で読み込まれて既に旧パネルデータレジスタに記憶されているパネルデータ(以下、「旧パネルデータ」という)との排他的論理和をとってパネルイベントマップを作成する。このパネルイベントマップの全ビットがゼロであればスイッチイベントは発生しなかったものと判断され、そうでなければスイッチイベントが発生したものと判断される。
【0064】
このステップS30でスイッチイベントがないことが判断されると、シーケンスはこのパネル処理ルーチンからメイン処理ルーチンにリターンする。一方、スイッチイベントがあることが判断されると、次いで、自動伴奏スイッチ130のオンイベントがあるかどうかが調べられる(ステップS31)。これは、パネルイベントマップ中の自動伴奏スイッチ130に対応するビットが「1」であり、且つ新パネルデータ中の自動伴奏スイッチ130に対応するビットが「1」であるかどうかを調べることにより行われる。ここで、自動伴奏スイッチ130のオンイベントがないことが判断されると、シーケンスはステップS36へ分岐する。
【0065】
上記ステップS31で、自動伴奏スイッチ130のオンイベントがあることが判断されると、次いで、自動伴奏モードであるかどうかが調べられる(ステップS32)。これは、自動伴奏フラグを調べることにより行われる。自動伴奏モードであるかどうかの判断は、以下においても同じ方法で行われる。
【0066】
そして、自動伴奏モードであることが判断されると、自動伴奏フラグが「0」にクリアされ(ステップS33)、その後シーケンスはステップS36に進む。一方、自動伴奏モードでないことが判断されると自動伴奏フラグが「1」にセットされ(ステップS34)、次いで、読出アドレスが初期設定される(ステップS35)。この処理では、その時点で選択されている曲(曲番号レジスタに曲番号iとして格納されている)の最初の伴奏パターンに対応する自動伴奏データの先頭アドレスADDRi1が読出アドレスレジスタに格納される。また、カレントポインタの内容がゼロに設定される。またステップタイムカウンタの内容がゼロにクリアされる。更に、読出タイミングカウンタのカウントアップ動作が開始される。その後シーケンスはステップS36に分岐する。
【0067】
上記ステップS32〜S34の処理により、自動伴奏スイッチ130が押される度に自動伴奏モードと停止モードとが交互に反転されるトグル機能が実現されている。また、上記ステップS35の処理により、自動伴奏データテーブル15内の音符データを実際に読み出すアドレス(以下、「実効読出アドレス」という)が決定される。この実効読出アドレスは、読出アドレスレジスタの内容とカレントポインタの内容を加算することにより算出される。ここで、カレントポインタの内容はゼロに設定されるので、自動伴奏データテーブル15の実効読出アドレスADDRi1で指定される位置から音符データの読み出しが開始されることになる。
【0068】
ステップS36では、曲選択スイッチ132のオンイベントがあるかどうかが調べられる。これは、パネルイベントマップ中のアップスイッチ132a又はダウンスイッチ132bの中の何れかに対応するビットが「1」であり、且つ新パネルデータ中の当該スイッチに対応するビットが「1」であるかどうかを順次調べることにより行われる。ここで、曲選択スイッチ132の中の何れかのスイッチのオンイベントがあることが判断されると、そのスイッチに対応する曲番号が、曲番号レジスタにセットされる(ステップS37)。即ち、アップスイッチ132aのオンイベントであれば曲番号レジスタの内容がインクリメントされ、ダウンスイッチ132bのオンイベントであれば曲番号レジスタの内容がデクリメントされる。上記ステップS36で曲選択スイッチ132のイベントがないことが判断されると、ステップS37はスキップされる。
【0069】
次いで、「その他のスイッチ処理」が行われる(ステップS38)。この「その他のスイッチ処理」では、例えば音色選択スイッチのイベントに応じた音色変更処理が行われる。そして、最後に、新パネルデータが旧パネルデータレジスタに移動され(図示しない)、パネル処理は終了する。
【0070】
次に、伴奏パターン切換処理について、図9のフローチャートを参照しながら説明する。
【0071】
この伴奏パターン切換処理では、先ず、音量変化パターンテーブル14の検索開始アドレスがワークメモリ12に設けられたワークカウンタXにセットされる(ステップS40)。ここで、検索開始アドレスとは、音量変化パターンテーブル14中の現在伴奏中の曲に対応する部分の先頭アドレス(音量変化パターンテーブル14内に自動伴奏データアドレスとして「ADDRi1」が格納されているエントリのアドレス)をいう。
【0072】
次いで、ワークカウンタXで示される音量変化パターンテーブル14の位置から1つの音量変化パターンが読み出される(ステップS41)。そして、この読み出された音量変化パターンと音量変化パターンレジスタの内容とが比較され(ステップS41)、一致するかどうかが調べられる(ステップS43)。上記ステップS42では、上述した両者が完全に一致するかどうかが調べられる。このステップS42では、上述した両者が類似するかどうか(一定の幅をもって一致するかどうか)を調べるように構成することもできる。例えば、音量変化パターンレジスタ内の各音量データが、音量変化パターンテーブル14内の各音量データに対してそれぞれ所定の範囲内の値を有する場合に一致するといみなすように構成できる。この構成によれば、音量変化パターンテーブル14に格納するデータの量を減らすことができる。
【0073】
上記ステップS43で一致しないことが判断されると、次いで、ワークカウンタXの内容がインクリメントされる(ステップS44)。これにより、ワークカウンタXの内容は、音量変化パターンテーブル14の次のエントリを指すように更新される。次いで、終了か否かが調べられる(ステップS45)。これは、音量変化パターンテーブル14中の現在伴奏中の曲に対応する部分の最後尾アドレス(音量変化パターンテーブル14内に自動伴奏データアドレスとして「ADDRim」が格納されているエントリのアドレス)になったかどうかを調べることにより行われる。そして、終了でないことが判断されると、ステップS41へ分岐し、以下同様の処理が繰り返される。
【0074】
一方、上記ステップS45で終了であることが判断されると、音量変化パターンテーブル14中に一致する音量変化パターンが存在しないことが認識され、伴奏パターンの切換を行うことなく、この伴奏パターン切換処理ルーチンからメイン処理ルーチンにリターンする。
【0075】
上記ステップS43で一致することが判断されると、次いで、音量変化パターンテーブル14の当該エントリの自動伴奏データアドレスADDRijが読出アドレスレジスタにセットされる(ステップS46)。この場合、音量変化パターンが変わるとjが変化することになる。これにより、以後の実効読出アドレスは、新たな自動伴奏データアドレスADDRijとカレントポインタの内容とが加算されることによって算出される。従って、自動伴奏データの読出位置が変更され、結果として伴奏パターンが切換られる。
【0076】
次に、自動伴奏処理について、図10のフローチャートを参照しながら説明する。この自動伴奏処理ルーチンは、メイン処理ルーチンから一定周期でコールされる。
【0077】
自動伴奏処理では、先ず、自動伴奏モードであるかどうかが調べられる(ステップS50)。そして、自動伴奏モードでないことが判断されると、シーケンスはこの自動伴奏処理ルーチンからメイン処理ルーチンにリターンする。即ち、自動伴奏処理ルーチンはメイン処理ルーチンから一定周期でコールされるが、自動伴奏モードでなければ直ちにメイン処理ルーチンに戻るという処理により、自動伴奏の停止機能が実現されている。
【0078】
一方、自動伴奏モードであることが判断されると、チェックタイミングであるかどうかが調べられる(ステップS51)。これは、読出タイミングカウンタの内容が、最大値からゼロにラウンドしたかどうかを調べることにより行われる。ここで、チェックタイミングでないことか判断されると、未だ前回の自動伴奏処理から1ステップタイムが経過していないことが認識され、シーケンスはこの自動伴奏処理ルーチンからメイン処理ルーチンにリターンする。
【0079】
一方、チェックタイミングであることが判断されると、次いで、実効読出アドレスで指定される音符データ又はENDデータ中のステップタイムSTEPとステップタイムカウンタの内容COUNTとが比較される(ステップS52)。そして、これらが一致しないことが判断されると、当該ステップタイムSTEPが含まれた音符データ又はENDデータは未だ実行タイミングに至っていないものと認識される。そして、ステップタイムカウンタの内容COUNTがインクリメントされ(ステップS53)、その後シーケンスはこの自動伴奏処理ルーチンからメイン処理ルーチンにリターンする。これにより、1ステップタイム毎にステップタイムカウンタの内容かインクリメントされる機能が実現されている。
【0080】
このようにしてステップタイムカウンタの内容COUNTが順次インクリメントされた結果、ステップS52でステップタイムSTEPとステップタイムカウンタの内容COUNTとが一致したことが判断されると、当該ステップタイムSTEPが含まれる音符データ又はENDデータは実行タイミングに至ったものと判断され、その音符データ又はENDデータが、自動伴奏データテーブル15から読み出される(ステップS54)。
【0081】
そして、そのデータはENDデータであるかどうかが調べられる(ステップS55)。これは、そのデータの第1バイト目の最上位ビットを調べることにより行われる。ここで、ENDデータであることが判断されると、自動伴奏データの最後に至ったことが認識され、読出アドレスの初期設定が行われる(ステップS56)。このステップS56の処理は、上述したパネル処理のステップS35の処理と同じである。これにより、同一曲の伴奏を繰り返す機能が実現されている。なお、自動伴奏を繰り返す必要のない装置では、このステップS56で自動伴奏フラグをゼロにクリアすればよい。
【0082】
上記ステップS55でENDデータでないことが判断されると、当該データは音符データであることが認識され、発音処理が行われる(ステップS57)。発音処理では、音符データ中のキーナンバに対応する音色パラメータがプログラムメモリ11から読み出されて音源16に送られる。これにより、音符データに応じた音がスピーカ17から発生される。
【0083】
次いで、カレントポインタがインクリメントされる(ステップS58)。より具体的には、カレントポインタの内容が「+4」される。その後、ステップS52に戻り、同様の処理が繰り返される。これにより、同一ステップタイムSTEPを有する全ての音符データに基づく音が発音される。
【0084】
以上説明した例では、自動伴奏データは予め自動伴奏データテーブル15に記憶されているものとしたが、ユーザが作成した自動伴奏データに基づいて自動伴奏を行うように構成することもできる。この場合、自動伴奏データテーブル15は、RAMで構成される。この自動伴奏データテーブル15に記憶する自動伴奏データは例えば鍵盤装置を用いて生成することができる。この場合、鍵盤装置の代わりにMIDIインタフェース回路を用いることもできる。MIDIインタフェース回路が用いられる場合は、鍵盤装置で発生される鍵盤データの代わりに、MIDIインタフェース回路で受信されたMIDIメッセージに含まれるノートオンデータが使用される。
【0085】
【発明の効果】
以上詳述したように、本発明によれば、演奏や歌の盛り上がりに応じて伴奏パターンが変化する自動伴奏を行うことのできる自動伴奏装置を提供できる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る自動伴奏装置の構成を示すブロック図である。
【図2】本発明の実施の形態に係る自動伴奏装置で使用される操作パネルの構成を示す図である。
【図3】本発明の実施の形態に係る自動伴奏装置で使用される自動伴奏データテーブルの一例を示す図である。
【図4】本発明の実施の形態に係る自動伴奏装置で使用される自動伴奏データ形式の一例を示す図である。
【図5】本発明の実施の形態に係る自動伴奏装置で使用される音量変化パターンテーブルの一例を示す図である。
【図6】本発明の実施の形態に係る自動伴奏装置のメイン処理を示すフローチャートである。
【図7】本発明の実施の形態に係る自動伴奏装置のタイマ割込処理を示すフローチャートである。
【図8】本発明の実施の形態に係る自動伴奏装置のパネル処理を示すフローチャートである。
【図9】本発明の実施の形態に係る自動伴奏装置の伴奏パターン切換処理を示すフローチャートである。
【図10】本発明の実施の形態に係る自動伴奏装置の自動伴奏処理を示すフローチャートである。
【符号の説明】
10 CPU
10a タイマ
11 プログラムメモリ
12 ワークメモリ
13 操作パネル
14 音量変化パターンテーブル
15 自動伴奏データテーブル
16 音源
17 スピーカ
18 A/D変換器
19 マイクロフォン
20 アドレスバス
21 データバス
130 自動伴奏スイッチ
131 インジケータ
132 曲選択スイッチ
133 ディスプレイ装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an automatic accompaniment apparatus that automatically generates a musical accompaniment sound, and more particularly to a technique for changing an accompaniment pattern in response to external factors.
[0002]
[Prior art]
Conventionally, an automatic accompaniment apparatus that performs automatic accompaniment according to automatic accompaniment data corresponding to one song is known. The user can play a musical instrument or sing a song in accordance with the accompaniment sound generated by the automatic accompaniment apparatus. The “automatic accompaniment device” in this specification is not a device that repeatedly generates an accompaniment sound consisting of a rhythm pattern of several measures, but generates an accompaniment sound of the entire song, such as a sequencer or a karaoke device. Refers to the device.
[0003]
However, this conventional automatic accompaniment device generates an accompaniment sound that faithfully follows the automatic accompaniment data, regardless of the circumstances surrounding the automatic accompaniment device. Therefore, for example, even if a performer's melody performance or a singer's song swells, the automatic accompaniment only proceeds independently with a uniform accompaniment pattern as determined in advance. Therefore, there is a problem that it is not possible to obtain a sense of unity between accompaniment and performance, or accompaniment and song.
[0004]
In order to solve such a problem, several attempts have been made to change a uniform automatic accompaniment in real time. For example, attempts have been made to change the accompaniment pattern according to the strength of the keystroke, or to change the accompaniment pattern according to the time interval of hitting a key or switch, thereby performing a variety of automatic accompaniment.
[0005]
[Problems to be solved by the invention]
However, such attempts particularly target keyboard-type electronic musical instruments, and exclude acoustic instruments and songs such as pianos, guitars, and wind instruments. Therefore, there remains a problem that players and singers of these acoustic musical instruments must perform or sing according to a uniform accompaniment pattern generated by the automatic accompaniment apparatus.
[0006]
The present invention has been made to solve such a problem, and an object of the present invention is to provide an automatic accompaniment apparatus capable of performing an automatic accompaniment in which an accompaniment pattern changes according to the performance or excitement of a song. is there.
[0007]
[Means for Solving the Problems]
In order to achieve the above object, an automatic accompaniment apparatus according to the first aspect of the present invention is provided.
An automatic accompaniment device that automatically generates an accompaniment sound based on an accompaniment sound signal,
Automatic accompaniment data storage means for storing a plurality of automatic accompaniment data corresponding to each of a plurality of accompaniment patterns;
Volume detection means for detecting the volume from the outside,
Selection means for selecting one automatic accompaniment data from the automatic accompaniment data storage means according to the detection result in the volume detection means;
Accompaniment sound signal generation means for generating an accompaniment sound signal according to the automatic accompaniment data selected by the selection means.
[0008]
The automatic accompaniment data storage means can be composed of, for example, a read only memory (hereinafter abbreviated as “ROM”) or a random access memory (hereinafter abbreviated as “RAM”). When the automatic accompaniment data storage means is constituted by a RAM, automatic accompaniment data is loaded into the automatic accompaniment data storage means prior to operating the automatic accompaniment apparatus.
[0009]
The automatic accompaniment data storage means can be configured to store a plurality of automatic accompaniment data respectively corresponding to a plurality of songs. In this case, the type of music to be automatically accompanied can be configured to be selected, for example, by a music selection switch provided on the operation panel. Each automatic accompaniment data can be composed of a note data group for generating an accompaniment pattern for one song. Each note data includes, for example, a MIDI message to which step time data for defining the sound generation timing is added, note data composed of data for specifying step time, pitch, pitch and velocity, and other various types of data. Can be used. Each automatic accompaniment data can be composed of a note data group in charge of a plurality of parts.
[0010]
The sound volume detection means can be composed of, for example, a microphone, an A / D converter, and a central processing unit (hereinafter referred to as “CPU”). Note that a vibration pickup, a magnetic pickup, or the like may be used instead of the microphone. This sound volume detecting means converts an analog signal from, for example, a microphone into a digital signal by an A / D converter. A volume value is obtained by quantizing the digital signal obtained by this conversion. This volume value is used for selecting automatic accompaniment data in the selection means.
[0011]
The selection means selects one automatic accompaniment data according to the volume value detected by the volume detection means. This selection means can be constituted by a CPU. The automatic accompaniment data selected by the selecting means is used by the accompaniment sound signal generating means to generate an accompaniment sound signal. The accompaniment sound signal generated by the accompaniment sound signal generation means is supplied to, for example, a speaker. Thereby, the accompaniment sound based on the accompaniment sound signal is generated in this automatic accompaniment apparatus.
[0012]
According to the automatic accompaniment apparatus according to the first aspect of the present invention, since the automatic accompaniment data is created corresponding to each of the plurality of accompaniment patterns, the accompaniment pattern is determined according to the volume value detected by the volume detection means. Will change. For example, the selection means selects automatic accompaniment data corresponding to a normal accompaniment pattern when the volume value is equal to or lower than a predetermined value, and automatic accompaniment data corresponding to an accompaniment pattern having a complicated rhythm pattern when the volume value is larger than the predetermined value. Can be configured to select.
[0013]
According to this configuration, when the normal performance or song is being performed, the volume value input from the microphone is equal to or lower than the predetermined value, so that an accompaniment sound is generated with a normal accompaniment pattern, but the performance or song is excited. Thus, when the volume value input from the microphone exceeds a predetermined value, the accompaniment sound is changed so as to be generated with an accompaniment pattern having a complicated rhythm pattern. Therefore, it is possible to change the automatic accompaniment sound in accordance with the performance and the excitement of the song.
[0014]
The selection means can be configured to select one automatic accompaniment data from the automatic accompaniment data storage means based on an average value of values representing a plurality of sound volumes detected by the sound volume detection means. According to this configuration, even if the volume of a performance or song instantaneously increases, the accompaniment pattern does not change immediately if the average volume is lower than a predetermined value. Accordingly, it is possible to gradually shift to an automatic accompaniment with a complicated rhythm pattern as the overall music rises.
[0015]
The selection means can be configured to select one automatic accompaniment data from the automatic accompaniment data storage means based on a change pattern of values representing a plurality of sound volumes detected by the sound volume detection means. According to this configuration, since the accompaniment pattern can be changed according to the volume change pattern, the performer or the singer arbitrarily changes the volume in a specific pattern, thereby performing automatic accompaniment with a desired accompaniment pattern. Can be done.
[0016]
In this configuration, the accompaniment pattern is changed according to the volume change pattern, but the accompaniment is stopped, restarted, or the rhythm and tone are changed according to the volume change pattern. It can also be configured.
[0017]
The automatic accompaniment apparatus according to the second aspect of the present invention is similar to the above,
An automatic accompaniment device that automatically generates an accompaniment sound based on an accompaniment sound signal,
Automatic accompaniment data storage means for storing a plurality of automatic accompaniment data corresponding to each of a plurality of accompaniment patterns;
Detecting means for detecting the state of the soroist;
Selection means for selecting one automatic accompaniment data from the automatic accompaniment data storage means according to the detection result in the detection means;
Accompaniment sound signal generation means for generating an accompaniment sound signal according to the automatic accompaniment data selected by the selection means.
[0018]
The automatic accompaniment data storage means can be constituted by a ROM or a RAM as in the automatic accompaniment apparatus according to the first aspect of the present invention described above. Moreover, the automatic accompaniment data memorize | stored in this automatic accompaniment data memory | storage means can be produced similarly to the automatic accompaniment apparatus which concerns on the 1st aspect of this invention mentioned above.
[0019]
The detection means includes a sensor for detecting the state of a soloist such as a performer or a singer, an A / D converter, and a CPU. For example, the detection means converts an analog signal from a sensor into a digital signal by an A / D converter. And a sensor value is obtained by quantizing the digital signal obtained by this conversion. This sensor value is used for selecting automatic accompaniment data in the selection means.
[0020]
The selection means selects one automatic accompaniment data according to the detection result of the detection means, that is, the sensor value. This selection means can be constituted by a CPU. The automatic accompaniment data selected by the selecting means is used by the accompaniment sound signal generating means to generate an accompaniment sound signal. The accompaniment sound signal generated by the accompaniment sound signal generation means is supplied to, for example, a speaker. Thereby, the accompaniment sound based on the accompaniment sound signal is generated in this automatic accompaniment apparatus.
[0021]
According to the automatic accompaniment apparatus according to the second aspect of the present invention, the automatic accompaniment data is created corresponding to each of the plurality of accompaniment patterns, so that the accompaniment pattern is determined according to the sensor value detected by the detecting means. Will change. For example, the selection means selects automatic accompaniment data corresponding to a normal accompaniment pattern when the sensor value is equal to or smaller than a predetermined value, and automatic accompaniment data corresponding to an accompaniment pattern having a complicated rhythm pattern when the sensor value is larger than the predetermined value. Can be configured to select.
[0022]
According to this configuration, when the soloist is performing a normal performance or singing, the sensor value from the sensor is equal to or less than a predetermined value, so that an accompaniment sound is generated with a normal accompaniment pattern, but the performance or singing is excited. As a result, the soloist enters an excited state, and when the sensor value from the sensor exceeds a predetermined value, the accompaniment sound is changed to generate an accompaniment pattern having a complicated rhythm pattern. Therefore, the automatic accompaniment sound can be changed in accordance with the soloist state.
[0023]
Further, the selection means selects one automatic accompaniment data from the automatic accompaniment data storage means based on an average value of a plurality of values representing the soloist state detected by the detection means. Can be configured. According to this configuration, even if the sensor value increases instantaneously, the accompaniment pattern does not change immediately if the average value of the sensor values is smaller than the predetermined value. Accordingly, it is possible to gradually shift to automatic accompaniment with a complicated rhythm pattern as the overall tune rises, that is, the soloist's excitement increases.
[0024]
Further, the selection means can be configured to select one automatic accompaniment data from the automatic accompaniment data storage means based on an average value of a plurality of values representing the soloist state detected by the detection means. According to this configuration, since the accompaniment pattern can be changed according to the sensor value change pattern, automatic accompaniment using the accompaniment pattern according to the soloist's excitement state can be performed.
[0025]
Further, the state of the soloist can be at least one of the body temperature, heart rate and sweating amount of the soloist. In this case, the selection means may be configured to select automatic accompaniment data based on sensor values of the soloist's body temperature, heart rate, and sweating amount from the sensor, or based on a combination of two or more of these. You may comprise so that automatic accompaniment data may be selected. For example, the selection means selects automatic accompaniment data corresponding to a normal accompaniment pattern when the heart rate is equal to or lower than a predetermined value, and automatic accompaniment data corresponding to an accompaniment pattern having a complicated rhythm pattern when the heart rate is larger than the predetermined value. Can be configured to select.
[0026]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the automatic accompaniment apparatus of the present invention will be described in detail with reference to the drawings. In this embodiment, it is assumed that the automatic accompaniment apparatus operates while changing the accompaniment pattern according to the volume change pattern.
[0027]
FIG. 1 is a block diagram showing a configuration of an automatic accompaniment apparatus according to an embodiment of the present invention. The automatic accompaniment apparatus includes a
[0028]
The
[0029]
The
[0030]
The
[0031]
The
[0032]
The
[0033]
The
[0034]
For example, as shown in FIG. 2, the
[0035]
The
[0036]
The
[0037]
The
[0038]
The
[0039]
Further, the panel interface circuit sends data for displaying characters, numbers, symbols, etc. sent from the
[0040]
The automatic accompaniment data table 15 is composed of, for example, a ROM. In this automatic accompaniment data table 15, for example, as shown in FIG. 3, m × n pieces of automatic accompaniment data (m is an integer of 2 or more and n is an integer of 1 or more) are stored. Thereby, accompaniment of n types of music can be automatically accompanied with m types of accompaniment patterns. The beginning of each automatic accompaniment data is address ADDR ij (I = 1, 2,... N, j = 1, 2,... M).
[0041]
Each automatic accompaniment data is composed of a plurality of note data and END data indicating the end of the automatic accompaniment data, for example, as shown in FIG. Each note data is used to generate one note. Each note data is composed of 1-byte data called key number, step time, gate time and velocity. The END data is composed of 1-byte data called a key number and a step time.
[0042]
The most significant bit of “key number” is used to identify whether the data is note data or END data. When this most significant bit represents note data, the following 7 bits are used as a key number. On the other hand, when the most significant bit indicates END data, the following 7 bits are not used. The key number corresponds to the number assigned to each key of the keyboard device, and is used to specify the pitch.
[0043]
“Step time” is used to specify the timing (time) of the start of sound generation. “Gate time” is used to specify the length of a sound to be pronounced (sound length). “Velocity” is used to specify the strength of the sound to be pronounced. Automatic accompaniment data corresponding to one accompaniment pattern is configured by arranging such note data and END data in order of step times.
[0044]
In the present embodiment, the note data shown in FIG. 4 is used as the automatic accompaniment data, but it can also be composed of a MIDI message with step time data. As the automatic accompaniment data, data in various other formats can be used.
[0045]
The automatic accompaniment data table 15 is not limited to the ROM, and can be composed of a RAM, a ROM card, a RAM card, a floppy disk, a CD-ROM, or the like. When a floppy disk or CD-ROM is used as the automatic accompaniment data table 15, the automatic accompaniment data stored in the floppy disk or CD-ROM is temporarily loaded into the
[0046]
The volume change pattern table 14 is composed of, for example, a ROM. This volume change pattern table 14 is used for associating m × n volume change patterns with the start address of automatic accompaniment data, for example, as shown in FIG. Each volume change pattern includes four volume data (a ij , B ij , C ij And d ij ). Note that the volume data included in the volume change pattern is not limited to four but can be any number. As this number increases, the volume change pattern can be finely defined.
[0047]
In the volume change pattern table 14, the start address ADDR of the automatic performance data of each song corresponding to each volume change pattern. ij Is remembered. When a predetermined volume change pattern is detected, the start address ADDR of automatic accompaniment data corresponding to the volume change pattern ij Are read from the volume change pattern table 14 and used to determine the read address of the note data.
[0048]
The
[0049]
When the note data is read from the automatic accompaniment data table 15, the
[0050]
Next, main registers, counters, flags and the like defined in the
[0051]
(1) Automatic accompaniment flag: Stores whether the automatic accompaniment apparatus is in the automatic accompaniment mode or the stop mode.
(2) Volume level register: The volume data at that time is sequentially stored every time a timer interrupt occurs. This register has a stack structure.
(3) Volume change pattern register: Stores the current volume change pattern. When the volume level register becomes full, its contents are set.
(4) Read address register: start address ADDR of automatic accompaniment data currently being processed ij Is stored.
(5) Current pointer: Designates the position where the note data is placed in the automatic accompaniment data currently being processed. The content of this current pointer is a relative value from the content of the read address register.
(6) Step time counter: manages the progress of automatic accompaniment. It is cleared to zero at the beginning of the song and is incremented every step time thereafter. Here, one step time means a time such as 1/24, 1/48, 1/96, etc. of one beat, and is uniquely determined by the automatic accompaniment apparatus. The absolute time of this one step time is determined by the tempo.
(7) Read timing counter: A counter that rounds at a time corresponding to one step time. When the content of the read timing counter changes from the maximum value to zero, it is determined that it is the timing for checking whether the sound generation timing has come (hereinafter referred to as “check timing”).
(8) Song number register: Stores the song number of the song selected by the
(9) New panel data register: Stores panel data obtained from the
(10) Old panel data register: Stores panel data obtained from the
[0052]
Next, the operation of the automatic accompaniment apparatus according to the embodiment of the present invention will be described with reference to the flowcharts shown in FIGS. Note that the processing shown in the flowchart is all performed by the
[0053]
FIG. 6 is a flowchart showing the main process of the automatic accompaniment apparatus. This main processing routine is started by turning on power or pressing a reset switch (not shown). In the main process, an initialization process is first performed (step S10). In this initialization process, the internal hardware of the
[0054]
When this initialization process is completed, a panel process is then performed (step S11). In this panel processing, processing for realizing the function of the operated switch is performed in accordance with the operation of various switches on the
[0055]
Next, an accompaniment pattern switching process is performed (step S12). In this accompaniment pattern switching process, a process of switching the accompaniment pattern according to the volume change pattern is performed. Details of the accompaniment pattern switching process will be described later.
[0056]
Next, automatic accompaniment processing is performed (step S13). In this automatic accompaniment process, a sound generation process based on automatic accompaniment data is performed. Details of this automatic accompaniment process will also be described later.
[0057]
Next, “other processing” is performed (step S14). In this “other process”, processes other than those described above, for example, a MIDI message transmission / reception process from a MIDI interface (not shown) are performed. Thereafter, the sequence returns to step S11, and the processes of steps S11 to S14 are repeated thereafter. In the process of repeated execution, when the
[0058]
Next, the timer interrupt process will be described with reference to the flowchart of FIG. The timer interrupt process is performed by interrupting the main process in accordance with a timer interrupt signal generated from the
[0059]
In the timer interruption process, first, the volume level is read (step S20). That is, the
[0060]
Next, it is checked whether or not the volume level register is full (step S22). That is, it is checked whether or not four volume data are stored in the volume level register. When it is determined that the volume is full, the contents of the volume level register are stored in the volume change pattern register (step S23). As a result, automatic accompaniment is performed in accordance with the new volume change pattern stored in the volume change pattern register.
[0061]
Next, the contents of the volume level register are cleared (step S24). As a result, in the next timer interrupt process, the volume data stack is restarted from the beginning. Thereafter, the sequence returns to the interrupted position of the main processing routine. If it is determined in step S22 that the volume level register is not full, it is recognized that four volume data have not yet been obtained, and the sequence returns to the interrupted position of the main processing routine.
[0062]
Next, panel processing will be described with reference to the flowchart of FIG. This panel processing routine is called at regular intervals from the main processing routine.
[0063]
In the panel process, first, the presence / absence of a switch event is checked (step S30). This is done in the following procedure. First, the
[0064]
If it is determined in step S30 that there is no switch event, the sequence returns from this panel processing routine to the main processing routine. On the other hand, if it is determined that there is a switch event, it is then checked whether there is an ON event of the automatic accompaniment switch 130 (step S31). This is done by checking whether the bit corresponding to the
[0065]
If it is determined in step S31 that there is an on event of the
[0066]
When it is determined that the automatic accompaniment mode is selected, the automatic accompaniment flag is cleared to “0” (step S33), and then the sequence proceeds to step S36. On the other hand, if it is determined that the automatic accompaniment mode is not set, the automatic accompaniment flag is set to “1” (step S34), and then the read address is initialized (step S35). In this process, the start address ADDR of automatic accompaniment data corresponding to the first accompaniment pattern of the currently selected song (stored as song number i in the song number register) i1 Is stored in the read address register. Also, the content of the current pointer is set to zero. The content of the step time counter is cleared to zero. Further, the count-up operation of the read timing counter is started. Thereafter, the sequence branches to step S36.
[0067]
By the processing in steps S32 to S34, a toggle function is realized in which the automatic accompaniment mode and the stop mode are alternately reversed each time the
[0068]
In step S36, it is checked whether or not there is an on event of the
[0069]
Next, “other switch processing” is performed (step S38). In this “other switch process”, for example, a timbre change process corresponding to an event of the timbre selection switch is performed. Finally, the new panel data is moved to the old panel data register (not shown), and the panel processing ends.
[0070]
Next, the accompaniment pattern switching process will be described with reference to the flowchart of FIG.
[0071]
In this accompaniment pattern switching process, first, the search start address of the volume change pattern table 14 is set in the work counter X provided in the work memory 12 (step S40). Here, the search start address is the head address of the portion corresponding to the currently accompaniment song in the volume change pattern table 14 (“ADDR as an automatic accompaniment data address in the volume change pattern table 14). i1 The address of the entry where “
[0072]
Next, one volume change pattern is read from the position of the volume change pattern table 14 indicated by the work counter X (step S41). Then, the read volume change pattern and the contents of the volume change pattern register are compared (step S41), and it is checked whether or not they match (step S43). In step S42, it is checked whether or not the above-mentioned two completely match. In this step S42, it can be configured to check whether or not the two are similar (whether they match with a certain width). For example, each volume data in the volume change pattern register can be regarded as matching when each volume data in the volume change pattern table 14 has a value within a predetermined range. According to this configuration, the amount of data stored in the volume change pattern table 14 can be reduced.
[0073]
If it is determined in step S43 that they do not match, the contents of the work counter X are then incremented (step S44). As a result, the contents of the work counter X are updated to indicate the next entry in the volume change pattern table 14. Next, it is checked whether or not the process is finished (step S45). This is the last address of the portion corresponding to the currently accompaniment song in the volume change pattern table 14 (“ADDR as an automatic accompaniment data address in the volume change pattern table 14). im This is performed by checking whether or not the address of the stored entry is reached. If it is determined that the process is not finished, the process branches to step S41, and thereafter the same process is repeated.
[0074]
On the other hand, if it is determined in step S45 that the process is finished, it is recognized that there is no matching volume change pattern in the volume change pattern table 14, and this accompaniment pattern switching process is performed without switching the accompaniment pattern. Return from the routine to the main processing routine.
[0075]
If it is determined in step S43 that the values match, then the automatic accompaniment data address ADDR of the entry in the volume change pattern table 14 is then selected. ij Is set in the read address register (step S46). In this case, j changes when the volume change pattern changes. As a result, the subsequent effective read address becomes the new automatic accompaniment data address ADDR. ij And the contents of the current pointer are added. Accordingly, the automatic accompaniment data reading position is changed, and as a result, the accompaniment pattern is switched.
[0076]
Next, the automatic accompaniment process will be described with reference to the flowchart of FIG. This automatic accompaniment processing routine is called from the main processing routine at regular intervals.
[0077]
In the automatic accompaniment process, first, it is checked whether or not the automatic accompaniment mode is set (step S50). When it is determined that the mode is not the automatic accompaniment mode, the sequence returns from the automatic accompaniment processing routine to the main processing routine. That is, the automatic accompaniment processing routine is called from the main processing routine at regular intervals, but the automatic accompaniment stop function is realized by the processing of returning to the main processing routine immediately if the automatic accompaniment mode is not set.
[0078]
On the other hand, if it is determined that the automatic accompaniment mode is selected, it is checked whether it is the check timing (step S51). This is done by checking whether the contents of the read timing counter have rounded from the maximum value to zero. If it is determined that it is not the check timing, it is recognized that one step time has not yet elapsed from the previous automatic accompaniment process, and the sequence returns from this automatic accompaniment process routine to the main process routine.
[0079]
On the other hand, if it is determined that it is the check timing, the step time STEP in the note data or END data specified by the effective read address is compared with the content COUNT of the step time counter (step S52). If it is determined that they do not match, it is recognized that the note data or END data including the step time STEP has not yet reached the execution timing. Then, the content COUNT of the step time counter is incremented (step S53), and then the sequence returns from this automatic accompaniment processing routine to the main processing routine. As a result, the function of incrementing the contents of the step time counter every step time is realized.
[0080]
As a result of sequentially incrementing the content COUNT of the step time counter in this way, if it is determined in step S52 that the step time STEP matches the content COUNT of the step time counter, the musical note data including the step time STEP is included. Alternatively, it is determined that the END data has reached the execution timing, and the note data or END data is read from the automatic accompaniment data table 15 (step S54).
[0081]
Then, it is checked whether or not the data is END data (step S55). This is done by examining the most significant bit of the first byte of the data. Here, if it is determined that the data is END data, it is recognized that the end of the automatic accompaniment data has been reached, and the read address is initialized (step S56). The process in step S56 is the same as the process in step S35 of the panel process described above. Thereby, the function to repeat accompaniment of the same music is realized. In an apparatus that does not need to repeat automatic accompaniment, the automatic accompaniment flag may be cleared to zero in step S56.
[0082]
If it is determined in step S55 that the data is not END data, the data is recognized as note data, and a sound generation process is performed (step S57). In the sound generation process, the timbre parameter corresponding to the key number in the note data is read from the
[0083]
Next, the current pointer is incremented (step S58). More specifically, the content of the current pointer is “+4”. Then, it returns to step S52 and the same process is repeated. As a result, sounds based on all the note data having the same step time STEP are generated.
[0084]
In the example described above, the automatic accompaniment data is assumed to be stored in the automatic accompaniment data table 15 in advance. However, the automatic accompaniment data may be configured to be performed based on the automatic accompaniment data created by the user. In this case, the automatic accompaniment data table 15 is composed of a RAM. The automatic accompaniment data stored in the automatic accompaniment data table 15 can be generated using, for example, a keyboard device. In this case, a MIDI interface circuit can be used instead of the keyboard device. When the MIDI interface circuit is used, note-on data included in the MIDI message received by the MIDI interface circuit is used instead of the keyboard data generated by the keyboard device.
[0085]
【The invention's effect】
As described above in detail, according to the present invention, it is possible to provide an automatic accompaniment apparatus that can perform an automatic accompaniment in which an accompaniment pattern changes according to the performance or the excitement of a song.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an automatic accompaniment apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram showing a configuration of an operation panel used in the automatic accompaniment apparatus according to the embodiment of the present invention.
FIG. 3 is a diagram showing an example of an automatic accompaniment data table used in the automatic accompaniment apparatus according to the embodiment of the present invention.
FIG. 4 is a diagram showing an example of an automatic accompaniment data format used in the automatic accompaniment apparatus according to the embodiment of the present invention.
FIG. 5 is a diagram showing an example of a volume change pattern table used in the automatic accompaniment apparatus according to the embodiment of the present invention.
FIG. 6 is a flowchart showing a main process of the automatic accompaniment apparatus according to the embodiment of the present invention.
FIG. 7 is a flowchart showing a timer interrupt process of the automatic accompaniment apparatus according to the embodiment of the present invention.
FIG. 8 is a flowchart showing panel processing of the automatic accompaniment apparatus according to the embodiment of the present invention.
FIG. 9 is a flowchart showing accompaniment pattern switching processing of the automatic accompaniment apparatus according to the embodiment of the present invention.
FIG. 10 is a flowchart showing automatic accompaniment processing of the automatic accompaniment apparatus according to the embodiment of the present invention.
[Explanation of symbols]
10 CPU
10a timer
11 Program memory
12 Work memory
13 Operation panel
14 Volume change pattern table
15 Automatic accompaniment data table
16 sound sources
17 Speaker
18 A / D converter
19 Microphone
20 Address bus
21 Data bus
130 Automatic accompaniment switch
131 Indicator
132 song selection switch
133 Display device
Claims (3)
複数の伴奏パターンのそれぞれに対応する複数の自動伴奏データを記憶する自動伴奏データ記憶手段と、
外部からの音量を検出する音量検出手段と、
該音量検出手段における検出結果に応じて該自動伴奏データ記憶手段から1つの自動伴奏データを選択する選択手段と、
該選択手段で選択された自動伴奏データに従って伴奏音信号を生成する伴奏音信号生成手段とを備え、
前記選択手段は、前記音量検出手段で検出された複数の音量を表す値の変化パターンに基づいて前記自動伴奏データ記憶手段から1つの自動伴奏データを選択する
自動伴奏装置。An automatic accompaniment device that automatically generates an accompaniment sound based on an accompaniment sound signal,
Automatic accompaniment data storage means for storing a plurality of automatic accompaniment data corresponding to each of a plurality of accompaniment patterns;
Volume detection means for detecting the volume from the outside,
Selection means for selecting one automatic accompaniment data from the automatic accompaniment data storage means according to the detection result in the volume detection means;
Accompaniment sound signal generation means for generating an accompaniment sound signal according to the automatic accompaniment data selected by the selection means,
The automatic accompaniment apparatus, wherein the selection means selects one automatic accompaniment data from the automatic accompaniment data storage means based on a change pattern of values representing a plurality of sound volumes detected by the sound volume detection means.
複数の伴奏パターンのそれぞれに対応する複数の自動伴奏データを記憶する自動伴奏データ記憶手段と、
ソロイストの状態を検出する検出手段と、
該検出手段における検出結果に応じて該自動伴奏データ記憶手段から1つの自動伴奏データを選択する選択手段と、
該選択手段で選択された自動伴奏データに従って伴奏音信号を生成する伴奏音信号生成手段とを備え、
前記選択手段は、前記検出手段で検出された複数の、ソロイストの状態を表す値の変化パターンに基づいて前記自動伴奏データ記憶手段から1つの自動伴奏データを選択する
自動伴奏装置。An automatic accompaniment device that automatically generates an accompaniment sound based on an accompaniment sound signal,
Automatic accompaniment data storage means for storing a plurality of automatic accompaniment data corresponding to each of a plurality of accompaniment patterns;
Detecting means for detecting the state of the soroist;
Selection means for selecting one automatic accompaniment data from the automatic accompaniment data storage means according to the detection result in the detection means;
Accompaniment sound signal generation means for generating an accompaniment sound signal according to the automatic accompaniment data selected by the selection means,
The automatic accompaniment apparatus, wherein the selection means selects one automatic accompaniment data from the automatic accompaniment data storage means based on a plurality of change patterns of values representing the soloist state detected by the detection means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14587297A JP3630266B2 (en) | 1997-05-20 | 1997-05-20 | Automatic accompaniment device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14587297A JP3630266B2 (en) | 1997-05-20 | 1997-05-20 | Automatic accompaniment device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10319960A JPH10319960A (en) | 1998-12-04 |
JP3630266B2 true JP3630266B2 (en) | 2005-03-16 |
Family
ID=15395011
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP14587297A Expired - Fee Related JP3630266B2 (en) | 1997-05-20 | 1997-05-20 | Automatic accompaniment device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3630266B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6513730B2 (en) * | 2017-04-06 | 2019-05-15 | 株式会社藤商事 | Gaming machine |
-
1997
- 1997-05-20 JP JP14587297A patent/JP3630266B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH10319960A (en) | 1998-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH0997083A (en) | Automatic accompaniment device | |
JP3568326B2 (en) | Electronic musical instrument | |
JPH09179559A (en) | Device and method for automatic accompaniment | |
JP3630266B2 (en) | Automatic accompaniment device | |
JP4318194B2 (en) | Automatic accompaniment apparatus and automatic accompaniment method for electronic musical instrument | |
JP3632536B2 (en) | Part selection device | |
JP3640235B2 (en) | Automatic accompaniment device and automatic accompaniment method | |
JP3455050B2 (en) | Automatic accompaniment device | |
JP3609045B2 (en) | Automatic performance device | |
JPH06348258A (en) | Automatic playing device of electronic musical instrument | |
JP3385544B2 (en) | Automatic performance device | |
JP2636393B2 (en) | Automatic performance device | |
JP2513014B2 (en) | Electronic musical instrument automatic performance device | |
JP3549083B2 (en) | Volume control device | |
JP3097888B2 (en) | Electronic musical instrument volume setting device | |
JP2665854B2 (en) | Automatic performance device | |
JP3169535B2 (en) | Automatic performance device and automatic performance method | |
JP3529123B2 (en) | Automatic performance device and automatic performance method | |
JPH0830273A (en) | Tempo setting device for electronic musical instrument | |
JPH0772857A (en) | Automatic music playing device for electronic musical instrument | |
JPH0772869A (en) | Tuning support system of electronic musical instrument | |
JPH08263060A (en) | Automatic accompaniment device of electronic musical instrument | |
JP2005010458A (en) | Automatic arpeggio device and computer program applied to the device | |
JPH05108074A (en) | Automatic accompaniment device of electronic musical instrument | |
JPH07181973A (en) | Automatic accompaniment device of electronic musical instrument |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040409 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040623 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040916 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041209 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |