JP3630266B2 - Automatic accompaniment device - Google Patents

Automatic accompaniment device Download PDF

Info

Publication number
JP3630266B2
JP3630266B2 JP14587297A JP14587297A JP3630266B2 JP 3630266 B2 JP3630266 B2 JP 3630266B2 JP 14587297 A JP14587297 A JP 14587297A JP 14587297 A JP14587297 A JP 14587297A JP 3630266 B2 JP3630266 B2 JP 3630266B2
Authority
JP
Japan
Prior art keywords
automatic accompaniment
accompaniment
data
automatic
volume
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP14587297A
Other languages
Japanese (ja)
Other versions
JPH10319960A (en
Inventor
周 永瀧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP14587297A priority Critical patent/JP3630266B2/en
Publication of JPH10319960A publication Critical patent/JPH10319960A/en
Application granted granted Critical
Publication of JP3630266B2 publication Critical patent/JP3630266B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、曲の伴奏音を自動的に発生する自動伴奏装置に関し、特に外部からの要因に反応して伴奏パターンを変化させる技術に関する。
【0002】
【従来の技術】
従来、1つの曲に対応する自動伴奏データに従って自動伴奏を行う自動伴奏装置が知られている。ユーザは、この自動伴奏装置で発生される伴奏音に合わせて、例えば楽器を演奏したり、歌を歌ったりすることができる。なお、本明細書でいう「自動伴奏装置」は、数小節のリズムパターンで成る伴奏音を繰り返して発生する装置ではなく、例えばシーケンサやカラオケ装置等のように、曲全体の伴奏音を発生する装置をいう。
【0003】
しかし、この従来の自動伴奏装置は、自動伴奏装置の周囲の状況とは全く無関係に、自動伴奏データに忠実に従った伴奏音を発生する。従って、例えば演奏者によるメロディ演奏又は歌手による歌が盛り上がっても、自動伴奏は予め決められたとおりの画一的な伴奏パターンで独自に進行するだけである。従って、伴奏と演奏、或るいは伴奏と歌とに一体感が得られないという問題があった。
【0004】
このような問題を解消するために、従来、画一的な自動伴奏をリアルタイムに変化させる幾つかの試みがなされている。例えば、打鍵の強さによって伴奏パターンを変化させたり、鍵やスイッチを叩く時間間隔によって伴奏パターンを変化させ、これによって変化に富んだ自動伴奏を行わせる試みがなされている。
【0005】
【発明が解決しようとする課題】
しかしながら、このような試みは特に鍵盤型の電子楽器を対象とするものであり、ピアノ、ギター、管楽器等といったアコースティック楽器や歌は対象外である。従って、これらのアコースティック楽器の演奏者や歌手は、自動伴奏装置が発生する画一的な伴奏パターンに従って演奏し、或いは歌わなければならないという問題が残っている。
【0006】
本発明はこのような問題を解消するためになされたものであり、その目的は、演奏や歌の盛り上がりに応じて伴奏パターンが変化する自動伴奏を行うことのできる自動伴奏装置を提供することにある。
【0007】
【課題を解決するための手段】
本発明の第1の態様に係る自動伴奏装置は、上記目的を達成するために、
伴奏音信号に基づいて伴奏音を自動的に発生する自動伴奏装置であって、
複数の伴奏パターンのそれぞれに対応する複数の自動伴奏データを記憶する自動伴奏データ記憶手段と、
外部からの音量を検出する音量検出手段と、
該音量検出手段における検出結果に応じて該自動伴奏データ記憶手段から1つの自動伴奏データを選択する選択手段と、
該選択手段で選択された自動伴奏データに従って伴奏音信号を生成する伴奏音信号生成手段、とを備えている。
【0008】
自動伴奏データ記憶手段は、例えばリードオンリメモリ(以下、「ROM」と略す)又はランダムアクセスメモリ(以下、「RAM」と略す)で構成できる。自動伴奏データ記憶手段をRAMで構成する場合は、この自動伴奏装置を動作させるに先立って、自動伴奏データが自動伴奏データ記憶手段にロードされる。
【0009】
この自動伴奏データ記憶手段には、複数の曲のそれぞれ対応する複数の自動伴奏データを記憶するように構成できる。この場合、自動伴奏させる曲の種類は、例えば操作パネルに設けた曲選択スイッチで選択するように構成できる。各自動伴奏データは、1曲分の伴奏パターンを発生するための音符データ群で構成できる。各音符データとしては、例えば発音タイミングを規定するステップタイムデータが付加されたMIDIメッセージや、ステップタイム、音高、音長及びベロシティを指定するデータで構成される音符データ、その他種々の形式のデータを用いることができる。また、各自動伴奏データは、複数のパートを担当する音符データ群で構成することができる。
【0010】
上記音量検出手段は、例えばマイクロフォン、A/D変換器及び中央処理装置(以下、「CPU」という)で構成できる。なお、マイクロフォンの代わりに振動ピックアップ、マグネチックピックアップ等を用いてもよい。この音量検出手段は、例えばマイクロフォンからのアナログ信号をA/D変換器でデジタル信号に変換する。そして、この変換により得られたデジタル信号を量子化することにより音量値が得られる。この音量値は、選択手段において自動伴奏データを選択するために使用される。
【0011】
上記選択手段は、音量検出手段で検出された音量値に応じて1つの自動伴奏データを選択する。この選択手段はCPUで構成することができる。この選択手段で選択された自動伴奏データは、伴奏音信号生成手段において、伴奏音信号を生成するために使用される。伴奏音信号生成手段で生成された伴奏音信号は、例えばスピーカに供給される。これにより、この自動伴奏装置において伴奏音信号に基づく伴奏音が発生される。
【0012】
この本発明の第1の態様に係る自動伴奏装置によれば、複数の伴奏パターンのそれぞれに対応して自動伴奏データが作成されるので、音量検出手段で検出された音量値に応じて伴奏パターンが変化することになる。例えば、選択手段は、音量値が所定値以下の場合は通常の伴奏パターンに対応する自動伴奏データを選択し、該所定値より大きい場合は複雑なリズムパターンを有する伴奏パターンに対応する自動伴奏データを選択するように構成することができる。
【0013】
この構成によれば、通常の演奏又は歌が行われている状態ではマイクロフォンから入力される音量値が所定値以下になるので通常の伴奏パターンで伴奏音が発生されるが、演奏又は歌が盛り上がることによってマイクロフォンから入力される音量値が所定値を超えると複雑なリズムパターンを有する伴奏パターンで伴奏音が発生されるように変化する。従って、演奏や歌の盛り上がりに合わせて自動伴奏音を変化させることができる。
【0014】
前記選択手段は、前記音量検出手段で検出された複数の音量を表す値の平均値に基づいて前記自動伴奏データ記憶手段から1つの自動伴奏データを選択するように構成できる。この構成によれば、瞬間的に演奏や歌の音量が大きくなっても、平均音量が所定値より小さければ直ちに伴奏パターンが変化することはない。従って、全体的な曲の盛り上がりに従って徐々に複雑なリズムパターンでの自動伴奏に移行させることができる。
【0015】
前記選択手段は、前記音量検出手段で検出された複数の音量を表す値の変化パターンに基づいて前記自動伴奏データ記憶手段から1つの自動伴奏データを選択するように構成できる。この構成によれば、音量変化のパターンに応じて伴奏パターンを変化させることができるので、演奏者又は歌手は恣意的に音量を特定のパターンで変化させることにより、所望の伴奏パターンによる自動伴奏を行わせることができる。
【0016】
なお、この構成では、音量変化のパターンによって伴奏パターンを変化させるように構成しているが、音量変化のパターンによって伴奏を停止させたり、再開させたり、或いはリズムや音色を変更したりするように構成することもできる。
【0017】
また、本発明の第2の態様に係る自動伴奏装置は、上記と同様の目的で、
伴奏音信号に基づいて伴奏音を自動的に発生する自動伴奏装置であって、
複数の伴奏パターンのそれぞれに対応する複数の自動伴奏データを記憶する自動伴奏データ記憶手段と、
ソロイストの状態を検出する検出手段と、
該検出手段における検出結果に応じて該自動伴奏データ記憶手段から1つの自動伴奏データを選択する選択手段と、
該選択手段で選択された自動伴奏データに従って伴奏音信号を生成する伴奏音信号生成手段、とを備えている。
【0018】
自動伴奏データ記憶手段は、上述した本発明の第1の態様に係る自動伴奏装置と同様にROM又はRAMで構成できる。また、この自動伴奏データ記憶手段に記憶する自動伴奏データも、上述した本発明の第1の態様に係る自動伴奏装置と同様に作成できる。
【0019】
上記検出手段は、演奏者又は歌手といったソロイストの状態を検出するセンサ、A/D変換器及びCPUで構成される。この検出手段は、例えばセンサからのアナログ信号をA/D変換器でデジタル信号に変換する。そして、この変換により得られたデジタル信号を量子化することによりセンサ値を得る。このセンサ値は、選択手段において自動伴奏データを選択するために使用される。
【0020】
上記選択手段は、検出手段における検出結果、つまりセンサ値に応じて1つの自動伴奏データを選択する。この選択手段はCPUで構成することができる。この選択手段で選択された自動伴奏データは、伴奏音信号生成手段において、伴奏音信号を生成するために使用される。伴奏音信号生成手段で生成された伴奏音信号は、例えばスピーカに供給される。これにより、この自動伴奏装置において伴奏音信号に基づく伴奏音が発生される。
【0021】
この本発明の第2の態様に係る自動伴奏装置によれば、複数の伴奏パターンのそれぞれに対応して自動伴奏データが作成されるので、検出手段で検出されたセンサ値に応じて伴奏パターンが変化することになる。例えば、選択手段は、センサ値が所定値以下の場合は通常の伴奏パターンに対応する自動伴奏データを選択し、該所定値より大きい場合は複雑なリズムパターンを有する伴奏パターンに対応する自動伴奏データを選択するように構成することができる。
【0022】
この構成によれば、ソロイストが通常の演奏又は歌を行っている状態ではセンサからのセンサ値が所定値以下になるので通常の伴奏パターンで伴奏音が発生されるが、演奏又は歌が盛り上がることによってソロイストが興奮状態になり、これによってセンサからのセンサ値が所定値を超えると複雑なリズムパターンを有する伴奏パターンで伴奏音が発生されるように変化する。従って、ソロイストの状態に合わせて自動伴奏音を変化させることができる。
【0023】
また、前記選択手段は、前記選択手段は、前記検出手段で検出された複数の、ソロイストの状態を表す値の平均値に基づいて前記自動伴奏データ記憶手段から1つの自動伴奏データを選択するように構成できる。この構成によれば、この構成によれば、瞬間的にセンサ値が大きくなっても、センサ値の平均値が所定値より小さければ直ちに伴奏パターンが変化することはない。従って、全体的な曲の盛り上がり、つまりソロイストの興奮状態が高まるに従って徐々に複雑なリズムパターンでの自動伴奏に移行させることができる。
【0024】
また、前記選択手段は、前記検出手段で検出された複数の、ソロイストの状態を表す値の平均値に基づいて前記自動伴奏データ記憶手段から1つの自動伴奏データを選択するように構成できる。この構成によれば、センサ値の変化のパターンに応じて伴奏パターンを変化させることができるので、ソロイストの興奮状態に応じた伴奏パターンによる自動伴奏を行わせることができる。
【0025】
更に、前記ソロイストの状態は、ソロイストの体温、心拍数及び発汗量の少なくとも1つとすることができる。この場合、選択手段は、センサからのソロイストの体温、心拍数及び発汗量のセンサ値に基づいて自動伴奏データを選択するように構成してもよいし、これらの2つ以上の組み合わせに基づいて自動伴奏データを選択するように構成してもよい。例えば、選択手段は、心拍数が所定値以下の場合は通常の伴奏パターンに対応する自動伴奏データを選択し、該所定値より大きい場合は複雑なリズムパターンを有する伴奏パターンに対応する自動伴奏データを選択するように構成することができる。
【0026】
【発明の実施の形態】
以下、本発明の自動伴奏装置の実施の形態につき図面を参照しながら詳細に説明する。なお、この実施の形態では、自動伴奏装置は、音量変化パターンに応じて伴奏パターンを変更しながら動作するものとする。
【0027】
図1は、本発明の実施の形態に係る自動伴奏装置の構成を示すブロック図である。本自動伴奏装置は、アドレスバス20及びデータバス21によって相互に接続されたCPU10、プログラムメモリ11、ワークメモリ12、操作パネル13、音量変化パターンテーブル14、自動伴奏データテーブル15及び音源16で構成されている。アドレスバス20は、上記各要素間でアドレス信号を、データバス21はデータ信号をそれぞれ送受するために使用される。
【0028】
CPU10は、プログラムメモリ11に記憶されている制御プログラムに従って自動伴奏装置の全体を制御する。このCPU10が行う処理の詳細については後にフローチャートを参照しながら詳細に説明する。このCPU10には、A/D変換器18及びタイマ10aが接続されている。また、A/D変換器18にはマイクロフォン19が接続されている。
【0029】
マイクロフォン19は、楽器音又は歌声を入力するために使用される。このマイクロフォン19からのアナログ信号はA/D変換器18でデジタル信号に変換された後、CPU10に供給される。CPU10は、このデジタル信号(以下、「音量データ」という)に基づいて音量変化パターンを得る。
【0030】
また、タイマ10aは一定時間間隔でタイマ割込信号を発生する。CPU10は、このタイマ割込信号に応じて、A/D変換器18からのデジタル信号を取り込み、順次音量レベルレジスタ(詳細は後述)に格納する。
【0031】
プログラムメモリ11は、例えばROMで構成されている。このプログラムメモリ11には、上述した制御プログラムの他に、CPU10が使用する種々の固定データが記憶されている。また、このプログラムメモリ11には、複数の楽器音に対応する複数の音色パラメータが音域毎に記憶されている。1つの音色パラメータは、所定の楽器音の所定の音域の音色を指定するために使用される。各音色パラメータは、例えば波形アドレス、周波数データ、エンベロープデータ、フィルタ係数等で構成されている。
【0032】
なお、このプログラムメモリ11はRAMで構成ですることもきる。この場合、自動伴奏装置を動作させるに先立って、上記制御プログラム、固定データ、音色パラメータ等を、例えばフロッピーディスク、磁気ディスク、光ディスク、ROMカード、CD−ROM等といった記憶媒体からプログラムメモリにロードするように構成すればよい。
【0033】
ワークメモリ12はRAMで構成されている。このワークメモリ12は、CPU10が種々のデータを一時的に記憶するために使用される。このワークメモリ12には、この自動伴奏装置を制御するための各種レジスタ、カウンタ、フラグ等が定義されている。これらの詳細については後述する。
【0034】
操作パネル13には、例えば図2に示すように、自動伴奏スイッチ130、インジケータ131、曲選択スイッチ132、ディスプレイ装置133が設けられている。なお、実際の自動伴奏装置には、上記以外に音色選択スイッチ、音響効果選択スイッチ、音量スイッチ、種々のインジケータ等が設けられているが、図2には、本発明の説明に必要なもののみが示されている。
【0035】
自動伴奏スイッチ130は例えば押釦スイッチで構成され、ユーザが自動伴奏の開始及び停止を制御するために使用される。この自動伴奏装置では、自動伴奏スイッチ130が押される毎に自動伴奏モードと停止モードとが交互に設定される。現在何れのモードにあるかは、後述する自動伴奏フラグによって記憶される。インジケータ131は、自動伴奏モードである場合に点灯し、停止モードである場合に消灯するように制御される。
【0036】
曲選択スイッチ132は、アップスイッチ132aとダウンスイッチ132bとで成るアップダウンスイッチで構成されている。アップスイッチ132a及びダウンスイッチ132bは例えば押釦スイッチで構成できる。アップスイッチ132aは曲番号をインクリメントし、ダウンスイッチ132bは曲番号をデクリメントするために使用される。この曲選択スイッチ132によって選択された曲番号は、後述する曲番号レジスタに記憶される。
【0037】
ディスプレイ装置133は、LCD、LED、CRTその他の表示器で構成することができる。このディスプレイ装置133は種々のメッセージを表示するために使用される。上述した曲番号はこのディスプレイ装置133に表示され、その表示内容(曲番号)は曲選択スイッチ132が操作される毎に変化する。
【0038】
操作パネル13には、図示しないパネルインタフェース回路が含まれている。このパネルインタフェース回路は、CPU10からの指令に応じて操作パネル13上の各スイッチをスキャンする。パネルインタフェース回路は、このスキャンにより得られた各スイッチの開閉状態を示す信号に基づいて、各スイッチをそれぞれ1ビットに対応させたパネルデータを作成する。各ビットは、例えば「1」でスイッチオン、「0」でスイッチオフ状態を表す。このパネルデータは、データバス21を介してCPU10に送られる。このパネルデータは、操作パネル13上の各スイッチのオン又はオフイベントが発生したかどうかを判断するために使用される。
【0039】
また、パネルインタフェース回路は、CPU10から送られてきた文字、数字、記号等を表示するためのデータをディスプレイ装置133に送り、また、インジケータを点灯するためのデータをインジケータ131に送る。これにより、CPU10から送られてきた例えば文字、数字、記号等のデータに従ったメッセージがディスプレイ装置133に表示され、またインジケータ131が点灯又は消灯される。
【0040】
自動伴奏データテーブル15は、例えばROMで構成されている。この自動伴奏データテーブル15には、例えば図3に示すように、m×n個(mは2以上の整数、nは1以上の整数)の自動伴奏データが記憶されている。これにより、n種類の曲の伴奏をm種類の伴奏パターンで自動伴奏できるようになっている。各自動伴奏データの先頭は、アドレスADDRij(i=1、2、・・・nであり、j=1、2、・・・mである)で指定される。
【0041】
各自動伴奏データは、例えば図4に示すように、複数の音符データと自動伴奏データの終わりを表すENDデータとで構成されている。各音符データは1音を発生するために使用される。各音符データは、キーナンバ、ステップタイム、ゲートタイム及びベロシティと呼ばれる各1バイトのデータで構成されている。ENDデータは、キーナンバ及びステップタイムと呼ばれる各1バイトのデータで構成される。
【0042】
「キーナンバ」の最上位ビットは、当該データが音符データであるかENDデータであるかを識別するために使用される。この最上位ビットが音符データであることを表している場合は、以下の7ビットはキーナンバとして使用される。一方、最上位ビットがENDデータであることを表している場合は、以下の7ビットは使用されない。キーナンバは鍵盤装置の各鍵に付された番号に対応するものであり、音高を指定するために使用される。
【0043】
「ステップタイム」は発音開始のタイミング(時刻)を指定するために使用される。「ゲートタイム」は発音すべき音の長さ(音長)を指定するために使用される。「ベロシティ」は発音すべき音の強さを指定するために使用される。1つの伴奏パターンに対応する自動伴奏データは、このような音符データ及びENDデータがステップタイム順に並べられて構成されている。
【0044】
なお、本実施の形態では、自動伴奏データとして、図4に示した音符データを用いたが、ステップタイムデータが付されたMIDIメッセージで構成することもできる。また、自動伴奏データとしては、その他の種々の形式のデータを用いることができる。
【0045】
また、自動伴奏データテーブル15は、ROMに限定されず、RAM、ROMカード、RAMカード、フロッピーディスク、CD−ROM等で構成できる。自動伴奏データテーブル15としてフロッピーディスク、CD−ROMを用いる場合は、これらに記憶された自動伴奏データを一且ワークメモリ12にロードし、ワークメモリ12内の自動伴奏データに基づき自動伴奏を行うように構成するのが好ましい。また、自動伴奏データテーブル15としてRAMを用いる場合は、本自動伴奏装置を動作させるに先立って、例えばフロッピーディスク、磁気ディスク、光ディスク、ROMカード、CD−ROM等といった記憶媒体に格納されている自動伴奏データを自動伴奏データメモリ(RAM)にロードするように構成すればよい。
【0046】
音量変化パターンテーブル14は、例えばROMで構成されている。この音量変化パターンテーブル14は、例えば図5に示すように、m×n個の音量変化パターンと自動伴奏データの先頭アドレスとを対応付けるために使用される。各音量変化パターンは、一定時間毎にサンプリングされた4個の音量データ(aij、bij、cij及びdij)によって構成されている。なお、音量変化パターンに含まれる音量データは4個に限らず、任意の数とすることができる。この数が大きくなるにつれて音量変化パターンを細かく定義することができる。
【0047】
この音量変化パターンテーブル14では、各音量変化パターンに対応して各曲の自動演奏データの先頭アドレスADDRijが記憶されている。所定の音量変化パターンが検出された場合に、該音量変化パターンに対応する自動伴奏データの先頭アドレスADDRijがこの音量変化パターンテーブル14から読み出され、音符データの読み出しアドレスを決定するために使用される。
【0048】
音源16は複数の発音チャンネルを備えている。この音源16は、詳細は図示しないが、波形メモリ、波形読出回路、エンベロープ生成回路、D/A変換器等により構成されている。波形メモリは例えばROMで構成され、各音色パラメータに対応する波形データを記憶している。波形データは、例えば楽器音に対応する楽音信号をパルスコード変調(PCM)することによって作成できる。波形読出回路は、この波形メモリから波形データを読み出す。エンベロープ生成回路は、この波形読出回路で読み出された波形データにエンベロープを付加するためのエンベロープ信号を生成する。
【0049】
CPU10は、音符データが自動伴奏データテーブル15から読み出されると、少なくとも1個の発音チャンネルを発音用に割り当て、この割り当てられた発音チャンネルに音色パラメータを供給する。この発音チャンネルは、音色パラメータを受け取ることにより楽音信号の生成を開始する。即ち、音色パラメータ中の波形アドレスで示される波形メモリの位置から、同じく音色パラメータ中の周波数データに応じた速度で波形データを順次読み出し、これに音色パラメータ中のエンベロープデータで指定されるエンベロープを付加し、以て楽音信号を生成する。この音源16で生成された楽音信号は、スピーカ17に供給される。そして、このスピーカ17で音響信号に変換されて放音される。
【0050】
次に、ワークメモリ12に定義さる主要なレジスタ、カウンタ、フラグ等について説明する。なお、下記以外のレジスタ、カウンタ、フラグ等については出現の都度説明する。
【0051】
(1)自動伴奏フラグ:本自動伴奏装置が自動伴奏モードにあるか停止モードにあるかを記憶する。
(2)音量レベルレジスタ:タイマ割込が発生する毎にその時点の音量データを順次格納する。このレジスタはスタック構造を有する。
(3)音量変化パターンレジスタ:現在の音量変化パターンを記憶する。音量レベルレジスタが満杯になった場合にその内容がセットされる。
(4)読出アドレスレジスタ:現在処理中の自動伴奏データの先頭アドレスADDRijが格納される。
(5)カレントポインタ:現在処理中である自動伴奏データ内の音符データが置かれている位置を指定する。このカレントポインタの内容は、読出アドレスレジスタの内容からの相対値である。
(6)ステップタイムカウンタ:自動伴奏の進行を管理する。曲の先頭でゼロにクリアされ、以後1ステップタイム毎にインクリメントされる。ここで1ステップタイムとは、例えば1拍の1/24、1/48、1/96等といった時間をいい、自動伴奏装置で固有に決められる。この1ステップタイムの絶対時間はテンポによって決定される。
(7)読出タイミングカウンタ:1ステップタイムに相当する時間でラウンドするカウンタである。この読出タイミングカウンタの内容が最大値からゼロに変化した場合に、発音タイミングになったかどうかを調べるタイミング(以下、「チェックタイミング」という)であると判断される。
(8)曲番号レジスタ:操作パネル13の曲選択スイッチ132によって選択された曲の曲番号を記憶する。
(9)新パネルデータレジスタ:今回のスキャンで操作パネル13から得られたパネルデータを記憶する。
(10)旧パネルデータレジスタ:前回のスキャンで操作パネル13から得られたパネルデータを記憶する。
【0052】
次に、以上の構成において、図6〜図10に示したフローチャートを参照しながら本発明の実施の形態に係る自動伴奏装置の動作について説明する。なお、上記フローチャートに示された処理は、何れもCPU10によって行われる。
【0053】
図6は本自動伴奏装置のメイン処理を示すフローチャートである。このメイン処理ルーチンは電源の投入又は図示しないリセットスイッチの押下により起動される。メイン処理では、先ず、初期化処理が行われる(ステップS10)。この初期化処理では、CPU10の内部のハードウェアが初期状態に設定されると共に、ワークメモリ12に定義されているレジスタ、カウンタ、フラグ等に初期値が設定される。また、この初期化処理では、電源投入時に不要な音が発生されるのを防止するために、音源16に所定のデータが送られる。
【0054】
この初期化処理が終了すると、次いで、パネル処理が行われる(ステップS11)。このパネル処理においては、操作パネル13上の各種スイッチの操作に応じて、その操作されたスイッチの機能を実現するための処理が行われる。このパネル処理の詳細は後述する。
【0055】
次いで、伴奏パターン切換処理が行われる(ステップS12)。この伴奏パターン切換処理では、音量変化パターンに応じて伴奏パターンを切り換える処理が行われる。この伴奏パターン切換処理の詳細は後述する。
【0056】
次いで、自動伴奏処理が行われる(ステップS13)。この自動伴奏処理では、自動伴奏データに基づく発音処理が行われる。この自動伴奏処理の詳細についても後述する。
【0057】
次いで、「その他の処理」が行われる(ステップS14)。この「その他の処理」では、上述した以外の処理、例えば図示しないMIDIインタフェースからのMIDIメッセージの送受処理等が行われる。その後シーケンスはステップS11に戻り、以下ステップS11〜S14の各処理が繰り返される。この繰り返し実行の過程で、操作パネル13が操作されるとそれらに応じた処理が行われ、音量レベルレジスタが満杯になると伴奏パターンを切り換える処理が行われ、また自動伴奏データに基づく発音処理が行われる。これにより自動伴奏装置としての各種機能が実現されている。
【0058】
次に、タイマ割込処理について、図7のフローチャートを参照しながら説明する。タイマ割込処理は、タイマ10aから一定周期で発生されるタイマ割込信号に応じて、上記メイン処理に割り込んで行われる。従って、タイマ割込処理は、上述したメイン処理と並行して行われることになる。
【0059】
タイマ割込処理では、先ず音量レベルの読み込みが行われる(ステップS20)。即ち、CPU10は、A/D変換器18から音量データを読み込む。この音量データは、その時点でマイクロフォン19からA/D変換器18に供給されている信号の振幅を表す。次いで、この音量データは、音量レベルレジスタに格納される(ステップS21)。ここで、音量レベルレジスタは、4個の音量データを記憶できるように構成されており、音量データは順次この音量レベルレジスタにスタックされる。
【0060】
次いで、音量レベルレジスタが満杯であるかどうかが調べられる(ステップS22)。即ち、音量レベルレジスタに4個の音量データが格納されたかどうかが調べられる。そして、満杯であることが判断されると、音量レベルレジスタの内容が音量変化パターンレジスタに格納される(ステップS23)。これにより、以後はこの音量変化パターンレジスタに格納された新しい音量変化パターンに従って自動伴奏が行われることになる。
【0061】
次いで、音量レベルレジスタの内容がクリアされる(ステップS24)。これにより、次回のタイマ割込処理では、最初から音量データのスタックが再開される。その後、シーケンスはメイン処理ルーチンの割り込まれた位置にリターンする。上記ステップS22で音量レベルレジスタが満杯でないことが判断されると、未だ4個の音量データが得られていないものと認識され、シーケンスはメイン処理ルーチンの割り込まれた位置にリターンする。
【0062】
次に、パネル処理について、図8のフローチャートを参照しながら説明する。このパネル処理ルーチンは、メイン処理ルーチンから一定周期でコールされる。
【0063】
パネル処理では、先ず、スイッチイベントの有無が調べられる(ステップS30)。これは以下の手順で行われる。先ず、CPU10は、操作パネル13からパネルデータ(以下、「新パネルデータ」という)を読み込み、新パネルデータレジスタに格納する。次いで、この新パネルデータと、前回のパネル処理で読み込まれて既に旧パネルデータレジスタに記憶されているパネルデータ(以下、「旧パネルデータ」という)との排他的論理和をとってパネルイベントマップを作成する。このパネルイベントマップの全ビットがゼロであればスイッチイベントは発生しなかったものと判断され、そうでなければスイッチイベントが発生したものと判断される。
【0064】
このステップS30でスイッチイベントがないことが判断されると、シーケンスはこのパネル処理ルーチンからメイン処理ルーチンにリターンする。一方、スイッチイベントがあることが判断されると、次いで、自動伴奏スイッチ130のオンイベントがあるかどうかが調べられる(ステップS31)。これは、パネルイベントマップ中の自動伴奏スイッチ130に対応するビットが「1」であり、且つ新パネルデータ中の自動伴奏スイッチ130に対応するビットが「1」であるかどうかを調べることにより行われる。ここで、自動伴奏スイッチ130のオンイベントがないことが判断されると、シーケンスはステップS36へ分岐する。
【0065】
上記ステップS31で、自動伴奏スイッチ130のオンイベントがあることが判断されると、次いで、自動伴奏モードであるかどうかが調べられる(ステップS32)。これは、自動伴奏フラグを調べることにより行われる。自動伴奏モードであるかどうかの判断は、以下においても同じ方法で行われる。
【0066】
そして、自動伴奏モードであることが判断されると、自動伴奏フラグが「0」にクリアされ(ステップS33)、その後シーケンスはステップS36に進む。一方、自動伴奏モードでないことが判断されると自動伴奏フラグが「1」にセットされ(ステップS34)、次いで、読出アドレスが初期設定される(ステップS35)。この処理では、その時点で選択されている曲(曲番号レジスタに曲番号iとして格納されている)の最初の伴奏パターンに対応する自動伴奏データの先頭アドレスADDRi1が読出アドレスレジスタに格納される。また、カレントポインタの内容がゼロに設定される。またステップタイムカウンタの内容がゼロにクリアされる。更に、読出タイミングカウンタのカウントアップ動作が開始される。その後シーケンスはステップS36に分岐する。
【0067】
上記ステップS32〜S34の処理により、自動伴奏スイッチ130が押される度に自動伴奏モードと停止モードとが交互に反転されるトグル機能が実現されている。また、上記ステップS35の処理により、自動伴奏データテーブル15内の音符データを実際に読み出すアドレス(以下、「実効読出アドレス」という)が決定される。この実効読出アドレスは、読出アドレスレジスタの内容とカレントポインタの内容を加算することにより算出される。ここで、カレントポインタの内容はゼロに設定されるので、自動伴奏データテーブル15の実効読出アドレスADDRi1で指定される位置から音符データの読み出しが開始されることになる。
【0068】
ステップS36では、曲選択スイッチ132のオンイベントがあるかどうかが調べられる。これは、パネルイベントマップ中のアップスイッチ132a又はダウンスイッチ132bの中の何れかに対応するビットが「1」であり、且つ新パネルデータ中の当該スイッチに対応するビットが「1」であるかどうかを順次調べることにより行われる。ここで、曲選択スイッチ132の中の何れかのスイッチのオンイベントがあることが判断されると、そのスイッチに対応する曲番号が、曲番号レジスタにセットされる(ステップS37)。即ち、アップスイッチ132aのオンイベントであれば曲番号レジスタの内容がインクリメントされ、ダウンスイッチ132bのオンイベントであれば曲番号レジスタの内容がデクリメントされる。上記ステップS36で曲選択スイッチ132のイベントがないことが判断されると、ステップS37はスキップされる。
【0069】
次いで、「その他のスイッチ処理」が行われる(ステップS38)。この「その他のスイッチ処理」では、例えば音色選択スイッチのイベントに応じた音色変更処理が行われる。そして、最後に、新パネルデータが旧パネルデータレジスタに移動され(図示しない)、パネル処理は終了する。
【0070】
次に、伴奏パターン切換処理について、図9のフローチャートを参照しながら説明する。
【0071】
この伴奏パターン切換処理では、先ず、音量変化パターンテーブル14の検索開始アドレスがワークメモリ12に設けられたワークカウンタXにセットされる(ステップS40)。ここで、検索開始アドレスとは、音量変化パターンテーブル14中の現在伴奏中の曲に対応する部分の先頭アドレス(音量変化パターンテーブル14内に自動伴奏データアドレスとして「ADDRi1」が格納されているエントリのアドレス)をいう。
【0072】
次いで、ワークカウンタXで示される音量変化パターンテーブル14の位置から1つの音量変化パターンが読み出される(ステップS41)。そして、この読み出された音量変化パターンと音量変化パターンレジスタの内容とが比較され(ステップS41)、一致するかどうかが調べられる(ステップS43)。上記ステップS42では、上述した両者が完全に一致するかどうかが調べられる。このステップS42では、上述した両者が類似するかどうか(一定の幅をもって一致するかどうか)を調べるように構成することもできる。例えば、音量変化パターンレジスタ内の各音量データが、音量変化パターンテーブル14内の各音量データに対してそれぞれ所定の範囲内の値を有する場合に一致するといみなすように構成できる。この構成によれば、音量変化パターンテーブル14に格納するデータの量を減らすことができる。
【0073】
上記ステップS43で一致しないことが判断されると、次いで、ワークカウンタXの内容がインクリメントされる(ステップS44)。これにより、ワークカウンタXの内容は、音量変化パターンテーブル14の次のエントリを指すように更新される。次いで、終了か否かが調べられる(ステップS45)。これは、音量変化パターンテーブル14中の現在伴奏中の曲に対応する部分の最後尾アドレス(音量変化パターンテーブル14内に自動伴奏データアドレスとして「ADDRim」が格納されているエントリのアドレス)になったかどうかを調べることにより行われる。そして、終了でないことが判断されると、ステップS41へ分岐し、以下同様の処理が繰り返される。
【0074】
一方、上記ステップS45で終了であることが判断されると、音量変化パターンテーブル14中に一致する音量変化パターンが存在しないことが認識され、伴奏パターンの切換を行うことなく、この伴奏パターン切換処理ルーチンからメイン処理ルーチンにリターンする。
【0075】
上記ステップS43で一致することが判断されると、次いで、音量変化パターンテーブル14の当該エントリの自動伴奏データアドレスADDRijが読出アドレスレジスタにセットされる(ステップS46)。この場合、音量変化パターンが変わるとjが変化することになる。これにより、以後の実効読出アドレスは、新たな自動伴奏データアドレスADDRijとカレントポインタの内容とが加算されることによって算出される。従って、自動伴奏データの読出位置が変更され、結果として伴奏パターンが切換られる。
【0076】
次に、自動伴奏処理について、図10のフローチャートを参照しながら説明する。この自動伴奏処理ルーチンは、メイン処理ルーチンから一定周期でコールされる。
【0077】
自動伴奏処理では、先ず、自動伴奏モードであるかどうかが調べられる(ステップS50)。そして、自動伴奏モードでないことが判断されると、シーケンスはこの自動伴奏処理ルーチンからメイン処理ルーチンにリターンする。即ち、自動伴奏処理ルーチンはメイン処理ルーチンから一定周期でコールされるが、自動伴奏モードでなければ直ちにメイン処理ルーチンに戻るという処理により、自動伴奏の停止機能が実現されている。
【0078】
一方、自動伴奏モードであることが判断されると、チェックタイミングであるかどうかが調べられる(ステップS51)。これは、読出タイミングカウンタの内容が、最大値からゼロにラウンドしたかどうかを調べることにより行われる。ここで、チェックタイミングでないことか判断されると、未だ前回の自動伴奏処理から1ステップタイムが経過していないことが認識され、シーケンスはこの自動伴奏処理ルーチンからメイン処理ルーチンにリターンする。
【0079】
一方、チェックタイミングであることが判断されると、次いで、実効読出アドレスで指定される音符データ又はENDデータ中のステップタイムSTEPとステップタイムカウンタの内容COUNTとが比較される(ステップS52)。そして、これらが一致しないことが判断されると、当該ステップタイムSTEPが含まれた音符データ又はENDデータは未だ実行タイミングに至っていないものと認識される。そして、ステップタイムカウンタの内容COUNTがインクリメントされ(ステップS53)、その後シーケンスはこの自動伴奏処理ルーチンからメイン処理ルーチンにリターンする。これにより、1ステップタイム毎にステップタイムカウンタの内容かインクリメントされる機能が実現されている。
【0080】
このようにしてステップタイムカウンタの内容COUNTが順次インクリメントされた結果、ステップS52でステップタイムSTEPとステップタイムカウンタの内容COUNTとが一致したことが判断されると、当該ステップタイムSTEPが含まれる音符データ又はENDデータは実行タイミングに至ったものと判断され、その音符データ又はENDデータが、自動伴奏データテーブル15から読み出される(ステップS54)。
【0081】
そして、そのデータはENDデータであるかどうかが調べられる(ステップS55)。これは、そのデータの第1バイト目の最上位ビットを調べることにより行われる。ここで、ENDデータであることが判断されると、自動伴奏データの最後に至ったことが認識され、読出アドレスの初期設定が行われる(ステップS56)。このステップS56の処理は、上述したパネル処理のステップS35の処理と同じである。これにより、同一曲の伴奏を繰り返す機能が実現されている。なお、自動伴奏を繰り返す必要のない装置では、このステップS56で自動伴奏フラグをゼロにクリアすればよい。
【0082】
上記ステップS55でENDデータでないことが判断されると、当該データは音符データであることが認識され、発音処理が行われる(ステップS57)。発音処理では、音符データ中のキーナンバに対応する音色パラメータがプログラムメモリ11から読み出されて音源16に送られる。これにより、音符データに応じた音がスピーカ17から発生される。
【0083】
次いで、カレントポインタがインクリメントされる(ステップS58)。より具体的には、カレントポインタの内容が「+4」される。その後、ステップS52に戻り、同様の処理が繰り返される。これにより、同一ステップタイムSTEPを有する全ての音符データに基づく音が発音される。
【0084】
以上説明した例では、自動伴奏データは予め自動伴奏データテーブル15に記憶されているものとしたが、ユーザが作成した自動伴奏データに基づいて自動伴奏を行うように構成することもできる。この場合、自動伴奏データテーブル15は、RAMで構成される。この自動伴奏データテーブル15に記憶する自動伴奏データは例えば鍵盤装置を用いて生成することができる。この場合、鍵盤装置の代わりにMIDIインタフェース回路を用いることもできる。MIDIインタフェース回路が用いられる場合は、鍵盤装置で発生される鍵盤データの代わりに、MIDIインタフェース回路で受信されたMIDIメッセージに含まれるノートオンデータが使用される。
【0085】
【発明の効果】
以上詳述したように、本発明によれば、演奏や歌の盛り上がりに応じて伴奏パターンが変化する自動伴奏を行うことのできる自動伴奏装置を提供できる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る自動伴奏装置の構成を示すブロック図である。
【図2】本発明の実施の形態に係る自動伴奏装置で使用される操作パネルの構成を示す図である。
【図3】本発明の実施の形態に係る自動伴奏装置で使用される自動伴奏データテーブルの一例を示す図である。
【図4】本発明の実施の形態に係る自動伴奏装置で使用される自動伴奏データ形式の一例を示す図である。
【図5】本発明の実施の形態に係る自動伴奏装置で使用される音量変化パターンテーブルの一例を示す図である。
【図6】本発明の実施の形態に係る自動伴奏装置のメイン処理を示すフローチャートである。
【図7】本発明の実施の形態に係る自動伴奏装置のタイマ割込処理を示すフローチャートである。
【図8】本発明の実施の形態に係る自動伴奏装置のパネル処理を示すフローチャートである。
【図9】本発明の実施の形態に係る自動伴奏装置の伴奏パターン切換処理を示すフローチャートである。
【図10】本発明の実施の形態に係る自動伴奏装置の自動伴奏処理を示すフローチャートである。
【符号の説明】
10 CPU
10a タイマ
11 プログラムメモリ
12 ワークメモリ
13 操作パネル
14 音量変化パターンテーブル
15 自動伴奏データテーブル
16 音源
17 スピーカ
18 A/D変換器
19 マイクロフォン
20 アドレスバス
21 データバス
130 自動伴奏スイッチ
131 インジケータ
132 曲選択スイッチ
133 ディスプレイ装置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an automatic accompaniment apparatus that automatically generates a musical accompaniment sound, and more particularly to a technique for changing an accompaniment pattern in response to external factors.
[0002]
[Prior art]
Conventionally, an automatic accompaniment apparatus that performs automatic accompaniment according to automatic accompaniment data corresponding to one song is known. The user can play a musical instrument or sing a song in accordance with the accompaniment sound generated by the automatic accompaniment apparatus. The “automatic accompaniment device” in this specification is not a device that repeatedly generates an accompaniment sound consisting of a rhythm pattern of several measures, but generates an accompaniment sound of the entire song, such as a sequencer or a karaoke device. Refers to the device.
[0003]
However, this conventional automatic accompaniment device generates an accompaniment sound that faithfully follows the automatic accompaniment data, regardless of the circumstances surrounding the automatic accompaniment device. Therefore, for example, even if a performer's melody performance or a singer's song swells, the automatic accompaniment only proceeds independently with a uniform accompaniment pattern as determined in advance. Therefore, there is a problem that it is not possible to obtain a sense of unity between accompaniment and performance, or accompaniment and song.
[0004]
In order to solve such a problem, several attempts have been made to change a uniform automatic accompaniment in real time. For example, attempts have been made to change the accompaniment pattern according to the strength of the keystroke, or to change the accompaniment pattern according to the time interval of hitting a key or switch, thereby performing a variety of automatic accompaniment.
[0005]
[Problems to be solved by the invention]
However, such attempts particularly target keyboard-type electronic musical instruments, and exclude acoustic instruments and songs such as pianos, guitars, and wind instruments. Therefore, there remains a problem that players and singers of these acoustic musical instruments must perform or sing according to a uniform accompaniment pattern generated by the automatic accompaniment apparatus.
[0006]
The present invention has been made to solve such a problem, and an object of the present invention is to provide an automatic accompaniment apparatus capable of performing an automatic accompaniment in which an accompaniment pattern changes according to the performance or excitement of a song. is there.
[0007]
[Means for Solving the Problems]
In order to achieve the above object, an automatic accompaniment apparatus according to the first aspect of the present invention is provided.
An automatic accompaniment device that automatically generates an accompaniment sound based on an accompaniment sound signal,
Automatic accompaniment data storage means for storing a plurality of automatic accompaniment data corresponding to each of a plurality of accompaniment patterns;
Volume detection means for detecting the volume from the outside,
Selection means for selecting one automatic accompaniment data from the automatic accompaniment data storage means according to the detection result in the volume detection means;
Accompaniment sound signal generation means for generating an accompaniment sound signal according to the automatic accompaniment data selected by the selection means.
[0008]
The automatic accompaniment data storage means can be composed of, for example, a read only memory (hereinafter abbreviated as “ROM”) or a random access memory (hereinafter abbreviated as “RAM”). When the automatic accompaniment data storage means is constituted by a RAM, automatic accompaniment data is loaded into the automatic accompaniment data storage means prior to operating the automatic accompaniment apparatus.
[0009]
The automatic accompaniment data storage means can be configured to store a plurality of automatic accompaniment data respectively corresponding to a plurality of songs. In this case, the type of music to be automatically accompanied can be configured to be selected, for example, by a music selection switch provided on the operation panel. Each automatic accompaniment data can be composed of a note data group for generating an accompaniment pattern for one song. Each note data includes, for example, a MIDI message to which step time data for defining the sound generation timing is added, note data composed of data for specifying step time, pitch, pitch and velocity, and other various types of data. Can be used. Each automatic accompaniment data can be composed of a note data group in charge of a plurality of parts.
[0010]
The sound volume detection means can be composed of, for example, a microphone, an A / D converter, and a central processing unit (hereinafter referred to as “CPU”). Note that a vibration pickup, a magnetic pickup, or the like may be used instead of the microphone. This sound volume detecting means converts an analog signal from, for example, a microphone into a digital signal by an A / D converter. A volume value is obtained by quantizing the digital signal obtained by this conversion. This volume value is used for selecting automatic accompaniment data in the selection means.
[0011]
The selection means selects one automatic accompaniment data according to the volume value detected by the volume detection means. This selection means can be constituted by a CPU. The automatic accompaniment data selected by the selecting means is used by the accompaniment sound signal generating means to generate an accompaniment sound signal. The accompaniment sound signal generated by the accompaniment sound signal generation means is supplied to, for example, a speaker. Thereby, the accompaniment sound based on the accompaniment sound signal is generated in this automatic accompaniment apparatus.
[0012]
According to the automatic accompaniment apparatus according to the first aspect of the present invention, since the automatic accompaniment data is created corresponding to each of the plurality of accompaniment patterns, the accompaniment pattern is determined according to the volume value detected by the volume detection means. Will change. For example, the selection means selects automatic accompaniment data corresponding to a normal accompaniment pattern when the volume value is equal to or lower than a predetermined value, and automatic accompaniment data corresponding to an accompaniment pattern having a complicated rhythm pattern when the volume value is larger than the predetermined value. Can be configured to select.
[0013]
According to this configuration, when the normal performance or song is being performed, the volume value input from the microphone is equal to or lower than the predetermined value, so that an accompaniment sound is generated with a normal accompaniment pattern, but the performance or song is excited. Thus, when the volume value input from the microphone exceeds a predetermined value, the accompaniment sound is changed so as to be generated with an accompaniment pattern having a complicated rhythm pattern. Therefore, it is possible to change the automatic accompaniment sound in accordance with the performance and the excitement of the song.
[0014]
The selection means can be configured to select one automatic accompaniment data from the automatic accompaniment data storage means based on an average value of values representing a plurality of sound volumes detected by the sound volume detection means. According to this configuration, even if the volume of a performance or song instantaneously increases, the accompaniment pattern does not change immediately if the average volume is lower than a predetermined value. Accordingly, it is possible to gradually shift to an automatic accompaniment with a complicated rhythm pattern as the overall music rises.
[0015]
The selection means can be configured to select one automatic accompaniment data from the automatic accompaniment data storage means based on a change pattern of values representing a plurality of sound volumes detected by the sound volume detection means. According to this configuration, since the accompaniment pattern can be changed according to the volume change pattern, the performer or the singer arbitrarily changes the volume in a specific pattern, thereby performing automatic accompaniment with a desired accompaniment pattern. Can be done.
[0016]
In this configuration, the accompaniment pattern is changed according to the volume change pattern, but the accompaniment is stopped, restarted, or the rhythm and tone are changed according to the volume change pattern. It can also be configured.
[0017]
The automatic accompaniment apparatus according to the second aspect of the present invention is similar to the above,
An automatic accompaniment device that automatically generates an accompaniment sound based on an accompaniment sound signal,
Automatic accompaniment data storage means for storing a plurality of automatic accompaniment data corresponding to each of a plurality of accompaniment patterns;
Detecting means for detecting the state of the soroist;
Selection means for selecting one automatic accompaniment data from the automatic accompaniment data storage means according to the detection result in the detection means;
Accompaniment sound signal generation means for generating an accompaniment sound signal according to the automatic accompaniment data selected by the selection means.
[0018]
The automatic accompaniment data storage means can be constituted by a ROM or a RAM as in the automatic accompaniment apparatus according to the first aspect of the present invention described above. Moreover, the automatic accompaniment data memorize | stored in this automatic accompaniment data memory | storage means can be produced similarly to the automatic accompaniment apparatus which concerns on the 1st aspect of this invention mentioned above.
[0019]
The detection means includes a sensor for detecting the state of a soloist such as a performer or a singer, an A / D converter, and a CPU. For example, the detection means converts an analog signal from a sensor into a digital signal by an A / D converter. And a sensor value is obtained by quantizing the digital signal obtained by this conversion. This sensor value is used for selecting automatic accompaniment data in the selection means.
[0020]
The selection means selects one automatic accompaniment data according to the detection result of the detection means, that is, the sensor value. This selection means can be constituted by a CPU. The automatic accompaniment data selected by the selecting means is used by the accompaniment sound signal generating means to generate an accompaniment sound signal. The accompaniment sound signal generated by the accompaniment sound signal generation means is supplied to, for example, a speaker. Thereby, the accompaniment sound based on the accompaniment sound signal is generated in this automatic accompaniment apparatus.
[0021]
According to the automatic accompaniment apparatus according to the second aspect of the present invention, the automatic accompaniment data is created corresponding to each of the plurality of accompaniment patterns, so that the accompaniment pattern is determined according to the sensor value detected by the detecting means. Will change. For example, the selection means selects automatic accompaniment data corresponding to a normal accompaniment pattern when the sensor value is equal to or smaller than a predetermined value, and automatic accompaniment data corresponding to an accompaniment pattern having a complicated rhythm pattern when the sensor value is larger than the predetermined value. Can be configured to select.
[0022]
According to this configuration, when the soloist is performing a normal performance or singing, the sensor value from the sensor is equal to or less than a predetermined value, so that an accompaniment sound is generated with a normal accompaniment pattern, but the performance or singing is excited. As a result, the soloist enters an excited state, and when the sensor value from the sensor exceeds a predetermined value, the accompaniment sound is changed to generate an accompaniment pattern having a complicated rhythm pattern. Therefore, the automatic accompaniment sound can be changed in accordance with the soloist state.
[0023]
Further, the selection means selects one automatic accompaniment data from the automatic accompaniment data storage means based on an average value of a plurality of values representing the soloist state detected by the detection means. Can be configured. According to this configuration, even if the sensor value increases instantaneously, the accompaniment pattern does not change immediately if the average value of the sensor values is smaller than the predetermined value. Accordingly, it is possible to gradually shift to automatic accompaniment with a complicated rhythm pattern as the overall tune rises, that is, the soloist's excitement increases.
[0024]
Further, the selection means can be configured to select one automatic accompaniment data from the automatic accompaniment data storage means based on an average value of a plurality of values representing the soloist state detected by the detection means. According to this configuration, since the accompaniment pattern can be changed according to the sensor value change pattern, automatic accompaniment using the accompaniment pattern according to the soloist's excitement state can be performed.
[0025]
Further, the state of the soloist can be at least one of the body temperature, heart rate and sweating amount of the soloist. In this case, the selection means may be configured to select automatic accompaniment data based on sensor values of the soloist's body temperature, heart rate, and sweating amount from the sensor, or based on a combination of two or more of these. You may comprise so that automatic accompaniment data may be selected. For example, the selection means selects automatic accompaniment data corresponding to a normal accompaniment pattern when the heart rate is equal to or lower than a predetermined value, and automatic accompaniment data corresponding to an accompaniment pattern having a complicated rhythm pattern when the heart rate is larger than the predetermined value. Can be configured to select.
[0026]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the automatic accompaniment apparatus of the present invention will be described in detail with reference to the drawings. In this embodiment, it is assumed that the automatic accompaniment apparatus operates while changing the accompaniment pattern according to the volume change pattern.
[0027]
FIG. 1 is a block diagram showing a configuration of an automatic accompaniment apparatus according to an embodiment of the present invention. The automatic accompaniment apparatus includes a CPU 10, a program memory 11, a work memory 12, an operation panel 13, a volume change pattern table 14, an automatic accompaniment data table 15, and a sound source 16 that are connected to each other by an address bus 20 and a data bus 21. ing. The address bus 20 is used to send and receive address signals between the above elements, and the data bus 21 is used to send and receive data signals.
[0028]
The CPU 10 controls the entire automatic accompaniment apparatus according to a control program stored in the program memory 11. Details of the processing performed by the CPU 10 will be described later in detail with reference to a flowchart. An A / D converter 18 and a timer 10a are connected to the CPU 10. A microphone 19 is connected to the A / D converter 18.
[0029]
The microphone 19 is used for inputting musical instrument sounds or singing voices. The analog signal from the microphone 19 is converted into a digital signal by the A / D converter 18 and then supplied to the CPU 10. The CPU 10 obtains a volume change pattern based on this digital signal (hereinafter referred to as “volume data”).
[0030]
The timer 10a generates a timer interrupt signal at regular time intervals. In response to the timer interrupt signal, the CPU 10 takes in the digital signal from the A / D converter 18 and sequentially stores it in a volume level register (details will be described later).
[0031]
The program memory 11 is composed of a ROM, for example. The program memory 11 stores various fixed data used by the CPU 10 in addition to the control program described above. The program memory 11 stores a plurality of timbre parameters corresponding to a plurality of instrument sounds for each tone range. One tone color parameter is used for designating a tone color of a predetermined range of a predetermined instrument sound. Each tone color parameter is composed of, for example, a waveform address, frequency data, envelope data, filter coefficients, and the like.
[0032]
The program memory 11 can be composed of a RAM. In this case, prior to operating the automatic accompaniment apparatus, the control program, fixed data, timbre parameters, etc. are loaded into the program memory from a storage medium such as a floppy disk, magnetic disk, optical disk, ROM card, CD-ROM, etc. What is necessary is just to comprise.
[0033]
The work memory 12 is composed of a RAM. The work memory 12 is used by the CPU 10 to temporarily store various data. The work memory 12 defines various registers, counters, flags, and the like for controlling the automatic accompaniment apparatus. Details of these will be described later.
[0034]
For example, as shown in FIG. 2, the operation panel 13 is provided with an automatic accompaniment switch 130, an indicator 131, a song selection switch 132, and a display device 133. In addition to the above, the actual automatic accompaniment apparatus is provided with a tone color selection switch, a sound effect selection switch, a volume switch, various indicators, etc., but FIG. 2 shows only those necessary for the explanation of the present invention. It is shown.
[0035]
The automatic accompaniment switch 130 is constituted by a push button switch, for example, and is used by the user to control the start and stop of automatic accompaniment. In this automatic accompaniment device, the automatic accompaniment mode and the stop mode are alternately set every time the automatic accompaniment switch 130 is pressed. Which mode is currently in is stored by an automatic accompaniment flag described later. The indicator 131 is controlled to be turned on when in the automatic accompaniment mode and turned off when in the stop mode.
[0036]
The music selection switch 132 is composed of an up / down switch composed of an up switch 132a and a down switch 132b. The up switch 132a and the down switch 132b can be constituted by pushbutton switches, for example. The up switch 132a increments the song number, and the down switch 132b is used to decrement the song number. The music number selected by the music selection switch 132 is stored in a music number register described later.
[0037]
The display device 133 can be composed of an LCD, LED, CRT, or other display device. The display device 133 is used for displaying various messages. The above-mentioned music number is displayed on the display device 133, and the display content (song number) changes every time the music selection switch 132 is operated.
[0038]
The operation panel 13 includes a panel interface circuit (not shown). This panel interface circuit scans each switch on the operation panel 13 in accordance with a command from the CPU 10. The panel interface circuit creates panel data in which each switch is associated with 1 bit, based on a signal indicating the open / closed state of each switch obtained by the scan. Each bit represents, for example, “1” for switching on and “0” for switching off. This panel data is sent to the CPU 10 via the data bus 21. This panel data is used to determine whether an ON or OFF event of each switch on the operation panel 13 has occurred.
[0039]
Further, the panel interface circuit sends data for displaying characters, numbers, symbols, etc. sent from the CPU 10 to the display device 133 and sends data for lighting the indicator to the indicator 131. As a result, a message according to data such as characters, numbers and symbols sent from the CPU 10 is displayed on the display device 133, and the indicator 131 is turned on or off.
[0040]
The automatic accompaniment data table 15 is composed of, for example, a ROM. In this automatic accompaniment data table 15, for example, as shown in FIG. 3, m × n pieces of automatic accompaniment data (m is an integer of 2 or more and n is an integer of 1 or more) are stored. Thereby, accompaniment of n types of music can be automatically accompanied with m types of accompaniment patterns. The beginning of each automatic accompaniment data is address ADDR ij (I = 1, 2,... N, j = 1, 2,... M).
[0041]
Each automatic accompaniment data is composed of a plurality of note data and END data indicating the end of the automatic accompaniment data, for example, as shown in FIG. Each note data is used to generate one note. Each note data is composed of 1-byte data called key number, step time, gate time and velocity. The END data is composed of 1-byte data called a key number and a step time.
[0042]
The most significant bit of “key number” is used to identify whether the data is note data or END data. When this most significant bit represents note data, the following 7 bits are used as a key number. On the other hand, when the most significant bit indicates END data, the following 7 bits are not used. The key number corresponds to the number assigned to each key of the keyboard device, and is used to specify the pitch.
[0043]
“Step time” is used to specify the timing (time) of the start of sound generation. “Gate time” is used to specify the length of a sound to be pronounced (sound length). “Velocity” is used to specify the strength of the sound to be pronounced. Automatic accompaniment data corresponding to one accompaniment pattern is configured by arranging such note data and END data in order of step times.
[0044]
In the present embodiment, the note data shown in FIG. 4 is used as the automatic accompaniment data, but it can also be composed of a MIDI message with step time data. As the automatic accompaniment data, data in various other formats can be used.
[0045]
The automatic accompaniment data table 15 is not limited to the ROM, and can be composed of a RAM, a ROM card, a RAM card, a floppy disk, a CD-ROM, or the like. When a floppy disk or CD-ROM is used as the automatic accompaniment data table 15, the automatic accompaniment data stored in the floppy disk or CD-ROM is temporarily loaded into the work memory 12, and automatic accompaniment is performed based on the automatic accompaniment data in the work memory 12. It is preferable to configure. When a RAM is used as the automatic accompaniment data table 15, prior to operating the automatic accompaniment apparatus, for example, an automatic stored in a storage medium such as a floppy disk, a magnetic disk, an optical disk, a ROM card, or a CD-ROM. The accompaniment data may be configured to be loaded into an automatic accompaniment data memory (RAM).
[0046]
The volume change pattern table 14 is composed of, for example, a ROM. This volume change pattern table 14 is used for associating m × n volume change patterns with the start address of automatic accompaniment data, for example, as shown in FIG. Each volume change pattern includes four volume data (a ij , B ij , C ij And d ij ). Note that the volume data included in the volume change pattern is not limited to four but can be any number. As this number increases, the volume change pattern can be finely defined.
[0047]
In the volume change pattern table 14, the start address ADDR of the automatic performance data of each song corresponding to each volume change pattern. ij Is remembered. When a predetermined volume change pattern is detected, the start address ADDR of automatic accompaniment data corresponding to the volume change pattern ij Are read from the volume change pattern table 14 and used to determine the read address of the note data.
[0048]
The sound source 16 has a plurality of sound generation channels. Although not shown in detail, the sound source 16 includes a waveform memory, a waveform readout circuit, an envelope generation circuit, a D / A converter, and the like. The waveform memory is composed of a ROM, for example, and stores waveform data corresponding to each tone color parameter. The waveform data can be created, for example, by performing pulse code modulation (PCM) on a musical sound signal corresponding to a musical instrument sound. The waveform reading circuit reads waveform data from the waveform memory. The envelope generation circuit generates an envelope signal for adding an envelope to the waveform data read by the waveform reading circuit.
[0049]
When the note data is read from the automatic accompaniment data table 15, the CPU 10 assigns at least one tone generation channel for tone generation, and supplies tone color parameters to the assigned tone generation channel. The tone generation channel starts generation of a musical tone signal by receiving a tone color parameter. That is, the waveform data is sequentially read from the waveform memory position indicated by the waveform address in the timbre parameter at a speed corresponding to the frequency data in the timbre parameter, and the envelope specified by the envelope data in the timbre parameter is added to this. Thus, a musical tone signal is generated. The musical tone signal generated by the sound source 16 is supplied to the speaker 17. The speaker 17 converts the sound signal into a sound signal and emits the sound.
[0050]
Next, main registers, counters, flags and the like defined in the work memory 12 will be described. Note that registers, counters, flags, etc. other than those described below will be described as they appear.
[0051]
(1) Automatic accompaniment flag: Stores whether the automatic accompaniment apparatus is in the automatic accompaniment mode or the stop mode.
(2) Volume level register: The volume data at that time is sequentially stored every time a timer interrupt occurs. This register has a stack structure.
(3) Volume change pattern register: Stores the current volume change pattern. When the volume level register becomes full, its contents are set.
(4) Read address register: start address ADDR of automatic accompaniment data currently being processed ij Is stored.
(5) Current pointer: Designates the position where the note data is placed in the automatic accompaniment data currently being processed. The content of this current pointer is a relative value from the content of the read address register.
(6) Step time counter: manages the progress of automatic accompaniment. It is cleared to zero at the beginning of the song and is incremented every step time thereafter. Here, one step time means a time such as 1/24, 1/48, 1/96, etc. of one beat, and is uniquely determined by the automatic accompaniment apparatus. The absolute time of this one step time is determined by the tempo.
(7) Read timing counter: A counter that rounds at a time corresponding to one step time. When the content of the read timing counter changes from the maximum value to zero, it is determined that it is the timing for checking whether the sound generation timing has come (hereinafter referred to as “check timing”).
(8) Song number register: Stores the song number of the song selected by the song selection switch 132 of the operation panel 13.
(9) New panel data register: Stores panel data obtained from the operation panel 13 in the current scan.
(10) Old panel data register: Stores panel data obtained from the operation panel 13 in the previous scan.
[0052]
Next, the operation of the automatic accompaniment apparatus according to the embodiment of the present invention will be described with reference to the flowcharts shown in FIGS. Note that the processing shown in the flowchart is all performed by the CPU 10.
[0053]
FIG. 6 is a flowchart showing the main process of the automatic accompaniment apparatus. This main processing routine is started by turning on power or pressing a reset switch (not shown). In the main process, an initialization process is first performed (step S10). In this initialization process, the internal hardware of the CPU 10 is set to an initial state, and initial values are set to registers, counters, flags, and the like defined in the work memory 12. In this initialization process, predetermined data is sent to the sound source 16 in order to prevent unnecessary sounds from being generated when the power is turned on.
[0054]
When this initialization process is completed, a panel process is then performed (step S11). In this panel processing, processing for realizing the function of the operated switch is performed in accordance with the operation of various switches on the operation panel 13. Details of this panel processing will be described later.
[0055]
Next, an accompaniment pattern switching process is performed (step S12). In this accompaniment pattern switching process, a process of switching the accompaniment pattern according to the volume change pattern is performed. Details of the accompaniment pattern switching process will be described later.
[0056]
Next, automatic accompaniment processing is performed (step S13). In this automatic accompaniment process, a sound generation process based on automatic accompaniment data is performed. Details of this automatic accompaniment process will also be described later.
[0057]
Next, “other processing” is performed (step S14). In this “other process”, processes other than those described above, for example, a MIDI message transmission / reception process from a MIDI interface (not shown) are performed. Thereafter, the sequence returns to step S11, and the processes of steps S11 to S14 are repeated thereafter. In the process of repeated execution, when the operation panel 13 is operated, processing corresponding to the operation panel 13 is performed. When the volume level register is full, processing for switching the accompaniment pattern is performed, and sound generation processing based on automatic accompaniment data is performed. Is called. As a result, various functions as an automatic accompaniment apparatus are realized.
[0058]
Next, the timer interrupt process will be described with reference to the flowchart of FIG. The timer interrupt process is performed by interrupting the main process in accordance with a timer interrupt signal generated from the timer 10a at a constant cycle. Therefore, the timer interrupt process is performed in parallel with the main process described above.
[0059]
In the timer interruption process, first, the volume level is read (step S20). That is, the CPU 10 reads volume data from the A / D converter 18. This volume data represents the amplitude of the signal supplied from the microphone 19 to the A / D converter 18 at that time. Next, the volume data is stored in the volume level register (step S21). Here, the volume level register is configured to store four volume data, and the volume data is sequentially stacked on the volume level register.
[0060]
Next, it is checked whether or not the volume level register is full (step S22). That is, it is checked whether or not four volume data are stored in the volume level register. When it is determined that the volume is full, the contents of the volume level register are stored in the volume change pattern register (step S23). As a result, automatic accompaniment is performed in accordance with the new volume change pattern stored in the volume change pattern register.
[0061]
Next, the contents of the volume level register are cleared (step S24). As a result, in the next timer interrupt process, the volume data stack is restarted from the beginning. Thereafter, the sequence returns to the interrupted position of the main processing routine. If it is determined in step S22 that the volume level register is not full, it is recognized that four volume data have not yet been obtained, and the sequence returns to the interrupted position of the main processing routine.
[0062]
Next, panel processing will be described with reference to the flowchart of FIG. This panel processing routine is called at regular intervals from the main processing routine.
[0063]
In the panel process, first, the presence / absence of a switch event is checked (step S30). This is done in the following procedure. First, the CPU 10 reads panel data (hereinafter referred to as “new panel data”) from the operation panel 13 and stores it in the new panel data register. Next, the panel event map is obtained by taking an exclusive OR of the new panel data and the panel data read in the previous panel processing and stored in the old panel data register (hereinafter referred to as “old panel data”). Create If all the bits of this panel event map are zero, it is determined that a switch event has not occurred. Otherwise, it is determined that a switch event has occurred.
[0064]
If it is determined in step S30 that there is no switch event, the sequence returns from this panel processing routine to the main processing routine. On the other hand, if it is determined that there is a switch event, it is then checked whether there is an ON event of the automatic accompaniment switch 130 (step S31). This is done by checking whether the bit corresponding to the automatic accompaniment switch 130 in the panel event map is “1” and whether the bit corresponding to the automatic accompaniment switch 130 in the new panel data is “1”. Is called. Here, if it is determined that there is no ON event of the automatic accompaniment switch 130, the sequence branches to step S36.
[0065]
If it is determined in step S31 that there is an on event of the automatic accompaniment switch 130, it is then checked whether or not the automatic accompaniment mode is set (step S32). This is done by checking the automatic accompaniment flag. Whether the automatic accompaniment mode is selected is determined in the same manner in the following.
[0066]
When it is determined that the automatic accompaniment mode is selected, the automatic accompaniment flag is cleared to “0” (step S33), and then the sequence proceeds to step S36. On the other hand, if it is determined that the automatic accompaniment mode is not set, the automatic accompaniment flag is set to “1” (step S34), and then the read address is initialized (step S35). In this process, the start address ADDR of automatic accompaniment data corresponding to the first accompaniment pattern of the currently selected song (stored as song number i in the song number register) i1 Is stored in the read address register. Also, the content of the current pointer is set to zero. The content of the step time counter is cleared to zero. Further, the count-up operation of the read timing counter is started. Thereafter, the sequence branches to step S36.
[0067]
By the processing in steps S32 to S34, a toggle function is realized in which the automatic accompaniment mode and the stop mode are alternately reversed each time the automatic accompaniment switch 130 is pressed. Further, an address for actually reading the note data in the automatic accompaniment data table 15 (hereinafter referred to as an “effective read address”) is determined by the process of step S35. This effective read address is calculated by adding the contents of the read address register and the contents of the current pointer. Here, since the content of the current pointer is set to zero, the effective read address ADDR of the automatic accompaniment data table 15 is set. i1 Reading of the note data is started from the position specified by.
[0068]
In step S36, it is checked whether or not there is an on event of the music selection switch 132. This is because the bit corresponding to either the up switch 132a or the down switch 132b in the panel event map is “1” and the bit corresponding to the switch in the new panel data is “1”. This is done by checking sequentially. Here, if it is determined that there is an on event of any of the music selection switches 132, the music number corresponding to that switch is set in the music number register (step S37). That is, if the up switch 132a is on, the contents of the music number register are incremented. If the down switch 132b is on, the contents of the music number register are decremented. If it is determined in step S36 that there is no event of the music selection switch 132, step S37 is skipped.
[0069]
Next, “other switch processing” is performed (step S38). In this “other switch process”, for example, a timbre change process corresponding to an event of the timbre selection switch is performed. Finally, the new panel data is moved to the old panel data register (not shown), and the panel processing ends.
[0070]
Next, the accompaniment pattern switching process will be described with reference to the flowchart of FIG.
[0071]
In this accompaniment pattern switching process, first, the search start address of the volume change pattern table 14 is set in the work counter X provided in the work memory 12 (step S40). Here, the search start address is the head address of the portion corresponding to the currently accompaniment song in the volume change pattern table 14 (“ADDR as an automatic accompaniment data address in the volume change pattern table 14). i1 The address of the entry where “
[0072]
Next, one volume change pattern is read from the position of the volume change pattern table 14 indicated by the work counter X (step S41). Then, the read volume change pattern and the contents of the volume change pattern register are compared (step S41), and it is checked whether or not they match (step S43). In step S42, it is checked whether or not the above-mentioned two completely match. In this step S42, it can be configured to check whether or not the two are similar (whether they match with a certain width). For example, each volume data in the volume change pattern register can be regarded as matching when each volume data in the volume change pattern table 14 has a value within a predetermined range. According to this configuration, the amount of data stored in the volume change pattern table 14 can be reduced.
[0073]
If it is determined in step S43 that they do not match, the contents of the work counter X are then incremented (step S44). As a result, the contents of the work counter X are updated to indicate the next entry in the volume change pattern table 14. Next, it is checked whether or not the process is finished (step S45). This is the last address of the portion corresponding to the currently accompaniment song in the volume change pattern table 14 (“ADDR as an automatic accompaniment data address in the volume change pattern table 14). im This is performed by checking whether or not the address of the stored entry is reached. If it is determined that the process is not finished, the process branches to step S41, and thereafter the same process is repeated.
[0074]
On the other hand, if it is determined in step S45 that the process is finished, it is recognized that there is no matching volume change pattern in the volume change pattern table 14, and this accompaniment pattern switching process is performed without switching the accompaniment pattern. Return from the routine to the main processing routine.
[0075]
If it is determined in step S43 that the values match, then the automatic accompaniment data address ADDR of the entry in the volume change pattern table 14 is then selected. ij Is set in the read address register (step S46). In this case, j changes when the volume change pattern changes. As a result, the subsequent effective read address becomes the new automatic accompaniment data address ADDR. ij And the contents of the current pointer are added. Accordingly, the automatic accompaniment data reading position is changed, and as a result, the accompaniment pattern is switched.
[0076]
Next, the automatic accompaniment process will be described with reference to the flowchart of FIG. This automatic accompaniment processing routine is called from the main processing routine at regular intervals.
[0077]
In the automatic accompaniment process, first, it is checked whether or not the automatic accompaniment mode is set (step S50). When it is determined that the mode is not the automatic accompaniment mode, the sequence returns from the automatic accompaniment processing routine to the main processing routine. That is, the automatic accompaniment processing routine is called from the main processing routine at regular intervals, but the automatic accompaniment stop function is realized by the processing of returning to the main processing routine immediately if the automatic accompaniment mode is not set.
[0078]
On the other hand, if it is determined that the automatic accompaniment mode is selected, it is checked whether it is the check timing (step S51). This is done by checking whether the contents of the read timing counter have rounded from the maximum value to zero. If it is determined that it is not the check timing, it is recognized that one step time has not yet elapsed from the previous automatic accompaniment process, and the sequence returns from this automatic accompaniment process routine to the main process routine.
[0079]
On the other hand, if it is determined that it is the check timing, the step time STEP in the note data or END data specified by the effective read address is compared with the content COUNT of the step time counter (step S52). If it is determined that they do not match, it is recognized that the note data or END data including the step time STEP has not yet reached the execution timing. Then, the content COUNT of the step time counter is incremented (step S53), and then the sequence returns from this automatic accompaniment processing routine to the main processing routine. As a result, the function of incrementing the contents of the step time counter every step time is realized.
[0080]
As a result of sequentially incrementing the content COUNT of the step time counter in this way, if it is determined in step S52 that the step time STEP matches the content COUNT of the step time counter, the musical note data including the step time STEP is included. Alternatively, it is determined that the END data has reached the execution timing, and the note data or END data is read from the automatic accompaniment data table 15 (step S54).
[0081]
Then, it is checked whether or not the data is END data (step S55). This is done by examining the most significant bit of the first byte of the data. Here, if it is determined that the data is END data, it is recognized that the end of the automatic accompaniment data has been reached, and the read address is initialized (step S56). The process in step S56 is the same as the process in step S35 of the panel process described above. Thereby, the function to repeat accompaniment of the same music is realized. In an apparatus that does not need to repeat automatic accompaniment, the automatic accompaniment flag may be cleared to zero in step S56.
[0082]
If it is determined in step S55 that the data is not END data, the data is recognized as note data, and a sound generation process is performed (step S57). In the sound generation process, the timbre parameter corresponding to the key number in the note data is read from the program memory 11 and sent to the sound source 16. Thereby, a sound corresponding to the note data is generated from the speaker 17.
[0083]
Next, the current pointer is incremented (step S58). More specifically, the content of the current pointer is “+4”. Then, it returns to step S52 and the same process is repeated. As a result, sounds based on all the note data having the same step time STEP are generated.
[0084]
In the example described above, the automatic accompaniment data is assumed to be stored in the automatic accompaniment data table 15 in advance. However, the automatic accompaniment data may be configured to be performed based on the automatic accompaniment data created by the user. In this case, the automatic accompaniment data table 15 is composed of a RAM. The automatic accompaniment data stored in the automatic accompaniment data table 15 can be generated using, for example, a keyboard device. In this case, a MIDI interface circuit can be used instead of the keyboard device. When the MIDI interface circuit is used, note-on data included in the MIDI message received by the MIDI interface circuit is used instead of the keyboard data generated by the keyboard device.
[0085]
【The invention's effect】
As described above in detail, according to the present invention, it is possible to provide an automatic accompaniment apparatus that can perform an automatic accompaniment in which an accompaniment pattern changes according to the performance or the excitement of a song.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an automatic accompaniment apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram showing a configuration of an operation panel used in the automatic accompaniment apparatus according to the embodiment of the present invention.
FIG. 3 is a diagram showing an example of an automatic accompaniment data table used in the automatic accompaniment apparatus according to the embodiment of the present invention.
FIG. 4 is a diagram showing an example of an automatic accompaniment data format used in the automatic accompaniment apparatus according to the embodiment of the present invention.
FIG. 5 is a diagram showing an example of a volume change pattern table used in the automatic accompaniment apparatus according to the embodiment of the present invention.
FIG. 6 is a flowchart showing a main process of the automatic accompaniment apparatus according to the embodiment of the present invention.
FIG. 7 is a flowchart showing a timer interrupt process of the automatic accompaniment apparatus according to the embodiment of the present invention.
FIG. 8 is a flowchart showing panel processing of the automatic accompaniment apparatus according to the embodiment of the present invention.
FIG. 9 is a flowchart showing accompaniment pattern switching processing of the automatic accompaniment apparatus according to the embodiment of the present invention.
FIG. 10 is a flowchart showing automatic accompaniment processing of the automatic accompaniment apparatus according to the embodiment of the present invention.
[Explanation of symbols]
10 CPU
10a timer
11 Program memory
12 Work memory
13 Operation panel
14 Volume change pattern table
15 Automatic accompaniment data table
16 sound sources
17 Speaker
18 A / D converter
19 Microphone
20 Address bus
21 Data bus
130 Automatic accompaniment switch
131 Indicator
132 song selection switch
133 Display device

Claims (3)

伴奏音信号に基づいて伴奏音を自動的に発生する自動伴奏装置であって、
複数の伴奏パターンのそれぞれに対応する複数の自動伴奏データを記憶する自動伴奏データ記憶手段と、
外部からの音量を検出する音量検出手段と、
該音量検出手段における検出結果に応じて該自動伴奏データ記憶手段から1つの自動伴奏データを選択する選択手段と、
該選択手段で選択された自動伴奏データに従って伴奏音信号を生成する伴奏音信号生成手段とを備え、
前記選択手段は、前記音量検出手段で検出された複数の音量を表す値の変化パターンに基づいて前記自動伴奏データ記憶手段から1つの自動伴奏データを選択する
自動伴奏装置。
An automatic accompaniment device that automatically generates an accompaniment sound based on an accompaniment sound signal,
Automatic accompaniment data storage means for storing a plurality of automatic accompaniment data corresponding to each of a plurality of accompaniment patterns;
Volume detection means for detecting the volume from the outside,
Selection means for selecting one automatic accompaniment data from the automatic accompaniment data storage means according to the detection result in the volume detection means;
Accompaniment sound signal generation means for generating an accompaniment sound signal according to the automatic accompaniment data selected by the selection means,
The automatic accompaniment apparatus, wherein the selection means selects one automatic accompaniment data from the automatic accompaniment data storage means based on a change pattern of values representing a plurality of sound volumes detected by the sound volume detection means.
伴奏音信号に基づいて伴奏音を自動的に発生する自動伴奏装置であって、
複数の伴奏パターンのそれぞれに対応する複数の自動伴奏データを記憶する自動伴奏データ記憶手段と、
ソロイストの状態を検出する検出手段と、
該検出手段における検出結果に応じて該自動伴奏データ記憶手段から1つの自動伴奏データを選択する選択手段と、
該選択手段で選択された自動伴奏データに従って伴奏音信号を生成する伴奏音信号生成手段とを備え、
前記選択手段は、前記検出手段で検出された複数の、ソロイストの状態を表す値の変化パターンに基づいて前記自動伴奏データ記憶手段から1つの自動伴奏データを選択する
自動伴奏装置。
An automatic accompaniment device that automatically generates an accompaniment sound based on an accompaniment sound signal,
Automatic accompaniment data storage means for storing a plurality of automatic accompaniment data corresponding to each of a plurality of accompaniment patterns;
Detecting means for detecting the state of the soroist;
Selection means for selecting one automatic accompaniment data from the automatic accompaniment data storage means according to the detection result in the detection means;
Accompaniment sound signal generation means for generating an accompaniment sound signal according to the automatic accompaniment data selected by the selection means,
The automatic accompaniment apparatus, wherein the selection means selects one automatic accompaniment data from the automatic accompaniment data storage means based on a plurality of change patterns of values representing the soloist state detected by the detection means.
前記ソロイストの状態は、ソロイストの体温、心拍数及び発汗量の少なくとも1つである請求項2に記載の自動伴奏装置。The automatic accompaniment apparatus according to claim 2, wherein the state of the soloist is at least one of a body temperature, a heart rate, and a sweat amount of the soloist.
JP14587297A 1997-05-20 1997-05-20 Automatic accompaniment device Expired - Fee Related JP3630266B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14587297A JP3630266B2 (en) 1997-05-20 1997-05-20 Automatic accompaniment device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14587297A JP3630266B2 (en) 1997-05-20 1997-05-20 Automatic accompaniment device

Publications (2)

Publication Number Publication Date
JPH10319960A JPH10319960A (en) 1998-12-04
JP3630266B2 true JP3630266B2 (en) 2005-03-16

Family

ID=15395011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14587297A Expired - Fee Related JP3630266B2 (en) 1997-05-20 1997-05-20 Automatic accompaniment device

Country Status (1)

Country Link
JP (1) JP3630266B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6513730B2 (en) * 2017-04-06 2019-05-15 株式会社藤商事 Gaming machine

Also Published As

Publication number Publication date
JPH10319960A (en) 1998-12-04

Similar Documents

Publication Publication Date Title
JPH0997083A (en) Automatic accompaniment device
JP3568326B2 (en) Electronic musical instrument
JPH09179559A (en) Device and method for automatic accompaniment
JP3630266B2 (en) Automatic accompaniment device
JP4318194B2 (en) Automatic accompaniment apparatus and automatic accompaniment method for electronic musical instrument
JP3632536B2 (en) Part selection device
JP3640235B2 (en) Automatic accompaniment device and automatic accompaniment method
JP3455050B2 (en) Automatic accompaniment device
JP3609045B2 (en) Automatic performance device
JPH06348258A (en) Automatic playing device of electronic musical instrument
JP3385544B2 (en) Automatic performance device
JP2636393B2 (en) Automatic performance device
JP2513014B2 (en) Electronic musical instrument automatic performance device
JP3549083B2 (en) Volume control device
JP3097888B2 (en) Electronic musical instrument volume setting device
JP2665854B2 (en) Automatic performance device
JP3169535B2 (en) Automatic performance device and automatic performance method
JP3529123B2 (en) Automatic performance device and automatic performance method
JPH0830273A (en) Tempo setting device for electronic musical instrument
JPH0772857A (en) Automatic music playing device for electronic musical instrument
JPH0772869A (en) Tuning support system of electronic musical instrument
JPH08263060A (en) Automatic accompaniment device of electronic musical instrument
JP2005010458A (en) Automatic arpeggio device and computer program applied to the device
JPH05108074A (en) Automatic accompaniment device of electronic musical instrument
JPH07181973A (en) Automatic accompaniment device of electronic musical instrument

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040409

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040623

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040916

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041209

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees