JP3743079B2 - 演奏データ作成方法および装置 - Google Patents

演奏データ作成方法および装置 Download PDF

Info

Publication number
JP3743079B2
JP3743079B2 JP29927596A JP29927596A JP3743079B2 JP 3743079 B2 JP3743079 B2 JP 3743079B2 JP 29927596 A JP29927596 A JP 29927596A JP 29927596 A JP29927596 A JP 29927596A JP 3743079 B2 JP3743079 B2 JP 3743079B2
Authority
JP
Japan
Prior art keywords
data
music
performance
effect
melody
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP29927596A
Other languages
English (en)
Other versions
JPH10124078A (ja
Inventor
洋次郎 高林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP29927596A priority Critical patent/JP3743079B2/ja
Publication of JPH10124078A publication Critical patent/JPH10124078A/ja
Application granted granted Critical
Publication of JP3743079B2 publication Critical patent/JP3743079B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、楽曲の演奏に合わせて演出効果を発生させることのできる演奏データを作成するための方法および装置に関する。
【0002】
【従来の技術】
一般に、ステージや舞台においては、演奏される楽曲のフレーズが変化するタイミングで照明を変化させて演出効果を発生させることが行なわれている。この場合、舞台照明の専門家は、演奏される曲の曲調や歌詞などに応じて、その感性に基づいて照明パターンを選択して切り換えているのが通常である。
【0003】
一方、カラオケ演奏装置等においても実際のステージや舞台の場合と同様に演出効果を発生させることが求められており、演奏する楽曲のリズムや音量、音程、和音などを検出して照明パターンを変更させるようにすることが提案されている。例えば、特開平5−224588号公報には、歌詞の文字コードのブロック毎に記憶されたイメージ情報に基づいて背景画像を選択して表示するとともに、照明器具を点灯制御して、舞台効果を演出することが記載されている。また、特開平6−70386号公報には、演奏される楽曲のリズムに同期して照明器具を点滅制御するものが記載されている。
【0004】
【発明が解決しようとする課題】
しかしながら、上述のような従来の装置においては、照明の切り換えタイミングやその照明パターンの選択が、楽曲データのリズムや音量、コードなどの断片的な情報を基準として行なわれていたので、音楽的な意味合いと一致していない場合が多かった。
【0005】
そこで本発明は、曲にマッチしたきめ細かな演出ができ、より舞台演出性を高めることが可能な演奏データ作成方法および装置を提供することを目的としている。
【0006】
【課題を解決するための手段】
上記目的を達成するために、本発明の演奏データ作成方法は、楽曲データを記憶する記憶手段と処理手段とを備えた演奏データ作成装置において、楽曲データと演出データとからなり、演奏時に前記楽曲データによる演奏に合わせて前記演出データによる演出効果を発生させることができる演奏データを作成する方法であって、(a)前記処理手段が前記記憶手段に記憶されている楽曲データのメロディを解析して該楽曲データをフレーズに応じたブロックに分割するステップ、(b)前記処理手段が前記ステップ(a)において分割された各ブロックの音楽属性に基づいて、演出パターンデータが格納された演出制御ライブラリーを参照して演出パターンデータを抽出するステップ、(c)前記処理手段が前記各ブロックに前記抽出した演出パターンデータを割り付けて、演出データを作成するステップ、および、(d)前記処理手段が前記楽曲データと前記演出データとを結合するステップとを有する方法である。
【0007】
そして、前記ステップ(a)は、楽曲データを構成するメロディパートと他のパートを検出し、該他のパートを解析して前記フレーズに応じたブロックの分割位置を決定するものであり、また、前記演出制御ライブラリーは、楽曲のテンポと拍子を基準としてそれに対応する演出パターンが格納されているものであり、あるいは、フレーズに応じて分割されたブロックの音楽属性を基準としてそれに対応する演出パターンが格納されているものである。
【0008】
さらにまた、本発明の演奏データ作成装置は、楽曲データと演出データとからなり、演奏時に前記楽曲データによる演奏に合わせて前記演出データによる演出効果を発生させることができる演奏データを作成する演奏データ作成装置であって、楽曲データのメロディを解析して該楽曲データをフレーズに応じたブロックに分割する手段と、前記分割された各ブロックの音楽属性に基づいて、演出パターンデータが格納された演出制御ライブラリーを参照して演出パターンデータを抽出する手段と、前記各ブロックに前記抽出した演出パターンデータを割り付けて、演出データを作成する手段と、前記楽曲データと前記演出データとを結合する手段とを有するものである。
【0009】
さらにまた、前記分割する手段は、楽曲データを構成するメロディパートと他のパートを検出し、該他のパートを解析して前記フレーズに応じたブロックの分割位置を決定するものであり、前記演出制御ライブラリーは、楽曲のテンポと拍子を基準としてそれに対応する演出パターンが格納されているもの、あるいは、フレーズに応じて分割されたブロックの音楽属性を基準としてそれに対応する演出パターンが格納されているものである。
【0010】
【発明の実施の形態】
図1は本発明の演奏データ作成方法の一実施の形態が適用されるカラオケ演奏装置の構成例を示すブロック図である。この図において、1はこの装置全体の制御を行なう中央処理装置(CPU)、2は制御プログラムなどが記憶されているリードオンリメモリ(ROM)、3はCPU1のワークエリア等として使用されるランダムアクセスメモリ(RAM)である。また、4は歌唱入力用のマイク、5は該マイクから入力される歌唱信号をアナログ/デジタル変換してバス16に出力するマイクインターフェース回路、6はモード設定スイッチ等の各種設定用スイッチや演奏のスタート/ストップスイッチ、演奏データのロードスイッチなどが含まれている操作パネル、7は歌詞情報や背景画像などを表示するディスプレイ装置である。
【0011】
8は外部装置との間でMIDIデータを入出力するためのMIDIインターフェース回路、9は楽曲データや歌詞データ、演奏データなどを格納する記憶装置であり、例えば、ビデオディスクやCD−ROM、ハードディスクなどの大容量記憶媒体が用いられている。
【0012】
10は楽曲データや前記マイクインターフェース回路5から入力されるデジタル化された歌唱信号が供給され、前記楽曲データに対応した楽音を発生するとともに、該発生された楽音および前記デジタル化された歌唱信号に対して所定のエフェクト処理を施し、アナログ信号に変換して出力する音源部である。該音源部10から出力されるアナログ信号はアンプ11において増幅され、スピーカ12から放音されることとなる。
【0013】
13は演奏データの所定のトラックに含まれている演出データを照明制御器14に出力するための照明インターフェース回路、14は前記照明インターフェース回路13から出力される演出データから照明灯の制御信号を生成し、照明器15に供給する照明制御器、15は該照明制御信号により制御される複数個の照明灯からなる例えばカラオケルーム内の照明器である。なお、16は前記各構成要素間のデータの転送を行なうためのバスである。
【0014】
図2に、このカラオケ演奏装置が使用されるカラオケルームの照明器の配置の一例を示す。この図において、21は図示するように8個設けられた照明灯、22は6個設けられた発光色を変化させることができる照明灯、23は2個設けられた青、緑、赤の3色を発光することができる照明灯、24は5個設けられた照明灯、25は8個設けられたミニストロボである。このように、この例に示すカラオケルームには5種類の照明灯が合計29個設けられており、それぞれ、図示するチャンネル(Ch)番号を有する制御チャンネルにより点灯制御され、また、前記照明灯22の発光色はチャンネル(ch)49〜54により制御されるようになされている。
なお、以下の説明においては、これらの照明器を制御することにより演出を行なう場合を例にとって説明するが、前記ディスプレイ装置7における画面の色や表示するキャラクターの動き、色等を制御することによって演出することもできる。
【0015】
さて、このように構成されたカラオケ演奏装置において実行される処理の流れについて図3を参照して説明する。このカラオケ演奏装置は、(1)前記記憶装置9に格納されている楽曲データや前記MIDIインターフェース回路8を介して外部装置から入力され前記記憶装置9に一度格納された楽曲データを、読み出して解析し、その楽曲データに対応する演出データを生成し、該演出データと前記楽曲データとからなる演奏データを作成する演出データ作成処理モードと、(2)前記演奏データ中の楽曲データに基づいて楽曲を演奏するとともに、前記演出データに基づいて照明器やディスプレイ装置に表示される画像データを制御して所定の演出を行なう演奏モードとの2つの動作モードを有している。
【0016】
まず、前記演出データ作成モードにおける動作が行なわれる。前記楽曲データは、例えばMIDIデータとされており、SMF(standard MIDI file)のフォーマット0あるいはフォーマット1の形式のデータとされている。そこで、演奏の対象となる楽曲データを構成している曲パートの構成を解析し、MIDIデータのどのチャンネルがメロディ、ベース、ドラムの主要3パートとその他のパートに対応するかを判定し、また、メロディデータの有無から間奏部とメロディ部とに大別する。
【0017】
次に、前記メロディパートを解析して、フレーズに分解し、各フレーズの内容(イントロ、第1のメロディ、第2のメロディなど)を特定する。
一方、メロディ以外のパートを対象として曲をいくつかのブロックに分割する。
そして前記フレーズ構成の解析結果と前記ブロック分割の結果に基づいて、曲全体を複数個のブロックに分割する。
【0018】
次に、このように分割した各ブロック毎にそのブロックにおけるリズムパターンを検出する。
そして、該検出したリズムパターンおよび拍子やテンポ、フレーズの内容等の音楽的属性データを用いて、照明ライブラリーから最もよく一致する照明パターンを選択する。この照明ライブラリーは予め照明の専門家により使用される代表的な照明パターンを曲のテンポ、拍子、フレーズ内容等に応じて分類して格納したものである。
このように各ブロックに対応して使用する照明パターンを特定し、この照明パターンを楽曲データに付加した演奏データを生成する。
【0019】
続いて、上記のようにして生成された演奏データを再生する演奏モードの処理が実行される。この処理は、通常のマルチポート出力機能を有するシーケンサプログラムにおける処理と同様のものであり、前記演奏データ中の楽曲データに基づく楽音制御信号は前記音源部10に出力されて、対応する楽音がスピーカ12から出力される。また、前記演奏データ中の演出データは前記照明制御器14に出力され、前記照明器15が制御される。
このように、本発明によれば、、楽曲データから演出データを生成し、該演出データを当該楽曲データの演奏と同時に照明器等に出力して、曲にマッチした演出を自動的に行なうことができるようになる。
【0020】
図4に、このように構成されたカラオケ演奏装置において実行されるメインルーチンの処理のフローチャートを示す。この図において、このカラオケ演奏装置が駆動されると、ステップS11において各種パラメータの初期設定等の初期設定処理が行なわれる。次に、ステップS12においてモード処理が行なわれる。
【0021】
図5はこのモード処理のフローチャートであり、ステップS21において動作モードが演出データ作成処理モードであるか否かを判定し、その結果に応じて、ステップS22の演出データ作成処理あるいはステップS23の演奏処理が実行される。これらの処理の詳細については後述する。
次に、ステップS13(図4)において、前記操作パネル6に設けられた各操作スイッチの操作に対応する処理、例えば、選曲、音量やエフェクトの設定などの処理が行なわれる。
【0022】
図6に前記演奏処理S23のフローチャートを示す。この図に示すように、演奏処理が開始されると、まず、ステップS31において前記記憶装置9から演奏すべき楽曲に対応する演奏データが前記RAM3に読み込まれる。この演奏データは、後述するステップS22の演出データ作成処理により作成された演出データがMIDIデータからなる当該楽曲データに付加されたもので、例えば、SMF(Standard MIDI File)のフォーマット1形式のデータとされている。そして、元となる楽曲データがSMFのフォーマット0の場合には、該演奏データのトラック1に当該楽曲データが格納され、それ以降のトラックに前記演出データが1トラック1チャンネル分として格納されている。また、元となる楽曲データがSMFのフォーマット1の場合には、元の楽曲データが格納されていたトラック数分に該元の楽曲データ、それより後のトラックに演出データが格納されている。
【0023】
このような演奏データを読み込んだ後、ステップS32において、該演奏データの内の楽曲データに対応するトラックが前記音源10に出力され、該音源10から対応する楽音が発音される。また、ステップS33において、前記演奏データ内の演出データが前記演出データインターフェース回路13を介して前記照明制御器14に出力され、該演出データに対応する照明器制御信号に応じて前記照明器15が制御されることとなる。このようにして、楽曲の演奏と同時にそれに対応して演出が実行されることとなる。
【0024】
図7は前記演出データ作成処理(ステップS22)のフローチャートである。演出データ作成処理が開始されると、まず、ステップS41において前記操作パネル6において選択された楽曲データがRAM3に読み込まれる。この楽曲データは前述したように、SMFのフォーマット0あるいはフォーマット1の形とされており、前記記憶装置9から読み込まれる。
【0025】
次に、ステップS42において、該読み込んだ楽曲データの各パートの構成が解析される。すなわち、まず、読み込んだ楽曲データから当該楽曲の拍子データおよびテンポデータを抽出する。これにより、曲の小節数を求めることができる。続いて、読み込んだデータをチャンネル毎に分割し、各チャンネルについて、ドラムパート、ベースパートおよびメロディパートの主要3パートと、その他のパートのいずれのパートであるかを判断する。
【0026】
具体的には、次のような基準に基づいて判定することにより、各パートがどのようなのパートであるかを認識している。
(a)ドラムパート。
1)GM(General MIDI)オンまたはGSリセットがあるときには、第10チャンネルをドラムパートとする。
2)バンクセレクトのMSBが7F(16進)とされているデータが書き込まれているチャンネルもドラムパートとする。
3)そのパートの発音比率が全小節の20%を越えていたら、そのチャンネルをドラムパートと確定し、20%に達していないときはドラムパートではないとする。
4)以上の条件によりドラムパートとされるチャンネルが2チャンネル以上あるときには、第10チャンネルを優先し、それ以外のときにはチャンネル番号が小さいものから2チャンネルを選択してそれらをドラムパートであると決定する。
【0027】
(b)ベースパート。
ドラムパートとされなかったパートを対象として、以下の条件について調べる。
1)最初のノートオン以前のプログラムチェンジのプログラム番号が33〜40か?
2)ノートデータのある小節のうち、80%以上が単音か?
3)ノートデータの90%以上がC3より低い音高か?
4)ノートデータが全小節の70%以上に存在するか?
以上の条件を全て満たすチャンネルがあれば、その中のチャンネル番号の小さなものをベースパートと決定する。
上記1)〜4)の全条件を満たすチャンネルがなければ、上記1)、2)、4)あるいは1)、3)、4)あるいは2)、3)、4)を満たすチャンネルを探し、その中のチャンネル番号の最も小さなものをベースパートと決定する。
それでも、上記条件をみたすチャンネルがないときには、ベースパートなしと決定する。
【0028】
(c)メロディパート。
上記2つの処理で残ったチャンネルを対象として、次の1)〜4)の条件について調べる。
1)プログラムチェンジのプログラム番号が1〜112か?
2)ノートデータがC2〜C6の範囲にあるか?
3)単音演奏又は2〜3音以内の和音演奏か?
4)ノートデータの存在する小節数が全小節数の50%以上か?
その結果、すべての条件を満たすチャンネルがあれば、その中でチャンネル番号の小さなものをメロディパートとする。
また、上記4)の条件が欠けているときは、1)〜3)の条件を満たすチャンネルの中でチャンネル番号の小さなものを優先して2つ選ぶ。そして、この2つのチャンネルのノートデータの存在割合が全小節の50%以上となるかをチェックして、この条件を満たすものがあれば、その2つのチャンネルの組み合わせをメロディパートとする。
【0029】
(d)サブパート。
今までの処理で残ったチャンネルに対して以下の条件をチェックする。
1)プログラムチェンジのプログラム番号が1〜32、41〜112か?
2)ノートデータがC2〜C6の範囲にあるか?
3)前記(c)で決定したメロディパートにおいてノートデータがない小節にノートデータがあるか?
4)前記(c)で決定したメロディパートにおいてノートデータがないすべての小節にノートデータがあるか?
そして、すべての条件を満たすチャンネルがあれば、その中でチャンネル番号の小さなものをサブパートであるとする。
また、上記4)の条件が欠けている場合には、上記1)〜3)の条件を満たすチャンネルの中から2つまで選んでサブパートであるとする。
【0030】
以上のようにして、メロディ、ベース、ドラムの主要な3パートとその他のパートを特定することができる。
また、メロディパートにノートデータがあるか否により、間奏部とメロディ部とに大別することができる。
このようにして、上記ステップS42における各曲パートの構成解析処理が行われる。
【0031】
このようにして解析されたメロディ、ベース、ドラム等の曲パートに基づいて、曲をブロックに分割する処理を行う。まず、ステップS43においてどのパートであるかを判定し、メロディパートの場合はステップS44に進み、ベースパート及びドラムパートの場合はステップS46に進む。
【0032】
ステップS44は、メロディパートのデータに対し構造解析処理を実行して、フレーズ構成を解析し、曲をイントロ、第1のメロディ(以下、Aメロという)、第2のメロディ(以下、Bメロという)、エンディングなどの部分に分割する処理である。
【0033】
この構造解析の手法としては、本出願人によりすでに提案されている音符長情報に基づく手法(特願平7−123105号公報)を採用することができる。この手法は、メロディパートの全区間または一部区間内の音符長情報に基づいて、該区間内の平均音符長を算出し、該算出された平均音符長に基づいて曲をフレーズに区切り、このように区切られた複数のフレーズについてメロディの類似度を算出するもので、曲の個性や人間のフレーズ感に適合したフレーズ分けができ、メロディの類似度が高いフレーズを他のフレーズから区別して、曲の構造解析を行うことができるものである。このステップS44における処理の概要について説明する。
【0034】
(1)まず、対象となるメロディパートのデータに対し、音符の次に位置する休符をサーチし、該休符の長さ情報をその前に位置する音符の長さ情報に加算する休符長加算処理を実行する。これは、ある音が鳴って休符となったときに、聴き手の耳には最後の音が色濃く残っていることを考慮した処理で、この処理の結果、メロディパートのデータは音高情報と音符長情報との2種類の情報となる。
【0035】
(2)次に、メロディの全区間の音符長情報に基づいて平均音符長(音符長の平均値)Lを算出し、該算出した平均音符長Lに所定の定数K(例えばK=2)を乗算し、積KLに一致または近似したボーダー音符長を求める。そして、メロディパートのデータに対し、このボーダー音符長の終りを区切りとして各フレーズに区切り、該各フレーズごとにフレーズ番号を付与する。なお、このように区切ることにより、曲の個性に対応し、かつ、人間の感覚に近いフレーズ分けが可能となるが、メロディ全体の平均音符長を用いて区切っているため、1曲中の「早い部分」と「ゆっくりな部分」のいずれにおいても人間に近いフレーズ感を得ることは容易ではない。そこで、この処理においては、やや早い部分に対応した細かさで分けることとし、その後にゆったりした部分に対応するための修正を実行するようにしている。
【0036】
(3)前記「ゆっくりな部分」に対応するためのフレーズ分け修正処理を行う。この処理においては、上記(2)において分けた各フレーズ毎にフレーズ内の音符長情報に基づいてその平均音符長を算出する。そして、連続する2つのフレーズにおいて、各フレーズ毎に平均音符長およびフレーズの終端の音符長が、「フレーズの平均音符長×2≦フレーズの終端音符長」という関係を満たしているか否かを判定し、この判定結果が否定的であるときは、その2つのフレーズ間の区切りを削除する。これにより、「ゆっくりな部分」に適合するようにフレーズ分けを修正することができる。
【0037】
(4)次に、人間のフレーズ感に一層近づけるために、さらにフレーズ分け修正処理を行う。人間はメロディを聴くとき、同じメロディ部分をフレーズとして認識しており、これに対応するように、フレーズ分けを修正する。例えば、同じメロディ部分が2箇所に存在し、一方はその直前に長い音符があり、他方はその直前にあまり長くない音符があったときには、前記(2)および(3)の処理においては、前記一方のメロディ部分はフレーズとして認められるが、前記他方のメロディ部分はフレーズとしては認められずその前のフレーズの一部とされている。そこで、同じメロディ部分を検出してフレーズ分けの修正を行うのがこの処理である。
【0038】
この処理においては、あるフレーズとメロディ同一の部分を含む他のフレーズを検出し、検出されたフレーズにおいてメロディ同一の部分以外の残部がフレーズの最小長さ(例えば2拍)以上か否かを判定し、この判定結果が肯定的であればメロディ同一部と残部とを各々フレーズとして分割する。また、判定結果が否定的であれば、アウフタクト(弱起)と判断し、分割しないようにしている。
【0039】
(5)このようにして分割されたフレーズを分類する。この処理はメロディの類似度が高いフレーズを検出して1つの種類として分類するものである。
この処理においては、まず、前記(2)〜(4)の処理においてフレーズ分けされたメロディパートのデータを、メロディの音高情報を時間軸情報の単位長(フェーズ)毎に分解して並べたフェーズフォーマットに変換する。この単位長としては、連符と判断されなかった音符のうちで最も短い音符の長さが採用される。
【0040】
次に、順次2つのフレーズをとり、それらの先頭から例えば3小節分のメロディの音高を比較し、音高一致率を算出する。この音高一致率が所定の値(例えば70%)以上であるときは類似したメロディであると判定し、所定の分類番号を付与する。順次このようにして、全フレーズについて比較を行う。この結果得られた分類番号により、使用されているメロディの種類(Aメロディ、Bメロディ等)を認識することができる。
【0041】
以上のようにして、メロディパートのフレーズ構成を解析することができる。次に、このようにして解析されたフレーズの内容を特定する。これは、各フレーズにおけるMIDIデータの音量、すなわちベロシティデータに基づいて、前記分類された各フレーズが、それぞれ、Aメロディ、Bメロディ、サビ、キメなどのどれに対応しているかを特定する処理である。
【0042】
一方、ステップS46においてメロディパート以外の全パートに基づいてブロック分割処理が実行される。この処理は、ベロシティデータに基づいて、曲をブロックに分割するものである。具体的に説明すると、
(1)1小節毎にMIDIデータの音量、すなわち、ベロシティの総和を算出する。
(2)続いて、最初の発音のある小節を探し、これ以後の小節で、2小節毎のMIDIデータ音量を算出する。そして、この結果の最大、最小の範囲を20段階に分割する。
(3)次に、上記(2)の結果を4小節単位にして10段階に分割し、音量差が3段階以上ある小節にマークを付す。
【0043】
(4)そして、メロディパートにノートデータがあるか否かを小節毎にチェックし、その結果に応じて各小節にマークを付す。
(5)前記ステップS44において解析したメロディパートのフレーズ解析結果を元にフレーズの先頭の小節にマークを付す。なお、その前後の1小節にマークがあれば、そのマークを削除する。
(6)このようにして付されたマークに基づいて、曲をブロックに分割し、各ブロックをナンバリングする。
(7)各ブロックのメロディパートにおけるMIDIデータ音量の情報から各ブロックを3つのタイプ(間奏部、平ウタ、サビ)に分ける。
(8)ドラムパート、ベースパートのオン、オフ情報を元にさらにブロック分けをする。このとき、タイプは、前記(7)において決定された直前のブロックのタイプを引き継ぐようにする。
【0044】
以上の処理により、曲全体を複数個のブロックに分割することができた。次に、ステップS47において、各ブロック毎のリズムパターンの抽出処理を実行する。この処理においては、まず、各パートを4分音符=24としてクオンタイズする。そして、各ブロックの先頭の2小節から、ドラムパートとベースパートの両方があるときにはその両者から、ベースパートのみの場合にはベースパートとメロディパートから、ドラムパートとベースパートの両方とも無いときにはメロディパートから、それぞれノートオンタイミングを抽出する処理である。これにより、各ブロックのリズムパターンを抽出することができる。
【0045】
次に、ステップS48において、照明ライブラリーを参照し演出パターンを確定する。ここで、本発明に用いられている照明ライブラリーについて説明する。照明ライブラリーは、次の3種類のライブラリーから構成されている。
(1)照明パターンライブラリー。
<cue xx> … xxは照明パターン番号、
<照明パターン番号>=<操作チャンネル数><チャンネル番号><レベル(ディマー値)>・・・。
これは、どの灯体がどういう明るさで光るかを記述したデータの集まりであり、代表曲に照明専門家が実際にライティングしたデータをライブラリー化したものである。
【0046】
(2)リズムパターンライブラリー。
<pattern xx> … xxはリズムパターン番号、
data0 =<音数><ドラムの発音タイミングの並び>、
data1 =<音数><ベースの発音タイミングの並び>。
これは、2小節(4分音符8つ)分のリズムの発音タイミングをドラム、ベース個々に記述したデータの集まりであり、抽出した代表曲の実際のMIDIデータから作成されたものである。
【0047】
(3)リンクリストライブラリー。
<種別コード>=<対になったデータの組数><pattern xx><cue xx><patern xx ><cue xx>・・・。
これは、拍子、テンポ、リズム形態、曲データ分割区分(ブロック属性)の4うの要素によって決定される種別コードことに、リズムパターンと照明パターンとの結びつきを記述したデータの集まりであり、前記種別コードによって選択される。
【0048】
図8は、このような照明ライブラリーの概念を説明するための図である。この照明ライブラリーを参照するために、まず、照明パターンを付加すべき楽曲の拍子およびテンポに応じて、当該楽曲の拍子およびテンポがどの区分に属しているかが決定される。図9は、この拍子およびテンポの区分の一例を示す図表であり、図示するように、4種類の拍子(2/2、4/4、3/4、6/8)と3つに区分したテンポ(40〜80、80〜120、120〜200)との組合せにより、1〜12の12通りに区分されている。図8に示すように、当該楽曲の拍子が4/4、テンポが120以上であるときには、前記図9より、当該楽曲のこの区分は6であるとされる。
【0049】
次に、当該楽曲にリズム形態による分類が行なわれる。これは、当該楽曲がドラムパートとベースパートの両方を有している、ベースパートを有している、あるいは、ドラムパートもベースパートも有していない弾き語りであるの3つの内のいずれであるかを分類するものである。
続いて、曲データ分割の単位、すなわち当該ブロックがどのような属性、すなわち、イントロ部、間奏部あるいはコーダ部であるか、Aメロ部であるか、Bメロ部であるか、サビの部分であるか、キメの部分であるかを判定する。
【0050】
以上により、当該ブロックの拍子、テンポ、リズム形態およびブロック属性が決定され、前記リンクリストライブラリーが参照される。前記リンクリストライブラリーには、前述したように、各種別コード毎にリズムパターンを照明パターンとの結びつきを記述したデータが格納されており、図8に示すように、種別コード毎に5〜20パターンのデータが格納されている。
【0051】
前記ステップS47において抽出した当該ブロックのリズムパターンと上述のようにして選択された5〜20の照明パターンに組み合わされたリズムパターンとを比較して評価値を算出し、最も評価値の高いリズムパターンを選択し、それに対応する照明パターンを当該ブロックの照明パターンとして決定する。
【0052】
以上のようにして、使用する照明パターンが決定された後、ステップS49において、該決定された照明データを前記MIDIの楽曲データに付加して記録する。具体的には、選択された照明データを、各ブロックの先頭の2拍前からフェードイン、ブロックの終端から2拍かけてフェードアウトするといった形に展開する。ただし、順次点灯データの場合はフェードイン、フェードアウトは無しとする。このようにして全ブロックについての照明データを合成し、これを例えば、MIDIのピッチベンドイベントとする。また、カラーチェンジはブロック先頭の2拍前で送出するようにし、これもピッチベンドイベントとする。
【0053】
このように生成されたデータをSMFのFormat1の形で出力する。なお、このとき、元の曲データはそのままの形で出力する。すなわち、元の曲データがSMFのFormat0なら出力データのトラック1が曲データ、Format1なら音からのトラック数分が曲データとなり、それ以後のトラックに1トラック1チャンネル分として出力される。このデータは各トラックにトラックイベントとして出力されるので、前記演奏処理においては、このトラック情報を元に出力ポートを変更して再生する。これにより、楽曲データの部分は音源部に送出され、照明制御データは照明制御器に出力されることとなる。
【0054】
なお、以上においては、演出の形態として照明器を制御する場合について説明したが、これに限られることはなく、前述したようにディスプレイ装置の表示色を変更したり表示されるキャラクタを動かすことによる演出を行なうようにすることもできる。
また、上記の説明においては、カラオケ演奏装置を例にとって説明したがこれに限られることはなく、汎用のパーソナルコンピュータなどにおいて楽曲を演奏させる場合にも全く同様に適用することができる。
【0055】
【発明の効果】
以上説明したように、本発明の演奏データ作成方法および装置によれば、照明パターンを付加すべき個所を楽曲解析ルーチンにより正確に決定することができ、また、照明専門家の感性により作成された照明パターンを音楽属性の比較により選択することができるので、照明の専門家によるマニュアル照明に近い演出効果を与えることができる。
【図面の簡単な説明】
【図1】 本発明の演奏データ作成方法および装置が適用されるカラオケ演奏装置の構成を示すブロック図である。
【図2】 カラオケルームにおける照明灯の配置の一例を示す図である。
【図3】 本発明における処理の流れを説明するための図である。
【図4】 前記カラオケ演奏装置におけるメインルーチンのフローチャートである。
【図5】 モード処理を説明するためのフローチャートである。
【図6】 演奏処理を説明するためのフローチャートである。
【図7】 演出データ作成処理を説明するためのフローチャートである。
【図8】 照明ライブラリーの概念を説明するための図である。
【図9】 拍子およびテンポによる区分の一例を示す図表である。
【符号の説明】
1 CPU、2 ROM、3 RAM、4 マイク、5 マイクインターフェース回路、6 操作パネル、7 ディスプレイ装置、8 MIDIインターフェース回路、9 記憶装置、10 音源、11 アンプ、12 スピーカ、13 照明インターフェース回路、14 照明制御器、15 照明器、21〜25 照明灯

Claims (8)

  1. 楽曲データを記憶する記憶手段と処理手段とを備えた演奏データ作成装置において、楽曲データと演出データとからなり、演奏時に前記楽曲データによる演奏に合わせて前記演出データによる演出効果を発生させることができる演奏データを作成する方法であって、次の(a)〜(d)のステップを有することを特徴とする演奏データ作成方法。
    (a)前記処理手段が前記記憶手段に記憶されている楽曲データのメロディを解析して該楽曲データをフレーズに応じたブロックに分割するステップ
    (b)前記処理手段が前記ステップ(a)において分割された各ブロックの音楽属性に基づいて、演出パターンデータが格納された演出制御ライブラリーを参照して演出パターンデータを抽出するステップ
    (c)前記処理手段が前記各ブロックに前記抽出した演出パターンデータを割り付けて、演出データを作成するステップ
    (d)前記処理手段が前記楽曲データと前記演出データとを結合するステップ
  2. 前記(a)の分割するステップは、楽曲データを構成するメロディパートと他のパートを検出し、該他のパートを解析して前記フレーズに応じたブロックの分割位置を決定するものであることを特徴とする前記請求項1記載の演奏データ作成方法。
  3. 前記演出制御ライブラリーは、楽曲のテンポと拍子を基準としてそれに対応する演出パターンが格納されているものであることを特徴とする前記請求項1記載の演奏データ作成方法。
  4. 前記演出制御ライブラリーは、フレーズに応じて分割されたブロックの音楽属性を基準としてそれに対応する演出パターンが格納されているものであることを特徴とする前記請求項1記載の演奏データ作成方法。
  5. 楽曲データと演出データとからなり、演奏時に前記楽曲データによる演奏に合わせて前記演出データによる演出効果を発生させることができる演奏データを作成する演奏データ作成装置であって、
    楽曲データのメロディを解析して該楽曲データをフレーズに応じたブロックに分割する手段と、
    前記分割された各ブロックの音楽属性に基づいて、演出パターンデータが格納された演出制御ライブラリーを参照して演出パターンデータを抽出する手段と、
    前記各ブロックに前記抽出した演出パターンデータを割り付けて、演出データを作成する手段と、
    前記楽曲データと前記演出データとを結合する手段と
    を有することを特徴とする演奏データ作成装置。
  6. 前記分割する手段は、楽曲データを構成するメロディパートと他のパートを検出し、該他のパートを解析して前記フレーズに応じたブロックの分割位置を決定するものであることを特徴とする前記請求項5記載の演奏データ作成装置。
  7. 前記演出制御ライブラリーは、楽曲のテンポと拍子を基準としてそれに対応する演出パターンが格納されているものであることを特徴とする前記請求項5記載の演奏データ作成装置。
  8. 前記演出制御ライブラリーは、フレーズに応じて分割されたブロックの音楽属性を基準としてそれに対応する演出パターンが格納されているものであることを特徴とする前記請求項5記載の演奏データ作成装置。
JP29927596A 1996-10-24 1996-10-24 演奏データ作成方法および装置 Expired - Fee Related JP3743079B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29927596A JP3743079B2 (ja) 1996-10-24 1996-10-24 演奏データ作成方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29927596A JP3743079B2 (ja) 1996-10-24 1996-10-24 演奏データ作成方法および装置

Publications (2)

Publication Number Publication Date
JPH10124078A JPH10124078A (ja) 1998-05-15
JP3743079B2 true JP3743079B2 (ja) 2006-02-08

Family

ID=17870444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29927596A Expired - Fee Related JP3743079B2 (ja) 1996-10-24 1996-10-24 演奏データ作成方法および装置

Country Status (1)

Country Link
JP (1) JP3743079B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010192155A (ja) * 2009-02-16 2010-09-02 Roland Corp 照明制御データの生成装置
WO2017126085A1 (ja) 2016-01-21 2017-07-27 Pioneer DJ株式会社 照明制御装置、照明制御方法および照明制御プログラム
WO2017195310A1 (ja) 2016-05-12 2017-11-16 Pioneer DJ株式会社 照明制御装置、照明制御方法および照明制御プログラム
WO2017195326A1 (ja) * 2016-05-12 2017-11-16 Pioneer DJ株式会社 照明制御装置、照明制御方法、および照明制御プログラム
WO2018008081A1 (ja) * 2016-07-05 2018-01-11 Pioneer DJ株式会社 照明制御データ生成用楽曲選択装置、照明制御データ生成用楽曲選択方法、および照明制御データ生成用楽曲選択プログラム
US10708998B2 (en) 2016-06-13 2020-07-07 Alphatheta Corporation Light control device, lighting control method, and lighting control program for controlling lighting based on a beat position in a music piece information

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1244093B1 (en) 2001-03-22 2010-10-06 Panasonic Corporation Sound features extracting apparatus, sound data registering apparatus, sound data retrieving apparatus and methods and programs for implementing the same
JP2005331892A (ja) 2004-05-21 2005-12-02 Yamaha Corp 演奏装置
JP4639983B2 (ja) * 2005-06-20 2011-02-23 カシオ計算機株式会社 演奏練習装置および演奏練習処理のプログラム
EP2080419A1 (en) * 2006-10-31 2009-07-22 Koninklijke Philips Electronics N.V. Control of light in response to an audio signal
JP4933910B2 (ja) * 2007-01-30 2012-05-16 株式会社エクシング カラオケ装置
JP5223536B2 (ja) * 2008-08-19 2013-06-26 ヤマハ株式会社 電子音楽装置及び楽譜データ利用プログラム
JP5296502B2 (ja) * 2008-11-18 2013-09-25 ローランド株式会社 自動伴奏装置
CA2881453A1 (en) * 2010-01-26 2011-08-04 Touchtunes Music Corporation Digital jukebox device with improved user interfaces, and associated methods
JP5370406B2 (ja) * 2011-04-04 2013-12-18 ブラザー工業株式会社 楽曲再生装置、投稿管理装置、照明パターン検索方法及びプログラム
IES86526B2 (en) * 2013-04-09 2015-04-08 Score Music Interactive Ltd A system and method for generating an audio file
JP6543155B2 (ja) * 2015-09-30 2019-07-10 株式会社エクシング 操作制御装置及びプログラム
WO2017212551A1 (ja) * 2016-06-07 2017-12-14 Pioneer DJ株式会社 照明演出装置、照明システム、照明演出方法および照明演出プログラム
JP6617784B2 (ja) * 2018-03-14 2019-12-11 カシオ計算機株式会社 電子機器、情報処理方法、及びプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010192155A (ja) * 2009-02-16 2010-09-02 Roland Corp 照明制御データの生成装置
WO2017126085A1 (ja) 2016-01-21 2017-07-27 Pioneer DJ株式会社 照明制御装置、照明制御方法および照明制御プログラム
US10512139B2 (en) 2016-01-21 2019-12-17 Pioneer Dj Corporation Lighting control device, lighting control method and lighting control program
WO2017195310A1 (ja) 2016-05-12 2017-11-16 Pioneer DJ株式会社 照明制御装置、照明制御方法および照明制御プログラム
WO2017195326A1 (ja) * 2016-05-12 2017-11-16 Pioneer DJ株式会社 照明制御装置、照明制御方法、および照明制御プログラム
US10492276B2 (en) 2016-05-12 2019-11-26 Pioneer Dj Corporation Lighting control device, lighting control method, and lighting control program
US10708998B2 (en) 2016-06-13 2020-07-07 Alphatheta Corporation Light control device, lighting control method, and lighting control program for controlling lighting based on a beat position in a music piece information
WO2018008081A1 (ja) * 2016-07-05 2018-01-11 Pioneer DJ株式会社 照明制御データ生成用楽曲選択装置、照明制御データ生成用楽曲選択方法、および照明制御データ生成用楽曲選択プログラム
US10390410B2 (en) 2016-07-05 2019-08-20 Pioneer Dj Corporation Music selection device for generating lighting control data, music selection method for generating lighting control data, and music selection program for generating lighting control data

Also Published As

Publication number Publication date
JPH10124078A (ja) 1998-05-15

Similar Documents

Publication Publication Date Title
JP3743079B2 (ja) 演奏データ作成方法および装置
US7605322B2 (en) Apparatus for automatically starting add-on progression to run with inputted music, and computer program therefor
US5889224A (en) Karaoke scoring apparatus analyzing singing voice relative to melody data
EP0372678B1 (en) Apparatus for reproducing music and displaying words
US5939654A (en) Harmony generating apparatus and method of use for karaoke
US10347229B2 (en) Electronic musical instrument, method of controlling the electronic musical instrument, and recording medium
US20140238220A1 (en) Apparatus and method for detecting chord
US20020007722A1 (en) Automatic composition apparatus and method using rhythm pattern characteristics database and setting composition conditions section by section
JP2000514571A (ja) 自動即興演奏システム及び方法
US20110185882A1 (en) Electronic musical instrument and recording medium
JP5293710B2 (ja) 調判定装置および調判定プログラム
JP5887293B2 (ja) カラオケ装置及びプログラム
KR102269591B1 (ko) 자동작곡장치 및 그 방법
JP6954780B2 (ja) カラオケ装置
EP0457980B1 (en) Apparatus for reproducing music and displaying words
JP4534926B2 (ja) 画像表示装置及びプログラム
JP3719157B2 (ja) 楽曲データの表情付け装置及び楽曲データの表情付け方法並びに楽曲データの表情付けプログラム
JP3271331B2 (ja) メロディ分析装置
JP2570411B2 (ja) 演奏装置
JP3978277B2 (ja) 自動伴奏装置
JP3738634B2 (ja) 自動伴奏装置、及び記録媒体
JP3832147B2 (ja) 曲データ加工方法
JP3215058B2 (ja) 演奏支援機能付楽器
JP3316547B2 (ja) 和音付装置
JP2001312274A (ja) 楽譜表示装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050510

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051107

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081125

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091125

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101125

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101125

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111125

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111125

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121125

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121125

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131125

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees