JP3641955B2 - Music data generator and recording medium therefor - Google Patents

Music data generator and recording medium therefor Download PDF

Info

Publication number
JP3641955B2
JP3641955B2 JP33160598A JP33160598A JP3641955B2 JP 3641955 B2 JP3641955 B2 JP 3641955B2 JP 33160598 A JP33160598 A JP 33160598A JP 33160598 A JP33160598 A JP 33160598A JP 3641955 B2 JP3641955 B2 JP 3641955B2
Authority
JP
Japan
Prior art keywords
data
volume
basic
generating
music
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP33160598A
Other languages
Japanese (ja)
Other versions
JP2000155573A (en
Inventor
栄一郎 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP33160598A priority Critical patent/JP3641955B2/en
Publication of JP2000155573A publication Critical patent/JP2000155573A/en
Application granted granted Critical
Publication of JP3641955B2 publication Critical patent/JP3641955B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、楽曲データ生成装置及びそのための記録媒体に関する。この発明は、より詳細には、メロディの表現に富んだ音楽的な楽曲データを自動的に生成する楽曲データ生成装置及びそのための記録媒体に関する。
【0002】
【従来の技術】
従来より、メロディ等の楽曲データを自動生成するものが種々提案されている。例えば、特開平9−60278号公報には、歌詞データと楽曲特徴データに基づいて歌詞に対応する楽曲を生成し或いは楽曲を区間毎に分析し抽出された特徴データに基づいて新たな楽曲を生成する自動作曲装置が開示されている。この自動作曲装置によると、同公報の図6〜8に例示されるように、歌詞に設定されたアクセントデータ〔図7(E):アクセント記号「・」、図8(A):「アクセント」〕や曲テンプレート中に含まれる感情の起伏曲線〔図6:「感情の起伏」〕に応じて、生成されるメロディのベロシティやボリュームが決定され〔図1:ステップ23、段落〔0068〕、図8(B):「ベロシティ」・「ボリューム」〕、表現に富んだ楽曲データが生成されるようになっている。
【0003】
しかしながら、このような従来技術では、感情の起伏曲線やアクセント記号なしには表現に富んだ楽曲データを生成することができず、表現に富んだ楽曲データの生成のために、予め感情の起伏曲線を用意したり、アクセント記号を設定する必要があった。
【0004】
【発明が解決しようとする課題】
この発明は、このような不都合に鑑み、感情の起伏曲線やアクセント記号なしに、表現に富んだ楽曲データを生成することができる楽曲データ生成装置及びそのための記録媒体を提供することを主たる目的とする。また、この発明の別の目的は、さらに、伴奏の音量をも制御することができる楽曲データ生成装置及びそのための記録媒体を提供することにある。
【0005】
【課題を解決するための手段】
この発明の第1の特徴に従うと、基本的なリズムパターン及び各ノートの音高からなり、与えられた曲構成データを備えた基本曲データを供給する基本曲データ供給手段、この基本曲データに含まれるノートの音量を前記曲構成データに基づいて決定し音量データを生成する音量生成手段、並びに、この音量データ及び基本曲データに基づいて楽曲データを生成する楽曲データ生成手段を備える楽曲データ生成装置(請求項1)が提供され、コンピュータに、基本的なリズムパターン及び各ノートの音高からなり、与えられた曲構成データを備えた基本曲データを供給する基本曲データ供給手段、この基本曲データに含まれるノートの音量を曲構成データに基づいて決定し音量データを生成する音量生成手段、並びに、この音量データ及び基本曲データに基づいて楽曲データを生成する楽曲データ生成手段として機能させるためのプログラムを記録しているコンピュータ読み取り可能な楽曲データ生成のための記録媒体(請求項2)が提供される。
【0006】
この発明の第2の特徴に従うと、基本的なリズムパターン及び各ノートの音高からなり、与えられた和音進行データを備えた基本曲データを供給する基本曲データ供給手段、この基本曲データに含まれるノートの音量を和音進行データのコードに基づいて決定し音量データを生成する音量生成手段、並びに、この音量データ及び基本曲データに基づいて楽曲データを生成する楽曲データ生成手段を備える楽曲データ生成装置(請求項3)が提供され、コンピュータに、基本的なリズムパターン及び各ノートの音高からなり、与えられた和音進行データを備えた基本曲データを供給する基本曲データ供給手段、この基本曲データに含まれるノートの音量を和音進行データのコードに基づいて決定し音量データを生成する音量生成手段、並びに、この音量データ及び基本曲データに基づいて楽曲データを生成する楽曲データ生成手段として機能させるためのプログラムを記録しているコンピュータ読み取り可能な楽曲データ生成のための記録媒体(請求項4)が提供される。
【0007】
この発明の第3の特徴に従うと、基本的なリズムパターン及び各ノートの音高からなり、与えられた曲構成データを備えた基本曲データを供給する基本曲データ供給手段、この基本曲データに含まれるノートの音量を決定しメロディデータを生成するメロディデータ生成手段、並びに、曲構成データに基づいて伴奏音の音量を決定し伴奏データを生成する伴奏音データ生成手段を備える楽曲データ生成装置(請求項5)が提供され、コンピュータに、基本的なリズムパターン及び各ノートの音高からなり、与えられた曲構成データを備えた基本曲データを供給する基本曲データ供給手段、この基本曲データに含まれるノートの音量を決定しメロディデータを生成するメロディデータ生成手段、並びに、曲構成データに基づいて伴奏音の音量を決定し伴奏データを生成する伴奏音データ生成手段として機能させるためのプログラムを記録しているコンピュータ読み取り可能な楽曲データ生成のための記録媒体(請求項6)が提供される。
【0008】
この発明の第4の特徴に従うと、基本的なリズムパターン及び各ノートの音高からなり、与えられた和音進行データを備えた基本曲データを供給する基本曲データ供給手段、この基本曲データに含まれるノートの音量を決定しメロディデータを生成するメロディデータ生成手段、並びに、和音進行データのコードに基づいて伴奏音の音量を決定し伴奏データを生成する伴奏音データ生成手段を備える楽曲データ生成装置(請求項7)が提供され、コンピュータに、基本的なリズムパターン及び各ノートの音高からなり、与えられた和音進行データを備えた基本曲データを供給する基本曲データ供給手段、この基本曲データに含まれるノートの音量を決定しメロディデータを生成するメロディデータ生成手段、並びに、和音進行データのコードに基づいて伴奏音の音量を決定し伴奏データを生成する伴奏音データ生成手段として機能させるためのプログラムを記録しているコンピュータ読み取り可能な楽曲データ生成のための記録媒体(請求項8)が提供される。
【0009】
〔発明の作用〕
この発明の第1の特徴によれば、与えられた曲構成データに基づいて基本曲データに含まれるノートの音量を決定し音量データを生成するようにしているので、例えば、曲構成において「サビ」が指定されている楽節でノート音量データのベロシティ値を増大させるなどの方法により音量が変化され、生成される楽曲データに表現に富んだ音量変化を与えることができる。
【0010】
この発明の第2の特徴によれば、与えられた和音進行データのコードに基づいて基本曲データに含まれるノートの音量を決定し音量データを生成するようにしているので、例えば、ドラマティックな印象を与えるためにノンダイアトニックコードなどの特殊なコード進行が指定されている区間においてノート音量データのベロシティ値を増大させるなどの方法により音量が変化され、生成される楽曲データに表現に富んだ音量変化を与えることができる。
【0011】
この発明の第3の特徴によれば、与えられた曲構成データに基づいて伴奏音の音量を決定するようにしているので、伴奏音量データについても、第1の特徴によるものと同様にベロシティ値を増大させるなどの方法によって音量を変化することができ、生成される楽曲データに更に表現に富んだ音量変化を与えることができる。また、この発明の第4の特徴によれば、与えられた和音進行データのコードに基づいて伴奏音の音量を決定するようにしているので、伴奏音量データについても、第2の特徴によるものと同様にベロシティ値を増大させるなどの方法によって音量を変化することができ、生成される楽曲データに更に表現に富んだ音量変化を与えることができる。
【0012】
【発明の実施の形態】
以下、図面を参照しつつ、この発明の好適な実施例を詳述する。なお、以下の実施例は単なる一例であって、この発明の精神を逸脱しない範囲で種々の変更が可能である。
【0013】
〔ハードウエア構成〕
図1を参照すると、ここには、この発明の一実施例による楽曲データ生成装置のハードウエア構成のブロック図が示されている。この例では、楽曲データ生成装置は、中央処理装置(CPU:central processing unit )1、タイマ2、読出専用メモリ(ROM:read only memory)3、ランダムアクセスメモリ(RAM:random access memory)4、第1の検出回路5、第2の検出回路6、表示回路7、音源回路8、効果回路9、外部記憶装置10、MIDI(Musical Instrument Digital Interface)インターフェイス(I/F)11及び通信インターフェイス12等を備え、これらの装置はバス13を介して互いに接続される。
【0014】
システム全体を制御するCPU1は、割込み処理に利用されるテンポクロックを発生するタイマ2を具備しており、所定のプログラムに従って種々の制御を行い、特に、後述する楽曲データ生成の機能を中枢的に遂行する。ROM3には、このシステムを制御するための所定の制御プログラムが記憶されており、これらの制御プログラムには、基本的な演奏情報処理の外に、この発明による楽曲データ生成に関する各種処理プログラムを含ませることができる。RAM4は、これらの処理に際して必要なメロディ生成用データ(DS)やパラメータを記憶し、また、各種レジスタやフラグ、処理中の各種データや生成された楽曲データ(MD,AD)等を一時記憶するためのワーク領域として用いられる。
【0015】
また、第1及び第2の検出回路5,6には、鍵盤14やスイッチ操作盤15が接続され、表示回路7にはディスプレイ16が接続され、効果回路9には、音源回路8からの演奏データに基づく楽音を演奏することができるように、サウンドシステム17が接続されている。スイッチ操作盤15には、この発明による楽曲データ生成装置の操作及び処理に必要な各種入力スイッチ類を備え、各種の指示、選択、データ入力等々の入力操作を行うことができる。
【0016】
外部記憶装置10には、ハードディスクドライブ(HDD:Hard Disk Drive )、フロッピーディスクドライブ(FDD:Floppy Disk Drive )、CD−ROM(Compact Disk Read Only Memory )ドライブ、光磁気(MO:Magneto-Optical )ディスクドライブ、DVD(Digital Video Disk)形ディジタル多目的ディスクドライブ等々、種々ある記憶装置のうちから、必要に応じて一つ又は複数の記憶装置が使用される。外部記憶装置8の記憶媒体には、この発明による楽曲データ生成処理に必要なメロディ生成用データ(DS)等のデータが記憶され、また、生成された楽曲データ(MD,AD)を記憶することができ、さらに、種々の演奏データを、例えば、MIDIフォーマットに従って記憶しておくこともできる。
【0017】
これらの装置1〜17によるシステムは、電子楽器の形態をとっているが、これに限らず、パソコン+アプリケーションソフトウェアの形態でもよい。アプリケーンョンソフトウェアは、磁気ディスク、光ディスク、半導体メモリ等の外部記憶装置の記憶媒体に記憶させ、パソコンに供給するようにしてもよいし、後述するように、ネットワークを介して供給するようにしてもよい。また、カラオケ装置に用いる楽曲データの作成等の機器にも適用できる。さらには、自動演奏ピアノに適用してもよい。
【0018】
電子楽器の形態を取った場合、その形態は図1のような鍵盤楽器に限らず、弦楽器タイプ、管楽器タイプ、打楽器タイプ等の形態でもよい。また、音源装置、自動演奏装置等を1つの電子楽器本体に内蔵したものに限らず、それぞれが別体の装置であり、MIDIや各種ネットワーク等の通信手段を用いて各装置を接続するものであってもよい。
【0019】
ここで、楽曲データ生成の適用に当り、先ず、自動演奏に関連する事項について述べると、演奏データのフォーマットについては、演奏イベントの発生時刻を1つ前のイベントからの時間で表した「イベント+相対時間」、演奏イベントの発生時刻を曲や小節内における絶対時間で表した「イベント+絶対時間」、音符の音高と符長あるいは休符と休符長で演奏データを表した「音高(休符)+符長」、演奏の最小分解能毎にメモリの領域を確保し、演奏イベントの発生する時刻に対応するメモリ領域に演奏イベントを記憶した「ベタ方式」等、どのような形式でもよい。
【0020】
自動演奏のテンポを変更する方法は、テンポクロックの周期を変更するものや、テンポクロックの周期はそのままでタイミングデータの値を修正するもの、l回の処理においてタイミングデータをカウントする値を変更するもの等、どのようなものであってもよい。また、複数チャンネル分の自動演奏データが存在する場合は、複数のチャンネルのデータが混在した形式であってもよいし、各チャンネルのデータがトラック毎に分かれているような形式であってもよい。さらに、メモリ上において、時系列の演奏データが連続する領域に記憶されるものに限らず、飛び飛びの領域に散在して記憶されているデータを、連続するデータとして別途管理するようにしてもよい(すなわち、時系列的に連続するデータとして管理することができればよく、メモリ上で連続して記憶されているか否かは問題ではない)。
【0021】
次に、音源に関連する事項について述べると、音源回路の方式は、波形メモリ方式、FM方式、物理モデル方式、高調波合成方式、フォルマント合成方式、VCO+VCF+VCAのアナログシンセサイザ方式、アナログシミュレーション方式等、どのような方式であってもよい。また、専用のハードウェアを用いて音源回路を構成するものに限らず、DSP+マイクロプログラムを用いて音源回路を構成するようにしてもよいし、CPUソフトウェアのプログラムで音源回路を構成するようにしてもよい。さらに、1つの回路を時分割で使用することによって複数の発音チャンネルを形成するようなものでもよいし、1つの発音チャンネルが1つの回路で構成されるような形式のものであってもよい。
【0022】
この発明のシステムでは、さらに、バス13にMIDIインターフェイス(MIDI I/F)11及び通信インターフェイス12が接続され、他のMIDI機器18とMIDI形式の演奏データ等を授受することができ、また、通信ネットワーク19を介してサーバコンピュータ20と通信することができる。なお、MIDIインターフェースについては、専用のMIDIインターフェースに限らず、RS−232C、USB(ユニバーサル・シリアル・バス)、IEER1394(アイトリプルイー1394)等の汎用のインターフェースを用いてMIDIインターフェースを構成してもよい。この場合、MIDIメッセージ以外のデータをも同時に送受信するようにしてもよい。
【0023】
ここで、この発明のシステムに関連して、外部記憶装置10として、ハードディスクドライブやCD−ROMドライブを利用する例について述べておく。HDD(ハードディスクドライブ)は制御プログラムや各種データを記憶しておく記憶装置である。ROMに制御プログラムが記憶されていない場合、このHDD内のハードディスクに制御プログラムを記憶させておき、それをRAMに読み込むことにより、ROMに制御プログラムを記憶している場合と同様の動作をCPUにさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。CD−ROMドライブは、着脱自在なCD−ROMに記憶されている制御プログラムや各種データを読み出す装置である。読み出した制御プログラムや各種データは、HDD内のハードディスクにストアすることができ、このため、制御プログラムの新規インストールやバージョンアップ等が容易に行える。
【0024】
また、通信インターフェース12に接続されるネットワーク19を利用してプログラムをダウンロードする例についても説明しておく。通信インターフェース12は、LAN(ローカルエリアネットワーク)やインターネット、電話回線等の通信ネットワーク19に接続されており、このような通信ネットワーク19を介してサーバコンピュータと接続される。ROM3やハードディスク装置(10)内に制御プログラムや各種データが記憶されていない場合、通信インターフェース12はサーバコンピュータ20からプログラムやデータをダウンロードするために用いられる。クライアントとなるこの発明のシステムは、通信インターフェース12及び通信ネットワーク19を介してサーバコンピュータ20へとプログラムやデータのダウンロードを要求するコマンドを送信する。サーバコンピュータ20は、このコマンドを受け、要求されたプログラムやデータを、通信ネットワーク19を介してこのシステムへと配信し、システムは、通信インターフェース12を介して、これらプログラムやデータを受信してハードディスク装置(10)に蓄積することにより、ダウンロードが完了する。
【0025】
〔楽曲データ生成手順〕
さて、図2には、この発明の一実施例の楽曲データ生成装置により実行される楽曲データ生成手法を具体的に表わした機能ブロック図が示されている。この発明の実施例による楽曲データ生成手法をこの機能ブロック図に従って詳細に説明する。この実施例においては、メロディ生成用データDSから楽曲データを生成するために、基本リズム生成部FRB、音高生成部TPB、シンコペーション決定部SRB、アーティキュレーション決定部ARB、メロディ音量決定部MVB、メロディデータ生成部MDB、伴奏音量決定部AVB及び伴奏データ生成部ADBが備えられる。
【0026】
〔メロディ生成用データ〕
メロディ生成用データ発生部DSBは、メロディを生成するためのメロディ生成用データを発生する。このメロディ生成用データDSBは、1曲分のリズム特徴データRC、ロックやジャズ、ポピュラー等のジャンルを表わすジャンルデータGN、1曲分の小節先頭ノートや強拍のノートなどのメロディ中の重要な音のピッチを示す骨格データSF、複数の楽節間の類似度を楽節毎の記号列で表わす曲構成データMT、並びに、1曲分のコード進行を表わすコード進行データCS等から成り、生成されるメロディに対し1曲分の曲テンプレートを提供する。
【0027】
リズム特徴データRCは、拍子やテンポの他に、音符の粗密、シンコペーション(syncopation)の有無を表わす情報等を含んでいる。ここで、シンコペーションとは、小節内の弱拍或いは弱部を強調したリズムのとり方をいう。例えば、4/4拍子の場合、一般的には、小節の強拍とは1拍目を指し、3拍目がこれに次ぎ、従って、2拍目と4拍目が弱拍にあたる。また、拍の強部とは各拍の表側(ダウンビート)であり、裏側(アップビート)が弱部とされる。シンコペーションにおいては、この強拍と弱拍或いは強部と弱部の強弱関係が逆転しており、これらの強弱部分の逆転による一種の意外感がシンコペーションを効果的なものとする。特に、ジャズやラテン等のジャンルにおいては、このシンコペーションの特徴を大いに活用することができる。
【0028】
また、曲構成データMTについては、例えば、生成すべきメロディが4楽節からなり、その曲構成データが4楽節分の記号列「A−A’−B−C」で表わされるものとすると、第1楽節の記号「A」と第2楽節の記号「A’」により類似を表わし、第3楽節の記号「B」及び第4楽節「C」は第1楽節や第2楽節とは非類似を表わすというように、複数の楽節間の類似度を楽節記号列で表わすものものであり、楽節によっては「サビ」が指定されているものもある。ここで、「サビ」とは、楽曲の中間部分で曲冒頭のテーマとは対照的な楽節部分であり、例えば、上記の例の記号「B」のように、第3楽節に「さび」が指定されることが多い。
【0029】
〔メロディデータ生成系〕
先ず、基本リズム生成部FRBは、リズム特徴データRC、ジャンルデータGN及び曲構成データMTに基づいて1曲分の基本リズムパターンFRを生成する機能ブロックである。例えば、ジャンル毎にそのジャンルに適した複数のリズムパターンを予めデータベース化しておき、ジャンルデータGNによってジャンルが指定されると、指定されたジャンル内のリズムパターンのうち、リズム特徴データRCに合致したものを選択する。この際、曲構成データMTにて指定される類似・非類似に合致したものを選択するようにする。このようにして、1曲分の基本リズムパターンFRを生成する。
【0030】
音高生成部TPBは、基本リズム生成部FRBにおいて生成された基本リズムパターンFRの各ノートに対して、音高TPを付与する機能ブロックである。ここでは、各ノートのうちの重要なノートに骨格データSFのピッチを割当て、残ったノートのピッチは、コード進行(CS)に合ったスケール音の中から適当に選択する。この際、曲構成データMTによって指定される類似・非類似を考慮してピッチを付与する。例えば、前の楽節と類似する楽節には、楽節の前半は同一ピッチとし後半は異なるピッチとするというような、類似ピッチを指定する。なお、骨格データSFは、コード進行(CS)と曲構成データMTにマッチしたピッチを有しているものとする。基本リズム生成部FRB及び音高生成部TPBで得られた基本リズムパターンFR及び音高TPは、基本曲データを構成する基礎的な楽曲要素となる。
【0031】
シンコペーション決定部SRBは、基本リズムパターンFR及び音高TPに基づいて、シンコペーションを挿入する機能ブロックである。ここでは、例えば、基本リズムパターンFR中の強拍のノートに対する音高と、その直前の弱拍のノートの音高とが同じ音高であった場合、直前の弱拍のノートの音長を強拍のノートの終わりまで延ばし、強拍のノートを削除することにより、強拍のノートがその直前の弱拍のノートの位置に移動したようアクセントをつけるというようにして、シンコペーションを挿入する。
【0032】
一方、アーティキュレーション決定部ARBは、シンコペーション挿入処理後のリズムパターンSRと音高TPに基づいて、アーティキュレーションARを付与する機能ブロックである。ここで、アーティキュレーションは、通常、メロディやフレーズの短い部分に強弱や区切り又は音の長短などの変化を付けて表現することを指すが、この発明においては、特に「音の長短の変化」のことを意味するものとする。この機能ブロックにおいては、例えば、リズムパターンSR中の各ノートの音長に、「通常」/「スタッカート」/「テヌート」の中の何れかをランダムに割り当てることによって、アーティキュレーションの一手法として、音の長短に変化をつける。
【0033】
この割当ての際には、後ろの音との音高差を考慮し、差が大きいときは「スタッカート」、小さいときは「テヌート」になり易いようにランダム値に重み付けをしておく。このようにすることで、より自然なアーティキュレーションを付与することができる。例えば、鍵盤楽器などにおいて音高差が大きい2音を続けて演奏するときには、手が鍵盤から一瞬はなれるので音長が短くなり易く、逆に音高差が小さいときは手を離さずに演奏できるので、音長が長くなり易いという傾向があるが、このような重み付けにより、このような傾向の音長変化を模倣することができる。
【0034】
また、「通常」/「スタッカート」/「テヌート」の中の何れかをランダムに割り当てる際、各種類の出現割合が所定割合になるようにすることが好ましい。例えば、「スタッカート」が多くなり過ぎないよう、或いは「テヌート」が多くなり過ぎないように各種類を分散させるのである。
【0035】
メロディ音量決定部MVBは、シンコペーション決定部SRBによりシンコペーション挿入処理がなされた後のリズムリズムパターンSR及び音高生成部TPBにより生成された音高TPによって表わされるメロディの各ノート(元々のベロシティは所定の基準値)について、ノート毎にベロシティ値が変化するようにメロディ音量を決定する機能ブロックである。音量決定の要素としては、アーティキュレーション(AR)、音高(TP)、曲構成(MT)、コード進行(CS)、シンコペーション(SR)がある。
【0036】
メロディ音量を決定するためのルールの具体的な例を示すと、以下の各項のとおりである。なお、複数の項に該当する音については、該当する各項でのベロシティ値変化量(増加量乃至減少量)の合計をその音に与えるものとするが、それによってベロシティ値の最大値を超えてしまったときは、最大値でリミットをかけるようにする。
(1)アーティキュレーションARとして「スタッカート」が指定されている音符は、ベロシティを所定値(例えば、「+10」)だけ増加させる。
(2)シンコペーション(SR)が付与された音符は、ベロシティを所定値(例えば、「+10」と「+20」の内の何れかをランダムに選択)増加させる。
(3)音高TPの跳躍が前後の音に対して大きい(音高差が所定値以上)の場合は、ベロシティを所定値(例えば、「+10」と「+20」の内の何れかをランダムに選択)増加させる。
(4)音高STが高いほどベロシティ値を大きくする。例えば、音高の平均値を基準として、それよりも大きければ平均値との差に応じた量だけベロシティ値を増加させ、小さければ平均値との差に応じた量だけ減少させる。
(5)曲構成(MT)において「サビ」が指定されている楽節は、ベロシティ値を所定値(例えば+10)増加させる。
(6)コード進行(CS)において、特殊なコード進行の区間の音のベロシティ値を所定値(例えば+10)増加させる。このような特殊なコード進行の区間には、例えば、ドラマティックな印象を与えるためにノンダイアトニックコードが指定されている区間がある。
【0037】
メロディデータ生成部MDBは、シンコペーション決定処理後のリズムパターンSR、音高TP、アーティキュレーションAR、音量(ベロシティ)MVを総合して、メロディデータを生成する機能ブロックである。すなわち、ここでは、各ノートについて、リズムパターンSRに応じた発音タイミング、音高TP、アーティキュレーションARに応じたゲートタイム、及び、ベロシティMVを有するノートデータ列をメロディデータMDとして生成する。そして、生成されたメロディデータMDに基づいてメロディ用音源MSSによりメロディパートの楽音を発生させる。
【0038】
〔伴奏データ生成系〕
上述したメロディデータ生成系に対して、この発明の一実施例においては、伴奏音量決定部AVB及び伴奏データ生成部ADBから成る伴奏データ生成系を備える。先ず、伴奏音量決定部AVBは、後で説明述する伴奏音生成部ADBにおいて生成される伴奏音の音量(ベロシティ値)を変化させるようにする機能ブロックである。伴奏音量決定の要素としては、曲構成(MT)、コード進行(CS)がある。伴奏音量を決定するためのルールの具体的な一例を、次項(1),(2)に示す。
【0039】
(1)曲構成(MT)において「サビ」が指定されている楽節は、ベロシティ値を所定値(例えば+1 0)増加させる。
(2)コード進行(CS)における特殊なコード進行の区間(例えば、ドラマティックな印象を与えるためにノンダイアトニックコードが指定されている区間)の音は、ベロシティ値を所定値(例えば+10)増加させる。
【0040】
ここで、複数の項に該当する音は、該当する各項でのベロシティ値変化量(増加量乃至減少量)の合計をその音に与え、それによってベロシティ値の最大値を超えてしまったときは、最大値でリミットをかけるものとする。また、伴奏音が複数のパート(例えば、リズムパート、ベースパート、ギターやピアノ、ブラス等のコードパッキングパートなど)から構成される場合には、各パートのノートのベロシティ値を一律に増加させてもよいし、パート毎に増加のさせ方を異ならせるようにしてもよい。すなわち、増加させるパートとさせないパートがあってもよいし、増加させるパートについて、増加量が異なっていてもよい。
【0041】
伴奏データ生成部ADBは、ジャンル毎に伴奏パターンデータを予め記憶しておき、メロディ生成用データDS中のジャンル(GN)に応じて、該ジャンルに属する伴奏パターンデータを選択して読み出す。そして、(リズムパートを除く)伴奏パターン中のノートデータをメロディ生成用データDS中のコード進行(CS)にあうように音高修正し、伴奏パターン中の各ノートのベロシティ値には、伴奏音量決定部ACBにおいて決定された値を適用することにより、伴奏データADを生成する。そして、伴奏データ生成部ADBで生成された伴奏データADに基づいて伴奏用音源ASSにより伴奏パートの楽音を発生させる。
【0042】
なお、メロディ音量決定部MVB、伴奏音量決定部AVBにおいては、上述した例では、音量を変化させるためにノート毎のベロシティ値を変化させるようにしたが、これに限らず、聴感上の音の強さが異なるようにすればよく、例えば、MIDIにおけるボリュームやエクスプレツションをコントロールしたり、音源のフィルタの特性をコントロールしたりしてもよい。例えば、フィルタのカットオフ周波数が低ければこもった弱い音に感じ、カットオフ周波数が高ければきらびやかな強い音に感じるという効果が得られる。また、ビブラートを強く掛けることで、音が強くなっていることを表わしてもよい。さらに、これらのうちのいくつかを同時に作用させてもよい。
【0043】
また、アーティキュレーション決定部ARBにおいては、上述した例では、「通常」/「スタッカート」/「テヌート」の何れかに各ノートの音長を決定するようにしたが、「テヌート」にする際に、音長を延ばすだけでなく次の音の発音時に再発音させず、音高を差し替える(即ち、連続する2つの音を、該2つの音の長さ分の1つの音にするとともに、2つめの音の発音タイミングで2つめの音の音高に差し替える)ことで「テヌート」を表現するようにしてもよい。
【0044】
〔具体例〕
図3及び図4には、上述した実施例の方法を図解的に理解することができるように、生成されるメロディデータ及びその音量変化の例が、時間軸を横方向にとり極く簡略化して示されている。横方向の時間は、図3においては1小節分が8つの拍期間から成り、図4では1曲分が4楽節乃至8つの区間から成るものとして示されている。生成されるメロディデータMDの音高及び音長は、図3(A)に示され、1つの矩形枠は1つのノートを表わしており、各矩形枠の縦軸方向の位置が各ノートの音高を表わす。図3(B)〜図3(E)及び図4は、各バーの縦軸方向位置(高さ)によって各種パラメータによる音量変化を示している。
【0045】
図3(B)〜図3(D)においては、各バーの縦軸方向位置が各ノートのベロシティ値を表わす。つまり、この例の場合、アーティキュレーション(AR)として小節内の第2,3,8拍期間の各ノートは、「スタッカート」が指定されているので、メロディ音量決定ルール(1)に従って図3(B)のようにベロシティ値が増大させられる。また、この小節内の第4〜5拍期間のノートは、シンコペーション(SR)が挿入されているので、同ルール(2)により図3(C)のようにベロシティ値が増大させられる。さらに、この第4〜5拍期間ノートの音高(TP)は直前の第3拍期間のノートからピッチが大きく跳躍しているので、同ルール(3)により図3(D)のようにベロシティ値が増大させられる。さらに、同ルール(4)に従って、図3(E)のように音高が高いノートほどベロシティ値を大きく、逆に音高が低いノートほどベロシティ値を小さくする。
【0046】
図4は、生成されるメロディの音量を曲構成(MT)及びコード進行(CS)に基づいて変化させる例を示しており、図4(A)及び図4(B)の各上部には、4楽節(1曲)分の曲構成(MT)及びコード進行(CS)が示されている。この例では、曲構成(MT)で第3楽節に「サビ」が指定されているので、この楽節内のノートのベロシティ値は、メロディ音量決定ルール(5)によって図4(A)のように増大させられる。また、コード進行(CS)については、第2,4区間に特殊なコード進行が指定されているので、第2,4区間内のノートのベロシティ値が、メロディ音量決定ルール(6)によって図4(B)のように増大させられる。
【0047】
そして、生成されるべきメロディの各楽節乃至区間内のノートの音量は、これらのベロシティ値の合計に基づいづいたものとなる。つまり、各ノート毎に図3(B)〜(E)に示されるベロシティ値が合計され、各楽節乃至区間毎のノートには図4(A),(B)に示されるベロシティ値が加算され、これらのベロシティ値の総和に基づいて各ノートの音量が決定される。
【0048】
〔種々の実施態様例〕
以上一実施例についてこの発明の楽曲データ生成手順を説明したが、種々の変更が可能である。実施例のように1曲分の曲テンプレートを基にしてメロディを生成する方法に限らず、どのような方法でメロディを生成させるようにしてもよい。例えば、モチーフメロディをユーザが入力し、このモチーフメロディを発展させてメロディを生成するような方法でもよい。また、それぞれ特徴情報を有した多数の曲テンプレートを記憶しておき、入力したモチーフメロディの特徴とマッチする特徴情報を有する曲テンプレートを選択し、このようにして選択された曲テンプレートに基づいてメロディを生成してもよい。また、曲テンプレートを用いる方法をとる場合、コード進行データや基本リズムパターン、骨格データ等、一部のデータについては、予め記憶せずに演算で求めるようなものであってもよいし、或いは、全て演算によってメロディを生成するようにしてもよい。
【0049】
実施例のようにメロディ生成用データ(DS)中に曲構成データやコード進行データが含まれているものに限らず、曲構成データやコード進行データが含まれている自動伴奏用のデータを記憶しておき、このデータ中の曲構成データやコード進行データに基づいてメロディを生成するようにしてもよい。このようにすると、予め用意されている自動伴奏用データに合ったメロディを生成することができる。この場合、自動伴奏用データ中の曲構成データやコード進行データに基づいて、生成されたメロディの音量を決定すればよい。
【0050】
メロディ音量を決定する要素として、実施例では、アーティキュレーション(AR)、音高(TP)、曲構成(MT)、コード進行(CS)及びシンコペーション(SR)を用いているが、これらのうちの一部分のみの要素でもよいし、これら以外の要素があってもよい。
【0051】
実施例では、リズムパターン(FR)及び音高(TP)を別々に生成し、これらリズムパターン及び音高に基づいて音量やアーティキュレーション(各ノートの音長)を決定した後、リズムパターン、音高、音量、アーティキュレーンョンを組み合わせて実際のメロディデータを生成(完成)するようにしている。これと異なる方法として、リズムパターンと音高が一体となった基本メロディデータを先に生成し、その後、この基本メロディデータ中のリズムや音高に基づいて音量やアーティキュレーションを決定し、この音量やアーティキュレーションによって基本メロディデータに対する音量や音長を決定してメロディデータを生成するようにしてもよい。
【0052】
実施例においては、シンコペーション決定部SRB及びアーティキュレーション決定部ARBによってシンコペーションSR及びアーティキュレーションARが決定され、この決定結果に基づいてメロディ音量MVを決定するようにしている。つまり、生成された基本リズムパターン(FR)に対してシンコペーション(SR)やアーティキュレーション(AR)を付与した後、シンコペーションやアーティキュレーシヨン(スタッカート)を付与したノートの音量を決定するようにした。このような方法とは別の方法をとることができる。例えば、既にシンコペーシヨンが含まれているメロディ又はリズムパターンの中からシンコペーションを検出するシンコペーション検出部を設け、このシンコペーション検出部による検出結果に基づいて音量を決定したり、既にアーティキュレーシヨンが付与されているメロディ又はリズムパターンの中からアーティキュレーションを検出するアーティキュレーション検出部を設け、このアーティキュレーション検出部による検出結果に基づいて音量を決定するようにしてもよい。
【0053】
生成する楽曲データは、単独のメロディに限らず、複数旋律から成るメロディであってもよい。また、メロディ以外のパートのデータを生成してもよい。
【0054】
また、自動メロディ生成に限らず、既存の楽曲データやユーザが手入力した楽曲データの音量決定にも適用することができる。この場合、基本リズムパターン(FR)に代えて楽曲データのリズムパターン(タイミングデータ)を供給すると共に、生成された音高(TP)に代えて楽曲データの音高データを供給するようにすればよい。さらに、この楽曲データに含まれる伴奏データの音量の決定にも適用することができる。
【0055】
【発明の効果】
以上説明したように、この発明によると、感情の起伏曲線やアクセント記号なしに、表現に富んだ楽曲データを生成することができ、また伴奏の音量をも制御することができる。
【0056】
すなわち、この発明によると、基本的なリズムパターン及び各ノートの音高からなり、与えられた曲構成データを備えた基本曲データを供給し、この基本曲データに含まれるノートの音量を曲構成データに基づいて決定し音量データを生成し、この音量データ及び基本曲データに基づいて楽曲データを生成するようにしているので、曲構成において「サビ」が指定されている楽節でノートのベロシティ値を増大させることなどによって、生成される楽曲データに表現に富んだ音量変化を与えることができる。
【0057】
この発明によると、基本的なリズムパターン及び各ノートの音高からなり、与えられた和音進行データを備えた基本曲データを供給し、この基本曲データに含まれるノートの音量を和音進行データに基づいて決定し音量データを生成し、この音量データ及び基本曲データに基づいて楽曲データを生成するようにしているので、ドラマティックな印象を与えるためにノンダイアトニックコードなどの特殊なコード進行が指定されている区間でノートのベロシティ値を増大させることなどによって、生成される楽曲データに表現に富んだ音量変化を与えることができる。
【0058】
この発明では、伴奏データについても、基本的なリズムパターン及び各ノートの音高からなり、与えられた曲構成データ或いは和音進行データを備えた基本曲データを生成し、この基本曲データに含まれるノートの音量を決定しメロディデータを生成する一方、伴奏データについても、曲構成データ或いは和音進行データに基づいて伴奏音の音量を決定し伴奏データを発生するようにしているので、伴奏音量についても、メロディ音量と同様のベロシティ値増大などによって、生成される楽曲データに更に表現に富んだ変化を与えることができる。
【図面の簡単な説明】
【図1】図1は、この発明の一実施例のハードウエア構成を示すブロック図である。
【図2】図2は、この発明の一実施例による楽曲データ生成手法を示す機能ブロック図である。
【図3】図3は、生成されるメロディデータ及びその音量変化の例を示す図である。
【図4】図4は、生成されるメロディデータの音量変化の他の例を示す図である。
【符号の説明】
RC リズム特徴データ、
GN ジャンルデータ、
SF 骨格データ、
MT 曲構成データ、
CS コード進行データ、
FR 基本リズムパターン、
TP 音高、
SR シンコペーション決定処理後のリズムパターン、
AR アーティキュレーション、
MV メロディ音量、
MD メロディデータ、
AV 伴奏音量、
AD 伴奏データ。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a music data generation device and a recording medium therefor. More particularly, the present invention relates to a music data generation apparatus that automatically generates musical music data rich in melody expression and a recording medium therefor.
[0002]
[Prior art]
Various proposals have been made for automatically generating music data such as a melody. For example, in Japanese Patent Laid-Open No. 9-60278, music corresponding to lyrics is generated based on lyrics data and music feature data, or new music is generated based on feature data extracted by analyzing music for each section. An automatic composition device is disclosed. According to this automatic musical composition device, as illustrated in FIGS. 6 to 8 of the publication, accent data set in the lyrics [FIG. 7E: accent symbol “•”, FIG. 8A: “accent” ] And the emotion relief curve included in the song template (FIG. 6: “Emotion relief”), the velocity and volume of the generated melody are determined (FIG. 1: Step 23, paragraph [0068], FIG. 8 (B): “Velocity” / “Volume”], music data rich in expression is generated.
[0003]
However, in such a conventional technique, it is not possible to generate music data rich in expression without emotional relief curves and accent symbols, and in order to generate music data rich in expression, emotional relief curves are created in advance. It was necessary to prepare or set accent marks.
[0004]
[Problems to be solved by the invention]
In view of such inconveniences, the present invention has as its main object to provide a music data generating apparatus and a recording medium therefor that can generate music data rich in expression without the undulation curve or accent symbol of emotion. To do. Another object of the present invention is to provide a music data generating apparatus capable of controlling the volume of accompaniment and a recording medium therefor.
[0005]
[Means for Solving the Problems]
According to the first aspect of the present invention, basic music data supply means for supplying basic music data comprising a basic rhythm pattern and the pitch of each note and having given music composition data, Volume data generating means for determining the volume of the included notes based on the music composition data and generating volume data, and music data generation means for generating music data based on the volume data and basic music data A basic tune data supply means for supplying a basic tune data comprising a basic rhythm pattern and the pitch of each note and having given tune composition data is provided. Volume generation means for determining the volume of a note included in song data based on song composition data and generating volume data, and the volume data and the basis Recording medium for recording to have a computer-readable music data generating program to function as a music data generating means for generating the music data based on the music data (claim 2) is provided.
[0006]
According to the second feature of the present invention, basic music data supply means for supplying basic music data comprising a basic rhythm pattern and the pitch of each note and having given chord progression data, Volume data generating means for determining the volume of the included notes based on the chord progression data code and generating volume data, and music data including music data generating means for generating music data based on the volume data and basic music data A basic tune data supply means for supplying a basic tune data comprising a basic rhythm pattern and the pitch of each note and having given chord progression data is provided. Volume generation means for determining the volume of the notes included in the basic song data based on the chord progression data code and generating volume data, and There is provided a recording medium for generating computer-readable music data in which a program for functioning as music data generating means for generating music data based on the sound volume data and basic music data is recorded (claim 4). The
[0007]
According to the third aspect of the present invention, basic music data supply means for supplying basic music data comprising a basic rhythm pattern and the pitch of each note and having given music composition data, Melody data generating means for determining the volume of included notes and generating melody data, and a music data generating device (accompaniment sound data generating means for determining accompaniment sound volume based on song composition data and generating accompaniment data) 5. Basic music data supply means for supplying basic music data comprising a basic rhythm pattern and the pitch of each note and having given music composition data to the computer, and the basic music data Melody data generating means for determining the volume of notes included in the melody and generating melody data, Recording medium for programs recorded and has computer-readable music data generate in order to function as the accompaniment sound data generating means for generating a constant and accompaniment data (claim 6) are provided.
[0008]
According to the fourth aspect of the present invention, basic music data supply means for supplying basic music data comprising a basic rhythm pattern and the pitch of each note and having given chord progression data, Melody data generating means for determining the volume of included notes and generating melody data, and music data generation including accompaniment sound data generating means for determining accompaniment sound volume based on chord progression data code and generating accompaniment data A basic tune data supply means for supplying a basic tune data comprising a basic rhythm pattern and the pitch of each note and having given chord progression data is provided. Melody data generating means for determining the volume of notes included in song data and generating melody data, and chord progression data code There is provided a recording medium for generating computer-readable music data in which a program for functioning as accompaniment sound data generation means for determining accompaniment sound volume and generating accompaniment data is provided. The
[0009]
[Effects of the Invention]
According to the first feature of the present invention, the volume of the notes included in the basic song data is determined based on the given song composition data and the volume data is generated. The volume is changed by a method such as increasing the velocity value of the note volume data in a passage in which “is designated”, and thus the volume change rich in expression can be given to the generated music data.
[0010]
According to the second feature of the present invention, since the volume of the note included in the basic song data is determined based on the chord progression data given to generate the volume data, for example, a dramatic impression The volume of the generated music data is rich in expression by changing the volume by increasing the velocity value of the note volume data in a section where special chord progressions such as non-diatonic chords are specified to give Can give change.
[0011]
According to the third feature of the present invention, since the volume of the accompaniment sound is determined based on the given music composition data, the velocity value of the accompaniment volume data is also the same as that according to the first feature. The volume can be changed by a method such as increasing the volume, and the volume change rich in expression can be given to the generated music data. According to the fourth feature of the present invention, since the volume of the accompaniment sound is determined based on the chord of the given chord progression data, the accompaniment volume data is also according to the second feature. Similarly, the volume can be changed by a method such as increasing the velocity value, and the volume change rich in expression can be given to the generated music data.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. The following embodiments are merely examples, and various modifications can be made without departing from the spirit of the present invention.
[0013]
[Hardware configuration]
Referring to FIG. 1, there is shown a block diagram of a hardware configuration of a music data generating apparatus according to an embodiment of the present invention. In this example, the music data generating device includes a central processing unit (CPU) 1, a timer 2, a read only memory (ROM) 3, a random access memory (RAM) 4, 1 detection circuit 5, second detection circuit 6, display circuit 7, sound source circuit 8, effect circuit 9, external storage device 10, MIDI (Musical Instrument Digital Interface) interface (I / F) 11, communication interface 12, etc. These devices are connected to each other via a bus 13.
[0014]
The CPU 1 that controls the entire system includes a timer 2 that generates a tempo clock used for interrupt processing, and performs various controls according to a predetermined program. Carry out. The ROM 3 stores predetermined control programs for controlling the system. These control programs include various processing programs related to music data generation according to the present invention in addition to basic performance information processing. Can be made. The RAM 4 stores melody generation data (DS) and parameters necessary for these processes, and temporarily stores various registers and flags, various data being processed, generated music data (MD, AD), and the like. It is used as a work area for
[0015]
A keyboard 14 and a switch operation panel 15 are connected to the first and second detection circuits 5 and 6, a display 16 is connected to the display circuit 7, and a performance from the tone generator circuit 8 is connected to the effect circuit 9. A sound system 17 is connected so that musical sounds based on the data can be played. The switch operation panel 15 is provided with various input switches necessary for the operation and processing of the music data generating apparatus according to the present invention, and can perform input operations such as various instructions, selection, and data input.
[0016]
The external storage device 10 includes a hard disk drive (HDD), a floppy disk drive (FDD), a compact disk read only memory (CD-ROM) drive, a magneto-optical (MO) disk. Among various storage devices such as a drive, a DVD (Digital Video Disk) type digital multipurpose disk drive, etc., one or a plurality of storage devices are used as required. The storage medium of the external storage device 8 stores data such as melody generation data (DS) necessary for the music data generation processing according to the present invention, and also stores the generated music data (MD, AD). Furthermore, various performance data can be stored in accordance with, for example, the MIDI format.
[0017]
The system using these devices 1 to 17 is in the form of an electronic musical instrument, but is not limited thereto, and may be in the form of a personal computer + application software. The application software may be stored in a storage medium of an external storage device such as a magnetic disk, an optical disk, or a semiconductor memory, and supplied to a personal computer, or supplied via a network as will be described later. Also good. Moreover, it is applicable also to apparatuses, such as preparation of the music data used for a karaoke apparatus. Furthermore, you may apply to an automatic performance piano.
[0018]
When taking the form of an electronic musical instrument, the form is not limited to the keyboard musical instrument as shown in FIG. 1, but may be a string musical instrument type, a wind instrument type, a percussion instrument type, or the like. In addition, the sound source device, the automatic performance device, etc. are not limited to those built in one electronic musical instrument body, but each is a separate device, and each device is connected using communication means such as MIDI or various networks. There may be.
[0019]
Here, in the application of music data generation, first, matters related to automatic performance will be described. As for the format of performance data, “event +” represents the occurrence time of the performance event as the time from the previous event. “Relative time”, “Event + absolute time” that shows the time of occurrence of a performance event in absolute time within a song or measure, “Pitch” that shows performance data in terms of note pitch and note length or rest and rest length (Rest) + note length "," Beta method "where a memory area is secured for each minimum performance resolution and the performance event is stored in the memory area corresponding to the time when the performance event occurs. Good.
[0020]
The method for changing the tempo of automatic performance is to change the tempo clock period, to modify the timing data value while keeping the tempo clock period unchanged, or to change the timing data count value in l processes. Any thing may be used. When there are automatic performance data for a plurality of channels, a format in which data for a plurality of channels is mixed may be used, or a format in which data for each channel is separated for each track may be used. . Furthermore, the data stored in the memory is not limited to the time-series performance data stored in the continuous area on the memory, but may be separately managed as continuous data. (That is, it only needs to be managed as time-sequential data, and it does not matter whether the data is continuously stored in the memory).
[0021]
Next, the items related to the sound source will be described. The sound source circuit methods include waveform memory method, FM method, physical model method, harmonic synthesis method, formant synthesis method, VCO + VCF + VCA analog synthesizer method, analog simulation method, etc. Such a method may be used. In addition, the sound source circuit is not limited to a configuration using a dedicated hardware, but a sound source circuit may be configured using a DSP + microprogram, or a sound source circuit may be configured using a CPU software program. Also good. In addition, a plurality of sound generation channels may be formed by using one circuit in a time-sharing manner, or a type in which one sound generation channel is configured by one circuit may be used.
[0022]
In the system of the present invention, a MIDI interface (MIDI I / F) 11 and a communication interface 12 are further connected to the bus 13, so that performance data in MIDI format can be exchanged with other MIDI devices 18, and communication is also possible. Communication with the server computer 20 is possible via the network 19. Note that the MIDI interface is not limited to a dedicated MIDI interface, and a MIDI interface may be configured using a general-purpose interface such as RS-232C, USB (Universal Serial Bus), and IEEE 1394 (I Triple 1394). Good. In this case, data other than MIDI messages may be transmitted and received simultaneously.
[0023]
Here, an example of using a hard disk drive or a CD-ROM drive as the external storage device 10 will be described in relation to the system of the present invention. An HDD (Hard Disk Drive) is a storage device that stores control programs and various data. When the control program is not stored in the ROM, the control program is stored in the hard disk in the HDD, and by reading it into the RAM, the CPU performs the same operation as when the control program is stored in the ROM. Can be made. In this way, control programs can be easily added and upgraded. The CD-ROM drive is a device that reads a control program and various data stored in a detachable CD-ROM. The read control program and various data can be stored in a hard disk in the HDD, so that a new installation or upgrade of the control program can be easily performed.
[0024]
An example of downloading a program using the network 19 connected to the communication interface 12 will also be described. The communication interface 12 is connected to a communication network 19 such as a LAN (local area network), the Internet, or a telephone line, and is connected to a server computer via such a communication network 19. When the control program and various data are not stored in the ROM 3 or the hard disk device (10), the communication interface 12 is used for downloading the program and data from the server computer 20. The system of the present invention as a client transmits a command for requesting download of a program or data to the server computer 20 via the communication interface 12 and the communication network 19. Upon receiving this command, the server computer 20 distributes the requested program and data to this system via the communication network 19, and the system receives these program and data via the communication interface 12 and receives the hard disk. Downloading is completed by accumulating in the device (10).
[0025]
[Music data generation procedure]
FIG. 2 is a functional block diagram specifically showing the music data generation method executed by the music data generation apparatus according to the embodiment of the present invention. A music data generation method according to an embodiment of the present invention will be described in detail with reference to this functional block diagram. In this embodiment, in order to generate music data from melody generation data DS, basic rhythm generation unit FRB, pitch generation unit TPB, syncopation determination unit SRB, articulation determination unit ARB, melody volume determination unit MVB, A melody data generation unit MDB, an accompaniment volume determination unit AVB, and an accompaniment data generation unit ADB are provided.
[0026]
[Melody generation data]
The melody generation data generator DSB generates melody generation data for generating a melody. This melody generation data DSB is an important melody such as rhythm feature data RC for one song, genre data GN representing a genre such as rock, jazz, popular, etc. The skeleton data SF indicating the pitch of the sound, the music composition data MT representing the similarity between a plurality of passages by a symbol string for each passage, the chord progression data CS representing the chord progression of one song, and the like are generated. A song template for one song is provided for the melody.
[0027]
The rhythm characteristic data RC includes information indicating the density of notes and the presence or absence of syncopation in addition to the time signature and tempo. Here, syncopation is a method of taking a rhythm that emphasizes weak beats or weak parts in a measure. For example, in the case of a 4/4 time signature, the strong beat of a bar generally refers to the first beat, the third beat follows, and the second and fourth beats thus correspond to weak beats. The strong part of the beat is the front side (down beat) of each beat, and the back side (up beat) is the weak part. In the syncopation, the strong beat and the weak beat or the strong / weak relation of the strong part and the weak part are reversed, and a kind of unexpected feeling due to the reverse of these strong and weak parts makes the syncopation effective. In particular, in the genres such as jazz and Latin, the characteristics of this syncopation can be greatly utilized.
[0028]
As for the music composition data MT, for example, if the melody to be generated consists of four sections and the music composition data is represented by the symbol string “AA′-BC” for the four sections. The symbol “A” in the first passage and the symbol “A ′” in the second passage are similar, and the symbols “B” and “C” in the third passage are dissimilar from the first and second passages. As shown, the similarity between a plurality of passages is expressed by a passage symbol string, and some passages are designated with “rust”. Here, the “rust” is an intermediate portion of the music that is in contrast to the theme at the beginning of the song. For example, as in the above example “B”, the third passage has “rust”. Often specified.
[0029]
[Melody data generation system]
First, the basic rhythm generator FRB is a functional block that generates a basic rhythm pattern FR for one song based on the rhythm feature data RC, the genre data GN, and the song composition data MT. For example, for each genre, a plurality of rhythm patterns suitable for the genre are stored in a database in advance, and when a genre is designated by the genre data GN, it matches the rhythm feature data RC among the rhythm patterns in the designated genre. Choose one. At this time, the one matching the similar / dissimilarity specified in the music composition data MT is selected. In this way, the basic rhythm pattern FR for one song is generated.
[0030]
The pitch generation unit TPB is a functional block that gives a pitch TP to each note of the basic rhythm pattern FR generated by the basic rhythm generation unit FRB. Here, the pitch of the skeleton data SF is assigned to an important note of each note, and the pitch of the remaining note is appropriately selected from the scale sounds that match the chord progression (CS). At this time, a pitch is given in consideration of similarity / dissimilarity specified by the music composition data MT. For example, a similar pitch is specified for a passage similar to the previous passage, such that the first half of the passage has the same pitch and the second half has a different pitch. It is assumed that the skeleton data SF has a pitch that matches the chord progression (CS) and the music composition data MT. The basic rhythm pattern FR and the pitch TP obtained by the basic rhythm generator FRB and the pitch generator TPB are basic music elements constituting the basic music data.
[0031]
The syncopation determination unit SRB is a functional block that inserts syncopation based on the basic rhythm pattern FR and the pitch TP. Here, for example, if the pitch of the strong note in the basic rhythm pattern FR is the same as the pitch of the weak note immediately before, the note length of the weak note immediately before is set as follows. Insert a syncopation, extending to the end of the strong note and deleting the strong note, so that the strong note is accented as if it moved to the previous weak note.
[0032]
On the other hand, the articulation determining unit ARB is a functional block that assigns the articulation AR based on the rhythm pattern SR and the pitch TP after the syncopation insertion process. Here, articulation usually refers to expressing a short part of a melody or phrase with changes such as strength, separation, or length of a sound. In the present invention, in particular, “change in length of sound” It means that. In this functional block, for example, one of “normal” / “staccato” / “tenuto” is randomly assigned to the note length of each note in the rhythm pattern SR as a technique for articulation. , Change the length of the sound.
[0033]
At the time of this assignment, the pitch difference with the subsequent sound is taken into consideration, and the random value is weighted so that it becomes “staccato” when the difference is large and “tenuto” when it is small. In this way, more natural articulation can be given. For example, when playing two notes with a large pitch difference on a keyboard instrument, etc., the length of the note tends to be short because the hand can be released from the keyboard for a moment. Therefore, the sound length tends to be long, but such weighting can imitate the sound length change of such a tendency.
[0034]
In addition, when any one of “normal” / “staccato” / “tenuto” is randomly assigned, it is preferable to set the appearance ratio of each type to a predetermined ratio. For example, each type is distributed so that “staccato” does not increase too much or “tenuto” does not increase too much.
[0035]
The melody volume determination unit MVB has a rhythm rhythm pattern SR after the syncopation insertion processing is performed by the syncopation determination unit SRB and each note of the melody represented by the pitch TP generated by the pitch generation unit TPB (original velocity is predetermined) Is a functional block that determines the melody volume so that the velocity value changes for each note. Elements for determining the volume include articulation (AR), pitch (TP), song composition (MT), chord progression (CS), and syncopation (SR).
[0036]
Specific examples of rules for determining the melody volume are as follows. For sounds that fall under multiple terms, the sum of the amount of change in velocity value (increase or decrease) in each relevant term shall be given to the sound, but this will exceed the maximum velocity value. If this happens, limit the maximum value.
(1) A note for which “staccato” is designated as the articulation AR increases the velocity by a predetermined value (for example, “+10”).
(2) The note to which syncopation (SR) is applied increases the velocity by a predetermined value (for example, one of “+10” and “+20” is selected at random).
(3) When the jump of the pitch TP is larger than the preceding and following sounds (the pitch difference is greater than or equal to a predetermined value), the velocity is set to a predetermined value (for example, “+10” or “+20” is random) To increase).
(4) The velocity value is increased as the pitch ST is higher. For example, on the basis of the average value of the pitch, the velocity value is increased by an amount corresponding to the difference from the average value if it is larger than that, and is decreased by an amount corresponding to the difference from the average value if it is smaller.
(5) For a passage for which “rust” is designated in the music composition (MT), the velocity value is increased by a predetermined value (for example, +10).
(6) In chord progression (CS), the velocity value of the sound in the special chord progression section is increased by a predetermined value (for example, +10). Such special chord progression sections include, for example, a section in which a non-diatonic chord is designated to give a dramatic impression.
[0037]
The melody data generation unit MDB is a functional block that generates melody data by combining the rhythm pattern SR, pitch TP, articulation AR, and volume (velocity) MV after syncopation determination processing. That is, for each note, a note data string having a sound generation timing corresponding to the rhythm pattern SR, a pitch TP, a gate time corresponding to the articulation AR, and a velocity MV is generated as the melody data MD. Then, based on the generated melody data MD, a melody part tone is generated by the melody sound source MSS.
[0038]
[Accompaniment data generation system]
In contrast to the melody data generation system described above, an embodiment of the present invention includes an accompaniment data generation system including an accompaniment volume determination unit AVB and an accompaniment data generation unit ADB. First, the accompaniment volume determination unit AVB is a functional block that changes the volume (velocity value) of the accompaniment sound generated in the accompaniment sound generation unit ADB described later. The elements for determining the accompaniment volume include music composition (MT) and chord progression (CS). Specific examples of rules for determining the accompaniment volume are shown in the following items (1) and (2).
[0039]
(1) For a passage for which “rust” is designated in the music composition (MT), the velocity value is increased by a predetermined value (for example, +10).
(2) The sound of a special chord progression section (for example, a section in which a non-diatonic chord is specified to give a dramatic impression) in chord progression (CS) increases the velocity value by a predetermined value (for example, +10). Let
[0040]
Here, when a sound corresponding to a plurality of terms gives the total of the amount of change in velocity value (increase or decrease) in each applicable term to the sound, thereby exceeding the maximum velocity value Shall be limited by the maximum value. If the accompaniment sound consists of multiple parts (for example, rhythm part, bass part, chord packing part such as guitar, piano, brass, etc.), the velocity value of the notes of each part is increased uniformly. Alternatively, the way of increasing may be different for each part. That is, there may be a part to be increased and a part not to be increased, or the amount of increase may be different for the part to be increased.
[0041]
The accompaniment data generation unit ADB previously stores accompaniment pattern data for each genre, and selects and reads accompaniment pattern data belonging to the genre according to the genre (GN) in the melody generation data DS. Then, the note data in the accompaniment pattern (excluding the rhythm part) is corrected in pitch so that it matches the chord progression (CS) in the melody generation data DS, and the velocity value of each note in the accompaniment pattern includes the accompaniment volume. The accompaniment data AD is generated by applying the value determined by the determination unit ACB. Then, based on the accompaniment data AD generated by the accompaniment data generation unit ADB, the musical tone of the accompaniment part is generated by the accompaniment sound source ASS.
[0042]
In the above example, the melody volume determination unit MVB and the accompaniment volume determination unit AVB change the velocity value for each note in order to change the volume. However, the present invention is not limited to this. For example, the volume or expression in MIDI may be controlled, or the characteristics of the sound source filter may be controlled. For example, an effect can be obtained in which a soft and soft sound is felt if the cutoff frequency of the filter is low, and a glittering and strong sound is felt if the cutoff frequency is high. Moreover, you may represent that the sound has become strong by applying vibrato strongly. In addition, some of these may act simultaneously.
[0043]
In the above-described example, the articulation determination unit ARB determines the note length of each note as “normal” / “staccato” / “tenuto”. In addition to extending the length of the sound, it does not re-sound when the next sound is pronounced, and replaces the pitch (ie, makes two consecutive sounds one sound of the length of the two sounds, “Tenuto” may be expressed by replacing the pitch of the second sound with the pitch of the second sound).
[0044]
〔Concrete example〕
In FIGS. 3 and 4, the melody data to be generated and the example of the volume change thereof are simplified in a horizontal direction so that the method of the embodiment described above can be understood in an illustrative manner. It is shown. The horizontal time is shown in FIG. 3 where one bar consists of 8 beat periods, and in FIG. 4 one music consists of 4 sections to 8 sections. The pitch and length of the melody data MD to be generated are shown in FIG. 3A. One rectangular frame represents one note, and the position of each rectangular frame in the vertical axis direction represents the sound of each note. Represents high. 3 (B) to 3 (E) and FIG. 4 show changes in volume due to various parameters depending on the position (height) in the vertical axis direction of each bar.
[0045]
In FIGS. 3B to 3D, the vertical axis position of each bar represents the velocity value of each note. In other words, in this example, “staccato” is designated for each note in the second, third, and eighth beats in the measure as articulation (AR). Therefore, according to the melody volume determination rule (1), FIG. As shown in (B), the velocity value is increased. In addition, since the syncopation (SR) is inserted in the notes in the fourth to fifth beat periods in this measure, the velocity value is increased as shown in FIG. 3C by the same rule (2). Further, since the pitch (TP) of the notes in the fourth to fifth beat periods greatly jumps from the note in the immediately preceding third beat period, the velocity as shown in FIG. The value is increased. Further, according to the same rule (4), the velocity value is increased as the note has a higher pitch as shown in FIG. 3E, and conversely, the velocity value is decreased as the note has a lower pitch.
[0046]
FIG. 4 shows an example in which the volume of the generated melody is changed based on the song composition (MT) and chord progression (CS), and in each upper part of FIG. 4 (A) and FIG. 4 (B), The music composition (MT) and chord progression (CS) for four sections (one music) are shown. In this example, “Cho” is specified for the third passage in the music composition (MT), so the velocity values of the notes in this passage are as shown in FIG. 4A by the melody volume determination rule (5). Increased. As for chord progression (CS), since special chord progression is designated in the second and fourth sections, the velocity values of the notes in the second and fourth sections are shown in FIG. 4 by the melody volume determination rule (6). Increased as in (B).
[0047]
The volume of notes in each section or section of the melody to be generated is based on the sum of these velocity values. That is, the velocity values shown in FIGS. 3B to 3E are totaled for each note, and the velocity values shown in FIGS. 4A and 4B are added to the notes for each passage or section. The volume of each note is determined based on the sum of these velocity values.
[0048]
[Various Embodiment Examples]
Although the music data generation procedure of the present invention has been described with respect to one embodiment, various modifications can be made. The melody is not limited to the method of generating a melody based on a song template for one song as in the embodiment, and the melody may be generated by any method. For example, a method in which a user inputs a motif melody and develops the motif melody to generate a melody may be used. In addition, a large number of song templates each having feature information are stored, a song template having feature information that matches the feature of the inputted motif melody is selected, and the melody is selected based on the song template thus selected. May be generated. Also, when taking a method using a song template, some data such as chord progression data, basic rhythm pattern, and skeleton data may be obtained by calculation without being stored in advance, or You may make it produce a melody by calculation all.
[0049]
The data for automatic accompaniment including song composition data and chord progression data is stored, as well as data containing song composition data and chord progression data in the melody generation data (DS) as in the embodiment. In addition, a melody may be generated based on song composition data or chord progression data in this data. In this way, a melody suitable for automatic accompaniment data prepared in advance can be generated. In this case, the volume of the generated melody may be determined based on the song composition data and chord progression data in the automatic accompaniment data.
[0050]
In the embodiment, articulation (AR), pitch (TP), music composition (MT), chord progression (CS) and syncopation (SR) are used as elements for determining the melody volume. The element of only one part may be sufficient, and elements other than these may exist.
[0051]
In the embodiment, the rhythm pattern (FR) and the pitch (TP) are separately generated, and after determining the volume and articulation (the pitch of each note) based on the rhythm pattern and the pitch, the rhythm pattern, The actual melody data is generated (completed) by combining the pitch, volume, and articulation. As a different method, basic melody data in which the rhythm pattern and pitch are integrated is generated first, and then the volume and articulation are determined based on the rhythm and pitch in the basic melody data. The melody data may be generated by determining the volume and length of the basic melody data based on the volume and articulation.
[0052]
In the embodiment, the syncopation determination unit SRB and the articulation determination unit ARB determine the syncopation SR and the articulation AR, and the melody volume MV is determined based on the determination result. That is, after the syncopation (SR) or articulation (AR) is given to the generated basic rhythm pattern (FR), the volume of the note to which the syncopation or articulation (staccato) is given is determined. did. A method different from such a method can be taken. For example, a syncopation detection unit that detects syncopation from a melody or rhythm pattern that already contains syncopation is provided, and the volume is determined based on the detection result of the syncopation detection unit, or the articulation is already detected. An articulation detection unit that detects articulation from a given melody or rhythm pattern may be provided, and the volume may be determined based on the detection result by the articulation detection unit.
[0053]
The music data to be generated is not limited to a single melody, but may be a melody composed of a plurality of melodies. Also, data of parts other than the melody may be generated.
[0054]
Further, the present invention can be applied not only to automatic melody generation but also to volume determination of existing music data or music data manually input by a user. In this case, the rhythm pattern (timing data) of the music data is supplied instead of the basic rhythm pattern (FR), and the pitch data of the music data is supplied instead of the generated pitch (TP). Good. Further, the present invention can be applied to the determination of the volume of accompaniment data included in the music data.
[0055]
【The invention's effect】
As described above, according to the present invention, music data rich in expression can be generated without an undulating curve or accent symbol, and the volume of accompaniment can also be controlled.
[0056]
That is, according to the present invention, the basic rhythm pattern and the pitch of each note are provided, the basic music data including the given music composition data is supplied, and the volume of the note included in the basic music data is set to the music composition. Since the volume data is determined based on the data, and the music data is generated based on the volume data and the basic music data, the velocity value of the note in the passage in which “rust” is specified in the music composition By increasing the value, the volume of the music data generated can be expressed in a rich manner.
[0057]
According to the present invention, a basic tune data comprising a basic rhythm pattern and the pitch of each note and provided with chord progression data is supplied, and the volume of the note included in the basic tune data is converted into chord progression data. Since the volume data is generated based on the volume data and the basic song data, special chord progressions such as non-diatonic chords are specified to give a dramatic impression. For example, by increasing the velocity value of the note in the interval, the volume change rich in expression can be given to the generated music data.
[0058]
In the present invention, the accompaniment data is also composed of a basic rhythm pattern and the pitch of each note, and basic song data including given song composition data or chord progression data is generated and included in the basic song data. While determining the volume of notes and generating melody data, for accompaniment data, the volume of the accompaniment sound is determined based on the music composition data or chord progression data, so that accompaniment data is generated. Further, by the increase of the velocity value similar to the melody volume, it is possible to give a more expressive change to the generated music data.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a hardware configuration of an embodiment of the present invention.
FIG. 2 is a functional block diagram showing a music data generation method according to one embodiment of the present invention.
FIG. 3 is a diagram illustrating an example of generated melody data and a change in volume thereof;
FIG. 4 is a diagram showing another example of a change in volume of generated melody data.
[Explanation of symbols]
RC rhythm feature data,
GN genre data,
SF skeleton data,
MT song composition data,
CS code progress data,
FR basic rhythm pattern,
TP pitch,
SR Rhythm pattern after syncopation determination process,
AR articulation,
MV melody volume,
MD melody data,
AV accompaniment volume,
AD Accompaniment data.

Claims (8)

基本的なリズムパターン及び各ノートの音高からなり、与えられた曲構成データを備えた基本曲データを供給する基本曲データ供給手段、
この基本曲データに含まれるノートの音量を前記曲構成データに基づいて決定し音量データを生成する音量生成手段、並びに、
この音量データ及び前記基本曲データに基づいて楽曲データを生成する楽曲データ生成手段
を備えることを特徴とする楽曲データ生成装置。
Basic song data supply means for supplying basic song data comprising a basic rhythm pattern and the pitch of each note and having given song composition data;
Volume generating means for determining the volume of a note included in the basic song data based on the song composition data and generating volume data, and
A music data generating apparatus comprising music data generating means for generating music data based on the volume data and the basic music data.
コンピュータに、
基本的なリズムパターン及び各ノートの音高からなり、与えられた曲構成データを備えた基本曲データを供給する基本曲データ供給手段、
この基本曲データに含まれるノートの音量を前記曲構成データに基づいて決定し音量データを生成する音量生成手段、並びに、
この音量データ及び前記基本曲データに基づいて楽曲データを生成する楽曲データ生成手段
として機能させるためのプログラムを記録しているコンピュータ読み取り可能な楽曲データ生成のための記録媒体。
On the computer,
Basic song data supply means for supplying basic song data comprising a basic rhythm pattern and the pitch of each note and having given song composition data;
Volume generating means for determining the volume of a note included in the basic song data based on the song composition data and generating volume data, and
A recording medium for generating computer-readable music data in which a program for functioning as music data generating means for generating music data based on the volume data and the basic music data is recorded.
基本的なリズムパターン及び各ノートの音高からなり、与えられた和音進行データを備えた基本曲データを供給する基本曲データ供給手段、
この基本曲データに含まれるノートの音量を前記和音進行データのコードに基づいて決定し音量データを生成する音量生成手段、並びに、
この音量データ及び前記基本曲データに基づいて楽曲データを生成する楽曲データ生成手段
を備えることを特徴とする楽曲データ生成装置。
Basic song data supply means for supplying basic song data comprising basic rhythm patterns and pitches of each note and provided with chord progression data,
Volume generation means for determining the volume of the notes included in the basic song data based on the chord progression data code and generating volume data, and
A music data generating apparatus comprising music data generating means for generating music data based on the volume data and the basic music data.
コンピュータに、
基本的なリズムパターン及び各ノートの音高からなり、与えられた和音進行データを備えた基本曲データを供給する基本曲データ供給手段、
この基本曲データに含まれるノートの音量を前記和音進行データのコードに基づいて決定し音量データを生成する音量生成手段、並びに、
この音量データ及び前記基本曲データに基づいて楽曲データを生成する楽曲データ生成手段
として機能させるためのプログラムを記録しているコンピュータ読み取り可能な楽曲データ生成のための記録媒体。
On the computer,
Basic song data supply means for supplying basic song data comprising basic rhythm patterns and pitches of each note and provided with chord progression data,
Volume generation means for determining the volume of the notes included in the basic song data based on the chord progression data code and generating volume data, and
A recording medium for generating computer-readable music data in which a program for functioning as music data generating means for generating music data based on the volume data and the basic music data is recorded.
基本的なリズムパターン及び各ノートの音高からなり、与えられた曲構成データを備えた基本曲データを供給する基本曲データ供給手段、
この基本曲データに含まれるノートの音量を決定しメロディデータを生成するメロディデータ生成手段、並びに、
前記曲構成データに基づいて伴奏音の音量を決定し伴奏データを生成する伴奏音データ生成手段
を備えることを特徴とする楽曲データ生成装置。
Basic song data supply means for supplying basic song data comprising a basic rhythm pattern and the pitch of each note and having given song composition data;
A melody data generating means for determining a volume of a note included in the basic song data and generating melody data; and
A music data generating apparatus comprising accompaniment sound data generating means for determining accompaniment sound volume based on the music composition data and generating accompaniment data.
コンピュータに、
基本的なリズムパターン及び各ノートの音高からなり、与えられた曲構成データを備えた基本曲データを供給する基本曲データ供給手段、
この基本曲データに含まれるノートの音量を決定しメロディデータを生成するメロディデータ生成手段、並びに、
前記曲構成データに基づいて伴奏音の音量を決定し伴奏データを生成する伴奏音データ生成手段
として機能させるためのプログラムを記録しているコンピュータ読み取り可能な楽曲データ生成のための記録媒体。
On the computer,
Basic song data supply means for supplying basic song data comprising a basic rhythm pattern and the pitch of each note and having given song composition data;
A melody data generating means for determining a volume of a note included in the basic song data and generating melody data; and
A recording medium for generating computer-readable music data, which records a program for functioning as accompaniment sound data generating means for determining accompaniment sound volume based on the music composition data and generating accompaniment data.
基本的なリズムパターン及び各ノートの音高からなり、与えられた和音進行データを備えた基本曲データを供給する基本曲データ供給手段、
この基本曲データに含まれるノートの音量を決定しメロディデータを生成するメロディデータ生成手段、並びに、
前記和音進行データのコードに基づいて伴奏音の音量を決定し伴奏データを生成する伴奏音データ生成手段
を備えることを特徴とする楽曲データ生成装置。
Basic song data supply means for supplying basic song data comprising basic rhythm patterns and pitches of each note and provided with chord progression data,
A melody data generating means for determining a volume of a note included in the basic song data and generating melody data; and
A music data generating device comprising accompaniment sound data generating means for determining accompaniment sound volume based on the chord progression data code and generating accompaniment data.
コンピュータに、
基本的なリズムパターン及び各ノートの音高からなり、与えられた和音進行データを備えた基本曲データを供給する基本曲データ供給手段、
この基本曲データに含まれるノートの音量を決定しメロディデータを生成するメロディデータ生成手段、並びに、
前記和音進行データのコードに基づいて伴奏音の音量を決定し伴奏データを生成する伴奏音データ生成手段
として機能させるためのプログラムを記録しているコンピュータ読み取り可能な楽曲データ生成のための記録媒体。
On the computer,
Basic song data supply means for supplying basic song data comprising basic rhythm patterns and pitches of each note and provided with chord progression data,
A melody data generating means for determining a volume of a note included in the basic song data and generating melody data; and
A recording medium for generating computer-readable music data on which a program for determining a volume of an accompaniment sound based on a chord progression data code and generating accompaniment data is recorded.
JP33160598A 1998-11-20 1998-11-20 Music data generator and recording medium therefor Expired - Fee Related JP3641955B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33160598A JP3641955B2 (en) 1998-11-20 1998-11-20 Music data generator and recording medium therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33160598A JP3641955B2 (en) 1998-11-20 1998-11-20 Music data generator and recording medium therefor

Publications (2)

Publication Number Publication Date
JP2000155573A JP2000155573A (en) 2000-06-06
JP3641955B2 true JP3641955B2 (en) 2005-04-27

Family

ID=18245533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33160598A Expired - Fee Related JP3641955B2 (en) 1998-11-20 1998-11-20 Music data generator and recording medium therefor

Country Status (1)

Country Link
JP (1) JP3641955B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4548327B2 (en) * 2005-12-16 2010-09-22 カシオ計算機株式会社 Musical sound control device and musical sound control processing program
US8097801B2 (en) * 2008-04-22 2012-01-17 Peter Gannon Systems and methods for composing music
CN111554256B (en) * 2020-04-21 2023-03-24 华南理工大学 Piano playing ability evaluation system based on strong and weak standards

Also Published As

Publication number Publication date
JP2000155573A (en) 2000-06-06

Similar Documents

Publication Publication Date Title
US6703549B1 (en) Performance data generating apparatus and method and storage medium
JP3303617B2 (en) Automatic composer
JP3829439B2 (en) Arpeggio sound generator and computer-readable medium having recorded program for controlling arpeggio sound
JP3528654B2 (en) Melody generator, rhythm generator, and recording medium
JP3637775B2 (en) Melody generator and recording medium
JP2002023747A (en) Automatic musical composition method and device therefor and recording medium
JP3266149B2 (en) Performance guide device
JP2000315081A (en) Device and method for automatically composing music and storage medium therefor
JP3641955B2 (en) Music data generator and recording medium therefor
JP3724347B2 (en) Automatic composition apparatus and method, and storage medium
JP3353777B2 (en) Arpeggio sounding device and medium recording a program for controlling arpeggio sounding
JP3531507B2 (en) Music generating apparatus and computer-readable recording medium storing music generating program
JP3709821B2 (en) Music information editing apparatus and music information editing program
JP3752859B2 (en) Automatic composer and recording medium
JP3656519B2 (en) Performance data creation apparatus and recording medium with facial expressions
JP3587133B2 (en) Method and apparatus for determining pronunciation length and recording medium
JP3752940B2 (en) Automatic composition method, automatic composition device and recording medium
JP3747802B2 (en) Performance data editing apparatus and method, and storage medium
JP3632551B2 (en) Performance data creation device and performance data creation method
JP3948464B2 (en) Performance data generating apparatus and recording medium
JP4186802B2 (en) Automatic accompaniment generator and program
JP4175364B2 (en) Arpeggio sound generator and computer-readable medium having recorded program for controlling arpeggio sound
JP3797180B2 (en) Music score display device and music score display program
JP3709820B2 (en) Music information editing apparatus and music information editing program
JP3960242B2 (en) Automatic accompaniment device and automatic accompaniment program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040720

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040913

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050117

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080204

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090204

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090204

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100204

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110204

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120204

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees