JP3903864B2 - Program for realizing automatic composition device and automatic composition method - Google Patents

Program for realizing automatic composition device and automatic composition method Download PDF

Info

Publication number
JP3903864B2
JP3903864B2 JP2002206846A JP2002206846A JP3903864B2 JP 3903864 B2 JP3903864 B2 JP 3903864B2 JP 2002206846 A JP2002206846 A JP 2002206846A JP 2002206846 A JP2002206846 A JP 2002206846A JP 3903864 B2 JP3903864 B2 JP 3903864B2
Authority
JP
Japan
Prior art keywords
input
sound range
generated sound
range
automatic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002206846A
Other languages
Japanese (ja)
Other versions
JP2004053642A (en
Inventor
栄一郎 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2002206846A priority Critical patent/JP3903864B2/en
Publication of JP2004053642A publication Critical patent/JP2004053642A/en
Application granted granted Critical
Publication of JP3903864B2 publication Critical patent/JP3903864B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、作曲(生成)しようとする曲の生成音域および作曲しようとする曲のモチーフメロディに基づいて自動作曲する自動作曲装置および自動作曲方法を実現するためのプログラムに関する。
【0002】
【従来の技術】
作曲しようとする曲の生成音域および作曲しようとする曲のモチーフメロディに基づいて自動作曲する自動作曲装置は、従来から知られている。
【0003】
このような自動作曲装置では、通常、ユーザが任意の生成音域を入力設定できるように構成されている。そして、生成音域の入力設定方法は、たとえば、
(1)生成音域の上限音名と下限音名を直接指定できるように構成され、ユーザが生成音域の上限音名および下限音名を指定すると、この両音名で示される範囲の音域を生成音域として入力設定する方法
(2)表示装置に鍵盤の絵を表示するように構成され、この表示鍵盤上の鍵域を、ユーザが所定の操作子を用いて指定すると、この指定された鍵域に対応する音域を生成音域として入力設定する方法
等が知られている。
【0004】
また、モチーフメロディについても、ユーザが、たとえば実楽器や歌声などを用いて、任意のメロディを入力設定できるようにしたものが知られている。
【0005】
【発明が解決しようとする課題】
しかし、上記従来の自動作曲装置では、ユーザが、たとえば実楽器や歌声などを用いて、好みのモチーフメロディを入力設定できるように構成されていたとしても、生成音域は、上記(1)または(2)のような方法で入力設定するようにしていたので、すなわち、モチーフメロディの入力設定と生成音域の入力設定とを同じような方法で行えるにも拘わらず、両入力設定をそれぞれ独立かつ無関係な方法で行うようにしていたので、ユーザの操作性をさらに向上させる改良の余地があった。
【0006】
本発明は、この点に着目してなされたものであり、ユーザの操作性をさらに向上させることが可能となる自動作曲装置および自動作曲方法を実現するためのプログラムを提供することを第1の目的とする。
【0007】
また、上記従来の自動作曲装置では、上述のように、モチーフメロディの入力設定と生成音域の入力設定とを、それぞれ独立かつ無関係な方法で行うようにしていたので、モチーフメロディを入力設定するに際して、ユーザはどの音域のメロディを入力すればよいのか分かり難かった。
【0008】
本発明は、この点にも着目してなされたものであり、ユーザが、たとえば実楽器や歌声などを用いて、好みのモチーフメロディを入力設定するときに、入力すべきメロディの音域を一目で確認することができる自動作曲装置および自動作曲方法を実現するためのプログラムを提供することを第2の目的とする。
【0009】
【課題を解決するための手段】
上記第1の目的を達成するため、請求項1に記載の自動作曲装置は、作曲しようとする曲のモチーフメロディを入力する入力手段と、該入力手段を用いて、前記作曲しようとする曲の生成音域を設定する設定手段と、前記入力されたモチーフメロディおよび前記設定された生成音域に基づいて自動作曲する自動作曲手段とを有することを特徴とする。
【0010】
また、上記第2の目的を達成するため、請求項2に記載の自動作曲装置は、請求項1の自動作曲装置において、前記入力手段上またはその近傍に設けられた表示部もしくは、前記入力手段を模した図形表示が可能な表示部に、前記設定された生成音域を表示する表示手段をさらに有することを特徴とする。
【0011】
さらに、請求項3に記載のプログラムは、請求項1と同様の技術的思想によって実現できる。
【0012】
【発明の実施の形態】
以下、本発明の実施の形態を図面に基づいて詳細に説明する。
【0013】
図1は、本発明の一実施の形態に係る自動作曲装置の概略構成を示すブロック図である。
【0014】
同図に示すように、本実施の形態の自動作曲装置は、音高情報を入力するための鍵盤1と、各種情報を入力するための複数のスイッチを備えたパネルスイッチ2と、鍵盤1の各鍵の押鍵状態を検出する押鍵検出回路3と、パネルスイッチ2の各スイッチの押下状態を検出するスイッチ検出回路4と、装置全体の制御を司るCPU5と、該CPU5が実行する制御プログラムや、各種テーブルデータ等を記憶するROM6と、演奏データ、各種入力情報および演算結果等を一時的に記憶するワークエリアを含むRAM7と、タイマ割込み処理における割込み時間や各種時間を計時するタイマ8と、各種情報等を表示する、たとえば大型液晶ディスプレイ(LCD)若しくはCRT(Cathode Ray Tube)ディスプレイおよび発光ダイオード(LED)等を備えた表示装置9と、記憶媒体であるフレキシブルディスク(FD)20をドライブするフレキシブルディスクドライブ(FDD)10と、前記制御プログラムを含む各種アプリケーションプログラムや各種データ等を記憶するハードディスク(図示せず)をドライブするハードディスクドライブ(HDD)11と、前記制御プログラムを含む各種アプリケーションプログラムや各種データ等を記憶するコンパクトディスク−リード・オンリ・メモリ(CD−ROM)21をドライブするCD−ROMドライブ(CD−ROMD)12と、外部からのMIDI(Musical Instrument Digital Interface)信号を入力したり、MIDI信号を外部に出力したりするMIDIインターフェース(I/F)13と、通信ネットワーク101を介して、たとえばサーバコンピュータ102とデータの送受信を行う通信インターフェース(I/F)14と、鍵盤1から入力された演奏データや予め設定された演奏データ等を楽音信号に変換する音源回路15と、該音源回路15からの楽音信号に各種効果を付与するための効果回路16と、該効果回路16からの楽音信号を音響に変換する、たとえば、DAC(Digital-to-Analog Converter)やアンプ、スピーカ等のサウンドシステム17とにより構成されている。
【0015】
上記構成要素3〜16は、バス18を介して相互に接続され、CPU5にはタイマ8が接続され、MIDII/F13には他のMIDI機器100が接続され、通信I/F14には通信ネットワーク101が接続され、音源回路15には効果回路16が接続され、効果回路16にはサウンドシステム17が接続されている。
【0016】
HDD11のハードディスクには、前述のように、CPU5が実行する制御プログラムも記憶でき、ROM6に制御プログラムが記憶されていない場合には、このハードディスクに制御プログラムを記憶させておき、それをRAM7に読み込むことにより、ROM6に制御プログラムを記憶している場合と同様の動作をCPU5にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。
【0017】
CD−ROMドライブ12のCD−ROM21から読み出された制御プログラムや各種データは、HDD11内のハードディスクにストアされる。これにより、制御プログラムの新規インストールやバージョンアップ等が容易に行える。なお、このCD−ROMドライブ12以外にも、外部記憶装置として、光磁気ディスク(MO)装置等、様々な形態のメディアを利用するための装置を設けるようにしてもよい。
【0018】
MIDII/F13は、専用のものに限らず、RS−232CやUSB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインターフェースより構成してもよい。この場合、MIDIメッセージ以外のデータをも同時に送受信してもよい。
【0019】
通信I/F14は、上述のように、たとえばLAN(Local Area Network)やインターネット、電話回線等の通信ネットワーク101に接続されており、該通信ネットワーク101を介して、サーバコンピュータ102に接続される。HDD11内のハードディスクに上記各プログラムや各種パラメータが記憶されていない場合には、通信I/F14は、サーバコンピュータ102からプログラムやパラメータをダウンロードするために用いられる。クライアントとなるコンピュータ(本実施の形態では、自動作曲装置)は、通信I/F14および通信ネットワーク101を介してサーバコンピュータ102へとプログラムやパラメータのダウンロードを要求するコマンドを送信する。サーバコンピュータ102は、このコマンドを受け、要求されたプログラムやパラメータを、通信ネットワーク101を介してコンピュータへと配信し、コンピュータが通信I/F14を介して、これらプログラムやパラメータを受信してHDD11内のハードディスクに蓄積することにより、ダウンロードが完了する。
【0020】
この他、外部コンピュータ等との間で直接データのやりとりを行うためのインターフェースを備えてもよい。
【0021】
なお、本実施の形態の自動作曲装置は、上述の構成から分かるように、汎用的なパーソナルコンピュータ上に構築されたものであるが、これに限らず、本発明を実施できる最小限要素のみから構成した専用装置上に構築してもよい。
【0022】
以上のように構成された自動作曲装置が実行する制御処理を、図2〜図5を参照して説明する。
【0023】
本実施の形態の自動作曲装置は、鍵盤1を用いて、生成音域およびモチーフメロディの両者を入力設定でき、さらに、モチーフメロディを入力設定する際に、この入力設定された生成音域をユーザが一目で確認できるように、鍵盤1上またはその近傍、あるいは表示装置9上に表示できるようにした点に特徴がある。
【0024】
図2は、本実施の形態の自動作曲装置、特にCPU5が実行する自動作曲処理の手順を示すフローチャートである。
【0025】
同図において、まず、ユーザが、たとえばロック、ポピュラーおよびクラシック等の、作曲したい曲の曲風を指示すると、指示された曲風を、前記RAM7のワークエリアに入力(記憶)する(ステップS1)。
【0026】
次に、入力された曲風に対応する作曲用データを表示装置9上に一覧表示し、この中からユーザが指示したものを選択して、RAM7のワークエリアに記憶する(ステップS2)。
【0027】
さらに、ユーザが前記鍵盤1を用いて、生成(作曲)する曲全体の音域(生成音域)を指定すると、この生成音域を、上記作曲用データの一部データとして、RAM7のワークエリアに記憶する(ステップS3)。ここで、生成音域は、たとえば、次のような方法により指定する。すなわち、生成音域設定モードが選択されると、まず、表示装置9上に、「鍵盤の鍵を押すことにより、生成音域の下限を指定してください」というメッセージが表示される。これに応じて、ユーザが、図3(a)に示すように、下限(たとえば“C2”)を指定すると、鍵盤1および前記押鍵検出回路3を介して、対応するMIDIメッセージが入力されるので、CPU5は、このMIDIメッセージを解析して、ユーザが指定した、生成音域の下限を検出し、RAM7のワークエリアに記憶する。次に、表示装置9上に、「鍵盤の鍵を押すことにより、生成音域の上限を指定してください」というメッセージが表示され、これに応じて、ユーザが、図3(a)に示すように、上限(たとえば“D3”)を指定すると、同様にして、CPU5は、ユーザが指定した、生成音域の上限を検出し、RAM7のワークエリアに記憶する。
【0028】
そして、上記設定された生成音域、すなわち、上記記憶された下限および上限で示される生成音域を表示する(ステップS4)。
【0029】
図3(b)〜(e)は、生成音域の表示例を示す図であり、鍵盤1の各鍵自体が光るように構成されている場合には、設定された生成音域内の鍵をすべて光らせるようにしたり(同図(b))、設定された生成音域の下限および上限にそれぞれ対応する鍵のみを光らせるようにしたり(同図(c))、また、鍵盤1の近傍に、各鍵にそれぞれ対応してLEDが設けられている場合には、設定された生成音域内のLEDをすべて光らせるようにしたり(同図(d))、設定された生成音域の下限および上限にそれぞれ対応するLEDのみを光らせるようにしたり(同図(e))する表示態様が考えられる。
【0030】
なお、鍵盤とその表示器(LED等)が自動演奏装置に内蔵されておらず、MIDII/F13などで接続された外部鍵盤装置の場合は、該外部鍵盤装置に対して、たとえばMIDIエクスクルーシブメッセージなどを用いて表示制御コマンドを供給すればよい。
【0031】
図4は、設定された生成音域の他の表示例を示す図であり、設定された生成音域を表示装置9上に表示した場合の例を示している。同図では、縦軸を音高とし、横軸を小節の進行方向として、自動作曲装置で生成される全体音域を表示し、その全体音域中、設定された生成音域(設定音域)を斜線で表示するようにしている。なお、設定音域を「斜線」で表示したのは、図示し易いという便宜上の理由からであり、全体音域に対して、設定音域が一目で分かる表示態様であれば、これに限らないことは言うまでもない。他の表示態様としては、たとえば、全体音域を示す色と設定音域を示す色とを異ならせたり、両者を同一色にして、その濃度を変えたりする態様が考えられる。また、図4には、生成されたメロディも表示されているが、メロディを生成する前であれば、メロディは表示されない。
【0032】
図2に戻り、ユーザが、鍵盤1を用いて、設定された生成音域内、すなわち表示された生成音域内でモチーフメロディを入力すると、このモチーフメロディをRAM7のワークエリアに記憶する(ステップS5)。
【0033】
そして、ユーザが、所定の操作により、自動作曲の開始を指示すると、CPU5は、上記記憶されたモチーフメロディと上記記憶された作曲用データに基づいて、1曲分の曲データを生成する(ステップS6)。ここで、自動作曲方法は、本発明の特徴ではなく、公知の方法を用いればよいので、その説明は省略する。
【0034】
なお、本実施の形態では、生成音域およびモチーフメロディを入力設定する実楽器として、鍵盤楽器を採用したが、これに限らず、たとえば、弦楽器、管楽器および音階を有する打楽器等、どのようなものを採用してもよい。弦楽器を採用した場合には、たとえば、フィンガーボード上または中の音階音に対応する位置にLEDを埋め込み、前記図3(d)または(e)で示す表示態様で、設定された生成音域を表示するようにすればよい。ただし、採用する楽器の種類によっては、設定された生成音域を、楽器近傍に表示することが難しい場合もあるが、この場合には、前記図4で示す表示態様で、設定された生成音域を表示装置9上に表示するようにすればよい。または、表示装置9上に鍵盤やフィンガーボードなどの楽器の演奏入力部を模した図形表示をし、その上で図3で示すような表示態様で音域を表示してもよい。
【0035】
また、本実施の形態では、生成音域は、曲全体に亘って1つのみ入力設定するようにしたが、これに限らず、たとえば、曲中、モチーフ部分とそれ以外の部分で、異なる生成音域を入力設定するようにしてもよい。
【0036】
さらに、生成音域およびモチーフメロディを入力設定する手段としては、実楽器に限らず、人の歌声であってもよい。この場合には、図1の構成に加えて、少なくとも、歌声を入力するマイクロフォン、該マイクロフォンを介して入力された歌声のアナログ信号をデジタル信号に変換するADC(Analog-to-Digital Converter)、該ADCを介して変換された歌声(デジタル信号)から、その音高を解析するために必要な信号成分だけを取り出すデジタルフィルタ等を設ける必要がある。
【0037】
図5は、他の生成音域設定処理、すなわち、生成音域を歌声によって入力するようにした場合の生成音域設定処理の手順を示すフローチャートである。同図の生成音域設定処理で、前記図2のステップS3の生成音域設定処理を置き換えるとともに、図2の他のステップを後述するように修正すれば、歌声によって生成音域を設定することができる。
【0038】
図5において、まず、ユーザが生成音域設定モードを選択すると、表示装置9上に、「歌により、生成音域の下限を指定してください」というメッセージが表示され、これに応じて、ユーザが下限音高を歌(例えば「アー」)で入力すると、上記マイクロフォン、ADCおよびデジタルフィルタ等を介して入力されたデジタル信号が、RAM7のワークエリアに記憶される(ステップS11)。
【0039】
次に、CPU5は、記憶されたデジタル信号を解析することにより、その音高(ピッチ)を検出し(ステップS12)、検出されたピッチを平均律にクォンタイズした(ステップS13)後、下限音高として、RAM7のワークエリアに記憶する(ステップS14)。
【0040】
同様にして、入力された歌から上限音高を検出して、RAM7のワークエリアに記憶する(ステップS15〜S18)。
【0041】
この後、処理は、前記図2のステップS4に進み、たとえば、図4の表示態様で、設定された生成音域を表示装置9上に表示する。本実施の形態では、歌声で生成音域を入力し、さらに、モチーフメロディも歌声で入力するようにしているので、設定された生成音域は、図4の表示態様で表示する方が、図3(b)〜(e)の表示態様で表示するより分かり易いという理由で、図4の表示態様を採用している。しかし、生成音域は歌声で入力し、モチーフメロディは鍵盤1から入力するようにしてもよく、この場合には、図3(b)〜(e)の表示態様で表示するようにした方がよい。
【0042】
そして、設定された生成音域内でモチーフメロディを入力する(ステップS5)。本実施の形態では、モチーフメロディも歌声で入力するようにしているので、前記ステップS12およびS13の処理と同様の処理を、ステップS5の処理内に追加する必要がある。なお、モチーフメロディは、上述のように、鍵盤1から入力するのであれば、ステップS5の処理は変更しなくてもよい。
【0043】
次のステップS6の処理は、前述したものをそのまま用いればよいので、その説明は省略する。
【0044】
なお、人の歌声で生成音域およびモチーフメロディを入力設定する上記方法を自然楽器にそのまま適用することにより、自然楽器で生成音域およびモチーフメロディを入力設定することができる。この場合、当該自然楽器とは別体で表示装置を設け、この表示装置上に、前記図4の表示態様で、設定された生成音域を表示するようにすればよい。
【0045】
このように、モチーフメロディを入力設定する手段を用いて、生成音域を入力設定するようにしたので、生成音域を入力後すぐに、モチーフメロディを入力することができ、操作性を向上させることができる。
【0046】
さらに、設定された生成音域を、モチーフメロディを入力設定する手段上またはその近傍に表示するようにしたので、ユーザは、入力すべきモチーフメロディの音域を一目で確認することができる。
【0047】
なお、前記図2のステップS3で設定した生成音域に名称を付与して、前記RAM7の所定領域に複数記憶しておき、必要なものを呼び出して、作曲用データの一部として設定できるように構成してもよい。このように構成すれば、過去に設定した生成音域をそのまま作曲用データとして用いるときに、非常に便利である。
【0048】
また、人の歌声でモチーフメロディを入力設定するときでも、生成音域は、実楽器から入力できるようにしてもよい。このようにすれば、予め自分の歌声の音域が分かっている場合には、正確に生成音域を設定することができる。
【0049】
逆に、実楽器でモチーフメロディを入力設定するときでも、生成音域は、歌声で入力できるようにしてもよい。歌声の音域はそのときの体調に応じて変化するので、その人のために作曲する場合には、歌声で生成音域を入力した方が、より相応しい設定を行うことができる。
【0050】
なお、上述した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPU5やMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。
【0051】
この場合、記憶媒体から読出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
【0052】
プログラムコードを供給するための記憶媒体としては、たとえば、前記フレキシブルディスク20、ハードディスク、光ディスク、光磁気ディスク、CD−ROM21、CD−R、磁気テープ、不揮発性のメモリカード、ROM6などを用いることができる。また、他のMIDI機器100や通信ネットワーク101を介してサーバコンピュータ102からプログラムコードが供給されるようにしてもよい。
【0053】
また、コンピュータが読出したプログラムコードを実行することにより、上述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
【0054】
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU5などが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
【0055】
【発明の効果】
以上説明したように、請求項1または3に記載の発明によれば、作曲しようとする曲のモチーフメロディを入力する入力手段から入力された情報を用いて、前記作曲しようとする曲の生成音域が設定されるので、すなわち、モチーフメロディも生成音域も、同じ入力手段を用いて入力設定されるので、生成音域を入力後すぐに、モチーフメロディを入力することができ、操作性を向上させることができる。
【0056】
また、請求項2に記載の発明によれば、前記入力手段上またはその近傍に設けられた表示部に、前記設定された生成音域が表示されるので、ユーザは、入力すべきモチーフメロディの音域を一目で確認することができる。
【図面の簡単な説明】
【図1】 本発明の一実施の形態に係る自動作曲装置の概略構成を示すブロック図である。
【図2】 図1の自動作曲装置、特にCPUが実行する自動作曲処理の手順を示すフローチャートである。
【図3】 生成音域を入力設定する様子および設定された生成音域の表示例を示す図である。
【図4】 設定された生成音域の他の表示例を示す図である。
【図5】 生成音域を歌声によって入力するようにした場合の生成音域設定処理の手順を示すフローチャートである。
【符号の説明】
1 鍵盤(入力手段),5 CPU(入力手段、設定手段、自動作曲手段、表示手段),7 RAM(入力手段),9 表示装置(表示手段)
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a self-composing device that performs automatic composition based on a generation range of a composition to be composed (generated) and a motif melody of the composition to be composed, and a program for realizing an automatic composition method.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, an automatic music composition device that automatically performs music composition based on a generation range of a music to be composed and a motif melody of the music to be composed has been known.
[0003]
Such an automatic musical composition apparatus is usually configured so that the user can input and set an arbitrary generated sound range. And the input setting method of the generated sound range is, for example,
(1) It is configured so that the upper limit name and lower limit pitch name of the generated range can be directly specified. When the user specifies the upper limit name and lower limit pitch name of the generated range, the range of the range indicated by both pitch names is generated. Method of input setting as a sound range (2) It is configured to display a picture of a keyboard on a display device, and when the user specifies a key range on the display keyboard using a predetermined operator, the specified key range A method of inputting and setting a sound range corresponding to the generated sound range is known.
[0004]
As for the motif melody, it is known that the user can input and set an arbitrary melody using, for example, an actual musical instrument or a singing voice.
[0005]
[Problems to be solved by the invention]
However, even if the conventional automatic musical composition device is configured such that the user can input and set a favorite motif melody using, for example, an actual musical instrument or a singing voice, the generated sound range is the above (1) or ( 2) The input settings were made in the same way as described above. That is, both the input settings of the motif melody and the input settings of the generated sound range can be performed in the same way, but both input settings are independent and irrelevant. Therefore, there is room for improvement to further improve user operability.
[0006]
The present invention has been made paying attention to this point, and the first object is to provide a program for realizing an automatic song apparatus and an automatic song method that can further improve the operability of the user. Objective.
[0007]
Also, in the above-described conventional automatic music composition device, as described above, the input setting of the motif melody and the input setting of the generated sound range are performed by independent and unrelated methods. , It was difficult for the user to know which range of melody to input.
[0008]
The present invention has been made paying attention to this point, and when a user inputs and sets a favorite motif melody using, for example, an actual musical instrument or a singing voice, the range of the melody to be input can be determined at a glance. It is a second object of the present invention to provide a program for realizing an automatic song apparatus and an automatic song method that can be confirmed.
[0009]
[Means for Solving the Problems]
In order to achieve the first object, an automatic music composition apparatus according to claim 1 includes an input means for inputting a motif melody of a music to be composed, and the input means for the composition to be composed. It is characterized by comprising setting means for setting a generated sound range, and automatic composition means for performing automatic composition based on the inputted motif melody and the set generated sound range.
[0010]
In order to achieve the second object, the automatic composition apparatus according to claim 2 is the automatic composition apparatus according to claim 1, wherein the display section provided on or near the input means or the input means is provided. The display unit capable of displaying a graphic simulating the display further includes display means for displaying the set generated sound range.
[0011]
Furthermore, the program according to claim 3 can be realized by the same technical idea as that of claim 1.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0013]
FIG. 1 is a block diagram showing a schematic configuration of an automatic musical composition apparatus according to an embodiment of the present invention.
[0014]
As shown in the figure, the automatic composition apparatus of the present embodiment includes a keyboard 1 for inputting pitch information, a panel switch 2 having a plurality of switches for inputting various information, and a keyboard 1 A key press detection circuit 3 that detects a key press state of each key, a switch detection circuit 4 that detects a press state of each switch of the panel switch 2, a CPU 5 that controls the entire apparatus, and a control program executed by the CPU 5 A ROM 6 for storing various table data, a RAM 7 including a work area for temporarily storing performance data, various input information, calculation results, and the like, and a timer 8 for measuring interrupt times and various times in timer interrupt processing. Display various information, such as large liquid crystal display (LCD) or CRT (Cathode Ray Tube) display and light emitting diode (LED) , A flexible disk drive (FDD) 10 that drives a flexible disk (FD) 20 that is a storage medium, and a hard disk (not shown) that stores various application programs including the control program, various data, and the like. A CD-ROM drive (CD) for driving a hard disk drive (HDD) 11 for driving) and a compact disk-read only memory (CD-ROM) 21 for storing various application programs including the control program and various data. ROMD) 12, a MIDI interface (I / F) 13 for inputting an external MIDI (Musical Instrument Digital Interface) signal or outputting a MIDI signal to the outside, and a communication network 101, for example, A communication interface (I / F) 14 for transmitting / receiving data to / from the computer 102, a tone generator circuit 15 for converting performance data inputted from the keyboard 1, preset performance data, and the like into musical tone signals, and the tone generator circuit 15. An effect circuit 16 for applying various effects to the tone signal from 15 and a tone signal from the effect circuit 16 that is converted into sound, such as a DAC (Digital-to-Analog Converter), amplifier, speaker, etc. The system 17 is comprised.
[0015]
The above components 3 to 16 are connected to each other via a bus 18, a timer 8 is connected to the CPU 5, another MIDI device 100 is connected to the MID II / F 13, and a communication network 101 is connected to the communication I / F 14. Are connected to the sound source circuit 15, and a sound system 17 is connected to the effect circuit 16.
[0016]
As described above, the hard disk of the HDD 11 can also store the control program executed by the CPU 5. When the control program is not stored in the ROM 6, the control program is stored in the hard disk and is read into the RAM 7. Thus, the CPU 5 can be caused to perform the same operation as when the control program is stored in the ROM 6. In this way, control programs can be easily added and upgraded.
[0017]
The control program and various data read from the CD-ROM 21 of the CD-ROM drive 12 are stored in the hard disk in the HDD 11. As a result, a new installation or version upgrade of the control program can be easily performed. In addition to the CD-ROM drive 12, a device for using various types of media such as a magneto-optical disk (MO) device may be provided as an external storage device.
[0018]
The MIDII / F 13 is not limited to a dedicated one, and may be configured by a general-purpose interface such as RS-232C, USB (Universal Serial Bus), IEEE 1394 (Eye Triple E 1394). In this case, data other than MIDI messages may be transmitted and received simultaneously.
[0019]
As described above, the communication I / F 14 is connected to a communication network 101 such as a LAN (Local Area Network), the Internet, or a telephone line, and is connected to the server computer 102 via the communication network 101. When the above programs and various parameters are not stored in the hard disk in the HDD 11, the communication I / F 14 is used to download programs and parameters from the server computer 102. A computer serving as a client (automatic composition apparatus in the present embodiment) transmits a command for requesting downloading of a program and parameters to the server computer 102 via the communication I / F 14 and the communication network 101. Upon receiving this command, the server computer 102 distributes the requested program and parameters to the computer via the communication network 101, and the computer receives these programs and parameters via the communication I / F 14 and receives them in the HDD 11. Downloading is completed by accumulating on the hard disk.
[0020]
In addition, an interface for directly exchanging data with an external computer or the like may be provided.
[0021]
Note that the self-composing apparatus of the present embodiment is constructed on a general-purpose personal computer, as can be seen from the above-described configuration, but is not limited to this, and only from the minimum elements that can implement the present invention. You may construct | assemble on the comprised dedicated apparatus.
[0022]
A control process executed by the automatic musical composition apparatus configured as described above will be described with reference to FIGS.
[0023]
The automatic musical composition apparatus according to the present embodiment can input and set both the generated sound range and the motif melody using the keyboard 1, and further, when the motif melody is input and set, the user can see the input generated sound range at a glance. As described above, there is a feature in that it can be displayed on or near the keyboard 1 or on the display device 9.
[0024]
FIG. 2 is a flowchart showing a procedure of the automatic music piece processing executed by the automatic music piece device of the present embodiment, particularly the CPU 5.
[0025]
In the figure, first, when the user designates the style of a song to be composed, such as rock, popular, and classic, for example, the designated style is input (stored) in the work area of the RAM 7 (step S1). .
[0026]
Next, a list of composition data corresponding to the input music style is displayed on the display device 9, and the data designated by the user is selected from the list and stored in the work area of the RAM 7 (step S2).
[0027]
Further, when the user designates the range (generated range) of the entire song to be generated (composed) using the keyboard 1, this generated range is stored in the work area of the RAM 7 as part of the composition data. (Step S3). Here, the generated sound range is specified by the following method, for example. That is, when the generated sound range setting mode is selected, a message “Please specify the lower limit of the generated sound range by pressing a key on the keyboard” is displayed on the display device 9 first. In response to this, when the user designates a lower limit (for example, “C2”) as shown in FIG. 3A, a corresponding MIDI message is inputted via the keyboard 1 and the key depression detection circuit 3. Therefore, the CPU 5 analyzes this MIDI message, detects the lower limit of the generated sound range specified by the user, and stores it in the work area of the RAM 7. Next, a message “Please specify the upper limit of the generated range by pressing a key on the keyboard” is displayed on the display device 9, and the user responds as shown in FIG. When the upper limit (for example, “D3”) is designated, the CPU 5 similarly detects the upper limit of the generated sound range designated by the user and stores it in the work area of the RAM 7.
[0028]
Then, the set generated sound range, that is, the generated sound range indicated by the stored lower limit and upper limit is displayed (step S4).
[0029]
FIGS. 3B to 3E are diagrams showing display examples of the generated sound range. When each key of the keyboard 1 is configured to shine, all keys in the set generated sound range are shown. It is possible to make it shine (Fig. (B)), or to make only the keys corresponding to the lower and upper limits of the set generated sound range shine (Fig. (C)), and in the vicinity of the keyboard 1 each key In the case where LEDs are provided corresponding to each, the LEDs in the set generated sound range are all lit ((d) in the same figure), and the lower limit and the upper limit of the set generated sound range are respectively corresponded. A display mode in which only the LED is lit ((e) in the figure) can be considered.
[0030]
In the case of an external keyboard device that is not connected to the automatic performance device and is not built in the automatic performance device, such as a MIDII / F13, a MIDI exclusive message or the like is sent to the external keyboard device. The display control command may be supplied using.
[0031]
FIG. 4 is a diagram showing another display example of the set generated sound range, and shows an example in which the set generated sound range is displayed on the display device 9. In the figure, the vertical axis is the pitch, and the horizontal axis is the measure direction, and the entire range generated by the automatic music device is displayed, and the set generated range (set range) is indicated by diagonal lines in the entire range. It is trying to display. It should be noted that the set range is indicated by “hatched lines” for the convenience of illustration, and it is needless to say that the set range is not limited as long as the set range can be seen at a glance with respect to the entire range. Yes. As other display modes, for example, a mode in which the color indicating the entire sound range is different from the color indicating the set sound range, or both are made the same color and the density is changed is conceivable. In FIG. 4, the generated melody is also displayed, but the melody is not displayed before the melody is generated.
[0032]
Returning to FIG. 2, when the user inputs a motif melody within the set generated sound range, that is, within the displayed generated sound range, using the keyboard 1, this motif melody is stored in the work area of the RAM 7 (step S5). .
[0033]
When the user gives an instruction to start an automatic song by a predetermined operation, the CPU 5 generates song data for one song based on the stored motif melody and the stored composition data (step). S6). Here, the automatic music composition method is not a feature of the present invention, and a known method may be used, and the description thereof is omitted.
[0034]
In this embodiment, a keyboard instrument is used as an actual musical instrument for inputting and setting the generated sound range and motif melody. However, the present invention is not limited to this. For example, any instrument such as a stringed instrument, a wind instrument, and a percussion instrument having a musical scale can be used. It may be adopted. When a stringed instrument is adopted, for example, an LED is embedded at a position corresponding to the scale sound on or in the fingerboard, and the set generated sound range is displayed in the display mode shown in FIG. 3 (d) or (e). You just have to do it. However, depending on the type of instrument used, it may be difficult to display the set generated sound range near the instrument. In this case, the set generated sound range is displayed in the display mode shown in FIG. It may be displayed on the display device 9. Alternatively, a graphic display imitating a performance input unit of a musical instrument such as a keyboard or a fingerboard may be displayed on the display device 9, and the sound range may be displayed in a display form as shown in FIG.
[0035]
In the present embodiment, only one generated sound range is input and set over the entire music. However, the present invention is not limited to this. For example, the generated sound range is different in the motif portion and other portions in the music. May be input and set.
[0036]
Furthermore, the means for inputting and setting the generated sound range and the motif melody is not limited to a real musical instrument, and may be a human singing voice. In this case, in addition to the configuration of FIG. 1, at least a microphone for inputting a singing voice, an ADC (Analog-to-Digital Converter) for converting an analog signal of a singing voice inputted through the microphone into a digital signal, It is necessary to provide a digital filter or the like that extracts only the signal components necessary for analyzing the pitch from the singing voice (digital signal) converted through the ADC.
[0037]
FIG. 5 is a flowchart showing a procedure of another generated sound range setting process, that is, a generated sound range setting process when the generated sound range is input by singing voice. The generated sound range setting process of FIG. 2 replaces the generated sound range setting process of step S3 of FIG. 2, and the generated sound range can be set by singing voice if the other steps of FIG. 2 are modified as described later.
[0038]
In FIG. 5, first, when the user selects the generated sound range setting mode, a message “Please specify the lower limit of the generated sound range with a song” is displayed on the display device 9. When the pitch is input as a song (for example, “A”), the digital signal input through the microphone, ADC, digital filter, and the like is stored in the work area of the RAM 7 (step S11).
[0039]
Next, the CPU 5 detects the pitch (pitch) by analyzing the stored digital signal (step S12), and quantizes the detected pitch to equal temperament (step S13). Is stored in the work area of the RAM 7 (step S14).
[0040]
Similarly, the upper limit pitch is detected from the input song and stored in the work area of the RAM 7 (steps S15 to S18).
[0041]
Thereafter, the process proceeds to step S4 of FIG. 2, and the set generated sound range is displayed on the display device 9 in the display mode of FIG. In the present embodiment, the generated sound range is input by singing voice, and the motif melody is also input by singing voice. Therefore, the generated generated sound range is displayed in the display mode of FIG. The display mode of FIG. 4 is adopted because it is easier to understand than the display modes of b) to (e). However, the generated sound range may be input as a singing voice, and the motif melody may be input from the keyboard 1, and in this case, it is better to display in the display mode of FIGS. 3 (b) to 3 (e). .
[0042]
Then, a motif melody is input within the set generated sound range (step S5). In the present embodiment, since the motif melody is also input by singing voice, it is necessary to add the same processing as the processing of steps S12 and S13 to the processing of step S5. If the motif melody is input from the keyboard 1 as described above, the process of step S5 may not be changed.
[0043]
The processing in the next step S6 can be performed as described above, and the description thereof is omitted.
[0044]
By applying the above-described method of inputting and setting the generated sound range and the motif melody with a human singing voice as it is to the natural musical instrument, the generated sound range and the motif melody can be input and set with the natural musical instrument. In this case, a display device may be provided separately from the natural musical instrument, and the set generated sound range may be displayed on the display device in the display mode of FIG.
[0045]
As described above, the means for inputting and setting the motif melody is used to input and set the generated sound range, so that the motif melody can be input immediately after the generated sound range is input, which improves operability. it can.
[0046]
Furthermore, since the set generated sound range is displayed on or near the means for inputting and setting the motif melody, the user can confirm at a glance the range of the motif melody to be input.
[0047]
It should be noted that a name is given to the generated sound range set in step S3 of FIG. 2, and a plurality of names are stored in a predetermined area of the RAM 7, so that necessary ones can be called and set as a part of the composition data. It may be configured. Such a configuration is very convenient when the generated sound range set in the past is used as it is as composition data.
[0048]
Further, even when a motif melody is input and set by a human singing voice, the generated sound range may be input from an actual musical instrument. In this way, when the range of the singing voice is known in advance, the generated range can be accurately set.
[0049]
Conversely, even when a motif melody is input and set with an actual musical instrument, the generated sound range may be input with a singing voice. Since the range of the singing voice changes according to the physical condition at that time, when composing for that person, it is possible to make a more appropriate setting by inputting the generated range with the singing voice.
[0050]
A program in which a storage medium storing software program codes for realizing the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU 5 or MPU) of the system or apparatus is stored in the storage medium. It goes without saying that the object of the present invention can also be achieved by reading and executing the code.
[0051]
In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium storing the program code constitutes the present invention.
[0052]
As the storage medium for supplying the program code, for example, the flexible disk 20, hard disk, optical disk, magneto-optical disk, CD-ROM 21, CD-R, magnetic tape, nonvolatile memory card, ROM 6 or the like is used. it can. Further, the program code may be supplied from the server computer 102 via another MIDI device 100 or the communication network 101.
[0053]
Further, by executing the program code read out by the computer, not only the functions of the above-described embodiments are realized, but also the OS running on the computer based on the instruction of the program code performs the actual processing. It goes without saying that a case where the functions of the above-described embodiment are realized by performing part or all of the above and the processing thereof is included.
[0054]
Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the case where the CPU 5 or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
[0055]
【The invention's effect】
As described above, according to the first or third aspect of the invention, using the information input from the input means for inputting the motif melody of the song to be composed, the generated sound range of the song to be composed In other words, the motif melody and the generated sound range are input using the same input means, so the motif melody can be input immediately after the generated sound range is input, improving operability. Can do.
[0056]
According to the second aspect of the present invention, since the set generated sound range is displayed on the display unit provided on or near the input means, the user can input the range of the motif melody to be input. Can be confirmed at a glance.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of an automatic musical composition apparatus according to an embodiment of the present invention.
FIG. 2 is a flowchart showing a procedure of an automatic music piece process executed by the automatic music piece device of FIG. 1, particularly a CPU;
FIG. 3 is a diagram illustrating a state in which a generated sound range is input and set and a display example of the set generated sound range.
FIG. 4 is a diagram showing another display example of the set generated sound range.
FIG. 5 is a flowchart showing a procedure of a generated sound range setting process when the generated sound range is input by singing voice.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Keyboard (input means), 5 CPU (input means, setting means, self-composing music means, display means), 7 RAM (input means), 9 Display apparatus (display means)

Claims (3)

作曲しようとする曲のモチーフメロディを入力する入力手段と、
該入力手段を用いて、前記作曲しようとする曲の生成音域を設定する設定手段と、
前記入力されたモチーフメロディおよび前記設定された生成音域に基づいて自動作曲する自動作曲手段と
を有することを特徴とする自動作曲装置。
An input means for inputting the motif melody of the song to be composed;
Using the input means, setting means for setting a generated sound range of the song to be composed;
An automatic music composition device comprising: automatic music composition means for performing automatic music composition based on the inputted motif melody and the set generated sound range.
前記入力手段上またはその近傍に設けられた表示部もしくは、前記入力手段を模した図形表示が可能な表示部に、前記設定された生成音域を表示する表示手段をさらに有することを特徴とする請求項1に記載の自動作曲装置。The display unit for displaying the set generated sound range is further provided on a display unit provided on or near the input unit or a display unit capable of graphic display imitating the input unit. Item 2. The automatic composition apparatus according to item 1. 作曲しようとする曲のモチーフメロディを入力する入力手段から入力された情報を用いて、前記作曲しようとする曲の生成音域を設定する設定手順と、
前記入力手段から入力されたモチーフメロディおよび前記設定された生成音域に基づいて自動作曲する自動作曲手順と
をコンピュータに実行させるためのプログラム。
A setting procedure for setting a generation range of the song to be composed using the information input from the input means for inputting the motif melody of the song to be composed;
A program for causing a computer to execute an automatic music composition procedure for performing an automatic music composition based on the motif melody input from the input means and the set generated sound range.
JP2002206846A 2002-07-16 2002-07-16 Program for realizing automatic composition device and automatic composition method Expired - Fee Related JP3903864B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002206846A JP3903864B2 (en) 2002-07-16 2002-07-16 Program for realizing automatic composition device and automatic composition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002206846A JP3903864B2 (en) 2002-07-16 2002-07-16 Program for realizing automatic composition device and automatic composition method

Publications (2)

Publication Number Publication Date
JP2004053642A JP2004053642A (en) 2004-02-19
JP3903864B2 true JP3903864B2 (en) 2007-04-11

Family

ID=31931460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002206846A Expired - Fee Related JP3903864B2 (en) 2002-07-16 2002-07-16 Program for realizing automatic composition device and automatic composition method

Country Status (1)

Country Link
JP (1) JP3903864B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4748617B2 (en) * 2009-03-06 2011-08-17 株式会社河合楽器製作所 Electronic musical instruments
JP5439994B2 (en) * 2009-07-10 2014-03-12 ブラザー工業株式会社 Data collection / delivery system, online karaoke system

Also Published As

Publication number Publication date
JP2004053642A (en) 2004-02-19

Similar Documents

Publication Publication Date Title
US7799985B2 (en) Electronic musical apparatus, control method therefor, and storage medium storing instructions for implementing the method
JP3684892B2 (en) Chord presentation device and storage medium
JP2001075564A (en) Performance data processor and method therefor
JP4265551B2 (en) Performance assist device and performance assist program
US7375274B2 (en) Automatic accompaniment apparatus, method of controlling the apparatus, and program for implementing the method
JP5228315B2 (en) Program for realizing automatic accompaniment generation apparatus and automatic accompaniment generation method
JP3867578B2 (en) Electronic music apparatus and program for electronic music apparatus
JP4483304B2 (en) Music score display program and music score display device
JP3903864B2 (en) Program for realizing automatic composition device and automatic composition method
JP4835016B2 (en) Note information display device and program
US10805475B2 (en) Resonance sound signal generation device, resonance sound signal generation method, non-transitory computer readable medium storing resonance sound signal generation program and electronic musical apparatus
JP3649014B2 (en) Performance data file playback setting control device
JP2002304176A (en) Electronic music device, control method therefor and program
JP4853054B2 (en) Performance data editing apparatus and program
JP3846334B2 (en) Program for realizing automatic composition / arrangement device and automatic composition / arrangement method
JP4239952B2 (en) Automatic accompaniment apparatus and program for realizing the control method
JP5076979B2 (en) Performance data creation apparatus and program for realizing performance data creation method
JP3986751B2 (en) Musical performance device
JP2000250533A (en) Harmony type display device
US20020007724A1 (en) Data modifying apparatus and storage medium storing data modifying program
JP3399333B2 (en) Music control device
JP2006064746A (en) Musical information specifying device, and program for realizing musical information specifying method
JP4302898B2 (en) Automatic performance device, automatic performance method and storage medium
JP3624773B2 (en) Reading practice device, reading practice method, and computer-readable recording medium recording a program for realizing the method
JP2021099457A (en) Program, method, electronic apparatus, and musical performance data display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050224

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070101

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110119

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120119

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130119

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140119

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees