JP3630075B2 - 副旋律生成装置及び方法並びに記憶媒体 - Google Patents
副旋律生成装置及び方法並びに記憶媒体 Download PDFInfo
- Publication number
- JP3630075B2 JP3630075B2 JP2000151081A JP2000151081A JP3630075B2 JP 3630075 B2 JP3630075 B2 JP 3630075B2 JP 2000151081 A JP2000151081 A JP 2000151081A JP 2000151081 A JP2000151081 A JP 2000151081A JP 3630075 B2 JP3630075 B2 JP 3630075B2
- Authority
- JP
- Japan
- Prior art keywords
- sound
- melody
- additional
- sub
- rule
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/145—Composing rules, e.g. harmonic or musical rules, for use in automatic composition; Rule generation algorithms therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/155—Musical effects
- G10H2210/245—Ensemble, i.e. adding one or more voices, also instrumental voices
- G10H2210/261—Duet, i.e. automatic generation of a second voice, descant or counter melody, e.g. of a second harmonically interdependent voice by a single voice harmonizer or automatic composition algorithm, e.g. for fugue, canon or round composition, which may be substantially independent in contour and rhythm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/201—Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
- G10H2240/241—Telephone transmission, i.e. using twisted pair telephone lines or any type of telephone network
- G10H2240/251—Mobile telephone transmission, i.e. transmitting, accessing or controlling music data wirelessly via a wireless or mobile telephone receiver, analog or digital, e.g. DECT GSM, UMTS
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/201—Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
- G10H2240/271—Serial transmission according to any one of RS-232 standards for serial binary single-ended data and control signals between a DTE and a DCE
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/281—Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
- G10H2240/285—USB, i.e. either using a USB plug as power supply or using the USB protocol to exchange data
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/281—Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
- G10H2240/295—Packet switched network, e.g. token ring
- G10H2240/305—Internet or TCP/IP protocol use for any electrophonic musical instrument data or musical parameter transmission purposes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/281—Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
- G10H2240/311—MIDI transmission
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/281—Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
- G10H2240/315—Firewire, i.e. transmission according to IEEE1394
Description
【発明の属する技術分野】
この発明は、主旋律に応じて自動的に副旋律(付加音)を生成する副旋律生成装置および方法並びに記憶媒体に関し、特にコード進行が付与されていない場合であっても主旋律に対して副旋律(付加音)を自動的に生成し付加する副旋律生成装置及び方法並びに記憶媒体に関する。
【0002】
【従来の技術】
近年、パーソナルコンピュータの普及に伴い、コンピュータを用いて楽器を演奏したり、作曲したり、編曲したり、音色を合成したりするコンピュータミュージックを用いて、誰でも音楽を自由に楽しめるようになってきた。特に、コンピュータを用いた自動演奏の分野において、ユーザが選択した所望の主旋律に基づいて自動演奏を行う際に、主旋律に応じた副旋律(付加音)を自動的に生成する副旋律生成装置が従来から知られている。該副旋律生成装置を用いて主旋律に応じた副旋律(付加音)を自動的に生成することで、主旋律に対して1つの副旋律(付加音)を付与するデュエット、あるいは主旋律に対して2つの副旋律(付加音)を付与するトリオなどのハーモニー演奏を簡略に行うことが可能となっている。
【0003】
【発明が解決しようとする課題】
ところで、従来の副旋律生成装置は、選択された主旋律を構成する個々のメロディ音と主旋律に対応するコードとに基づいて付加音を自動的に生成し、副旋律として主旋律に対し付与していた。そのため、副旋律を付与するためには主旋律に加えてコードを与える必要があり、コードが与えられていない場合には主旋律に対して副旋律を付与することができない、という問題点があった。この問題点を解決する方法の1つとして、随時に主旋律からコードを検出し、該コードに基づいて副旋律を自動的に生成する方法がある。しかし、この方法を用いると、副旋律を自動生成するためのプログラムが複雑となる、該プログラムを記憶するために大きな記憶容量が必要となる、といった不都合が新たに生じることとなり問題である。
また、従来では、副旋律を自動生成する際に、主旋律に対応したコードに整合するようにメロディ音に対して付加音を付与するだけであったことから、付与された付加音の音の流れが良くない場合が多く、副旋律(付加音)だけを聴くと音楽的に不自然で違和感がある、という問題点があった。
【0004】
本発明は上述の点に鑑みてなされたもので、コードを必要とせずに主旋律に応じた副旋律(付加音)を自動的に生成する副旋律生成装置及び方法並びに記憶媒体を提供しようとするものである。
また、音のつながりが自然な音楽的に完成度の高い副旋律(付加音)を生成する副旋律生成装置及び方法並びに記憶媒体を提供しようとするものである。
【0005】
【課題を解決するための手段】
本発明に係る副旋律生成装置は、所定の主旋律を構成する複数のメロディ音の情報を供給する供給手段と、前記供給手段によって供給された情報に基づく各メロディ音を、強拍音、強拍近くの音、長音の少なくともいずれか1つを基準にして、特定音と該特定音以外の音とに分類する分類手段と、前記供給された情報に基づき前記主旋律の調を検出する手段と、前記主旋律に付加されるべき副旋律を構成する付加音の情報を生成するものであって、前記分類された特定音に対しては所定の第1のルールに従って付加音を決定し、前記分類された特定音以外の音に対しては前記第1のルールとは異なる第2のルールに従って付加音を決定する生成手段とを具え、前記第1のルールは、前記検出された調において前記特定音に対して所定の複数の音程度数の関係にある音のいずれかから付加音を決定するものであり、前記第2のルールは、生成済みの直前の付加音に対して順次進行、同音進行又は跳躍進行のいずれかの関係にある当該調の音階音を付加音として決定するものであることを特徴とする。
【0006】
主旋律は複数のメロディ音から構成され、こうした主旋律を構成する複数のメロディ音に基づいて付加音を順次に生成していくことで、主旋律に応じた副旋律を付与する。供給手段は、所定の主旋律を構成する複数のメロディ音の情報を供給する。分類手段は、前記供給手段によって供給された情報に基づく各メロディ音を、強拍音、強拍近くの音、長音の少なくともいずれか1つを基準にして、特定音と該特定音以外の音とに分類する。生成手段は、前記主旋律に付加されるべき副旋律を構成する付加音の情報を生成するものである。この生成手段は、分類された特定音に対しては所定の第1のルールに従って付加音を決定する。他方、分類された特定音以外の音に対しては前記第1のルールとは異なる第2のルールに従って付加音を決定する。すなわち、生成手段は個々のメロディ音が特定音であるか否かに応じて付加音の付加の仕方を異ならせている。付加音を付加する対象のメロディ音が特定音である場合には、第1のルールに従って、検出された調において該特定音に対して所定の複数の音程度数の関係にある音のいずれかから付加音を決定することで、該特定音と所定の音程を持つように付加音を決定することが行なわれ、特定音との音の響きを重視した付加音を付加することができる。他方、付加音を付加する対象のメロディ音が特定音以外の音である場合には、第2のルールに従って、生成済みの直前の付加音に対して順次進行、同音進行又は跳躍進行のいずれかの関係にある当該調の音階音を付加音として決定することで、生成される副旋律の音のつながりを重視した付加音を付加することができる。こうすることで、コードが与えられていなくても主旋律を構成する個々のメロディ音から付加音を生成することができる。また、音楽的に自然な副旋律を付与することができる。
【0007】
本発明の好ましい実施例として、前記生成手段は、曲頭と曲最後と段落音のメロディ音の少なくとも一方に対し、検出した主旋律の調の主音と同じ音程を持つ付加音を付加する。複数の音程からいずれかの音程を選択する手段を具えてなり、前記生成手段は、選択された音程に従う付加音を特定音あるいは特定音以外の音に付加する。前記生成手段は、特定音あるいは特定音以外の音に対して付加した付加音に基づいて禁則音の有無を判定し、該判定に従って新たに付加音を付加する。前記生成手段は、所定長以上の音長を持つメロディ音又は所定長以上の無音なメロディ区間の有無を判定し、該判定に従ってピックアップを形成する付加音を付加する。以上のようにすることで、主旋律に応じて音楽的に自然な音のつながりを持つ副旋律を生成することができるようになる。
【0008】
本発明は、装置の発明として構成し、実施することができるのみならず、方法の発明として構成し実施することができる。また、本発明は、コンピュータまたはDSP等のプロセッサのプログラムの形態で実施することができるし、そのようなプログラムを記憶した記録媒体の形態で実施することもできる。
【0009】
【発明の実施の形態】
以下、この発明の実施の形態を添付図面に従って詳細に説明する。
【0010】
図1は、この発明に係る副旋律生成装置の全体構成の一実施例を示したハード構成ブロック図である。
本実施例に示す副旋律生成装置は、マイクロプロセッサユニット(CPU)1、リードオンリメモリ(ROM)2、ランダムアクセスメモリ(RAM)3からなるマイクロコンピュータによって制御されるようになっている。CPU1は、この副旋律生成装置全体の動作を制御するものである。このCPU1に対して、データ及びアドレスバス1Dを介してリードオンリメモリ(ROM)2、ランダムアクセスメモリ(RAM)3、検出回路4、表示回路5、音源回路6、効果回路7、外部記憶装置9、MIDIインタフェース10、通信インタフェース11がそれぞれ接続されている。更に、CPU1には、タイマ割込み処理(インタラプト処理)における割込み時間や各種時間を計時するタイマ1Aが接続されている。すなわち、タイマ1Aは時間間隔を計数したり、あるいは楽曲(主旋律や副旋律を含んで構成される楽曲であるのは勿論のこと、さらに伴奏などを含んで構成される楽曲であってもよい)を自動演奏する際の演奏テンポを設定したりするためのテンポクロックパルスを発生する。このテンポクロックパルスの周波数は、各種スイッチ等からなるパネル操作子4Aによって調整される。このようなタイマ1AからのテンポクロックパルスはCPU1に対して処理タイミング命令として与えられたり、あるいはCPU1に対してインタラプト命令として与えられる。CPU1は、これらの命令に従って各種処理を実行する。各種処理には、例えば画面表示に関する処理や楽曲の自動演奏に関する処理等がある。
【0011】
ROM2は、CPU1により実行あるいは参照される各種プログラムや各種データ(例えば、主旋律メロディデータや副旋律メロディデータ等の演奏データ)などを格納するものである。RAM3は、各種楽音情報や楽曲を自動演奏する際に用いられる自動演奏情報、CPU1が所定のプログラムを実行する際に発生する各種データなどを一時的に記憶するワーキングメモリとして、あるいは現在実行中のプログラムやそれに関連するデータを記憶するメモリ等として使用される。RAM3の所定のアドレス領域がそれぞれの機能に割り当てられ、レジスタやフラグ、テーブル、メモリなどとして利用される。
パネル操作子4Aは各種のパラメータを指定したり、あるいは楽曲を自動演奏する際の各種音楽条件パラメータなどを入力するために用いる各種のスイッチ等を含んで構成される操作子である。例えば、数値データ入力用のテンキーや文字データ入力用のキーボード、あるいはパネルスイッチ等である。勿論、この他にも音高、音色、効果等を選択・設定・制御するための各種操作子を含んでいてよい。検出回路4は、パネル操作子4Aの各操作子の操作状態を検出し、その操作状態に応じたスイッチ情報をデータ及びアドレスバス1Dを介してCPU1に出力する。表示回路5は各種音楽条件パラメータの内容等の各種情報を、例えば液晶表示パネル(LCD)やCRT等から構成されるディスプレイ5Aに表示するのは勿論のこと、自動演奏中の楽曲に関する各種情報あるいはCPU1の制御状態などをディスプレイ5Aに表示する。
【0012】
音源回路6は、複数のチャンネルで楽音信号の同時発生が可能であり、データ及びアドレスバス1Dを経由して与えられた楽音情報(例えば、演奏データや音楽条件パラメータなど)を入力し、この楽音情報に基づいて楽音信号を発生する。音源回路6から発生された楽音信号は、サウンドシステム8を介して発音される。また、前記音源回路6から発生された楽音信号に対して、効果回路7は各種効果を与える。前記音源回路6における楽音信号発生方式は、いかなるものを用いてもよい。例えば、発生すべき楽音の音高に対応して変化するアドレスデータに応じて波形メモリに記憶した楽音波形サンプル値データを順次読み出す波形メモリ読み出し方式、又は上記アドレスデータを位相角パラメータデータとして所定の周波数変調演算を実行して楽音波形サンプル値データを求めるFM方式、あるいは上記アドレスデータを位相角パラメータデータとして所定の振幅変調演算を実行して楽音波形サンプル値データを求めるAM方式等の公知の方式を適宜採用してもよい。すなわち、音源回路6の方式は、波形メモリ方式、FM方式、物理モデル方式、高調波合成方式、フォルマント合成方式、VCO+VCF+VCAのアナログシンセサイザ方式、アナログシミュレーション方式等、どのような方式であってもよい。また、専用のハードウェアを用いて音源回路6を構成するものに限らず、DSPとマイクロプログラム、あるいはCPUとソフトウェアを用いて音源回路6を構成するようにしてもよい。さらに、1つの回路を時分割で使用することによって複数の発音チャンネルを形成するようなものでもよいし、1つの発音チャンネルが1つの回路で形成されるようなものであってもよい。
【0013】
外部記憶装置9は、楽曲の自動演奏時に用いる音楽条件パラメータや演奏データ(主旋律メロディデータや副旋律メロディデータなど)、CPU1が実行する各種プログラムの制御に関するデータ等を記憶するものである。前記ROM2に制御プログラムが記憶されていない場合、この外部記憶装置9(例えばハードディスク)に制御プログラムを記憶させておき、それを前記RAM3に読み込むことにより、ROM2に制御プログラムを記憶している場合と同様の動作をCPU1にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。なお、外部記憶装置9はハードディスク(HD)に限られず、フロッピィーディスク(FD)、コンパクトディスク(CD−ROM・CD−RAM)、光磁気ディスク(MO)、あるいはDVD(Digital Versatile Diskの略)、半導体メモリカード等の着脱自在な様々な形態の外部記録媒体を利用する記憶装置であってもよい。
【0014】
MIDIインタフェース(I/F)10は、他のMIDI機器10A等からMIDI規格の楽音情報(MIDIデータ)を当該副旋律生成装置へ入力したり、あるいは当該副旋律生成装置からMIDI規格の楽音情報(MIDIデータ)を他のMIDI機器10A等へ出力するためのインタフェースである。他のMIDI機器10Aはユーザによる操作に応じてMIDIデータを発生する機器であればよく、鍵盤型、ギター型、管楽器型、打楽器型、ミブリ型等どのようなタイプの操作子を具えた(若しくは、操作形態からなる)機器であってもよい。通信インタフェース11は、例えばLANやインターネット、電話回線等の通信ネットワーク11Bに接続されており、該通信ネットワーク11Bを介して、サーバコンピュータ11Aと接続され、当該サーバコンピュータ11Aから制御プログラムや各種データを当該副旋律生成装置側に取り込むためのインタフェースである。すなわち、ROM2や外部記憶装置9(ハードディスク)等に制御プログラムや各種データが記憶されていない場合に、サーバコンピュータ11Aから制御プログラムや各種データをダウンロードするために用いられる。クライアントとなる副旋律生成装置は、通信インターフェース10及び通信ネットワーク11Bを介してサーバコンピュータ11Aへと制御プログラムや各種データのダウンロードを要求するコマンドを送信する。サーバコンピュータ11Aは、このコマンドを受け、要求された制御プログラムやデータを、通信ネットワーク11Bを介して本装置へと配信し、本装置が通信インタフェース11を介して、これら制御プログラムや各種データを受信して外部記憶装置9(ハードディスク)等に蓄積することにより、ダウンロードが完了する。
【0015】
なお、MIDIインタフェース10は専用のMIDIインタフェースを用いるものに限らず、RS232−C、USB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインタフェースを用いてMIDIインタフェース10を構成するようにしてもよい。この場合、MIDIイベントデータ以外のデータをも同時に送受信するようにしてもよい。MIDIインタフェース10として上記したような汎用のインタフェースを用いる場合には、他のMIDI機器10AはMIDIイベントデータ以外のデータも送受信できるようにしてよい。勿論、音楽情報に関するデータフォーマットはMIDI形式のデータに限らず、他の形式であってもよく、その場合はMIDIインタフェース10と他のMIDI機器10Aはそれにあった構成とする。
【0016】
なお、上述した副旋律生成装置は専用の装置に限られず、例えばパソコンなどの汎用装置あるいはマルチメディア機器、携帯電話等の通信端末であってもよく、本発明に従う所定のソフトウエア又はハードウエアを用いることによって副旋律を自動生成することができるように構成した装置であればどのようなものであってもよい。また、携帯通信端末の場合、外部記憶装置9が無くてもよく、フラッシュメモリやバッテリバックアップされたRAM等、データの保持が可能な書き換え可能メモリを有していればよい。さらに、MIDIインタフェース10も無くてもよい。
【0017】
本発明に係る副旋律生成装置は、入力された主旋律(主旋律メロディデータ)を基にして副旋律(副旋律メロディデータ)を生成する。そこで、この主旋律(主旋律メロディデータ)に基づいて副旋律(副旋律メロディデータ)を生成する処理について、図2を用いて説明する。図2は、主旋律に基づいて副旋律を生成する処理の一実施例を示したフローチャートである。
以下、図2のフローチャートに従って、複旋律生成処理について説明する。
【0018】
ステップS1では、主旋律メロディデータを供給する。該主旋律メロディデータは、所定のデータベースから既存の曲をロードして主旋律メロディデータを取得するようにしてもよいし、通信ネットワーク11B上のWEBサーバWSから既存の主旋律メロディデータをダウンロードして取得したり、電子メールに添付された主旋律メロディデータを受信して取得するようにしてもよい。あるいは、所望のメロディをユーザがパネル操作子4A等を用いて適宜入力することにより生成した主旋律メロディデータを取得するようにしてもよいし、自動作曲を行うことにより生成した主旋律メロディデータを取得するようにしてもよい。
ステップS2では、ステップS1で取得された主旋律メロディデータに対して所定の処理を行い、該主旋律メロディデータの「調(キー)」を検出する。この「調」を検出する処理方法は既知であることからここでの詳しい説明を省略するが、一例を挙げると、主旋律を構成する個々の構成音と各「調」の音階音とを順次に比較し、各音の出現頻度が最も多い音階音を具えた「調」を当該主旋律における「調」として決定する方法などが従来から知られている。後続する処理で主旋律を構成する個々の構成音に対して付加する付加音(すなわち、副旋律を構成する個々の構成音)のピッチは、すべてこのステップS2の処理で検出した該主旋律の「調」の音階音を基本とする。ただし、ある区間(例えば、2拍区間や1小節区間など)において、主旋律に「#」(シャープ)や「♭」(フラット)などの所定の音楽記号が付された音符で表現することが可能な音が存在する場合に、該区間の主旋律の各音に対して該音符で表現可能な音と同じ音符の付加音を生成するときは、主旋律の該音符に付された「#」や「♭」を生成した付加音に同じように付けるものとする。例えば、Cメジャ調において、該区間内の主旋律に「F#」があり、同区間内の主旋律「A」に対して3度下の付加音をつける場合、「F」ではなく「F#」をつける。
ステップS3では、主旋律メロディデータを小節毎に区切る。こうすると、後続のステップS4において、各小節毎に重要音のみを検出しやすくなる。ステップS4では、小節毎に区切られた主旋律メロディデータを基に、各小節内にある主旋律を構成する個々の構成音の中から重要音を検出する。例えば、各小節内において強拍の位置にある音、強拍の位置に音がない場合には該強拍位置の近くにある音、あるいは該小節内にある音の中で音長が所定の音長(例えば2分音符)よりも長い音のうちの少なくとも1つを重要音として検出する。これら以外の音を重要音としてもよい。例えば、あるフレーズ中の最高音、アクセントのある音、調が変わった時の最初の音などでもよい。これらの場合、重要音検出の際に小節毎に区切る必要がなくなる。
なお、上記ステップS2〜ステップS4までの各処理で検出する主旋律の「調」、「小節区切り」、「重要音」などのデータを、主旋律メロディデータ中に予め与えておいてもよい。こうした場合には、上記ステップS2〜ステップS4までの各処理を省略して当該副旋律の生成処理を簡略化することができることから、付加音の生成をより短い処理時間で行うことができるようになるとともに、処理プログラムの記憶容量を減らすことができる。
【0019】
ステップS5では、ステップS4で算出した重要音に3度下あるいは6度下のいずれかの音を付加音として割り当てる。付加音の割り当てはランダムであってもよいし、あるいは所定のルールに従うようにしてもよい。例えば、重要音のピッチ(音域)に従って、3度下あるいは6度下のいずれの音を付加音として割り当てるかを決定するようにしてもよい。こうして、まず各小節毎の重要音に対して付加音を割り当てる。全ての重要音に対して付加音を付加すると、次に曲の先頭(曲頭)や曲の最後の音に対して特別の音を付与する(ステップS6)。曲頭や曲の最後に付加音として、例えば、主旋律の「調」の主音(キー・ノート)を付加すると、曲に段落感、すなわち、曲にまとまりを生じさせることができる。また、曲頭や曲の最後だけでなく、曲途中の段落感が出ている音(例えば、全音符等の長い音や、フレーズの区切りの先頭や最後の音など:以下、段落音)についても同様に特別の音を付与してもよい。ただし、ステップS6の処理は必ず実行しなければならないわけではなく、当該処理を省略してもよい。
このようにして、まず主旋律の特定の音(重要音、曲頭及び曲の最後の音)のみに対して付加音を決定する。
【0020】
次に、主旋律における重要音と重要音との間にある重要音以外の個々の音に対して付加音を生成する(ステップS7)。例えば、重要音間の主旋律を構成する個々の構成音1つに対して、以下のような所定の音楽ルールに従って1つの付加音を順次に生成する。
音楽ルールの一例として、以下のルールを設定し、ルール1から順に適用していく。
音楽ルール1:付加音は主旋律の3度又は6度下、且つ順次進行(ある音が音階上で隣りあっている上又は下の音へ進行すること)で連続させて次の重要音へと進行するように生成する。
音楽ルール2:順次進行で連続させることが不可能である場合、主旋律の3度又は4度又は6度下、且つ同音進行で連続させて次の重要音へと進行するように生成する。
音楽ルール3:同音進行で連続させることも不可能である場合、付加音が跳躍するように主旋律の3度又は6度下に生成してもよい。ただし、跳躍進行後は、主旋律に対して3度下あるいは6度下のいずれかの音へ順次進行するように付加音を生成する。なお、跳躍させた後に順次進行させるものに限らず、順次進行させた後に跳躍させるようにしてもよい。
こうした音楽ルールを適宜に適用して順次に主旋律の個々の構成音に対し付加音を生成することで、音のつながりが音楽的に自然な副旋律を生成することができる。
【0021】
ステップS8では、生成された付加音において、音楽的に禁止又は好ましくないとされる禁則音が存在するか存在しないかのチェックを行い、禁則音が存在する場合には副旋律を生成しなおす(つまり、主旋律を構成する全ての構成音に対して付した付加音を生成しなおす)。さらに、付加音を生成する対象の主旋律の構成音が所定の音長(例えば2分音符)以上の音あるいは所定の休符長(例えば2分休符)以上の休符である場合に、アウフタクトなどのピックアップ(メロディ・ラインの冒頭や、フレーズの切れ目などに使われる装飾的なパッセージ)を形成するように付加音を1乃至複数個生成する(ステップS9)。例えば、主旋律の構成音として2分音符以上の音符や休符があった場合には、次の小節の頭に順次進行で音がつながるように1乃至複数の付加音を主旋律の当該音に対して付する。なお、上記ステップS8及びステップS9の各処理は省略してもよい。このように、主旋律を構成する個々の構成音に対して順次に付加音を生成し付することで、全体として主旋律に対する副旋律を生成することができるようになっている。
【0022】
なお、上述の例では、主旋律を構成する個々の構成音に対し、1対1に付加音を付することで副旋律を生成するようにしたがこれに限られない。例えば、主旋律の複数の音に対し、1つの付加音を付するようにしてもよい。あるいは、主旋律の1つの音に対し、複数の付加音を付してもよい。例えば、4分音符の主旋律に対し8分音符2つの副旋律を付したり、8分音符2つの主旋律に対し4分音符1つの副旋律を付してもよい。また、同音進行の付加音については、タイで結んで音長の長い1音符に変更してもよい。また、主旋律に対して複数パートの副旋律を付加するようにしてもよい。例えば、生成する付加パートが主メロディを含めて3声の場合には、図2に示したフローチャートにおいて3度下又は6度下の音を割り当てる処理において(ステップS5参照)、そのどちらかの音のみを付加音として割り当てるのではなく、同時に複数の音を付加音として割り当てる。例えば、重要音に対する付加音として3度及び5度、4度及び6度、4度及び8度などの複数音を割り当てる。ただし、こうした場合に、3度下及び6度下の複数音を付加音として割り当てないほうが好ましい。3度下及び6度下の音をそれぞれ割り当てると、下の2声(3度下の音と6度下の音)の間が4度となって音の響が非常に悪くなることから、付加音として適切であるとは言えずあまりよくない。また、生成する付加パートが主メロディを含めて4声の場合には、更に1声加える。このように付加音を複数生成する場合において、重要音間の個々の音に対して付する複数の付加音は、まず複数生成した付加音の最高音について同音又は順次進行するように優先的に決定し、次に下位の付加音について順次に同様にして決定していく。この場合、付加する音は3度下、6度下に限らない。
【0023】
なお、付加音を生成する際の音楽ルールは例示したルールに限らず、例示した音楽ルール以外のルールを更に適用してもよいし、適用する音楽ルールを変えて付加音を生成するようにしてもよい。例えば、付加音を同音進行又は順次進行するように生成する場合に、主旋律の音の3度下又は6度下のいずれかの音(同音の場合はさらに4度下も可)をとるように構成したが、4度下又は5度下の音をとるなどのようにしてもよいし、あえてテンションとして2度下又は4度下又は6度下の音をとるようにしてもよい。あるいは、これらの取り得る付加音をコントロールするパラメータを設け、該パラメータに従っていずれかの音を選択するようにしてもよい。例えば、小節等の所定の区間別にコントロールパラメータを設定して、該パラメータに基づいて付加音を所定の区間毎にコントロールするようにすると、1曲としての変化のある起伏に富んだ副旋律を生成することができる。また、付加音の条件を、ジャンル(例えば「ジャズ」を指定した場合は付加音として7度、9度等のテンション音まで含める)や、感覚的用語(例えば「素朴」を指定した場合は付加音として3度のみとする)などで指定できるようにしてもよい。
また、上述の副旋律生成処理では音の流れを滑らかにする点に重点をおいて付加音を生成するようにしたが、主旋律と副旋律の音色を同じ音色あるいは類似音色にすると副旋律の時間的な音の流れが聞き取りにくくなるので、このような場合には主旋律と副旋律との音の響きを重点において付加音を生成するようにしてもよい。例えば、付加音の音程を3度と6度のみに限定する。逆に、主旋律と副旋律の音色が極端に異なる場合は副旋律の時間的な音の流れが聞き取りやすくなるので、このような場合には副旋律の音の流れにより重点をおいて付加音を生成するようにしてもよい。例えば、取り得る付加音の音程を1、3、4、5、6、8度のように、広い範囲の中から選択できるようにしてもよい。また、響き優先/流れ優先を主旋律と副旋律とで音色が同じか否かに応じて自動選択してもよいし、ユーザが何れかを選択できるようにしてもよい。あるいは、音楽ジャンルによって選択してもよく、例えば、クラシック的な曲では響きよりも流れを優先させるようにし、ジャズ的な曲では流れよりも響きを優先させるようにしてもよい。
付加音の決定の際に付加音をランダム決定するだけでなく、複数の付加音候補をディスプレイ5A等に表示したり発音させたりしてユーザに提示し、ユーザがそれらの候補の中からいずれかの付加音を選択操作により決定できるようにしてもよい。
【0024】
ここで、上述した副旋律生成処理について具体例を用いて簡単に説明する。図3は、副旋律生成処理による主旋律に対する付加音の付与方法を説明するための概念図であり、主旋律を構成する個々の構成音に対して副旋律を付与する様子を該処理の進行別に図示したものである。図3(A)は、該処理を実行することによって副旋律が付与される対象の主旋律のみを楽譜上に示した図である。図3(B)は、主旋律と共に、主旋律を構成する個々の構成音のうち重要音と曲頭の音のみに付与した副旋律を楽譜上に示した図である。図3(C)は、主旋律と共に、主旋律を構成する全ての構成音に付与した副旋律を楽譜上に示した図である。以下、図3を用いて、図2に従う副旋律の生成処理について具体的に説明する。ただし、ここでは、説明を簡略化するために、主旋律を曲の先頭から2小節分だだけ示し、該区間における主旋律の個々の音に対して副旋律を付与する場合について説明する。また、図3(A)に示すような主旋律(メロディデータ)が既に供給済みであり(図2のステップS1参照)、また該主旋律の「調」としてFメジャー調(すなわち、調の主音は「F」)が検出され(図2のステップS2参照)、更に小節毎に重要音が検出された(図2のステップS3及びステップS4参照)状態から副旋律生成処理の説明を始めるものとする(すなわち、図2のステップS5以降の処理について説明する)。この例では、重要音として3つの音(音4、音6、音9)が検出されている。なお、図3(A)に示す楽譜の下段に付された数字は、主旋律を構成する個々の構成音を説明上区別するために、主旋律を構成する個々の構成音に対応するよう便宜的に付した番号である。
【0025】
上述した副旋律生成処理では、まず検出した重要音に対して3度下あるいは6度下の音をランダムに付加音として割り当てる(図2のステップS5参照)。図4(B)に示すように、重要音4及び重要音6に対して3度下、重要音9に対して6度下の音が各々付加されている。さらに、曲頭の音1に対して特別な音、すなわち、当該主旋律の調(Fメジャー調)の主音(「F」)を付加音として付与している(図2のステップS6参照)。こうして、主旋律の特定音に対する付加音が個々の特定音毎に決定される。
次に、特定メロディ音以外の主旋律の音に対して付加音を付与する。すなわち、曲頭の音1、重要音4、重要音6、重要音9以外の音(音2、音3、音5、音7、音8)に対して付加音を生成して付与する。図3(C)では、各音に対して1対1に付加音を付与した例を示した。まず、曲頭の音1と重要音4との間の音2に対して、順次進行となる音を考えると、主旋律の2度下又は4度下となり、音楽ルール1は適用できない。同音進行となる音は3度下となり、音楽ルール2を適用することができる。よって、ここでは同音進行となる3度下の音を採用する。次に、音3に対しては、順次進行となる音は4度下又は6度下となり、6度下の音が採用できそうだが、重要音4の付加音に対して跳躍してしまうので、音楽ルール1は適用できない。同音進行も同様に重要音4の付加音に対して跳躍してしまうので、音楽ルール2も採用できない。そこで、音楽ルール3を適用し跳躍を許可する。この場合、主旋律の3度下を取ると重要音4の付加音に対して順次進行となるが、6度下を取ると跳躍になってしまう。よって3度下を採用する。このようにして、音1から重要音4に対する付加音は、同音進行、跳躍進行、順次進行となるように決定される。同様に音楽ルール1から3を適用することで、音5、音7、音8に対する付加音が、それぞれ同音進行の3度下、順次進行の3度下、同音進行の4度下に決定される。こうして、主旋律を構成する個々の構成音のうち曲頭及び重要音以外の各音に対する付加音が決定されることによって、先に決定した曲頭及び重要音に対する付加音とあわせて主旋律全体に対する副旋律が生成されることになる。このようにして生成された副旋律は主旋律と共にリアルタイムで発音するようにしてもよいし、また、主旋律の演奏データと副旋律の演奏データとを組合せて、あるいはそれぞれの演奏データを独立した状態で外部記憶装置9などに記憶するようにしてもよい。
【0026】
なお、自動演奏を行う場合、生成された副旋律を自動演奏する際に用いる音色は、主旋律を自動演奏する際に用いる音色と同じ音色であってもよいし、異なる音色であってもよい。また、副旋律を自動演奏する際の音量(ベロシティ)は、主旋律を自動演奏する際に用いる音量と同じ音量でもよいし、異なる音量であってもよい。できれば主旋律を自動演奏する際に用いる音量よりも低い音量の方が好ましい。また、主旋律を自動演奏する際に用いる音量に基づき、副旋律を自動演奏する際に用いる音量を決定するようにしてもよい(例えば、主旋律を自動演奏する際に用いる音量の80%を副旋律を自動演奏する際に用いる音量とするなど)。また、ゲートタイムも同様に主副で同じでもよいし、異なる(例えば副を短く)ようにしてもよい。
【0027】
パソコンなどの汎用装置(以下、このような構成の装置をクライアントPCと呼ぶ)や携帯通信端末を用いて副旋律生成装置を構成した場合、所定のサーバ側で生成した副旋律を通信ネットワーク11B等を介してクライアントPCや携帯通信端末側へと配信し、該クライアントPCや携帯通信端末側では取り込んだ副旋律を用いて自動演奏を行うシステム形態であってもよい。すなわち、サーバ側に副旋律を生成させることによって、該クライアントPCや携帯通信端末側では副旋律を生成することなく自動演奏を行うことができる形態であってもよい。そこで、このようなシステムについて図4を用いて簡単に説明する。図4は、サーバ側で生成した副旋律を用いて自動演奏を行うシステムの概略を示すシステムブロック図である。
【0028】
該システムは、WEBサーバWSと、中継サーバTSと、通信ネットワーク11Bと、クライアントPCと、携帯通信端末MTとにより構成される。該システムを構成する各々の装置(WEBサーバWS、中継サーバTS、クライアントPC、携帯通信端末MT)は、CPU1、ROM2、RAM3、通信インタフェース11等(図1参照)を含む独立したコンピュータにより構成されてなり、これらの各装置は通信ネットワーク11Bや専用線等を介した有線通信、あるいは中継サーバTS等を介した無線通信により各種データ(例えば、主旋律メロディデータや副旋律メロディデータ等の演奏データ)を送出したりあるいは受信したりすることができるようになっている。ただし、WEBサーバWS、中継サーバTSの各装置には図1に示すような音源回路6、効果回路7、サウンドシステム8が無くてもよいし、携帯通信端末MTには図1に示すような外部記憶装置9が無くてもよい。
なお、上記システムはWEBサーバWS、中継サーバTS、通信ネットワーク11B、クライアントPC、携帯通信端末MT以外のハードウェアを有する場合もあるが、ここでは必要最小限の資源を用いた場合について説明する。
【0029】
本実施例において、WEBサーバWSはサーバコンピュータであって、副旋律を生成するソフトウエア・プログラムをインストールしたものである。該WEBサーバWSとクライアントPCとはLAN(ローカルエリアネットワーク)やインターネット、電話回線などの種々の通信ネットワーク11Bを介して接続されていることから、ユーザはクライアントPCを通信ネットワーク11B上に接続してアクセス(例えば、URL(Uniform Resource Locator)の指定など)することで、WEBサーバWSとの間で各種データの送受信を行うことができる。すなわち、クライアントPCとWEBサーバWSとの間で双方向通信を行うことができる。また、クライアントPCは、WEBサーバWSから配信された各種データを受信し、各種データの内容をディスプレイ5Aに表示すると共に、配信された副旋律メロディデータを主旋律メロディデータとともに再生して自動演奏を行う等の各種処理を行うことができる。勿論、クライアントPCはパーソナルコンピュータの形態に限らない。また、この実施例ではクライアントPCやWEBサーバWSを各々1台のみ記載したが、クライアントPCやWEBサーバWSが通信ネットワーク11Bに複数台接続されていてもよいことは言うまでもない。携帯通信端末MTは、携帯電話やPDA(Personal Data(Digital) Assistants)等の無線通信が可能な小型端末であり、本来の通信機能のほかに着信音の再生、アラーム音の再生、通話時のBGMの再生等の自動演奏機能も併せ持つものである。したがって、該携帯通信端末MTも上記クライアントPCと同様にWEBサーバWS側で生成された副旋律メロディデータと主旋律メロディデータの再生をして自動演奏を行うことができる。ただし、携帯通信端末MTをWEBサーバWSに接続して双方向通信を行う場合には、中継サーバTSを介する。すなわち、中継サーバTSが携帯通信端末MTとWEBサーバWSとの間で信号の送受信を中継することにより、携帯通信端末MTはWEBサーバWSとの間で各種データの送受信を行うことができる。
【0030】
該システムにおいて、クライアントPC又は携帯通信端末MTで主旋律を手入力又は自動作曲等により作成(又は既存曲の主旋律を外部記憶装置9等からロードしたり、電子メールに添付された主旋律を受信してもよい)し、該主旋律をWEBサーバWSにアップロードする。WEBサーバWSでは、クライアントPC又は携帯通信端末MTからアップロードされた主旋律に基づいて副旋律を生成し、クライアントPC又は携帯通信端末MTへ副旋律を配信する。この際、WEBサーバWS側で生成した副旋律生成に対して支払われるべき対価を課金処理するようにしてもよい。このようにして、クライアントPC又は携帯通信端末MTでは、作成(又はロード)した主旋律と受信した副旋律とを用いて自動演奏を行うことができる。こうすると、クライアントPCや携帯通信端末MT側に副旋律を生成するソフトウエア・プログラムをインストールしておく必要がないために、クライアントPCや携帯通信端末MT側の記憶メモリ等の容量を減らすことができる。したがって、クライアントPCや携帯通信端末MTを小型化及び軽量化することができる、という利点がある。
【0031】
なお、上述した副旋律生成装置を電子楽器に適用する場合、電子楽器は鍵盤楽器の形態に限らず、弦楽器や管楽器、あるいは打楽器等どのようなタイプの形態でもよい。また、音源装置や自動演奏装置等を1つの電子楽器本体に内臓したものに限らず、それぞれが別々に構成され、MIDIインタフェースや各種ネットワーク等の通信手段を用いて各装置を接続するように構成されたものにも同様に適用できることはいうまでもない。また、パソコンとアプリケーションソフトウェアという構成であってもよく、この場合処理プログラムを磁気ディスク、光ディスクあるいは半導体メモリ等の記憶メディアから供給したり、ネットワークを介して供給するものであってもよい。さらに、カラオケ装置や自動演奏ピアノ、あるいはゲーム装置、携帯電話等の携帯通信端末に適用してもよい。携帯通信端末の場合、着信音やアラーム音、BGMとして再生するだけでなく、生成したあるいはサーバから配信された副旋律メロディデータを主旋律メロディデータとともにメールに添付して他の端末へと送信できるようにしてもよい。
【0032】
また、生成される副旋律メロディデータや主旋律メロディデータ等の演奏データのフォーマットは、イベントの発生時刻を曲や小節内における絶対時間で表した『イベント+絶対時間』形式のもの、イベントの発生時刻を1つ前のイベントからの時間で表した『イベント+相対時間』形式のもの、音符の音高と符長あるいは休符と休符長で演奏データを表した『音高(休符)+符長』形式のもの、演奏の最小分解能毎にメモリの領域を確保し、演奏イベントの発生する時刻に対応するメモリ領域にイベントを記憶した『ベタ方式』形式のものなど、どのような形式のものでもよい。
また、複数チャンネル分の演奏データが存在する場合は、複数のチャンネルのデータが混在した形式であってもよいし、各チャンネルのデータがトラック毎に別れているような形式であってもよい。
【0033】
【発明の効果】
本発明によれば、主旋律を構成する個々の構成音に対する付加音をコード進行が与えられなくても生成できるようにしたことから、簡単な処理で主旋律に対する副旋律を生成することができる、という効果が得られる。
また、主旋律の個々の音のうち特定音に対しては所定の音程を持った音、それ以外の主旋律の音に対しては音のつながりのよい音程を持った音を付与するようにしたことから、全体にわたって音楽的に自然な完成度の高い副旋律を生成することができる、という効果が得られる。
【図面の簡単な説明】
【図1】この発明に係る副旋律生成装置の全体構成の一実施例を示したハード構成ブロック図である。
【図2】主旋律に基づいて副旋律を生成する処理の一実施例を示したフローチャートである。
【図3】副旋律生成処理による主旋律に対する付加音の付与方法を説明するための概念図である。図3(A)は、副旋律が付与される対象の主旋律のみを楽譜上に示した図である。図3(B)は、主旋律と主旋律を構成する個々の構成音のうち重要音と曲頭の音のみに付与した副旋律とを楽譜上に示した図である。図3(C)は、主旋律と主旋律を構成する全ての構成音に付与した副旋律とを楽譜上に示した図である。
【図4】サーバ側で生成した副旋律を用いて自動演奏を行うシステムの概略を示すシステムブロック図である
【符号の説明】
1…CPU、1A…タイマ、2…ROM、3…RAM、4…検出回路、4A…パネル操作子、5…表示回路、5A…ディスプレイ、6…音源回路、7…効果回路、8…サウンドシステム、9…外部記憶装置、10…MIDIインタフェース、10A…MIDI機器、11…通信インタフェース、11A…サーバコンピュータ、11B…通信ネットワーク、1D…データ及びアドレスバス、PC…クライアント、WS…WEBサーバ、TS…中継サーバ、MT…携帯通信端末
Claims (8)
- 所定の主旋律を構成する複数のメロディ音の情報を供給する供給手段と、
前記供給手段によって供給された情報に基づく各メロディ音を、強拍音、強拍近くの音、長音の少なくともいずれか1つを基準にして、特定音と該特定音以外の音とに分類する分類手段と、
前記供給された情報に基づき前記主旋律の調を検出する手段と、
前記主旋律に付加されるべき副旋律を構成する付加音の情報を生成するものであって、前記分類された特定音に対しては所定の第1のルールに従って付加音を決定し、前記分類された特定音以外の音に対しては前記第1のルールとは異なる第2のルールに従って付加音を決定する生成手段と
を具え、前記第1のルールは、前記検出された調において前記特定音に対して所定の複数の音程度数の関係にある音のいずれかから付加音を決定するものであり、前記第2のルールは、生成済みの直前の付加音に対して順次進行、同音進行又は跳躍進行のいずれかの関係にある当該調の音階音を付加音として決定するものであることを特徴とする副旋律生成装置。 - 前記生成手段は、曲頭と曲最後と段落音のメロディ音の少なくとも一方に対し、前記検出された主旋律の調の主音と同じ音程を持つ付加音を付加することを特徴とする請求項1に記載の副旋律生成装置。
- 複数の音程からいずれかの音程を選択する手段を具えてなり、
前記生成手段は、選択された音程に従う付加音を特定音あるいは特定音以外の音に付加することを特徴とする請求項1又は2に記載の副旋律生成装置。 - 前記生成手段は、特定音あるいは特定音以外の音に対して付加した付加音に基づいて禁則音の有無を判定し、該判定に従って新たに付加音を付加することを特徴とする請求項1乃至3のいずれかに記載の副旋律生成装置。
- 前記生成手段は、所定長以上の音長を持つメロディ音又は所定長以上の無音なメロディ区間の有無を判定し、該判定に従ってピックアップを形成する付加音を付加することを特徴とする請求項1乃至4のいずれかに記載の副旋律生成装置。
- 所定の主旋律を構成する複数のメロディ音の情報を供給するステップと、
前記供給された情報に基づく各メロディ音を、強拍音、強拍近くの音、長音の少なくともいずれか1つを基準にして、特定音と該特定音以外の音とに分類するステップと、
前記供給された情報に基づき前記主旋律の調を検出するステップと、
前記主旋律に付加されるべき副旋律を構成する付加音の情報を生成するステップであって、前記分類された特定音に対しては所定の第1のルールに従って付加音を決定し、前記分類された特定音以外の音に対しては前記第1のルールとは異なる第2のルールに従って付加音を決定するステップと
を具え、前記第1のルールは、前記検出された調において前記特定音に対して所定の複数の音程度数の関係にある音のいずれかから付加音を決定するものであり、前記第2のルールは、生成済みの直前の付加音に対して順次進行、同音進行又は跳躍進行のいずれかの関係にある当該調の音階音を付加音として決定するものであることを特徴とする副旋律生成方法。 - プログラムを記憶したコンピュータ読取り可能な記憶媒体であって、前記プログラムは下記ステップからなる副旋律生成方法をコンピュータに実行させるものであり、該副旋律生成方法は、
所定の主旋律を構成する複数のメロディ音の情報を供給するステップと、
前記供給された情報に基づく各メロディ音を、強拍音、強拍近くの音、長音の少なくともいずれか1つを基準にして、特定音と該特定音以外の音とに分類するステップと、
前記供給された情報に基づき前記主旋律の調を検出するステップと、
前記主旋律に付加されるべき副旋律を構成する付加音の情報を生成するステップであって、前記分類された特定音に対しては所定の第1のルールに従って付加音を決定し、前記分類された特定音以外の音に対しては前記第1のルールとは異なる第2のルールに従って付加音を決定するステップと
を具え、前記第1のルールは、前記検出された調において前記特定音に対して所定の複数の音程度数の関係にある音のいずれかから付加音を決定するものであり、前記第2のルールは、生成済みの直前の付加音に対して順次進行、同音進行又は跳躍進行のいずれかの関係にある当該調の音階音を付加音として決定するものであることを特徴とする。 - クライアント装置において、所定の主旋律を構成する複数のメロディ音の情報をサーバ装置へと供給するステップと、
サーバ装置において、前記クライアント装置から供給された情報に基づく各メロディ音を、強拍音、強拍近くの音、長音の少なくともいずれか1つを基準にして、特定音と該特定音以外の音とに分類するステップと、
前記供給された情報に基づき前記主旋律の調を検出するステップと、 サーバ装置において、前記主旋律に付加されるべき副旋律を構成する付加音の情報を生成するステップであって、前記分類された特定音に対しては所定の第1のルールに従って付加音を決定し、前記分類された特定音以外の音に対しては前記第1のルールとは異なる第2のルールに従って付加音を決定するステップと、
サーバ装置において、前記決定された付加音を前記クライアント装置へと供給するステップと
を具え、前記第1のルールは、前記検出された調において前記特定音に対して所定の複数の音程度数の関係にある音のいずれかから付加音を決定するものであり、前記第2のルールは、生成済みの直前の付加音に対して順次進行、同音進行又は跳躍進行のいずれかの関係にある当該調の音階音を付加音として決定するものであることを特徴とする副旋律生成方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000151081A JP3630075B2 (ja) | 2000-05-23 | 2000-05-23 | 副旋律生成装置及び方法並びに記憶媒体 |
US09/862,400 US6392134B2 (en) | 2000-05-23 | 2001-05-22 | Apparatus and method for generating auxiliary melody on the basis of main melody |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000151081A JP3630075B2 (ja) | 2000-05-23 | 2000-05-23 | 副旋律生成装置及び方法並びに記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001331175A JP2001331175A (ja) | 2001-11-30 |
JP3630075B2 true JP3630075B2 (ja) | 2005-03-16 |
Family
ID=18656697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000151081A Expired - Fee Related JP3630075B2 (ja) | 2000-05-23 | 2000-05-23 | 副旋律生成装置及び方法並びに記憶媒体 |
Country Status (2)
Country | Link |
---|---|
US (1) | US6392134B2 (ja) |
JP (1) | JP3630075B2 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3666364B2 (ja) * | 2000-05-30 | 2005-06-29 | ヤマハ株式会社 | コンテンツ生成サービス装置、システム及び記録媒体 |
KR100500314B1 (ko) * | 2000-06-08 | 2005-07-11 | 박규진 | 인터넷을 이용한 공동 작곡방법 및 시스템과, 이를 이용한 사업방법 |
US20030097640A1 (en) * | 2001-07-25 | 2003-05-22 | International Business Machines Corporation | System and method for creating and editing documents |
US7723603B2 (en) * | 2002-06-26 | 2010-05-25 | Fingersteps, Inc. | Method and apparatus for composing and performing music |
US7786366B2 (en) * | 2004-07-06 | 2010-08-31 | Daniel William Moffatt | Method and apparatus for universal adaptive music system |
US8242344B2 (en) * | 2002-06-26 | 2012-08-14 | Fingersteps, Inc. | Method and apparatus for composing and performing music |
GB2395631B (en) * | 2002-11-22 | 2006-05-31 | Hutchison Whampoa Three G Ip | Reproducing speech files in mobile telecommunications devices |
JP4093037B2 (ja) * | 2002-12-05 | 2008-05-28 | ヤマハ株式会社 | 楽譜表示データ作成装置およびプログラム |
US7554027B2 (en) * | 2005-12-05 | 2009-06-30 | Daniel William Moffatt | Method to playback multiple musical instrument digital interface (MIDI) and audio sound files |
SE0600243L (sv) * | 2006-02-06 | 2007-02-27 | Mats Hillborg | Melodigenerator |
JP5399831B2 (ja) * | 2009-09-11 | 2014-01-29 | 株式会社コナミデジタルエンタテインメント | 音楽ゲームシステム及びそのコンピュータプログラム並びに効果音データの生成方法 |
JP5728829B2 (ja) * | 2010-05-14 | 2015-06-03 | ヤマハ株式会社 | 電子音楽装置およびハーモニー音生成方法を実現するためのプログラム |
US8912420B2 (en) * | 2013-01-30 | 2014-12-16 | Miselu, Inc. | Enhancing music |
US8847054B2 (en) * | 2013-01-31 | 2014-09-30 | Dhroova Aiylam | Generating a synthesized melody |
JP2014170146A (ja) * | 2013-03-05 | 2014-09-18 | Univ Of Tokyo | 日本語歌詞からの多重唱の自動作曲方法及び装置 |
US11132983B2 (en) | 2014-08-20 | 2021-09-28 | Steven Heckenlively | Music yielder with conformance to requisites |
US9818385B2 (en) * | 2016-04-07 | 2017-11-14 | International Business Machines Corporation | Key transposition |
CN112102801B (zh) * | 2020-09-04 | 2022-04-05 | 北京有竹居网络技术有限公司 | 一种主旋律的生成方法、装置、电子设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH035200U (ja) | 1989-05-31 | 1991-01-18 |
-
2000
- 2000-05-23 JP JP2000151081A patent/JP3630075B2/ja not_active Expired - Fee Related
-
2001
- 2001-05-22 US US09/862,400 patent/US6392134B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2001331175A (ja) | 2001-11-30 |
US20010045154A1 (en) | 2001-11-29 |
US6392134B2 (en) | 2002-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3630075B2 (ja) | 副旋律生成装置及び方法並びに記憶媒体 | |
US20020040633A1 (en) | Performance instruction apparatus and method | |
US7750230B2 (en) | Automatic rendition style determining apparatus and method | |
EP3057090A1 (en) | Technique for reproducing waveform by switching between plurality of sets of waveform data | |
JP3637775B2 (ja) | メロディ生成装置と記録媒体 | |
JP2002023747A (ja) | 自動作曲方法と装置及び記録媒体 | |
US7420113B2 (en) | Rendition style determination apparatus and method | |
JP2006126710A (ja) | 奏法決定装置及びプログラム | |
US6040516A (en) | Tone generation system using computer software and storage medium storing the computer software | |
JP3724347B2 (ja) | 自動作曲装置及び方法並びに記憶媒体 | |
JP3293521B2 (ja) | 発音タイミング制御装置 | |
JPH11288281A (ja) | 演奏練習装置、演奏練習方法及び記録媒体 | |
JP3834963B2 (ja) | 音声入力装置及び方法並びに記憶媒体 | |
JP3775249B2 (ja) | 自動作曲装置及び自動作曲プログラム | |
JP2002297139A (ja) | 演奏データ変更処理装置 | |
JP3747802B2 (ja) | 演奏データ編集装置及び方法並びに記憶媒体 | |
JP3669301B2 (ja) | 自動作曲装置及び方法並びに記憶媒体 | |
JP2000155573A (ja) | 楽曲データ生成装置及びそのための記録媒体 | |
JP2003271142A (ja) | 奏法表示編集装置及び方法 | |
JP3755468B2 (ja) | 楽曲データの表情付け装置及びプログラム | |
JP3752940B2 (ja) | 自動作曲方法、自動作曲装置及び記録媒体 | |
JP3637782B2 (ja) | データ生成装置と記録媒体 | |
JP3642028B2 (ja) | 演奏データ処理装置及び方法並びに記憶媒体 | |
JP3649117B2 (ja) | 楽音再生装置及び方法並びに記憶媒体 | |
JP2011085731A (ja) | 楽音信号処理装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040809 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040824 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041207 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081224 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081224 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091224 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101224 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101224 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111224 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111224 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121224 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131224 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |