JPH0950278A - 自動作曲装置 - Google Patents

自動作曲装置

Info

Publication number
JPH0950278A
JPH0950278A JP7221051A JP22105195A JPH0950278A JP H0950278 A JPH0950278 A JP H0950278A JP 7221051 A JP7221051 A JP 7221051A JP 22105195 A JP22105195 A JP 22105195A JP H0950278 A JPH0950278 A JP H0950278A
Authority
JP
Japan
Prior art keywords
data
music
phrase
lyrics
syllable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7221051A
Other languages
English (en)
Other versions
JP3303617B2 (ja
Inventor
Eiichiro Aoki
栄一郎 青木
Toshio Sugiura
敏夫 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP22105195A priority Critical patent/JP3303617B2/ja
Priority to US08/693,462 priority patent/US5736663A/en
Publication of JPH0950278A publication Critical patent/JPH0950278A/ja
Priority to US09/543,367 priority patent/USRE40543E1/en
Application granted granted Critical
Publication of JP3303617B2 publication Critical patent/JP3303617B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/071Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/151Music Composition or musical creation; Tools or processes therefor using templates, i.e. incomplete musical sections, as a basis for composing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/341Rhythm pattern selection, synthesis or composition
    • G10H2210/371Rhythm syncopation, i.e. timing offset of rhythmic stresses or accents, e.g. note extended from weak to strong beat or started before strong beat
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/241Telephone transmission, i.e. using twisted pair telephone lines or any type of telephone network
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/295Packet switched network, e.g. token ring
    • G10H2240/305Internet or TCP/IP protocol use for any electrophonic musical instrument data or musical parameter transmission purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

(57)【要約】 (修正有) 【課題】 予め作成された歌詞との関連を考慮し自動的
に作曲可能で、元曲のメロディを分析し自動的作曲時
に、操作者の意図した曲が自動的に作曲可能な変更を分
析結果に適宜加えることができる。 【解決手段】 データ供給手段は作曲の対象となる歌詞
をひらがな又はカタカナで表した場合の1文字分を音節
データとし、該集まりである歌詞データを供給する。設
定手段は作曲される楽曲の特徴データ(楽節の構成、曲
の調、拍子、音域など)を設定する。楽曲生成手段は特
徴データ及び歌詞データを入力し、自動的に歌詞に対応
した楽曲を生成する。特徴抽出手段は元曲のメロディを
フレーズ毎に分析し、区間毎に音楽的特徴を抽出する。
該各区間の音楽的特徴が曲の特徴データとして記憶され
る。設定手段は特徴データを読み出し、内容を区間毎に
適宜修正したものを特徴データとする。楽曲生成手段は
操作者による修正特徴データに基づいた曲を新たに生成
する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、音楽に関する各
種の条件に応じて自動的に楽曲を作成する自動作曲装置
に関する。
【0002】
【従来の技術】近年、パーソナルコンピュータの普及に
伴い、コンピュータを用いて楽器を演奏したり、作曲し
たり、編曲したり、音色を合成したりするコンピュータ
ミュージックを用いて、誰でも音楽を自由に楽しめるよ
うになってきた。特に、コンピュータを用いた作曲の分
野では、音楽的な専門知識がなくても、コンピュータの
指示に従い各種の音楽条件を入力設定するだけで簡単に
作曲することができる。また、最近では元となる曲のメ
ロディを和声音と非和声音に分類し、非和声音をさらに
分類することによってそのメロディの特徴を分析し、そ
の分析結果とコード進行に従って新たなメロディを合成
し、自動的に作曲を行うようなものが提案されている。
【0003】
【発明が解決しようとする課題】ところが、従来のコン
ピュータミュージクにおける自動作曲は、予め入力設定
された様々な音楽条件(例えばコード進行、音楽ジャン
ル、リズム種類など)を満たすように処理して作曲する
ものである。従って、通常の人的な作曲作業のように、
先に作詞してから、後で作詞した歌詞に見合った曲を作
曲するというようなことができなかった。また、元とな
る曲のメロディの特徴を分析し、その分析結果に基づい
て自動的に作曲するような自動作曲装置は、分析結果を
そのまま利用するだけのものであり、分析結果に部分的
に手を加えたとしても、加えた結果が自動作曲の過程で
どのように作用するのかが明確でなかったため、部分的
に手を加えたとしてもそれは単にランダムに分析結果を
書き換えただけに過ぎず、操作者の意図する曲を自動的
に作曲できるものではなかった。
【0004】第1の発明は上述の点に鑑みてなされたも
ので、予め作成されている歌詞との関連を考慮して自動
的に作曲することのできる自動作曲装置を提供するもの
である。第2の発明は上述の点に鑑みてなされたもの
で、元となる曲のメロディを分析して自動的に作曲する
場合に、操作者の意図した曲が自動的に作曲されるよう
な変更を分析結果に適宜加えることのできる自動作曲装
置を提供するものである。
【0005】
【課題を解決するための手段】第1の発明に係る自動作
曲装置は、作曲の対象となる歌詞に対応した音節データ
を少なくとも含んで構成される歌詞データを供給するデ
ータ供給手段と、作曲される楽曲を特徴付ける特徴デー
タを設定する設定手段と、前記歌詞データ供給手段から
供給される前記歌詞データと前記設定手段によって設定
された前記特徴データとに基づいて前記歌詞に対応した
楽曲を生成する楽曲生成手段とを備えたものである。作
曲の対象となる歌詞は、ユーザによって作成されたもの
であり、文字の集合である。特に、日本語のひらがなや
カタカナは1つの文字が1つの音節を構成する音節文字
である。従って、データ供給手段は、作曲の対象となる
歌詞をひらがな又はカタカナで表した場合における1文
字を音節データとし、その音節データの集まりである歌
詞データを供給する。例えば、データ供給手段はこのよ
うにして作成された歌詞データを一時的に記憶するメモ
リである。作曲される楽曲を特徴付ける特徴データは、
楽節の構成、曲の調、拍子、音域などであり、ユーザに
よって指定されたり、予め作曲装置内部に有するものな
どである。通常は、この特徴データだけ指定してやれ
ば、それに基づいて自動的に作曲することが可能である
が、この発明ではユーザによって指定された作曲の対象
となる歌詞データとの関係を考慮しながら、自動的にそ
の歌詞に合致した楽曲を生成することができる。なお、
第1の発明の望ましい実施態様として次のようなものが
考えられる。楽曲生成手段は歌詞データを構成する音節
データに対して、特徴データに従った音符情報を順次割
り当てることによって歌詞に対応した楽曲を生成する。
音符情報は発音タイミングと音高とで構成される。楽曲
生成手段は歌詞データの1小節内における音節データの
数と各タイミングの重みに応じて各音節データの発音タ
イミングを決定する。設定手段は予め記憶された複数の
特徴データの中から所望の特徴データを選択する。第2
の発明に係る自動作曲装置は、複数の区間からなる楽曲
を表す演奏データを入力する演奏データ入力手段と、前
記演奏データを前記区間毎に分析し、その区間毎に音楽
的特徴を抽出する特徴抽出手段と、この特徴抽出手段に
よって抽出された各区間毎の音楽的特徴を前記楽曲を特
徴付ける特徴データとして記憶する記憶手段と、この記
憶手段に記憶されている前記特徴データに基づいて新た
な楽曲を表す演奏データを生成する楽曲生成手段とを備
えたものである。演奏データ入力手段は、楽曲を表す演
奏データが例えばMIDIデータなどの場合には、それ
をフレーズの区切りや小節線データと共に供給する。特
徴抽出手段は、この演奏データをそのフレーズ毎や小節
線毎に分析し、そのフレーズ毎や小節線毎に音楽的特
徴、例えばピッチパターンやリズムパターンなどを抽出
する。従って、この特徴抽出手段によって抽出された音
楽的特徴は1つの楽曲に対して複数個存在する。記憶手
段は特徴抽出手段によって抽出された複数個の音楽的特
徴を1つの楽曲に対する特徴データとして記憶する。楽
曲生成手段は、この記憶手段に記憶されている特徴デー
タに基づいて新たな楽曲を生成する。従って、楽曲生成
手段によって生成された曲の一部分を編集したい場合に
は記憶手段に記憶されている特徴データの中の該当する
フレーズや小節線に関する特徴データを修正することに
よって容易に行うことができる。
【0006】
【発明の実施の形態】以下、この発明の実施の形態を添
付図面に従って詳細に説明する。図2はこの発明に係る
自動作曲装置を内蔵した電子楽器の構成を示すハードブ
ロック図である。電子楽器は、マイクロプロセッサユニ
ット(CPU)1、プログラムメモリ2及びワーキング
メモリ3からなるマイクロコンピュータによって制御さ
れるようになっている。CPU1は、この電子楽器全体
の動作を制御するものである。このCPU1に対して、
データ及びアドレスバス1Dを介してプログラムメモリ
2、ワーキングメモリ3、演奏データメモリ(RAM)
4、押鍵検出回路5、スイッチ検出回路6、表示回路7
及び音源回路8がそれぞれ接続されている。
【0007】プログラムメモリ2はCPU1の各種プロ
グラム、各種データ、各種記号文字等を格納するもので
あり、リードオンリーメモリ(ROM)で構成されてい
る。ワーキングメモリ3は、演奏情報やCPU1がプロ
グラムを実行する際に発生する各種データを一時的に記
憶するものであり、ランダムアクセスメモリ(RAM)
の所定のアドレス領域がそれぞれ割り当てられ、レジス
タやフラグなどとして利用される。演奏データメモリ
は、曲テンプレートやピッチパターン、リズムパターン
などのような演奏に関するデータを記憶するものであ
る。
【0008】鍵盤9は、発音すべき楽音の音高を選択す
るための複数の鍵を備えており、各鍵に対応してキース
イッチを有しており、また必要に応じて押鍵速度検出装
置や押圧力検出装置等のタッチ検出手段を有している。
押鍵検出回路5は、発生すべき楽音の音高を指定する鍵
盤9のそれぞれの鍵に対応して設けられた複数のキース
イッチからなる回路を含んで構成されており、新たな鍵
が押圧されたときはキーオンイベントを出力し、鍵が新
たに離鍵されたときはキーオフイベントを出力する。ま
た、鍵押し下げ時の押鍵操作速度又は押圧力等を判別し
てタッチデータを生成する処理を行い、生成したタッチ
データをベロシティデータとして出力する。このように
キーオン、キーオフイベント及びベロシティなどのデー
タはMIDI規格で表現されておりキーコードと割当て
チャンネルを示すデータも含んでいる。
【0009】テンキー&キーボード&各種スイッチ1A
は、既存曲を音楽的特徴を分析及び抽出するための分析
スイッチや分析及び抽出結果に基づいて自動的に作曲を
行うための編曲スイッチ、数値データ入力用のテンキー
や文字データ入力用のキーボード、及び自動作曲に関す
る各種の音楽条件を入力するための各種の操作子を含ん
で構成される。なお、この他にも音高、音色、効果等を
選択・設定・制御するための各種操作子を含むが、その
詳細については公知なので説明を省略する。スイッチ検
出回路6は、テンキー&キーボード&各種スイッチ1A
の各操作子の操作状態を検出し、その操作状態に応じた
スイッチ情報をデータ及びアドレスバス1Dを介してC
PU1に出力する。表示回路7はCPU1の制御状態、
設定データの内容等の各種の情報をディスプレイ1Bに
表示するものである。ディスプレイ1Bは液晶表示パネ
ル(LCD)やCRT等から構成され、表示回路7によ
ってその表示動作を制御されるようになっている。この
テンキー&キーボード&各種スイッチ1A及びディスプ
レイによってGUI(Graphical User
Interface)が構成される。
【0010】音源回路8は、複数のチャンネルで楽音信
号の同時発生が可能であり、データ及びアドレスバス1
Dを経由して与えられた演奏情報(MIDI規格に準拠
したデータ)を入力し、このデータに基づき楽音信号を
発生する。音源回路8における楽音信号発生方式はいか
なるものを用いてもよい。例えば、発生すべき楽音の音
高に対応して変化するアドレスデータに応じて波形メモ
リに記憶した楽音波形サンプル値データを順次読み出す
メモリ読み出し方式、又は上記アドレスデータを位相角
パラメータデータとして所定の周波数変調演算を実行し
て楽音波形サンプル値データを求めるFM方式、あるい
は上記アドレスデータを位相角パラメータデータとして
所定の振幅変調演算を実行して楽音波形サンプル値デー
タを求めるAM方式等の公知の方式を適宜採用してもよ
い。音源回路8から発生された楽音信号は、図示しない
アンプ及びスピーカからなるサウンドシステム1Cを介
して発音される。
【0011】次に、この発明に係る自動作曲装置の動作
の一例を説明する。図1は図2の電子楽器を自動作曲装
置として動作させる場合のフローチャートの一例を示す
図である。この自動作曲装置は、ステップ12〜ステッ
プ15の処理によって既存曲の音楽的特徴の分析及び抽
出を行い、その分析・抽出結果を曲テンプレートとして
記憶する。そして、自動作曲装置はステップ17〜ステ
ップ24の処理によって記憶されている曲テンプレート
にユーザが適宜修正を加え、修正の加えられたものに基
づいて自動的に作曲を行うようになっている。
【0012】以下、図1のフローチャートに従って、こ
の発明に係る自動作曲装置の動作例を説明する。ステッ
プ11では、テンキー&キーボード&各種スイッチ1A
上の分析スイッチがオン操作されたかどうかを判定し、
オン操作有り(YES)の場合はステップ12〜ステッ
プ15の処理を行い、オン操作無し(NO)の場合はス
テップ16にジャンプする。ステップ12では、既存曲
の楽譜情報を取り込む。例えば、既存曲の曲名、曲形
式、ジャンル、メロディ、コード進行、歌詞、調、拍
子、テンポ、小節線やフレーズの区切りなどをGUI
(テンキー&キーボード&各種スイッチ1A及びディス
プレイ1B)や鍵盤9などを用いて取り込む。また、既
存曲がMIDIデータとして取り込み可能な場合には、
そのMIDIデータに基づいてメロディ、調、テンポな
どを分析し、分析不可能な曲名、曲形式などについては
ユーザがGUIを用いて入力する。ステップ13では、
前記ステップ12の処理によって取り込まれた既存曲の
楽譜情報をワーキングメモリ3の所定領域に記憶する。
【0013】ステップ14では、上述のようにして取り
込まれた楽譜情報に基づいてCPU1が音楽的特徴の分
析・抽出処理を行う。図3及び図4はこの音楽的特徴の
分析・抽出処理の詳細を示す図である。なお、図3のス
テップ31〜ステップ3Bは楽譜情報を構成する各フレ
ーズに対する処理であり、図4のステップ41〜ステッ
プ4Aは楽譜情報全体に対する処理である。この音楽的
特徴の分析・抽出処理は次のようなステップで順番に実
行される。 ステップ31:ワーキングメモリ13から既存曲の楽譜
情報を読み出し、その楽譜情報を構成するフレーズ数を
検出し、それをフレーズ番号レジスタFNに格納する。 ステップ32:カウンタレジスタCNTに『1』をセッ
トする。 ステップ33:カウンタレジスタCNTの値に対応する
フレーズ番号を注目フレーズとし、そのフレーズに対し
てステップ34〜ステップ39の処理を行う。ステップ
34〜ステップ36は楽譜情報からピッチに関する要素
を分析・抽出する処理であり、ステップ37〜ステップ
39はリズムに関する要素を分析・抽出する処理であ
る。
【0014】ステップ34:注目フレーズの最初の音高
を基準として、そのフレーズのメロディを音高差のデー
タに変換する。 ステップ35:ステップ34で求められた音高差データ
に基づいてピッチパターンを検出する。例えば、フレー
ズ内の全ての音高差データを結んで得られた折れ線グラ
フをピッチパターンとしてもよい。しかしながら、この
折れ線グラフだと、後述するピッチの対比/模倣の判定
が複雑になるので、この実施の形態では、フレーズの最
初及び最後の音高とフレーズ内の最高及び最低の音高と
の4つの音高を結んで得られた折れ線グラフをそのフレ
ーズのピッチパターンとする。なお、フレーズの最初又
は最後の音高が最高又は最低の音高に等しい場合には、
2つの音高又は3つの音高をそれぞれ結んで得られる折
れ線グラフをそのフレーズのピッチパターンとする。ま
た、この他にも、全ての音高差データを結んで得られた
折れ線グラフから極大及び極小となる音高を抽出し、そ
の音高とフレーズの最初及び最後の音高とをそれぞれ結
んで得られた折れ線グラフをそのフレーズのピッチパタ
ーンとしてもよい。 ステップ36:フレーズの最初と最後の音高を検出す
る。
【0015】ステップ37:フレーズ内のリズムパター
ンから弾みとシンコペーションを除去し、原始リズムパ
ターンを検出する。すなわち、取り込まれた楽譜情報の
リズムパターンを直接そのフレーズの原始リズムパター
ンとしてもよいが、後述するリズムの対比/模倣の判定
が複雑になるので、この実施の形態では、弾みとシンコ
ペーションを検出するための検出パターンと、この検出
パターンから弾みとシンコペーションの除去された基本
パターンとの組を複数有し、フレーズのリズムパターン
の中で検出パターンに一致した部分をその基本パターン
にに書き換えることによって、フレーズ内のリズムパタ
ーンから弾みとシンコペーションを除去し、原始リズム
パターンを作成している。 ステップ38:フレーズの前半部分と後半部分の音符数
を比較し、そのフレーズの粗密状態を検出する。例え
ば、1フレーズが2小節で構成されている場合には、前
半の1小節中に現れる音符数と後半の1小節中に現れる
音符数とを比較し、その差が3個以上であれば、音符数
の多い方を密とし、音符数の少ない方を粗とする。ま
た、その差が2個以内の場合には、粗密ではなく、均等
と判定する。
【0016】ステップ39:フレーズの先頭に休符が存
在するかどうか、すなわち、そのフレーズの1拍目は遅
れているかどうかを判定する。 ステップ3A:カウンタレジスタCNTの値とフレーズ
番号レジスタFNの値とが等しいかどうかを判定し、等
しい(YES)場合には楽譜情報内の全てのフレーズに
対してステップ33〜ステップ39の処理を行ったこと
を意味するので、図4のステップ41以下に進み、今度
は楽譜情報全体に対する分析・抽出処理を行い、等しく
ない(NO)には、まず分析・抽出を行っていないフレ
ーズが存在することを意味するので、ステップ3Bを経
て、ステップ33にリターンする。 ステップ3B:前記ステップ3AでNOと判定されたの
で、カウンタレジスタCNTを『1』だけインクリメン
ト処理して、ステップ33にリターンする。
【0017】次に図4のステップ41〜ステップ4Aの
楽譜情報全体に対する分析・抽出処理について順番に説
明する。 ステップ41:全体の楽譜情報の中から最高音高と最低
音高に基づいて楽譜情報全体の音域を検出する。 ステップ42:前記ステップ35で検出された折れ線グ
ラフに基づいて各フレーズ間のピッチパターンが近似あ
るいは相似しているかどうかを検出する。この検出の結
果、近似あるいは相似しているフレーズが存在する場合
には、最先のフレーズに対してそれ以降のフレーズはピ
ッチが対比/模倣していることとする。
【0018】ステップ43:全体の楽譜情報の中から最
もデュレーションタイムの短い音符(最短音符)と、最
もデュレーションタイム長い音符(最長音符)を検出す
る。 ステップ44:前記ステップ37で検出された原始リズ
ムパターンに基づいて各フレーズ間のリズムパターンが
近似あるいは相似しているかどうかを検出する。この検
出の結果、近似あるいは相似しているフレーズが存在す
る場合には、最先のフレーズに対してそれ以降のフレー
ズはリズムが対比/模倣していることとする。 ステップ45:前記ステップ39で検出された先頭に休
符の存在するフレーズが全体の楽譜情報(曲全体)に占
める割合(パーセント)を求め、その割合が0パーセン
トの場合には『無』、0パーセントより大きく80パー
セント未満の場合には『中』、80パーセントより大き
い場合には『多』とする。 ステップ46:前記ステップ37でシンコペーションの
除去されたフレーズが全体の楽譜情報(曲全体)に占め
る割合(パーセント)を求め、その割合が0パーセント
の場合には『無』、0パーセントより大きく80パーセ
ント未満の場合には『中』、80パーセントより大きい
場合には『多』とする。
【0019】ステップ47:全体の楽譜情報の音高を平
滑化してピッチカーブを検出する。例えば、各音高をス
プライン曲線又はベジェ曲線で結び、それをピッチカー
ブとする。 ステップ48:全体の楽譜情報の音量値を平滑化して強
弱カーブを検出する。例えば、各音符のベロシティ値を
スプライン曲線又はベジェ曲線で結び、それを強弱カー
ドとする。 ステップ49:前記ステップ47及びステップ48で検
出されたピッチカーブと強弱カーブを加算したものを感
情の起伏曲線とする。なお、ピッチカーブと強弱カーブ
を乗算したものや、両者を平均したものを感情の起伏曲
線としてもよい。 ステップ4A:全体の楽譜情報がメロディックであるか
リズミックであるかを検出する。例えば、テンポが所定
値よりも大きい場合にはリズミックとし、小さい場合に
はメロディックとする。また、デュレーションタイムの
平均値が所定値よりも大きい場合にはメロディックと
し、小さい場合にはリズミックとしてもよい。
【0020】ステップ15では、上述のようにして分析
・抽出された結果を曲テンプレートして演奏データメモ
リ4に記憶する。従って、演奏データメモリ4には、ユ
ーザが独自に分析・抽出した結果が複数記憶されてるこ
ととなる。なお、特定のジャンネルを代表するような曲
に対して上述のような音楽的特徴の分析・抽出処理を行
い、その結果を予め記憶しておいてもよい。図5及び図
6はその分析、抽出結果の一例を示す図である。図5は
曲全体に関する音楽的特徴の分析・抽出結果の一例を示
す図である。この曲全体に関する音楽的特徴の分析・抽
出結果は、曲の形式、全体の曲想、全体のリズム条件、
全体のピッチ条件を記憶する項目からなる。曲の形式を
記憶する項目『形式』には、その曲の形式が例えば、
「A−B−C−C’」や「A−A’−B−B’」などの
ような楽節パターンで記憶される。
【0021】全体の曲想を記憶する項目『曲想』には、
ジャンル記憶項目『ジャンル』、イメージ曲記憶項目
『イメージ曲』、作曲家記憶項目『作曲家』及びメロデ
ィック/リズミック選択項目『メロディック/リズミッ
ク』などがある。ジャンル記憶項目『ジャンル』には、
作曲したい曲のジャンル名などが記憶される。図では
「8ビート」が設定されているが、この他にも「ダンス
&ポップス系(ラップ、ユーロビート、ポッフバラー
ド)」、「ソウル系(ダンスファンク、ソウルバラー
ド、R&B)」、「ロック系(ソフト8ビート、8ビー
ト、ロックンロール)」、「ジャズ系(スィング、ジャ
ズバラード、ジャズボサノバ)」、「ラテン系(ボサノ
バ、サンバ、ルンバ、ビギン、タンゴ、レゲエ)」、
「マーチ系」、「演歌系」、「唱歌系」などのジャンル
名が記憶される。イメージ曲記憶項目『イメージ曲』に
は作曲したい曲に近いと思われる曲名が記憶される。作
曲家記憶項目『作曲家』には、作曲したい曲の作曲家の
氏名などが記憶される。メロディック/リズミック選択
項目『メロディック/リズミック』には、図4のステッ
プ49の分析・抽出結果が記憶される。各項目に記憶さ
れている内容は自動作曲時にその特徴を表すようにピッ
チパターン及びリズムパターンに影響を与えるように作
用する。
【0022】全体のリズム条件を記憶する項目『リズ
ム』には、拍子記憶項目『拍子』、テンポ記憶項目『テ
ンポ』、最短音記憶項目『最短音』、1拍目の遅れの頻
度記憶項目『1拍目の遅れの頻度』及びシンコペーショ
ンの頻度記憶項目『シンコペーションの頻度』などがあ
る。拍子記憶項目『拍子』にはその曲の拍子が記憶され
る。図では、「4/4」が記憶されている。テンポ記憶
項目『テンポ』にはその曲のテンポをメトロノーム記号
や速度標語などで表したものが記憶される。図では、1
分間の4分音符の拍数を120とするメトロノーム記号
が記憶されている。最短音記憶項目『最短音』には、図
4のステップ43で検出された最もデュレーションタイ
ムの小さな音符が記憶される。図では8分音符が記憶さ
れている。1拍目の遅れの頻度記憶項目『1拍目の遅れ
の頻度』には、図4のステップ45で検出された1拍目
が遅れる頻度が「無/中/多」の中から選択的に記憶さ
れる。シンコペーションの頻度記憶項目『シンコペーシ
ョンの頻度』には、図4のステップ46で検出されたシ
ンコペーションの頻度が「無/中/多」の中から選択的
に記憶される。
【0023】全体のピッチ条件を記憶する項目には、音
域記憶項目『音域』及び調記憶項目『調』などがある。
音域記憶項目『音域』には図4のステップ41で検出さ
れた音域が最高音高及び最低音高のキーコード名で記憶
される。図では、「A2〜E4」が記憶されている。こ
こに記憶されている音域は、自動作曲時のピッチパター
ンの生成に影響を与える。調記憶項目『調』には図1の
ステップ12で分析された調がそのコード名で記憶され
る。図では、「Fm(ヘ短調)」が記憶されている。こ
こに記憶されている調は、自動作曲時の音階の生成に影
響を与える。
【0024】図6は音楽的特徴の分析・抽出結果の一例
を曲の進行に従って示す図である。図6は図5の曲形式
の各楽節に対応しており、曲全体の感情の起伏、各楽節
を構成するフレーズ毎に分析・抽出されたピッチ及びリ
ズムに関する音楽的特徴を記憶するようになっている。
曲全体の感情の起伏を記憶する項目『感情の起伏』に
は、ステップ49で得られたその曲の感情の起伏を表す
曲線が記憶される。ここで記憶された感情の起伏曲線は
自動作曲時のピッチパターン、リズムパターン及びボリ
ュームに影響を与える。
【0025】各楽節におけるフレーズ毎のピッチに関す
る記憶項目には、ピッチパターン記憶項目『フレーズの
ピッチパターン』、最初−最後音記憶項目『フレーズの
最初−最後音』、躍動/静寂記憶項目『躍動/静寂』及
び対比/模倣記憶項目『対比/模倣』などがある。ピッ
チパターン記憶項目『フレーズのピッチパターン』に
は、図3のステップ35で分析・抽出されたピッチパタ
ーンが記憶される。ここに記憶されたピッチパターン
は、前記感情の起伏を表す曲線と乗算されて全体の抑揚
に影響を与えるようになっている。
【0026】最初−最後音記憶項目『フレーズの最初−
最後音』には、図3のステップ36で分析・抽出された
各フレーズの最初の音高と最後の音高がその度数(I,I
I,III,IV,V,VI,VII)で記憶される。躍動/静寂記憶項
目『躍動/静寂』には、曲全体に渡る躍動/静寂の度合
いが曲線で記憶される。この躍動/静寂の度合いを示す
曲線は、各フレーズのピッチの平均値、図3のステップ
37で除去された弾み及びシンコペーションの数、図3
のステップ34で検出された音高差の各フレーズ毎の平
均値、またはこれらの各値を種々演算した結果をスプラ
イン曲線又はベジェ曲線で結んだものを採用する。対比
/模倣記憶項目『対比/模倣』には、図4のステップ4
5で検出されたリズム対比/模倣の対象となる楽節が記
憶される。図では、第3楽節「C」と第4楽節「C’」
が近似あるいは相似しているので、第4楽節「C’」の
対比/設定項目の前半部分に「Cの前半に模倣」、後半
部分に「Cの後半に模倣」が記憶されている。この他に
も、歌詞のイントネーションを重視し、ピッチをその歌
詞の持つイントネーションと相似するように作用させる
かどうかの項目を設けてもよい。
【0027】各楽節におけるフレーズ毎のリズムに関す
る記憶項目には、粗密記憶項目『粗密』、先頭の遅れ指
定項目『フレーズ先頭の遅れ指定』、対比/模倣記憶項
目『対比/模倣』及びシンコペーション指定項目『シン
コペーション指定』などがある。粗密記憶項目『粗密』
には、図3のステップ38で検出されたフレーズの粗密
パターンが記憶される。図では、密の場合に編み掛け表
示され、粗や均等の場合には何も表示されない。先頭の
遅れ指定項目『フレーズの先頭の遅れ指定』には、図3
のステップ39で検出されたフレーズ先頭に休符が有る
のか無いのかが記憶される。図では、第3楽節「C」及
び第4楽節の前半のフレーズで遅れ有り、それらの後半
のフレーズで遅れ無しが記憶されている。対比/模倣記
憶項目『対比/模倣』には、前述のピッチの場合と同様
に対比/模倣される楽節が記憶される。シンコペーショ
ン指定項目『シンコペーション指定』には、図3のステ
ップ37でシンコペーションが除去されたかどうかを示
す『有』又は『無』が記憶される。
【0028】次に、ステップ16では、テンキー&キー
ボード&各種スイッチ1A上の編集スイッチがオン操作
されたかどうかを判定し、オン操作有り(YES)の場
合はステップ17〜ステップ24の自動作曲処理を行
い、オン操作無し(NO)の場合は終了する。すなわ
ち、編集スイッチをオン操作することによって電子楽器
を自動作曲装置として動作させることができる。従っ
て、編集スイッチがオン操作された場合にはステップ1
7〜ステップ24の処理に従った自動作曲が行われるよ
うになる。ステップ16で、YESと判定され、電子楽
器が自動作曲装置として動作するようになると、まず、
ユーザは図1のステップ17の段階で音楽条件を設定
し、ステップ18の段階で歌詞を入力する必要がある。
ユーザが音楽条件を設定し、歌詞を入力すると、今度は
CPU1がユーザの設定したユーザ音楽条件、歌詞及び
予め内部に有する内部音楽条件に従って、ステップ19
〜ステップ23の処理を行い、自動的に曲を作曲する。
そして、最後のステップ24の段階で、自動的に作成さ
れた曲の修正をユーザが行うことによって、最終的な曲
を完成することができる。
【0029】まず、ステップ17において、ユーザはG
UI(テンキー&キーボード&各種スイッチ1A及びデ
ィスプレイ1B)を用いて、図5及び図6に示したもの
と同じ画面(以下、音楽条件設定画面とする)の各項目
にデータを入力することよって、ユーザ音楽条件を設定
する。もちろん、この音楽条件設定画面は図5及び図6
のような既存曲から分析・抽出された結果を演奏データ
メモリ4から読み出してそのまま使用してもよいし、読
み出したものをユーザが適宜エディットしてもよいし、
ユーザ自身で別途新たに作成してもよいことはいうまで
もない。次に、ステップ18において、ユーザはGUI
(テンキー&キーボード&各種スイッチ1A及びディス
プレイ1B)を用いて、図7に示すような画面上で歌詞
データを入力する。図7は歌詞データを入力するための
画面の一例を示す図である。図では、歌詞データを入力
するための画面として、前述の曲形式で設定された楽節
に対応した楽節記号の『A』と『B』だけが表示されて
いる。従って、ユーザは楽節記号の右側に、作曲の対象
となる歌詞に関する音節データ、フレーズ分割記号、小
節線記号、長音記号などから構成される歌詞データを順
次入力する。ここでは、各楽節の1行分が4小節に相当
する。
【0030】フレーズ(メロディとして1塊となる区
間)を指定するために、そのフレーズ分割点に対応する
位置に図7(B)のようなスペース記号(図では三角形
記号「△」で示してある)を入力する。このスペース記
号がフレーズ分割記号となる。図7(C)のように小節
の区切りを指定するために小節線の位置に小節線記号
「/」を入力することもできる。図7(D)のように長
音記号「ー」を音節データの後に入力することもでき
る。この長音記号は「ーーーー」のように連続して複数
個繋げることによってその音節データに割り当てられる
音符の音長を制御することができる。
【0031】図7(E)のように音節データの所定の箇
所にアクセント記号「・」を付与することもできる。こ
のアクセント記号の付与された箇所のピッチ及びベロシ
ティは、以後の自動作曲時において他の音節データのも
のよりもやや高めに設定されるようになる。図7(F)
のように音節データのイントネーションを折れ線で入力
することもできる。図7(G)のようにクライマックス
となる部分の音節データを編み掛け表示することもでき
る。なお、この実施の形態では、音節データの入力と、
フレーズ分割記号の設定は必ず行う必要があるが、これ
以外の小節線記号「/」、長音記号「ー」、アクセント
記号「・」、イントネーション、クライマックスなどに
関してはユーザが任意に指定することができる。また、
これ以外にも文節の区切りや韻を踏む箇所などを設定し
てもよい。
【0032】このようにして入力された歌詞データは、
ワーキングメモリ3内の歌詞メモリ領域に記憶される。
図8(A)はこの歌詞メモリ領域の図7(D)〜(G)
に対応した歌詞データの構成例を示す図である。すなわ
ち、図7(D)のように入力された音節データ、小節線
記号、フレーズ分割記号、長音記号などの歌詞データは
図8(A)のようにアドレスに順番記憶される。例え
ば、アドレス『1』には小節線記号『/』、アドレス
『2』には音節データ『は』、アドレス『3』には長音
記号『ー』、アドレス『4』には音節データ『る』など
のように記憶されている。
【0033】図7(E)のようにアクセントの付された
音節データのアドレス位置には、アクセント有りを示す
データ『1』が記憶され、アクセントの付されていない
音節データのアドレス位置にはアクセント無しを示すデ
ータ『0』が記憶される。図7(F)のようにイントネ
ーションの入力に対応して、音節データのアドレス位置
には、折れ線に対応したデータ『高』、『中』、『低』
が記憶される。また、図7(G)のようにクライマック
スの指定された音節データのアドレス位置にはクライマ
ックス指定を示すデータ『1』が記憶される。なお、図
8(A)では、このクライマックス指定を示すデータ
『1』は図示されていないが、音節データ『ぼくのとも
だ/ちー』の部分にデータ『1』が存在する。
【0034】このようにしてユーザによる音楽条件の設
定及び歌詞データの入力が行われると、CPU1はユー
ザ音楽条件、歌詞データ及び予め内部に有する内部音楽
条件に従って、ステップ19〜ステップ23の処理を行
い、自動的に曲を作成する。電子楽器内部に予め設定さ
れている内部音楽条件としては、ジャンル別・作曲家別
などの特徴を出すために作用するもの、歌いやすいリズ
ムパターンとなるように作用するもの、歌いやすいピッ
チパターンとなるように作用するもの、クライマックス
に応じてピッチを高め、音長を長め、跳躍となるように
作用するもの、韻を踏む箇所が設定されている場合に
は、その部分で相似のピッチパターン・リズムパターン
となるように作用するものなどがある。
【0035】ステップ19では、上述のようにして入力
された歌詞データに基づいてCPU1が小節の区切り決
定処理を実行する。すなわち、ユーザは歌詞データとし
て音節データとフレーズ分割記号の設定は必ず行う必要
があるが、それ以外の歌詞データ(小節線記号「/」、
長音記号「ー」、アクセント記号「・」、イントネーシ
ョン、クライマックスなど)に関しては、任意である。
従って、このステップ19では、入力された歌詞データ
に基づいて1フレーズ区間における音節データを少なく
とも2小節に区切るための処理を行う。図9及び図10
はこの小節の区切り決定処理の詳細を示す図である。こ
の小節の区切り決定処理は次のようなステップで順番に
実行される。 ステップ91:フレーズ番号レジスタFNに『1』をセ
ットする。 ステップ92:歌詞メモリからフレーズ番号レジスタF
Nに対応したフレーズを構成する全ての歌詞データを読
み出す。例えば、図8(A)の歌詞メモリの場合には、
フレーズ番号『1』の歌詞データとして、アドレス
『1』の小節線記号『/』からアドレス『15』の小節
線記号『/』までの15個の歌詞データが読み出され
る。
【0036】ステップ93:前記ステップ92で読み出
された歌詞データの数、すなわち1フレーズ中に存在す
る歌詞データの数をデータ数レジスタSNに格納する。 ステップ94:変数レジスタCに『1』にセットする。 ステップ95:変数レジスタCの格納値に対応するC番
目の歌詞データを読み出す。 ステップ96:前記ステップ95で読み出された歌詞デ
ータが小節線記号『/』であるかどうかを判定し、小節
線記号『/』(YES)の場合はステップ97に進み、
そうでない(NO)場合はステップ98に進む。 ステップ97:ユーザによって小節線の位置が指定され
ているので、その小節線記号『/』のアドレス位置を小
節線の区切りとする。
【0037】ステップ98:前記ステップ95で読み出
された歌詞データが長音記号『ー』であるかどうかを判
定し、長音記号『ー』(YES)の場合はステップ99
に進み、そうでない(NO)場合はステップ9Aに進
む。 ステップ99:長音記号『ー』の前の歌詞データ(音節
データ)の直前を小節の区切りの候補とする。 ステップ9A:前記ステップ95で読み出された歌詞デ
ータ(音節データ)にアクセントの指定有りかどうかを
判定し、アクセント指定有り(YES)の場合はステッ
プ9Bに進み、そうでない(NO)場合はステップ9C
に進む。 ステップ9B:アクセント指定有りの歌詞データの直前
を小節の区切りの候補とする。 ステップ9C:次の歌詞データを読み出すために変数レ
ジスタCを『1』だけインクリメント処理する。 ステップ9D:変数レジスタCの値がデータ数レジスタ
SNの値よりも大きいかどうかを判定し、大きい(YE
S)場合にはフレーズ内の全歌詞データの読み出しが終
了したことを意味するので、図10のステップ101に
進み、それ以下の場合にはまだフレーズ内に歌詞データ
が残っているので、ステップ95にリターンし、同様の
処理を次の歌詞データに対しても行う。
【0038】ステップ101:この実施の形態では1フ
レーズを2小節で構成することを前提としているので、
小節線記号『/』が2個以上あるかどうかを判定し、2
個以上(YES)の場合はそのままステップ108にジ
ャンプし、1個又は0個(NO)の場合はステップ10
2〜ステップ106の処理を行い、小節線を決定する。 ステップ102:前記ステップ101で小節線記号
『/』の数が1個又は0個だと判定されたので、ここで
は、小節線記号『/』の数が1個かどうかを判定し、1
個(YES)の場合はステップ103に進み、0個(N
O)の場合はステップ104に進む。 ステップ103:前記ステップ102で1フレーズ内に
存在する小節線記号『/』の数は1個だと判定されたの
で、ここでは、ステップ99又はステップ9Bの処理に
よって小節の区切りの候補とされた箇所が2個以上の場
合にはその中のいずれか1つをランダムに選択し、小節
線記号『/』で決定された小節線1箇所とランダムに抽
出された1箇所との合計2箇所を小節線の位置と決定
し、候補が1個の場合にはそこを小節線の位置と決定
し、1個も存在しない場合には音節データの区切りから
ランダムに1箇所を抽出し、そこを小節線の位置と決定
する。
【0039】ステップ104:前記ステップ102で1
フレーズ内に小節線記号『/』が存在しないと判定され
たので、今度はステップ99又はステップ9Bの処理に
よって小節の区切りの候補とされた箇所が2個以上存在
するかどうを判定し、2個以上存在する(YES)場合
はステップ105に進み、1個又は0個(NO)の場合
はステップ106に進む。 ステップ105:前記ステップ104で小節線記号
『/』は1フレーズ内に存在しないが、小節線候補が2
個以上存在すると判定されたので、ここでは、その2個
の中から最初と最後の2つを小節線の位置と決定する。 ステップ106:前記ステップ104で1フレーズ内に
存在する小節線候補の数が1個又は0個だと判定された
ので、ここでは、小節線の候補が1個の場合にはそこ
と、音節データの区切りからランダムに抽出した箇所の
2箇所を小節線の位置と決定し、小節線の候補が0個の
場合には音節データの区切りからランダムに2箇所を抽
出し、そこを小節線の位置と決定する。
【0040】ステップ107:前記ステップ103、ス
テップ105又はステップ106のいずれかの処理によ
って決定された2箇所の小節線の位置に小節線記号
『/』を挿入格納する。 ステップ108:フレーズ番号レジスタFNの格納値が
最後のフレーズに達したかどうかを判定し、最後のフレ
ーズ(YES)の場合はリターンし、小節の区切り決定
処理を終了し、最後のフレーズでない(NO)場合はス
テップ109に進む。 ステップ109:前記ステップ108で最後のフレーズ
でないと判定されたので、フレーズ番号レジスタFNを
インクリメント処理し、ステップ92にリターンし、次
のフレーズに対して同様の処理を繰り返し実行する。
【0041】以上のようなステップ19の小節の区切り
決定処理が終了したら、CPU1は今度は、ステップ2
0の各フレーズの先頭と最後の音節の拍を決定する処理
を実行する。図11及び図12はこの各フレーズの先頭
と最後の音節の拍を決定する処理の詳細を示す図であ
る。この処理は次のようなステップで順番に実行され
る。 ステップ111:フレーズ番号レジスタFNに『1』を
セットする。 ステップ112:前記ステップ72と同様にフレーズ番
号レジスタFNに対応するフレーズを構成する全ての歌
詞データを歌詞メモリから読み出す。
【0042】ステップ113:図6に示すような曲の進
行に対応した音楽条件の設定画面で設定されたリズムパ
ターンの対比/模倣の欄にリズムパターンを模倣する旨
の指示があるかどうかを判定し、模倣の指示有り(YE
S)の場合はステップ114に進み、指示無し(NO)
の場合はステップ115に進む。 ステップ114:前記ステップ113でリズムパターン
の模倣指示有りと判定されたので、ここでは、その模倣
の対象となるフレーズの先頭の拍を当フレーズの先頭拍
に決定する。
【0043】ステップ115:図6に示すような曲の進
行に対応した音楽条件の設定画面で設定されたリズムパ
ターンのフレーズ先頭の遅れ指定の欄に遅れ指定有りか
無しかを判定し、指定有り(YES)の場合はステップ
116に進み、指定無し(NO)の場合は図12のステ
ップ120に進む。 ステップ116:前記ステップ115でフレーズ先頭の
遅れ指定有りと判定されたので、ここでは、図5の曲全
体の音楽条件設定画面における「1拍目の遅れの頻度」
の欄の設定内容が『無』かどうかを判定し、『無』(Y
ES)の場合は図12のステップ120に進み、『中』
又は『多』(NO)の場合はステップ117に進む。
【0044】ステップ117:前記ステップ116で遅
れ頻度は『中』又は『多』であると判定されたので、こ
こでは、遅れ頻度が『多』であり、かつ、ランダムジェ
ネレータの値が『20』以上であるかどうかを判定し、
YESの場合はステップ119に進み、NOの場合はス
テップ118に進む。ランダムジェネレータは『0』〜
『99』の値をランダムに発生する乱数発生器である。
従って、遅れ頻度が『多』の場合にはこのステップでY
ESと判定される確率は80パーセントとなる。 ステップ118:前記ステップ117でNO判定された
ので、今度は、遅れ頻度が『中』であり、かつ、ランダ
ムジェネレータの値が『50』以上であるかどうかを判
定し、YESの場合はステップ119に進み、NOの場
合は図12のステップ120に進む。従って、遅れ頻度
が『中』の場合にはこのステップでYESと判定される
確率は50パーセントとなる。このようにして、遅れ頻
度『多』、『中』に応じて当該フレーズの1拍目を遅ら
すかどうかを決定することができる。なお、この『2
0』、『50』の値は一例であり、ユーザが任意に設定
してもよいことは言うまでも無い。
【0045】ステップ119:前記ステップ117又は
ステップ118でYESと判定されたので、当該フレー
ズの1拍目を遅らすために、第1拍表以外からランダム
に拍(表/裏)を決定する。 ステップ120:前記ステップ115でフレーズ先頭の
遅れ無し、前記ステップ116でフレーズ遅れ頻度が
『無』、又は前記ステップ117及びステップ118で
NOと判定されたので、ここでは、前のフレーズの余り
の拍が有るかどうかを判定し、余りの拍が存在する(Y
ES)場合はステップ122に進み、余りの拍がない
(NO)場合はステップ121に進む。 ステップ121:前記ステップ116でフレーズ遅れ頻
度『無』(YES)と判定され、前記ステップ120で
前フレーズの余りの拍無し(NO)と判定されたので、
当フレーズの1拍目は遅れさせないようにするため、第
1拍の表に拍を決定する。 ステップ122:前記ステップ116でフレーズ遅れ頻
度『無』(YES)と判定されたが、前記ステップ12
0で前フレーズの余りの拍数が有ると判定されたので、
その余りの拍を含み当フレーズの第1拍目から第4拍目
の範囲内でランダムに拍(表/裏)を決定する。
【0046】ステップ123:このようにして先頭の音
節の拍が決定したので、ここでは、先頭の音節の拍に応
じて当フレーズの最後の音節の拍を決定する。すなわ
ち、最後の音節が占有する拍数は、当フレーズの先頭の
音節が属する小節の当フレーズの占有する拍数の余りの
拍数までとする。例えば、先頭の音節が属する小節の拍
数が3拍裏の場合には余りの拍数は3拍表となり、3拍
表の場合には余りの拍数は2拍裏となる。 ステップ124:決定された先頭と最後の拍を歌詞メモ
リの対応する音節データのアドレス位置に格納する。 ステップ125:フレーズ番号レジスタFNの格納値が
最後のフレーズに達したかどうかを判定し、最後のフレ
ーズ(YES)の場合はリターンし、先頭と最後の音節
の拍決定処理を終了し、最後のフレーズでない(NO)
場合はステップ126に進む。 ステップ126:前記ステップ125で最後のフレーズ
でないと判定されたので、フレーズ番号レジスタFNを
1だけインクリメントし、ステップ112にリターン
し、次のフレーズに対して同様の先頭と最後の音節の拍
決定処理を繰り返し実行する。
【0047】図13は、各フレーズの先頭と最後の音節
の拍を決定する処理によって決定された拍の一例を示す
図である。図において、例1は1フレーズを構成する歌
詞データが図7(D)の「/はーるをあいする/ひとは
ー」に対応し、ステップ121によって先頭の音節が1
拍表に決定し、ステップ123で最後の音節が4拍裏に
決定した場合を示す。例2の候補1は、1フレーズを構
成する歌詞データが「はる/をあいする/ひとは」であ
る場合に、ステップ119又はステップ122によって
先頭の音節が4拍表に決定し、ステップ123で最後の
音節が3拍裏に決定した場合を示す。例2の候補2は、
ステップ119又はステップ122によって先頭の音節
が3拍裏に決定し、ステップ123で最後の音節が3拍
表に決定した場合を示す。例2の候補3は、ステップ1
19又はステップ122によって先頭の音節が3拍表に
決定し、ステップ123で最後の音節が2拍裏に決定し
た場合を示す。
【0048】このようにして音節の先頭と最後の拍が決
定したら、今度はCPU1はステップ21のリズムパタ
ーン生成処理を実行する。図14はこのリズムパターン
生成処理の詳細を示す図である。この処理は次のような
ステップで順番に実行される。 ステップ141:フレーズ番号レジスタFNに『1』を
セットする。 ステップ142:フレーズ番号レジスタFNに対応した
フレーズを構成する全ての歌詞データを歌詞メモリから
読み出す。 ステップ143:図6で選択又は設定された音楽条件に
従ったフレーズ内の各発音タイミングにおける出現頻度
に基づいて音符割当ての優先順位すなわち拍優先順位を
決定する。
【0049】すなわち、図15のような拍優先順位決定
表を作成し、これに基づいて各音節の発音タイミングを
決定する。すなわち、この拍優先順位決定表の各小節を
構成する拍の表及び裏に対しては、頻度項目(拍重視・
粗密条件・対比/模倣)の頻度が割り当てられる。図1
5(A)は図13の例1の候補1に対応するものであ
る。従って、図13の例1の候補1においては、フレー
ズの先頭の音節は1拍表、最後の音節は4拍裏にあり、
その合計小節数は『2』であるから、拍優先順位決定表
は図15(A)のように第1小節の1拍表から第2小節
の4拍裏に渡って作成される。
【0050】そして、頻度項目『拍重視』の欄には、ジ
ャンルに応じて予め設定された重み『1』の頻度が使用
される。図では、各拍の表及び裏の拍重視の頻度は1拍
表が『8』で、1拍裏が『4』、2拍表が『6』、2拍
裏が『2』、3拍表が『7』、3拍裏が『3』、4拍表
が『5』、4拍裏が『1』である。各拍の表及び裏の拍
重視の値と重み『1』とが乗算され、頻度合計に加えら
れる。なお、この拍重視の頻度に関してはユーザが自由
に作成したものを用いてもよい。
【0051】頻度項目の『粗密条件』の欄には、図6に
示すような音楽条件設定画面で選択又は設定された粗密
の欄に対応した各拍の表及び裏の位置にフラグが設定さ
れる。この粗密条件の重みは『4』である。例えば、図
6では楽節Aの第1フレーズの第1小節及び第2小節の
前半部分は密、後半部分は粗に設定されているので、図
15の拍優先順位決定表でも、第1小節及び第2小節の
前半部分(すなわち1拍及び2拍の表及び裏)にフラグ
『1』が設定される。粗密条件においてフラグの設定さ
れた各拍の表及び裏の頻度合計には重み『4』が加えら
れる。
【0052】項目頻度の『対比/模倣』の欄には、図3
のステップ37で検出されたリズムパターンに対応して
各拍の表及び裏の位置にフラグが設定される。なお、図
6に示すような音楽条件設定画面で、対比/模倣となる
楽節が指定されている場合には、その指定された楽節の
ものがそのまま設定される。この対比/模倣の重みは
『4』である。例えば、図6では、楽節A,B,Cは対
比/模倣の対象となる楽節が存在しないので、この拍優
先順位決定表においてはステップ37で検出されたリズ
ムパターンに対応した位置にフラグが設定されるが、図
では、ユーザが新たに作成した音楽条件設定画面に対応
しているため、フラグの設定は存在しない。従って、音
楽条件設定画面が既存曲から分析・抽出されたものか、
対比/模倣の欄に対比又は模倣する旨の設定がある場合
には、その対比/模倣の対象となる楽節の音符存在位置
にフラグ『1』が設定される。対比/模倣においてフラ
グの設定された各拍の表及び裏の頻度合計には重み
『4』が加えられる。
【0053】『頻度合計』の欄には、各頻度項目(拍重
視、粗密条件及び対比/模倣)の頻度の合計が格納され
る。図では、1拍表の頻度合計は拍重視の『8』と粗密
条件の『4』との合計値『12』であり、1拍裏は
『8』、2拍表が『10』、2拍裏が『6』、3拍表が
『7』、3拍裏が『3』、4拍表が『5』、4拍裏が
『1』である。『各小節毎の優先順位』の欄には、その
小節内において頻度合計の大きい順に番号が付される。
頻度合計が同じ値の場合には、先の方が優先される。図
では、第1小節と第2小節は同じ優先順位であり、1拍
表が優先順位『1』、1拍裏が優先順位『3』、2拍表
が優先順位『2』、2拍裏が優先順位『5』、3拍表が
優先順位『4』、3拍裏が優先順位『7』、4拍表が優
先順位『6』、4拍裏が優先順位『8』となる。
【0054】図15(B)は図13の例2の候補3に対
応するものである。従って、図13の例2の候補3にお
いては、フレーズの先頭の音節は3拍表、最後の音節は
2拍裏にあり、その合計小節数は『2』であるから、拍
優先順位決定表は図15(B)のように第1小節の3拍
表から第3小節の2拍裏に渡って作成される。頻度項目
『拍重視』、『粗密条件』、『対比/模倣』及び『頻度
合計』の各欄の第1小節の3拍表から第3小節の2拍裏
には、図15(A)と同じ頻度が設定される。そして、
『各小節毎の優先順位』の欄には、その小節内において
頻度合計の大きい順に番号が付される。従って、第1小
節においては、3拍表が優先順位『1』で、3拍裏が優
先順位『3』で、4拍表が優先順位『2』、4拍裏が優
先順位『4』となる。第2小節においては、1拍表が優
先順位『1』、1拍裏が優先順位『3』、2拍表が優先
順位『2』、2拍裏が優先順位『5』、3拍表が優先順
位『4』、3拍裏が優先順位『7』、4拍表が優先順位
『6』、4拍裏が優先順位『8』となる。第3小節にお
いては、1拍表が優先順位『1』、1拍裏が優先順位
『3』、2拍表が優先順位『2』、2拍裏が優先順位
『4』となる。
【0055】ステップ144:このようにして作成され
た拍優先順位表と、その小節における音節数に従って、
各音節の発音タイミングを決定する。なお、歌詞データ
が長音記号『ー』の場合には、その長音記号『ー』の直
前の音節データ以降の数区間(1〜4区間)にわたって
発音タイミングの割当てを禁止する。この割当て禁止区
間の大きさは1小節内の音節数によって変化する。
【0056】例えば、図15(A)のような拍優先順位
表によれば、第1小節の音節データの数は7個である。
従って、その小節内における優先順位『1』〜『7』の
区間に発音タイミングが決定される。このとき、長音記
号『ー』の直前の音節データ『は』以降の1区間には割
当てが禁止されるので、長音記号『ー』の優先順位
『3』を除く、優先順位『1』、『2』、『4』〜
『8』の区間に発音タイミングが決定される。第2小節
の場合は、音節データの数は3個で、長音記号『ー』を
1個含むので、優先順位『1』〜『3』の区間に発音タ
イミングが決定される。図15(B)のような拍優先順
位表によれば、第1小節の音節データの数は2個で、長
音記号『ー』を1個含むので、優先順位『1』及び
『2』の区間に発音タイミングが決定される。第2小節
の音節データの数は5個なので優先順位『1』〜『5』
の区間に発音タイミングが決定される。第3小節の音節
データの数は3個で、長音記号『ー』を1個含むので、
優先順位『1』〜『3』の区間に発音タイミングが決定
される。
【0057】ステップ145:前記ステップ144によ
って決定された発音タイミングに基づいてその音節デー
タの音長を決定する。なお、必要に応じて休符も挿入す
る。この休符の挿入の頻度は図5の音楽形式設定画面の
『メロディック/リズミック』のどちらか選択された方
に応じて変化するようになっている。
【0058】例えば、図15(A)のような拍優先順位
表によれば、第1小節の第1の音節『は』は、発音タイ
ミングの割り当てられていない区間を含む形で、4分音
符長に決定され、第2の音節『る』から第7の音節
『る』までの音長は8分音符長に決定される。第2小節
の第1の音節『ひ』と第2の音節『と』は8分音符長に
決定され、第3の音節『は』は、発音タイミングの割り
当てられていない区間(1〜4区間)を含む形で2分音
符長に決定される。なお、この第3の音節『は』に関し
ては、休符の挿入状態に応じて4分音符長から付点2分
音符長の範囲に決定されることがある。
【0059】また、図15(B)のような拍優先順位表
によれば、第1小節の第1の音節『は』と第2の音節
『る』は4分音符長に決定され、第2小節の第1の音節
『を』から第4の音節『す』は8分音符長に決定され、
第5の音節『る』は4分音符長に決定される。なお、こ
の第5の音節『る』に関しては休符の挿入状態に応じて
4分音符長から2分音符長の範囲に決定されることがあ
る。第3小節の第1の音節『ひ』と第2の音節『と』は
8分音符長に、第3の音節『は』は、発音タイミングの
割り当てられていない区間(1〜4区間)を含む形で2
分音符長に決定される。この第3の音節『は』に関して
は前述と同様に休符の挿入状態に応じて4分音符長から
付点2分音符長の範囲のものに決定されることがある。
【0060】ステップ146:前記ステップ145の処
理によって決定されたリズムパターンデータを曲メモリ
に格納する。すなわち、前記ステップ145の処理によ
って決定された各音節データに対する音長をデュレーシ
ョンデータとして、ワーキングメモリ3内の曲メモリ領
域に記憶する。図8(B)は図8(A)の歌詞メモリ内
の歌詞データに対して図15(A)のような拍優先順位
表に従って決定されたリズムパターンの格納された曲メ
モリのデータ構成の一例を示す図である。すなわち、図
8(A)の歌詞メモリの内容が図14のリズムパターン
生成処理によって図8(B)のように変換される。図8
(B)の曲メモリにおいては、図8(A)の歌詞メモリ
の中から音節データと小節線記号だけが抽出された形に
なっている。抽出された音節データに対して図14のリ
ズムパターン生成処理によって決定された音長すなわち
デュレーションデータが格納される。図では、デュレー
ションデータを音符で示したが、実際には音長に対応し
た数値やデュレーションタイムを示す数値などが格納さ
れる。なお、この曲メモリには、後述する処理によって
各音節データに対してピッチデータ、ベロシティデータ
及びボリュームなどが決定され、格納されるようになっ
ている。
【0061】ステップ147:フレーズ番号レジスタF
Nの格納値が最後のフレーズに達したかどうかを判定
し、最後のフレーズ(YES)の場合はリターンし、リ
ズムパターン生成処理を終了し、最後のフレーズでない
(NO)場合はステップ148に進む。 ステップ148:前記ステップ147で最後のフレーズ
でないと判定されたので、フレーズ番号レジスタFNを
1だけインクリメントし、ステップ142にリターン
し、次のフレーズに対して同様のリズムパターン生成処
理を繰り返し実行する。
【0062】このようにしてリズムパターンが決定した
ら、今度はCPU1はステップ22のピッチパターン生
成処理を実行する。図16はこのピッチパターン生成処
理の詳細を示す図である。このピッチパターン生成処理
は次のようなステップで順番に実行される。 ステップ161:フレーズ番号レジスタFNに『1』を
セットする。 ステップ162:フレーズ番号レジスタFNに対応した
フレーズを構成する全ての歌詞データを歌詞メモリから
読み出す。 ステップ163:読み出された音節データの数をデータ
数レジスタSNに格納する。
【0063】ステップ164:フレーズ番号レジスタF
Nのフレーズの最初と最後の音節に対して音高(ピッ
チ)を決定する。すなわち、図6に示すような音楽条件
設定画面の最初−最後音設定項目『フレーズの最初−最
後音』内に指定された度数(I,II,III,IV,V,VI,VII)が
存在する場合には、その度数に対応した音高に決定す
る。度数が指定されていない場合には、図6に示すよう
な音楽条件設定画面の項目『感情の起伏』に基づいて決
定する。但し、曲の最初の音高に関してはトニックコー
ドの構成音の中から選択する。なお、図6に示すような
音楽条件設定画面には示していないが、前フレーズの最
初の音との繋がりを指定する項目や前フレーズの最後の
音との繋がりを指定することによって、対象とする音の
ピッチを基準として、当フレーズの最初のピッチを決定
するようにしてもよい。
【0064】前記ステップ164でフレーズの最初と最
後の音節に対する音高が決定されたので、このフレーズ
内の残りの音節に対するピッチを決定するための処理を
ステップ165〜ステップ167で行う。 ステップ165:図6に示すような音楽条件設定画面の
ピッチパターン選択項目『フレーズのピッチパターン』
にピッチパターンの指定が有るかどうかを判定し、指定
有り(YES)の場合はステップ167に進み、指定無
し(NO)の場合はステップ166に進む。 ステップ166:前記ステップ165でピッチパターン
の指定無し(NO)と判定されたので、図6に示すよう
な音楽条件設定画面の項目『感情の起伏』に示されたグ
ラフィックパターンに最も類似したピッチパターンを図
17のピッチパターンのパターン群の中から選択する。
ピッチパターンのパターン群は、全部で16種類存在
し、(A)〜(C)の直線的旋律、(D)〜(L)の波
状的旋律、(M)及び(N)の躍動的旋律、(P)及び
(Q)の和声的旋律の4種類に分類されている。この他
にも種々のパターンを設けてもよいことはいうまでもな
い。また、タッチペンなどを用いてユーザが手書き入力
した曲線をサンプリングして新たにピッチパターンとし
てもよい。
【0065】ステップ167:前記ステップ165又は
ステップ166によって特定されたテンプレートに基づ
いて最初と最後の音節以外の(SN−2)個の音節に対
するピッチを決定する。例えば、音節数が9個で、図1
8のような形状のピッチパターンが特定されている場合
には、そのピッチパターンを用いて第2の音節から第8
の音節に対する音階を決定する。この場合、最初の音節
と最後の音節はステップ164によって既に度数Iと度
数I+1に決定されているので、ここでは、最初と最後
の音節以外の第2の音節から第8の音節までをこのピッ
チパターンに均等に割当て、最も近い音階にクオンタイ
ズして音階を決定する。従って、図18の場合には、第
2、第4及び第7の音節は度数IVの音階となり、第3の
音節は度数Vの音階となり、第5及び第6の音節は度数
III の音階となり、第8の音節は度数VIの音階となる。
【0066】なお、このように最初と最後以外の音節を
テンプレート上で均等に割り当てた場合、ピッチパター
ンの形状に相似しない場合がある。すなわち、図19に
示すように、音節数が6個で図19(A)のような形状
のピッチパターンが特定された場合、最初と最後以外の
4個の音節をこのテンプレート上で均等に割り当てる
と、その形状は元のテンプレート形状に相似したものと
なる。ところが、同じテンプレートであっても、音節数
が5個の場合には、最初と最後以外の3個の音節をこの
テンプレートに均等に割り当てると、割当て後の形状は
図19(B)の曲線17Bのように元のテンプレート形
状に対して相似形ではなくなる。そこで、このような場
合には、第2及び第3の音節の割当て位置を前方にずら
して、曲線17Cのようにテンプレート形状の前半部分
の形状に対して相似形となるように動作する。なお、こ
のように割当て位置をずらす音節やずらす方向などは、
最小二乗法などの演算を用いて適宜算出すればよい。
【0067】このように、テンプレートに均等に割り当
てる代わりに、図19(D)のようにステップ21で生
成されたリズムパターンに応じてサンプリングを行って
もよい。この場合でも割当て後の形状が元のテンプレー
ト形状に対して相似でなくなるような場合には、任意の
音節の割当て位置をずらしたりすればよい。また、ピッ
チパターンの振幅の度合いは、図6に示すような音楽条
件設定画面の躍動/静寂設定項目『躍動/静寂』で設定
された躍動/静寂パターンや図7(G)の編み掛け表示
された音節データのクライマックス部分などに応じて決
定される。すなわち、図18のピッチパターンでは、振
幅の上死点が音階V、下死点がIII であるが、その部分
で躍動/静寂パターンが躍動側に位置していたり、クラ
イマックスが設定されている場合には、その部分の振幅
の度合いが大きくなり、上死点が音階VII 、下死点が音
階Iとなったりする。また、躍動/静寂パターンが静寂
側に位置する場合には、逆に振幅の度合いが小さくな
る。
【0068】ステップ23では、図7(E)のように音
節データの所定の箇所に付されたアクセント記号「・」
に応じてベロシティを決定し、それを図8(B)に示す
ように曲メモリの対応する音節データのベロシティに反
映させる。図では、アクセント記号「・」の付されてい
る音節データのベロシティが『5』となり、付されてい
ない音節データのベロシティが『4』となっている。ま
た、図6に示すような音楽条件設定画面で設定された曲
全体の感情の起伏を表す曲線に応じてボリュームを決定
し、それを図8(B)に示すように曲メモリの対応する
音節データのボリュームに反映させる。図では、感情の
起伏を表す曲線に応じてボリュームは『5』である。
【0069】ステップ24では、ステップ19〜ステッ
プ23の処理によってCPU1によって作成された曲を
ユーザがマニュアルで修正する処理である。ここでは、
曲メモリから自動作曲された曲データを読み出し、それ
をディスプレイ1B上に表示させる。そして、曲の全体
を通してリズムとピッチの修正作業をフレーズ内及び曲
全体に渡って行い、必要により、曲データの修正を行
う。例えば、フレーズ間の繋がりを歌いやすいように修
正する。1フレーズが長すぎる場合には、途中に息継ぎ
を挿入する。高音部が長く続きすぎる場合にはその部分
を修正する。リズムの急激に変化する部分を修正する。
曲全体を通して、跳躍が多すぎないか、1つの曲として
まとまっているかなどを実際に曲を聞いてみて修正した
りする。このようにしてマニュアル修正された曲データ
を再び曲メモリに格納する。以上のようなステップ17
〜ステップ24の一連の処理によって、ユーザの指定し
た歌詞に対応した曲を自動的に作曲することができる。
【0070】なお、上述の実施の形態では、音楽条件を
ユーザが記憶される場合について説明したが、既存の曲
を分析し、そこから音楽条件を抽出するようにしてもよ
いし、抽出したものをユーザが再度変更できるようにし
てもよい。また、実施の形態では、音節データとして日
本語を例に説明したが、これ以外の言語の場合にも同様
に適用できることはいうまでもない。この場合、単母
音、二重母音、破裂音、鼻音、側音、摩擦音、破擦音な
どの発音記号に基づいて音節データを決定し、決定され
た音節データに基づいて作曲を行えばよい。なお、上述
の実施の形態では、図6に示すような音楽条件設定画面
における粗密設定項目『粗密』及び対比/模倣設定項目
『対比/模倣』の設定方法として、単に発生頻度を密に
するか粗にするか、対比/模倣するかしないかだけを設
定する場合について説明したが、これに限らず、粗密及
び対比/模倣をその度合いで設定してもよい。この場
合、図15の拍優先順位決定表における頻度項目の『粗
密条件』及び『対比/模倣』の欄の数値を、その度合い
に応じた値、例えば『1』〜『4』とすればよい。
【0071】
【発明の効果】第1の発明によれば、予め作成されてい
る歌詞との関連を考慮して、その歌詞に見合った内容の
曲を自動的に作曲することができるという効果がある。
第2の発明によれば、元となる曲のメロディを分析して
自動的に作曲する場合に、操作者の意図した曲が自動的
に作曲されるような変更をその分析結果に適宜加えるこ
とができるという効果がある。
【図面の簡単な説明】
【図1】 図2の電子楽器を自動作曲装置として動作さ
せる場合のフローチャートの一例を示す図である。
【図2】 この発明に係る自動作曲装置を内蔵した電子
楽器の構成を示すハードブロック図である。
【図3】 図1の音楽的特徴の分析・抽出処理の前半部
分の詳細を示す図である。
【図4】 図1の音楽的特徴の分析・抽出処理の後半部
分の詳細を示す図である。
【図5】 曲全体に関する音楽的特徴の分析・抽出結果
の一例を示す図である。
【図6】 音楽的特徴の分析・抽出結果の一例を曲の進
行に従って示す図である。
【図7】 歌詞データを入力するための画面の一例を示
す図である。
【図8】 図2のワーキングメモリ内における歌詞メモ
リ及び曲メモリのデータ構成を示す図であり、図8
(A)は歌詞メモリのデータ構成を図8(B)は曲メモ
リのデータ構成を示す。
【図9】 図1の小節の区切り決定処理の前半部分の詳
細を示す図である。
【図10】 図1の小節の区切り決定処理の後半部分の
詳細を示す図である。
【図11】 図1の各フレーズの先頭と最後の音節の拍
を決定する処理の前半部分の詳細を示す図である。
【図12】 図1の各フレーズの先頭と最後の音節の拍
を決定する処理の後半部分の詳細を示す図である。
【図13】 図11及び図12の各フレーズの先頭と最
後の音節の拍を決定する処理によって決定された拍の一
例を示す図である。
【図14】 図1のリズムパターン生成処理の詳細を示
す図である。
【図15】 図14のリズムパターン生成処理の中でフ
レーズ内の各発音タイミングにおける出現頻度を求め、
音符割当ての優先順位を決定するための拍優先順位決定
表の一例を示す図である。
【図16】 図1のピッチパターン生成処理の詳細を示
す図である。
【図17】 図16のピッチパターン生成処理の中で選
択されるピッチパターンのパターン群の一例を示す図で
ある。
【図18】 図16のピッチパターン生成処理の中で特
定されたテンプレートに基づいて最初と最後の音節以外
の(SN−2)個の音節に対するピッチを決定する処理
の概念を示す図である。
【図19】 図16のピッチパターン生成処理の中で最
初と最後以外の音節をテンプレート上で割り当てる場合
の概念を示す図である。
【符号の説明】 1…CPU、2…プログラムメモリ、3…ワーキングメ
モリ、4…演奏データメモリ、5…押鍵検出回路、6…
スイッチ検出回路、7…表示回路、8…音源回路、9…
鍵盤、1A…テンキー&キーボード&各種スイッチ、1
B…ディスプレイ、1C…サウンドシステム、1D…デ
ータ及びアドレスバス

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 作曲の対象となる歌詞に対応した音節デ
    ータを少なくとも含んで構成される歌詞データを供給す
    るデータ供給手段と、 作曲される楽曲を特徴付ける特徴データを設定する設定
    手段と、 前記歌詞データ供給手段から供給される前記歌詞データ
    と前記設定手段によって設定された前記特徴データとに
    基づいて前記歌詞に対応した楽曲を生成する楽曲生成手
    段とを備えた自動作曲装置。
  2. 【請求項2】 複数の区間からなる楽曲を表す演奏デー
    タを入力する演奏データ入力手段と、 前記演奏データを前記区間毎に分析し、その区間毎に音
    楽的特徴を抽出する特徴抽出手段と、 この特徴抽出手段によって抽出された各区間毎の音楽的
    特徴を前記楽曲を特徴付ける特徴データとして記憶する
    記憶手段と、 この記憶手段に記憶されている前記特徴データに基づい
    て新たな楽曲を表す演奏データを生成する楽曲生成手段
    とを備えた自動作曲装置。
JP22105195A 1995-08-07 1995-08-07 自動作曲装置 Expired - Fee Related JP3303617B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP22105195A JP3303617B2 (ja) 1995-08-07 1995-08-07 自動作曲装置
US08/693,462 US5736663A (en) 1995-08-07 1996-08-07 Method and device for automatic music composition employing music template information
US09/543,367 USRE40543E1 (en) 1995-08-07 2000-04-04 Method and device for automatic music composition employing music template information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22105195A JP3303617B2 (ja) 1995-08-07 1995-08-07 自動作曲装置

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2000107226A Division JP2000315081A (ja) 2000-01-01 2000-04-07 自動作曲装置及び方法並びに記憶媒体
JP2001349772A Division JP3664126B2 (ja) 2001-11-15 2001-11-15 自動作曲装置

Publications (2)

Publication Number Publication Date
JPH0950278A true JPH0950278A (ja) 1997-02-18
JP3303617B2 JP3303617B2 (ja) 2002-07-22

Family

ID=16760732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22105195A Expired - Fee Related JP3303617B2 (ja) 1995-08-07 1995-08-07 自動作曲装置

Country Status (2)

Country Link
US (2) US5736663A (ja)
JP (1) JP3303617B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11119774A (ja) * 1997-10-14 1999-04-30 Yamaha Corp 自動作曲装置および記録媒体
US6100462A (en) * 1998-05-29 2000-08-08 Yamaha Corporation Apparatus and method for generating melody
US6143971A (en) * 1998-09-09 2000-11-07 Yamaha Corporation Automatic composition apparatus and method, and storage medium
US6252152B1 (en) 1998-09-09 2001-06-26 Yamaha Corporation Automatic composition apparatus and method, and storage medium
KR20020057748A (ko) * 2001-01-06 2002-07-12 하철승 인터넷을 통한 작사 및 작곡 서비스 제공 방법 및 시스템
US6576828B2 (en) 1998-09-24 2003-06-10 Yamaha Corporation Automatic composition apparatus and method using rhythm pattern characteristics database and setting composition conditions section by section
KR100500314B1 (ko) * 2000-06-08 2005-07-11 박규진 인터넷을 이용한 공동 작곡방법 및 시스템과, 이를 이용한 사업방법
CN1316447C (zh) * 2002-01-09 2007-05-16 雅马哈株式会社 便携终端装置
JP2010072222A (ja) * 2008-09-17 2010-04-02 Yamaha Corp 演奏データ編集装置及びプログラム
JP2010072223A (ja) * 2008-09-17 2010-04-02 Yamaha Corp 演奏データ編集装置及びプログラム
WO2012009458A2 (en) * 2010-07-15 2012-01-19 MySongToYou, Inc. Creating and disseminating of user generated content over a network
JP2013044880A (ja) * 2011-08-23 2013-03-04 Brother Ind Ltd 歌詞割当装置

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3180708B2 (ja) * 1997-03-13 2001-06-25 ヤマハ株式会社 音源設定情報通信装置
US5886274A (en) * 1997-07-11 1999-03-23 Seer Systems, Inc. System and method for generating, distributing, storing and performing musical work files
JP3704980B2 (ja) * 1997-12-17 2005-10-12 ヤマハ株式会社 自動作曲装置と記録媒体
US6175072B1 (en) 1998-08-05 2001-01-16 Yamaha Corporation Automatic music composing apparatus and method
FR2785077B1 (fr) * 1998-09-24 2003-01-10 Rene Louis Baron Procede et dispositif de generation musicale automatique
JP3533975B2 (ja) * 1999-01-29 2004-06-07 ヤマハ株式会社 自動作曲装置および記憶媒体
AU6418400A (en) * 1999-07-26 2001-02-13 Thomas J. Buhr Apparatus for musical composition
JP4329191B2 (ja) * 1999-11-19 2009-09-09 ヤマハ株式会社 楽曲情報及び再生態様制御情報の両者が付加された情報の作成装置、特徴idコードが付加された情報の作成装置
JP2001154672A (ja) * 1999-11-29 2001-06-08 Yamaha Corp 通信装置および記憶媒体
JP3661539B2 (ja) 2000-01-25 2005-06-15 ヤマハ株式会社 メロディデータ生成装置及び記録媒体
US6945784B2 (en) * 2000-03-22 2005-09-20 Namco Holding Corporation Generating a musical part from an electronic music file
GB0007318D0 (en) * 2000-03-27 2000-05-17 Leach Jeremy L A system for generating musical sounds
US6225546B1 (en) * 2000-04-05 2001-05-01 International Business Machines Corporation Method and apparatus for music summarization and creation of audio summaries
JP3666364B2 (ja) * 2000-05-30 2005-06-29 ヤマハ株式会社 コンテンツ生成サービス装置、システム及び記録媒体
US6384310B2 (en) * 2000-07-18 2002-05-07 Yamaha Corporation Automatic musical composition apparatus and method
ATE320691T1 (de) * 2000-08-17 2006-04-15 Sony Deutschland Gmbh Gerät und verfahren zur tönerzeugung für ein mobiles endgerät in einem drahtlosen telekommunikationssystem
WO2002077585A1 (en) * 2001-03-26 2002-10-03 Sonic Network, Inc. System and method for music creation and rearrangement
US7169996B2 (en) * 2002-11-12 2007-01-30 Medialab Solutions Llc Systems and methods for generating music using data/music data file transmitted/received via a network
JP2006084749A (ja) * 2004-09-16 2006-03-30 Sony Corp コンテンツ生成装置およびコンテンツ生成方法
JP2006119320A (ja) * 2004-10-21 2006-05-11 Yamaha Corp 電子音楽装置システム、サーバ側電子音楽装置およびクライアント側電子音楽装置
JP4548292B2 (ja) * 2005-09-27 2010-09-22 ヤマハ株式会社 音源設定装置及び音源設定プログラム
KR100658869B1 (ko) * 2005-12-21 2006-12-15 엘지전자 주식회사 음악생성장치 및 그 운용방법
US7462772B2 (en) * 2006-01-13 2008-12-09 Salter Hal C Music composition system and method
SE0600243L (sv) * 2006-02-06 2007-02-27 Mats Hillborg Melodigenerator
US20080002839A1 (en) * 2006-06-28 2008-01-03 Microsoft Corporation Smart equalizer
JP4306754B2 (ja) * 2007-03-27 2009-08-05 ヤマハ株式会社 楽曲データ自動生成装置及び音楽再生制御装置
US20090301287A1 (en) * 2008-06-06 2009-12-10 Avid Technology, Inc. Gallery of Ideas
KR20100037955A (ko) * 2008-10-02 2010-04-12 이경의 자동음악 작곡 방법
US7977560B2 (en) * 2008-12-29 2011-07-12 International Business Machines Corporation Automated generation of a song for process learning
US8785760B2 (en) 2009-06-01 2014-07-22 Music Mastermind, Inc. System and method for applying a chain of effects to a musical composition
US9257053B2 (en) 2009-06-01 2016-02-09 Zya, Inc. System and method for providing audio for a requested note using a render cache
CA2764042C (en) 2009-06-01 2018-08-07 Music Mastermind, Inc. System and method of receiving, analyzing, and editing audio to create musical compositions
US9251776B2 (en) 2009-06-01 2016-02-02 Zya, Inc. System and method creating harmonizing tracks for an audio input
US8779268B2 (en) 2009-06-01 2014-07-15 Music Mastermind, Inc. System and method for producing a more harmonious musical accompaniment
US9177540B2 (en) 2009-06-01 2015-11-03 Music Mastermind, Inc. System and method for conforming an audio input to a musical key
US9310959B2 (en) 2009-06-01 2016-04-12 Zya, Inc. System and method for enhancing audio
US8438482B2 (en) * 2009-08-11 2013-05-07 The Adaptive Music Factory LLC Interactive multimedia content playback system
US8710343B2 (en) * 2011-06-09 2014-04-29 Ujam Inc. Music composition automation including song structure
US8847056B2 (en) 2012-10-19 2014-09-30 Sing Trix Llc Vocal processing with accompaniment music input
US9620092B2 (en) * 2012-12-21 2017-04-11 The Hong Kong University Of Science And Technology Composition using correlation between melody and lyrics
US9123315B1 (en) * 2014-06-30 2015-09-01 William R Bachand Systems and methods for transcoding music notation
US11132983B2 (en) 2014-08-20 2021-09-28 Steven Heckenlively Music yielder with conformance to requisites
US9721551B2 (en) 2015-09-29 2017-08-01 Amper Music, Inc. Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions
US10854180B2 (en) * 2015-09-29 2020-12-01 Amper Music, Inc. Method of and system for controlling the qualities of musical energy embodied in and expressed by digital music to be automatically composed and generated by an automated music composition and generation engine
US9880805B1 (en) 2016-12-22 2018-01-30 Brian Howard Guralnick Workout music playback machine
US11024276B1 (en) 2017-09-27 2021-06-01 Diana Dabby Method of creating musical compositions and other symbolic sequences by artificial intelligence
CN109545172B (zh) * 2018-12-11 2023-01-24 河南师范大学 一种分离式音符生成方法及装置
US11024275B2 (en) 2019-10-15 2021-06-01 Shutterstock, Inc. Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system
US11037538B2 (en) 2019-10-15 2021-06-15 Shutterstock, Inc. Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system
US10964299B1 (en) 2019-10-15 2021-03-30 Shutterstock, Inc. Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4731847A (en) * 1982-04-26 1988-03-15 Texas Instruments Incorporated Electronic apparatus for simulating singing of song
JPS60107079A (ja) * 1983-11-15 1985-06-12 株式会社東京コンピユーター・システム 作曲装置
JP2715412B2 (ja) * 1987-06-15 1998-02-18 カシオ計算機株式会社 メロディ分析機能付音楽装置及び自動作曲機
JPH07111619B2 (ja) * 1987-04-08 1995-11-29 カシオ計算機株式会社 自動作曲機
US4926737A (en) * 1987-04-08 1990-05-22 Casio Computer Co., Ltd. Automatic composer using input motif information
JPH07113828B2 (ja) * 1987-05-20 1995-12-06 カシオ計算機株式会社 自動作曲機
JP2666063B2 (ja) * 1987-12-24 1997-10-22 カシオ計算機株式会社 自動作曲機
JP2615722B2 (ja) * 1987-12-24 1997-06-04 カシオ計算機株式会社 自動作曲機
JP2958648B2 (ja) * 1989-10-03 1999-10-06 利光 武者 作曲機及び作曲法
JP2958795B2 (ja) * 1990-04-27 1999-10-06 カシオ計算機株式会社 メロディ分析機
JP2958794B2 (ja) * 1990-04-27 1999-10-06 カシオ計算機株式会社 メロディ分析機
JP2616274B2 (ja) * 1991-04-02 1997-06-04 ヤマハ株式会社 自動演奏装置
JP3271282B2 (ja) 1991-12-30 2002-04-02 カシオ計算機株式会社 自動メロディ生成装置
JPH0675576A (ja) * 1992-02-25 1994-03-18 Fujitsu Ltd メロディ生成装置
JPH05257465A (ja) * 1992-03-11 1993-10-08 Kawai Musical Instr Mfg Co Ltd 楽器演奏者の特徴抽出再生装置
JP3489290B2 (ja) * 1995-08-29 2004-01-19 ヤマハ株式会社 自動作曲装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11119774A (ja) * 1997-10-14 1999-04-30 Yamaha Corp 自動作曲装置および記録媒体
US6100462A (en) * 1998-05-29 2000-08-08 Yamaha Corporation Apparatus and method for generating melody
US6143971A (en) * 1998-09-09 2000-11-07 Yamaha Corporation Automatic composition apparatus and method, and storage medium
US6252152B1 (en) 1998-09-09 2001-06-26 Yamaha Corporation Automatic composition apparatus and method, and storage medium
US6576828B2 (en) 1998-09-24 2003-06-10 Yamaha Corporation Automatic composition apparatus and method using rhythm pattern characteristics database and setting composition conditions section by section
KR100500314B1 (ko) * 2000-06-08 2005-07-11 박규진 인터넷을 이용한 공동 작곡방법 및 시스템과, 이를 이용한 사업방법
KR20020057748A (ko) * 2001-01-06 2002-07-12 하철승 인터넷을 통한 작사 및 작곡 서비스 제공 방법 및 시스템
CN1316447C (zh) * 2002-01-09 2007-05-16 雅马哈株式会社 便携终端装置
JP2010072222A (ja) * 2008-09-17 2010-04-02 Yamaha Corp 演奏データ編集装置及びプログラム
JP2010072223A (ja) * 2008-09-17 2010-04-02 Yamaha Corp 演奏データ編集装置及びプログラム
WO2012009458A2 (en) * 2010-07-15 2012-01-19 MySongToYou, Inc. Creating and disseminating of user generated content over a network
WO2012009458A3 (en) * 2010-07-15 2012-04-26 MySongToYou, Inc. Creating and disseminating of user generated content over a network
JP2013044880A (ja) * 2011-08-23 2013-03-04 Brother Ind Ltd 歌詞割当装置

Also Published As

Publication number Publication date
USRE40543E1 (en) 2008-10-21
JP3303617B2 (ja) 2002-07-22
US5736663A (en) 1998-04-07

Similar Documents

Publication Publication Date Title
JP3303617B2 (ja) 自動作曲装置
JP3704980B2 (ja) 自動作曲装置と記録媒体
JP3718919B2 (ja) カラオケ装置
US20090217805A1 (en) Music generating device and operating method thereof
JPH0944171A (ja) カラオケ装置
JP3829439B2 (ja) アルペジオ発音装置およびアルペジオ発音を制御するためのプログラムを記録したコンピュータ読み取り可能な媒体
JP2562370B2 (ja) 自動伴奏装置
US6100462A (en) Apparatus and method for generating melody
JP3528654B2 (ja) メロディ生成装置及びリズム生成装置と記録媒体
JP2002023747A (ja) 自動作曲方法と装置及び記録媒体
JP2000315081A (ja) 自動作曲装置及び方法並びに記憶媒体
JP6760450B2 (ja) 自動アレンジ方法
JP2806351B2 (ja) 演奏情報分析装置及びそれを用いた自動編曲装置
US20040200335A1 (en) Musical invention apparatus
JP3489290B2 (ja) 自動作曲装置
JP3664126B2 (ja) 自動作曲装置
JP3419278B2 (ja) 演奏設定データ選択装置、演奏設定データ選択方法及び記録媒体
JP3724347B2 (ja) 自動作曲装置及び方法並びに記憶媒体
JP3835131B2 (ja) 自動作曲装置及び方法並びに記憶媒体
JP3641955B2 (ja) 楽曲データ生成装置及びそのための記録媒体
JP2000112472A (ja) 自動作曲装置と記録媒体
JP3570266B2 (ja) 自動作曲装置及び方法
JPH06342288A (ja) 楽音発生装置
Khumalo Reading for ‘African Spectralism’in Latozi Mphahleni’s ‘Modokali’
JP2000066665A (ja) 自動作曲装置と記録媒体

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090510

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100510

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees