JPH11237881A - 自動作曲装置と記録媒体 - Google Patents

自動作曲装置と記録媒体

Info

Publication number
JPH11237881A
JPH11237881A JP10350742A JP35074298A JPH11237881A JP H11237881 A JPH11237881 A JP H11237881A JP 10350742 A JP10350742 A JP 10350742A JP 35074298 A JP35074298 A JP 35074298A JP H11237881 A JPH11237881 A JP H11237881A
Authority
JP
Japan
Prior art keywords
melody
data
feature
generation
phrase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10350742A
Other languages
English (en)
Other versions
JP3704980B2 (ja
Inventor
Eiichiro Aoki
栄一郎 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP35074298A priority Critical patent/JP3704980B2/ja
Priority to US09/212,192 priority patent/US6124543A/en
Publication of JPH11237881A publication Critical patent/JPH11237881A/ja
Application granted granted Critical
Publication of JP3704980B2 publication Critical patent/JP3704980B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/341Rhythm pattern selection, synthesis or composition
    • G10H2210/371Rhythm syncopation, i.e. timing offset of rhythmic stresses or accents, e.g. note extended from weak to strong beat or started before strong beat
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/241Telephone transmission, i.e. using twisted pair telephone lines or any type of telephone network
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/295Packet switched network, e.g. token ring
    • G10H2240/305Internet or TCP/IP protocol use for any electrophonic musical instrument data or musical parameter transmission purposes

Abstract

(57)【要約】 【課題】 自動作曲装置において、ユーザ入力のテーマ
メロディに相応しく且つ起伏に富んだ音楽的なメロディ
を生成する。 【解決手段】 データベース240には複数の曲生成デ
ータK1〜Knを記憶させる。各曲生成データはメロディ
特徴を表わす参照特徴データKaと、これに付随したメ
ロディ生成データKbとを含む。ステップ242でユー
ザがメロディを入力すると、ステップ244では入力メ
ロディの特徴を分析してその特徴を表わす特徴データを
作成する。ステップ246では比較により特徴データと
メロディ特徴が一致する(類似でも可)参照特徴データ
を検出する。ステップ248では検出した参照特徴デー
タに付随したメロディ生成データをデータベース240
から抽出する。ステップ250では抽出したメロディ生
成データに基づいて残区間のメロディを生成する。ステ
ップ252では入力メロディと残区間メロディとを結合
して1曲のメロディとする。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、自動作曲装置及
び記録媒体に関し、特にユーザが入力したテーマメロデ
ィとメロディ特徴(又はメロディ)が一致又は類似する
メロディ生成データをデータベースから抽出すると共に
抽出したメロディ生成データに基づいてメロディデータ
を生成することによりテーマメロディに相応しく且つ起
伏に富んだ音楽的なメロディを生成可能としたものであ
る。
【0002】
【従来の技術】従来、自動作曲装置としては、入力した
テーマメロディの特徴を分析し、この分析結果に基づい
て1曲のメロディを生成するものが知られている(例え
ば、特開平1−167782号公報参照)。
【0003】
【発明が解決しようとする課題】上記した従来技術によ
ると、テーマメロディの分析結果に基づいて演算により
メロディを発展させて1曲分のメロディを生成するの
で、1曲を通して起伏のある音楽的なメロディを生成し
にくいという問題点があった。例えば、テーマメロディ
に相応しく且つサビ部分でテーマメロディと音楽的雰囲
気を異にするような1曲のメロディを生成するのが困難
であった。
【0004】この発明の目的は、入力されたテーマメロ
ディに相応しく且つ起伏に富んだ音楽的なメロディを簡
単に生成することができる新規な自動作曲装置を提供す
ることにある。
【0005】
【課題を解決するための手段】この発明に係る第1の自
動作曲装置は、複数の曲生成データを記憶する記憶手段
であって、各曲生成データは、メロディ特徴を表わす参
照特徴データと、この参照特徴データに付随したメロデ
ィ生成データとを含むものと、所望のメロディデータを
供給する供給手段と、この供給手段により供給されたメ
ロディデータに関してメロディ特徴を分析し、そのメロ
ディ特徴を表わす特徴データを作成する分析手段と、こ
の分析手段により作成された特徴データと前記記憶手段
に記憶された参照特徴データとを比較し、作成に係る特
徴データとメロディ特徴が一致又は類似した参照特徴デ
ータを検出する検出手段と、この検出手段により検出さ
れた参照特徴データに付随したメロディ生成データを前
記記憶手段から読出す読出手段と、前記記憶手段から読
出されたメロディ生成データに基づいてメロディデータ
を生成する生成手段とを備えたものである。
【0006】第1の自動作曲装置によれば、ユーザが供
給手段により所望のメロディデータを供給すると、供給
したメロディデータに関してメロディ特徴を表わす特徴
データが分析手段により作成され、作成に係る特徴デー
タとメロディ特徴が一致又は類似した参照特徴データが
検出手段により検出される。読出手段は、検出に係る参
照特徴データに付随したメロディ生成データを記憶手段
から読出し、生成手段は、読出されたメロディ生成デー
タに基づいてメロディデータを生成する。このように、
供給したメロディデータとメロディ特徴が一致又は類似
した参照特徴データを検出すると共に検出に係る参照特
徴データに付随したメロディ生成データに基づいてメロ
ディデータを生成するので、供給したメロディに相応し
いメロディを生成することができる。また、メロディ生
成データとして起伏のあるメロディを生成可能なものを
記憶しておくことで1曲を通して起伏のある音楽的なメ
ロディを簡単に生成することができる。
【0007】この発明に係る第2の自動作曲装置は、複
数の曲生成データを記憶する記憶手段であって、各曲生
成データは、参照メロディデータと、この参照メロディ
データに付随したメロディ生成データとを含むものと、
所望のメロディデータを供給する供給手段と、この供給
手段により供給されたメロディデータと前記記憶手段に
記憶された参照メロディデータとを比較し、供給に係る
メロディデータと一致又は類似した参照メロディデータ
を検出する検出手段と、この検出手段により検出された
参照メロディデータに付随したメロディ生成データを前
記記憶手段から読出す読出手段と、前記記憶手段から読
出されたメロディ生成データに基づいてメロディデータ
を生成する生成手段とを備えたものである。
【0008】第2の自動作曲装置によれば、ユーザが供
給手段により所望のメロディデータを供給すると、供給
したメロディデータと一致又は類似した参照メロディデ
ータが検出手段により検出される。読出手段は、検出に
係る参照メロディデータに付随したメロディ生成データ
を読出し、生成手段は、読出されたメロディ生成データ
に基づいてメロディデータを生成する。このように、供
給したメロディデータと一致又は類似した参照メロディ
データを検出すると共に検出に係る参照メロディデータ
に付随したメロディ生成データに基づいてメロディデー
タを生成するので、供給したメロディに相応しいメロデ
ィを生成することができる。また、メロディ生成データ
として起伏のあるメロディを生成可能なものを記憶して
おくことで1曲を通して起伏のある音楽的なメロディを
簡単に生成することができる。さらに、供給したメロデ
ィデータと参照メロディデータとを直接比較するので、
供給したメロディにより近いメロディを生成することが
できる。
【0009】第1又は第2の自動作曲装置において、メ
ロディ生成データとしては、メロディ生成用メロディ特
徴データ及びメロディ生成用メロディデータのうちいず
れか一方又は双方を用いることができる。メロディ生成
データとしてメロディ生成用メロディ特徴データを用い
ると、例えば既存の曲の音楽的特徴を反映したメロディ
を容易に生成することができる。また、メロディ生成デ
ータとしてメロディ生成用メロディデータを用いると、
例えば既存の曲のメロディデータをメロディ生成データ
としてそのまま用いてメロディ生成が可能であり、処理
が簡単になると共にメロディデータが持つ音楽的雰囲気
を反映したメロディを生成することができる。さらに、
メロディ生成データとしてメロディ生成用メロディ特徴
データ及びメロディ生成用メロディデータを用いると、
メロディ特徴データが持つ音楽的特徴とメロディデータ
が持つ音楽的雰囲気とを反映したメロディを生成するこ
とができる。
【0010】この発明に係る第3の自動作曲装置は、メ
ロディ特徴を表わす参照特徴データと、この参照特徴デ
ータに付随したメロディ生成データとを記憶する記憶手
段と、所望のメロディデータを供給する供給手段と、こ
の供給手段により供給されたメロディデータに関してメ
ロディ特徴を分析し、そのメロディ特徴を表わす特徴デ
ータを作成する分析手段と、この分析手段により作成さ
れた特徴データと前記記憶手段に記憶された参照特徴デ
ータとを比較し、比較に係る両データのメロディ特徴の
不一致状態に対応した不一致情報を検出する検出手段
と、前記記憶手段に記憶されたメロディ生成データを読
出すと共に該メロディ生成データを前記検出手段により
検出された不一致情報に応じて修正する修正手段と、こ
の修正手段により修正されたメロディ生成データに基づ
いてメロディデータを生成する生成手段とを備えたもの
である。
【0011】第3の自動作曲装置によれば、ユーザが供
給手段により所望のメロディデータを供給すると、供給
したメロディデータに関してメロディ特徴を表わす特徴
データが分析手段により作成され、作成に係る特徴デー
タと参照特徴データとのメロディ特徴の不一致状態に対
応した不一致情報が検出手段により検出される。修正手
段は、検出に係る不一致情報に応じてメロディ生成デー
タを修正し、生成手段は、修正されたメロディ生成デー
タに基づいてメロディデータを生成する。このように、
供給したメロディデータとメロディ特徴が一致しない参
照特徴データについては、参照特徴データに付随したメ
ロディ生成データを不一致情報に応じて修正した後修正
に係るメロディ生成データに基づいてメロディデータを
生成するので、供給したメロディにより近いメロディを
生成することができる。
【0012】第3の自動作曲装置にあっては、不一致情
報に応じてメロディ生成データを修正する代りに、メロ
ディ生成データに基づいてメロディデータを生成した後
生成に係るメロディデータを不一致情報に応じて修正す
るようにしてもよい。
【0013】この発明に係る第4の自動作曲装置は、参
照メロディデータと、この参照メロディデータに付随し
たメロディ生成データとを記憶した記憶手段と、所望の
メロディデータを供給する供給手段と、この供給手段に
より供給されたメロディデータと前記記憶手段に記憶さ
れた参照メロディデータとを比較し、比較に係る両デー
タのメロディの不一致状態に対応した不一致情報を検出
する検出手段と、前記記憶手段に記憶されたメロディ生
成データを読出すと共に該メロディ生成データを前記検
出手段により検出された不一致情報に応じて修正する修
正手段と、この修正手段により修正されたメロディ生成
データに基づいてメロディデータを生成する生成手段と
を備えたものである。
【0014】第4の自動作曲装置によれば、ユーザが供
給手段により所望のメロディデータを供給すると、供給
したメロディデータと参照メロディデータとのメロディ
の不一致状態に対応した不一致情報が検出手段により検
出される。修正手段は、検出に係る不一致情報に応じて
メロディ生成データを修正し、生成手段は、修正された
メロディ生成データに基づいてメロディデータを生成す
る。このように、供給したメロディデータとメロディが
一致しない参照メロディデータについては、参照メロデ
ィデータに付随したメロディ生成データを不一致情報に
応じて修正した後修正に係るメロディ生成データに基づ
いてメロディを生成するので、供給したメロディにより
近いメロディを生成することができる。
【0015】第4の自動作曲装置にあっては、不一致情
報に応じてメロディ生成データを修正する代わりに、メ
ロディ生成データに基づいてメロディデータを生成した
後生成に係るメロディデータを不一致情報に応じて修正
するようにしてもよい。
【0016】第1〜第4の自動作曲装置において、生成
手段は、供給手段により供給されたメロディデータにも
基づいてメロディデータを生成するようにしてもよい。
このようにすると、供給したメロディにより近いメロデ
ィを生成することができる。
【0017】第1〜第4の自動作曲装置において、供給
手段は、作成すべき曲の一部区間のメロディデータを供
給し、生成手段は、作成すべき曲の残区間のメロディデ
ータを生成すると共に、一部区間のメロディデータと残
区間のメロディデータとを結合して1曲分のメロディデ
ータを生成するようにしてもよい。このようにすると、
供給したメロディを一部区間に含む1曲分のメロディを
生成することができる。
【0018】この発明に係る第5の自動作曲装置は、複
数曲のうちの各曲毎に複数の演奏区間のメロディ特徴を
表わす曲特徴データを記憶する記憶手段と、前記複数の
演奏区間のうち任意の1つの演奏区間を指定する指定手
段と、この指定手段での指定に係る演奏区間において使
用すべきメロディデータを供給する供給手段と、この供
給手段により供給されたメロディデータに関してメロデ
ィ特徴を分析し、そのメロディ特徴を表わす特徴データ
を作成する分析手段と、この分析手段により作成された
特徴データが表わすメロディ特徴と一致又は類似したメ
ロディ特徴を前記指定手段での指定に係る演奏区間にお
いて有する曲特徴データを前記記憶手段から選択して読
出す読出手段と、前記供給手段により供給されたメロデ
ィデータが表わすメロディの少なくとも一部を前記指定
手段での指定に係る演奏区間において流用すると共に該
演奏区間以外の演奏区間のメロディを前記記憶手段から
読出された曲特徴データに基づいて作成することにより
流用メロディ及び作成メロディを表わす1曲分のメロデ
ィデータを生成する生成手段とを備えたものである。
【0019】第5の自動作曲装置によれば、ユーザが指
定手段により任意の1つの演奏区間を指定すると共に供
給手段により所望のメロディデータを供給すると、供給
したメロディデータに関してメロディ特徴を表わす特徴
データが分析手段により作成され、作成に係る特徴デー
タと一致又は類似したメロディ特徴を指定に係る演奏区
間において有する曲特徴データが記憶手段から読出手段
により読出される。生成手段は、供給したメロディデー
タが表わすメロディの少なくとも一部を指定に係る演奏
区間において流用すると共に該演奏区間以外の演奏区間
のメロディを読出しに係る曲特徴データに基づいて作成
することにより流用メロディ及び作成メロディを表わす
1曲分のメロディデータを作成する。このように、指定
した演奏区間では供給したメロディデータが表わすメロ
ディを流用すると共に該演奏区間以外の演奏区間では読
出しに係る曲特徴データに基づいてメロディを作成する
ことにより流用メロディ及び作成メロディを表わす1曲
分のメロディデータを生成するので、所望の演奏区間に
所望のメロディを含み且つ所望のメロディに相応しい1
曲分のメロディを簡単に生成することができる。
【0020】この発明に係る第6の自動演奏装置は、複
数曲のうちの各曲毎に複数の演奏区間のメロディを表わ
す曲データを記憶する記憶手段と、前記複数の演奏区間
のうち任意の1つの演奏区間を指定する指定手段と、こ
の指定手段での指定に係る演奏区間において使用すべき
メロディデータを供給する供給手段と、この供給手段に
より供給されたメロディデータが表わすメロディと一致
又は類似したメロディを前記指定手段での指定に係る演
奏区間において有する曲データを前記記憶手段から選択
して読出す読出手段と、前記供給手段により供給された
メロディデータが表わすメロディの少なくとも一部を前
記指定手段での指定に係る演奏区間において流用すると
共に該演奏区間以外のメロディを前記記憶手段から読出
された曲データに基づいて作成することにより流用メロ
ディ及び作成メロディを表わす1曲分のメロディデータ
を生成する生成手段とを備えたものである。
【0021】第6の自動作曲装置によれば、ユーザが指
定手段により任意の1つの演奏区間を指定すると共に供
給手段により所望のメロディデータを供給すると、供給
したメロディデータと一致又は類似したメロディを指定
に係る演奏区間において有する曲データが記憶手段から
読出手段により読出される。生成手段は、供給したメロ
ディデータが表わすメロディの少なくとも一部を指定に
係る演奏区間において流用すると共に該演奏区間以外の
演奏区間のメロディを読出しに係る曲データに基づいて
作成することにより流用メロディ及び作成メロディを表
わす1曲分のメロディデータを生成する。このように、
指定した演奏区間では供給したメロディデータが表わす
メロディを流用すると共に該演奏区間以外の演奏区間で
は読出しに係る曲データに基づいてメロディを作成する
ことにより流用メロディ及び作成メロディを表わす1曲
分のメロディデータを生成するので、所望の演奏区間に
所望のメロディを含み且つ所望のメロディに相応しい1
曲分のメロディを生成することができる。また、供給し
たメロディデータと一致又は類似したメロディを有する
曲データに基づいてメロディを作成するので、供給した
メロディにより近いメロディを生成することができる。
【0022】
【発明の実施の形態】図1は、この発明の一実施形態に
係る作曲処理を説明するためのもので、この作曲処理に
おいて使用される種々のデータを示す。
【0023】図1では、一例としてフレーズ単位でメロ
ディを生成する方法を説明する。まず、音楽的な起伏に
富んだ既存の完成された複数曲について各曲毎にメロデ
ィ特徴を分析し、そのメロディ特徴を表わす曲特徴デー
タを作成する。メロディ特徴は、リズム特徴とピッチ特
徴とに分解される。リズム特徴の例としては、 (a)音符分布の粗密:フレーズの前半と後半とではい
ずれが粗(又は密)かあるいは互いに等しいか、 (b)シンコペーション:シンコペーション(弱拍から
発音され、次の強拍を越える発音長を持つ音符)がある
か否か、あればどの程度あるか、 (c)最短音価:8分音符か16分音符か、 (d)フレーズスタート時間:前小節に喰い、ジャス
ト、拍頭より遅れのいずれか等が挙げられる。
【0024】また、ピッチ特徴の例としては、 (e)フレーズのピッチ振幅、 (f)フレーズの開始音と終了音、 (g)ピッチの変化形状:フレーズ内ピッチの極大・極
小列(時間情報あり又はなし)、ピッチ進行に伴うピッ
チ変化の傾き方向を表わす上行・下行列(度数あり又は
なし、時間情報あり又はなし)等が挙げられる。
【0025】図1(A)は、複数曲のメロディ特徴をそ
れぞれ表わす曲特徴データM1〜Mnを示すもので、これ
らのデータM1〜Mnを記憶手段にデータベースとして記
憶する。各曲の曲特徴データは、フレーズ毎にメロディ
特徴を表わし、例えば曲特徴データM1は、第1(テー
マ)フレーズのメロディ特徴を表わすフレーズ特徴デー
タF1と、第2フレーズのメロディ特徴を表わすフレー
ズ特徴データF2と、第3フレーズのメロディ特徴を表
わすフレーズ特徴データF3と、第4フレーズのメロデ
ィ特徴を表わすフレーズ特徴データF4と、第5(サ
ビ)フレーズのメロディ特徴を表わすフレーズ特徴デー
タF5と、第6フレーズのメロディ特徴を表わすフレー
ズ特徴データF6とを含んでいる。
【0026】次に、ユーザがいずれかのフレーズを指定
して所望のメロディデータを入力する。この入力に係る
メロディデータについてメロディ特徴を分析し、そのメ
ロディ特徴を表わすフレーズ特徴データを作成する。例
えば図1(B)に示すように第1(テーマ)フレーズを
指定してメロディデータUF11を入力したときは、第1
(テーマ)フレーズのメロディ特徴を表わすフレーズ特
徴データUF1を作成する。また、第2フレーズを指定
してメロディデータUF12を入力したときは、第2フレ
ーズのメロディ特徴を表わすフレーズ特徴データUF2
を作成する。
【0027】次に、データベースからユーザ入力に係る
メロディデータとメロディ特徴が一致又は類似した曲特
徴データを選択して読出す。このためには、例えばフレ
ーズ特徴データUF1と曲特徴データM1の第1(テー
マ)フレーズのフレーズ特徴データF1とを比較し、両
者が一致又は類似していれば曲特徴データM1を読出
し、両者が一致又は類似していなければデータUF1
曲特徴データM2の第1(テーマ)フレーズのフレーズ
特徴データとを比較し…というように順次に比較を行な
い、一致又は類似するとの比較結果が得られるたびに比
較に係る曲特徴データを読出すようにすればよい。
【0028】次に、ユーザ入力に係るメロディデータを
流用すると共に読出しに係る曲特徴データに基づいてメ
ロディデータを作成することにより流用メロディデータ
及び作成メロディデータを含む1曲分のメロディデータ
を生成する。例えば第1(テーマ)フレーズを指定して
メロディデータUF11を入力すると共に曲特徴データM
1を読出したときは、図1(C)に示すように第1(テ
ーマ)フレーズのメロディデータとしてメロディデータ
UF11を流用すると共に曲特徴データM1に基づいて第
1(テーマ)以外のフレーズのメロディデータF12〜F
16を作成することにより1曲分のメロディデータMD1
を生成する。また、第2フレーズを指定してメロディデ
ータUF12を入力すると共に曲特徴データM1を読出し
たときは、図1(D)に示すように第2フレーズのメロ
ディデータとしてメロディデータUF12を流用すると共
に曲特徴データM1に基づいて第2以外のフレーズのメ
ロディデータF11,F13〜F16を作成することにより1
曲分のメロディデータMD2を生成する。所望によりメ
ロディデータUF12の一部を変更(一部を流用)して第
2’フレーズとしたり、メロディデータF13の一部を変
更して第3’フレーズとしたりすることもできる。
【0029】なお、図2について後述するようにデータ
ベースに曲特徴データと共に曲データを記憶しておくと
きは、データベースからユーザ入力のメロディデータと
メロディが一致又は類似する曲データを比較により抽出
し、抽出した曲データの一部(例えば1フレーズのメロ
ディ)をMD1又はMD2等のメロディデータの一部とし
て流用してもよい。
【0030】データベースには、曲特徴データM1〜Mn
の代りに複数曲分の曲データを記憶しておき、いずれか
の曲データとユーザ入力に係るメロディデータとに基づ
いてメロディ生成を行なうようにしてもよい。各曲デー
タは、複数フレーズ分のメロディを表わし、例えば図1
(A)に示すように第1(テーマ)、第2、第3、第
4、第5(サビ)、第6のフレーズメロディを表わすも
のとする。
【0031】ユーザがいずれかのフレーズを指定して所
望のメロディデータを入力する。例えば図1(B)に示
すように第1(テーマ)フレーズを指定してメロディデ
ータUF11を入力する。
【0032】次に、データベースからユーザ入力に係る
メロディデータとメロディが一致又は類似した曲データ
を選択して読出す。このためには、例えばメロディデー
タUF11とデータベース内の各曲データの第1(テー
マ)フレーズのメロディデータとを比較し、メロディデ
ータUF11とメロディが一致又は類似した曲データを選
択して読出すようにすればよい。
【0033】次に、ユーザ入力に係るメロディデータを
流用すると共に読出しに係る曲データに基づいてメロデ
ィデータを作成することにより流用メロディデータ及び
作成メロディデータを含む1曲分のメロディデータを生
成する。例えば図1(C)に示すように第1(テーマ)
フレーズのメロディデータとしてメロディデータUF11
を流用すると共に読出しに係る曲データに基づいて第1
(テーマ)以外のフレーズのメロディデータF12〜F16
を作成することにより1曲分のメロディデータMD1
生成する。
【0034】図1に関して上記した作曲処理によれば、
ユーザが所望のフレーズを指定すると共に所望のメロデ
ィを入力することにより指定に係るフレーズに入力に係
るメロディを含む1曲分のメロディを簡単に生成するこ
とができる。生成される1曲分のメロディは、入力に係
るメロディとメロディ特徴が一致又は類似した曲特徴デ
ータに基づいてメロディを作成するので、入力に係るメ
ロディに相応しいものとなる。入力に係るメロディとメ
ロディが一致又は類似した曲データに基づいてメロディ
を作成すると、生成されるメロディは、入力に係るメロ
ディにより近くなる。曲特徴データ又は曲データとして
音楽的に起伏に富んだ曲(例えば既存の完成された曲)
に対応するものを記憶しておくことにより起伏に富んだ
音楽的な1曲分のメロディを生成することができる。
【0035】図2は、この発明に係る自動作曲装置を示
すものである。図2の自動作曲装置は、図1に関して上
記したメロディ生成方法に従ってメロディ生成を遂行可
能なもので、パーソナルコンピュータ10と、電子楽器
12と、ディスプレイ14とを含んでいる。
【0036】パーソナルコンピュータ10においては、
バス16にCPU(中央処理装置)18、ROM(リー
ド・オンリィ・メモリ)20、RAM(ランダム・アク
セス・メモリ)22、検出回路24,26、インターフ
ェース28、外部記憶装置30、表示回路32、タイマ
34等が接続されている。
【0037】CPU18は、ROM20にストアされた
プログラムに従ってメロディ生成のための各種処理を実
行するもので、これらの処理については図8〜18を参
照して後述する。
【0038】RAM22は、CPU18による各種処理
に際して使用される種々の記憶部を含むもので、主な記
憶部としては、参考曲データ記憶部22A、曲特徴デー
タ記憶部22B、フレーズメロディデータ記憶部22
C、フレーズ特徴データ記憶部22D、候補曲特徴デー
タ記憶部22E、作成曲データ記憶部22F等を含んで
いる。
【0039】検出回路24は、文字入力及び数字入力が
可能なキーボード36から操作情報を検出するものであ
る。キーボード36では、各種の指示又は選択操作、メ
ロディ情報入力操作等を行なうことができる。
【0040】検出回路26は、入力操作子としてのマウ
ス38から操作情報を検出するものである。マウス38
では、各種の指示又は選択操作等を行なうことができ
る。例えば、登録モード、メロディ生成モード、自動演
奏モード等のモード選択操作は、マウス38又はキーボ
ード36により行なうことができる。
【0041】インターフェース28は、MIDI(Mu
sical InstrumentDigital I
nterface)規格に適合したもので、電子楽器1
2との間で演奏情報等の送受信を行なうために設けられ
たものである。電子楽器12は、鍵盤12A、音源装
置、自動演奏装置等を含むもので、鍵盤12Aでの鍵操
作に基づく音高情報及び/又は自動演奏装置から出力さ
れる音高情報に応じて音源装置から楽音信号を発生可能
である。また、鍵盤12Aでの鍵操作に基づいてインタ
ーフェース28を介してパーソナルコンピュータ10に
メロディ情報を入力可能である。
【0042】外部記憶装置30は、HD(ハードディス
ク)、FD(フロッピーディスク)、CD(コンパクト
ディスク)、DVD(ディジタル多目的ディスク)、M
O(光磁気ディスク)等のうち1又は複数種類の記録媒
体を着脱可能なものである。外部記憶装置30に所望の
記録媒体を装着した状態では、記録媒体からRAM22
へデータを転送可能である。また、装着した記録媒体が
HDやFDのように書込可能なものであれば、RAM2
2のデータを記録媒体に転送可能である。
【0043】外部記憶装置30に装着する記録媒体で
は、参考曲としての多数曲の曲データがデータベース3
0Aとして記録されると共に多数のリズムデータがデー
タベース30Bとして記録される。データベース30A
には、参考曲としての多数曲のうちの複数曲について曲
特徴データを予め記録しておいてもよい。後述する曲特
徴登録の処理によれば、参考曲としての多数曲のうちの
所望の曲について曲特徴データを作成し、データベース
30Aに記録することができる。曲データ及び曲特徴デ
ータについては、図3及び図4を参照して後述し、リズ
ムデータについては図5を参照して後述する。
【0044】表示回路32は、ディスプレイ14の表示
動作を制御することにより各種の表示を可能にするもの
である。
【0045】タイマ34は、与えられるテンポデータに
対応する周期でテンポクロック信号TCLを発生するも
ので、テンポクロック信号TCLは、割込命令としてC
PU18に供給される。CPU18は、テンポクロック
信号TCLの各クロックパルス毎に割込処理を開始す
る。このような割込処理を利用することにより記憶部2
2Fの作成曲データに基づいて自動演奏を行なうことが
できる。
【0046】図3(A)及び(B)は、それぞれ記憶部
22A及び22Bに記憶される曲データ及び曲特徴デー
タのフォーマットを示すものである。
【0047】曲データは、図3(A)に示すように、テ
ンポデータTMP等を含むヘッドデータMHDの後に曲
進行に従ってタイミングデータTMG1とキーオンデー
タKON1の組、タイミングデータTMG2とキーオフデ
ータKOF1の組…というようにタイミングデータとキ
ーオン又はキーオフのイベントデータの組を順次に配置
し、最後にエンドデータMEDを配置したものである。
【0048】各タイミングデータは、1つ前のイベント
からの相対時間をテンポクロック信号TCLのクロック
数で表わすもので、この実施形態では4分音符の長さに
相当する時間を480クロックに対応させている。各キ
ーオンデータは、楽音発生を指示するキーオン命令デー
タKOと、発生楽音の音高を指示するノートナンバデー
タNMと、発生楽音の音量を指示するベロシティデータ
VLとを含んでいる。各キーオフデータは、キーオフ命
令データと、ノートナンバデータとを含んでいる。
【0049】曲特徴データは、図3(B)に示すよう
に、ヘッドデータCHDの後にフレーズF1,F2…の順
にフレーズ特徴データを配置し、最後にエンドデータC
ENを配置したものである。ヘッドデータCHDは、デ
ータ登録時に指定された登録ナンバを表わす登録ナンバ
データRNと、曲のジャンル(例えばジャズ)を表わす
ジャンルデータMJと、曲の調(例えばハ長調)を表わ
す調データTDとを含んでいる。
【0050】各フレーズ特徴データは、フレーズF1
ついて代表的に示すように、フレーズが開始する小節
(例えば第1小節)を表わすフレーズ開始小節データS
Tと、フレーズ種類(フレーズ番号(必要に応じてテー
マあるいはサビを示すデータを含む)と各フレーズ間の
類似関係を示すフレーズ記号とからなり、例えば「第1
(テーマ)フレーズ,記号A」フレーズ)を表わすフレ
ーズ種類データFSと、フレーズの長さを小節数(例え
ば2)で表わすフレーズ長データFLと、ピッチ特徴を
表わすピッチ特徴データPCと、リズム特徴を表わすリ
ズム特徴データRCとを含んでいる。なお、フレーズ記
号としては、A,A’,B,Cなどがあり、同一(例え
ばAとA,BとB)、類似(AとA’)、非類似(例え
ばAとB,AとC)を意味する。
【0051】図4(A)は、ピッチ特徴データPCの一
構成例を示すものである。ピッチ特徴データPCは、開
始・終了音データP1と、ピッチ変化データP2とを含ん
でいる。開始・終了音データP1は、フレーズ内の開始
音について発音タイミングをクロック数(例えば0)で
表わすと共にピッチを調の主音に対する度数(例えばI
V)で表わす開始音データP11と、フレーズ内の終了音
について発音タイミングをクロック数(例えば336
0)で表わすと共にピッチを主音に対する度数(例えば
II)で表わす終了音データP12を含んでいる。
【0052】ピッチ変化データP2は、フレーズ内の隣
り合う2音毎に傾きデータP21と、ピッチ差データP22
と、時間間隔データP23とを含んでいる。傾きデータP
21は、隣り合う2音(前音と後音)についてピッチ変化
の傾きを「下行」、「水平」又は「上行」のいずれかで
表わすもので、「下行」ならば前音より後音のピッチが
低いことを表わし、「水平」ならば前音と後音とでピッ
チが等しいことを表わし、「上行」ならば前音よりも後
音のピッチが高いことを表わす。ピッチ差データP
22は、隣り合う2音のピッチの差を度数の差として表わ
すもので、例えば「−1」は1度低いことを、「0」は
同一ピッチであることを、「1」は1度高いことをそれ
ぞれ表わす。時間間隔データP23は、隣り合う2音間の
時間間隔をクロック数(例えば4分音符相当ならば48
0)で表わすものである。
【0053】図4(B)は、リズム特徴データRCの一
構成例を示すものである。リズム特徴データRCは、ジ
ャンルデータR1と、粗密状態データR2と、シンコペー
ションデータR3と、総音符数データR4とを含んでい
る。ジャンルデータR1は、マーチ、ワルツ、ジャズ…
等の音楽ジャンルのうちのいずれかを表わすものであ
る。粗密状態データR2は、フレーズの前半及び後半に
おける音符分布の粗密状態を「同密度」、「粗密」又は
「密粗」のいずれかで表わすもので、「同密度」ならば
前半と後半とで音符数が等しいことを、「粗密」ならば
前半よりも後半の音符数が多いことを、「密粗」ならば
前半よりも後半の音符数が少ないことをそれぞれ表わ
す。シンコペーションデータR3は、フレーズ内でのシ
ンコペーションの有無を表わすものである。総音符数デ
ータR4は、フレーズ内の総音符数(前半の音符数と後
半の音符数との合計)を表わすものである。
【0054】図5は、データベース30Bに記録される
多数のリズムデータRD1〜RDnを示すものである。各
リズムデータは、RD1について代表的に示すようにリ
ズム特徴データRCと、リズムパターンデータRPとを
含んでいる。リズム特徴データRCは、図4(B)に関
して前述したと同様のもので、ジャンルデータR1、粗
密状態データR2、シンコペーションデータR3及び総音
符数データR4を含んでいる。リズムパターンデータR
Pは、フレーズ内の各音符毎に発音タイミング及び消音
タイミングを指示するものである。リズム特徴データR
Cは、リズムパターンデータRPに関してリズム特徴を
表わすもので、一例としてデータR1では「ジャズ」
を、データR2では「密粗」を、データR3では「無」
を、データR4では「9」をそれぞれ表わす。
【0055】データベース30Bから所望のリズムパタ
ーンデータを読出すときは、RD1〜RDnの各リズムデ
ータ毎にリズム特徴データRCと所望のリズム特徴デー
タとを比較し、両者が一致するのに応じて一致に係るリ
ズムデータ中のリズムパターンデータを読出すようにす
ればよい。
【0056】図6は、ユーザ入力に係るフレーズ特徴デ
ータUFのフォーマットを示すものである。フレーズ特
徴データUFは、ユーザ入力のメロディデータに基づい
て作成され、記憶部22Dに記憶される。
【0057】フレーズ特徴データUFは、ジャンルデー
タMJと、調データTDと、フレーズ種類データFS
と、フレーズ長データFLと、ピッチ特徴データPC
と、リズム特徴データRCと、エンドデータFEDとを
含んでいる。データMJ,TD,FS,FL,PC,R
Cは、図3(B)に関して前述したものと同様のもので
あるので、詳細な説明を省略する。ただし、フレーズ種
類FSには、フレーズ番号のみが含まれ、フレーズ記号
(A,A’など)は含まれていない。
【0058】次に、図7を参照して1フレーズ分のメロ
ディの生成過程を説明する。図7(A)は、図4(A)
のピッチ特徴データPCに基づいて作成されたピッチ変
化パターンを示す。
【0059】曲作成に際しては、ユーザが所望の調を指
定する。調の指定に応じて指定調の音階音と図4(A)
のピッチ特徴データPCとを用いて音名型のピッチ特徴
データを作成する。この音名型のピッチ特徴データは、
フレーズ内の各音符毎に指定調の音階音の音名によりピ
ッチを表わすものである。一例としてハ長調を指定した
場合、ハ長調の音階音と図4(A)のピッチ特徴データ
とを用いて音名型のピッチ特徴データを作成する。この
ようにして作成された音名型のピッチ特徴データに基づ
いて音名変化パターンを作成すると、図7(B)の折れ
線NPに示すようになる。
【0060】一方、所望のリズムパターンデータとして
図5のリズムデータRD1中のリズムパターンデータR
Pが読出されたものとする。このリズムパターンデータ
RPに相当するリズムパターンを図7(C)に示す。
【0061】図7(C)に示されるフレーズ内の各音符
毎に前述の音名型のピッチ特徴データ中から発音タイミ
ングで対応する音名データを読出す。これは、図7で説
明すると、図7(C)の各音符毎に図7(B)の音名変
化パターン中から発音タイミングで対応する音名を選択
することに相当する。そして、図7(C)に示されるフ
レーズ内の各音符毎に読出しに係る音名データに基づい
てピッチを決定することにより図7(D)に示すような
1フレーズ分のメロディデータを生成する。図7(D)
のメロディデータのフォーマットは、図3(A)につい
て前述したものと同様にすることができる。
【0062】図8は、メインルーチンの処理の流れを示
すものである。ステップ40では、RAM22に含まれ
る各種レジスタ等を初期設定する。そして、ステップ4
2に移る。
【0063】ステップ42では、登録モードか判定す
る。この判定の結果が肯定的(Y)であればステップ4
4に移る。ステップ44では、曲特徴登録のサブルーチ
ンを実行する。ステップ44の処理は、データベース3
0A中の所望の曲データに基づいて曲特徴データを作成
し、データベース30Aに登録するもので、詳細につい
ては図9を参照して後述する。
【0064】ステップ42の判定結果が否定的(N)で
あったとき又はステップ44の処理が終ったときは、ス
テップ46に移る。ステップ46では、メロディ生成モ
ードか判定する。この判定の結果が肯定的(Y)であれ
ばステップ48に移り、フレーズ特徴分析のサブルーチ
ンを実行する。ステップ48の処理は、ユーザ入力に係
る1フレーズ分のメロディデータに基づいてフレーズ特
徴データを作成し、記憶部22Dに記憶するもので、詳
細については図13を参照して後述する。ステップ48
の後は、ステップ50に移る。
【0065】ステップ50では、曲特徴データ選択のサ
ブルーチンを実行する。ステップ50の処理は、記憶部
22Dのフレーズ特徴データに基づいてデータベース3
0A中から曲作成時に参考とすべき曲特徴データを選択
し、記憶部22Eに記憶するもので、詳細については図
14,15を参照して後述する。ステップ50の後は、
ステップ52に移る。
【0066】ステップ52では、メロディ生成のサブル
ーチンを実行する。ステップ52の処理は、記憶部22
Cのフレーズメロディデータを流用すると共に、記憶部
22E中の所望の曲特徴データに基づいて他のフレーズ
のメロディデータを作成することにより1曲分のメロデ
ィデータを生成し、記憶部22Fに記憶するもので、詳
細については図16を参照して後述する。
【0067】ステップ46の判定結果が否定的(N)で
あったとき又はステップ52の処理が終ったときは、ス
テップ54に移り、その他の処理を行なう。その他の処
理としては、自動演奏モードの検出処理、自動演奏のス
タート/ストップ処理、曲データの編集処理等がある。
【0068】ステップ56では、処理終了か判定する。
この判定の結果が否定的(N)であればステップ42に
戻り、それ以降のステップを上記したと同様に繰返す。
そして、ステップ56の判定結果が肯定的(Y)になっ
たときは処理エンドとする。
【0069】図9は、曲特徴登録のサブルーチンを示す
もので、ステップ60では、データベース30A中に処
理すべき曲データがあるか判定する。この判定の結果が
肯定的(Y)であればステップ62に移る。
【0070】ステップ62では、キーボード36、マウ
ス38等の操作に応じて所望の曲データを指定する。そ
して、データベース30Aから指定に係る曲データを読
出して図3(A)に示すようなフォーマットで記憶部2
2Aに記憶すると共にディスプレイ14に楽譜として表
示する。
【0071】ステップ64では、記憶部22Aに記憶し
た曲データに関してキーボード36、マウス38等の操
作に応じて登録ナンバ、ジャンル及び調を指定する。そ
して、指定に係る登録ナンバ、ジャンル及び調をそれぞ
れ表わす登録ナンバデータRN、ジャンルデータMJ及
び調データTDを図3(B)に示すようなフォーマット
で記憶部22Bに記憶する。
【0072】ステップ66では、ディスプレイ14に表
示された曲データに関してキーボード36、マウス38
等の操作に応じて小節区切り、フレーズ区切り、フレー
ズ種類を指定する。小節区切り及びフレーズ区切りの指
定に応じて各フレーズ毎にフレーズ開始小節及びフレー
ズ長を決定する。そして、決定に係るフレーズ開始小節
を表わすフレーズ開始小節データSTと、決定に係るフ
レーズ長を表わすフレーズ長データFLと、指定に係る
フレーズ種類を表わすフレーズ種類データFSとを各フ
レーズ毎に図3(B)に示すようなフォーマットで記憶
部22Bに記憶する。なお、フレーズ種類データのうち
のフレーズ記号は、区切られた各フレーズの類似関係を
考慮して指定する。
【0073】ステップ68では、ピッチ特徴分析のサブ
ルーチンを実行する。ステップ68の処理は、記憶部2
2Aに記憶した曲データに関してフレーズ毎にメロディ
特徴を分析して図4(A)に示したようなピッチ特徴デ
ータを作成し、記憶部22Bに記憶するもので、詳細に
ついては図10,11を参照して後述する。
【0074】ステップ70では、リズム特徴分析のサブ
ルーチンを実行する。ステップ70の処理は、記憶部2
2Aに記憶した曲データに関してフレーズ毎にリズム特
徴を分析して図4(B)に示したようなリズム特徴デー
タを作成し、記憶部22Bに記憶するもので、詳細につ
いては図12を参照して後述する。
【0075】ステップ72では、図3(B)に示すよう
に記憶部22BにエンドデータCENを記憶する。そし
て、ステップ74では、1曲分の曲特徴データを記憶部
22Bからデータベース30Aに転送し、登録する。
【0076】この後、ステップ60に戻り、処理すべき
曲データがあるか判定する。この判定の結果が肯定的
(Y)であればステップ62以降の処理を次の曲データ
に関して実行する。このようにしてデータベース30A
には複数曲分の曲特徴データを登録することができる。
【0077】最後の曲データについて曲特徴データの登
録が終ったときは、ステップ60の判定結果が否定的
(N)となり、図8のルーチンにリターンする。
【0078】図10,11は、ピッチ特徴分析のサブル
ーチンを示すもので、ステップ80では、記憶部22A
に分析すべきフレーズありか判定する。上記のように記
憶部22Aに所望の曲データを記憶したときは分析すべ
きフレーズがあるので、ステップ80の判定結果は肯定
的(Y)となり、ステップ82に移る。
【0079】ステップ82では、フレーズ内に読出すべ
きデータがあるか判定する。最初は、第1フレーズにつ
いて読出すべきデータがあるか判定する。通常、この判
定の結果は肯定的(Y)となり、ステップ84に移る。
【0080】ステップ84では、記憶部22Aからフレ
ーズ内のデータを読出す。そして、ステップ86に移
り、読出したデータがキーオンデータか判定する。図3
(A)の曲データの場合、第1フレーズの最初のデータ
はタイミングデータTNG1であるので、ステップ86
の判定結果は否定的(N)となり、ステップ82に戻
る。ステップ84でキーオンデータKON1を読出す
と、ステップ86の判定結果が肯定的(Y)となり、ス
テップ88に移る。
【0081】ステップ88では、今回読出したキーオン
データと前回読出したキーオンデータとの間の時間間隔
を両キーオンデータ間のタイミングデータに基づいて求
める。そして、ステップ90に移り、今回読出したキー
オンデータと前回読出したキーオンデータとの間のピッ
チ差を両キーオンデータ中のノートナンバに基づいて求
める。ただし、ステップ84で最初のキーオンデータK
ON1を読出したときは、前回読出したキーオンデータ
が存在しないので、ステップ88,90では、今回読出
したキーオンデータKON1を保存するだけにする。
【0082】次にステップ92では、今回読出したキー
オンデータがフレーズ内で最初のキーオンデータか判定
する。上記のように最初のキーオンデータKON1を読
出したときは、ステップ92の判定結果が肯定的(Y)
となり、ステップ94に移る。
【0083】ステップ94では、図4(A)に示したよ
うに開始音のピッチ及び発音タイミングを表わす開始音
データP11を記憶部22Bに記憶する。そして、ステッ
プ82に戻る。
【0084】ステップ82からステップ86に至る処理
を3回行なうことによりタイミングデータTMG2、キ
ーオフデータKOF1及びタイミングデータTMG3を読
出した後、ステップ84でキーオンデータKON2を読
出すと、ステップ86の判定結果が肯定的(Y)とな
り、ステップ88に移る。
【0085】ステップ88では、キーオンデータKON
1,KON2について前述したように時間間隔を求める。
そして、ステップ90では、キーオンデータKON1
KON2について前述したようにピッチ差を求める。
【0086】次に、ステップ92では、今回読出したキ
ーオンデータKON2が最初のキーオンデータではない
ので、判定結果が否定的(N)となり、ステップ96に
移る。ステップ96では、今回読出したキーオンデータ
がフレーズ内で最後のキーオンデータか判定する。キー
オンデータKON2は最後のキーオンデータではないの
で、ステップ96の判定結果が否定的(N)となり、ス
テップ98に移る。
【0087】ステップ98では、今回読出したキーオン
データ中のノートナンバが前回読出したキーオンデータ
中のノートナンバと同じか判定する。キーオンデータK
ON2を読出したときは、キーオンデータKON1,KO
2についてノートナンバが同じか判定する。この判定
の結果が肯定的(Y)であれがステップ100に移る。
【0088】ステップ100では、ステップ88で求め
た時間間隔と、ステップ90で求めたピッチ差と、水平
データとをそれぞれ図4(A)の時間間隔データP23
ピッチ差データP22、傾きデータP21として記憶部22
Bに記憶する。
【0089】ステップ98の判定結果が否定的(N)で
あったときは、ステップ102に移り、今回読出したキ
ーオンデータ中のノートナンバが前回読出したキーオン
データ中のノートナンバより大か判定する。この判定の
結果が肯定的(Y)であればステップ104に移り、ス
テップ88で求めた時間間隔と、ステップ90で求めた
ピッチ差と、上行データとをそれぞれ図4(A)の時間
間隔データP23、ピッチ差データP22、傾きデータP21
として記憶部22Bに記憶する。
【0090】ステップ102の判定結果が否定的(N)
であったときは、ステップ106に移り、ステップ88
で求めた時間間隔と、ステップ90で求めたピッチ差
と、下行データとをそれぞれ図4(A)の時間間隔デー
タP23、ピッチ差データP22、傾きデータP21として記
憶部22Bに記憶する。
【0091】ステップ100、104又は106が終っ
たときは、ステップ82に戻り、それ以降のステップを
上記したと同様に繰返す。この結果、図4(A)に示し
たように傾きデータP21、ピッチ差データP22及び時間
間隔データP23を含むピッチ変化データP2が次々に記
憶部22Bに記憶される。そして、ステップ84でフレ
ーズ内で最後のキーオンデータを読出したときは、ステ
ップ96の判定結果が肯定的(Y)となり、ステップ1
08に移る。
【0092】ステップ108では、図4(A)に示した
ように終了音のピッチ及び発音タイミングを表わす終了
音データP12を記憶部22Bに記憶する。そして、ステ
ップ98又は102の判定結果に応じてステップ10
0,104又は106のいずれかの処理を行なうことに
より最後のキーオンデータについて傾きデータP21、ピ
ッチ差データP22及び時間間隔データP23を含むピッチ
変化データP2を記憶部22Bに記憶する。この結果、
記憶部22Bには、図3(B)のフレーズF1に関して
図4(A)に示すようなピッチ特徴データPCが記憶さ
れる。
【0093】ステップ100,104,106のいずれ
かの処理が終ると、ステップ82に戻り、フレーズ内に
読出すべきデータありか判定する。最後のキーオンデー
タの後は読出すべきデータが存在しないので、ステップ
82の判定結果は否定的(N)となり、ステップ80に
戻る。
【0094】ステップ80では、分析すべきフレーズあ
りか判定する。フレーズF1の処理が終了した段階であ
り、フレーズF2が分析すべきフレーズとなる。従っ
て、ステップ80の判定結果が肯定的(Y)となり、ス
テップ82以降の処理をフレーズF2に関して実行す
る。この結果、記憶部22Bには、図3(B)のフレー
ズF2に関して図4(A)に示すようなピッチ特徴デー
タPCが記憶される。最終フレーズの処理が終ると、ス
テップ80の判定結果が否定的(N)となり、図9のル
ーチンにリターンする。
【0095】図12は、リズム特徴分析のサブルーチン
を示すもので、ステップ110では、記憶部22Aに分
析すべきフレーズありか判定する。上記のように記憶部
22Aに所望の曲データを記憶したときは分析すべきデ
ータがあるので、ステップ110の判定結果は肯定的
(Y)となり、ステップ112に移る。
【0096】ステップ112では、記憶部22Bからフ
レーズF1のフレーズ長データFLを読出す。そして、
ステップ114に移り、読出したフレーズ長データFL
の示すフレーズ長の1/2のタイミングTMを求める。
【0097】次に、ステップ116では、フレーズ前半
の総音符数N1と、フレーズ後半の総音符数N2とを求め
る。ここで、N1は、記憶部22Aに記憶した曲データ
のうちフレーズF1に属するデータがステップ114で
求めたタイミングTMより前にキーオンデータを何個含
むか計数することにより求めることができ、N2は、記
憶部22Aに記憶した曲データのうちフレーズF1に属
するデータがステップ114で求めたタイミングTM
り後にキーオンデータを何個含むか計数することにより
求めることができる。
【0098】ステップ118では、ステップ116で求
めたN1,N2についてN1=N2か判定する。この判定の
結果が肯定的(Y)であればステップ120に移り、図
4(B)の粗密状態データR2として同密度データを記
憶部22Bに記憶する。
【0099】ステップ118の判定結果が否定的(N)
であったときは、ステップ122に移り、N1>N2か判
定する。この判定の結果が肯定的(Y)であればステッ
プ124に移り、図4(B)の粗密状態データR2とし
て密粗データを記憶部22Bに記憶する。ステップ12
2の判定結果が否定的(N)であればステップ126に
移り、粗密状態データR2として粗密データを記憶部2
2Bに記憶する。
【0100】ステップ120,124,126のいずれ
かの処理が終ったときは、ステップ128に移る。ステ
ップ128では、記憶部22Aに記憶した曲データのう
ちフレーズF1に属するデータについてシンコペーショ
ンを検索し、シンコペーションの有無を図4(B)のシ
ンコペーションデータR3として記憶部22Bに記憶す
る。そして、ステップ130に移る。
【0101】ステップ130では、N1+N2=Nを図4
(B)の総音符数データR4として記憶部22Bに記憶
すると共に、記憶部22BのヘッドデータCHD中から
読出したジャンルデータMJを図4(B)のジャンルデ
ータR1として記憶部22Bに記憶する。
【0102】以上によりフレーズF1の処理が終ったこ
とになり、ステップ110に戻る。そして、フレーズF
2以降の各フレーズ毎に上記したと同様の処理を行な
う。この結果、図3(B)の各フレーズ毎に図4(B)
に示したようなリズム特徴データRCが記憶部22Bに
記憶される。最終フレーズの処理が終ると、ステップ1
10の判定結果が否定的(N)となり、図9のルーチン
にリターンする。
【0103】図13は、フレーズ特徴分析のサブルーチ
ンを示すもので、ステップ140では、作成すべき曲に
ついてキーボード36、マウス38等の操作に応じてジ
ャンル、調、フレーズ長及びフレーズ種類(フレーズ記
号を除く)を指定し、指定に係るジャンル、調、フレー
ズ長及びフレーズ種類をそれぞれ表わすジャンルデータ
MJ、調データTD、フレーズ長データFL及びフレー
ズ種類データFSを図6に示すようなフォーマットで記
憶部22Dに記憶する。
【0104】次に、ステップ142では、フレーズメロ
ディを新規に作成するか判定する。ユーザは、ディスプ
レイ14の画面上でキーボード36、マウス38等によ
りフレーズメロディの入力方式(新規に作成して入力す
るか又はデータベース30A中から選択して入力する
か)を選択することができる。ステップ142の判定結
果が肯定的(Y)であればステップ144に移る。
【0105】ステップ144では、電子楽器12の鍵盤
12Aでのキー操作に応じて又はキーボード36での数
値・文字キー操作に応じて1フレーズ分のメロディデー
タを入力し、記憶部22Cに記憶する。このとき入力さ
れるメロディデータは、ステップ140で指定したフレ
ーズ種類(例えば第1(テーマ)フレーズ)に関するも
のである。
【0106】ステップ142の判定結果が否定的(N)
であったときは、ステップ146に移る。ステップ14
6では、データベース30A中の曲データを1曲分ずつ
ディスプレイ14の画面に表示する。ユーザは、表示さ
れた曲データ中からキーボード36、マウス38等によ
り所望の種類のフレーズのメロディデータを選択する。
このときの選択操作に応じて選択に係る1フレーズ分の
メロディデータを記憶部22Cに記憶する。
【0107】ステップ144,146のいずれかの処理
が終ったときは、ステップ148に移り、ピッチ特徴分
析のサブルーチンを実行する。すなわち、記憶部22C
に記憶したフレーズメロディデータに関して図10,1
1のサブルーチンを前述したと同様に実行することによ
り1フレーズ分のピッチ特徴データPCを作成し、図6
に示すようなフォーマットで記憶部22Dに記憶する。
そして、ステップ150に移る。
【0108】ステップ150では、リズム特徴分析のサ
ブルーチンを実行する。すなわち、記憶部22Cに記憶
したフレーズメロディデータに関して図12のサブルー
チンを前述したと同様に実行することにより1フレーズ
分のリズム特徴データRCを作成し、図6に示すような
フォーマットで記憶部22Dに記憶する。そして、ステ
ップ152に移る。
【0109】ステップ152では、図6に示すようなフ
ォーマットで記憶部22DにエンドデータFEDを記憶
する。そして、図8のルーチンにリターンする。
【0110】図14,15は、曲特徴データ選択のサブ
ルーチンを示すもので、ステップ160では、データベ
ース30A中に処理すべき曲特徴データがあるか判定す
る。予めデータベース30Aに多数曲の曲特徴データを
記録しておくか又は前述したように複数曲の曲特徴デー
タをデータベース30Aに登録しておいたときは、ステ
ップ160の判定結果が肯定的(Y)となり、ステップ
162に移る。
【0111】ステップ162では、データベース30A
から記憶部22Bに1曲分の曲特徴データを読出す。そ
して、ステップ164に移り、読出した曲特徴データが
記憶部22Dのフレーズ特徴データとジャンル及び調が
一致するか判定する。このためには、図3(B)に示す
ような曲特徴データ中のジャンルデータMJ及び調デー
タTDを図5に示すようなフレーズ特徴データ中のジャ
ンルデータMJ及び調データTDとそれぞれ比較し、一
致するか判定すればよい。
【0112】なお、図6のフレーズ特徴データにジャン
ルデータMJと調データTDを含めなかったときは、ス
テップ160の前にステップ158を設け、作成したい
曲のジャンル及び調をステップ158にてキーボード3
6、マウス38等の操作に応じて指定し、ステップ16
4では指定に係るジャンル及び調が曲特徴データ中のジ
ャンルデータMJ及び調データTDの指示するジャンル
及び調とそれぞれ一致するか判定するようにしてもよ
い。
【0113】ステップ164の判定結果が否定的(N)
であったときは、ステップ160に戻る。そして、ステ
ップ162で次の曲特徴データを読出し、ステップ16
4で前回と同様にしてジャンル及び調に関する一致判定
を行なう。
【0114】ステップ164の判定結果が肯定的(Y)
になると、記憶部22Bには記憶部22Dのフレーズ特
徴データとジャンル及び調が一致した曲特徴データが記
憶されていることになり、ステップ166に移る。ステ
ップ166では、記憶部22Bの曲特徴データ中から記
憶部22Dのフレーズ特徴データとフレーズ種類が同一
のフレーズ特徴データを抽出する。例えば、記憶部22
Dのフレーズ特徴データが指示するフレーズ種類が第1
(テーマ)フレーズであり、図3(B)のフレーズF1
のフレーズ種類(フレーズ番号)が第1(テーマ)フレ
ーズであればフレーズF1のフレーズ特徴データを抽出
する。そして、ステップ168に移る。
【0115】ステップ168では、抽出したフレーズ特
徴データと記憶部22Dのフレーズ特徴データとで粗密
状態データ(図4(B)のR2)が一致するか判定す
る。この判定の結果が否定的(N)であればステップ1
60に戻り、それ以降のステップを上記したと同様に行
なう。
【0116】ステップ168の判定結果が肯定的(Y)
であったときは、ステップ170に移る。ステップ17
0では、抽出したフレーズ特徴データと記憶部22Dの
フレーズ特徴データとでピッチ特徴データ(図4
(A))内の全データが一致するか判定する。この判定
の結果が肯定的(Y)であればステップ172に移り、
記憶部22Bの曲特徴データを優先順位1のデータとし
て記憶部22Eに記憶する。
【0117】ステップ170の判定結果が否定的(N)
であったときは、ステップ174に移る。ステップ17
4では、抽出したフレーズ特徴データと記憶部22Dの
フレーズ特徴データとで時間間隔データ(図4(A)の
23)及びピッチ差データ(図4(A)のP22)のいず
れも一致するか判定する。この判定の結果が肯定的
(Y)であればステップ176に移り、記憶部22Bの
曲特徴データを優先順位2のデータとして記憶部22E
に記憶する。
【0118】ステップ174の判定結果が否定的(N)
であったときは、ステップ178に移る。ステップ17
8では、抽出したフレーズ特徴データと記憶部22Dの
フレーズ特徴データとで傾きデータ(図4(A)の
21)が一致するか判定する。この判定の結果が肯定的
(Y)であればステップ180に移り、記憶部22Bの
曲特徴データを優先順位3のデータとして記憶部22E
に記憶する。
【0119】ステップ178の判定結果が否定的(N)
であったとき又はステップ172,176,180のい
ずれかの処理が終ったときは、ステップ160に戻り、
それ以降の処理を上記したと同様に実行する。この結
果、記憶部22Eには、ユーザ入力に係るメロディ特徴
データ(記憶部22Dのフレーズ特徴データ)と一致又
は類似したメロディ特徴を有する複数の曲特徴データが
優先順位を付して記憶されることになる。
【0120】最後の曲特徴データの処理が終ると、ステ
ップ160の判定結果が否定的(N)となり、図8のル
ーチンにリターンする。
【0121】図16は、メロディ生成のサブルーチンを
示すもので、ステップ190では、記憶部22Eから優
先順位に従って複数の曲特徴データを読出し、ディスプ
レイ14に表示する。
【0122】次に、ステップ192では、表示された複
数の曲特徴データのうち所望の曲特徴データをキーボー
ド36、マウス38等の操作に応じて選択する。そし
て、ステップ194に移る。
【0123】ステップ194では、曲作成のサブルーチ
ンを実行する。ステップ194の処理は、ステップ19
2で選択された曲特徴データとユーザ入力に係る記憶部
22Cのフレーズメロディデータとに基づいて1曲分の
メロディデータを生成し、記憶部22Fに記憶するもの
で、詳細については図17,18を参照して後述する。
ステップ194の後は、ステップ196に移る。
【0124】ステップ196では、コード(和音)変更
ありか判定する。この判定の結果が肯定的(Y)であれ
ば、ステップ198に移り、指示されたコード進行に従
って記憶部22F中の曲メロディデータを変更する。記
憶部22Fの曲メロディデータには、図示しないコード
付与処理により曲メロディに適合したコード進行が自動
的に付与される。ステップ196,198の処理は、こ
のようにして付与されたコード進行についてユーザの希
望する部分的な変更を可能にするために行なわれるもの
である。
【0125】ステップ196の判定結果が否定的(N)
であったとき又はステップ198の処理が終ったとき
は、ステップ200に移る。ステップ200では、歌詞
入力ありか判定する。この判定の結果が肯定的(Y)で
あればステップ202に移る。ステップ202では、入
力された歌詞データに従って記憶部22Fの曲メロディ
データの音節数合せを実施する。
【0126】ステップ200の判定結果が否定的(N)
であったとき又はステップ202の処理が終ったとき
は、ステップ204に移る。ステップ204では、記憶
部22Fの曲メロディデータについて不自然なメロディ
を訂正する。そして、図8のルーチンにリターンする。
【0127】図17,18は、曲作成のサブルーチンを
示すもので、ステップ210では、ステップ192で選
択された曲特徴データ中から最初のフレーズ特徴データ
を抽出する。そして、ステップ212に移る。
【0128】ステップ212では、抽出したフレーズ特
徴データが前回迄の抽出データのいずれかとフレーズ種
類のうちのフレーズ記号が一致するか判定する。最初の
フレーズ特徴データについては前回迄の抽出データが存
在しないので、ステップ212の判定結果が否定的
(N)となり、ステップ214に移る。
【0129】ステップ214では、抽出したフレーズ特
徴データが記憶部22Dのフレーズ特徴データとフレー
ズ種類のうちのフレーズ記号が一致するか判定する。一
例として、ユーザが第1(テーマ)フレーズのメロディ
データを入力した場合、記憶部22Dには、図13の処
理により第1(テーマ)フレーズのフレーズ特徴データ
が記憶されている。また、ステップ210で抽出した最
初のフレーズ特徴データのフレーズ種類が第1(テー
マ)フレーズであるとする。このような例では、ステッ
プ214の判定結果が肯定的(Y)となり、ステップ2
16に移る。
【0130】ステップ216では、記憶部22Cのフレ
ーズメロディデータを読出す。上記例のように第1(テ
ーマ)フレーズのメロディデータを入力した場合は、記
憶部22Cから第1(テーマ)フレーズのフレーズメロ
ディデータを読出す。ステップ216の後は、ステップ
218に移る。
【0131】ステップ218では、記憶部22Fにフレ
ーズ種類データと共にフレーズメロディデータを記憶す
る。フレーズ種類データを記憶するのは、フレーズ種類
を指定することで、指定に係るフレーズ種類を有するフ
レーズメロディデータを読出可能にするためである。上
記例のように記憶部22Cから第1(テーマ)フレーズ
のフレーズメロディデータを読出したときは、第1(テ
ーマ)フレーズを指示するフレーズ種類データと共に読
出しに係るフレーズメロディデータを記憶部22Fに記
憶する。これは、図1(C)に示したように曲の第1
(テーマ)フレーズのデータとしてユーザ入力に係るフ
レーズメロディデータUF11を流用することに対応す
る。ステップ218の後は、ステップ220に移る。
【0132】ステップ220では、ステップ192で選
択された曲特徴データ中に次のフレーズ特徴データがあ
るか判定する。通常、この判定の結果は肯定的(Y)と
なり、ステップ210に戻る。ステップ210では、2
番目のフレーズ特徴データを抽出する。そして、ステッ
プ212に移る。
【0133】最初のフレーズ特徴データのフレーズ記号
がAであり、抽出した2番目のフレーズ特徴データのフ
レーズ記号がBであるとする。このような例では、ステ
ップ212の判定結果が否定的(N)となり、ステップ
214に移る。
【0134】上記例のように記憶部22Dのフレーズ特
徴データのフレーズ番号が第1(テーマ)フレーズであ
ると共に抽出した2番目のフレーズ特徴データのフレー
ズ番号が第2フレーズであるとすると、ステップ214
の判定結果が否定的(N)となり、ステップ222に移
る。
【0135】ステップ222では、抽出した2番目のフ
レーズ特徴データ中のリズム特徴データ(図4(B))
に基づいてデータベース30Bからリズムパターンデー
タを読出してディスプレイ14に表示する。すなわち、
図5に示したような各リズムデータ毎にその中のリズム
特徴データと抽出したフレーズ特徴データ中のリズム特
徴データとを比較し、両者が一致するのに応じて一致に
係るリズムデータ中のリズムパターンデータを読出して
表示する。そして、ステップ224に移る。
【0136】ステップ224では、表示したリズムパタ
ーンデータを使うか判定する。ユーザは、表示されたリ
ズムパターンデータについてキーボード36、マウス3
8等により使用するか否か意思表示することができる。
ステップ224の判定結果が否定的(N)であったとき
はステップ222に戻り、前回と同様にしてデータベー
ス30Bから他のリズムパターンデータを読出して表示
する。このような読出し及び表示処理は、ステップ22
4の判定結果が肯定的(Y)になるまで行なわれる。
【0137】ステップ224の判定結果が肯定的(Y)
になると、所定のリズムパターンデータが選択されたこ
とになる。リズムパターンデータの選択は、抽出したフ
レーズ特徴データ中のリズム特徴データとリズム特徴が
一致する複数のリズムパターンデータを表示し、そのう
ちの1つを選択する方式で行なうようにしてもよい。ま
た、リズムパターンは、自動的に選択されるようにして
もよい。
【0138】次に、ステップ226では、ステップ19
2で選択された曲特徴データ中の調データ(図3(B)
のTDに対応)と、抽出したフレーズ特徴データ中のピ
ッチ特徴データ(図3(B)のPCに対応)と、ステッ
プ224で選択されたリズムパターンデータ(図5のR
Pに対応)とに基づいて図7で述べたようにしてフレー
ズメロディデータを作成する。上記例のように第2フレ
ーズのフレーズ特徴データを抽出したときは、第2フレ
ーズのメロディデータを作成する。これは、図1(C)
に示したように第2フレーズのデータとしてフレーズメ
ロディデータF12を作成することに対応する。ステップ
226の後は、ステップ218に移る。
【0139】ステップ218では、ステップ226で作
成されたフレーズメロディデータをフレーズ種類データ
と共に記憶部22Fに記憶する。
【0140】この後、ステップ220を介してステップ
210に戻り、3番目のフレーズ特徴データを抽出す
る。この3番目のフレーズ特徴データのフレーズ記号が
Aであり、前回迄に抽出したフレーズ特徴データのフレ
ーズ記号の中にAが含まれているとすると、ステップ2
12の判定結果が肯定的(Y)となり、ステップ228
に移る。
【0141】ステップ228では、一致に係るフレーズ
種類を有するフレーズメロディデータを記憶部22Fか
ら読出す。そして、ステップ230に移り、メロディ変
更ありか判定する。この判定結果が肯定的(Y)であれ
ばステップ232に移り、メロディ変更の指示に従って
読出しに係るフレーズメロディデータを変更する。ステ
ップ230,232の処理は、ユーザの希望する部分的
なメロディ変更を可能にするために行なわれるものであ
る。このような処理によれば、図1(D)に示したよう
に第3フレーズのメロディデータF13の一部を変更して
第3’フレーズとすることができる。
【0142】ステップ230の判定結果が否定的(N)
であったとき又はステップ232の処理が終ったとき
は、ステップ218に移る。ステップ218では、ステ
ップ228で記憶部22Fから読出したフレーズメロデ
ィデータ又はこのフレーズメロディデータにステップ2
32で変更を加えて得られたフレーズメロディデータを
フレーズ種類データと共に記憶部22Fに記憶する。
【0143】この後は、ステップ220を介してステッ
プ210に戻り、それ以降の処理を上記したと同様に実
行する。この結果、記憶部22Fに記憶された第1、第
2、第3等のフレーズに関するメロディデータをつなぎ
合わせることにより図1(C)又は図1(D)に示した
ように1曲分のメロディデータを生成することができ
る。
【0144】最後のフレーズ特徴データの処理が終る
と、ステップ220の判定結果が否定的(N)となり、
図16のルーチンにリターンする。
【0145】図17,18のサブルーチンにあっては、
ステップ216の後、破線で示すようにステップ230
に移るようにしてもよい。このようにすると、例えば図
1(D)に示したように第2フレーズのメロディデータ
UF12を流用するときにデータUF12の一部を変更して
第2’フレーズとすることができる。
【0146】図19は、この発明の他の実施形態に係る
作曲処理を示すものである。データベース240には、
複数曲にそれぞれ対応した複数の曲生成データK1,K2
…Knが記憶されており、各曲生成データは、データK1
について代表的に示すように参照特徴データKaと、こ
のデータKaに付随したメロディ生成データKbとを含ん
でいる。
【0147】各参照特徴データは、作成すべき曲の一部
区間(例えば第1フレーズ)のメロディ特徴を表わすも
ので、一例として図3(B)でフレーズF1について前
述したフレーズ特徴データと同様の構成にすることがで
きる。各メロディ生成データは、作成すべき曲のメロデ
ィを生成するために使用されるもので、メロディ生成用
メロディ特徴データ及びメロディ生成用メロディデータ
のうちいずれか一方又は双方を用いることができる。
【0148】ステップ242では、ユーザが所望のメロ
ディデータを入力する。このとき入力するメロディデー
タは、作成すべき曲の一部区間(例えば第1フレーズ)
に関するものとする。メロディデータを入力する際に、
メロディデータを入力する区間をユーザが任意に指定可
能としてもよい。
【0149】ステップ244では、入力に係るメロディ
データに関してメロディ特徴を分析し、そのメロディ特
徴を表わす特徴データを作成する。ステップ244の特
徴分析は、図10〜12に関して前述したのと同様に行
なうことができ、特徴データは、図6でフレーズUFに
ついて前述したフレーズ特徴データと同様の構成にする
ことができる。
【0150】ステップ246では、ステップ244で作
成された特徴データをデータベース240内の各参照特
徴データと比較し、作成に係る特徴データとメロディ特
徴が一致又は類似した1又は複数の参照特徴データを検
出する。複数の参照特徴データが検出された場合は、い
ずれか1つをランダムに自動選択するか又はすべてをユ
ーザに提示してユーザに所望の1つを選択させるように
すればよい。また、類似に係る複数の参照特徴データが
検出された場合は、各々の参照特徴データに優先順位
(例えば入力メロディと音数が一致するものを最優先さ
せるなど)をつけてユーザに提示し、ユーザが所望の1
つを選択するようにしてもよい。
【0151】ステップ246において一致に係る1つの
参照特徴データが検出又は選択されたときは、ステップ
248において該参照特徴データに付随したメロディ生
成データをデータベース240から抽出する(選択して
読出す)。ステップ250では、抽出したメロディ生成
データに基づいて残区間のメロディデータを生成する。
ここで、残区間とは、作成すべき曲において一部区間
(ユーザがメロディデータを入力した区間)以外の区間
である。ステップ250の残区間メロディ生成処理とし
ては、図20〜22を参照して後述するものを用いるこ
とができる。
【0152】ステップ252では、ステップ242でユ
ーザが入力した一部区間のメロディデータとステップ2
50で生成した残区間のメロディデータとを結合して1
曲分のメロディデータを生成する。
【0153】ステップ246において類似に係る1つの
参照特徴データが検出又は選択されたときは、ステップ
254において該参照特徴データに付随したメロディ生
成データをデータベース240から抽出する。
【0154】ステップ256では、ステップ246での
比較に係る特徴データ及び参照特徴データに基づいてメ
ロディ特徴の不一致状態に対応した不一致情報を検出す
る。不一致情報としては、例えば参照特徴データの方が
ステップ244で作成された特徴データに比べて音高が
2度低いことを表わす情報等が検出される。
【0155】ステップ258では、ステップ254で抽
出されたメロディ生成データをステップ256で検出さ
れた不一致情報に応じて修正する。例えば、検出に係る
不一致情報が参照特徴データの音高が2度低いことを表
わすときは、抽出に係るメロディ生成データの音高を2
度高くするように修正を行なう。
【0156】ステップ250では、ステップ258で修
正されたメロディ生成データに基づいて残区間のメロデ
ィデータを生成する。そして、ステップ252では、ス
テップ242でユーザが入力した一部区間のメロディデ
ータとステップ250で生成した残区間のメロディデー
タとを結合して1曲分のメロディデータを生成する。
【0157】ステップ250の残区間メロディ生成処理
においては、抽出又は修正されたメロディ生成データの
他に、ステップ242で入力されたメロディデータも参
照してメロディ生成を行なってもよい。このようにする
と、入力したメロディにより近いメロディを生成するこ
とができる。このような処理の一例は、図23を参照し
て後述する。
【0158】ステップ258で不一致情報に応じてメロ
ディ生成データを修正する代りに、ステップ260で不
一致情報に応じて残区間のメロディデータを修正するよ
うにしてもよい。すなわち、ステップ250では、ステ
ップ254により抽出されたメロディ生成データに基づ
いて残区間のメロディデータを生成し、ステップ260
では、生成された残区間のメロディデータを不一致情報
に応じて修正する。
【0159】図19の作曲処理によれば、ユーザが所望
のメロディを入力することにより例えば第1フレーズ等
の所定の区間に所望のメロディを含む1曲分のメロディ
を簡単に生成することができる。入力したメロディとメ
ロディ特徴が一致又は類似したメロディ生成データに基
づいてメロディを生成し、しかも類似に係るメロディ生
成データ又は類似に係る生成メロディを不一致情報に応
じて修正するので、生成されるメロディは、入力に係る
メロディに相応しいものとなる。メロディ生成データと
して音楽的に起伏に富んだ曲(例えば既存の完成された
曲)に対応するものを記憶しておくことにより起伏に富
んだ音楽的な1曲分のメロディを生成することができ
る。
【0160】図20は、メロディ生成データがメロディ
生成用メロディ特徴データからなる場合に図19のステ
ップ250で用いられる残区間メロディ生成処理を示す
ものである。図20では、1楽節分の処理を示し、メロ
ディ生成用メロディ特徴データは、一例として調、拍
子、小節数及び音域を指示するものとする。
【0161】ステップ262では、ランダム発生器を用
いて音高及び音長をランダムに発生させる。そして、ス
テップ264に移り、発生に係る音高が、与えられた調
の音階音であるか判定する。与えられた調とは、メロデ
ィ特徴データが指示する調であり、例えばC長調であ
る。
【0162】ステップ264の判定結果が否定的(N)
であればステップ262に戻り、再び音高を発生する。
ステップ264の判定結果が肯定的(Y)になると、ス
テップ266に移る。
【0163】ステップ266では、発生に係る音高が、
与えられた音域内にあるか判定する。与えられた音域と
は、メロディ特徴データが指示する音域である。
【0164】ステップ266の判定結果が否定的(N)
であればステップ262に戻り、ステップ264,26
6を繰返す。ステップ266の判定結果が肯定的(Y)
になると、ステップ268に移る。
【0165】ステップ268では、発生に係る音高をメ
ロディ音として採用する。このメロディ音は、ステップ
264,266を経由したことにより与えられた調の音
階音であり且つ与えられた音域内に存在するものであ
る。メロディ音の音長は、ステップ262で発生された
音長とする。
【0166】次に、ステップ270では、メロディ音の
音長をその直前までのメロディ音の音長の合計に加算す
る。楽節内で最初のメロディ音についてはその直前の音
長が存在しないので、最初のメロディ音の音長を次回の
加算のために保存する。ステップ270の後、ステップ
272に移る。
【0167】ステップ272では、ステップ270で求
めた音長の合計が「1小節当りの拍数×楽節の小節数」
になったか判定する。一例として、1小節当りの拍数が
4(4拍子)であり、楽節の小節数が4であるとする
と、4×4=16拍となる。最初のメロディ音について
はステップ272の判定結果が否定的(N)となり、ス
テップ262に戻る。そして、ステップ262以降の処
理を楽節内で2番目のメロディ音について実行する。こ
のような処理を繰返すことによりステップ272での音
長の合計が16拍に達すると、ステップ272の判定結
果が肯定的(Y)となり、処理エンドとなる。
【0168】この後は、楽節毎に上記のような処理を繰
返す。そして、最終楽節の処理が終ると、1曲分のメロ
ディデータが得られる。このような処理において、メロ
ディ特徴データは、楽節毎に記憶してもよいし、1曲の
全楽節に共通に記憶してもよい。また、生成されるメロ
ディが音楽的に好ましいものとなるようにメロディ音と
しては音楽ルールを満たす音のみ採用するようにしても
よい。
【0169】図20に関して上記した処理によれば、メ
ロディ特徴データが持つ音楽的特徴を反映したメロディ
を簡単に生成することができる。
【0170】図21は、メロディ生成データがメロディ
生成用メロディデータからなる場合に図19のステップ
250で用いられる残区間メロディ生成処理を示すもの
である。メロディ生成用メロディデータは、複数の楽節
のメロディを表わすものとする。
【0171】ステップ274では、メロディデータに関
してメロディ変更区間指定処理を行なう。例えば、図2
において、ディスプレイ14の画面上にメロディデータ
を表示し、ユーザにキーボード36、マウス38等によ
りメロディ変更区間(メロディを変更したい区間)を指
定させる。
【0172】次に、ステップ276では、指定に係るメ
ロディ変更区間についてメロディ変更処理を行なう。メ
ロディ変更処理としては、(イ)メロディの反転、
(ロ)メロディの逆読み、(ハ)発音タイミングの変
更、(ニ)時間軸上での圧縮又は伸張、(ホ)音高軸上
での圧縮又は伸張、(ヘ)一部音高の差し替え、(ト)
音高変化傾向を保存した状態での音高の差し替えなどが
ある。メロディ反転の一例を示すとCDEGのメロディ
が与えられた場合、Dを中心に反転することによりED
CAのメロディに変更される。
【0173】図21の処理によれば、メロディデータが
持つ音楽的雰囲気を反映したメロディを簡単に生成する
ことができる。
【0174】図22は、メロディ生成データがメロディ
生成用メロディデータ及びメロディ生成用メロディ特徴
データからなる場合に図19のステップ250で用いら
れる残区間メロディ生成処理を示すものである。メロデ
ィ生成用メロディデータは、複数の楽節のメロディを表
わすものとし、メロディ生成用メロディ特徴データは、
「メロディ変更後に最初と最後の音をコード構成音にす
る」旨指示するものとする。
【0175】図22のステップ274,276は、図2
1のステップ274,276とそれぞれ同様の処理であ
り、簡単のため説明を省略する。上記例で示したように
メロディ反転によりCDEGのメロディをEDCAのメ
ロディに変更した場合、CDEGはコードCメジャーの
感覚であるのに対し、EDCAはコードAマイナーの感
覚になってしまい、コード感覚が異常となる不都合があ
る。
【0176】このような不都合をなくし、音楽性を高め
るために付加されたのが、前述のメロディ特徴データと
ステップ278である。すなわち、ステップ278で
は、変更後のメロディをメロディ特徴データに応じて修
正することによりコード感覚の正常化を図っている。前
述例のようにステップ276でEDCAのメロディに変
更された場合には、メロディ特徴データの指示に従って
最後の音AをコードCメジャーの構成音であり且つAに
最も近い音であるGに変更することによりEDCGのメ
ロディを得ている。
【0177】図22の処理によれば、メロディデータが
持つ音楽的雰囲気とメロディ特徴データが持つ音楽的特
徴とを反映したメロディを簡単に生成することができ
る。
【0178】図23は、メロディ生成データの他に入力
メロディデータを利用する場合に図19のステップ25
0で用いられる残区間メロディ生成処理を示すものであ
る。この場合、作成すべき曲の楽節構成が、A,A’,
B,A,であり、ユーザが先頭の第1楽節Aのメロディ
データを入力するものとする。図23の処理は、ユーザ
が第1楽節Aのメロディデータを入力完了するのに応じ
てスタートする。
【0179】ステップ280では、次の区間が楽節Aか
判定する。次の区間は楽節A’であるので、ステップ2
80の判定結果は否定的(N)となり、ステップ282
に移る。ステップ282では、次の区間が楽節A’であ
るか判定する。この判定の結果は肯定的(Y)となり、
ステップ284に移る。
【0180】ステップ284では、入力に係る楽節Aの
メロディデータを参照して該メロディデータとメロディ
が類似した楽節A’のメロディデータを生成する。類似
したメロディデータを生成する方法としては、(イ)楽
節A’の前半のメロディを楽節Aの前半のメロディと同
一又は類似とすると共に楽節A’の後半のメロディを新
規に生成する方法、(ロ)楽節A’の前半のメロディを
新規に生成すると共に楽節A’の後半のメロディを楽節
Aの後半のメロディと同一又は類似とする方法、(ハ)
楽節Aのメロディに音高シフト処理を施して楽節A’の
メロディとする方法等を用いることができる。ステップ
284の後は、ステップ286に移る。
【0181】ステップ286では、メロディ生成に係る
区間が最後の区間か判定する。楽節A’は最後の区間で
はないので、ステップ286の判定結果は否定的(N)
となり、ステップ280に戻る。
【0182】ステップ280では、次の区間が楽節Aか
判定する。次の区間は楽節Bであるので、ステップ28
0の判定結果は否定的(N)となり、ステップ282に
移る。ステップ282では、次の区間が楽節A’か判定
する。この判定結果は否定的(N)となり、ステップ2
88に移る。
【0183】ステップ288では、入力に係る楽節Aの
メロディデータを参照して該メロディデータとメロディ
が対比する(類似しない)楽節Bのメロディデータを生
成する。対比するメロディデータを生成する方法として
は、(イ)楽節Aのメロディに前述したメロディ反転処
理を施して楽節Bのメロディを生成する方法、(ロ)楽
節Aのメロディに関してリズムの粗密を変更する(例え
ば楽節Aの前半及び後半で音符分布がそれぞれ粗及び密
であれば密及び粗に変更する)ことにより楽節Bのメロ
ディを生成する方法等を用いることができる。ステップ
288の後は、ステップ286に移る。
【0184】ステップ286では、メロディ生成に係る
区間が最後の区間か判定する。楽節Bは最後の区間では
ないので、ステップ286の判定結果は否定的(N)と
なり、ステップ280に戻る。
【0185】ステップ280では、次の区間が楽節Aか
判定する。次の区間は楽節Aであるので、ステップ28
0の判定結果は肯定的(Y)となり、ステップ290に
移る。
【0186】ステップ290では、入力に係る楽節Aの
メロディデータを最後の楽節Aのメロディデータとして
採用する。そして、ステップ286で最後の区間か判定
すると、判定結果が肯定的(Y)となり、処理エンドと
する。
【0187】図23の処理において、ステップ284で
は、楽節A’の前半又は後半のメロディを新規に生成す
る際にメロディ生成データ(メロディ生成用メロディ特
徴データ又はメロディ生成用メロディデータ)を用いて
もよいし、ステップ288で述べたような入力メロディ
を利用する方法を用いてもよい。また、ステップ288
では、入力メロディを利用する方法の代りに、メロディ
生成データを用いて楽節Bのメロディを生成するように
してもよい。いずれにしても、ステップ284及び28
8のうち少なくとも一方のステップでは、メロディ生成
データを用いるようにする。
【0188】図23の処理にあっては、例えば楽節
A’’のように「’」の数が2以上の楽節のメロディを
生成するようにしてもよい。この場合、「’」の数が1
つの場合とは異なる類似ルールに従ってメロディを生成
する。また、楽節C,D等のメロディを生成するように
してもよい。この場合、楽節Bの場合とは異なる対比ル
ールに従ってメロディを生成する。
【0189】図23に関して上記した処理によれば、ユ
ーザが入力した楽節Aのメロディデータを用いると共に
メロディ生成データを用いることによりA,A’,B,
Aのような楽節構成を有する1曲分のメロディデータを
生成することができる。生成される1曲分のメロディに
は、入力に係る楽節Aのメロディが含まれると共に、メ
ロディ生成データが持つ音楽的特徴又は音楽的雰囲気が
反映される。
【0190】図24は、この発明の更に他の実施形態に
係る作曲処理を示すものである。データベース300に
は、複数曲にそれぞれ対応した複数の曲生成データ
1,S2…Snが記憶されており、各曲生成データは、
データS1について代表的に示すように参照メロディデ
ータSaと、このデータSaに付随したメロディ生成デー
タSbとを含んでいる。
【0191】各参照メロディデータは、作成すべき曲の
一部区間(例えば第1フレーズ)のメロディを表わすも
ので、例えば1音毎に音高及び音長を表わすデータによ
り構成される。
【0192】各メロディ生成データは、作成すべき曲の
メロディを生成するために使用されるもので、図20〜
22に関して前述したようにメロディ生成用メロディ特
徴データ及びメロディ生成用メロディデータのうちいず
れか一方又は双方を用いることができる。
【0193】ステップ302では、ユーザが所望のメロ
ディデータを入力する。このとき入力するメロディデー
タは、作成すべき曲の一部区間(例えば第1フレーズ)
に関するものとする。メロディデータを入力する際に、
メロディデータを入力する区間をユーザが任意に指定可
能としてもよい。
【0194】ステップ304では、入力に係るメロディ
データをデータベース300内の各参照メロディデータ
と比較し、入力に係るメロディデータとメロディが一致
又は類似した1又は複数の参照メロディデータを検出す
る。複数の参照メロディデータが検出された場合は、い
ずれか1つをランダムに自動選択するか又はすべてをユ
ーザに提示してユーザに所望の1つを選択させるように
すればよい。また、類似に係る複数の参照メロディデー
タが検出された場合は、各々の参照メロディデータに優
先順位(例えば入力メロディと音数が一致するものを最
優先させるなど)をつけてユーザに提示し、ユーザが所
望の1つを選択するようにしてもよい。
【0195】ステップ304において一致に係る1つの
参照特徴データが検出又は選択されたときは、ステップ
306において該参照メロディデータに付随したメロデ
ィ生成データをデータベース300から抽出する(選択
して読出す)。ステップ308では、抽出したメロディ
生成データに基づいて残区間のメロディデータを生成す
る。ここで、残区間とは、作成すべき曲において一部区
間(ユーザがメロディデータを入力した区間)以外の区
間である。ステップ308の残区間メロディ生成処理と
しては、図20〜22を参照して前述したものを用いる
ことができる。
【0196】ステップ310では、ステップ302でユ
ーザが入力した一部区間のメロディデータとステップ3
08で生成した残区間のメロディデータとを結合して1
曲分のメロディデータを生成する。
【0197】ステップ304において類似に係る1つの
参照メロディデータが検出又は選択されたときは、ステ
ップ312において該参照メロディデータに付随したメ
ロディ生成データをデータベース300から抽出する。
【0198】ステップ314では、ステップ304での
比較に係る入力メロディデータ及び参照メロディデータ
に基づいてメロディの不一致状態に対応した不一致情報
を検出する。不一致情報としては、例えば参照メロディ
データの方が入力メロディデータに比べて音高が2度低
いことを表わす情報等が検出される。
【0199】ステップ316では、ステップ312で抽
出されたメロディ生成データをステップ314で検出さ
れた不一致情報に応じて修正する。例えば、検出に係る
不一致情報が参照メロディデータの音高が2度低いこと
を表わすときは、抽出に係るメロディ生成データの音高
を2度高くするように修正を行なう。
【0200】ステップ308では、ステップ316で修
正されたメロディ生成データに基づいて残区間のメロデ
ィデータを生成する。そして、ステップ310では、ス
テップ302でユーザが入力した一部区間のメロディデ
ータとステップ308で生成した残区間のメロディデー
タとを結合して1曲分のメロディデータを生成する。
【0201】ステップ308の残区間メロディ生成処理
においては、抽出又は修正されたメロディ生成データの
他に、ステップ302で入力されたメロディデータも参
照してメロディ生成を行なってもよい。このようにする
と、入力したメロディにより近いメロディを生成するこ
とができる。このような処理としては、図23を参照し
て前述したものを用いることができる。
【0202】ステップ316で不一致情報に応じてメロ
ディ生成データを修正する代りに、ステップ318で不
一致情報に応じて残区間のメロディデータを修正するよ
うにしてもよい。すなわち、ステップ308では、ステ
ップ312により抽出されたメロディ生成データに基づ
いて残区間のメロディデータを生成し、ステップ318
では、生成された残区間のメロディデータを不一致情報
に応じて修正する。
【0203】図24の作曲処理によれば、ユーザが所望
のメロディを入力することにより例えば第1フレーズ等
の所定の区間に所望のメロディを含む1曲分のメロディ
を簡単に生成することができる。入力したメロディデー
タとメロディが一致又は類似したメロディ生成データに
基づいてメロディを生成し、しかも類似に係るメロディ
生成データ又は類似に係る生成メロディを不一致情報に
応じて修正するので、生成されるメロディは、入力に係
るメロディに相応しいものとなる。メロディ生成データ
として音楽的に起伏に富んだ曲(例えば既存の完成され
た曲)に対応するものを記憶しておくことにより起伏に
富んだ音楽的な1曲分のメロディを生成することができ
る。また、ステップ304において、入力したメロディ
データと参照メロディデータとを直接比較するので、メ
ロディ特徴を比較する場合に比べて入力メロディにより
近いメロディを生成することができる。
【0204】図25は、図24の作曲処理において用い
られる比較及び不一致情報検出処理の一例を示すもので
ある。
【0205】ステップ320では、ユーザ入力に係るメ
ロディデータ(入力メロディデータ)と最初の参照メロ
ディデータとを比較用のレジスタ(図示せず)にロード
する。そして、ステップ322に移り、入力メロディデ
ータと参照メロディデータとを比較し、音数が「同
じ」、「入力メロディの方が多い」及び参照メロディの
方が多い」のいずれに該当するか判定する。
【0206】ステップ322で「同じ」と判定された場
合は、ステップ324に移る。ステップ324では、入
力メロディデータと参照メロディデータとに基づいて、
(1)入力メロディと参照メロディの対応する音同士の
音高差e、(2)入力メロディの音高変化傾向f、
(3)参照メロディの音高変化傾向g及び(4)入力メ
ロディと参照メロディの対応する音同士のタイミング差
hを求める。
【0207】ここで、入力メロディの順次の音高からな
る音高列aと、参照メロディの順次の音高からなる音高
列bと、入力メロディの順次のタイミングからなるタイ
ミング列cと、参照メロディの順次のタイミングからな
るタイミング列dとを、 列a:a1、a2…a(n−1)、an 列b:b1、b2…b(n−1)、bn 列c:c1、c2…c(n−1)、cn 列d:d1、d2…d(n−1)、dn のように表わすものとすると、音高差e、音高変化傾向
f,g及びタイミング差hは、次の表1に示すような算
出式で求められる。
【0208】
【表1】 次に、ステップ326では、求めたe,f,g,hに基
づいて入力するメロディと参照メロディとが一致又は類
似するか判定する。そして、ステップ328では、ステ
ップ326の判定結果が一致又は類似であるか判定す
る。
【0209】ステップ328の判定結果が肯定的(Y)
であったときは、ステップ330に移る。ステップ33
0では、ステップ324での判定結果が類似である場合
に限り、入力メロディと参照メロディとの不一致状態
(類似状態)に対応した不一致情報を検出する。
【0210】ステップ328の判定結果が否定的(N)
であったときは、ステップ332に移り、比較に係る参
照メロディデータを不使用とする。
【0211】ステップ330又は332の処理が終った
ときは、ステップ334に移り、全参照メロディデータ
の検査が終了したか判定する。この判定の結果が否定的
(N)であれば、ステップ336で次の参照メロディデ
ータをロードしてからステップ322に戻る。
【0212】ステップ322で「入力メロディの方が多
い」と判定された場合は、ステップ338に移る。ステ
ップ338では、多い分だけ入力メロディの音数を減ら
し、入力メロディと参照メロディとで音数を同じにす
る。そして、ステップ340に移る。
【0213】ステップ340では、一致・類似判定処理
を行なう。この処理は、前述のステップ324,326
を含む処理Pと同様に行なう。そして、ステップ342
に移り、ステップ340での判定結果が一致又は類似で
あるか判定する。
【0214】ステップ342の判定結果が肯定的(Y)
であったときは、ステップ344に移り、今回の比較結
果を類似とする。この場合、入力メロディの音数を減ら
して比較を行なっているので、ステップ340の判定結
果が一致であるとしても、比較結果は類似とされる。こ
の後、ステップ346では、入力メロディと参照メロデ
ィとの不一致状態(類似状態)に対応した不一致情報を
検出する。
【0215】ステップ342の判定結果が否定的(N)
であったときは、ステップ348に移る。ステップ34
8では入力メロディに関して減らしてない音がまだある
か判定する。一例として、入力メロディ音がm1〜m6
の6音であった場合、ステップ338でm6を減らした
後初めてステップ348に来たときは、減らしてない音
としてm1〜m5が存在することになる。ステップ34
8の後は、ステップ350に移る。
【0216】ステップ350では、減らす音を変更す
る。上記したように減らしてない音としてm1〜m5が
存在する例では、例えばm5を減らす。そして、ステッ
プ340に戻り、ステップ340以降の処理を上記した
と同様に実行する。
【0217】この後、再びステップ348に来て、減ら
してない音があるものとするとステップ350で減らす
音を変更する。上記のようにm5を減らした例では、例
えばm4を減らしてステップ340に戻る。この例で
は、この後ステップ348,350を3回通ると、m1
〜m3が減らされることになる。
【0218】この後、ステップ348に来ると、入力メ
ロディでは減らす音がもうないので、ステップ348の
判定結果が否定的(N)となり、ステップ352に移
る。ステップ352では、比較に係る参照メロディデー
タを不使用とする。
【0219】ステップ346又は352の処理が終った
ときは、ステップ334に移り、全参照メロディデータ
の検査終了か判定する。この判定の結果が否定的(N)
であれば、ステップ336で次の参照メロディデータを
ロードしてからステップ322に戻る。
【0220】ステップ322で「参照メロディの方が多
い}と判定されたときは、ステップ354に移る。ステ
ップ354では、多い分だけ参照メロディの音を減らし
て一致・類似判定音変更処理を行なう。この処理は、前
述のステップ340〜352を含む処理Qと同様に行な
う。
【0221】ステップ354の処理が終ったときは、ス
テップ334に移り、全参照メロディデータの検査終了
か判定する。この判定の結果が否定的(N)であれば、
ステップ336で次の参照メロディデータをロードして
からステップ322に戻る。
【0222】上記した処理を何回か実行することにより
データベース300内の全参照メロディデータの検査が
終了すると、ステップ334の判定結果が肯定的(Y)
となり、処理エンドとする。
【0223】図26は、図25の処理において比較され
る入力メロディ及び参照メロディをグラフ形式で示すも
のであり、横軸はタイミングを、縦軸は音高をそれぞれ
示す。
【0224】図26において、四角印は、入力メロディ
Mの構成音を示し、丸印は、参照メロディR1の構成音
を示し、三角印は、参照メロディR2の構成音を示す。
入力メロディMと参照メロディR1又はR2とを比較
し、前掲の表1に示した式に従って音高差e、音高変化
傾向f,g及びタイミング差hを求め、求めたe,f,
g,hに基づいてタイミングや音高について一致又は類
似を判定する。
【0225】タイミング判定では、比較に係る入力メロ
ディと参照メロディとでタイミング差hがすべてゼロで
あれば一致とする。複数のタイミングのうち一部のタイ
ミングでのみタイミング差hがあるときは、類似とし、
殆ど又は全タイミングでタイミング差hがあるときは、
一致にも類似にもしない。図26の例では、参照メロデ
ィR1,R2のいずれも、入力メロディMと全タイミン
グでタイミング差h(h1〜h5)がゼロであるので、
一致と判定される。
【0226】音高の一致判定では、比較に係る入力メロ
ディと参照メロディとで音高差eがすべてゼロであれば
一致とする。例えば、入力メロディMと参照メロディR
1とを比較して音高差eを求めると、 e1=0、e2=−1、e3=0、e4=+1、e5=
+1 のようになる。また、入力メロディMと参照メロディR
2とを比較して音高差eを求めると、 e1=+2、e2=+2、e3=+2、e4=+2、e
5=+2 のようになる。従って参照メロディR1,R2のいずれ
についても、一致とはならない。
【0227】音高の類似判定では、比較に係る入力メロ
ディと参照メロディとで音高変化傾向f,gが一致すれ
ば類似とする。また、音高変化量が異なっていてもすべ
ての符号(+又は−)が一致していれば類似とする。
【0228】例えば、参照メロディR1について音高変
化傾向gを求めると、 g1=0、g2=+1、g3=0、g4=+1 のようになる。また、参照メロディR2について音高変
化傾向gを求めると、 g1=+1、g2=0、g3=−1、g4=+1 のようになる。
【0229】一方、入力メロディMについて音高変化傾
向fを求めると、 f1=+1、f2=0、f3=−1、f4=+1 のようになる。
【0230】従って、入力メロディMと参照メロディR
2とは、音高変化傾向f,gが一致するので、類似と判
定される。このときのメロディの不一致状態(類似状
態)は、音高差eから求められ、「参照メロディの方が
音高が2度高い」となる。このようなメロディの不一致
状態に対応した不一致情報を図25のステップ330で
検出する。そして、図24のステップ316(又は31
8)では、検出された不一致情報に応じてメロディ生成
データ(又は生成メロディデータ)を音高が2度低くな
るように修正する。なお、参照メロディR1について
は、音高変化傾向f,gが一致せず、すべての符号も一
致しないので、類似とはしない。
【0231】入力メロディと参照メロディとで音高変化
傾向f,gを比較した場合、音高変化量が異なっていて
もすべての符号が一致していれば類似とすることは前述
した通りである。これは、すべての符号が一致している
ことで音高変化傾向が類似していると認められることに
よるものである。この場合、入力メロディと参照メロデ
ィとで音域(最低音から最高音までの幅)が異なること
が多いので、音域の広さの違いを不一致情報として検出
し、この不一致情報に応じてメロディ生成データ(又は
生成メロディデータ)の音域を修正するようにしてもよ
い。
【0232】この発明は、上記した実施形態に限定され
るものではなく、種々の改変形態で実施可能なものであ
る。例えば、次のような変更が可能である。
【0233】(1)ユーザが所望のメロディデータを供
給するには、鍵盤型、弦楽器型(例えばギター型)、管
楽器型等の電子楽器や電気楽器をリアルタイム演奏して
メロディデータを入力してもよいし、音高指示スイッチ
及び音長指示スイッチを操作して1音分ずつメロディデ
ータを入力してもよい。あるいは入力すべきメロディの
リズムパターンを所定のスイッチのタッピング操作によ
って入力するとともに、入力されたリズムパターンの各
打点を時間軸と音高軸とからなる2次元座標上に表示
し、各打点を音高軸に沿ってマウス操作によりドラッグ
することで音高を入力するようにしてもよい。また、外
部記憶装置30から入力する代りに、ROM20に記憶
したメロディデータを選択して入力してもよい。さら
に、この発明に係る自動作曲装置又は他の自動作曲装
置、例えば、与えられたモチーフ(テーマ)特徴パラメ
ータに基づいてモチーフメロディを生成し、その後、こ
のモチーフメロディを反映させた1曲メロディを生成す
る自動作曲装置によって作成されたメロディデータを入
力してもよい。なお、このようなモチーフ生成タイプの
自動作曲装置にあっては、モチーフ生成に用いた特徴パ
ラメータが既に存在しているので、参照特徴データとの
比較に、この特徴パラメータを利用してもよい。
【0234】(2)リアルタイム演奏によりメロディデ
ータを入力する場合、メトロノーム等の音に合わせて演
奏をすると、テンポの乱れが少なくなり、音長(タイミ
ング)を正確に入力することができる。また、テンポを
遅くして演奏をすると、難しいメロディであっても容易
に演奏することができ、メロディデータを正確に入力す
ることができる。さらに、入力に係るメロディデータに
ついては、音長(タイミング)データをクオンタイズ処
理により8分音符等のジャストタイミングのデータに修
正してもよいし、1音毎に入力ミスの修正を可能として
もよい。
【0235】(3)メロディ生成データや自動作曲のア
ルゴリズムとしては、前述したものに限らず、種々のも
のを使用可能である。
【0236】(4)プログラムを記録する記録媒体とし
ては、ROM20に限らず、外部記憶装置30に装着す
る記録媒体(前述のHD、FD、CD、DVD、MO
等)を用いることができる。この場合、記録媒体に記録
したプログラムは、外部記憶装置30からRAM22へ
転送する。そして、RAM22に記憶したプログラムに
従ってCPU18を動作させる。このようにすると、プ
ログラムの追加やバージョンアップ等を容易に行なうこ
とができる。
【0237】(5)この発明の実施に必要なプログラム
や各種データは、サーバコンピュータ等から通信ネット
ワーク(例えばLAN(ローカル・エリア・ネットワー
ク)、インターネット、電話回線等)及び通信インター
フェースを介してRAM22又は外部記憶装置30へダ
ウンロード要求に応じて取込むようにしてもよい。
【0238】(6)パーソナルコンピュータ10に相当
する小型コンピュータは、電子楽器12に内蔵させた
り、電子楽器12と一体化させたりしてもよい。
【0239】(7)曲データのフォーマットは、イベン
トの発生時刻を1つ前のイベントからの相対時間で表わ
す「イベント+相対時間」方式に限らず、イベントの発
生時刻を曲や小節内の絶対時間で表わす「イベント+絶
対時間」方式、音符の音高と音符長及び休符と休符長で
曲の内容を表す「音高(休符)+符長」方式、イベント
発生の最小時間単位毎に記憶領域を確保し、イベントの
発生時刻に対応する記憶領域にイベントを記憶する方式
等の任意の方式を用いることができる。
【0240】(8)電子楽器は、鍵盤、音源装置、自動
演奏装置等をそれぞれ別体とし、適宜接続して構成され
るものでもよい。
【0241】(9)ユーザがメロディ特徴データを作成
したり、編集したりするようにしてもよい。
【0242】
【発明の効果】以上のように、この発明によれば、ユー
ザ入力に係るメロディデータとメロディ特徴(又はメロ
ディ)が一致又は類似した参照特徴データ(又は参照メ
ロディデータ)を検出すると共に検出に係る参照特徴デ
ータ(又は参照メロディデータ)に付随したメロディ生
成データに基づいてメロディデータを生成する構成にし
たので、ユーザ入力に係るテーマメロディに相応しく且
つ起伏に富んだ音楽的なメロディを簡単に生成できる効
果が得られる。
【0243】また、ユーザ入力に係るメロディデータと
メロディ特徴(又はメロディ)が一致しない参照特徴デ
ータ(又は参照メロディデータ)については、参照特徴
データ(又は参照メロディデータ)に付随したメロディ
生成データを不一致情報に応じて修正した後修正に係る
メロディ生成データに基づいてメロディデータを生成す
るか又は参照特徴データ(又は参照メロディデータ)に
付随したメロディ生成データに基づいてメロディデータ
を生成した後生成に係るメロディデータを不一致情報に
応じて修正する構成にしたので、ユーザ入力に係るテー
マメロディにより近いメロディを生成できる効果も得ら
れる。
【0244】さらに、ユーザ指定に係る演奏区間ではユ
ーザ入力に係るメロディを流用すると共に該演奏区間以
外の演奏区間ではユーザ入力に係るメロディとメロディ
特徴(又はメロディ)が一致又は類似した曲特徴データ
(又は曲データ)に基づいてメロディを作成することに
より流用メロディ及び作成メロディを表わす1曲分のメ
ロディデータを生成する構成にしたので、所望の演奏区
間に所望のメロディを含み且つ所望のメロディに相応し
い1曲分のメロディを簡単に生成できる効果も得られ
る。
【図面の簡単な説明】
【図1】 この発明の一実施形態に係る作曲処理を説明
するための説明図である。
【図2】 この発明に係る自動作曲装置を示すブロック
図である。
【図3】 曲データ及び曲特徴データのフォーマットを
示す図である。
【図4】 ピッチ特徴データ及びリズム特徴データを説
明するための説明図である。
【図5】 リズムデータを説明するための説明図であ
る。
【図6】 ユーザ入力に係るフレーズ特徴データのフォ
ーマットを示す図である。
【図7】 1フレーズ分のメロディを生成する過程を説
明するための説明図である。
【図8】 メインルーチンを示すフローチャートであ
る。
【図9】 曲特徴登録のサブルーチンを示すフローチャ
ートである。
【図10】 ピッチ特徴分析のサブルーチンの一部を示
すフローチャートである。
【図11】 図10のサブルーチンの残部を示すフロー
チャートである。
【図12】 リズム特徴分析のサブルーチンを示すフロ
ーチャートである。
【図13】 フレーズ特徴分析のサブルーチンを示すフ
ローチャートである。
【図14】 曲特徴データ選択のサブルーチンの一部を
示すフローチャートである。
【図15】 図14のサブルーチンの残部を示すフロー
チャートである。
【図16】 メロディ生成のサブルーチンを示すフロー
チャートである。
【図17】 曲作成のサブルーチンの一部を示すフロー
チャートである。
【図18】 図17のサブルーチンの残部を示すフロー
チャートである。
【図19】 この発明の他の実施形態に係る作曲処理を
説明するための説明図である。
【図20】 メロディ生成データがメロディ特徴データ
からなる場合に用いられる残区間メロディ生成処理を示
すフローチャートである。
【図21】 メロディ生成データがメロディデータから
なる場合に用いられる残区間メロディ生成処理を示すフ
ローチャートである。
【図22】 メロディ生成データがメロディデータ及び
メロディ特徴データからなる場合に用いられる残区間メ
ロディ生成処理を示すフローチャートである。
【図23】 メロディ生成データの他に入力メロディデ
ータを利用する場合に用いられる残区間メロディ生成処
理を示すフローチャートである。
【図24】 この発明の更に他の実施形態に係る作曲処
理を説明するための説明図である。
【図25】 図24の作曲処理において用いられる比較
及び不一致情報検出処理の一例を示すフローチャートで
ある。
【図26】 図25の処理において比較される入力メロ
ディ及び参照メロディを示すグラフである。
【符号の説明】
10:パーソナルコンピュータ、12:電子楽器、12
A:鍵盤、14:ディスプレイ、16:バス、18:C
PU、20:ROM、22:RAM、22A〜22F:
記憶部、24,26:検出回路、28:インターフェー
ス、30:外部記憶装置、30A,30B:データベー
ス、32:表示回路、36:キーボード、38:マウ
ス。

Claims (17)

    【特許請求の範囲】
  1. 【請求項1】複数の曲生成データを記憶する記憶手段で
    あって、各曲生成データは、メロディ特徴を表わす参照
    特徴データと、この参照特徴データに付随したメロディ
    生成データとを含むものと、 所望のメロディデータを供給する供給手段と、 この供給手段により供給されたメロディデータに関して
    メロディ特徴を分析し、そのメロディ特徴を表わす特徴
    データを作成する分析手段と、 この分析手段により作成された特徴データと前記記憶手
    段に記憶された参照特徴データとを比較し、作成に係る
    特徴データとメロディ特徴が一致又は類似した参照特徴
    データを検出する検出手段と、 この検出手段により検出された参照特徴データに付随し
    たメロディ生成データを前記記憶手段から読出す読出手
    段と、 前記記憶手段から読出されたメロディ生成データに基づ
    いてメロディデータを生成する生成手段とを備えた自動
    作曲装置。
  2. 【請求項2】複数の曲生成データを記憶する記憶手段で
    あって、各曲生成データは、参照メロディデータと、こ
    の参照メロディデータに付随したメロディ生成データと
    を含むものと、 所望のメロディデータを供給する供給手段と、 この供給手段により供給されたメロディデータと前記記
    憶手段に記憶された参照メロディデータとを比較し、供
    給に係るメロディデータと一致又は類似した参照メロデ
    ィデータを検出する検出手段と、 この検出手段により検出された参照メロディデータに付
    随したメロディ生成データを前記記憶手段から読出す読
    出手段と、 前記記憶手段から読出されたメロディ生成データに基づ
    いてメロディデータを生成する生成手段とを備えた自動
    作曲装置。
  3. 【請求項3】 前記記憶手段に記憶されたメロディ生成
    データは、メロディ生成用メロディ特徴データ及びメロ
    ディ生成用メロディデータのうちいずれか一方又は双方
    からなるものである請求項1及び2のいずれかに記載の
    自動作曲装置。
  4. 【請求項4】メロディ特徴を表わす参照特徴データと、
    この参照特徴データに付随したメロディ生成データとを
    記憶する記憶手段と、 所望のメロディデータを供給する供給手段と、 この供給手段により供給されたメロディデータに関して
    メロディ特徴を分析し、そのメロディ特徴を表わす特徴
    データを作成する分析手段と、 この分析手段により作成された特徴データと前記記憶手
    段に記憶された参照特徴データとを比較し、比較に係る
    両データのメロディ特徴の不一致状態に対応した不一致
    情報を検出する検出手段と、 前記記憶手段に記憶されたメロディ生成データを読出す
    と共に該メロディ生成データを前記検出手段により検出
    された不一致情報に応じて修正する修正手段と、 この修正手段により修正されたメロディ生成データに基
    づいてメロディデータを生成する生成手段とを備えた自
    動作曲装置。
  5. 【請求項5】メロディ特徴を表わす参照特徴データと、
    この参照特徴データに付随したメロディ生成データとを
    記憶する記憶手段と、 所望のメロディデータを供給する供給手段と、 この供給手段により供給されたメロディデータに関して
    メロディ特徴を分析し、そのメロディ特徴を表わす特徴
    データを作成する分析手段と、 この分析手段により作成された特徴データと前記記憶手
    段に記憶された参照特徴データとを比較し、比較に係る
    両データのメロディ特徴の不一致状態に対応した不一致
    情報を検出する検出手段と、 前記記憶手段に記憶されたメロディ生成データを読出す
    読出手段と、 前記記憶手段から読出されたメロディ生成データに基づ
    いてメロディデータを生成する生成手段と、 この生成手段により生成されたメロディデータを前記検
    出手段により検出された不一致情報に応じて修正する修
    正手段とを備えた自動作曲装置。
  6. 【請求項6】参照メロディデータと、この参照メロディ
    データに付随したメロディ生成データとを記憶した記憶
    手段と、 所望のメロディデータを供給する供給手段と、 この供給手段により供給されたメロディデータと前記記
    憶手段に記憶された参照メロディデータとを比較し、比
    較に係る両データのメロディの不一致状態に対応した不
    一致情報を検出する検出手段と、 前記記憶手段に記憶されたメロディ生成データを読出す
    と共に該メロディ生成データを前記検出手段により検出
    された不一致情報に応じて修正する修正手段と、 この修正手段により修正されたメロディ生成データに基
    づいてメロディデータを生成する生成手段とを備えた自
    動作曲装置。
  7. 【請求項7】参照メロディデータと、この参照メロディ
    データに付随したメロディ生成データとを記憶した記憶
    手段と、 所望のメロディデータを供給する供給手段と、 この供給手段により供給されたメロディデータと前記記
    憶手段に記憶された参照メロディデータとを比較し、比
    較に係る両データのメロディの不一致状態に対応した不
    一致情報を検出する検出手段と、 前記記憶手段に記憶されたメロディ生成データを読出す
    読出手段と、 前記記憶手段から読出されたメロディ生成データに基づ
    いてメロディデータを生成する生成手段と、 この生成手段により生成されたメロディデータを前記検
    出手段により検出された不一致情報に応じて修正する修
    正手段とを備えた自動作曲装置。
  8. 【請求項8】 前記生成手段は、前記供給手段により供
    給されたメロディデータにも基づいてメロディデータを
    生成するものである請求項1〜7のいずれかに記載の自
    動作曲装置。
  9. 【請求項9】 前記供給手段は、作成すべき曲の一部区
    間のメロディデータを供給するものであり、前記生成手
    段は、作成すべき曲の残区間のメロディデータを生成す
    ると共に、前記一部区間のメロディデータと該残区間の
    メロディデータとを結合して1曲分のメロディデータを
    生成するものである請求項1〜8のいずれかに記載の自
    動作曲装置。
  10. 【請求項10】複数の曲生成データを記憶する記憶手段
    であって、各曲生成データは、メロディ特徴を表わす参
    照特徴データと、この参照特徴データに付随したメロデ
    ィ生成データとを含むものと、 所望のメロディデータを供給する供給手段とを備えた自
    動作曲装置において使用される記録媒体であって、 前記供給手段により供給されたメロディデータに関して
    メロディ特徴を分析し、そのメロディ特徴を表わす特徴
    データを作成する分析ステップと、 この分析ステップにより作成された特徴データと前記記
    憶手段に記憶された参照特徴データとを比較し、作成に
    係る特徴データとメロディ特徴が一致又は類似した参照
    特徴データを検出する検出ステップと、 この検出ステップにより検出された参照特徴データに付
    随したメロディ生成データを前記記憶手段から読出すス
    テップと、 前記記憶手段から読出されたメロディ生成データに基づ
    いてメロディデータを生成するステップとを含むプログ
    ラムを記録した記録媒体。
  11. 【請求項11】複数の曲生成データを記憶する記憶手段
    であって、各曲生成データは、参照メロディデータと、
    この参照メロディデータに付随したメロディ生成データ
    とを含むものと、 所望のメロディデータを供給する供給手段とを備えた自
    動作曲装置において使用される記録媒体であって、 前記供給手段により供給されたメロディデータと前記記
    憶手段に記憶された参照メロディデータとを比較し、供
    給に係るメロディデータと一致又は類似した参照メロデ
    ィデータを検出する検出ステップと、 この検出ステップにより検出された参照メロディデータ
    に付随したメロディ生成データを前記記憶手段から読出
    すステップと、 前記記憶手段から読出されたメロディ生成データに基づ
    いてメロディデータを生成するステップとを含むプログ
    ラムを記録した記録媒体。
  12. 【請求項12】メロディ特徴を表わす参照特徴データ
    と、この参照特徴データに付随したメロディ生成データ
    とを記憶する記憶手段と、 所望のメロディデータを供給する供給手段とを備えた自
    動作曲装置において使用される記録媒体であって、 前記供給手段により供給されたメロディデータに関して
    メロディ特徴を分析し、そのメロディ特徴を表わす特徴
    データを作成する分析ステップと、 この分析ステップにより作成された特徴データと前記記
    憶手段に記憶された参照特徴データとを比較し、比較に
    係る両データのメロディ特徴の不一致状態に対応した不
    一致情報を検出する検出ステップと、 前記記憶手段に記憶されたメロディ生成データを読出す
    と共に該メロディ生成データを前記検出ステップにより
    検出された不一致情報に応じて修正する修正ステップ
    と、 この修正ステップにより修正されたメロディ生成データ
    に基づいてメロディデータを生成するステップとを含む
    プログラムを記録した記録媒体。
  13. 【請求項13】メロディ特徴を表わす参照特徴データ
    と、この参照特徴データに付随したメロディ生成データ
    とを記憶する記憶手段と、 所望のメロディデータを供給する供給手段とを備えた自
    動作曲装置において使用される記録媒体であって、 前記供給手段により供給されたメロディデータに関して
    メロディ特徴を分析し、そのメロディ特徴を表わす特徴
    データを作成する分析ステップと、 この分析ステップにより作成された特徴データと前記記
    憶手段に記憶された参照特徴データとを比較し、比較に
    係る両データのメロディ特徴の不一致状態に対応した不
    一致情報を検出する検出ステップと、 前記記憶手段に記憶されたメロディ生成データを読出す
    ステップと、 前記記憶手段から読出されたメロディ生成データに基づ
    いてメロディデータを生成する生成ステップと、 この生成ステップにより生成されたメロディデータを前
    記検出ステップにより検出された不一致情報に応じて修
    正するステップとを含むプログラムを記録した記録媒
    体。
  14. 【請求項14】参照メロディデータと、この参照メロデ
    ィデータに付随したメロディ生成データとを記憶した記
    憶手段と、 所望のメロディデータを供給する供給手段とを備えた自
    動作曲装置において使用される記録媒体であって、 前記供給手段により供給されたメロディデータと前記記
    憶手段に記憶された参照メロディデータとを比較し、比
    較に係る両データのメロディの不一致状態に対応した不
    一致情報を検出する検出ステップと、 前記記憶手段に記憶されたメロディ生成データを読出す
    と共に該メロディ生成データを前記検出ステップにより
    検出された不一致情報に応じて修正する修正ステップ
    と、 この修正ステップにより修正されたメロディ生成データ
    に基づいてメロディデータを生成するステップとを含む
    プログラムを記録した記録媒体。
  15. 【請求項15】参照メロディデータと、この参照メロデ
    ィデータに付随したメロディ生成データとを記憶した記
    憶手段と、 所望のメロディデータを供給する供給手段とを備えた自
    動作曲装置において使用される記録媒体であって、 前記供給手段により供給されたメロディデータと前記記
    憶手段に記憶された参照メロディデータとを比較し、比
    較に係る両データのメロディの不一致状態に対応した不
    一致情報を検出する検出ステップと、 前記記憶手段に記憶されたメロディ生成データを読出す
    読出手段と、 前記記憶手段から読出されたメロディ生成データに基づ
    いてメロディデータを生成する生成ステップと、 この生成ステップにより生成されたメロディデータを前
    記検出ステップにより検出された不一致情報に応じて修
    正するステップとを含むプログラムを記録した記録媒
    体。
  16. 【請求項16】複数曲のうちの各曲毎に複数の演奏区間
    のメロディ特徴を表わす曲特徴データを記憶する記憶手
    段と、 前記複数の演奏区間のうち任意の1つの演奏区間を指定
    する指定手段と、 この指定手段での指定に係る演奏区間において使用すべ
    きメロディデータを供給する供給手段と、 この供給手段により供給されたメロディデータに関して
    メロディ特徴を分析し、そのメロディ特徴を表わす特徴
    データを作成する分析手段と、 この分析手段により作成された特徴データが表わすメロ
    ディ特徴と一致又は類似したメロディ特徴を前記指定手
    段での指定に係る演奏区間において有する曲特徴データ
    を前記記憶手段から選択して読出す読出手段と、 前記供給手段により供給されたメロディデータが表わす
    メロディの少なくとも一部を前記指定手段での指定に係
    る演奏区間において流用すると共に該演奏区間以外の演
    奏区間のメロディを前記記憶手段から読出された曲特徴
    データに基づいて作成することにより流用メロディ及び
    作成メロディを表わす1曲分のメロディデータを生成す
    る生成手段とを備えた自動作曲装置。
  17. 【請求項17】複数曲のうちの各曲毎に複数の演奏区間
    のメロディを表わす曲データを記憶する記憶手段と、 前記複数の演奏区間のうち任意の1つの演奏区間を指定
    する指定手段と、 この指定手段での指定に係る演奏区間において使用すべ
    きメロディデータを供給する供給手段と、 この供給手段により供給されたメロディデータが表わす
    メロディと一致又は類似したメロディを前記指定手段で
    の指定に係る演奏区間において有する曲データを前記記
    憶手段から選択して読出す読出手段と、 前記供給手段により供給されたメロディデータが表わす
    メロディの少なくとも一部を前記指定手段での指定に係
    る演奏区間において流用すると共に該演奏区間以外のメ
    ロディを前記記憶手段から読出された曲データに基づい
    て作成することにより流用メロディ及び作成メロディを
    表わす1曲分のメロディデータを生成する生成手段とを
    備えた自動作曲装置。
JP35074298A 1997-12-17 1998-11-25 自動作曲装置と記録媒体 Expired - Fee Related JP3704980B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP35074298A JP3704980B2 (ja) 1997-12-17 1998-11-25 自動作曲装置と記録媒体
US09/212,192 US6124543A (en) 1997-12-17 1998-12-15 Apparatus and method for automatically composing music according to a user-inputted theme melody

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP36407297 1997-12-17
JP9-364072 1997-12-17
JP35074298A JP3704980B2 (ja) 1997-12-17 1998-11-25 自動作曲装置と記録媒体

Publications (2)

Publication Number Publication Date
JPH11237881A true JPH11237881A (ja) 1999-08-31
JP3704980B2 JP3704980B2 (ja) 2005-10-12

Family

ID=26579265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35074298A Expired - Fee Related JP3704980B2 (ja) 1997-12-17 1998-11-25 自動作曲装置と記録媒体

Country Status (2)

Country Link
US (1) US6124543A (ja)
JP (1) JP3704980B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001265349A (ja) * 2000-03-21 2001-09-28 Nippon Telegr & Teleph Corp <Ntt> 楽曲処理装置および楽曲処理用プログラム記録媒体
JP2003509729A (ja) * 1999-09-16 2003-03-11 ハンスルソフト コーポレーション リミテッド ディジタル音楽ファイルに基づいて楽器を演奏するための方法及び装置
JP2003131674A (ja) * 2001-10-22 2003-05-09 Megafusion Corp 楽曲検索システム
KR100817744B1 (ko) * 2005-10-11 2008-03-31 한양대학교 산학협력단 창의적 컨텐츠 생성 방법 및 시스템
JP2009075495A (ja) * 2007-09-25 2009-04-09 Yamaha Corp 楽曲加工装置およびプログラム
JP2009092926A (ja) * 2007-10-09 2009-04-30 Yamaha Corp 楽曲加工装置およびプログラム
JP2009092970A (ja) * 2007-10-10 2009-04-30 Yamaha Corp 素片検索装置およびプログラム
JP2010015132A (ja) * 2008-04-22 2010-01-21 Peter Gannon 音楽作曲の為のシステム及び方法
JP2011017987A (ja) * 2009-07-10 2011-01-27 Brother Industries Ltd データ集配システム,通信カラオケシステム
CN108630186A (zh) * 2017-03-23 2018-10-09 卡西欧计算机株式会社 电子乐器、其控制方法以及记录介质

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2785438A1 (fr) * 1998-09-24 2000-05-05 Baron Rene Louis Procede et dispositif de generation musicale
JP2001094635A (ja) * 1999-09-21 2001-04-06 Matsushita Electric Ind Co Ltd 電話端末装置
US6316710B1 (en) * 1999-09-27 2001-11-13 Eric Lindemann Musical synthesizer capable of expressive phrasing
AT500124A1 (de) * 2000-05-09 2005-10-15 Tucmandl Herbert Anlage zum komponieren
US6229082B1 (en) * 2000-07-10 2001-05-08 Hugo Masias Musical database synthesizer
US6384310B2 (en) * 2000-07-18 2002-05-07 Yamaha Corporation Automatic musical composition apparatus and method
JP3707364B2 (ja) 2000-07-18 2005-10-19 ヤマハ株式会社 自動作曲装置、方法及び記録媒体
JP2002032078A (ja) 2000-07-18 2002-01-31 Yamaha Corp 自動作曲装置、方法及び記録媒体
US6740802B1 (en) * 2000-09-06 2004-05-25 Bernard H. Browne, Jr. Instant musician, recording artist and composer
US7026535B2 (en) * 2001-03-27 2006-04-11 Tauraema Eruera Composition assisting device
JP4808868B2 (ja) * 2001-06-29 2011-11-02 株式会社河合楽器製作所 自動演奏装置
US6747201B2 (en) 2001-09-26 2004-06-08 The Regents Of The University Of Michigan Method and system for extracting melodic patterns in a musical piece and computer-readable storage medium having a program for executing the method
US20030069655A1 (en) * 2001-10-05 2003-04-10 Jenifer Fahey Mobile wireless communication handset with sound mixer and methods therefor
US7053291B1 (en) * 2002-05-06 2006-05-30 Joseph Louis Villa Computerized system and method for building musical licks and melodies
US8841847B2 (en) 2003-01-17 2014-09-23 Motorola Mobility Llc Electronic device for controlling lighting effects using an audio file
US8008561B2 (en) * 2003-01-17 2011-08-30 Motorola Mobility, Inc. Audio file format with mapped lighting effects and method for controlling lighting effects using an audio file format
SE528839C2 (sv) * 2006-02-06 2007-02-27 Mats Hillborg Melodigenerator
CN101558441A (zh) * 2006-12-12 2009-10-14 皇家飞利浦电子股份有限公司 乐曲系统和控制乐曲的生成的方法
US7962530B1 (en) * 2007-04-27 2011-06-14 Michael Joseph Kolta Method for locating information in a musical database using a fragment of a melody
US20090301287A1 (en) * 2008-06-06 2009-12-10 Avid Technology, Inc. Gallery of Ideas
JP5168297B2 (ja) * 2010-02-04 2013-03-21 カシオ計算機株式会社 自動伴奏装置および自動伴奏プログラム
TW201411601A (zh) * 2012-09-13 2014-03-16 Univ Nat Taiwan 以情緒為基礎的自動配樂方法
US8912420B2 (en) * 2013-01-30 2014-12-16 Miselu, Inc. Enhancing music
US8847054B2 (en) * 2013-01-31 2014-09-30 Dhroova Aiylam Generating a synthesized melody
US9798974B2 (en) * 2013-09-19 2017-10-24 Microsoft Technology Licensing, Llc Recommending audio sample combinations
US9280313B2 (en) * 2013-09-19 2016-03-08 Microsoft Technology Licensing, Llc Automatically expanding sets of audio samples
US9257954B2 (en) 2013-09-19 2016-02-09 Microsoft Technology Licensing, Llc Automatic audio harmonization based on pitch distributions
US9372925B2 (en) 2013-09-19 2016-06-21 Microsoft Technology Licensing, Llc Combining audio samples by automatically adjusting sample characteristics
US9263013B2 (en) * 2014-04-30 2016-02-16 Skiptune, LLC Systems and methods for analyzing melodies
JP6160598B2 (ja) 2014-11-20 2017-07-12 カシオ計算機株式会社 自動作曲装置、方法、およびプログラム
JP6160599B2 (ja) * 2014-11-20 2017-07-12 カシオ計算機株式会社 自動作曲装置、方法、およびプログラム
US9165543B1 (en) * 2014-12-02 2015-10-20 Mixed In Key Llc Apparatus, method, and computer-readable storage medium for rhythmic composition of melody
US9818385B2 (en) * 2016-04-07 2017-11-14 International Business Machines Corporation Key transposition
US11328700B2 (en) 2018-11-15 2022-05-10 Sony Interactive Entertainment LLC Dynamic music modification
CN111223471A (zh) * 2018-11-26 2020-06-02 珠海格力电器股份有限公司 铃声生成方法、装置、存储介质和处理器
WO2021202868A1 (en) * 2020-04-02 2021-10-07 Sony Interactive Entertainment LLC Dynamic music modification

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4926737A (en) * 1987-04-08 1990-05-22 Casio Computer Co., Ltd. Automatic composer using input motif information
US4982643A (en) * 1987-12-24 1991-01-08 Casio Computer Co., Ltd. Automatic composer
JP2500528B2 (ja) * 1990-12-28 1996-05-29 ヤマハ株式会社 電子楽器
US5451709A (en) * 1991-12-30 1995-09-19 Casio Computer Co., Ltd. Automatic composer for composing a melody in real time
US5728962A (en) * 1994-03-14 1998-03-17 Airworks Corporation Rearranging artistic compositions
EP0715295B1 (en) * 1994-11-29 2000-01-19 Yamaha Corporation Automatic playing apparatus substituting available pattern for absent pattern
JP3303617B2 (ja) * 1995-08-07 2002-07-22 ヤマハ株式会社 自動作曲装置
JP3286683B2 (ja) * 1996-07-18 2002-05-27 衛 市川 旋律合成装置及び旋律合成方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003509729A (ja) * 1999-09-16 2003-03-11 ハンスルソフト コーポレーション リミテッド ディジタル音楽ファイルに基づいて楽器を演奏するための方法及び装置
JP2001265349A (ja) * 2000-03-21 2001-09-28 Nippon Telegr & Teleph Corp <Ntt> 楽曲処理装置および楽曲処理用プログラム記録媒体
JP2003131674A (ja) * 2001-10-22 2003-05-09 Megafusion Corp 楽曲検索システム
KR100817744B1 (ko) * 2005-10-11 2008-03-31 한양대학교 산학협력단 창의적 컨텐츠 생성 방법 및 시스템
JP2009075495A (ja) * 2007-09-25 2009-04-09 Yamaha Corp 楽曲加工装置およびプログラム
JP2009092926A (ja) * 2007-10-09 2009-04-30 Yamaha Corp 楽曲加工装置およびプログラム
JP2009092970A (ja) * 2007-10-10 2009-04-30 Yamaha Corp 素片検索装置およびプログラム
JP2010015132A (ja) * 2008-04-22 2010-01-21 Peter Gannon 音楽作曲の為のシステム及び方法
JP2011017987A (ja) * 2009-07-10 2011-01-27 Brother Industries Ltd データ集配システム,通信カラオケシステム
CN108630186A (zh) * 2017-03-23 2018-10-09 卡西欧计算机株式会社 电子乐器、其控制方法以及记录介质
CN108630186B (zh) * 2017-03-23 2023-04-07 卡西欧计算机株式会社 电子乐器、其控制方法以及记录介质

Also Published As

Publication number Publication date
US6124543A (en) 2000-09-26
JP3704980B2 (ja) 2005-10-12

Similar Documents

Publication Publication Date Title
JP3704980B2 (ja) 自動作曲装置と記録媒体
EP2772904B1 (en) Apparatus and method for detecting music chords and generation of accompaniment.
JP3484986B2 (ja) 自動作曲装置、自動作曲方法および記憶媒体
JP2002032077A (ja) コード進行修正装置、コード進行修正方法及び同装置に適用されるプログラムを記録したコンピュータ読取り可能な記録媒体、並びに自動作曲装置、自動作曲方法及び同装置に適用されるコンピュータ読取り可能な記録媒体
JP3528654B2 (ja) メロディ生成装置及びリズム生成装置と記録媒体
JP2000514571A (ja) 自動即興演奏システム及び方法
JP3637775B2 (ja) メロディ生成装置と記録媒体
JP2002023747A (ja) 自動作曲方法と装置及び記録媒体
JPH07219536A (ja) 自動編曲装置
JP2007219139A (ja) 旋律生成方式
US6486390B2 (en) Apparatus and method for creating melody data having forward-syncopated rhythm pattern
JP3196604B2 (ja) 和音分析装置
CN109841203B (zh) 一种电子乐器音乐和声确定方法及系统
JP3567701B2 (ja) 楽音データから和音を検出する和音検出方法および和音検出装置、ならびに、和音検出用プログラムを記録した記録媒体
JP2002268632A (ja) フレーズ分析装置及びフレーズ分析プログラムを記録した記録媒体
JP3531507B2 (ja) 楽曲生成装置および楽曲生成プログラムを記録したコンピュータで読み取り可能な記録媒体
JP3752859B2 (ja) 自動作曲装置と記録媒体
JP3216529B2 (ja) 演奏データ分析装置および演奏データ分析方法
JP3835131B2 (ja) 自動作曲装置及び方法並びに記憶媒体
JP3641955B2 (ja) 楽曲データ生成装置及びそのための記録媒体
JP2000112472A (ja) 自動作曲装置と記録媒体
JP3807333B2 (ja) メロディ検索装置およびメロディ検索プログラム
JP6525034B2 (ja) コード進行情報生成装置およびコード進行情報生成方法を実現するためのプログラム
JP3163654B2 (ja) 自動伴奏装置
JP3316547B2 (ja) 和音付装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050718

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090805

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100805

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100805

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110805

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120805

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees