JP2004226671A - Music data generation system, music data generation server system, and music data generation method - Google Patents

Music data generation system, music data generation server system, and music data generation method Download PDF

Info

Publication number
JP2004226671A
JP2004226671A JP2003014097A JP2003014097A JP2004226671A JP 2004226671 A JP2004226671 A JP 2004226671A JP 2003014097 A JP2003014097 A JP 2003014097A JP 2003014097 A JP2003014097 A JP 2003014097A JP 2004226671 A JP2004226671 A JP 2004226671A
Authority
JP
Japan
Prior art keywords
music data
music
data generation
sentence
message
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003014097A
Other languages
Japanese (ja)
Other versions
JP3694698B2 (en
Inventor
Hidefumi Konishi
秀文 小西
Seiji Kurokawa
誠司 黒川
Akihiro Aoi
昭博 青井
Masuzo Yanagida
益造 柳田
Masanobu Miura
雅展 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Doshisha Co Ltd
Original Assignee
Omron Corp
Doshisha Co Ltd
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Doshisha Co Ltd, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2003014097A priority Critical patent/JP3694698B2/en
Publication of JP2004226671A publication Critical patent/JP2004226671A/en
Application granted granted Critical
Publication of JP3694698B2 publication Critical patent/JP3694698B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Telephonic Communication Services (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system constituted so as to generate user's original music by expanding width of originality. <P>SOLUTION: An inputted message is transmitted from a portable information terminal 1 to a music data generation server system 2 and morpheme analysis of the received message is performed by the music data generation server system 2. Then, music data with length corresponding to the message and in a mode and a key corresponding to a meaning of the message is generated based on this analysis result. Then, the music data generated in such a way is transmitted to a third person's portable information terminal 3 with the message, the message and music are synchronized and outputted there. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【発明の属する技術分野】
本発明は、例えば、テキストから音楽を生成するシステムに関するものであり、より具体的には、端末装置を用いて簡単に自作の音楽を生成できるようにしたシステムに関するものである。
【0001】
【従来の技術】
現在、グリーティングカードなどのようにアニメーション画像や音楽などにメッセージを付加してメール送信できるようにしたサービスが提供されている。このシステムは、あらかじめサーバ装置側に複数のグリーティングカードを登録しておき、この中からユーザに所望のものを選択させてメッセージを付加できるようにしたものが一般的である。
【0002】
【発明が解決しようとする課題】
ところが、このようなシステムは、サーバ装置側に登録されている数限られたカードの中から画像や音楽などを選択して使用するものであるため、その送信するカードにユーザのオリジナリティを出すことはできない。また、ユーザが独自に音楽を作成し、その作成した音楽にメッセージを添えて送信できるようにすることも可能である。しかし、このように音楽を自作するには、音楽的な専門知識が必要となり、これに加えて、例えば、その音楽情報を入力するための装置が携帯電話やパーソナルコンピュータなどのようなものである場合は、その入力に多大な時間を要することになる。
【0003】
一方、ユーザが簡単にオリジナルの音楽を作成できるようにしたものとして、携帯電話からテキストの入力を許容し、このテキストから音楽を生成できるようにしたサービスも現在提供されている。
【0004】
このシステムは、名前や好きな言葉から音楽を生成するもので、明確なイメージを持つ日本語の単語数千個について、それらに含まれる音節の拍および音節の繋がり(わたり音)がどのように使われているのかを集計し、これら音節と言葉の意味との間の密接な関係に基づいて音楽を生成するようにしたものである。例えば、「ご、が、ぎ、ぎゅ、こ、ち、か、きょ、ちゃ、ぱ、ちぇ、き、ば」などのように硬いイメージを有し、また、「ふ、ぬ、ね、じゅ、ちゅ、にゃ、にゅ、にょ、わ、ぐ」などのような語は柔らかいイメージを持つ。また、音節毎に見ると、「き」という音節では、「明確、活発、明るい、抵抗感、派手、狭い」といったイメージを伝えるのに適し、また、「ほ」という音節では、「快い、穏やか、安心、優れる、淡い、嬉しい、細い」といったイメージを伝えるのに適している。そして、このような各音節とわたり音が持っているイメージの特性を捉え、そのイメージに合わせた音楽を生成するようにしたものである。
【0005】
しかし、このようなシステムでは、名前や好きな言葉などのいわゆる短い「単語」から音楽を生成するものであるため、ユーザが同じような単語を選択する可能性も高く、また、生成する音楽に変化を持たせるための情報も少ないため、音楽が共通する可能性が高い。従って、このような方法によってもユーザのオリジナリティを追求することは完全でない。
【0006】
そこで、本発明は上記課題に着目してなされたもので、オリジナリティの幅を広げてユーザ独自の音楽を生成できるようにしたシステムを提供することを目的とする。
【0007】
【課題を解決するための手段】
すなわち、本発明は上記課題を解決すべく、ユーザからメッセージなどの文章の入力を受け付け、この受け付けた文章の構成要素に基づいて音楽データを生成し、そのデータに基づく音楽を出力できるように構成したものである。
【0008】
このように構成することによって、短い単語からだけでなく、意味をなす文章から音楽データを生成できるため、同じ単語を部分的に用いた場合であっても文章の長さや配列などを変えることによってオリジナルの音楽データを生成することができるようになる。
【0009】
また、この音楽データを生成する際、入力された文章の長さに対応した音楽データを生成する。
【0010】
このように構成すれば、入力する文章の長さに基づいて音楽の長さを変化させることができ、簡単にその音楽の長さを変えることができるようになる。
【0011】
更に、この音楽データを生成する際、文章の中からキーワードを抽出し、このキーワードに基づいて長調か短調かの旋法、および、どの音を主音とするかの調を決定してその旋法および調の音楽データを生成する。
【0012】
このように構成すれば、ユーザに音楽の雰囲気をあらわす旋法および調の入力を促すことなく、簡単にユーザの感情に適合した音楽データを生成することができるようになる。
【0013】
また、音楽を出力する際、その音楽の再生状況に合わせて文章の表示形態を変化させるなどの同期をとった出力を行う。
【0014】
このように構成すれば、ユーザに文章と音楽との対応関係を容易に把握させることができ、また、この同期させた出力に基づいてカラオケなどを行うことも可能となる。
【0015】
また、音楽データを出力する際、電子メールによって第三者の端末装置にその入力された文章を表示し、また、その音楽データを出力する。
【0016】
このように構成すれば、送信者のオリジナリティを追求したメールを送信することができ、より嗜好性の高いメッセージを送信することができるようになる。
【0017】
【発明の実施の形態】
以下、本発明の一実施の形態について図面を参照して説明する。本実施の形
態においては、端末装置として携帯電話などの携帯情報端末1、3を用い、また、サーバ装置として音楽データ生成サーバ装置2を用いる。そして、音楽データを生成するに際しては、携帯情報端末1で相手方に送信すべきメッセージの文章の入力を受け付け、ネットワーク4を介して、これを音楽データ生成サーバ装置2に送信する。そして、この文章および相手方の電子メールアドレスを受信した音楽データ生成サーバ装置2側では、そのメッセージを形態素解析し、これに基づいてメロディおよびコードからなる音楽データを生成して、この音楽データとメッセージに関するデータとを相手先の電子メールアドレス宛に送信する。そして、これを受信した携帯情報端末3では、その音楽とメッセージとを同期させて出力するように構成したものである。以下、本実施の形態について詳細に説明する。
【0018】
携帯情報端末1、3は、図2のブロック図に示すように、複数文節からなる文章のメッセージ入力を受け付ける入力受付手段10と、インターネットなどのネットワーク4を介して音楽データ生成サーバ装置2との間でデータの送受信を行う送信手段11および受信手段13と、音楽データ生成サーバ装置2で生成された音楽付きのメッセージを記憶する記憶手段12と、この記憶した音楽付きメッセージを出力する出力手段14とを具備して成る。また、携帯情報端末1、2はこれ以外にも携帯情報端末独自の機能を果たすための各手段を有し、例えば、通常の電話機として機能するための手段なども有する。
【0019】
メッセージの入力を受け付けるための入力受付手段10は、携帯情報端末1、3に具備される操作キーおよび、そのメッセージの入力を許容するためのアプリケーションなどによって構成される。通常、操作キーは携帯情報端末1、3に設けられているテンキーなどによって構成されるが、音声認識技術を用いて音声からテキスト情報を作成するようにしても良い。
【0020】
送信手段11は、インターネットなどのネットワーク4を介して音楽データ生成サーバ装置2にメッセージを送信する。また、受信手段13は、音楽データ生成サーバ装置2から送信されてきた音楽付きメッセージを受信する。
【0021】
記憶手段12は、携帯情報端末1、3を動作させるために必要となる情報を記憶するもので、携帯電話を機能させるための動作実行プログラムの他、音楽データ生成サーバ装置2から受け取った音楽データやメッセージに関するデータなどを記憶する。
【0022】
出力手段14は、ディスプレイなどの表示出力手段およびスピーカなどの音声出力手段を具備してなるもので、音楽データ生成サーバ装置2から送信されてきたメッセージを表示出力するとともに、また、音楽データを音声出力手段によって音声出力する。この表示出力および音声出力は互いに同期をとりながら出力するプログラムを組み込み、例えば、音楽の進行状況に合わせて表示されているメッセージの色を逐次変化させるような表示形態の変更を行う。
【0023】
一方、音楽データ生成サーバ装置2は、受信したメッセージに基づき自動的に音楽データを生成するもので、受信手段20、解析手段21、意味判定手段22、旋法・調判定手段23、音符列生成手段24、音楽データ生成手段25、メディアデータ生成手段26、送信手段27を具備してなる。
【0024】
受信手段20は、ネットワーク4を介して携帯情報端末1からデータを受信するものであり、携帯情報端末1からメッセージを構成するテキストデータ、およびこのメッセージを送信する宛先である電子メールアドレスを受け取る。
【0025】
解析手段21は、携帯情報端末1から送信されてきたメッセージを形態素解析するものであり、例えば、図5に示すように携帯情報端末1で入力された情報が「いつもお世話になっております。」という文言を含む情報であった場合、ひらがな変換して「いつも」「おせわ」「になっております」「。」などのように分解する。なお、この形態素解析においては、ひらがな変換により分解する方法に限らず、分かち書きにより「いつも」「御世話」「になっております」「。」と分解する方法や、また、ローマ字変換により「itsumo」「osewa」「ninatteorimasu」「。」と分解する方法なども採用することもできる。
【0026】
意味判定手段22は、この解析手段21によって解析された文章構成要素の中に所定の文字列が含まれるか否かを判定し、その文章が全体として明るい意味を有するか、もしくは、悲しい意味を有するかを判定する。この意味判定においては、あらかじめ、ポジティブな要素の文字列、例えば、「嬉、うれし、楽、たのし、好、明、良、軽、南、白、上」などを登録しておくとともに、また、ネガティブな要素の文字列として、例えば、「悲、かなし、嫌、暗、悪、苦、思、北、黒、下」などを登録しておく。そして、形態素解析された文章の構成要素の中にポジティブな要素の文字列やネガティブな要素の文字列がいくつ含まれているかをカウントする。
【0027】
そして、旋法・調判定手段23は、このポジティブな要素の文字列の数とネガティブな要素の文字列の数とを比較し、まず、長調か短調かの旋法を決定する。具体的には、ポジティブな要素の文字列が多いか、もしくは同数であった場合はその生成する音楽を長調と決定する。また、これとは逆に、ネガティブな要素の文字列の数の方が多い場合は、生成する音楽を短調と決定する。また、どの音を主音にするかの調については、簡易版ではハ音(C)を主音とするが、通常版ではC majorあるいはc minorで生成したメロディを別に定めた方法(例えば、文頭の文字のS−JISコードでモード7を取るなど)で主音を決める。
【0028】
一方、音符列生成手段24は、形態素解析された文章構成要素の文字数をカウントし、そのカウント数に対応してあらかじめ用意されたメロディのテンプレートを当てはめて音符列を生成する。具体的には、まず、1音、2音、3音、4音、5音で構成されるC majorのテンプレートを複数種類用意する。そして、形態素解析された文字構成要素に対して、1バイトの文字を1バイトで「1」、2バイトの文字を2バイトで「2」としてカウントし、このカウント数に対応した音数の任意のテンプレートを当てはめる。なお、ここで形態素解析を行った文字構成要素のカウント数が「5」を超えた場合、これに当てはめるべきテンプレートが存在しないため、この文字構成要素のカウント数を任意のカウント数に分解してそのカウント数に対応したテンプレートを当てはめるようにする。これにより、例えば、図5に示す「になっております」というようなカウント数が「8」であった場合、合計が「8」となるように、例えば、「4」「2」「2」としてそれぞれのカウント数に対応したテンプレートを当てはめるようにする。これにより、文章の長さに対応した音符列を生成することができる。
【0029】
そして、このように音符列生成手段で生成された音符列は、音楽データ生成手段25によってメッセージに対応した音楽に生成される。この音楽データ生成手段25は、図3に示すように、メロディ(主旋)データ生成手段250と、伴奏データ生成手段251、伴奏データ付加手段252とを具備して構成される。
【0030】
メロディデータ生成手段250は、音符列生成手段24によって生成された音符列を結合させるとともに、旋法・調判定手段23によって判定された旋法および調にこの音符列を変換する。この音楽が長調として構成される場合は、通常C majorとして構成され、また短調として構成される場合は、そのC majorのB音、E音、B音を半音階下げた c minorとして構成される。そして、これらの処理が行われた後、これらのメロディが全体として音楽的になるようにその長さや繰り返し、終止形などを調整し、このデータを伴奏データ生成手段251に渡す。
【0031】
伴奏データ生成手段251は、生成されたメロディに基づき、そのメロディ進行に適合するコードを生成する。このコード生成は、まず、与えられたメロディについて、三和音進行に従って許容される和音進行をすべて列挙する。この和音進行は、和声学上の「禁則」と呼ばれる規則群、すなわち、「こうするのがよい」「こうしなければならない」あるいは「こうやってはならない」などの規則群に従い、三和音については第一転回型、第二転回型を全て考慮し、属和音については七の和音および九の和音をその転回型まで考慮して生成する。そして、このように生成された全てのコードに対して、あらかじめ設定された評価テーブルに従ってコード進行の評価付けを行い、最も評価の高かったコードを抽出する。
【0032】
伴奏データ付加手段252は、このようにして抽出されたコードをメロディに割り当てる。この割り当て作業は、メロディのテンポに合わせてコードをメロディ音符列に割り当てるなどの処理を行う。
【0033】
そして、このように生成された音楽データは、メディアデータ生成手段26でメッセージと統合され、送信可能なデータに変換される。なお、この生成される音楽データのファイルは、メッセージ受信側の携帯情報端末3で出力可能なファイル形式にすべく、例えば、SMAF MA2や、CMIDI2.0のフォーマットに変換する。また、このファイル変換作業において、受信する側の出力形式が分からない場合は、例えば、音楽データ生成サーバ装置2から受信側の携帯情報端末3側にその機種に関する問い合わせメールを送信し、この返信を受けることによってその機種に対応したフォーマットに変換するなどしても良い。
【0034】
送信手段27は、このように生成された音楽データおよびメッセージを、ネットワーク4を介して受信先の携帯情報端末3に送信する。
【0035】
次に、このように構成された音楽データシステム100のフローについて図4を用いて説明する。
【0036】
まず、メロディ付きメッセージの送信サービスの提供を受ける場合、ユーザは所定のアプリケーションを立ち上げて図6に示すような画面を表示し、この画面に従ってメッセージ入力および、そのメッセージの送信先である携帯情報端末の電子メールアドレスの入力を行う。これを受け付けた携帯情報端末1側では(ステップS1)、画面に表示されたメッセージの送信キーが押下されることによって(ステップS2)、そのメッセージおよび相手先の電子メールアドレスに関する情報を音楽データ生成サーバ装置2に送信する(ステップS3)。
【0037】
次に、この情報を受信した音楽データ生成サーバ装置2側では(ステップS10)、その受信した情報の中からメッセージのテキスト情報を抽出し(ステップS11)、この情報を形態素解析する(ステップS12)。そして、この形態素解析の結果に基づいて、まず、その文章構成要素の中にあらかじめ登録されているポジティブな文字列とネガティブな文字列とがいくつ含まれているかをカウントする(ステップS13)。そして、この文字列のカウント数に基づいてポジティブな文字列の方が多いか、もしくは同数である場合は、長調の音楽を生成する旨の出力を行う。また、逆にネガティブな文字列の方が多い場合は、短調の音楽を生成する旨の出力を行う(ステップS14)。
【0038】
そして、この旋法の判定を行ったのち、今度は形態素解析された文字構成要素の文字数のカウントを行う。この文字数のカウントは、例えば、ひらがな変換された文字構成要素の文字数をカウントする(ステップS15)とともに、そのカウント数があらかじめ用意されたテンプレートの音数を超えるものである場合、その文字数をテンプレートの音数に当てはまる任意の文字数に分解する。そして、このようにカウントされた文字数に対応するテンプレートを当てはめて(ステップS16)、ステップS14で決定された旋法に基づいて旋法の変換処理を行う(ステップS17)。なお、ステップS14で決定された旋法が長調である場合は、変換処理を行わず、また、そのステップで決定された旋法が短調である場合は、C majorで構成された音符列のB音、E音、A音を半音階さげるように処理する。また、他の調については、C majorあるいは c minorを平行移動によって移調する。そして、最後にこのように生成されたメロディを全体的に音楽的なメロディに修正すべく、その長さや繰り返しおよび終止形などの修正作業を行う(ステップS18)。
【0039】
次に、このように生成されたメロディに対してコード付けを行う。このため、メロディを伴奏データ付加手段251に渡し、そこでメロディに対応するコードを生成して(ステップS19)、コードをメロディに付加する(ステップS20)。
【0040】
そして、最後に、この生成された音楽にメッセージを付加してメディアデータを生成するとともに、必要なフォーマット変換の処理などを行う(ステップS21)。そして、この生成したメディアデータを、メッセージ作成者側から確認要求がなされることに基づいて、そのメッセージ作成者側に送信し(ステップS22、ステップS4)、その携帯情報端末1から出力して視聴させる(ステップS5)。そして、視聴の結果、この生成された音楽で「良い」、もしくは、「作り直し」すべきであるとの指示がなされた場合(ステップS6)、この視聴の結果をメロディ生成サーバ装置2に送信し(ステップS7)、視聴の結果が「作り直し」すべきであるとの結果であった場合(ステップS23:NG)、ステップS16に戻ってメロディを生成し直す。一方、視聴の結果が「良い」との結果であった場合は(ステップS23:YES)、生成したメディアデータを作成者相手先の電子メールアドレス宛に送信し(ステップS24)、それを受信した携帯情報端末3側では(ステップS30)、音楽データおよびメッセージに関する情報を記憶し(ステップS31)、その出力指示がなされることに基づいて(ステップS32)その音楽とメッセージとを同期させて出力する(ステップS33)。
【0041】
このように上記実施の形態においては、文章の入力を受け付けてこの文章の構成を形態素解析し、この結果に基づいて音楽データを生成するようにしたので、例えば、グリーティングカードのようにメッセージに音楽を添付して送信するような場合であっても、そのメッセージにオリジナリティを持たせることができるようになる。
【0042】
また、その音楽データを生成する際、入力された文章を形態素解析し、この文章構成要素の長さに対応したテンプレートを当てはめて音楽を生成するようにしたので、文章の長さに対応した音楽を生成することができ、作成者が希望した長さの音楽を容易に生成することができるようになる。
【0043】
更に、この音楽データの生成に際して、文章の意味を考慮すべくポジティブな要素の文字列およびネガティブな要素の文字列を抽出し、これらの数に基づいて旋法および調を決定するようにしたので、感情的な意味を有する文章に適合した音楽を容易に生成することができるようになる。
【0044】
加えて、この音楽を出力する際、入力された文章と同期をとって出力するようにしたので、文章と音楽の対応関係を容易に把握させることができ、音楽に合わせて歌わせるなどのようなカラオケ的な嗜好を持たせることができるようになる。
【0045】
また、このメッセージおよび音楽データを第三者の携帯情報端末3に電子メールで送信するようにしたので、オリジナリティに富んだグリーティングカードを送信することができるようになる。
【0046】
なお、本発明は上記実施の形態に限定されることなく、種々の態様で実施することができる。
【0047】
例えば、上記実施の形態においては、携帯情報端末1、3および音楽データ生成サーバ装置2などによってシステム100を構成するようにしたが、1台の端末装置でこれら全ての機能を実現することができる場合は、その端末装置によって音楽データを生成するようにしても良い。この場合、本発明との関係においては、この端末装置が音楽データ生成システムとなる。
【0048】
また、上記実施の形態においては、メロディおよびコードからなる音楽データを生成するようにしたが、メロディだけからなる音楽を生成するようにしても良い。
【0049】
また、上記実施の形態においては、第三者の携帯情報端末3にメッセージおよび音楽データを送信するようにしているが、これに限らず、自分自身にその生成した音楽データを送信するようにしても良い。この場合、例えば、歌詞として文章を入力すれば、音楽データ生成サーバ装置2側でこの歌詞の長さに対応した音楽データを生成することができるため、歌詞付きの音楽を生成することができる。また、この場合も同様に音楽と文章の同期をとって出力するようにすれば、カラオケとしてその音楽を利用することができるようになる。
【0050】
また、上記実施の形態では、視聴の結果がNGで合った場合、テンプレートの当てはめ作業を再度行うようにしているが、ユーザに文章の再入力を促すメッセージを行うとともに、この新たなメッセージに基づいて再度メロディ生成などを行うようにしても良い。
【0051】
【発明の効果】
本発明では、ユーザからメッセージなどの文章の入力を受け付け、この受け付けた文章の構成要素に基づいて音楽データを生成し、その音楽データを出力できるように構成したので、独自に作成した意味ある文章からオリジナルの音楽を生成することができるようになる。
【図面の簡単な説明】
【図1】本実施形態の音楽データ生成システムの概観図
【図2】同形態における機能ブロック図
【図3】同形態における音楽データ生成手段の詳細機能ブロック図
【図4】同形態におけるシステムフローチャート
【図5】同形態における形態素解析を示す図
【図6】同形態における携帯情報端末の表示例
【符号の説明】
1、3・・・携帯情報端末
2・・・音楽データ生成サーバ装置
4・・・ネットワーク
10・・・入力受付手段
14・・・出力手段
21・・・解析手段
25・・・音楽データ生成手段
251・・・伴奏データ生成手段
252・・・伴奏データ付加手段
TECHNICAL FIELD OF THE INVENTION
The present invention relates to, for example, a system for generating music from text, and more specifically, to a system for easily generating self-made music using a terminal device.
[0001]
[Prior art]
Currently, a service is provided in which a message can be added to an animation image, music, or the like, such as a greeting card, so that the message can be transmitted. In this system, generally, a plurality of greeting cards are registered in the server device in advance, and a user can select a desired greeting card from among them and add a message.
[0002]
[Problems to be solved by the invention]
However, since such a system selects and uses images and music from a limited number of cards registered on the server device side, it is necessary to give the originality of the user to the card to be transmitted. Can not. It is also possible for the user to create his own music and send the created music with a message. However, in order to make music in this way, musical expertise is required. In addition to this, for example, a device for inputting the music information is such as a mobile phone or a personal computer. In such a case, the input takes a lot of time.
[0003]
On the other hand, as a service that allows a user to easily create original music, a service that allows text input from a mobile phone and generates music from the text is also currently provided.
[0004]
This system generates music from names and favorite words. For thousands of Japanese words with a clear image, how are the syllable beats and syllable connections (crossover sounds) included in them? The music is generated based on the close relationship between these syllables and the meaning of words by summing up whether they are used. For example, it has a hard image such as "go, ga, gi, gyu, ko, chi, ka, kyou, cha, ぱ, chi, ki, ba", and "fu, nu, ne, Words like "Ju, Chu, Nya, Nya, Nyo, Wa, Gu" have a soft image. Also, looking at each syllable, the syllable "ki" is suitable for conveying an image such as "clear, lively, bright, resistance, flashy, narrow", and the syllable "ho" is "pleasant, calm" , Safe, excellent, pale, happy, thin. " Then, the characteristics of the image that the sound has over each of the syllables are captured, and music that matches the image is generated.
[0005]
However, since such a system generates music from so-called short "words" such as names and favorite words, there is a high possibility that the user will select similar words, Since there is little information for giving a change, there is a high possibility that the music is common. Therefore, pursuing the originality of the user by such a method is not perfect.
[0006]
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has as its object to provide a system capable of generating original music by expanding the range of originality.
[0007]
[Means for Solving the Problems]
That is, in order to solve the above-mentioned problem, the present invention is configured to receive a text input such as a message from a user, generate music data based on the components of the received text, and output music based on the data. It was done.
[0008]
With this configuration, music data can be generated not only from short words but also from meaningful sentences, so even if the same words are partially used, by changing the length or arrangement of the sentences, etc. Original music data can be generated.
[0009]
Further, when generating the music data, the music data corresponding to the length of the input sentence is generated.
[0010]
With this configuration, the length of the music can be changed based on the length of the input sentence, and the length of the music can be easily changed.
[0011]
Further, when generating the music data, a keyword is extracted from the sentence, and a modality of major or minor and a key of which key is to be determined based on the keyword are determined. Generate music data.
[0012]
With such a configuration, music data suitable for the emotion of the user can be easily generated without prompting the user to input a melody and a key representing the atmosphere of the music.
[0013]
When outputting music, synchronized output such as changing the display form of a sentence in accordance with the reproduction state of the music is performed.
[0014]
With this configuration, the user can easily grasp the correspondence between the sentence and the music, and karaoke can be performed based on the synchronized output.
[0015]
When outputting the music data, the input text is displayed on a third-party terminal device by e-mail, and the music data is output.
[0016]
With this configuration, it is possible to transmit a mail pursuing the originality of the sender, and to transmit a message having a higher preference.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In the present embodiment, portable information terminals 1 and 3 such as mobile phones are used as terminal devices, and a music data generation server device 2 is used as a server device. When generating music data, the portable information terminal 1 accepts an input of a text of a message to be transmitted to the other party, and transmits the text to the music data generation server device 2 via the network 4. Then, the music data generation server device 2 receiving the text and the e-mail address of the other party performs a morphological analysis of the message, generates music data composed of a melody and a code based on the morphological analysis, and generates the music data and the message. And data to the destination e-mail address. Then, the portable information terminal 3 that receives the message outputs the music and the message in synchronization. Hereinafter, the present embodiment will be described in detail.
[0018]
As shown in the block diagram of FIG. 2, the portable information terminals 1 and 3 are connected to an input receiving unit 10 for receiving a message input of a sentence composed of a plurality of phrases and a music data generation server device 2 via a network 4 such as the Internet. Transmitting means 11 and receiving means 13 for transmitting and receiving data between them, storage means 12 for storing a message with music generated by the music data generation server device 2, and output means 14 for outputting the stored message with music It comprises. In addition, the portable information terminals 1 and 2 have other means for performing functions unique to the portable information terminal, for example, means for functioning as a normal telephone.
[0019]
The input receiving means 10 for receiving an input of a message is configured by operation keys provided on the portable information terminals 1 and 3 and an application for permitting the input of the message. Normally, the operation keys are constituted by numeric keys provided in the portable information terminals 1 and 3, but text information may be created from voice using a voice recognition technique.
[0020]
The transmission unit 11 transmits a message to the music data generation server device 2 via the network 4 such as the Internet. The receiving means 13 receives the message with music transmitted from the music data generation server device 2.
[0021]
The storage unit 12 stores information necessary for operating the portable information terminals 1 and 3. The storage unit 12 includes an operation execution program for operating the mobile phone and music data received from the music data generation server device 2. And data related to messages.
[0022]
The output unit 14 includes a display output unit such as a display and an audio output unit such as a speaker. The output unit 14 outputs and outputs a message transmitted from the music data generation server device 2 and outputs music data as audio. The sound is output by the output means. The display output and the audio output incorporate a program for outputting the data while synchronizing with each other. For example, the display form is changed such that the color of the displayed message is sequentially changed in accordance with the progress of the music.
[0023]
On the other hand, the music data generation server device 2 automatically generates music data based on a received message, and includes a receiving unit 20, an analyzing unit 21, a meaning determining unit 22, a modal / tone determining unit 23, a note sequence generating unit. 24, music data generating means 25, media data generating means 26, and transmitting means 27.
[0024]
The receiving unit 20 receives data from the portable information terminal 1 via the network 4 and receives text data constituting a message from the portable information terminal 1 and an e-mail address as a destination to which the message is transmitted.
[0025]
The analysis means 21 is for performing morphological analysis on a message transmitted from the portable information terminal 1, and for example, as shown in FIG. If the information contains the word "", it is converted into hiragana and decomposed into "always", "show", "is", "." In this morphological analysis, not only the method of decomposing by Hiragana conversion, but also the method of decomposing into “always”, “care”, “became”, “.” , “Osewa”, “ninatteorimasu”, “.”, Etc. can also be adopted.
[0026]
The meaning determining unit 22 determines whether a predetermined character string is included in the sentence component analyzed by the analyzing unit 21 and determines whether the sentence as a whole has a bright meaning or a sad meaning. Determine if you have In this semantic judgment, a character string of a positive element, for example, "happy, happy, easy, fun, good, bright, good, light, south, white, top" and the like are registered in advance, In addition, as a character string of a negative element, for example, “sad, neglect, dislike, dark, evil, distress, thought, north, black, and lower” are registered. Then, it counts how many positive element character strings and negative element character strings are included in the constituent elements of the morphologically analyzed sentence.
[0027]
Then, the melody / tone determining unit 23 compares the number of character strings of the positive element with the number of character strings of the negative element, and first determines a major or minor key. More specifically, if the number of positive element character strings is large or equal, the music to be generated is determined to be a major key. Conversely, when the number of negative element character strings is larger, the music to be generated is determined to be in minor. In addition, as for the key to determine which sound is to be the main tone, in the simplified version, the C sound is used as the main tone, but in the normal version, a melody generated by C major or c minor is separately defined (for example, The main tone is determined by the S-JIS code of the character and taking mode 7).
[0028]
On the other hand, the note string generating means 24 counts the number of characters of the sentence constituent element subjected to the morphological analysis, and generates a note string by applying a melody template prepared in advance corresponding to the counted number. Specifically, first, a plurality of types of C major templates composed of one sound, two sounds, three sounds, four sounds, and five sounds are prepared. Then, for the character components analyzed by the morphological analysis, one-byte characters are counted as “1” in one byte, and two-byte characters are counted as “2” in two bytes, and any number of sounds corresponding to the counted number is counted. Apply the template. If the count of the character component subjected to the morphological analysis exceeds “5”, there is no template to be applied to this, and the count of the character component is decomposed into an arbitrary count. Apply a template corresponding to the count number. Thus, for example, when the count number such as “became” shown in FIG. 5 is “8”, for example, “4”, “2”, “2” ”Is applied to the template corresponding to each count number. As a result, a note sequence corresponding to the length of a sentence can be generated.
[0029]
The musical note sequence thus generated by the musical note sequence generating means is generated by the music data generating means 25 into music corresponding to the message. As shown in FIG. 3, the music data generating means 25 includes a melody (main melody) data generating means 250, an accompaniment data generating means 251, and an accompaniment data adding means 252.
[0030]
The melody data generating means 250 combines the note strings generated by the note string generating means 24 and converts the note strings into the melody and key determined by the melody / tone determining means 23. When the music is composed in a major key, it is usually configured as a C major, and when it is configured in a minor key, it is configured as a c minor obtained by lowering the B, E, and B sounds of the C major by a semitone. . Then, after these processes are performed, the length, repetition, end form, and the like are adjusted so that the melody becomes musical as a whole, and this data is passed to the accompaniment data generation means 251.
[0031]
The accompaniment data generation means 251 generates a chord suitable for the progress of the melody based on the generated melody. In this chord generation, first, for a given melody, all chord progressions allowed according to trichord progression are listed. This chord progression follows a set of rules called "prohibitions" in harmony, that is, rules such as "you should do this", "you must do this" or "do not do this". Takes into account both the first inversion type and the second inversion type, and generates a seventh chord and a ninth chord for the genera chords up to that inversion type. Then, for all the codes generated in this way, the code progress is evaluated in accordance with a preset evaluation table, and the code with the highest evaluation is extracted.
[0032]
The accompaniment data adding means 252 assigns the chord thus extracted to the melody. In this assignment work, processing such as assigning a chord to a melody note sequence in accordance with the melody tempo is performed.
[0033]
Then, the music data thus generated is integrated with the message by the media data generating means 26, and is converted into data that can be transmitted. The generated music data file is converted into, for example, a SMAF MA2 or CMIDI 2.0 format so that the file format can be output by the portable information terminal 3 on the message receiving side. If the output format on the receiving side is not known in the file conversion work, for example, an inquiry mail regarding the model is transmitted from the music data generation server device 2 to the portable information terminal 3 on the receiving side, and this reply is sent. Upon receipt, the data may be converted into a format corresponding to the model.
[0034]
The transmitting means 27 transmits the music data and the message generated in this way to the portable information terminal 3 of the receiving destination via the network 4.
[0035]
Next, the flow of the music data system 100 thus configured will be described with reference to FIG.
[0036]
First, when receiving the provision of a service for transmitting a message with a melody, the user starts up a predetermined application to display a screen as shown in FIG. 6, inputs a message according to this screen, and outputs the portable information as the transmission destination of the message. Enter the e-mail address of the terminal. When the portable information terminal 1 accepts the message (step S1), the transmission key of the message displayed on the screen is pressed (step S2), and the information on the message and the e-mail address of the other party is generated as music data. The data is transmitted to the server device 2 (step S3).
[0037]
Next, the music data generation server device 2 that has received this information (step S10) extracts text information of the message from the received information (step S11), and morphologically analyzes this information (step S12). . Then, based on the result of the morphological analysis, first, how many positive character strings and negative character strings are registered in advance in the sentence component is counted (step S13). If there are more or the same number of positive character strings based on the count number of this character string, an output is generated to the effect that a major music is generated. On the other hand, if there are more negative character strings, an output to generate minor music is output (step S14).
[0038]
After the determination of the trajectory is performed, the number of characters of the character component subjected to the morphological analysis is counted. The count of the number of characters is performed, for example, by counting the number of characters of the character component converted into hiragana (step S15), and if the counted number exceeds the number of sounds of the template prepared in advance, the number of characters is set to Break it down into any number of characters that fits the number of notes. Then, a template corresponding to the number of characters counted in this way is applied (step S16), and a conversion process of the melody is performed based on the melody determined in step S14 (step S17). If the melody determined in step S14 is major, no conversion processing is performed, and if the melody determined in that step is minor, the B sound of the note string composed of C major, Processing is performed so that the E and A sounds are reduced by a chromatic scale. As for other keys, C major or c minor is transposed by translation. Finally, in order to modify the melody thus generated into a musical melody as a whole, a modification operation such as its length, repetition and end form is performed (step S18).
[0039]
Next, coding is performed on the melody generated in this manner. Therefore, the melody is passed to the accompaniment data adding means 251, where a code corresponding to the melody is generated (step S19), and the code is added to the melody (step S20).
[0040]
Finally, a message is added to the generated music to generate media data, and a necessary format conversion process is performed (step S21). The generated media data is transmitted to the message creator based on the confirmation request from the message creator (steps S22 and S4), and output from the portable information terminal 1 for viewing. (Step S5). Then, as a result of the viewing, when an instruction is given that the generated music should be “good” or “recreate” (step S6), the result of the viewing is transmitted to the melody generation server device 2. (Step S7) If the result of viewing is a result that should be "recreated" (Step S23: NG), the process returns to Step S16 to regenerate the melody. On the other hand, if the viewing result is “good” (step S23: YES), the generated media data is transmitted to the e-mail address of the creator's destination (step S24), and received. The portable information terminal 3 (step S30) stores information on the music data and the message (step S31), and outputs the music and the message in synchronization based on the output instruction (step S32). (Step S33).
[0041]
As described above, in the above-described embodiment, the input of a sentence is received, the configuration of the sentence is morphologically analyzed, and music data is generated based on the result. Even if the message is attached and transmitted, originality can be given to the message.
[0042]
Also, when generating the music data, the input sentence is subjected to morphological analysis, and a template corresponding to the length of the sentence component is applied to generate music. Can be generated, and music of a desired length can be easily generated by the creator.
[0043]
Furthermore, in generating the music data, a character string of a positive element and a character string of a negative element are extracted in order to consider the meaning of the sentence, and a melody and a key are determined based on these numbers. Music suitable for a sentence having an emotional meaning can be easily generated.
[0044]
In addition, when this music is output, it is synchronized with the input sentence so that it can be output, so that the correspondence between the sentence and the music can be easily grasped, such as singing along with the music. It will be possible to give a karaoke-like taste.
[0045]
Further, since the message and the music data are transmitted to the portable information terminal 3 of the third party by e-mail, a greeting card rich in originality can be transmitted.
[0046]
The present invention is not limited to the above embodiment, but can be implemented in various modes.
[0047]
For example, in the above embodiment, the system 100 is configured by the portable information terminals 1 and 3 and the music data generation server device 2 and the like. However, all of these functions can be realized by one terminal device. In this case, music data may be generated by the terminal device. In this case, in relation to the present invention, this terminal device becomes a music data generation system.
[0048]
Further, in the above embodiment, the music data including the melody and the chord is generated, but the music including only the melody may be generated.
[0049]
Further, in the above-described embodiment, the message and the music data are transmitted to the portable information terminal 3 of the third party. However, the present invention is not limited to this, and the generated music data is transmitted to itself. Is also good. In this case, for example, if a sentence is input as the lyrics, the music data generation server device 2 can generate music data corresponding to the length of the lyrics, so that music with lyrics can be generated. Also, in this case, if the music and the sentence are similarly synchronized and output, the music can be used as karaoke.
[0050]
Further, in the above embodiment, when the result of viewing is NG, the template fitting operation is performed again. However, a message urging the user to re-enter a sentence is issued, and a message based on the new message is issued. Melody generation or the like may be performed again.
[0051]
【The invention's effect】
In the present invention, a text such as a message is received from the user, music data is generated based on the components of the received text, and the music data is output. To generate original music.
[Brief description of the drawings]
FIG. 1 is an overview of a music data generation system according to an embodiment of the present invention. FIG. 2 is a functional block diagram of the same embodiment. FIG. 3 is a detailed functional block diagram of a music data generating unit of the embodiment. FIG. FIG. 5 is a diagram showing a morphological analysis in the same form. FIG. 6 is a display example of a portable information terminal in the same form.
1, 3, mobile information terminal 2, music data generation server device 4, network 10, input receiving means 14, output means 21, analysis means 25, music data generation means 251 ... accompaniment data generating means 252 ... accompaniment data adding means

Claims (13)

文章として入力された情報をもとに音楽データを生成する音楽データ生成システムにおいて、文章の入力を受け付ける入力受付手段と、この受け付けた文章の構成を解析する解析手段と、この解析手段による解析結果に基づいて音楽データを生成する音楽データ生成手段と、この生成された音楽データに基づく音楽を出力する出力手段と、を具備して成ることを特徴とする音楽データ生成システム。In a music data generating system for generating music data based on information input as a sentence, an input receiving means for receiving an input of a sentence, an analyzing means for analyzing a configuration of the received sentence, and an analysis result by the analyzing means A music data generation system comprising: music data generation means for generating music data based on the music data; and output means for outputting music based on the generated music data. 前記音楽データ生成手段が、入力された文章の長さに対応した長さの音楽データを生成するものである請求項1に記載の音楽データ生成システム。The music data generation system according to claim 1, wherein the music data generation means generates music data having a length corresponding to a length of the input text. 前記音楽データ生成手段が、解析された文章のキーワードに基づいて旋法および調を決定してその旋法および調の音楽データを生成するものである請求項1または2に記載の音楽データ生成システム。3. The music data generation system according to claim 1, wherein the music data generation means determines a tune and a key based on the analyzed keyword of the sentence and generates music data of the tune and the key. 前記出力手段が、前記入力手段によって入力された文章と音楽とを同期させて出力するものである請求項1から3いずれか1項に記載の音楽データ生成システム。The music data generation system according to any one of claims 1 to 3, wherein the output means outputs the text and music input by the input means in synchronization with each other. 前記出力手段が、第三者からの電子メールによって受け取った文章を表示し、音楽を出力するものである請求項1から4いずれか1項に記載の音楽データ生成システム。The music data generation system according to any one of claims 1 to 4, wherein the output means displays a text received by an e-mail from a third party and outputs music. 端末装置で受け付けた文章に基づいて音楽データを生成する音楽データ生成サーバ装置であって、端末装置で受け付けた文章の構成を解析する解析手段と、この解析手段による解析結果に基づいて音楽データを生成する音楽データ生成手段と、この生成された音楽データを端末装置で出力可能に送信する送信手段と、を具備して成ることを特徴とする音楽データ生成サーバ装置。A music data generation server device that generates music data based on a sentence received by a terminal device, comprising: an analysis unit that analyzes a configuration of a sentence received by the terminal device; and music data based on an analysis result by the analysis unit. A music data generation server device comprising: music data generation means for generating; and transmission means for transmitting the generated music data so that the terminal device can output the music data. 前記音楽データ生成手段が、入力された文章の長さに対応した長さの音楽データを生成するものである請求項6に記載の音楽データ生成サーバ装置。7. The music data generation server device according to claim 6, wherein the music data generation means generates music data having a length corresponding to a length of the input sentence. 前記音楽データ生成手段が、解析手段によって解析された文章のキーワードに基づいて旋法および調を決定してその旋法および調の音楽データを生成するものである請求項6に記載の音楽データ生成サーバ装置。7. The music data generation server device according to claim 6, wherein the music data generation means determines a tune and a key based on a keyword of a sentence analyzed by the analysis means and generates music data of the tune and the key. . 前記送信手段が、第三者の端末装置でその文章を表示し、音楽を出力できるように送信するものである請求項6から8いずれか1項に記載の音楽データ生成サーバ装置。The music data generation server device according to any one of claims 6 to 8, wherein the transmission means displays the text on a third party terminal device and transmits the music so that the music can be output. 文章として入力された文章に基づいて音楽データを生成する音楽データ生成方法であって、入力された文章の構成を解析するステップと、この解析結果に基づいて音楽データを生成するステップと、この生成された音楽データを出力可能な端末装置に送信するステップと、を具備して成ることを特徴とする音楽データ生成方法。A music data generation method for generating music data based on a sentence input as a sentence, comprising the steps of: analyzing a configuration of the input sentence; generating music data based on the analysis result; Transmitting the selected music data to a terminal device capable of outputting the music data. 前記音楽データを生成するステップが、入力された文章の長さに対応した長さの音楽データを生成するものである請求項10に記載の音楽データ生成方法。The music data generating method according to claim 10, wherein the step of generating the music data generates music data having a length corresponding to a length of an input sentence. 前記音楽データ生成方法が、解析された文章のキーワードに基づいて旋法および調を決定してその旋法および調の音楽データを生成するものである請求項10または11に記載の音楽データ生成方法。The music data generation method according to claim 10 or 11, wherein the music data generation method determines a melody and a key based on the analyzed keyword of the sentence and generates music data of the melody and the key. 前記送信するステップが、第三者の端末装置でその文章を表示し、音楽を出力できるように送信するものである請求項10から12いずれか1項に記載の音楽データ生成方法。The music data generation method according to claim 10, wherein the transmitting includes displaying the text on a third party terminal device and transmitting the music so that the music can be output.
JP2003014097A 2003-01-22 2003-01-22 Music data generation system, music data generation server device Expired - Fee Related JP3694698B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003014097A JP3694698B2 (en) 2003-01-22 2003-01-22 Music data generation system, music data generation server device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003014097A JP3694698B2 (en) 2003-01-22 2003-01-22 Music data generation system, music data generation server device

Publications (2)

Publication Number Publication Date
JP2004226671A true JP2004226671A (en) 2004-08-12
JP3694698B2 JP3694698B2 (en) 2005-09-14

Family

ID=32902237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003014097A Expired - Fee Related JP3694698B2 (en) 2003-01-22 2003-01-22 Music data generation system, music data generation server device

Country Status (1)

Country Link
JP (1) JP3694698B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009216795A (en) * 2008-03-07 2009-09-24 Nec Corp Melody preparing device, method and program, and mobile terminal device
JP2010224327A (en) * 2009-03-25 2010-10-07 Fujitsu Ltd Melody creation device, melody creation program and melody creation method
JP2014224976A (en) * 2013-04-15 2014-12-04 清 宮浦 Voice generation device, voice generation method and program

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0773122A (en) * 1993-06-14 1995-03-17 Fujitsu Ltd Composite document management system
JPH08179764A (en) * 1994-12-22 1996-07-12 Casio Comput Co Ltd Electronic equipment having musical sound generating function
JPH11242490A (en) * 1998-02-25 1999-09-07 Daiichikosho Co Ltd Karaoke (accompaniment to recorded music) playing device supplying music generating data for ringing melody
JPH11327552A (en) * 1998-05-15 1999-11-26 Nippon Telegr & Teleph Corp <Ntt> Arrangement support method for musical piece and memory medium storing arrangement support program of musical piece
JPH11327553A (en) * 1998-05-15 1999-11-26 Nippon Telegr & Teleph Corp <Ntt> Method for determining music tone conversion point of song and memory medium storing music tone conversion point determination program
JP2000039884A (en) * 1998-07-22 2000-02-08 Yamaha Corp Musical piece information forming device with data. reproducing device, transmission and reception system and recording medium
JP2000066665A (en) * 1998-08-21 2000-03-03 Yamaha Corp Automatic music composing device and recording medium
JP2000105595A (en) * 1998-09-30 2000-04-11 Victor Co Of Japan Ltd Singing device and recording medium
JP2001209592A (en) * 2000-01-28 2001-08-03 Nippon Telegr & Teleph Corp <Ntt> Audio response service system, audio response service method and record medium stored with the method
JP2001350472A (en) * 2000-06-05 2001-12-21 Anekkusu Joho Kenkyusho:Kk Method and system for automatic composition, and storage medium therefor
JP2001352370A (en) * 2000-06-08 2001-12-21 Nec Mobiling Ltd Portable terminal with automatic playing function
JP2002055679A (en) * 2000-05-30 2002-02-20 Yamaha Corp Contents-generating service system, method and recording medium
JP2002108787A (en) * 2000-10-03 2002-04-12 U's Mobile Co Ltd Method and device for transmitting/receiving electronic mail with sound
JP2002169552A (en) * 2000-09-20 2002-06-14 Yamaha Corp Composition support system, composition support method, and musical composition template data provision system
JP2002182675A (en) * 2000-12-11 2002-06-26 Yamaha Corp Speech synthesizer, vocal data former and singing apparatus
JP2002202779A (en) * 1996-05-27 2002-07-19 Yamaha Corp Automated melody generator and recording medium
JP2002258841A (en) * 2001-02-28 2002-09-11 Daiichikosho Co Ltd Method, device and program for midi data conversion
JP2002297157A (en) * 2001-03-30 2002-10-11 Yamaha Corp Device and method for information transmission and reception and storage medium
JP2003228369A (en) * 2002-02-01 2003-08-15 Yamaha Corp Audio melody music generator and portable terminal device using the generator
JP2004163511A (en) * 2002-11-11 2004-06-10 Sony Ericsson Mobilecommunications Japan Inc Mobile terminal device

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0773122A (en) * 1993-06-14 1995-03-17 Fujitsu Ltd Composite document management system
JPH08179764A (en) * 1994-12-22 1996-07-12 Casio Comput Co Ltd Electronic equipment having musical sound generating function
JP2002202779A (en) * 1996-05-27 2002-07-19 Yamaha Corp Automated melody generator and recording medium
JPH11242490A (en) * 1998-02-25 1999-09-07 Daiichikosho Co Ltd Karaoke (accompaniment to recorded music) playing device supplying music generating data for ringing melody
JPH11327552A (en) * 1998-05-15 1999-11-26 Nippon Telegr & Teleph Corp <Ntt> Arrangement support method for musical piece and memory medium storing arrangement support program of musical piece
JPH11327553A (en) * 1998-05-15 1999-11-26 Nippon Telegr & Teleph Corp <Ntt> Method for determining music tone conversion point of song and memory medium storing music tone conversion point determination program
JP2000039884A (en) * 1998-07-22 2000-02-08 Yamaha Corp Musical piece information forming device with data. reproducing device, transmission and reception system and recording medium
JP2000066665A (en) * 1998-08-21 2000-03-03 Yamaha Corp Automatic music composing device and recording medium
JP2000105595A (en) * 1998-09-30 2000-04-11 Victor Co Of Japan Ltd Singing device and recording medium
JP2001209592A (en) * 2000-01-28 2001-08-03 Nippon Telegr & Teleph Corp <Ntt> Audio response service system, audio response service method and record medium stored with the method
JP2002055679A (en) * 2000-05-30 2002-02-20 Yamaha Corp Contents-generating service system, method and recording medium
JP2001350472A (en) * 2000-06-05 2001-12-21 Anekkusu Joho Kenkyusho:Kk Method and system for automatic composition, and storage medium therefor
JP2001352370A (en) * 2000-06-08 2001-12-21 Nec Mobiling Ltd Portable terminal with automatic playing function
JP2002169552A (en) * 2000-09-20 2002-06-14 Yamaha Corp Composition support system, composition support method, and musical composition template data provision system
JP2002108787A (en) * 2000-10-03 2002-04-12 U's Mobile Co Ltd Method and device for transmitting/receiving electronic mail with sound
JP2002182675A (en) * 2000-12-11 2002-06-26 Yamaha Corp Speech synthesizer, vocal data former and singing apparatus
JP2002258841A (en) * 2001-02-28 2002-09-11 Daiichikosho Co Ltd Method, device and program for midi data conversion
JP2002297157A (en) * 2001-03-30 2002-10-11 Yamaha Corp Device and method for information transmission and reception and storage medium
JP2003228369A (en) * 2002-02-01 2003-08-15 Yamaha Corp Audio melody music generator and portable terminal device using the generator
JP2004163511A (en) * 2002-11-11 2004-06-10 Sony Ericsson Mobilecommunications Japan Inc Mobile terminal device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009216795A (en) * 2008-03-07 2009-09-24 Nec Corp Melody preparing device, method and program, and mobile terminal device
JP4737212B2 (en) * 2008-03-07 2011-07-27 日本電気株式会社 Melody creation device, method, program, and portable terminal device
JP2010224327A (en) * 2009-03-25 2010-10-07 Fujitsu Ltd Melody creation device, melody creation program and melody creation method
JP2014224976A (en) * 2013-04-15 2014-12-04 清 宮浦 Voice generation device, voice generation method and program
WO2015105142A1 (en) * 2014-01-09 2015-07-16 佐藤勇二 Speech generation device, speech generation method, and program

Also Published As

Publication number Publication date
JP3694698B2 (en) 2005-09-14

Similar Documents

Publication Publication Date Title
KR101212403B1 (en) Method of composing music on a handheld device
US6424944B1 (en) Singing apparatus capable of synthesizing vocal sounds for given text data and a related recording medium
US9171530B2 (en) Methods and apparatus for creating music melodies using validated characters
JP3570332B2 (en) Mobile phone device and incoming melody input method thereof
JP3806030B2 (en) Information processing apparatus and method
EP3646315A1 (en) System and method for automatically generating media
JP4971023B2 (en) Music generation method, music generation device, music generation system
JP3595041B2 (en) Speech synthesis system and speech synthesis method
JP3694698B2 (en) Music data generation system, music data generation server device
JP2006178104A (en) Method, apparatus and system for musical piece generation
JP2002196779A (en) Method and apparatus for changing musical sound of sound signal
JP2002278548A (en) Lyric writing and composing system and program
JP4174028B2 (en) Music image output system and music image output method
JP2005062420A (en) System, method, and program for content generation
JP2008209535A (en) System and method for generating music information
JP2018159741A (en) Song lyrics candidate output device, electric musical instrument, song lyrics candidate output method, and program
KR100789223B1 (en) Message string correspondence sound generation system
Bresin et al. Expressive musical icons
US20040173083A1 (en) Music data producing system, server apparatus and music data producing method
JP4139878B2 (en) Music data generation system, music data generation device, and music data generation method
WO2004012181A1 (en) Information signal converting system
KR20060118094A (en) The service system for compsition and the method therefor
JP4173055B2 (en) Mobile communication terminal and program
KR100775285B1 (en) System and method for producing melody
Leplâtre The design and evaluation of non-speech sounds to support navigation in restricted display devices

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040907

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041012

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050318

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050318

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R154 Certificate of patent or utility model (reissue)

Free format text: JAPANESE INTERMEDIATE CODE: R154

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080708

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090708

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090708

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090708

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100708

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110708

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110708

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120708

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130708

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees