JP2016029499A - Musical composition support device, musical composition support method, musical composition support program, and recording medium having musical composition support program stored therein - Google Patents

Musical composition support device, musical composition support method, musical composition support program, and recording medium having musical composition support program stored therein Download PDF

Info

Publication number
JP2016029499A
JP2016029499A JP2015210109A JP2015210109A JP2016029499A JP 2016029499 A JP2016029499 A JP 2016029499A JP 2015210109 A JP2015210109 A JP 2015210109A JP 2015210109 A JP2015210109 A JP 2015210109A JP 2016029499 A JP2016029499 A JP 2016029499A
Authority
JP
Japan
Prior art keywords
melody
unit
information
input
midi data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015210109A
Other languages
Japanese (ja)
Inventor
文伸 加来
Fuminobu Kaku
文伸 加来
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2015210109A priority Critical patent/JP2016029499A/en
Publication of JP2016029499A publication Critical patent/JP2016029499A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a musical composition support device, musical composition support method, musical composition support program, and a recording medium having the musical composition support program stored therein with which music can be easily composed and variety of music can be composed.SOLUTION: A musical composition support device includes an input part 23 that receives the input of a melody sound, and a management server 30 and a lyric input terminal 40 that compose music on the basis of the melody sound input to the input part 23. The management server 30 and the lyric input terminal 40 compose music on the basis of a set genre, the taste of the music, and the number of bars in the melody sound.SELECTED DRAWING: Figure 1

Description

本発明は、作曲支援装置、作曲支援方法、作曲支援プログラム、作曲支援プログラムを格納した記録媒体に関する。   The present invention relates to a composition support device, a composition support method, a composition support program, and a recording medium storing the composition support program.

ユーザが作曲を行う場合は、音楽的な知識が必要となり、音楽的な知識の無いユーザにとっては気軽に行えるものではなかった。   When a user composes music, musical knowledge is required, and it is not easy for a user without musical knowledge.

このような問題に対して、ユーザが作成した歌詞に合ったメロディを生成する方法が、例えば特許文献1に提案されている。   For such a problem, for example, Patent Document 1 proposes a method of generating a melody that matches the lyrics created by the user.

特許文献1に記載されたメロディ生成装置は、歌詞に用いられている単語を発音したときの音節毎の音の高低を示す抑揚情報に基づいてメロディを生成することが記載されている。   The melody generating device described in Patent Document 1 describes generating a melody based on intonation information indicating the pitch of each syllable when a word used in lyrics is pronounced.

特開2002−149179号公報JP 2002-149179 A

特許文献1に記載されたメロディ生成装置では、メロディ(歌詞のアクセント)と歌詞の意味の組み合わせに違和感が無いため、歌詞とメロディを合わせた際に歌詞の意味が聴き手に伝わりやすいが、単語本来の抑揚には限度があるため、音程の変化(音の抑揚、音の跳躍)が限定されてしまう。そのため、同じような抑揚の単語の組み合わせの場合は、同じようなメロディが生成されてしまいメロディラインのバラエティが少なく単調なメロディが生成されるという問題がある。   In the melody generating device described in Patent Document 1, there is no sense of incongruity between the combination of the melody (lyric accent) and the meaning of the lyrics, so when the lyrics and the melody are combined, the meaning of the lyrics is easily communicated to the listener. Since there is a limit to the original inflection, changes in pitch (sound inflection, sound jumping) are limited. Therefore, in the case of the combination of similar inflection words, there is a problem that a similar melody is generated and a monotone melody is generated with a small variety of melody lines.

また、最近では聴き手が単語のアクセントと不一致のメロディをあまり気にしない場合や、意図的に逆アクセントを付けることで新鮮な雰囲気を出す効果もあるため、曲によっては単語本来の抑揚をメロディに用いることが最適とはいえない。   In addition, recently there is an effect that the listener does not care much about the melody that does not match the accent of the word, and there is also an effect of creating a fresh atmosphere by intentionally adding a reverse accent, so depending on the song, the original inflection of the word is a melody It is not the best to use it.

特許文献1では、単語の抑揚に乱数を用いてある程度の幅を持たせることも記載されているが、あくまで単語を発音したときの抑揚に基づくものであり、生成される曲の幅は限られてしまう。   Patent Document 1 also describes that a certain amount of width is given to the inflection of a word by using a random number. However, this is based on the inflection when a word is pronounced, and the width of the generated song is limited. End up.

そこで、本発明は、例えば、容易に作曲できるとともに、多彩な楽曲を作曲することができる作曲支援装置、作曲支援方法、作曲支援プログラム、作曲支援プログラムを格納した記録媒体を提供することを課題とする。   Accordingly, an object of the present invention is to provide, for example, a music composition support apparatus, a music composition support method, a music composition support program, and a recording medium storing the music composition support program that can compose music easily and compose a variety of music. To do.

上記課題を解決するために、請求項1に記載の作曲支援装置は、メロディ音を入力する入力部と、前記入力部に入力された前記メロディ音に基づいて作曲する作曲部と、を備え、前記作曲部は、設定されたジャンル及び曲調並びに前記メロディ音の小節数に基づき作曲を行うことを特徴としている。   In order to solve the above problem, the music composition support device according to claim 1 includes an input unit that inputs a melody sound, and a music composition unit that composes music based on the melody sound input to the input unit, The composition unit composes music based on a set genre and tone, and the number of measures of the melody sound.

請求項5に記載の作曲支援方法は、作曲支援装置で実行される作曲支援方法であって、メロディ音を入力する入力工程と、前記入力工程で入力された前記メロディ音に基づいて作曲する作曲工程と、を含み、前記作曲工程は、設定されたジャンル及び曲調並びに前記メロディ音の小節数に基づき作曲を行うことを特徴としている。   6. The composition support method according to claim 5, wherein the composition support method is executed by a composition support apparatus, wherein an input step of inputting a melody sound and a composition of music composition based on the melody sound input in the input step. And the composition step is characterized in that the composition is performed based on a set genre and tone and the number of measures of the melody sound.

本発明の第1の実施例にかかる作曲支援装置の構成図である。It is a block diagram of the music composition assistance apparatus concerning the 1st Example of the present invention. 図1に示された作曲支援装置のMIDIデータの属性情報DB保存部に保存される属性情報の例を示した表である。4 is a table showing an example of attribute information stored in an attribute information DB storage unit of MIDI data of the music composition support apparatus shown in FIG. 1. 図1に示された作曲支援装置に入力する歌詞の例である。It is an example of the lyrics input into the composition assistance apparatus shown by FIG. 図3に示された歌詞の例の音数を分割する方法の説明図である。It is explanatory drawing of the method of dividing | segmenting the number of sounds of the example of the lyrics shown by FIG. 図1に示された管理サーバとメロディ登録端末の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the management server and melody registration terminal which were shown by FIG. 図1に示された管理サーバと歌詞入力端末の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the management server and lyrics input terminal which were shown by FIG. 図6に示された検索動作を示すフローチャートである。7 is a flowchart showing a search operation shown in FIG. 6. 図7に示された4小節以上の音数でマッチするメロディ情報を検索する動作を示すフローチャートである。It is a flowchart which shows the operation | movement which searches the melody information which matches with the number of notes more than four measures shown by FIG. 図7に示された1小節毎に音数がマッチするメロディ情報を検索する動作を示すフローチャートである。It is a flowchart which shows the operation | movement which searches the melody information in which the number of sounds matches for every measure shown by FIG. 音数をスライドして分割する動作の説明図である。It is explanatory drawing of the operation | movement which slides and divides | segments the number of sounds. 検索結果を表示部に表示する際の説明図である。It is explanatory drawing at the time of displaying a search result on a display part. 本発明の第2の実施例にかかる作曲支援装置の構成図である。It is a block diagram of the music composition assistance apparatus concerning the 2nd Example of this invention. 図12に示された管理サーバとメロディ登録端末の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the management server and melody registration terminal which were shown by FIG.

以下、本発明の一実施形態にかかる作曲支援装置を説明する。本発明の一実施形態にかかる作曲支援装置は、メロディ音を入力する入力部と、入力部に入力されたメロディ音に基づいて作曲する作曲部と、を備え、作曲部は、設定されたジャンル及び曲調並びにメロディ音の小節数に基づき作曲を行う。このようにすることにより、設定されたジャンル、曲調及びメロディ音の小節数に基づき作曲をすることができる。   Hereinafter, a music composition support apparatus according to an embodiment of the present invention will be described. A composition support apparatus according to an embodiment of the present invention includes an input unit that inputs a melody sound, and a composition unit that composes based on the melody sound input to the input unit, and the composition unit includes a set genre. And compose music based on the melody and the number of measures in the melody. By doing so, it is possible to compose music based on the set genre, tone, and number of measures of the melody sound.

また、メロディ音は、少なくともユーザによる歌唱、鼻歌、又は楽器を用いた演奏のいずれかを含んでいればよい。また、メロディ音を五線譜上に表示する楽譜表示部をさらに備えてもよい。また、メロディ音をアレンジした生成メロディを音声信号に変換し、アップロードするネットワーク通信部をさらに備えてもよい。   Moreover, the melody sound should just contain at least one of the song by a user, a nose song, or the performance using a musical instrument. Moreover, you may further provide the score display part which displays a melody sound on a staff score. In addition, a network communication unit that converts a generated melody obtained by arranging melody sounds into an audio signal and uploads it may be further provided.

また、本発明の一実施形態にかかる作曲支援装置は、歌詞入力部から入力された歌詞情報に基づいて、検索部が複数の作成者によって作成された複数のメロディ情報を蓄積する蓄積部からメロディ情報を検索し、楽曲出力部から検索された結果を楽曲として出力するので、複数の作成者によって作成されたメロディ情報から歌詞に合わせたメロディ情報を検索することができる。また、様々な作成者による複数のメロディ情報を組み合わせて作曲することができるので、自動生成されるメロディよりもバラエティに富んだ曲が作成できる。また、ユーザは歌詞を入力するだけでよいので、容易に作曲を行うことができる。   In addition, the music composition support device according to the embodiment of the present invention includes a melody from a storage unit in which a search unit stores a plurality of melody information created by a plurality of creators based on lyrics information input from a lyrics input unit. Since the information is searched and the search result from the music output unit is output as a music, it is possible to search for melody information that matches the lyrics from melody information created by a plurality of creators. In addition, since a plurality of pieces of melody information by various creators can be combined to compose a song, it is possible to create a song with a variety more than an automatically generated melody. In addition, since the user only has to input lyrics, composition can be easily performed.

また、歌詞入力部に入力された歌詞情報から音数を抽出する音数抽出部を備え、検索部が、音数抽出部で抽出された音数に基づいて蓄積部に蓄積されているメロディ情報を検索してもよい。このようにすることにより、歌詞の音数から検索することができるので、歌詞の音数(文字数)に合わせられるとともに、歌詞の発音によらないメロディ情報の検索を行うことができる。   In addition, a melody information that includes a sound number extraction unit that extracts the number of sounds from the lyric information input to the lyrics input unit, and the search unit stores in the storage unit based on the number of sounds extracted by the sound number extraction unit You may search for. By doing so, it is possible to search from the number of sounds in the lyrics, so that it is possible to search for melody information that is matched to the number of sounds in the lyrics (number of characters) and that does not depend on the pronunciation of the lyrics.

また、音数抽出部が、歌詞情報から抽出した音数を複数の小節に分割してもよい。このようにすることにより、予め小節を構成した状態で検索部に情報を送信することができ、検索部で行う検索動作を行いやすくすることができる。   Further, the sound number extraction unit may divide the sound number extracted from the lyrics information into a plurality of bars. In this way, information can be transmitted to the search unit in a state in which measures are configured in advance, and the search operation performed by the search unit can be facilitated.

また、検索部が、メロディ情報を所定の小節単位で各小節内の音数に基づいて検索してもよい。このようにすることにより、音数のみで検索するよりもメロディ情報の検索が容易となり、候補を絞り込みやすくすることができる。   Further, the search unit may search the melody information in units of a predetermined measure based on the number of sounds in each measure. This makes it easier to search for melody information than to search only by the number of sounds, and to narrow down candidates.

また、検索部が、音数を増加または減少させメロディ情報を検索してもよい。このようにすることにより、検索対象となるメロディ情報を増やすことができ、作曲の幅を広げることができる。   The search unit may search for melody information by increasing or decreasing the number of sounds. By doing in this way, the melody information used as search object can be increased and the range of composition can be expanded.

また、メロディ情報には、キー情報と、小節ごとの音数情報と、を含んでもよい。このようにすることにより、複数のメロディ情報を組み合わせる際にキーの調整を行うことができたり、小節ごとに音数が合ったメロディ情報を検索することができる。   The melody information may include key information and sound number information for each measure. In this way, it is possible to adjust keys when combining a plurality of pieces of melody information, or to search for melody information that matches the number of sounds for each measure.

また、所定のメロディ情報に含まれるキー情報に基づいて、当該所定のメロディ以外のメロディ情報に含まれるキー情報を調整するキー調整部を更に備えてもよい。このようにすることにより、複数のメロディ情報を組み合わせた際の繋がりの違和感を緩和することができる。   Further, a key adjustment unit that adjusts key information included in melody information other than the predetermined melody based on key information included in the predetermined melody information may be further provided. By doing in this way, the discomfort of the connection at the time of combining several melody information can be relieved.

また、楽曲出力部が、検索部で検索されたメロディ情報を音楽として出力してもよい。このようにすることにより、検索されたメロディ情報をユーザ等に音として聞かせて確認させることができる。   The music output unit may output the melody information searched by the search unit as music. In this way, the searched melody information can be heard as a sound by a user or the like and confirmed.

また、楽曲出力部が、検索部で検索されたメロディ情報を音符情報として表示してもよい。このようにすることにより、検索されたメロディ情報を楽譜などとして表示してユーザに確認させることができる。   The music output unit may display the melody information searched by the search unit as note information. In this way, the searched melody information can be displayed as a musical score or the like to be confirmed by the user.

また、本発明の一実施形態にかかるメロディ検索装置は、歌詞情報受信部で受信した歌詞情報に基づいて、検索部で複数の作成者によって作成された複数のメロディ情報を蓄積する蓄積部からメロディ情報を検索し、検索結果出力部から検索された結果を出力するので、蓄積部に蓄積されたメロディ情報から音数に合ったメロディ情報を検索することができる。   A melody search device according to an embodiment of the present invention includes a melody from a storage unit that stores a plurality of pieces of melody information created by a plurality of creators in a search unit based on lyrics information received by a lyrics information reception unit. Since the information is searched and the search result is output from the search result output unit, the melody information matching the number of sounds can be searched from the melody information stored in the storage unit.

また、本発明の他の一実施形態にかかる作曲支援装置は、メロディ情報取得部で、蓄積部に蓄積された複数の作成者によって入力された複数のメロディ情報から、歌詞入力部によって入力された歌詞情報に基づいたメロディ情報の検索を行い、当該検索されたメロディ情報を含む検索結果を取得するので、複数の作成者によって作成されたメロディ情報から歌詞に合わせたメロディ情報を検索することができる。また、様々な作成者による複数のメロディ情報を組み合わせて作曲することができるので、自動生成されるメロディよりもバラエティに富んだ曲が作成できる。また、ユーザは歌詞を入力するだけでよいので、容易に作曲を行うことができる。   In addition, in the music composition support device according to another embodiment of the present invention, the melody information acquisition unit is input by the lyrics input unit from a plurality of melody information input by a plurality of creators stored in the storage unit. Since the melody information is searched based on the lyric information and the search result including the searched melody information is acquired, the melody information matching the lyrics can be searched from the melody information created by a plurality of creators. . In addition, since a plurality of pieces of melody information by various creators can be combined to compose a song, it is possible to create a song with a variety more than an automatically generated melody. In addition, since the user only has to input lyrics, composition can be easily performed.

また、本発明の一実施形態にかかる作曲支援方法は、歌詞入力工程において入力された歌詞情報に基づいて、検索工程で複数の作成者によって作成された複数のメロディ情報を蓄積する蓄積部からメロディ情報を検索し、楽曲出力工程で検索された結果を楽曲として出力するので、複数の作成者によって作成されたメロディ情報から歌詞に合わせたメロディ情報を検索することができる。また、様々な作成者による複数のメロディ情報を組み合わせて作曲することができるので、自動生成されるメロディよりもバラエティに富んだ曲が作成できる。また、ユーザは歌詞を入力するだけでよいので、容易に作曲を行うことができる。   According to another embodiment of the present invention, there is provided a music composition support method including a melody from a storage unit that stores a plurality of pieces of melody information created by a plurality of creators in a search process based on lyrics information input in a lyrics input process. Since the information is searched and the result searched in the music output step is output as music, it is possible to search for melody information that matches the lyrics from melody information created by a plurality of creators. In addition, since a plurality of pieces of melody information by various creators can be combined to compose a song, it is possible to create a song with a variety more than an automatically generated melody. In addition, since the user only has to input lyrics, composition can be easily performed.

また、本発明の一実施形態にかかる作曲支援プログラムは、上述した作曲支援方法をコンピュータに実行されている。このようにすることにより、複数の作成者によって作成されたメロディ情報から歌詞に合わせたメロディ情報を検索することができる。また、様々な作成者による複数のメロディ情報を組み合わせて作曲することができるので、自動生成されるメロディよりもバラエティに富んだ曲が作成できる。また、ユーザは歌詞を入力するだけでよいので、容易に作曲を行うことができる。   Moreover, the composition assistance program concerning one Embodiment of this invention is performing the composition assistance method mentioned above on the computer. In this way, it is possible to search for melody information that matches the lyrics from melody information created by a plurality of creators. In addition, since a plurality of pieces of melody information by various creators can be combined to compose a song, it is possible to create a song with a variety more than an automatically generated melody. In addition, since the user only has to input lyrics, composition can be easily performed.

また、上述した作曲支援プログラムをコンピュータ読み取り可能な記録媒体に格納してもよい。このようにすることにより、当該プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行える。   Further, the above-described composition support program may be stored in a computer-readable recording medium. In this way, the program can be distributed as a single unit in addition to being incorporated in the device, and version upgrades can be easily performed.

本発明の第1の実施例にかかる作曲支援装置1を図1乃至図11を参照して説明する。作曲支援装置1は図1に示すように、メロディ登録端末10、20と、管理サーバ30と、歌詞入力端末40と、から構成されている。   A composition support apparatus 1 according to a first embodiment of the present invention will be described with reference to FIGS. As shown in FIG. 1, the music composition support apparatus 1 includes melody registration terminals 10 and 20, a management server 30, and a lyrics input terminal 40.

メロディ登録端末10、20および歌詞入力端末40は、例えばパーソナルコンピュータやスマートフォン等のネットワークに接続可能な端末機器で構成されている。管理サーバ30は、例えば事業所などに設置されたコンピュータなどで構成され、メロディ登録端末10、20から登録されたメロディ情報の管理や、歌詞入力端末40から送信された音数情報に基づいてメロディ情報の検索などを行う。なお、メロディ登録端末10、20および歌詞入力端末40と管理サーバ30とは無線通信を行うが、直接通信や専用回線に限らず公衆回線を経由して通信を行ってもよいことはいうまでもない。   The melody registration terminals 10 and 20 and the lyrics input terminal 40 are configured by terminal devices that can be connected to a network such as a personal computer or a smartphone. The management server 30 is composed of, for example, a computer installed in an office or the like. The management server 30 manages melody information registered from the melody registration terminals 10 and 20 and melody based on the number information transmitted from the lyrics input terminal 40. Search information. The melody registration terminals 10 and 20 and the lyrics input terminal 40 and the management server 30 perform wireless communication, but it goes without saying that communication may be performed not only through direct communication or a dedicated line but also through a public line. Absent.

また、図1に記載の作曲支援装置1の構成は、一例でありこれに限られるものではない。図1は、作曲支援装置1が備える各構成部をメロディ登録端末10、20や歌詞入力端末40と管理サーバ30とに分けて備えてもよいことを示しており、例えば、歌詞入力端末40を構成する一部を、管理サーバ30が備えることとしてもよいし、逆に管理サーバ30を構成する一部を、歌詞入力端末40が備えることとしてもよい。   In addition, the configuration of the music composition support apparatus 1 illustrated in FIG. 1 is an example and is not limited thereto. FIG. 1 shows that each component included in the music composition support apparatus 1 may be divided into the melody registration terminals 10 and 20, the lyrics input terminal 40, and the management server 30. For example, the lyrics input terminal 40 is provided. The management server 30 may include a part of the configuration, or conversely, the lyrics input terminal 40 may include a part of the management server 30.

メロディ登録端末10は、図1に示したように、入力部11と、作曲者情報12と、楽譜表示部13と、MIDIデータ生成/保存部14と、スピーカ15と、制御部16と、ネットワーク通信部17と、を備えている。   As shown in FIG. 1, the melody registration terminal 10 includes an input unit 11, composer information 12, a score display unit 13, a MIDI data generation / storage unit 14, a speaker 15, a control unit 16, and a network. And a communication unit 17.

入力部11は、例えばキーボードやマウス、タッチパネルまたはMIDI(Musical Instrument Digital Interface)対応楽器等から構成され、メロディを作成する際に入力する音符等の情報を入力する。なお、本実施例におけるメロディとは、曲として完結しているものに限らず、例えば4小節など複数小節以上のフレーズなど少なくとも音程が判別できる楽曲情報である。   The input unit 11 includes, for example, a keyboard, a mouse, a touch panel, a MIDI (Musical Instrument Digital Interface) compatible instrument, and the like, and inputs information such as notes input when creating a melody. Note that the melody in the present embodiment is not limited to a song that is completed as a song, but is music information that can at least determine the pitch, such as a phrase of a plurality of measures such as four measures.

作曲者情報12は、入力したメロディを作曲した人物の氏名またはニックネームなどの名称や、後述する管理サーバ30上での管理IDなど作曲者に関する情報を設定、記憶している。   The composer information 12 sets and stores information relating to the composer, such as the name or nickname of the person who composes the input melody, and a management ID on the management server 30 described later.

楽譜表示部13は、例えば液晶ディスプレイなどで構成され、入力部11から入力されるメロディ情報を構成する楽譜や音符等を表示する。   The musical score display unit 13 is composed of, for example, a liquid crystal display, and displays a musical score, musical notes, and the like constituting melody information input from the input unit 11.

MIDIデータ生成/保存部14は、入力部11から入力されたメロディをMIDIデータ(メロディ情報)に変換して保存する。   The MIDI data generation / storage unit 14 converts the melody input from the input unit 11 into MIDI data (melody information) and stores it.

スピーカ15は、例えば、作成したまたは作成中のメロディを確認するために設けられているスピーカであり、例えば、入力部11からの操作により、制御部16が図示しない音源等を用いて適当な楽器の音として生成した信号を音声に変換して出力する。   The speaker 15 is, for example, a speaker provided for confirming a melody that has been created or being created. For example, an appropriate musical instrument is used by the control unit 16 using a sound source (not shown) by an operation from the input unit 11. The signal generated as the sound is converted into sound and output.

制御部16は、メロディ登録端末10の全体制御を司り、入力部11から入力されたメロディをMIDIデータ生成/保存部14に変換、保存させたり、楽譜表示部13に表示させる楽譜データを生成したり、スピーカ15に出力するための音声情報を生成したりする。   The control unit 16 is responsible for overall control of the melody registration terminal 10, converts the melody input from the input unit 11 to the MIDI data generation / storage unit 14, stores it, and generates score data to be displayed on the score display unit 13. Or generating voice information to be output to the speaker 15.

ネットワーク通信部17は、MIDIデータ生成/保存部14に保存されているMIDIデータ(メロディ情報)や作曲者情報12を管理サーバ30に無線通信により送信する。   The network communication unit 17 transmits the MIDI data (melody information) and the composer information 12 stored in the MIDI data generation / storage unit 14 to the management server 30 by wireless communication.

メロディ登録端末10は、上述したように楽譜表示部13に表示された五線譜上に入力部11から音符等を配置したり、楽器等から入力したりしてMIDIデータを作成する端末である。   The melody registration terminal 10 is a terminal that creates MIDI data by placing notes or the like from the input unit 11 or inputting from a musical instrument or the like on the staff displayed on the score display unit 13 as described above.

メロディ登録端末20は、図1に示したように、作曲者情報12と、楽譜表示部13と、MIDIデータ生成/保存部14と、スピーカ15と、制御部16と、ネットワーク通信部17と、マイク21と、音声周波数解析・採譜処理部22と、入力部23と、を備えている。   As shown in FIG. 1, the melody registration terminal 20 includes composer information 12, a score display unit 13, a MIDI data generation / storage unit 14, a speaker 15, a control unit 16, a network communication unit 17, A microphone 21, an audio frequency analysis / musical transcription processing unit 22, and an input unit 23 are provided.

メロディ登録端末20の構成ブロックのうち、作曲者情報12と、楽譜表示部13と、MIDIデータ生成/保存部14と、スピーカ15と、制御部16と、ネットワーク通信部17は、メロディ登録端末10と同様である。但し、MIDIデータ生成/保存部14は、音声周波数解析・採譜処理部22の結果に対してMIDIデータを生成する。   Among the constituent blocks of the melody registration terminal 20, the composer information 12, the score display unit 13, the MIDI data generation / storage unit 14, the speaker 15, the control unit 16, and the network communication unit 17 are included in the melody registration terminal 10. It is the same. However, the MIDI data generation / storage unit 14 generates MIDI data for the result of the audio frequency analysis / musical transcription processing unit 22.

マイク21は、例えばユーザ等が楽器等と用いて演奏したメロディ音が入力される。なお、楽器を用いずに歌唱であってもよいし、鼻歌など完全な歌唱でなくても後述する音声周波数解析・採譜処理部22でデータの生成が可能であればよい。   The microphone 21 receives, for example, a melody sound played by a user or the like using a musical instrument or the like. Note that the singing may be performed without using a musical instrument, or the data may be generated by the audio frequency analysis / musical transcription processing unit 22 described later even if it is not a complete singing such as a nose singing.

音声周波数解析・採譜処理部22は、マイクから入力されたメロディ音に対して周波数解析を行い、音の高低などを検出して音符や休符等に当てはめる採譜処理を行う。なお、音声周波数解析・採譜処理部22で行われる入力された音を周波数解析して採譜することは、例えば、特開2011−059258号公報などに記載されているような周知な方法で行えばよい。   The sound frequency analysis / musical transcription processing unit 22 performs frequency analysis on the melody sound input from the microphone, and performs music transcription processing that detects the pitch of the sound and applies it to a note, rest, or the like. Note that the frequency analysis of the input sound performed by the audio frequency analysis / music transcription processing unit 22 may be performed by a well-known method as described in, for example, Japanese Patent Application Laid-Open No. 2011-059258. Good.

入力部23は、例えば、キーボードやマウス、タッチパネル等から構成されている。入力部23は、メロディ登録端末10の入力部11と異なり、メロディ自体の入力は行わず、マイク21から入力するメロディ音のキー(Cメジャー、Aマイナー等)や拍子(4分の4拍子など)などを設定するために用いる。   The input unit 23 includes, for example, a keyboard, a mouse, a touch panel, and the like. Unlike the input unit 11 of the melody registration terminal 10, the input unit 23 does not input the melody itself, and the key (C major, A minor, etc.) and time signature (four quarters, etc.) of the melody sound input from the microphone 21. ) And so on.

なお、メロディ登録端末20の制御部16は、構成は同様であるが、マイク21から入力されたメロディ音を音声周波数解析・採譜処理部22に採譜させたり、採譜されたデータをMIDIデータ生成/保存部14でMIDIデータに変換し、スピーカ15に出力するための音声情報を生成したりする。また、スピーカ15は、作成したまたは作成中のメロディ情報を確認するだけでなく、マイク21からメロディ音を入力する際に基準とするテンポを音として出力する。このテンポは入力部23で設定された拍子に基づくものである。   Although the control unit 16 of the melody registration terminal 20 has the same configuration, the melody sound input from the microphone 21 is scored by the audio frequency analysis / musical transcription processing unit 22, or the recorded data is generated as MIDI data / The storage unit 14 converts the data into MIDI data and generates audio information to be output to the speaker 15. The speaker 15 not only confirms the melody information that has been created or is being created, but also outputs a tempo that serves as a reference when inputting a melody sound from the microphone 21. This tempo is based on the time signature set by the input unit 23.

メロディ登録端末20は、上述したようにマイク21から入力された音からMIDIデータを作成する端末である。   The melody registration terminal 20 is a terminal that creates MIDI data from the sound input from the microphone 21 as described above.

メロディ検索装置としての管理サーバ部30は、図1に示したように、ネットワーク通信部31と、制御部32と、音声データエンコード部33と、音数解析部34と、MIDIデータDB保存部35と、MIDIデータの属性情報DB保存部36と、メロディ検索部37と、を備えている。   As shown in FIG. 1, the management server unit 30 as a melody search device includes a network communication unit 31, a control unit 32, a voice data encoding unit 33, a sound number analysis unit 34, and a MIDI data DB storage unit 35. A MIDI data attribute information DB storage unit 36, and a melody search unit 37.

歌詞情報受信部、検索結果出力部としてのネットワーク通信部31は、メロディ登録端末10、20や後述する歌詞入力端末40と無線通信を行い、メロディ登録端末10、20からMIDIデータや作曲者情報等を受信する。また、歌詞入力端末40から音数情報を受信するとともに、検索されたMIDIデータを変換した音声データや属性情報等の送信などを行う。   The network communication unit 31 as a lyric information receiving unit and a search result output unit performs wireless communication with the melody registration terminals 10 and 20 and a lyrics input terminal 40 described later, and MIDI data, composer information, and the like are transmitted from the melody registration terminals 10 and 20. Receive. In addition to receiving the number-of-sounds information from the lyrics input terminal 40, transmission of voice data, attribute information, etc. obtained by converting the searched MIDI data is performed.

制御部32は、管理サーバ30の全体制御を司り、ネットワーク通信部31がメロディ登録端末10、20から受信したMIDIデータ等を後述するMIDIデータDB保存部35に保存したり、MIDIデータの属性を示す情報を解析してMIDIデータ属性情報DB保存部36に格納したりする。   The control unit 32 is responsible for overall control of the management server 30 and stores the MIDI data received by the network communication unit 31 from the melody registration terminals 10 and 20 in the MIDI data DB storage unit 35 described later, and sets the attributes of the MIDI data. The indicated information is analyzed and stored in the MIDI data attribute information DB storage unit 36.

また、制御部32は、後述するメロディ検索部37で検索されたMIDIデータを音声データエンコード部33で音声データにエンコードさせる。また、制御部32は、ネットワーク通信部31が歌詞入力端末40から受信した音数情報に基づいてメロディ検索部37にMIDIデータDB保存部35内のMIDIデータを検索させる。   Further, the control unit 32 causes the audio data encoding unit 33 to encode the MIDI data searched by the melody searching unit 37 described later into audio data. In addition, the control unit 32 causes the melody search unit 37 to search for MIDI data in the MIDI data DB storage unit 35 based on the number-of-tones information received from the lyrics input terminal 40 by the network communication unit 31.

音声データエンコード部33は、後述するメロディ検索部37で検索されたMIDIデータをWAV(RIFF waveform Audio Format)やMP3(MPEG Audio Layer-3)等の符号化された音声データにエンコードする。   The audio data encoding unit 33 encodes the MIDI data searched by the melody search unit 37 described later into encoded audio data such as WAV (RIFF waveform Audio Format) and MP3 (MPEG Audio Layer-3).

音数解析部34は、メロディ登録端末10、20から送信されたMIDIデータから小節数と小節中の音数を解析する。   The sound number analysis unit 34 analyzes the number of bars and the number of sounds in the bars from the MIDI data transmitted from the melody registration terminals 10 and 20.

蓄積部としてのMIDIデータDB保存部35は、メロディ登録端末10、20から送信されたMIDIデータがデータベースとして保存されている。即ち、複数の作成者によって入力されたメロディ情報が蓄積されている。   The MIDI data DB storage unit 35 as the storage unit stores MIDI data transmitted from the melody registration terminals 10 and 20 as a database. That is, melody information input by a plurality of creators is accumulated.

蓄積部としてのMIDIデータの属性情報DB保存部36は、MIDIデータDB保存部35に保存されているMIDIデータの小節数、小節中の音数、キー、作曲者などの属性情報がデータベースとして保存されている。なお、本実施例では、属性情報を用いてMIDIデータの検索を行うのでMIDIデータの属性情報DB保存部36も蓄積部となる。また、MIDIデータDB保存部35とMIDIデータの属性情報DB保存部36は、別々の記憶装置に限らず同じ記憶装置としてもよい。   The attribute information DB storage unit 36 of the MIDI data as the storage unit stores attribute information such as the number of measures of the MIDI data stored in the MIDI data DB storage unit 35, the number of sounds in the measure, the key, the composer, and the like as a database. Has been. In this embodiment, since the MIDI data is searched using the attribute information, the MIDI data attribute information DB storage unit 36 is also an accumulation unit. The MIDI data DB storage unit 35 and the MIDI data attribute information DB storage unit 36 are not limited to separate storage devices, and may be the same storage device.

ここで、MIDIデータの属性情報DB保存部36に保存されている属性情報について、図2の表を参照して説明する。図2の表において、MIDIデータ1つにつき1行が割り当てられている。そして、各MIDIデータの属性情報としては、メロディID、小節数、小節中の音数、キー、作曲者ID、被引用情報、メロディ格納場所等の各情報が設定されている。   Here, the attribute information stored in the MIDI data attribute information DB storage unit 36 will be described with reference to the table of FIG. In the table of FIG. 2, one row is assigned to one piece of MIDI data. As attribute information of each MIDI data, information such as a melody ID, the number of measures, the number of sounds in the measure, a key, a composer ID, cited information, and a melody storage location are set.

メロディIDは、MIDIデータに一意に割り振られる番号である。小節数と小節中の音数は、音数解析部34で解析された小節数と小節中(小節ごと)の音数が設定される。キーは、メロディ登録端末10の入力部11またはメロディ登録端末20の入力部23で設定されるか、あるいはメロディ登録端末10、20から送信されたMIDIデータから制御部32が解析し設定される。作曲者IDは、メロディ登録端末10、20から送信された作曲者情報に含まれる作曲者IDまたは管理サーバ30にログインする際のID等から作曲者IDを特定し設定される。   The melody ID is a number uniquely assigned to MIDI data. As the number of measures and the number of sounds in the measure, the number of measures analyzed by the sound number analysis unit 34 and the number of sounds in the measure (for each measure) are set. The key is set by the input unit 11 of the melody registration terminal 10 or the input unit 23 of the melody registration terminal 20, or the control unit 32 analyzes and sets the MIDI data transmitted from the melody registration terminals 10 and 20. The composer ID is set by specifying the composer ID from the composer ID included in the composer information transmitted from the melody registration terminals 10 and 20 or the ID when logging in to the management server 30.

被引用情報は、当該MIDIデータがどの程度使われたか(引用されたか)を示す情報であり、制御部32が被引用回数(回数)と、当該MIDIデータを使用した(引用した)ユーザのIDを示す情報である引用者ID群と、の2つの情報が設定される。このような情報を設定することで、例えば、被引用回数が多いMIDIデータは人気度が高いとして、後述するメロディ検索時に優先順位を高くしたり、検索結果をユーザに表示した際に、人気があるメロディであることを合わせて表示したりすることができる。   The cited information is information indicating how much the MIDI data has been used (cited), and the control unit 32 determines the number of times cited (number of times) and the ID of the user who used (cited) the MIDI data. Two pieces of information, i.e., a quoter ID group, which is information indicating the By setting such information, for example, MIDI data with a large number of citations has a high degree of popularity, so that the priority is increased during melody search, which will be described later, or the search result is displayed to the user. It can be displayed together with a certain melody.

メロディ格納場所は、当該属性情報を有するMIDIデータDB保存部35におけるMIDIデータの在り処を示す情報であり、MIDIデータDB保存部35に基づいて制御部32が設定する。   The melody storage location is information indicating the location of the MIDI data in the MIDI data DB storage unit 35 having the attribute information, and is set by the control unit 32 based on the MIDI data DB storage unit 35.

検索部としてのメロディ検索部37は、歌詞入力端末40から送信された音数情報に基づいて、検索条件を設定し、検索条件に合ったMIDIデータをMIDIデータの属性情報DB保存部36を参照して検索する。   The melody search unit 37 as a search unit sets search conditions based on the number information transmitted from the lyrics input terminal 40, and refers to the MIDI data attribute information DB storage unit 36 for the MIDI data that meets the search conditions. And search.

歌詞入力端末40は、ネットワーク通信部41と、制御部42と、小節割り当て解析部43と、音数解析部44と、入力部45と、表示部46と、スピーカ47と、プレイヤ48と、デコード部49と、アレンジ部4aと、を備えている。   The lyrics input terminal 40 includes a network communication unit 41, a control unit 42, a measure allocation analysis unit 43, a sound number analysis unit 44, an input unit 45, a display unit 46, a speaker 47, a player 48, and a decoding unit. The unit 49 and the arrangement unit 4a are provided.

ネットワーク通信部41は、管理サーバ30と無線通信を行い、音数情報の送信や、検索されたMIDIデータから変換された音声データ等の受信を行う。   The network communication unit 41 performs wireless communication with the management server 30 to transmit sound number information and receive voice data converted from the retrieved MIDI data.

制御部42は、歌詞入力端末40の全体制御を司り、入力部45から入力された歌詞の音数を音数解析部44に解析させたり、音数が解析された歌詞の小節を小節割り当て解析部43に解析させたりする。   The control unit 42 is responsible for overall control of the lyrics input terminal 40, and causes the sound number analysis unit 44 to analyze the number of words in the lyrics input from the input unit 45, or measure assignment analysis of the measure of the lyrics whose number has been analyzed The part 43 is analyzed.

また、制御部42は、管理サーバ30から送信され音声データをデコード部49にデコードさせたり、プレイヤ48にデコードされた音声データ再生させたり、再生された音声データをスピーカ47に出力したりする。   Further, the control unit 42 causes the decoding unit 49 to decode the audio data transmitted from the management server 30, causes the player 48 to reproduce the decoded audio data, and outputs the reproduced audio data to the speaker 47.

小節割り当て解析部43は、後述する音数解析部44で解析された歌詞(音数)を小節単位に割り当てる。割り当て方法は後述する。即ち、歌詞情報から抽出された音数を複数の小節に分割している。   The measure assignment analysis unit 43 assigns the lyrics (number of sounds) analyzed by the sound number analysis unit 44 described later to each measure. The allocation method will be described later. That is, the number of sounds extracted from the lyrics information is divided into a plurality of bars.

音数解析部44は、入力部45から入力された歌詞情報を解析し音数を抽出する。解析方法としては、例えば形態素解析などの自然言語処理にて行う。具体例を図3を参照して説明する。   The sound number analysis unit 44 analyzes the lyrics information input from the input unit 45 and extracts the number of sounds. As an analysis method, for example, natural language processing such as morphological analysis is performed. A specific example will be described with reference to FIG.

図3は、「春はあけぼのの頃がよい。だんだん白くなっていく山ぎわが少し明るくなり紫がかった雲が細くたなびいているのがよい。」という歌詞が入力された場合解析例である。   Fig. 3 shows an example of analysis when the lyrics are entered: "Spring is good for Akebono. The gradual whitening of the mountain valley should be a little brighter and the purple cloud should be slender."

図3に示すように、単語や形態素ごとに分割して、それぞれの音節を求める。例えば、「春はあけぼのの頃がよい。」であれば、「春は」「あけぼのの」「頃が」「よい。」と分割し、それぞれで音節(音数)を求めると、3音、5音、3音、2音となる。以降これを繰り返して、入力された歌詞について音数を求める。   As shown in FIG. 3, each syllable is obtained by dividing into words and morphemes. For example, if “Spring is good for Akebono,” it is divided into “Spring is”, “Akebono”, “Choga”, and “Good.” 5 sounds, 3 sounds, 2 sounds. This is repeated thereafter to obtain the number of sounds for the input lyrics.

次に、小節割り当て解析部43で行う、音数を小節単位に割り当てる方法について図4を参照して説明する。   Next, a method of assigning the number of sounds in the measure unit performed by the measure assignment analysis unit 43 will be described with reference to FIG.

図4の1は、図3で示した歌詞から求められた音数を示している。まず、この音数を文章で分ける(図4の2)。つまり「春はあけぼのの頃がよい。」と「だんだん白くなっていく山ぎわが少し明るくなり紫がかった雲が細くたなびいているのがよい。」に音数を分ける。   4 in FIG. 4 indicates the number of sounds obtained from the lyrics shown in FIG. First, the number of sounds is divided into sentences (2 in FIG. 4). In other words, the number of sounds is divided into "Spring is good when Akebono is good." And "It is better that the mountain that gradually turns white is a little brighter and the purple cloud flutters."

そして、各文章内において、1小節中の音数が予め定めた音数、図示した例では10音以下となるようにする(図4の3)。このようにすることで、図で示した例では前半4小節が8音、5音、7音、10音となり、後半5小節が9音、8音、6音、9音、2音となる。   In each sentence, the number of sounds in one measure is set to a predetermined number, that is, 10 or less in the illustrated example (3 in FIG. 4). In this way, in the example shown in the figure, the first four bars are 8, 5, 7, 10, and the latter five bars are 9, 8, 6, 9, 2, and 2 sounds. .

また、歌詞の最後が4小節に収まらない場合は、最後の1小節内の音数を調節してもよい。つまり、図4の4に示したように、最終小節を11音とし、最終小節のみ10音の規定に合わせないようにしてもよい。   If the end of the lyrics does not fit in 4 bars, the number of sounds in the last 1 bar may be adjusted. In other words, as shown in 4 of FIG. 4, the last measure may be 11 notes, and only the last measure may not be matched with the definition of 10 notes.

なお、図4の例では4小節または5小節になるように小節内の音数を分けていたが、これは、後述する管理サーバ30では、1つのMIDIデータ(メロディ情報)は4小節以上で構成されたのもが保存されるようにしているため、小節数の下限を合わせて音数の検索を容易にするためである。   In the example of FIG. 4, the number of sounds in the bar is divided so that it becomes 4 bars or 5 bars. This is because, in the management server 30 described later, one MIDI data (melody information) is 4 bars or more. The reason for this is to save the number of measures, and to make it easy to search for the number of notes.

歌詞入力部としての入力部45は、例えば、キーボードやマウス、タッチパネル等から構成されている。入力部45は、作成する歌詞情報の入力や、管理サーバ30から検索された結果が表示部46に表示されている場合の選択操作などの各種操作等を行う。   The input unit 45 as a lyric input unit includes, for example, a keyboard, a mouse, a touch panel, and the like. The input unit 45 performs various operations such as input of lyrics information to be created and a selection operation when a result retrieved from the management server 30 is displayed on the display unit 46.

表示部46は、管理サーバ30から受信した音声データを表示する。表示形態は、楽譜形式としてもよいし、波形として表示してもよい。また、この際に作曲者情報等の属性情報を表示してもよい。楽譜形態とする場合は、音声データからMIDIデータに逆変換する機能を別途持たせればよい。即ち、検索部で検索された結果を楽曲(音符情報)として出力している。   The display unit 46 displays the audio data received from the management server 30. The display form may be a musical score form or a waveform. At this time, attribute information such as composer information may be displayed. In the case of a musical score form, a function for reversely converting voice data to MIDI data may be additionally provided. In other words, the search result is output as music (note information).

スピーカ47は、後述するプレイヤ48が再生した管理サーバ30から受信した音声データを音として出力する。即ち、検索部で検索された結果を楽曲(音楽)として出力している。   The speaker 47 outputs sound data received from the management server 30 reproduced by the player 48 described later as sound. That is, the result searched by the search unit is output as music (music).

プレイヤ48は、後述するデコーダがデコードした管理サーバ30から受信した音声データを再生する。   The player 48 reproduces the audio data received from the management server 30 decoded by a decoder described later.

デコード部49は、管理サーバ30から受信した音声データをデコードする。   The decoding unit 49 decodes the audio data received from the management server 30.

アレンジ部4aは、管理サーバ30から受信した音声データに対して、予め設定するジャンルや曲調に合わせて、コード付けを行って伴奏を付けたりするアレンジを行う。   The arrangement unit 4a performs an arrangement in which audio data received from the management server 30 is chorded and accompanied by an accompaniment according to a preset genre or tune.

なお、上述した構成の作曲支援装置1は、メロディ登録端末10、20や歌詞入力端末40は、それぞれ1ずつしか示していないが、それぞれが複数あって1つの管理サーバ30に接続されていてもよいのは勿論であり、さらに、メロディ登録端末10と20の、いずれか一方の形態のみであってもよい。   In the composition support apparatus 1 having the above-described configuration, the melody registration terminals 10 and 20 and the lyric input terminal 40 are shown only one each, but even if there are a plurality of them and they are connected to one management server 30. Of course, only one of the forms of the melody registration terminals 10 and 20 may be used.

次に、上述した構成の作曲支援装置1の動作を図5および図6に示したフローチャートを参照して説明する。これらのフローチャートは、制御部16、制御部32、制御部42でそれぞれ実行される。   Next, the operation of the music composition support apparatus 1 configured as described above will be described with reference to the flowcharts shown in FIGS. These flowcharts are executed by the control unit 16, the control unit 32, and the control unit 42, respectively.

まず、図5に示したメロディ登録端末10および20と管理サーバ30との動作について説明する。ステップS11において、メロディ登録端末10または20でメロディを作成してステップS12に進む。メロディは、メロディ登録端末10の場合は、入力部11から楽譜を作成してMIDIデータ生成/保存部14でMIDIデータに変換する。この場合、テンポやキーの設定は、当該楽譜作成時にユーザが入力部11から設定する。   First, operations of the melody registration terminals 10 and 20 and the management server 30 shown in FIG. 5 will be described. In step S11, a melody is created by the melody registration terminal 10 or 20, and the process proceeds to step S12. In the case of the melody registration terminal 10, a melody is generated from the input unit 11 and converted into MIDI data by the MIDI data generation / storage unit 14. In this case, the tempo and key are set from the input unit 11 by the user when the score is created.

また、メロディ登録端末20の場合は、マイク21から楽器演奏や歌唱等を入力し、それを音声周波数解析・採譜処理部22で採譜してMIDIデータ生成/保存部14でMIDIデータに変換する。この場合、テンポはマイク21から入力する際にメトロノームのカウント音などを出力し、そのカウント音の調節をユーザが入力部23から行うことで設定する。キーは、ユーザが入力部23から行うことで設定する。   In the case of the melody registration terminal 20, a musical instrument performance, singing, or the like is input from the microphone 21, and it is recorded by the audio frequency analysis / score processing unit 22 and converted to MIDI data by the MIDI data generation / storage unit 14. In this case, the tempo is set by outputting a metronome count sound or the like when inputting from the microphone 21 and adjusting the count sound from the input unit 23 by the user. The key is set by the user through the input unit 23.

そして、ステップS12でおいて、ステップS11で作成されたMIDIデータと作曲者情報12を管理サーバ30にアップロードする。   In step S12, the MIDI data created in step S11 and the composer information 12 are uploaded to the management server 30.

一方、ステップS21において、管理サーバ30では、メロディ登録端末10または20からメロディ登録があるか否かを判断し、ある場合(Yの場合)はステップS22に進み、無い場合(Nの場合)は本ステップで待機する。つまり、メロディ登録端末10または20からMIDIデータと作曲者情報12がアップロードされたか否かを判断している。   On the other hand, in step S21, the management server 30 determines whether or not there is melody registration from the melody registration terminal 10 or 20, and if there is (in the case of Y), the process proceeds to step S22, and if not (in the case of N). Wait in this step. That is, it is determined whether the MIDI data and the composer information 12 are uploaded from the melody registration terminal 10 or 20.

そして、ステップS22において、メロディを登録する。つまり、メロディ登録端末10または20から送信されたMIDIデータをMIDIデータDB保存部35に保存し、そのMIDIデータを音数解析部34で解析した結果と作曲者情報等を、図2に示したような属性情報として、MIDIデータの属性情報DB保存部36に保存する。   In step S22, a melody is registered. That is, the MIDI data transmitted from the melody registration terminal 10 or 20 is stored in the MIDI data DB storage unit 35, the result of analyzing the MIDI data by the sound number analysis unit 34, composer information, etc. are shown in FIG. Such attribute information is stored in the MIDI data attribute information DB storage unit 36.

次に、図6に示した歌詞入力端末40と管理サーバ30との動作について説明する。まず、歌詞入力工程としてのステップS31において、入力部45から歌詞を入力してステップS32に進む。   Next, operations of the lyrics input terminal 40 and the management server 30 shown in FIG. 6 will be described. First, in step S31 as a lyrics input step, the lyrics are input from the input unit 45, and the process proceeds to step S32.

次に、ステップS32において、入力部45から入力する歌詞に合わせる曲のジャンルや曲調を設定しステップS33に進む。なお、ジャンルや曲調を指定せずに本ステップを飛ばしても構わない。   Next, in step S32, the genre and tone of the music to be matched with the lyrics input from the input unit 45 are set, and the process proceeds to step S33. Note that this step may be skipped without specifying the genre or tune.

次に、音数抽出工程としてのステップS33において、ステップS31で入力した歌詞を音数解析部44に解析させて音数を抽出しステップS34に進む。   Next, in step S33 as a sound number extraction step, the sound number analysis unit 44 analyzes the lyrics input in step S31 to extract the sound number, and the process proceeds to step S34.

次に、ステップS34において、ステップS33で解析した音数に対して小節割り当て解析部43に解析させて小節分けを行いステップS35に進む。なお、本ステップ実行時に、1小節内の音数を、ステップS32で設定したジャンルや曲調によって変更してもよい。   Next, in step S34, the measure allocation analysis unit 43 analyzes the number of sounds analyzed in step S33 to divide the measure, and the process proceeds to step S35. When executing this step, the number of sounds in one measure may be changed according to the genre and tone set in step S32.

次に、ステップS35において、管理サーバ30に対して検索のリクエストを行いステップS36に進む。検索のリクエスト時には、ステップS34までで解析された小節分けされた音数情報と小節数が送信される。   Next, in step S35, a search request is made to the management server 30, and the process proceeds to step S36. At the time of a search request, the number-of-measures sound information and the number of measures analyzed up to step S34 are transmitted.

ここで、管理サーバ30側の動作を説明する。管理サーバ30では、ステップS41において、歌詞入力端末40からの検索リクエストがあるか否かを判断しており、検索リクエストがある場合(Yの場合)はステップS42に進み、無い場合(Nの場合)は待機している。   Here, the operation on the management server 30 side will be described. In step S41, the management server 30 determines whether or not there is a search request from the lyrics input terminal 40. If there is a search request (in the case of Y), the process proceeds to step S42; ) Is waiting.

次に、検索工程としてのステップS42において、ステップS41で得た検索リクエストに応じてメロディ検索部37に検索を行わせステップS43に進む。   Next, in step S42 as a search process, the melody search unit 37 performs a search in response to the search request obtained in step S41, and the process proceeds to step S43.

ここで、検索動作を図7に示すフローチャートを参照して説明する。このフローチャートは制御部32で実行される。まず、ステップS51において、4小節の音数がマッチするメロディ情報を検索してステップS52に進む。本実施例では歌詞とメロディ情報のマッチングは、なるべく元のメロディ情報を変更しないように検索している。そこで、本実施例では4小節以上の小節単位の音数で検索を行う。   Here, the search operation will be described with reference to the flowchart shown in FIG. This flowchart is executed by the control unit 32. First, in step S51, melody information that matches the number of sounds of four measures is searched, and the process proceeds to step S52. In the present embodiment, the matching between the lyrics and the melody information is searched so as not to change the original melody information as much as possible. Therefore, in this embodiment, the search is performed with the number of sounds in units of four bars or more.

ステップS51の詳細動作を図8のフローチャートを参照して説明する。このフローチャートは制御部32で実行される。まず、ステップS61において、大きな単位でマッチするメロディ情報を検索してステップS62に進む。大きな単位とは、例えば、図4の例では、入力された歌詞の音数は8小節(または9小節)で64音であるので、この小節数と音数にマッチするメロディ情報(MIDIデータ)を検索する。つまり、入力された歌詞全体が大きな単位の一例である。このようにすることで、入力された歌詞の単位でのメロディを変更することなく、割り当てが可能となる。なお、この小節数と音数は図2の表の小節数と音数の項目を参照することで検索できる。   The detailed operation of step S51 will be described with reference to the flowchart of FIG. This flowchart is executed by the control unit 32. First, in step S61, melody information that matches in large units is searched, and the process proceeds to step S62. For example, in the example shown in FIG. 4, the number of sounds in the input lyrics is 8 measures (or 9 measures) and 64 sounds, so that the melody information (MIDI data) matches the number of measures and the number of notes. Search for. That is, the entire input lyrics is an example of a large unit. In this way, assignment can be performed without changing the melody in units of input lyrics. Note that the number of measures and the number of sounds can be searched by referring to the items of the number of measures and the number of notes in the table of FIG.

次に、ステップS62において、ステップS61の結果マッチするメロディ情報(MIDIデータ)が有ったか否かを判断し、有った場合(Yの場合)は本フローチャートを終了し、無い場合(Nの場合)はステップS63に進む。   Next, in step S62, it is determined whether or not there is a matching melody information (MIDI data) as a result of step S61. If there is (in the case of Y), this flowchart is terminated. In the case), the process proceeds to step S63.

次に、ステップS63において、音数を調整して検索しステップS64に進む。本ステップ以降では、そのままではマッチするメロディ情報が検索されなかったので音数や音符などを調整している。本ステップでは、歌詞の音数を調整してマッチングを行う。例えば、春は(ha−ru−wa)の3音を、ha−a−ru−waの4音やha−a−ru−u−waの5音など1音を長音に変更して2音にしたり(歌詞の音数を増加)、1つの音符に割り当てる音数を1つから複数に増やしたり(歌詞の音数を減少)して検索する。   Next, in step S63, the number of sounds is adjusted and searched, and the process proceeds to step S64. From this step onward, since the matching melody information is not searched as it is, the number of notes and the notes are adjusted. In this step, matching is performed by adjusting the number of sounds in the lyrics. For example, in spring, 3 sounds of (ha-ru-wa) are changed to 2 sounds by changing 1 sound to 4 sounds of ha-a-ru-wa and 5 sounds of ha-a-ru-u-wa. Search (increase the number of sounds in the lyrics) or increase the number of sounds assigned to one note from one to multiple (decrease the number of sounds in the lyrics).

次に、ステップS64において、メロディ情報内の音符を調整して検索しステップS65に進む。本ステップでは、例えば、元のメロディ情報の音階がミ、ドとなっていた場合、ミ、ソ、ドとしたり(音符を増加)、逆に2音を1音に減らしたりして(音符を減少)検索する。   Next, in step S64, the notes in the melody information are adjusted and searched, and the process proceeds to step S65. In this step, for example, if the scale of the original melody information is Mi, Do, Mi, So, Do (increase the note), conversely, reduce two notes to one (note Decrease) search.

次に、ステップS65において、小節を分割して検索し、ステップS66に進む。本ステップの動作について図10を参照して説明する。図10において、入力歌詞の音数は4小節で、それぞれ8音、5音、7音、10音となっている(基本形)。ここで、第1小節の先頭の音のみを新たな第1小節とし、その後に、8音、5音、7音、9音の小節が順次続くようにする。つまり、各小節の先頭の音が前の小節の最終音としてスライドする。最終小節は、次の小節が無いので音数が減少する(検索変形例1)。また、逆に最終小節の最終音を別小節にし、各小節の最終音が後の小節の先頭音としてスライドする。第1小節は、前の小節が無いので音数が減少する(検索変形例2)。   Next, in step S65, the bar is divided and searched, and the process proceeds to step S66. The operation of this step will be described with reference to FIG. In FIG. 10, the number of sounds of the input lyrics is 4 bars, which are 8 sounds, 5 sounds, 7 sounds and 10 sounds, respectively (basic form). Here, only the first note of the first measure is set as a new first measure, and thereafter, the eight, five, seven, and nine note measures are sequentially continued. That is, the first note of each measure slides as the last note of the previous measure. Since the last measure has no next measure, the number of sounds decreases (search modification 1). Conversely, the last note of the last measure is changed to another measure, and the last note of each measure slides as the first note of the subsequent measure. Since the first measure has no previous measure, the number of sounds decreases (search modification 2).

また、ステップS65の場合に、スライドさせずに、単純に一つの小節を分割するようにしてもよい。   In the case of step S65, one measure may be simply divided without sliding.

次に、ステップS66において、ステップS63〜S65の結果マッチするメロディ情報(MIDIデータ)が有ったか否かを判断し、有った場合(Yの場合)はステップS67に進み、無い場合(Nの場合)はステップS68に進む。   Next, in step S66, it is determined whether or not there is a matching melody information (MIDI data) as a result of steps S63 to S65. If there is a match (in the case of Y), the process proceeds to step S67. In the case of), the process proceeds to step S68.

次に、ステップS67において、ステップS63〜S65の結果、歌詞の音数またはメロディについてオリジナルからの変更が少ないメロディ情報を選択して本フローチャートを。したがって、ステップS63〜S65の結果は本ステップまで保持する。   Next, in step S67, as a result of steps S63 to S65, melody information with a small change from the original is selected for the number of lyrics or the melody. Therefore, the results of steps S63 to S65 are held until this step.

一方、ステップS68においては、検索していた歌詞の単位が最小単位か否かを判断し、最小単位である場合は本フローチャートを終了し、最小単位で無い場合はステップS69に進む。最小単位とは、MIDIデータDB保存部35に蓄積されているMIDIデータの最小単位(本実施例では4小節)を示し、後述するステップS59で検索単位を減らすことが可能か否かを判断している。   On the other hand, in step S68, it is determined whether or not the unit of the searched lyrics is the minimum unit. If it is the minimum unit, this flowchart is terminated, and if it is not the minimum unit, the process proceeds to step S69. The minimum unit indicates the minimum unit (four measures in this embodiment) of the MIDI data stored in the MIDI data DB storage unit 35, and it is determined whether or not the search unit can be reduced in step S59 described later. ing.

次に、ステップS69において、検索単位を減らして検索しステップS62に戻る。本ステップでは、それまでに検索していた小節数を減少させて改めてマッチするメロディ情報を検索する。例えば8小節(または)9小節64音で一致するメロディ情報が無かった場合は、例えば、先頭から4小節の音数で検索を行う。なお、減少後の小節数は4小節に限らず、例えば20小節の検索でマッチするメロディ情報が無かった場合は、16小節や12小節など、MIDIデータDB保存部35に蓄積されている小節数で次に小さい単位の小節数としてもよい。   Next, in step S69, the search unit is decreased and the search is performed, and the process returns to step S62. In this step, melody information that matches again is searched by reducing the number of measures that have been searched so far. For example, if there is no matching melody information with 64 measures of 8 measures (or 9 measures), for example, the search is performed with the number of sounds of 4 measures from the beginning. The number of measures after the reduction is not limited to four measures. For example, if there is no melody information that matches in the search for 20 measures, the number of measures stored in the MIDI data DB storage unit 35, such as 16 measures or 12 measures. The number of bars in the next smallest unit may be used.

図7にフローチャートに戻って、ステップS52において、ステップS51の結果マッチするメロディ情報(MIDIデータ)が有ったか否かを判断し、有った場合(Yの場合)はステップS53に進み、無い場合(Nの場合)はステップS56に進む。   Returning to the flowchart of FIG. 7, in step S52, it is determined whether or not there is a melody information (MIDI data) that matches as a result of step S51. If there is a melody information (in the case of Y), the process proceeds to step S53. In the case (N), the process proceeds to step S56.

次に、ステップS53において、1小節毎に音数がマッチするメロディ情報を検索してステップS54に進む。ステップS54の詳細動作を図9のフローチャートを参照して説明する。このフローチャートは制御部32で実行される。まず、ステップS71において、マッチするメロディ情報を検索してステップS72に進む。本ステップでは、上述したように1小節毎に音数がマッチするメロディ情報を検索している。つまり、音数30音が8音、5音、7音、10音の4小節であった場合、4小節で構成された各小節が8音、5音、7音、10音となっているMIDIデータがマッチしたメロディ情報となる。   Next, in step S53, melody information whose number of sounds matches for each measure is searched, and the process proceeds to step S54. The detailed operation of step S54 will be described with reference to the flowchart of FIG. This flowchart is executed by the control unit 32. First, in step S71, matching melody information is searched and the process proceeds to step S72. In this step, as described above, melody information whose number of sounds matches for each measure is searched. In other words, if the number of sounds of 30 is 4 bars of 8 sounds, 5 sounds, 7 sounds and 10 sounds, each bar composed of 4 bars is 8 sounds, 5 sounds, 7 sounds and 10 sounds. The melody information matches the MIDI data.

次に、ステップS72において、ステップS71の結果マッチするメロディ情報(MIDIデータ)が有ったか否かを判断し、有った場合(Yの場合)は本フローチャートを終了し、無い場合(Nの場合)はステップS73に進む。   Next, in step S72, it is determined whether or not there is a matching melody information (MIDI data) as a result of step S71. If there is a match (in the case of Y), this flowchart is terminated. In the case), the process proceeds to step S73.

次に、ステップS73において、音数を調整して検索しステップS74に進む。本ステップは図8のステップS63と同様に歌詞の音数を調整してマッチングを行う。   Next, in step S73, the number of sounds is adjusted and searched, and the process proceeds to step S74. In this step, matching is performed by adjusting the number of words in the lyrics as in step S63 of FIG.

次に、ステップS74において、メロディ情報内の音符を調整して検索しステップS75に進む。本ステップは図8のステップS64と同様に音符を増加したり、音符を減少したりして検索する。   Next, in step S74, the notes in the melody information are adjusted and searched, and the process proceeds to step S75. In this step, as in step S64 in FIG. 8, the search is performed by increasing the note or decreasing the note.

次に、ステップS75において、小節を分割して検索し、ステップS76に進む。本ステップは図8のステップS65と同様に小節の先頭や最後の音をスライドさせたり、単純に分割したりして検索する。   Next, in step S75, the bar is divided and searched, and the process proceeds to step S76. In this step, as in step S65 in FIG. 8, the search is performed by sliding the first or last sound of the measure or simply dividing it.

次に、ステップS77において、ステップS73〜S75の結果、歌詞の音数またはメロディについてオリジナルからの変更が少ないメロディ情報を選択して本フローチャートを終了する。したがって、ステップS73〜S75の結果は本ステップまで保持する。なお、ステップS73〜S75の結果マッチするメロディ情報が無かった場合も、本ステップを経由して終了する。   Next, in step S77, as a result of steps S73 to S75, melody information with a small change from the original is selected for the number of melody or melody, and this flowchart is ended. Therefore, the results of steps S73 to S75 are held until this step. Note that if there is no matching melody information as a result of steps S73 to S75, the process is terminated via this step.

図7にフローチャートに戻って、ステップS54において、ステップS53の結果マッチするメロディ情報が有ったか否かを判断し、有った場合(Yの場合)はステップS55に進み、無い場合(Nの場合)はステップS56に進む。即ち、ステップS51〜S54で、メロディ情報を所定の小節単位で各小節内の音数に基づいて検索している。   Returning to the flowchart of FIG. 7, in step S54, it is determined whether or not there is melody information that matches as a result of step S53, and if there is (in the case of Y), the process proceeds to step S55. In case), the process proceeds to step S56. That is, in steps S51 to S54, the melody information is searched based on the number of sounds in each measure in predetermined measures.

次に、ステップS55において、入力された歌詞全てについて検索が終了したか否かを判断し、全て終了した場合(Yの場合)は検索動作を終了し、全て終了していない場合(Nの場合)はステップS51に戻る。このステップS51に戻る場合としては、ステップS51で検索単位を減らした場合に残りの小節に対して繰り返す。なお、この検索動作において、検索結果は1つでなく複数あってもよい。例えば、4小節のメロディ情報としてフレーズAとBが検索され、続く5小節のメロディ情報としてフレーズCとDが検索された場合、9小節の歌詞に対して4種類の組み合わせを検索結果として出力するようにしてもよい。   Next, in step S55, it is determined whether or not the search has been completed for all input lyrics. If all the lyrics have been completed (in the case of Y), the search operation is terminated, and if all have not been completed (in the case of N). ) Returns to Step S51. As returning to this step S51, when the search unit is reduced in step S51, it is repeated for the remaining bars. In this search operation, there may be a plurality of search results instead of one. For example, when phrases A and B are searched as melody information of 4 bars and phrases C and D are searched as melody information of 5 bars, 4 combinations are output as search results for 9 bars of lyrics. You may do it.

一方、ステップS56においては、検索の結果一致するメロディ情報が見つからなかったため、マッチするメロディがないことを示す情報を検索結果として後述するステップで歌詞入力端末40に送信するようにする。   On the other hand, in step S56, since no matching melody information is found as a result of the search, information indicating that there is no matching melody is transmitted to the lyrics input terminal 40 in a later-described step as a search result.

なお、図7、図8および図9のフローチャートはMIDIデータの属性情報DB保存部36に対して検索動作を行うようにしているが、直接MIDIデータDB保存部35に対して検索するようにしてもよい。また、MIDIデータの属性情報DB保存部36に対して検索動作を行った場合は、図7のフローチャートの終了後に、図2のメロディ格納場所を参照してMIDIデータDB保存部35から該当するMIDIデータを読み出せばよい。   In the flowcharts of FIGS. 7, 8 and 9, the search operation is performed on the attribute information DB storage unit 36 of the MIDI data, but the search is directly performed on the MIDI data DB storage unit 35. Also good. When a search operation is performed on the attribute information DB storage unit 36 for MIDI data, the corresponding MIDI data is stored from the MIDI data DB storage unit 35 with reference to the melody storage location in FIG. Read the data.

また、図8および図9のフローチャートでは、ステップS63(S73)〜S65(S75)全てを行っていたが、いずれか1つまたは2つのみを行うようにしてもよいし、実行する順序も図示した順序でなくてもよい。   8 and 9, the steps S63 (S73) to S65 (S75) are all performed, but only one or two of them may be performed, and the order of execution is also illustrated. The order may not be the same.

図6のフローチャートに戻って、ステップS43で検索されたメロディ情報のキーを合わせてステップS44に進む。これは、ステップS42の結果、複数のメロディ情報が組み合わされた場合は、本実施例では、先頭のメロディ情報のキーに合わせる。そして、先頭のメロディ情報に繋げる2つ目以降のメロディ情報は、自身が持つキーを先頭のメロディ情報のキーに合わせるように全体の音の高さを変更する。即ち、制御部32が、検索された所定のメロディ情報に含まれるキー情報に基づいて、所定のメロディ以外のメロディ情報に含まれるキー情報を調整するキー調整部として機能する。なお、検索されたメロディ情報が1つのみであった場合や、検索されたメロディ情報が無かった場合は本ステップでは何も行わず次にステップに進む。   Returning to the flowchart of FIG. 6, the key of the melody information searched in step S43 is matched, and the process proceeds to step S44. In the case where a plurality of pieces of melody information are combined as a result of step S42, this is matched with the key of the top melody information in this embodiment. The second and subsequent melody information connected to the first melody information changes the pitch of the entire sound so that the key of the second melody information matches the key of the first melody information. That is, the control unit 32 functions as a key adjustment unit that adjusts key information included in melody information other than the predetermined melody based on key information included in the searched predetermined melody information. If there is only one melody information searched or there is no melody information searched, nothing is done in this step and the process proceeds to the next step.

次に、ステップS44において、検索結果を送信する。メロディ検索部37で検索されたMIDIデータを音声データエンコード部33で音声データにエンコードして歌詞入力端末40に送信する。この際に、当該MIDIデータの属性情報(作曲者情報や被引用情報等)も送信してもよい。   Next, in step S44, the search result is transmitted. The MIDI data searched by the melody search unit 37 is encoded into audio data by the audio data encoding unit 33 and transmitted to the lyrics input terminal 40. At this time, attribute information (such as composer information and cited information) of the MIDI data may be transmitted.

次に、歌詞入力端末40のステップS36において、管理サーバ30から検索結果を受信したか否かを判断し、受信した場合(Yの場合)はステップS37に進む、受信していない場合(Nの場合)は待機する。   Next, in step S36 of the lyrics input terminal 40, it is determined whether or not a search result has been received from the management server 30, and if received (in the case of Y), the process proceeds to step S37. If).

次に、楽曲出力工程としてのステップS37において、検索結果を表示してステップS38に進む。検索結果は図11に示すように、表示部46に歌詞と、複数のメロディ候補を楽譜で表示させて、ユーザ等に選択させる。なお、この際にデコード部49とプレイヤ48とスピーカ47により音声データを音声として出力して確認できるようにしてもよい。即ち、検索結果を楽曲として出力している。   Next, in step S37 as a music output step, the search result is displayed and the process proceeds to step S38. As shown in FIG. 11, the search result is displayed on the display unit 46 with lyrics and a plurality of melody candidates as musical scores, and is selected by the user or the like. At this time, the audio data may be output and confirmed by the decoding unit 49, the player 48, and the speaker 47. That is, the search result is output as music.

次に、ステップS38において、ステップS37で選択したメロディに対してアレンジ部4aがアレンジを行う。なお、アレンジは行わずに検索結果表示のみで終了するようにしてもよい。但し、アレンジを行うことで、複数のメロディ情報を繋げたことによる音の変化や違和感を和らげることができる。   Next, in step S38, the arrangement unit 4a arranges the melody selected in step S37. Note that the arrangement may be terminated only by displaying the search result without performing the arrangement. However, by arranging, it is possible to relieve a change in sound and a sense of incongruity caused by connecting a plurality of pieces of melody information.

本実施形態によれば、歌詞入力端末40の入力部45から入力された歌詞から音数解析部44で音数を抽出し、その音数を小節割り当て解析部43で小節に割り当て、管理サーバ30へ送信している。管理サーバ30では、メロディ検索部37で4小節などの複数小節以上の単位で歌詞入力端末40から送信されてきた音数に一致するMIDIデータを属性情報を参照してMIDIデータDB保存部35から検索し、検索されたMIDIデータを音声データエンコード部33で音声データに変換して歌詞入力端末40に送信している。そして、歌詞入力端末40では管理サーバ30から送信されてきた音声データを、表示部46に表示させたり、音声として出力したりする。このように構成されているので、MIDIデータDB保存部35に蓄積されたそれぞれ別のユーザ等が作成したMIDIデータから歌詞に合ったMIDIデータを選択して組み合せることができ、容易に作曲を行うことができる。また、MIDIデータを複数のユーザ等がそれぞれ作成し、さらに音数のみでそれらMIDIデータを検索するため、複数のMIDIデータの組み合せで作曲することができることから、歌詞の発音等にとらわれず、自動生成よりもバラエティに富んだ作曲をすることができる。   According to the present embodiment, the number of sounds is extracted by the sound number analysis unit 44 from the lyrics input from the input unit 45 of the lyrics input terminal 40, the number of sounds is assigned to the measure by the measure assignment analysis unit 43, and the management server 30. Sending to. In the management server 30, the MIDI data matching the number of sounds transmitted from the lyrics input terminal 40 in units of a plurality of measures such as 4 measures in the melody search unit 37 is referred to the attribute information from the MIDI data DB storage unit 35. The retrieved MIDI data is converted into audio data by the audio data encoding unit 33 and transmitted to the lyrics input terminal 40. Then, the lyrics input terminal 40 displays the voice data transmitted from the management server 30 on the display unit 46 or outputs it as voice. Since it is configured in this way, MIDI data matching the lyrics can be selected and combined from MIDI data created by different users stored in the MIDI data DB storage unit 35, and composition can be easily performed. It can be carried out. In addition, since MIDI data is created by multiple users, and the MIDI data is searched only by the number of sounds, it is possible to compose music by combining multiple MIDI data. You can compose a variety of music rather than generation.

また、管理サーバ30のメロディ検索部37が、小節数と小節内の音数に基づいて検索しているので、歌詞から抽出した音数のみで検索するよりもMIDIデータの検索が容易となり、候補を絞りやすくすることができる。   Further, since the melody search unit 37 of the management server 30 searches based on the number of measures and the number of sounds in the measure, it is easier to search for MIDI data than a search using only the number of sounds extracted from the lyrics. Can be easily squeezed.

また、メロディ検索部37が、歌詞入力端末40から送信されてきた音数を増加または減少させて検索を行っているので、検索対象とするMIDIデータを増やすことができ、作曲の幅を広げることができる。   Further, since the melody search unit 37 performs the search by increasing or decreasing the number of sounds transmitted from the lyrics input terminal 40, the MIDI data to be searched can be increased, and the composition range can be expanded. Can do.

また、メロディ検索部37が、MIDIデータDB保存部35に保存されているMIDIデータの音符を増加または減少させて検索を行っているので、曲の幅を広げることができる。また、音数を変化させることが困難または音数を変化させても検索されない場合にMIDIデータが検索される可能性を高くすることができる。   In addition, since the melody search unit 37 searches by increasing or decreasing the notes of the MIDI data stored in the MIDI data DB storage unit 35, the width of the song can be widened. Further, it is possible to increase the possibility that MIDI data is searched when it is difficult to change the number of sounds or when searching is not performed even when the number of sounds is changed.

また、メロディ検索部37が、小節を分割して分割した小節に音をスライドさせて検索を行っているので、検索する際の条件を広げることができ、作曲の幅を広げることができる。   In addition, since the melody search unit 37 divides the bars and slides the sound into the divided bars to perform the search, it is possible to widen the search conditions and the composition range.

また、管理サーバ30の制御部32が、先頭のMIDIデータのキーに合わせて、他のMIDIデータのキーを調整するので、複数のMIDIデータを組み合わせた際の繋がりの違和感を緩和することができる。   Further, since the control unit 32 of the management server 30 adjusts the key of the other MIDI data in accordance with the key of the first MIDI data, it is possible to alleviate the uncomfortable feeling of connection when combining a plurality of MIDI data. .

なお、上述した実施例では音数の解析を歌詞入力端末40で行っていたが、管理サーバ30に歌詞情報を送信し、管理サーバ30で音数の解析を行うようにしてもよい。また、メロディ検索時に音数に関する条件を変更するような検索(ステップS63、S65等)の音数変更は歌詞入力端末40で行ってもよい。   In the embodiment described above, the number of sounds is analyzed by the lyrics input terminal 40, but the lyrics information may be transmitted to the management server 30 and the number of sounds may be analyzed by the management server 30. In addition, the lyrics input terminal 40 may change the number of sounds for a search (steps S63, S65, etc.) that changes the condition related to the number of sounds during melody search.

また、歌詞入力端末40に送信する検索結果としてMIDIデータを音声データにエンコード送信していたが、MIDIデータを送信し、歌詞入力端末40で必要に応じて音声データに変換するようにしてもよい。   Further, MIDI data is encoded and transmitted as audio data as a search result transmitted to the lyrics input terminal 40. However, MIDI data may be transmitted and converted into audio data as needed by the lyrics input terminal 40. .

次に、本発明の第2の実施例にかかる作曲支援装置を図12および図13を参照して説明する。なお、前述した第1の実施例と同一部分には、同一符号を付して説明を省略する。   Next, a music composition support apparatus according to a second embodiment of the present invention will be described with reference to FIGS. The same parts as those in the first embodiment described above are denoted by the same reference numerals and description thereof is omitted.

図12に示した構成は、歌詞入力端末40は、第1の実施例と同様の構成であるが、管理サーバ30で入力されたメロディのMIDIデータの生成を行うため、メロディ登録端末20と管理サーバ30の構成が異なる。   The configuration shown in FIG. 12 is the same as that of the first embodiment in the lyrics input terminal 40, but in order to generate the melody MIDI data input by the management server 30, The configuration of the server 30 is different.

本実施例にかかるメロディ登録端末20´は、作曲者情報12と、楽譜表示部13と、スピーカ15と、制御部16と、ネットワーク通信部17と、マイク21と、入力部23と、を備えている。即ち、図1に示したメロディ登録端末20からMIDIデータ生成/保存部14と音声周波数解析・採譜処理部22が削除されている。つまり、マイク21から入力されたメロディは、所定の音声信号に変換されてネットワーク通信部17より管理サーバ30´に送信される。   The melody registration terminal 20 ′ according to the present embodiment includes composer information 12, a score display unit 13, a speaker 15, a control unit 16, a network communication unit 17, a microphone 21, and an input unit 23. ing. That is, the MIDI data generation / storage unit 14 and the audio frequency analysis / musical transcription processing unit 22 are deleted from the melody registration terminal 20 shown in FIG. That is, the melody input from the microphone 21 is converted into a predetermined audio signal and transmitted from the network communication unit 17 to the management server 30 ′.

本実施例にかかる管理サーバ30´は、ネットワーク通信部31と、制御部32と、音声データエンコード部33と、音数解析部34と、MIDIデータDB保存部35と、MIDIデータの属性情報DB保存部36と、メロディ検索部37と、音声周波数解析・採譜処理部38と、キー・拍子判定部39と、MIDIデータ生成部3aと、を備えている。即ち、図1に示した管理サーバ30´に音声周波数解析・採譜処理部38と、キー・拍子判定部39と、MIDIデータ生成部3aが追加されている。   The management server 30 'according to the present embodiment includes a network communication unit 31, a control unit 32, an audio data encoding unit 33, a sound number analysis unit 34, a MIDI data DB storage unit 35, and an attribute information DB of MIDI data. A storage unit 36, a melody search unit 37, an audio frequency analysis / musical transcription processing unit 38, a key / time signature determination unit 39, and a MIDI data generation unit 3a are provided. That is, an audio frequency analysis / music transcription processing unit 38, a key / time signature determination unit 39, and a MIDI data generation unit 3a are added to the management server 30 'shown in FIG.

音声周波数解析・採譜処理部38は、メロディ登録端末20´から送信された音声信号(メロディ情報)に周波数解析を行い、音の高低などを検出して音符や休符等に当てはめる採譜処理を行う。   The voice frequency analysis / music transcription processing unit 38 performs frequency analysis on the voice signal (melody information) transmitted from the melody registration terminal 20 ′, detects the pitch of the sound, and performs a music transcription process that applies it to a note, a rest, or the like. .

キー・拍子判定部39は、メロディを入力する際に基準とするテンポをメロディ登録端末20´に出力するとともに、メロディ登録端末20´から送信された音声信号(メロディ情報)の拍子を判定するとともに、キーの判定も行う。   The key / time signature determination unit 39 outputs the tempo used as a reference when inputting a melody to the melody registration terminal 20 ′, and determines the time signature of the audio signal (melody information) transmitted from the melody registration terminal 20 ′. The key is also determined.

MIDIデータ生成部3aは、音声周波数解析・採譜処理部22の結果に対してMIDIデータを生成する。   The MIDI data generation unit 3 a generates MIDI data for the result of the audio frequency analysis / musical transcription processing unit 22.

次に、本実施形態のメロディ登録端末20´と管理サーバ30との動作について図13のフローチャートを参照して説明する。図13のフローチャートも制御部16と制御部32で実行される。まず、ステップS81において、メロディ登録端末20´でメロディを作成してステップS82に進む。この際に、管理サーバ30´に対してテンポを要求するとテンポ信号が入力され、スピーカ15からメトロノーム音として出力される。そして、マイク21から楽器演奏や歌唱等を入力してメロディを作成する。   Next, operations of the melody registration terminal 20 ′ and the management server 30 according to the present embodiment will be described with reference to the flowchart of FIG. The flowchart of FIG. 13 is also executed by the control unit 16 and the control unit 32. First, in step S81, a melody is created by the melody registration terminal 20 ′, and the process proceeds to step S82. At this time, when a tempo is requested from the management server 30 ′, a tempo signal is input and output from the speaker 15 as a metronome sound. And a musical instrument performance, a song, etc. are input from the microphone 21, and a melody is created.

次に、ステップS82において、ステップS81で作成したメロディを制御部32で音
声信号に変換してネットワーク通信部17から管理サーバ30´に送信する(アップロー
ドする)。なお、この際に作曲者情報12も送信する。
Next, in step S82, the melody created in step S81 is converted into an audio signal by the control unit 32 and transmitted (uploaded) from the network communication unit 17 to the management server 30 ′. At this time, composer information 12 is also transmitted.

一方、ステップS91においては、メロディ登録端末20´からテンポ要求があったか否かを判断し、テンポ要求があった場合(Yの場合)はステップS92に進み、ない場合(Nの場合)は待機する。   On the other hand, in step S91, it is determined whether or not there is a tempo request from the melody registration terminal 20 ′. If there is a tempo request (in the case of Y), the process proceeds to step S92. .

次に、ステップS92において、メロディ登録端末20´に対してテンポ信号を出力してステップS93に進む。   Next, in step S92, a tempo signal is output to the melody registration terminal 20 ′, and the process proceeds to step S93.

次に、ステップS93において、メロディ登録端末20´から音声信号(メロディ情報)が入力されたか否かを判断し、入力された場合(Yの場合)はステップS94に進み、入力されない場合(Nの場合)は待機する。   Next, in step S93, it is determined whether or not a voice signal (melody information) is input from the melody registration terminal 20 '. If input (in the case of Y), the process proceeds to step S94, and if not input (in N) If).

次に、ステップS94において、メロディ登録端末20´から送信された音声信号を音声周波数解析・採譜処理部38で採譜して、キー・拍子判定部39でキーを判定し、MIDIデータ生成部3aでMIDIデータに変換してステップS95に進む。なお、本ステップにおいては、図2に示したような属性情報も同時に生成する。   Next, in step S94, the voice signal transmitted from the melody registration terminal 20 'is scored by the voice frequency analysis / music transcription processing unit 38, the key is determined by the key / time signature determination unit 39, and the MIDI data generation unit 3a is used. The data is converted to MIDI data and the process proceeds to step S95. In this step, attribute information as shown in FIG. 2 is also generated.

次に、ステップS95において、MIDIデータDB保存部にステップS94で変換されたMIDIデータを登録、保存するとともに、MIDIデータの属性情報DB保存部36に属性情報を登録、保存する。   In step S95, the MIDI data converted in step S94 is registered and stored in the MIDI data DB storage unit, and the attribute information is registered and stored in the MIDI data attribute information DB storage unit 36.

歌詞入力端末40と管理サーバ30´との動作は第1の実施例と同様である。また、図12では、メロディの登録はメロディ登録端末20´のみを示したが、第1の実施例に示したメロディ登録端末10、20が混在していてもよい。その場合は、例えば、管理サーバ30´に対して、MIDIデータへの変換の要または不要を切り替える情報を端末側から送信するようにすればよい。   The operations of the lyrics input terminal 40 and the management server 30 'are the same as in the first embodiment. In FIG. 12, only the melody registration terminal 20 ′ is shown for melody registration, but the melody registration terminals 10 and 20 shown in the first embodiment may be mixed. In this case, for example, information for switching whether or not conversion into MIDI data is necessary or not may be transmitted from the terminal side to the management server 30 ′.

本実施例によれば、管理サーバ30´でメロディのMIDIデータ化を行うようにしているので、メロディ登録端末20´にMIDIデータを作成するための機能が不要となり、メロディ登録端末20´の処理能力が低くても実現可能となる。   According to the present embodiment, since the management server 30 'converts the melody into MIDI data, the melody registration terminal 20' does not need a function for creating MIDI data, and the melody registration terminal 20 'performs processing. This is possible even if the ability is low.

なお、上述した2つの実施例では、メロディ登録端末10、20、20´と歌詞入力端末40を別の端末として示したが、メロディ登録端末の機能と歌詞入力端末の機能を併せ持った端末であってもよい。   In the two embodiments described above, the melody registration terminals 10, 20, 20 ′ and the lyrics input terminal 40 are shown as separate terminals. However, the melody registration terminals 10, 20, 20 ′ are terminals having both the functions of the melody registration terminal and the lyrics input terminal. May be.

また、メロディ登録端末の機能と歌詞入力端末と管理サーバの機能の全てを併せ持った形態としてもよい。具体的には、例えばパーソナルコンピュータ等に各端末やサーバの機能を持たせ、キーボード等から入力された歌詞を、例えばハードディスク内のMIDIデータを検索してディスプレイに表示したりスピーカから出力したりする。また、MIDIデータは、ネットワーク経由で定期的に外部から入力されるようにしてもよいし、光ディスクやメモリカード等で入力するようにしてもよい。   Moreover, it is good also as a form which has all the functions of the melody registration terminal, the lyrics input terminal, and the management server. Specifically, for example, a personal computer or the like is provided with the functions of each terminal or server, and lyrics input from a keyboard or the like are searched for, for example, MIDI data in a hard disk and displayed on a display or output from a speaker. . Further, MIDI data may be periodically input from the outside via a network, or may be input by an optical disk, a memory card, or the like.

また、上述した2つ実施例では歌詞情報から音数を抽出し、MIDIデータの音数とのマッチングを行うことで検索していたが、歌詞の仮名文字数とMIDIデータの音符の数でマッチングを行うようにしてもよい。例えば「春は」を「はるは」の3文字として検索する。   In the above-described two embodiments, the number of sounds is extracted from the lyrics information, and the search is performed by matching with the number of sounds of MIDI data. However, the matching is performed by the number of kana characters in the lyrics and the number of notes in the MIDI data. You may make it perform. For example, “spring is” is searched as three characters “haruha”.

また、上述した2つ実施例ではメロディ登録端末はいずれもメロディを入力していたが、別の機器等でMIDIデータを作成し、メロディ登録端末は、当該MIDIデータと作曲者情報を管理サーバ30にアップロードするのみとしてもよい。また、メロディ情報としてMIDIデータに限らず、音数や音符の情報が解析可能なデータであれば他の形式でもよい。   In the above-described two embodiments, the melody registration terminal inputs melody, but the MIDI data is created by another device or the like, and the melody registration terminal stores the MIDI data and composer information in the management server 30. Just upload to. Further, the melody information is not limited to MIDI data, but may be in other formats as long as it is data that can analyze the number of notes and note information.

また、上述した図5〜図9のフローチャートをコンピュータで動作するプログラムとして構成することで、本発明を作曲支援プログラムとして構成することができる。即ち、各端末の機能をメロディ登録プログラムや歌詞入力プログラムとして構成し、管理サーバ30の機能を管理サーバプログラム(或いはメロディ検索プログラム)として構成してもよい。なお、この場合、入力部やスピーカ、表示などはそれぞれへのインタフェース部分が対応することとなる。   Moreover, the present invention can be configured as a music composition support program by configuring the above-described flowcharts of FIGS. 5 to 9 as programs that run on a computer. That is, the function of each terminal may be configured as a melody registration program or a lyrics input program, and the function of the management server 30 may be configured as a management server program (or melody search program). In this case, the input unit, the speaker, the display, and the like correspond to the interface portion to each.

前述した実施例によれば、以下の作曲支援装置1、作曲支援方法、歌詞入力端末40および管理サーバ30が得られる。   According to the embodiment described above, the following composition support device 1, composition support method, lyrics input terminal 40, and management server 30 are obtained.

(付記1)複数の作成者によって作成された複数のMIDIデータを蓄積するMIDIデータDB保存部35と、
歌詞情報が入力される入力部45と、
入力部45に入力された歌詞情報に基づいて、MIDIデータDB保存部35に蓄積されているMIDIデータを検索するメロディ検索部37と、
メロディ検索部37で検索された結果を楽曲として出力する表示部46、スピーカ47と、
を備えたことを特徴とする作曲支援装置1。
(Supplementary Note 1) A MIDI data DB storage unit 35 for storing a plurality of MIDI data created by a plurality of creators;
An input unit 45 for inputting lyrics information;
A melody search unit 37 for searching for MIDI data stored in the MIDI data DB storage unit 35 based on the lyrics information input to the input unit 45;
A display unit 46 for outputting the result searched by the melody search unit 37 as a song, a speaker 47,
A music composition support apparatus 1 comprising:

(付記2)MIDIデータDB保存部35に蓄積された複数の作成者によって作成された複数のMIDIデータに基づいて歌詞に合わせた曲を作曲する支援を行う作曲支援方法であって、
歌詞情報を入力するステップS31と、
ステップS31において入力された歌詞情報に基づいて、MIDIデータDB保存部35に蓄積されているMIDIデータを検索するステップS42と、
ステップS42において検索されたMIDIデータを出力するステップS37と、
を含むことを特徴とする作曲支援方法。
(Supplementary note 2) A composition support method for supporting composition of music in accordance with lyrics based on a plurality of MIDI data created by a plurality of creators stored in a MIDI data DB storage unit 35,
Step S31 for inputting lyrics information;
Step S42 for searching the MIDI data stored in the MIDI data DB storage unit 35 based on the lyrics information input in Step S31;
Outputting the MIDI data retrieved in step S42;
A composition support method characterized by including:

(付記3)歌詞情報が入力される入力部45と、
管理サーバ30部に蓄積された複数の作成者によって入力された複数のMIDIデータから、入力部45によって入力された歌詞情報に基づいたMIDIデータの検索を行い、当該検索されたMIDIデータを含む検索結果を取得する制御部42と、
を備えたことを特徴とする歌詞入力端末40。
(Additional remark 3) The input part 45 into which lyrics information is input,
Search for MIDI data based on the lyrics information input by the input unit 45 from a plurality of MIDI data input by a plurality of creators stored in the management server 30 unit, and search including the searched MIDI data A control unit 42 for obtaining a result;
A lyric input terminal 40 characterized by comprising:

これらの作曲支援装置1、作曲支援方法および歌詞入力端末によれば、MIDIデータDB保存部35(管理サーバ30)に蓄積されたMIDIデータから歌詞に合ったMIDIデータを選択することができ、容易に作曲を行うことができる。また、MIDIデータDB保存部35に蓄積されたMIDIデータから音数のみで検索するため、歌詞の発音等にとらわれないバラエティに富んだ作曲をすることができる。   According to the music composition support apparatus 1, the music composition support method, and the lyrics input terminal, MIDI data suitable for the lyrics can be selected from the MIDI data stored in the MIDI data DB storage unit 35 (management server 30). Can compose music. In addition, since only the number of sounds is searched from the MIDI data stored in the MIDI data DB storage unit 35, it is possible to compose a variety of music without being restricted by the pronunciation of the lyrics.

(付記4)複数の作成者によって入力された複数のMIDIデータを蓄積するMIDIデータDB保存部35と、
歌詞情報を受信するネットワーク通信部31と、
ネットワーク通信部31が受信した歌詞情報に基づいて、MIDIデータDB保存部35に蓄積されているMIDIデータを検索するメロディ検索部37と、
メロディ検索部37で検索された結果を出力するネットワーク通信部31と、
を備えたことを特徴とする管理サーバ30。
(Supplementary Note 4) A MIDI data DB storage unit 35 for storing a plurality of MIDI data input by a plurality of creators;
A network communication unit 31 for receiving lyrics information;
A melody search unit 37 that searches for MIDI data stored in the MIDI data DB storage unit 35 based on the lyrics information received by the network communication unit 31;
A network communication unit 31 for outputting a result searched by the melody search unit 37;
A management server 30 comprising:

この管理サーバ30によれば、検索部で入力された音数に基づいてメロディ情報を検索し、検索結果出力部から検索された結果を出力するので、蓄積部に蓄積されたメロディ情報から音数に合ったメロディ情報を検索することができる。   According to the management server 30, the melody information is searched based on the number of sounds input by the search unit, and the search result output unit outputs the result of the search, so the number of sounds is calculated from the melody information stored in the storage unit. You can search for melody information that suits your needs.

なお、前述した実施例は本発明の代表的な形態を示したに過ぎず、本発明は、実施例に限定されるものではない。すなわち、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。   In addition, the Example mentioned above only showed the typical form of this invention, and this invention is not limited to an Example. That is, various modifications can be made without departing from the scope of the present invention.

1 作曲支援装置
10 メロディ登録端末
20 メロディ登録端末
30 管理サーバ(メロディ検索装置)
31 ネットワーク通信部(歌詞情報受信部、検索結果出力部)
32 制御部(キー調整部)
35 MIDIデータDB保存部(蓄積部)
37 メロディ検索部(検索部)
40 歌詞入力端末
42 制御部(メロディ情報取得部)
44 音数解析部(音数抽出部)
45 入力部(歌詞入力部)
46 表示部(楽曲出力部)
47 スピーカ(楽曲出力部)
S31 歌詞入力(歌詞入力工程)
S33 音数取得(音数抽出工程)
S37 検索結果表示(楽曲出力工程)
S42 検索(検索工程)
1 Composition Support Device 10 Melody Registration Terminal 20 Melody Registration Terminal 30 Management Server (Melody Search Device)
31 Network communication unit (lyrics information receiving unit, search result output unit)
32 Control unit (key adjustment unit)
35 MIDI data DB storage (storage)
37 Melody search part (search part)
40 Lyric input terminal 42 Control unit (melody information acquisition unit)
44 Number analysis unit (Number extraction unit)
45 Input section (lyric input section)
46 Display section (music output section)
47 Speaker (music output unit)
S31 Lyric input (lyric input process)
S33 Sound acquisition (sound extraction process)
S37 Search result display (music output process)
S42 Search (search process)

Claims (7)

メロディ音を入力する入力部と、
前記入力部に入力された前記メロディ音に基づいて作曲する作曲部と、
を備え、
前記作曲部は、設定されたジャンル及び曲調並びに前記メロディ音の小節数に基づき作曲を行うことを特徴とする作曲支援装置。
An input unit for inputting a melody sound;
A composer that composes music based on the melody sound input to the input unit;
With
The music composition support apparatus, wherein the music composition unit composes music based on a set genre and music tone and the number of measures of the melody sound.
前記メロディ音は、少なくともユーザによる歌唱、鼻歌、又は楽器を用いた演奏のいずれかを含むことを特徴とする請求項1に記載の作曲支援装置。   The composition support apparatus according to claim 1, wherein the melody sound includes at least one of a song performed by a user, a nose song, or a performance using a musical instrument. 前記メロディ音を五線譜上に表示する楽譜表示部をさらに備えることを特徴とする請求項1又2のいずれか一項に記載の作曲支援装置。   The music composition support apparatus according to claim 1, further comprising a score display unit that displays the melody sound on a staff. 前記メロディ音を音声信号に変換し、アップロードするネットワーク通信部をさらに備えることを特徴とする請求項1乃至3のいずれか一項に記載の作曲支援装置。   The music composition support apparatus according to any one of claims 1 to 3, further comprising a network communication unit that converts the melody sound into an audio signal and uploads the sound signal. 作曲支援装置で実行される作曲支援方法であって、
メロディ音を入力する入力工程と、
前記入力工程で入力された前記メロディ音に基づいて作曲する作曲工程と、
を含み、
前記作曲工程は、設定されたジャンル及び曲調並びに前記メロディ音の小節数に基づき作曲を行うことを特徴とする作曲支援方法。
A composition support method executed by a composition support apparatus,
An input process for inputting a melody sound;
Composing based on the melody sound input in the input step;
Including
The composition support method, wherein the composition step performs composition based on a set genre and composition and the number of measures of the melody sound.
請求項5に記載の作曲支援方法を、コンピュータにより実行させることを特徴とする作曲支援プログラム。   6. A music composition support program that causes a computer to execute the music composition support method according to claim 5. 請求項6に記載の作曲支援プログラムを格納したことを特徴とするコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium storing the composition support program according to claim 6.
JP2015210109A 2015-10-26 2015-10-26 Musical composition support device, musical composition support method, musical composition support program, and recording medium having musical composition support program stored therein Pending JP2016029499A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015210109A JP2016029499A (en) 2015-10-26 2015-10-26 Musical composition support device, musical composition support method, musical composition support program, and recording medium having musical composition support program stored therein

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015210109A JP2016029499A (en) 2015-10-26 2015-10-26 Musical composition support device, musical composition support method, musical composition support program, and recording medium having musical composition support program stored therein

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012151169A Division JP2014013340A (en) 2012-07-05 2012-07-05 Music composition support device, music composition support method, music composition support program, recording medium storing music composition support program and melody retrieval device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018025088A Division JP2018088000A (en) 2018-02-15 2018-02-15 Music composition support device, music composition support method, music composition support program, and recording medium for storing music composition support program

Publications (1)

Publication Number Publication Date
JP2016029499A true JP2016029499A (en) 2016-03-03

Family

ID=55435375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015210109A Pending JP2016029499A (en) 2015-10-26 2015-10-26 Musical composition support device, musical composition support method, musical composition support program, and recording medium having musical composition support program stored therein

Country Status (1)

Country Link
JP (1) JP2016029499A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163064A (en) * 1998-11-25 2000-06-16 Yamaha Corp Music generating device and recording medium which records music generating program
JP2002055679A (en) * 2000-05-30 2002-02-20 Yamaha Corp Contents-generating service system, method and recording medium
JP2003029749A (en) * 2001-07-11 2003-01-31 Yamaha Corp Device and program for automatic composition
JP2009025386A (en) * 2007-07-17 2009-02-05 Yamaha Corp Device and program for producing music piece
JP2010026337A (en) * 2008-07-22 2010-02-04 Yoshihiko Sano Method, and program and device for creating song, and song providing system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163064A (en) * 1998-11-25 2000-06-16 Yamaha Corp Music generating device and recording medium which records music generating program
JP2002055679A (en) * 2000-05-30 2002-02-20 Yamaha Corp Contents-generating service system, method and recording medium
JP2003029749A (en) * 2001-07-11 2003-01-31 Yamaha Corp Device and program for automatic composition
JP2009025386A (en) * 2007-07-17 2009-02-05 Yamaha Corp Device and program for producing music piece
JP2010026337A (en) * 2008-07-22 2010-02-04 Yoshihiko Sano Method, and program and device for creating song, and song providing system

Similar Documents

Publication Publication Date Title
CN108806656B (en) Automatic generation of songs
US10229669B2 (en) Apparatus, process, and program for combining speech and audio data
CN106652997B (en) Audio synthesis method and terminal
US8712776B2 (en) Systems and methods for selective text to speech synthesis
US11710474B2 (en) Text-to-speech from media content item snippets
KR101274961B1 (en) music contents production system using client device.
US8352268B2 (en) Systems and methods for selective rate of speech and speech preferences for text to speech synthesis
KR20180063163A (en) Automated music composition and creation machines, systems and processes employing musical experience descriptors based on language and / or graphic icons
US8352272B2 (en) Systems and methods for text to speech synthesis
US8355919B2 (en) Systems and methods for text normalization for text to speech synthesis
US8396714B2 (en) Systems and methods for concatenation of words in text to speech synthesis
CN112382257B (en) Audio processing method, device, equipment and medium
US20200410968A1 (en) Method of combining audio signals
JP6452229B2 (en) Karaoke sound effect setting system
JP2013045082A (en) Musical piece generation device
CN101930732B (en) Music producing method and device based on user input voice and intelligent terminal
CN113874932A (en) Electronic musical instrument, control method for electronic musical instrument, and storage medium
JP2014013340A (en) Music composition support device, music composition support method, music composition support program, recording medium storing music composition support program and melody retrieval device
JP2013164609A (en) Singing synthesizing database generation device, and pitch curve generation device
JP2018088000A (en) Music composition support device, music composition support method, music composition support program, and recording medium for storing music composition support program
JP2016029499A (en) Musical composition support device, musical composition support method, musical composition support program, and recording medium having musical composition support program stored therein
JP2020074046A (en) Music composition support device, music composition support method, music composition support program, and recording medium for storing music composition support program
JP6587459B2 (en) Song introduction system in karaoke intro
JP6144593B2 (en) Singing scoring system
JP6299141B2 (en) Musical sound information generating apparatus and musical sound information generating method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171121