JP6658785B2 - Automatic accompaniment method and automatic accompaniment device - Google Patents

Automatic accompaniment method and automatic accompaniment device Download PDF

Info

Publication number
JP6658785B2
JP6658785B2 JP2018064438A JP2018064438A JP6658785B2 JP 6658785 B2 JP6658785 B2 JP 6658785B2 JP 2018064438 A JP2018064438 A JP 2018064438A JP 2018064438 A JP2018064438 A JP 2018064438A JP 6658785 B2 JP6658785 B2 JP 6658785B2
Authority
JP
Japan
Prior art keywords
melody
music
database
sound
song
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018064438A
Other languages
Japanese (ja)
Other versions
JP2018101158A (en
Inventor
広子 奥田
広子 奥田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018064438A priority Critical patent/JP6658785B2/en
Publication of JP2018101158A publication Critical patent/JP2018101158A/en
Application granted granted Critical
Publication of JP6658785B2 publication Critical patent/JP6658785B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、自動伴奏方法および自動伴奏装置に関する。 The present invention relates to an automatic accompaniment method and an automatic accompaniment device .

ピアノやオルガン、あるいは電子キーボードや電子ピアノといった、鍵盤を備えた楽器では、右手でメロディを演奏しつつ、これに合わせて左手で伴奏を演奏する奏法が一般的である。   In a musical instrument having a keyboard such as a piano, an organ, or an electronic keyboard or an electronic piano, it is common to play a melody with the right hand and play an accompaniment with the left hand in accordance with the melody.

しかしながら、このように右手と左手を同時に動かして演奏をするためには相応の練習が必要である。特に、メロディを奏するために右手を動かすことは比較的容易であっても、同時に左手でメロディとは異なる伴奏を演奏することが困難と感じる演奏者が、特に初心者では多い。このため、そのような初心者であっても、容易に演奏を楽しむことができるように、演奏者が右手でメロディを演奏するのに合わせて、左手の演奏に相当する伴奏を自動的に作成して演奏する電子楽器が実現されている。   However, in order to perform the performance by moving the right hand and the left hand at the same time, appropriate training is necessary. In particular, although it is relatively easy to move the right hand to play a melody, many beginners find it difficult to play an accompaniment different from the melody with the left hand at the same time. For this reason, an accompaniment corresponding to a left-handed performance is automatically created at the same time that the player plays the melody with the right hand so that even a beginner can enjoy the performance easily. Electronic musical instruments have been realized.

例えば、特許文献1には、メロディ音の重みおよびその遷移に基づいて、適切にコード名を決定することができる電子楽器の技術が開示されている。   For example, Patent Literature 1 discloses a technique of an electronic musical instrument that can appropriately determine a chord name based on a melody sound weight and its transition.

特開2011−158855号公報JP 2011-158855 A

特許文献1に記載の電子楽器では、メロディ音の拍の位置や拍の重み、また前拍の拍頭におけるメロディ音やコード名(和音名)等を用いてコード判定を行っていたものの、一般的な音楽のメロディ進行とコード付けは極めて多数の様々な場合があり、特に、音楽の分野では、メロディ進行に対するコード付けについて、人間の感覚によって判断される部分も多く、機械によるコード付けの精度をさらに向上させることが求められていた。   In the electronic musical instrument described in Patent Literature 1, although chord judgment is performed using a beat position and a beat weight of a melody sound, a melody sound and a chord name (chord name) at the front of the previous beat, etc. The melody progression and coding of classical music can be quite numerous and different, especially in the field of music, where the coding of melody progression is often determined by human perception and the accuracy of machine coding. Has been required to be further improved.

本発明は上記のような点に鑑みなされたもので、メロディ音の履歴に基づいて精度の良い適切なコード付けを迅速に行うことができる自動伴奏方法および自動伴奏装置を提供することを目的とする。 The present invention has been made in view of the above points, and an object of the present invention is to provide an automatic accompaniment method and an automatic accompaniment apparatus that can quickly perform accurate and appropriate chording based on a melody sound history. I do.

上記目的を達成するため、本発明の一態様の自動伴奏方法は、演奏されるメロディに対応する伴奏音を発生する自動伴奏装置に用いられる自動伴奏方法であって、複数の楽曲のそれぞれについて、メロディに対応するコードが楽曲データとして記憶されている楽曲データベースから、演奏されるメロディに対応する楽曲データを検索し、前記検索された楽曲データに含まれるコードを、前記メロディに対応するコードとして判定し、演奏されるメロディに対応する楽音の発生に対応させて、前記判定されたコードに基づいた伴奏音を発生させ、前記楽曲データの検索において、前記メロディを構成する複数の楽音のうち、第1音目の楽音の音長と、第2音目以降の各々の楽音の音長との比率に基づき前記楽曲データベースから対応する楽曲データを検索することを特徴とする。 In order to achieve the above object, an automatic accompaniment method according to one embodiment of the present invention is an automatic accompaniment method used for an automatic accompaniment device that generates an accompaniment sound corresponding to a melody to be played, and for each of a plurality of music pieces, A music database corresponding to a melody to be played is searched from a music database in which a code corresponding to the melody is stored as music data, and a code included in the searched music data is determined as a code corresponding to the melody. Then, an accompaniment sound based on the determined chord is generated in correspondence with the generation of a musical tone corresponding to the melody to be played, and in the search for the music data , among the plurality of musical tones constituting the melody , 1 and sound length of the sound-th tone, music de corresponding from the music database, based on the ratio of the durations of the tones of each of the second sound and subsequent Characterized in that it searches the data.

本発明によれば、メロディ音の履歴に基づいて、自動的なコード付けと、楽曲データベースを用いたコード付けとの双方を適切に使い分けてコード付けができるため、精度の良い適切なコード付けを迅速に行うことが可能となる。   According to the present invention, based on the history of the melody sound, it is possible to appropriately use both the automatic coding and the coding using the music database to perform the coding. It can be done quickly.

図1は、本実施の形態にかかる電子楽器の外観を示す図である。FIG. 1 is a diagram illustrating an appearance of an electronic musical instrument according to the present embodiment. 図2は、本発明の実施の形態にかかる電子楽器の構成を示すブロックダイヤグラムである。FIG. 2 is a block diagram showing a configuration of the electronic musical instrument according to the embodiment of the present invention. 図3は、本実施の形態にかかる電子楽器において実行されるメインフローの例を示すフローチャートである。FIG. 3 is a flowchart illustrating an example of a main flow executed in the electronic musical instrument according to the present embodiment. 図4は、本実施の形態にかかる鍵盤処理の例を示すフローチャートである。FIG. 4 is a flowchart illustrating an example of keyboard processing according to the present embodiment. 図5は、本実施の形態にかかる曲候補検索処理の例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of the song candidate search process according to the present embodiment. 図6は、本実施の形態にかかるFリストアップ処理の例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of the F-listing process according to the present embodiment. 図7は、本実施の形態にかかるKリストアップ処理の例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of the K list-up process according to the present embodiment. 図8は、本実施の形態にかかるNリストアップ処理の例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of the N list-up process according to the present embodiment. 図9は、本実施の形態にかかるDリストアップ処理の例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of the D-listing process according to the present embodiment. 図10は、本実施の形態にかかるNリストとDリストから総合リストを作成する処理の例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of a process of creating a comprehensive list from the N list and the D list according to the present embodiment. 図11は、本実施の形態にかかるコード選択処理の例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of the code selection process according to the present embodiment. 図12は、本実施の形態にかかる楽曲データベースの例を示す図である。FIG. 12 is a diagram illustrating an example of the music database according to the present embodiment. 図13は、図12の楽曲データベースに対応した楽譜を表す図である。FIG. 13 is a diagram showing a musical score corresponding to the music database of FIG. 図14は、本実施の形態にかかる演奏入力メロディ履歴の記録データ例を示す図である。FIG. 14 is a diagram showing an example of recorded data of the performance input melody history according to the present embodiment. 図15は、本実施の形態にかかるFリストの例を示す図である。FIG. 15 is a diagram illustrating an example of the F-list according to the present embodiment. 図16(A)は、本実施の形態にかかる入力メロディ履歴の一例、図16(B)は、図16(A)の入力メロディに対応したKリストの例を示す図である。FIG. 16A shows an example of the input melody history according to the present embodiment, and FIG. 16B shows an example of a K list corresponding to the input melody of FIG. 16A. 図17(A)は、本実施の形態にかかる入力メロディ履歴の一例、図17(B)は、図17(A)の入力メロディに対応したNリストの例を示す図である。FIG. 17A illustrates an example of the input melody history according to the present embodiment, and FIG. 17B illustrates an example of an N list corresponding to the input melody of FIG. 17A. 図18(A)は、本実施の形態にかかる入力メロディ履歴の一例、図18(B)は、図18(A)の入力メロディに対応したNリストの例、図18(C)は、図18(A)の入力メロディに対応したDリストの例を示す図である。FIG. 18A is an example of the input melody history according to the present embodiment, FIG. 18B is an example of an N list corresponding to the input melody of FIG. 18A, and FIG. It is a figure showing the example of the D list corresponding to the input melody of 18 (A). 図19は、本実施の形態にかかる総合リストの例を示す図である。FIG. 19 is a diagram illustrating an example of the comprehensive list according to the present embodiment. 図20は、本実施の形態にかかるダイアトニックレジスタの例を示す図である。FIG. 20 is a diagram illustrating an example of the diatonic register according to the present embodiment. 図21は、本実施の形態にかかるダイアトニックスケールテーブルの例を示す図である。FIG. 21 is a diagram illustrating an example of the diatonic scale table according to the present embodiment. 図22は、本実施の形態にかかる仮コード決定マップの例を示す図である。FIG. 22 is a diagram illustrating an example of a temporary code determination map according to the present embodiment. 図23は、本実施の形態にかかるコードデータベースの例を示す図である。FIG. 23 is a diagram illustrating an example of the code database according to the present embodiment. 図24は、本実施の形態にかかるコード判定テーブルの例を示す図である。FIG. 24 is a diagram illustrating an example of the code determination table according to the present embodiment. 図25は、本実施の形態にかかる自動伴奏処理の例を示すフローチャートである。FIG. 25 is a flowchart illustrating an example of the automatic accompaniment process according to the present embodiment. 図26は、本発明の第2の実施形態にかかるコード選択処理の例を示すフローチャートである。FIG. 26 is a flowchart illustrating an example of a code selection process according to the second embodiment of the present invention.

以下、添付図面を参照して、本発明の実施の形態について説明する。図1は、本実施の形態にかかる電子楽器を適用した電子楽器の外観を示す図である。図1に示すように、本実施の形態にかかる電子楽器10は、演奏操作子としての鍵盤11を有する。また、鍵盤11の上部には、音色の指定、自動伴奏の開始・終了、リズムパターンの指定などを行なうためのスイッチ(符号12、13参照)や、演奏される楽曲に関する種々の情報、たとえば、音色、リズムパターン、コード名などを表示する表示部15を有する。本実施の形態にかかる電子楽器10は、たとえば、61個の鍵(C2〜C7)を有する。また、電子楽器10は、自動伴奏をオンする自動伴奏モード、および、自動伴奏をオフにする通常モードの2つの演奏モードのうち、何れかの下での演奏が可能である。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a diagram illustrating an appearance of an electronic musical instrument to which the electronic musical instrument according to the present embodiment is applied. As shown in FIG. 1, an electronic musical instrument 10 according to the present embodiment has a keyboard 11 as a performance operator. On the upper part of the keyboard 11, there are provided switches (see reference numerals 12 and 13) for designating a timbre, start / end of an automatic accompaniment, designation of a rhythm pattern, etc., and various information relating to a music to be played, for example, The display unit 15 displays a tone color, a rhythm pattern, a chord name, and the like. The electronic musical instrument 10 according to the present embodiment has, for example, 61 keys (C2 to C7). In addition, the electronic musical instrument 10 can perform in one of two performance modes, an automatic accompaniment mode in which automatic accompaniment is turned on, and a normal mode in which automatic accompaniment is turned off.

図2は、本発明の実施の形態にかかる電子楽器の構成を示すブロックダイヤグラムである。図2に示すように、本実施の形態にかかる電子楽器10は、CPU21、ROM22、RAM23、サウンドシステム24、スイッチ群25、鍵盤11および表示部15を備える。   FIG. 2 is a block diagram showing a configuration of the electronic musical instrument according to the embodiment of the present invention. As shown in FIG. 2, the electronic musical instrument 10 according to the present embodiment includes a CPU 21, a ROM 22, a RAM 23, a sound system 24, a switch group 25, a keyboard 11, and a display unit 15.

CPU21は、電子楽器10全体の制御、鍵盤11の鍵の押鍵やスイッチ群25を構成するスイッチ(たとえば、図1の符号12、13参照)の操作の検出、鍵やスイッチの操作にしたがったサウンドシステム24の制御、押鍵された楽音の音高にしたがったコード名の決定、自動伴奏パターンおよびコード名にしたがった自動伴奏の演奏など、種々の処理を実行する。   The CPU 21 controls the entire electronic musical instrument 10, detects the depression of a key on the keyboard 11 and the operation of the switches (for example, reference numerals 12 and 13 in FIG. 1), and operates the keys and switches. Various processes such as control of the sound system 24, determination of a chord name according to the pitch of a depressed musical tone, and performance of an automatic accompaniment according to an automatic accompaniment pattern and a chord name are executed.

ROM22は、CPU21に実行させる種々の処理、たとえば、スイッチの操作や鍵盤の何れかの鍵の押鍵に応じて実行される処理、押鍵に応じた楽音の発音、押鍵された楽音の音高にしたがったコード名の決定、自動伴奏パターンおよびコード名にしたがった自動伴奏の演奏などのプログラムを記憶する。また、ROM22は、ピアノ、ギター、バスドラム、スネアドラム、シンバルなどの各種の楽音を生成するための波形データを格納した波形データエリア、および、種々の自動伴奏パターンを示すデータ(自動伴奏データ)を格納した自動伴奏パターンエリアを有する。   The ROM 22 stores various processes to be executed by the CPU 21, for example, a process executed in response to a switch operation or a key depression of any key on the keyboard, a tone generated in response to a key depression, and a tone of a depressed tone. A program for determining a chord name according to the height, an automatic accompaniment pattern, and playing an automatic accompaniment according to the chord name is stored. The ROM 22 stores a waveform data area storing waveform data for generating various musical tones such as a piano, a guitar, a bass drum, a snare drum, and a cymbal, and data indicating various automatic accompaniment patterns (automatic accompaniment data). Is stored in the automatic accompaniment pattern area.

RAM23は、ROM22から読み出されたプログラムや、処理の過程で生じたデータを記憶する。さらにRAM23は、鍵盤11の鍵の押鍵・離鍵に伴いCPU21によって生成される、メロディ履歴データを記憶する。なお、本実施の形態において、自動伴奏パターンは、メロディ音およびオブリガート音を含むメロディ自動伴奏パターン、コード名ごとの構成音を含むコード自動伴奏パターン、並びに、ドラム音を含むリズムパターンを有する。たとえば、メロディ自動伴奏パターンのデータのレコードは、楽音の音色、音高、発音タイミング(発音時刻)、音長などを含む。コード自動伴奏パターンのデータのレコードは、上記情報に加えて、コード構成音を示すデータを含む。また、リズムパターンのデータは、楽音の音色、発音タイミングを含む。   The RAM 23 stores programs read from the ROM 22 and data generated during the processing. Further, the RAM 23 stores melody history data generated by the CPU 21 in response to key depression / release of keys on the keyboard 11. In the present embodiment, the automatic accompaniment pattern includes a melody automatic accompaniment pattern including a melody sound and an obligato sound, a chord automatic accompaniment pattern including a constituent sound for each chord name, and a rhythm pattern including a drum sound. For example, the record of the data of the melody automatic accompaniment pattern includes the timbre, pitch, sounding timing (sounding time), tone length, and the like of the musical tone. The record of the data of the chord automatic accompaniment pattern includes, in addition to the above information, data indicating the chord constituent sounds. The data of the rhythm pattern includes the timbre of the musical tone and the sounding timing.

サウンドシステム24は、音源部26、オーディオ回路27およびスピーカ28を有する。音源部26は、たとえば、押鍵された鍵についての情報或いは自動伴奏パターンについての情報をCPU21から受信すると、ROM22の波形データエリアから所定の波形データを読み出して、所定の音高の楽音データを生成して出力する。また、音源部26は、波形データ、特に、スネアドラム、バスドラム、シンバルなど打楽器の音色の波形データを、そのまま楽音データとして出力することもできる。オーディオ回路27は、楽音データをD/A変換して増幅する。これによりスピーカ28から音響信号が出力される。   The sound system 24 has a sound source unit 26, an audio circuit 27, and a speaker 28. When the tone generator 26 receives, for example, information about a depressed key or information about an automatic accompaniment pattern from the CPU 21, the tone generator 26 reads out predetermined waveform data from the waveform data area of the ROM 22 and converts musical tone data of a predetermined pitch. Generate and output. The tone generator 26 can also output waveform data, in particular, waveform data of timbres of percussion instruments such as snare drums, bass drums, and cymbals, as tone data. The audio circuit 27 D / A converts and amplifies the musical sound data. As a result, an audio signal is output from the speaker 28.

さらに、本発明の実施の形態にかかる電子楽器10は、楽曲データベース30を備えている。この楽曲データベース30は、後述するように、入力されたメロディの履歴とデータベースの各楽曲との比較を行い、適合する曲のコード(和音)を参照するための辞書として用いられるデータベースである。図12は、この楽曲データベース30の実際のデータ構造の一例を示す図である。   Further, the electronic musical instrument 10 according to the embodiment of the present invention includes a music database 30. As described later, the music database 30 is a database used as a dictionary for comparing the input melody history with each music in the database and referring to a code (chord) of a suitable music. FIG. 12 is a diagram showing an example of the actual data structure of the music database 30.

図12は、種々の楽曲のデータベースのうち「C−D−E」すなわち、「ド−レ−ミ」で始まる曲のうちのいくつかの曲の冒頭部分を例示したものである。また、図12に例示した各楽曲のデータに対応する実際の曲の楽譜を図13に示してある。なお、実際にCPU21が読み込んで各種処理に使用する楽曲データベースとしては、例えばXML(Extensible Markup Language)ファイル形式などで、必要に応じたタグやヘッダなどを付して構成することにより、CPU21に認識可能なものとなっているものとする。   FIG. 12 exemplifies the beginning of some of the songs starting with "CDE", that is, "Doremi" in the database of various songs. FIG. 13 shows actual music scores corresponding to the data of each music illustrated in FIG. The music database that is actually read by the CPU 21 and used for various processes is, for example, an XML (Extensible Markup Language) file format or the like, with tags and headers, etc., as necessary, configured to be recognized by the CPU 21. It shall be possible.

図12に示すとおり、楽曲データベースではまず、各楽曲ごとに、曲番号と曲のタイトルが記録されている(図12の曲番号の欄、タイトルの欄)。また、各楽曲の「Key/Beat」欄の一番上の行に示すように、その曲が何調で記録されているか(Key)、および、何拍子であるか(Beat)が記録されている。例えば、曲番号1の「こぎつね」では「C/4」と記録されており、この曲がハ長調−4拍子で記録されていることを表している。同様に、曲番号6の「みなと」では「C/3」と記録されており、この曲がハ長調−3拍子で記録されていることを表している。   As shown in FIG. 12, the song database first records a song number and a song title for each song (the song number column and the title column in FIG. 12). Also, as shown in the top row of the “Key / Beat” column of each song, how many keys the song is recorded (Key) and how many beats it is (Beat) are recorded. I have. For example, “C / 4” is recorded in “fox” of song number 1, indicating that the song is recorded in C major—4 beats. Similarly, “C / 3” is recorded in “Minato” of the music number 6, indicating that the music is recorded in C major and three beats.

なお、本図12においては、すべての楽曲がハ長調で記録されている場合の例を示しているが、ハ長調以外で統一されていても、また、曲ごとに別々の調でデータベースを持つように構成しても勿論差し支えない。すべての曲を同じ調でデータベース化してある場合には、後述するコード付けアルゴリズムや調判定アルゴリズムによって調性の判別ができた場合に、その判別された、ユーザが弾いているメロディの推定調性と、データベースで用いられている調性(図12ではハ調)との音程(半音数)等に基づいて、楽曲データベースに登録されているすべての楽曲を一様に当該判別された調性に移調すれば処理を行うことができ、処理を簡潔にすることができる。一方、曲ごとに別々の調、例えばそれぞれの曲の原曲の調でデータベース登録をしておくことも可能である。   Although FIG. 12 shows an example in which all songs are recorded in C major, even if the songs are unified in other than C major, each song has a database in a different key. Such a configuration is of course acceptable. If all songs are stored in a database with the same key, if the tonality can be determined by a coding algorithm or key determination algorithm described later, the estimated tonality of the melody played by the user is determined. Based on the pitch (the number of semitones) of the tonality (the C key in FIG. 12) used in the database, all the songs registered in the music database are uniformly assigned to the determined tonality. If transposition is performed, the processing can be performed, and the processing can be simplified. On the other hand, it is also possible to register a database in a different key for each song, for example, in the key of the original song of each song.

さらに、図12の各楽曲ごとのKey/Beat欄の右(以下、「Note欄」という)には、各楽曲のメロディの音高、前の音との音程、開始音とのST(Step Time)比率、そのメロディに対するコード(和音)が記録されている。   Further, at the right of the Key / Beat column (hereinafter, referred to as “Note column”) for each song in FIG. 12, the melody pitch of each song, the pitch with the previous sound, and the ST (Step Time) with the start sound are shown. ) Ratio and chord (chord) for the melody are recorded.

再度、曲番号1の「こぎつね」を例にとって説明すると、この曲のメロディは「ドレミファソソソ」となっているので、図12の曲番号1のNote欄の最上行には、メロディの音高として順に「CDEFGGG」のデータが記録されている。   Referring again to the song number 1 “fox” as an example, the melody of this song is “Doremi Fasososo”, so the top row of the Note column of song number 1 in FIG. Are sequentially recorded as “CDEFGGG”.

また、図12の各楽曲のNote欄の2行目には、開始音/直前音との音程が記録されている。すなわち、メロディの最初の音については、開始音(図12の例では全てC)の音高がそのまま記録され、メロディの2音目以降は、直前の音との音程(半音数)が記録されている。例えば、曲番号1の「こぎつね」の場合では、メロディの第1音については「C」がそのまま記録され、つづくメロディの第2音目の「D」については、直前のメロディ音(第1音)である「C」から半音2個上の音であるので、「2」と記録されている。同様に、メロディ音第3音目の「E」については、第2音「D」との音程(半音数)「2」が記録され、また、メロディ音第4音目の「F」については、第3音「E」との音程(半音数)「1」が記録されている。   In the second row of the Note column of each music piece in FIG. 12, the pitch between the start sound and the immediately preceding sound is recorded. That is, for the first sound of the melody, the pitch of the start sound (all C in the example of FIG. 12) is recorded as it is, and after the second sound of the melody, the pitch (the number of semitones) with the immediately preceding sound is recorded. ing. For example, in the case of “fox” of song number 1, “C” is recorded as it is for the first sound of the melody, and “D” of the second sound of the following melody is immediately preceding the melody sound (first sound). Since the sound is two semitones higher than the sound “C”, “2” is recorded. Similarly, for the third melody note “E”, the pitch (the number of semitones) “2” with the second melody “D” is recorded, and for the fourth melody tone “F”, , The pitch (the number of semitones) “1” with the third sound “E” is recorded.

なお、曲番号2以降の一部で表わされているように、メロディ音が直前の音より下降した場合には、この直前音との音程はマイナスの値で記録されている(例えば、曲番号2の「すずめのうた」の4音目や、曲番号7の「はと」の5音目、6音目など)。   When the melody sound is lower than the immediately preceding sound, as indicated by a part after the music number 2, the pitch with the immediately preceding sound is recorded as a negative value (for example, the music number). The fourth note of "Sparrow's Song" of number 2 and the fifth and sixth notes of "Hato" of song number 7).

さらに、図12の各楽曲のNote欄の3行目には、「開始音とのST比率」が記録されている。ここでSTとはStep Timeの略であり、ある音の発音タイミングから次の音の発音タイミングまでの長さを表す数値である。従って、この楽曲データベースの「開始音とのST比率」には、メロディの開始音(第1音)のSTと、各音符のSTとの比率を表すデータが記録されている。   Further, "ST ratio with start sound" is recorded in the third line of the Note column of each song in FIG. Here, ST is an abbreviation of Step Time, and is a numerical value representing the length from the sounding timing of one sound to the sounding timing of the next sound. Accordingly, in the “ST ratio with start sound” of the music database, data representing the ratio of the ST of the start sound (first sound) of the melody to the ST of each note is recorded.

ここで、図12では、開始音のSTと同じ長さの音符について、「開始音とのST比率」が1となるように記録されている。従って、例えば、曲番号1の「こぎつね」では、第2音から第6音までの全ての音符について、開始音と同じ長さの8分音符(休符なし)であるので、これらの音符について、「開始音とのST比率」は1と記録されている。また、曲番号1の「こぎつね」の第7音(4分音符のG)については、開始音(8分音符)の倍の長さであるので、「開始音とのST比率」は2と記録されている。さらに、曲番号8の「とんび」では、開始音が付点4分音符であるのに対して、第2音から第6音は、その3分の1の長さの8分音符であるので、これらの音符に対して「開始音とのST比率」が「0.33」と記録されている。   Here, in FIG. 12, a note having the same length as the ST of the start sound is recorded such that the “ST ratio with respect to the start sound” is 1. Therefore, for example, in the case of the “fox” of the song number 1, all the notes from the second note to the sixth note are eighth notes (there are no rests) of the same length as the start note, so these notes Is recorded as 1 in the “ST ratio with start sound”. Also, the seventh sound (G of a quarter note) of the “fox” of the song number 1 is twice as long as the start sound (eighth note), so the “ST ratio with the start sound” is 2 It is recorded. Further, in the case of the song number 8 “Tonbi”, the start note is a dotted quarter note, whereas the second to sixth notes are eighth notes with a third of the length. The "ST ratio with the start sound" is recorded as "0.33" for these notes.

さらに図12の各楽曲のNote欄の4行目には、コード欄があって、コードネーム(和音記号)が記録されている。このコード欄で、例えば「C」と表されているものはいわゆる「C」のコードである「ドミソ」の和音を表している。また「G7」と表されているものは、いわゆる「G7」なるセブンスコードである「ソシレファ」の和音を表している。また、コード欄が「→」となっているものは、前の和音と同じ和音の意味であり、前の和音をそのまま継続して変更せずに維持するということを意味している。このコード名と実際の音との対応は、例えば、ROM内等に記憶されている、図示しないコード名対応テーブルを参照することにより対応づけられている。   Further, in the fourth line of the Note column of each song in FIG. 12, there is a chord column, and a chord name (chord symbol) is recorded. In this chord column, for example, a letter "C" represents a chord of "Domiso" which is a so-called "C" chord. What is expressed as "G7" represents a chord of "Socirefha" which is a so-called "G7" seventh chord. A chord column having “→” means the same chord as the previous chord, and means that the previous chord is maintained without being changed. The correspondence between the chord name and the actual sound is made by referring to a chord name correspondence table (not shown) stored in a ROM or the like, for example.

このコード欄は、後述するコード選択処理で、伴奏としてメロディに付ける和音を決定する際に参照されるものである。あるメロディに付けることが可能な和音は必ずしも一通りではなく、アレンジや演奏者の個性・感性等によっても異なるものであるが、ここでは、自動伴奏における機械による自動コード判別(コード付け)の補完を行うという観点から、「少なくとも、この和音を付けておけば、間違いとはいえない」といった和音のテーブルが用意されていることが望ましい。   This chord column is referred to when a chord to be added to a melody as an accompaniment is determined in a chord selection process described later. The chords that can be added to a certain melody are not always one type, and vary depending on the arrangement, the player's individuality and sensitivity, etc. From the viewpoint of performing the above, it is desirable to prepare a chord table such as "At least, if this chord is added, it is not wrong".

なお、この楽曲のデータベースのデータ形式については、必ずしもここに記載された形式に限られず、例えば、MIDI形式のデータに基づいて、メロディの各音符の長さから開始音とのST比率を求め、またメロディ音の前後の音符の音高を比較して、直前音との音程を、計算処理によって求めることとしてもよい。さらに、コード部分は、コードデータを持っていてもよいし、メロディと別トラックにコードのデータをコード記号若しくはある和音を表す複数の音符が記録されているような形のデータでも実行可能である。   The data format of the music database is not necessarily limited to the format described here. For example, based on MIDI format data, the ST ratio to the starting sound is calculated from the length of each note in the melody, Alternatively, the pitches of the notes before and after the melody sound may be compared, and the pitch with the immediately preceding note may be obtained by a calculation process. Further, the chord portion may have chord data, or the chord data may be executed in a form in which a chord symbol or a plurality of notes representing a certain chord is recorded on a separate track from the melody. .

本実施の形態にかかる電子楽器10は、通常モードの下においては、鍵盤11の鍵の押鍵に基づいて楽音を発生する。その一方、電子楽器10は、例えば図1に示された各種スイッチ12、13等のうちの一つである自動伴奏スイッチが操作されることにより、自動伴奏モードとなる。自動伴奏モードの下では、鍵の押鍵により、その鍵の音高の楽音が発生する。また、押鍵された鍵の情報に基づいてコード名が決定され、そのコード名のコード構成音を含む自動伴奏パターンにしたがった楽音が発生する。なお、自動伴奏パターンは、ピアノやギター、ベースなど音高の変化を伴うメロディ自動伴奏パターン、コード自動伴奏パターンと、バスドラム、スネアドラム、シンバルなど音高の変化を伴わないリズムパターンとを含むことができる。以下、電子楽器10が、自動伴奏モードの下で動作する場合について説明する。   In the normal mode, the electronic musical instrument 10 according to the present embodiment generates musical tones based on depression of keys on the keyboard 11. On the other hand, the electronic musical instrument 10 is set to the automatic accompaniment mode by operating an automatic accompaniment switch, which is one of the various switches 12 and 13 shown in FIG. 1, for example. In the automatic accompaniment mode, a tone of the pitch of the key is generated by depressing the key. Further, a chord name is determined based on the information on the key that has been depressed, and a musical tone is generated according to the automatic accompaniment pattern including the chord constituent sound of the chord name. The automatic accompaniment pattern includes a melody automatic accompaniment pattern with a change in pitch, such as a piano, guitar, and bass, a chord automatic accompaniment pattern, and a rhythm pattern without a change in pitch, such as a bass drum, a snare drum, and a cymbal. be able to. Hereinafter, a case where the electronic musical instrument 10 operates in the automatic accompaniment mode will be described.

以下、本実施の形態にかかる電子楽器10において実行される処理について詳細に説明する。図3は、本実施の形態にかかる電子楽器において実行されるメインフローの例を示すフローチャートである。なお、図示しないが、メインフローの実行中に、所定の時間間隔で、割込カウンタのカウンタ値をインクリメントするタイマインクリメント処理も実行される。   Hereinafter, processing executed in the electronic musical instrument 10 according to the present embodiment will be described in detail. FIG. 3 is a flowchart illustrating an example of a main flow executed in the electronic musical instrument according to the present embodiment. Although not shown, a timer increment process for incrementing the counter value of the interrupt counter is also executed at predetermined time intervals during execution of the main flow.

図3に示すように、電子楽器10のCPU21は、電子楽器10の電源が投入されると、RAM23中のデータや、表示部15の画像のクリアクリアを含むイニシャル処理(初期化処理)を実行する(ステップS301)。イニシャル処理が終了すると、CPU21は、スイッチ群25を構成するスイッチのそれぞれの操作を検出し、検出された操作にしたがった処理を実行するスイッチ処理を実行する(ステップS302)。   As shown in FIG. 3, when the power of the electronic musical instrument 10 is turned on, the CPU 21 of the electronic musical instrument 10 executes an initial process (initialization process) including clearing and clearing of data in the RAM 23 and an image on the display unit 15. (Step S301). When the initial process is completed, the CPU 21 detects each operation of the switches constituting the switch group 25, and executes a switch process for executing a process according to the detected operation (step S302).

たとえば、スイッチ処理(ステップS302)においては、音色指定スイッチや、自動伴奏パターンの種別の指定スイッチ、自動伴奏パターンのオン・オフの指定スイッチなど、種々のスイッチの操作が検出される。自動伴奏パターンがオンとなったときには、CPU21は、演奏モードを、自動伴奏モードに切り換える。演奏モードを示すデータは、RAM23の所定の領域に指定される。音色や自動伴奏パターンの種別を示すデータも、同様に、RAM23の所定の領域に格納される。   For example, in the switch processing (step S302), operation of various switches such as a tone color designation switch, a designation switch of an automatic accompaniment pattern type, and a switch for designating ON / OFF of an automatic accompaniment pattern is detected. When the automatic accompaniment pattern is turned on, the CPU 21 switches the performance mode to the automatic accompaniment mode. Data indicating the performance mode is specified in a predetermined area of the RAM 23. Data indicating the type of the timbre and the automatic accompaniment pattern is also stored in a predetermined area of the RAM 23.

次いで、CPU21は、鍵盤処理を実行する(ステップS303)。図4は、本実施の形態にかかる鍵盤処理の例をより詳細に示すフローチャートである。鍵盤処理において、まずCPU21は、鍵盤11の鍵を走査する(ステップS401)。鍵の走査結果であるイベント(鍵オン或いはオフ)は、そのイベントが生じた時刻の情報とともに、RAM23に一時的に記憶される。CPU21は、RAM23に記憶された鍵の走査結果を参照して、ある鍵についてイベントが有るか否かを判断する(ステップS402)。ステップS402でYesと判断された場合には、CPU11は、イベントが鍵オンであるか否かを判断する(ステップS403)。   Next, the CPU 21 executes a keyboard process (step S303). FIG. 4 is a flowchart illustrating an example of keyboard processing according to the present embodiment in more detail. In the keyboard processing, first, the CPU 21 scans the keys of the keyboard 11 (step S401). An event (key on or off) as a key scanning result is temporarily stored in the RAM 23 together with information on the time when the event occurs. The CPU 21 determines whether or not there is an event for a certain key with reference to the key scanning result stored in the RAM 23 (step S402). If it is determined as Yes in step S402, the CPU 11 determines whether the event is key-on (step S403).

ステップS403でYes、すなわちイベントが鍵オンであると判断された場合には、CPU21は、当該鍵オンがあった鍵について発音処理を実行する(ステップS404)。発音処理においては、CPU21は、音色指定スイッチで指定されてRAM23に記憶される等していたメロディ鍵用の音色データ、および、鍵の音高を示すデータを読み出してRAM23に一時的に記憶する。これらの音色や音高を示すデータは、後述する音源発音処理(図3のステップS306)において、音源部26に与えられ、音源部26は、この音色および音高を示すデータにしたがって、ROM22の波形データを読み出して、所定の音高の楽音データを生成する。これにより、スピーカ28から所定の楽音が発生する。   If Yes in step S403, that is, if it is determined that the event is a key-on, the CPU 21 executes a tone generation process for the key for which the key-on was performed (step S404). In the tone generation process, the CPU 21 reads out the tone color data for the melody key and the data indicating the pitch of the key, which are designated by the tone color designation switch and stored in the RAM 23, and temporarily stores the data in the RAM 23. . The data indicating these timbres and pitches is given to the sound source unit 26 in a sound source tone generation process (step S306 in FIG. 3) described later, and the sound source unit 26 stores the data in the ROM 22 according to the data indicating the timbres and pitches. The waveform data is read to generate tone data having a predetermined pitch. As a result, a predetermined musical sound is generated from the speaker 28.

その後、CPU21は、鍵オンがあった鍵についての音高情報(たとえば鍵番号)および押鍵タイミング(たとえば押鍵時刻)をRAM23に格納する(ステップS405)。押鍵タイミングは、割り込みカウンタのカウンタ値に基づいて算出することができる。   Thereafter, the CPU 21 stores the pitch information (for example, key number) and the key pressing timing (for example, key pressing time) of the key for which the key is turned on in the RAM 23 (step S405). The key depression timing can be calculated based on the counter value of the interrupt counter.

ステップS403でNoと判断された場合には、イベントが鍵オフであったことになる。したがって、CPU21は、鍵オフになった鍵についての消音処理を実行する(ステップS406)。消音処理においては、CPU21は、消音すべき楽音の音高を示すデータを生成し、RAM23に一時的に記憶する。この場合にも、後述する音源発音処理(ステップS306)において、消音すべき楽音の音色および音高を示すデータが、音源部26に与えられる。音源部26は、与えられたデータに基づいて、所定の楽音を消音する。その後、CPU21は、鍵オフがあった鍵について、押鍵されていた時間(押鍵時間)をRAM23に格納する(ステップS407)。また、このメロディ履歴を格納するにあたり、最初に入力されたメロディ音の音長(ST:Step Time)と、今回入力されたメロディ音の音長との比率(開始音とのST比率)を算出して、メロディ履歴情報に付加して記憶する。   If No is determined in step S403, it means that the event is key-off. Therefore, the CPU 21 executes a mute process for the key whose key has been turned off (step S406). In the silencing process, the CPU 21 generates data indicating the pitch of a musical tone to be silenced, and temporarily stores the data in the RAM 23. Also in this case, in the sound source tone generation process (step S306) described later, data indicating the tone color and pitch of the musical tone to be silenced is given to the sound source unit 26. The sound source 26 silences a predetermined musical tone based on the given data. After that, the CPU 21 stores the key pressed time (key pressed time) in the RAM 23 for the key whose key has been turned off (step S407). Further, in storing the melody history, a ratio (ST ratio to the start sound) between the sound length of the melody sound input first (ST: Step Time) and the sound length of the melody sound input this time is calculated. Then, it is added to the melody history information and stored.

CPU21は、全ての鍵イベントについて処理が終了したかを判断する(ステップS408)。ステップS408でNoと判断された場合には、ステップS402に戻る。全ての鍵イベントについて処理が終了したら(ステップS408:Yes)、図4の鍵盤処理を終了する。   The CPU 21 determines whether the processing has been completed for all key events (step S408). If No is determined in step S408, the process returns to step S402. When the processing has been completed for all key events (step S408: Yes), the keyboard processing of FIG. 4 ends.

鍵盤処理(図3のステップ303)が終了すると、CPU21は、曲候補検索処理を実行する(ステップS304)。図5は、本実施の形態にかかる曲候補検索処理の例をより詳細に示すフローチャートである。   When the keyboard process (Step 303 in FIG. 3) is completed, the CPU 21 executes a music candidate search process (Step S304). FIG. 5 is a flowchart illustrating an example of the song candidate search process according to the present embodiment in more detail.

曲候補検索処理において、まずCPU21は、先に図4を用いて説明した鍵盤処理で検出された押鍵・離鍵処理によりメロディの入力があったか否かを判断する(ステップS501)。メロディ入力がなかった場合には(ステップS501:No)、図5の曲候補検索処理を終了する。   In the song candidate search process, first, the CPU 21 determines whether or not a melody has been input by the key press / key release process detected in the keyboard process described above with reference to FIG. 4 (step S501). If there is no melody input (step S501: No), the music candidate search process of FIG. 5 ends.

メロディ入力があった場合には(ステップS501:Yes)、RAM23の所定のメロディ履歴保存エリアに、入力されたメロディをメロディ履歴として、既に記録されているメロディ履歴に追加して記録する(ステップS502)。RAM23に記録するメロディ履歴のデータ構造の一例を図14に示す。   When there is a melody input (step S501: Yes), the input melody is recorded as a melody history in a predetermined melody history storage area of the RAM 23 in addition to the already recorded melody history (step S502). ). FIG. 14 shows an example of the data structure of the melody history recorded in the RAM 23.

図14の例では、上述した楽曲のデータベース(図12)のデータ構造に合わせて、メロディの入力に対して、入力音高、直前音(開始音)との音程、さらに、開始音とのST比率を算出して格納する。この各データの具体的な意義および算出方法については、図12において説明したものと同様である。勿論図12の説明で述べたのと同様、例えば図12のデータ構造を別のものとするのに合わせて、他のデータ構造で記憶することも可能である。   In the example of FIG. 14, in accordance with the data structure of the above-described music database (FIG. 12), the input pitch, the pitch with the immediately preceding tone (start tone), and the ST with the start tone in response to the input of the melody. Calculate and store the ratio. The specific meaning and calculation method of each data are the same as those described in FIG. Of course, as described in the description of FIG. 12, it is also possible to store the data in another data structure in accordance with, for example, changing the data structure in FIG.

なお、このステップS502でのメロディ履歴の記録に際して、例えば、軽微なミスタッチ等を除去するために、入力音長の極めて短い音については、メロディ履歴の記録音から除外することも可能である。例えば、入力されたメロディのうち、押鍵時間(デュレーション)が所定のしきい値以下の音については、メロディ履歴の記録を行わず、また、ステップS503以下の処理を行わずに、曲候補検索処理からリターンするといった処理を行っても良い。   At the time of recording the melody history in step S502, for example, a sound having an extremely short input sound length can be excluded from the recorded sounds of the melody history in order to remove a slight mistouch or the like. For example, of the input melody, for a sound whose key pressing time (duration) is equal to or shorter than a predetermined threshold value, the melody history is not recorded, and the processing of step S503 and the subsequent steps is not performed, and the music candidate search is performed. Processing such as returning from the processing may be performed.

ステップS502でのメロディ履歴の記録が終わると、CPU21は入力されたメロディ音が最初のメロディ音であるかどうかを判定する(ステップS503)。入力されたメロディ音が最初のメロディ音だった場合は(ステップS503:Yes)、Fリストアップの処理を行う(ステップS504)。このFリストアップの処理は図6に詳細が示してあるので、図6を参照して説明する。   When the recording of the melody history in step S502 ends, the CPU 21 determines whether or not the input melody sound is the first melody sound (step S503). If the input melody sound is the first melody sound (step S503: Yes), an F list up process is performed (step S504). The F-listing process is shown in detail in FIG. 6, and will be described with reference to FIG.

図6でリストアップするFリストとは、上述の楽曲データベース(図12)から、入力されたメロディ音のうち第1音めの音が一致するものを検索して、リストアップしたものである。   The F-list to be listed in FIG. 6 is a list obtained by searching the above-mentioned music database (FIG. 12) for a match of the first sound among the inputted melody sounds.

第1音めのみで楽曲と比較するため、必ずしも一つの楽曲に絞り込めるわけではなく、またユーザが移調して弾いている場合等も考慮すれば、必ずしも正確な絞り込みが行えるとは限らないが、例えば、ユーザがメロディを弾く場合に原曲キーで弾くことが多いと仮定すれば、原曲キーで記録された楽曲データベースを、入力メロディ音の第1音によって検索することで、ある程度の楽曲の絞り込みは可能となる。   Since the music is compared only with the first sound, it is not always possible to narrow down to one music. In consideration of the case where the user transposes and plays, it is not always possible to perform accurate narrowing down. For example, assuming that the user often plays the original melody key when playing the melody, a certain amount of music can be obtained by searching the music database recorded with the original music key using the first sound of the input melody sound. Can be narrowed down.

図6では、CPU21はまず、変数FNに開始音、すなわち入力されたメロディの第1音めの情報を取得する(ステップS601)。次にCPU21は、メロディ開始音FNと、楽曲データベースの開始音(各楽曲のメロディの開始音)として登録されている音が一致する楽曲を検索する(ステップS602)。   In FIG. 6, first, the CPU 21 acquires the start sound, that is, the information of the first sound of the input melody as the variable FN (step S601). Next, the CPU 21 searches for a music whose melody start sound FN matches a sound registered as a start sound of the music database (a start sound of the melody of each music) (step S602).

そして、CPU21は、ステップS602で検索された各楽曲をFリストとしてリストアップする(ステップS603)。この際、該当する楽曲が複数あった場合は、それらを全てリストアップすることとしてもよいし、ランダムに選択した所定数の楽曲をリストアップすることとしてもよい。また、該当する楽曲が無かった場合は、該当曲無しとのフラグ等を返すようにすることとしても良い。   Then, the CPU 21 lists each music searched in step S602 as an F list (step S603). At this time, when there are a plurality of corresponding songs, all of them may be listed, or a predetermined number of randomly selected songs may be listed. If there is no corresponding music, a flag indicating that there is no corresponding music may be returned.

このようにして作成される、Fリストの例を図15に示す。ここでは、図14に示すメロディ入力の第1音「C」が入力されたときに、図12および図13に示す楽曲データベースを検索して得られたFリストの例を示している。この場合、メロディ入力の第1音「C」は、楽曲データベースの曲番号1から9の全楽曲と一致するので、曲番号1から9の全楽曲がFリストにリストアップされている。   FIG. 15 shows an example of the F list created in this way. Here, an example of the F-list obtained by searching the music database shown in FIGS. 12 and 13 when the first sound “C” of the melody input shown in FIG. 14 is input is shown. In this case, the first sound “C” of the melody input matches all the songs of the song numbers 1 to 9 in the song database, so all the songs of the song numbers 1 to 9 are listed in the F list.

なお、楽曲につけられた順位は、あくまで一例として、楽曲データベースを検索して該当すると判断された楽曲を順にリストに格納した場合を示している。ここでは、楽曲データベースの1から順にリストに格納され、そのまま順位が付けられた場合を示している。もっとも、これ以外にも、これらの複数の楽曲について、全て同じ順位(1位)として記録する事も可能である。   The rankings given to the music pieces are, by way of example only, a case where the music database is searched and the music pieces determined to be applicable are sequentially stored in a list. Here, a case is shown where the music database is stored in the list in order from 1 and the ranking is given as it is. However, besides this, it is also possible to record all of the plurality of music pieces in the same order (first place).

このようにして図5のステップS504を介して、図6に示した処理によってFリストが作成されると、CPU21は、図5のフローチャートに処理を戻し、ステップS511でFリストを総合リストとして(ステップS511)、曲候補検索処理を終了する。   When the F list is created by the processing shown in FIG. 6 through step S504 in FIG. 5 in this way, the CPU 21 returns the processing to the flowchart in FIG. 5, and in step S511, the F list is converted into a comprehensive list ( Step S511), the song candidate search process ends.

一方、ステップS503に戻って、入力されたメロディ音が最初の音でなかった場合には(ステップS503:No)、入力されているメロディに対するKey(調性)が確定されているか否かを判定する(ステップS505)。   On the other hand, returning to step S503, if the input melody sound is not the first sound (step S503: No), it is determined whether or not the Key (tonality) for the input melody has been determined. (Step S505).

このKey(調性)が確定しているか否かは、後述する図3のステップS305におけるキー(調性)判別処理において、「確定キー」としてキーが確定されているか否かによって判断することが可能である。このキー(調性)判別処理の詳細については後述する。   Whether or not the key (tonality) has been determined can be determined based on whether or not the key has been determined as a “determination key” in a key (tonality) determination process in step S305 in FIG. 3 described below. It is possible. The details of the key (tonality) determination processing will be described later.

ステップS505において、Key(調性)が確定していると判定された場合には(ステップS505:Yes)、CPU21は、ステップS506へ処理を進め、Kリストのリストアップを行う。このKリストアップの処理は図7に詳細が示してあるので、図7を参照して説明する。   If it is determined in step S505 that the Key (tonality) has been determined (step S505: Yes), the CPU 21 proceeds to step S506 to list up a K list. The K list-up process is shown in detail in FIG. 7, and will be described with reference to FIG.

図7でリストアップするKリストとは、入力されているメロディのKey(調性)が確定しているとの判定結果に基づき、上述の楽曲データベース(図12)に記録されている各楽曲を、上記確定していると判定されたKey(調性)に移調させてから、入力メロディ履歴との比較を行ってリストアップを行うものである。   The K list to be listed in FIG. 7 refers to each of the songs recorded in the above-described song database (FIG. 12) based on the determination result that the key (tonality) of the input melody has been determined. After transposing to the determined Key (tonality), the list is compared with the input melody history.

このような処理を行うことで、ユーザがメロディを任意の調に移調して弾いているような場合でも、楽曲データベースに登録されている各楽曲のキー(調性)にかかわらず、迅速に楽曲を検索・特定して正しいコード付けが行えるようになる。   By performing such processing, even when the user transposes the melody to an arbitrary key and plays it, regardless of the key (tonality) of each song registered in the song database, the song can be quickly played. To find and specify the correct code.

図7では、CPU21はまず、変数Keyに、確定したと判定された入力メロディの調の情報を取得する(ステップS701)。次にCPU21は、上述の楽曲データベース(図12)に登録されている各楽曲のキー(調性)と、変数Keyに取得したメロディの確定調とに基づいて、楽曲と入力メロディの比較を行う(ステップS702)。   In FIG. 7, first, the CPU 21 acquires information on the key of the input melody determined to be determined as the variable Key (step S701). Next, the CPU 21 compares the tune with the input melody based on the key (tonality) of each tune registered in the above-described tune database (FIG. 12) and the final tone of the melody acquired in the variable Key. (Step S702).

この処理をさらに具体的に説明する。例えば、変数Keyに取得された入力メロディの確定調がF(ヘ長調)であった場合を考える。今、仮に曲番号4の「アーユースリーピング」と比較を行うとすると、この曲の登録されているKeyは「C」すなわちハ長調であるので、Key「F」とKey「C」の間の半音数を算出する。これは周知の音楽理論に基づいて「半音数=5」と算出できるので、曲番号4「アーユースリーピング」の登録されているメロディ(図12の曲番号4のNote欄最上行)の各音に、半音数+5の操作を行って、Fキーに移調を行う。上記の例の場合は、元のメロディ「CDECCDE」であったものが、半音数+5の移調操作によって「FGAFFGA」となる。   This processing will be described more specifically. For example, consider a case where the final tone of the input melody acquired by the variable Key is F (F major). Now, suppose that a comparison is made with "Ause Sleeping" of song number 4, since the registered key of this song is "C", that is, in C major, the semitone between Key "F" and Key "C" Calculate the number. Since this can be calculated as “the number of semitones = 5” based on the well-known music theory, each tone of the melody (the top line of the Note column of the song number 4 in FIG. 12) registered with the song number 4 “Ause sleeping” is , The number of semitones +5, and transposes to the F key. In the case of the above example, the original melody “CDECCDE” is changed to “FGAFFGA” by the transposing operation of the number of semitones + 5.

そして、移調された楽曲データベースのメロディ音の各音と、入力されているメロディ履歴の各音とが比較される。比較された結果、所定の条件を満たす楽曲がステップS702における検索結果としてピックアップされる。   Then, each sound of the melody sound of the transposed music database is compared with each sound of the input melody history. As a result of the comparison, a music piece satisfying a predetermined condition is picked up as a search result in step S702.

ここで、ピックアップされる条件としては、種々のものが考えられる。例えば、最初の音から最新の音までの全ての音高が、入力されたメロディ履歴と合っている楽曲データベースの楽曲をピックアップすることが可能である。あるいは、入力されたメロディ履歴の過去の音から現在の音まで、連続して合っている音数が多い楽曲から順に、所定数の楽曲をピックアップすることが可能である。さらに、最初の音から現在の音までで、音を比較して、合っている音数(確率)の高いものから順に所定数の楽曲をピックアップするなどの方法も考えられる。   Here, various conditions can be considered as the conditions for pickup. For example, it is possible to pick up music in the music database in which all pitches from the first sound to the latest sound match the input melody history. Alternatively, it is possible to pick up a predetermined number of music pieces from the past sound of the input melody history to the current sound in order from the music piece with the largest number of matching sounds. Further, a method of comparing sounds from the first sound to the current sound and picking up a predetermined number of music pieces in descending order of the number of matching sounds (probability) is also conceivable.

続いてCPU21は、ステップS702での検索の結果、ピックアップされた曲があったか否かを判断する(ステップS703)。そして、ピックアップされた曲がなかった場合は、このKリストのリストアップ処理を終了する(ステップS703:No)。   Subsequently, as a result of the search in step S702, the CPU 21 determines whether or not any music has been picked up (step S703). If no music has been picked up, the K list listing process ends (step S703: No).

一方、ピックアップされた曲が存在していた場合は(ステップS703:Yes)、入力されたメロディ履歴の各音について、メロディ開始音(最初の音)とのST比率を算出して、ピックアップされた各曲について、楽曲データベース上に記録されている「開始音とのST比率」のデータと比較を行い、「正解率」を算出する(ステップS704)。   On the other hand, if the picked-up song exists (step S703: Yes), the ST ratio of each sound of the input melody history to the melody start sound (first sound) is calculated and picked up. For each song, the data is compared with the data of “ST ratio with start sound” recorded on the song database, and “correct answer rate” is calculated (step S704).

ステップS704における「正解率の算出」についても、種々の方法が可能である。   Various methods are also possible for “calculation of the correct answer rate” in step S704.

例えば、入力されたメロディ履歴の各音と、メロディ開始音とのST比率を求め、この入力メロディのST比率と、楽曲データベース上で登録されているST比率との差に基づいて各音の「正解率」を決定して、これらを加え合わせる(平均する)方法などが考えられる。これはすなわち、例えば曲番号4「アーユースリーピング」の2音目の「D」について、楽曲データベース上は開始音と等しい長さとしてST比率=「1」が記録されているが、これに反して、実際に演奏されたメロディでは、第2音めの音の長さが、メロディ開始音に対して、90%だったり、110%だったりした場合、この第2音めの音に対する正解率を「90点」とする、といった具合である。   For example, the ST ratio between each sound of the input melody history and the melody start sound is determined, and based on the difference between the ST ratio of the input melody and the ST ratio registered on the music database, “ A method of determining the “accuracy rate” and adding (averaging) them may be considered. That is, for example, for the second note “D” of song number 4 “Ause sleeping”, the ST ratio = “1” is recorded as a length equal to the start tone on the song database, but on the contrary, In the melody actually played, if the length of the second sound is 90% or 110% of the melody start sound, the correct answer rate for the second sound is calculated. For example, "90 points".

上述のようにステップS704では、入力されたメロディ履歴に対して、各楽曲が、どの程度近いか(似ているか)に相当する指標である、「各楽曲の正解率」が算出できる。そして、この「各楽曲の正解率」を参照して、正解率の高いものから順に所定数の楽曲をKリストとしてリストアップし(ステップS705)、このKリストアップの処理を終了する。   As described above, in step S704, “the accuracy rate of each song”, which is an index corresponding to how close (similar) each song is to the input melody history, can be calculated. Then, referring to the “correct rate of each song”, a predetermined number of songs are listed as a K list in order from the one with the highest correct rate (step S705), and the process of increasing the K list is ended.

このようにして作成される、Kリストの例を図16に示す。   FIG. 16 shows an example of the K list created in this way.

ここでは、図16(A)に示すようなメロディが入力された場合に、図12および図13に示す楽曲データベースを検索して得られたKリストの例を図16(B)に示している。   Here, FIG. 16B shows an example of a K list obtained by searching the music database shown in FIGS. 12 and 13 when a melody as shown in FIG. 16A is input. .

図16(A)に示すように、メロディ入力は順に「FGAB♭」の4音が入力されている。また、この入力メロディに基づき、確定キーとしてF(ヘ長調)が得られているものとする。ここで、図16(A)に示すメロディ入力は、演奏者が鍵盤11を弾いて入力したメロディと仮定すると、人間の演奏はある程度揺らぎや不正確さを含む場合がある。この点を考慮した例として、図16(A)の例では、第2音めの「G」がやや短めに押鍵されて、開始音とのST比率が1よりやや小さめの0.9となった場合を示している。また第3音めの「A」の音は、やや長めに押鍵されて、開始音とのST比率が1よりやや大きめの1.1となっている場合を示している。   As shown in FIG. 16A, four sounds “FGAB #” are input in order for the melody input. Also, it is assumed that F (F major) has been obtained as a confirmation key based on this input melody. Here, assuming that the melody input shown in FIG. 16A is a melody input by the player playing the keyboard 11, the human performance may include some fluctuation and inaccuracy. As an example in consideration of this point, in the example of FIG. 16A, the second note “G” is pressed a little shorter, and the ST ratio with the start sound is 0.9, which is slightly smaller than 1. It shows the case where it has become. The third sound “A” indicates that the key is pressed a little longer and the ST ratio with the start sound is 1.1, which is slightly larger than 1.

このような入力メロディに対して、図7のKリストアップ処理を行うと、まず、ステップS701で変数Keyに確定した調(キー)、すなわち「F」が記録され、次にステップS702で、図12の楽曲データベースの各曲について、確定キーである「F」に移調させた上で、音高連結が比較される。すなわち、各楽曲データベースの曲のうち、ヘ長調に移調して「FGAB♭」との音高を持つもの、すなわち、ハ長調では第1音から第4音まで、「CDEF」という音高連結を持つ楽曲が検索される。従って、この場合、曲番号1の「こぎつね」と、曲番号3の「かえるのうた」が、音高連結の合う該当曲として抽出される。   When the K list-up process of FIG. 7 is performed on such an input melody, first, the key (key) determined in the variable Key in step S701, that is, “F” is recorded. Next, in FIG. For each song in the twelve song databases, the pitch connection is compared after transposing to "F" which is a determination key. In other words, of the songs in each music database, those having a pitch of “FGAB 音” transposed in F major, that is, the pitch concatenation of “CDEF” from the first to fourth notes in the C major. The music that has is searched. Therefore, in this case, the song number 1 “fox” and the song number 3 “frog song” are extracted as the corresponding songs whose pitch concatenation matches.

該当曲があったため、ステップS703はYesとなり、ステップS704に進み、各該当曲ごとに、ST比率の正解率:Pを計算する。ここでは、楽曲データベースの該当曲のi番目の音符のST値:STdb(i)、と、入力メロディのi番目の音符のST値:STin(i)との値を用いて、以下の式により求めた例を示している。   Since there is a corresponding song, step S703 becomes Yes, and the process proceeds to step S704, and the correct answer ratio P of the ST ratio is calculated for each corresponding song. Here, using the ST value of the i-th note of the corresponding song in the song database: STdb (i) and the ST value of the i-th note of the input melody: STin (i), the following expression is used. The obtained example is shown.

(1)式に示すように、ここでは、各音のST値について、データベース上の値と入力値との差分の絶対値を、基準とするデータベース上の当該音のST値で除算して比率値とし、これを100分率値として、ここまで入力された音のうち、第2音めから最新の音までの値を平均し、100から減じたものを「正解率」として用いている。   As shown in the equation (1), here, for the ST value of each sound, the absolute value of the difference between the value on the database and the input value is divided by the ST value of the sound on the reference database to obtain a ratio. This value is defined as a 100% value, and among the sounds input up to this point, the values from the second sound to the latest sound are averaged, and the value obtained by subtracting 100 from the average is used as the “correct answer rate”.

すなわち、図16(A)の入力メロディを曲番号1の「こぎつね」と比較した場合、第2音めについて、ST値の差分値は、0.1であるので、データベース中の当該音のST値(=1)で除算して、0.1となり、100分率化して10となる。同様に、第3音めについても10、第4音めについては0となり、これらを加えると、20点となる。   That is, when the input melody of FIG. 16A is compared with the “fox” of the music number 1, the difference value of the ST value for the second sound is 0.1, so that Dividing by the ST value (= 1) results in 0.1, which is 100 fractionalized to 10. Similarly, the third note has a score of 10, and the fourth note has a score of 0. When these are added, 20 points are obtained.

よってこれらの平均値は、(10+10+0)÷3=約6.7点となり、これを100点から減じて、正解率=93.3点と求められる。   Therefore, their average value is (10 + 10 + 0) ÷ 3 = approximately 6.7 points, which is subtracted from 100 points to obtain the correct answer rate = 93.3 points.

なお、(1)式で、i=2からループ開始しており、第1音めのST値の比率を計算に入れていないのは、ST比率を第1音めを基準として判定しているため、第1音めのST比率は常に100%となるため除外しているものである。   In the equation (1), the loop starts from i = 2, and the reason why the ST value ratio of the first note is not included in the calculation is that the ST ratio is determined based on the first note. Therefore, the ST ratio of the first sound is always 100% and is excluded.

このようにして、音高連結が一致した各曲の正解率が求められたら、ステップS705で、その点数の高い順にKリストをリストアップする。図16の例では、曲番号1の「こぎつね」と曲番号3の「かえるのうた」で、正解率の点数に差が無いため、便宜上、順位を付けて記録した例を示している。このような同点の曲同士の順位付けについては、Fリストにて説明したのと同様の方法で順位を決定することが可能である。   In this manner, when the correct answer rate of each music piece whose pitch concatenation coincides is obtained, in step S705, the K list is listed in descending order of the score. In the example of FIG. 16, there is no difference in the score of the correct answer between the song number 1 “fox” and the song number 3 “frog song”. With respect to such ranking of songs having the same score, the ranking can be determined by the same method as described in the F list.

このようにして図5のステップS506を介して、図7に示した処理によってKリストが作成されると、CPU21は、図5のフローチャートに処理を戻し、ステップS510でKリストを総合リストとして(ステップS510)、曲候補検索処理を終了する。   When the K list is created by the processing shown in FIG. 7 through step S506 in FIG. 5 in this way, the CPU 21 returns the processing to the flowchart in FIG. 5, and in step S510, the K list is converted into a comprehensive list ( (Step S510), the song candidate search process ends.

他方、ステップS505で、Key(調性)が確定していないと判定された場合には(ステップS505:No)、CPU21は、ステップS507へ処理を進め、Nリストのリストアップを行う。このNリストアップの処理は図8に詳細が示してあるので、図8を参照して説明する。   On the other hand, if it is determined in step S505 that the Key (tonality) has not been determined (step S505: No), the CPU 21 proceeds to step S507 to list up the N list. The details of the N list-up process are shown in FIG. 8, and will be described with reference to FIG.

図8でリストアップするNリストとは、入力メロディ履歴の音高と、上述の楽曲データベース(図12)に記録されている各楽曲のメロディ音高データ(Note欄最上行データ)との比較を行って、リストアップを行うものである。   The N-list listed in FIG. 8 is a comparison between the pitch of the input melody history and the melody pitch data (the top line data of the Note column) of each song recorded in the above-mentioned song database (FIG. 12). Go and list up.

図8では、CPU21はまず、入力されたメロディ履歴のデータ(図14)から、入力音高データを音高連結データとして取得する(ステップS801)。図14のような入力の例を考え、仮にいま、メロディの第3音まで入力がなされた場合を仮定すると、このステップS801では、入力メロディの音高連結として、「CDE」というデータが取得される。   In FIG. 8, first, the CPU 21 acquires input pitch data as pitch linked data from the input melody history data (FIG. 14) (step S801). Considering the example of the input as shown in FIG. 14, assuming that the input has been made up to the third tone of the melody, in this step S801, data "CDE" is acquired as the pitch concatenation of the input melody. You.

続いてCPU21は、この取得された入力メロディの音高連結データと、楽曲データベース(図12)の各楽曲のメロディ音高データ(Note欄最上行データ)とを比較して、音高が一致する楽曲を検索する(ステップS802)。   Subsequently, the CPU 21 compares the acquired linked pitch data of the input melody with the melody pitch data of each song in the song database (FIG. 12) (the top row data in the Note column), and the pitches match. The music is searched (step S802).

例えば、上述のように入力メロディが「CDE」である場合に、図12の例の楽曲データベースを検索すると、図12に示されている曲番号1から曲番号9の9曲は、すべて、メロディの音高連結が開始音から順に「CDE」であるので、この場合はステップS802で、図12の9曲全てが検索結果としてピックアップされることとなる。ここでも、最初の音から最新の音まで全ての音高が一致している楽曲をピックアップすることとする以外にも、ステップS702における楽曲ピックアップ方法と同様に、種々の方法での検索が可能である。   For example, when the input melody is “CDE” as described above, when the music database of the example of FIG. 12 is searched, all nine tunes from tune number 1 to tune number 9 shown in FIG. Is "CDE" in order from the start sound, so in this case, in step S802, all nine songs in FIG. 12 are picked up as search results. Here, in addition to picking up music pieces whose pitches match from the first sound to the latest sound, search can be performed by various methods as in the music pickup method in step S702. is there.

続いてCPU21は、ステップS802での検索の結果、ピックアップされた曲があったか否かを判断する(ステップS803)。そして、ピックアップされた曲がなかった場合は、このNリストのリストアップ処理を終了する(ステップS803:No)。   Subsequently, as a result of the search in step S802, the CPU 21 determines whether or not there is any music that has been picked up (step S803). If no music has been picked up, the N list listing process ends (step S803: No).

一方、ピックアップされた曲が存在していた場合は(ステップS803:Yes)、入力されたメロディ履歴の各音について、メロディ開始音(最初の音)とのST比率を算出して、ピックアップされた各曲について、楽曲データベース上に記録されている「開始音とのST比率」のデータと比較を行い、「正解率」を算出する(ステップS804)。この正解率の算出の具体的な方法については、ステップS704で説明したのと同様である。   On the other hand, if the picked-up song exists (step S803: Yes), the ST ratio of each sound of the input melody history to the melody start sound (first sound) is calculated and picked up. For each song, the data is compared with the data of “ST ratio with start sound” recorded in the song database, and “correct answer rate” is calculated (step S804). The specific method of calculating the correct answer rate is the same as that described in step S704.

そして、ステップS804において算出された、「各楽曲の正解率」を参照して、正解率の高いものから順に所定数の楽曲をNリストとしてリストアップし(ステップS805)、このNリストアップの処理を終了する。   Then, referring to the "correct rate of each song" calculated in step S804, a predetermined number of songs are listed as N lists in order from the one with the highest correct rate (step S805), and the N list-up process is performed. To end.

このようにして作成される、Nリストの例を図17に示す。   FIG. 17 shows an example of the N list created in this way.

ここでは、図17(A)に示すようなメロディが入力された場合に、図12および図13に示す楽曲データベースを検索して得られたNリストの例を図17(B)に示している。   Here, FIG. 17B shows an example of an N list obtained by searching the music database shown in FIGS. 12 and 13 when a melody as shown in FIG. 17A is input. .

図17(A)に示すように、メロディ入力は順に「CDE」の3音が入力されている。また、図17(A)に示すメロディ入力の例では、CDEの全てが、同じ長さ(ST値)で、第1音とのST比率が1である場合を仮定している。   As shown in FIG. 17A, three tones “CDE” are input in order for the melody input. In the example of the melody input shown in FIG. 17A, it is assumed that all the CDEs have the same length (ST value) and the ST ratio to the first sound is 1.

このような入力メロディに対して、図8のNリストアップ処理を行うと、まず、ステップS801で図17(A)のメロディ履歴データから音高連結である「CDE」が抽出される。次にステップS802で、図12の楽曲データベースの各曲について、音高連結が比較される。ここで、本図のNリストのリストアップでは、Kリストのリストアップ時と異なり、キーが定まっていないため、楽曲データベースの音高をそのまま用いて比較を行う。従って、この場合、曲番号1から曲番号9までの全ての曲が、開始から第3音まで「CDE」の音高を持つため、ステップS802では9曲全て候補として抽出されることとなる。   When such an input melody is subjected to the N-listing process shown in FIG. 8, first, in step S801, the pitch concatenation “CDE” is extracted from the melody history data shown in FIG. 17A. Next, in step S802, pitch concatenation is compared for each song in the song database of FIG. Here, unlike the case of listing the K list, the key is not determined in the listing of the N list in this figure, so that the comparison is performed using the pitch of the music database as it is. Therefore, in this case, since all the songs from song number 1 to song number 9 have the pitch of “CDE” from the start to the third tone, all nine songs are extracted as candidates in step S802.

該当曲があったため、ステップS803はYesとなり、ステップS804に進み、各該当曲ごとに、ST比率の正解率:Pを計算する。この正解率の計算は、ここではKリストの場合のステップS704と同様、式(1)を用いて計算している。   Since there is a corresponding song, step S803 becomes Yes, and the process proceeds to step S804 to calculate a correct answer ratio P of the ST ratio for each corresponding song. Here, the calculation of the correct answer rate is performed using Expression (1), similarly to step S704 in the case of the K list.

一例として、曲番号8の「とんび」と比較を行って正解率を求める場合を説明する。この場合、第2音めの「D」については、ST値の差分値は、0.67となるので、データベース中の当該音のST値(=0.33)で除算すると、約2となる(便宜上、0.33=1/3として、0.67=2/3として示している)。従って、この値を100分率化して200となる。同様に第3音の「E」についても、差分値の比率が200と算出される。   As an example, a case will be described in which a correct answer rate is obtained by comparing with "Tonbi" of music number 8. In this case, the difference value of the ST value of the second note “D” is 0.67, so that when divided by the ST value (= 0.33) of the sound in the database, it is about 2. (For convenience, 0.33 = 1/3 and 0.67 = 2/3). Therefore, this value is converted into 100 to be 200. Similarly, for the third sound “E”, the difference value ratio is calculated as 200.

よって、これらの平均値は、(200+200)÷2=200点となり、これを100点から減じて、正解率=−100点と求められる(図中では、−を▲で表している)。   Therefore, the average value is (200 + 200) ÷ 2 = 200 points, which is subtracted from 100 points to obtain the correct answer rate = −100 points (− is indicated by ▲ in the figure).

このようにして、各曲の正解率が求められたら、ステップS805で、その点数の高い順にNリストをリストアップする。このようにして作成されたNリストの例を図17(B)に示してある。一部の曲について正解率が同点であり、この順位付けについては、FリストやKリストと同様に、曲番号の若い順に順位を付けた例を示しているが、同順位としたり、他の方法で順位付けをしても差し支えない。   When the correct answer rate of each music is obtained in this way, in step S805, the N lists are listed in descending order of the score. FIG. 17B shows an example of the N list created in this way. The correct answer rate is the same for some songs, and this ranking shows an example in which the songs are ranked in ascending order of song numbers, as in the F list and K list. The ranking can be done by the method.

このようにして図5のステップS507を介して、図8に示した処理によってNリストが作成されると、CPU21は、図5のフローチャートに処理を戻してステップS508へ処理を進め、Dリストのリストアップを行う。このDリストアップの処理は図9に詳細が示してあるので、図9を参照して説明する。   When the N list is created by the processing shown in FIG. 8 through step S507 of FIG. 5 in this way, the CPU 21 returns the processing to the flowchart of FIG. 5, advances the processing to step S508, and executes the processing of the D list. Make a list. This D-listing process is shown in detail in FIG. 9 and will be described with reference to FIG.

図9でリストアップするDリストとは、入力メロディ履歴の音程関係と、上述の楽曲データベース(図12)に記録されている各楽曲のメロディの音程関係(Note欄2行目)のデータを用いて比較を行うものである。   The D-list listed in FIG. 9 uses the data of the pitch relation of the input melody history and the data of the pitch relation of the melody of each music (the second line of the Note column) recorded in the above-mentioned music database (FIG. 12). The comparison is performed.

図8のNリストでは、入力メロディと楽曲データベースの音高そのものを比較していたのに対して、本図9のDリストでは、音程関係を用いて比較することとしている。これにより、入力メロディが、楽曲データベースに登録されたメロディと異なる調に移調されて演奏されていた場合であっても、楽曲データベースに登録された、相対的な音程関係を用いて比較を行うことができ、入力メロディの調性によらず楽曲の比較ができることとなる。   In the N list of FIG. 8, the input melody is compared with the pitch itself of the music database, whereas in the D list of FIG. 9, the comparison is made using a pitch relationship. Thus, even when the input melody is transposed and played in a different key from the melody registered in the music database, the comparison can be performed using the relative pitch relationship registered in the music database. Thus, music can be compared regardless of the tonality of the input melody.

図9では、CPU21はまず、入力されたメロディ履歴のデータ(図14)から、隣り合う2つの音の音高を比較して求めた「開始音/直前音との音程」のデータを、音程間隔データとして取得する(ステップS901)。   In FIG. 9, the CPU 21 first compares the data of the “starting sound / preceding sound” obtained by comparing the pitches of two adjacent sounds from the input melody history data (FIG. 14). It is acquired as interval data (step S901).

例えば、仮にいま入力メロディが「FGA」であったとすると、音程関係としては、第1音「F」と第2音「G」の音程である「2」、および、第2音「G」と第3音「A」の音程関係である「2」が取得されることとなる。   For example, if the input melody is now “FGA”, the pitch relation is “2”, which is the pitch between the first sound “F” and the second sound “G”, and “2”, which is the second sound “G”. "2", which is the pitch relation of the third sound "A", is obtained.

続いてCPU21は、この取得された入力メロディの音程間隔データと、楽曲データベース(図12)の各楽曲の「開始音/直前音との音程」データ(Note欄第2行目データ)とを比較して、音程間隔が一致する楽曲を検索する(ステップS902)。   Subsequently, the CPU 21 compares the acquired pitch interval data of the input melody with the “pitch between the start tone and the immediately preceding tone” of each song in the song database (FIG. 12) (data in the second line of the Note column). Then, music pieces having the same interval are searched for (step S902).

再度、上記の「FGA」と入力された例で説明すると、入力メロディの音程関係は、最初から順に「2、2」であるのに対し、図12の例の楽曲データベースに登録されている9曲は、いずれも、最初からの音程関係が順に「2、2」であるので、ステップS902で、図12の9曲全てが検索結果としてピックアップされることとなる。   Referring again to the example in which the above-mentioned “FGA” is input, the pitch relation of the input melody is “2, 2” in order from the beginning, whereas 9 is registered in the music database of the example of FIG. Since all of the songs have a pitch relationship of "2, 2" in order from the beginning, all the nine songs in FIG. 12 are picked up as a search result in step S902.

この場合、上述したDリストの趣旨である「楽曲データベースと異なる調に移調してメロディが入力された場合でも楽曲を検索できる」という点に鑑み、入力メロディと楽曲の、各開始音の絶対的な音高は比較しないものとする。上記の「FGA」と入力された例で説明すると、入力メロディの開始音の音高「F」と、各楽曲の開始音の音高「C」は異なっているが、これについては比較を行わず、異なっている曲であってもピックアップされるようにする。   In this case, in view of the point of the above-mentioned D-list that "the music can be searched even when the melody is input by transposing to a different key from the music database", the absolute values of the start melody of the input melody and the music are absolute. The different pitches are not compared. Explaining the above example in which "FGA" is input, the pitch "F" of the start sound of the input melody is different from the pitch "C" of the start sound of each song, but this is compared. Instead, try to pick up different songs.

これにより、上記の「FGA」とメロディが入力された場合、図8のNリストの検索処理では、各楽曲の音高と全く異なる音高であるためにピックアップされないが、本図9のDリストの検索処理においては、音高そのものは異なっていても「CDE」から始まる楽曲がピックアップされることとなる。   As a result, when the above “FGA” and the melody are input, in the search processing of the N list in FIG. 8, since the pitch is completely different from the pitch of each music, it is not picked up. In the search processing of, music pieces starting with “CDE” are picked up even if the pitches themselves are different.

続いてCPU21は、ステップS902での検索の結果、ピックアップされた曲があったか否かを判断する(ステップS903)。そして、ピックアップされた曲がなかった場合は、このDリストのリストアップ処理を終了する(ステップS903:No)。   Subsequently, as a result of the search in step S902, the CPU 21 determines whether or not there is any music that has been picked up (step S903). If no music has been picked up, the D list listing process ends (step S903: No).

一方、ピックアップされた曲が存在していた場合は(ステップS903:Yes)、入力されたメロディ履歴の各音について、メロディ開始音(最初の音)とのST比率を算出して、ピックアップされた各曲について、楽曲データベース上に記録されている「開始音とのST比率」のデータと比較を行い、「正解率」を算出する(ステップS904)。この正解率の算出の具体的な方法については、ステップS704で説明したのと同様である。   On the other hand, if the picked-up music exists (step S903: Yes), the ST ratio of each sound of the input melody history to the melody start sound (the first sound) is calculated and picked up. For each song, the data is compared with the data of “ST ratio with start sound” recorded on the song database, and “correct answer rate” is calculated (step S904). The specific method of calculating the correct answer rate is the same as that described in step S704.

そして、ステップS904において算出された、「各楽曲の正解率」を参照して、正解率の高いものから順に所定数の楽曲をDリストとしてリストアップし(ステップS905)、このDリストアップの処理を終了する。   Then, with reference to the “accuracy rate of each music piece” calculated in step S904, a predetermined number of music pieces are listed as a D list in descending order of accuracy rate (step S905). To end.

このようにして作成される、Dリストの例を図18に示す。   FIG. 18 shows an example of the D list created in this way.

ここでは、図18(A)に示すようなメロディが入力された場合に、図12および図13に示す楽曲データベースを検索して得られたNリストの例を図18(B)に、Dリストの例を図18(C)に示している。   Here, when a melody as shown in FIG. 18A is input, an example of an N list obtained by searching the music database shown in FIGS. 12 and 13 is shown in FIG. 18B. 18C is shown in FIG.

図18(A)に示すように、メロディ入力は順に「FGA」の3音が入力されている。また、図18(A)に示すメロディ入力の例では、FGAの全てが、同じ長さ(ST値)で、第1音とのST比率が1である場合を仮定している。   As shown in FIG. 18A, three sounds “FGA” are input in order for the melody input. In the example of the melody input shown in FIG. 18A, it is assumed that all the FGAs have the same length (ST value) and the ST ratio with the first sound is 1.

既に説明したように、図18(A)のメロディ入力に対して、図12の楽曲データベースの各曲の音高連結を比較すると、「FGA」で始まっている楽曲は無いので、図18(B)に示すように、Nリストでは、この図12の曲1から曲9については一曲もリストアップがされない。なお、楽曲データベースにさらに他の曲が登録されており、その中に「FGA」で始まる曲があった場合は、この図18(B)のNリストにピックアップされることとなる。   As described above, comparing the melody input of FIG. 18A with the pitch concatenation of each song in the song database of FIG. 12, there is no song that starts with “FGA”. As shown in FIG. 12), none of the tunes 1 to 9 in FIG. 12 are listed. If another song is registered in the song database, and there is a song starting with “FGA”, the song is picked up in the N list of FIG. 18B.

このような入力メロディに対して、図9のDリストアップ処理を行うと、まず、ステップS901で図18(A)のメロディ履歴データから音程間隔のデータである、第1音(開始音)〜第2音の音程「2」、並びに、第2音〜第3音の音程「2」が抽出される。次にステップS902で、この抽出された音程間隔に対して、図12の楽曲データベースの各曲について音程間隔が比較される。   When the D-listing process in FIG. 9 is performed on such an input melody, first, in step S901, the first sound (starting sound) to the interval interval data from the melody history data in FIG. The pitch “2” of the second sound and the pitch “2” of the second to third sounds are extracted. Next, in step S902, the pitch intervals of the respective songs in the song database of FIG. 12 are compared with the extracted pitch intervals.

ここで、本図のDリストのリストアップでは、Nリストのリストアップ時と異なり、音高連結ではなく音程間隔を比較する。従って、入力メロディが、楽曲データベースに登録されたメロディと異なる調に移調されて演奏されていた場合であっても、楽曲データベースに登録された、相対的な音程関係を用いて比較を行うことができる。これにより、図18(B)のNリストではリストアップされなかった楽曲についても、Dリストとしてリストアップがなされる可能性がある。   Here, in the listing of the D list in this figure, unlike the listing of the N list, pitch intervals are compared instead of pitch concatenation. Therefore, even when the input melody is transposed and played in a different key from the melody registered in the music database, the comparison can be performed using the relative pitch relationship registered in the music database. it can. As a result, there is a possibility that music that is not listed in the N list in FIG. 18B may be listed as the D list.

本図18(A)の入力に対しても、図12の楽曲データベースの曲番号1から曲番号9までの9曲全てにおいて、音程間隔が、第1音(開始音)〜第2音の音程「2」、並びに、第2音〜第3音の音程「2」となっているため、ステップS902では、これらの9曲全てが候補として抽出される。   Also for the input of FIG. 18 (A), the interval between the first tone (starting tone) and the second tone of all nine songs from song number 1 to song number 9 in the song database of FIG. Since the pitch is “2” and the pitch between the second and third notes is “2”, in step S902, all these nine songs are extracted as candidates.

該当曲があったためステップS903はYesとなり、ステップS904に進み、各該当曲ごとにST比率の正解率:Pを計算する。この正解率の計算は、Kリストの場合のステップS704や、Nリストの場合のステップS804と同様、式(1)を用いて計算している。   Since there is a corresponding song, step S903 becomes Yes, and the process proceeds to step S904 to calculate the correct answer ratio P of the ST ratio for each corresponding song. The calculation of the correct answer rate is performed using Expression (1), similarly to step S704 for the K list and step S804 for the N list.

このようにして、各曲の正解率が求められたら、ステップS905で、その点数の高い順にDリストをリストアップする。このようにして作成されたDリストの例を図18(C)に示してある。一部の曲について正解率が同点であり、この順位付けについては、Fリスト、Kリスト、Nリストと同様に、曲番号の若い順に順位を付けた例を示しているが、同順位としたり、他の方法で順位付けをしても差し支えない。   When the correct answer rate of each music piece is obtained in this way, in step S905, the D list is listed in descending order of the score. FIG. 18C shows an example of the D list created in this way. For some songs, the correct answer rates are tied. In this ranking, as in the case of the F list, K list, and N list, an example is shown in which songs are ranked in ascending order of song number. , You can also rank in other ways.

このようにして図5のステップS508を介して、図9に示した処理によってDリストが作成されると、CPU21は、図5のフローチャートに処理を戻してステップS509へ処理を進め、ステップS507とS508で作成された、NリストとDリストを用いて、総合リストを作成する(ステップS509)。この総合リストの作成処理は図10に詳細が示してあるので、図10を参照して説明する。   When the D list is created by the processing illustrated in FIG. 9 through step S508 in FIG. 5 in this way, the CPU 21 returns the processing to the flowchart in FIG. 5, advances the processing to step S509, and proceeds to step S507. A comprehensive list is created using the N list and the D list created in S508 (step S509). The details of the process of creating the comprehensive list are shown in FIG. 10 and will be described with reference to FIG.

図10では、CPU21はまず、NリストとDリストを、統合して、所定の方法により順番に並べて、総合リストとする(ステップS1001)。   In FIG. 10, first, the CPU 21 integrates the N list and the D list, arranges them in order by a predetermined method, and makes a comprehensive list (step S1001).

ここで、統合して順番に並べる方法としては、例えば、ステップS804とステップS904で算出した、NリストとDリストのそれぞれのリストの各楽曲のST比率の正解率に応じて、リスト種別に関わらずST比率の正解率が高いものから順に、楽曲を並べていく方法がある。   Here, as a method of integrating and arranging in order, for example, in accordance with the correct answer rate of the ST ratio of each song in each of the N list and the D list calculated in step S804 and step S904, regardless of the list type, First, there is a method of arranging music pieces in descending order of the correct answer rate of the ST ratio.

また、その他にも、例えば、ステップS802とステップS902で、音高連結ないし音程間隔を比較した際に、入力メロディ履歴と、楽曲データベースの楽曲とで、音高連結あるいは音程間隔が一致した音数が多いものを上位として、NリストとDリストの双方から楽曲を並べていく方法が可能である。   In addition, for example, when the pitch concatenation or interval is compared in step S802 and step S902, the number of pitches in which the pitch concatenation or interval between the input melody history and the music in the music database match. A method of arranging songs from both the N list and the D list with the item having the highest number as the top is possible.

さらには、音高連結ないし音程間隔の比較結果と、ST比率の正解率を総合的に評価して、NリストとDリストの統合を行う方法も可能である。この場合、いずれかの評価、例えば音高連結ないし音程間隔が一致した音数が多いものを上位とし、一致した音数が同じものについて、ST比率の正解率で順位付けをする方法や、逆にST比率の正解率を優先的に順位付けする方法、さらに、所定の重み付けを行って、両項目の評価点を加算して、この重み付け加算された評価点の高い順に楽曲を並べていく方法などが可能である。   Further, a method of integrating the N list and the D list by comprehensively evaluating the comparison result of the pitch connection or the interval and the accuracy rate of the ST ratio is also possible. In this case, one of the evaluations, for example, the one having a large number of notes having the same pitch connection or pitch interval is ranked high, and the one having the same number of matched notes is ranked based on the accuracy rate of the ST ratio. A method of prioritizing the correct answer rate of the ST ratio, and a method of performing a predetermined weighting, adding the evaluation points of both items, and arranging the music pieces in descending order of the weighted and added evaluation points, etc. Is possible.

このような方法によってNリストとDリストから総合リストが作成されると、CPU21はこの総合リスト中に重複する楽曲がないかを検索する(ステップS1002)。これは即ち、NリストとDリストの両方にリストアップされている、重複する楽曲があるか否かを検索することと等しい。   When a comprehensive list is created from the N list and the D list by such a method, the CPU 21 searches the overlapping list for a duplicate song (step S1002). This is equivalent to searching for duplicate songs that are listed in both the N list and the D list.

ステップS1002で重複する曲があった場合には、総合リストにそのような重複する曲が存在すると、以後の処理に不便であるので、CPU21はこの重複する楽曲を総合リストから削除して(ステップS1003)、総合リストから重複する曲がなくなるようにする。なお、重複する曲は1曲とは限らず、複数の曲が重複していた場合であっても、それらを全て削除するものとする。   If there is a duplicate song in step S1002, and if such a duplicate song exists in the general list, it is inconvenient for the subsequent processing, so the CPU 21 deletes the duplicate song from the general list (step S1002). S1003), eliminating duplicate songs from the comprehensive list. The number of overlapping songs is not limited to one, and even if a plurality of songs overlap, they are all deleted.

この図10に示した処理によってNリストとDリストを用いて作成された総合リストの例を図19に示す。図19の総合リストでは、各楽曲が正解率の順に並べられ、かつ、重複する曲が削除されたリストとなっている。   FIG. 19 shows an example of the general list created by using the N list and the D list by the processing shown in FIG. In the comprehensive list of FIG. 19, each song is arranged in the order of the correct answer rate, and the duplicate song is deleted.

以上により、図5に示した曲候補検索処理では、入力されたメロディに基づき、後述するキー(調性)判定処理の状況に応じた楽曲候補の総合リストが作成される。   As described above, in the song candidate search process shown in FIG. 5, a comprehensive list of song candidates according to the status of the key (tonality) determination process described later is created based on the input melody.

このようにして図3のステップS304を介して、図5の曲候補検索処理が終了すると、CPU21は図3のフローチャートに処理を戻し、キー(調性)判定処理を行う(ステップS305)。キー(調性)判定処理は、例えば、RAM23中に、図20のようなダイアトニックレジスタ2000を有して、各データを更新することによって実行される。   When the song candidate search process of FIG. 5 is completed through step S304 of FIG. 3 in this way, the CPU 21 returns the process to the flowchart of FIG. 3 and performs a key (tonality) determination process (step S305). The key (tonality) determination processing is executed by, for example, having a diatonic register 2000 as shown in FIG. 20 in the RAM 23 and updating each data.

本実施の形態において、CPU21は、メロディ音が押鍵されるごとに、ダイアトニックレジスタ2000の一連の項目に値を格納する。図20の例では、時系列に5つのメロディ音のそれぞれについて、一連の値が格納されている(符号2001〜2005)。図20においては、矢印tの方向に時間的に新しい押鍵についての値となっている。つまり、メロディ音の項目にあるように、「C」、「D」、「E」、「F」、「B」の順で押鍵されている。   In the present embodiment, the CPU 21 stores a value in a series of items of the diatonic register 2000 every time the melody sound is pressed. In the example of FIG. 20, a series of values are stored in time series for each of the five melody sounds (reference numerals 2001 to 2005). In FIG. 20, the value is a key depressed timewise in the direction of arrow t. That is, the keys are pressed in the order of “C”, “D”, “E”, “F”, and “B” as in the melody sound item.

本実施の形態においては、CPU21によって、複数のメロディ音について、以下に述べる項目の値が、ダイアトニックレジスタ2000の単位レジスタ2001〜2005に格納されるようになっている。単位レジスタ2001〜2005は、それぞれ、メロディ音、音長、仮キー、仮コード、仮機能、メロディ音履歴、キー候補レジスタおよび確定キーという項目を有し、単位レジスタには、各項目についての値が格納され得る。メロディ音には、押鍵された鍵の音名が格納される。また、音長は、当該鍵の押鍵時間が格納される。なお、この音長については、楽曲データベースと揃えてST値を記録することとしてもよい。   In the present embodiment, the values of the following items for a plurality of melody sounds are stored in the unit registers 2001 to 2005 of the diatonic register 2000 by the CPU 21. Each of the unit registers 2001 to 2005 has items of a melody sound, a note length, a provisional key, a provisional code, a provisional function, a melody sound history, a key candidate register, and a decision key, and the unit register has a value for each item. Can be stored. The melody sound stores a note name of a pressed key. The key length stores the key depression time of the key. It is to be noted that the ST value may be recorded with the music database together with the music duration.

最終的に、キー(調性)が確定したときには、CPU21は、単位レジスタの確定キーの項目に、キー名を格納する(たとえば、単位レジスタ2005格納)。しかしながら、キーが確定したとCPU21によって判断されるためには、複数の押鍵が必要となる。そこで、本実施の形態においては、キーが確定できると判断する段階になるまでは、CPU21の処理により仮キーが特定されて、そのキー名が、単位レジスタの仮キーの項目に格納される。また、仮キーの下で、メロディ音に適切な仮のコード名が、CPU21によって仮コードの項目に格納される。また、仮機能の項目には、CPU21によって、仮キーの下での、仮コードの機能(主音をIとした場合のコード名、および、トニック(T)、ドミナント(D)、サブドミナント(S)の種別)が格納される。   Finally, when the key (tonality) is determined, the CPU 21 stores the key name in the item of the determined key in the unit register (for example, stores the unit register 2005). However, in order for the CPU 21 to determine that the key has been determined, a plurality of key presses are required. Therefore, in the present embodiment, a temporary key is specified by the processing of the CPU 21 and the key name is stored in the item of the temporary key in the unit register until it is determined that the key can be determined. Under the provisional key, a provisional chord name appropriate for the melody sound is stored in the provisional chord item by the CPU 21. Further, in the item of the provisional function, the CPU 21 operates the provisional chord function under the provisional key (the chord name when the main tone is I, and the tonic (T), dominant (D), subdominant (S ) Is stored.

メロディ音履歴は、演奏開始時或いは所定のタイミングから、押鍵された鍵の音名が蓄積される。たとえば、最初の押鍵についての単位レジスタ2001には、押鍵された鍵であるCのみが格納され、次の押鍵についての単位レジスタ2002には、2つの鍵CDが格納されている。キー候補には、当該鍵が押鍵された時点で、あり得る1以上のキー名が格納される。   In the melody sound history, note names of keys depressed are accumulated at the start of the performance or at a predetermined timing. For example, the unit register 2001 for the first key press stores only the pressed key C, and the unit register 2002 for the next key press stores two keys CD. The key candidate stores one or more possible key names when the key is pressed.

メロディ履歴データからのキー(調性)候補の絞り込みは、CPU21が図21のダイアトニックスケールテーブル2100を参照することによって実行される。   The narrowing down of key (tonality) candidates from the melody history data is executed by the CPU 21 referring to the diatonic scale table 2100 in FIG.

ダイアトニックスケールテーブル2100には、C〜Bの12個のキーそれぞれについて、キースケールノート(音階に該当する音)が識別可能に格納されている。たとえば、キーがCであればC、D、E、F、G、A、Bの音名が格納され(符号2101参照)、キーGであればG、A、B、C、D、E、F#の音名が格納される(符号2102参照)。   The diatonic scale table 2100 stores key scale notes (sounds corresponding to musical scales) for each of the twelve keys C to B in a distinguishable manner. For example, if the key is C, note names of C, D, E, F, G, A, and B are stored (see reference numeral 2101), and if the key is G, G, A, B, C, D, E, The pitch name of F # is stored (see reference numeral 2102).

そして、CPU21によって、図20のメロディ音履歴と、ダイアトニックスケールテーブル2100とが比較され、メロディ音履歴に含まれる音名が、あるキーのダイアトニックスケールに全て含まれるようなキーが存在するかが調べられる。このようなキーは、存在しない場合もあるし、複数存在する場合もある。たとえば、単位レジスタ2003のメロディ音履歴には、C、D、Eが格納されている。そこで、ダイアトニックスケールテーブル2100を参照すると、C、D、Eの全てをダイアトニックスケールとして含むキーは、C、G、Fの3つとなる。したがって、この場合には、C、D、Eの3つのキーがキー候補となり得る。(単位レジスタ2003のキー候補欄)   Then, the CPU 21 compares the melody sound history of FIG. 20 with the diatonic scale table 2100, and determines whether there is a key whose tone name included in the melody sound history is entirely included in the diatonic scale of a certain key. Is examined. Such a key may not exist, or a plurality of keys may exist. For example, C, D, and E are stored in the melody sound history of the unit register 2003. Therefore, referring to the diatonic scale table 2100, there are three keys C, G, and F that include all of C, D, and E as diatonic scales. Therefore, in this case, three keys C, D, and E can be key candidates. (Key candidate field of unit register 2003)

そして、このキー(調性)候補が一つになった場合に、CPU21は、その候補キー(調性)を、確定キー(調性)とする。一方、キー候補が2以上存在する場合は、CPU21は、例えば、候補キーのうち最も調号の少ないものを仮キーとして、単位レジスタの仮キーの値として格納する。なお、調号が同数の場合(たとえば、FとG、DとB♭)には、♯系のキーが優先して仮キーとされる。   Then, when the number of key (tonality) candidates becomes one, the CPU 21 sets the candidate key (tonality) as a decision key (tonality). On the other hand, when there are two or more key candidates, the CPU 21 stores, for example, the key with the smallest key signature among the candidate keys as the temporary key, as the value of the temporary key in the unit register. When the key signature is the same (for example, F and G, D and B), the key of the ♯ system is preferentially used as the temporary key.

以上のようにして、図3のステップS305でキー(調性)判定処理が行われると、CPU21は自動コード判定処理を行う(ステップS306)。   As described above, when the key (tonality) determination processing is performed in step S305 of FIG. 3, the CPU 21 performs the automatic code determination processing (step S306).

自動コード判定処理は、現時点までに入力されたメロディ音に基づいて、現在のメロディに付けるべきコード(和音)を自動的に判定する処理であり、種々の方法により実現することが可能である。   The automatic chord determination process is a process of automatically determining a chord (chord) to be attached to the current melody based on the melody sound input up to the present time, and can be realized by various methods.

例えば、現在のメロディ音に基づき、図22に示すような仮コード決定マップ2200を用いてコードを決定することが可能である。この手法は、例えば、まだ十分なメロディ履歴が得られていない、例えば第1音めや開始後数音程度の場合に用いることができる。   For example, based on the current melody sound, it is possible to determine a chord using a temporary chord determination map 2200 as shown in FIG. This method can be used, for example, in a case where a sufficient melody history has not been obtained yet, for example, in the case of the first note or about several notes after the start.

また、特にキーが未確定の場合などに、図23のコードデータベースを用いてコードを決定することができる。図23に示すように、コードデータベース2300には、コード名ごとに、コード構成音および当該コードに関するスケールノートが格納されている。図23において、たとえば、ハッチングで示される音名がコード構成音である。   Further, particularly when the key is not determined, the code can be determined using the code database of FIG. As shown in FIG. 23, the chord database 2300 stores, for each chord name, chord constituent sounds and scale notes related to the chord. In FIG. 23, for example, note names indicated by hatching are chord constituent sounds.

例えば、CPU21は、所定の長さのメロディ履歴の中で、音長の長いものから順に所定個数の音を選択する。所定の長さのメロディ履歴としては、例えば、所定小節分のメロディ履歴や、所定音数のメロディ履歴などと決めておくことができる。   For example, the CPU 21 selects a predetermined number of sounds in descending order of sound length from a melody history of a predetermined length. As the melody history of a predetermined length, for example, a melody history of a predetermined bar or a melody history of a predetermined number of sounds can be determined.

CPU21は、上記音長の長いものから選択された所定個数の音をコードデータベース2300と比較し、この所定個数の音を含むコード構成音を有するコードがあるかどうか判断する。そして、コードが見つかれば、そのコードを自動コード判定処理のコードとし、見つからなければ上記選択する音数を減らして再度コードデータベースと照合するなどの方法でコードを決定することができる。   The CPU 21 compares a predetermined number of sounds selected from the longest ones with the chord database 2300 and determines whether there is a chord having a chord constituent sound including the predetermined number of sounds. If a chord is found, the chord can be determined as a code for the automatic chord determination processing, and if not found, the chord can be determined by a method such as reducing the number of selected sounds and checking again with the chord database.

また、前回のコードの機能と、その次のメロディの進行に応じて、図24のようなコード判定テーブルを用いてコードを決定することも可能である。   It is also possible to determine a code using a code determination table as shown in FIG. 24 according to the function of the previous code and the progress of the next melody.

ここで、コードの機能とは、音楽理論における「トニック(TO)」、「サブドミナント(SU)」、「ドミナント(DO)」のことをいい、図24の左端に前回コード機能による分類が示されている。   Here, the function of the chord refers to “tonic (TO)”, “subdominant (SU)”, and “dominant (DO)” in music theory, and the left end of FIG. Have been.

図24に示すコード判定テーブルおいては、前回コードの機能(トニック(TO)、サブドミナント(SU)或いはドミナント(DO)の何れか)、および、前回メロディ音PMおよび現在メロディ音CMの組み合わせによって、コード名が取得されるようになっている。なお、図24のコード判定テーブル2400は、キー(C)の場合についてのものである。したがって、他のキーの場合には、当該キーの主音とCとの音程をオフセットとして、実際の前回メロディ音PMおよび現在メロディ音CMからオフセットを考慮して、キーをCとした場合の前回メロディ音PMおよび現在メロディ音CMを算出して用いれば良い。なお、図24の例では示されていないが、前回メロディ音PMおよび今回メロディ音CMの組み合わせによっては、コード名が得られない場合もある。   In the chord determination table shown in FIG. 24, the function of the previous chord (either tonic (TO), subdominant (SU) or dominant (DO)) and the combination of the previous melody sound PM and the current melody sound CM , The code name is obtained. Note that the code determination table 2400 in FIG. 24 is for the key (C). Therefore, in the case of another key, the pitch between the key tone of the key and C is set as an offset, and the previous melody when the key is set to C in consideration of the offset from the actual previous melody sound PM and the current melody sound CM. The sound PM and the current melody sound CM may be calculated and used. Although not shown in the example of FIG. 24, a chord name may not be obtained depending on the combination of the previous melody sound PM and the current melody sound CM.

さらに、公知となっている他の手法を用いて、ステップS305のキー(調性)判定処理や、ステップS306の自動コード判定処理を実行することも可能である。例えば、特開2011ー158855号公報や、特開2012−68548号公報などの手法を用いることが可能である。   Furthermore, it is also possible to execute the key (tonality) determination processing in step S305 and the automatic code determination processing in step S306 by using another known technique. For example, it is possible to use a method disclosed in JP-A-2011-158855 or JP-A-2012-68548.

このようにして、図3のステップS306で自動コード判定処理が行われると、CPU21はコード選択処理を実行する(ステップS307)。このコード選択処理は図11に詳細が示してあるので、図11を参照して説明する。   When the automatic code determination process is performed in step S306 in FIG. 3 as described above, the CPU 21 executes a code selection process (step S307). This code selection processing is shown in detail in FIG. 11, and will be described with reference to FIG.

図11で実行されるコード選択処理は、ステップS304を介して図5以下で実行された、曲候補検索処理でリストアップされた曲のコード進行と、ステップS306で実行された自動コード判定処理で決定されたコードのいずれを用いて自動伴奏付けを行うかを決定する処理である。   The chord selection processing executed in FIG. 11 includes the chord progression of the music listed in the music candidate search processing executed in FIG. 5 and subsequent steps through step S304 and the automatic chord judgment processing executed in step S306. This is a process of determining which of the determined chords should be used for performing the automatic accompaniment.

図11では、CPU21はまず、総合リスト中で音高/音程連結が所定数、例えば10音以上合っている曲があるか否かを判断する(ステップS1101)。この音数について、「音楽テーマ事典」(音楽之友社)では、6音までの音の並びから楽曲を検索できるようになっているが、6音で検索をすると、音が同じ曲が希に10曲程度検索される場合がある。このことから、例えば、6音〜10音程度の音が合っているかどうかを調べると、ある程度の正確性をもって楽曲の検索が行える。なお、メロディ入力が、まだ、所定数の音数(例えば10音)に達していない場合には、本処理をスキップすることとしても良い。   In FIG. 11, the CPU 21 first determines whether or not there is a song in the comprehensive list that matches a predetermined number of pitches / intervals, for example, 10 or more notes (step S1101). Regarding the number of sounds, the “Music Theme Encyclopedia” (Ongaku Tomosha) allows you to search for songs from a sequence of up to six sounds. May be searched for about 10 songs. From this, for example, if it is checked whether about 6 to 10 sounds match, the music can be searched with a certain degree of accuracy. If the melody input has not yet reached the predetermined number of sounds (for example, 10 sounds), this processing may be skipped.

総合リスト中で音高/音程連結が所定数合っているものが無かった場合(ステップS1101:NO)、CPU21は、ステップS1104に処理を進め、リアルタイムコード付け結果通りのコードを出力して本コード選択処理を終了する(ステップS1104)。なお、そもそもFリスト、Kリスト、Nリスト・Dリストの各リストに該当する曲が検索されず、総合リストに曲がピックアップされていなかった場合も、このステップS1101でNOと判断されて、ステップ1104にてリアルタイムコード付け結果通りのコードを出力する。   If there is no pitch / pitch link in the general list that matches the predetermined number (step S1101: NO), the CPU 21 proceeds to step S1104, outputs a code according to the real-time coding result, and executes this code. The selection process ends (step S1104). It should be noted that even if the songs corresponding to the F list, the K list, and the N list / D list are not searched in the first place and the songs are not picked up in the comprehensive list, it is determined NO in step S1101. At 1104, a code according to the real-time coding result is output.

一方、総合リスト中で音高/音程連結が所定数合っているものがあった場合(ステップS1101:YES)、CPU21は、その中で発音タイミングが80%以上マッチしている曲があるか否かを判定する(ステップS1102)。具体的には、総合リストにリストアップされている曲の中で、「正解率」が80点以上のものがあるか否かを判断する。この正解率は、既述のように、楽曲データベースと入力メロディ履歴との「開始音とのST比率」の値を比較して求めた、発音タイミングに関する評価値であるので、この正解率の値が所定値以上の曲を選択することで、ほぼデータベースと同じ曲を弾いていると判断でき、楽曲データベースからコード進行を選択して自動伴奏用コードとして差し支えないものと考えられる。なお、この「80点」の基準数値に関しては、適宜変更して、異なる基準値を用いて実施することも可能である。また、例えば「習熟度」に関する指定を図示しないボタン等で受け付けて、この習熟度に応じて判断の基準値を変えることも可能である。   On the other hand, when there is a music piece whose pitch / pitch connection is equal to the predetermined number in the comprehensive list (step S1101: YES), the CPU 21 determines whether or not there is a music piece whose sounding timing is matched by 80% or more. It is determined (step S1102). Specifically, it is determined whether or not any of the songs listed in the comprehensive list has a “correct answer rate” of 80 or more. As described above, the correct answer rate is an evaluation value relating to the sounding timing obtained by comparing the value of the “ST ratio with the start sound” between the music database and the input melody history. By selecting a song having a value equal to or greater than a predetermined value, it can be determined that the user is playing a song that is almost the same as the database, and a chord progression can be selected from the song database to be used as an automatic accompaniment code. Note that the reference value of “80 points” can be changed as appropriate and implemented using a different reference value. Further, for example, it is also possible to accept a designation relating to “proficiency” with a button (not shown) or the like, and to change the reference value of the judgment according to the proficiency.

発音タイミングが80%以上マッチしている曲が無かった場合(ステップS1102:NO)、CPU21は、ステップS1104に処理を進め、リアルタイムコード付け結果通りのコードを出力して本コード選択処理を終了する(ステップS1104)。   If there is no song whose sounding timing matches 80% or more (step S1102: NO), the CPU 21 proceeds to step S1104, outputs a code according to the result of the real-time coding, and ends the present code selection process. (Step S1104).

一方、発音タイミングが80%以上マッチしている曲があった場合(ステップS1102:YES)、CPU21は、このステップS1101とステップS1102とで選択された曲、具体的には、音高/音程連結が所定数合っている曲であって、発音タイミングが所定率以上合っている曲(以下「該当曲」という)の楽曲データベース(図12)を参照する。そして、該当曲のデータ中、現在のメロディと推定される部分のコードを、楽曲データベースから読み出して、ステップS306の自動コード判定処理(リアルタイムコード付け)のコード付け結果とマッチするか否かを判別する(ステップS1103)。   On the other hand, if there is a song whose sounding timing matches 80% or more (step S1102: YES), the CPU 21 determines the song selected in step S1101 and step S1102, specifically, the pitch / pitch concatenation. Are referred to a song database (FIG. 12) of songs that match a predetermined number and whose sounding timings match a predetermined rate or more (hereinafter referred to as “applicable songs”). Then, the code of the portion estimated as the current melody in the data of the corresponding song is read from the song database, and it is determined whether or not the code matches the result of the automatic code determination process (real-time code assignment) in step S306. (Step S1103).

自動コード判定処理(リアルタイムコード付け)のコード付け結果と、該当曲の楽曲データベースから読み出したコードとがマッチしていた場合(ステップS1103:YES)、CPU21は、ステップS1104に処理を進め、リアルタイムコード付け結果通りのコードを出力して、本コード選択処理を終了する(ステップS1104)。   If the result of the automatic chord determination processing (real-time chording) matches the code read from the music database of the corresponding song (step S1103: YES), the CPU 21 proceeds to step S1104, and proceeds to step S1104. The code according to the attachment result is output, and the present code selection process ends (step S1104).

一方、自動コード判定処理(リアルタイムコード付け)のコード付け結果と、該当曲の楽曲データベースから読み出したコードとがマッチしていない場合(ステップS1103:NO)、CPU21は、ステップS1105に処理を進め、該当曲の楽曲データベースから読み出したコードを出力して、本コード選択処理を終了する(ステップS1105)。   On the other hand, if the code addition result of the automatic code determination processing (real-time code addition) does not match the code read from the music database of the corresponding music (step S1103: NO), the CPU 21 proceeds to step S1105, The code read from the song database of the corresponding song is output, and the code selection process ends (step S1105).

このようにして図3のステップS307を介して、図11に示したコード選択処理が実行されると、CPU21は、図3のフローチャートに処理を戻し、ステップS308で自動伴奏処理を実行する(ステップS308)。この自動伴奏処理は図25に詳細が示してあるので、図25を参照して説明する。   When the chord selection process shown in FIG. 11 is thus executed via step S307 in FIG. 3, the CPU 21 returns the process to the flowchart in FIG. 3, and executes the automatic accompaniment process in step S308 (step S308). S308). This automatic accompaniment process is shown in detail in FIG. 25, and will be described with reference to FIG.

図25は、本実施の形態にかかる自動伴奏処理の例を示すフローチャートである。まず、CPU21は、電子楽器10が自動伴奏モードの下で動作しているかを判断する(ステップ2501)。ステップ2501でYesと判断された場合には、CPU21のタイマ(図示せず)を参照して、現在時刻が、自動伴奏データ中、メロディ音のデータについてのイベントの実行タイミングに達しているかを判断する(ステップ2502)。   FIG. 25 is a flowchart illustrating an example of the automatic accompaniment process according to the present embodiment. First, the CPU 21 determines whether the electronic musical instrument 10 is operating in the automatic accompaniment mode (step 2501). If it is determined Yes in step 2501, it is determined whether or not the current time has reached the execution timing of the event for the melody sound data in the automatic accompaniment data by referring to a timer (not shown) of the CPU 21. (Step 2502).

自動伴奏データには、3つの種類の楽音、すなわち、メロディ音(オブリガート音を含む)、コード音、リズム音のデータが含まれる。メロディ音のデータおよびコード音のデータは、発音すべき楽音ごとに、その音高、発音タイミングおよび発音時間を含む。また、リズム音のデータは、発音すべき楽音(リズム音)ごとに、その発音タイミングを含む。   The automatic accompaniment data includes data of three types of musical sounds, namely, melody sounds (including obrigato sounds), chord sounds, and rhythm sounds. The melody sound data and chord sound data include the pitch, sounding timing, and sounding time for each musical sound to be sounded. The rhythm sound data includes the sounding timing of each musical sound (rhythm sound) to be sounded.

ステップ2502でYesと判断された場合には、CPU21は、メロディ発音・消音処理を実行する(ステップ2503)。メロディ発音・消音処理においては、処理にかかるイベントがノートオンイベントであるかを判断する。ノートオンイベントであることは、現在時刻が、上記メロディ音のデータにおける所定の楽音の発音タイミングとほぼ一致することで判断できる。その一方、ノートオフイベントであることは、現在時刻が、当該楽音の発音タイミングに発音時間を加えた時刻とほぼ一致することで判断できる。   If Yes is determined in the step 2502, the CPU 21 executes a melody sounding / muting process (step 2503). In the melody sound generation / silence processing, it is determined whether or not the event involved in the processing is a note-on event. A note-on event can be determined when the current time substantially coincides with the sounding timing of a predetermined musical tone in the melody sound data. On the other hand, a note-off event can be determined by the fact that the current time substantially matches the time obtained by adding the sounding time to the sounding timing of the musical tone.

処理にかかるイベントがノートオフイベントである場合には、CPU21は、消音処理を実行する。その一方、処理にかかるイベントがノートオンイベントであれば、メロディ音のデータにしたがった発音処理を実行する。   If the event involved in the process is a note-off event, the CPU 21 executes a mute process. On the other hand, if the event involved in the processing is a note-on event, the sound generation processing is executed according to the melody sound data.

次いで、CPU21は、CPU21のタイマ(図示せず)を参照して、現在時刻が、自動伴奏データ中、コード音のデータについてのイベントの実行タイミングに達しているかを判断する(ステップ2504)。ステップ2504においてYesと判断された場合には、CPU21は、コード発音・消音処理を実行する(ステップ2505)。コード音発音・消音処理においては、発音タイミングに達したコード音について発音処理を実行し、その一方、消音タイミングに達したコード音については消音処理を実行する。   Next, the CPU 21 refers to a timer (not shown) of the CPU 21 to determine whether or not the current time has reached the execution timing of the event for the chord sound data in the automatic accompaniment data (step 2504). If it is determined as Yes in step 2504, the CPU 21 executes chord sounding / muting processing (step 2505). In the chord sound generation / silence processing, the sound generation processing is executed for the chord sound that has reached the sound generation timing, while the mute processing is executed for the chord sound that has reached the mute timing.

その後CPU21は、現在時刻が、自動伴奏データ中、リズムのデータについてのイベントの実行タイミングに達しているかを判断する(ステップ2506)。ステップ2506においてYesと判断された場合には、CPU21は、リズム音発音処理を実行する(ステップ2507)。リズム音発音処理においては、発音タイミングに達したリズム音についてノートオンイベントを生成する。   Thereafter, the CPU 21 determines whether or not the current time has reached the execution timing of the event for the rhythm data in the automatic accompaniment data (step 2506). When it is determined Yes in step 2506, the CPU 21 executes a rhythm sound generation process (step 2507). In the rhythm sound generation process, a note-on event is generated for the rhythm sound that has reached the sound generation timing.

自動伴奏処理(図3のステップS308)が終了すると、CPU21は、音源発音処理を実行する(ステップS309)。音源発音処理において、CPU21は、生成されたノートオンイベントに基づいて、発音すべき楽音の音色および音高を示すデータを音源部26に与え、或いは、消音すべき楽音の音色および音高を示すデータを音源部26に与える。音源部26は、音色、音高、音長等を示すデータにしたがって、ROM22の波形データを読み出して、所定の楽音データを生成する。これにより、スピーカ28から所定の楽音が発生する。また、CPU21は、ノートオフイベントに基づいて、音源26にノートオフイベントが示す音高の消音を指示する。   When the automatic accompaniment process (step S308 in FIG. 3) ends, the CPU 21 executes a sound source sounding process (step S309). In the sound source tone generation process, the CPU 21 provides the tone generator 26 with data indicating the tone color and pitch of the musical tone to be pronounced or indicates the tone color and pitch of the musical tone to be silenced based on the generated note-on event. The data is provided to the sound source unit 26. The tone generator 26 reads the waveform data from the ROM 22 in accordance with data indicating a tone color, a pitch, a tone length, and the like, and generates predetermined tone data. As a result, a predetermined musical sound is generated from the speaker 28. Further, based on the note-off event, the CPU 21 instructs the sound source 26 to mute the pitch indicated by the note-off event.

音源発音処理(ステップS309)が終了すると、CPU21は、その他の処理(たとえば、表示部15への画像表示、LED(図示せず)の点灯、消灯など:ステップS310)を実行して、ステップ302に戻る。   When the sound source tone generation process (step S309) ends, the CPU 21 executes other processes (for example, displaying an image on the display unit 15, turning on / off an LED (not shown): step S310), and executes step 302. Return to

以上に説明した通り、本実施の形態においては、演奏者が演奏したメロディに対して自動的に伴奏を付加する電子楽器で、楽曲データベースを備え、演奏者の演奏メロディとこの楽曲データベースの各楽曲とを比較照合する。そして、所定の条件で一致したと判別された曲が見つかった場合、この楽曲データベースに登録されているコードを読み出して、演奏者の演奏メロディに対して伴奏付けを行う。   As described above, in the present embodiment, an electronic musical instrument that automatically adds an accompaniment to a melody played by a player, includes a music database, and includes a melody performed by the player and each music in the music database. Is compared with. Then, when a song determined to match under the predetermined condition is found, the code registered in the song database is read out, and the accompaniment is performed to the performance melody of the player.

このようにすることで、演奏者の演奏メロディに対して、リアルタイムで自動的に伴奏を付ける際の自動コード判別のみによらず、楽曲データベースに登録されている曲と合致した場合は、データベースから曲に合ったコードを読み出して出力できるため、自動的なコード付けの精度を向上させることができる。   In this way, the performance melody of the performer is determined not only by the automatic chord identification when the accompaniment is automatically added in real time, but also when the music matches the music registered in the music database. Since the chord matching the music can be read and output, the accuracy of the automatic chording can be improved.

さらに、本実施の形態では、楽曲データベースとの照合処理において、キー(調性)判別がまだ確定していない場合に、音高の比較を行うNリストと、音程間隔の比較を行うDリストとを備え、楽曲データベースに登録されているのと異なる調でメロディが演奏された場合でも比較照合を行えるようにしている。従って、演奏者がメロディをデータベースと異なる調で演奏した場合であっても、楽曲データベースを有効に活用してコード付けを行うことが可能である。   Furthermore, in the present embodiment, in the comparison processing with the music database, when the key (tonality) determination is not yet determined, an N list for comparing pitches and a D list for comparing pitch intervals are used. , So that comparison and collation can be performed even when the melody is played in a key different from that registered in the music database. Therefore, even when the player plays the melody in a different key from the database, it is possible to effectively use the music database to perform the chording.

さらに、本実施の形態では、楽曲データベースに、メロディ開始音と各メロディ音とのST比率を登録しておき、演奏されたメロディについての開始音と各音とのST比率を取得して、楽曲データベースの登録値と比較して、正解率を算出する。そして、この正解率の高いものから優先的に楽曲データベースの楽曲を検索するようにしている。従って、多少発音タイミングがずれて演奏されていた場合であっても、概ね曲の特徴が合っていれば、候補曲として検索される柔軟なシステムを構築することが可能である。   Furthermore, in the present embodiment, the ST ratio between the melody start sound and each melody sound is registered in the music database, and the ST ratio between the start sound and each sound for the played melody is acquired, and The correct answer rate is calculated by comparing with the registered value in the database. Then, the music in the music database is searched preferentially from the one with the highest correct answer rate. Therefore, even if the music is played with a slightly shifted timing of sound generation, it is possible to construct a flexible system that is searched as a candidate music if the characteristics of the music generally match.

また、楽曲データベース検索と平行して、自動的なコードの判別処理も行い、楽曲データベースでの検索で該当する曲が見つからない場合は自動的なコード判別結果に基づいてコード付けを行うようになっている。従って、自動コード判別と楽曲データベース検索方式との二重構造によってコード付けをすることにより、データベースに登録されている曲については速やかにデータベースを用いた正確なコード付けを行うと共に、データベースに該当曲がない場合や、判別不能な場合等は、自動的なコード判別処理でコードを付けることができ、コード付け不能となることなく、かつ、精度の良いコード付け並びに自動伴奏付けが可能となる。   In addition, in parallel with the music database search, automatic chord discrimination processing is also performed, and if the corresponding music is not found in the music database search, chords are automatically assigned based on the result of chord discrimination. ing. Therefore, by performing the coding using the dual structure of the automatic code discrimination and the music database search method, the music registered in the database can be promptly subjected to accurate coding using the database, and the corresponding music can be stored in the database. When there is no such code, when it is impossible to determine, etc., it is possible to attach a code by an automatic chord identification process, and it is possible to perform accurate chording and automatic accompaniment without becoming impossible to code.

次に、本発明の第2の実施の形態を説明する。第2の実施形態では、CPU21は、図11のコード選択処理に替えて、図26に示すコード選択処理を実行する。   Next, a second embodiment of the present invention will be described. In the second embodiment, the CPU 21 executes a code selection process shown in FIG. 26 instead of the code selection process shown in FIG.

図26のコード選択処理において、図11と同様の処理を行う部分については、図11と共通のステップ番号を付してあり、これについては説明を省略する。図26のコード選択処理では、図11のステップ1103に替えてステップS2603を実行する。   In the code selection processing of FIG. 26, steps that perform the same processing as in FIG. 11 are given the same step numbers as in FIG. 11, and description thereof will be omitted. In the code selection process in FIG. 26, step S2603 is executed instead of step 1103 in FIG.

ステップS2603では、CPU21は、ステップS306の自動コード判定処理で演奏メロディに対して付けられたコードと、S1101、S1102で、条件に該当すると判断された楽曲データベースの曲の中の、現在演奏されているメロディ部分に付けられているコードとの「コードの機能」を比較する。   In step S2603, the CPU 21 determines whether the chord added to the performance melody in the automatic chord determination processing in step S306 and the currently played tune in the tune in the tune database determined to satisfy the conditions in S1101 and S1102. Compare the "code function" with the code attached to the melody part.

具体的には、楽曲データベースに付けられているコードの機能としては、図12に示した楽曲データベース中に、さらに各メロディ音に対して、コードの機能の情報を追加で記録されていることとしても良いし、または、図12の楽曲データベースでは、各曲のキー(調性)が判っているので、この調性と、各メロディ音に対するコードとを比較照合することで、機能を判定することとしても良い。   Specifically, as the function of the chord attached to the music database, it is assumed that information of the function of the chord is additionally recorded in the music database shown in FIG. 12 for each melody sound. Alternatively, since the key (tonality) of each song is known in the song database of FIG. 12, the function is determined by comparing and matching the tonality with the code for each melody sound. It is good.

また、現在演奏されているメロディ部分に付けられているコードの機能は、ステップS305のキー(調性)判定の部分で説明した、仮機能の部分に記録された機能を用いることとしても良い。この、演奏されているメロディのコードの機能(仮機能)は、ステップS305で説明した、仮キー若しくは確定キーの情報と、現在のメロディに対して付けられたコード(和音)の情報を比較照合して、機能を判定することができる。   Further, as the function of the chord attached to the melody part currently being played, the function recorded in the provisional function part described in the key (tonality) determination part in step S305 may be used. The function of the chord of the melody being played (temporary function) is compared with the information of the temporary key or the determination key described in step S305 and the information of the chord (chord) attached to the current melody. Then, the function can be determined.

具体的には、各種コードとコードの機能について、周知の音楽理論を用いたテーブルを用意し、このテーブルを参照することによって、コードの機能を取得することが可能である。例えば、トニックに該当するコード名として、「IMaj」、「IM7」、「IIImin」、「IIIm7」、「VImin」、「VIm7」がある。サブドミナントに該当するコード名として、「IImin」、「IIm7」、「IIm7 (−5)」、「IVMaj」、「IVM7」、「IVmin」、[IVmM7]がある。また、ドミナントに該当するコード名として、「IIIMaj」、「III」、「III7sus4」、「VMaj」、「V」、「V7sus4」、「VIIm7 (−5)」がある。 Specifically, it is possible to prepare a table using well-known music theory for various chords and the functions of the chords, and to acquire the function of the chord by referring to this table. For example, the code name corresponding to the tonic, there is a "I Maj", "I M7", "III min", "III m7", "VI min", "VI m7". Code names corresponding to the subdominant include “II min ”, “II m7 ”, “II m7 (−5) ”, “IV Maj ”, “IV M7 ”, “IV min ”, and [IV mM7 ]. Further, as code names corresponding to the dominant, there are “III Maj ”, “III 7 ”, “III 7sus4 ”, “V Maj ”, “V 7 ”, “V 7sus4 ”, and “VII m7 (−5) ”. .

このようにして、ステップS2603で、CPU21は、ステップS306の自動コード判定処理で演奏メロディに対して付けられたコードと、S1101、S1102で、条件に該当すると判断された楽曲データベースの曲の中の、現在演奏されているメロディ部分に付けられているコードとの「コードの機能」を比較する。   In this manner, in step S2603, the CPU 21 determines whether the code added to the performance melody in the automatic chord determination processing in step S306 and the music in the music database determined to satisfy the conditions in S1101 and S1102. Compare the "chord function" with the chord attached to the melody part currently being played.

そして、コードの機能が共通だった場合には(ステップS2603:YES)、リアルタイムコード付け結果のコードを出力する(ステップS1104)。一方、コードの機能が異なっていた場合は(ステップS2603:NO)、該当曲の楽曲データベースから読み出したコードを出力する(ステップS1105)。   If the functions of the codes are common (step S2603: YES), the code as the real-time coding result is output (step S1104). On the other hand, if the functions of the chords are different (step S2603: NO), the chord read out from the music database of the corresponding music is output (step S1105).

このようにすることによって、本第2の実施形態では、リアルタイムコード付けの結果のコードと楽曲データベースから読み出したコードの、「コードの機能」が合っている場合には、同じ機能を有するコードのうちでのバラエティとして、リアルタイムコード付けの結果を尊重してリアルタイムコード付けの結果のコードを出力する一方、「コードの機能」が異なっていた場合、リアルタイムコード付けの結果のコードが、機能からして大外れの見当違いの和音を付してしまう危険を避けるために、楽曲データベースのコードを読み出して出力するようにできる。従って、楽曲データベースとリアルタイムコード付けの両方式の協働によって、大きく見当外れのコードを出力する可能性を低減しつつ、機能が合っている中ではコード付けのバラエティとして、リアルタイムコード付けの判断結果を尊重したコード出力をすることが可能となる。   By doing so, in the second embodiment, when the “code function” of the code read as a result of the real-time coding and the code read from the music database match, the code having the same function is used. As a variety at our company, while outputting the code of the real-time coding result while respecting the result of the real-time coding, if the `` code function '' is different, the code of the real-time coding result In order to avoid the danger of giving outlying misplaced chords, the music database code can be read and output. Therefore, by cooperating with both the music database and real-time coding, the possibility of outputting a large out-of-order code is reduced. It is possible to output code that respects

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although some embodiments of the present invention have been described above, these embodiments are merely examples and do not limit the technical scope of the present invention. The present invention can take other various embodiments, and various changes such as omissions and substitutions can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are also included in the invention described in the claims and the equivalents thereof.

また、上述した各実施形態において記載した手法は、コンピュータに実行させることのできるプログラムとして、例えば磁気ディスク(フロッピーディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリなどの記録媒体に書き込んで各種装置に適用したり、通信媒体により伝送して各種装置に適用することも可能である。本装置を実現するコンピュータは、記録媒体に記録されたプログラムを読み込み、このプログラムによって動作が制御されることにより、上述した処理を実行する。   Further, the method described in each of the embodiments described above may be a program that can be executed by a computer, such as a recording medium such as a magnetic disk (floppy disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), a semiconductor memory, etc. And can be applied to various devices, or transmitted by a communication medium and applied to various devices. A computer that realizes the present apparatus reads a program recorded on a recording medium, and executes the above-described processing by controlling the operation of the program.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段などより構成される全体的な装置を意味するものとする。
In this specification, the steps of describing a program recorded on a recording medium are not only performed in chronological order according to the order, but are not necessarily performed in chronological order. This also includes the processing to be executed.
Further, in the present specification, the term “system” means an entire device including a plurality of devices and a plurality of means.

例えば、上記実施形態の図3で説明した処理のうち一部は、処理の順番を前後させる等させても差し支えない。例えば、S304の曲候補検索処理と、S305、S306のキー(調性)判定処理、自動コード判定処理と、は、順序を逆にすることもできる。そのようにすることで、ステップS505における「Key確定?」か否かの判断において、より最新の判断結果を用いることができる。   For example, a part of the processing described in FIG. 3 of the above embodiment may be performed by changing the order of the processing. For example, the order of the song candidate search processing of S304 and the key (tonality) determination processing and the automatic chord determination processing of S305 and S306 can be reversed. By doing so, the latest determination result can be used in determining whether or not “Key fixed?” In step S505.

以上に説明した本発明によれば、メロディ音の履歴に基づいて、自動的なコード付けと、楽曲データベースを用いたコード付けとの双方を適切に使い分けてコード付けができるため、精度の良い適切なコード付けを迅速に行うことが可能となる。   According to the present invention described above, based on the history of the melody sound, it is possible to appropriately use both the automatic coding and the coding using the music database to perform the coding. It is possible to perform quick coding.

すなわち、本発明によれば、楽曲データベース手段に登録された曲の中で、該当する楽曲が見つからない場合には、自動コード付けによりコードが付けられる。従って、楽曲データベース中に該当する楽曲が見つからなかった場合でも、和音が付かなくなってしまい、演奏者の演奏に何らの自動伴奏も付されないといった事態を回避することができる。   That is, according to the present invention, when a corresponding song is not found among the songs registered in the song database means, a code is assigned by automatic coding. Therefore, even when the corresponding music piece is not found in the music piece database, it is possible to avoid a situation in which the chord is not added and no automatic accompaniment is added to the performance of the player.

他方、本発明によれば、楽曲データベース手段に登録されている曲の中で、該当する楽曲が検索された場合には、この楽曲データベース手段に登録されているコードを利用して自動伴奏を付けることができる。従って、自動コード付けによるコード付けで自動的にコードの判別を行った場合に、人間の聴覚的に明らかにおかしい、間違った和音が付いてしまうといった事態を防ぐことが可能になる。   On the other hand, according to the present invention, when a corresponding song is searched for among the songs registered in the song database means, an automatic accompaniment is added using the code registered in the song database means. be able to. Therefore, it is possible to prevent a situation in which when a chord is automatically discriminated by the chording based on the automatic chording, a human acoustically apparently strange or wrong chord is added.

さらに、本発明によれば、楽曲データベース手段に登録されている曲の中で、該当する楽曲が検索された場合に、自動コード付けによるコードと、楽曲データベース中に登録されているコードとのコードの機能を比較して、用いるコードを選択している。従って、自動コード付けによるコード付けが、楽曲データベースに登録されているコードと比べて、コードの機能の面からも異なっている、大ハズレのコードを付してしまうといった目立った誤りが発生する事態を防ぐことができる。   Further, according to the present invention, when a corresponding song is searched for among the songs registered in the song database means, a code between the code by automatic coding and the code registered in the song database is used. The function to be used is compared and the code to be used is selected. Therefore, there is a noticeable error in that the coding by automatic coding is different from the code registered in the music database in terms of the function of the code, and a large loss code is added. Can be prevented.

さらにまた、楽曲データベースに登録されているコードと機能が同じであった場合に、自動コード付けを選択するようにすることで、コードの機能が大ハズレでは無いことを確認した上で、自動コード付けによるコード付けアルゴリズムを尊重したコードを選択できることから、より適切なコードを用いた自動伴奏を行うことができるようになる。   Furthermore, if the function is the same as the chord registered in the music database, by selecting automatic chording, after confirming that the chord function is not a big loss, Since it is possible to select a chord that respects the chording algorithm by attaching, it becomes possible to perform automatic accompaniment using a more appropriate chord.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[付記1]
複数の楽曲のそれぞれについて、メロディ情報と当該メロディ情報に対応するコードとが楽曲データとして記憶されている楽曲データベース手段と、
演奏操作子の操作に対応して順次楽音の発生を指示するための演奏情報を記憶する演奏記憶手段と、
前記演奏記憶手段に記憶された演奏情報に基づいて、前記楽曲データベース手段から当該演奏情報に対応するメロディ情報を有する楽曲データを検索する楽曲検索手段と、
前記演奏記憶手段に記憶されている演奏情報から、コードを判定するコード判定手段と、
前記楽曲検索手段によって検索された楽曲に対応して記憶されたコード及び前記コード判定手段によって判定されたコードのうち、いずれのコードを用いるかを選択するコード選択手段と、
前記コード選択手段によって選択されたコードに基づいた、伴奏音の発生を指示する自動伴奏手段と、
を備えたことを特徴とする自動伴奏装置。
Hereinafter, the inventions described in the claims of the present application will be additionally described.
[Appendix 1]
Song database means in which melody information and a code corresponding to the melody information are stored as song data for each of the plurality of songs,
Performance storage means for storing performance information for sequentially instructing the generation of musical sounds in response to the operation of the performance operator;
Music search means for searching music data having melody information corresponding to the performance information from the music database means based on the performance information stored in the performance storage means;
Code determination means for determining a chord from the performance information stored in the performance storage means,
Code selection means for selecting which code to use, out of the code stored corresponding to the music searched by the music search means and the code determined by the code determination means,
Automatic accompaniment means for instructing the generation of an accompaniment sound based on the chord selected by the chord selection means,
An automatic accompaniment device comprising:

[付記2]
前記コード選択手段は、前記楽曲検索手段によって検索された楽曲データに対応して記憶されたコード及び前記コード判定手段によって判定されたコード夫々のコードの機能を比較し、このコードの機能の比較結果に基づいてコードを選択することを特徴とする付記1に記載の自動伴奏装置。
[Appendix 2]
The code selecting means compares the function of each of the codes stored corresponding to the music data searched by the music searching means and the code determined by the code determining means, and a comparison result of the functions of the codes. 2. The automatic accompaniment device according to Supplementary Note 1, wherein a chord is selected based on the chord.

[付記3]
前記コード選択手段は、前記楽曲検索手段によって検索された楽曲データに対応して記憶されたコード及び前記コード判定手段によって判定されたコード夫々のコードの機能が一致した場合は、前記コード判定手段によって判定されたコードを選択するとともに、当該コードの機能が一致しない場合には、前記楽曲データに記憶されているコードを選択することを特徴とする付記2に記載の自動伴奏装置。
[Appendix 3]
The code selecting means, when the functions of the code stored corresponding to the music data searched by the music searching means and the code of the code determined by the code determining means match, the code determining means 3. The automatic accompaniment device according to claim 2, wherein the selected chord is selected, and when the functions of the chord do not match, the chord stored in the music data is selected.

[付記4]
前記コード選択手段は、前記楽曲検索手段によって前記楽曲データベース手段から当該演奏情報に対応するメロディ情報を有する楽曲が検索されなかった場合に、前記コード判定手段によって判定されたコードを選択することを特徴とする、付記1から3のいずれかに記載の自動伴奏装置。
[Appendix 4]
The chord selection means selects a chord determined by the chord determination means when the music search means does not search a music piece having melody information corresponding to the performance information from the music piece database means. 4. The automatic accompaniment device according to any one of supplementary notes 1 to 3.

[付記5]
前記楽曲検索手段は、前記演奏操作子により順次発音の指示された楽音のうち、第1音目の楽音の音長と、夫々入力された楽音の音長との比率に基づき前記楽曲データベース手段から対応する楽曲を順位を付けて検索することを特徴とする付記1から4のいずれかに記載の自動伴奏装置。
[Appendix 5]
The music search means, based on the ratio between the length of the first tone and the length of each of the input tones, of the musical tones sequentially instructed by the performance operator, 5. The automatic accompaniment device according to any one of Supplementary notes 1 to 4, wherein a search is made by assigning a ranking to corresponding songs.

[付記6]
前記コード判定手段は、記演奏操作子の演奏情報の調性を判定するキー判定手段を備え、
前記楽曲検索手段は、前記楽曲データベース手段に記憶された楽曲データを前記キー判定手段によって判定されたキーに基づき移調し、当該移調された楽曲データ及び前記演奏情報に基づいて、前記楽曲データベース手段から対応する楽曲を検索することを特徴とする付記1から5のいずれかに記載の自動伴奏装置。
[Appendix 6]
The code determination means includes key determination means for determining the tonality of the performance information of the performance operator,
The music search means transposes the music data stored in the music database means based on the key determined by the key determination means, and, based on the transposed music data and the performance information, 6. The automatic accompaniment device according to any one of supplementary notes 1 to 5, wherein a corresponding music piece is searched.

[付記7]
前記キー判定手段によるキー判定が未確定の場合には、前記楽曲検索手段は、前記楽曲データベース手段に記憶された楽曲データに対応するメロディ情報に含まれる音高データに基づく楽曲検索と、当該音高データ間の相対的な音程間隔データに基づく楽曲検索とを組み合わせて楽曲を検索することを特徴とする付記6に記載の自動伴奏装置。
[Appendix 7]
When the key determination by the key determination unit is not determined, the music search unit performs a music search based on pitch data included in melody information corresponding to the music data stored in the music database unit, and 7. The automatic accompaniment apparatus according to appendix 6, wherein music is searched for in combination with music search based on relative interval data between high data.

[付記8]
前記楽曲データベース手段に記憶された各楽曲データは、単一の調で記憶されていることを特徴とする付記1から7のいずれかに記載の自動伴奏装置。
[Appendix 8]
8. The automatic accompaniment apparatus according to any one of supplementary notes 1 to 7, wherein each music data stored in said music database means is stored in a single key.

[付記9]
前記楽曲データベース手段に記憶された各楽曲データが、原曲の調で記録されていることを特徴とする付記1から7のいずれかに記載の自動伴奏装置。
[Appendix 9]
8. The automatic accompaniment apparatus according to any one of supplementary notes 1 to 7, wherein each music data stored in the music database means is recorded in a key of the original music.

[付記10]
複数の楽曲のそれぞれについて、メロディ情報と当該メロディ情報に対応するコードとが楽曲データとして記憶されている楽曲データベース手段と、演奏操作子の操作に対応して順次楽音の発生を指示する演奏情報を記憶する演奏記憶手段と、を有する自動伴奏装置に用いられる自動伴奏方法であって、
前記演奏記憶手段に記憶された演奏情報に基づいて、前記楽曲データベース手段から当該演奏情報に対応するメロディ情報を有する楽曲データを検索し、
前記演奏記憶手段に記憶されている演奏情報から、コードを判定し、
前記楽曲検索手段によって検索された楽曲に対応して記憶されたコード及び前記コード判定手段によって判定されたコードのうち、いずれのコードを用いるかを選択し、
前記コード選択手段によって選択されたコードに基づいた、伴奏音の発生を指示する、自動伴奏方法。
[Appendix 10]
For each of a plurality of music pieces, music database means in which melody information and a code corresponding to the melody information are stored as music data, and performance information for sequentially instructing generation of musical sounds in response to operation of a performance operator. An automatic accompaniment method used for an automatic accompaniment device having
Based on the performance information stored in the performance storage means, searching the music database means for music data having melody information corresponding to the performance information,
From the performance information stored in the performance storage means, determine a chord,
Selecting which code to use from among the code stored corresponding to the music searched by the music search means and the code determined by the code determination means,
An automatic accompaniment method for instructing generation of an accompaniment sound based on a chord selected by the chord selecting means.

[付記11]
複数の楽曲のそれぞれについて、メロディ情報と当該メロディ情報に対応するコードとが楽曲データとして記憶されている楽曲データベース手段と、演奏操作子の操作に対応して順次楽音の発生を指示する演奏情報を記憶する演奏記憶手段と、を備えた自動伴奏装置として用いられるコンピュータに、
前記演奏記憶手段に記憶された演奏情報に基づいて、前記楽曲データベース手段から当該演奏情報に対応するメロディ情報を有する楽曲データを検索する楽曲検索ステップと、 前記演奏記憶手段に記憶されている演奏情報から、コードを判定するコード判定ステップと、
前記検索された楽曲に対応して記憶されたコード及び前記判定されたコードのうち、いずれのコードを用いるかを選択するコード選択ステップと、
前記選択されたコードに基づいた、伴奏音の発生を指示する自動伴奏ステップと、
を実行させる自動伴奏プログラム。
[Appendix 11]
For each of a plurality of music pieces, music database means in which melody information and a code corresponding to the melody information are stored as music data, and performance information for sequentially instructing generation of musical sounds in response to operation of a performance operator. A computer used as an automatic accompaniment device comprising:
A music search step of searching the music database means for music data having melody information corresponding to the performance information, based on the performance information stored in the performance storage means; and performance information stored in the performance storage means. A code determining step of determining a code from
A code selecting step of selecting which code to use from among the stored code and the determined code corresponding to the searched music,
An automatic accompaniment step for instructing the generation of an accompaniment sound based on the selected chord,
Automatic accompaniment program to execute.

10…電子楽器,11…鍵盤,12、13…スイッチ,15…表示部,21…CPU,22…ROM,23…RAM,24…サウンドシステム,25…スイッチ群,26…音源部,27…オーディオ回路,28…スピーカ,30…楽曲データベース,2000…ダイ
アトニックレジスタ,2001〜2005…単位レジスタ,2100…ダイアトニックスケールテーブル,2200…仮コード決定マップ,2300…コードデータベース
DESCRIPTION OF SYMBOLS 10 ... Electronic musical instrument, 11 ... Keyboard, 12, 13 ... Switch, 15 ... Display part, 21 ... CPU, 22 ... ROM, 23 ... RAM, 24 ... Sound system, 25 ... Switch group, 26 ... Sound source part, 27 ... Audio Circuit, 28 speaker, 30 music database, 2000 diatonic register, 2001 to 2005 unit register, 2100 diatonic scale table, 2200 temporary code determination map, 2300 code database

Claims (8)

演奏されるメロディに対応する伴奏音を発生する自動伴奏装置に用いられる自動伴奏方法であって、
複数の楽曲のそれぞれについて、メロディに対応するコードが楽曲データとして記憶されている楽曲データベースから、演奏されるメロディに対応する楽曲データを検索し、
前記検索された楽曲データに含まれるコードを、前記メロディに対応するコードとして判定し、
演奏されるメロディに対応する楽音の発生に対応させて、前記判定されたコードに基づいた伴奏音を発生させ、
前記楽曲データの検索において、前記メロディを構成する複数の楽音のうち、第1音目の楽音の音長と、第2音目以降の各々の楽音の音長との比率に基づき前記楽曲データベースから対応する楽曲データを検索する
ことを特徴とする自動伴奏方法。
An automatic accompaniment method used in an automatic accompaniment device that generates an accompaniment sound corresponding to a melody to be played,
For each of a plurality of songs, a song database corresponding to a melody to be played is searched from a song database in which a code corresponding to the melody is stored as song data,
A code included in the searched music data is determined as a code corresponding to the melody,
Generating an accompaniment sound based on the determined chord in correspondence with the generation of a musical tone corresponding to the melody to be played;
In the search of the music data, from the music database, based on a ratio of a tone length of a first tone and a tone length of each tone after the second tone among a plurality of tones constituting the melody. An automatic accompaniment method characterized by searching for corresponding music data.
演奏されるメロディに対応する伴奏音を発生する自動伴奏装置に用いられる自動伴奏方法であって、
複数の楽曲のそれぞれについて、メロディに対応するコードが楽曲データとして記憶されている楽曲データベースから、演奏されるメロディに対応する楽曲データを検索し、
前記検索された楽曲データに含まれるコードを、前記メロディに対応するコードとして判定し、
演奏されるメロディに対応する楽音の発生に対応させて、前記判定されたコードに基づいた伴奏音を発生させ、
演奏操作子の連続的な操作に応じて繰り返し楽音の発生が指示されている複数のタイミングで、各タイミングにおける前記演奏操作子の操作履歴に基づき前記楽曲データベースから楽曲データの検索を行なうように制御し、
演奏を開始して1回目に前記演奏操作子が操作されたタイミングでは、最初に操作された第1音目の楽音と、前記楽曲データベース内の各楽曲データの第1音目の楽音とが一致する楽曲データを、前記コードの判定に用いる楽曲データとして選択し、演奏を開始して2回目以降に前記演奏操作子が操作されたタイミングでは、前記操作履歴に含まれる複数の楽音それぞれの音長の比率と、前記楽曲データベース内の各楽曲データに含まれる複数の楽音それぞれの音長の比率との比較結果に基づき、前記コードの判定に用いる楽曲データを選択する
ことを特徴とする自動伴奏方法。
An automatic accompaniment method used in an automatic accompaniment device that generates an accompaniment sound corresponding to a melody to be played,
For each of a plurality of songs, a song database corresponding to a melody to be played is searched from a song database in which a code corresponding to the melody is stored as song data,
A code included in the searched music data is determined as a code corresponding to the melody,
Generating an accompaniment sound based on the determined chord in correspondence with the generation of a musical tone corresponding to the melody to be played;
At a plurality of timings at which generation of a musical tone is repeatedly instructed in response to a continuous operation of a performance operator, control is performed such that music data is searched from the music database based on the operation history of the performance operator at each timing. And
Matching the said performance operator to first start playing is operated timing, and the first note of a tone was first operated, the tone of the first note of the music data in the music database The music data to be played is selected as the music data to be used for the determination of the chord, and at the timing when the performance operator is operated for the second time or more after the performance is started, each of the plurality of musical tones included in the operation history is played. ratio and, based on said comparison result between the plurality of musical respective durations ratio of contained in each musical piece data of the music in the database, automatically you and selects the music data to be used for the determination of the code Accompaniment method.
演奏されるメロディに対応する伴奏音を発生する自動伴奏装置に用いられる自動伴奏方法であって、
複数の楽曲のそれぞれについて、メロディに対応するコードが楽曲データとして記憶されている楽曲データベースから、演奏されるメロディに対応する楽曲データを検索し、
前記検索された楽曲データに含まれるコードを、前記メロディに対応するコードとして判定し、
演奏されるメロディに対応する楽音の発生に対応させて、前記判定されたコードに基づいた伴奏音を発生させ、
演奏操作子の連続的な操作に応じて繰り返し楽音の発生が指示されている複数のタイミングで、各タイミングにおける前記演奏操作子の操作履歴に基づき前記楽曲データベースから楽曲データの検索を行なうように制御し、
演奏操作子が操作されたタイミングで、前記操作履歴に基づく調性が確定している場合には、前記楽曲データベース内の各楽曲データを確定している調性に移調させてから、前記操作履歴に含まれる複数の楽音それぞれの音長の比率と、移調後の各楽曲データに含まれる複数の楽音それぞれの音長の比率とを比較し、その比較結果に基づき、前記コードの判定に用いる楽曲データを選択する
ことを特徴とする自動伴奏方法。
An automatic accompaniment method used for an automatic accompaniment device that generates an accompaniment sound corresponding to a melody to be played,
For each of a plurality of songs, a song database corresponding to a melody to be played is searched from a song database in which a code corresponding to the melody is stored as song data,
A code included in the searched music data is determined as a code corresponding to the melody,
Generating an accompaniment sound based on the determined chord in correspondence with the generation of a musical tone corresponding to the melody to be played;
At a plurality of timings at which generation of a musical tone is repeatedly instructed in response to a continuous operation of a performance operator, control is performed such that music data is searched from the music database based on the operation history of the performance operator at each timing. And
If the tonality based on the operation history is determined at the timing when the performance operator is operated, the music data in the music database is transposed to the determined tonality, and then the operation history is changed. Is compared with the ratio of the length of each of the plurality of musical tones included in each piece of transposed music data, based on the result of the comparison. automatic accompaniment how to and selects the data.
演奏されるメロディに対応する伴奏音を発生する自動伴奏装置に用いられる自動伴奏方法であって、
複数の楽曲のそれぞれについて、メロディに対応するコードが楽曲データとして記憶されている楽曲データベースから、演奏されるメロディに対応する楽曲データを検索し、
前記検索された楽曲データに含まれるコードを、前記メロディに対応するコードとして判定し、
演奏されるメロディに対応する楽音の発生に対応させて、前記判定されたコードに基づいた伴奏音を発生させ、
演奏操作子の連続的な操作に応じて繰り返し楽音の発生が指示されている複数のタイミングで、各タイミングにおける前記演奏操作子の操作履歴に基づき前記楽曲データベースから楽曲データの検索を行なうように制御し、
演奏を開始して2回目以降に前記演奏操作子が操作されたタイミングで、前記操作履歴に基づく調性が確定していない場合には、前記操作履歴に含まれる複数の楽音の音高または音程と、前記楽曲データベース内の各楽曲データに含まれる複数の楽音それぞれの音高または音程とを比較し、その比較結果に基づき、前記コードの判定に用いる楽曲データを選択する
ことを特徴とする自動伴奏方法。
An automatic accompaniment method used in an automatic accompaniment device that generates an accompaniment sound corresponding to a melody to be played,
For each of a plurality of songs, a song database corresponding to a melody to be played is searched from a song database in which a code corresponding to the melody is stored as song data,
A code included in the searched music data is determined as a code corresponding to the melody,
Generating an accompaniment sound based on the determined chord in correspondence with the generation of a musical tone corresponding to the melody to be played;
At a plurality of timings at which generation of a musical tone is instructed repeatedly according to a continuous operation of the performance operator, control is performed such that music data is searched from the music database based on the operation history of the performance operator at each timing. And
If the tonality based on the operation history is not determined at the timing when the performance operation element is operated for the second time or more after the performance is started, the pitch or pitch of a plurality of musical tones included in the operation history If, by comparing the plurality of musical respective pitch or interval included in each music data in the music database, based on the comparison result, you and selects the music data to be used for the determination of the code automatic accompaniment method.
前記操作履歴に含まれる複数の楽音の音高と、前記楽曲データベース内の各楽曲データに含まれる複数の楽音それぞれの音高との比較結果と、前記操作履歴に含まれる複数の楽音の音程と、前記楽曲データベース内の各楽曲データに含まれる複数の楽音それぞれの音程との比較結果とに基づき、前記コードの判定に用いる楽曲データを選択する
ことを特徴とする請求項4に記載の自動伴奏方法。
A comparison result between the pitches of the plurality of musical tones included in the operation history and the respective pitches of the plurality of musical tones included in the music data in the music database, and the pitches of the plurality of musical tones included in the operation history. 5. The automatic accompaniment according to claim 4 , wherein music data to be used for the determination of the chord is selected based on a result of comparison with a plurality of musical tones included in each music data in the music database. Method.
演奏操作子が操作される毎に、操作された演奏操作子に対応する楽音の発生を指示し、
前記演奏操作子の操作履歴に基づいて楽曲データベースから楽曲データを検索し、
前記演奏操作子の連続的な操作に応じて繰り返し楽音の発生が指示されている複数のタイミングで、各タイミングにおける前記演奏操作子の操作履歴に基づき前記楽曲データベースから楽曲データの検索を行なうように制御する、
ことを特徴とする請求項1から5のいずれか一項に記載の自動伴奏方法。
Each time a performance operator is operated, an instruction is issued to generate a musical tone corresponding to the operated performance operator,
Searching music data from the music database based on the operation history of the performance operator,
At a plurality of timings at which generation of musical tones is instructed repeatedly according to the continuous operation of the performance operator, music data is searched from the music database based on the operation history of the performance operator at each timing. Control,
The automatic accompaniment method according to any one of claims 1 to 5 , wherein:
前記メロディを構成する複数の楽音は、1つの楽器の演奏に対応する複数の楽音である
ことを特徴とする請求項1から6のいずれか一項に記載の自動伴奏方法。
The automatic accompaniment method according to any one of claims 1 to 6 , wherein the plurality of musical tones constituting the melody are a plurality of musical tones corresponding to the performance of one musical instrument.
請求項1から7のいずれか一項に記載の自動伴奏方法を用いて、演奏されるメロディに対応する伴奏音を発生する自動伴奏装置。 An automatic accompaniment device for generating an accompaniment sound corresponding to a melody to be played, using the automatic accompaniment method according to any one of claims 1 to 7 .
JP2018064438A 2018-03-29 2018-03-29 Automatic accompaniment method and automatic accompaniment device Active JP6658785B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018064438A JP6658785B2 (en) 2018-03-29 2018-03-29 Automatic accompaniment method and automatic accompaniment device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018064438A JP6658785B2 (en) 2018-03-29 2018-03-29 Automatic accompaniment method and automatic accompaniment device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016219320A Division JP6421811B2 (en) 2016-11-10 2016-11-10 Code selection method and code selection device

Publications (2)

Publication Number Publication Date
JP2018101158A JP2018101158A (en) 2018-06-28
JP6658785B2 true JP6658785B2 (en) 2020-03-04

Family

ID=62715394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018064438A Active JP6658785B2 (en) 2018-03-29 2018-03-29 Automatic accompaniment method and automatic accompaniment device

Country Status (1)

Country Link
JP (1) JP6658785B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09258729A (en) * 1996-03-26 1997-10-03 Yamaha Corp Tune selecting device
JP2007086571A (en) * 2005-09-26 2007-04-05 Yamaha Corp Music information display device and program
JP5552968B2 (en) * 2010-08-30 2014-07-16 ヤマハ株式会社 Music search apparatus and music search method

Also Published As

Publication number Publication date
JP2018101158A (en) 2018-06-28

Similar Documents

Publication Publication Date Title
JP6040809B2 (en) Chord selection device, automatic accompaniment device, automatic accompaniment method, and automatic accompaniment program
US9117432B2 (en) Apparatus and method for detecting chord
US8324493B2 (en) Electronic musical instrument and recording medium
US8314320B2 (en) Automatic accompanying apparatus and computer readable storing medium
JP5293710B2 (en) Key judgment device and key judgment program
JP2019200427A (en) Automatic arrangement method
JP4506175B2 (en) Fingering display device and program thereof
JP4334096B2 (en) Electronic musical instrument position search device
JP5696435B2 (en) Code detection apparatus and program
JP6421811B2 (en) Code selection method and code selection device
JP6658785B2 (en) Automatic accompaniment method and automatic accompaniment device
JP5909967B2 (en) Key judgment device, key judgment method and key judgment program
JP3804500B2 (en) Music score editing device
JP3633335B2 (en) Music generation apparatus and computer-readable recording medium on which music generation program is recorded
JP4089447B2 (en) Performance data processing apparatus and performance data processing program
JP6606844B2 (en) Genre selection device, genre selection method, program, and electronic musical instrument
JP2010117419A (en) Electronic musical instrument
CN113140201A (en) Accompaniment sound generation device, electronic musical instrument, accompaniment sound generation method, and accompaniment sound generation program
JP6554826B2 (en) Music data retrieval apparatus and music data retrieval program
JP2016161900A (en) Music data search device and music data search program
JP3719157B2 (en) Music data expression device, music data expression method, and music data expression program
JP5564921B2 (en) Electronic musical instruments
JP3807333B2 (en) Melody search device and melody search program
JP5692275B2 (en) Electronic musical instruments
JP7452501B2 (en) Automatic performance device, electronic musical instrument, performance system, automatic performance method, and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180329

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200120

R150 Certificate of patent or registration of utility model

Ref document number: 6658785

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150