JP2017027087A - Code selection device, automatic accompaniment device, automatic accompaniment method and code selection method - Google Patents

Code selection device, automatic accompaniment device, automatic accompaniment method and code selection method Download PDF

Info

Publication number
JP2017027087A
JP2017027087A JP2016219320A JP2016219320A JP2017027087A JP 2017027087 A JP2017027087 A JP 2017027087A JP 2016219320 A JP2016219320 A JP 2016219320A JP 2016219320 A JP2016219320 A JP 2016219320A JP 2017027087 A JP2017027087 A JP 2017027087A
Authority
JP
Japan
Prior art keywords
music
chord
melody
code
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016219320A
Other languages
Japanese (ja)
Other versions
JP6421811B2 (en
Inventor
広子 奥田
Hiroko Okuda
広子 奥田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016219320A priority Critical patent/JP6421811B2/en
Publication of JP2017027087A publication Critical patent/JP2017027087A/en
Application granted granted Critical
Publication of JP6421811B2 publication Critical patent/JP6421811B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable chords to be accurately and appropriately applied on the basis of history of melody sounds.SOLUTION: Musical piece database means that stores, as musical piece data, melody information and chords corresponding to the melody information for each of a plurality of musical pieces is provided. In addition, there are provided: musical piece retrieval means that retrieves musical piece data having corresponding melody information from the musical piece data base on the basis of performance information generated by operating a performance operator; chord determination means that determines chords on the basis of the performance information stored in performance storage means; chord selection means that selects whether to use the chord stored in association with the musical piece retrieved by the musical piece retrieval means, or the chords determined by the chords determination means; and automatic accompaniment means that indicates generation of accompaniment sounds based on the chords selected by the chord selection means.SELECTED DRAWING: Figure 3

Description

本発明は、コード選択装置、自動伴奏装置、自動伴奏方法および自動伴奏プログラムに関する。   The present invention relates to a chord selection device, an automatic accompaniment device, an automatic accompaniment method, and an automatic accompaniment program.

ピアノやオルガン、あるいは電子キーボードや電子ピアノといった、鍵盤を備えた楽器では、右手でメロディを演奏しつつ、これに合わせて左手で伴奏を演奏する奏法が一般的である。   In a musical instrument having a keyboard, such as a piano, organ, electronic keyboard, or electronic piano, it is common to play an accompaniment with the left hand while playing a melody with the right hand.

しかしながら、このように右手と左手を同時に動かして演奏をするためには相応の練習が必要である。特に、メロディを奏するために右手を動かすことは比較的容易であっても、同時に左手でメロディとは異なる伴奏を演奏することが困難と感じる演奏者が、特に初心者では多い。このため、そのような初心者であっても、容易に演奏を楽しむことができるように、演奏者が右手でメロディを演奏するのに合わせて、左手の演奏に相当する伴奏を自動的に作成して演奏する電子楽器が実現されている。   However, in order to perform the performance by moving the right hand and the left hand at the same time, appropriate practice is required. In particular, many beginners feel that it is difficult to move the right hand to play a melody, but at the same time it is difficult to play an accompaniment different from the melody with the left hand. For this reason, accompaniment equivalent to playing the left hand is automatically created as the performer plays the melody with the right hand so that even such a beginner can easily enjoy the performance. An electronic musical instrument to be played is realized.

例えば、特許文献1には、メロディ音の重みおよびその遷移に基づいて、適切にコード名を決定することができる電子楽器の技術が開示されている。   For example, Patent Literature 1 discloses a technique of an electronic musical instrument that can appropriately determine a chord name based on the weight of a melody sound and its transition.

特開2011−158855号公報JP 2011-158855 A

特許文献1に記載の電子楽器では、メロディ音の拍の位置や拍の重み、また前拍の拍頭におけるメロディ音やコード名(和音名)等を用いてコード判定を行っていたものの、一般的な音楽のメロディ進行とコード付けは極めて多数の様々な場合があり、特に、音楽の分野では、メロディ進行に対するコード付けについて、人間の感覚によって判断される部分も多く、機械によるコード付けの精度をさらに向上させることが求められていた。   In the electronic musical instrument described in Patent Document 1, the chord determination is performed using the position and weight of the beat of the melody sound, the melody sound and the chord name (chord name) at the beginning of the previous beat, etc. The melody progression and chording of a typical music can be performed in a very large number of different cases. In particular, in the field of music, the coding of melody progression is often judged by human sense, and the accuracy of coding by a machine There has been a demand for further improvement.

本発明は上記のような点に鑑みなされたもので、メロディ音の履歴に基づいて精度の良い適切なコード付けを迅速に行うことができるコード選択装置、自動伴奏装置、自動伴奏方法および自動伴奏プログラムを提供することを目的とする。   The present invention has been made in view of the above points, and a chord selection device, an automatic accompaniment device, an automatic accompaniment method, and an automatic accompaniment that can quickly perform appropriate and accurate chording based on a history of melody sounds. The purpose is to provide a program.

上記目的を達成するため、本発明の一態様の自動伴奏装置は、演奏操作子の操作に対応して楽音の発生を指示するための演奏情報を前記演奏操作子の操作毎に順次メモリに記憶させる演奏記憶手段と、前記演奏情報が前記メモリに記憶される毎に、前記メモリに記憶された演奏情報に基づいて、複数の楽曲のそれぞれについて、メロディ情報と当該メロディ情報に対応するコードとが楽曲データとして記憶されている楽曲データベース手段から当該演奏情報に対応するメロディ情報を有する楽曲データを検索する楽曲検索手段と、前記メモリに記憶されている演奏情報から、コードを判定するコード判定手段と、前記楽曲検索手段によって検索された楽曲に対応して記憶されたコード及び前記コード判定手段によって判定されたコードのうち、いずれのコードを用いるかを選択するコード選択手段と、前記コード選択手段によって選択されたコードに基づいた、伴奏音の発生を指示する自動伴奏手段とを備えたことを特徴とする。   In order to achieve the above object, an automatic accompaniment apparatus according to one aspect of the present invention sequentially stores performance information for instructing the generation of musical sounds in response to an operation of the performance operator in each memory. And a performance storage means, and each time the performance information is stored in the memory, based on the performance information stored in the memory, melody information and a code corresponding to the melody information for each of a plurality of pieces of music. Music search means for searching music data having melody information corresponding to the performance information from music database means stored as music data; code determination means for determining a chord from performance information stored in the memory; Among the codes stored corresponding to the music searched by the music search means and the codes determined by the code determination means And code selection means for selecting use of either of the code, based on the selected encoded by said code selecting means, characterized by comprising an automatic accompaniment means for instructing generation of accompaniment sounds.

また、本発明は、前記コード選択手段は、前記楽曲検索手段によって検索された楽曲データに対応して記憶されたコード及び前記コード判定手段によって判定されたコード夫々のコードの機能を比較し、このコードの機能の比較結果に基づいてコードを選択することを特徴とする。   Further, according to the present invention, the chord selection means compares the function of the chord stored in correspondence with the music data searched by the music searching means and the chord determined by the chord determination means, The code is selected based on the comparison result of the function of the code.

また、本発明は、前記コード選択手段は、前記楽曲検索手段によって検索された楽曲データに対応して記憶されたコード及び前記コード判定手段によって判定されたコード夫々のコードの機能が一致した場合は、前記コード判定手段によって判定されたコードを選択するとともに、当該コードの機能が一致しない場合には、前記楽曲データに記憶されているコードを選択することを特徴とする。   Further, according to the present invention, when the chord selection means matches the function of each of the chord stored in correspondence with the music data searched by the music searching means and the chord determined by the chord determination means, A chord determined by the chord determining means is selected, and if the chord functions do not match, a chord stored in the music data is selected.

本発明によれば、メロディ音の履歴に基づいて、自動的なコード付けと、楽曲データベースを用いたコード付けとの双方を適切に使い分けてコード付けができるため、精度の良い適切なコード付けを迅速に行うことが可能となる。   According to the present invention, since both automatic coding and coding using a music database can be appropriately used based on the melody sound history, appropriate and accurate coding can be performed. This can be done quickly.

図1は、本実施の形態にかかる電子楽器の外観を示す図である。FIG. 1 is a diagram showing an external appearance of an electronic musical instrument according to the present embodiment. 図2は、本発明の実施の形態にかかる電子楽器の構成を示すブロックダイヤグラムである。FIG. 2 is a block diagram showing the configuration of the electronic musical instrument according to the embodiment of the present invention. 図3は、本実施の形態にかかる電子楽器において実行されるメインフローの例を示すフローチャートである。FIG. 3 is a flowchart showing an example of a main flow executed in the electronic musical instrument according to the present embodiment. 図4は、本実施の形態にかかる鍵盤処理の例を示すフローチャートである。FIG. 4 is a flowchart showing an example of keyboard processing according to the present embodiment. 図5は、本実施の形態にかかる曲候補検索処理の例を示すフローチャートである。FIG. 5 is a flowchart showing an example of song candidate search processing according to the present embodiment. 図6は、本実施の形態にかかるFリストアップ処理の例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of the F list-up process according to the present embodiment. 図7は、本実施の形態にかかるKリストアップ処理の例を示すフローチャートである。FIG. 7 is a flowchart showing an example of the K list-up process according to the present embodiment. 図8は、本実施の形態にかかるNリストアップ処理の例を示すフローチャートである。FIG. 8 is a flowchart showing an example of N list-up processing according to the present embodiment. 図9は、本実施の形態にかかるDリストアップ処理の例を示すフローチャートである。FIG. 9 is a flowchart showing an example of the D list-up process according to the present embodiment. 図10は、本実施の形態にかかるNリストとDリストから総合リストを作成する処理の例を示すフローチャートである。FIG. 10 is a flowchart showing an example of processing for creating a comprehensive list from the N list and the D list according to the present embodiment. 図11は、本実施の形態にかかるコード選択処理の例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of the code selection process according to the present embodiment. 図12は、本実施の形態にかかる楽曲データベースの例を示す図である。FIG. 12 is a diagram showing an example of a music database according to the present embodiment. 図13は、図12の楽曲データベースに対応した楽譜を表す図である。FIG. 13 is a diagram showing a score corresponding to the music database of FIG. 図14は、本実施の形態にかかる演奏入力メロディ履歴の記録データ例を示す図である。FIG. 14 is a diagram showing an example of recorded data of the performance input melody history according to the present embodiment. 図15は、本実施の形態にかかるFリストの例を示す図である。FIG. 15 is a diagram illustrating an example of the F list according to the present embodiment. 図16(A)は、本実施の形態にかかる入力メロディ履歴の一例、図16(B)は、図16(A)の入力メロディに対応したKリストの例を示す図である。FIG. 16A shows an example of an input melody history according to the present embodiment, and FIG. 16B shows an example of a K list corresponding to the input melody of FIG. 図17(A)は、本実施の形態にかかる入力メロディ履歴の一例、図17(B)は、図17(A)の入力メロディに対応したNリストの例を示す図である。FIG. 17A shows an example of the input melody history according to the present embodiment, and FIG. 17B shows an example of an N list corresponding to the input melody of FIG. 17A. 図18(A)は、本実施の形態にかかる入力メロディ履歴の一例、図18(B)は、図18(A)の入力メロディに対応したNリストの例、図18(C)は、図18(A)の入力メロディに対応したDリストの例を示す図である。18A is an example of the input melody history according to the present embodiment, FIG. 18B is an example of an N list corresponding to the input melody of FIG. 18A, and FIG. It is a figure which shows the example of D list corresponding to the input melody of 18 (A). 図19は、本実施の形態にかかる総合リストの例を示す図である。FIG. 19 is a diagram showing an example of the comprehensive list according to the present embodiment. 図20は、本実施の形態にかかるダイアトニックレジスタの例を示す図である。FIG. 20 is a diagram illustrating an example of the diatonic register according to the present embodiment. 図21は、本実施の形態にかかるダイアトニックスケールテーブルの例を示す図である。FIG. 21 is a diagram illustrating an example of the diatonic scale table according to the present embodiment. 図22は、本実施の形態にかかる仮コード決定マップの例を示す図である。FIG. 22 is a diagram illustrating an example of a provisional code determination map according to the present embodiment. 図23は、本実施の形態にかかるコードデータベースの例を示す図である。FIG. 23 is a diagram illustrating an example of a code database according to the present embodiment. 図24は、本実施の形態にかかるコード判定テーブルの例を示す図である。FIG. 24 is a diagram illustrating an example of a code determination table according to the present embodiment. 図25は、本実施の形態にかかる自動伴奏処理の例を示すフローチャートである。FIG. 25 is a flowchart showing an example of automatic accompaniment processing according to the present embodiment. 図26は、本発明の第2の実施形態にかかるコード選択処理の例を示すフローチャートである。FIG. 26 is a flowchart illustrating an example of code selection processing according to the second embodiment of the present invention.

以下、添付図面を参照して、本発明の実施の形態について説明する。図1は、本実施の形態にかかる電子楽器を適用した電子楽器の外観を示す図である。図1に示すように、本実施の形態にかかる電子楽器10は、演奏操作子としての鍵盤11を有する。また、鍵盤11の上部には、音色の指定、自動伴奏の開始・終了、リズムパターンの指定などを行なうためのスイッチ(符号12、13参照)や、演奏される楽曲に関する種々の情報、たとえば、音色、リズムパターン、コード名などを表示する表示部15を有する。本実施の形態にかかる電子楽器10は、たとえば、61個の鍵(C2〜C7)を有する。また、電子楽器10は、自動伴奏をオンする自動伴奏モード、および、自動伴奏をオフにする通常モードの2つの演奏モードのうち、何れかの下での演奏が可能である。   Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a diagram illustrating an external appearance of an electronic musical instrument to which the electronic musical instrument according to the present embodiment is applied. As shown in FIG. 1, an electronic musical instrument 10 according to the present embodiment has a keyboard 11 as a performance operator. In addition, on the upper part of the keyboard 11, switches (see reference numerals 12 and 13) for designating a tone color, starting and ending automatic accompaniment, designating a rhythm pattern, etc., and various information relating to the music to be played, for example, It has a display unit 15 for displaying timbre, rhythm pattern, chord name, and the like. The electronic musical instrument 10 according to the present embodiment has, for example, 61 keys (C2 to C7). In addition, the electronic musical instrument 10 can perform under one of two performance modes: an automatic accompaniment mode for turning on automatic accompaniment and a normal mode for turning off automatic accompaniment.

図2は、本発明の実施の形態にかかる電子楽器の構成を示すブロックダイヤグラムである。図2に示すように、本実施の形態にかかる電子楽器10は、CPU21、ROM22、RAM23、サウンドシステム24、スイッチ群25、鍵盤11および表示部15を備える。   FIG. 2 is a block diagram showing the configuration of the electronic musical instrument according to the embodiment of the present invention. As shown in FIG. 2, the electronic musical instrument 10 according to the present embodiment includes a CPU 21, a ROM 22, a RAM 23, a sound system 24, a switch group 25, a keyboard 11, and a display unit 15.

CPU21は、電子楽器10全体の制御、鍵盤11の鍵の押鍵やスイッチ群25を構成するスイッチ(たとえば、図1の符号12、13参照)の操作の検出、鍵やスイッチの操作にしたがったサウンドシステム24の制御、押鍵された楽音の音高にしたがったコード名の決定、自動伴奏パターンおよびコード名にしたがった自動伴奏の演奏など、種々の処理を実行する。   The CPU 21 follows the control of the electronic musical instrument 10 as a whole, the detection of key depression of the keyboard 11 and the operation of the switches (for example, reference numerals 12 and 13 in FIG. 1), and the operation of the keys and switches. Various processes such as control of the sound system 24, determination of the chord name according to the pitch of the depressed musical tone, and performance of the automatic accompaniment according to the automatic accompaniment pattern and chord name are executed.

ROM22は、CPU21に実行させる種々の処理、たとえば、スイッチの操作や鍵盤の何れかの鍵の押鍵に応じて実行される処理、押鍵に応じた楽音の発音、押鍵された楽音の音高にしたがったコード名の決定、自動伴奏パターンおよびコード名にしたがった自動伴奏の演奏などのプログラムを記憶する。また、ROM22は、ピアノ、ギター、バスドラム、スネアドラム、シンバルなどの各種の楽音を生成するための波形データを格納した波形データエリア、および、種々の自動伴奏パターンを示すデータ(自動伴奏データ)を格納した自動伴奏パターンエリアを有する。   The ROM 22 performs various processes to be executed by the CPU 21, for example, a process executed in response to a switch operation or a key depression of any key on the keyboard, a tone generated in response to the key depression, a tone of the tone to be depressed. Programs such as determination of chord names according to high, automatic accompaniment patterns and performance of automatic accompaniment according to chord names are stored. The ROM 22 is a waveform data area for storing waveform data for generating various musical sounds such as piano, guitar, bass drum, snare drum, and cymbal, and data indicating various automatic accompaniment patterns (automatic accompaniment data). Has an automatic accompaniment pattern area.

RAM23は、ROM22から読み出されたプログラムや、処理の過程で生じたデータを記憶する。さらにRAM23は、鍵盤11の鍵の押鍵・離鍵に伴いCPU21によって生成される、メロディ履歴データを記憶する。なお、本実施の形態において、自動伴奏パターンは、メロディ音およびオブリガート音を含むメロディ自動伴奏パターン、コード名ごとの構成音を含むコード自動伴奏パターン、並びに、ドラム音を含むリズムパターンを有する。たとえば、メロディ自動伴奏パターンのデータのレコードは、楽音の音色、音高、発音タイミング(発音時刻)、音長などを含む。コード自動伴奏パターンのデータのレコードは、上記情報に加えて、コード構成音を示すデータを含む。また、リズムパターンのデータは、楽音の音色、発音タイミングを含む。   The RAM 23 stores a program read from the ROM 22 and data generated in the course of processing. Further, the RAM 23 stores melody history data generated by the CPU 21 when the key of the keyboard 11 is pressed / released. In the present embodiment, the automatic accompaniment pattern has a melody automatic accompaniment pattern including a melody sound and obligato sound, a chord automatic accompaniment pattern including a constituent sound for each chord name, and a rhythm pattern including a drum sound. For example, the data record of the melody automatic accompaniment pattern includes the tone color, pitch, tone generation timing (pronunciation time), tone length, and the like of the musical tone. The record of the chord automatic accompaniment pattern data includes data indicating chord constituent sounds in addition to the above information. The rhythm pattern data includes the tone color of the musical tone and the sounding timing.

サウンドシステム24は、音源部26、オーディオ回路27およびスピーカ28を有する。音源部26は、たとえば、押鍵された鍵についての情報或いは自動伴奏パターンについての情報をCPU21から受信すると、ROM22の波形データエリアから所定の波形データを読み出して、所定の音高の楽音データを生成して出力する。また、音源部26は、波形データ、特に、スネアドラム、バスドラム、シンバルなど打楽器の音色の波形データを、そのまま楽音データとして出力することもできる。オーディオ回路27は、楽音データをD/A変換して増幅する。これによりスピーカ28から音響信号が出力される。   The sound system 24 includes a sound source unit 26, an audio circuit 27, and a speaker 28. For example, when the sound source unit 26 receives information about the depressed key or information about the automatic accompaniment pattern from the CPU 21, the sound source unit 26 reads predetermined waveform data from the waveform data area of the ROM 22, and generates musical tone data of a predetermined pitch. Generate and output. The sound source unit 26 can also output waveform data, particularly waveform data of percussion instrument sounds such as a snare drum, bass drum, and cymbal, as musical sound data. The audio circuit 27 D / A converts and amplifies the musical sound data. Thereby, an acoustic signal is output from the speaker 28.

さらに、本発明の実施の形態にかかる電子楽器10は、楽曲データベース30を備えている。この楽曲データベース30は、後述するように、入力されたメロディの履歴とデータベースの各楽曲との比較を行い、適合する曲のコード(和音)を参照するための辞書として用いられるデータベースである。図12は、この楽曲データベース30の実際のデータ構造の一例を示す図である。   Furthermore, the electronic musical instrument 10 according to the embodiment of the present invention includes a music database 30. As will be described later, the music database 30 is a database used as a dictionary for comparing an input melody history with each music in the database and referring to a chord (chord) of a suitable music. FIG. 12 is a diagram showing an example of an actual data structure of the music database 30.

図12は、種々の楽曲のデータベースのうち「C−D−E」すなわち、「ド−レ−ミ」で始まる曲のうちのいくつかの曲の冒頭部分を例示したものである。また、図12に例示した各楽曲のデータに対応する実際の曲の楽譜を図13に示してある。なお、実際にCPU21が読み込んで各種処理に使用する楽曲データベースとしては、例えばXML(Extensible Markup Language)ファイル形式などで、必要に応じたタグやヘッダなどを付して構成することにより、CPU21に認識可能なものとなっているものとする。   FIG. 12 exemplifies the beginning part of some of the songs starting with “C-D-E”, that is, “Dream”, among various music databases. Further, FIG. 13 shows the score of an actual song corresponding to the data of each song illustrated in FIG. Note that the music database that is actually read by the CPU 21 and used for various processes is recognized by the CPU 21 by configuring it with, for example, an XML (Extensible Markup Language) file format and adding tags and headers as necessary. It shall be possible.

図12に示すとおり、楽曲データベースではまず、各楽曲ごとに、曲番号と曲のタイトルが記録されている(図12の曲番号の欄、タイトルの欄)。また、各楽曲の「Key/Beat」欄の一番上の行に示すように、その曲が何調で記録されているか(Key)、および、何拍子であるか(Beat)が記録されている。例えば、曲番号1の「こぎつね」では「C/4」と記録されており、この曲がハ長調−4拍子で記録されていることを表している。同様に、曲番号6の「みなと」では「C/3」と記録されており、この曲がハ長調−3拍子で記録されていることを表している。   As shown in FIG. 12, in the music database, first, a music number and a music title are recorded for each music (a music number column and a title column in FIG. 12). In addition, as shown in the top line of the “Key / Beat” column of each song, how many times the song is recorded (Key) and how many beats (Beat) are recorded. Yes. For example, “C / 4” is recorded in the song number 1 “Kogatsune”, indicating that this song is recorded in C major -4 time signature. Similarly, “C / 3” is recorded in “Minato” of the music number 6, indicating that this music is recorded in C major-3 time signature.

なお、本図12においては、すべての楽曲がハ長調で記録されている場合の例を示しているが、ハ長調以外で統一されていても、また、曲ごとに別々の調でデータベースを持つように構成しても勿論差し支えない。すべての曲を同じ調でデータベース化してある場合には、後述するコード付けアルゴリズムや調判定アルゴリズムによって調性の判別ができた場合に、その判別された、ユーザが弾いているメロディの推定調性と、データベースで用いられている調性(図12ではハ調)との音程(半音数)等に基づいて、楽曲データベースに登録されているすべての楽曲を一様に当該判別された調性に移調すれば処理を行うことができ、処理を簡潔にすることができる。一方、曲ごとに別々の調、例えばそれぞれの曲の原曲の調でデータベース登録をしておくことも可能である。   Note that FIG. 12 shows an example in which all the music pieces are recorded in C major, but even if they are unified in other than C major, each song has a database in a different key. Of course, there is no problem even if it is configured as described above. If all songs are stored in a database in the same key, the estimated tonality of the melody played by the user can be discriminated when the tonality can be discriminated by the coding algorithm and key judgment algorithm described later. Based on the tone (number of semitones) with the tonality used in the database (c key in FIG. 12), etc., all the songs registered in the song database are uniformly determined to the tonality. If transposition is performed, processing can be performed, and processing can be simplified. On the other hand, it is also possible to register the database in a different key for each song, for example, the key of each original song.

さらに、図12の各楽曲ごとのKey/Beat欄の右(以下、「Note欄」という)には、各楽曲のメロディの音高、前の音との音程、開始音とのST(Step Time)比率、そのメロディに対するコード(和音)が記録されている。   Further, to the right of the Key / Beat column for each song in FIG. 12 (hereinafter referred to as “Note column”), the ST (Step Time) of the pitch of the melody of each song, the pitch with the previous sound, and the start tone is displayed. ) Ratio and chord (chord) for the melody are recorded.

再度、曲番号1の「こぎつね」を例にとって説明すると、この曲のメロディは「ドレミファソソソ」となっているので、図12の曲番号1のNote欄の最上行には、メロディの音高として順に「CDEFGGG」のデータが記録されている。   Again, exemplifying “Kogatsune” of song number 1, the melody of this song is “Doremifasososo”, so the top line of the Note column of song number 1 in FIG. In this order, data “CDEFFGGG” is recorded.

また、図12の各楽曲のNote欄の2行目には、開始音/直前音との音程が記録されている。すなわち、メロディの最初の音については、開始音(図12の例では全てC)の音高がそのまま記録され、メロディの2音目以降は、直前の音との音程(半音数)が記録されている。例えば、曲番号1の「こぎつね」の場合では、メロディの第1音については「C」がそのまま記録され、つづくメロディの第2音目の「D」については、直前のメロディ音(第1音)である「C」から半音2個上の音であるので、「2」と記録されている。同様に、メロディ音第3音目の「E」については、第2音「D」との音程(半音数)「2」が記録され、また、メロディ音第4音目の「F」については、第3音「E」との音程(半音数)「1」が記録されている。   Also, the pitch of the start sound / previous sound is recorded in the second row of the Note column of each piece of music in FIG. That is, for the first sound of the melody, the pitch of the start sound (all C in the example of FIG. 12) is recorded as it is, and after the second sound of the melody, the pitch (number of semitones) with the immediately preceding sound is recorded. ing. For example, in the case of song number 1 “Kototsune”, “C” is recorded as it is for the first sound of the melody, and “D”, which is the second sound of the melody that follows, is the previous melody sound (first "C", which is two semitones higher than "C", "2" is recorded. Similarly, for the third melody sound “E”, the pitch (number of semitones) “2” with the second sound “D” is recorded, and for the fourth melody sound “F”. A pitch (number of semitones) “1” with the third sound “E” is recorded.

なお、曲番号2以降の一部で表わされているように、メロディ音が直前の音より下降した場合には、この直前音との音程はマイナスの値で記録されている(例えば、曲番号2の「すずめのうた」の4音目や、曲番号7の「はと」の5音目、6音目など)。   As shown in a part after the music number 2, when the melody sound falls from the immediately preceding sound, the pitch with the immediately preceding sound is recorded as a negative value (for example, a song number) 4th sound of “Suzume no Uta” (number 2), 5th sound, 6th sound of “hato” (music number 7)).

さらに、図12の各楽曲のNote欄の3行目には、「開始音とのST比率」が記録されている。ここでSTとはStep Timeの略であり、ある音の発音タイミングから次の音の発音タイミングまでの長さを表す数値である。従って、この楽曲データベースの「開始音とのST比率」には、メロディの開始音(第1音)のSTと、各音符のSTとの比率を表すデータが記録されている。   Furthermore, the “ST ratio with the start sound” is recorded in the third row of the Note column of each piece of music in FIG. ST is an abbreviation for Step Time, and is a numerical value representing the length from the sound generation timing of a certain sound to the sound generation timing of the next sound. Therefore, in the “ST ratio with the start sound” of the music database, data representing the ratio between the ST of the melody start sound (first sound) and the ST of each note is recorded.

ここで、図12では、開始音のSTと同じ長さの音符について、「開始音とのST比率」が1となるように記録されている。従って、例えば、曲番号1の「こぎつね」では、第2音から第6音までの全ての音符について、開始音と同じ長さの8分音符(休符なし)であるので、これらの音符について、「開始音とのST比率」は1と記録されている。また、曲番号1の「こぎつね」の第7音(4分音符のG)については、開始音(8分音符)の倍の長さであるので、「開始音とのST比率」は2と記録されている。さらに、曲番号8の「とんび」では、開始音が付点4分音符であるのに対して、第2音から第6音は、その3分の1の長さの8分音符であるので、これらの音符に対して「開始音とのST比率」が「0.33」と記録されている。   Here, in FIG. 12, a note having the same length as the ST of the start sound is recorded so that the “ST ratio with the start sound” is 1. Therefore, for example, in “Kogatsune” of the music number 1, all notes from the second sound to the sixth sound are eighth notes (no rest) having the same length as the start sound. As for “ST ratio with start sound”, 1 is recorded. The seventh note (G of quarter note) of the song number 1 “Kototsune” is twice as long as the start note (eighth note), so the “ST ratio with the start note” is 2. It is recorded. Furthermore, in the song number 8 “Tonbi”, the start sound is a dotted quarter note, whereas the second to sixth notes are eighth notes that are one-third of the length. The “ST ratio with the start sound” is recorded as “0.33” for these notes.

さらに図12の各楽曲のNote欄の4行目には、コード欄があって、コードネーム(和音記号)が記録されている。このコード欄で、例えば「C」と表されているものはいわゆる「C」のコードである「ドミソ」の和音を表している。また「G7」と表されているものは、いわゆる「G7」なるセブンスコードである「ソシレファ」の和音を表している。また、コード欄が「→」となっているものは、前の和音と同じ和音の意味であり、前の和音をそのまま継続して変更せずに維持するということを意味している。このコード名と実際の音との対応は、例えば、ROM内等に記憶されている、図示しないコード名対応テーブルを参照することにより対応づけられている。   Further, in the fourth line of the Note column of each piece of music in FIG. 12, there is a chord column and a chord name (chord symbol) is recorded. In this chord column, for example, what is represented as “C” represents a chord of “Domiso” which is a so-called “C” chord. What is represented as “G7” represents a chord of “Soshirefer”, which is a so-called “G7” seventh chord. A chord column with “→” means the same chord as the previous chord, and means that the previous chord is continuously maintained without being changed. The correspondence between the chord name and the actual sound is associated with, for example, a chord name correspondence table (not shown) stored in the ROM or the like.

このコード欄は、後述するコード選択処理で、伴奏としてメロディに付ける和音を決定する際に参照されるものである。あるメロディに付けることが可能な和音は必ずしも一通りではなく、アレンジや演奏者の個性・感性等によっても異なるものであるが、ここでは、自動伴奏における機械による自動コード判別(コード付け)の補完を行うという観点から、「少なくとも、この和音を付けておけば、間違いとはいえない」といった和音のテーブルが用意されていることが望ましい。   This chord field is referred to when a chord to be added to a melody as an accompaniment is determined in chord selection processing described later. The chords that can be attached to a certain melody are not necessarily one way, but differ depending on the arrangement and the individuality / sensitivity of the performer. Here, the automatic accompaniment for automatic chord discrimination (chording) is complemented here. From the viewpoint of performing the chord, it is desirable that a chord table such as “at least if this chord is attached is not a mistake” is prepared.

なお、この楽曲のデータベースのデータ形式については、必ずしもここに記載された形式に限られず、例えば、MIDI形式のデータに基づいて、メロディの各音符の長さから開始音とのST比率を求め、またメロディ音の前後の音符の音高を比較して、直前音との音程を、計算処理によって求めることとしてもよい。さらに、コード部分は、コードデータを持っていてもよいし、メロディと別トラックにコードのデータをコード記号若しくはある和音を表す複数の音符が記録されているような形のデータでも実行可能である。   The data format of the music database is not necessarily limited to the format described here. For example, the ST ratio with the start sound is obtained from the length of each note of the melody based on the data in the MIDI format. Further, the pitches of the notes before and after the melody sound may be compared to obtain a pitch with the immediately preceding sound by calculation processing. Furthermore, the chord portion may have chord data, or the chord data may be executed in a form in which a chord data or a plurality of notes representing a chord are recorded on a separate track from the melody. .

本実施の形態にかかる電子楽器10は、通常モードの下においては、鍵盤11の鍵の押鍵に基づいて楽音を発生する。その一方、電子楽器10は、例えば図1に示された各種スイッチ12、13等のうちの一つである自動伴奏スイッチが操作されることにより、自動伴奏モードとなる。自動伴奏モードの下では、鍵の押鍵により、その鍵の音高の楽音が発生する。また、押鍵された鍵の情報に基づいてコード名が決定され、そのコード名のコード構成音を含む自動伴奏パターンにしたがった楽音が発生する。なお、自動伴奏パターンは、ピアノやギター、ベースなど音高の変化を伴うメロディ自動伴奏パターン、コード自動伴奏パターンと、バスドラム、スネアドラム、シンバルなど音高の変化を伴わないリズムパターンとを含むことができる。以下、電子楽器10が、自動伴奏モードの下で動作する場合について説明する。   The electronic musical instrument 10 according to the present embodiment generates a musical tone based on the key depression of the keyboard 11 under the normal mode. On the other hand, the electronic musical instrument 10 enters an automatic accompaniment mode by operating an automatic accompaniment switch which is one of the various switches 12 and 13 shown in FIG. Under the automatic accompaniment mode, a musical tone having the pitch of the key is generated by pressing the key. In addition, a chord name is determined based on the information of the depressed key, and a musical tone is generated according to an automatic accompaniment pattern including chord constituent sounds of the chord name. Note that the automatic accompaniment pattern includes an automatic melody accompaniment pattern that accompanies a change in pitch such as piano, guitar, and bass, an automatic chord accompaniment pattern, and a rhythm pattern that does not accompany changes in pitch such as a bass drum, snare drum, and cymbal. be able to. Hereinafter, the case where the electronic musical instrument 10 operates in the automatic accompaniment mode will be described.

以下、本実施の形態にかかる電子楽器10において実行される処理について詳細に説明する。図3は、本実施の形態にかかる電子楽器において実行されるメインフローの例を示すフローチャートである。なお、図示しないが、メインフローの実行中に、所定の時間間隔で、割込カウンタのカウンタ値をインクリメントするタイマインクリメント処理も実行される。   Hereinafter, the process performed in the electronic musical instrument 10 according to the present embodiment will be described in detail. FIG. 3 is a flowchart showing an example of a main flow executed in the electronic musical instrument according to the present embodiment. Although not shown, timer increment processing for incrementing the counter value of the interrupt counter is also executed at predetermined time intervals during execution of the main flow.

図3に示すように、電子楽器10のCPU21は、電子楽器10の電源が投入されると、RAM23中のデータや、表示部15の画像のクリアクリアを含むイニシャル処理(初期化処理)を実行する(ステップS301)。イニシャル処理が終了すると、CPU21は、スイッチ群25を構成するスイッチのそれぞれの操作を検出し、検出された操作にしたがった処理を実行するスイッチ処理を実行する(ステップS302)。   As shown in FIG. 3, when the electronic musical instrument 10 is powered on, the CPU 21 of the electronic musical instrument 10 executes an initial process (initialization process) including clearing the data in the RAM 23 and the image on the display unit 15. (Step S301). When the initial process ends, the CPU 21 detects each operation of the switches constituting the switch group 25, and executes a switch process that executes a process according to the detected operation (step S302).

たとえば、スイッチ処理(ステップS302)においては、音色指定スイッチや、自動伴奏パターンの種別の指定スイッチ、自動伴奏パターンのオン・オフの指定スイッチなど、種々のスイッチの操作が検出される。自動伴奏パターンがオンとなったときには、CPU21は、演奏モードを、自動伴奏モードに切り換える。演奏モードを示すデータは、RAM23の所定の領域に指定される。音色や自動伴奏パターンの種別を示すデータも、同様に、RAM23の所定の領域に格納される。   For example, in the switch process (step S302), various switch operations such as a tone color designation switch, an automatic accompaniment pattern type designation switch, and an automatic accompaniment pattern on / off designation switch are detected. When the automatic accompaniment pattern is turned on, the CPU 21 switches the performance mode to the automatic accompaniment mode. Data indicating the performance mode is specified in a predetermined area of the RAM 23. Similarly, data indicating the type of timbre and automatic accompaniment pattern is also stored in a predetermined area of the RAM 23.

次いで、CPU21は、鍵盤処理を実行する(ステップS303)。図4は、本実施の形態にかかる鍵盤処理の例をより詳細に示すフローチャートである。鍵盤処理において、まずCPU21は、鍵盤11の鍵を走査する(ステップS401)。鍵の走査結果であるイベント(鍵オン或いはオフ)は、そのイベントが生じた時刻の情報とともに、RAM23に一時的に記憶される。CPU21は、RAM23に記憶された鍵の走査結果を参照して、ある鍵についてイベントが有るか否かを判断する(ステップS402)。ステップS402でYesと判断された場合には、CPU11は、イベントが鍵オンであるか否かを判断する(ステップS403)。   Next, the CPU 21 executes keyboard processing (step S303). FIG. 4 is a flowchart showing in more detail an example of keyboard processing according to the present embodiment. In the keyboard process, first, the CPU 21 scans the keys on the keyboard 11 (step S401). An event (key on or off), which is a key scanning result, is temporarily stored in the RAM 23 together with information on the time at which the event occurred. The CPU 21 refers to the key scanning result stored in the RAM 23 to determine whether there is an event for a certain key (step S402). If it is determined Yes in step S402, the CPU 11 determines whether the event is key-on (step S403).

ステップS403でYes、すなわちイベントが鍵オンであると判断された場合には、CPU21は、当該鍵オンがあった鍵について発音処理を実行する(ステップS404)。発音処理においては、CPU21は、音色指定スイッチで指定されてRAM23に記憶される等していたメロディ鍵用の音色データ、および、鍵の音高を示すデータを読み出してRAM23に一時的に記憶する。これらの音色や音高を示すデータは、後述する音源発音処理(図3のステップS306)において、音源部26に与えられ、音源部26は、この音色および音高を示すデータにしたがって、ROM22の波形データを読み出して、所定の音高の楽音データを生成する。これにより、スピーカ28から所定の楽音が発生する。   If YES in step S403, that is, if it is determined that the event is key-on, the CPU 21 executes a sound generation process for the key that has been key-on (step S404). In the sound generation process, the CPU 21 reads out the tone color data for the melody key that has been specified by the tone color specification switch and stored in the RAM 23 and the data indicating the pitch of the key, and temporarily stores them in the RAM 23. . Data indicating these timbres and pitches is given to the sound source unit 26 in a sound source sound generation process (step S306 in FIG. 3) described later. The sound source unit 26 stores the data in the ROM 22 according to the data indicating the timbres and pitches. The waveform data is read and musical tone data having a predetermined pitch is generated. Thereby, a predetermined musical sound is generated from the speaker 28.

その後、CPU21は、鍵オンがあった鍵についての音高情報(たとえば鍵番号)および押鍵タイミング(たとえば押鍵時刻)をRAM23に格納する(ステップS405)。押鍵タイミングは、割り込みカウンタのカウンタ値に基づいて算出することができる。   Thereafter, the CPU 21 stores the pitch information (for example, key number) and the key pressing timing (for example, key pressing time) for the key that has been turned on in the RAM 23 (step S405). The key pressing timing can be calculated based on the counter value of the interrupt counter.

ステップS403でNoと判断された場合には、イベントが鍵オフであったことになる。したがって、CPU21は、鍵オフになった鍵についての消音処理を実行する(ステップS406)。消音処理においては、CPU21は、消音すべき楽音の音高を示すデータを生成し、RAM23に一時的に記憶する。この場合にも、後述する音源発音処理(ステップS306)において、消音すべき楽音の音色および音高を示すデータが、音源部26に与えられる。音源部26は、与えられたデータに基づいて、所定の楽音を消音する。その後、CPU21は、鍵オフがあった鍵について、押鍵されていた時間(押鍵時間)をRAM23に格納する(ステップS407)。また、このメロディ履歴を格納するにあたり、最初に入力されたメロディ音の音長(ST:Step Time)と、今回入力されたメロディ音の音長との比率(開始音とのST比率)を算出して、メロディ履歴情報に付加して記憶する。   If it is determined No in step S403, the event is key-off. Therefore, the CPU 21 executes a mute process for the key that has been turned off (step S406). In the silencing process, the CPU 21 generates data indicating the pitch of the musical sound to be muted and temporarily stores it in the RAM 23. Also in this case, in the sound source sound generation process (step S306) described later, data indicating the tone color and pitch of the musical sound to be muted is given to the sound source unit 26. The sound source unit 26 mutes a predetermined musical sound based on the given data. Thereafter, the CPU 21 stores the time (key pressing time) during which the key was turned off in the RAM 23 (step S407). Further, when storing the melody history, the ratio of the length of the melody sound input first (ST: Step Time) and the length of the melody sound input this time (ST ratio with the start sound) is calculated. And added to the melody history information and stored.

CPU21は、全ての鍵イベントについて処理が終了したかを判断する(ステップS408)。ステップS408でNoと判断された場合には、ステップS402に戻る。全ての鍵イベントについて処理が終了したら(ステップS408:Yes)、図4の鍵盤処理を終了する。   The CPU 21 determines whether the processing has been completed for all key events (step S408). If it is determined No in step S408, the process returns to step S402. When the process is completed for all the key events (step S408: Yes), the keyboard process in FIG. 4 is terminated.

鍵盤処理(図3のステップ303)が終了すると、CPU21は、曲候補検索処理を実行する(ステップS304)。図5は、本実施の形態にかかる曲候補検索処理の例をより詳細に示すフローチャートである。   When the keyboard process (step 303 in FIG. 3) is completed, the CPU 21 executes a song candidate search process (step S304). FIG. 5 is a flowchart showing in more detail an example of song candidate search processing according to the present embodiment.

曲候補検索処理において、まずCPU21は、先に図4を用いて説明した鍵盤処理で検出された押鍵・離鍵処理によりメロディの入力があったか否かを判断する(ステップS501)。メロディ入力がなかった場合には(ステップS501:No)、図5の曲候補検索処理を終了する。   In the song candidate search process, first, the CPU 21 determines whether or not a melody has been input by the key press / key release process detected by the keyboard process described above with reference to FIG. 4 (step S501). If there is no melody input (step S501: No), the music candidate search process in FIG. 5 is terminated.

メロディ入力があった場合には(ステップS501:Yes)、RAM23の所定のメロディ履歴保存エリアに、入力されたメロディをメロディ履歴として、既に記録されているメロディ履歴に追加して記録する(ステップS502)。RAM23に記録するメロディ履歴のデータ構造の一例を図14に示す。   If there is a melody input (step S501: Yes), the input melody is recorded in the predetermined melody history storage area of the RAM 23 as a melody history in addition to the already recorded melody history (step S502). ). An example of the data structure of the melody history recorded in the RAM 23 is shown in FIG.

図14の例では、上述した楽曲のデータベース(図12)のデータ構造に合わせて、メロディの入力に対して、入力音高、直前音(開始音)との音程、さらに、開始音とのST比率を算出して格納する。この各データの具体的な意義および算出方法については、図12において説明したものと同様である。勿論図12の説明で述べたのと同様、例えば図12のデータ構造を別のものとするのに合わせて、他のデータ構造で記憶することも可能である。   In the example of FIG. 14, in accordance with the data structure of the above-described music database (FIG. 12), the input pitch, the pitch of the immediately preceding sound (starting sound), and the ST of the starting sound are input with respect to the melody input. Calculate and store the ratio. The specific significance and calculation method of each data are the same as those described in FIG. Of course, as described in the description of FIG. 12, for example, the data structure shown in FIG.

なお、このステップS502でのメロディ履歴の記録に際して、例えば、軽微なミスタッチ等を除去するために、入力音長の極めて短い音については、メロディ履歴の記録音から除外することも可能である。例えば、入力されたメロディのうち、押鍵時間(デュレーション)が所定のしきい値以下の音については、メロディ履歴の記録を行わず、また、ステップS503以下の処理を行わずに、曲候補検索処理からリターンするといった処理を行っても良い。   When recording the melody history in step S502, for example, a very short input sound length can be excluded from the recorded sound of the melody history in order to remove a slight mistouch or the like. For example, for the input melody, for a sound whose key pressing time (duration) is equal to or less than a predetermined threshold, the melody history is not recorded, and the song candidate search is performed without performing the processing in step S503 and the subsequent steps. Processing such as returning from processing may be performed.

ステップS502でのメロディ履歴の記録が終わると、CPU21は入力されたメロディ音が最初のメロディ音であるかどうかを判定する(ステップS503)。入力されたメロディ音が最初のメロディ音だった場合は(ステップS503:Yes)、Fリストアップの処理を行う(ステップS504)。このFリストアップの処理は図6に詳細が示してあるので、図6を参照して説明する。   When the recording of the melody history in step S502 ends, the CPU 21 determines whether or not the input melody sound is the first melody sound (step S503). If the input melody sound is the first melody sound (step S503: Yes), F list-up processing is performed (step S504). The details of the F list-up process are shown in FIG. 6, and will be described with reference to FIG.

図6でリストアップするFリストとは、上述の楽曲データベース(図12)から、入力されたメロディ音のうち第1音めの音が一致するものを検索して、リストアップしたものである。   The F list listed in FIG. 6 is a list obtained by searching the music database (FIG. 12) for the melody sound that matches the first sound among the input melody sounds.

第1音めのみで楽曲と比較するため、必ずしも一つの楽曲に絞り込めるわけではなく、またユーザが移調して弾いている場合等も考慮すれば、必ずしも正確な絞り込みが行えるとは限らないが、例えば、ユーザがメロディを弾く場合に原曲キーで弾くことが多いと仮定すれば、原曲キーで記録された楽曲データベースを、入力メロディ音の第1音によって検索することで、ある程度の楽曲の絞り込みは可能となる。   Since only the first sound is compared with the music, it is not always possible to narrow down to a single music, and considering the case where the user is transposing and playing, it is not always possible to narrow down accurately. For example, if it is assumed that the user often plays the original music key when playing the melody, the music database recorded with the original music key is searched by the first sound of the input melody sound, so that a certain amount of music Can be narrowed down.

図6では、CPU21はまず、変数FNに開始音、すなわち入力されたメロディの第1音めの情報を取得する(ステップS601)。次にCPU21は、メロディ開始音FNと、楽曲データベースの開始音(各楽曲のメロディの開始音)として登録されている音が一致する楽曲を検索する(ステップS602)。   In FIG. 6, the CPU 21 first acquires the start sound, that is, the information of the first sound of the input melody in the variable FN (step S601). Next, the CPU 21 searches for a music that matches the melody start sound FN and the sound registered as the start sound of the music database (the melody start sound of each music) (step S602).

そして、CPU21は、ステップS602で検索された各楽曲をFリストとしてリストアップする(ステップS603)。この際、該当する楽曲が複数あった場合は、それらを全てリストアップすることとしてもよいし、ランダムに選択した所定数の楽曲をリストアップすることとしてもよい。また、該当する楽曲が無かった場合は、該当曲無しとのフラグ等を返すようにすることとしても良い。   Then, the CPU 21 lists each music searched in step S602 as an F list (step S603). At this time, if there are a plurality of corresponding music pieces, all of them may be listed, or a predetermined number of randomly selected music pieces may be listed. If there is no corresponding music, a flag indicating that there is no corresponding music may be returned.

このようにして作成される、Fリストの例を図15に示す。ここでは、図14に示すメロディ入力の第1音「C」が入力されたときに、図12および図13に示す楽曲データベースを検索して得られたFリストの例を示している。この場合、メロディ入力の第1音「C」は、楽曲データベースの曲番号1から9の全楽曲と一致するので、曲番号1から9の全楽曲がFリストにリストアップされている。   An example of the F list created in this way is shown in FIG. Here, an example of an F list obtained by searching the music database shown in FIGS. 12 and 13 when the first melody input sound “C” shown in FIG. 14 is input is shown. In this case, since the first sound “C” of the melody input matches all the music pieces of the music numbers 1 to 9 in the music database, all the music pieces of the music numbers 1 to 9 are listed in the F list.

なお、楽曲につけられた順位は、あくまで一例として、楽曲データベースを検索して該当すると判断された楽曲を順にリストに格納した場合を示している。ここでは、楽曲データベースの1から順にリストに格納され、そのまま順位が付けられた場合を示している。もっとも、これ以外にも、これらの複数の楽曲について、全て同じ順位(1位)として記録する事も可能である。   Note that the ranks assigned to the songs indicate, as an example, a case where the music database is searched and the songs determined to be applicable are sequentially stored in the list. Here, a case is shown in which the music database is stored in the list in order from 1 and the ranking is given as it is. However, in addition to this, it is also possible to record the plurality of music pieces as the same rank (first place).

このようにして図5のステップS504を介して、図6に示した処理によってFリストが作成されると、CPU21は、図5のフローチャートに処理を戻し、ステップS511でFリストを総合リストとして(ステップS511)、曲候補検索処理を終了する。   When the F list is created by the process shown in FIG. 6 through step S504 in FIG. 5, the CPU 21 returns the process to the flowchart in FIG. 5, and sets the F list as a comprehensive list in step S511 ( Step S511), the song candidate search process is terminated.

一方、ステップS503に戻って、入力されたメロディ音が最初の音でなかった場合には(ステップS503:No)、入力されているメロディに対するKey(調性)が確定されているか否かを判定する(ステップS505)。   On the other hand, returning to step S503, if the input melody sound is not the first sound (step S503: No), it is determined whether or not the Key (tonality) for the input melody has been confirmed. (Step S505).

このKey(調性)が確定しているか否かは、後述する図3のステップS305におけるキー(調性)判別処理において、「確定キー」としてキーが確定されているか否かによって判断することが可能である。このキー(調性)判別処理の詳細については後述する。   Whether or not the key (tonality) has been determined can be determined by determining whether or not the key is determined as a “confirmation key” in the key (tonality) determination process in step S305 of FIG. 3 described later. Is possible. Details of the key (tonality) discrimination process will be described later.

ステップS505において、Key(調性)が確定していると判定された場合には(ステップS505:Yes)、CPU21は、ステップS506へ処理を進め、Kリストのリストアップを行う。このKリストアップの処理は図7に詳細が示してあるので、図7を参照して説明する。   If it is determined in step S505 that Key (tonality) has been confirmed (step S505: Yes), the CPU 21 proceeds to step S506 to list the K list. The details of this K list-up process are shown in FIG. 7, and will be described with reference to FIG.

図7でリストアップするKリストとは、入力されているメロディのKey(調性)が確定しているとの判定結果に基づき、上述の楽曲データベース(図12)に記録されている各楽曲を、上記確定していると判定されたKey(調性)に移調させてから、入力メロディ履歴との比較を行ってリストアップを行うものである。   The K list listed in FIG. 7 refers to each song recorded in the above-described song database (FIG. 12) based on the determination result that the key (tonality) of the input melody is confirmed. The key is shifted to the key (tonality) determined to be fixed, and then compared with the input melody history for listing.

このような処理を行うことで、ユーザがメロディを任意の調に移調して弾いているような場合でも、楽曲データベースに登録されている各楽曲のキー(調性)にかかわらず、迅速に楽曲を検索・特定して正しいコード付けが行えるようになる。   By performing such processing, even when the user is transposing and playing a melody in an arbitrary key, the music can be quickly played regardless of the key (tonality) of each music registered in the music database. You can search for and specify the correct code.

図7では、CPU21はまず、変数Keyに、確定したと判定された入力メロディの調の情報を取得する(ステップS701)。次にCPU21は、上述の楽曲データベース(図12)に登録されている各楽曲のキー(調性)と、変数Keyに取得したメロディの確定調とに基づいて、楽曲と入力メロディの比較を行う(ステップS702)。   In FIG. 7, the CPU 21 first acquires key information of the input melody determined to be confirmed in the variable Key (step S701). Next, the CPU 21 compares the music with the input melody based on the key (tonality) of each music registered in the music database (FIG. 12) and the final key of the melody acquired in the variable Key. (Step S702).

この処理をさらに具体的に説明する。例えば、変数Keyに取得された入力メロディの確定調がF(ヘ長調)であった場合を考える。今、仮に曲番号4の「アーユースリーピング」と比較を行うとすると、この曲の登録されているKeyは「C」すなわちハ長調であるので、Key「F」とKey「C」の間の半音数を算出する。これは周知の音楽理論に基づいて「半音数=5」と算出できるので、曲番号4「アーユースリーピング」の登録されているメロディ(図12の曲番号4のNote欄最上行)の各音に、半音数+5の操作を行って、Fキーに移調を行う。上記の例の場合は、元のメロディ「CDECCDE」であったものが、半音数+5の移調操作によって「FGAFFGA」となる。   This process will be described more specifically. For example, consider a case where the definite tone of the input melody acquired in the variable Key is F (F major). If the comparison is made with “Early Sleeping” of the song number 4, the registered key of this song is “C”, that is, in C major, so a semitone between the key “F” and the key “C”. Calculate the number. Since this can be calculated as “semitone number = 5” based on the well-known music theory, each tone of the melody registered with the song number 4 “Early Sleeping” (the top row of the Note column of the song number 4 in FIG. 12) is recorded. , Perform semitone +5 operation and transpose to F key. In the case of the above example, the original melody “CDECCE” becomes “FGAFFGA” by transposition of semitone +5.

そして、移調された楽曲データベースのメロディ音の各音と、入力されているメロディ履歴の各音とが比較される。比較された結果、所定の条件を満たす楽曲がステップS702における検索結果としてピックアップされる。   Then, each sound of the melody sound in the transposed music database is compared with each sound of the input melody history. As a result of the comparison, music that satisfies a predetermined condition is picked up as a search result in step S702.

ここで、ピックアップされる条件としては、種々のものが考えられる。例えば、最初の音から最新の音までの全ての音高が、入力されたメロディ履歴と合っている楽曲データベースの楽曲をピックアップすることが可能である。あるいは、入力されたメロディ履歴の過去の音から現在の音まで、連続して合っている音数が多い楽曲から順に、所定数の楽曲をピックアップすることが可能である。さらに、最初の音から現在の音までで、音を比較して、合っている音数(確率)の高いものから順に所定数の楽曲をピックアップするなどの方法も考えられる。   Here, various conditions can be considered for the pickup. For example, it is possible to pick up music in the music database in which all pitches from the first sound to the latest sound match the inputted melody history. Alternatively, a predetermined number of music pieces can be picked up in order from music pieces having a large number of consecutively matched sounds from the past sound to the current sound in the input melody history. Furthermore, a method of comparing sounds from the first sound to the current sound and picking up a predetermined number of music pieces in descending order of the number of matching sounds (probability) may be considered.

続いてCPU21は、ステップS702での検索の結果、ピックアップされた曲があったか否かを判断する(ステップS703)。そして、ピックアップされた曲がなかった場合は、このKリストのリストアップ処理を終了する(ステップS703:No)。   Subsequently, the CPU 21 determines whether or not there is a song that has been picked up as a result of the search in step S702 (step S703). If there is no song that has been picked up, the list-up process of this K list is terminated (step S703: No).

一方、ピックアップされた曲が存在していた場合は(ステップS703:Yes)、入力されたメロディ履歴の各音について、メロディ開始音(最初の音)とのST比率を算出して、ピックアップされた各曲について、楽曲データベース上に記録されている「開始音とのST比率」のデータと比較を行い、「正解率」を算出する(ステップS704)。   On the other hand, if there is a picked-up song (step S703: Yes), the ST ratio of each input melody history sound to the melody start sound (first sound) is calculated and picked up. Each song is compared with the data of “ST ratio with start sound” recorded on the song database, and the “correct answer rate” is calculated (step S704).

ステップS704における「正解率の算出」についても、種々の方法が可能である。   Various methods are possible for the “calculation of correct answer rate” in step S704.

例えば、入力されたメロディ履歴の各音と、メロディ開始音とのST比率を求め、この入力メロディのST比率と、楽曲データベース上で登録されているST比率との差に基づいて各音の「正解率」を決定して、これらを加え合わせる(平均する)方法などが考えられる。これはすなわち、例えば曲番号4「アーユースリーピング」の2音目の「D」について、楽曲データベース上は開始音と等しい長さとしてST比率=「1」が記録されているが、これに反して、実際に演奏されたメロディでは、第2音めの音の長さが、メロディ開始音に対して、90%だったり、110%だったりした場合、この第2音めの音に対する正解率を「90点」とする、といった具合である。   For example, the ST ratio between each sound of the input melody history and the melody start sound is obtained, and the "" of each input melody and the ST ratio registered in the music database are determined based on the difference between the ST ratio of each sound. A method of determining the “accuracy rate” and adding (averaging) these may be considered. That is, for example, for the second sound “D” of the music number 4 “Early Sleeping”, the ST ratio = “1” is recorded on the music database as the length equal to the start sound, but contrary to this. In the melody actually played, if the length of the second sound is 90% or 110% of the melody start sound, the correct answer rate for the second sound is For example, “90 points”.

上述のようにステップS704では、入力されたメロディ履歴に対して、各楽曲が、どの程度近いか(似ているか)に相当する指標である、「各楽曲の正解率」が算出できる。そして、この「各楽曲の正解率」を参照して、正解率の高いものから順に所定数の楽曲をKリストとしてリストアップし(ステップS705)、このKリストアップの処理を終了する。   As described above, in step S704, the “accuracy rate of each song”, which is an index corresponding to how close (similar) each song is to the input melody history, can be calculated. Then, with reference to the “accuracy rate of each piece of music”, a predetermined number of songs are listed as a K list in descending order of accuracy rate (step S705), and the K list-up process ends.

このようにして作成される、Kリストの例を図16に示す。   An example of the K list created in this way is shown in FIG.

ここでは、図16(A)に示すようなメロディが入力された場合に、図12および図13に示す楽曲データベースを検索して得られたKリストの例を図16(B)に示している。   Here, FIG. 16B shows an example of a K list obtained by searching the music database shown in FIGS. 12 and 13 when a melody as shown in FIG. 16A is input. .

図16(A)に示すように、メロディ入力は順に「FGAB♭」の4音が入力されている。また、この入力メロディに基づき、確定キーとしてF(ヘ長調)が得られているものとする。ここで、図16(A)に示すメロディ入力は、演奏者が鍵盤11を弾いて入力したメロディと仮定すると、人間の演奏はある程度揺らぎや不正確さを含む場合がある。この点を考慮した例として、図16(A)の例では、第2音めの「G」がやや短めに押鍵されて、開始音とのST比率が1よりやや小さめの0.9となった場合を示している。また第3音めの「A」の音は、やや長めに押鍵されて、開始音とのST比率が1よりやや大きめの1.1となっている場合を示している。   As shown in FIG. 16A, four sounds of “FGAB ♭” are inputted in order for the melody input. Also, it is assumed that F (F major) is obtained as a confirmation key based on this input melody. Here, assuming that the melody input shown in FIG. 16A is a melody input by a player playing the keyboard 11, human performance may include fluctuations and inaccuracies to some extent. As an example in consideration of this point, in the example of FIG. 16A, the second tone “G” is depressed slightly short, and the ST ratio with the start tone is 0.9, which is slightly smaller than 1. It shows the case. The third sound “A” indicates a case where the key is pushed a little longer and the ST ratio with the start sound is 1.1, which is slightly larger than 1.

このような入力メロディに対して、図7のKリストアップ処理を行うと、まず、ステップS701で変数Keyに確定した調(キー)、すなわち「F」が記録され、次にステップS702で、図12の楽曲データベースの各曲について、確定キーである「F」に移調させた上で、音高連結が比較される。すなわち、各楽曲データベースの曲のうち、ヘ長調に移調して「FGAB♭」との音高を持つもの、すなわち、ハ長調では第1音から第4音まで、「CDEF」という音高連結を持つ楽曲が検索される。従って、この場合、曲番号1の「こぎつね」と、曲番号3の「かえるのうた」が、音高連結の合う該当曲として抽出される。   When the K list-up process of FIG. 7 is performed on such an input melody, first, the key (key) determined in the variable Key in step S701, that is, “F” is recorded, and then in step S702, the figure is displayed. For each song in the twelve song databases, the pitch connection is compared after transposing to “F” which is the confirmation key. That is, among the songs in each music database, those that are transposed in F major and have a pitch of “FGAB ♭”, that is, in C major, the pitch connection of “CDEF” is made from the first sound to the fourth sound. The music you have is searched. Therefore, in this case, the song number 1 “Kototsune” and the song number 3 “Kaeru no Uta” are extracted as the corresponding songs in which the pitches are connected.

該当曲があったため、ステップS703はYesとなり、ステップS704に進み、各該当曲ごとに、ST比率の正解率:Pを計算する。ここでは、楽曲データベースの該当曲のi番目の音符のST値:STdb(i)、と、入力メロディのi番目の音符のST値:STin(i)との値を用いて、以下の式により求めた例を示している。   Since there is a corresponding song, step S703 is Yes, and the process proceeds to step S704, where the correct rate of the ST ratio: P is calculated for each corresponding song. Here, using the values of ST value: STdb (i) of the i-th note of the corresponding song in the music database and ST value: STin (i) of the i-th note of the input melody, The obtained example is shown.

Figure 2017027087
Figure 2017027087

(1)式に示すように、ここでは、各音のST値について、データベース上の値と入力値との差分の絶対値を、基準とするデータベース上の当該音のST値で除算して比率値とし、これを100分率値として、ここまで入力された音のうち、第2音めから最新の音までの値を平均し、100から減じたものを「正解率」として用いている。   As shown in the equation (1), here, for the ST value of each sound, the ratio is obtained by dividing the absolute value of the difference between the value on the database and the input value by the ST value of the sound on the reference database. As a value, this is set as a 100-percentage value. Among the sounds input so far, values from the second sound to the latest sound are averaged, and a value obtained by subtracting from 100 is used as the “correct answer rate”.

すなわち、図16(A)の入力メロディを曲番号1の「こぎつね」と比較した場合、第2音めについて、ST値の差分値は、0.1であるので、データベース中の当該音のST値(=1)で除算して、0.1となり、100分率化して10となる。同様に、第3音めについても10、第4音めについては0となり、これらを加えると、20点となる。   That is, when the input melody in FIG. 16A is compared with “Kogitsune” of the music number 1, the difference value of the ST value for the second sound is 0.1, so that the sound in the database By dividing by the ST value (= 1), it becomes 0.1 and becomes 100 by dividing into 100. Similarly, the third tone is 10 and the fourth tone is 0, and when these are added, 20 points are obtained.

よってこれらの平均値は、(10+10+0)÷3=約6.7点となり、これを100点から減じて、正解率=93.3点と求められる。   Therefore, these average values are (10 + 10 + 0) ÷ 3 = about 6.7 points, and this is subtracted from 100 points to obtain the correct answer rate = 93.3 points.

なお、(1)式で、i=2からループ開始しており、第1音めのST値の比率を計算に入れていないのは、ST比率を第1音めを基準として判定しているため、第1音めのST比率は常に100%となるため除外しているものである。   In equation (1), the loop starts from i = 2, and the ST value ratio of the first note is not taken into account in the calculation. The ST ratio is determined based on the first note. Therefore, the ST ratio of the first sound is always 100% and is excluded.

このようにして、音高連結が一致した各曲の正解率が求められたら、ステップS705で、その点数の高い順にKリストをリストアップする。図16の例では、曲番号1の「こぎつね」と曲番号3の「かえるのうた」で、正解率の点数に差が無いため、便宜上、順位を付けて記録した例を示している。このような同点の曲同士の順位付けについては、Fリストにて説明したのと同様の方法で順位を決定することが可能である。   In this way, when the correct answer rate of each music piece whose pitch connection is the same is obtained, in step S705, the K list is listed in descending order. In the example of FIG. 16, since there is no difference in the score of the correct answer rate between “Kototsune” of the music number 1 and “Kaeru no Uta” of the music number 3, an example in which ranking is given for convenience is shown. With respect to the ranking of the tunes having the same score, the ranking can be determined by the same method as described in the F list.

このようにして図5のステップS506を介して、図7に示した処理によってKリストが作成されると、CPU21は、図5のフローチャートに処理を戻し、ステップS510でKリストを総合リストとして(ステップS510)、曲候補検索処理を終了する。   When the K list is created through the process shown in FIG. 7 through step S506 in FIG. 5, the CPU 21 returns the process to the flowchart in FIG. 5, and sets the K list as a comprehensive list in step S510 ( Step S510), the music candidate search process is terminated.

他方、ステップS505で、Key(調性)が確定していないと判定された場合には(ステップS505:No)、CPU21は、ステップS507へ処理を進め、Nリストのリストアップを行う。このNリストアップの処理は図8に詳細が示してあるので、図8を参照して説明する。   On the other hand, if it is determined in step S505 that the key (tonality) is not fixed (step S505: No), the CPU 21 proceeds to step S507 to list the N list. The details of this N list-up process are shown in FIG. 8, and will be described with reference to FIG.

図8でリストアップするNリストとは、入力メロディ履歴の音高と、上述の楽曲データベース(図12)に記録されている各楽曲のメロディ音高データ(Note欄最上行データ)との比較を行って、リストアップを行うものである。   The N list listed in FIG. 8 is a comparison between the pitch of the input melody history and the melody pitch data (note column top row data) of each song recorded in the above-described song database (FIG. 12). Go and list.

図8では、CPU21はまず、入力されたメロディ履歴のデータ(図14)から、入力音高データを音高連結データとして取得する(ステップS801)。図14のような入力の例を考え、仮にいま、メロディの第3音まで入力がなされた場合を仮定すると、このステップS801では、入力メロディの音高連結として、「CDE」というデータが取得される。   In FIG. 8, the CPU 21 first acquires input pitch data as pitch-linked data from the input melody history data (FIG. 14) (step S801). Considering an example of input as shown in FIG. 14, assuming that the input of up to the third sound of the melody is assumed, in this step S801, data “CDE” is acquired as the pitch connection of the input melody. The

続いてCPU21は、この取得された入力メロディの音高連結データと、楽曲データベース(図12)の各楽曲のメロディ音高データ(Note欄最上行データ)とを比較して、音高が一致する楽曲を検索する(ステップS802)。   Subsequently, the CPU 21 compares the acquired pitch connection data of the input melody with the melody pitch data (Note column top row data) of each song in the song database (FIG. 12), and the pitches match. The music is searched (step S802).

例えば、上述のように入力メロディが「CDE」である場合に、図12の例の楽曲データベースを検索すると、図12に示されている曲番号1から曲番号9の9曲は、すべて、メロディの音高連結が開始音から順に「CDE」であるので、この場合はステップS802で、図12の9曲全てが検索結果としてピックアップされることとなる。ここでも、最初の音から最新の音まで全ての音高が一致している楽曲をピックアップすることとする以外にも、ステップS702における楽曲ピックアップ方法と同様に、種々の方法での検索が可能である。   For example, when the input melody is “CDE” as described above and the music database in the example of FIG. 12 is searched, all the 9 songs from song number 1 to song number 9 shown in FIG. In this case, in step S802, all nine songs in FIG. 12 are picked up as search results. Here, in addition to picking up the music whose pitches all match from the first sound to the latest sound, similar to the music pick-up method in step S702, search by various methods is possible. is there.

続いてCPU21は、ステップS802での検索の結果、ピックアップされた曲があったか否かを判断する(ステップS803)。そして、ピックアップされた曲がなかった場合は、このNリストのリストアップ処理を終了する(ステップS803:No)。   Subsequently, the CPU 21 determines whether or not there is a tune that has been picked up as a result of the search in step S802 (step S803). If there is no song that has been picked up, the list-up process for the N list is terminated (step S803: No).

一方、ピックアップされた曲が存在していた場合は(ステップS803:Yes)、入力されたメロディ履歴の各音について、メロディ開始音(最初の音)とのST比率を算出して、ピックアップされた各曲について、楽曲データベース上に記録されている「開始音とのST比率」のデータと比較を行い、「正解率」を算出する(ステップS804)。この正解率の算出の具体的な方法については、ステップS704で説明したのと同様である。   On the other hand, if there is a tune that has been picked up (step S803: Yes), the ST ratio of the input melody history sound to the melody start sound (first sound) is calculated and picked up. Each song is compared with the data of “ST ratio with start sound” recorded on the song database, and the “correct answer rate” is calculated (step S804). The specific method for calculating the accuracy rate is the same as that described in step S704.

そして、ステップS804において算出された、「各楽曲の正解率」を参照して、正解率の高いものから順に所定数の楽曲をNリストとしてリストアップし(ステップS805)、このNリストアップの処理を終了する。   Then, referring to the “accuracy rate of each song” calculated in step S804, a predetermined number of songs are listed in order from the one with the highest accuracy rate (step S805), and this N list processing is performed. Exit.

このようにして作成される、Nリストの例を図17に示す。   An example of the N list created in this way is shown in FIG.

ここでは、図17(A)に示すようなメロディが入力された場合に、図12および図13に示す楽曲データベースを検索して得られたNリストの例を図17(B)に示している。   Here, FIG. 17B shows an example of an N list obtained by searching the music database shown in FIGS. 12 and 13 when a melody as shown in FIG. 17A is input. .

図17(A)に示すように、メロディ入力は順に「CDE」の3音が入力されている。また、図17(A)に示すメロディ入力の例では、CDEの全てが、同じ長さ(ST値)で、第1音とのST比率が1である場合を仮定している。   As shown in FIG. 17A, three sounds of “CDE” are input in order for melody input. In the example of melody input shown in FIG. 17A, it is assumed that all CDEs have the same length (ST value) and the ST ratio with the first sound is 1.

このような入力メロディに対して、図8のNリストアップ処理を行うと、まず、ステップS801で図17(A)のメロディ履歴データから音高連結である「CDE」が抽出される。次にステップS802で、図12の楽曲データベースの各曲について、音高連結が比較される。ここで、本図のNリストのリストアップでは、Kリストのリストアップ時と異なり、キーが定まっていないため、楽曲データベースの音高をそのまま用いて比較を行う。従って、この場合、曲番号1から曲番号9までの全ての曲が、開始から第3音まで「CDE」の音高を持つため、ステップS802では9曲全て候補として抽出されることとなる。   When the N list-up process of FIG. 8 is performed on such an input melody, “CDE”, which is a pitch connection, is first extracted from the melody history data of FIG. 17A in step S801. Next, in step S802, the pitch connection is compared for each song in the song database of FIG. Here, in the list of the N list in this figure, unlike the list of the K list, since no key is determined, comparison is performed using the pitches of the music database as they are. Therefore, in this case, since all the songs from the song number 1 to the song number 9 have the pitch “CDE” from the start to the third sound, all nine songs are extracted as candidates in step S802.

該当曲があったため、ステップS803はYesとなり、ステップS804に進み、各該当曲ごとに、ST比率の正解率:Pを計算する。この正解率の計算は、ここではKリストの場合のステップS704と同様、式(1)を用いて計算している。   Since there is a corresponding song, the result of step S803 is Yes, and the process proceeds to step S804, where the correct rate of the ST ratio: P is calculated for each corresponding song. The calculation of the correct answer rate is performed using the equation (1) as in step S704 in the case of the K list.

一例として、曲番号8の「とんび」と比較を行って正解率を求める場合を説明する。この場合、第2音めの「D」については、ST値の差分値は、0.67となるので、データベース中の当該音のST値(=0.33)で除算すると、約2となる(便宜上、0.33=1/3として、0.67=2/3として示している)。従って、この値を100分率化して200となる。同様に第3音の「E」についても、差分値の比率が200と算出される。   As an example, the case where the correct answer rate is obtained by comparing with “Tonbi” of the music number 8 will be described. In this case, for the second sound “D”, the difference value of the ST value is 0.67. Therefore, when dividing by the ST value (= 0.33) of the sound in the database, it becomes approximately 2. (For convenience, 0.33 = 1/3 and 0.67 = 2/3 are shown). Therefore, this value is converted into 100 fractions and becomes 200. Similarly, for the third sound “E”, the ratio of the difference values is calculated as 200.

よって、これらの平均値は、(200+200)÷2=200点となり、これを100点から減じて、正解率=−100点と求められる(図中では、−を▲で表している)。   Therefore, these average values are (200 + 200) / 2 = 200 points, and this is subtracted from 100 points to obtain the correct answer rate = −100 points (in the figure, − is represented by ▲).

このようにして、各曲の正解率が求められたら、ステップS805で、その点数の高い順にNリストをリストアップする。このようにして作成されたNリストの例を図17(B)に示してある。一部の曲について正解率が同点であり、この順位付けについては、FリストやKリストと同様に、曲番号の若い順に順位を付けた例を示しているが、同順位としたり、他の方法で順位付けをしても差し支えない。   In this way, when the correct answer rate of each song is obtained, in step S805, the N list is listed in descending order. An example of the N list created in this way is shown in FIG. The correct answer rate is the same for some songs, and for this ranking, as in the F list and K list, an example is shown in which the song numbers are ranked in ascending order. There is no problem even if ranking is done by the method.

このようにして図5のステップS507を介して、図8に示した処理によってNリストが作成されると、CPU21は、図5のフローチャートに処理を戻してステップS508へ処理を進め、Dリストのリストアップを行う。このDリストアップの処理は図9に詳細が示してあるので、図9を参照して説明する。   When the N list is created through the process shown in FIG. 8 through step S507 in FIG. 5, the CPU 21 returns the process to the flowchart in FIG. 5 and proceeds to step S508. List up. The details of the D listing process are shown in FIG. 9, and will be described with reference to FIG.

図9でリストアップするDリストとは、入力メロディ履歴の音程関係と、上述の楽曲データベース(図12)に記録されている各楽曲のメロディの音程関係(Note欄2行目)のデータを用いて比較を行うものである。   The D list listed in FIG. 9 uses data of the pitch relationship of the input melody history and the pitch relationship of the melody of each song recorded in the above-described song database (FIG. 12) (Note column 2nd line). Comparison.

図8のNリストでは、入力メロディと楽曲データベースの音高そのものを比較していたのに対して、本図9のDリストでは、音程関係を用いて比較することとしている。これにより、入力メロディが、楽曲データベースに登録されたメロディと異なる調に移調されて演奏されていた場合であっても、楽曲データベースに登録された、相対的な音程関係を用いて比較を行うことができ、入力メロディの調性によらず楽曲の比較ができることとなる。   In the N list of FIG. 8, the input melody and the pitch of the music database are compared, whereas in the D list of FIG. 9, the comparison is made using the pitch relation. As a result, even if the input melody is played in a different key from the melody registered in the music database, the comparison is performed using the relative pitch relationship registered in the music database. Thus, the music can be compared regardless of the tone of the input melody.

図9では、CPU21はまず、入力されたメロディ履歴のデータ(図14)から、隣り合う2つの音の音高を比較して求めた「開始音/直前音との音程」のデータを、音程間隔データとして取得する(ステップS901)。   In FIG. 9, first, the CPU 21 obtains the “pitch of the start sound / previous sound” data obtained by comparing the pitches of two adjacent sounds from the input melody history data (FIG. 14). Obtained as interval data (step S901).

例えば、仮にいま入力メロディが「FGA」であったとすると、音程関係としては、第1音「F」と第2音「G」の音程である「2」、および、第2音「G」と第3音「A」の音程関係である「2」が取得されることとなる。   For example, if the input melody is now “FGA”, the pitch relationship is “2”, which is the pitch of the first sound “F” and the second sound “G”, and the second sound “G”. “2”, which is the pitch relationship of the third sound “A”, is acquired.

続いてCPU21は、この取得された入力メロディの音程間隔データと、楽曲データベース(図12)の各楽曲の「開始音/直前音との音程」データ(Note欄第2行目データ)とを比較して、音程間隔が一致する楽曲を検索する(ステップS902)。   Subsequently, the CPU 21 compares the acquired pitch interval data of the input melody with the “pitch of the start / previous tone” data (Note column second line data) of each song in the song database (FIG. 12). Then, the music having the same pitch interval is searched (step S902).

再度、上記の「FGA」と入力された例で説明すると、入力メロディの音程関係は、最初から順に「2、2」であるのに対し、図12の例の楽曲データベースに登録されている9曲は、いずれも、最初からの音程関係が順に「2、2」であるので、ステップS902で、図12の9曲全てが検索結果としてピックアップされることとなる。   Again, in the example in which “FGA” is input, the pitch relationship of the input melody is “2, 2” in order from the beginning, whereas it is registered in the music database in the example of FIG. Since all of the songs have a pitch relationship of “2, 2” in order from the beginning, all nine songs in FIG. 12 are picked up as search results in step S902.

この場合、上述したDリストの趣旨である「楽曲データベースと異なる調に移調してメロディが入力された場合でも楽曲を検索できる」という点に鑑み、入力メロディと楽曲の、各開始音の絶対的な音高は比較しないものとする。上記の「FGA」と入力された例で説明すると、入力メロディの開始音の音高「F」と、各楽曲の開始音の音高「C」は異なっているが、これについては比較を行わず、異なっている曲であってもピックアップされるようにする。   In this case, in view of the point that the above-mentioned D list is “a melody can be searched even when a melody is transposed in a different key from the music database”, the absolute of each start sound of the input melody and the music The pitches are not compared. In the example where “FGA” is input as described above, the pitch “F” of the start tone of the input melody is different from the pitch “C” of the start tone of each music piece. First, make sure that even different songs are picked up.

これにより、上記の「FGA」とメロディが入力された場合、図8のNリストの検索処理では、各楽曲の音高と全く異なる音高であるためにピックアップされないが、本図9のDリストの検索処理においては、音高そのものは異なっていても「CDE」から始まる楽曲がピックアップされることとなる。   Thus, when the above-mentioned “FGA” and melody are input, the N list search process in FIG. 8 is not picked up because the pitches are completely different from the pitches of each music, but the D list in FIG. In this search process, a musical piece starting from “CDE” is picked up even if the pitches themselves are different.

続いてCPU21は、ステップS902での検索の結果、ピックアップされた曲があったか否かを判断する(ステップS903)。そして、ピックアップされた曲がなかった場合は、このDリストのリストアップ処理を終了する(ステップS903:No)。   Subsequently, the CPU 21 determines whether or not there is a tune that has been picked up as a result of the search in step S902 (step S903). If there is no song that has been picked up, the D list listing process is terminated (step S903: No).

一方、ピックアップされた曲が存在していた場合は(ステップS903:Yes)、入力されたメロディ履歴の各音について、メロディ開始音(最初の音)とのST比率を算出して、ピックアップされた各曲について、楽曲データベース上に記録されている「開始音とのST比率」のデータと比較を行い、「正解率」を算出する(ステップS904)。この正解率の算出の具体的な方法については、ステップS704で説明したのと同様である。   On the other hand, if there is a picked-up song (step S903: Yes), the ST ratio of each input melody history sound to the melody start sound (first sound) is calculated and picked up. Each song is compared with the data of “ST ratio with start sound” recorded on the song database to calculate the “correct answer rate” (step S904). The specific method for calculating the accuracy rate is the same as that described in step S704.

そして、ステップS904において算出された、「各楽曲の正解率」を参照して、正解率の高いものから順に所定数の楽曲をDリストとしてリストアップし(ステップS905)、このDリストアップの処理を終了する。   Then, with reference to the “accuracy rate of each song” calculated in step S904, a predetermined number of songs are listed in order from the one with the highest accuracy rate as a D list (step S905). Exit.

このようにして作成される、Dリストの例を図18に示す。   An example of the D list created in this way is shown in FIG.

ここでは、図18(A)に示すようなメロディが入力された場合に、図12および図13に示す楽曲データベースを検索して得られたNリストの例を図18(B)に、Dリストの例を図18(C)に示している。   Here, when a melody as shown in FIG. 18A is input, an example of an N list obtained by searching the music database shown in FIGS. 12 and 13 is shown in FIG. An example of this is shown in FIG.

図18(A)に示すように、メロディ入力は順に「FGA」の3音が入力されている。また、図18(A)に示すメロディ入力の例では、FGAの全てが、同じ長さ(ST値)で、第1音とのST比率が1である場合を仮定している。   As shown in FIG. 18A, three sounds of “FGA” are inputted in order for the melody input. In the example of melody input shown in FIG. 18A, it is assumed that all FGAs have the same length (ST value) and the ST ratio with the first sound is 1.

既に説明したように、図18(A)のメロディ入力に対して、図12の楽曲データベースの各曲の音高連結を比較すると、「FGA」で始まっている楽曲は無いので、図18(B)に示すように、Nリストでは、この図12の曲1から曲9については一曲もリストアップがされない。なお、楽曲データベースにさらに他の曲が登録されており、その中に「FGA」で始まる曲があった場合は、この図18(B)のNリストにピックアップされることとなる。   As already described, when the pitch connection of each song in the song database in FIG. 12 is compared with the melody input in FIG. 18A, there is no song that begins with “FGA”. As shown in FIG. 12, in the N list, none of the songs 1 to 9 in FIG. 12 are listed. If another song is registered in the song database and there is a song beginning with “FGA”, it is picked up in the N list of FIG. 18B.

このような入力メロディに対して、図9のDリストアップ処理を行うと、まず、ステップS901で図18(A)のメロディ履歴データから音程間隔のデータである、第1音(開始音)〜第2音の音程「2」、並びに、第2音〜第3音の音程「2」が抽出される。次にステップS902で、この抽出された音程間隔に対して、図12の楽曲データベースの各曲について音程間隔が比較される。   When the D list-up process in FIG. 9 is performed on such an input melody, first, in step S901, the first sound (starting sound), which is pitch interval data from the melody history data in FIG. The pitch “2” of the second sound and the pitch “2” of the second to third sounds are extracted. Next, in step S902, the pitch interval is compared for each song in the song database of FIG. 12 with respect to the extracted pitch interval.

ここで、本図のDリストのリストアップでは、Nリストのリストアップ時と異なり、音高連結ではなく音程間隔を比較する。従って、入力メロディが、楽曲データベースに登録されたメロディと異なる調に移調されて演奏されていた場合であっても、楽曲データベースに登録された、相対的な音程関係を用いて比較を行うことができる。これにより、図18(B)のNリストではリストアップされなかった楽曲についても、Dリストとしてリストアップがなされる可能性がある。   Here, unlike the list of the N list, the list of the D list in this figure compares the pitch intervals rather than the pitch connection. Therefore, even if the input melody is played in a different key from the melody registered in the music database, the comparison can be performed using the relative pitch relationship registered in the music database. it can. As a result, there is a possibility that songs that are not listed in the N list in FIG. 18B are listed as the D list.

本図18(A)の入力に対しても、図12の楽曲データベースの曲番号1から曲番号9までの9曲全てにおいて、音程間隔が、第1音(開始音)〜第2音の音程「2」、並びに、第2音〜第3音の音程「2」となっているため、ステップS902では、これらの9曲全てが候補として抽出される。   Also for the input of FIG. 18A, the pitch interval of all nine songs from song number 1 to song number 9 in the song database of FIG. 12 is the pitch of the first sound (start sound) to the second sound. Since “2” and the pitch of the second to third sounds are “2”, in step S902, all these nine songs are extracted as candidates.

該当曲があったためステップS903はYesとなり、ステップS904に進み、各該当曲ごとにST比率の正解率:Pを計算する。この正解率の計算は、Kリストの場合のステップS704や、Nリストの場合のステップS804と同様、式(1)を用いて計算している。   Since there is a corresponding song, step S903 becomes Yes, and the process proceeds to step S904, where the correct rate P of the ST ratio is calculated for each corresponding song. The calculation of the correct answer rate is performed using equation (1) as in step S704 in the case of the K list and step S804 in the case of the N list.

このようにして、各曲の正解率が求められたら、ステップS905で、その点数の高い順にDリストをリストアップする。このようにして作成されたDリストの例を図18(C)に示してある。一部の曲について正解率が同点であり、この順位付けについては、Fリスト、Kリスト、Nリストと同様に、曲番号の若い順に順位を付けた例を示しているが、同順位としたり、他の方法で順位付けをしても差し支えない。   When the correct answer rate of each song is obtained in this way, the D list is listed in descending order of the score in step S905. An example of the D list created in this way is shown in FIG. The correct answer rate is the same for some songs, and this ranking is shown as an example of ranking in ascending order of song numbers, like the F list, K list, and N list. The ranking may be done by other methods.

このようにして図5のステップS508を介して、図9に示した処理によってDリストが作成されると、CPU21は、図5のフローチャートに処理を戻してステップS509へ処理を進め、ステップS507とS508で作成された、NリストとDリストを用いて、総合リストを作成する(ステップS509)。この総合リストの作成処理は図10に詳細が示してあるので、図10を参照して説明する。   When the D list is created through the process shown in FIG. 9 through step S508 in FIG. 5, the CPU 21 returns the process to the flowchart in FIG. 5 and proceeds to step S509. A comprehensive list is created using the N list and D list created in S508 (step S509). The details of this comprehensive list creation process are shown in FIG. 10, and will be described with reference to FIG.

図10では、CPU21はまず、NリストとDリストを、統合して、所定の方法により順番に並べて、総合リストとする(ステップS1001)。   In FIG. 10, the CPU 21 first integrates the N list and the D list and arranges them in order by a predetermined method to form a comprehensive list (step S1001).

ここで、統合して順番に並べる方法としては、例えば、ステップS804とステップS904で算出した、NリストとDリストのそれぞれのリストの各楽曲のST比率の正解率に応じて、リスト種別に関わらずST比率の正解率が高いものから順に、楽曲を並べていく方法がある。   Here, as a method of integrating and arranging in order, for example, depending on the list type according to the accuracy rate of the ST ratio of each song of each list of N list and D list calculated in step S804 and step S904. There is a method of arranging songs in order from the one with the highest accuracy rate of the ST ratio.

また、その他にも、例えば、ステップS802とステップS902で、音高連結ないし音程間隔を比較した際に、入力メロディ履歴と、楽曲データベースの楽曲とで、音高連結あるいは音程間隔が一致した音数が多いものを上位として、NリストとDリストの双方から楽曲を並べていく方法が可能である。   In addition, for example, when the pitch connection or pitch interval is compared in step S802 and step S902, the number of pitches whose pitch connection or pitch interval is the same between the input melody history and the music in the music database. A method of arranging music pieces from both the N list and the D list is possible, with the one having a large number as the top.

さらには、音高連結ないし音程間隔の比較結果と、ST比率の正解率を総合的に評価して、NリストとDリストの統合を行う方法も可能である。この場合、いずれかの評価、例えば音高連結ないし音程間隔が一致した音数が多いものを上位とし、一致した音数が同じものについて、ST比率の正解率で順位付けをする方法や、逆にST比率の正解率を優先的に順位付けする方法、さらに、所定の重み付けを行って、両項目の評価点を加算して、この重み付け加算された評価点の高い順に楽曲を並べていく方法などが可能である。   Furthermore, a method of integrating the N list and the D list by comprehensively evaluating the comparison result of pitch connection or pitch interval and the accuracy rate of the ST ratio is possible. In this case, one of the evaluations, for example, a method in which the number of pitches with the same pitch connection or pitch interval is ranked high, and those with the same pitch number are ranked at the correct rate of the ST ratio, A method of preferentially ranking the correct rate of the ST ratio in the method, a method of adding a predetermined weight, adding the evaluation points of both items, and arranging the music in the order of the high evaluation point of the weighted addition, etc. Is possible.

このような方法によってNリストとDリストから総合リストが作成されると、CPU21はこの総合リスト中に重複する楽曲がないかを検索する(ステップS1002)。これは即ち、NリストとDリストの両方にリストアップされている、重複する楽曲があるか否かを検索することと等しい。   When a comprehensive list is created from the N list and the D list by such a method, the CPU 21 searches the overlapping list for duplicate music (step S1002). This is equivalent to searching for duplicate music that is listed in both the N and D lists.

ステップS1002で重複する曲があった場合には、総合リストにそのような重複する曲が存在すると、以後の処理に不便であるので、CPU21はこの重複する楽曲を総合リストから削除して(ステップS1003)、総合リストから重複する曲がなくなるようにする。なお、重複する曲は1曲とは限らず、複数の曲が重複していた場合であっても、それらを全て削除するものとする。   If there is a duplicate song in step S1002, if such a duplicate song exists in the general list, it is inconvenient for the subsequent processing, so the CPU 21 deletes this duplicate song from the general list (step S1002). S1003) so that there are no duplicate songs in the general list. Note that the overlapping songs are not limited to one song, and even if a plurality of songs are duplicated, they are all deleted.

この図10に示した処理によってNリストとDリストを用いて作成された総合リストの例を図19に示す。図19の総合リストでは、各楽曲が正解率の順に並べられ、かつ、重複する曲が削除されたリストとなっている。   FIG. 19 shows an example of a comprehensive list created using the N list and the D list by the processing shown in FIG. In the general list of FIG. 19, the music pieces are arranged in the order of the correct answer rate, and the overlapping music pieces are deleted.

以上により、図5に示した曲候補検索処理では、入力されたメロディに基づき、後述するキー(調性)判定処理の状況に応じた楽曲候補の総合リストが作成される。   As described above, in the song candidate search process shown in FIG. 5, a comprehensive list of song candidates corresponding to the status of the key (tonality) determination process described later is created based on the input melody.

このようにして図3のステップS304を介して、図5の曲候補検索処理が終了すると、CPU21は図3のフローチャートに処理を戻し、キー(調性)判定処理を行う(ステップS305)。キー(調性)判定処理は、例えば、RAM23中に、図20のようなダイアトニックレジスタ2000を有して、各データを更新することによって実行される。   When the song candidate search process in FIG. 5 is completed through step S304 in FIG. 3, the CPU 21 returns to the flowchart in FIG. 3 and performs a key (tonality) determination process (step S305). The key (tonality) determination process is executed, for example, by having a diatonic register 2000 as shown in FIG.

本実施の形態において、CPU21は、メロディ音が押鍵されるごとに、ダイアトニックレジスタ2000の一連の項目に値を格納する。図20の例では、時系列に5つのメロディ音のそれぞれについて、一連の値が格納されている(符号2001〜2005)。図20においては、矢印tの方向に時間的に新しい押鍵についての値となっている。つまり、メロディ音の項目にあるように、「C」、「D」、「E」、「F」、「B」の順で押鍵されている。   In the present embodiment, the CPU 21 stores values in a series of items in the diatonic register 2000 each time a melody sound is pressed. In the example of FIG. 20, a series of values are stored for each of the five melody sounds in time series (reference numerals 2001 to 2005). In FIG. 20, it is a value about a key depression new in time in the direction of arrow t. That is, as in the melody sound item, the keys are pressed in the order of “C”, “D”, “E”, “F”, “B”.

本実施の形態においては、CPU21によって、複数のメロディ音について、以下に述べる項目の値が、ダイアトニックレジスタ2000の単位レジスタ2001〜2005に格納されるようになっている。単位レジスタ2001〜2005は、それぞれ、メロディ音、音長、仮キー、仮コード、仮機能、メロディ音履歴、キー候補レジスタおよび確定キーという項目を有し、単位レジスタには、各項目についての値が格納され得る。メロディ音には、押鍵された鍵の音名が格納される。また、音長は、当該鍵の押鍵時間が格納される。なお、この音長については、楽曲データベースと揃えてST値を記録することとしてもよい。   In the present embodiment, the CPU 21 stores the values of items described below in the unit registers 2001 to 2005 of the diatonic register 2000 for a plurality of melody sounds. Each of the unit registers 2001 to 2005 has items such as a melody sound, a sound length, a temporary key, a temporary code, a temporary function, a melody sound history, a key candidate register, and a confirmation key, and the unit register includes a value for each item. Can be stored. In the melody sound, the note name of the pressed key is stored. The sound length stores the key pressing time of the key. In addition, about this sound length, it is good also as recording ST value in alignment with a music database.

最終的に、キー(調性)が確定したときには、CPU21は、単位レジスタの確定キーの項目に、キー名を格納する(たとえば、単位レジスタ2005格納)。しかしながら、キーが確定したとCPU21によって判断されるためには、複数の押鍵が必要となる。そこで、本実施の形態においては、キーが確定できると判断する段階になるまでは、CPU21の処理により仮キーが特定されて、そのキー名が、単位レジスタの仮キーの項目に格納される。また、仮キーの下で、メロディ音に適切な仮のコード名が、CPU21によって仮コードの項目に格納される。また、仮機能の項目には、CPU21によって、仮キーの下での、仮コードの機能(主音をIとした場合のコード名、および、トニック(T)、ドミナント(D)、サブドミナント(S)の種別)が格納される。   Finally, when the key (tonality) is confirmed, the CPU 21 stores the key name in the item of the confirmation key of the unit register (for example, stored in the unit register 2005). However, in order for the CPU 21 to determine that the key has been confirmed, a plurality of key depressions are required. Therefore, in the present embodiment, the temporary key is specified by the processing of the CPU 21 and the key name is stored in the temporary key item of the unit register until it is determined that the key can be determined. Further, under the temporary key, a temporary code name appropriate for the melody sound is stored in the temporary code item by the CPU 21. Also, in the provisional function item, the CPU 21 uses the provisional chord function (the chord name when the main sound is I, the tonic (T), the dominant (D), the subdominant (S ) Type) is stored.

メロディ音履歴は、演奏開始時或いは所定のタイミングから、押鍵された鍵の音名が蓄積される。たとえば、最初の押鍵についての単位レジスタ2001には、押鍵された鍵であるCのみが格納され、次の押鍵についての単位レジスタ2002には、2つの鍵CDが格納されている。キー候補には、当該鍵が押鍵された時点で、あり得る1以上のキー名が格納される。   In the melody sound history, the note names of the pressed keys are accumulated at the start of performance or from a predetermined timing. For example, in the unit register 2001 for the first key press, only C that is the key pressed is stored, and in the unit register 2002 for the next key press, two keys CD are stored. The key candidate stores one or more key names that can be stored when the key is pressed.

メロディ履歴データからのキー(調性)候補の絞り込みは、CPU21が図21のダイアトニックスケールテーブル2100を参照することによって実行される。   Narrowing down key (tonality) candidates from melody history data is executed by the CPU 21 referring to the diatonic scale table 2100 in FIG.

ダイアトニックスケールテーブル2100には、C〜Bの12個のキーそれぞれについて、キースケールノート(音階に該当する音)が識別可能に格納されている。たとえば、キーがCであればC、D、E、F、G、A、Bの音名が格納され(符号2101参照)、キーGであればG、A、B、C、D、E、F#の音名が格納される(符号2102参照)。   The diatonic scale table 2100 stores key scale notes (sounds corresponding to scales) for each of the 12 keys C to B in an identifiable manner. For example, if the key is C, the pitch names of C, D, E, F, G, A, and B are stored (see reference numeral 2101), and if the key is G, G, A, B, C, D, E, The pitch name of F # is stored (see reference numeral 2102).

そして、CPU21によって、図20のメロディ音履歴と、ダイアトニックスケールテーブル2100とが比較され、メロディ音履歴に含まれる音名が、あるキーのダイアトニックスケールに全て含まれるようなキーが存在するかが調べられる。このようなキーは、存在しない場合もあるし、複数存在する場合もある。たとえば、単位レジスタ2003のメロディ音履歴には、C、D、Eが格納されている。そこで、ダイアトニックスケールテーブル2100を参照すると、C、D、Eの全てをダイアトニックスケールとして含むキーは、C、G、Fの3つとなる。したがって、この場合には、C、D、Eの3つのキーがキー候補となり得る。(単位レジスタ2003のキー候補欄)   Then, the CPU 21 compares the melody sound history of FIG. 20 with the diatonic scale table 2100, and whether there is a key whose pitch names included in the melody sound history are all included in the diatonic scale of a certain key. Is examined. Such a key may not exist or a plurality of keys may exist. For example, C, D, and E are stored in the melody sound history of the unit register 2003. Therefore, referring to the diatonic scale table 2100, there are three keys C, G, and F that include all of C, D, and E as diatonic scales. Therefore, in this case, the three keys C, D, and E can be key candidates. (Key candidate field of unit register 2003)

そして、このキー(調性)候補が一つになった場合に、CPU21は、その候補キー(調性)を、確定キー(調性)とする。一方、キー候補が2以上存在する場合は、CPU21は、例えば、候補キーのうち最も調号の少ないものを仮キーとして、単位レジスタの仮キーの値として格納する。なお、調号が同数の場合(たとえば、FとG、DとB♭)には、♯系のキーが優先して仮キーとされる。   And when this key (tonity) candidate becomes one, CPU21 makes the candidate key (tonity) the decision key (tonity). On the other hand, when there are two or more key candidates, the CPU 21 stores, for example, the candidate key with the least key signature as a temporary key and the value of the temporary key of the unit register. When the number of key signatures is the same (for example, F and G, D and B ♭), the # key is preferentially used as a temporary key.

以上のようにして、図3のステップS305でキー(調性)判定処理が行われると、CPU21は自動コード判定処理を行う(ステップS306)。   As described above, when the key (tonality) determination process is performed in step S305 of FIG. 3, the CPU 21 performs the automatic code determination process (step S306).

自動コード判定処理は、現時点までに入力されたメロディ音に基づいて、現在のメロディに付けるべきコード(和音)を自動的に判定する処理であり、種々の方法により実現することが可能である。   The automatic chord determination process is a process of automatically determining a chord (chord) to be added to the current melody based on the melody sound input up to the present time, and can be realized by various methods.

例えば、現在のメロディ音に基づき、図22に示すような仮コード決定マップ2200を用いてコードを決定することが可能である。この手法は、例えば、まだ十分なメロディ履歴が得られていない、例えば第1音めや開始後数音程度の場合に用いることができる。   For example, based on the current melody sound, it is possible to determine a chord using a temporary chord determination map 2200 as shown in FIG. This technique can be used, for example, when a sufficient melody history is not yet obtained, for example, for the first note or about several notes after the start.

また、特にキーが未確定の場合などに、図23のコードデータベースを用いてコードを決定することができる。図23に示すように、コードデータベース2300には、コード名ごとに、コード構成音および当該コードに関するスケールノートが格納されている。図23において、たとえば、ハッチングで示される音名がコード構成音である。   In particular, when the key is unconfirmed, the code can be determined using the code database of FIG. As shown in FIG. 23, the chord database 2300 stores chord constituent sounds and scale notes related to the chord for each chord name. In FIG. 23, for example, a pitch name indicated by hatching is a chord constituent sound.

例えば、CPU21は、所定の長さのメロディ履歴の中で、音長の長いものから順に所定個数の音を選択する。所定の長さのメロディ履歴としては、例えば、所定小節分のメロディ履歴や、所定音数のメロディ履歴などと決めておくことができる。   For example, the CPU 21 selects a predetermined number of sounds in order from the longest in the melody history having a predetermined length. As the melody history having a predetermined length, for example, a melody history corresponding to a predetermined measure or a melody history having a predetermined number of sounds can be determined.

CPU21は、上記音長の長いものから選択された所定個数の音をコードデータベース2300と比較し、この所定個数の音を含むコード構成音を有するコードがあるかどうか判断する。そして、コードが見つかれば、そのコードを自動コード判定処理のコードとし、見つからなければ上記選択する音数を減らして再度コードデータベースと照合するなどの方法でコードを決定することができる。   The CPU 21 compares a predetermined number of sounds selected from those having a long sound length with the chord database 2300, and determines whether there is a chord having a chord constituting sound including the predetermined number of sounds. If a chord is found, the chord is determined as a code for automatic chord determination processing, and if not found, the chord can be determined by a method such as reducing the number of selected sounds and collating with the chord database again.

また、前回のコードの機能と、その次のメロディの進行に応じて、図24のようなコード判定テーブルを用いてコードを決定することも可能である。   It is also possible to determine a chord using a chord determination table as shown in FIG. 24 according to the function of the previous chord and the progress of the next melody.

ここで、コードの機能とは、音楽理論における「トニック(TO)」、「サブドミナント(SU)」、「ドミナント(DO)」のことをいい、図24の左端に前回コード機能による分類が示されている。   Here, the chord function means “tonic (TO)”, “subdominant (SU)”, “dominant (DO)” in music theory, and the classification by the previous chord function is shown at the left end of FIG. Has been.

図24に示すコード判定テーブルおいては、前回コードの機能(トニック(TO)、サブドミナント(SU)或いはドミナント(DO)の何れか)、および、前回メロディ音PMおよび現在メロディ音CMの組み合わせによって、コード名が取得されるようになっている。なお、図24のコード判定テーブル2400は、キー(C)の場合についてのものである。したがって、他のキーの場合には、当該キーの主音とCとの音程をオフセットとして、実際の前回メロディ音PMおよび現在メロディ音CMからオフセットを考慮して、キーをCとした場合の前回メロディ音PMおよび現在メロディ音CMを算出して用いれば良い。なお、図24の例では示されていないが、前回メロディ音PMおよび今回メロディ音CMの組み合わせによっては、コード名が得られない場合もある。   In the chord determination table shown in FIG. 24, depending on the function of the previous chord (tonic (TO), subdominant (SU) or dominant (DO)) and the combination of the previous melody sound PM and the current melody sound CM. The code name is acquired. Note that the code determination table 2400 in FIG. 24 is for the key (C). Therefore, in the case of other keys, the previous melody when the key is set to C, taking into account the offset from the actual previous melody sound PM and the current melody sound CM, with the pitch between the main sound of the key and C as an offset. The sound PM and the current melody sound CM may be calculated and used. Although not shown in the example of FIG. 24, the chord name may not be obtained depending on the combination of the previous melody sound PM and the current melody sound CM.

さらに、公知となっている他の手法を用いて、ステップS305のキー(調性)判定処理や、ステップS306の自動コード判定処理を実行することも可能である。例えば、特開2011ー158855号公報や、特開2012−68548号公報などの手法を用いることが可能である。   Furthermore, it is also possible to execute the key (tonality) determination process in step S305 and the automatic code determination process in step S306 by using other known methods. For example, methods such as JP 2011-158855 A and JP 2012-68548 A can be used.

このようにして、図3のステップS306で自動コード判定処理が行われると、CPU21はコード選択処理を実行する(ステップS307)。このコード選択処理は図11に詳細が示してあるので、図11を参照して説明する。   In this way, when the automatic code determination process is performed in step S306 of FIG. 3, the CPU 21 executes the code selection process (step S307). Details of this code selection processing are shown in FIG. 11, and will be described with reference to FIG.

図11で実行されるコード選択処理は、ステップS304を介して図5以下で実行された、曲候補検索処理でリストアップされた曲のコード進行と、ステップS306で実行された自動コード判定処理で決定されたコードのいずれを用いて自動伴奏付けを行うかを決定する処理である。   The chord selection process executed in FIG. 11 is the chord progression of the songs listed in the song candidate search process executed in FIG. 5 and subsequent steps through step S304 and the automatic chord determination process executed in step S306. This is a process for determining which of the determined chords is used to perform automatic accompaniment.

図11では、CPU21はまず、総合リスト中で音高/音程連結が所定数、例えば10音以上合っている曲があるか否かを判断する(ステップS1101)。この音数について、「音楽テーマ事典」(音楽之友社)では、6音までの音の並びから楽曲を検索できるようになっているが、6音で検索をすると、音が同じ曲が希に10曲程度検索される場合がある。このことから、例えば、6音〜10音程度の音が合っているかどうかを調べると、ある程度の正確性をもって楽曲の検索が行える。なお、メロディ入力が、まだ、所定数の音数(例えば10音)に達していない場合には、本処理をスキップすることとしても良い。   In FIG. 11, the CPU 21 first determines whether or not there is a song whose pitch / pitch connection matches a predetermined number, for example, 10 or more sounds, in the general list (step S1101). With regard to the number of sounds, the “Music Theme Encyclopedia” (Motonotosha) allows you to search for songs from a sequence of up to 6 sounds, but if you search for 6 sounds, songs with the same sound are rare. In some cases, about 10 songs are searched. From this, for example, if it is checked whether or not sounds of about 6 to 10 sounds are correct, it is possible to search for music with a certain degree of accuracy. If the melody input has not yet reached a predetermined number of sounds (for example, 10 sounds), this process may be skipped.

総合リスト中で音高/音程連結が所定数合っているものが無かった場合(ステップS1101:NO)、CPU21は、ステップS1104に処理を進め、リアルタイムコード付け結果通りのコードを出力して本コード選択処理を終了する(ステップS1104)。なお、そもそもFリスト、Kリスト、Nリスト・Dリストの各リストに該当する曲が検索されず、総合リストに曲がピックアップされていなかった場合も、このステップS1101でNOと判断されて、ステップ1104にてリアルタイムコード付け結果通りのコードを出力する。   If there is no predetermined number of pitch / pitch concatenations in the general list (step S1101: NO), the CPU 21 proceeds to step S1104 to output a code according to the real-time coding result and output this code. The selection process is terminated (step S1104). In the first place, if no song corresponding to each list of F list, K list, N list / D list is searched and no song is picked up in the general list, NO is determined in this step S1101, and step In 1104, a code according to the real-time coding result is output.

一方、総合リスト中で音高/音程連結が所定数合っているものがあった場合(ステップS1101:YES)、CPU21は、その中で発音タイミングが80%以上マッチしている曲があるか否かを判定する(ステップS1102)。具体的には、総合リストにリストアップされている曲の中で、「正解率」が80点以上のものがあるか否かを判断する。この正解率は、既述のように、楽曲データベースと入力メロディ履歴との「開始音とのST比率」の値を比較して求めた、発音タイミングに関する評価値であるので、この正解率の値が所定値以上の曲を選択することで、ほぼデータベースと同じ曲を弾いていると判断でき、楽曲データベースからコード進行を選択して自動伴奏用コードとして差し支えないものと考えられる。なお、この「80点」の基準数値に関しては、適宜変更して、異なる基準値を用いて実施することも可能である。また、例えば「習熟度」に関する指定を図示しないボタン等で受け付けて、この習熟度に応じて判断の基準値を変えることも可能である。   On the other hand, if there is a predetermined number of pitch / pitch connections in the general list (step S1101: YES), the CPU 21 determines whether there is a song whose pronunciation timing matches 80% or more. Is determined (step S1102). Specifically, it is determined whether or not there are songs with a “correct answer rate” of 80 or more among the songs listed in the general list. As described above, the accuracy rate is an evaluation value related to the pronunciation timing obtained by comparing the value of the “ST ratio with the start sound” between the music database and the input melody history. By selecting a song with a predetermined value or more, it can be determined that the player is playing almost the same song as the database, and it is considered that chord progression is selected from the song database and can be used as an automatic accompaniment chord. It should be noted that the reference value of “80 points” can be changed as appropriate and implemented using different reference values. Further, for example, it is possible to accept a designation related to “skill level” with a button or the like (not shown) and change the reference value of the judgment according to this skill level.

発音タイミングが80%以上マッチしている曲が無かった場合(ステップS1102:NO)、CPU21は、ステップS1104に処理を進め、リアルタイムコード付け結果通りのコードを出力して本コード選択処理を終了する(ステップS1104)。   If there is no song whose pronunciation timing matches 80% or more (step S1102: NO), the CPU 21 advances the process to step S1104, outputs the code according to the real-time coding result, and ends the chord selection process. (Step S1104).

一方、発音タイミングが80%以上マッチしている曲があった場合(ステップS1102:YES)、CPU21は、このステップS1101とステップS1102とで選択された曲、具体的には、音高/音程連結が所定数合っている曲であって、発音タイミングが所定率以上合っている曲(以下「該当曲」という)の楽曲データベース(図12)を参照する。そして、該当曲のデータ中、現在のメロディと推定される部分のコードを、楽曲データベースから読み出して、ステップS306の自動コード判定処理(リアルタイムコード付け)のコード付け結果とマッチするか否かを判別する(ステップS1103)。   On the other hand, if there is a song whose sounding timing matches 80% or more (step S1102: YES), the CPU 21 selects the song selected in step S1101 and step S1102, specifically, pitch / pitch connection. Is referred to a music database (FIG. 12) of songs that match a predetermined number of times and whose sound generation timing matches a predetermined rate or more (hereinafter referred to as “corresponding music”). Then, the chord of the portion estimated to be the current melody in the data of the corresponding song is read from the song database, and it is determined whether or not it matches the coding result of the automatic chord judgment process (real time coding) in step S306. (Step S1103).

自動コード判定処理(リアルタイムコード付け)のコード付け結果と、該当曲の楽曲データベースから読み出したコードとがマッチしていた場合(ステップS1103:YES)、CPU21は、ステップS1104に処理を進め、リアルタイムコード付け結果通りのコードを出力して、本コード選択処理を終了する(ステップS1104)。   When the coding result of the automatic chord determination process (real time coding) matches the code read from the music database of the corresponding song (step S1103: YES), the CPU 21 advances the process to step S1104 to execute the real time code. The code according to the attachment result is output, and the code selection process is terminated (step S1104).

一方、自動コード判定処理(リアルタイムコード付け)のコード付け結果と、該当曲の楽曲データベースから読み出したコードとがマッチしていない場合(ステップS1103:NO)、CPU21は、ステップS1105に処理を進め、該当曲の楽曲データベースから読み出したコードを出力して、本コード選択処理を終了する(ステップS1105)。   On the other hand, if the coding result of the automatic chord determination process (real-time coding) and the code read from the music database of the corresponding song do not match (step S1103: NO), the CPU 21 proceeds to step S1105, The chord read from the music database of the corresponding music is output, and the chord selection process is terminated (step S1105).

このようにして図3のステップS307を介して、図11に示したコード選択処理が実行されると、CPU21は、図3のフローチャートに処理を戻し、ステップS308で自動伴奏処理を実行する(ステップS308)。この自動伴奏処理は図25に詳細が示してあるので、図25を参照して説明する。   When the chord selection process shown in FIG. 11 is executed through step S307 in FIG. 3, the CPU 21 returns to the flowchart in FIG. 3 and executes the automatic accompaniment process in step S308 (step S308). S308). The details of this automatic accompaniment process are shown in FIG. 25 and will be described with reference to FIG.

図25は、本実施の形態にかかる自動伴奏処理の例を示すフローチャートである。まず、CPU21は、電子楽器10が自動伴奏モードの下で動作しているかを判断する(ステップ2501)。ステップ2501でYesと判断された場合には、CPU21のタイマ(図示せず)を参照して、現在時刻が、自動伴奏データ中、メロディ音のデータについてのイベントの実行タイミングに達しているかを判断する(ステップ2502)。   FIG. 25 is a flowchart showing an example of automatic accompaniment processing according to the present embodiment. First, the CPU 21 determines whether or not the electronic musical instrument 10 is operating under the automatic accompaniment mode (step 2501). If YES is determined in step 2501, it is determined whether the current time has reached the event execution timing for the melody sound data in the automatic accompaniment data with reference to a timer (not shown) of the CPU 21. (Step 2502).

自動伴奏データには、3つの種類の楽音、すなわち、メロディ音(オブリガート音を含む)、コード音、リズム音のデータが含まれる。メロディ音のデータおよびコード音のデータは、発音すべき楽音ごとに、その音高、発音タイミングおよび発音時間を含む。また、リズム音のデータは、発音すべき楽音(リズム音)ごとに、その発音タイミングを含む。   The automatic accompaniment data includes data of three types of musical sounds, that is, melody sounds (including obligato sounds), chord sounds, and rhythm sounds. The data of the melody sound and the data of the chord sound include the pitch, the sounding timing and the sounding time for each musical sound to be sounded. The rhythm sound data includes the sound generation timing for each musical sound (rhythm sound) to be generated.

ステップ2502でYesと判断された場合には、CPU21は、メロディ発音・消音処理を実行する(ステップ2503)。メロディ発音・消音処理においては、処理にかかるイベントがノートオンイベントであるかを判断する。ノートオンイベントであることは、現在時刻が、上記メロディ音のデータにおける所定の楽音の発音タイミングとほぼ一致することで判断できる。その一方、ノートオフイベントであることは、現在時刻が、当該楽音の発音タイミングに発音時間を加えた時刻とほぼ一致することで判断できる。   If it is determined Yes in step 2502, the CPU 21 executes a melody pronunciation / mute process (step 2503). In the melody pronunciation / mute process, it is determined whether the event related to the process is a note-on event. A note-on event can be determined by the fact that the current time substantially coincides with the tone generation timing of a predetermined musical sound in the melody sound data. On the other hand, a note-off event can be determined by the fact that the current time substantially coincides with the time obtained by adding the sound generation time to the sound generation timing.

処理にかかるイベントがノートオフイベントである場合には、CPU21は、消音処理を実行する。その一方、処理にかかるイベントがノートオンイベントであれば、メロディ音のデータにしたがった発音処理を実行する。   If the event related to the process is a note-off event, the CPU 21 executes a mute process. On the other hand, if the event related to the process is a note-on event, the sound generation process according to the melody sound data is executed.

次いで、CPU21は、CPU21のタイマ(図示せず)を参照して、現在時刻が、自動伴奏データ中、コード音のデータについてのイベントの実行タイミングに達しているかを判断する(ステップ2504)。ステップ2504においてYesと判断された場合には、CPU21は、コード発音・消音処理を実行する(ステップ2505)。コード音発音・消音処理においては、発音タイミングに達したコード音について発音処理を実行し、その一方、消音タイミングに達したコード音については消音処理を実行する。   Next, the CPU 21 refers to a timer (not shown) of the CPU 21 to determine whether the current time has reached the event execution timing for the chord data in the automatic accompaniment data (step 2504). If it is determined Yes in step 2504, the CPU 21 executes chord sound generation / mute processing (step 2505). In the chord sound generation / mute process, the sound generation process is executed for the chord sound that has reached the sound generation timing, while the mute process is executed for the chord sound that has reached the mute timing.

その後CPU21は、現在時刻が、自動伴奏データ中、リズムのデータについてのイベントの実行タイミングに達しているかを判断する(ステップ2506)。ステップ2506においてYesと判断された場合には、CPU21は、リズム音発音処理を実行する(ステップ2507)。リズム音発音処理においては、発音タイミングに達したリズム音についてノートオンイベントを生成する。   Thereafter, the CPU 21 determines whether or not the current time has reached the event execution timing for the rhythm data in the automatic accompaniment data (step 2506). If it is determined Yes in step 2506, the CPU 21 executes a rhythm sound generation process (step 2507). In the rhythm sound sound generation process, a note-on event is generated for the rhythm sound that has reached the sound generation timing.

自動伴奏処理(図3のステップS308)が終了すると、CPU21は、音源発音処理を実行する(ステップS309)。音源発音処理において、CPU21は、生成されたノートオンイベントに基づいて、発音すべき楽音の音色および音高を示すデータを音源部26に与え、或いは、消音すべき楽音の音色および音高を示すデータを音源部26に与える。音源部26は、音色、音高、音長等を示すデータにしたがって、ROM22の波形データを読み出して、所定の楽音データを生成する。これにより、スピーカ28から所定の楽音が発生する。また、CPU21は、ノートオフイベントに基づいて、音源26にノートオフイベントが示す音高の消音を指示する。   When the automatic accompaniment process (step S308 in FIG. 3) ends, the CPU 21 executes a sound source sound generation process (step S309). In the sound source sound generation process, the CPU 21 gives data indicating the tone color and pitch of the tone to be generated to the tone generator unit 26 based on the generated note-on event, or indicates the tone color and pitch of the tone to be muted. Data is supplied to the sound source unit 26. The sound source unit 26 reads the waveform data in the ROM 22 in accordance with data indicating tone color, pitch, tone length, etc., and generates predetermined musical tone data. Thereby, a predetermined musical sound is generated from the speaker 28. Further, the CPU 21 instructs the sound source 26 to mute the pitch indicated by the note-off event based on the note-off event.

音源発音処理(ステップS309)が終了すると、CPU21は、その他の処理(たとえば、表示部15への画像表示、LED(図示せず)の点灯、消灯など:ステップS310)を実行して、ステップ302に戻る。   When the sound source sound generation process (step S309) is completed, the CPU 21 executes other processes (for example, image display on the display unit 15, lighting of LEDs (not shown), turning off, etc .: step S310), and step 302. Return to.

以上に説明した通り、本実施の形態においては、演奏者が演奏したメロディに対して自動的に伴奏を付加する電子楽器で、楽曲データベースを備え、演奏者の演奏メロディとこの楽曲データベースの各楽曲とを比較照合する。そして、所定の条件で一致したと判別された曲が見つかった場合、この楽曲データベースに登録されているコードを読み出して、演奏者の演奏メロディに対して伴奏付けを行う。   As described above, in the present embodiment, an electronic musical instrument that automatically adds an accompaniment to a melody played by a performer, and includes a music database, and the player's performance melody and each song in the music database. Is compared. When a song that is determined to be matched under a predetermined condition is found, the chord registered in the song database is read and accompaniment is performed to the performer's performance melody.

このようにすることで、演奏者の演奏メロディに対して、リアルタイムで自動的に伴奏を付ける際の自動コード判別のみによらず、楽曲データベースに登録されている曲と合致した場合は、データベースから曲に合ったコードを読み出して出力できるため、自動的なコード付けの精度を向上させることができる。   In this way, if a player's performance melody matches a song registered in the song database, regardless of automatic chord identification when accompaniment is automatically added in real time, Since the code suitable for the song can be read and output, the accuracy of automatic coding can be improved.

さらに、本実施の形態では、楽曲データベースとの照合処理において、キー(調性)判別がまだ確定していない場合に、音高の比較を行うNリストと、音程間隔の比較を行うDリストとを備え、楽曲データベースに登録されているのと異なる調でメロディが演奏された場合でも比較照合を行えるようにしている。従って、演奏者がメロディをデータベースと異なる調で演奏した場合であっても、楽曲データベースを有効に活用してコード付けを行うことが可能である。   Further, in the present embodiment, when the key (tonality) discrimination has not yet been determined in the collation process with the music database, the N list for comparing the pitches and the D list for comparing the pitch intervals It is possible to perform comparison and collation even when a melody is played in a key different from that registered in the music database. Therefore, even when the performer plays the melody in a key different from that of the database, the music database can be used effectively to perform coding.

さらに、本実施の形態では、楽曲データベースに、メロディ開始音と各メロディ音とのST比率を登録しておき、演奏されたメロディについての開始音と各音とのST比率を取得して、楽曲データベースの登録値と比較して、正解率を算出する。そして、この正解率の高いものから優先的に楽曲データベースの楽曲を検索するようにしている。従って、多少発音タイミングがずれて演奏されていた場合であっても、概ね曲の特徴が合っていれば、候補曲として検索される柔軟なシステムを構築することが可能である。   Furthermore, in the present embodiment, the ST ratio between the melody start sound and each melody sound is registered in the music database, the ST ratio between the start sound and each sound for the played melody is acquired, and the music The correct answer rate is calculated by comparing with the registered value in the database. Then, the music in the music database is preferentially searched from the one with a high accuracy rate. Therefore, even if the performance is performed slightly out of sync, it is possible to construct a flexible system that is searched for as a candidate song as long as the song features generally match.

また、楽曲データベース検索と平行して、自動的なコードの判別処理も行い、楽曲データベースでの検索で該当する曲が見つからない場合は自動的なコード判別結果に基づいてコード付けを行うようになっている。従って、自動コード判別と楽曲データベース検索方式との二重構造によってコード付けをすることにより、データベースに登録されている曲については速やかにデータベースを用いた正確なコード付けを行うと共に、データベースに該当曲がない場合や、判別不能な場合等は、自動的なコード判別処理でコードを付けることができ、コード付け不能となることなく、かつ、精度の良いコード付け並びに自動伴奏付けが可能となる。   In parallel with the music database search, automatic chord discrimination processing is also performed, and if the corresponding song is not found by searching the music database, coding is performed based on the automatic chord discrimination result. ing. Therefore, by coding with the dual structure of automatic chord discrimination and music database search method, the music registered in the database is quickly coded accurately using the database, and the corresponding music is stored in the database. When there is no code or when it cannot be discriminated, a chord can be added by an automatic chord discriminating process, and it becomes possible to perform chording and automatic accompaniment with high accuracy without being unable to code.

次に、本発明の第2の実施の形態を説明する。第2の実施形態では、CPU21は、図11のコード選択処理に替えて、図26に示すコード選択処理を実行する。   Next, a second embodiment of the present invention will be described. In the second embodiment, the CPU 21 executes a code selection process shown in FIG. 26 instead of the code selection process shown in FIG.

図26のコード選択処理において、図11と同様の処理を行う部分については、図11と共通のステップ番号を付してあり、これについては説明を省略する。図26のコード選択処理では、図11のステップ1103に替えてステップS2603を実行する。   In the code selection process of FIG. 26, the same step number as in FIG. 11 is assigned to the part that performs the same process as in FIG. 11, and the description thereof is omitted. In the code selection process of FIG. 26, step S2603 is executed instead of step 1103 of FIG.

ステップS2603では、CPU21は、ステップS306の自動コード判定処理で演奏メロディに対して付けられたコードと、S1101、S1102で、条件に該当すると判断された楽曲データベースの曲の中の、現在演奏されているメロディ部分に付けられているコードとの「コードの機能」を比較する。   In step S2603, the CPU 21 is currently playing the chord added to the performance melody in the automatic chord determination process in step S306 and the songs in the song database determined to satisfy the conditions in S1101 and S1102. Compare the chord function with the chord attached to the melody part.

具体的には、楽曲データベースに付けられているコードの機能としては、図12に示した楽曲データベース中に、さらに各メロディ音に対して、コードの機能の情報を追加で記録されていることとしても良いし、または、図12の楽曲データベースでは、各曲のキー(調性)が判っているので、この調性と、各メロディ音に対するコードとを比較照合することで、機能を判定することとしても良い。   Specifically, as a function of chords attached to the music database, information on the function of the chord is additionally recorded for each melody sound in the music database shown in FIG. Alternatively, in the music database of FIG. 12, the key (tonality) of each song is known, so the function is determined by comparing and comparing this tone with the code for each melody sound. It is also good.

また、現在演奏されているメロディ部分に付けられているコードの機能は、ステップS305のキー(調性)判定の部分で説明した、仮機能の部分に記録された機能を用いることとしても良い。この、演奏されているメロディのコードの機能(仮機能)は、ステップS305で説明した、仮キー若しくは確定キーの情報と、現在のメロディに対して付けられたコード(和音)の情報を比較照合して、機能を判定することができる。   The function of the chord attached to the currently played melody portion may be the function recorded in the temporary function portion described in the key (tonality) determination portion in step S305. The chord function (temporary function) of the melody being played is compared and collated with the information of the temporary key or the confirmation key described in step S305 and the information of the chord (chord) attached to the current melody. Thus, the function can be determined.

具体的には、各種コードとコードの機能について、周知の音楽理論を用いたテーブルを用意し、このテーブルを参照することによって、コードの機能を取得することが可能である。例えば、トニックに該当するコード名として、「IMaj」、「IM7」、「IIImin」、「IIIm7」、「VImin」、「VIm7」がある。サブドミナントに該当するコード名として、「IImin」、「IIm7」、「IIm7 (−5)」、「IVMaj」、「IVM7」、「IVmin」、[IVmM7]がある。また、ドミナントに該当するコード名として、「IIIMaj」、「III」、「III7sus4」、「VMaj」、「V」、「V7sus4」、「VIIm7 (−5)」がある。 Specifically, it is possible to obtain a chord function by preparing a table using a well-known music theory for various chords and chord functions and referring to this table. For example, “I Maj ”, “I M7 ”, “III min ”, “III m7 ”, “VI min ”, “VI m7 ” are code names corresponding to tonics. Code names corresponding to the subdominant include “II min ”, “II m7 ”, “II m7 (−5) ”, “IV Maj ”, “IV M7 ”, “IV min ”, and [IV mM7 ]. As code names corresponding to the dominant, there are “III Maj ”, “III 7 ”, “III 7 sus 4 ”, “V Maj ”, “V 7 ”, “V 7 sus 4 ”, “VII m7 (−5) ”. .

このようにして、ステップS2603で、CPU21は、ステップS306の自動コード判定処理で演奏メロディに対して付けられたコードと、S1101、S1102で、条件に該当すると判断された楽曲データベースの曲の中の、現在演奏されているメロディ部分に付けられているコードとの「コードの機能」を比較する。   In this way, in step S2603, the CPU 21 selects the chord added to the performance melody in the automatic chord determination process in step S306, and the songs in the music database determined to satisfy the conditions in S1101 and S1102. Compare the chord function with the chords attached to the melody part currently being played.

そして、コードの機能が共通だった場合には(ステップS2603:YES)、リアルタイムコード付け結果のコードを出力する(ステップS1104)。一方、コードの機能が異なっていた場合は(ステップS2603:NO)、該当曲の楽曲データベースから読み出したコードを出力する(ステップS1105)。   If the code functions are common (step S2603: YES), the code of the real-time coding result is output (step S1104). On the other hand, if the chord functions are different (step S2603: NO), the chord read from the music database of the corresponding song is output (step S1105).

このようにすることによって、本第2の実施形態では、リアルタイムコード付けの結果のコードと楽曲データベースから読み出したコードの、「コードの機能」が合っている場合には、同じ機能を有するコードのうちでのバラエティとして、リアルタイムコード付けの結果を尊重してリアルタイムコード付けの結果のコードを出力する一方、「コードの機能」が異なっていた場合、リアルタイムコード付けの結果のコードが、機能からして大外れの見当違いの和音を付してしまう危険を避けるために、楽曲データベースのコードを読み出して出力するようにできる。従って、楽曲データベースとリアルタイムコード付けの両方式の協働によって、大きく見当外れのコードを出力する可能性を低減しつつ、機能が合っている中ではコード付けのバラエティとして、リアルタイムコード付けの判断結果を尊重したコード出力をすることが可能となる。   In this way, in the second embodiment, when the “code function” of the code read from the music database matches the code of the result of real-time coding, the code having the same function is matched. As a variety in our company, we respect the result of real-time coding and output the code of the result of real-time coding. On the other hand, if the code function is different, the code of the result of real-time coding In order to avoid the risk of adding a misplaced chord, the music database code can be read and output. Therefore, by combining both the music database and real-time coding, the possibility of outputting a large misplaced code is reduced. It is possible to output code that respects

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalent scope thereof.

また、上述した各実施形態において記載した手法は、コンピュータに実行させることのできるプログラムとして、例えば磁気ディスク(フロッピーディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリなどの記録媒体に書き込んで各種装置に適用したり、通信媒体により伝送して各種装置に適用することも可能である。本装置を実現するコンピュータは、記録媒体に記録されたプログラムを読み込み、このプログラムによって動作が制御されることにより、上述した処理を実行する。   In addition, the methods described in the above-described embodiments are, for example, magnetic disks (floppy disk, hard disk, etc.), optical disks (CD-ROM, DVD, etc.), recording media such as semiconductor memory, etc. as programs that can be executed by a computer. Can be applied to various devices, or transmitted by a communication medium and applied to various devices. A computer that implements this apparatus reads the program recorded on the recording medium, and executes the above-described processing by controlling the operation by this program.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段などより構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall device configured by a plurality of devices, a plurality of means, and the like.

例えば、上記実施形態の図3で説明した処理のうち一部は、処理の順番を前後させる等させても差し支えない。例えば、S304の曲候補検索処理と、S305、S306のキー(調性)判定処理、自動コード判定処理と、は、順序を逆にすることもできる。そのようにすることで、ステップS505における「Key確定?」か否かの判断において、より最新の判断結果を用いることができる。   For example, a part of the processing described in FIG. 3 of the above embodiment may be changed in order of processing. For example, the order of the song candidate search process in S304, the key (tonality) determination process, and the automatic code determination process in S305 and S306 can be reversed. By doing so, the latest determination result can be used in determining whether or not “Key is determined?” In step S505.

以上に説明した本発明によれば、メロディ音の履歴に基づいて、自動的なコード付けと、楽曲データベースを用いたコード付けとの双方を適切に使い分けてコード付けができるため、精度の良い適切なコード付けを迅速に行うことが可能となる。   According to the present invention described above, since automatic coding and coding using a music database can be appropriately used based on the melody sound history, coding can be performed appropriately. Can be quickly coded.

すなわち、本発明によれば、楽曲データベース手段に登録された曲の中で、該当する楽曲が見つからない場合には、自動コード付けによりコードが付けられる。従って、楽曲データベース中に該当する楽曲が見つからなかった場合でも、和音が付かなくなってしまい、演奏者の演奏に何らの自動伴奏も付されないといった事態を回避することができる。   That is, according to the present invention, if a corresponding music is not found among the music registered in the music database means, a code is attached by automatic coding. Therefore, even when the corresponding music is not found in the music database, chords are not added, and a situation in which no automatic accompaniment is added to the performer's performance can be avoided.

他方、本発明によれば、楽曲データベース手段に登録されている曲の中で、該当する楽曲が検索された場合には、この楽曲データベース手段に登録されているコードを利用して自動伴奏を付けることができる。従って、自動コード付けによるコード付けで自動的にコードの判別を行った場合に、人間の聴覚的に明らかにおかしい、間違った和音が付いてしまうといった事態を防ぐことが可能になる。   On the other hand, according to the present invention, when a corresponding music is searched among the music registered in the music database means, an automatic accompaniment is added using the code registered in the music database means. be able to. Therefore, it is possible to prevent a situation in which a chord is automatically discriminated by automatic coding and a chord that is clearly audibly strange to humans or has an incorrect chord is attached.

さらに、本発明によれば、楽曲データベース手段に登録されている曲の中で、該当する楽曲が検索された場合に、自動コード付けによるコードと、楽曲データベース中に登録されているコードとのコードの機能を比較して、用いるコードを選択している。従って、自動コード付けによるコード付けが、楽曲データベースに登録されているコードと比べて、コードの機能の面からも異なっている、大ハズレのコードを付してしまうといった目立った誤りが発生する事態を防ぐことができる。   Further, according to the present invention, when the corresponding music is searched among the music registered in the music database means, the code of the code by automatic coding and the code registered in the music database The function to be used is compared and the code to be used is selected. Therefore, there is a conspicuous error that the coding by automatic coding is different from the code registered in the music database in terms of the function of the code, and a large loss code is added. Can be prevented.

さらにまた、楽曲データベースに登録されているコードと機能が同じであった場合に、自動コード付けを選択するようにすることで、コードの機能が大ハズレでは無いことを確認した上で、自動コード付けによるコード付けアルゴリズムを尊重したコードを選択できることから、より適切なコードを用いた自動伴奏を行うことができるようになる。   Furthermore, if the chord registered in the music database has the same function as the chord, the automatic chording is selected to confirm that the chord function is not a big loss. Since it is possible to select a chord that respects the chording algorithm, the automatic accompaniment using a more appropriate chord can be performed.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[付記1]
複数の楽曲のそれぞれについて、メロディ情報と当該メロディ情報に対応するコードとが楽曲データとして記憶されている楽曲データベース手段と、
演奏操作子の操作に対応して順次楽音の発生を指示するための演奏情報を記憶する演奏記憶手段と、
前記演奏記憶手段に記憶された演奏情報に基づいて、前記楽曲データベース手段から当該演奏情報に対応するメロディ情報を有する楽曲データを検索する楽曲検索手段と、
前記演奏記憶手段に記憶されている演奏情報から、コードを判定するコード判定手段と、
前記楽曲検索手段によって検索された楽曲に対応して記憶されたコード及び前記コード判定手段によって判定されたコードのうち、いずれのコードを用いるかを選択するコード選択手段と、
前記コード選択手段によって選択されたコードに基づいた、伴奏音の発生を指示する自動伴奏手段と、
を備えたことを特徴とする自動伴奏装置。
Hereinafter, the invention described in the scope of claims of the present application will be appended.
[Appendix 1]
For each of a plurality of music pieces, a music database means in which melody information and a code corresponding to the melody information are stored as music data;
Performance storage means for storing performance information for sequentially instructing the generation of musical sounds corresponding to the operation of the performance operator;
Music search means for searching music data having melody information corresponding to the performance information from the music database means based on performance information stored in the performance storage means;
Chord determination means for determining chords from performance information stored in the performance storage means;
Code selection means for selecting which code to use among the code stored corresponding to the music searched by the music search means and the code determined by the code determination means;
Automatic accompaniment means for instructing the generation of an accompaniment sound based on the chord selected by the chord selection means;
An automatic accompaniment device characterized by comprising:

[付記2]
前記コード選択手段は、前記楽曲検索手段によって検索された楽曲データに対応して記憶されたコード及び前記コード判定手段によって判定されたコード夫々のコードの機能を比較し、このコードの機能の比較結果に基づいてコードを選択することを特徴とする付記1に記載の自動伴奏装置。
[Appendix 2]
The chord selection means compares the chord function stored in correspondence with the song data searched by the song searching means and the chord function determined by the chord determination means, and the comparison result of the chord function The automatic accompaniment apparatus according to appendix 1, wherein a chord is selected based on

[付記3]
前記コード選択手段は、前記楽曲検索手段によって検索された楽曲データに対応して記憶されたコード及び前記コード判定手段によって判定されたコード夫々のコードの機能が一致した場合は、前記コード判定手段によって判定されたコードを選択するとともに、当該コードの機能が一致しない場合には、前記楽曲データに記憶されているコードを選択することを特徴とする付記2に記載の自動伴奏装置。
[Appendix 3]
When the chord selection means matches the function of the chord stored in correspondence with the music data searched by the music searching means and the chord determined by the chord determination means, the chord determination means The automatic accompaniment apparatus according to appendix 2, wherein the determined chord is selected, and if the function of the chord does not match, the chord stored in the music data is selected.

[付記4]
前記コード選択手段は、前記楽曲検索手段によって前記楽曲データベース手段から当該演奏情報に対応するメロディ情報を有する楽曲が検索されなかった場合に、前記コード判定手段によって判定されたコードを選択することを特徴とする、付記1から3のいずれかに記載の自動伴奏装置。
[Appendix 4]
The chord selection means selects the chord determined by the chord determination means when the music search means does not search the music database means for a song having melody information corresponding to the performance information. The automatic accompaniment apparatus according to any one of appendices 1 to 3.

[付記5]
前記楽曲検索手段は、前記演奏操作子により順次発音の指示された楽音のうち、第1音目の楽音の音長と、夫々入力された楽音の音長との比率に基づき前記楽曲データベース手段から対応する楽曲を順位を付けて検索することを特徴とする付記1から4のいずれかに記載の自動伴奏装置。
[Appendix 5]
The music search means is based on the ratio of the tone length of the first tone and the tone length of the input musical tone among the tone sounds that are sequentially instructed by the performance operator. 5. The automatic accompaniment apparatus according to any one of supplementary notes 1 to 4, wherein corresponding music is searched by ranking.

[付記6]
前記コード判定手段は、記演奏操作子の演奏情報の調性を判定するキー判定手段を備え、
前記楽曲検索手段は、前記楽曲データベース手段に記憶された楽曲データを前記キー判定手段によって判定されたキーに基づき移調し、当該移調された楽曲データ及び前記演奏情報に基づいて、前記楽曲データベース手段から対応する楽曲を検索することを特徴とする付記1から5のいずれかに記載の自動伴奏装置。
[Appendix 6]
The chord determination means comprises key determination means for determining the tonality of performance information of the musical performance operator,
The music search means transposes the music data stored in the music database means based on the key determined by the key determination means, and from the music database means based on the transposed music data and the performance information. The automatic accompaniment apparatus according to any one of appendices 1 to 5, wherein a corresponding music piece is searched.

[付記7]
前記キー判定手段によるキー判定が未確定の場合には、前記楽曲検索手段は、前記楽曲データベース手段に記憶された楽曲データに対応するメロディ情報に含まれる音高データに基づく楽曲検索と、当該音高データ間の相対的な音程間隔データに基づく楽曲検索とを組み合わせて楽曲を検索することを特徴とする付記6に記載の自動伴奏装置。
[Appendix 7]
When the key determination by the key determination means is unconfirmed, the music search means searches for music based on pitch data included in melody information corresponding to music data stored in the music database means, The automatic accompaniment apparatus according to appendix 6, wherein music is searched by combining music search based on relative pitch interval data between high data.

[付記8]
前記楽曲データベース手段に記憶された各楽曲データは、単一の調で記憶されていることを特徴とする付記1から7のいずれかに記載の自動伴奏装置。
[Appendix 8]
The automatic accompaniment apparatus according to any one of appendices 1 to 7, wherein each piece of music data stored in the music database means is stored in a single key.

[付記9]
前記楽曲データベース手段に記憶された各楽曲データが、原曲の調で記録されていることを特徴とする付記1から7のいずれかに記載の自動伴奏装置。
[Appendix 9]
The automatic accompaniment apparatus according to any one of appendices 1 to 7, wherein each piece of music data stored in the music database means is recorded in the key of the original music.

[付記10]
複数の楽曲のそれぞれについて、メロディ情報と当該メロディ情報に対応するコードとが楽曲データとして記憶されている楽曲データベース手段と、演奏操作子の操作に対応して順次楽音の発生を指示する演奏情報を記憶する演奏記憶手段と、を有する自動伴奏装置に用いられる自動伴奏方法であって、
前記演奏記憶手段に記憶された演奏情報に基づいて、前記楽曲データベース手段から当該演奏情報に対応するメロディ情報を有する楽曲データを検索し、
前記演奏記憶手段に記憶されている演奏情報から、コードを判定し、
前記楽曲検索手段によって検索された楽曲に対応して記憶されたコード及び前記コード判定手段によって判定されたコードのうち、いずれのコードを用いるかを選択し、
前記コード選択手段によって選択されたコードに基づいた、伴奏音の発生を指示する、自動伴奏方法。
[Appendix 10]
For each of a plurality of songs, music database means in which melody information and a code corresponding to the melody information are stored as music data, and performance information for sequentially instructing the generation of musical sounds corresponding to the operation of the performance operator An automatic accompaniment method used in an automatic accompaniment apparatus having a performance storage means for storing,
Based on the performance information stored in the performance storage means, search the music data having melody information corresponding to the performance information from the music database means,
From the performance information stored in the performance storage means, a chord is determined,
Select which code to use from the code stored corresponding to the music searched by the music search means and the code determined by the code determination means,
An automatic accompaniment method for instructing generation of an accompaniment sound based on a chord selected by the chord selection means.

[付記11]
複数の楽曲のそれぞれについて、メロディ情報と当該メロディ情報に対応するコードとが楽曲データとして記憶されている楽曲データベース手段と、演奏操作子の操作に対応して順次楽音の発生を指示する演奏情報を記憶する演奏記憶手段と、を備えた自動伴奏装置として用いられるコンピュータに、
前記演奏記憶手段に記憶された演奏情報に基づいて、前記楽曲データベース手段から当該演奏情報に対応するメロディ情報を有する楽曲データを検索する楽曲検索ステップと、
前記演奏記憶手段に記憶されている演奏情報から、コードを判定するコード判定ステップと、
前記検索された楽曲に対応して記憶されたコード及び前記判定されたコードのうち、いずれのコードを用いるかを選択するコード選択ステップと、
前記選択されたコードに基づいた、伴奏音の発生を指示する自動伴奏ステップと、
を実行させる自動伴奏プログラム。
[Appendix 11]
For each of a plurality of songs, music database means in which melody information and a code corresponding to the melody information are stored as music data, and performance information for sequentially instructing the generation of musical sounds corresponding to the operation of the performance operator A computer used as an automatic accompaniment device comprising a performance storage means for storing,
A music search step for searching music data having melody information corresponding to the performance information from the music database means based on the performance information stored in the performance storage means;
A chord determination step for determining chords from the performance information stored in the performance storage means;
A code selection step for selecting which code to use among the code stored corresponding to the searched music and the determined code;
An automatic accompaniment step for instructing the generation of an accompaniment sound based on the selected chord;
Automatic accompaniment program that executes

10…電子楽器,11…鍵盤,12、13…スイッチ,15…表示部,21…CPU,22…ROM,23…RAM,24…サウンドシステム,25…スイッチ群,26…音源部,27…オーディオ回路,28…スピーカ,30…楽曲データベース,2000…ダイ
アトニックレジスタ,2001〜2005…単位レジスタ,2100…ダイアトニックスケールテーブル,2200…仮コード決定マップ,2300…コードデータベース
DESCRIPTION OF SYMBOLS 10 ... Electronic musical instrument, 11 ... Keyboard, 12, 13 ... Switch, 15 ... Display part, 21 ... CPU, 22 ... ROM, 23 ... RAM, 24 ... Sound system, 25 ... Switch group, 26 ... Sound source part, 27 ... Audio Circuit, 28 ... Speaker, 30 ... Music database, 2000 ... Diatonic register, 2001-2005 ... Unit register, 2100 ... Diatonic scale table, 2200 ... Temporary code determination map, 2300 ... Code database

本発明は、コード選択装置、自動伴奏装置、自動伴奏方法およびコード選択方法に関する。 The present invention relates to a chord selection device, an automatic accompaniment device, an automatic accompaniment method, and a chord selection method .

本発明は上記のような点に鑑みなされたもので、メロディ音の履歴に基づいて精度の良い適切なコード付けを迅速に行うことができるコード選択装置、自動伴奏装置、自動伴奏方法およびコード選択方法を提供することを目的とする。 The present invention has been made in view of the above points. A chord selection device, an automatic accompaniment device, an automatic accompaniment method, and chord selection that can quickly perform appropriate and accurate chording based on a history of melody sounds. It aims to provide a method .

上記目的を達成するため、本発明の一態様のコード選択方法は、演奏されるメロディに対応するコードを選択するコード選択装置に用いられるコード選択方法であって、演奏されるメロディに対応するコードを、第1の判定方法と第2の判定方法とを含む複数の異なる判定方法を用いて判定し、前記第1の判定方法により判定された第1のコードの機能と、前記第2の判定方法により判定された第2のコードの機能とを比較し、この比較結果に基づいて前記第1のコードと前記第2のコードのいずれかを選択する、ことを特徴とする。 In order to achieve the above object, a chord selection method according to one aspect of the present invention is a chord selection method used in a chord selection device that selects a chord corresponding to a melody to be played, the chord corresponding to the melody being played. Is determined using a plurality of different determination methods including a first determination method and a second determination method, and the function of the first code determined by the first determination method and the second determination The function of the second code determined by the method is compared, and either the first code or the second code is selected based on the comparison result .

また、本発明の他の態様の自動伴奏方法は、演奏されるメロディに対応する伴奏音を発生する自動伴奏装置に用いられる自動伴奏方法であって、複数の楽曲のそれぞれについて、メロディに対応するコードが楽曲データとして記憶されている楽曲データベースから、演奏されるメロディに対応する楽曲データを検索し、前記検索された楽曲データに含まれるコードを、前記メロディに対応するコードとして判定し、演奏されるメロディに対応する楽音の発生に対応させて、前記判定されたコードに基づいた伴奏音を発生させ、前記楽曲データの検索において、前記メロディを構成する複数の楽音のうち、第1音目の楽音の音長と、第2音目以降の各々の楽音の音長との比率に基づき前記楽曲データベースから対応する楽曲データを検索することを特徴とする。An automatic accompaniment method according to another aspect of the present invention is an automatic accompaniment method used in an automatic accompaniment device that generates an accompaniment sound corresponding to a melody to be played, and each of a plurality of musical pieces corresponds to a melody. Music data corresponding to the melody to be played is searched from the music database in which the chord is stored as music data, and the chord included in the searched music data is determined as the code corresponding to the melody and played. In response to the generation of a musical sound corresponding to the melody, an accompaniment sound is generated based on the determined chord, and in the search of the music data, the first musical sound among the plurality of musical sounds constituting the melody is searched. The corresponding music data is searched from the music database based on the ratio between the musical sound length and the second musical sound length after the second sound. The features.

また、本発明の他の態様の自動伴奏方法は、演奏されるメロディに対応する伴奏音を発生する自動伴奏装置に用いられる自動伴奏方法であって、演奏操作子が操作される毎に、操作された演奏操作子に対応する楽音の発生を指示し、前記演奏操作子の操作履歴に基づいて楽曲データベースから楽曲データを検索し、前記検索される楽曲データに含まれるコードに基づいた伴奏音の発生を指示し、前記演奏操作子の連続的な操作に応じて繰り返し楽音の発生が指示されている複数のタイミングで、各タイミングにおける前記演奏操作子の操作履歴に基づき前記楽曲データベースから楽曲データの検索を行なうように制御する、ことを特徴とする。An automatic accompaniment method according to another aspect of the present invention is an automatic accompaniment method used in an automatic accompaniment device that generates an accompaniment sound corresponding to a melody to be played, and is operated every time a performance operator is operated. Instructing the generation of a musical sound corresponding to the played operation element, searching for music data from the music database based on the operation history of the performance operator, and playing the accompaniment sound based on the code included in the searched music data Generation of music data from the music database based on the operation history of the performance operator at each timing at a plurality of timings at which generation of musical sounds is instructed repeatedly according to continuous operation of the performance operator. It is characterized by controlling to perform a search.

本発明によれば、メロディ音の履歴に基づいて、自動的なコード付けを行なう場合に、精度の良い適切なコード付けを迅速に行うことが可能となる。 According to the present invention, when automatic coding is performed based on a history of melody sounds, it is possible to quickly perform appropriate and accurate coding.

Claims (12)

演奏操作子の操作に対応して楽音の発生を指示するための演奏情報を前記演奏操作子の操作毎に順次メモリに記憶させる演奏記憶手段と、
前記演奏情報が前記メモリに記憶される毎に、前記メモリに記憶された演奏情報に基づいて、複数の楽曲のそれぞれについて、メロディ情報と当該メロディ情報に対応するコードとが楽曲データとして記憶されている楽曲データベース手段から当該演奏情報に対応するメロディ情報を有する楽曲データを検索する楽曲検索手段と、
前記メモリに記憶されている演奏情報から、コードを判定するコード判定手段と、
前記楽曲検索手段によって検索された楽曲に対応して記憶されたコード及び前記コード判定手段によって判定されたコードのうち、いずれのコードを用いるかを選択するコード選択手段と、
前記コード選択手段によって選択されたコードに基づいた、伴奏音の発生を指示する自動伴奏手段と、
を備えたことを特徴とする自動伴奏装置。
Performance storage means for sequentially storing performance information for instructing the generation of musical sounds corresponding to the operation of the performance operator in the memory for each operation of the performance operator;
Each time the performance information is stored in the memory, melody information and a code corresponding to the melody information are stored as music data for each of a plurality of music based on the performance information stored in the memory. Music search means for searching music data having melody information corresponding to the performance information from the music database means,
Chord determination means for determining chords from performance information stored in the memory;
Code selection means for selecting which code to use among the code stored corresponding to the music searched by the music search means and the code determined by the code determination means;
Automatic accompaniment means for instructing the generation of an accompaniment sound based on the chord selected by the chord selection means;
An automatic accompaniment device characterized by comprising:
前記コード選択手段は、前記楽曲検索手段によって検索された楽曲データに対応して記憶されたコード及び前記コード判定手段によって判定されたコード夫々のコードの機能を比較し、このコードの機能の比較結果に基づいてコードを選択することを特徴とする請求項1に記載の自動伴奏装置。   The chord selection means compares the chord function stored in correspondence with the song data searched by the song searching means and the chord function determined by the chord determination means, and the comparison result of the chord function 2. The automatic accompaniment apparatus according to claim 1, wherein a chord is selected based on the chord. 前記コード選択手段は、前記楽曲検索手段によって検索された楽曲データに対応して記憶されたコード及び前記コード判定手段によって判定されたコード夫々のコードの機能が一致した場合は、前記コード判定手段によって判定されたコードを選択するとともに、当該コードの機能が一致しない場合には、前記楽曲データに記憶されているコードを選択することを特徴とする請求項2に記載の自動伴奏装置。   When the chord selection means matches the function of the chord stored in correspondence with the music data searched by the music searching means and the chord determined by the chord determination means, the chord determination means 3. The automatic accompaniment apparatus according to claim 2, wherein a chord stored in the music data is selected when the determined chord is selected and the function of the chord does not match. 前記コード選択手段は、前記楽曲検索手段によって前記楽曲データベース手段から当該演奏情報に対応するメロディ情報を有する楽曲が検索されなかった場合に、前記コード判定手段によって判定されたコードを選択することを特徴とする、請求項1から3のいずれかに記載の自動伴奏装置。   The chord selection means selects the chord determined by the chord determination means when the music search means does not search the music database means for a song having melody information corresponding to the performance information. An automatic accompaniment apparatus according to any one of claims 1 to 3. 前記楽曲検索手段は、前記演奏操作子により順次発音の指示された楽音のうち、第1音目の楽音の音長と、夫々入力された楽音の音長との比率に基づき前記楽曲データベース手段から対応する楽曲を順位を付けて検索することを特徴とする請求項1から4のいずれかに記載の自動伴奏装置。   The music search means is based on the ratio of the tone length of the first tone and the tone length of the input musical tone among the tone sounds that are sequentially instructed by the performance operator. 5. The automatic accompaniment apparatus according to any one of claims 1 to 4, wherein the corresponding music is searched by ranking. 前記コード判定手段は、前記演奏操作子の演奏情報の調性を判定するキー判定手段を備え、
前記楽曲検索手段は、前記楽曲データベース手段に記憶された楽曲データを前記キー判定手段によって判定されたキーに基づき移調し、当該移調された楽曲データ及び前記演奏情報に基づいて、前記楽曲データベース手段から対応する楽曲を検索することを特徴とする請求項1から5のいずれかに記載の自動伴奏装置。
The chord determination means includes key determination means for determining the tonality of the performance information of the performance operator,
The music search means transposes the music data stored in the music database means based on the key determined by the key determination means, and from the music database means based on the transposed music data and the performance information. 6. The automatic accompaniment apparatus according to claim 1, wherein corresponding music is searched.
前記キー判定手段によるキー判定が未確定の場合には、前記楽曲検索手段は、前記楽曲データベース手段に記憶された楽曲データに対応するメロディ情報に含まれる音高データに基づく楽曲検索と、当該音高データ間の相対的な音程間隔データに基づく楽曲検索とを組み合わせて楽曲を検索することを特徴とする請求項6に記載の自動伴奏装置。   When the key determination by the key determination means is unconfirmed, the music search means searches for music based on pitch data included in melody information corresponding to music data stored in the music database means, The automatic accompaniment apparatus according to claim 6, wherein music is searched by combining music search based on relative pitch interval data between high data. 前記楽曲データベース手段に記憶された各楽曲データは、単一の調で記憶されていることを特徴とする請求項1から7のいずれかに記載の自動伴奏装置。   The automatic accompaniment apparatus according to any one of claims 1 to 7, wherein each piece of music data stored in the music database means is stored in a single key. 前記楽曲データベース手段に記憶された各楽曲データが、原曲の調で記録されていることを特徴とする請求項1から7のいずれかに記載の自動伴奏装置。   The automatic accompaniment apparatus according to any one of claims 1 to 7, wherein each piece of music data stored in the music database means is recorded in the key of the original music. 自動伴奏装置に用いられる自動伴奏方法であって、
演奏操作子の操作に対応して楽音の発生を指示するための演奏情報を前記演奏操作子の操作毎に順次メモリに記憶させ、
前記演奏情報が前記メモリに記憶される毎に、前記メモリに記憶された演奏情報に基づいて、複数の楽曲のそれぞれについて、メロディ情報と当該メロディ情報に対応するコードとが楽曲データとして記憶されている楽曲データベース手段から当該演奏情報に対応するメロディ情報を有する楽曲データを検索し、
前記メモリに記憶されている演奏情報から、コードを判定し、
前記検索された楽曲に対応して記憶されたコード及び前記判定されたコードのうち、いずれのコードを用いるかを選択し、
前記選択されたコードに基づいた、伴奏音の発生を指示する、自動伴奏方法。
An automatic accompaniment method used in an automatic accompaniment device,
Performance information for instructing the generation of musical sound corresponding to the operation of the performance operator is sequentially stored in the memory for each operation of the performance operator,
Each time the performance information is stored in the memory, melody information and a code corresponding to the melody information are stored as music data for each of a plurality of music based on the performance information stored in the memory. Search music data having melody information corresponding to the performance information from the music database means,
From the performance information stored in the memory, the chord is determined,
Select which code to use from the code stored corresponding to the searched music and the determined code,
An automatic accompaniment method for instructing generation of an accompaniment sound based on the selected chord.
自動伴奏装置として用いられるコンピュータに、
演奏操作子の操作に対応して楽音の発生を指示するための演奏情報を前記演奏操作子の操作毎に順次メモリに記憶させるステップと、
前記演奏情報が前記メモリに記憶される毎に、前記メモリに記憶された演奏情報に基づいて、複数の楽曲のそれぞれについて、メロディ情報と当該メロディ情報に対応するコードとが楽曲データとして記憶されている楽曲データベース手段から当該演奏情報に対応するメロディ情報を有する楽曲データを検索する楽曲検索ステップと、
前記メモリに記憶されている演奏情報から、コードを判定するコード判定ステップと、
前記検索された楽曲に対応して記憶されたコード及び前記判定されたコードのうち、いずれのコードを用いるかを選択するコード選択ステップと、
前記選択されたコードに基づいた、伴奏音の発生を指示する自動伴奏ステップと、
を実行させる自動伴奏プログラム。
In a computer used as an automatic accompaniment device,
Storing performance information for instructing the generation of musical sounds corresponding to the operation of the performance operator in the memory sequentially for each operation of the performance operator;
Each time the performance information is stored in the memory, melody information and a code corresponding to the melody information are stored as music data for each of a plurality of music based on the performance information stored in the memory. A music search step for searching music data having melody information corresponding to the performance information from the music database means;
A chord determination step for determining chords from the performance information stored in the memory;
A code selection step for selecting which code to use among the code stored corresponding to the searched music and the determined code;
An automatic accompaniment step for instructing the generation of an accompaniment sound based on the selected chord;
Automatic accompaniment program that executes
演奏操作子の操作に対応して楽音の発生を指示するための演奏情報を前記演奏操作子の操作毎に順次メモリに記憶させる演奏記憶手段と、
前記演奏情報が前記メモリに記憶される毎に、前記メモリに記憶された演奏情報に基づいて、複数の楽曲のそれぞれについてメロディ情報と当該メロディ情報に対応するコードとが楽曲データとして記憶されている楽曲データベース手段から当該演奏情報に対応するメロディ情報を有する楽曲データを検索する楽曲検索手段と、
前記メモリに記憶されている演奏情報から、コードを判定するコード判定手段と、
前記楽曲検索手段によって検索された楽曲に対応して記憶されたコード及び前記コード判定手段によって判定されたコードのうち、いずれのコードを用いるかを選択するコード選択手段と、
を備えたことを特徴とするコード選択装置。
Performance storage means for sequentially storing performance information for instructing the generation of musical sounds corresponding to the operation of the performance operator in the memory for each operation of the performance operator;
Each time the performance information is stored in the memory, melody information and a code corresponding to the melody information are stored as music data for each of a plurality of music based on the performance information stored in the memory. Music search means for searching music data having melody information corresponding to the performance information from the music database means;
Chord determination means for determining chords from performance information stored in the memory;
Code selection means for selecting which code to use among the code stored corresponding to the music searched by the music search means and the code determined by the code determination means;
A code selection device comprising:
JP2016219320A 2016-11-10 2016-11-10 Code selection method and code selection device Active JP6421811B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016219320A JP6421811B2 (en) 2016-11-10 2016-11-10 Code selection method and code selection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016219320A JP6421811B2 (en) 2016-11-10 2016-11-10 Code selection method and code selection device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013051160A Division JP6040809B2 (en) 2013-03-14 2013-03-14 Chord selection device, automatic accompaniment device, automatic accompaniment method, and automatic accompaniment program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018064438A Division JP6658785B2 (en) 2018-03-29 2018-03-29 Automatic accompaniment method and automatic accompaniment device

Publications (2)

Publication Number Publication Date
JP2017027087A true JP2017027087A (en) 2017-02-02
JP6421811B2 JP6421811B2 (en) 2018-11-14

Family

ID=57945917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016219320A Active JP6421811B2 (en) 2016-11-10 2016-11-10 Code selection method and code selection device

Country Status (1)

Country Link
JP (1) JP6421811B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110299126A (en) * 2018-03-23 2019-10-01 卡西欧计算机株式会社 Electronic musical instrument, electronic musical instrument course processing method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0511763A (en) * 1991-06-29 1993-01-22 Casio Comput Co Ltd Note property judging deivce and automatic accompaniment device
JPH05257473A (en) * 1992-03-16 1993-10-08 Yamaha Corp Electronic musical instrument provided with automatic playing function
US5440756A (en) * 1992-09-28 1995-08-08 Larson; Bruce E. Apparatus and method for real-time extraction and display of musical chord sequences from an audio signal
JPH0981149A (en) * 1995-09-12 1997-03-28 Korugu:Kk Chord formation for accompaniment and chord progressing forming device
JP2000259154A (en) * 1999-03-05 2000-09-22 Casio Comput Co Ltd Code judging device
JP2014178396A (en) * 2013-03-14 2014-09-25 Casio Comput Co Ltd Chord selector, auto-accompaniment device using the same, and auto-accompaniment program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0511763A (en) * 1991-06-29 1993-01-22 Casio Comput Co Ltd Note property judging deivce and automatic accompaniment device
JPH05257473A (en) * 1992-03-16 1993-10-08 Yamaha Corp Electronic musical instrument provided with automatic playing function
US5440756A (en) * 1992-09-28 1995-08-08 Larson; Bruce E. Apparatus and method for real-time extraction and display of musical chord sequences from an audio signal
JPH0981149A (en) * 1995-09-12 1997-03-28 Korugu:Kk Chord formation for accompaniment and chord progressing forming device
JP2000259154A (en) * 1999-03-05 2000-09-22 Casio Comput Co Ltd Code judging device
JP2014178396A (en) * 2013-03-14 2014-09-25 Casio Comput Co Ltd Chord selector, auto-accompaniment device using the same, and auto-accompaniment program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110299126A (en) * 2018-03-23 2019-10-01 卡西欧计算机株式会社 Electronic musical instrument, electronic musical instrument course processing method
CN110299126B (en) * 2018-03-23 2023-06-13 卡西欧计算机株式会社 Electronic musical instrument and electronic musical instrument course processing method

Also Published As

Publication number Publication date
JP6421811B2 (en) 2018-11-14

Similar Documents

Publication Publication Date Title
JP6040809B2 (en) Chord selection device, automatic accompaniment device, automatic accompaniment method, and automatic accompaniment program
JP3704980B2 (en) Automatic composer and recording medium
US8680387B2 (en) Systems and methods for composing music
US9117432B2 (en) Apparatus and method for detecting chord
US8324493B2 (en) Electronic musical instrument and recording medium
JP5168297B2 (en) Automatic accompaniment device and automatic accompaniment program
JP5293710B2 (en) Key judgment device and key judgment program
JP4506175B2 (en) Fingering display device and program thereof
JP6421811B2 (en) Code selection method and code selection device
JP2019200427A (en) Automatic arrangement method
JP6658785B2 (en) Automatic accompaniment method and automatic accompaniment device
WO2019180830A1 (en) Singing evaluating method, singing evaluating device, and program
JP2012098480A (en) Chord detection device and program
JP3804500B2 (en) Music score editing device
JP5909967B2 (en) Key judgment device, key judgment method and key judgment program
JP6606844B2 (en) Genre selection device, genre selection method, program, and electronic musical instrument
JP3005915B2 (en) Electronic musical instrument
JP2940449B2 (en) Automatic performance device
JP6554826B2 (en) Music data retrieval apparatus and music data retrieval program
JP2001128959A (en) Calorie consumption measuring device in musical performance
JP5564921B2 (en) Electronic musical instruments
JP3807333B2 (en) Melody search device and melody search program
JP3316547B2 (en) Chording device
JP4360356B2 (en) Concert support system
CN113140201A (en) Accompaniment sound generation device, electronic musical instrument, accompaniment sound generation method, and accompaniment sound generation program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181001

R150 Certificate of patent or registration of utility model

Ref document number: 6421811

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150