JP2005208154A - Musical piece retrieval system and musical piece retrieval program - Google Patents
Musical piece retrieval system and musical piece retrieval program Download PDFInfo
- Publication number
- JP2005208154A JP2005208154A JP2004012201A JP2004012201A JP2005208154A JP 2005208154 A JP2005208154 A JP 2005208154A JP 2004012201 A JP2004012201 A JP 2004012201A JP 2004012201 A JP2004012201 A JP 2004012201A JP 2005208154 A JP2005208154 A JP 2005208154A
- Authority
- JP
- Japan
- Prior art keywords
- data
- music
- song
- accompaniment
- melody
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
Description
本発明は、楽曲検索装置及び楽曲検索プログラムに関するものである。 The present invention relates to a music search device and a music search program.
従来から楽曲を検索する機能を有する装置、あるいはマイナスワン演奏の機能を有する楽器が知られている。
これは例えば、利用者が所望の楽曲のメロディを歌唱すると、この歌声に含まれるピッチと拍子のデータを抽出して通信回線を介してサーバーに送信する。そしてこのサーバーに記憶されている複数の楽曲データの中から送られてきた抽出データと一致する曲情報を検索して利用者に提供するように構成されている。(例えば、特許文献1参照)
また、複数のパートを自動演奏する電子楽器において、この複数のパートの中から利用者の演奏する特定のパートを選択してこのパートの楽音だけをミュートして、他のパートを自動演奏するように構成されている。(例えば、特許文献2及び特許文献3参照)
Conventionally, a device having a function of searching for music or a musical instrument having a function of minus one performance is known.
For example, when the user sings a melody of a desired song, the pitch and time data included in the singing voice are extracted and transmitted to the server via the communication line. The music information that matches the extracted data sent from the music data stored in the server is searched and provided to the user. (For example, see Patent Document 1)
Also, in an electronic musical instrument that automatically plays multiple parts, a specific part played by the user is selected from the multiple parts, and only the musical tone of this part is muted, and other parts are automatically played. It is configured. (For example, see
従来の楽曲検索装置は、利用者が所望とする曲のメロディの一部を歌唱或いは演奏すると、この楽曲に関わる曲情報を検索して、当該楽曲のメロディパート或いは全パートの楽音を発音して利用者に試聴させ、この試聴した楽曲が利用者の所望とする楽曲であるか否か確認させるための構成を有していた。
このような従来の楽曲検索装置は、利用者の所望とする楽曲の情報を検索して利用者に当該音楽ソフトなどの購入に役立てるために、曲名、作曲者、発売元、などの曲情報の案内或いは試聴サービスなどを提供するものであって、検索した楽曲のメロディパートをミュートして伴奏パートを自動演奏するなど演奏を支援することはできなかったという問題があった。
また、従来のマイナスワン機能を有する電子楽器は、利用者が所望の楽曲を選択して演奏する場合に、この電子楽器内のメモリに記憶されている複数の楽曲情報の中から、操作子を用いて選択することになるので、メロディは知っていても曲名が分からないとこの所望の楽曲は検索できないという問題があった。
When a user sings or plays a part of a melody of a song desired by a user, the conventional music search device searches for song information related to the song and pronounces the melody part of the song or all parts of the music. It has a configuration for allowing the user to audition and confirming whether or not the sampled music is the music desired by the user.
Such a conventional music search device searches for music information desired by the user and helps the user to purchase the music software, etc. There is a problem of providing guidance or a trial listening service, and cannot support performance such as automatically playing the accompaniment part by muting the melody part of the searched music.
In addition, in the conventional electronic musical instrument having the minus one function, when a user selects and plays a desired musical piece, an operator is selected from a plurality of pieces of musical piece information stored in a memory in the electronic musical instrument. Since the melody is known, the desired song cannot be searched unless the song title is known.
請求項1に係る発明においては、メロディデータと伴奏データを含む楽曲及び当該楽曲に対応する楽譜データからなるデータ群を複数個記憶する曲データ記憶手段と、楽器の演奏操作に対応して発生する音高データ群を検出する演奏操作データ検出手段と、前記演奏操作データ検出手段によって検出された音高データ群と前記曲データ記憶手段に記憶されている複数のメロディデータとを照合して、この音高データ群を有するメロディデータを含む楽曲を検索する曲データ検索手段と、前記曲データ検索手段によって検索された楽曲に対応する楽譜データを読み出してこの楽譜を表示手段に表示させる楽譜表示制御手段と、前記曲データ検索手段によって検索された楽曲に含まれる伴奏データを読み出してこの伴奏の楽音を生成する楽音生成手段と、を具備することを特徴とする。
このような構成にすることによって、利用者は楽曲の曲名を知らなくてもメロディの一部分であるフレーズが弾ければ、当該所望とする曲データを検索してこの曲の楽譜を表示するとともに、この曲の伴奏データを検索して自動演奏するので、利用者の演奏するメロディ演奏とアンサンブル演奏が可能となる。
According to the first aspect of the present invention, music data storage means for storing a plurality of data groups composed of music including melody data and accompaniment data and musical score data corresponding to the music, and generated in response to a musical instrument performance operation. A performance operation data detecting means for detecting a pitch data group, a pitch data group detected by the performance operation data detecting means and a plurality of melody data stored in the song data storage means are collated, Music data search means for searching for music containing melody data having a pitch data group, and music score display control means for reading music score data corresponding to the music searched by the music data search means and displaying the music on the display means A musical tone generator that reads accompaniment data included in the music searched by the music data search means and generates a musical sound of the accompaniment Characterized by comprising a stage, a.
With this configuration, if a user plays a phrase that is part of a melody without knowing the name of the song, the user searches for the desired song data and displays the score of the song. Since music accompaniment data is searched and automatically played, melody performance and ensemble performance performed by the user are possible.
また請求項2記載のように、楽曲検索装置は、更に、楽器の演奏操作速度に基づいて演奏テンポを算出するテンポ算出手段を具備し、曲データ記憶手段に記憶されている伴奏データは、演奏テンポに応じた複数種類の伴奏パターンデータからなり、楽音生成手段は、テンポ算出手段によって算出された演奏テンポに基づいて、曲データ記憶手段に記憶されている伴奏パターンデータを選択して読み出し、この伴奏パターンデータの楽音を生成するようにしてもよい。 According to a second aspect of the present invention, the music search device further includes a tempo calculation means for calculating a performance tempo based on the performance operation speed of the musical instrument, and the accompaniment data stored in the music data storage means is the performance data. The musical tone generation means selects and reads out the accompaniment pattern data stored in the song data storage means based on the performance tempo calculated by the tempo calculation means. The musical tone of the accompaniment pattern data may be generated.
また請求項3記載のように、曲データ検索手段は、検出された音高データに基づいたフレーズを生成し、このフレーズと曲データ記憶手段に記憶されている複数の各メロディデータを照合して、このフレーズを有するメロディデータの楽曲を検索するようにしてもよい。 According to a third aspect of the present invention, the song data search means generates a phrase based on the detected pitch data, and collates this phrase with each of a plurality of melody data stored in the song data storage means. Alternatively, a song of melody data having this phrase may be searched.
本発明は、請求項4に記載のように、上記各手段の動作手順をプログラム化し、コンピュータに実行させることにより実施できる。その際、コンピュータプログラムはハードディスク等のディスク型記録媒体、半導体メモリやカード型メモリ等の各種メモリ、或いは通信ネットワーク等の各種プログラム記録媒体を通じてコンピュータに供給することができる。 As described in claim 4, the present invention can be implemented by programming the operation procedure of each means described above and causing a computer to execute it. At that time, the computer program can be supplied to the computer through a disk-type recording medium such as a hard disk, various memories such as a semiconductor memory or a card-type memory, or various program recording media such as a communication network.
本発明の楽曲検索装置は、利用者の所望とする楽曲のメロディの一部分が演奏されると、メモリに記憶されている複数の楽曲情報の中から該当する楽曲を検索して、この楽曲に含まれる楽譜を表示するとともに伴奏パートを自動演奏するので、利用者は演奏したい楽曲の曲名を忘れてしまっていたり、或いは伴奏パートが弾けなくてもメロディさえ弾ければ、当該楽曲の楽譜を表示するとともに自動伴奏によりアンサンブルを楽しむことができるという効果を奏するものである。 When a part of a melody of a music desired by a user is played, the music search device of the present invention searches for the corresponding music from a plurality of music information stored in the memory, and is included in this music And the accompaniment part is automatically played, so if the user has forgotten the name of the song he wants to play, or if the accompaniment part can't be played, the user will be able to display the score for that song. The effect is that an ensemble can be enjoyed by automatic accompaniment.
所望とする曲のメロディの一部を演奏するとこのメロディに該当する楽曲を検索してこの楽曲に含まれる楽譜を表示すると共に伴奏パートを自動演奏する。 When a part of the melody of the desired song is played, the music corresponding to this melody is searched, the score included in this song is displayed, and the accompaniment part is automatically played.
図1は、本発明の実施形態における本発明の全体構成のブロック図を示す。
本実施形態の楽曲検索装置は、電子鍵盤楽器に適用した場合を例にあげている。
CPU101は、バスライン108を介してこの楽曲検索装置を構成する後述の各回路、装置に接続され、各種データを授受して全体の機能を統制する。
FIG. 1 shows a block diagram of the overall configuration of the present invention in an embodiment of the present invention.
The music search device of this embodiment is exemplified as an example applied to an electronic keyboard instrument.
The
ROM102は、CPU101において、定められた手順に従い各種機能の処理を実行するためのプログラムを記憶している。
The
RAM103は、一時的に各種データをストアする複数のデータエリアと、後述する処理に用いられる各種レジスタを記憶するワークエリアと、複数からなる曲データのデーターベースのエリア(以下、曲DBと称す)を有する。
The
通信機器104は、検索すべき楽曲がRAM103から見つからないときは公衆回線を介して外部のサーバーの中から検索するときに用いる装置である。
そして、この所望の楽曲が外部のサーバーより検索されるとこの曲の楽譜データ、メロディデータ、伴奏データの配信を受ける。この配信されたデータはRAM103の曲DBにストアされる。
The
When the desired music is retrieved from an external server, the music score data, melody data, and accompaniment data are received. The distributed data is stored in the song DB of the
次に、操作子群105は、複数のスイッチから成り、電源スイッチ、曲データの再生スタート・ストップスイッチ、曲DB検索をやり直すリセットスイッチ、曲DB検索処理を終了するスイッチ、曲DB検索モード・自動演奏モードの何れかのモードを選択するモードスイッチ、などが設けられている。
Next, the
表示装置106は、検索された楽曲の楽譜データを表示する。
楽音生成装置107は、例えば電子鍵盤楽器が設けられている。
この電子鍵盤楽器は、鍵盤、音源回路、発音装置などから構成されており、鍵操作に応じて楽音信号を生成してこの楽音を発音する。
The
The musical
This electronic keyboard instrument is composed of a keyboard, a tone generator circuit, a sound generator, and the like, and generates a musical sound signal according to a key operation to generate the musical sound.
次に、RAM103内のデータ構成の詳細について第2図を参照して説明する。
RAM103内には複数の曲データのエリアSONG(0)〜SONG(K)が設けられている。この(0)〜(K)は曲番号に相当する。
例えばSONG(0)のエリアは、楽譜(0)、メロディーパートに相当するメロディデータのエリアMELODY(0)と、伴奏パートに相当する伴奏データのエリアBANSO(0)(0)〜BANSO(0)(M)、から成る。
この伴奏データ群は、演奏テンポの速度に応じた複数の伴奏パターンのデータエリアから成る。
Next, details of the data configuration in the
In the
For example, the SONG (0) area includes a musical score (0), a melody data area MELODY (0) corresponding to the melody part, and accompaniment data areas BANSO (0) (0) to BANSO (0) corresponding to the accompaniment part. (M).
This accompaniment data group is composed of a plurality of accompaniment pattern data areas corresponding to the speed of the performance tempo.
メロディデータのエリアMELODY(0)は、音符(0)〜音符(L)の音符エリアから成り、伴奏データのエリアBANSO(0)(0)は、音符(0)〜音符(S)の音符エリアから成る。
メロディデータの音符(0)のエリアには音高(0)と音符長(0)の各データがストアされている。
そして、伴奏データの音符(0)のエリアには音高(0)と音符長(0)の各データがストアされている。
The melody data area MELODY (0) is composed of the note areas of the note (0) to the note (L), and the accompaniment data area BANSO (0) (0) is the note area of the note (0) to the note (S). Consists of.
The pitch (0) and note length (0) data are stored in the note (0) area of the melody data.
In the accompaniment data note (0) area, pitch (0) and note length (0) data are stored.
次に、本発明の基本処理について図3を参照して説明する。
先ず、操作子群105内に設けられている電源スイッチがオンされると、CPU101は本楽曲検索装置全体の各回路を初期設定する(S301)。
そして、モードフラグMODEに曲DB検索モードを示す「0」をセットする(S302)。
このモードフラグMODEが「0」を示すものであるか否かを判定する(S303)。
Next, basic processing of the present invention will be described with reference to FIG.
First, when a power switch provided in the
Then, “0” indicating the music DB search mode is set in the mode flag MODE (S302).
It is determined whether or not the mode flag MODE indicates “0” (S303).
ここで、MODEが「0」を示すものであれば図2に示す複数の曲データSONG(0)〜SONG(K)の中から利用者の所望とする曲DB検索処理を実行し(S304)、MODEが「0」を示すものでなければ自動演奏処理を実行する。
曲DB検索処理及び自動検索処理を夫々実行終了すると、再びS303に戻りモードに応じた処理を繰り返し実行する。
Here, if the MODE indicates “0”, a song DB search process desired by the user is executed from the plurality of song data SONG (0) to SONG (K) shown in FIG. 2 (S304). If MODE does not indicate "0", automatic performance processing is executed.
When the execution of the song DB search process and the automatic search process is completed, the process returns to S303 and the process corresponding to the mode is repeated.
<曲DB検索処理について>
ここで、図3中のS304に示す曲DB検索処理のモードが選択されたときについて図4〜図7を参照して動作を説明する。
先ず、表示装置106内の表示画面上に楽曲を検索するための初期画面を表示する(図4中のS401)。
そして、RAM103内にストアされている複数の曲データの中から利用者の所望とする曲データを検索開始するためのスタートスイッチがオンされたか否かを判定する(S402)。
<About song DB search processing>
Here, the operation when the music DB search processing mode shown in S304 in FIG. 3 is selected will be described with reference to FIGS.
First, an initial screen for searching for music is displayed on the display screen in the display device 106 (S401 in FIG. 4).
Then, it is determined whether or not a start switch for starting a search for music data desired by the user from among a plurality of music data stored in the
ここで、スタートスイッチのオンが検出されなければ、図5中のS513の処理に進み、当該曲DB検索処理を終了するスイッチがオンされたか否かを判定するが、スタートスイッチのオンが検出されると押鍵回数を数えるカウンタnに「0」をセットしてから(S403)、フレーズのデータエリアPHRASE[n]をクリアするとともに(S404)、押鍵時間をストアするレジスタt[n]をクリアして(S405)、次に、鍵走査開始にあたりタイマにより押鍵時間のカウントを開始する(S406)。
次に、楽音生成装置107内に設けられている複数の鍵盤を順次走査して(S407)、何れかの鍵がオン、オフしたか、或いは全く変化がなかったか否かを検出する(S408)。
If it is not detected that the start switch is turned on, the process proceeds to S513 in FIG. 5 to determine whether or not the switch for ending the song DB search process is turned on. However, the start switch is detected to be turned on. Then, after setting “0” to the counter n for counting the number of times of key pressing (S403), the phrase data area PHRASE [n] is cleared (S404), and the register t [n] for storing the key pressing time is stored. After clearing (S405), next, at the start of key scanning, counting of the key pressing time is started by a timer (S406).
Next, a plurality of keys provided in the
ここで、何れかの鍵がオンしたことが検出されると、この鍵番号をフレーズのデータエリアPHRASE[n]にストアするとともに(S409)、楽音生成装置107内に設けられている音源に対してこの鍵番号に対応する音高の楽音を生成して発音するように指示する(S410)。
そして、タイマのカウントする押鍵時間の値をレジスタt[n]にストアして(S411)、次に押鍵される押鍵時間の計測に備えるためこのタイマのカウント値をクリアしてから(S412)、図5中のS501の処理に進んで押鍵回数を計数するカウンタnを一つ歩進させてからS502の処理に進む。
When it is detected that one of the keys is turned on, this key number is stored in the phrase data area PHRASE [n] (S409), and the sound source provided in the
Then, the value of the key pressing time counted by the timer is stored in the register t [n] (S411), and the timer count value is cleared in preparation for the measurement of the key pressing time to be pressed next ( S412), the process proceeds to S501 in FIG. 5 and the counter n for counting the number of key presses is incremented by one, and then the process proceeds to S502.
一方、S408の処理で何れかの鍵がオフしたことが検出されると、CPU101は当該発音中の楽音を消音するよう音源に対して指示してから(S413)、次に、図5中のS502の処理に進む。
また、S408の処理で何れの鍵においてもオンオフが検出されなければ、図5中のS502の処理に進む。
この図5中のS502の処理では、当該曲DB検索の終了スイッチがオンされたか否かを判定する。
On the other hand, if it is detected in step S408 that any key has been turned off, the
Further, if ON / OFF is not detected for any key in the process of S408, the process proceeds to S502 in FIG.
In the process of S502 in FIG. 5, it is determined whether or not the song DB search end switch is turned on.
ここで、終了スイッチのオンが検出されなければ、図4中の鍵走査の処理S407に戻って、フレーズのデータ入力を繰り返すが、終了スイッチのオンが検出されると、押鍵された音高数をカウントするカウンタnの値をレジスタNにストアして(S503)、当該入力されたフレーズの音高と音高数に基づいてフレーズ検索処理を実行する(S504)。 If it is not detected that the end switch is turned on, the process returns to the key scanning process S407 in FIG. 4 and the phrase data input is repeated. If the end switch is turned on, the pitch of the key pressed is detected. The value of the counter n that counts the number is stored in the register N (S503), and the phrase search process is executed based on the pitch and the number of pitches of the inputted phrase (S504).
<フレーズ検索処理について>
ここで、フレーズ検索処理の動作について図6を参照して詳細に説明する。
先ず、曲データ番号をストアするレジスタKに先頭の曲番号を示す「0」をセットするとともに、伴奏パターン番号をストアするレジスタMに先頭番号を示す「0」をセットし、モードフラグMODEに曲DB検索を示す「0」をセットする(S601)。
次に、曲データの読み出しアドレスを示すレジスタmに初期値「0」をセットする(S602)。
<About phrase search processing>
Here, the operation of the phrase search process will be described in detail with reference to FIG.
First, “0” indicating the head music number is set in the register K for storing the music data number, and “0” indicating the head number is set in the register M for storing the accompaniment pattern number, and the music is set in the mode flag MODE. “0” indicating the DB search is set (S601).
Next, an initial value “0” is set in the register m indicating the read address of the music data (S602).
次に、曲DBのSONG(K)内のメロディデータをストアするエリアMELODYの開始アドレスをレジスタADにストアする(S603)。
そして、音高数を計数するカウンタnに「0」をセットして(S604)、メロディデータのアドレス(AD+m)にストアされている音符の音高を検索の対象とするためにエリアNOTE(n)にストアする(S605)。
Next, the start address of the area MELODY that stores the melody data in the song DB SONG (K) is stored in the register AD (S603).
Then, “0” is set to the counter n for counting the number of pitches (S604), and the area NOTE (n) is used to search the pitches of the notes stored at the address (AD + m) of the melody data. (S605).
この検索対象となるエリアNOTE(n)にストアされた音高がフレーズデータをストアするエリアPHRASE(n)内の音高と比較して等しいか否かを判定する(S606)。
ここで、NOTE(n)にストアされている音高とPHRASE(n)にストアされている音高が等しいと判定されると、カウンタnを一つカウントアップして(S607)、この照合された音高数を示すカウンタnの値がフレーズ入力時に押鍵された音高数を示すエリアNに示される値に達したか否かを判定する(S608)。
ここで、カウンタnの示す値がエリアNに示される値に達したことが検出されると、モードフラグMODEに自動演奏処理のモードを示す「1」をセットして本処理を終了する(S609)。
It is determined whether the pitch stored in the area NOTE (n) to be searched is equal to the pitch in the area PHRASE (n) storing the phrase data (S606).
Here, if it is determined that the pitch stored in NOTE (n) is equal to the pitch stored in PHRASE (n), the counter n is incremented by one (S607), and this comparison is performed. It is determined whether or not the value of the counter n indicating the number of pitches has reached the value indicated in the area N indicating the number of pitches pressed during phrase input (S608).
Here, when it is detected that the value indicated by the counter n has reached the value indicated in the area N, “1” indicating the mode of the automatic performance processing is set in the mode flag MODE, and this processing ends (S609). ).
一方、S606の処理で音高比較用のエリアNOTE(n)に示す音高がフレーズデータのエリアPHRASE(n)に示す音高と等しいと判定されない場合は、曲データ番号をストアするレジスタKの示す値を一つカウントアップして(S610)、このレジスタKの示す値が当該曲DBにストアされている曲データの総数を超えたか否かを判定する(S611)。
ここで、レジスタKの示す値が曲データ総数を超えたことが検出されなければ、S602の処理に戻って、曲DBの次の曲データ番号に移って押鍵によって入力された同じフレーズを有するメロディデータがあるか否かを検索していく。
一方、レジスタKの示す値が曲DB内の曲データ総数を超えたことが検出されると本処理を終了する。このような場合、利用者は通信機器104を介して外部の曲DBのサーバ宛てに、該当する曲データの検索、及び配信を依頼することになる。
On the other hand, if it is not determined in step S606 that the pitch indicated in the pitch comparison area NOTE (n) is equal to the pitch indicated in the phrase data area PHASE (n), the register K that stores the song data number is stored in the register K. The indicated value is incremented by one (S610), and it is determined whether or not the value indicated by the register K exceeds the total number of song data stored in the song DB (S611).
Here, if it is not detected that the value indicated by the register K exceeds the total number of music data, the process returns to S602 to move to the next music data number in the music DB and have the same phrase input by pressing the key. Search for melody data.
On the other hand, when it is detected that the value indicated by the register K exceeds the total number of music data in the music DB, this process is terminated. In such a case, the user requests the search and distribution of the corresponding song data to the external song DB server via the
また、S608の処理で、音高数をカウントするカウンタnの値がフレーズ入力で押鍵された音高数を示すエリアNに示される値に達したことが検出されなければ、メロディデータの読み出しアドレスをストアするレジスタmを歩進する(S612)。
このレジスタmの示すアドレス値は即ちメロディデータの音符数を示すものである。
そして、このレジスタmの示す値とエリアNに示すフレーズ入力の際に押鍵された音高数を加算した値がメロディデータのエリアMELODY(L)の音符数を超えたか否かを判定する(S613)。
ここで、レジスタmに示す値とエリアNに示す値の合計値がメロディエリアMELODY(L)の音符数を超えたことが検出されると、S610の処理に進んで次の曲データを検索しに行く。
If it is not detected in step S608 that the value of the counter n for counting the pitch reaches the value indicated in the area N indicating the number of pitches pressed by the phrase input, the melody data is read. The register m for storing the address is incremented (S612).
The address value indicated by the register m indicates the number of notes of the melody data.
Then, it is determined whether or not a value obtained by adding the value indicated by the register m and the number of pitches pressed at the time of inputting a phrase shown in the area N exceeds the number of notes in the area MELODY (L) of the melody data ( S613).
If it is detected that the total value of the value shown in the register m and the value shown in the area N exceeds the number of notes in the melody area MELODY (L), the process proceeds to S610 to search for the next music data. go to.
一方、レジスタmに示す値とエリアNに示す値の合計値がメロディエリアMELODY(L)の音符数を超えたことが検出されなければ、S604の処理に戻って当該メロディデータの次のアドレスにストアされている音高を検索しに行く。
このように、本フレーズ検索処理は、利用者によって演奏された押鍵数に応じたフレーズのメロディに相当する音高値とその音高数のデータに基づいて、これに一致するメロディデータを曲DBから順次検索するものである。
On the other hand, if it is not detected that the total value of the value shown in the register m and the value shown in the area N exceeds the number of notes in the melody area MELODY (L), the process returns to the process of S604 and the next address of the melody data is set. Go to search for stored pitches.
In this way, the phrase search process is based on the pitch value corresponding to the melody of the phrase corresponding to the number of key presses performed by the user and the data of the pitch number, and the corresponding melody data is stored in the music DB. The search is performed sequentially.
ここで、再び図5の曲DB検索処理の動作説明に戻る。
フレーズの演奏に該当する曲データが検索されると、次にモードフラグMODEが曲DB検索処理を示す「0」であるか否かを判定する(S505)。
このMODEが曲DB検索処理を示す「0」であることが検出されなければ、表示画面上に「曲DB検索のモードに切り換えてください。」というメッセージを一定時間警告表示して利用者にモード切替えを促してから(S512)、再び図4のS401の処理に戻って初めからやり直す。
一方、MODEが曲DB検索処理を示す「0」であることが検出されると、利用者の押鍵操作に応じた伴奏データを検索する(S506)。
Here, it returns to operation | movement description of the music DB search process of FIG. 5 again.
When music data corresponding to the performance of the phrase is searched, it is next determined whether or not the mode flag MODE is “0” indicating the music DB search processing (S505).
If it is not detected that this MODE is “0” indicating the song DB search process, a message “Please switch to the song DB search mode” is displayed on the display screen for a certain time and the mode is displayed to the user. After prompting the switching (S512), the process returns to S401 in FIG. 4 and starts again from the beginning.
On the other hand, when it is detected that the MODE is “0” indicating the song DB search process, accompaniment data corresponding to the user's key pressing operation is searched (S506).
<伴奏検索処理について>
ここで、伴奏検索の処理の動作について図7を参照して詳細に説明する。
先ず、押鍵時間の累積値をストアするエリアTに「0」をセットするとともに(S701)、押鍵された音高数を計数するカウンタnに「1」をセットする(S702)。
そして、押鍵毎に押鍵時間を計数するタイマt(n)の示す値をエリアTに加算するとともに(S703)、カウンタnをカウントアップして(S704)、このカウンタnの示す値がフレーズ入力時に押鍵されたトータルの音高数をストアするエリアNの示す値に達したか否かを判定する(S705)。
<Accompaniment search process>
Here, the operation of the accompaniment search process will be described in detail with reference to FIG.
First, “0” is set in the area T for storing the accumulated value of the key pressing time (S701), and “1” is set in the counter n for counting the number of pitches pressed (S702).
Then, the value indicated by the timer t (n) for counting the key press time for each key press is added to the area T (S703), the counter n is counted up (S704), and the value indicated by the counter n is the phrase. It is determined whether or not the total pitch number pressed at the time of input has reached the value indicated by the area N for storing (S705).
ここで、カウンタnの示す値がエリアNの示す値に達したことが検出されなければ、S703の処理に戻る。
このカウンタnの示す値がエリアNの示す値に達したことが検出されると、エリアTに示す押鍵時間のトータル値を、このとき押鍵された音高数(N−1)で除算する。この計算結果、押鍵1回当たりに要する平均押鍵時間値、即ち平均演奏テンポ速度をエリアTに上書きする(S706)。
If it is not detected that the value indicated by the counter n has reached the value indicated by the area N, the process returns to S703.
When it is detected that the value indicated by the counter n has reached the value indicated by the area N, the total value of the key pressing time indicated by the area T is divided by the number of pitches (N−1) pressed at this time. To do. As a result of the calculation, the average key pressing time value required per key pressing, that is, the average performance tempo speed is overwritten in the area T (S706).
この平均押鍵時間値を示すエリアTに対応して、予めRAM103内に設けられている演奏テンポの変換テーブルから伴奏パターン(T)を選択する。
そして、この伴奏パターン(T)の示す値を曲データの読み出しアドレスを指定するレジスタにセットして本処理を終了する(S707)。
The accompaniment pattern (T) is selected from a performance tempo conversion table provided in advance in the
Then, the value indicated by the accompaniment pattern (T) is set in the register for designating the read address of the song data, and the present process is terminated (S707).
この伴奏検索処理が終了すると、再び図5曲DB検索処理に戻る。
先ず、伴奏検索処理で算出された演奏テンポに基づいて決定された曲データの読み出しアドレスをレジスタmから読み出してレジスタMにストアする(S507)。
そして、表示装置106内に設けられている表示部に、当該検索された曲データのエリアSONG(K)から楽譜(K)データを読み出して楽譜表示するとともに(S508)、曲データのエリアBANSO[K][M]から伴奏検索処理で検索された伴奏データをエリアBANSODATに転送する(S509)。
When this accompaniment search process ends, the process returns to the song DB search process of FIG.
First, the music data read address determined based on the performance tempo calculated in the accompaniment search process is read from the register m and stored in the register M (S507).
Then, the score (K) data is read from the searched song data area SONG (K) and displayed on the display unit provided in the display device 106 (S508), and the song data area BANSO [ The accompaniment data retrieved by the accompaniment retrieval process from K] [M] is transferred to the area BANSODAT (S509).
次に、曲DB検索処理をやり直すリセットスイッチがオンしたか否かを判定する(S510)。
ここで、リセットスイッチがオンしたことが検出されると、ワークメモリを全てクリアして、再び図4のS401の処理に戻る(S511)。
一方、リセットスイッチのオンが検出されなければ、本曲DB検索処理を終了するスイッチがオンしたか否かを判定する(S513)。
Next, it is determined whether or not the reset switch for redoing the music DB search process is turned on (S510).
Here, when it is detected that the reset switch is turned on, the entire work memory is cleared, and the process returns to S401 in FIG. 4 again (S511).
On the other hand, if it is not detected that the reset switch is turned on, it is determined whether or not the switch that ends the music DB search process is turned on (S513).
この終了スイッチがオンしたことが検出されるとモードフラグMODEに自動演奏処理を示す「1」をセットして本処理を終了し(S514)、この終了スイッチのオンが検出されなければ図4中のS402の処理に戻る。 If it is detected that the end switch is turned on, "1" indicating the automatic performance process is set in the mode flag MODE and this process is terminated (S514). If the end switch is not turned on, it is shown in FIG. The process returns to S402.
このように本曲DB処理では、利用者が所望とする何れかのメロディの一部に相当するフレーズを演奏すると、これらの演奏操作に対応する音高と音長時間を検出してこの楽音を発音する。そして、このフレーズを有するメロディの曲データを曲DBから検索してこの楽譜を表示すると共に、このフレーズを演奏したときの平均テンポ速度を算出してこのテンポに応じた伴奏パターンのデータを抽出している。 In this way, in the music DB processing, when a phrase corresponding to a part of any melody desired by the user is played, the pitch and the sound duration corresponding to these performance operations are detected and this musical tone is played. Pronounce. The music data of the melody having this phrase is searched from the music DB and this score is displayed, and the average tempo speed when this phrase is played is calculated to extract the accompaniment pattern data corresponding to this tempo. ing.
<自動演奏処理について>
次に、図3中のS305に示す自動演奏処理の動作について図8〜図10を参照して説明する。
先ず、モードフラグMODEが自動演奏処理を示す「1」であることが検出されると、表示装置106に設けられた表示画面に曲DB検索処理で検索された曲データの楽譜を再生表示するための五線譜から成る初期画面を表示する。
<About automatic performance processing>
Next, the operation of the automatic performance process shown in S305 in FIG. 3 will be described with reference to FIGS.
First, when it is detected that the mode flag MODE is “1” indicating the automatic performance process, the musical score of the music data searched by the music DB search process is reproduced and displayed on the display screen provided in the
そして、操作子群105内に設けられている曲データを自動演奏開始するスタートスイッチがオンされたか否かを判定する(S802)。
ここで、スタートスイッチがオンされたことが検出されなければ、図9のS901の処理に進むが、スタートスイッチがオンされたことが検出されると、演奏テンポに対応して抽出された伴奏データがエリアBANSODATにストアされているか否かを判定する(S803)。
Then, it is determined whether or not the start switch for automatically starting the music data provided in the
If it is not detected that the start switch is turned on, the process proceeds to step S901 in FIG. 9. If it is detected that the start switch is turned on, the accompaniment data extracted corresponding to the performance tempo is detected. Is stored in the area BANSODAT (S803).
このエリアBANSODATに伴奏データがストアされていることが検出されなければ表示画面上に「該当する楽曲は検索できませんでした。」というメッセージを警告表示してから(S811)、図10のS1001の処理に進む。
このエリアBANSODATに伴奏データがストアされていることが検出されると、曲DBの中から検索された曲データのエリアSONG(N)内にストアされている楽譜(N)データを読み出して表示画面上に楽譜表示する(S804)。
If it is not detected that accompaniment data is stored in this area BANSODAT, a warning message “Could not find the corresponding song” is displayed on the display screen (S811), and the process of S1001 in FIG. Proceed to
When it is detected that accompaniment data is stored in this area BANSODAT, the musical score (N) data stored in the song data area SONG (N) retrieved from the song DB is read and displayed. The score is displayed on the top (S804).
次に、演奏テンポに応じて検索された伴奏データのスタートアドレスをストアするレジスタmの示す値をエリアADにストアする(S805)。
そして、伴奏データのエリアBANSO(K)(M)内の音符データ(AD)から音高を読み出して(S806)、この音高をエリアNOTEにストアすると共に(S807)、この音符データ(AD)から読み出された音符長をエリアTIMEにストアして(S808)から、エリアNOTEにストアされた音高に基づいて、楽音生成装置107内の音源に対して当該楽音を生成して発音するよう指示する(S809)。
そして、自動演奏のスタートフラグSTFに自動演奏開始を示す「1」をセットしてから(S810)、図9中のS901の処理に進む。
Next, the value indicated by the register m for storing the start address of the accompaniment data retrieved according to the performance tempo is stored in the area AD (S805).
Then, the pitch is read from the note data (AD) in the area BANSO (K) (M) of the accompaniment data (S806), the pitch is stored in the area NOTE (S807), and the note data (AD) The note length read from the sound is stored in the area TIME (S808), and then the musical sound is generated and generated for the sound source in the musical
Then, “1” indicating the start of automatic performance is set in the automatic performance start flag STF (S810), and then the process proceeds to S901 in FIG.
次に、スタートフラグSTFが自動演奏開始を示す「1」であるか否かを判定する(図9中のS901)。
ここで、スタートフラグSTFが「1」を示すものでなければ、図10のS1001の処置に進むが、このSTFが「1」を示すものであれば、押鍵時間を計測するタイマが最小単位の経過時間を計測したか否かを判定する(S902)。
Next, it is determined whether or not the start flag STF is “1” indicating the start of automatic performance (S901 in FIG. 9).
If the start flag STF does not indicate “1”, the process proceeds to step S1001 in FIG. 10. If the STF indicates “1”, the timer for measuring the key pressing time is the smallest unit. It is determined whether or not the elapsed time is measured (S902).
このタイマが最小単位の経過時間を計測したことが検出されると、音符長データのエリアTIMEにストアされている押鍵時間に対して最小単位時間を「1」とした値で減少させていく(S903)。
そして、このエリアTIMEにストアされている押鍵時間が「0」に達したか否かを判定する(S904)。
When it is detected that the timer has measured the elapsed time in the minimum unit, the minimum unit time is decreased by a value of “1” with respect to the key pressing time stored in the note time data area TIME. (S903).
Then, it is determined whether or not the key pressing time stored in this area TIME has reached “0” (S904).
ここで、エリアTIMEにストアされている押鍵時間が「0」に達したことが検出されると、伴奏データの読み出しアドレスADを歩進して(S905)、このアドレスADに基づいて音符データを読み出すが(S906)、エリアTIMEにストアされている押鍵時間が「0」に達したことが検出されなければS911の処理に進む。
また、S902の処理で、タイマが最小単位となる時間が経過したことを検出しなければS911の処理に進んで自動演奏処理をストップするスイッチがオンしたか否かを判定する。
When it is detected that the key pressing time stored in the area TIME has reached “0”, the accompaniment data read address AD is incremented (S905), and the note data is based on this address AD. However, if it is not detected that the key pressing time stored in the area TIME has reached “0”, the process proceeds to S911.
If it is not detected in step S902 that the minimum time has elapsed, the process proceeds to step S911 to determine whether a switch for stopping the automatic performance process is turned on.
このストップスイッチがオンしたことが検出されると音源に現在発音中の楽音を消音するよう指示し(S912)、ストップスイッチがオンしたことが検出されなければ、図10中のS1001の処理に進む。
次に、S907の処理で、伴奏データをストアするアドレスADに音符データがストアされているか否かを判定する。
If it is detected that the stop switch is turned on, the sound source is instructed to mute the musical sound currently being generated (S912). If it is not detected that the stop switch is turned on, the process proceeds to S1001 in FIG. .
Next, in step S907, it is determined whether or not note data is stored at an address AD for storing accompaniment data.
この伴奏データのエリアに音符データが存在していることが検出されると、この音符データに示される音高のデータをエリアNOTEにストアするとともに(S908)、この音符に示される音符長データをエリアTIMEにストアしてから(S909)、エリアNOTEにストアされた音高データを楽音生成装置の音源に送って当該楽音を生成して発音するよう指示した後(S910)、再びS901の処理に戻る。 When it is detected that note data is present in the accompaniment data area, the pitch data indicated by the note data is stored in the area NOTE (S908), and the note length data indicated by the note is stored. After storing in the area TIME (S909), the pitch data stored in the area NOTE is sent to the tone generator of the tone generator to instruct that the tone be generated and pronounced (S910), and then the process of S901 is performed again. Return.
一方、S907の処理で、伴奏データをストアするアドレスADに音符データがストアされていることが検出されていないときは、音源に対して発音中の楽音を消音するよう指示する(S912)。
そして、スタートフラグSTFに対して自動演奏処理の終了を示す「0」をセットして、図8中のS801の処理に戻る。
On the other hand, when it is not detected in the processing of S907 that the note data is stored at the address AD for storing the accompaniment data, the sound source is instructed to mute the sound being generated (S912).
Then, “0” indicating the end of the automatic performance process is set to the start flag STF, and the process returns to S801 in FIG.
次に、エリアBANSO(K)(M)内に伴奏データがストアされていなかったり、或いは最小単位の時間に達していない間であって、且つストップスイッチが押されていないとき、また或いは、スタートフラグSTFが自動演奏のオフを示す「0」である場合は、図10中のS1001の処理に移って楽音生成装置内に設けられている鍵盤を走査する。
この鍵走査によって、何れかの鍵がオン・オフしたか、或いは全く変化が無かったか否かを判定する(S1002)。
Next, when accompaniment data is not stored in the area BANSO (K) (M), or when the minimum unit time has not been reached and the stop switch is not pressed, or If the flag STF is “0” indicating that the automatic performance is off, the process proceeds to S1001 in FIG. 10 and the keyboard provided in the musical tone generator is scanned.
By this key scanning, it is determined whether any key is turned on / off or not changed at all (S1002).
ここで、何れかの鍵がオンしたことが検出されると、このオンした鍵番号をエリアKEYにストアして(S1003)、このKEYにストアされた音高データを音源に送って当該楽音を生成して発音するよう指示する(S1004)。
次に、自動演奏処理の終了スイッチがオンしたか否かを判定する(S1005)。
この終了スイッチのオンが検出されると、モードフラグMODEに曲DB検索を示す「0」をセットして本処理を終了する(S1006)。
When it is detected that one of the keys is turned on, the turned-on key number is stored in the area KEY (S1003), and the tone data stored in the KEY is sent to the sound source to play the musical sound. It is instructed to generate and pronounce (S1004).
Next, it is determined whether or not the automatic performance processing end switch is turned on (S1005).
When it is detected that the end switch is turned on, “0” indicating the music DB search is set in the mode flag MODE, and this process is terminated (S1006).
一方、鍵走査で何れかの鍵がオフしたことが検出されると、当該鍵番号をエリアKEYにストアして(S1007)、音源に対して当該音高に対応する発音中の楽音を消音するよう指示して(S1008)、S1005の処理に進む。
また、鍵走査で何れの鍵も変化が無いことが判明したときもS1005の処理に進む。
一方、終了スイッチのオンが検出されていないときは、図8のS802の処理に戻ってスタートスイッチのオン状態を検出する。
On the other hand, when it is detected by key scanning that one of the keys is turned off, the key number is stored in the area KEY (S1007), and the sounding tone corresponding to the pitch is muted to the sound source. (S1008), the process proceeds to S1005.
Also, when it is determined by key scanning that none of the keys are changed, the process proceeds to S1005.
On the other hand, if it is not detected that the end switch is turned on, the process returns to S802 in FIG. 8 to detect the on state of the start switch.
このように、本自動演奏処理では、利用者の演奏テンポに応じて選択された伴奏データを曲データの曲DBから読み出して発音するとともに、この自動伴奏の楽音を発音している最中に利用者が鍵盤で演奏操作すると当該演奏された楽音が生成されて発音される。
よって、利用者は自己の演奏によるメロディパートの楽音と、この演奏テンポに合った自動伴奏の楽音が同時に発音されるので、利用者は例え伴奏パートを弾けなくてもアンサンブル演奏を楽しむことが可能となる。
As described above, in this automatic performance processing, the accompaniment data selected in accordance with the performance tempo of the user is read out from the song DB of the song data and is pronounced, and the automatic accompaniment is used while the tone is being produced. When a person performs a performance operation on the keyboard, the played musical sound is generated and pronounced.
Therefore, the user can enjoy the ensemble performance without playing the accompaniment part because the melody part's musical tone by his / her performance and the automatic accompaniment musical tone that matches the performance tempo are played simultaneously. It becomes.
以上、本発明は、利用者の演奏するメロディの何れか一部であるフレーズを演奏すると、当該フレーズに含まれる音高と曲DB中のメロディデータ群の中から該当する曲データを検索するようにしたが、これに限定することなく演奏操作されたフレーズの各音間の時間長に基づいて該当する曲データ及び伴奏データを検索するようにしても良く、音高と音長を併用して曲データ及び伴奏データを検索するようにしても良い。 As described above, according to the present invention, when a phrase that is any part of a melody played by the user is played, the corresponding song data is searched from the pitch included in the phrase and the melody data group in the song DB. However, the present invention is not limited to this, and the corresponding song data and accompaniment data may be searched based on the length of time between the sounds of the phrase that has been played and operated. Music data and accompaniment data may be searched.
また、本発明は、利用者の演奏するテンポの速さを算出して、この値に応じた伴奏データを自動的に検索して演奏するようにしたが、これに限定することなく複数種類の伴奏データを表示画面に表示して利用者に選択できるような構成にしても良い。 In the present invention, the speed of the tempo performed by the user is calculated, and accompaniment data corresponding to this value is automatically searched and played. However, the present invention is not limited to this. The accompaniment data may be displayed on the display screen and selected by the user.
また、上記実施の形態で説明した動作手順をプログラム化し、コンピュータに実行させることにより実施できる。その際、コンピュータプログラムはハードディスク等のディスク型記録媒体、半導体メモリやカード型メモリ等の各種メモリ、或いは通信ネットワーク等の各種プログラム記録媒体を通じてコンピュータに供給することができる。 Moreover, it can implement by programming the operation | movement procedure demonstrated in the said embodiment, and making a computer perform. At that time, the computer program can be supplied to the computer through a disk-type recording medium such as a hard disk, various memories such as a semiconductor memory or a card-type memory, or various program recording media such as a communication network.
101 CPU
102 ROM
103 RAM
104 通信機器
105 操作子群
106 表示装置
107 楽音生成装置
101 CPU
102 ROM
103 RAM
Claims (4)
楽器の演奏操作に対応して発生する音高データ群を検出する演奏操作データ検出手段と、
前記演奏操作データ検出手段によって検出された音高データ群と前記曲データ記憶手段に記憶されている複数のメロディデータとを照合して、この音高データ群を有するメロディデータを含む楽曲を検索する曲データ検索手段と、
前記曲データ検索手段によって検索された楽曲に対応する楽譜データを読み出してこの楽譜を表示手段に表示させる楽譜表示制御手段と、
前記曲データ検索手段によって検索された楽曲に含まれる伴奏データを読み出してこの伴奏の楽音を生成する楽音生成手段と、
からなる楽曲検索装置。 Music data storage means for storing a plurality of data groups including a music including melody data and accompaniment data and score data corresponding to the music;
Performance operation data detection means for detecting a pitch data group generated in response to the performance operation of the instrument;
The pitch data group detected by the performance operation data detection means and the plurality of melody data stored in the song data storage means are collated to search for music containing the melody data having this pitch data group. Song data search means;
A score display control means for reading out the score data corresponding to the music searched by the song data search means and displaying the score on the display means;
A musical sound generating means for reading accompaniment data included in the music searched by the music data searching means and generating a musical sound of the accompaniment;
A music search device comprising:
前記曲データ記憶手段に記憶されている伴奏データは、演奏テンポに応じた複数種類の伴奏パターンデータからなり、
前記楽音生成手段は、前記テンポ算出手段によって算出された演奏テンポに基づいて、前記曲データ記憶手段に記憶されている伴奏パターンデータを選択して読み出し、この伴奏パターンデータの楽音を生成することを特徴とする請求項1記載の楽曲検索装置。 The music search device further comprises a tempo calculation means for calculating a performance tempo based on the performance operation speed of the musical instrument,
The accompaniment data stored in the song data storage means comprises a plurality of types of accompaniment pattern data corresponding to the performance tempo,
The musical tone generation means selects and reads out the accompaniment pattern data stored in the song data storage means based on the performance tempo calculated by the tempo calculation means, and generates a musical tone of the accompaniment pattern data. The music search device according to claim 1, characterized in that:
前記音高データ群と曲データ記憶手段に記憶されている複数のメロディデータとを照合して、この音高データ群を有するメロディデータを含む楽曲を検索する曲データ検索ステップと、
前記検索された楽曲に対応する楽譜データを前記曲データ記憶手段より読み出して、この楽譜を表示手段に表示させる楽譜表示制御ステップと、
前記検索された楽曲に含まれる伴奏データを曲データ記憶手段より読み出して、この伴奏の楽音を生成する楽音生成ステップと、からなる楽曲検索プログラム。 A performance operation data detection step for detecting a pitch data group generated in response to the performance operation of the instrument;
A song data search step for collating the pitch data group with a plurality of melody data stored in the song data storage means and searching for a song including the melody data having the pitch data group;
A score display control step of reading out the score data corresponding to the searched music from the song data storage means and displaying the score on the display means;
A music search program comprising: a musical sound generation step of reading accompaniment data included in the searched music from a music data storage means and generating a musical sound of the accompaniment.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004012201A JP2005208154A (en) | 2004-01-20 | 2004-01-20 | Musical piece retrieval system and musical piece retrieval program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004012201A JP2005208154A (en) | 2004-01-20 | 2004-01-20 | Musical piece retrieval system and musical piece retrieval program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005208154A true JP2005208154A (en) | 2005-08-04 |
Family
ID=34898652
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004012201A Abandoned JP2005208154A (en) | 2004-01-20 | 2004-01-20 | Musical piece retrieval system and musical piece retrieval program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005208154A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007078974A (en) * | 2005-09-13 | 2007-03-29 | Kawai Musical Instr Mfg Co Ltd | Musical sound generating apparatus |
JP2007086570A (en) * | 2005-09-26 | 2007-04-05 | Yamaha Corp | Automatic musical accompaniment device and program |
JP2007086572A (en) * | 2005-09-26 | 2007-04-05 | Yamaha Corp | Image display device and program |
JP2007086571A (en) * | 2005-09-26 | 2007-04-05 | Yamaha Corp | Music information display device and program |
JP2007140308A (en) * | 2005-11-21 | 2007-06-07 | Yamaha Corp | Timbre and/or effect setting device and program |
US7605322B2 (en) | 2005-09-26 | 2009-10-20 | Yamaha Corporation | Apparatus for automatically starting add-on progression to run with inputted music, and computer program therefor |
JP2016521381A (en) * | 2013-04-16 | 2016-07-21 | 初紹軍 | Electronic musical instruments and music playing methods |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62146199U (en) * | 1986-03-10 | 1987-09-16 | ||
JPS643697A (en) * | 1987-06-26 | 1989-01-09 | Yamaha Corp | Electronic musical instrument |
JPH05144238A (en) * | 1991-11-18 | 1993-06-11 | Casio Comput Co Ltd | Automatic reproduction apparatus |
JPH0651761A (en) * | 1992-07-27 | 1994-02-25 | Yamaha Corp | Automatic playing device |
JPH06202663A (en) * | 1992-12-28 | 1994-07-22 | Yamaha Corp | Automatic accompaniment device |
JPH0816160A (en) * | 1994-06-30 | 1996-01-19 | Roland Corp | Musical performance analyzer |
JPH1039864A (en) * | 1996-07-22 | 1998-02-13 | Kawai Musical Instr Mfg Co Ltd | Electronic musical instrument and its display device |
JPH11288278A (en) * | 1998-01-28 | 1999-10-19 | Roland Europ Spa | Method and device for retrieving musical composition |
JP2001125568A (en) * | 1999-10-28 | 2001-05-11 | Roland Corp | Electronic musical instrument |
-
2004
- 2004-01-20 JP JP2004012201A patent/JP2005208154A/en not_active Abandoned
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62146199U (en) * | 1986-03-10 | 1987-09-16 | ||
JPS643697A (en) * | 1987-06-26 | 1989-01-09 | Yamaha Corp | Electronic musical instrument |
JPH05144238A (en) * | 1991-11-18 | 1993-06-11 | Casio Comput Co Ltd | Automatic reproduction apparatus |
JPH0651761A (en) * | 1992-07-27 | 1994-02-25 | Yamaha Corp | Automatic playing device |
JPH06202663A (en) * | 1992-12-28 | 1994-07-22 | Yamaha Corp | Automatic accompaniment device |
JPH0816160A (en) * | 1994-06-30 | 1996-01-19 | Roland Corp | Musical performance analyzer |
JPH1039864A (en) * | 1996-07-22 | 1998-02-13 | Kawai Musical Instr Mfg Co Ltd | Electronic musical instrument and its display device |
JPH11288278A (en) * | 1998-01-28 | 1999-10-19 | Roland Europ Spa | Method and device for retrieving musical composition |
JP2001125568A (en) * | 1999-10-28 | 2001-05-11 | Roland Corp | Electronic musical instrument |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007078974A (en) * | 2005-09-13 | 2007-03-29 | Kawai Musical Instr Mfg Co Ltd | Musical sound generating apparatus |
JP4675731B2 (en) * | 2005-09-13 | 2011-04-27 | 株式会社河合楽器製作所 | Music generator |
JP2007086570A (en) * | 2005-09-26 | 2007-04-05 | Yamaha Corp | Automatic musical accompaniment device and program |
JP2007086572A (en) * | 2005-09-26 | 2007-04-05 | Yamaha Corp | Image display device and program |
JP2007086571A (en) * | 2005-09-26 | 2007-04-05 | Yamaha Corp | Music information display device and program |
US7605322B2 (en) | 2005-09-26 | 2009-10-20 | Yamaha Corporation | Apparatus for automatically starting add-on progression to run with inputted music, and computer program therefor |
JP4534926B2 (en) * | 2005-09-26 | 2010-09-01 | ヤマハ株式会社 | Image display apparatus and program |
JP4650182B2 (en) * | 2005-09-26 | 2011-03-16 | ヤマハ株式会社 | Automatic accompaniment apparatus and program |
JP2007140308A (en) * | 2005-11-21 | 2007-06-07 | Yamaha Corp | Timbre and/or effect setting device and program |
JP4534967B2 (en) * | 2005-11-21 | 2010-09-01 | ヤマハ株式会社 | Tone and / or effect setting device and program |
JP2016521381A (en) * | 2013-04-16 | 2016-07-21 | 初紹軍 | Electronic musical instruments and music playing methods |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7368652B2 (en) | Music search system and music search apparatus | |
US7968787B2 (en) | Electronic musical instrument and storage medium | |
JPH09258729A (en) | Tune selecting device | |
JP2005208154A (en) | Musical piece retrieval system and musical piece retrieval program | |
JP3846376B2 (en) | Automatic performance device, automatic performance program, and automatic performance data recording medium | |
JP2005092178A (en) | Apparatus and program for automatic musical performance | |
JPWO2019092791A1 (en) | Data generator and program | |
JP6402477B2 (en) | Sampling apparatus, electronic musical instrument, method, and program | |
JP4735969B2 (en) | Accompaniment display device and program | |
JP4315116B2 (en) | Electronic music equipment | |
JPH0415959B2 (en) | ||
JP4544185B2 (en) | Performance recording apparatus and program | |
JP3743364B2 (en) | Performance practice device | |
JP7425558B2 (en) | Code detection device and code detection program | |
JP3752956B2 (en) | PERFORMANCE GUIDE DEVICE, PERFORMANCE GUIDE METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING PERFORMANCE GUIDE PROGRAM | |
JP4168939B2 (en) | Song playing device and song playing program | |
JP2006201439A (en) | Automatic performance apparatus and automatic performance program | |
KR100510600B1 (en) | Learning system of song using the internet | |
JP2001154670A (en) | Device and method for reproducing music data and recording medium | |
JP4858174B2 (en) | Electronic musical instruments and programs | |
JP4029710B2 (en) | Registration data calling device and registration data calling program | |
JP5200384B2 (en) | Electronic musical instruments and programs | |
JP2004219778A (en) | Apparatus and processing program for musical performance indication | |
JP2004012663A (en) | Performance training device | |
JP2008170532A (en) | Electronic musical instrument and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080715 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20080912 |