JP2024046351A - PROGRAM, INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PERFORMANCE DATA PROCESSING SYSTEM - Google Patents

PROGRAM, INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PERFORMANCE DATA PROCESSING SYSTEM Download PDF

Info

Publication number
JP2024046351A
JP2024046351A JP2022151677A JP2022151677A JP2024046351A JP 2024046351 A JP2024046351 A JP 2024046351A JP 2022151677 A JP2022151677 A JP 2022151677A JP 2022151677 A JP2022151677 A JP 2022151677A JP 2024046351 A JP2024046351 A JP 2024046351A
Authority
JP
Japan
Prior art keywords
performance
image
music
degree
piece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022151677A
Other languages
Japanese (ja)
Inventor
滋 加福
広子 奥田
飛雄太 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2022151677A priority Critical patent/JP2024046351A/en
Publication of JP2024046351A publication Critical patent/JP2024046351A/en
Pending legal-status Critical Current

Links

Landscapes

  • Auxiliary Devices For Music (AREA)

Abstract

【課題】演奏にマッチする画像を高い精度で提示できるようにすること。【解決手段】本発明のプログラムは、コンピュータに、演奏に伴って発生する演奏データに基づいて特定された、演奏に対応する楽曲に適合する画像を表示装置に表示させ、連続して演奏される演奏に伴って発生する演奏データの時系列に基づいて、演奏と特定された楽曲との合致度を繰り返し導出させ、合致度が基準を満たさない場合に、演奏に対応する楽曲を再検索させる。【選択図】図5[Problem] To make it possible to present images that match a musical performance with high accuracy. [Solution] The program of the present invention causes a computer to display on a display device images that match a musical piece corresponding to the musical performance, identified based on musical performance data generated in conjunction with the musical performance, and repeatedly derives the degree of match between the musical performance and the identified musical piece based on the time series of musical performance data generated in conjunction with successive musical performances, and causes the computer to re-search for a musical piece corresponding to the musical performance if the degree of match does not satisfy a criterion. [Selected Figure] Figure 5

Description

本発明は、プログラム、情報処理装置、情報処理方法、および、演奏データ処理システムに関する。 The present invention relates to a program, an information processing device, an information processing method, and a performance data processing system.

ユーザが楽器で弾き始めたり歌い始めた楽曲を認識し、認識された楽曲に関連した画像(動画または静止画)を自動的に表示する機能を有する画像表示装置が、提案されている(特許文献1を参照)。 An image display device has been proposed that has the function of recognizing a piece of music that a user starts to play on an instrument or sing, and automatically displaying an image (video or still image) related to the recognized piece of music (see Patent Document 1).

せっかく楽器を買ったのに、練習が大変で途中であきらめてしまう人は多い。音楽を楽しむことへの入り口に立ったばかりの人に練習の意欲を高めてもらうためにも、音楽演奏を可視化して、視覚的な効果を利用する技術に注目が集まっている。 There are many people who buy a musical instrument but give up halfway through because they find it difficult to practice. Techniques that visualize music performances and utilize visual effects are attracting attention in order to increase the motivation for practicing among people who are just starting to enjoy music.

特許第4534926号公報Patent No. 4534926

特に、歌詞のある楽曲にマッチする画像を表示する技術では、適切な画像を選択して提示することは難しい。例えば、曲の演奏の進行状態に応じて演奏に適合する画像を適宜変えることが好ましい場合がある。 In particular, with technology that displays images that match music with lyrics, it is difficult to select and present an appropriate image. For example, there are cases where it is preferable to change the image that matches the performance as the music progresses.

そこで本発明の目的は、演奏にマッチする画像を高い精度で提示できるプログラム、情報処理装置、情報処理方法、および、演奏データ処理システムを提供することにある。 The object of the present invention is to provide a program, an information processing device, an information processing method, and a performance data processing system that can present images that match a performance with high accuracy.

上記目的を達成するために、本発明の一実施形態であるプログラムは、コンピュータに、演奏に伴って発生する演奏データに基づいて特定された、演奏に対応する楽曲に適合する画像を表示装置に表示させる画像表示処理と、連続して演奏される演奏に伴って発生する演奏データの時系列に基づいて、演奏と特定された楽曲との合致度を繰り返し導出する導出処理と、合致度が基準を満たさない場合に、演奏に対応する楽曲を再検索させる処理と、を実行させる命令を含む。 In order to achieve the above object, a program according to an embodiment of the present invention causes a computer to display, on a display device, an image suitable for a piece of music corresponding to a performance, which is specified based on performance data generated in conjunction with a performance. An image display process to be displayed, a derivation process that repeatedly derives the degree of match between the performance and the identified song based on the time series of performance data generated in conjunction with the continuous performance, and a degree of match is the standard. This includes an instruction to execute a process of re-searching for a piece of music corresponding to the performance if the condition is not satisfied.

本発明によれば、演奏にマッチする画像を高い精度で提示できるようになる。 The present invention makes it possible to present images that match the performance with high accuracy.

図1は、実施形態に係わる演奏データ処理システムの一例を示す模式図である。FIG. 1 is a schematic diagram showing an example of a performance data processing system according to an embodiment. 図2は、図1に示される演奏データ処理システムのシステム構成例を示す図である。FIG. 2 is a diagram showing an example of the system configuration of the performance data processing system shown in FIG. 1. As shown in FIG. 図3は、実施形態に係わる演奏データ処理システムを構成する要素の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of components constituting the performance data processing system according to the embodiment. 図4は、コンピュータ200の一例を示す機能ブロック図である。FIG. 4 is a functional block diagram showing an example of the computer 200. 図5は、実施形態に係わる演奏データ処理システムにおける処理手順の一例を示すシーケンス図である。FIG. 5 is a sequence diagram showing an example of a processing procedure in the performance data processing system according to the embodiment. 図6は、楽曲検索処理部11aの処理手順の一例を示すフローチャートである。FIG. 6 is a flowchart showing an example of the processing procedure of the music search processing section 11a. 図7は、第1の実施形態での画像表示処理部11cの処理手順の一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of a processing procedure of the image display processing unit 11c in the first embodiment. 図8は、アライメント処理部11bの処理手順の一例を示すフローチャートである。FIG. 8 is a flowchart showing an example of a processing procedure of the alignment processing unit 11b. 図9は、DPマッチング法による合致度の計算(導出)について説明するための図である。FIG. 9 is a diagram for explaining the calculation (derivation) of the degree of match using the DP matching method. 図10は、第2の実施形態での画像表示処理部11cの処理手順の一例を示すフローチャートである。FIG. 10 is a flowchart showing an example of the processing procedure of the image display processing section 11c in the second embodiment. 図11は、一つの譜例を示す図である。FIG. 11 shows an example of a musical score. 図12は、楽曲データ13aの一例を示す図である。FIG. 12 is a diagram showing an example of the music data 13a. 図13は、第2の実施形態での画像表示処理部11cの処理手順の他の例を示すフローチャートである。FIG. 13 is a flowchart showing another example of the processing procedure of the image display processing unit 11c in the second embodiment.

以下、図面を参照して、本発明の実施の形態について説明する。
図1は、実施形態に係わる演奏データ処理システムの一例を示す模式図である。図1に示される演奏データ処理システムは、入力装置と、アプリケーションと、出力装置とを含む。入力装置は、例えばデジタルキーボード(電子機器)100であり、ユーザの演奏から演奏データ(例えばMIDI(Musical Instrument Digital Interface)データあるいはMIDIメッセージ列)を生成してアプリケーションに渡す。アプリケーションは、例えば、専用サーバやノートPCやタブレット等のコンピュータ(情報処理装置)200にインストールされ、演奏データを解析する。解析により取得された画像データは出力装置に渡され、コンピュータ200の表示指示に従って、出力装置としてモニタやプロジェクター等の画像表示装置300などにより画像として表示される。このように、ユーザ(演奏者)の演奏に基づく演奏データはアプリケーションにより処理されて、視覚的な画像として出力される。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a schematic diagram showing an example of a performance data processing system according to an embodiment. The performance data processing system shown in FIG. 1 includes an input device, an application, and an output device. The input device is, for example, a digital keyboard (electronic device) 100, which generates performance data (for example, MIDI (Musical Instrument Digital Interface) data or a MIDI message string) from a user's performance and passes it to an application. The application is installed on a computer (information processing device) 200, such as a dedicated server, a notebook PC, or a tablet, and analyzes performance data. The image data acquired through the analysis is passed to an output device, and is displayed as an image on an image display device 300 such as a monitor or a projector as an output device according to display instructions from the computer 200. In this way, the performance data based on the user's (performer's) performance is processed by the application and output as a visual image.

図2は、図1に示される演奏データ処理システムのシステム構成例を示す図である。デジタルキーボード100は、MIDIインタフェース400を介してコンピュータ200に接続される。コンピュータ200は、映像インタフェース500を介してプロジェクター300に接続される。 FIG. 2 is a diagram showing an example of the system configuration of the performance data processing system shown in FIG. 1. As shown in FIG. Digital keyboard 100 is connected to computer 200 via MIDI interface 400. Computer 200 is connected to projector 300 via video interface 500.

図3は、演奏データ処理システムを構成する要素の一例を示すブロック図である。演奏データ処理システムは、アプリケーションを中核とし、入力装置と出力装置、そしてアプリケーションからアクセス可能な各種のデータベースを組み合わせて構成される。 FIG. 3 is a block diagram showing an example of elements constituting the performance data processing system. A performance data processing system has an application as its core, and is constructed by combining input devices, output devices, and various databases that can be accessed from the application.

図3において、入力装置としてのMIDI入力装置は、図1のデジタルキーボード100に相当し、ユーザの演奏をMIDIメッセージとしてアプリケーションに渡すための装置である。またデジタルキーボード100は、少なくとも1つのCPU(Central Processing Unit)やMIDIデータを解析して音出力データを生成するDSP(Digital Signal Processor)等の演算処理ユニットと、デジタルの音出力データをアナログ化して外部に音出力するスピーカ等の出力装置と、を備えている。MIDIメッセージを受信したアプリケーションは、楽曲検索用データベース(DB)、画像DB、およびアライメントDBにアクセスして、MIDIメッセージから適切な画像を選択し、出力装置に渡す。出力装置は、表示装置により画像を表示する。 In FIG. 3, a MIDI input device as an input device corresponds to the digital keyboard 100 in FIG. 1, and is a device for passing a user's performance as a MIDI message to an application. Further, the digital keyboard 100 includes at least one arithmetic processing unit such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor) that analyzes MIDI data and generates sound output data, and converts digital sound output data into analog. It is equipped with an output device such as a speaker that outputs sound to the outside. The application that receives the MIDI message accesses the music search database (DB), image DB, and alignment DB, selects an appropriate image from the MIDI message, and passes it to the output device. The output device displays an image using a display device.

ここで、アプリケーションは、例えばソフトウェアモジュールとしての楽曲検索処理部、アライメント処理部(導出処理部)、および、画像表示処理部を備える。これらのモジュールおよび各データベースについて、図4を参照してさらに詳しく説明する。 Here, the application includes, for example, a music search processing section, an alignment processing section (derivation processing section), and an image display processing section as software modules. These modules and each database will be explained in more detail with reference to FIG.

図4は、コンピュータ200の一例を示す機能ブロック図である。コンピュータ200は、プロセッサ11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、内部バス14、入出力インタフェース15、入力部16、通信部17、および、出力部21を備える。 FIG. 4 is a functional block diagram showing an example of the computer 200. The computer 200 includes a processor 11 , a ROM (Read Only Memory) 12 , a RAM (Random Access Memory) 13 , an internal bus 14 , an input/output interface 15 , an input section 16 , a communication section 17 , and an output section 21 .

プロセッサ11は、少なくとも1つのCPU、またはMPU(Micro Processing Unit)等の演算処理ユニットであり、ROM12に記憶されたプログラム12aに従って実施形態の諸機能を実現する。
RAM13は、プロセッサ11のワーキングメモリとして機能するとともに、楽曲データ13aを記憶する。楽曲データ13aは、例えばMIDIデータであり、複数の曲ごとに、音符の位置や長さ、拍子などの情報を記録したデータである。
入力部16は、キーボードやポインティングデバイスを備えた操作部201に接続され、ユーザの操作を受け付ける。
The processor 11 is an arithmetic processing unit such as at least one CPU or MPU (Micro Processing Unit), and realizes various functions of the embodiment according to a program 12 a stored in a ROM 12 .
The RAM 13 functions as a working memory for the processor 11 and also stores music piece data 13a. The music piece data 13a is, for example, MIDI data, and is data that records information such as note positions, lengths, and beats for each of a plurality of songs.
The input unit 16 is connected to an operation unit 201 equipped with a keyboard and a pointing device, and accepts operations from the user.

通信部17は、デジタルキーボード100に接続可能なインタフェースであり、MIDIインタフェース400を介して、デジタルキーボード100からの演奏データ(MIDIメッセージ)を受信する。
出力部21は、プロセッサ11により選択された画像を、映像インタフェース500経由でプロジェクター300に送信し、ビジュアルに出力させる。
The communication unit 17 is an interface connectable to the digital keyboard 100 and receives performance data (MIDI messages) from the digital keyboard 100 via the MIDI interface 400.
The output unit 21 transmits the image selected by the processor 11 to the projector 300 via the video interface 500, and causes the image to be visually output.

ROM12は、フラッシュメモリ等の不揮発性記憶デバイスであり、コンピュータ200を制御するプログラム12aに加えて、楽曲検索用データベース12b、画像データベース12c、および、アライメントデータベース12dを記憶する。
楽曲検索用データベース12bは、プロセッサ11による楽曲検索処理時に参照されるデータベースであり、複数の楽曲ごとに、当該楽曲に関する情報を対応付けて登録したデータベースである。楽曲検索用データベース12bは、例えば、各楽曲の検索のためのキーやタイトル、画像取得のための情報等を保持する。演奏データから生成されたクエリを検索キーとして楽曲検索用データベース12bに送信することで、対応する楽曲の楽曲情報が抽出される。
The ROM 12 is a nonvolatile storage device such as a flash memory, and stores a music search database 12b, an image database 12c, and an alignment database 12d in addition to the program 12a that controls the computer 200.
The music search database 12b is a database that is referred to during the music search process by the processor 11, and is a database in which information regarding a plurality of music pieces is registered in association with each other. The song search database 12b holds, for example, keys and titles for searching each song, information for image acquisition, and the like. By transmitting a query generated from the performance data to the music search database 12b as a search key, music information of the corresponding music piece is extracted.

画像データベース12cは、静止画表示或いは動画表示を行うための画像を保持するデータベースであり、複数の画像の画像データを、例えばjpegやPNGなどのフォーマットで登録したデータベースである。
アライメントデータベース12dは、複数の楽曲ごとに、アライメント処理を行うための楽曲全体のメロディ情報を対応付けて登録したデータベースである。
The image database 12c is a database that holds images for displaying still images or moving images, and is a database in which image data of a plurality of images is registered in a format such as jpeg or PNG.
The alignment database 12d is a database in which melody information of the entire music piece for performing alignment processing is registered in association with each of a plurality of music pieces.

プロセッサ11は、実施形態に係わる処理機能として楽曲検索処理部11a、アライメント処理部11b、および、画像表示処理部11cを備える。楽曲検索処理部11a、アライメント処理部11b、および、画像表示処理部11cは、プログラム12aに基づくプロセッサ11の演算処理により実現される、処理機能である。すなわちプログラム12aは、プロセッサ11に、楽曲検索処理部11a、アライメント処理部11b、および、画像表示処理部11cのそれぞれの機能を実行させる命令を含む。 The processor 11 includes a music search processing section 11a, an alignment processing section 11b, and an image display processing section 11c as processing functions according to the embodiment. The music search processing section 11a, the alignment processing section 11b, and the image display processing section 11c are processing functions realized by the arithmetic processing of the processor 11 based on the program 12a. That is, the program 12a includes instructions for causing the processor 11 to execute the respective functions of the music search processing section 11a, the alignment processing section 11b, and the image display processing section 11c.

楽曲検索処理部11aは、ユーザがデジタルキーボード100を演奏することに伴って発生する演奏データ(MIDIメッセージ列)に基づいて、楽曲検索用データベース12bを検索し、その演奏に対応する楽曲を特定する。楽曲が特定されると、楽曲検索処理部11aは、その楽曲の情報を楽曲検索用データベース12bから取得する。 The music search processing unit 11a searches the music search database 12b based on the performance data (MIDI message string) generated when the user plays the digital keyboard 100, and identifies the music corresponding to the performance. . When a song is specified, the song search processing section 11a acquires information about the song from the song search database 12b.

アライメント処理部11bは、楽曲検索処理部11aにより特定された楽曲とユーザの演奏との合致度を、演奏データの時系列に基づいて繰り返し計算する。合致度の計算には、演奏データと、アライメントデータベース12dに保持された情報との双方が参照される。すなわちアライメント処理部11bは、アライメント処理を実行する。アライメント処理により、現在、その時点において楽曲のどの部分が演奏されているか等の情報も取得することができる。 The alignment processing section 11b repeatedly calculates the degree of matching between the music piece specified by the music search processing section 11a and the user's performance based on the time series of the performance data. In calculating the matching degree, both the performance data and the information held in the alignment database 12d are referred to. That is, the alignment processing section 11b executes alignment processing. Through the alignment process, it is also possible to obtain information such as which part of the song is currently being played at that point in time.

ちなみに、演奏と楽譜との同期をとる技術は、スコアアライメントと称して知られている。また、演奏と音源(PCM)との同期はオーディオ・トゥ・オーディオ(audio to audio)アライメント、演奏と音源(midi)との同期はオーディオ・トゥ・MIDI(audio to midi)アライメント等と称される。
さらに、アライメント処理部11bは、演奏の途中で合致度が既定の基準を満たさなくなった場合に、現在の演奏に対応する楽曲の再検索を楽曲検索処理部11aにリクエストする。
Incidentally, the technology for synchronizing a performance with a score is known as score alignment. Furthermore, synchronization between a performance and a sound source (PCM) is called audio-to-audio alignment, and synchronization between a performance and a sound source (MIDI) is called audio-to-MIDI alignment, etc.
Furthermore, if the degree of matching does not satisfy a predetermined standard during the performance, the alignment processing section 11b requests the music search processing section 11a to search again for a music piece corresponding to the current performance.

画像表示処理部11cは、楽曲検索処理部11aにより特定された楽曲に対応する画像を、画像データベース12cに保持された画像から選択し、出力部21に送出する。これにより、演奏に対応する画像(イラスト等)がプロジェクター300から出力される。 The image display processing section 11c selects an image corresponding to the song specified by the song search processing section 11a from the images held in the image database 12c, and sends it to the output section 21. As a result, an image (such as an illustration) corresponding to the performance is output from the projector 300.

次に、上記構成を基礎として、複数の実施形態について説明する。
[第1の実施形態]
図5は、実施形態に係わる演奏データ処理システムにおける処理手順の一例を示すシーケンス図である。図5において、演奏者がデジタルキーボード100を演奏することで発生するMIDIメッセージは、楽曲検索処理部11aおよびアライメント処理部11bに入力される(処理p1,p2)。
Next, a plurality of embodiments will be described based on the above configuration.
[First embodiment]
FIG. 5 is a sequence diagram showing an example of a processing procedure in the performance data processing system according to the embodiment. In FIG. 5, MIDI messages generated when a performer plays the digital keyboard 100 are input to the music search processing section 11a and the alignment processing section 11b (processes p1 and p2).

楽曲検索処理部11aは、取得したMIDIメッセージの時系列(MIDIメッセージ列)から、楽曲検索のためのクエリを生成する(処理p3)。そして、楽曲検索処理部11aは、生成したクエリをキーとして楽曲検索用データベース12bを検索し(処理p4)、該当する楽曲の楽曲情報を取得する(処理p5)。取得された楽曲情報はアライメント処理部11bに渡される(処理p6)。 The music search processing unit 11a generates a query for music search from the acquired time series of MIDI messages (MIDI message string) (process p3). Then, the song search processing unit 11a searches the song search database 12b using the generated query as a key (process p4), and acquires song information of the corresponding song (process p5). The acquired music information is passed to the alignment processing section 11b (process p6).

アライメント処理部11bは、楽曲情報をキーとしてアライメントデータベース12dを検索し(処理p7)、曲全体のメロディ情報を取得する(処理p8)。アライメント処理部11bは、MIDIメッセージ列と、取得されたメロディ情報との合致度を繰り返し計算(導出)する(処理p9)。つまり、処理p9では、演奏している楽曲と、楽曲検索用データベース12bに保存されている複数の楽曲とのそれぞれの合致度を算出(導出)している。 The alignment processing unit 11b searches the alignment database 12d using the song information as a key (process p7), and acquires the melody information of the entire song (process p8). The alignment processing unit 11b repeatedly calculates (derives) the degree of matching between the MIDI message string and the acquired melody information (process p9). That is, in process p9, the degree of matching between the music being played and the plurality of music stored in the music search database 12b is calculated (derived).

ここで、演奏中に一旦、合致度が既定の基準を満たしていたとしても、例えば、演奏を中断することなく連続して次々と別の曲が演奏されると(メドレーなど)、楽曲単位での合致度が変わる場合がある。また、演奏している楽曲と似たようなフレーズの別の楽曲があり、合致度を算出する対象がこの別の曲であるために、演奏が進むたびに合致度が変わってくる場合がある。 Even if the degree of matching meets a preset standard once during a performance, the degree of matching for each song may change if, for example, different songs are played one after the other without interrupting the performance (such as a medley). Also, if there is another song with a similar phrase to the song being played, and the degree of matching is calculated for this other song, the degree of matching may change as the performance progresses.

このように、メドレーのような曲の切り替えにより、または、同一曲の演奏過程において、合致度が既定の基準を満たした状態から満たさない状態に遷移する場合(例えば、予め定められたしきい値よりも低くなった場合)がある。合致度が既定の基準を満たした状態から満たさない状態に遷移すると、アライメント処理部11bは、楽曲の再検索を楽曲検索処理部11aに依頼する(処理p10)。この場合、処理p3に戻り、処理p3~p9の手順が繰り返される。 In this way, when switching songs such as in a medley, or during the course of playing the same song, the degree of matching may transition from a state in which the predetermined criterion is satisfied to a state in which it is not satisfied (for example, when it becomes lower than a predetermined threshold value). When the degree of matching transitions from a state in which the predetermined criterion is satisfied to a state in which it is not satisfied, the alignment processing unit 11b requests the song search processing unit 11a to search for the song again (process p10). In this case, the process returns to process p3, and the steps of processes p3 to p9 are repeated.

合致度の値が基準を満たしているならば、楽曲検索処理部11aは、楽曲情報を画像表示処理部11cに与える(処理p11)とともに、アライメント処理部11bは、計算された合致度情報を画像表示処理部11cに渡す(処理p12)。画像表示処理部11cは、与えられた楽曲情報に含まれる歌詞情報(例えば歌詞「赤とんぼ」)に対応する画像(例えば「赤とんぼ」の絵、写真、動画等)を画像データベース12cから選択し、取得する(処理p13)。これに応じて画像データベース12cは、選択された画像の画像データを画像表示処理部11cに返送する(処理p14)。画像表示処理部11cは、受信した画像データを出力装置に表示する(処理p15)。 If the matching degree value satisfies the criteria, the song search processing unit 11a provides the song information to the image display processing unit 11c (process p11), and the alignment processing unit 11b applies the calculated matching degree information to the image display processing unit 11c. It is passed to the display processing unit 11c (process p12). The image display processing unit 11c selects and acquires an image (for example, a picture, photograph, video, etc. of "Akatonbo") corresponding to the lyrics information (for example, the lyrics "Akatonbo") included in the given song information from the image database 12c. (process p13). In response, the image database 12c returns the image data of the selected image to the image display processing section 11c (process p14). The image display processing unit 11c displays the received image data on the output device (process p15).

図6を参照して、図5における処理p3,p4について詳しく説明する。図6は、楽曲検索処理部11aの処理手順の一例を示すフローチャートである。
図6において、楽曲検索処理部11aは、デジタルキーボード100から取得したMIDIメッセージ列からNote On情報を取得する(ステップS11)。次に、楽曲検索処理部11aは、クエリ生成に十分な数のNote On情報が取得されたかどうかを確認し(ステップS12)、不十分である場合には(No)、再度Note Onの取得を繰り返す。
With reference to FIG. 6, the processes p3 and p4 in FIG. 5 will be described in detail. FIG. 6 is a flowchart showing an example of the processing procedure of the music search processing section 11a.
In FIG. 6, the music search processing unit 11a obtains Note On information from the MIDI message string obtained from the digital keyboard 100 (step S11). Next, the music search processing unit 11a checks whether a sufficient number of Note On information has been acquired to generate a query (step S12), and if it is insufficient (No), acquires Note On information again. repeat.

十分な数のNote On情報が取得されると(Yes)、楽曲検索処理部11aは、Note Onメッセージ列に含まれる音高の遷移から、楽曲検索用データベース12b向けのクエリを生成する(ステップS13)。最後に、楽曲検索処理部11aは、生成したクエリを用いて楽曲検索用データベース12bを検索する(ステップS14)。 When a sufficient number of Note On messages have been acquired (Yes), the music search processor 11a generates a query for the music search database 12b from the pitch transitions contained in the Note On message sequence (step S13). Finally, the music search processor 11a searches the music search database 12b using the generated query (step S14).

図7を参照して、図5における処理p12~p15について詳しく説明する。図7は、第1の実施形態での画像表示処理部11cの処理手順の一例を示すフローチャートである。
図7において、画像表示処理部11cは、処理p5で取得した楽曲情報の歌詞情報と、比較対象となる画像の情報との適合度合を示す合致度を含む合致度情報をアライメント処理部11bから取得する(ステップS21)。次に、画像表示処理部11cは、合致度の値を参照し、既定の閾値と比較する(ステップS22)。ここで、合致度が高い(閾値以上である)場合には(Yes)、楽曲検索により取得した楽曲情報における歌詞情報に対応する画像を画像データベース12cから取得する(ステップS23)。
With reference to FIG. 7, the processes p12 to p15 in FIG. 5 will be described in detail. FIG. 7 is a flowchart showing an example of the processing procedure of the image display processing section 11c in the first embodiment.
In FIG. 7, the image display processing unit 11c acquires matching degree information including a matching degree indicating the matching degree between the lyric information of the song information acquired in process p5 and the information of the image to be compared from the alignment processing unit 11b. (Step S21). Next, the image display processing unit 11c refers to the matching degree value and compares it with a predetermined threshold value (step S22). Here, if the matching degree is high (above the threshold value) (Yes), an image corresponding to the lyrics information in the music information acquired by the music search is acquired from the image database 12c (step S23).

なお、画像データベース12cに歌詞情報に対応する画像が複数保持されている場合、コンピュータ200は、演奏中に、対応する複数の画像のうちの2つ以上を順次、或いは交互に表示するように適宜調整してもよい。さらに、画像が動画である場合、コンピュータ200は、残りの演奏推定時間に合わせて最適な長さの動画を選択して表示装置に出力してもよい。ここで最適な長さの動画としては、残りの演奏推定時間と実質的に同等の表示時間の動画が最も好ましい。次に、残りの演奏推定時間以上の動画が好ましい。 Note that if the image database 12c holds a plurality of images corresponding to lyric information, the computer 200 may display two or more of the plurality of corresponding images sequentially or alternately during the performance. May be adjusted. Further, if the image is a moving image, the computer 200 may select a moving image with an optimal length according to the estimated remaining performance time and output it to the display device. Here, it is most preferable that the optimal length of the video be a video with a display time that is substantially equivalent to the estimated remaining performance time. Next, a video with a length longer than the estimated remaining performance time is preferable.

なお、残りの演奏推定時間より短い表示時間の動画であっても、コンピュータ200は、表示装置に繰り返し表示を指示したり、表示装置での表示速度を遅らせることで動画の表示時間を演奏推定時間と実質的に同等となるように調整してもよい。 Note that even if the display time of a video is shorter than the estimated remaining performance time, the computer 200 can instruct the display device to display the video repeatedly or slow down the display speed on the display device so that the display time of the video is shorter than the estimated performance time. It may be adjusted so that it is substantially equivalent to .

一方、画像データベース12cに保持されている全ての画像による合致度が全て低い(閾値未満である)場合には、画像表示処理部11cは、予め用意された汎用的画像を画像データベース12cから取得する(ステップS24)。汎用的画像とは、例えば、抽象的な画像であったり、あるいは、今まで表示していた絵柄とタッチやイメージが似ている別の画像など、どのような曲想にも対応する画像にするとよい。特に、演奏開始直後であって最初の検索が終了するまでは合致度が低くならざるを得ないので、どのような曲でもそれなりにマッチするような画像を予め設定しておくとよい。 On the other hand, if the matching degrees of all images held in the image database 12c are all low (below the threshold), the image display processing unit 11c acquires a general-purpose image prepared in advance from the image database 12c. (Step S24). A general-purpose image should be an image that corresponds to any musical idea, such as an abstract image or another image similar in touch or image to the previously displayed image. . In particular, since the degree of matching will inevitably be low immediately after the performance starts and until the first search is completed, it is advisable to set images in advance that will reasonably match any song.

次に、画像表示処理部11cは、取得した画像を画像を表示装置(プロジェクター300)に出力して表示するよう指示する(ステップS25)。そして、画像表示処理部11cは、最後の打鍵・離鍵からの経過時間をカウントアップし、カウント値を既定の値と比較するなどの処理により、演奏が終了したか否かを判断する(ステップS26)。演奏終了が判断されると(Yes)、画像表示処理部11cは、画像の表示を停止して(ステップS27)処理を終了する。 Next, the image display processing unit 11c instructs the display device (projector 300) to output and display the acquired image (step S25). Then, the image display processing unit 11c determines whether the performance has ended by counting up the elapsed time since the last key press/release and comparing the count value with a predetermined value (step S26). When it is determined that the performance has ended (Yes), the image display processing section 11c stops displaying the image (step S27) and ends the process.

一方、演奏の継続中が判断されると(ステップS26でNo)、画像表示処理部11cは次の画像を表示するか、つまり、画像の切り替えタイミングか否かを判断する(ステップS28)。画像切り替えのタイミングでなければ(No)、処理手順は表示装置への表示を継続した状態でステップS26に戻ってループする。 On the other hand, if it is determined that the performance is continuing (No in step S26), the image display processing unit 11c determines whether to display the next image, that is, whether it is time to switch images (step S28). If it is not time to switch images (No), the processing procedure loops back to step S26 with the display on the display device continuing.

ステップS28において、画像の切り替えのタイミングと判断されると(Yes)、画像切替時のエフェクト処理(フェードなど)を適宜設定し(ステップS29)、処理手順はステップS22に戻って次の画像の選択からの手順が繰り返される。 If it is determined in step S28 that it is time to switch images (Yes), the effect processing (e.g., fade) to be performed when switching images is set appropriately (step S29), and the processing procedure returns to step S22, where the procedure is repeated from the selection of the next image.

図8を参照して、図5における処理p6~p9について詳しく説明する。図8は、アライメント処理部11bの処理手順の一例を示すフローチャートである。
図8において、アライメント処理部11bは、楽曲検索処理部11aによる楽曲の検索結果としてヒットした楽曲の、楽曲情報を取得する(ステップS41)。また、アライメント処理部11bは、現時点までの演奏で発生したMIDIデータ列に含まれるNote情報を取得する(ステップS42)。これらの情報に基づいて、アライメント処理部11bはアライメントデータベース12dを検索し(ステップS43)、楽曲のメロディ情報を取得する。
Processes p6 to p9 in FIG. 5 will be described in detail with reference to FIG. FIG. 8 is a flowchart showing an example of the processing procedure of the alignment processing section 11b.
In FIG. 8, the alignment processing unit 11b acquires music information of the music that is hit as a result of the music search by the music search processing unit 11a (step S41). Furthermore, the alignment processing section 11b acquires Note information included in the MIDI data string generated in the performance up to the present time (step S42). Based on this information, the alignment processing unit 11b searches the alignment database 12d (step S43) and acquires melody information of the song.

そして、アライメント処理部11bは、取得したNote情報とメロディ情報との合致度を計算し(ステップS44)、合致度情報を算出(導出)する。なお演奏開始直後は、合致度情報として低い値を返すようにしても良い。得られた合致度情報は、画像表示処理部11cに渡される(ステップS45)。ここで、合致度が閾値未満であれば(ステップS46でYes)、アライメント処理部11bは、楽曲検索処理部11aに楽曲の再検索を依頼する(ステップS47)。 Then, the alignment processing unit 11b calculates the degree of match between the acquired note information and melody information (step S44) and calculates (derives) the degree of match information. Note that immediately after the performance starts, a low value may be returned as the degree of match information. The obtained degree of match information is passed to the image display processing unit 11c (step S45). Here, if the degree of match is less than the threshold (Yes in step S46), the alignment processing unit 11b requests the song search processing unit 11a to search for the song again (step S47).

図9は、図8のステップS44における合致度の計算について説明するための図である。例えば、DPマッチング法により楽曲情報とメロディラインとの合致度を計算することができる。 FIG. 9 is a diagram for explaining the calculation of the matching degree in step S44 of FIG. 8. For example, it is possible to calculate the degree of matching between music information and a melody line using the DP matching method.

図9において、横軸は演奏のNote情報でありa,b,cは音高を示す。縦軸はアライメントデータベース12dから取得したメロディ情報であり、同様にa,b,cは音高を示す。状態は、左下の始状態から右上の終状態へと遷移してゆく。隣り合う状態へのパスごとに、各状態の累積値が設定される。 In FIG. 9, the horizontal axis is note information of the performance, and a, b, and c indicate pitches. The vertical axis is melody information acquired from the alignment database 12d, and similarly, a, b, and c indicate pitch. The state transitions from the starting state at the bottom left to the final state at the top right. The cumulative value of each state is set for each path to adjacent states.

縦軸と横軸が異なる状態(音高)の場合、ペナルティ加算される図9では、横方向の遷移で状態が同じならば2点、異なるならば20点が加算される。縦方向の遷移で状態が同じならば2点、異なるならば20点が加算される。斜め方向の遷移では、状態が同じならば1点、異なるならば10点が加算される。 In Figure 9, where a penalty is added when the vertical and horizontal axes represent different states (pitches), 2 points are added if the states are the same in a horizontal transition, and 20 points are added if they are different. In vertical transitions, 2 points are added if the states are the same, and 20 points are added if they are different. In diagonal transitions, 1 point is added if the states are the same, and 10 points are added if they are different.

図9の右端の囲み部分(7フレーム目)を現在時刻とすると、7音目での最小スコアは14であり、この値は、基本的に演奏とメロディ情報とが似ているほど小さくなる。そこで、式(1)のようにフレーム数で正規化することにより、合致度を簡易的に計算することができる。加えて、最小値を記録した縦軸の位置により、楽曲が演奏されている凡その位置(場所)を知ることもできる。 If the boxed area on the right side of Figure 9 (7th frame) is taken as the current time, the minimum score for the 7th note is 14, and this value basically becomes smaller the more similar the performance and melody information are. Therefore, by normalizing by the number of frames as in equation (1), the degree of match can be calculated easily. In addition, the position on the vertical axis where the minimum value is recorded can be used to find out the approximate position (location) where the song is being played.

以上説明したように、第1の実施形態では、演奏で生じる演奏データからクエリを生成し、楽曲検索用データベースを検索することにより楽曲情報を取得する。また、楽曲情報に対応するメロディ情報をアライメントデータベースから取得し、アライメント処理により、楽曲情報とメロディラインとの合致度を継続的に計算する。そして、合致度が低下すると、楽曲検索用データベースを再検索することにより再度、演奏にマッチする曲を特定する。このように、演奏が続いている限り、演奏と楽曲との合致の度合いが常に計算され続けるので、曲にマッチする画像データを常時、取得できるようになる。 As described above, in the first embodiment, a query is generated from performance data generated during a performance, and music information is acquired by searching a music search database. Furthermore, melody information corresponding to the song information is acquired from the alignment database, and the degree of matching between the song information and the melody line is continuously calculated through alignment processing. When the degree of matching decreases, the music search database is searched again to identify the music that matches the performance again. In this way, as long as the performance continues, the degree of matching between the performance and the song is constantly calculated, so image data that matches the song can be obtained at all times.

上述のように、合致度が低くなった場合、これまでの演奏における合致度を加味して総合的に適合する曲を取得してもよいし、あるフレーズから極端に合致度が低くなった場合、これまでの演奏の合致度をリセットして、低くなった時点から合致度を算出(導出)するようにしてもよい。後者の場合、演奏を中断することなく、メドレーのように曲が次々と変わっていっても、適切な画像が常に選択されて画像表示されるようになる。 As mentioned above, if the degree of match becomes low, you can take into account the degree of match in previous performances to obtain an overall matching song, or if the degree of match becomes extremely low from a certain phrase. , the matching degree of the performance up to now may be reset, and the matching degree may be calculated (derived) from the point at which it becomes low. In the latter case, even if the songs change one after another like a medley without interrupting the performance, the appropriate image will always be selected and displayed.

既存の技術では、一旦、曲が特定されてしまうと途中での修正が効かず、曲に応じた画像に違和感を生じさせる場合があった。つまり、一度検索を終えて、合致度の高い曲が確定してしまうと、続けて違う曲を演奏したとしても、合致度が高い曲と関連したイラストが続けて表示されてしまう場合があった。これに対し第1の実施形態の技術によれば、そのようなミスマッチを生じる恐れがない。つまり第1の実施形態によれば、演奏と表示画像とが一致しなくなるとただちに修正され、また、ミスマッチが目立たないような画像を選択することもできる。また、演奏している楽曲と似たようなフレーズの別の楽曲があり、合致度を算出する対象がこの別の曲であるために、演奏が進むたびに合致度が変わってくる場合でも上述と同様な効果を奏することができる。 With existing technology, once a song is identified, it cannot be corrected midway, which can lead to an unnatural image corresponding to the song. In other words, once a search is completed and a song with a high degree of matching is determined, illustrations related to the song with a high degree of matching may continue to be displayed even if a different song is subsequently played. In contrast, with the technology of the first embodiment, there is no risk of such a mismatch occurring. In other words, with the first embodiment, if the performance and the displayed image no longer match, the mismatch is immediately corrected, and an image that does not make the mismatch noticeable can be selected. Furthermore, since there is another song with a similar phrase to the song being played and the degree of matching is calculated for this other song, the same effect as described above can be achieved even if the degree of matching changes as the performance progresses.

これらのことから第1の実施形態によれば、演奏にマッチする画像を高い精度で提示できるようになり、これにより、演奏することの楽しさをさらに高めたプログラム、情報処理装置、情報処理方法、および、演奏データ処理システムを提供することが可能になる。 For these reasons, according to the first embodiment, images that match the performance can be presented with high accuracy, thereby providing a program, an information processing device, and an information processing method that further enhance the enjoyment of playing. , and a performance data processing system.

[第2の実施形態]
第1の実施形態では、合致度がしきい値以上と判定された後、引き続き演奏中に合致度が低くなった場合に、演奏にマッチする画像データを画像データベース12cから再検索する例について説明した。第1の実施形態では、例えば最初に曲「赤とんぼ」の演奏が認識されると、画像表示装置は赤とんぼに関係する絵を表示する。また、最初に曲「雪の降るまちを」の演奏が認識されると、画像表示装置は、例えば雪が降っている街並み等の画像を表示する。そして、演奏が終了するまで同じパターンの画像を表示し続けることもあり得る。
Second Embodiment
In the first embodiment, an example was described in which, after the degree of matching is determined to be equal to or greater than a threshold value, if the degree of matching decreases during the continued performance, image data matching the performance is searched again from the image database 12c. In the first embodiment, for example, when the performance of the song "Akatonbo" is first recognized, the image display device displays a picture related to Akatonbo. Also, when the performance of the song "Yuki no Furu Machi wo" is first recognized, the image display device displays an image of, for example, a cityscape with snow falling. It is also possible that the same pattern of image will continue to be displayed until the performance ends.

しかし、演奏とともにフレーズが進行していくと、歌詞の内容や曲調(曲の明るさ、暗さ等の雰囲気や短調、長調を含む)が変化することがある。つまり、同じ曲であっても、歌詞の内容、あるいは曲調が変わることにより、求められる画像が変わっていくことがある。曲「赤とんぼ」や曲「雪の降るまちを」の演奏においても、フレーズの進行とともに求められる画像が変わっていくことがある。このようなケースでも、演奏しているフレーズに対してより適合した画像を表示することが好ましい。 However, as the phrase progresses with the performance, the content of the lyrics and the melody (including the mood of the song, such as brightness or darkness, and whether it is in a minor or major key) may change. In other words, even if the song is the same, the desired image may change depending on the content of the lyrics or the melody. Even in the performance of the song ``Akatonbo'' or the song ``Yuki no Furu Machi wo,'' the desired image may change as the phrase progresses. Even in such a case, it is preferable to display an image that is more suitable for the phrase being played.

そこで、第2の実施形態では、楽曲データにおける歌詞内容を含む歌詞情報の変化や曲調の変化に応じて、同一楽曲の演奏中に適切なタイミングで歌詞情報や曲調に合った表示画像に切り替えることを実現する。第2の実施形態において、第1実施形態と同様な部分は適宜説明を省略する。 Therefore, in the second embodiment, the display image is switched to a display image that matches the lyric information and the melody at an appropriate timing during the performance of the same song, in response to changes in the lyric information including the lyric content in the song data and changes in the melody. Realize. In the second embodiment, descriptions of parts similar to those in the first embodiment will be omitted as appropriate.

図10は、第2の実施形態での画像表示処理部11cの処理手順の一例を示すフローチャートである。図2において、画像表示処理部11cは、処理p5で取得した楽曲情報における、楽曲を構成する複数のフレーズから、演奏予定順に1つずつフレーズを抽出する。そして、画像表示処理部11cは、抽出された1つのフレーズの歌詞情報と曲調情報との少なくともいずれか一方と、画像との適合度合を示す合致度を含む合致度情報をアライメント処理部11bから順次取得する(ステップS21)。ここで、歌詞情報は、例えば歌詞の内容に応じたデジタル値のデータを含む。曲調情報は、曲調に応じたデジタル値のデータを含む。 FIG. 10 is a flowchart showing an example of the processing procedure of the image display processing section 11c in the second embodiment. In FIG. 2, the image display processing unit 11c extracts phrases one by one from the plurality of phrases that make up the music in the music information acquired in process p5, in the order of scheduled performance. Then, the image display processing unit 11c sequentially receives matching degree information including a matching degree indicating the degree of matching between the image and at least one of the lyrics information and melody information of one extracted phrase from the alignment processing unit 11b. Acquire (step S21). Here, the lyrics information includes, for example, digital value data according to the content of the lyrics. The melody information includes digital value data corresponding to the melody.

次に、画像表示処理部11cは、フレーズごとの合致度の値を参照し、既定の閾値と比較する(ステップS22)。ここで、楽曲検索により取得した楽曲情報における楽曲を構成する各フレーズに対する合致度がそれぞれ高い(閾値以上である)画像が画像データベース12cにあった場合(Yes)、画像表示処理部11cは、各フレーズに対応する画像を画像データベース12cから順次取得する(ステップS30)。 Next, the image display processing unit 11c refers to the matching degree value for each phrase and compares it with a predetermined threshold value (step S22). Here, if there is an image in the image database 12c that has a high matching degree (above the threshold) for each phrase constituting the song in the song information obtained by the song search (Yes), the image display processing unit 11c Images corresponding to the phrase are sequentially acquired from the image database 12c (step S30).

ここで、ある1つのフレーズに合致度の高い画像データが画像データベース12cに複数あった場合、コンピュータ200は、その中からランダムに選ばれた画像を表示するよう指示してもよい。あるいは、過去の表示履歴を読み出し、直近に表示した画像を除いた画像の中から選択して表示するよう指示してもよい。 Here, if there are multiple image data in the image database 12c that closely match a certain phrase, the computer 200 may instruct the computer 200 to display an image randomly selected from the image database. Alternatively, the computer 200 may instruct the computer 200 to read the past display history and select and display an image from among images excluding the most recently displayed image.

一方、ステップS22において、合致度が全て低い(閾値未満である)場合には、画像表示処理部11cは、予め用意された汎用的画像を画像データベース12cから取得する(ステップS24)。そして画像表示処理部11cは、ステップS30またはステップS24において取得した画像を画像を、表示装置(プロジェクター300)に出力して表示するよう指示する(ステップS25)。その後、第1の実施形態と同様にステップS26~ステップS29の処理手順が実行される。 On the other hand, in step S22, if all the matching degrees are low (below the threshold), the image display processing unit 11c acquires a general-purpose image prepared in advance from the image database 12c (step S24). The image display processing unit 11c then instructs the display device (projector 300) to output and display the image acquired in step S30 or step S24 (step S25). Thereafter, the processing procedure of steps S26 to S29 is executed as in the first embodiment.

図11は、きらきら星の譜例を示し、第2の実施形態では、この譜例を表現する楽曲データを例えば図12のような構造とする。 FIG. 11 shows an example of the musical score of Twinkle Little Star, and in the second embodiment, music data representing this musical example has a structure as shown in FIG. 12, for example.

図12は、楽曲データ13aの一例を示す図である。図11の譜例に対応する楽曲データ13a(図4)は、小節のそれぞれの拍ごとに、音符の音高と音長、および微妙なタイミングを示すティック(tick)が対応付けて記録されている。また、メタイベントとしてテンポ、拍子を含み、さらにフレーズ番号が埋め込まれている。 FIG. 12 is a diagram showing an example of the music data 13a. The music data 13a (FIG. 4) corresponding to the musical score example in FIG. 11 is recorded in association with the pitch and length of the note and a tick indicating subtle timing for each beat of the measure. There is. In addition, tempo and time signature are included as meta-events, and a phrase number is also embedded.

第2の実施形態ではさらに、楽曲データ13aのフレーズ番号に対応する領域に、フレーズ単位の歌詞情報及び曲調情報の少なくとも一方に合わせてフレーズを演奏中に表示すべき画像の画像番号(識別子)を追加して登録する。そして、演奏の進行に対応する位置の画像番号をキーとして画像データベース12cから適合する画像を検索する。検索の結果、特定された画像データに基づいた画像を、演奏中であって且つ画像番号に合わせたタイミング(フレーズと次のフレーズとの切り替えタイミング)で表示装置に表示させる。 In the second embodiment, the image number (identifier) of the image to be displayed while the phrase is being played is further added to the area corresponding to the phrase number of the music data 13a in accordance with at least one of the lyrics information and melody information for each phrase. Add and register. Then, a matching image is searched from the image database 12c using the image number of the position corresponding to the progress of the performance as a key. As a result of the search, an image based on the image data specified is displayed on the display device during the performance and at a timing matching the image number (timing of switching between a phrase and the next phrase).

図13は、第2の実施形態での画像表示処理部11cの処理手順の一例を示すフローチャートである。図7との比較において異なる部分についてのみ説明する。
図13のステップS26までは第1の実施形態と同様の手順が実施される。ステップS26で演奏の継続中が判断されると(No)、画像表示処理部11cは次の画像を表示するか、つまり、次のフレーズに移行する際に次のフレーズに適合した画像に切り替えるタイミングか否かを判断する(ステップS31)。画像表示処理部11cは、検索された楽曲の楽曲データ13aの進行と対応付けてステップS31の判断を実行する。
13 is a flowchart showing an example of a processing procedure of the image display processing unit 11c in the second embodiment. Only the parts that are different from FIG.
The same procedure as in the first embodiment is carried out up to step S26 in Fig. 13. If it is determined in step S26 that the performance is continuing (No), the image display processing unit 11c determines whether to display the next image, that is, whether it is time to switch to an image suitable for the next phrase when moving to the next phrase (step S31). The image display processing unit 11c executes the determination of step S31 in association with the progress of the music data 13a of the searched music.

つまり、演奏により次々に発生するMIDIデータ列と、楽曲データ13aとの対応付けにより、例えば(現在、7小節目の1拍目冒頭に差し掛かった)ということが判断できる。図12を参照すると、この位置にはフレーズP4とともに、画像番号G4が対応付けられている。そこで、コンピュータ200は、フレーズP4を演奏する前に、画像番号G4に対応する画像を画像表示処理部11cから取得する(ステップS32)。そして、画像に必要なエフェクト処理を施したのち(ステップS29)、フレーズP4の演奏開始タイミングに合わせて画像番号G4に対応する画像を表示装置の表示を開始させる。つまり演奏している楽曲を特定することによって、この楽曲における、少なくとも1つ以上のフレーズ単位に合わせた画像を、演奏中に発生する、この少なくとも1つ以上のフレーズ単位の切り替えタイミングに表示開始させることができる。 That is, by associating the MIDI data strings that are generated one after another by the performance with the music data 13a, it is possible to determine, for example, that (the position is now approaching the beginning of the first beat of the seventh measure). Referring to FIG. 12, image number G4 is associated with this position along with phrase P4. Therefore, before playing phrase P4, the computer 200 obtains an image corresponding to image number G4 from the image display processing unit 11c (step S32). Then, after applying the necessary effect processing to the image (step S29), the display device starts displaying the image corresponding to image number G4 in time with the start of the performance of phrase P4. In other words, by identifying the music being played, it is possible to start displaying images corresponding to at least one or more phrase units in this music at the timing when at least one or more phrase units are switched during the performance.

以上説明したように、第2の実施形態では、楽曲データ13aに、画像の切り替えタイミングと、表示するイラストを示す識別子(番号やファイル名など)とを予め格納し、入力された演奏データと楽曲データ13aとのタイミングとを照合し、両者のタイミングが合致した時点で、画像を切り替えるようにした。このようにすることで、最適な画像を最適なタイミングで切り替えることができるようになる。 As explained above, in the second embodiment, the image switching timing and the identifier (number, file name, etc.) indicating the illustration to be displayed are stored in advance in the music data 13a, and the input performance data and the music are stored in advance. The timing is compared with the data 13a, and when the timings match, the image is switched. By doing this, it becomes possible to switch the optimal image at the optimal timing.

楽曲データとしても使用されるレッスンデータには、図12に示されるように、フレーズデータが定義されているものも多い。そこで、第2の実施形態のように、フレーズデータとともに画像データの番号を楽曲データに埋め込んでおくことで、フレーズ切り替えのタイミングで適切な画像に切り替えることができる。 Most lesson data that is also used as music data has phrase data defined, as shown in FIG. 12. Therefore, by embedding the image data number in the music data along with the phrase data, as in the second embodiment, it is possible to switch to an appropriate image when the phrase changes.

また、歌詞も、フレーズ位置に応じて内容に区切りのあるものが多い。そこで、楽曲データ13aに画像の切り替え情報を含めることで、歌詞の細かいタイミングに合わせた最適な画像表示が可能になる。さらに、画像の切り替えのタイミングをさらに細かくしたい場合には、例えば未定義のコントロールチェンジなどを使うことも可能である。 Also, lyrics often have content that is divided according to the phrase position. Therefore, by including image switching information in the music data 13a, it becomes possible to display images optimally in accordance with the precise timing of the lyrics. Furthermore, if you want to specify even more precise timing for image switching, it is possible to use, for example, undefined control changes.

これらのことから第2の実施形態によっても、演奏にマッチする画像を高い精度で提示できるようになり、これにより、演奏することの楽しさをさらに高めたプログラム、情報処理装置、情報処理方法、および、演奏データ処理システムを提供することが可能になる。 As a result, the second embodiment also makes it possible to present images that match the performance with a high degree of accuracy, thereby making it possible to provide a program, information processing device, information processing method, and performance data processing system that further enhance the enjoyment of playing.

なお、本発明は、具体的な実施形態に限定されるものではない。例えば実施形態では、実施形態に係わる処理部(ハードウェア)や機能(アプリケーション(ソフトウェア))をコンピュータ200に実装する例を開示した。コンピュータ200に代えて、デジタルキーボード100に実施形態に係わる処理部や機能を実装してもよい。同様に、コンピュータ200が表示手段を有していれば、画像表示装置300の代替として、コンピュータ200を表示装置として適用することができる。また、デジタルキーボード100が表示手段を有していれば、画像表示装置300の代替として、デジタルキーボード100を適用することができる。 Note that the present invention is not limited to specific embodiments. For example, in the embodiment, an example has been disclosed in which the processing unit (hardware) and functions (application (software)) according to the embodiment are implemented in the computer 200. Instead of the computer 200, the digital keyboard 100 may be equipped with processing units and functions according to the embodiment. Similarly, if the computer 200 has a display means, the computer 200 can be used as a display device instead of the image display device 300. Further, if the digital keyboard 100 has a display means, the digital keyboard 100 can be applied as a substitute for the image display device 300.

上記実施形態では、計算処理によって合致度を導出したが、これに限らない。例えば、演奏中の演奏曲が、楽曲検索用データベース12cに保持されている複数の楽曲のいずれかに適合するかどうかが判断できるテーブル、すなわち、演奏中の内容を示すデータ値を入力することによって、適合する楽曲を自動的に抽出するテーブルを用いることでも導出できる。 In the above embodiment, the degree of match is derived by calculation, but this is not the only possible method. For example, the degree of match can be derived using a table that can determine whether the music being played matches any of the multiple music pieces stored in the music search database 12c, that is, a table that automatically extracts matching music pieces by inputting a data value that indicates the content of the music being played.

さらに、本発明の技術的範囲には、本発明の目的が達成される範囲での様々な変形や改良などが含まれるものであり、そのことは当業者にとって特許請求の範囲の記載から明らかである。 Furthermore, the technical scope of the present invention includes various modifications and improvements within the scope of achieving the object of the present invention, and this will be clear to those skilled in the art from the description of the claims. be.

11…プロセッサ11a…楽曲検索処理部11b…アライメント処理部11c…画像表示処理部12a…プログラム12b…楽曲検索用データベース12c…画像データベース12d…アライメントデータベース13…RAM13a…楽曲データ14…内部バス15…入出力インタフェース16…入力部17…通信部21…出力部100…デジタルキーボード200…コンピュータ201…操作部300…プロジェクター400…MIDIインタフェース500…映像インタフェース。 11...Processor 11a...Music search processing section 11b...Alignment processing section 11c...Image display processing section 12a...Program 12b...Song search database 12c...Image database 12d...Alignment database 13...RAM 13a...Song data 14...Internal bus 15...Input Output interface 16...Input unit 17...Communication unit 21...Output unit 100...Digital keyboard 200...Computer 201...Operation unit 300...Projector 400...MIDI interface 500...Video interface.

Claims (10)

コンピュータに、
演奏に伴って発生する演奏データに基づいて特定された、前記演奏に対応する楽曲に適合する画像を表示装置に表示させる画像表示処理と、
連続して演奏される演奏に伴って発生する前記演奏データの時系列に基づいて、前記演奏と前記特定された楽曲との合致度を繰り返し導出する導出処理と、
前記合致度が基準を満たさない場合に、前記演奏に対応する楽曲を再検索させる処理と、を実行させる命令を含む、プログラム。
to the computer,
an image display process that causes a display device to display an image that is specified based on performance data generated in conjunction with the performance and that is suitable for a piece of music that corresponds to the performance;
a derivation process of repeatedly deriving the degree of match between the performance and the identified music piece based on a time series of the performance data generated in conjunction with the continuously performed performances;
A program including an instruction for executing a process of re-searching for a piece of music corresponding to the performance when the degree of matching does not satisfy a criterion.
前記演奏に伴って発生する前記演奏データに基づいて、前記演奏に対応する楽曲を検索によって特定する楽曲検索処理をさらに含み、
前記楽曲検索処理は、複数の楽曲ごとに、関連する情報を対応付けて登録した楽曲検索用データベースを検索して前記楽曲を特定する、請求項1に記載のプログラム。
The method further includes a music search process for searching for and identifying a music piece corresponding to the performance based on the performance data generated in association with the performance,
2. The program according to claim 1, wherein the music search process identifies the music by searching a music search database in which related information is registered for each of a plurality of music pieces.
前記画像表示処理は、複数の画像データを登録した画像データベースから、前記表示に係わる画像の画像データを取得する、請求項1に記載のプログラム。 The program according to claim 1, wherein the image display process obtains image data for the image to be displayed from an image database in which multiple image data are registered. 前記画像表示処理は、画像の識別子を取得し、前記識別子にしたがったタイミングに対応する画像データを、前記識別子にしたがったタイミングの前に、前記画像データベースから取得する、請求項3に記載のプログラム。 The program according to claim 3, wherein the image display process acquires an image identifier, and acquires image data corresponding to a timing according to the identifier from the image database before the timing according to the identifier. 前記画像表示処理は、前記識別子にしたがったタイミングで、前記タイミングに対応する画像データの画像を前記表示装置に表示させる、請求項4記載のプログラム。 The program according to claim 4, wherein the image display process causes the display device to display an image of the image data corresponding to the timing according to the identifier. 前記導出処理は、複数の楽曲ごとに前記楽曲のメロディ情報を対応付けて登録したアライメントデータベースから取得した前記メロディ情報と、前記演奏データとの合致度を導出する、請求項1に記載のプログラム。 2. The program according to claim 1, wherein the derivation process derives a degree of match between the melody information acquired from an alignment database in which melody information of the music piece is registered in association with each other for each of a plurality of music pieces, and the performance data. 前記画像表示処理は、前記合致度が基準を満たさない状態、または、前記楽曲が特定されていない状態において、予め用意された汎用的画像を前記表示装置に表示させる、請求項1に記載のプログラム。 The program according to claim 1, wherein the image display process causes the display device to display a general-purpose image prepared in advance in a state where the matching degree does not meet a criterion or a state where the song is not specified. . 演奏データを発生させる電子機器に接続可能なインタフェースと、
プロセッサとを具備し、
前記プロセッサが、
演奏に伴って発生する前記演奏データに基づいて、前記演奏に対応する楽曲を検索して特定し、
前記特定された楽曲に対応する画像を選択して表示装置に表示し、
前記演奏データの時系列に基づいて、前記演奏と前記特定された楽曲との合致度を繰り返し計算し、
前記合致度が既定の基準を満たさない場合に、前記演奏に対応する楽曲を再検索する、情報処理装置。
an interface connectable to an electronic device that generates performance data;
a processor;
The processor,
searching for and identifying a piece of music corresponding to the performance based on the performance data generated in association with the performance;
selecting an image corresponding to the identified piece of music and displaying it on a display device;
Iteratively calculating a degree of match between the performance and the identified piece of music based on a time series of the performance data;
When the degree of match does not satisfy a predetermined standard, the information processing device searches again for a piece of music corresponding to the performance.
情報処理装置の情報処理方法において、
演奏に伴って発生する演奏データに基づいて特定された、前記演奏に対応する楽曲に適合する画像を表示装置に表示させ、
連続して演奏される演奏に伴って発生する前記演奏データの時系列に基づいて、前記演奏と前記特定された楽曲との合致度を繰り返し導出し、
前記合致度が基準を満たさない場合に、前記演奏に対応する楽曲を再検索させる、情報処理方法。
In an information processing method of an information processing device,
displaying on a display device an image that is specified based on performance data generated in association with the performance and that matches the music piece corresponding to the performance;
repeatedly deriving a degree of matching between the performance and the identified piece of music based on a time series of the performance data generated in association with the successive performances;
When the degree of match does not satisfy a criterion, a search is again made for a piece of music corresponding to the performance.
情報処理装置と、表示装置とを具備する演奏データ処理システムであって、
前記情報処理装置は、
演奏データを発生させる機器に接続可能なインタフェースと、
演奏に伴って発生する前記演奏データに基づいて特定された、前記演奏に対応する楽曲に適合する画像を前記表示装置に表示させる画像表示処理部と、
連続して演奏される演奏に伴って発生する前記演奏データの時系列に基づいて、前記演奏と前記特定された楽曲との合致度を繰り返し導出する導出処理部とを備え、
前記導出処理部は、前記合致度が基準を満たさない場合に、前記演奏に対応する楽曲を再検索させる、演奏データ処理システム。
A performance data processing system including an information processing device and a display device,
The information processing device includes:
an interface connectable to a device that generates performance data;
an image display processing unit that displays, on the display device, an image that is specified based on the performance data generated in association with the performance and that matches the music piece corresponding to the performance;
a derivation processing unit that repeatedly derives a degree of matching between the performance and the identified piece of music based on a time series of the performance data generated in association with the performances that are continuously performed,
The performance data processing system, wherein the derivation processing unit re-searches for a piece of music corresponding to the performance if the degree of match does not satisfy a criterion.
JP2022151677A 2022-09-22 2022-09-22 PROGRAM, INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PERFORMANCE DATA PROCESSING SYSTEM Pending JP2024046351A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022151677A JP2024046351A (en) 2022-09-22 2022-09-22 PROGRAM, INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PERFORMANCE DATA PROCESSING SYSTEM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022151677A JP2024046351A (en) 2022-09-22 2022-09-22 PROGRAM, INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PERFORMANCE DATA PROCESSING SYSTEM

Publications (1)

Publication Number Publication Date
JP2024046351A true JP2024046351A (en) 2024-04-03

Family

ID=90481634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022151677A Pending JP2024046351A (en) 2022-09-22 2022-09-22 PROGRAM, INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PERFORMANCE DATA PROCESSING SYSTEM

Country Status (1)

Country Link
JP (1) JP2024046351A (en)

Similar Documents

Publication Publication Date Title
US7663044B2 (en) Musical performance self-training apparatus
EP2772904B1 (en) Apparatus and method for detecting music chords and generation of accompaniment.
JP2005309029A (en) Server device and method for providing streaming of musical piece data, and streaming using electronic music device
WO2018207936A1 (en) Automatic sheet music detection method and device
CN102015045A (en) Game device, music search method, information recording medium, and program
JP3541686B2 (en) Performance practice equipment and recording media
JP2007219139A (en) Melody generation system
JP2005227850A (en) Device and method for information processing, and program
JP2024046351A (en) PROGRAM, INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PERFORMANCE DATA PROCESSING SYSTEM
CN111223470A (en) Audio processing method and device and electronic equipment
JP2002006866A (en) Karaoke sing-along machine
JP2001337675A (en) Playing support device and playing support method
JP4170279B2 (en) Lyric display method and apparatus
JP2020014716A (en) Singing support device for music therapy
JP2009014923A (en) Musical performance clock generating device, data reproducing device, musical performance clock generating method, data reproducing method, and program
JP6219750B2 (en) Singing battle karaoke system
JP6176934B2 (en) Singing ranking display system
JP5847048B2 (en) Piano roll type score display apparatus, piano roll type score display program, and piano roll type score display method
KR101790998B1 (en) Switching Method of music score and device thereof
JP2000227795A (en) Code progress retrieving device and storage medium
JP4136556B2 (en) Performance learning device
WO2023139883A1 (en) Signal processing device and signal processing method
JP3835131B2 (en) Automatic composition apparatus and method, and storage medium
JP7465194B2 (en) Karaoke equipment
JP6144593B2 (en) Singing scoring system

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104