JP2021099459A - Program, method, electronic apparatus, and musical performance data display system - Google Patents

Program, method, electronic apparatus, and musical performance data display system Download PDF

Info

Publication number
JP2021099459A
JP2021099459A JP2019231922A JP2019231922A JP2021099459A JP 2021099459 A JP2021099459 A JP 2021099459A JP 2019231922 A JP2019231922 A JP 2019231922A JP 2019231922 A JP2019231922 A JP 2019231922A JP 2021099459 A JP2021099459 A JP 2021099459A
Authority
JP
Japan
Prior art keywords
image
performance
performance data
information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019231922A
Other languages
Japanese (ja)
Other versions
JP7467907B2 (en
Inventor
滋 加福
Shigeru Kafuku
滋 加福
広子 奥田
Hiroko Okuda
広子 奥田
渋谷 敦
Atsushi Shibuya
敦 渋谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2019231922A priority Critical patent/JP7467907B2/en
Publication of JP2021099459A publication Critical patent/JP2021099459A/en
Application granted granted Critical
Publication of JP7467907B2 publication Critical patent/JP7467907B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

To provide a program, a method, an electronic apparatus, and a musical performance data display system that can express a musical performance well visually.SOLUTION: The program causes a computer of an information processor to: determine whether input musical performance data is musical performance data input from at least one of a first apparatus and a second apparatus; display first image data according to information that can be determined according to the input musical performance data if the input musical performance data is determined to be input from the first apparatus; and display second image data in a format different from that of the first image data even if information that can be determined on the basis of input musical performance data is the same as the one when the input musical performance data is determined to be input from the first apparatus in a case where the input musical performance data is determined to be input from the second apparatus.SELECTED DRAWING: Figure 1

Description

実施形態は、プログラム、方法、電子機器、及び演奏データ表示システムに関する。 Embodiments relate to programs, methods, electronic devices, and performance data display systems.

例えば、MIDI(Musical Instrument Digital Interface)楽曲のような音楽の演奏に同期して踊り手(ダンサ)等の画像オブジェクトを動かし、音楽の曲想のみならず、楽音の進行に応じてこれと一体的に変化する動画像を生成することができるコンピュータグラフィックス動画像生成システムが知られている(特許文献1参照)。 For example, an image object such as a dancer (dancer) is moved in synchronization with the performance of music such as MIDI (Musical Computer Interface) music, and is integrated with this not only according to the musical composition but also according to the progress of the musical sound. A computer graphics moving image generation system capable of generating a changing moving image is known (see Patent Document 1).

特開平11−224084号公報Japanese Unexamined Patent Publication No. 11-224084

特許文献1に開示されたコンピュータグラフィックス動画像生成システムでは、単に演奏中に踊り手を示すキャラクタを動的に出現させているだけなので、表現力が乏しいという問題がある。 The computer graphics moving image generation system disclosed in Patent Document 1 has a problem that it lacks expressive power because it merely dynamically causes a character indicating a dancer to appear during a performance.

本発明は、このような事情に鑑みなされたものであり、例えば、演奏の視覚的な表現力に優れたプログラム、方法、電子機器、及び演奏データ表示システムを提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is, for example, to provide a program, a method, an electronic device, and a performance data display system having excellent visual expressiveness of performance.

実施形態に係るプログラムによれば、情報処理装置のコンピュータに、入力された演奏データが、少なくとも第1機器及び第2機器のいずれから入力された演奏データであるかを判定させ、前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報に応じて、第1画像データを表示させ、前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報が、たとえ前記第1機器と判定された場合と同じであったとしても、前記第1画像データとは異なる態様の第2画像データを表示させる。 According to the program according to the embodiment, the computer of the information processing apparatus is made to determine whether the input performance data is at least the performance data input from the first device or the second device, and the first device. When it is determined that the first image data is displayed according to the information that can be determined based on the input performance data, and when it is determined that the second device is used, the determination is made based on the input performance data. Even if the information that can be generated is the same as when it is determined to be the first device, the second image data in a mode different from that of the first image data is displayed.

本発明によれば、例えば、演奏の視覚的な表現力に優れたプログラム、方法、電子機器、及び演奏データ表示システムを提供することができる。 According to the present invention, for example, it is possible to provide a program, a method, an electronic device, and a performance data display system having excellent visual expressiveness of performance.

図1は、適用例に係るプログラムを含む演奏データ表示システムの一例を模式的に例示する図である。FIG. 1 is a diagram schematically illustrating an example of a performance data display system including a program according to an application example. 図2は、実施形態に係る演奏データ表示システムの概要を示す図である。FIG. 2 is a diagram showing an outline of the performance data display system according to the embodiment. 図3は、実施形態に係る電子楽器の制御システムのハードウェアを示す図である。FIG. 3 is a diagram showing the hardware of the control system of the electronic musical instrument according to the embodiment. 図4は、実施形態に係る情報処理装置のハードウェアを示す図である。FIG. 4 is a diagram showing the hardware of the information processing device according to the embodiment. 図5は、ROMのテーブルに、記憶されているテーブルの一例を示す図である。FIG. 5 is a diagram showing an example of a table stored in the ROM table. 図6は、画像(キャラクタ)の表示例について示した図である。FIG. 6 is a diagram showing a display example of an image (character). 図7は、ディスプレイ装置の表示部に表示されるリアルタイム画像における画像(キャラクタ)の軌道パターンの一例について示した図である。FIG. 7 is a diagram showing an example of a trajectory pattern of an image (character) in a real-time image displayed on a display unit of a display device. 図8は、画像決定部が生成する軌道パターンの一例である渦巻線を示す図である。FIG. 8 is a diagram showing a spiral winding which is an example of an orbital pattern generated by the image determining unit. 図9は、情報処理装置に接続される楽器の接続ケースを示した表である。FIG. 9 is a table showing connection cases of musical instruments connected to the information processing device. 図10は、情報処理装置の動作を示すフローチャートである。FIG. 10 is a flowchart showing the operation of the information processing device. 図11は、第1ユーザがメロディを弾いている場合における、リアルタイム画像を示している。FIG. 11 shows a real-time image when the first user is playing the melody.

図12は、第1及び第2ユーザが曲の演奏を終了した後の演奏後画像を示している。FIG. 12 shows post-performance images after the first and second users have finished playing the song. 図13は、4つの楽器を情報処理装置に接続する場合におけるリアルタイム画像の一例を示した図である。FIG. 13 is a diagram showing an example of a real-time image when four musical instruments are connected to an information processing device. 図14は、3つ以上の楽器を情報処理装置に接続する場合におけるリアルタイム画像の一例を示した図である。FIG. 14 is a diagram showing an example of a real-time image when three or more musical instruments are connected to an information processing device. 図15は、情報処理装置の動作を示すフローチャートである。FIG. 15 is a flowchart showing the operation of the information processing device. 図16は、図15に関するリアルタイム画像の一例を示した図である。FIG. 16 is a diagram showing an example of a real-time image with respect to FIG.

以下、本発明の一側面に係る実施の形態(以下、「実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。 Hereinafter, embodiments according to one aspect of the present invention (hereinafter, also referred to as “embodiments”) will be described with reference to the drawings. However, the embodiments described below are merely examples of the present invention in all respects. Needless to say, various improvements and modifications can be made without departing from the scope of the present invention. That is, in carrying out the present invention, a specific configuration according to the embodiment may be appropriately adopted. The data appearing in the embodiment are described in natural language, but more specifically, the data is specified in a pseudo language, a command, a parameter, a machine language, or the like that can be recognized by a computer.

<0>適用例
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、適用例に係るプログラムを含む演奏データ表示システムの一例を模式的に例示する。演奏データ表示システムは、ユーザ(演奏者)の演奏(音楽)に合わせてリアルタイムに画像(絵)を描画することにより、ユーザの電子楽器の練習意欲を掻き立てることを想定している。
<0> Application Example First, an example of a situation in which the present invention is applied will be described with reference to FIG. FIG. 1 schematically illustrates an example of a performance data display system including a program according to an application example. The performance data display system is supposed to stimulate the user's motivation to practice an electronic musical instrument by drawing an image (picture) in real time according to the performance (music) of the user (performer).

<0−1>適用例の概要
演奏データ表示システムの構成を説明する前に、演奏データ表示システムの概要について説明する。演奏データ表示システムは、例えば複数のユーザの演奏を演奏データ(例えばMIDIデータ)として出力できる電子楽器等から受信した演奏データを解析し、複数のユーザの演奏を画像に変換する。例えば、演奏データには音名情報やコード種別情報は含まれておらず、演奏データに含まれるノートナンバー情報から音名情報やコード種別情報が判定できる。
<0-1> Outline of application example
Before explaining the configuration of the performance data display system, the outline of the performance data display system will be described. The performance data display system analyzes performance data received from an electronic musical instrument or the like that can output performances of a plurality of users as performance data (for example, MIDI data), and converts the performances of the plurality of users into images. For example, the performance data does not include the note name information and the chord type information, and the note number information and the chord type information can be determined from the note number information included in the performance data.

<0−2>適用例の構成
図1を参照して、適用例の構成について説明する。図1は、適用例に係る演奏データ表示システムの構成の一例を示した図である。
<0-2> Configuration of Application Example The configuration of the application example will be described with reference to FIG. FIG. 1 is a diagram showing an example of the configuration of a performance data display system according to an application example.

図1に示すように、演奏データ表示システムは、第1楽器と、第2楽器と、情報処理装置と、ディスプレイ装置と、を含む。 As shown in FIG. 1, the performance data display system includes a first musical instrument, a second musical instrument, an information processing device, and a display device.

第1楽器は、第1ユーザの演奏を演奏データ(例えばMIDIデータ)に変換する。そして、その第1楽器は、演奏データを情報処理装置に出力する。 The first musical instrument converts the performance of the first user into performance data (for example, MIDI data). Then, the first musical instrument outputs the performance data to the information processing device.

より具体的には、第1楽器は、第1ユーザによる演奏操作に応じて第1楽器を識別可能な第1識別子(例えば、MIDIの第1チャンネル番号)を含む第1演奏データを生成するとともに、生成された第1演奏データを情報処理装置に出力する。第1楽器は、例えば、キーボード、電子ピアノ、エレキギター、または電子バイオリン等の電子楽器である。ただし、第1楽器は、上述したものに限らず、実施の形態に応じて適宜選択されてよい。 More specifically, the first musical instrument generates first performance data including a first identifier (for example, the first channel number of MIDI) that can identify the first musical instrument according to a performance operation by the first user. , The generated first performance data is output to the information processing device. The first musical instrument is, for example, an electronic musical instrument such as a keyboard, an electronic piano, an electric guitar, or an electronic violin. However, the first musical instrument is not limited to the one described above, and may be appropriately selected according to the embodiment.

第2楽器は、第2ユーザの演奏を演奏データ(例えばMIDIデータ)に変換する。そして、その第2楽器は、演奏データを情報処理装置に出力する。 The second musical instrument converts the performance of the second user into performance data (for example, MIDI data). Then, the second musical instrument outputs the performance data to the information processing device.

より具体的には、第2楽器は、第2ユーザによる演奏操作に応じて第2楽器を識別可能な第2識別子を含む第2演奏データを生成するとともに、生成された第2演奏データを情報処理装置に出力する。第2楽器は、例えば、電子楽器、ボーカルマイク、またはアコースティックピアノ等である。ただし、第2楽器は、上述したものに限らず、実施の形態に応じて適宜選択されてよい。 More specifically, the second musical instrument generates the second performance data including the second identifier that can identify the second musical instrument according to the performance operation by the second user, and also informs the generated second performance data. Output to the processing device. The second musical instrument is, for example, an electronic musical instrument, a vocal microphone, an acoustic piano, or the like. However, the second musical instrument is not limited to the one described above, and may be appropriately selected according to the embodiment.

情報処理装置は、入力された演奏データが、少なくとも第1楽器及び第2楽器のいずれから入力された演奏データであるかを判定する。また、情報処理装置は、入力された演奏データが第1機器からの演奏データであると判定した場合に、入力された演奏データに基づいて判定できる情報(例えば、音名、コード種別等)に応じて、第1画像(キャラクタ)データを出力する。また、情報処理装置は、入力された演奏データが第2機器からの演奏データであると判定した場合に、入力された演奏データに基づいて判定できる情報(例えば、音名、コード種別等)が、たとえ第1演奏データに基づいて判定できる情報と同じあったとしても、第1画像データとは異なる態様の第2画像データ(キャラクタ)を出力する。情報処理装置は、例えば、PC(パーソナルコンピュータ)である。なお、「設定」、または「登録」は、基本的には「記憶」と同様の意味である。 The information processing device determines whether the input performance data is at least the performance data input from the first musical instrument or the second musical instrument. Further, when the information processing device determines that the input performance data is the performance data from the first device, the information processing device provides information (for example, sound name, chord type, etc.) that can be determined based on the input performance data. The first image (character) data is output accordingly. Further, when the information processing device determines that the input performance data is the performance data from the second device, the information processing device can determine the information (for example, sound name, chord type, etc.) based on the input performance data. , Even if the information is the same as the information that can be determined based on the first performance data, the second image data (character) having a mode different from that of the first image data is output. The information processing device is, for example, a PC (personal computer). Note that "setting" or "registration" basically has the same meaning as "memory".

ディスプレイ装置は、第1ユーザの演奏に基づく画像と、第2ユーザの演奏に基づく画像と、を表示部にて表示する。上述したように、第1ユーザの演奏に基づく画像は、第1画像グループに基づき生成されており、第2ユーザの演奏に基づく画像は、第2画像グループに基づき生成されている。そのため、第1ユーザの演奏に基づく画像と、第2ユーザの演奏に基づく画像と、を判定することが可能である。 The display device displays an image based on the performance of the first user and an image based on the performance of the second user on the display unit. As described above, the image based on the performance of the first user is generated based on the first image group, and the image based on the performance of the second user is generated based on the second image group. Therefore, it is possible to determine an image based on the performance of the first user and an image based on the performance of the second user.

<0−3>適用例の動作
次に、適用例に係る演奏データ表示システムの動作の一例について説明する。
<0-3> Operation of application example Next, an example of operation of the performance data display system according to the application example will be described.

第1ユーザが第1楽器を用いて演奏を開始すると、情報処理装置は入力された演奏データに含まれる情報から、第1楽器からの演奏データ(第1演奏データ)であると判定する。そして、情報処理装置は、第1楽器の演奏に対して音楽解析を行う。具体的には、情報処理装置は、第1演奏データに含まれる音名(またはコード)に応じて、第1画像グループ(例えば虫のキャラクタを複数含むキャラクタグループ)のなかに含まれる画像(例えばかぶとむしのキャラクタ)を決定し、設定された第1条件(例えばコード進行に応じた表示)に従った軌道に沿って、リアルタイムに描画する。これにより、ディスプレイ装置には、第1画像グループのなかに含まれる画像(キャラクタ)がリアルタイムに表示される。なお、ここでの「リアルタイム」とは、演奏のタイミングと画像(キャラクタ)の表示タイミングと、は必ずしも同タイミングである必要はない。また、演奏に合わせて画像(キャラクタ)が表示される画像を、例えばリアルタイム画像と記載しても良い。つまり、リアルタイム画像の中に、複数の画像(キャラクタ)が描画されることになる。リアルタイム画像の描画方法については後述する。 When the first user starts playing using the first instrument, the information processing device determines that the performance data is from the first instrument (first performance data) from the information included in the input performance data. Then, the information processing device performs music analysis on the performance of the first musical instrument. Specifically, the information processing device has an image (for example, for example) included in the first image group (for example, a character group including a plurality of insect characters) according to a sound name (or chord) included in the first performance data. The character of the beetle) is determined and drawn in real time along the trajectory according to the set first condition (for example, the display according to the code progress). As a result, the image (character) included in the first image group is displayed on the display device in real time. The "real time" here does not necessarily mean that the timing of the performance and the timing of displaying the image (character) are the same. Further, an image in which an image (character) is displayed according to the performance may be described as, for example, a real-time image. That is, a plurality of images (characters) are drawn in the real-time image. The drawing method of the real-time image will be described later.

第2ユーザが第2楽器を用いて演奏を開始すると、情報処理装置は入力された演奏データに含まれる情報から、第2楽器からの演奏データ(第2演奏データ)であると判定する。そして、情報処理装置は、第2楽器の演奏に対して音楽解析を行う。具体的には、情報処理装置は、第2演奏データに含まれる音名(またはコード)に応じて、第2画像グループ(例えば動物のキャラクタを複数含むキャラクタグループ)のなかに含まれる画像(例えば、きりんのキャラクタ)を決定し、設定された第1条件(例えばコード進行に応じた表示)に従った軌道に沿って、リアルタイムに描画する。これにより、ディスプレイ装置には、第2画像グループのなかに含まれる画像(キャラクタ)がリアルタイムに表示される。 When the second user starts playing using the second instrument, the information processing device determines that the performance data is from the second instrument (second performance data) from the information included in the input performance data. Then, the information processing device performs music analysis on the performance of the second musical instrument. Specifically, the information processing device has an image (for example, for example) included in the second image group (for example, a character group including a plurality of animal characters) according to a sound name (or chord) included in the second performance data. , Kirin character) is determined and drawn in real time along the trajectory according to the set first condition (for example, display according to the code progress). As a result, the image (character) included in the second image group is displayed on the display device in real time.

このように、情報処理装置は、リアルタイム画像として、第1ユーザの演奏に基づく画像と、第2ユーザの演奏に基づく画像と、を判定できるように描画する。 また、第1ユーザ及び第2ユーザが楽器の演奏を終了した後、情報処理装置は設定された第2条件(例えば渦巻表示)に従って、ディスプレイ装置に画像データを表示させる。なお、このような画像を、例えば演奏後画像と記載しても良い。この演奏後画像としては、第1ユーザ及び第2ユーザユーザの演奏の始めから終わりまでに解析された画像(キャラクタ)が第2条件(例えば渦巻表示)に従って、描画される画像である。この際、リアルタイム画像と同様に、情報処理装置は、演奏後画像として、第1ユーザの演奏に基づく画像と、第2ユーザの演奏に基づく画像と、を判定できるように描画する。 In this way, the information processing apparatus draws the real-time image so that the image based on the performance of the first user and the image based on the performance of the second user can be determined. Further, after the first user and the second user finish playing the musical instrument, the information processing device causes the display device to display the image data according to the set second condition (for example, spiral display). In addition, such an image may be described as, for example, a post-performance image. The post-performance image is an image in which the images (characters) analyzed from the beginning to the end of the performance of the first user and the second user user are drawn according to the second condition (for example, spiral display). At this time, similarly to the real-time image, the information processing apparatus draws the image based on the performance of the first user and the image based on the performance of the second user as the post-performance image so that it can be determined.

<0−4>適用例の効果
以上のように、適用例に係る演奏データ表示システムによれば、第1ユーザ、及び第2ユーザの演奏を判定し、表示する画像のグループを変更できる。換言すると、適用例に係る演奏データ表示システムによれば、第1ユーザ、及び第2ユーザの演奏中に、演奏と無関係な特有な操作を行うことなく、画像に関する設定(描画設定)を適宜行う事ができる。そのため、演奏データ表示システムは、第1ユーザ、及び第2ユーザが演奏に集中したまま、表現力の高い画像を生成することができる。
<0-4> Effect of Application Example As described above, according to the performance data display system according to the application example, it is possible to determine the performance of the first user and the second user and change the group of images to be displayed. In other words, according to the performance data display system according to the application example, during the performance of the first user and the second user, settings (drawing settings) related to the image are appropriately performed without performing a peculiar operation unrelated to the performance. You can do things. Therefore, the performance data display system can generate a highly expressive image while the first user and the second user concentrate on the performance.

<1>実施形態
<1−1>構成
<1−1−1>演奏データ表示システム
以下、図2を参照して、実施形態に係る演奏データ表示システムについて説明する。
<1> Embodiment <1-1> Configuration <1-1-1> Performance data display system The performance data display system according to the embodiment will be described below with reference to FIG.

図2は、実施形態に係る演奏データ表示システムの概要を示す図である。 FIG. 2 is a diagram showing an outline of the performance data display system according to the embodiment.

図2に示すように、演奏データ表示システムは、例えば情報処理装置(電子機器)1と、電子楽器2(例えば2(0)、及び2(1))と、スピーカ3と、ディスプレイ装置4と、MIDIパッチャ(MIDIパッチベイ)5と、ボーカルマイク6と、アコースティックピアノ7と、オーディオインタフェース8と、を備えている。 As shown in FIG. 2, the performance data display system includes, for example, an information processing device (electronic device) 1, an electronic musical instrument 2 (for example, 2 (0) and 2 (1)), a speaker 3, and a display device 4. , MIDI patcher (MIDI patch bay) 5, vocal microphone 6, acoustic piano 7, and audio interface 8.

なお、図2では、一例として、2つの電子楽器2と、ボーカルマイク6と、アコースティックピアノ7と、を示しているが、これは一例である。少なくとも二つの楽器があれば良い。また、本実施形態では、電子楽器2、ボーカルマイク6、及びアコースティックピアノ7をまとめて楽器として取り扱う。 Note that FIG. 2 shows two electronic musical instruments 2, a vocal microphone 6, and an acoustic piano 7 as an example, but this is an example. You only need at least two instruments. Further, in the present embodiment, the electronic musical instrument 2, the vocal microphone 6, and the acoustic piano 7 are collectively treated as musical instruments.

<1−1−2>電子楽器
以下、図2及び図3を参照して、実施形態に係る電子楽器について説明する。図3は、実施形態に係る電子楽器の制御システムのハードウェアを示す図である。
<1-1-2> Electronic Musical Instrument Hereinafter, the electronic musical instrument according to the embodiment will be described with reference to FIGS. 2 and 3. FIG. 3 is a diagram showing the hardware of the control system of the electronic musical instrument according to the embodiment.

図2及び図3に示すように、本実施形態の情報処理装置1が接続される電子楽器2は、例えば、電子ピアノ、シンセサイザーや電子オルガン等の電子鍵盤楽器である。 As shown in FIGS. 2 and 3, the electronic musical instrument 2 to which the information processing device 1 of the present embodiment is connected is, for example, an electronic keyboard instrument such as an electronic piano, a synthesizer, or an electronic organ.

電子楽器2は、複数の鍵11と、表示部20と、操作部30と、発音部40と、を備えている。 The electronic musical instrument 2 includes a plurality of keys 11, a display unit 20, an operation unit 30, and a sounding unit 40.

また、電子楽器2は、図3に示すように、押鍵検出部50と、記憶部60と、制御部70と、通信部80と、を備えている。 Further, as shown in FIG. 3, the electronic musical instrument 2 includes a key pressing detection unit 50, a storage unit 60, a control unit 70, and a communication unit 80.

鍵11は、演奏者が音高を指定する操作子であり、演奏者が鍵11を押鍵及び離鍵することで、電子楽器2は、指定された音高に対応する音の発音及び消音を行う。 The key 11 is an operator whose pitch is specified by the performer, and when the performer presses and releases the key 11, the electronic musical instrument 2 produces and mutes the sound corresponding to the designated pitch. I do.

表示部20は、例えば、タッチパネル付きの液晶モニタを有し、演奏者の操作部30の操作に伴うメッセージの表示等を行う部分である。 The display unit 20 has, for example, a liquid crystal monitor with a touch panel, and is a part that displays a message or the like accompanying the operation of the operation unit 30 of the performer.

なお、本実施形態では、表示部20がタッチパネル機能を有しているため、表示部20は、操作部30の一端を担うことができるようになっている。 In this embodiment, since the display unit 20 has a touch panel function, the display unit 20 can play a part of the operation unit 30.

操作部30は、演奏者が各種の設定等を行う操作ボタンを有し、音量調整等の各種の設定操作等を行うための部分である。 The operation unit 30 has operation buttons for the performer to perform various settings and the like, and is a part for performing various setting operations such as volume adjustment.

発音部40は、音を出力する部分であり、SPアンプ41(スピーカーアンプ)と、スピーカ42と、HPアンプ43(ヘッドホンアンプ)と、スピーカ3(またはヘッドホン)のプラグを差し込むHPジャック44(ヘッドホンジャック)と、HPジャック44にスピーカ3(またはヘッドホン)のプラグが差し込まれたことを検知するHPジャック挿入検出部45と、を有している。 The sounding unit 40 is a part that outputs sound, and is an HP jack 44 (headphones) into which the plugs of the SP amplifier 41 (speaker amplifier), the speaker 42, the HP amplifier 43 (headphone amplifier), and the speaker 3 (or headphones) are inserted. It has a jack) and an HP jack insertion detection unit 45 that detects that the plug of the speaker 3 (or headphones) is inserted into the HP jack 44.

スピーカ3(またはヘッドホン)のプラグがHPジャック44に挿入されると、HPジャック挿入検出部45がその挿入を検出して、音の出力がHPジャック側に行われ、逆に、HPジャック挿入検出部45がプラグの挿入を検知していないときには、音の出力がスピーカ42側に行われる。 When the plug of the speaker 3 (or headphones) is inserted into the HP jack 44, the HP jack insertion detection unit 45 detects the insertion, and the sound is output to the HP jack side, and conversely, the HP jack insertion detection is performed. When the unit 45 does not detect the insertion of the plug, the sound is output to the speaker 42 side.

なお、スピーカ3の代わりに発音部40を用いても良い。 The sounding unit 40 may be used instead of the speaker 3.

押鍵検出部50は、鍵11の押鍵及び離鍵を検知する部分であり、例えば、各鍵11の下側にラバースイッチが設けられ、そのラバースイッチによって、押鍵及び離鍵が検出される。 The key press detection unit 50 is a portion that detects the key press and release of the key 11. For example, a rubber switch is provided under each key 11, and the key press and release are detected by the rubber switch. To.

記憶部60は、読み取り専用の記憶部であるROM61と、読み書きが可能な記憶部であるRAM62と、を備えている。 The storage unit 60 includes a ROM 61 which is a read-only storage unit and a RAM 62 which is a readable and writable storage unit.

ROM61は、例えば、制御部70が実行する制御プログラム(例えば、レッスンモードプログラム用のプログラム等)や各種データテーブル等を記憶している。 The ROM 61 stores, for example, a control program (for example, a program for a lesson mode program) executed by the control unit 70, various data tables, and the like.

RAM62は、それぞれの鍵11に対応した楽音データ、楽曲データ等のデータが記憶される記憶領域であるとともに、演奏中に制御部70が生成するデータや制御用プログラムを展開させるための一時記憶領域としても機能する。 The RAM 62 is a storage area for storing data such as music sound data and music data corresponding to each key 11, and a temporary storage area for developing data generated by the control unit 70 and a control program during performance. Also works as.

制御部70は、電子楽器2全体の制御を司る部分である。制御部70は、例えばLSI(Large Scale Integration)である。 The control unit 70 is a part that controls the entire electronic musical instrument 2. The control unit 70 is, for example, an LSI (Large Scale Integration).

そして、制御部70は、例えば、鍵11の押鍵に応じて楽音を発音部40から発音させる制御や鍵11の離鍵に応じて発音部40から発音されている楽音を消音する制御等を行う。 Then, the control unit 70 controls, for example, to make the musical sound sound from the sounding unit 40 in response to the key pressed by the key 11, and to mute the musical sound sounded from the sounding unit 40 in response to the release of the key 11. Do.

通信部80は、外部機器との間で通信を行うための無線ユニットや有線ユニットを備えており、本実施形態では、情報処理装置1が有線接続されており、後ほど説明するように、情報処理装置1にデータの送信が行われる。 The communication unit 80 includes a wireless unit and a wired unit for communicating with an external device. In the present embodiment, the information processing device 1 is connected by wire, and as will be described later, information processing is performed. Data is transmitted to the device 1.

ただし、通信部80は、送信機能だけを行うものに限定される必要はなく、受信機能を併せ持っていてもよい。 However, the communication unit 80 does not have to be limited to one that performs only a transmission function, and may also have a reception function.

そして、上記で説明した各部(表示部20、操作部30、発音部40、押鍵検出部50、記憶部60、制御部70、及び通信部80)は、バス100で通信可能に接続されており、各部間で必要なデータのやり取りが行えるようになっている。 Then, each unit (display unit 20, operation unit 30, sound generation unit 40, key press detection unit 50, storage unit 60, control unit 70, and communication unit 80) described above is communicably connected by the bus 100. Therefore, necessary data can be exchanged between each department.

<1−1−3>MIDIパッチャ
次にMIDIパッチャ(MIDIパッチベイ)5について説明する。
<1-1-3> MIDI Patcher Next, the MIDI patcher (MIDI patch bay) 5 will be described.

MIDIパッチャ5とは、MIDI信号の経路をかえる機器である。 The MIDI patcher 5 is a device that changes the path of a MIDI signal.

具体的には、MIDIパッチャには、MIDI IN端子と、MIDI OUT端子がペアになって複数個用意されており、それぞれに番号が付いている。MIDIパッチャは、スイッチ等で操作することにより、複数のMIDI機器の接続を自在に切り換えることができる。 Specifically, the MIDI patcher has a plurality of MIDI IN terminals and MIDI OUT terminals as a pair, and each of them has a number. The MIDI patcher can freely switch the connection of a plurality of MIDI devices by operating it with a switch or the like.

図2の場合、MIDIパッチャ5は、二つの電子楽器2が接続された場合、二つの電子楽器2のMIDI信号を情報処理装置1に転送する。 In the case of FIG. 2, the MIDI patcher 5 transfers the MIDI signals of the two electronic musical instruments 2 to the information processing device 1 when the two electronic musical instruments 2 are connected.

<1−1−4>ボーカルマイク
次にボーカルマイク6について説明する。
<1-1-4> Vocal Microphone Next, the vocal microphone 6 will be described.

ボーカルマイク6は、ボーカルや生楽器の音を収集するための機器である。より具体的には、ボーカルマイク6は、音(空気の振動)を電気の信号に変換する。なお、ボーカルマイク6の例としては、ダイナミックマイク(電源不必要)、またはコンデンサーマイク(電源必要)等がある。 The vocal microphone 6 is a device for collecting sounds of vocals and live musical instruments. More specifically, the vocal microphone 6 converts sound (vibration of air) into an electric signal. Examples of the vocal microphone 6 include a dynamic microphone (power supply not required), a condenser microphone (power supply required), and the like.

<1−1−5>アコースティックピアノ
次にアコースティックピアノ7について説明する。
<1-1-5> Acoustic Piano Next, the acoustic piano 7 will be described.

アコースティックピアノ7は、電気的なスピーカを使わず、奏者が鍵盤を押すとハンマーが弦を叩いて振動し、その振動が響板、さらにボディ全体へと伝わって音が鳴る楽器である。図示していないが、アコースティックピアノ7の音を電気の信号に変換する際には、ボーカルマイク6と同様の機器を介する必要がある。 The acoustic piano 7 is an instrument that does not use an electric speaker, and when a player presses a keyboard, a hammer strikes a string and vibrates, and the vibration is transmitted to the soundboard and the entire body to produce a sound. Although not shown, when converting the sound of the acoustic piano 7 into an electric signal, it is necessary to use the same equipment as the vocal microphone 6.

<1−1−6>オーディオインタフェース
次に、オーディオインタフェース8について説明する。
<1-1-6> Audio Interface Next, the audio interface 8 will be described.

ところで、ボーカルやアコースティックピアノなどの音(アナログ信号といいます)を、情報処理装置1で扱う際には、デジタル信号に変換する必要がある。オーディオインタフェース8では、アナログ信号をデジタル信号に変換(AD変換)することができる機器である。そのため、オーディオインタフェース8を用いる事で、ボーカルマイク6、または、アコースティックピアノ7からのアナログ信号を、デジタル信号に変換し、情報処理装置1に供給することができる。 By the way, when the information processing device 1 handles sounds such as vocals and acoustic pianos (called analog signals), it is necessary to convert them into digital signals. The audio interface 8 is a device capable of converting an analog signal into a digital signal (AD conversion). Therefore, by using the audio interface 8, the analog signal from the vocal microphone 6 or the acoustic piano 7 can be converted into a digital signal and supplied to the information processing device 1.

<1−1−7>情報処理装置
続いて、図2及び図4を参照して、情報処理装置について説明する。図4は、実施形態に係る情報処理装置のハードウェアを示す図である。
<1-1-7> Information Processing Device Next, the information processing device will be described with reference to FIGS. 2 and 4. FIG. 4 is a diagram showing the hardware of the information processing device according to the embodiment.

情報処理装置1は、本実施形態では、図2に示すように、PCであり、後述するような画像をディスプレイ装置4に表示させるためのアプリケーションがインストールされている。 In the present embodiment, the information processing device 1 is a PC as shown in FIG. 2, and an application for displaying an image as described later on the display device 4 is installed.

ただし、情報処理装置1は、PCに限定される必要はなく、タブレット型の携帯端末等であってもよい。 However, the information processing device 1 does not have to be limited to a PC, and may be a tablet-type mobile terminal or the like.

また、情報処理装置1は、電子楽器2からMIDIコードを受信して曲データを再生させるシーケンサ等を備えていてもよい。 Further, the information processing device 1 may include a sequencer or the like that receives a MIDI code from the electronic musical instrument 2 and reproduces the song data.

図4に示すように、情報処理装置1は、主に、操作部101と、表示部102と、通信部103と、音出力部104と、制御部105と、記憶部106と、を備えている。 As shown in FIG. 4, the information processing device 1 mainly includes an operation unit 101, a display unit 102, a communication unit 103, a sound output unit 104, a control unit 105, and a storage unit 106. There is.

操作部101は、例えば、情報処理装置1の電源のON/OFFを行うための電源スイッチ等のスイッチ類を含む。 The operation unit 101 includes, for example, switches such as a power switch for turning on / off the power of the information processing device 1.

表示部102は、液晶モニタを有し、画像を表示できる。表示部102は、タッチパネル機能を有しても良い。その場合、表示部102は、操作部101の一端を担うことができる。なお、ディスプレイ装置4の代わりに表示部102を用いても良い。 The display unit 102 has a liquid crystal monitor and can display an image. The display unit 102 may have a touch panel function. In that case, the display unit 102 can play one end of the operation unit 101. The display unit 102 may be used instead of the display device 4.

通信部103は、他の機器等との間で通信を行うための無線ユニットや有線ユニットを備えている。通信部103は、例えば電子楽器2、またはオーディオインタフェース8からのデータを受信する。また、通信部103は、例えばディスプレイ装置4の通信部に有線接続され、ディスプレイ装置4にデータを送信する。 The communication unit 103 includes a wireless unit and a wired unit for communicating with other devices and the like. The communication unit 103 receives data from, for example, the electronic musical instrument 2 or the audio interface 8. Further, the communication unit 103 is connected by wire to, for example, the communication unit of the display device 4, and transmits data to the display device 4.

音出力部104は、音を出力する部分であり、スピーカやイヤホンジャック等を有している。 The sound output unit 104 is a part that outputs sound, and has a speaker, an earphone jack, and the like.

記憶部106は、読み取り専用の記憶部である読み書きが可能な記憶部であるRAM(Random Access Memory)1061と、ROM(Read Only Memory)1062と、を備えている。 The storage unit 106 includes a RAM (Random Access Memory) 1061 which is a read / write storage unit which is a read-only storage unit, and a ROM (Read Only Memory) 1062.

RAM1061は、揮発性メモリを含み、制御プログラムを動作させる上で必要なデータが記憶される記憶領域であるとともに、制御部105が生成するデータ、電子楽器2から送られたデータ(音高情報を含む演奏情報)、及び、アプリケーションを展開させるための一時記憶領域等としても機能する。 The RAM 1061 is a storage area that includes a volatile memory and stores data necessary for operating a control program, data generated by the control unit 105, and data sent from the electronic instrument 2 (pitch information). It also functions as a temporary storage area for expanding applications) and performance information including.

ROM1062は、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(登録商標)(Electrically Erasable Programmable ROM)といった不揮発性の半導体メモリであって、いわゆる二次記憶装置又は補助記憶装置としての役割を担う。 The ROM 1062 is a non-volatile semiconductor memory such as a flash memory, an EPROM (Erasable Program Read Only Memory), or an EEPROM (registered trademark) (Electrically Erasable Program ROM), and serves as a so-called secondary storage device or an auxiliary storage device. ..

ROM1062は、プログラム10621及びテーブル10622を記憶する。プログラム10621は、制御部105が各種処理を行うために使用する。テーブル10622は、演奏情報と画像とを紐付けしたテーブルである。 ROM 1062 stores program 10621 and table 10622. Program 10621 is used by the control unit 105 to perform various processes. Table 10622 is a table in which performance information and images are linked.

制御部105は、情報処理装置1全体の制御を司る部分である。制御部105は、例えばCPU(Central Processing Unit)を備える。制御部105は、記憶部106のROM1062に格納されたプログラム10621を読み出し、記憶部106のRAM1061をワークエリアとして用いることにより、情報処理装置1を統括制御する。 The control unit 105 is a part that controls the entire information processing device 1. The control unit 105 includes, for example, a CPU (Central Processing Unit). The control unit 105 collectively controls the information processing device 1 by reading the program 10621 stored in the ROM 1062 of the storage unit 106 and using the RAM 1061 of the storage unit 106 as a work area.

次に、実施形態に係る情報処理装置1の制御部105の機能構成について説明する。制御部105は、ROM1062に格納されたプログラム10621を読み出して実行することにより、演奏判定部1051と、画像決定部1052と、画像情報出力部1053と、条件判定部1054と、演奏終了判定部1055と、接続機器判定部1056と、として機能する。なお、演奏判定部1051と、画像決定部1052と、画像情報出力部1053と、条件判定部1054と、演奏終了判定部1055と、接続機器判定部1056と、は、それぞれプログラムではなく、回路構成によって実現されても良い。 Next, the functional configuration of the control unit 105 of the information processing device 1 according to the embodiment will be described. By reading and executing the program 10621 stored in the ROM 1062, the control unit 105 reads and executes the performance determination unit 1051, the image determination unit 1052, the image information output unit 1053, the condition determination unit 1054, and the performance end determination unit 1055. And the connected device determination unit 1056. The performance determination unit 1051, the image determination unit 1052, the image information output unit 1053, the condition determination unit 1054, the performance end determination unit 1055, and the connected device determination unit 1056 are not programs but circuit configurations. May be realized by.

接続機器判定部1056は、外部(電子楽器2、またはオーディオインタフェース8)から入力された演奏データが、少なくとも第1機器(例えば電子楽器2)及び第2機器(例えば電子楽器2、またはオーディオインタフェース8)のいずれから入力された演奏データであるかを判定する。 In the connected device determination unit 1056, the performance data input from the outside (electronic musical instrument 2 or audio interface 8) is at least the first device (for example, electronic musical instrument 2) and the second device (for example, electronic musical instrument 2 or audio interface 8). ) To determine which of the input performance data is used.

ところで、MIDIデータは、ポートの中を通って送信される。そして、このポートには、例えば16本の「チャンネル」が用意されている。音源は、1本のチャンネルにつき、1つのパートを再生することができる。そして、電子楽器2は、チャンネルを指定してMIDIデータを送信することができる。例えば、2つの電子楽器2が、異なるチャンネルを指定することで、接続機器判定部1056は、MIDIデータのチャネルから、二つの電子楽器2を判定することができる。 By the way, MIDI data is transmitted through the port. And, for example, 16 "channels" are prepared in this port. The sound source can reproduce one part per one channel. Then, the electronic musical instrument 2 can transmit MIDI data by designating a channel. For example, when the two electronic musical instruments 2 specify different channels, the connected device determination unit 1056 can determine the two electronic musical instruments 2 from the MIDI data channel.

また、オーディオインタフェース8からのデジタル信号と、MIDI信号は異なる。そのため、接続機器判定部1056は、電子楽器2からの演奏データと、オーディオインタフェース8からの演奏データを判定することができる。 Further, the digital signal from the audio interface 8 and the MIDI signal are different. Therefore, the connected device determination unit 1056 can determine the performance data from the electronic musical instrument 2 and the performance data from the audio interface 8.

演奏判定部1051は、通信部103を介して電子楽器2から受け付けた演奏情報(演奏データ)に基づいて、曲の調性(例えば、ハ長調からロ短調の24種類)、音名(例えば、ド、レ、ミ…)、コード種別(例えば、Major、Mimor、Sus4、Aug、Dim、7th等)、ベロシティ値(MIDI規格において音の強弱を表す数値)、音長、シンコペーション、コード機能、及びコード進行を判定する。なお、曲の調性、音名、コード種別、ベロシティ値、音長、シンコペーション、コード機能、及びコード進行の判定方法は、どのようなものでも良い。 Based on the performance information (performance data) received from the electronic musical instrument 2 via the communication unit 103, the performance determination unit 1051 determines the tonality of the song (for example, 24 types from C major to B minor) and the sound name (for example, 24 types in B minor). Do, Re, Mi ...), chord type (for example, Major, Mimor, Sus4, Aug, Dim, 7th, etc.), velocity value (numerical value indicating the strength of the sound in the MIDI standard), tone length, syncopation, chord function, and Judge the chord progression. Any method of determining the tonality, note name, chord type, velocity value, note length, syncopation, chord function, and chord progression of the song may be used.

また、演奏判定部1051は、オーディオインタフェース8から受信したデジタル信号からピッチ抽出を行い、ピッチ情報から変換して得られたMIDI情報を基に音楽解析を行う。また、演奏判定部1051は、オーディオインタフェース8から受信したデジタル信号に対して多重音解析を行い、多重音解析を結果から変換して得られたMIDI情報を基に音楽解析を行う。なお、多重音解析で作られたMIDIは誤認識によるノイズが入る可能性があるため、誤認識により発生しやすい短いノートは無視する仕組みを入れても構わない。そして、演奏判定部1051は、電子楽器2から受信した信号と同様に、曲の調性、音名、コード種別、ベロシティ値、音長、シンコペーション、コード機能、及びコード進行を判定する。 Further, the performance determination unit 1051 performs pitch extraction from the digital signal received from the audio interface 8 and performs music analysis based on the MIDI information obtained by converting from the pitch information. Further, the performance determination unit 1051 performs multiple sound analysis on the digital signal received from the audio interface 8, and performs music analysis based on the MIDI information obtained by converting the multiple sound analysis from the result. Note that MIDI created by multiple sound analysis may contain noise due to erroneous recognition, so a mechanism may be added to ignore short notes that are likely to occur due to erroneous recognition. Then, the performance determination unit 1051 determines the tonality, note name, chord type, velocity value, note length, syncopation, chord function, and chord progression of the song, similarly to the signal received from the electronic musical instrument 2.

画像決定部1052は、接続機器判定部1056からの情報に基づき、どの楽器からデータを受信したかを判定できる。 The image determination unit 1052 can determine from which musical instrument the data was received based on the information from the connected device determination unit 1056.

画像決定部1052は、電子楽器2から演奏情報を受け付ける毎に、演奏判定部1051により判定された情報に基づいて、画像グループ(キャラクタグループ)の中に含まれる何れかの画像データ(キャラクタ)を決定する。 Each time the image determination unit 1052 receives performance information from the electronic musical instrument 2, any image data (character) included in the image group (character group) is selected based on the information determined by the performance determination unit 1051. decide.

ここで、図5を参照して、演奏判定部1051により判定された情報と、画像データとの関係について説明する。図5は、ROM1062のテーブル10622に、記憶されているテーブルの一例を示す図である。 Here, with reference to FIG. 5, the relationship between the information determined by the performance determination unit 1051 and the image data will be described. FIG. 5 is a diagram showing an example of a table stored in the table 10622 of the ROM 1062.

図5に示すように、テーブル10622には、例えば音名(ここでは、ド、レ、ミ、ファ、ソ、ラ、シの例)に対応して画像(キャラクタ)が設定された第1画像グループと、第2画像グループと、が記憶されている。画像決定部1052は、例えば第1楽器に第1画像グループが割り当てられ、第2楽器に第2画像グループが割り当てられる。また、テーブル10622には、これに限らず、他の音名(例えば、ド♯等)や、コード種別に応じた画像も記憶されていて良い。 As shown in FIG. 5, in the table 10622, for example, a first image (character) in which an image (character) is set corresponding to a note name (here, an example of do, re, mi, fa, so, la, shi) is set. The group and the second image group are stored. In the image determination unit 1052, for example, the first musical instrument is assigned the first image group, and the second musical instrument is assigned the second image group. Further, the table 10622 is not limited to this, and other note names (for example, do # etc.) and images according to the chord type may be stored.

例えば、画像決定部1052は、第1楽器から受信した第1演奏情報に含まれる音名が「ド」であると判定すると、テーブル10622の第1画像グループの「蝶」の画像(キャラクタ)を決定する。また、画像決定部1052は、第2楽器から受信した第2演奏情報に含まれる音名が「ミ」であると判定すると、テーブル10622の第2画像グループの「猿」の画像(キャラクタ)を決定する。 For example, when the image determination unit 1052 determines that the note name included in the first performance information received from the first instrument is "do", the image determination unit 1052 determines that the image (character) of the "butterfly" in the first image group of the table 10622 is displayed. decide. Further, when the image determination unit 1052 determines that the note name included in the second performance information received from the second musical instrument is "mi", the image determination unit 1052 determines that the image (character) of the "monkey" in the second image group of the table 10622 is displayed. decide.

ここで、図6を参照して、画像(キャラクタ)の表示方法について説明する。図6は、画像(キャラクタ)の表示例について示した図である。 Here, a method of displaying an image (character) will be described with reference to FIG. FIG. 6 is a diagram showing a display example of an image (character).

図6に示すように、テーブル10622に記憶されている画像(キャラクタ)は、例えば、基本形である。画像決定部1052は、演奏情報に含まれるベロシティ値に基づいて、ディスプレイ装置4に表示する画像(キャラクタ)のサイズを決定する。基本形のサイズは高さHB、幅WBと決まっている。そして、例えば、ベロシティ値に基づいて、高さHB、及び幅WBのパーセンテージを変更することで、高さHC、及び幅WCへと変更する。また、画像決定部1052は、ランダムに画像(キャラクタ)の基本形をR度回転させたり、左右反転させたり、色を変更しても良い。なお、ここでは詳細に記載しないが、画像決定部1052は、ここに示さない情報に基づいて、サイズ、回転、反転、または色を適宜変更しても良い。 As shown in FIG. 6, the image (character) stored in the table 10622 is, for example, a basic form. The image determination unit 1052 determines the size of the image (character) to be displayed on the display device 4 based on the velocity value included in the performance information. The size of the basic shape is fixed as height HB and width WB. Then, for example, the height HC and the width WC are changed by changing the percentages of the height HB and the width WB based on the velocity value. Further, the image determination unit 1052 may randomly rotate the basic shape of the image (character) by R degree, invert it left and right, or change the color. Although not described in detail here, the image determination unit 1052 may appropriately change the size, rotation, inversion, or color based on the information not shown here.

画像決定部1052は、リアルタイム画像を表示させる際において、演奏情報(例えばコード進行)に基づいて、ディスプレイ装置4の表示部において画像(キャラクタ)を配置する軌道パターン(第1条件)を決定する。軌道パターン(第1条件)は、例えばROM1062に記憶されている。 When displaying a real-time image, the image determination unit 1052 determines a trajectory pattern (first condition) for arranging an image (character) on the display unit of the display device 4 based on performance information (for example, chord progression). The orbital pattern (first condition) is stored in, for example, ROM 1062.

ここで、図7を参照して、画像(キャラクタ)を表示する際の軌道パターンの一例について説明する。図7は、ディスプレイ装置4の表示部401に表示されるリアルタイム画像における画像(キャラクタ)の軌道パターンの一例について示した図である。図7では、二つの楽器(第1楽器、または第2楽器)に基づくリアルタイム画像を示している。 Here, an example of an orbital pattern when displaying an image (character) will be described with reference to FIG. 7. FIG. 7 is a diagram showing an example of a trajectory pattern of an image (character) in a real-time image displayed on the display unit 401 of the display device 4. FIG. 7 shows a real-time image based on two musical instruments (first musical instrument or second musical instrument).

図7に示すように、第1楽器に関する軌道パターンの一例としては、リアルタイム画像の上半分(1st(U)を参照)、且つ矢印A1に沿った仮想の矢印上に画像(キャラクタ)が順に配置される。また、第2楽器に関する軌道パターンの一例としては、リアルタイム画像の下半分(1st(L)を参照)、且つ矢印A2に沿った仮想の矢印上に画像(キャラクタ)が順に配置される。 As shown in FIG. 7, as an example of the trajectory pattern related to the first musical instrument, the upper half of the real-time image (see 1st (U)) and the image (character) are arranged in order on the virtual arrow along the arrow A1. Will be done. Further, as an example of the trajectory pattern relating to the second musical instrument, the images (characters) are sequentially arranged on the lower half of the real-time image (see 1st (L)) and on the virtual arrow along the arrow A2.

なお、軌道パターンの仮想の矢印(A1、A2)上に各画像(キャラクタ)の少なくとも一部が重なるように、各画像(キャラクタ)が配置される。 Each image (character) is arranged so that at least a part of each image (character) overlaps on the virtual arrows (A1, A2) of the trajectory pattern.

画像決定部1052は、ユーザの演奏後にディスプレイ装置4に表示させるための演奏後画像の軌道パターン(第2条件)を生成する。画像決定部1052は、それぞれの演奏情報に対応付けた画像(キャラクタ)を配置する軌道パターン(第2条件)を生成する。画像決定部1052は、演奏判定部1051が算出した演奏時間に基づいて演奏の軌道パターン(第2条件)の長さを決定する。例えば、演奏時間が第1演奏時間長の場合の軌道パターン(第2条件)の長さである第1長と、演奏時間が第2演奏時間長の場合の軌道パターン(第2条件)の長さである第2長とについて、第1演奏時間長が第2演奏時間長よりも短い場合、第1長は第2長よりも短くなる。 The image determination unit 1052 generates a trajectory pattern (second condition) of the post-performance image to be displayed on the display device 4 after the user's performance. The image determination unit 1052 generates a trajectory pattern (second condition) for arranging an image (character) associated with each performance information. The image determination unit 1052 determines the length of the performance trajectory pattern (second condition) based on the performance time calculated by the performance determination unit 1051. For example, the length of the first length, which is the length of the orbital pattern (second condition) when the playing time is the first playing time length, and the length of the orbital pattern (second condition), which is the length of the orbital pattern (second condition) when the playing time is the second playing time length. When the first playing time length is shorter than the second playing time length, the first length is shorter than the second length.

図8を参照して、画像決定部1052が生成する軌道パターン(第2条件)の一例を説明する。図8は、画像決定部1052が生成する軌道パターン(第2条件)の一例である渦巻線を示す図である。 An example of the trajectory pattern (second condition) generated by the image determination unit 1052 will be described with reference to FIG. FIG. 8 is a diagram showing a spiral winding which is an example of an orbital pattern (second condition) generated by the image determining unit 1052.

画像決定部1052は、演奏後画像を生成する際、図8に示すような矢印に沿った仮想の渦巻線上に画像(キャラクタ)が、「演奏の始め」から「演奏の終わり」に向かって順に配置される。特に、第1楽器に関する画像(キャラクタ)は、矢印B1側に設けられ、第2楽器に関する画像(キャラクタ)は、矢印B2側に設けられる。 When the image determination unit 1052 generates an image after the performance, the images (characters) are sequentially arranged on the virtual spiral winding along the arrow as shown in FIG. 8 from the "beginning of the performance" to the "end of the performance". Be placed. In particular, the image (character) relating to the first musical instrument is provided on the arrow B1 side, and the image (character) relating to the second musical instrument is provided on the arrow B2 side.

なお、例えば、「演奏の始め」の位置と、「演奏の終わり」の位置と、は固定され、演奏の時間が長くなるにつれて、渦巻線状の軌道パターン(第2条件)の長さが伸びる。 For example, the "start of performance" position and the "end of performance" position are fixed, and the length of the spiral orbital pattern (second condition) increases as the performance time increases. ..

画像情報出力部1053は、画像決定部1052が生成した軌道パターン(第2条件)上に、演奏情報について対応付けた画像(キャラクタ)を配置してリアルタイム画像または演奏後画像を生成し、画像を表示するための情報である画像情報を生成する。 The image information output unit 1053 arranges an image (character) associated with the performance information on the trajectory pattern (second condition) generated by the image determination unit 1052 to generate a real-time image or a post-performance image, and generates an image. Generates image information, which is information for display.

演奏終了判定部1055は、少なくとも演奏情報の入力を或る時間受け付けないこと、及び通信部103を介して演奏終了を示す情報を受け付けたこと、のいずれかにより演奏が終了したか否かを判定する。 The performance end determination unit 1055 determines whether or not the performance has ended, at least by not accepting the input of the performance information for a certain period of time or by receiving the information indicating the end of the performance via the communication unit 103. To do.

条件判定部1054は、通信部103を介して取得される演奏データ、または演奏終了判定部1055からの情報に基づき、第1条件を満たすか否か、または、第2条件を満たすか否かを判定することができる。そして、条件判定部1054は、その旨を、画像決定部1052に通知する。なお、この条件は、例えばRAM1061に設定(記憶)されている。 The condition determination unit 1054 determines whether or not the first condition is satisfied or whether or not the second condition is satisfied based on the performance data acquired via the communication unit 103 or the information from the performance end determination unit 1055. Can be determined. Then, the condition determination unit 1054 notifies the image determination unit 1052 to that effect. This condition is set (stored) in, for example, RAM 1061.

画像決定部1052は、条件判定部1054からの情報に基づいて、リアルタイム画像、または演奏後画像を生成する。 The image determination unit 1052 generates a real-time image or a post-performance image based on the information from the condition determination unit 1054.

そして、上記で説明した各部(操作部101、表示部102、通信部103、音出力部104、制御部105及び記憶部106)は、バス107で通信可能に接続されており、各部間で必要なデータのやり取りが行えるようになっている。 Each unit (operation unit 101, display unit 102, communication unit 103, sound output unit 104, control unit 105, and storage unit 106) described above is communicably connected by the bus 107, and is required between the units. Data can be exchanged.

ユーザが、演奏のために、電子楽器2の鍵11を押鍵すると、押鍵検出部50によって鍵11の押鍵が検出されることになる。 When the user presses the key 11 of the electronic musical instrument 2 for playing, the key pressing detection unit 50 detects the key pressing of the key 11.

そして、鍵11の押鍵が検出されると、電子楽器2の制御部70は、その押鍵された鍵11に対応する演奏情報(例えば、音高情報等(ノートナンバーやベロシティ値等)を含むノートオン)を生成する。そして、電子楽器2の制御部70は、スピーカ3(または発音部40)から、その演奏情報に応じた音を発音させる制御を行う。 Then, when the key 11 is detected, the control unit 70 of the electronic musical instrument 2 obtains performance information (for example, pitch information (note number, velocity value, etc.)) corresponding to the key 11 pressed. Generate note-on) including. Then, the control unit 70 of the electronic musical instrument 2 controls the speaker 3 (or the sounding unit 40) to produce a sound according to the performance information.

一方、ユーザが、押鍵していた鍵11を離鍵すると、押鍵検出部50によって鍵11の離鍵が検出されることになる。 On the other hand, when the user releases the key 11 that has been pressed, the key release detection unit 50 detects the release of the key 11.

そして、鍵11の離鍵が検出されると、電子楽器2の制御部70は、その離鍵された鍵11に対応する演奏情報(例えば、ノートオフ)を生成する。そして、電子楽器2の制御部70は、スピーカ3(または発音部40)から、その演奏情報に応じた音を消音させる制御を行う。 Then, when the release of the key 11 is detected, the control unit 70 of the electronic musical instrument 2 generates performance information (for example, note-off) corresponding to the released key 11. Then, the control unit 70 of the electronic musical instrument 2 controls the speaker 3 (or the sounding unit 40) to mute the sound according to the performance information.

そして、この電子楽器2の制御部70が生成する演奏情報は、電子楽器2の通信部80から情報処理装置1の通信部103に送信される。 Then, the performance information generated by the control unit 70 of the electronic musical instrument 2 is transmitted from the communication unit 80 of the electronic musical instrument 2 to the communication unit 103 of the information processing device 1.

<1−1−8>スピーカ
スピーカ3は、発音部40は、音を出力する部分である。スピーカ3は、電子楽器2のHPジャック44に接続することにより、HPジャック44から音の信号を受信し、音の出力を行う。
<1-1-8> Speaker In the speaker 3, the sounding unit 40 is a portion that outputs sound. The speaker 3 receives a sound signal from the HP jack 44 by connecting to the HP jack 44 of the electronic musical instrument 2, and outputs the sound.

<1−1−9>ディスプレイ装置
ディスプレイ装置4は、表示部401として液晶モニタを有し、画像を表示できる。ディスプレイ装置4は、情報処理装置1の通信部103に有線接続され、情報処理装置1からのデータを受信する。そして、ディスプレイ装置4は、表示部401に、データに基づく画像を表示する。
<1-1-9> Display device The display device 4 has a liquid crystal monitor as a display unit 401 and can display an image. The display device 4 is wiredly connected to the communication unit 103 of the information processing device 1 and receives data from the information processing device 1. Then, the display device 4 displays an image based on the data on the display unit 401.

<1−1−10>楽器の組み合わせ
図9を用いて、本実施形態における、楽器の組み合わせについて説明する。
<1-1-10> Combination of musical instruments With reference to FIG. 9, the combination of musical instruments in the present embodiment will be described.

図9に示すように、楽器の組み合わせとしては、おおよそ8通りの組み合わせが想定される。 As shown in FIG. 9, approximately eight combinations of musical instruments are assumed.

<1−1−10−1>ケース1
ケース1は、電子楽器2(0)(デジタル単音楽器)のみを、情報処理装置1に接続するケースである。
<1-1-10-1> Case 1
Case 1 is a case in which only the electronic musical instrument 2 (0) (digital monophonic instrument) is connected to the information processing device 1.

この場合は、例えば電子楽器2を介して情報処理装置1に単音の演奏データが供給される(単音入力)。 In this case, single-note performance data is supplied to the information processing device 1 via, for example, the electronic musical instrument 2 (single-note input).

<1−1−10−2>ケース2
ケース2は、電子楽器2(1)(デジタル和音楽器)のみを、情報処理装置1に接続するケースである。
<1-1-10-2> Case 2
Case 2 is a case in which only the electronic musical instrument 2 (1) (digital Japanese music instrument) is connected to the information processing device 1.

この場合は、例えば電子楽器2を介して情報処理装置1に和音の演奏データが供給される(和音入力)。 In this case, chord performance data is supplied to the information processing device 1 via, for example, the electronic musical instrument 2 (chord input).

<1−1−10−3>ケース3
ケース3は、電子楽器2(0)(デジタル単音楽器)及び電子楽器2(1)(デジタル単音楽器)を、情報処理装置1に接続するケースである。
<1-1-10-3> Case 3
Case 3 is a case in which the electronic musical instrument 2 (0) (digital monophonic instrument) and the electronic musical instrument 2 (1) (digital monophonic instrument) are connected to the information processing device 1.

この場合は、例えばMIDIパッチャ5を介して情報処理装置1に単音の演奏データと、和音の演奏データとが供給される。これは、例えば、一人が伴奏を弾き、もう一人がメロディを弾く場合である。 In this case, for example, the performance data of a single note and the performance data of a chord are supplied to the information processing device 1 via the MIDI patcher 5. This is the case, for example, when one person plays the accompaniment and the other plays the melody.

<1−1−10−4>ケース4
ケース4は、電子楽器2(1)(デジタル和音楽器)及びボーカルマイク6(ボーカル、またはアコースティック単音楽器)を、情報処理装置1に接続するケースである。
<1-1-10-4> Case 4
Case 4 is a case in which the electronic musical instrument 2 (1) (digital Japanese musical instrument) and the vocal microphone 6 (vocal or acoustic monophonic instrument) are connected to the information processing device 1.

この場合は、例えば電子楽器2を介して情報処理装置1に和音の演奏データが供給され、オーディオインタフェース8を介して情報処理装置1に単音の演奏データが供給される。これは、例えば、伴奏に合せて歌う場合である。 In this case, for example, chord performance data is supplied to the information processing device 1 via the electronic musical instrument 2, and single note performance data is supplied to the information processing device 1 via the audio interface 8. This is the case, for example, when singing along with the accompaniment.

<1−1−10−5>ケース5
ケース5は、ボーカルマイク6(ボーカル、またはアコースティック単音楽器)を、情報処理装置1に接続するケースである。
<1-1-10-5> Case 5
Case 5 is a case in which the vocal microphone 6 (vocal or acoustic monophonic instrument) is connected to the information processing device 1.

この場合は、例えばオーディオインタフェース8を介して情報処理装置1に単音の演奏データが供給される。これは、例えば、歌のみの場合である。 In this case, single-note performance data is supplied to the information processing device 1 via, for example, the audio interface 8. This is the case, for example, for songs only.

<1−1−10−6>ケース6
ケース6は、アコースティックピアノ7(アコースティック和音楽器、またはカラオケの伴奏音源)を、情報処理装置1に接続するケースである。
<1-1-10-6> Case 6
Case 6 is a case in which an acoustic piano 7 (acoustic Japanese music instrument or karaoke accompaniment sound source) is connected to the information processing device 1.

この場合は、例えばオーディオインタフェース8を介して情報処理装置1に和音の演奏データが供給される。これは、例えば、アコースティック和音楽器、またはカラオケの伴奏音源のみの場合である。 In this case, chord performance data is supplied to the information processing device 1 via, for example, the audio interface 8. This is the case, for example, only with an acoustic Japanese music instrument or a karaoke accompaniment sound source.

<1−1−10−7>ケース7
ケース7は、ボーカルマイク6(ボーカル、またはアコースティック単音楽器)及びアコースティックピアノ7(アコースティック和音楽器、またはカラオケの伴奏音源)を、情報処理装置1に接続するケースである。
<1-1-10-7> Case 7
Case 7 is a case in which a vocal microphone 6 (vocal or acoustic monophonic instrument) and an acoustic piano 7 (acoustic Japanese musical instrument or karaoke accompaniment sound source) are connected to the information processing device 1.

この場合は、例えばオーディオインタフェース8を介して情報処理装置1に単音の演奏データと、和音の演奏データが供給される。これは、例えば、アコースティック和音楽器、またはカラオケの伴奏音源に合せて歌う場合である。 In this case, for example, the performance data of a single note and the performance data of a chord are supplied to the information processing device 1 via the audio interface 8. This is the case, for example, when singing along with an acoustic Japanese music instrument or an accompaniment sound source of karaoke.

<1−1−10−4>ケース4
ケース4は、電子楽器2(0)(デジタル単音楽器)及びアコースティックピアノ7(アコースティック和音楽器、またはカラオケの伴奏音源)を、情報処理装置1に接続するケースである。
<1-1-10-4> Case 4
Case 4 is a case in which the electronic musical instrument 2 (0) (digital monophonic instrument) and the acoustic piano 7 (acoustic Japanese musical instrument or karaoke accompaniment sound source) are connected to the information processing device 1.

この場合は、例えば電子楽器2を介して情報処理装置1に単音の演奏データが供給され、オーディオインタフェース8を介して情報処理装置1に和音の演奏データが供給される。これは、例えば、カラオケの伴奏音源に合せてメロディを弾く場合である。 In this case, for example, single-tone performance data is supplied to the information processing device 1 via the electronic musical instrument 2, and chord performance data is supplied to the information processing device 1 via the audio interface 8. This is a case where, for example, a melody is played according to an accompaniment sound source of karaoke.

本実施形態に係る情報処理装置1によれば、上述した全てのケースにおいて、リアルタイム画像及び演奏後画像を生成することが可能である。 According to the information processing apparatus 1 according to the present embodiment, it is possible to generate a real-time image and a post-performance image in all the cases described above.

なお、上述したケースは、一例であり、3つ以上の楽器が情報処理装置1に接続されても良い。 The above-mentioned case is an example, and three or more musical instruments may be connected to the information processing device 1.

<1−2>動作
<1−2−1>フローチャート
次に、図10を参照して、情報処理装置1の動作を説明する。図10は、情報処理装置1の動作を示すフローチャートである。
<1-2> Operation <1-2-1> Flow chart Next, the operation of the information processing apparatus 1 will be described with reference to FIG. FIG. 10 is a flowchart showing the operation of the information processing device 1.

なお、以下の説明では、情報処理装置1の通信部103と電子楽器2の通信部80の間は、接続されているものとする。また、これから説明するように、情報処理装置1の制御部105は、画像をディスプレイ装置4に表示させるためのアプリケーションを起動しているものとする。 In the following description, it is assumed that the communication unit 103 of the information processing device 1 and the communication unit 80 of the electronic musical instrument 2 are connected. Further, as will be described below, it is assumed that the control unit 105 of the information processing device 1 has started an application for displaying an image on the display device 4.

≪S1001≫
図10に示すように、情報処理装置1の制御部105(接続機器判定部1056)は、情報処理装置1に接続される楽器を確認する。例えば、楽器の情報処理装置1への接続のケースは、図9に示した通りである。そして、情報処理装置1の制御部105(画像決定部1052)は、情報処理装置1に接続された楽器毎に、異なる画像グループを割り当てる。これにより、情報処理装置1の制御部105(画像決定部1052)は、リアルタイム画像、及び演奏後画像に関する描画設定を行う。
≪S1001≫
As shown in FIG. 10, the control unit 105 (connected device determination unit 1056) of the information processing device 1 confirms the musical instrument connected to the information processing device 1. For example, the case of connecting the musical instrument to the information processing device 1 is as shown in FIG. Then, the control unit 105 (image determination unit 1052) of the information processing device 1 assigns a different image group to each musical instrument connected to the information processing device 1. As a result, the control unit 105 (image determination unit 1052) of the information processing device 1 sets drawing for the real-time image and the post-performance image.

≪S1002≫
図10に示すように、情報処理装置1の制御部105は、楽器から送信された演奏情報が情報処理装置1の通信部103で受信され、演奏情報の入力が有ったかを判定(ステップS1002)する。情報処理装置1の制御部105は、演奏情報の入力がない場合(ステップS1002:NO)、ステップS1006に進む。
≪S1002≫
As shown in FIG. 10, the control unit 105 of the information processing device 1 determines whether or not the performance information transmitted from the instrument is received by the communication unit 103 of the information processing device 1 and the performance information is input (step S1002). ). The control unit 105 of the information processing device 1 proceeds to step S1006 when there is no input of performance information (step S1002: NO).

≪S1003≫
そして、楽器から送信された演奏情報が情報処理装置1の通信部103で受信されると(ステップS1002:YES)、情報処理装置1の制御部105は、演奏情報の入力を受付ける受付処理を実行し、ステップS1003の演奏判定処理(音楽解析、または音楽解析処理と記載しても良い)を実行する。
≪S1003≫
Then, when the performance information transmitted from the musical instrument is received by the communication unit 103 of the information processing device 1 (step S1002: YES), the control unit 105 of the information processing device 1 executes a reception process for receiving the input of the performance information. Then, the performance determination process (may be described as music analysis or music analysis process) of step S1003 is executed.

具体的には、情報処理装置1の制御部105(演奏判定部1051)は、ステップS1003の演奏判定処理として、受付けた演奏情報に基づき、例えば、曲の調性、音名、コード種別、ベロシティ値、音長、シンコペーション、コード機能、及びコード進行の判定等を行う。 Specifically, the control unit 105 (performance determination unit 1051) of the information processing device 1, as the performance determination process in step S1003, is based on the received performance information, for example, the tonality of the song, the note name, the chord type, and the velocity. Judges the value, note length, syncopation, chord function, and chord progression.

ただし、ステップS1003の演奏判定処理として、情報処理装置1の制御部105(演奏判定部1051)は、曲の調性、音名、コード種別、ベロシティ値、音長、シンコペーション、コード機能、及びコード進行の判定のうちのいずれかを行うものとしてもよい。 However, as the performance determination process in step S1003, the control unit 105 (performance determination unit 1051) of the information processing device 1 uses the tonality of the song, the note name, the chord type, the velocity value, the note length, the syncopation, the chord function, and the chord. Any of the determination of progress may be made.

ステップS1003の演奏判定処理として、具体的に、どのようなものが判定されているのか等の詳細については、次のステップS1004のところで説明する。 The details of what is specifically determined as the performance determination process in step S1003 will be described in the next step S1004.

≪S1004≫
情報処理装置1の制御部105(画像決定部1052)は、ステップS1003の演奏判定処理を終えると、ステップS1004に進み、演奏情報を受付けたタイミングに合せて、演奏情報に応じたリアルタイム画像を生成する。そして、情報処理装置1の制御部105(画像情報出力部1053)は、ディスプレイ装置4に出力して表示するリアルタイム画像出力処理を実行する。
≪S1004≫
When the control unit 105 (image determination unit 1052) of the information processing device 1 finishes the performance determination process in step S1003, the process proceeds to step S1004 and generates a real-time image according to the performance information in accordance with the timing of receiving the performance information. To do. Then, the control unit 105 (image information output unit 1053) of the information processing device 1 executes a real-time image output process of outputting and displaying the image information to the display device 4.

なお、上述した「演奏情報を受付けたタイミングに合せて」とは、時間的に同時を意味するものではなく、演奏情報を受付けるごとに、を意味する点に留意されたい。 It should be noted that the above-mentioned "according to the timing at which the performance information is received" does not mean simultaneous time, but means each time the performance information is received.

本実施形態では、情報処理装置1の記憶部106に記憶されている基礎となる画像をコンピュータグラフィックス(CG)で加工してリアルタイム画像を作成してディスプレイ装置4に表示させるようにしているが、ディスプレイ装置4に表示させるリアルタイム画像は、このような手法によるものに限定される必要はなく、演奏情報に応じたリアルタイム画像であればよい。 In the present embodiment, the basic image stored in the storage unit 106 of the information processing device 1 is processed by computer graphics (CG) to create a real-time image and displayed on the display device 4. The real-time image to be displayed on the display device 4 does not have to be limited to such a method, and may be a real-time image according to the performance information.

≪S1005≫
情報処理装置1の制御部105(演奏終了判定部1055)は、楽器から送信された演奏情報が情報処理装置1の通信部103で受信されない場合(ステップS1002:NO)、または演奏データが設定された条件を満たさないと判定する場合(S1004:NO)、またはステップS1004の後、演奏終了判定処理を行う。具体的には、情報処理装置1の制御部105は、演奏情報の入力無しで所定の時間経過するか否かを判定する。情報処理装置1の制御部105は、演奏情報の入力無しで所定の時間経過していない場合(ステップS1005:NO)、再び、ステップS1002に進み、演奏情報の入力が有ったか否かを判定する。
≪S1005≫
The control unit 105 (performance end determination unit 1055) of the information processing device 1 sets the performance data when the performance information transmitted from the instrument is not received by the communication unit 103 of the information processing device 1 (step S1002: NO). When it is determined that the above conditions are not satisfied (S1004: NO), or after step S1004, the performance end determination process is performed. Specifically, the control unit 105 of the information processing device 1 determines whether or not a predetermined time elapses without inputting performance information. If the predetermined time has not elapsed without inputting the performance information (step S1005: NO), the control unit 105 of the information processing device 1 proceeds to step S1002 again and determines whether or not the performance information has been input. To do.

≪S1006≫
情報処理装置1の制御部105(演奏終了判定部1055)は、演奏情報の入力無しで所定の時間経過した場合(ステップS1005:YES)、つまり、演奏情報の受付が所定の時間検出されない場合、演奏が終了したものと判定する。情報処理装置1の制御部105(画像決定部1052、及び画像情報出力部1053)は、演奏が終了したものと判定する場合、ステップS1006に進んで、演奏後画像をディスプレイ装置4に出力して表示する演奏後画像出力処理を行い、全体の処理を終了する。
≪S1006≫
The control unit 105 (performance end determination unit 1055) of the information processing device 1 has passed a predetermined time without inputting the performance information (step S1005: YES), that is, when the reception of the performance information is not detected for the predetermined time. It is determined that the performance has ended. When the control unit 105 (image determination unit 1052 and image information output unit 1053) of the information processing device 1 determines that the performance has been completed, the control unit 105 proceeds to step S1006 and outputs the image after the performance to the display device 4. Image output processing is performed after the performance to be displayed, and the entire processing is completed.

また、伴奏データを自動再生し、メロディを演奏者に指定させる場合に本実施形態を適用した場合には、伴奏データの自動再生が終了した時点で演奏が終了したものと判定して演奏後画像出力処理を行ってもよい。すなわち、情報処理装置1の制御部105が、演奏者による演奏終了を判定する理由はどのような理由であってもよく、情報処理装置1の制御部105が、演奏者による演奏終了を判定した時点で、演奏後画像出力処理が実行されればよい。 Further, when the present embodiment is applied when the accompaniment data is automatically reproduced and the melody is specified by the performer, it is determined that the performance is completed when the automatic reproduction of the accompaniment data is completed, and the image after the performance is performed. Output processing may be performed. That is, the reason why the control unit 105 of the information processing device 1 determines the end of the performance by the performer may be any reason, and the control unit 105 of the information processing device 1 determines the end of the performance by the performer. At that point, post-performance image output processing may be executed.

一方、情報処理装置1の制御部105は、演奏情報の入力無しで所定の時間経過していない場合(ステップS1005:NO)、再び、ステップS1002に進み、演奏情報の入力が有ったか否かを判定する。 On the other hand, if the predetermined time has not elapsed without inputting the performance information (step S1005: NO), the control unit 105 of the information processing device 1 proceeds to step S1002 again to determine whether or not the performance information has been input. To judge.

<1−2−2>具体例
次に、情報処理装置1の動作の具体例を説明する。
<1-2-2> Specific Example Next, a specific example of the operation of the information processing device 1 will be described.

具体例では、例えば、二人のユーザが「故郷(ふるさと)」を弾く場合において、二人のユーザに画像グループが割り当てられる場合について説明する。 In a specific example, for example, when two users play "hometown", a case where an image group is assigned to the two users will be described.

<1−2−2−1>リアルタイム画像の描画例
続いて、図11を用いて、二人のユーザが「故郷(ふるさと)」を弾くことにより、異なる画像グループが描画される様子を説明する。図11は、第1ユーザ及び第2ユーザがメロディを弾いている場合における、リアルタイム画像を示している。
<1-2-2-1> Example of drawing a real-time image Next, using FIG. 11, a state in which different image groups are drawn by two users playing "hometown" will be described. .. FIG. 11 shows a real-time image when the first user and the second user are playing the melody.

図11に示すように、第1ユーザが電子楽器2(0)にてメロディを弾く場合、情報処理装置1の制御部105は、リアルタイム画像として、第1画像グループに含まれる画像(虫のキャラクタ)をディスプレイ装置4に表示させる。この際、例えば、リアルタイム画像の上半分(1st(U)を参照)の矢印A1に沿って画像(虫のキャラクタ)が表示される(図中のC1、及びD1〜D6参照)。 As shown in FIG. 11, when the first user plays a melody on the electronic musical instrument 2 (0), the control unit 105 of the information processing device 1 uses an image (insect character) included in the first image group as a real-time image. ) Is displayed on the display device 4. At this time, for example, the image (insect character) is displayed along the arrow A1 in the upper half of the real-time image (see 1st (U)) (see C1 and D1 to D6 in the figure).

また、図11に示すように、第2ユーザが電子楽器2(1)にて伴奏を弾く場合、情報処理装置1の制御部105は、リアルタイム画像として、第2画像グループに含まれる画像(動物のキャラクタ)をディスプレイ装置4に表示させる。この際、例えば、リアルタイム画像の下半分(1st(L)を参照)の矢印A2に沿って画像(動物のキャラクタ)が表示される(図中のC2、及びE1〜E6参照)。 Further, as shown in FIG. 11, when the second user plays the accompaniment on the electronic musical instrument 2 (1), the control unit 105 of the information processing device 1 uses an image (animal) included in the second image group as a real-time image. Character) is displayed on the display device 4. At this time, for example, the image (animal character) is displayed along the arrow A2 in the lower half of the real-time image (see 1st (L)) (see C2 and E1 to E6 in the figure).

<1−2−2−5>演奏後画像の描画例
続いて、図12を用いて、二人のユーザが「故郷」の演奏を終了した後の演奏後画像について説明する。図12は、二人のユーザが曲の演奏を終了した後の演奏後画像を示している。
<1-2-2-5> Example of Drawing Post-Performance Image Next, with reference to FIG. 12, a post-performance image after the two users have finished playing in their "hometown" will be described. FIG. 12 shows a post-performance image after the two users have finished playing the song.

情報処理装置1の制御部105は、二人のユーザが演奏を終了したと判定すると、演奏後画像をディスプレイ装置4に表示させる。 When the control unit 105 of the information processing device 1 determines that the two users have finished the performance, the control unit 105 causes the display device 4 to display the image after the performance.

図12に示すように、情報処理装置1の制御部105は、第1ユーザの演奏に対応する個所には第1グループの画像(虫のキャラクタ)を配置(C1参照)し、第2ユーザの演奏に対応する個所には第2グループの画像(動物のキャラクタ)を配置(C2参照)する。 As shown in FIG. 12, the control unit 105 of the information processing device 1 arranges an image (insect character) of the first group at a place corresponding to the performance of the first user (see C1), and arranges the image (character of the insect) of the second user. An image (animal character) of the second group is placed at a place corresponding to the performance (see C2).

これにより、上述した効果と同様の効果を得ることができる。 Thereby, the same effect as the above-mentioned effect can be obtained.

<1−3>効果
上述した実施形態によれば、ユーザの演奏(音楽)に合わせて画像を描く演奏データ表示システムにおいて、複数の演奏が入力された際に、ユーザ毎に異なる表現を出力する。
<1-3> Effect According to the above-described embodiment, in a performance data display system that draws an image according to a user's performance (music), when a plurality of performances are input, different expressions are output for each user. ..

例えば、ユーザの演奏(音楽)に合わせて画像を描く演奏データ表示システムは、ユーザの電子楽器の練習意欲を掻き立てることができる。しかし、複数のユーザにて演奏する場合において、ユーザ毎に画像を変更しないと、一人の演奏の音数が増えたものと同じ表現しか出来ない。この場合、画像と、各演奏との対応関係が不明瞭となる。 For example, a performance data display system that draws an image according to a user's performance (music) can stimulate the user's motivation to practice an electronic musical instrument. However, when playing by a plurality of users, unless the image is changed for each user, only the same expression as when the number of sounds of one performance is increased can be obtained. In this case, the correspondence between the image and each performance becomes unclear.

しかし、上述した実施形態によれば、複数のユーザにそれぞれ描画表現をわりあてることができる。その結果、ユーザの演奏と、画像との関係が明確になり、より楽しさを提供できる。その結果、ユーザの電子楽器の練習意欲を更に掻き立てることができる。 However, according to the above-described embodiment, the drawing expression can be assigned to each of a plurality of users. As a result, the relationship between the user's performance and the image becomes clear, and more enjoyment can be provided. As a result, the user's willingness to practice the electronic musical instrument can be further stimulated.

また、上述した実施形態では、オーディオインタフェースを用い、且つ、情報処理装置1にて音楽解析を行うことで、生音であっても画像に変換することができる。 Further, in the above-described embodiment, even raw sound can be converted into an image by using an audio interface and performing music analysis with the information processing device 1.

<2>変形例
なお、上述した実施形態において、情報処理装置1の制御部105は、図10のステップS1001における描画設定変更の際、画像グループの切り替えを行っている。しかし、これに限らず、例えば、「画像(キャラクタ)の表示位置」、「明るさの変更」、「画像(キャラクタ)のサイズの変更」、「背景色(リアルタイム画像、または演奏後画像の背景の色)や、画像(キャラクタ)の色テーブルの変更」、「特定の条件を満たす際に表示される画像(ボーナスキャラクタ)の種類の変更」、または「画像(キャラクタ)の動きを変更」等でも良い。なお、背景色(リアルタイム画像、または演奏後画像の背景の色)や、画像(キャラクタ)の色テーブルは、例えばROM1062に記憶されている。また、特定の条件を満たす際に表示される画像(ボーナスキャラクタ)とは、例えば情報処理装置1の制御部105がユーザの演奏のリズムなどが安定していると判定する場合に、リアルタイム画像に表示される画像である。また、画像(キャラクタ)はアニメーション等で動いても良い。また、複数の画像グループにおいて、同じ画像(キャラクタ)を含んでいても良い。また、楽器が「ボーカル」の場合、「ボーカル」が目立つように大きく、リアルタイム画像や演奏後画像の中心に表示しても良い。また、低音楽器は丸く、高音楽器はトゲトゲしく表現しても構わない。
<2> Modification Example In the above-described embodiment, the control unit 105 of the information processing device 1 switches the image group when the drawing setting is changed in step S1001 of FIG. However, the present invention is not limited to this, for example, "display position of image (character)", "change of brightness", "change of size of image (character)", "background color (real-time image, or background of image after performance). Color), change the color table of the image (character), "change the type of image (bonus character) displayed when certain conditions are met", or "change the movement of the image (character)", etc. But it's okay. The background color (the background color of the real-time image or the image after the performance) and the color table of the image (character) are stored in, for example, ROM 1062. Further, the image (bonus character) displayed when a specific condition is satisfied is a real-time image when, for example, the control unit 105 of the information processing device 1 determines that the rhythm of the user's performance is stable. This is the image to be displayed. Further, the image (character) may be moved by animation or the like. Further, the same image (character) may be included in a plurality of image groups. Further, when the musical instrument is "vocal", the "vocal" may be large so as to stand out and may be displayed at the center of the real-time image or the post-performance image. In addition, the low musical instrument may be expressed in a round shape, and the high musical instrument may be expressed in a spiky manner.

また、上述した実施形態では、二つの楽器に関する画像を描画する例について示したが、これに限らない。例えば、図13に示すように、4つの楽器(ピアノ、ベースギター、エレキギター、電子楽器等)を情報処理装置1に接続しても良い。更に、図13に示すように、例えばリアルタイム画像または演奏後画像を4分割し、それぞれに楽器を割り当てても良い。これにより、誰がどの画像(キャラクタ)を描いているのかは、4分割させた画面の場所でわかる。 Further, in the above-described embodiment, an example of drawing an image relating to two musical instruments has been shown, but the present invention is not limited to this. For example, as shown in FIG. 13, four musical instruments (piano, bass guitar, electric guitar, electronic musical instrument, etc.) may be connected to the information processing device 1. Further, as shown in FIG. 13, for example, a real-time image or a post-performance image may be divided into four parts, and musical instruments may be assigned to each of them. As a result, who is drawing which image (character) can be seen from the location of the screen divided into four.

また、図14に示すように、リアルタイム画像または演奏後画像を明確に分割せず、1枚の画像として描画しても良い。しかし、楽器毎に、画像(キャラクタ)を変えているので、誰がどの画像(キャラクタ)を描いているのかが判定できる。 Further, as shown in FIG. 14, the real-time image or the image after the performance may not be clearly divided and may be drawn as one image. However, since the image (character) is changed for each musical instrument, it is possible to determine who is drawing which image (character).

また、複数のユーザの演奏が所定の条件(例えば、タイミングの一致)を満たす場合、リボン等の特殊な画像(キャラクタ)がリアルタイム画像、または演奏後画像に描画されても良い。 Further, when the performances of a plurality of users satisfy a predetermined condition (for example, matching of timings), a special image (character) such as a ribbon may be drawn on a real-time image or a post-performance image.

以下に、簡単にその特殊な画像(キャラクタ)の描画に関するフローチャートを説明する。 The flowchart for drawing the special image (character) will be briefly described below.

図15に示すステップS2001〜S2004、S2007、及びS2008については、図10のステップS1001〜S1006と同様である。そこで、ステップS2005と、S2006について説明する。 Steps S2001 to S2004, S2007, and S2008 shown in FIG. 15 are the same as steps S1001 to S1006 of FIG. Therefore, steps S2005 and S2006 will be described.

≪S2005≫
情報処理装置1の制御部105(条件判定部1054)は、演奏データが、設定された条件を満たすか否かを判定する。この設定された条件を満たすか否かを判定する例としては、複数のユーザの演奏のタイミングが一致したか否かを判定しても良い。
≪S2005≫
The control unit 105 (condition determination unit 1054) of the information processing device 1 determines whether or not the performance data satisfies the set condition. As an example of determining whether or not the set condition is satisfied, it may be determined whether or not the performance timings of a plurality of users match.

≪S2006≫
情報処理装置1の制御部105(画像決定部1052、及び画像情報出力部1053)は、演奏データが、設定された条件を満たすと判定する場合(S2005:YES)、リアルタイム画像(及び演奏後画像)の描画設定を変更する。具体的には、情報処理装置1の制御部105(画像決定部1052、及び画像情報出力部1053)は、設定された条件を満たすと判定された演奏データの後に、専用の画像(キャラクタ)を表示させる。具体的には、図16に示すように、リボンの画像(キャラクタ)を描画する。
≪S2006≫
When the control unit 105 (image determination unit 1052 and image information output unit 1053) of the information processing device 1 determines that the performance data satisfies the set conditions (S2005: YES), the real-time image (and the post-performance image) ) Change the drawing settings. Specifically, the control unit 105 (image determination unit 1052 and image information output unit 1053) of the information processing device 1 displays a dedicated image (character) after the performance data determined to satisfy the set conditions. Display it. Specifically, as shown in FIG. 16, an image (character) of the ribbon is drawn.

また、情報処理装置1の制御部105は、「和音」「単音」の判定を、手動(例えばMIDIのチャンネルの選択)で行われても良いし、自動認識で行っても良い。 Further, the control unit 105 of the information processing device 1 may manually (for example, select a MIDI channel) or automatically recognize the "chord" and "single note".

また、情報処理装置1の制御部105は、ピッチ抽出や多重音解析の結果をMIDI形式に変換しているが、特にMIDIの形式にしなくても良い。 Further, although the control unit 105 of the information processing device 1 converts the results of pitch extraction and multiple sound analysis into MIDI format, it does not have to be in MIDI format.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

なお、上記実施形態は、以下の付記を含むものである。 The above embodiment includes the following additional notes.

≪付記1≫
情報処理装置のコンピュータに、
入力された演奏データが、少なくとも第1機器(例えば第1電子楽器)及び第2機器(例えば第2電子楽器又は、オーディオインタフェース)のいずれから入力された演奏データであるかを判定させ、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別。演奏データには音名情報やコード種別情報は含まれておらず、演奏データに含まれるノートナンバー情報から音名情報やコード種別情報が判定できる)に応じて、第1画像データを表示させ、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別)が、たとえ前記第1機器と判定された場合と同じであったとしても、前記第1画像データとは異なる態様の第2画像データを表示させる、
プログラム。
≪Appendix 1≫
To the computer of the information processing device
It is made to determine whether the input performance data is the performance data input from at least the first device (for example, the first electronic musical instrument) or the second device (for example, the second electronic musical instrument or the audio interface).
Information that can be determined based on the input performance data (for example, note name, chord type. The performance data does not include note name information or chord type information, and the performance data) when it is determined to be the first device. The first image data is displayed according to the note number information included in (the note name information and the chord type information can be determined).
Even if the information (for example, sound name, chord type) that can be determined based on the input performance data when it is determined to be the second device is the same as when it is determined to be the first device. Displaying the second image data in a mode different from that of the first image data.
program.

≪付記2≫
前記いずれから入力された演奏データであるかは、入力された演奏データに含まれる情報(例えばMIDIのチャンネル情報)から判定させる、
付記1に記載のプログラム。
≪Appendix 2≫
Which of the above is the input performance data is determined from the information contained in the input performance data (for example, MIDI channel information).
The program described in Appendix 1.

≪付記3≫
前記第1画像データは、第1画像グループのなかに含まれ、
前記第2画像データは、第2画像グループのなかに含まれ、
前記第1画像グループ及び前記第2画像グループのなかには、同じ画像データが含まれていてもよい、
付記1または2に記載のプログラム。
≪Appendix 3≫
The first image data is included in the first image group,
The second image data is included in the second image group, and is included in the second image group.
The same image data may be included in the first image group and the second image group.
The program described in Appendix 1 or 2.

≪付記4≫
前記判定できる情報は、少なくとも音名情報(例えば演奏データには音名情報は含まれておらず、演奏データに含まれるノートナンバー情報から音名情報が判定できる)及び、コード種別情報(例えば音名情報と同様)のいずれかを含む、
付記1乃至3のいずれか一項に記載のプログラム。
≪Appendix 4≫
The information that can be determined is at least note name information (for example, note name information is not included in the performance data, and note number information can be determined from note number information included in the performance data) and chord type information (for example, sound). Includes any of (similar to name information),
The program according to any one of Appendix 1 to 3.

≪付記5≫
前記第1機器は、第1電子楽器及びオーディオインタフェースのいずれかを含み、
前記第2機器は、第2電子楽器及びオーディオインタフェースのいずれかを含む、
付記1乃至4のいずれか一項に記載のプログラム。
≪Appendix 5≫
The first device includes either a first electronic musical instrument or an audio interface.
The second device includes either a second electronic musical instrument or an audio interface.
The program according to any one of Appendix 1 to 4.

≪付記6≫
情報処理装置のコンピュータに、
入力された演奏データが、少なくとも第1機器(例えば第1電子楽器)及び第2機器(例えば第2電子楽器又は、オーディオインタフェース)のいずれから入力された演奏データであるかを判定させ、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別。演奏データには音名情報やコード種別情報は含まれておらず、演奏データに含まれるノートナンバー情報から音名情報やコード種別情報が判定できる)に応じて、第1画像データを表示させ、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別)が、たとえ前記第1機器と判定された場合と同じであったとしても、前記第1画像データとは異なる態様の第2画像データを表示させる、
方法。
≪Appendix 6≫
To the computer of the information processing device
It is made to determine whether the input performance data is the performance data input from at least the first device (for example, the first electronic musical instrument) or the second device (for example, the second electronic musical instrument or the audio interface).
Information that can be determined based on the input performance data (for example, note name, chord type. The performance data does not include note name information or chord type information, and the performance data) when it is determined to be the first device. The first image data is displayed according to the note number information included in (the note name information and the chord type information can be determined).
Even if the information (for example, sound name, chord type) that can be determined based on the input performance data when it is determined to be the second device is the same as when it is determined to be the first device. Displaying the second image data in a mode different from that of the first image data.
Method.

≪付記7≫
ディスプレイ装置と、
プロセッサと、を含み、前記プロセッサが、
入力された演奏データが、少なくとも第1機器(例えば第1電子楽器)及び第2機器(例えば2電子楽器又は、オーディオインタフェース)のいずれから入力された演奏データであるかを判定し、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別。演奏データには音名情報やコード種別情報は含まれておらず、演奏データに含まれるノートナンバー情報から音名情報やコード種別情報が判定できる)に応じて、第1画像データの前記ディスプレイ装置への表示を指示し、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別)が、たとえ前記第1機器と判定された場合と同じであったとしても、前記第1画像データとは異なる態様の第2画像データの前記ディスプレイ装置への表示を指示する、
電子機器。
≪Appendix 7≫
Display device and
The processor, including the processor,
It is determined whether the input performance data is the performance data input from at least the first device (for example, the first electronic musical instrument) or the second device (for example, the second electronic musical instrument or the audio interface).
Information that can be determined based on the input performance data (for example, note name, chord type. The performance data does not include note name information or chord type information, and the performance data) when it is determined to be the first device. The note number information included in the data can be used to determine the note name information and the code type information), and the display of the first image data on the display device is instructed.
Even if the information (for example, sound name, chord type) that can be determined based on the input performance data when it is determined to be the second device is the same as when it is determined to be the first device. Instructing the display of the second image data in a mode different from that of the first image data on the display device.
Electronics.

≪付記8≫
第1機器と、第2機器と、ディスプレイ装置と、を備え、
前記第1機器は、
第1ユーザによる演奏操作に応じて前記第1機器を識別可能な第1識別子(例えばMIDIの第1チャンネル番号)を含む第1演奏データを生成するとともに、生成された前記第1演奏データを前記ディスプレイ装置に出力し、
前記第2機器は、
第2ユーザによる演奏操作に応じて前記第2機器を識別可能な第2識別子を含む第2演奏データを生成するとともに、生成された前記第2演奏データを前記ディスプレイ装置に出力し、
前記ディスプレイ装置は、
入力される前記第1演奏データに基づいて判定できる情報(例えば音名、コード種別)に応じて、第1画像データを表示し、
入力される前記第2演奏データに基づいて判定できる情報(例えば音名、コード種別)が、たとえ前記第1演奏データに基づいて判定できる情報と同じであったとしても、前記第1画像データとは異なる態様の第2画像データを表示する、
演奏データ表示システム。
≪Appendix 8≫
A first device, a second device, and a display device are provided.
The first device is
The first performance data including the first identifier (for example, the first channel number of MIDI) that can identify the first device according to the performance operation by the first user is generated, and the generated first performance data is used as described above. Output to the display device
The second device is
The second performance data including the second identifier that can identify the second device is generated according to the performance operation by the second user, and the generated second performance data is output to the display device.
The display device is
The first image data is displayed according to the information (for example, note name, chord type) that can be determined based on the input first performance data.
Even if the information that can be determined based on the input second performance data (for example, sound name, chord type) is the same as the information that can be determined based on the first performance data, the information can be determined with the first image data. Displays the second image data of a different aspect,
Performance data display system.

1…情報処理装置
2…電子楽器
3…スピーカ
4…ディスプレイ装置
5…MIDIパッチャ
6…ボーカルマイク
7…アコースティックピアノ
8…オーディオインタフェース
11…鍵
20…表示部
30…操作部
40…発音部
41…SPアンプ
42…スピーカ
43…HPアンプ
44…HPジャック
45…HPジャック挿入検出部
50…押鍵検出部
60…記憶部
61…ROM
62…RAM
70…制御部
80…通信部
100…バス
101…操作部
102…表示部
103…通信部
104…音出力部
105…制御部
106…記憶部
107…バス
401…表示部
1051…演奏判定部
1052…画像決定部
1053…画像情報出力部
1054…条件判定部
1055…演奏終了判定部
1056…接続機器判定部
1061…RAM
1062…ROM
10621…プログラム
10622…テーブル
1 ... Information processing device 2 ... Electronic musical instrument 3 ... Speaker 4 ... Display device 5 ... MIDI patcher 6 ... Vocal microphone 7 ... Acoustic piano 8 ... Audio interface 11 ... Key 20 ... Display unit 30 ... Operation unit 40 ... Sound unit 41 ... SP Amplifier 42 ... Speaker 43 ... HP amplifier 44 ... HP jack 45 ... HP jack insertion detection unit 50 ... Key press detection unit 60 ... Storage unit 61 ... ROM
62 ... RAM
70 ... Control unit 80 ... Communication unit 100 ... Bus 101 ... Operation unit 102 ... Display unit 103 ... Communication unit 104 ... Sound output unit 105 ... Control unit 106 ... Storage unit 107 ... Bus 401 ... Display unit 1051 ... Performance determination unit 1052 ... Image determination unit 1053 ... Image information output unit 1054 ... Condition determination unit 1055 ... Performance end determination unit 1056 ... Connected device determination unit 1061 ... RAM
1062 ... ROM
10621 ... Program 10622 ... Table

Claims (8)

情報処理装置のコンピュータに、
入力された演奏データが、少なくとも第1機器及び第2機器のいずれから入力された演奏データであるかを判定させ、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報に応じて、第1画像データを表示させ、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報が、たとえ前記第1機器と判定された場合と同じであったとしても、前記第1画像データとは異なる態様の第2画像データを表示させる、
プログラム。
To the computer of the information processing device
It is made to judge whether the input performance data is at least the performance data input from the first device or the second device.
When it is determined to be the first device, the first image data is displayed according to the information that can be determined based on the input performance data.
Even if the information that can be determined based on the input performance data when it is determined to be the second device is the same as when it is determined to be the first device, it is different from the first image data. Display the second image data of the aspect,
program.
前記いずれから入力された演奏データであるかは、入力された演奏データに含まれる情報から判定させる、
請求項1に記載のプログラム。
Which of the above is the performance data input is determined from the information contained in the input performance data.
The program according to claim 1.
前記第1画像データは、第1画像グループのなかに含まれ、
前記第2画像データは、第2画像グループのなかに含まれ、
前記第1画像グループ及び前記第2画像グループのなかには、同じ画像データが含まれていてもよい、
請求項1または2に記載のプログラム。
The first image data is included in the first image group,
The second image data is included in the second image group, and is included in the second image group.
The same image data may be included in the first image group and the second image group.
The program according to claim 1 or 2.
前記判定できる情報は、少なくとも音名情報及び、コード種別情報のいずれかを含む、
請求項1乃至3のいずれか一項に記載のプログラム。
The information that can be determined includes at least one of note name information and chord type information.
The program according to any one of claims 1 to 3.
前記第1機器は、第1電子楽器及びオーディオインタフェースのいずれかを含み、
前記第2機器は、第2電子楽器及びオーディオインタフェースのいずれかを含む、
請求項1乃至4のいずれか一項に記載のプログラム。
The first device includes either a first electronic musical instrument or an audio interface.
The second device includes either a second electronic musical instrument or an audio interface.
The program according to any one of claims 1 to 4.
情報処理装置のコンピュータに、
入力された演奏データが、少なくとも第1機器及び第2機器のいずれから入力された演奏データであるかを判定させ、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報に応じて、第1画像データを表示させ、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報が、たとえ前記第1機器と判定された場合と同じであったとしても、前記第1画像データとは異なる態様の第2画像データを表示させる、
方法。
To the computer of the information processing device
It is made to judge whether the input performance data is at least the performance data input from the first device or the second device.
When it is determined to be the first device, the first image data is displayed according to the information that can be determined based on the input performance data.
Even if the information that can be determined based on the input performance data when it is determined to be the second device is the same as when it is determined to be the first device, it is different from the first image data. Display the second image data of the aspect,
Method.
ディスプレイ装置と、
プロセッサと、を含み、前記プロセッサが、
入力された演奏データが、少なくとも第1機器及び第2機器のいずれから入力された演奏データであるかを判定し、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報に応じて、第1画像データの前記ディスプレイ装置への表示を指示し、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報が、たとえ前記第1機器と判定された場合と同じであったとしても、前記第1画像データとは異なる態様の第2画像データの前記ディスプレイ装置への表示を指示する、
電子機器。
Display device and
The processor, including the processor,
It is determined whether the input performance data is at least the performance data input from the first device or the second device.
When it is determined to be the first device, the display of the first image data on the display device is instructed according to the information that can be determined based on the input performance data.
Even if the information that can be determined based on the input performance data when it is determined to be the second device is the same as when it is determined to be the first device, it is different from the first image data. Instructing the display of the second image data of the embodiment on the display device,
Electronics.
第1機器と、第2機器と、ディスプレイ装置と、を備え、
前記第1機器は、
第1ユーザによる演奏操作に応じて前記第1機器を識別可能な第1識別子を含む第1演奏データを生成するとともに、生成された前記第1演奏データを前記ディスプレイ装置に出力し、
前記第2機器は、
第2ユーザによる演奏操作に応じて前記第2機器を識別可能な第2識別子を含む第2演奏データを生成するとともに、生成された前記第2演奏データを前記ディスプレイ装置に出力し、
前記ディスプレイ装置は、
入力される前記第1演奏データに基づいて判定できる情報に応じて、第1画像データを表示し、
入力される前記第2演奏データに基づいて判定できる情報が、たとえ前記第1演奏データに基づいて判定できる情報と同じであったとしても、前記第1画像データとは異なる態様の第2画像データを表示する、
演奏データ表示システム。
A first device, a second device, and a display device are provided.
The first device is
The first performance data including the first identifier that can identify the first device is generated according to the performance operation by the first user, and the generated first performance data is output to the display device.
The second device is
The second performance data including the second identifier that can identify the second device is generated according to the performance operation by the second user, and the generated second performance data is output to the display device.
The display device is
The first image data is displayed according to the information that can be determined based on the input first performance data.
Even if the information that can be determined based on the input second performance data is the same as the information that can be determined based on the first performance data, the second image data in a mode different from that of the first image data. To display,
Performance data display system.
JP2019231922A 2019-12-23 2019-12-23 Program, method, electronic device, and performance data display system Active JP7467907B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019231922A JP7467907B2 (en) 2019-12-23 2019-12-23 Program, method, electronic device, and performance data display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019231922A JP7467907B2 (en) 2019-12-23 2019-12-23 Program, method, electronic device, and performance data display system

Publications (2)

Publication Number Publication Date
JP2021099459A true JP2021099459A (en) 2021-07-01
JP7467907B2 JP7467907B2 (en) 2024-04-16

Family

ID=76541171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019231922A Active JP7467907B2 (en) 2019-12-23 2019-12-23 Program, method, electronic device, and performance data display system

Country Status (1)

Country Link
JP (1) JP7467907B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004347703A (en) 2003-05-20 2004-12-09 Kawai Musical Instr Mfg Co Ltd Music playing operation display device
JP2008233576A (en) 2007-03-22 2008-10-02 Hyphenation:Kk Method for making musical piece and musical score into video and image
JP7035486B2 (en) 2017-11-30 2022-03-15 カシオ計算機株式会社 Information processing equipment, information processing methods, information processing programs, and electronic musical instruments

Also Published As

Publication number Publication date
JP7467907B2 (en) 2024-04-16

Similar Documents

Publication Publication Date Title
JP7363944B2 (en) Information processing device, information processing method, information processing program, and electronic musical instrument
JP2007093821A (en) Concert system
JP4265551B2 (en) Performance assist device and performance assist program
JP2020056938A (en) Musical performance information display device and musical performance information display method, musical performance information display program, and electronic musical instrument
CN102760051B (en) A kind of method and electronic equipment obtaining voice signal
WO2014025041A1 (en) Device and method for pronunciation allocation
JP6520162B2 (en) Accompaniment teaching device and accompaniment teaching program
JP4131279B2 (en) Ensemble parameter display device
JP4259533B2 (en) Performance system, controller used in this system, and program
JP2003288077A (en) Music data output system and program
JP7467907B2 (en) Program, method, electronic device, and performance data display system
JP4259532B2 (en) Performance control device and program
JP5847048B2 (en) Piano roll type score display apparatus, piano roll type score display program, and piano roll type score display method
JP2003015672A (en) Karaoke device having range of voice notifying function
US10805475B2 (en) Resonance sound signal generation device, resonance sound signal generation method, non-transitory computer readable medium storing resonance sound signal generation program and electronic musical apparatus
JP4180548B2 (en) Karaoke device with vocal range notification function
JP5969421B2 (en) Musical instrument sound output device and musical instrument sound output program
JP6582517B2 (en) Control device and program
JP7070538B2 (en) Programs, methods, electronic devices, and performance data display systems
JP2007279696A (en) Concert system, controller and program
JP2023138655A (en) Information processing apparatus, method, and program
JPH1185174A (en) Karaoke sing-along machine which enables a user to play accompaniment music
JP2005182091A (en) Playing signal processor and program
KR101321446B1 (en) Lyrics displaying method using voice recognition
JP6196571B2 (en) Performance device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221213

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240318

R150 Certificate of patent or registration of utility model

Ref document number: 7467907

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150