JP7467907B2 - Program, method, electronic device, and performance data display system - Google Patents

Program, method, electronic device, and performance data display system Download PDF

Info

Publication number
JP7467907B2
JP7467907B2 JP2019231922A JP2019231922A JP7467907B2 JP 7467907 B2 JP7467907 B2 JP 7467907B2 JP 2019231922 A JP2019231922 A JP 2019231922A JP 2019231922 A JP2019231922 A JP 2019231922A JP 7467907 B2 JP7467907 B2 JP 7467907B2
Authority
JP
Japan
Prior art keywords
image
performance
information
performance data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019231922A
Other languages
Japanese (ja)
Other versions
JP2021099459A (en
Inventor
滋 加福
広子 奥田
敦 渋谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2019231922A priority Critical patent/JP7467907B2/en
Publication of JP2021099459A publication Critical patent/JP2021099459A/en
Application granted granted Critical
Publication of JP7467907B2 publication Critical patent/JP7467907B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

実施形態は、プログラム、方法、電子機器、及び演奏データ表示システムに関する。 The embodiments relate to a program, a method, an electronic device, and a performance data display system.

例えば、MIDI(Musical Instrument Digital Interface)楽曲のような音楽の演奏に同期して踊り手(ダンサ)等の画像オブジェクトを動かし、音楽の曲想のみならず、楽音の進行に応じてこれと一体的に変化する動画像を生成することができるコンピュータグラフィックス動画像生成システムが知られている(特許文献1参照)。 For example, a computer graphics moving image generation system is known that can move image objects such as dancers in sync with the performance of music such as MIDI (Musical Instrument Digital Interface) pieces, and generate moving images that not only match the ideas of the music, but also change in unison with the progression of the musical notes (see Patent Document 1).

特開平11-224084号公報Japanese Patent Application Laid-Open No. 11-224084

特許文献1に開示されたコンピュータグラフィックス動画像生成システムでは、単に演奏中に踊り手を示すキャラクタを動的に出現させているだけなので、表現力が乏しいという問題がある。 The computer graphics moving image generation system disclosed in Patent Document 1 has the problem of lacking expressiveness, as it simply dynamically creates characters representing dancers during a performance.

本発明は、このような事情に鑑みなされたものであり、例えば、演奏の視覚的な表現力に優れたプログラム、方法、電子機器、及び演奏データ表示システムを提供することを目的とする。 The present invention has been made in consideration of these circumstances, and aims to provide, for example, a program, a method, an electronic device, and a performance data display system that have excellent visual expressiveness of a performance.

実施形態に係るプログラムによれば、情報処理装置のコンピュータに、入力された演奏データが、少なくとも第1機器及び第2機器のいずれから入力された演奏データであるかを判定させ、前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報に応じて、第1画像グループのなかに含まれる第1画像データを表示させ、前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報が、たとえ前記第1機器と判定された場合と同じであったとしても、第2画像グループのなかに含まれる、前記第1画像データとは異なる態様の第2画像データを表示させ、前記第1画像グループ及び前記第2画像グループのなかには、同じ画像データが含まれていてもよい According to the program of the embodiment, the computer of the information processing device determines whether the input performance data is input from at least a first device or a second device, and if it is determined that the device is the first device, displays first image data contained in a first image group according to information that can be determined based on the input performance data, and if it is determined that the device is the second device, displays second image data contained in a second image group and having a different aspect from the first image data, even if the information that can be determined based on the input performance data is the same as when the device is determined to be the first device, and the first image group and the second image group may contain the same image data .

本発明によれば、例えば、演奏の視覚的な表現力に優れたプログラム、方法、電子機器、及び演奏データ表示システムを提供することができる。 The present invention can provide, for example, a program, a method, an electronic device, and a performance data display system that provide excellent visual expression of a performance.

図1は、適用例に係るプログラムを含む演奏データ表示システムの一例を模式的に例示する図である。FIG. 1 is a diagram illustrating an example of a performance data display system including a program according to an embodiment of the present invention. 図2は、実施形態に係る演奏データ表示システムの概要を示す図である。FIG. 2 is a diagram showing an overview of the performance data display system according to the embodiment. 図3は、実施形態に係る電子楽器の制御システムのハードウェアを示す図である。FIG. 3 is a diagram showing hardware of a control system for an electronic musical instrument according to an embodiment. 図4は、実施形態に係る情報処理装置のハードウェアを示す図である。FIG. 4 is a diagram illustrating hardware of the information processing apparatus according to the embodiment. 図5は、ROMのテーブルに、記憶されているテーブルの一例を示す図である。FIG. 5 is a diagram showing an example of a table stored in the ROM. 図6は、画像(キャラクタ)の表示例について示した図である。FIG. 6 is a diagram showing an example of a display of an image (character). 図7は、ディスプレイ装置の表示部に表示されるリアルタイム画像における画像(キャラクタ)の軌道パターンの一例について示した図である。FIG. 7 is a diagram showing an example of a trajectory pattern of an image (character) in a real-time image displayed on the display unit of a display device. 図8は、画像決定部が生成する軌道パターンの一例である渦巻線を示す図である。FIG. 8 is a diagram showing a spiral line as an example of a trajectory pattern generated by the image determination unit. 図9は、情報処理装置に接続される楽器の接続ケースを示した表である。FIG. 9 is a table showing connection cases of musical instruments that can be connected to an information processing device. 図10は、情報処理装置の動作を示すフローチャートである。FIG. 10 is a flowchart showing the operation of the information processing device. 図11は、第1ユーザがメロディを弾いている場合における、リアルタイム画像を示している。FIG. 11 shows a real-time image when the first user is playing a melody.

図12は、第1及び第2ユーザが曲の演奏を終了した後の演奏後画像を示している。FIG. 12 shows a post-performance image after the first and second users have finished playing the song. 図13は、4つの楽器を情報処理装置に接続する場合におけるリアルタイム画像の一例を示した図である。FIG. 13 is a diagram showing an example of a real-time image when four musical instruments are connected to an information processing device. 図14は、3つ以上の楽器を情報処理装置に接続する場合におけるリアルタイム画像の一例を示した図である。FIG. 14 is a diagram showing an example of a real-time image when three or more musical instruments are connected to the information processing device. 図15は、情報処理装置の動作を示すフローチャートである。FIG. 15 is a flowchart showing the operation of the information processing device. 図16は、図15に関するリアルタイム画像の一例を示した図である。FIG. 16 is a diagram showing an example of a real-time image related to FIG.

以下、本発明の一側面に係る実施の形態(以下、「実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。 Below, an embodiment (hereinafter also referred to as "embodiment") relating to one aspect of the present invention will be described with reference to the drawings. However, the embodiment described below is merely an example of the present invention in every respect. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention. In other words, in implementing the present invention, a specific configuration according to the embodiment may be appropriately adopted. Note that while the data appearing in the embodiment is described in natural language, more specifically, it is specified in pseudo-language, commands, parameters, machine language, etc. that can be recognized by a computer.

<0>適用例
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、適用例に係るプログラムを含む演奏データ表示システムの一例を模式的に例示する。演奏データ表示システムは、ユーザ(演奏者)の演奏(音楽)に合わせてリアルタイムに画像(絵)を描画することにより、ユーザの電子楽器の練習意欲を掻き立てることを想定している。
<0> Application Example First, an example of a situation in which the present invention is applied will be described with reference to Fig. 1. Fig. 1 shows a schematic example of a performance data display system including a program according to the application example. The performance data display system is intended to stimulate the user's motivation to practice an electronic musical instrument by drawing images (pictures) in real time in sync with the performance (music) of the user (performer).

<0-1>適用例の概要
演奏データ表示システムの構成を説明する前に、演奏データ表示システムの概要について説明する。演奏データ表示システムは、例えば複数のユーザの演奏を演奏データ(例えばMIDIデータ)として出力できる電子楽器等から受信した演奏データを解析し、複数のユーザの演奏を画像に変換する。例えば、演奏データには音名情報やコード種別情報は含まれておらず、演奏データに含まれるノートナンバー情報から音名情報やコード種別情報が判定できる。
<0-1> Overview of application examples
Before describing the configuration of the performance data display system, an overview of the performance data display system will be described. The performance data display system analyzes performance data received from, for example, an electronic musical instrument capable of outputting performances by multiple users as performance data (e.g., MIDI data), and converts the performances by the multiple users into images. For example, the performance data does not include note name information or chord type information, and the note name information and chord type information can be determined from the note number information included in the performance data.

<0-2>適用例の構成
図1を参照して、適用例の構成について説明する。図1は、適用例に係る演奏データ表示システムの構成の一例を示した図である。
<0-2> Configuration of the Application Example The configuration of the application example will be described with reference to Fig. 1. Fig. 1 is a diagram showing an example of the configuration of a performance data display system according to the application example.

図1に示すように、演奏データ表示システムは、第1楽器と、第2楽器と、情報処理装置と、ディスプレイ装置と、を含む。 As shown in FIG. 1, the performance data display system includes a first musical instrument, a second musical instrument, an information processing device, and a display device.

第1楽器は、第1ユーザの演奏を演奏データ(例えばMIDIデータ)に変換する。そして、その第1楽器は、演奏データを情報処理装置に出力する。 The first musical instrument converts the performance of the first user into performance data (e.g., MIDI data). The first musical instrument then outputs the performance data to the information processing device.

より具体的には、第1楽器は、第1ユーザによる演奏操作に応じて第1楽器を識別可能な第1識別子(例えば、MIDIの第1チャンネル番号)を含む第1演奏データを生成するとともに、生成された第1演奏データを情報処理装置に出力する。第1楽器は、例えば、キーボード、電子ピアノ、エレキギター、または電子バイオリン等の電子楽器である。ただし、第1楽器は、上述したものに限らず、実施の形態に応じて適宜選択されてよい。 More specifically, the first instrument generates first performance data including a first identifier (e.g., a first MIDI channel number) capable of identifying the first instrument in response to a performance operation by the first user, and outputs the generated first performance data to the information processing device. The first instrument is, for example, an electronic instrument such as a keyboard, an electronic piano, an electric guitar, or an electronic violin. However, the first instrument is not limited to those described above, and may be appropriately selected depending on the embodiment.

第2楽器は、第2ユーザの演奏を演奏データ(例えばMIDIデータ)に変換する。そして、その第2楽器は、演奏データを情報処理装置に出力する。 The second musical instrument converts the performance of the second user into performance data (e.g., MIDI data). The second musical instrument then outputs the performance data to the information processing device.

より具体的には、第2楽器は、第2ユーザによる演奏操作に応じて第2楽器を識別可能な第2識別子を含む第2演奏データを生成するとともに、生成された第2演奏データを情報処理装置に出力する。第2楽器は、例えば、電子楽器、ボーカルマイク、またはアコースティックピアノ等である。ただし、第2楽器は、上述したものに限らず、実施の形態に応じて適宜選択されてよい。 More specifically, the second instrument generates second performance data including a second identifier capable of identifying the second instrument in response to a performance operation by the second user, and outputs the generated second performance data to the information processing device. The second instrument is, for example, an electronic instrument, a vocal microphone, or an acoustic piano. However, the second instrument is not limited to those described above, and may be appropriately selected depending on the embodiment.

情報処理装置は、入力された演奏データが、少なくとも第1楽器及び第2楽器のいずれから入力された演奏データであるかを判定する。また、情報処理装置は、入力された演奏データが第1機器からの演奏データであると判定した場合に、入力された演奏データに基づいて判定できる情報(例えば、音名、コード種別等)に応じて、第1画像(キャラクタ)データを出力する。また、情報処理装置は、入力された演奏データが第2機器からの演奏データであると判定した場合に、入力された演奏データに基づいて判定できる情報(例えば、音名、コード種別等)が、たとえ第1演奏データに基づいて判定できる情報と同じあったとしても、第1画像データとは異なる態様の第2画像データ(キャラクタ)を出力する。情報処理装置は、例えば、PC(パーソナルコンピュータ)である。なお、「設定」、または「登録」は、基本的には「記憶」と同様の意味である。 The information processing device determines whether the input performance data is input from at least a first instrument or a second instrument. If the information processing device determines that the input performance data is from the first device, it outputs first image (character) data according to information that can be determined based on the input performance data (e.g., note name, chord type, etc.). If the information processing device determines that the input performance data is from the second device, it outputs second image data (character) in a manner different from the first image data, even if the information that can be determined based on the input performance data (e.g., note name, chord type, etc.) is the same as the information that can be determined based on the first performance data. The information processing device is, for example, a PC (personal computer). Note that "setting" or "registration" basically has the same meaning as "storing".

ディスプレイ装置は、第1ユーザの演奏に基づく画像と、第2ユーザの演奏に基づく画像と、を表示部にて表示する。上述したように、第1ユーザの演奏に基づく画像は、第1画像グループに基づき生成されており、第2ユーザの演奏に基づく画像は、第2画像グループに基づき生成されている。そのため、第1ユーザの演奏に基づく画像と、第2ユーザの演奏に基づく画像と、を判定することが可能である。 The display device displays an image based on the performance of the first user and an image based on the performance of the second user on the display unit. As described above, the image based on the performance of the first user is generated based on the first image group, and the image based on the performance of the second user is generated based on the second image group. Therefore, it is possible to distinguish between the image based on the performance of the first user and the image based on the performance of the second user.

<0-3>適用例の動作
次に、適用例に係る演奏データ表示システムの動作の一例について説明する。
<0-3> Operation of the Application Example Next, an example of the operation of the performance data display system according to the application example will be described.

第1ユーザが第1楽器を用いて演奏を開始すると、情報処理装置は入力された演奏データに含まれる情報から、第1楽器からの演奏データ(第1演奏データ)であると判定する。そして、情報処理装置は、第1楽器の演奏に対して音楽解析を行う。具体的には、情報処理装置は、第1演奏データに含まれる音名(またはコード)に応じて、第1画像グループ(例えば虫のキャラクタを複数含むキャラクタグループ)のなかに含まれる画像(例えばかぶとむしのキャラクタ)を決定し、設定された第1条件(例えばコード進行に応じた表示)に従った軌道に沿って、リアルタイムに描画する。これにより、ディスプレイ装置には、第1画像グループのなかに含まれる画像(キャラクタ)がリアルタイムに表示される。なお、ここでの「リアルタイム」とは、演奏のタイミングと画像(キャラクタ)の表示タイミングと、は必ずしも同タイミングである必要はない。また、演奏に合わせて画像(キャラクタ)が表示される画像を、例えばリアルタイム画像と記載しても良い。つまり、リアルタイム画像の中に、複数の画像(キャラクタ)が描画されることになる。リアルタイム画像の描画方法については後述する。 When the first user starts playing using the first musical instrument, the information processing device determines from the information included in the input performance data that the data is performance data from the first musical instrument (first performance data). The information processing device then performs a musical analysis on the performance of the first musical instrument. Specifically, the information processing device determines an image (e.g., a beetle character) included in a first image group (e.g., a character group including multiple insect characters) according to the note name (or chord) included in the first performance data, and draws the image in real time along a trajectory according to the set first condition (e.g., display according to chord progression). As a result, the image (character) included in the first image group is displayed in real time on the display device. Note that "real time" here does not necessarily mean that the timing of the performance and the timing of the display of the image (character) are the same. In addition, an image in which an image (character) is displayed in accordance with the performance may be described as a real-time image, for example. In other words, multiple images (characters) are drawn in the real-time image. The method of drawing the real-time image will be described later.

第2ユーザが第2楽器を用いて演奏を開始すると、情報処理装置は入力された演奏データに含まれる情報から、第2楽器からの演奏データ(第2演奏データ)であると判定する。そして、情報処理装置は、第2楽器の演奏に対して音楽解析を行う。具体的には、情報処理装置は、第2演奏データに含まれる音名(またはコード)に応じて、第2画像グループ(例えば動物のキャラクタを複数含むキャラクタグループ)のなかに含まれる画像(例えば、きりんのキャラクタ)を決定し、設定された第1条件(例えばコード進行に応じた表示)に従った軌道に沿って、リアルタイムに描画する。これにより、ディスプレイ装置には、第2画像グループのなかに含まれる画像(キャラクタ)がリアルタイムに表示される。 When the second user starts playing using the second instrument, the information processing device determines from information included in the input performance data that the performance data is from the second instrument (second performance data). The information processing device then performs a musical analysis on the performance of the second instrument. Specifically, the information processing device determines an image (e.g., a giraffe character) included in a second image group (e.g., a character group including multiple animal characters) according to the note name (or chord) included in the second performance data, and draws it in real time along a trajectory according to the set first condition (e.g., display according to a chord progression). As a result, the image (character) included in the second image group is displayed in real time on the display device.

このように、情報処理装置は、リアルタイム画像として、第1ユーザの演奏に基づく画像と、第2ユーザの演奏に基づく画像と、を判定できるように描画する。 また、第1ユーザ及び第2ユーザが楽器の演奏を終了した後、情報処理装置は設定された第2条件(例えば渦巻表示)に従って、ディスプレイ装置に画像データを表示させる。なお、このような画像を、例えば演奏後画像と記載しても良い。この演奏後画像としては、第1ユーザ及び第2ユーザユーザの演奏の始めから終わりまでに解析された画像(キャラクタ)が第2条件(例えば渦巻表示)に従って、描画される画像である。この際、リアルタイム画像と同様に、情報処理装置は、演奏後画像として、第1ユーザの演奏に基づく画像と、第2ユーザの演奏に基づく画像と、を判定できるように描画する。 In this way, the information processing device draws the real-time image so that it is possible to distinguish between an image based on the performance of the first user and an image based on the performance of the second user. After the first and second users finish playing the musical instruments, the information processing device displays the image data on the display device according to the set second condition (e.g., a spiral display). Such an image may be described as, for example, a post-performance image. The post-performance image is an image in which an image (character) analyzed from the beginning to the end of the performance of the first and second users is drawn according to the second condition (e.g., a spiral display). At this time, similar to the real-time image, the information processing device draws the post-performance image so that it is possible to distinguish between an image based on the performance of the first user and an image based on the performance of the second user.

<0-4>適用例の効果
以上のように、適用例に係る演奏データ表示システムによれば、第1ユーザ、及び第2ユーザの演奏を判定し、表示する画像のグループを変更できる。換言すると、適用例に係る演奏データ表示システムによれば、第1ユーザ、及び第2ユーザの演奏中に、演奏と無関係な特有な操作を行うことなく、画像に関する設定(描画設定)を適宜行う事ができる。そのため、演奏データ表示システムは、第1ユーザ、及び第2ユーザが演奏に集中したまま、表現力の高い画像を生成することができる。
<0-4> Effects of the Application Example As described above, the performance data display system according to the application example can determine the performances of the first and second users and change the group of images to be displayed. In other words, the performance data display system according to the application example can appropriately configure settings (drawing settings) related to images while the first and second users are playing, without performing specific operations unrelated to the performance. Therefore, the performance data display system can generate highly expressive images while the first and second users remain focused on their performance.

<1>実施形態
<1-1>構成
<1-1-1>演奏データ表示システム
以下、図2を参照して、実施形態に係る演奏データ表示システムについて説明する。
<1> Embodiment <1-1> Configuration <1-1-1> Performance Data Display System Hereinafter, a performance data display system according to an embodiment will be described with reference to FIG.

図2は、実施形態に係る演奏データ表示システムの概要を示す図である。 Figure 2 shows an overview of the performance data display system according to the embodiment.

図2に示すように、演奏データ表示システムは、例えば情報処理装置(電子機器)1と、電子楽器2(例えば2(0)、及び2(1))と、スピーカ3と、ディスプレイ装置4と、MIDIパッチャ(MIDIパッチベイ)5と、ボーカルマイク6と、アコースティックピアノ7と、オーディオインタフェース8と、を備えている。 As shown in FIG. 2, the performance data display system includes, for example, an information processing device (electronic device) 1, an electronic musical instrument 2 (e.g., 2(0) and 2(1)), a speaker 3, a display device 4, a MIDI patcher (MIDI patch bay) 5, a vocal microphone 6, an acoustic piano 7, and an audio interface 8.

なお、図2では、一例として、2つの電子楽器2と、ボーカルマイク6と、アコースティックピアノ7と、を示しているが、これは一例である。少なくとも二つの楽器があれば良い。また、本実施形態では、電子楽器2、ボーカルマイク6、及びアコースティックピアノ7をまとめて楽器として取り扱う。 Note that in FIG. 2, two electronic musical instruments 2, a vocal microphone 6, and an acoustic piano 7 are shown as an example, but this is just an example. At least two musical instruments are required. In this embodiment, the electronic musical instruments 2, the vocal microphone 6, and the acoustic piano 7 are collectively treated as musical instruments.

<1-1-2>電子楽器
以下、図2及び図3を参照して、実施形態に係る電子楽器について説明する。図3は、実施形態に係る電子楽器の制御システムのハードウェアを示す図である。
<1-1-2> Electronic Musical Instrument The electronic musical instrument according to the embodiment will now be described with reference to Figures 2 and 3. Figure 3 is a diagram showing the hardware of a control system for the electronic musical instrument according to the embodiment.

図2及び図3に示すように、本実施形態の情報処理装置1が接続される電子楽器2は、例えば、電子ピアノ、シンセサイザーや電子オルガン等の電子鍵盤楽器である。 As shown in Figures 2 and 3, the electronic musical instrument 2 to which the information processing device 1 of this embodiment is connected is, for example, an electronic keyboard instrument such as an electronic piano, synthesizer, or electronic organ.

電子楽器2は、複数の鍵11と、表示部20と、操作部30と、発音部40と、を備えている。 The electronic musical instrument 2 includes a plurality of keys 11, a display unit 20, an operation unit 30, and a sound generating unit 40.

また、電子楽器2は、図3に示すように、押鍵検出部50と、記憶部60と、制御部70と、通信部80と、を備えている。 As shown in FIG. 3, the electronic musical instrument 2 also includes a key press detection unit 50, a memory unit 60, a control unit 70, and a communication unit 80.

鍵11は、演奏者が音高を指定する操作子であり、演奏者が鍵11を押鍵及び離鍵することで、電子楽器2は、指定された音高に対応する音の発音及び消音を行う。 The key 11 is an operator that allows the performer to specify a pitch, and when the performer presses and releases the key 11, the electronic musical instrument 2 produces and mutes a sound corresponding to the specified pitch.

表示部20は、例えば、タッチパネル付きの液晶モニタを有し、演奏者の操作部30の操作に伴うメッセージの表示等を行う部分である。 The display unit 20 has, for example, a liquid crystal monitor with a touch panel, and is a part that displays messages in response to the player's operation of the operation unit 30.

なお、本実施形態では、表示部20がタッチパネル機能を有しているため、表示部20は、操作部30の一端を担うことができるようになっている。 In this embodiment, the display unit 20 has a touch panel function, so the display unit 20 can function as part of the operation unit 30.

操作部30は、演奏者が各種の設定等を行う操作ボタンを有し、音量調整等の各種の設定操作等を行うための部分である。 The operation unit 30 has operation buttons that allow the performer to perform various settings, such as adjusting the volume.

発音部40は、音を出力する部分であり、SPアンプ41(スピーカーアンプ)と、スピーカ42と、HPアンプ43(ヘッドホンアンプ)と、スピーカ3(またはヘッドホン)のプラグを差し込むHPジャック44(ヘッドホンジャック)と、HPジャック44にスピーカ3(またはヘッドホン)のプラグが差し込まれたことを検知するHPジャック挿入検出部45と、を有している。 The sound output unit 40 is a part that outputs sound, and has an SP amplifier 41 (speaker amplifier), a speaker 42, an HP amplifier 43 (headphone amplifier), an HP jack 44 (headphone jack) into which the speaker 3 (or headphones) is plugged, and an HP jack insertion detection unit 45 that detects that the speaker 3 (or headphones) is plugged into the HP jack 44.

スピーカ3(またはヘッドホン)のプラグがHPジャック44に挿入されると、HPジャック挿入検出部45がその挿入を検出して、音の出力がHPジャック側に行われ、逆に、HPジャック挿入検出部45がプラグの挿入を検知していないときには、音の出力がスピーカ42側に行われる。 When the speaker 3 (or headphone) plug is inserted into the HP jack 44, the HP jack insertion detection unit 45 detects the insertion and sound is output to the HP jack side, and conversely, when the HP jack insertion detection unit 45 does not detect the insertion of a plug, sound is output to the speaker 42 side.

なお、スピーカ3の代わりに発音部40を用いても良い。 In addition, a sound generating unit 40 may be used instead of the speaker 3.

押鍵検出部50は、鍵11の押鍵及び離鍵を検知する部分であり、例えば、各鍵11の下側にラバースイッチが設けられ、そのラバースイッチによって、押鍵及び離鍵が検出される。 The key press detection unit 50 is a part that detects the pressing and releasing of the keys 11. For example, a rubber switch is provided on the underside of each key 11, and the pressing and releasing of the keys are detected by the rubber switch.

記憶部60は、読み取り専用の記憶部であるROM61と、読み書きが可能な記憶部であるRAM62と、を備えている。 The memory unit 60 includes a ROM 61, which is a read-only memory unit, and a RAM 62, which is a readable and writable memory unit.

ROM61は、例えば、制御部70が実行する制御プログラム(例えば、レッスンモードプログラム用のプログラム等)や各種データテーブル等を記憶している。 The ROM 61 stores, for example, control programs executed by the control unit 70 (e.g., programs for lesson mode programs, etc.) and various data tables, etc.

RAM62は、それぞれの鍵11に対応した楽音データ、楽曲データ等のデータが記憶される記憶領域であるとともに、演奏中に制御部70が生成するデータや制御用プログラムを展開させるための一時記憶領域としても機能する。 RAM 62 is a storage area in which data such as musical tone data and song data corresponding to each key 11 is stored, and also functions as a temporary storage area for expanding data and control programs generated by the control unit 70 during performance.

制御部70は、電子楽器2全体の制御を司る部分である。制御部70は、例えばLSI(Large Scale Integration)である。 The control unit 70 is responsible for controlling the entire electronic musical instrument 2. The control unit 70 is, for example, an LSI (Large Scale Integration).

そして、制御部70は、例えば、鍵11の押鍵に応じて楽音を発音部40から発音させる制御や鍵11の離鍵に応じて発音部40から発音されている楽音を消音する制御等を行う。 The control unit 70 then performs control such as, for example, causing the sound generation unit 40 to generate a musical tone in response to pressing of the key 11, and controlling the sound generation unit 40 to mute a musical tone in response to releasing of the key 11.

通信部80は、外部機器との間で通信を行うための無線ユニットや有線ユニットを備えており、本実施形態では、情報処理装置1が有線接続されており、後ほど説明するように、情報処理装置1にデータの送信が行われる。 The communication unit 80 includes a wireless unit and a wired unit for communicating with external devices. In this embodiment, the information processing device 1 is connected via a wired connection, and data is transmitted to the information processing device 1, as described later.

ただし、通信部80は、送信機能だけを行うものに限定される必要はなく、受信機能を併せ持っていてもよい。 However, the communication unit 80 does not need to be limited to only performing a transmission function, and may also have a receiving function.

そして、上記で説明した各部(表示部20、操作部30、発音部40、押鍵検出部50、記憶部60、制御部70、及び通信部80)は、バス100で通信可能に接続されており、各部間で必要なデータのやり取りが行えるようになっている。 The above-described components (display unit 20, operation unit 30, sound output unit 40, key press detection unit 50, memory unit 60, control unit 70, and communication unit 80) are connected via bus 100 for communication, allowing necessary data to be exchanged between the components.

<1-1-3>MIDIパッチャ
次にMIDIパッチャ(MIDIパッチベイ)5について説明する。
<1-1-3> MIDI Patcher Next, the MIDI patcher (MIDI patch bay) 5 will be described.

MIDIパッチャ5とは、MIDI信号の経路をかえる機器である。 MIDI Patcher 5 is a device that changes the path of MIDI signals.

具体的には、MIDIパッチャには、MIDI IN端子と、MIDI OUT端子がペアになって複数個用意されており、それぞれに番号が付いている。MIDIパッチャは、スイッチ等で操作することにより、複数のMIDI機器の接続を自在に切り換えることができる。 Specifically, the MIDI Patcher has multiple pairs of MIDI IN and MIDI OUT terminals, each of which is numbered. The MIDI Patcher can freely switch between multiple MIDI devices by operating switches, etc.

図2の場合、MIDIパッチャ5は、二つの電子楽器2が接続された場合、二つの電子楽器2のMIDI信号を情報処理装置1に転送する。 In the case of FIG. 2, when two electronic musical instruments 2 are connected, the MIDI patcher 5 transfers the MIDI signals of the two electronic musical instruments 2 to the information processing device 1.

<1-1-4>ボーカルマイク
次にボーカルマイク6について説明する。
<1-1-4> Vocal Microphone Next, the vocal microphone 6 will be described.

ボーカルマイク6は、ボーカルや生楽器の音を収集するための機器である。より具体的には、ボーカルマイク6は、音(空気の振動)を電気の信号に変換する。なお、ボーカルマイク6の例としては、ダイナミックマイク(電源不必要)、またはコンデンサーマイク(電源必要)等がある。 The vocal microphone 6 is a device for collecting vocals and the sound of live musical instruments. More specifically, the vocal microphone 6 converts sound (air vibrations) into an electrical signal. Examples of vocal microphones 6 include a dynamic microphone (no power supply required) and a condenser microphone (power supply required).

<1-1-5>アコースティックピアノ
次にアコースティックピアノ7について説明する。
<1-1-5> Acoustic Piano Next, the acoustic piano 7 will be described.

アコースティックピアノ7は、電気的なスピーカを使わず、奏者が鍵盤を押すとハンマーが弦を叩いて振動し、その振動が響板、さらにボディ全体へと伝わって音が鳴る楽器である。図示していないが、アコースティックピアノ7の音を電気の信号に変換する際には、ボーカルマイク6と同様の機器を介する必要がある。 Acoustic piano 7 is an instrument that does not use electric speakers. When the player presses the keys, the hammers strike the strings, causing them to vibrate. The vibrations are then transmitted to the soundboard and then to the entire body, producing sound. Although not shown, the sound of acoustic piano 7 needs to go through a device similar to vocal microphone 6 to be converted into an electrical signal.

<1-1-6>オーディオインタフェース
次に、オーディオインタフェース8について説明する。
<1-1-6> Audio Interface Next, the audio interface 8 will be described.

ところで、ボーカルやアコースティックピアノなどの音(アナログ信号といいます)を、情報処理装置1で扱う際には、デジタル信号に変換する必要がある。オーディオインタフェース8では、アナログ信号をデジタル信号に変換(AD変換)することができる機器である。そのため、オーディオインタフェース8を用いる事で、ボーカルマイク6、または、アコースティックピアノ7からのアナログ信号を、デジタル信号に変換し、情報処理装置1に供給することができる。 When sounds such as vocals or acoustic piano (called analog signals) are handled by the information processing device 1, they need to be converted into digital signals. The audio interface 8 is a device that can convert analog signals into digital signals (AD conversion). Therefore, by using the audio interface 8, the analog signal from the vocal microphone 6 or acoustic piano 7 can be converted into a digital signal and supplied to the information processing device 1.

<1-1-7>情報処理装置
続いて、図2及び図4を参照して、情報処理装置について説明する。図4は、実施形態に係る情報処理装置のハードウェアを示す図である。
<1-1-7> Information Processing Device Next, the information processing device will be described with reference to Fig. 2 and Fig. 4. Fig. 4 is a diagram showing hardware of the information processing device according to the embodiment.

情報処理装置1は、本実施形態では、図2に示すように、PCであり、後述するような画像をディスプレイ装置4に表示させるためのアプリケーションがインストールされている。 In this embodiment, the information processing device 1 is a PC as shown in FIG. 2, and an application for displaying images on the display device 4, as described below, is installed on the information processing device 1.

ただし、情報処理装置1は、PCに限定される必要はなく、タブレット型の携帯端末等であってもよい。 However, the information processing device 1 does not need to be limited to a PC and may be a tablet-type mobile terminal, etc.

また、情報処理装置1は、電子楽器2からMIDIコードを受信して曲データを再生させるシーケンサ等を備えていてもよい。 The information processing device 1 may also include a sequencer that receives MIDI codes from the electronic musical instrument 2 and plays back music data.

図4に示すように、情報処理装置1は、主に、操作部101と、表示部102と、通信部103と、音出力部104と、制御部105と、記憶部106と、を備えている。 As shown in FIG. 4, the information processing device 1 mainly includes an operation unit 101, a display unit 102, a communication unit 103, a sound output unit 104, a control unit 105, and a memory unit 106.

操作部101は、例えば、情報処理装置1の電源のON/OFFを行うための電源スイッチ等のスイッチ類を含む。 The operation unit 101 includes, for example, switches such as a power switch for turning the power of the information processing device 1 on and off.

表示部102は、液晶モニタを有し、画像を表示できる。表示部102は、タッチパネル機能を有しても良い。その場合、表示部102は、操作部101の一端を担うことができる。なお、ディスプレイ装置4の代わりに表示部102を用いても良い。 The display unit 102 has a liquid crystal monitor and can display images. The display unit 102 may have a touch panel function. In that case, the display unit 102 can function as part of the operation unit 101. The display unit 102 may be used instead of the display device 4.

通信部103は、他の機器等との間で通信を行うための無線ユニットや有線ユニットを備えている。通信部103は、例えば電子楽器2、またはオーディオインタフェース8からのデータを受信する。また、通信部103は、例えばディスプレイ装置4の通信部に有線接続され、ディスプレイ装置4にデータを送信する。 The communication unit 103 includes a wireless unit or a wired unit for communicating with other devices. The communication unit 103 receives data from, for example, the electronic musical instrument 2 or the audio interface 8. The communication unit 103 is also connected by wire to, for example, the communication unit of the display device 4, and transmits data to the display device 4.

音出力部104は、音を出力する部分であり、スピーカやイヤホンジャック等を有している。 The sound output unit 104 is the part that outputs sound and has a speaker, earphone jack, etc.

記憶部106は、読み取り専用の記憶部である読み書きが可能な記憶部であるRAM(Random Access Memory)1061と、ROM(Read Only Memory)1062と、を備えている。 The memory unit 106 includes a RAM (Random Access Memory) 1061, which is a read-only memory unit that can be read and written, and a ROM (Read Only Memory) 1062.

RAM1061は、揮発性メモリを含み、制御プログラムを動作させる上で必要なデータが記憶される記憶領域であるとともに、制御部105が生成するデータ、電子楽器2から送られたデータ(音高情報を含む演奏情報)、及び、アプリケーションを展開させるための一時記憶領域等としても機能する。 RAM 1061 includes volatile memory and is a storage area in which data necessary to operate the control program is stored, and also functions as a temporary storage area for storing data generated by the control unit 105, data sent from the electronic musical instrument 2 (performance information including pitch information), and applications.

ROM1062は、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(登録商標)(Electrically Erasable Programmable ROM)といった不揮発性の半導体メモリであって、いわゆる二次記憶装置又は補助記憶装置としての役割を担う。 ROM 1062 is a non-volatile semiconductor memory such as a flash memory, an EPROM (Erasable Programmable Read Only Memory), or an EEPROM (registered trademark) (Electrically Erasable Programmable ROM), and serves as a so-called secondary storage device or auxiliary storage device.

ROM1062は、プログラム10621及びテーブル10622を記憶する。プログラム10621は、制御部105が各種処理を行うために使用する。テーブル10622は、演奏情報と画像とを紐付けしたテーブルである。 The ROM 1062 stores a program 10621 and a table 10622. The program 10621 is used by the control unit 105 to perform various processes. The table 10622 is a table that links performance information with images.

制御部105は、情報処理装置1全体の制御を司る部分である。制御部105は、例えばCPU(Central Processing Unit)を備える。制御部105は、記憶部106のROM1062に格納されたプログラム10621を読み出し、記憶部106のRAM1061をワークエリアとして用いることにより、情報処理装置1を統括制御する。 The control unit 105 is a part that controls the entire information processing device 1. The control unit 105 has, for example, a CPU (Central Processing Unit). The control unit 105 centrally controls the information processing device 1 by reading out a program 10621 stored in the ROM 1062 of the storage unit 106 and using the RAM 1061 of the storage unit 106 as a work area.

次に、実施形態に係る情報処理装置1の制御部105の機能構成について説明する。制御部105は、ROM1062に格納されたプログラム10621を読み出して実行することにより、演奏判定部1051と、画像決定部1052と、画像情報出力部1053と、条件判定部1054と、演奏終了判定部1055と、接続機器判定部1056と、として機能する。なお、演奏判定部1051と、画像決定部1052と、画像情報出力部1053と、条件判定部1054と、演奏終了判定部1055と、接続機器判定部1056と、は、それぞれプログラムではなく、回路構成によって実現されても良い。 Next, the functional configuration of the control unit 105 of the information processing device 1 according to the embodiment will be described. The control unit 105 reads and executes a program 10621 stored in the ROM 1062, thereby functioning as a performance judgment unit 1051, an image determination unit 1052, an image information output unit 1053, a condition judgment unit 1054, a performance end judgment unit 1055, and a connected device judgment unit 1056. Note that the performance judgment unit 1051, the image determination unit 1052, the image information output unit 1053, the condition judgment unit 1054, the performance end judgment unit 1055, and the connected device judgment unit 1056 may each be realized by a circuit configuration rather than a program.

接続機器判定部1056は、外部(電子楽器2、またはオーディオインタフェース8)から入力された演奏データが、少なくとも第1機器(例えば電子楽器2)及び第2機器(例えば電子楽器2、またはオーディオインタフェース8)のいずれから入力された演奏データであるかを判定する。 The connected device determination unit 1056 determines whether the performance data input from the outside (electronic musical instrument 2 or audio interface 8) is input from at least a first device (e.g., electronic musical instrument 2) or a second device (e.g., electronic musical instrument 2 or audio interface 8).

ところで、MIDIデータは、ポートの中を通って送信される。そして、このポートには、例えば16本の「チャンネル」が用意されている。音源は、1本のチャンネルにつき、1つのパートを再生することができる。そして、電子楽器2は、チャンネルを指定してMIDIデータを送信することができる。例えば、2つの電子楽器2が、異なるチャンネルを指定することで、接続機器判定部1056は、MIDIデータのチャネルから、二つの電子楽器2を判定することができる。 MIDI data is transmitted through a port. This port has, for example, 16 "channels" available. A sound source can play one part per channel. An electronic musical instrument 2 can specify a channel to transmit MIDI data. For example, if two electronic musical instruments 2 specify different channels, the connected device determination unit 1056 can determine the two electronic musical instruments 2 from the channel of the MIDI data.

また、オーディオインタフェース8からのデジタル信号と、MIDI信号は異なる。そのため、接続機器判定部1056は、電子楽器2からの演奏データと、オーディオインタフェース8からの演奏データを判定することができる。 In addition, the digital signal from the audio interface 8 and the MIDI signal are different. Therefore, the connected device determination unit 1056 can determine the performance data from the electronic musical instrument 2 and the performance data from the audio interface 8.

演奏判定部1051は、通信部103を介して電子楽器2から受け付けた演奏情報(演奏データ)に基づいて、曲の調性(例えば、ハ長調からロ短調の24種類)、音名(例えば、ド、レ、ミ…)、コード種別(例えば、Major、Mimor、Sus4、Aug、Dim、7th等)、ベロシティ値(MIDI規格において音の強弱を表す数値)、音長、シンコペーション、コード機能、及びコード進行を判定する。なお、曲の調性、音名、コード種別、ベロシティ値、音長、シンコペーション、コード機能、及びコード進行の判定方法は、どのようなものでも良い。 The performance determination unit 1051 determines the key of the song (e.g., 24 types from C major to B minor), note name (e.g., Do, Re, Mi...), chord type (e.g., Major, Mimor, Sus4, Aug, Dim, 7th, etc.), velocity value (a number that indicates the strength of a sound in the MIDI standard), note length, syncopation, chord function, and chord progression based on the performance information (performance data) received from the electronic musical instrument 2 via the communication unit 103. Note that any method may be used to determine the key of the song, note name, chord type, velocity value, note length, syncopation, chord function, and chord progression.

また、演奏判定部1051は、オーディオインタフェース8から受信したデジタル信号からピッチ抽出を行い、ピッチ情報から変換して得られたMIDI情報を基に音楽解析を行う。また、演奏判定部1051は、オーディオインタフェース8から受信したデジタル信号に対して多重音解析を行い、多重音解析を結果から変換して得られたMIDI情報を基に音楽解析を行う。なお、多重音解析で作られたMIDIは誤認識によるノイズが入る可能性があるため、誤認識により発生しやすい短いノートは無視する仕組みを入れても構わない。そして、演奏判定部1051は、電子楽器2から受信した信号と同様に、曲の調性、音名、コード種別、ベロシティ値、音長、シンコペーション、コード機能、及びコード進行を判定する。 The performance determination unit 1051 also extracts pitch from the digital signal received from the audio interface 8, and performs music analysis based on MIDI information obtained by converting the pitch information. The performance determination unit 1051 also performs multi-tone analysis on the digital signal received from the audio interface 8, and performs music analysis based on MIDI information obtained by converting the results of the multi-tone analysis. Note that since the MIDI created by multi-tone analysis may contain noise due to misrecognition, a mechanism may be included to ignore short notes that are likely to occur due to misrecognition. The performance determination unit 1051 then determines the tonality, note names, chord types, velocity values, note lengths, syncopation, chord functions, and chord progressions of the song, just like the signal received from the electronic musical instrument 2.

画像決定部1052は、接続機器判定部1056からの情報に基づき、どの楽器からデータを受信したかを判定できる。 The image determination unit 1052 can determine from which instrument the data was received based on information from the connected device determination unit 1056.

画像決定部1052は、電子楽器2から演奏情報を受け付ける毎に、演奏判定部1051により判定された情報に基づいて、画像グループ(キャラクタグループ)の中に含まれる何れかの画像データ(キャラクタ)を決定する。 Each time performance information is received from the electronic musical instrument 2, the image determination unit 1052 determines one of the image data (characters) included in the image group (character group) based on the information determined by the performance determination unit 1051.

ここで、図5を参照して、演奏判定部1051により判定された情報と、画像データとの関係について説明する。図5は、ROM1062のテーブル10622に、記憶されているテーブルの一例を示す図である。 Here, the relationship between the information determined by the performance determination unit 1051 and the image data will be described with reference to FIG. 5. FIG. 5 shows an example of a table stored in table 10622 of ROM 1062.

図5に示すように、テーブル10622には、例えば音名(ここでは、ド、レ、ミ、ファ、ソ、ラ、シの例)に対応して画像(キャラクタ)が設定された第1画像グループと、第2画像グループと、が記憶されている。画像決定部1052は、例えば第1楽器に第1画像グループが割り当てられ、第2楽器に第2画像グループが割り当てられる。また、テーブル10622には、これに限らず、他の音名(例えば、ド♯等)や、コード種別に応じた画像も記憶されていて良い。 As shown in FIG. 5, table 10622 stores a first image group and a second image group in which images (characters) are set corresponding to note names (here, examples are C, D, E, F, G, L, and S). The image determination unit 1052 assigns, for example, the first image group to a first instrument and the second image group to a second instrument. Furthermore, table 10622 is not limited to this, and images corresponding to other note names (e.g., C#) and chord types may also be stored.

例えば、画像決定部1052は、第1楽器から受信した第1演奏情報に含まれる音名が「ド」であると判定すると、テーブル10622の第1画像グループの「蝶」の画像(キャラクタ)を決定する。また、画像決定部1052は、第2楽器から受信した第2演奏情報に含まれる音名が「ミ」であると判定すると、テーブル10622の第2画像グループの「猿」の画像(キャラクタ)を決定する。 For example, when the image determination unit 1052 determines that the note name included in the first performance information received from the first instrument is "C", it determines the image (character) of "butterfly" in the first image group of the table 10622. When the image determination unit 1052 determines that the note name included in the second performance information received from the second instrument is "Mi", it determines the image (character) of "monkey" in the second image group of the table 10622.

ここで、図6を参照して、画像(キャラクタ)の表示方法について説明する。図6は、画像(キャラクタ)の表示例について示した図である。 Here, a method for displaying an image (character) will be described with reference to FIG. 6. FIG. 6 is a diagram showing an example of how an image (character) is displayed.

図6に示すように、テーブル10622に記憶されている画像(キャラクタ)は、例えば、基本形である。画像決定部1052は、演奏情報に含まれるベロシティ値に基づいて、ディスプレイ装置4に表示する画像(キャラクタ)のサイズを決定する。基本形のサイズは高さHB、幅WBと決まっている。そして、例えば、ベロシティ値に基づいて、高さHB、及び幅WBのパーセンテージを変更することで、高さHC、及び幅WCへと変更する。また、画像決定部1052は、ランダムに画像(キャラクタ)の基本形をR度回転させたり、左右反転させたり、色を変更しても良い。なお、ここでは詳細に記載しないが、画像決定部1052は、ここに示さない情報に基づいて、サイズ、回転、反転、または色を適宜変更しても良い。 As shown in FIG. 6, the image (character) stored in table 10622 is, for example, a basic shape. The image determination unit 1052 determines the size of the image (character) to be displayed on the display device 4 based on the velocity value included in the performance information. The size of the basic shape is determined as height HB and width WB. Then, for example, based on the velocity value, the height HB and width WB are changed to height HC and width WC by changing the percentage. The image determination unit 1052 may also randomly rotate the basic shape of the image (character) by R degrees, flip it left and right, or change the color. Although not described in detail here, the image determination unit 1052 may also change the size, rotation, flip, or color as appropriate based on information not shown here.

画像決定部1052は、リアルタイム画像を表示させる際において、演奏情報(例えばコード進行)に基づいて、ディスプレイ装置4の表示部において画像(キャラクタ)を配置する軌道パターン(第1条件)を決定する。軌道パターン(第1条件)は、例えばROM1062に記憶されている。 When displaying a real-time image, the image determination unit 1052 determines a trajectory pattern (first condition) for arranging an image (character) on the display unit of the display device 4 based on performance information (e.g., chord progression). The trajectory pattern (first condition) is stored, for example, in the ROM 1062.

ここで、図7を参照して、画像(キャラクタ)を表示する際の軌道パターンの一例について説明する。図7は、ディスプレイ装置4の表示部401に表示されるリアルタイム画像における画像(キャラクタ)の軌道パターンの一例について示した図である。図7では、二つの楽器(第1楽器、または第2楽器)に基づくリアルタイム画像を示している。 Now, referring to FIG. 7, an example of a trajectory pattern when displaying an image (character) will be described. FIG. 7 is a diagram showing an example of a trajectory pattern of an image (character) in a real-time image displayed on the display unit 401 of the display device 4. FIG. 7 shows a real-time image based on two instruments (a first instrument or a second instrument).

図7に示すように、第1楽器に関する軌道パターンの一例としては、リアルタイム画像の上半分(1st(U)を参照)、且つ矢印A1に沿った仮想の矢印上に画像(キャラクタ)が順に配置される。また、第2楽器に関する軌道パターンの一例としては、リアルタイム画像の下半分(1st(L)を参照)、且つ矢印A2に沿った仮想の矢印上に画像(キャラクタ)が順に配置される。 As shown in FIG. 7, an example of a trajectory pattern for a first instrument is where images (characters) are arranged in order on the upper half of the real-time image (see 1st (U)) and on a virtual arrow along arrow A1. An example of a trajectory pattern for a second instrument is where images (characters) are arranged in order on the lower half of the real-time image (see 1st (L)) and on a virtual arrow along arrow A2.

なお、軌道パターンの仮想の矢印(A1、A2)上に各画像(キャラクタ)の少なくとも一部が重なるように、各画像(キャラクタ)が配置される。 In addition, each image (character) is positioned so that at least a portion of each image (character) overlaps with the virtual arrows (A1, A2) of the trajectory pattern.

画像決定部1052は、ユーザの演奏後にディスプレイ装置4に表示させるための演奏後画像の軌道パターン(第2条件)を生成する。画像決定部1052は、それぞれの演奏情報に対応付けた画像(キャラクタ)を配置する軌道パターン(第2条件)を生成する。画像決定部1052は、演奏判定部1051が算出した演奏時間に基づいて演奏の軌道パターン(第2条件)の長さを決定する。例えば、演奏時間が第1演奏時間長の場合の軌道パターン(第2条件)の長さである第1長と、演奏時間が第2演奏時間長の場合の軌道パターン(第2条件)の長さである第2長とについて、第1演奏時間長が第2演奏時間長よりも短い場合、第1長は第2長よりも短くなる。 The image determination unit 1052 generates a trajectory pattern (second condition) of a post-performance image to be displayed on the display device 4 after the user's performance. The image determination unit 1052 generates a trajectory pattern (second condition) in which an image (character) associated with each performance information is arranged. The image determination unit 1052 determines the length of the performance trajectory pattern (second condition) based on the performance time calculated by the performance judgment unit 1051. For example, for a first length which is the length of the trajectory pattern (second condition) when the performance time is a first performance time length and a second length which is the length of the trajectory pattern (second condition) when the performance time is a second performance time length, if the first performance time length is shorter than the second performance time length, the first length will be shorter than the second length.

図8を参照して、画像決定部1052が生成する軌道パターン(第2条件)の一例を説明する。図8は、画像決定部1052が生成する軌道パターン(第2条件)の一例である渦巻線を示す図である。 An example of a trajectory pattern (second condition) generated by the image determination unit 1052 will be described with reference to FIG. 8. FIG. 8 is a diagram showing a spiral line, which is an example of a trajectory pattern (second condition) generated by the image determination unit 1052.

画像決定部1052は、演奏後画像を生成する際、図8に示すような矢印に沿った仮想の渦巻線上に画像(キャラクタ)が、「演奏の始め」から「演奏の終わり」に向かって順に配置される。特に、第1楽器に関する画像(キャラクタ)は、矢印B1側に設けられ、第2楽器に関する画像(キャラクタ)は、矢印B2側に設けられる。 When generating the post-performance image, the image determination unit 1052 places the images (characters) on a virtual spiral line along the arrows as shown in FIG. 8 in order from the "beginning of the performance" to the "end of the performance." In particular, the image (character) relating to the first instrument is placed on the side of the arrow B1, and the image (character) relating to the second instrument is placed on the side of the arrow B2.

なお、例えば、「演奏の始め」の位置と、「演奏の終わり」の位置と、は固定され、演奏の時間が長くなるにつれて、渦巻線状の軌道パターン(第2条件)の長さが伸びる。 For example, the "start of performance" and "end of performance" positions are fixed, and the length of the spiral trajectory pattern (second condition) increases as the performance time increases.

画像情報出力部1053は、画像決定部1052が生成した軌道パターン(第2条件)上に、演奏情報について対応付けた画像(キャラクタ)を配置してリアルタイム画像または演奏後画像を生成し、画像を表示するための情報である画像情報を生成する。 The image information output unit 1053 generates a real-time image or a post-performance image by placing an image (character) associated with the performance information on the trajectory pattern (second condition) generated by the image determination unit 1052, and generates image information, which is information for displaying the image.

演奏終了判定部1055は、少なくとも演奏情報の入力を或る時間受け付けないこと、及び通信部103を介して演奏終了を示す情報を受け付けたこと、のいずれかにより演奏が終了したか否かを判定する。 The performance end determination unit 1055 determines whether or not the performance has ended based on at least one of the following: not accepting input of performance information for a certain period of time; and accepting information indicating the end of the performance via the communication unit 103.

条件判定部1054は、通信部103を介して取得される演奏データ、または演奏終了判定部1055からの情報に基づき、第1条件を満たすか否か、または、第2条件を満たすか否かを判定することができる。そして、条件判定部1054は、その旨を、画像決定部1052に通知する。なお、この条件は、例えばRAM1061に設定(記憶)されている。 The condition determination unit 1054 can determine whether or not the first condition is satisfied, or whether or not the second condition is satisfied, based on the performance data acquired via the communication unit 103, or on information from the performance end determination unit 1055. The condition determination unit 1054 then notifies the image determination unit 1052 of the result. Note that this condition is set (stored) in, for example, the RAM 1061.

画像決定部1052は、条件判定部1054からの情報に基づいて、リアルタイム画像、または演奏後画像を生成する。 The image determination unit 1052 generates a real-time image or a post-performance image based on information from the condition determination unit 1054.

そして、上記で説明した各部(操作部101、表示部102、通信部103、音出力部104、制御部105及び記憶部106)は、バス107で通信可能に接続されており、各部間で必要なデータのやり取りが行えるようになっている。 The above-described units (operation unit 101, display unit 102, communication unit 103, sound output unit 104, control unit 105, and memory unit 106) are communicatively connected via bus 107, allowing necessary data to be exchanged between the units.

ユーザが、演奏のために、電子楽器2の鍵11を押鍵すると、押鍵検出部50によって鍵11の押鍵が検出されることになる。 When a user presses a key 11 on the electronic musical instrument 2 to play the instrument, the key press detection unit 50 detects the pressing of the key 11.

そして、鍵11の押鍵が検出されると、電子楽器2の制御部70は、その押鍵された鍵11に対応する演奏情報(例えば、音高情報等(ノートナンバーやベロシティ値等)を含むノートオン)を生成する。そして、電子楽器2の制御部70は、スピーカ3(または発音部40)から、その演奏情報に応じた音を発音させる制御を行う。 When pressing of a key 11 is detected, the control unit 70 of the electronic musical instrument 2 generates performance information (e.g., note-on including pitch information (such as note number and velocity value)) corresponding to the pressed key 11. The control unit 70 of the electronic musical instrument 2 then controls the speaker 3 (or the sound generation unit 40) to produce a sound corresponding to the performance information.

一方、ユーザが、押鍵していた鍵11を離鍵すると、押鍵検出部50によって鍵11の離鍵が検出されることになる。 On the other hand, when the user releases the key 11 that was pressed, the key press detection unit 50 detects the release of the key 11.

そして、鍵11の離鍵が検出されると、電子楽器2の制御部70は、その離鍵された鍵11に対応する演奏情報(例えば、ノートオフ)を生成する。そして、電子楽器2の制御部70は、スピーカ3(または発音部40)から、その演奏情報に応じた音を消音させる制御を行う。 When the release of a key 11 is detected, the control unit 70 of the electronic musical instrument 2 generates performance information (e.g., note off) corresponding to the released key 11. The control unit 70 of the electronic musical instrument 2 then controls the speaker 3 (or the sound generation unit 40) to mute the sound corresponding to the performance information.

そして、この電子楽器2の制御部70が生成する演奏情報は、電子楽器2の通信部80から情報処理装置1の通信部103に送信される。 The performance information generated by the control unit 70 of the electronic musical instrument 2 is then transmitted from the communication unit 80 of the electronic musical instrument 2 to the communication unit 103 of the information processing device 1.

<1-1-8>スピーカ
スピーカ3は、発音部40は、音を出力する部分である。スピーカ3は、電子楽器2のHPジャック44に接続することにより、HPジャック44から音の信号を受信し、音の出力を行う。
<1-1-8> Speaker The speaker 3 is a part that outputs sound from the sound generation unit 40. When the speaker 3 is connected to the HP jack 44 of the electronic musical instrument 2, it receives sound signals from the HP jack 44 and outputs sound.

<1-1-9>ディスプレイ装置
ディスプレイ装置4は、表示部401として液晶モニタを有し、画像を表示できる。ディスプレイ装置4は、情報処理装置1の通信部103に有線接続され、情報処理装置1からのデータを受信する。そして、ディスプレイ装置4は、表示部401に、データに基づく画像を表示する。
<1-1-9> Display Device The display device 4 has a liquid crystal monitor as a display unit 401, and can display an image. The display device 4 is connected to the communication unit 103 of the information processing device 1 by wire, and receives data from the information processing device 1. Then, the display device 4 displays an image based on the data on the display unit 401.

<1-1-10>楽器の組み合わせ
図9を用いて、本実施形態における、楽器の組み合わせについて説明する。
<1-1-10> Combinations of Instruments Combinations of instruments in this embodiment will be described with reference to FIG.

図9に示すように、楽器の組み合わせとしては、おおよそ8通りの組み合わせが想定される。 As shown in Figure 9, there are approximately eight possible combinations of instruments.

<1-1-10-1>ケース1
ケース1は、電子楽器2(0)(デジタル単音楽器)のみを、情報処理装置1に接続するケースである。
<1-1-10-1> Case 1
Case 1 is a case in which only an electronic musical instrument 2 ( 0 ) (digital single-tone musical instrument) is connected to the information processing device 1 .

この場合は、例えば電子楽器2を介して情報処理装置1に単音の演奏データが供給される(単音入力)。 In this case, for example, single-note performance data is supplied to the information processing device 1 via the electronic musical instrument 2 (single-note input).

<1-1-10-2>ケース2
ケース2は、電子楽器2(1)(デジタル和音楽器)のみを、情報処理装置1に接続するケースである。
<1-1-10-2> Case 2
Case 2 is a case in which only an electronic musical instrument 2 ( 1 ) (digital chord instrument) is connected to the information processing device 1 .

この場合は、例えば電子楽器2を介して情報処理装置1に和音の演奏データが供給される(和音入力)。 In this case, for example, chord performance data is supplied to the information processing device 1 via the electronic musical instrument 2 (chord input).

<1-1-10-3>ケース3
ケース3は、電子楽器2(0)(デジタル単音楽器)及び電子楽器2(1)(デジタル単音楽器)を、情報処理装置1に接続するケースである。
<1-1-10-3> Case 3
Case 3 is a case in which an electronic musical instrument 2(0) (digital monophonic instrument) and an electronic musical instrument 2(1) (digital monophonic instrument) are connected to the information processing device 1.

この場合は、例えばMIDIパッチャ5を介して情報処理装置1に単音の演奏データと、和音の演奏データとが供給される。これは、例えば、一人が伴奏を弾き、もう一人がメロディを弾く場合である。 In this case, single note performance data and chord performance data are supplied to the information processing device 1 via, for example, the MIDI patcher 5. This is the case, for example, when one person plays the accompaniment and another person plays the melody.

<1-1-10-4>ケース4
ケース4は、電子楽器2(1)(デジタル和音楽器)及びボーカルマイク6(ボーカル、またはアコースティック単音楽器)を、情報処理装置1に接続するケースである。
<1-1-10-4> Case 4
Case 4 is a case in which an electronic musical instrument 2 ( 1 ) (digital harmony instrument) and a vocal microphone 6 (vocal or acoustic monophonic instrument) are connected to the information processing device 1 .

この場合は、例えば電子楽器2を介して情報処理装置1に和音の演奏データが供給され、オーディオインタフェース8を介して情報処理装置1に単音の演奏データが供給される。これは、例えば、伴奏に合せて歌う場合である。 In this case, for example, chord performance data is supplied to the information processing device 1 via the electronic musical instrument 2, and single note performance data is supplied to the information processing device 1 via the audio interface 8. This is the case, for example, when singing along with musical accompaniment.

<1-1-10-5>ケース5
ケース5は、ボーカルマイク6(ボーカル、またはアコースティック単音楽器)を、情報処理装置1に接続するケースである。
<1-1-10-5> Case 5
Case 5 is a case in which a vocal microphone 6 (vocal or acoustic single-instrument) is connected to the information processing device 1 .

この場合は、例えばオーディオインタフェース8を介して情報処理装置1に単音の演奏データが供給される。これは、例えば、歌のみの場合である。 In this case, single-note performance data is supplied to the information processing device 1 via, for example, the audio interface 8. This is the case, for example, when there is only singing.

<1-1-10-6>ケース6
ケース6は、アコースティックピアノ7(アコースティック和音楽器、またはカラオケの伴奏音源)を、情報処理装置1に接続するケースである。
<1-1-10-6> Case 6
Case 6 is a case in which an acoustic piano 7 (an acoustic harmony instrument or a karaoke accompaniment sound source) is connected to the information processing device 1 .

この場合は、例えばオーディオインタフェース8を介して情報処理装置1に和音の演奏データが供給される。これは、例えば、アコースティック和音楽器、またはカラオケの伴奏音源のみの場合である。 In this case, for example, chord performance data is supplied to the information processing device 1 via the audio interface 8. This is the case, for example, when there is only an acoustic chord instrument or a karaoke accompaniment sound source.

<1-1-10-7>ケース7
ケース7は、ボーカルマイク6(ボーカル、またはアコースティック単音楽器)及びアコースティックピアノ7(アコースティック和音楽器、またはカラオケの伴奏音源)を、情報処理装置1に接続するケースである。
<1-1-10-7> Case 7
Case 7 is a case in which a vocal microphone 6 (vocals or an acoustic monophonic instrument) and an acoustic piano 7 (acoustic harmonic instrument or karaoke accompaniment sound source) are connected to the information processing device 1 .

この場合は、例えばオーディオインタフェース8を介して情報処理装置1に単音の演奏データと、和音の演奏データが供給される。これは、例えば、アコースティック和音楽器、またはカラオケの伴奏音源に合せて歌う場合である。 In this case, single note performance data and chord performance data are supplied to the information processing device 1 via, for example, the audio interface 8. This is the case, for example, when singing along with an acoustic chord instrument or a karaoke accompaniment sound source.

<1-1-10->ケース
ケースは、電子楽器2(0)(デジタル単音楽器)及びアコースティックピアノ7(アコースティック和音楽器、またはカラオケの伴奏音源)を、情報処理装置1に接続するケースである。
<1-1-10-8> Case 8
Case 8 is a case in which an electronic musical instrument 2(0) (digital monophonic instrument) and an acoustic piano 7 (acoustic chord instrument, or karaoke accompaniment sound source) are connected to the information processing device 1.

この場合は、例えば電子楽器2を介して情報処理装置1に単音の演奏データが供給され、オーディオインタフェース8を介して情報処理装置1に和音の演奏データが供給される。これは、例えば、カラオケの伴奏音源に合せてメロディを弾く場合である。 In this case, for example, single note performance data is supplied to the information processing device 1 via the electronic musical instrument 2, and chord performance data is supplied to the information processing device 1 via the audio interface 8. This is the case, for example, when playing a melody along with a karaoke accompaniment sound source.

本実施形態に係る情報処理装置1によれば、上述した全てのケースにおいて、リアルタイム画像及び演奏後画像を生成することが可能である。 The information processing device 1 according to this embodiment is capable of generating real-time images and post-performance images in all of the above-mentioned cases.

なお、上述したケースは、一例であり、3つ以上の楽器が情報処理装置1に接続されても良い。 Note that the above case is just an example, and three or more musical instruments may be connected to the information processing device 1.

<1-2>動作
<1-2-1>フローチャート
次に、図10を参照して、情報処理装置1の動作を説明する。図10は、情報処理装置1の動作を示すフローチャートである。
<1-2> Operation <1-2-1> Flowchart Next, the operation of the information processing device 1 will be described with reference to Fig. 10. Fig. 10 is a flowchart showing the operation of the information processing device 1.

なお、以下の説明では、情報処理装置1の通信部103と電子楽器2の通信部80の間は、接続されているものとする。また、これから説明するように、情報処理装置1の制御部105は、画像をディスプレイ装置4に表示させるためのアプリケーションを起動しているものとする。 In the following explanation, it is assumed that the communication unit 103 of the information processing device 1 and the communication unit 80 of the electronic musical instrument 2 are connected. In addition, as will be explained below, it is assumed that the control unit 105 of the information processing device 1 is running an application for displaying an image on the display device 4.

≪S1001≫
図10に示すように、情報処理装置1の制御部105(接続機器判定部1056)は、情報処理装置1に接続される楽器を確認する。例えば、楽器の情報処理装置1への接続のケースは、図9に示した通りである。そして、情報処理装置1の制御部105(画像決定部1052)は、情報処理装置1に接続された楽器毎に、異なる画像グループを割り当てる。これにより、情報処理装置1の制御部105(画像決定部1052)は、リアルタイム画像、及び演奏後画像に関する描画設定を行う。
<S1001>
As shown in Fig. 10, the control unit 105 (connected device determination unit 1056) of the information processing device 1 checks the musical instrument connected to the information processing device 1. For example, the case of connecting a musical instrument to the information processing device 1 is as shown in Fig. 9. Then, the control unit 105 (image determination unit 1052) of the information processing device 1 assigns a different image group to each musical instrument connected to the information processing device 1. As a result, the control unit 105 (image determination unit 1052) of the information processing device 1 performs drawing settings related to real-time images and post-performance images.

≪S1002≫
図10に示すように、情報処理装置1の制御部105は、楽器から送信された演奏情報が情報処理装置1の通信部103で受信され、演奏情報の入力が有ったかを判定(ステップS1002)する。情報処理装置1の制御部105は、演奏情報の入力がない場合(ステップS1002:NO)、ステップS1006に進む。
<S1002>
10, the control unit 105 of the information processing device 1 determines whether or not the performance information transmitted from the musical instrument is received by the communication unit 103 of the information processing device 1 and whether or not the performance information has been input (step S1002). If the performance information has not been input (step S1002: NO), the control unit 105 of the information processing device 1 proceeds to step S1006.

≪S1003≫
そして、楽器から送信された演奏情報が情報処理装置1の通信部103で受信されると(ステップS1002:YES)、情報処理装置1の制御部105は、演奏情報の入力を受付ける受付処理を実行し、ステップS1003の演奏判定処理(音楽解析、または音楽解析処理と記載しても良い)を実行する。
<S1003>
Then, when the performance information transmitted from the instrument is received by the communication unit 103 of the information processing device 1 (step S1002: YES), the control unit 105 of the information processing device 1 executes a reception process to accept the input of the performance information, and executes a performance judgment process (which may also be described as music analysis or music analysis process) of step S1003.

具体的には、情報処理装置1の制御部105(演奏判定部1051)は、ステップS1003の演奏判定処理として、受付けた演奏情報に基づき、例えば、曲の調性、音名、コード種別、ベロシティ値、音長、シンコペーション、コード機能、及びコード進行の判定等を行う。 Specifically, the control unit 105 (performance determination unit 1051) of the information processing device 1 performs the performance determination process of step S1003 by determining, for example, the key, note names, chord types, velocity values, note lengths, syncopation, chord functions, and chord progressions of the song based on the received performance information.

ただし、ステップS1003の演奏判定処理として、情報処理装置1の制御部105(演奏判定部1051)は、曲の調性、音名、コード種別、ベロシティ値、音長、シンコペーション、コード機能、及びコード進行の判定のうちのいずれかを行うものとしてもよい。 However, as the performance judgment process of step S1003, the control unit 105 (performance judgment unit 1051) of the information processing device 1 may judge any one of the key, note name, chord type, velocity value, note length, syncopation, chord function, and chord progression of the song.

ステップS1003の演奏判定処理として、具体的に、どのようなものが判定されているのか等の詳細については、次のステップS1004のところで説明する。 Details about what is determined in the performance determination process in step S1003 will be explained in the next step, S1004.

≪S1004≫
情報処理装置1の制御部105(画像決定部1052)は、ステップS1003の演奏判定処理を終えると、ステップS1004に進み、演奏情報を受付けたタイミングに合せて、演奏情報に応じたリアルタイム画像を生成する。そして、情報処理装置1の制御部105(画像情報出力部1053)は、ディスプレイ装置4に出力して表示するリアルタイム画像出力処理を実行する。
<S1004>
When the control unit 105 (image determination unit 1052) of the information processing device 1 finishes the performance determination process in step S1003, the process proceeds to step S1004, where the control unit 105 (image information output unit 1053) of the information processing device 1 generates a real-time image corresponding to the performance information in accordance with the timing at which the performance information was received. Then, the control unit 105 (image information output unit 1053) of the information processing device 1 executes a real-time image output process for outputting and displaying the image on the display device 4.

なお、上述した「演奏情報を受付けたタイミングに合せて」とは、時間的に同時を意味するものではなく、演奏情報を受付けるごとに、を意味する点に留意されたい。 Please note that the above phrase "in accordance with the timing at which the performance information is received" does not mean simultaneously, but rather each time the performance information is received.

本実施形態では、情報処理装置1の記憶部106に記憶されている基礎となる画像をコンピュータグラフィックス(CG)で加工してリアルタイム画像を作成してディスプレイ装置4に表示させるようにしているが、ディスプレイ装置4に表示させるリアルタイム画像は、このような手法によるものに限定される必要はなく、演奏情報に応じたリアルタイム画像であればよい。 In this embodiment, a base image stored in the storage unit 106 of the information processing device 1 is processed using computer graphics (CG) to create a real-time image, which is then displayed on the display device 4. However, the real-time image displayed on the display device 4 does not need to be limited to one obtained by such a method, and may be any real-time image that corresponds to the performance information.

≪S1005≫
情報処理装置1の制御部105(演奏終了判定部1055)は、楽器から送信された演奏情報が情報処理装置1の通信部103で受信されない場合(ステップS1002:NO)、または演奏データが設定された条件を満たさないと判定する場合(S1004:NO)、またはステップS1004の後、演奏終了判定処理を行う。具体的には、情報処理装置1の制御部105は、演奏情報の入力無しで所定の時間経過するか否かを判定する。情報処理装置1の制御部105は、演奏情報の入力無しで所定の時間経過していない場合(ステップS1005:NO)、再び、ステップS1002に進み、演奏情報の入力が有ったか否かを判定する。
<S1005>
The control unit 105 (performance end determination unit 1055) of the information processing device 1 performs a performance end determination process when the performance information transmitted from the musical instrument is not received by the communication unit 103 of the information processing device 1 (step S1002: NO), or when it is determined that the performance data does not satisfy the set condition (S1004: NO), or after step S1004. Specifically, the control unit 105 of the information processing device 1 determines whether or not a predetermined time has passed without input of performance information. If the control unit 105 of the information processing device 1 determines that the predetermined time has not passed without input of performance information (step S1005: NO), it proceeds to step S1002 again and determines whether or not performance information has been input.

≪S1006≫
情報処理装置1の制御部105(演奏終了判定部1055)は、演奏情報の入力無しで所定の時間経過した場合(ステップS1005:YES)、つまり、演奏情報の受付が所定の時間検出されない場合、演奏が終了したものと判定する。情報処理装置1の制御部105(画像決定部1052、及び画像情報出力部1053)は、演奏が終了したものと判定する場合、ステップS1006に進んで、演奏後画像をディスプレイ装置4に出力して表示する演奏後画像出力処理を行い、全体の処理を終了する。
<S1006>
The control unit 105 (play end determination unit 1055) of the information processing device 1 determines that the performance has ended if a predetermined time has elapsed without input of performance information (step S1005: YES), that is, if the reception of performance information is not detected for a predetermined time. If the control unit 105 (image determination unit 1052 and image information output unit 1053) of the information processing device 1 determines that the performance has ended, it proceeds to step S1006, and performs a post-play image output process of outputting and displaying a post-play image on the display device 4, and ends the entire process.

また、伴奏データを自動再生し、メロディを演奏者に指定させる場合に本実施形態を適用した場合には、伴奏データの自動再生が終了した時点で演奏が終了したものと判定して演奏後画像出力処理を行ってもよい。すなわち、情報処理装置1の制御部105が、演奏者による演奏終了を判定する理由はどのような理由であってもよく、情報処理装置1の制御部105が、演奏者による演奏終了を判定した時点で、演奏後画像出力処理が実行されればよい。 In addition, when this embodiment is applied to a case where accompaniment data is automatically played and the performer is allowed to specify a melody, it may be determined that the performance has ended when the automatic playback of the accompaniment data has ended, and post-performance image output processing may be performed. In other words, the control unit 105 of the information processing device 1 may determine that the performer has ended their performance for any reason, as long as the control unit 105 of the information processing device 1 determines that the performer has ended their performance, the post-performance image output processing may be performed.

一方、情報処理装置1の制御部105は、演奏情報の入力無しで所定の時間経過していない場合(ステップS1005:NO)、再び、ステップS1002に進み、演奏情報の入力が有ったか否かを判定する。 On the other hand, if the predetermined time has not elapsed without input of performance information (step S1005: NO), the control unit 105 of the information processing device 1 again proceeds to step S1002 and determines whether or not performance information has been input.

<1-2-2>具体例
次に、情報処理装置1の動作の具体例を説明する。
<1-2-2> Specific Example Next, a specific example of the operation of the information processing device 1 will be described.

具体例では、例えば、二人のユーザが「故郷(ふるさと)」を弾く場合において、二人のユーザに画像グループが割り当てられる場合について説明する。 As a specific example, we will explain the case where two users play "Furusato" and image groups are assigned to the two users.

<1-2-2-1>リアルタイム画像の描画例
続いて、図11を用いて、二人のユーザが「故郷(ふるさと)」を弾くことにより、異なる画像グループが描画される様子を説明する。図11は、第1ユーザ及び第2ユーザがメロディを弾いている場合における、リアルタイム画像を示している。
<1-2-2-1> Example of drawing of real-time images Next, a state in which different image groups are drawn when two users play "Hometown" will be described with reference to Fig. 11. Fig. 11 shows real-time images when a first user and a second user are playing a melody.

図11に示すように、第1ユーザが電子楽器2(0)にてメロディを弾く場合、情報処理装置1の制御部105は、リアルタイム画像として、第1画像グループに含まれる画像(虫のキャラクタ)をディスプレイ装置4に表示させる。この際、例えば、リアルタイム画像の上半分(1st(U)を参照)の矢印A1に沿って画像(虫のキャラクタ)が表示される(図中のC1、及びD1~D6参照)。 As shown in FIG. 11, when the first user plays a melody on the electronic musical instrument 2(0), the control unit 105 of the information processing device 1 causes the display device 4 to display, as a real-time image, an image (insect character) included in the first image group. At this time, for example, the image (insect character) is displayed along the arrow A1 in the upper half of the real-time image (see 1st (U)) (see C1 and D1 to D6 in the figure).

また、図11に示すように、第2ユーザが電子楽器2(1)にて伴奏を弾く場合、情報処理装置1の制御部105は、リアルタイム画像として、第2画像グループに含まれる画像(動物のキャラクタ)をディスプレイ装置4に表示させる。この際、例えば、リアルタイム画像の下半分(1st(L)を参照)の矢印A2に沿って画像(動物のキャラクタ)が表示される(図中のC2、及びE1~E6参照)。 Also, as shown in FIG. 11, when the second user plays accompaniment on the electronic musical instrument 2(1), the control unit 105 of the information processing device 1 causes the display device 4 to display images (animal characters) included in the second image group as real-time images. At this time, for example, the images (animal characters) are displayed along the arrow A2 in the lower half of the real-time image (see 1st(L)) (see C2 and E1 to E6 in the figure).

<1-2-2-5>演奏後画像の描画例
続いて、図12を用いて、二人のユーザが「故郷」の演奏を終了した後の演奏後画像について説明する。図12は、二人のユーザが曲の演奏を終了した後の演奏後画像を示している。
<1-2-2-5> Example of Drawing Post-Performance Image Next, a post-performance image after two users finish playing "Hometown" will be described with reference to Fig. 12. Fig. 12 shows a post-performance image after two users finish playing the song.

情報処理装置1の制御部105は、二人のユーザが演奏を終了したと判定すると、演奏後画像をディスプレイ装置4に表示させる。 When the control unit 105 of the information processing device 1 determines that the two users have finished playing, it causes the display device 4 to display a post-play image.

図12に示すように、情報処理装置1の制御部105は、第1ユーザの演奏に対応する個所には第1グループの画像(虫のキャラクタ)を配置(C1参照)し、第2ユーザの演奏に対応する個所には第2グループの画像(動物のキャラクタ)を配置(C2参照)する。 As shown in FIG. 12, the control unit 105 of the information processing device 1 places a first group of images (insect characters) in the locations corresponding to the performance of the first user (see C1), and places a second group of images (animal characters) in the locations corresponding to the performance of the second user (see C2).

これにより、上述した効果と同様の効果を得ることができる。 This allows you to achieve the same effect as above.

<1-3>効果
上述した実施形態によれば、ユーザの演奏(音楽)に合わせて画像を描く演奏データ表示システムにおいて、複数の演奏が入力された際に、ユーザ毎に異なる表現を出力する。
<1-3> Effects According to the embodiment described above, in the performance data display system that draws images in accordance with a user's performance (music), when multiple performances are input, different expressions are output for each user.

例えば、ユーザの演奏(音楽)に合わせて画像を描く演奏データ表示システムは、ユーザの電子楽器の練習意欲を掻き立てることができる。しかし、複数のユーザにて演奏する場合において、ユーザ毎に画像を変更しないと、一人の演奏の音数が増えたものと同じ表現しか出来ない。この場合、画像と、各演奏との対応関係が不明瞭となる。 For example, a performance data display system that draws images in time with a user's performance (music) can motivate users to practice playing an electronic musical instrument. However, when multiple users are performing together, unless the image is changed for each user, the result is the same as one person's performance with an increased number of notes. In this case, the correspondence between the image and each performance becomes unclear.

しかし、上述した実施形態によれば、複数のユーザにそれぞれ描画表現をわりあてることができる。その結果、ユーザの演奏と、画像との関係が明確になり、より楽しさを提供できる。その結果、ユーザの電子楽器の練習意欲を更に掻き立てることができる。 However, according to the above-described embodiment, it is possible to assign a different drawing representation to each of multiple users. As a result, the relationship between the user's performance and the image becomes clearer, providing greater enjoyment. As a result, it is possible to further stimulate the user's motivation to practice electronic musical instruments.

また、上述した実施形態では、オーディオインタフェースを用い、且つ、情報処理装置1にて音楽解析を行うことで、生音であっても画像に変換することができる。 In addition, in the above-described embodiment, by using an audio interface and performing music analysis in the information processing device 1, even raw sound can be converted into an image.

<2>変形例
なお、上述した実施形態において、情報処理装置1の制御部105は、図10のステップS1001における描画設定変更の際、画像グループの切り替えを行っている。しかし、これに限らず、例えば、「画像(キャラクタ)の表示位置」、「明るさの変更」、「画像(キャラクタ)のサイズの変更」、「背景色(リアルタイム画像、または演奏後画像の背景の色)や、画像(キャラクタ)の色テーブルの変更」、「特定の条件を満たす際に表示される画像(ボーナスキャラクタ)の種類の変更」、または「画像(キャラクタ)の動きを変更」等でも良い。なお、背景色(リアルタイム画像、または演奏後画像の背景の色)や、画像(キャラクタ)の色テーブルは、例えばROM1062に記憶されている。また、特定の条件を満たす際に表示される画像(ボーナスキャラクタ)とは、例えば情報処理装置1の制御部105がユーザの演奏のリズムなどが安定していると判定する場合に、リアルタイム画像に表示される画像である。また、画像(キャラクタ)はアニメーション等で動いても良い。また、複数の画像グループにおいて、同じ画像(キャラクタ)を含んでいても良い。また、楽器が「ボーカル」の場合、「ボーカル」が目立つように大きく、リアルタイム画像や演奏後画像の中心に表示しても良い。また、低音楽器は丸く、高音楽器はトゲトゲしく表現しても構わない。
<2> Modifications In the above-described embodiment, the control unit 105 of the information processing device 1 switches the image group when changing the drawing settings in step S1001 of FIG. 10. However, the present invention is not limited to this, and may be, for example, "display position of image (character)", "change of brightness", "change of image (character) size", "change of background color (background color of real-time image or post-performance image) or color table of image (character)", "change of type of image (bonus character) displayed when a specific condition is satisfied", or "change of image (character) movement". The background color (background color of real-time image or post-performance image) and color table of image (character) are stored in, for example, the ROM 1062. The image (bonus character) displayed when a specific condition is satisfied is, for example, an image displayed in the real-time image when the control unit 105 of the information processing device 1 determines that the rhythm of the user's performance is stable. The image (character) may move with animation or the like. The same image (character) may be included in multiple image groups. Also, if the instrument is "vocals", the "vocals" may be displayed large and prominently in the center of the real-time image and the post-performance image. Also, low-pitched instruments may be displayed in a rounded manner, and high-pitched instruments in a sharp manner.

また、上述した実施形態では、二つの楽器に関する画像を描画する例について示したが、これに限らない。例えば、図13に示すように、4つの楽器(ピアノ、ベースギター、エレキギター、電子楽器等)を情報処理装置1に接続しても良い。更に、図13に示すように、例えばリアルタイム画像または演奏後画像を4分割し、それぞれに楽器を割り当てても良い。これにより、誰がどの画像(キャラクタ)を描いているのかは、4分割させた画面の場所でわかる。 In addition, in the above-described embodiment, an example of drawing images relating to two musical instruments has been shown, but this is not limiting. For example, as shown in FIG. 13, four musical instruments (piano, bass guitar, electric guitar, electronic instrument, etc.) may be connected to the information processing device 1. Furthermore, as shown in FIG. 13, for example, a real-time image or a post-performance image may be divided into four, and a musical instrument may be assigned to each. In this way, who is drawing which image (character) can be known from the location of the screen divided into four.

また、図14に示すように、リアルタイム画像または演奏後画像を明確に分割せず、1枚の画像として描画しても良い。しかし、楽器毎に、画像(キャラクタ)を変えているので、誰がどの画像(キャラクタ)を描いているのかが判定できる。 Also, as shown in FIG. 14, the real-time image or post-performance image may be drawn as one image without being clearly divided. However, since a different image (character) is used for each instrument, it is possible to determine who is drawing which image (character).

また、複数のユーザの演奏が所定の条件(例えば、タイミングの一致)を満たす場合、リボン等の特殊な画像(キャラクタ)がリアルタイム画像、または演奏後画像に描画されても良い。 In addition, if the performances of multiple users satisfy a certain condition (for example, matching timing), a special image (character) such as a ribbon may be drawn in the real-time image or the post-performance image.

以下に、簡単にその特殊な画像(キャラクタ)の描画に関するフローチャートを説明する。 Below is a simple flowchart explaining how to draw these special images (characters).

図15に示すステップS2001~S2004、S2007、及びS2008については、図10のステップS1001~S1006と同様である。そこで、ステップS2005と、S2006について説明する。 Steps S2001 to S2004, S2007, and S2008 shown in FIG. 15 are similar to steps S1001 to S1006 in FIG. 10. Therefore, steps S2005 and S2006 will be explained.

≪S2005≫
情報処理装置1の制御部105(条件判定部1054)は、演奏データが、設定された条件を満たすか否かを判定する。この設定された条件を満たすか否かを判定する例としては、複数のユーザの演奏のタイミングが一致したか否かを判定しても良い。
<S2005>
The control unit 105 (condition determination unit 1054) of the information processing device 1 determines whether or not the performance data satisfies a set condition. As an example of determining whether or not the set condition is satisfied, it may be determined whether or not the timing of performances by multiple users coincides.

≪S2006≫
情報処理装置1の制御部105(画像決定部1052、及び画像情報出力部1053)は、演奏データが、設定された条件を満たすと判定する場合(S2005:YES)、リアルタイム画像(及び演奏後画像)の描画設定を変更する。具体的には、情報処理装置1の制御部105(画像決定部1052、及び画像情報出力部1053)は、設定された条件を満たすと判定された演奏データの後に、専用の画像(キャラクタ)を表示させる。具体的には、図16に示すように、リボンの画像(キャラクタ)を描画する。
<<S2006>>
When the control unit 105 (image determination unit 1052 and image information output unit 1053) of the information processing device 1 determines that the performance data satisfies the set conditions (S2005: YES), it changes the drawing settings of the real-time image (and the post-performance image). Specifically, the control unit 105 (image determination unit 1052 and image information output unit 1053) of the information processing device 1 displays a dedicated image (character) after the performance data determined to satisfy the set conditions. Specifically, as shown in FIG. 16, it draws an image (character) of a ribbon.

また、情報処理装置1の制御部105は、「和音」「単音」の判定を、手動(例えばMIDIのチャンネルの選択)で行われても良いし、自動認識で行っても良い。 The control unit 105 of the information processing device 1 may determine whether a note is a "chord" or a "single note" manually (e.g., by selecting a MIDI channel) or automatically.

また、情報処理装置1の制御部105は、ピッチ抽出や多重音解析の結果をMIDI形式に変換しているが、特にMIDIの形式にしなくても良い。 In addition, the control unit 105 of the information processing device 1 converts the results of pitch extraction and multi-tone analysis into MIDI format, but it does not have to be in MIDI format.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, substitutions, and modifications can be made without departing from the gist of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are included in the scope of the invention and its equivalents described in the claims.

なお、上記実施形態は、以下の付記を含むものである。 The above embodiment includes the following additional notes:

≪付記1≫
情報処理装置のコンピュータに、
入力された演奏データが、少なくとも第1機器(例えば第1電子楽器)及び第2機器(例えば第2電子楽器又は、オーディオインタフェース)のいずれから入力された演奏データであるかを判定させ、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別。演奏データには音名情報やコード種別情報は含まれておらず、演奏データに含まれるノートナンバー情報から音名情報やコード種別情報が判定できる)に応じて、第1画像データを表示させ、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別)が、たとえ前記第1機器と判定された場合と同じであったとしても、前記第1画像データとは異なる態様の第2画像データを表示させる、
プログラム。
<Appendix 1>
The computer of the information processing device
determining whether the input performance data is input from at least a first device (e.g., a first electronic musical instrument) or a second device (e.g., a second electronic musical instrument or an audio interface);
When it is determined that the input device is the first device, the first image data is displayed according to information that can be determined based on the input performance data (e.g., note name, chord type. The performance data does not include note name information or chord type information, but note name information and chord type information can be determined from note number information included in the performance data).
When the device is determined to be the second device, even if information (e.g., note name, chord type) that can be determined based on the input performance data is the same as when the device is determined to be the first device, second image data in a form different from the first image data is displayed.
program.

≪付記2≫
前記いずれから入力された演奏データであるかは、入力された演奏データに含まれる情報(例えばMIDIのチャンネル情報)から判定させる、
付記1に記載のプログラム。
<Appendix 2>
The source from which the performance data is input is determined based on information included in the input performance data (e.g., MIDI channel information).
2. The program according to claim 1.

≪付記3≫
前記第1画像データは、第1画像グループのなかに含まれ、
前記第2画像データは、第2画像グループのなかに含まれ、
前記第1画像グループ及び前記第2画像グループのなかには、同じ画像データが含まれていてもよい、
付記1または2に記載のプログラム。
<Appendix 3>
The first image data is included in a first image group;
The second image data is included in a second image group;
The first image group and the second image group may include the same image data.
3. The program according to claim 1 or 2.

≪付記4≫
前記判定できる情報は、少なくとも音名情報(例えば演奏データには音名情報は含まれておらず、演奏データに含まれるノートナンバー情報から音名情報が判定できる)及び、コード種別情報(例えば音名情報と同様)のいずれかを含む、
付記1乃至3のいずれか一項に記載のプログラム。
<Appendix 4>
The information that can be determined includes at least one of pitch name information (for example, pitch name information is not included in the performance data, and pitch name information can be determined from note number information included in the performance data) and chord type information (for example, similar to pitch name information).
4. The program according to claim 1 ,

≪付記5≫
前記第1機器は、第1電子楽器及びオーディオインタフェースのいずれかを含み、
前記第2機器は、第2電子楽器及びオーディオインタフェースのいずれかを含む、
付記1乃至4のいずれか一項に記載のプログラム。
<Appendix 5>
the first device includes one of a first electronic musical instrument and an audio interface;
the second device includes one of a second electronic musical instrument and an audio interface;
5. The program according to claim 1 .

≪付記6≫
情報処理装置のコンピュータに、
入力された演奏データが、少なくとも第1機器(例えば第1電子楽器)及び第2機器(例えば第2電子楽器又は、オーディオインタフェース)のいずれから入力された演奏データであるかを判定させ、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別。演奏データには音名情報やコード種別情報は含まれておらず、演奏データに含まれるノートナンバー情報から音名情報やコード種別情報が判定できる)に応じて、第1画像データを表示させ、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別)が、たとえ前記第1機器と判定された場合と同じであったとしても、前記第1画像データとは異なる態様の第2画像データを表示させる、
方法。
<Appendix 6>
The computer of the information processing device
determining whether the input performance data is input from at least a first device (e.g., a first electronic musical instrument) or a second device (e.g., a second electronic musical instrument or an audio interface);
When it is determined that the input device is the first device, the first image data is displayed according to information that can be determined based on the input performance data (e.g., note name, chord type. The performance data does not include note name information or chord type information, but note name information and chord type information can be determined from note number information included in the performance data).
When the device is determined to be the second device, even if information (e.g., note name, chord type) that can be determined based on the input performance data is the same as when the device is determined to be the first device, second image data in a form different from the first image data is displayed.
Method.

≪付記7≫
ディスプレイ装置と、
プロセッサと、を含み、前記プロセッサが、
入力された演奏データが、少なくとも第1機器(例えば第1電子楽器)及び第2機器(例えば2電子楽器又は、オーディオインタフェース)のいずれから入力された演奏データであるかを判定し、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別。演奏データには音名情報やコード種別情報は含まれておらず、演奏データに含まれるノートナンバー情報から音名情報やコード種別情報が判定できる)に応じて、第1画像データの前記ディスプレイ装置への表示を指示し、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別)が、たとえ前記第1機器と判定された場合と同じであったとしても、前記第1画像データとは異なる態様の第2画像データの前記ディスプレイ装置への表示を指示する、
電子機器。
<Appendix 7>
A display device;
a processor, the processor comprising:
determining whether the input performance data is input from at least a first device (e.g., a first electronic musical instrument) or a second device (e.g., a second electronic musical instrument or an audio interface);
When the device is determined to be the first device, instruct the display device to display first image data according to information that can be determined based on the input performance data (e.g., note name, chord type. The performance data does not include note name information or chord type information, but note name information and chord type information can be determined from note number information included in the performance data);
When the device is determined to be the second device, even if information (e.g., note name, chord type) that can be determined based on the input performance data is the same as that when the device is determined to be the first device, instruct the display device to display second image data in a format different from that of the first image data.
Electronics.

≪付記8≫
第1機器と、第2機器と、ディスプレイ装置と、を備え、
前記第1機器は、
第1ユーザによる演奏操作に応じて前記第1機器を識別可能な第1識別子(例えばMIDIの第1チャンネル番号)を含む第1演奏データを生成するとともに、生成された前記第1演奏データを前記ディスプレイ装置に出力し、
前記第2機器は、
第2ユーザによる演奏操作に応じて前記第2機器を識別可能な第2識別子を含む第2演奏データを生成するとともに、生成された前記第2演奏データを前記ディスプレイ装置に出力し、
前記ディスプレイ装置は、
入力される前記第1演奏データに基づいて判定できる情報(例えば音名、コード種別)に応じて、第1画像データを表示し、
入力される前記第2演奏データに基づいて判定できる情報(例えば音名、コード種別)が、たとえ前記第1演奏データに基づいて判定できる情報と同じであったとしても、前記第1画像データとは異なる態様の第2画像データを表示する、
演奏データ表示システム。
<Appendix 8>
A first device, a second device, and a display device,
The first device is
generating first performance data including a first identifier (e.g., a first MIDI channel number) capable of identifying the first device in response to a performance operation by a first user, and outputting the generated first performance data to the display device;
The second device is
generating second performance data including a second identifier capable of identifying the second device in response to a performance operation by a second user, and outputting the generated second performance data to the display device;
The display device includes:
displaying first image data according to information (e.g., note name, chord type) that can be determined based on the input first performance data;
Even if information (e.g., note name, chord type) that can be determined based on the input second performance data is the same as information that can be determined based on the first performance data, the second image data is displayed in a manner different from the first image data.
Performance data display system.

1…情報処理装置
2…電子楽器
3…スピーカ
4…ディスプレイ装置
5…MIDIパッチャ
6…ボーカルマイク
7…アコースティックピアノ
8…オーディオインタフェース
11…鍵
20…表示部
30…操作部
40…発音部
41…SPアンプ
42…スピーカ
43…HPアンプ
44…HPジャック
45…HPジャック挿入検出部
50…押鍵検出部
60…記憶部
61…ROM
62…RAM
70…制御部
80…通信部
100…バス
101…操作部
102…表示部
103…通信部
104…音出力部
105…制御部
106…記憶部
107…バス
401…表示部
1051…演奏判定部
1052…画像決定部
1053…画像情報出力部
1054…条件判定部
1055…演奏終了判定部
1056…接続機器判定部
1061…RAM
1062…ROM
10621…プログラム
10622…テーブル
1...information processing device 2...electronic musical instrument 3...speaker 4...display device 5...MIDI patcher 6...vocal microphone 7...acoustic piano 8...audio interface 11...keys 20...display unit 30...operation unit 40...sound generation unit 41...SP amplifier 42...speaker 43...HP amplifier 44...HP jack 45...HP jack insertion detection unit 50...key press detection unit 60...storage unit 61...ROM
62...RAM
70...Control unit 80...Communication unit 100...Bus 101...Operation unit 102...Display unit 103...Communication unit 104...Sound output unit 105...Control unit 106...Storage unit 107...Bus 401...Display unit 1051...Performance judgment unit 1052...Image determination unit 1053...Image information output unit 1054...Condition judgment unit 1055...Performance end judgment unit 1056...Connected device judgment unit 1061...RAM
1062...ROM
10621... program 10622... table

Claims (7)

情報処理装置のコンピュータに、
入力された演奏データが、少なくとも第1機器及び第2機器のいずれから入力された演奏データであるかを判定させ、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報に応じて、第1画像グループのなかに含まれる第1画像データを表示させ、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報が、たとえ前記第1機器と判定された場合と同じであったとしても、第2画像グループのなかに含まれる、前記第1画像データとは異なる態様の第2画像データを表示させ
前記第1画像グループ及び前記第2画像グループのなかには、同じ画像データが含まれていてもよい、
プログラム。
The computer of the information processing device
determining whether the input performance data is input from at least the first device or the second device;
When the device is determined to be the first device, the first image data included in the first image group is displayed in accordance with information that can be determined based on the input performance data;
When the device is determined to be the second device, even if information that can be determined based on the input performance data is the same as that when the device is determined to be the first device, second image data that is included in a second image group and has a different aspect from the first image data is displayed ;
The first image group and the second image group may include the same image data.
program.
前記いずれから入力された演奏データであるかは、入力された演奏データに含まれる情報から判定させる、
請求項1に記載のプログラム。
The source from which the performance data is input is determined based on information included in the input performance data.
The program according to claim 1.
前記判定できる情報は、少なくとも音名情報及び、コード種別情報のいずれかを含む、
請求項1または2に記載のプログラム。
The information that can be determined includes at least either pitch name information or chord type information.
3. The program according to claim 1 or 2 .
前記第1機器は、第1電子楽器及びオーディオインタフェースのいずれかを含み、
前記第2機器は、第2電子楽器及びオーディオインタフェースのいずれかを含む、
請求項1乃至のいずれか一項に記載のプログラム。
the first device includes one of a first electronic musical instrument and an audio interface;
the second device includes one of a second electronic musical instrument and an audio interface;
The program according to any one of claims 1 to 3 .
情報処理装置のコンピュータに、
入力された演奏データが、少なくとも第1機器及び第2機器のいずれから入力された演奏データであるかを判定させ、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報に応じて、第1画像グループのなかに含まれる第1画像データを表示させ、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報が、たとえ前記第1機器と判定された場合と同じであったとしても、第2画像グループのなかに含まれる、前記第1画像データとは異なる態様の第2画像データを表示させ
前記第1画像グループ及び前記第2画像グループのなかには、同じ画像データが含まれていてもよい、
方法。
The computer of the information processing device
determining whether the input performance data is input from at least the first device or the second device;
When the device is determined to be the first device, the first image data included in the first image group is displayed in accordance with information that can be determined based on the input performance data;
When the device is determined to be the second device, even if information that can be determined based on the input performance data is the same as that when the device is determined to be the first device, second image data that is included in a second image group and has a different aspect from the first image data is displayed ;
The first image group and the second image group may include the same image data.
Method.
ディスプレイ装置と、
プロセッサと、を含み、前記プロセッサが、
入力された演奏データが、少なくとも第1機器及び第2機器のいずれから入力された演奏データであるかを判定し、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報に応じて、第1画像グループのなかに含まれる第1画像データの前記ディスプレイ装置への表示を指示し、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報が、たとえ前記第1機器と判定された場合と同じであったとしても、第2画像グループのなかに含まれる、前記第1画像データとは異なる態様の第2画像データの前記ディスプレイ装置への表示を指示し、
前記第1画像グループ及び前記第2画像グループのなかには、同じ画像データが含まれていてもよい、
電子機器。
A display device;
a processor, the processor comprising:
determining whether the input performance data is input from at least the first device or the second device;
When the device is determined to be the first device, instruct the display device to display first image data included in a first image group in accordance with information that can be determined based on the input performance data;
when it is determined that the device is the second device, even if information that can be determined based on the input performance data is the same as that when it is determined that the device is the first device, instruct the display device to display second image data that is included in a second image group and has a different aspect from the first image data ;
The first image group and the second image group may include the same image data.
Electronics.
第1機器と、第2機器と、ディスプレイ装置と、を備え、
前記第1機器は、
第1ユーザによる演奏操作に応じて前記第1機器を識別可能な第1識別子を含む第1演奏データを生成するとともに、生成された前記第1演奏データを前記ディスプレイ装置に出力し、
前記第2機器は、
第2ユーザによる演奏操作に応じて前記第2機器を識別可能な第2識別子を含む第2演奏データを生成するとともに、生成された前記第2演奏データを前記ディスプレイ装置に出力し、
前記ディスプレイ装置は、
入力される前記第1演奏データに基づいて判定できる情報に応じて、第1画像グループのなかに含まれる第1画像データを表示し、
入力される前記第2演奏データに基づいて判定できる情報が、たとえ前記第1演奏データに基づいて判定できる情報と同じであったとしても、第2画像グループのなかに含まれる、前記第1画像データとは異なる態様の第2画像データを表示し、
前記第1画像グループ及び前記第2画像グループのなかには、同じ画像データが含まれていてもよい、
演奏データ表示システム。
A first device, a second device, and a display device,
The first device is
generating first performance data including a first identifier capable of identifying the first device in response to a performance operation by a first user, and outputting the generated first performance data to the display device;
The second device is
generating second performance data including a second identifier capable of identifying the second device in response to a performance operation by a second user, and outputting the generated second performance data to the display device;
The display device includes:
displaying first image data included in a first image group according to information that can be determined based on the first performance data input;
displaying second image data in a manner different from that of the first image data , the second image data being included in a second image group, even if information that can be determined based on the second performance data inputted is the same as information that can be determined based on the first performance data ;
The first image group and the second image group may include the same image data.
Performance data display system.
JP2019231922A 2019-12-23 2019-12-23 Program, method, electronic device, and performance data display system Active JP7467907B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019231922A JP7467907B2 (en) 2019-12-23 2019-12-23 Program, method, electronic device, and performance data display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019231922A JP7467907B2 (en) 2019-12-23 2019-12-23 Program, method, electronic device, and performance data display system

Publications (2)

Publication Number Publication Date
JP2021099459A JP2021099459A (en) 2021-07-01
JP7467907B2 true JP7467907B2 (en) 2024-04-16

Family

ID=76541171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019231922A Active JP7467907B2 (en) 2019-12-23 2019-12-23 Program, method, electronic device, and performance data display system

Country Status (1)

Country Link
JP (1) JP7467907B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004347703A (en) 2003-05-20 2004-12-09 Kawai Musical Instr Mfg Co Ltd Music playing operation display device
JP2008233576A (en) 2007-03-22 2008-10-02 Hyphenation:Kk Method for making musical piece and musical score into video and image
JP2019101168A (en) 2017-11-30 2019-06-24 カシオ計算機株式会社 Information processing unit, information processing method, information processing program and electronic musical instrument

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004347703A (en) 2003-05-20 2004-12-09 Kawai Musical Instr Mfg Co Ltd Music playing operation display device
JP2008233576A (en) 2007-03-22 2008-10-02 Hyphenation:Kk Method for making musical piece and musical score into video and image
JP2019101168A (en) 2017-11-30 2019-06-24 カシオ計算機株式会社 Information processing unit, information processing method, information processing program and electronic musical instrument

Also Published As

Publication number Publication date
JP2021099459A (en) 2021-07-01

Similar Documents

Publication Publication Date Title
JP7363944B2 (en) Information processing device, information processing method, information processing program, and electronic musical instrument
JP4752425B2 (en) Ensemble system
JP2002229559A (en) Device and method for music display, music display program actualizing the method on computer, device and method for assisting musical performance, and musical performance assisting program actualizing the musical performance assisting method on computer
US9012756B1 (en) Apparatus and method for producing vocal sounds for accompaniment with musical instruments
JP2006243102A (en) Device and program for supporting performance
JP6492933B2 (en) CONTROL DEVICE, SYNTHETIC SINGING SOUND GENERATION DEVICE, AND PROGRAM
JP2020056938A (en) Musical performance information display device and musical performance information display method, musical performance information display program, and electronic musical instrument
WO2014025041A1 (en) Device and method for pronunciation allocation
JP6520162B2 (en) Accompaniment teaching device and accompaniment teaching program
JP7467907B2 (en) Program, method, electronic device, and performance data display system
JP2003288077A (en) Music data output system and program
JP2012185440A (en) Musical sound control device
US8299347B2 (en) System and method for a simplified musical instrument
JP5847048B2 (en) Piano roll type score display apparatus, piano roll type score display program, and piano roll type score display method
JP2007248881A (en) Musical performance system, controller used for same system, and program
US9747879B2 (en) Storage medium, tone generation assigning apparatus and tone generation assigning method
JP4180548B2 (en) Karaoke device with vocal range notification function
JP5912268B2 (en) Electronic musical instruments
JP2022006247A (en) Electronic musical instrument, accompaniment sound indication method, program, and accompaniment sound automatic generation device
JP2008187549A (en) Support system for playing musical instrument
JP6582517B2 (en) Control device and program
JP7070538B2 (en) Programs, methods, electronic devices, and performance data display systems
JP7331388B2 (en) Information processing device, method, and program
JP5912269B2 (en) Electronic musical instruments
JP3547394B2 (en) Karaoke device with scat input ensemble system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221213

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240318

R150 Certificate of patent or registration of utility model

Ref document number: 7467907

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150