JP2021099459A - Program, method, electronic apparatus, and musical performance data display system - Google Patents
Program, method, electronic apparatus, and musical performance data display system Download PDFInfo
- Publication number
- JP2021099459A JP2021099459A JP2019231922A JP2019231922A JP2021099459A JP 2021099459 A JP2021099459 A JP 2021099459A JP 2019231922 A JP2019231922 A JP 2019231922A JP 2019231922 A JP2019231922 A JP 2019231922A JP 2021099459 A JP2021099459 A JP 2021099459A
- Authority
- JP
- Japan
- Prior art keywords
- image
- performance
- performance data
- information
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 230000010365 information processing Effects 0.000 claims description 115
- 238000004891 communication Methods 0.000 description 23
- 230000001755 vocal effect Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 11
- 238000001514 detection method Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 238000003780 insertion Methods 0.000 description 6
- 230000037431 insertion Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 241000238631 Hexapoda Species 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000004804 winding Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 230000008450 motivation Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282693 Cercopithecidae Species 0.000 description 1
- 241000254173 Coleoptera Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
Description
実施形態は、プログラム、方法、電子機器、及び演奏データ表示システムに関する。 Embodiments relate to programs, methods, electronic devices, and performance data display systems.
例えば、MIDI(Musical Instrument Digital Interface)楽曲のような音楽の演奏に同期して踊り手(ダンサ)等の画像オブジェクトを動かし、音楽の曲想のみならず、楽音の進行に応じてこれと一体的に変化する動画像を生成することができるコンピュータグラフィックス動画像生成システムが知られている(特許文献1参照)。 For example, an image object such as a dancer (dancer) is moved in synchronization with the performance of music such as MIDI (Musical Computer Interface) music, and is integrated with this not only according to the musical composition but also according to the progress of the musical sound. A computer graphics moving image generation system capable of generating a changing moving image is known (see Patent Document 1).
特許文献1に開示されたコンピュータグラフィックス動画像生成システムでは、単に演奏中に踊り手を示すキャラクタを動的に出現させているだけなので、表現力が乏しいという問題がある。
The computer graphics moving image generation system disclosed in
本発明は、このような事情に鑑みなされたものであり、例えば、演奏の視覚的な表現力に優れたプログラム、方法、電子機器、及び演奏データ表示システムを提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is, for example, to provide a program, a method, an electronic device, and a performance data display system having excellent visual expressiveness of performance.
実施形態に係るプログラムによれば、情報処理装置のコンピュータに、入力された演奏データが、少なくとも第1機器及び第2機器のいずれから入力された演奏データであるかを判定させ、前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報に応じて、第1画像データを表示させ、前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報が、たとえ前記第1機器と判定された場合と同じであったとしても、前記第1画像データとは異なる態様の第2画像データを表示させる。 According to the program according to the embodiment, the computer of the information processing apparatus is made to determine whether the input performance data is at least the performance data input from the first device or the second device, and the first device. When it is determined that the first image data is displayed according to the information that can be determined based on the input performance data, and when it is determined that the second device is used, the determination is made based on the input performance data. Even if the information that can be generated is the same as when it is determined to be the first device, the second image data in a mode different from that of the first image data is displayed.
本発明によれば、例えば、演奏の視覚的な表現力に優れたプログラム、方法、電子機器、及び演奏データ表示システムを提供することができる。 According to the present invention, for example, it is possible to provide a program, a method, an electronic device, and a performance data display system having excellent visual expressiveness of performance.
以下、本発明の一側面に係る実施の形態(以下、「実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。 Hereinafter, embodiments according to one aspect of the present invention (hereinafter, also referred to as “embodiments”) will be described with reference to the drawings. However, the embodiments described below are merely examples of the present invention in all respects. Needless to say, various improvements and modifications can be made without departing from the scope of the present invention. That is, in carrying out the present invention, a specific configuration according to the embodiment may be appropriately adopted. The data appearing in the embodiment are described in natural language, but more specifically, the data is specified in a pseudo language, a command, a parameter, a machine language, or the like that can be recognized by a computer.
<0>適用例
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、適用例に係るプログラムを含む演奏データ表示システムの一例を模式的に例示する。演奏データ表示システムは、ユーザ(演奏者)の演奏(音楽)に合わせてリアルタイムに画像(絵)を描画することにより、ユーザの電子楽器の練習意欲を掻き立てることを想定している。
<0> Application Example First, an example of a situation in which the present invention is applied will be described with reference to FIG. FIG. 1 schematically illustrates an example of a performance data display system including a program according to an application example. The performance data display system is supposed to stimulate the user's motivation to practice an electronic musical instrument by drawing an image (picture) in real time according to the performance (music) of the user (performer).
<0−1>適用例の概要
演奏データ表示システムの構成を説明する前に、演奏データ表示システムの概要について説明する。演奏データ表示システムは、例えば複数のユーザの演奏を演奏データ(例えばMIDIデータ)として出力できる電子楽器等から受信した演奏データを解析し、複数のユーザの演奏を画像に変換する。例えば、演奏データには音名情報やコード種別情報は含まれておらず、演奏データに含まれるノートナンバー情報から音名情報やコード種別情報が判定できる。
<0-1> Outline of application example
Before explaining the configuration of the performance data display system, the outline of the performance data display system will be described. The performance data display system analyzes performance data received from an electronic musical instrument or the like that can output performances of a plurality of users as performance data (for example, MIDI data), and converts the performances of the plurality of users into images. For example, the performance data does not include the note name information and the chord type information, and the note number information and the chord type information can be determined from the note number information included in the performance data.
<0−2>適用例の構成
図1を参照して、適用例の構成について説明する。図1は、適用例に係る演奏データ表示システムの構成の一例を示した図である。
<0-2> Configuration of Application Example The configuration of the application example will be described with reference to FIG. FIG. 1 is a diagram showing an example of the configuration of a performance data display system according to an application example.
図1に示すように、演奏データ表示システムは、第1楽器と、第2楽器と、情報処理装置と、ディスプレイ装置と、を含む。 As shown in FIG. 1, the performance data display system includes a first musical instrument, a second musical instrument, an information processing device, and a display device.
第1楽器は、第1ユーザの演奏を演奏データ(例えばMIDIデータ)に変換する。そして、その第1楽器は、演奏データを情報処理装置に出力する。 The first musical instrument converts the performance of the first user into performance data (for example, MIDI data). Then, the first musical instrument outputs the performance data to the information processing device.
より具体的には、第1楽器は、第1ユーザによる演奏操作に応じて第1楽器を識別可能な第1識別子(例えば、MIDIの第1チャンネル番号)を含む第1演奏データを生成するとともに、生成された第1演奏データを情報処理装置に出力する。第1楽器は、例えば、キーボード、電子ピアノ、エレキギター、または電子バイオリン等の電子楽器である。ただし、第1楽器は、上述したものに限らず、実施の形態に応じて適宜選択されてよい。 More specifically, the first musical instrument generates first performance data including a first identifier (for example, the first channel number of MIDI) that can identify the first musical instrument according to a performance operation by the first user. , The generated first performance data is output to the information processing device. The first musical instrument is, for example, an electronic musical instrument such as a keyboard, an electronic piano, an electric guitar, or an electronic violin. However, the first musical instrument is not limited to the one described above, and may be appropriately selected according to the embodiment.
第2楽器は、第2ユーザの演奏を演奏データ(例えばMIDIデータ)に変換する。そして、その第2楽器は、演奏データを情報処理装置に出力する。 The second musical instrument converts the performance of the second user into performance data (for example, MIDI data). Then, the second musical instrument outputs the performance data to the information processing device.
より具体的には、第2楽器は、第2ユーザによる演奏操作に応じて第2楽器を識別可能な第2識別子を含む第2演奏データを生成するとともに、生成された第2演奏データを情報処理装置に出力する。第2楽器は、例えば、電子楽器、ボーカルマイク、またはアコースティックピアノ等である。ただし、第2楽器は、上述したものに限らず、実施の形態に応じて適宜選択されてよい。 More specifically, the second musical instrument generates the second performance data including the second identifier that can identify the second musical instrument according to the performance operation by the second user, and also informs the generated second performance data. Output to the processing device. The second musical instrument is, for example, an electronic musical instrument, a vocal microphone, an acoustic piano, or the like. However, the second musical instrument is not limited to the one described above, and may be appropriately selected according to the embodiment.
情報処理装置は、入力された演奏データが、少なくとも第1楽器及び第2楽器のいずれから入力された演奏データであるかを判定する。また、情報処理装置は、入力された演奏データが第1機器からの演奏データであると判定した場合に、入力された演奏データに基づいて判定できる情報(例えば、音名、コード種別等)に応じて、第1画像(キャラクタ)データを出力する。また、情報処理装置は、入力された演奏データが第2機器からの演奏データであると判定した場合に、入力された演奏データに基づいて判定できる情報(例えば、音名、コード種別等)が、たとえ第1演奏データに基づいて判定できる情報と同じあったとしても、第1画像データとは異なる態様の第2画像データ(キャラクタ)を出力する。情報処理装置は、例えば、PC(パーソナルコンピュータ)である。なお、「設定」、または「登録」は、基本的には「記憶」と同様の意味である。 The information processing device determines whether the input performance data is at least the performance data input from the first musical instrument or the second musical instrument. Further, when the information processing device determines that the input performance data is the performance data from the first device, the information processing device provides information (for example, sound name, chord type, etc.) that can be determined based on the input performance data. The first image (character) data is output accordingly. Further, when the information processing device determines that the input performance data is the performance data from the second device, the information processing device can determine the information (for example, sound name, chord type, etc.) based on the input performance data. , Even if the information is the same as the information that can be determined based on the first performance data, the second image data (character) having a mode different from that of the first image data is output. The information processing device is, for example, a PC (personal computer). Note that "setting" or "registration" basically has the same meaning as "memory".
ディスプレイ装置は、第1ユーザの演奏に基づく画像と、第2ユーザの演奏に基づく画像と、を表示部にて表示する。上述したように、第1ユーザの演奏に基づく画像は、第1画像グループに基づき生成されており、第2ユーザの演奏に基づく画像は、第2画像グループに基づき生成されている。そのため、第1ユーザの演奏に基づく画像と、第2ユーザの演奏に基づく画像と、を判定することが可能である。 The display device displays an image based on the performance of the first user and an image based on the performance of the second user on the display unit. As described above, the image based on the performance of the first user is generated based on the first image group, and the image based on the performance of the second user is generated based on the second image group. Therefore, it is possible to determine an image based on the performance of the first user and an image based on the performance of the second user.
<0−3>適用例の動作
次に、適用例に係る演奏データ表示システムの動作の一例について説明する。
<0-3> Operation of application example Next, an example of operation of the performance data display system according to the application example will be described.
第1ユーザが第1楽器を用いて演奏を開始すると、情報処理装置は入力された演奏データに含まれる情報から、第1楽器からの演奏データ(第1演奏データ)であると判定する。そして、情報処理装置は、第1楽器の演奏に対して音楽解析を行う。具体的には、情報処理装置は、第1演奏データに含まれる音名(またはコード)に応じて、第1画像グループ(例えば虫のキャラクタを複数含むキャラクタグループ)のなかに含まれる画像(例えばかぶとむしのキャラクタ)を決定し、設定された第1条件(例えばコード進行に応じた表示)に従った軌道に沿って、リアルタイムに描画する。これにより、ディスプレイ装置には、第1画像グループのなかに含まれる画像(キャラクタ)がリアルタイムに表示される。なお、ここでの「リアルタイム」とは、演奏のタイミングと画像(キャラクタ)の表示タイミングと、は必ずしも同タイミングである必要はない。また、演奏に合わせて画像(キャラクタ)が表示される画像を、例えばリアルタイム画像と記載しても良い。つまり、リアルタイム画像の中に、複数の画像(キャラクタ)が描画されることになる。リアルタイム画像の描画方法については後述する。 When the first user starts playing using the first instrument, the information processing device determines that the performance data is from the first instrument (first performance data) from the information included in the input performance data. Then, the information processing device performs music analysis on the performance of the first musical instrument. Specifically, the information processing device has an image (for example, for example) included in the first image group (for example, a character group including a plurality of insect characters) according to a sound name (or chord) included in the first performance data. The character of the beetle) is determined and drawn in real time along the trajectory according to the set first condition (for example, the display according to the code progress). As a result, the image (character) included in the first image group is displayed on the display device in real time. The "real time" here does not necessarily mean that the timing of the performance and the timing of displaying the image (character) are the same. Further, an image in which an image (character) is displayed according to the performance may be described as, for example, a real-time image. That is, a plurality of images (characters) are drawn in the real-time image. The drawing method of the real-time image will be described later.
第2ユーザが第2楽器を用いて演奏を開始すると、情報処理装置は入力された演奏データに含まれる情報から、第2楽器からの演奏データ(第2演奏データ)であると判定する。そして、情報処理装置は、第2楽器の演奏に対して音楽解析を行う。具体的には、情報処理装置は、第2演奏データに含まれる音名(またはコード)に応じて、第2画像グループ(例えば動物のキャラクタを複数含むキャラクタグループ)のなかに含まれる画像(例えば、きりんのキャラクタ)を決定し、設定された第1条件(例えばコード進行に応じた表示)に従った軌道に沿って、リアルタイムに描画する。これにより、ディスプレイ装置には、第2画像グループのなかに含まれる画像(キャラクタ)がリアルタイムに表示される。 When the second user starts playing using the second instrument, the information processing device determines that the performance data is from the second instrument (second performance data) from the information included in the input performance data. Then, the information processing device performs music analysis on the performance of the second musical instrument. Specifically, the information processing device has an image (for example, for example) included in the second image group (for example, a character group including a plurality of animal characters) according to a sound name (or chord) included in the second performance data. , Kirin character) is determined and drawn in real time along the trajectory according to the set first condition (for example, display according to the code progress). As a result, the image (character) included in the second image group is displayed on the display device in real time.
このように、情報処理装置は、リアルタイム画像として、第1ユーザの演奏に基づく画像と、第2ユーザの演奏に基づく画像と、を判定できるように描画する。 また、第1ユーザ及び第2ユーザが楽器の演奏を終了した後、情報処理装置は設定された第2条件(例えば渦巻表示)に従って、ディスプレイ装置に画像データを表示させる。なお、このような画像を、例えば演奏後画像と記載しても良い。この演奏後画像としては、第1ユーザ及び第2ユーザユーザの演奏の始めから終わりまでに解析された画像(キャラクタ)が第2条件(例えば渦巻表示)に従って、描画される画像である。この際、リアルタイム画像と同様に、情報処理装置は、演奏後画像として、第1ユーザの演奏に基づく画像と、第2ユーザの演奏に基づく画像と、を判定できるように描画する。 In this way, the information processing apparatus draws the real-time image so that the image based on the performance of the first user and the image based on the performance of the second user can be determined. Further, after the first user and the second user finish playing the musical instrument, the information processing device causes the display device to display the image data according to the set second condition (for example, spiral display). In addition, such an image may be described as, for example, a post-performance image. The post-performance image is an image in which the images (characters) analyzed from the beginning to the end of the performance of the first user and the second user user are drawn according to the second condition (for example, spiral display). At this time, similarly to the real-time image, the information processing apparatus draws the image based on the performance of the first user and the image based on the performance of the second user as the post-performance image so that it can be determined.
<0−4>適用例の効果
以上のように、適用例に係る演奏データ表示システムによれば、第1ユーザ、及び第2ユーザの演奏を判定し、表示する画像のグループを変更できる。換言すると、適用例に係る演奏データ表示システムによれば、第1ユーザ、及び第2ユーザの演奏中に、演奏と無関係な特有な操作を行うことなく、画像に関する設定(描画設定)を適宜行う事ができる。そのため、演奏データ表示システムは、第1ユーザ、及び第2ユーザが演奏に集中したまま、表現力の高い画像を生成することができる。
<0-4> Effect of Application Example As described above, according to the performance data display system according to the application example, it is possible to determine the performance of the first user and the second user and change the group of images to be displayed. In other words, according to the performance data display system according to the application example, during the performance of the first user and the second user, settings (drawing settings) related to the image are appropriately performed without performing a peculiar operation unrelated to the performance. You can do things. Therefore, the performance data display system can generate a highly expressive image while the first user and the second user concentrate on the performance.
<1>実施形態
<1−1>構成
<1−1−1>演奏データ表示システム
以下、図2を参照して、実施形態に係る演奏データ表示システムについて説明する。
<1> Embodiment <1-1> Configuration <1-1-1> Performance data display system The performance data display system according to the embodiment will be described below with reference to FIG.
図2は、実施形態に係る演奏データ表示システムの概要を示す図である。 FIG. 2 is a diagram showing an outline of the performance data display system according to the embodiment.
図2に示すように、演奏データ表示システムは、例えば情報処理装置(電子機器)1と、電子楽器2(例えば2(0)、及び2(1))と、スピーカ3と、ディスプレイ装置4と、MIDIパッチャ(MIDIパッチベイ)5と、ボーカルマイク6と、アコースティックピアノ7と、オーディオインタフェース8と、を備えている。
As shown in FIG. 2, the performance data display system includes, for example, an information processing device (electronic device) 1, an electronic musical instrument 2 (for example, 2 (0) and 2 (1)), a speaker 3, and a display device 4. , MIDI patcher (MIDI patch bay) 5,
なお、図2では、一例として、2つの電子楽器2と、ボーカルマイク6と、アコースティックピアノ7と、を示しているが、これは一例である。少なくとも二つの楽器があれば良い。また、本実施形態では、電子楽器2、ボーカルマイク6、及びアコースティックピアノ7をまとめて楽器として取り扱う。
Note that FIG. 2 shows two electronic
<1−1−2>電子楽器
以下、図2及び図3を参照して、実施形態に係る電子楽器について説明する。図3は、実施形態に係る電子楽器の制御システムのハードウェアを示す図である。
<1-1-2> Electronic Musical Instrument Hereinafter, the electronic musical instrument according to the embodiment will be described with reference to FIGS. 2 and 3. FIG. 3 is a diagram showing the hardware of the control system of the electronic musical instrument according to the embodiment.
図2及び図3に示すように、本実施形態の情報処理装置1が接続される電子楽器2は、例えば、電子ピアノ、シンセサイザーや電子オルガン等の電子鍵盤楽器である。
As shown in FIGS. 2 and 3, the electronic
電子楽器2は、複数の鍵11と、表示部20と、操作部30と、発音部40と、を備えている。
The electronic
また、電子楽器2は、図3に示すように、押鍵検出部50と、記憶部60と、制御部70と、通信部80と、を備えている。
Further, as shown in FIG. 3, the electronic
鍵11は、演奏者が音高を指定する操作子であり、演奏者が鍵11を押鍵及び離鍵することで、電子楽器2は、指定された音高に対応する音の発音及び消音を行う。
The key 11 is an operator whose pitch is specified by the performer, and when the performer presses and releases the key 11, the electronic
表示部20は、例えば、タッチパネル付きの液晶モニタを有し、演奏者の操作部30の操作に伴うメッセージの表示等を行う部分である。
The
なお、本実施形態では、表示部20がタッチパネル機能を有しているため、表示部20は、操作部30の一端を担うことができるようになっている。
In this embodiment, since the
操作部30は、演奏者が各種の設定等を行う操作ボタンを有し、音量調整等の各種の設定操作等を行うための部分である。
The
発音部40は、音を出力する部分であり、SPアンプ41(スピーカーアンプ)と、スピーカ42と、HPアンプ43(ヘッドホンアンプ)と、スピーカ3(またはヘッドホン)のプラグを差し込むHPジャック44(ヘッドホンジャック)と、HPジャック44にスピーカ3(またはヘッドホン)のプラグが差し込まれたことを検知するHPジャック挿入検出部45と、を有している。
The sounding
スピーカ3(またはヘッドホン)のプラグがHPジャック44に挿入されると、HPジャック挿入検出部45がその挿入を検出して、音の出力がHPジャック側に行われ、逆に、HPジャック挿入検出部45がプラグの挿入を検知していないときには、音の出力がスピーカ42側に行われる。
When the plug of the speaker 3 (or headphones) is inserted into the
なお、スピーカ3の代わりに発音部40を用いても良い。
The sounding
押鍵検出部50は、鍵11の押鍵及び離鍵を検知する部分であり、例えば、各鍵11の下側にラバースイッチが設けられ、そのラバースイッチによって、押鍵及び離鍵が検出される。
The key
記憶部60は、読み取り専用の記憶部であるROM61と、読み書きが可能な記憶部であるRAM62と、を備えている。
The
ROM61は、例えば、制御部70が実行する制御プログラム(例えば、レッスンモードプログラム用のプログラム等)や各種データテーブル等を記憶している。
The
RAM62は、それぞれの鍵11に対応した楽音データ、楽曲データ等のデータが記憶される記憶領域であるとともに、演奏中に制御部70が生成するデータや制御用プログラムを展開させるための一時記憶領域としても機能する。
The
制御部70は、電子楽器2全体の制御を司る部分である。制御部70は、例えばLSI(Large Scale Integration)である。
The
そして、制御部70は、例えば、鍵11の押鍵に応じて楽音を発音部40から発音させる制御や鍵11の離鍵に応じて発音部40から発音されている楽音を消音する制御等を行う。
Then, the
通信部80は、外部機器との間で通信を行うための無線ユニットや有線ユニットを備えており、本実施形態では、情報処理装置1が有線接続されており、後ほど説明するように、情報処理装置1にデータの送信が行われる。
The
ただし、通信部80は、送信機能だけを行うものに限定される必要はなく、受信機能を併せ持っていてもよい。
However, the
そして、上記で説明した各部(表示部20、操作部30、発音部40、押鍵検出部50、記憶部60、制御部70、及び通信部80)は、バス100で通信可能に接続されており、各部間で必要なデータのやり取りが行えるようになっている。
Then, each unit (
<1−1−3>MIDIパッチャ
次にMIDIパッチャ(MIDIパッチベイ)5について説明する。
<1-1-3> MIDI Patcher Next, the MIDI patcher (MIDI patch bay) 5 will be described.
MIDIパッチャ5とは、MIDI信号の経路をかえる機器である。
The
具体的には、MIDIパッチャには、MIDI IN端子と、MIDI OUT端子がペアになって複数個用意されており、それぞれに番号が付いている。MIDIパッチャは、スイッチ等で操作することにより、複数のMIDI機器の接続を自在に切り換えることができる。 Specifically, the MIDI patcher has a plurality of MIDI IN terminals and MIDI OUT terminals as a pair, and each of them has a number. The MIDI patcher can freely switch the connection of a plurality of MIDI devices by operating it with a switch or the like.
図2の場合、MIDIパッチャ5は、二つの電子楽器2が接続された場合、二つの電子楽器2のMIDI信号を情報処理装置1に転送する。
In the case of FIG. 2, the
<1−1−4>ボーカルマイク
次にボーカルマイク6について説明する。
<1-1-4> Vocal Microphone Next, the
ボーカルマイク6は、ボーカルや生楽器の音を収集するための機器である。より具体的には、ボーカルマイク6は、音(空気の振動)を電気の信号に変換する。なお、ボーカルマイク6の例としては、ダイナミックマイク(電源不必要)、またはコンデンサーマイク(電源必要)等がある。
The
<1−1−5>アコースティックピアノ
次にアコースティックピアノ7について説明する。
<1-1-5> Acoustic Piano Next, the acoustic piano 7 will be described.
アコースティックピアノ7は、電気的なスピーカを使わず、奏者が鍵盤を押すとハンマーが弦を叩いて振動し、その振動が響板、さらにボディ全体へと伝わって音が鳴る楽器である。図示していないが、アコースティックピアノ7の音を電気の信号に変換する際には、ボーカルマイク6と同様の機器を介する必要がある。
The acoustic piano 7 is an instrument that does not use an electric speaker, and when a player presses a keyboard, a hammer strikes a string and vibrates, and the vibration is transmitted to the soundboard and the entire body to produce a sound. Although not shown, when converting the sound of the acoustic piano 7 into an electric signal, it is necessary to use the same equipment as the
<1−1−6>オーディオインタフェース
次に、オーディオインタフェース8について説明する。
<1-1-6> Audio Interface Next, the
ところで、ボーカルやアコースティックピアノなどの音(アナログ信号といいます)を、情報処理装置1で扱う際には、デジタル信号に変換する必要がある。オーディオインタフェース8では、アナログ信号をデジタル信号に変換(AD変換)することができる機器である。そのため、オーディオインタフェース8を用いる事で、ボーカルマイク6、または、アコースティックピアノ7からのアナログ信号を、デジタル信号に変換し、情報処理装置1に供給することができる。
By the way, when the
<1−1−7>情報処理装置
続いて、図2及び図4を参照して、情報処理装置について説明する。図4は、実施形態に係る情報処理装置のハードウェアを示す図である。
<1-1-7> Information Processing Device Next, the information processing device will be described with reference to FIGS. 2 and 4. FIG. 4 is a diagram showing the hardware of the information processing device according to the embodiment.
情報処理装置1は、本実施形態では、図2に示すように、PCであり、後述するような画像をディスプレイ装置4に表示させるためのアプリケーションがインストールされている。
In the present embodiment, the
ただし、情報処理装置1は、PCに限定される必要はなく、タブレット型の携帯端末等であってもよい。
However, the
また、情報処理装置1は、電子楽器2からMIDIコードを受信して曲データを再生させるシーケンサ等を備えていてもよい。
Further, the
図4に示すように、情報処理装置1は、主に、操作部101と、表示部102と、通信部103と、音出力部104と、制御部105と、記憶部106と、を備えている。
As shown in FIG. 4, the
操作部101は、例えば、情報処理装置1の電源のON/OFFを行うための電源スイッチ等のスイッチ類を含む。
The
表示部102は、液晶モニタを有し、画像を表示できる。表示部102は、タッチパネル機能を有しても良い。その場合、表示部102は、操作部101の一端を担うことができる。なお、ディスプレイ装置4の代わりに表示部102を用いても良い。
The
通信部103は、他の機器等との間で通信を行うための無線ユニットや有線ユニットを備えている。通信部103は、例えば電子楽器2、またはオーディオインタフェース8からのデータを受信する。また、通信部103は、例えばディスプレイ装置4の通信部に有線接続され、ディスプレイ装置4にデータを送信する。
The
音出力部104は、音を出力する部分であり、スピーカやイヤホンジャック等を有している。
The
記憶部106は、読み取り専用の記憶部である読み書きが可能な記憶部であるRAM(Random Access Memory)1061と、ROM(Read Only Memory)1062と、を備えている。
The
RAM1061は、揮発性メモリを含み、制御プログラムを動作させる上で必要なデータが記憶される記憶領域であるとともに、制御部105が生成するデータ、電子楽器2から送られたデータ(音高情報を含む演奏情報)、及び、アプリケーションを展開させるための一時記憶領域等としても機能する。
The
ROM1062は、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(登録商標)(Electrically Erasable Programmable ROM)といった不揮発性の半導体メモリであって、いわゆる二次記憶装置又は補助記憶装置としての役割を担う。
The
ROM1062は、プログラム10621及びテーブル10622を記憶する。プログラム10621は、制御部105が各種処理を行うために使用する。テーブル10622は、演奏情報と画像とを紐付けしたテーブルである。
制御部105は、情報処理装置1全体の制御を司る部分である。制御部105は、例えばCPU(Central Processing Unit)を備える。制御部105は、記憶部106のROM1062に格納されたプログラム10621を読み出し、記憶部106のRAM1061をワークエリアとして用いることにより、情報処理装置1を統括制御する。
The
次に、実施形態に係る情報処理装置1の制御部105の機能構成について説明する。制御部105は、ROM1062に格納されたプログラム10621を読み出して実行することにより、演奏判定部1051と、画像決定部1052と、画像情報出力部1053と、条件判定部1054と、演奏終了判定部1055と、接続機器判定部1056と、として機能する。なお、演奏判定部1051と、画像決定部1052と、画像情報出力部1053と、条件判定部1054と、演奏終了判定部1055と、接続機器判定部1056と、は、それぞれプログラムではなく、回路構成によって実現されても良い。
Next, the functional configuration of the
接続機器判定部1056は、外部(電子楽器2、またはオーディオインタフェース8)から入力された演奏データが、少なくとも第1機器(例えば電子楽器2)及び第2機器(例えば電子楽器2、またはオーディオインタフェース8)のいずれから入力された演奏データであるかを判定する。
In the connected
ところで、MIDIデータは、ポートの中を通って送信される。そして、このポートには、例えば16本の「チャンネル」が用意されている。音源は、1本のチャンネルにつき、1つのパートを再生することができる。そして、電子楽器2は、チャンネルを指定してMIDIデータを送信することができる。例えば、2つの電子楽器2が、異なるチャンネルを指定することで、接続機器判定部1056は、MIDIデータのチャネルから、二つの電子楽器2を判定することができる。
By the way, MIDI data is transmitted through the port. And, for example, 16 "channels" are prepared in this port. The sound source can reproduce one part per one channel. Then, the electronic
また、オーディオインタフェース8からのデジタル信号と、MIDI信号は異なる。そのため、接続機器判定部1056は、電子楽器2からの演奏データと、オーディオインタフェース8からの演奏データを判定することができる。
Further, the digital signal from the
演奏判定部1051は、通信部103を介して電子楽器2から受け付けた演奏情報(演奏データ)に基づいて、曲の調性(例えば、ハ長調からロ短調の24種類)、音名(例えば、ド、レ、ミ…)、コード種別(例えば、Major、Mimor、Sus4、Aug、Dim、7th等)、ベロシティ値(MIDI規格において音の強弱を表す数値)、音長、シンコペーション、コード機能、及びコード進行を判定する。なお、曲の調性、音名、コード種別、ベロシティ値、音長、シンコペーション、コード機能、及びコード進行の判定方法は、どのようなものでも良い。
Based on the performance information (performance data) received from the electronic
また、演奏判定部1051は、オーディオインタフェース8から受信したデジタル信号からピッチ抽出を行い、ピッチ情報から変換して得られたMIDI情報を基に音楽解析を行う。また、演奏判定部1051は、オーディオインタフェース8から受信したデジタル信号に対して多重音解析を行い、多重音解析を結果から変換して得られたMIDI情報を基に音楽解析を行う。なお、多重音解析で作られたMIDIは誤認識によるノイズが入る可能性があるため、誤認識により発生しやすい短いノートは無視する仕組みを入れても構わない。そして、演奏判定部1051は、電子楽器2から受信した信号と同様に、曲の調性、音名、コード種別、ベロシティ値、音長、シンコペーション、コード機能、及びコード進行を判定する。
Further, the
画像決定部1052は、接続機器判定部1056からの情報に基づき、どの楽器からデータを受信したかを判定できる。
The
画像決定部1052は、電子楽器2から演奏情報を受け付ける毎に、演奏判定部1051により判定された情報に基づいて、画像グループ(キャラクタグループ)の中に含まれる何れかの画像データ(キャラクタ)を決定する。
Each time the
ここで、図5を参照して、演奏判定部1051により判定された情報と、画像データとの関係について説明する。図5は、ROM1062のテーブル10622に、記憶されているテーブルの一例を示す図である。
Here, with reference to FIG. 5, the relationship between the information determined by the
図5に示すように、テーブル10622には、例えば音名(ここでは、ド、レ、ミ、ファ、ソ、ラ、シの例)に対応して画像(キャラクタ)が設定された第1画像グループと、第2画像グループと、が記憶されている。画像決定部1052は、例えば第1楽器に第1画像グループが割り当てられ、第2楽器に第2画像グループが割り当てられる。また、テーブル10622には、これに限らず、他の音名(例えば、ド♯等)や、コード種別に応じた画像も記憶されていて良い。
As shown in FIG. 5, in the table 10622, for example, a first image (character) in which an image (character) is set corresponding to a note name (here, an example of do, re, mi, fa, so, la, shi) is set. The group and the second image group are stored. In the
例えば、画像決定部1052は、第1楽器から受信した第1演奏情報に含まれる音名が「ド」であると判定すると、テーブル10622の第1画像グループの「蝶」の画像(キャラクタ)を決定する。また、画像決定部1052は、第2楽器から受信した第2演奏情報に含まれる音名が「ミ」であると判定すると、テーブル10622の第2画像グループの「猿」の画像(キャラクタ)を決定する。
For example, when the
ここで、図6を参照して、画像(キャラクタ)の表示方法について説明する。図6は、画像(キャラクタ)の表示例について示した図である。 Here, a method of displaying an image (character) will be described with reference to FIG. FIG. 6 is a diagram showing a display example of an image (character).
図6に示すように、テーブル10622に記憶されている画像(キャラクタ)は、例えば、基本形である。画像決定部1052は、演奏情報に含まれるベロシティ値に基づいて、ディスプレイ装置4に表示する画像(キャラクタ)のサイズを決定する。基本形のサイズは高さHB、幅WBと決まっている。そして、例えば、ベロシティ値に基づいて、高さHB、及び幅WBのパーセンテージを変更することで、高さHC、及び幅WCへと変更する。また、画像決定部1052は、ランダムに画像(キャラクタ)の基本形をR度回転させたり、左右反転させたり、色を変更しても良い。なお、ここでは詳細に記載しないが、画像決定部1052は、ここに示さない情報に基づいて、サイズ、回転、反転、または色を適宜変更しても良い。
As shown in FIG. 6, the image (character) stored in the table 10622 is, for example, a basic form. The
画像決定部1052は、リアルタイム画像を表示させる際において、演奏情報(例えばコード進行)に基づいて、ディスプレイ装置4の表示部において画像(キャラクタ)を配置する軌道パターン(第1条件)を決定する。軌道パターン(第1条件)は、例えばROM1062に記憶されている。
When displaying a real-time image, the
ここで、図7を参照して、画像(キャラクタ)を表示する際の軌道パターンの一例について説明する。図7は、ディスプレイ装置4の表示部401に表示されるリアルタイム画像における画像(キャラクタ)の軌道パターンの一例について示した図である。図7では、二つの楽器(第1楽器、または第2楽器)に基づくリアルタイム画像を示している。
Here, an example of an orbital pattern when displaying an image (character) will be described with reference to FIG. 7. FIG. 7 is a diagram showing an example of a trajectory pattern of an image (character) in a real-time image displayed on the
図7に示すように、第1楽器に関する軌道パターンの一例としては、リアルタイム画像の上半分(1st(U)を参照)、且つ矢印A1に沿った仮想の矢印上に画像(キャラクタ)が順に配置される。また、第2楽器に関する軌道パターンの一例としては、リアルタイム画像の下半分(1st(L)を参照)、且つ矢印A2に沿った仮想の矢印上に画像(キャラクタ)が順に配置される。 As shown in FIG. 7, as an example of the trajectory pattern related to the first musical instrument, the upper half of the real-time image (see 1st (U)) and the image (character) are arranged in order on the virtual arrow along the arrow A1. Will be done. Further, as an example of the trajectory pattern relating to the second musical instrument, the images (characters) are sequentially arranged on the lower half of the real-time image (see 1st (L)) and on the virtual arrow along the arrow A2.
なお、軌道パターンの仮想の矢印(A1、A2)上に各画像(キャラクタ)の少なくとも一部が重なるように、各画像(キャラクタ)が配置される。 Each image (character) is arranged so that at least a part of each image (character) overlaps on the virtual arrows (A1, A2) of the trajectory pattern.
画像決定部1052は、ユーザの演奏後にディスプレイ装置4に表示させるための演奏後画像の軌道パターン(第2条件)を生成する。画像決定部1052は、それぞれの演奏情報に対応付けた画像(キャラクタ)を配置する軌道パターン(第2条件)を生成する。画像決定部1052は、演奏判定部1051が算出した演奏時間に基づいて演奏の軌道パターン(第2条件)の長さを決定する。例えば、演奏時間が第1演奏時間長の場合の軌道パターン(第2条件)の長さである第1長と、演奏時間が第2演奏時間長の場合の軌道パターン(第2条件)の長さである第2長とについて、第1演奏時間長が第2演奏時間長よりも短い場合、第1長は第2長よりも短くなる。
The
図8を参照して、画像決定部1052が生成する軌道パターン(第2条件)の一例を説明する。図8は、画像決定部1052が生成する軌道パターン(第2条件)の一例である渦巻線を示す図である。
An example of the trajectory pattern (second condition) generated by the
画像決定部1052は、演奏後画像を生成する際、図8に示すような矢印に沿った仮想の渦巻線上に画像(キャラクタ)が、「演奏の始め」から「演奏の終わり」に向かって順に配置される。特に、第1楽器に関する画像(キャラクタ)は、矢印B1側に設けられ、第2楽器に関する画像(キャラクタ)は、矢印B2側に設けられる。
When the
なお、例えば、「演奏の始め」の位置と、「演奏の終わり」の位置と、は固定され、演奏の時間が長くなるにつれて、渦巻線状の軌道パターン(第2条件)の長さが伸びる。 For example, the "start of performance" position and the "end of performance" position are fixed, and the length of the spiral orbital pattern (second condition) increases as the performance time increases. ..
画像情報出力部1053は、画像決定部1052が生成した軌道パターン(第2条件)上に、演奏情報について対応付けた画像(キャラクタ)を配置してリアルタイム画像または演奏後画像を生成し、画像を表示するための情報である画像情報を生成する。
The image
演奏終了判定部1055は、少なくとも演奏情報の入力を或る時間受け付けないこと、及び通信部103を介して演奏終了を示す情報を受け付けたこと、のいずれかにより演奏が終了したか否かを判定する。
The performance
条件判定部1054は、通信部103を介して取得される演奏データ、または演奏終了判定部1055からの情報に基づき、第1条件を満たすか否か、または、第2条件を満たすか否かを判定することができる。そして、条件判定部1054は、その旨を、画像決定部1052に通知する。なお、この条件は、例えばRAM1061に設定(記憶)されている。
The
画像決定部1052は、条件判定部1054からの情報に基づいて、リアルタイム画像、または演奏後画像を生成する。
The
そして、上記で説明した各部(操作部101、表示部102、通信部103、音出力部104、制御部105及び記憶部106)は、バス107で通信可能に接続されており、各部間で必要なデータのやり取りが行えるようになっている。
Each unit (
ユーザが、演奏のために、電子楽器2の鍵11を押鍵すると、押鍵検出部50によって鍵11の押鍵が検出されることになる。
When the user presses the key 11 of the electronic
そして、鍵11の押鍵が検出されると、電子楽器2の制御部70は、その押鍵された鍵11に対応する演奏情報(例えば、音高情報等(ノートナンバーやベロシティ値等)を含むノートオン)を生成する。そして、電子楽器2の制御部70は、スピーカ3(または発音部40)から、その演奏情報に応じた音を発音させる制御を行う。
Then, when the key 11 is detected, the
一方、ユーザが、押鍵していた鍵11を離鍵すると、押鍵検出部50によって鍵11の離鍵が検出されることになる。
On the other hand, when the user releases the key 11 that has been pressed, the key
そして、鍵11の離鍵が検出されると、電子楽器2の制御部70は、その離鍵された鍵11に対応する演奏情報(例えば、ノートオフ)を生成する。そして、電子楽器2の制御部70は、スピーカ3(または発音部40)から、その演奏情報に応じた音を消音させる制御を行う。
Then, when the release of the key 11 is detected, the
そして、この電子楽器2の制御部70が生成する演奏情報は、電子楽器2の通信部80から情報処理装置1の通信部103に送信される。
Then, the performance information generated by the
<1−1−8>スピーカ
スピーカ3は、発音部40は、音を出力する部分である。スピーカ3は、電子楽器2のHPジャック44に接続することにより、HPジャック44から音の信号を受信し、音の出力を行う。
<1-1-8> Speaker In the speaker 3, the sounding
<1−1−9>ディスプレイ装置
ディスプレイ装置4は、表示部401として液晶モニタを有し、画像を表示できる。ディスプレイ装置4は、情報処理装置1の通信部103に有線接続され、情報処理装置1からのデータを受信する。そして、ディスプレイ装置4は、表示部401に、データに基づく画像を表示する。
<1-1-9> Display device The display device 4 has a liquid crystal monitor as a
<1−1−10>楽器の組み合わせ
図9を用いて、本実施形態における、楽器の組み合わせについて説明する。
<1-1-10> Combination of musical instruments With reference to FIG. 9, the combination of musical instruments in the present embodiment will be described.
図9に示すように、楽器の組み合わせとしては、おおよそ8通りの組み合わせが想定される。 As shown in FIG. 9, approximately eight combinations of musical instruments are assumed.
<1−1−10−1>ケース1
ケース1は、電子楽器2(0)(デジタル単音楽器)のみを、情報処理装置1に接続するケースである。
<1-1-10-1>
この場合は、例えば電子楽器2を介して情報処理装置1に単音の演奏データが供給される(単音入力)。
In this case, single-note performance data is supplied to the
<1−1−10−2>ケース2
ケース2は、電子楽器2(1)(デジタル和音楽器)のみを、情報処理装置1に接続するケースである。
<1-1-10-2>
この場合は、例えば電子楽器2を介して情報処理装置1に和音の演奏データが供給される(和音入力)。
In this case, chord performance data is supplied to the
<1−1−10−3>ケース3
ケース3は、電子楽器2(0)(デジタル単音楽器)及び電子楽器2(1)(デジタル単音楽器)を、情報処理装置1に接続するケースである。
<1-1-10-3> Case 3
Case 3 is a case in which the electronic musical instrument 2 (0) (digital monophonic instrument) and the electronic musical instrument 2 (1) (digital monophonic instrument) are connected to the
この場合は、例えばMIDIパッチャ5を介して情報処理装置1に単音の演奏データと、和音の演奏データとが供給される。これは、例えば、一人が伴奏を弾き、もう一人がメロディを弾く場合である。
In this case, for example, the performance data of a single note and the performance data of a chord are supplied to the
<1−1−10−4>ケース4
ケース4は、電子楽器2(1)(デジタル和音楽器)及びボーカルマイク6(ボーカル、またはアコースティック単音楽器)を、情報処理装置1に接続するケースである。
<1-1-10-4> Case 4
Case 4 is a case in which the electronic musical instrument 2 (1) (digital Japanese musical instrument) and the vocal microphone 6 (vocal or acoustic monophonic instrument) are connected to the
この場合は、例えば電子楽器2を介して情報処理装置1に和音の演奏データが供給され、オーディオインタフェース8を介して情報処理装置1に単音の演奏データが供給される。これは、例えば、伴奏に合せて歌う場合である。
In this case, for example, chord performance data is supplied to the
<1−1−10−5>ケース5
ケース5は、ボーカルマイク6(ボーカル、またはアコースティック単音楽器)を、情報処理装置1に接続するケースである。
<1-1-10-5>
この場合は、例えばオーディオインタフェース8を介して情報処理装置1に単音の演奏データが供給される。これは、例えば、歌のみの場合である。
In this case, single-note performance data is supplied to the
<1−1−10−6>ケース6
ケース6は、アコースティックピアノ7(アコースティック和音楽器、またはカラオケの伴奏音源)を、情報処理装置1に接続するケースである。
<1-1-10-6>
この場合は、例えばオーディオインタフェース8を介して情報処理装置1に和音の演奏データが供給される。これは、例えば、アコースティック和音楽器、またはカラオケの伴奏音源のみの場合である。
In this case, chord performance data is supplied to the
<1−1−10−7>ケース7
ケース7は、ボーカルマイク6(ボーカル、またはアコースティック単音楽器)及びアコースティックピアノ7(アコースティック和音楽器、またはカラオケの伴奏音源)を、情報処理装置1に接続するケースである。
<1-1-10-7> Case 7
Case 7 is a case in which a vocal microphone 6 (vocal or acoustic monophonic instrument) and an acoustic piano 7 (acoustic Japanese musical instrument or karaoke accompaniment sound source) are connected to the
この場合は、例えばオーディオインタフェース8を介して情報処理装置1に単音の演奏データと、和音の演奏データが供給される。これは、例えば、アコースティック和音楽器、またはカラオケの伴奏音源に合せて歌う場合である。
In this case, for example, the performance data of a single note and the performance data of a chord are supplied to the
<1−1−10−4>ケース4
ケース4は、電子楽器2(0)(デジタル単音楽器)及びアコースティックピアノ7(アコースティック和音楽器、またはカラオケの伴奏音源)を、情報処理装置1に接続するケースである。
<1-1-10-4> Case 4
Case 4 is a case in which the electronic musical instrument 2 (0) (digital monophonic instrument) and the acoustic piano 7 (acoustic Japanese musical instrument or karaoke accompaniment sound source) are connected to the
この場合は、例えば電子楽器2を介して情報処理装置1に単音の演奏データが供給され、オーディオインタフェース8を介して情報処理装置1に和音の演奏データが供給される。これは、例えば、カラオケの伴奏音源に合せてメロディを弾く場合である。
In this case, for example, single-tone performance data is supplied to the
本実施形態に係る情報処理装置1によれば、上述した全てのケースにおいて、リアルタイム画像及び演奏後画像を生成することが可能である。
According to the
なお、上述したケースは、一例であり、3つ以上の楽器が情報処理装置1に接続されても良い。
The above-mentioned case is an example, and three or more musical instruments may be connected to the
<1−2>動作
<1−2−1>フローチャート
次に、図10を参照して、情報処理装置1の動作を説明する。図10は、情報処理装置1の動作を示すフローチャートである。
<1-2> Operation <1-2-1> Flow chart Next, the operation of the
なお、以下の説明では、情報処理装置1の通信部103と電子楽器2の通信部80の間は、接続されているものとする。また、これから説明するように、情報処理装置1の制御部105は、画像をディスプレイ装置4に表示させるためのアプリケーションを起動しているものとする。
In the following description, it is assumed that the
≪S1001≫
図10に示すように、情報処理装置1の制御部105(接続機器判定部1056)は、情報処理装置1に接続される楽器を確認する。例えば、楽器の情報処理装置1への接続のケースは、図9に示した通りである。そして、情報処理装置1の制御部105(画像決定部1052)は、情報処理装置1に接続された楽器毎に、異なる画像グループを割り当てる。これにより、情報処理装置1の制御部105(画像決定部1052)は、リアルタイム画像、及び演奏後画像に関する描画設定を行う。
≪S1001≫
As shown in FIG. 10, the control unit 105 (connected device determination unit 1056) of the
≪S1002≫
図10に示すように、情報処理装置1の制御部105は、楽器から送信された演奏情報が情報処理装置1の通信部103で受信され、演奏情報の入力が有ったかを判定(ステップS1002)する。情報処理装置1の制御部105は、演奏情報の入力がない場合(ステップS1002:NO)、ステップS1006に進む。
≪S1002≫
As shown in FIG. 10, the
≪S1003≫
そして、楽器から送信された演奏情報が情報処理装置1の通信部103で受信されると(ステップS1002:YES)、情報処理装置1の制御部105は、演奏情報の入力を受付ける受付処理を実行し、ステップS1003の演奏判定処理(音楽解析、または音楽解析処理と記載しても良い)を実行する。
≪S1003≫
Then, when the performance information transmitted from the musical instrument is received by the
具体的には、情報処理装置1の制御部105(演奏判定部1051)は、ステップS1003の演奏判定処理として、受付けた演奏情報に基づき、例えば、曲の調性、音名、コード種別、ベロシティ値、音長、シンコペーション、コード機能、及びコード進行の判定等を行う。
Specifically, the control unit 105 (performance determination unit 1051) of the
ただし、ステップS1003の演奏判定処理として、情報処理装置1の制御部105(演奏判定部1051)は、曲の調性、音名、コード種別、ベロシティ値、音長、シンコペーション、コード機能、及びコード進行の判定のうちのいずれかを行うものとしてもよい。
However, as the performance determination process in step S1003, the control unit 105 (performance determination unit 1051) of the
ステップS1003の演奏判定処理として、具体的に、どのようなものが判定されているのか等の詳細については、次のステップS1004のところで説明する。 The details of what is specifically determined as the performance determination process in step S1003 will be described in the next step S1004.
≪S1004≫
情報処理装置1の制御部105(画像決定部1052)は、ステップS1003の演奏判定処理を終えると、ステップS1004に進み、演奏情報を受付けたタイミングに合せて、演奏情報に応じたリアルタイム画像を生成する。そして、情報処理装置1の制御部105(画像情報出力部1053)は、ディスプレイ装置4に出力して表示するリアルタイム画像出力処理を実行する。
≪S1004≫
When the control unit 105 (image determination unit 1052) of the
なお、上述した「演奏情報を受付けたタイミングに合せて」とは、時間的に同時を意味するものではなく、演奏情報を受付けるごとに、を意味する点に留意されたい。 It should be noted that the above-mentioned "according to the timing at which the performance information is received" does not mean simultaneous time, but means each time the performance information is received.
本実施形態では、情報処理装置1の記憶部106に記憶されている基礎となる画像をコンピュータグラフィックス(CG)で加工してリアルタイム画像を作成してディスプレイ装置4に表示させるようにしているが、ディスプレイ装置4に表示させるリアルタイム画像は、このような手法によるものに限定される必要はなく、演奏情報に応じたリアルタイム画像であればよい。
In the present embodiment, the basic image stored in the
≪S1005≫
情報処理装置1の制御部105(演奏終了判定部1055)は、楽器から送信された演奏情報が情報処理装置1の通信部103で受信されない場合(ステップS1002:NO)、または演奏データが設定された条件を満たさないと判定する場合(S1004:NO)、またはステップS1004の後、演奏終了判定処理を行う。具体的には、情報処理装置1の制御部105は、演奏情報の入力無しで所定の時間経過するか否かを判定する。情報処理装置1の制御部105は、演奏情報の入力無しで所定の時間経過していない場合(ステップS1005:NO)、再び、ステップS1002に進み、演奏情報の入力が有ったか否かを判定する。
≪S1005≫
The control unit 105 (performance end determination unit 1055) of the
≪S1006≫
情報処理装置1の制御部105(演奏終了判定部1055)は、演奏情報の入力無しで所定の時間経過した場合(ステップS1005:YES)、つまり、演奏情報の受付が所定の時間検出されない場合、演奏が終了したものと判定する。情報処理装置1の制御部105(画像決定部1052、及び画像情報出力部1053)は、演奏が終了したものと判定する場合、ステップS1006に進んで、演奏後画像をディスプレイ装置4に出力して表示する演奏後画像出力処理を行い、全体の処理を終了する。
≪S1006≫
The control unit 105 (performance end determination unit 1055) of the
また、伴奏データを自動再生し、メロディを演奏者に指定させる場合に本実施形態を適用した場合には、伴奏データの自動再生が終了した時点で演奏が終了したものと判定して演奏後画像出力処理を行ってもよい。すなわち、情報処理装置1の制御部105が、演奏者による演奏終了を判定する理由はどのような理由であってもよく、情報処理装置1の制御部105が、演奏者による演奏終了を判定した時点で、演奏後画像出力処理が実行されればよい。
Further, when the present embodiment is applied when the accompaniment data is automatically reproduced and the melody is specified by the performer, it is determined that the performance is completed when the automatic reproduction of the accompaniment data is completed, and the image after the performance is performed. Output processing may be performed. That is, the reason why the
一方、情報処理装置1の制御部105は、演奏情報の入力無しで所定の時間経過していない場合(ステップS1005:NO)、再び、ステップS1002に進み、演奏情報の入力が有ったか否かを判定する。
On the other hand, if the predetermined time has not elapsed without inputting the performance information (step S1005: NO), the
<1−2−2>具体例
次に、情報処理装置1の動作の具体例を説明する。
<1-2-2> Specific Example Next, a specific example of the operation of the
具体例では、例えば、二人のユーザが「故郷(ふるさと)」を弾く場合において、二人のユーザに画像グループが割り当てられる場合について説明する。 In a specific example, for example, when two users play "hometown", a case where an image group is assigned to the two users will be described.
<1−2−2−1>リアルタイム画像の描画例
続いて、図11を用いて、二人のユーザが「故郷(ふるさと)」を弾くことにより、異なる画像グループが描画される様子を説明する。図11は、第1ユーザ及び第2ユーザがメロディを弾いている場合における、リアルタイム画像を示している。
<1-2-2-1> Example of drawing a real-time image Next, using FIG. 11, a state in which different image groups are drawn by two users playing "hometown" will be described. .. FIG. 11 shows a real-time image when the first user and the second user are playing the melody.
図11に示すように、第1ユーザが電子楽器2(0)にてメロディを弾く場合、情報処理装置1の制御部105は、リアルタイム画像として、第1画像グループに含まれる画像(虫のキャラクタ)をディスプレイ装置4に表示させる。この際、例えば、リアルタイム画像の上半分(1st(U)を参照)の矢印A1に沿って画像(虫のキャラクタ)が表示される(図中のC1、及びD1〜D6参照)。
As shown in FIG. 11, when the first user plays a melody on the electronic musical instrument 2 (0), the
また、図11に示すように、第2ユーザが電子楽器2(1)にて伴奏を弾く場合、情報処理装置1の制御部105は、リアルタイム画像として、第2画像グループに含まれる画像(動物のキャラクタ)をディスプレイ装置4に表示させる。この際、例えば、リアルタイム画像の下半分(1st(L)を参照)の矢印A2に沿って画像(動物のキャラクタ)が表示される(図中のC2、及びE1〜E6参照)。
Further, as shown in FIG. 11, when the second user plays the accompaniment on the electronic musical instrument 2 (1), the
<1−2−2−5>演奏後画像の描画例
続いて、図12を用いて、二人のユーザが「故郷」の演奏を終了した後の演奏後画像について説明する。図12は、二人のユーザが曲の演奏を終了した後の演奏後画像を示している。
<1-2-2-5> Example of Drawing Post-Performance Image Next, with reference to FIG. 12, a post-performance image after the two users have finished playing in their "hometown" will be described. FIG. 12 shows a post-performance image after the two users have finished playing the song.
情報処理装置1の制御部105は、二人のユーザが演奏を終了したと判定すると、演奏後画像をディスプレイ装置4に表示させる。
When the
図12に示すように、情報処理装置1の制御部105は、第1ユーザの演奏に対応する個所には第1グループの画像(虫のキャラクタ)を配置(C1参照)し、第2ユーザの演奏に対応する個所には第2グループの画像(動物のキャラクタ)を配置(C2参照)する。
As shown in FIG. 12, the
これにより、上述した効果と同様の効果を得ることができる。 Thereby, the same effect as the above-mentioned effect can be obtained.
<1−3>効果
上述した実施形態によれば、ユーザの演奏(音楽)に合わせて画像を描く演奏データ表示システムにおいて、複数の演奏が入力された際に、ユーザ毎に異なる表現を出力する。
<1-3> Effect According to the above-described embodiment, in a performance data display system that draws an image according to a user's performance (music), when a plurality of performances are input, different expressions are output for each user. ..
例えば、ユーザの演奏(音楽)に合わせて画像を描く演奏データ表示システムは、ユーザの電子楽器の練習意欲を掻き立てることができる。しかし、複数のユーザにて演奏する場合において、ユーザ毎に画像を変更しないと、一人の演奏の音数が増えたものと同じ表現しか出来ない。この場合、画像と、各演奏との対応関係が不明瞭となる。 For example, a performance data display system that draws an image according to a user's performance (music) can stimulate the user's motivation to practice an electronic musical instrument. However, when playing by a plurality of users, unless the image is changed for each user, only the same expression as when the number of sounds of one performance is increased can be obtained. In this case, the correspondence between the image and each performance becomes unclear.
しかし、上述した実施形態によれば、複数のユーザにそれぞれ描画表現をわりあてることができる。その結果、ユーザの演奏と、画像との関係が明確になり、より楽しさを提供できる。その結果、ユーザの電子楽器の練習意欲を更に掻き立てることができる。 However, according to the above-described embodiment, the drawing expression can be assigned to each of a plurality of users. As a result, the relationship between the user's performance and the image becomes clear, and more enjoyment can be provided. As a result, the user's willingness to practice the electronic musical instrument can be further stimulated.
また、上述した実施形態では、オーディオインタフェースを用い、且つ、情報処理装置1にて音楽解析を行うことで、生音であっても画像に変換することができる。
Further, in the above-described embodiment, even raw sound can be converted into an image by using an audio interface and performing music analysis with the
<2>変形例
なお、上述した実施形態において、情報処理装置1の制御部105は、図10のステップS1001における描画設定変更の際、画像グループの切り替えを行っている。しかし、これに限らず、例えば、「画像(キャラクタ)の表示位置」、「明るさの変更」、「画像(キャラクタ)のサイズの変更」、「背景色(リアルタイム画像、または演奏後画像の背景の色)や、画像(キャラクタ)の色テーブルの変更」、「特定の条件を満たす際に表示される画像(ボーナスキャラクタ)の種類の変更」、または「画像(キャラクタ)の動きを変更」等でも良い。なお、背景色(リアルタイム画像、または演奏後画像の背景の色)や、画像(キャラクタ)の色テーブルは、例えばROM1062に記憶されている。また、特定の条件を満たす際に表示される画像(ボーナスキャラクタ)とは、例えば情報処理装置1の制御部105がユーザの演奏のリズムなどが安定していると判定する場合に、リアルタイム画像に表示される画像である。また、画像(キャラクタ)はアニメーション等で動いても良い。また、複数の画像グループにおいて、同じ画像(キャラクタ)を含んでいても良い。また、楽器が「ボーカル」の場合、「ボーカル」が目立つように大きく、リアルタイム画像や演奏後画像の中心に表示しても良い。また、低音楽器は丸く、高音楽器はトゲトゲしく表現しても構わない。
<2> Modification Example In the above-described embodiment, the
また、上述した実施形態では、二つの楽器に関する画像を描画する例について示したが、これに限らない。例えば、図13に示すように、4つの楽器(ピアノ、ベースギター、エレキギター、電子楽器等)を情報処理装置1に接続しても良い。更に、図13に示すように、例えばリアルタイム画像または演奏後画像を4分割し、それぞれに楽器を割り当てても良い。これにより、誰がどの画像(キャラクタ)を描いているのかは、4分割させた画面の場所でわかる。
Further, in the above-described embodiment, an example of drawing an image relating to two musical instruments has been shown, but the present invention is not limited to this. For example, as shown in FIG. 13, four musical instruments (piano, bass guitar, electric guitar, electronic musical instrument, etc.) may be connected to the
また、図14に示すように、リアルタイム画像または演奏後画像を明確に分割せず、1枚の画像として描画しても良い。しかし、楽器毎に、画像(キャラクタ)を変えているので、誰がどの画像(キャラクタ)を描いているのかが判定できる。 Further, as shown in FIG. 14, the real-time image or the image after the performance may not be clearly divided and may be drawn as one image. However, since the image (character) is changed for each musical instrument, it is possible to determine who is drawing which image (character).
また、複数のユーザの演奏が所定の条件(例えば、タイミングの一致)を満たす場合、リボン等の特殊な画像(キャラクタ)がリアルタイム画像、または演奏後画像に描画されても良い。 Further, when the performances of a plurality of users satisfy a predetermined condition (for example, matching of timings), a special image (character) such as a ribbon may be drawn on a real-time image or a post-performance image.
以下に、簡単にその特殊な画像(キャラクタ)の描画に関するフローチャートを説明する。 The flowchart for drawing the special image (character) will be briefly described below.
図15に示すステップS2001〜S2004、S2007、及びS2008については、図10のステップS1001〜S1006と同様である。そこで、ステップS2005と、S2006について説明する。 Steps S2001 to S2004, S2007, and S2008 shown in FIG. 15 are the same as steps S1001 to S1006 of FIG. Therefore, steps S2005 and S2006 will be described.
≪S2005≫
情報処理装置1の制御部105(条件判定部1054)は、演奏データが、設定された条件を満たすか否かを判定する。この設定された条件を満たすか否かを判定する例としては、複数のユーザの演奏のタイミングが一致したか否かを判定しても良い。
≪S2005≫
The control unit 105 (condition determination unit 1054) of the
≪S2006≫
情報処理装置1の制御部105(画像決定部1052、及び画像情報出力部1053)は、演奏データが、設定された条件を満たすと判定する場合(S2005:YES)、リアルタイム画像(及び演奏後画像)の描画設定を変更する。具体的には、情報処理装置1の制御部105(画像決定部1052、及び画像情報出力部1053)は、設定された条件を満たすと判定された演奏データの後に、専用の画像(キャラクタ)を表示させる。具体的には、図16に示すように、リボンの画像(キャラクタ)を描画する。
≪S2006≫
When the control unit 105 (
また、情報処理装置1の制御部105は、「和音」「単音」の判定を、手動(例えばMIDIのチャンネルの選択)で行われても良いし、自動認識で行っても良い。
Further, the
また、情報処理装置1の制御部105は、ピッチ抽出や多重音解析の結果をMIDI形式に変換しているが、特にMIDIの形式にしなくても良い。
Further, although the
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.
なお、上記実施形態は、以下の付記を含むものである。 The above embodiment includes the following additional notes.
≪付記1≫
情報処理装置のコンピュータに、
入力された演奏データが、少なくとも第1機器(例えば第1電子楽器)及び第2機器(例えば第2電子楽器又は、オーディオインタフェース)のいずれから入力された演奏データであるかを判定させ、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別。演奏データには音名情報やコード種別情報は含まれておらず、演奏データに含まれるノートナンバー情報から音名情報やコード種別情報が判定できる)に応じて、第1画像データを表示させ、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別)が、たとえ前記第1機器と判定された場合と同じであったとしても、前記第1画像データとは異なる態様の第2画像データを表示させる、
プログラム。
To the computer of the information processing device
It is made to determine whether the input performance data is the performance data input from at least the first device (for example, the first electronic musical instrument) or the second device (for example, the second electronic musical instrument or the audio interface).
Information that can be determined based on the input performance data (for example, note name, chord type. The performance data does not include note name information or chord type information, and the performance data) when it is determined to be the first device. The first image data is displayed according to the note number information included in (the note name information and the chord type information can be determined).
Even if the information (for example, sound name, chord type) that can be determined based on the input performance data when it is determined to be the second device is the same as when it is determined to be the first device. Displaying the second image data in a mode different from that of the first image data.
program.
≪付記2≫
前記いずれから入力された演奏データであるかは、入力された演奏データに含まれる情報(例えばMIDIのチャンネル情報)から判定させる、
付記1に記載のプログラム。
Which of the above is the input performance data is determined from the information contained in the input performance data (for example, MIDI channel information).
The program described in
≪付記3≫
前記第1画像データは、第1画像グループのなかに含まれ、
前記第2画像データは、第2画像グループのなかに含まれ、
前記第1画像グループ及び前記第2画像グループのなかには、同じ画像データが含まれていてもよい、
付記1または2に記載のプログラム。
≪Appendix 3≫
The first image data is included in the first image group,
The second image data is included in the second image group, and is included in the second image group.
The same image data may be included in the first image group and the second image group.
The program described in
≪付記4≫
前記判定できる情報は、少なくとも音名情報(例えば演奏データには音名情報は含まれておらず、演奏データに含まれるノートナンバー情報から音名情報が判定できる)及び、コード種別情報(例えば音名情報と同様)のいずれかを含む、
付記1乃至3のいずれか一項に記載のプログラム。
≪Appendix 4≫
The information that can be determined is at least note name information (for example, note name information is not included in the performance data, and note number information can be determined from note number information included in the performance data) and chord type information (for example, sound). Includes any of (similar to name information),
The program according to any one of
≪付記5≫
前記第1機器は、第1電子楽器及びオーディオインタフェースのいずれかを含み、
前記第2機器は、第2電子楽器及びオーディオインタフェースのいずれかを含む、
付記1乃至4のいずれか一項に記載のプログラム。
The first device includes either a first electronic musical instrument or an audio interface.
The second device includes either a second electronic musical instrument or an audio interface.
The program according to any one of
≪付記6≫
情報処理装置のコンピュータに、
入力された演奏データが、少なくとも第1機器(例えば第1電子楽器)及び第2機器(例えば第2電子楽器又は、オーディオインタフェース)のいずれから入力された演奏データであるかを判定させ、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別。演奏データには音名情報やコード種別情報は含まれておらず、演奏データに含まれるノートナンバー情報から音名情報やコード種別情報が判定できる)に応じて、第1画像データを表示させ、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別)が、たとえ前記第1機器と判定された場合と同じであったとしても、前記第1画像データとは異なる態様の第2画像データを表示させる、
方法。
To the computer of the information processing device
It is made to determine whether the input performance data is the performance data input from at least the first device (for example, the first electronic musical instrument) or the second device (for example, the second electronic musical instrument or the audio interface).
Information that can be determined based on the input performance data (for example, note name, chord type. The performance data does not include note name information or chord type information, and the performance data) when it is determined to be the first device. The first image data is displayed according to the note number information included in (the note name information and the chord type information can be determined).
Even if the information (for example, sound name, chord type) that can be determined based on the input performance data when it is determined to be the second device is the same as when it is determined to be the first device. Displaying the second image data in a mode different from that of the first image data.
Method.
≪付記7≫
ディスプレイ装置と、
プロセッサと、を含み、前記プロセッサが、
入力された演奏データが、少なくとも第1機器(例えば第1電子楽器)及び第2機器(例えば2電子楽器又は、オーディオインタフェース)のいずれから入力された演奏データであるかを判定し、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別。演奏データには音名情報やコード種別情報は含まれておらず、演奏データに含まれるノートナンバー情報から音名情報やコード種別情報が判定できる)に応じて、第1画像データの前記ディスプレイ装置への表示を指示し、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別)が、たとえ前記第1機器と判定された場合と同じであったとしても、前記第1画像データとは異なる態様の第2画像データの前記ディスプレイ装置への表示を指示する、
電子機器。
≪Appendix 7≫
Display device and
The processor, including the processor,
It is determined whether the input performance data is the performance data input from at least the first device (for example, the first electronic musical instrument) or the second device (for example, the second electronic musical instrument or the audio interface).
Information that can be determined based on the input performance data (for example, note name, chord type. The performance data does not include note name information or chord type information, and the performance data) when it is determined to be the first device. The note number information included in the data can be used to determine the note name information and the code type information), and the display of the first image data on the display device is instructed.
Even if the information (for example, sound name, chord type) that can be determined based on the input performance data when it is determined to be the second device is the same as when it is determined to be the first device. Instructing the display of the second image data in a mode different from that of the first image data on the display device.
Electronics.
≪付記8≫
第1機器と、第2機器と、ディスプレイ装置と、を備え、
前記第1機器は、
第1ユーザによる演奏操作に応じて前記第1機器を識別可能な第1識別子(例えばMIDIの第1チャンネル番号)を含む第1演奏データを生成するとともに、生成された前記第1演奏データを前記ディスプレイ装置に出力し、
前記第2機器は、
第2ユーザによる演奏操作に応じて前記第2機器を識別可能な第2識別子を含む第2演奏データを生成するとともに、生成された前記第2演奏データを前記ディスプレイ装置に出力し、
前記ディスプレイ装置は、
入力される前記第1演奏データに基づいて判定できる情報(例えば音名、コード種別)に応じて、第1画像データを表示し、
入力される前記第2演奏データに基づいて判定できる情報(例えば音名、コード種別)が、たとえ前記第1演奏データに基づいて判定できる情報と同じであったとしても、前記第1画像データとは異なる態様の第2画像データを表示する、
演奏データ表示システム。
A first device, a second device, and a display device are provided.
The first device is
The first performance data including the first identifier (for example, the first channel number of MIDI) that can identify the first device according to the performance operation by the first user is generated, and the generated first performance data is used as described above. Output to the display device
The second device is
The second performance data including the second identifier that can identify the second device is generated according to the performance operation by the second user, and the generated second performance data is output to the display device.
The display device is
The first image data is displayed according to the information (for example, note name, chord type) that can be determined based on the input first performance data.
Even if the information that can be determined based on the input second performance data (for example, sound name, chord type) is the same as the information that can be determined based on the first performance data, the information can be determined with the first image data. Displays the second image data of a different aspect,
Performance data display system.
1…情報処理装置
2…電子楽器
3…スピーカ
4…ディスプレイ装置
5…MIDIパッチャ
6…ボーカルマイク
7…アコースティックピアノ
8…オーディオインタフェース
11…鍵
20…表示部
30…操作部
40…発音部
41…SPアンプ
42…スピーカ
43…HPアンプ
44…HPジャック
45…HPジャック挿入検出部
50…押鍵検出部
60…記憶部
61…ROM
62…RAM
70…制御部
80…通信部
100…バス
101…操作部
102…表示部
103…通信部
104…音出力部
105…制御部
106…記憶部
107…バス
401…表示部
1051…演奏判定部
1052…画像決定部
1053…画像情報出力部
1054…条件判定部
1055…演奏終了判定部
1056…接続機器判定部
1061…RAM
1062…ROM
10621…プログラム
10622…テーブル
1 ...
62 ... RAM
70 ...
1062 ... ROM
10621 ...
Claims (8)
入力された演奏データが、少なくとも第1機器及び第2機器のいずれから入力された演奏データであるかを判定させ、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報に応じて、第1画像データを表示させ、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報が、たとえ前記第1機器と判定された場合と同じであったとしても、前記第1画像データとは異なる態様の第2画像データを表示させる、
プログラム。 To the computer of the information processing device
It is made to judge whether the input performance data is at least the performance data input from the first device or the second device.
When it is determined to be the first device, the first image data is displayed according to the information that can be determined based on the input performance data.
Even if the information that can be determined based on the input performance data when it is determined to be the second device is the same as when it is determined to be the first device, it is different from the first image data. Display the second image data of the aspect,
program.
請求項1に記載のプログラム。 Which of the above is the performance data input is determined from the information contained in the input performance data.
The program according to claim 1.
前記第2画像データは、第2画像グループのなかに含まれ、
前記第1画像グループ及び前記第2画像グループのなかには、同じ画像データが含まれていてもよい、
請求項1または2に記載のプログラム。 The first image data is included in the first image group,
The second image data is included in the second image group, and is included in the second image group.
The same image data may be included in the first image group and the second image group.
The program according to claim 1 or 2.
請求項1乃至3のいずれか一項に記載のプログラム。 The information that can be determined includes at least one of note name information and chord type information.
The program according to any one of claims 1 to 3.
前記第2機器は、第2電子楽器及びオーディオインタフェースのいずれかを含む、
請求項1乃至4のいずれか一項に記載のプログラム。 The first device includes either a first electronic musical instrument or an audio interface.
The second device includes either a second electronic musical instrument or an audio interface.
The program according to any one of claims 1 to 4.
入力された演奏データが、少なくとも第1機器及び第2機器のいずれから入力された演奏データであるかを判定させ、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報に応じて、第1画像データを表示させ、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報が、たとえ前記第1機器と判定された場合と同じであったとしても、前記第1画像データとは異なる態様の第2画像データを表示させる、
方法。 To the computer of the information processing device
It is made to judge whether the input performance data is at least the performance data input from the first device or the second device.
When it is determined to be the first device, the first image data is displayed according to the information that can be determined based on the input performance data.
Even if the information that can be determined based on the input performance data when it is determined to be the second device is the same as when it is determined to be the first device, it is different from the first image data. Display the second image data of the aspect,
Method.
プロセッサと、を含み、前記プロセッサが、
入力された演奏データが、少なくとも第1機器及び第2機器のいずれから入力された演奏データであるかを判定し、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報に応じて、第1画像データの前記ディスプレイ装置への表示を指示し、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報が、たとえ前記第1機器と判定された場合と同じであったとしても、前記第1画像データとは異なる態様の第2画像データの前記ディスプレイ装置への表示を指示する、
電子機器。 Display device and
The processor, including the processor,
It is determined whether the input performance data is at least the performance data input from the first device or the second device.
When it is determined to be the first device, the display of the first image data on the display device is instructed according to the information that can be determined based on the input performance data.
Even if the information that can be determined based on the input performance data when it is determined to be the second device is the same as when it is determined to be the first device, it is different from the first image data. Instructing the display of the second image data of the embodiment on the display device,
Electronics.
前記第1機器は、
第1ユーザによる演奏操作に応じて前記第1機器を識別可能な第1識別子を含む第1演奏データを生成するとともに、生成された前記第1演奏データを前記ディスプレイ装置に出力し、
前記第2機器は、
第2ユーザによる演奏操作に応じて前記第2機器を識別可能な第2識別子を含む第2演奏データを生成するとともに、生成された前記第2演奏データを前記ディスプレイ装置に出力し、
前記ディスプレイ装置は、
入力される前記第1演奏データに基づいて判定できる情報に応じて、第1画像データを表示し、
入力される前記第2演奏データに基づいて判定できる情報が、たとえ前記第1演奏データに基づいて判定できる情報と同じであったとしても、前記第1画像データとは異なる態様の第2画像データを表示する、
演奏データ表示システム。 A first device, a second device, and a display device are provided.
The first device is
The first performance data including the first identifier that can identify the first device is generated according to the performance operation by the first user, and the generated first performance data is output to the display device.
The second device is
The second performance data including the second identifier that can identify the second device is generated according to the performance operation by the second user, and the generated second performance data is output to the display device.
The display device is
The first image data is displayed according to the information that can be determined based on the input first performance data.
Even if the information that can be determined based on the input second performance data is the same as the information that can be determined based on the first performance data, the second image data in a mode different from that of the first image data. To display,
Performance data display system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019231922A JP7467907B2 (en) | 2019-12-23 | 2019-12-23 | Program, method, electronic device, and performance data display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019231922A JP7467907B2 (en) | 2019-12-23 | 2019-12-23 | Program, method, electronic device, and performance data display system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021099459A true JP2021099459A (en) | 2021-07-01 |
JP7467907B2 JP7467907B2 (en) | 2024-04-16 |
Family
ID=76541171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019231922A Active JP7467907B2 (en) | 2019-12-23 | 2019-12-23 | Program, method, electronic device, and performance data display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7467907B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004347703A (en) | 2003-05-20 | 2004-12-09 | Kawai Musical Instr Mfg Co Ltd | Music playing operation display device |
JP2008233576A (en) | 2007-03-22 | 2008-10-02 | Hyphenation:Kk | Method for making musical piece and musical score into video and image |
JP7035486B2 (en) | 2017-11-30 | 2022-03-15 | カシオ計算機株式会社 | Information processing equipment, information processing methods, information processing programs, and electronic musical instruments |
-
2019
- 2019-12-23 JP JP2019231922A patent/JP7467907B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7467907B2 (en) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7363944B2 (en) | Information processing device, information processing method, information processing program, and electronic musical instrument | |
JP2007093821A (en) | Concert system | |
JP4265551B2 (en) | Performance assist device and performance assist program | |
JP2020056938A (en) | Musical performance information display device and musical performance information display method, musical performance information display program, and electronic musical instrument | |
CN102760051B (en) | A kind of method and electronic equipment obtaining voice signal | |
WO2014025041A1 (en) | Device and method for pronunciation allocation | |
JP6520162B2 (en) | Accompaniment teaching device and accompaniment teaching program | |
JP4131279B2 (en) | Ensemble parameter display device | |
JP4259533B2 (en) | Performance system, controller used in this system, and program | |
JP2003288077A (en) | Music data output system and program | |
JP7467907B2 (en) | Program, method, electronic device, and performance data display system | |
JP4259532B2 (en) | Performance control device and program | |
JP5847048B2 (en) | Piano roll type score display apparatus, piano roll type score display program, and piano roll type score display method | |
JP2003015672A (en) | Karaoke device having range of voice notifying function | |
US10805475B2 (en) | Resonance sound signal generation device, resonance sound signal generation method, non-transitory computer readable medium storing resonance sound signal generation program and electronic musical apparatus | |
JP4180548B2 (en) | Karaoke device with vocal range notification function | |
JP5969421B2 (en) | Musical instrument sound output device and musical instrument sound output program | |
JP6582517B2 (en) | Control device and program | |
JP7070538B2 (en) | Programs, methods, electronic devices, and performance data display systems | |
JP2007279696A (en) | Concert system, controller and program | |
JP2023138655A (en) | Information processing apparatus, method, and program | |
JPH1185174A (en) | Karaoke sing-along machine which enables a user to play accompaniment music | |
JP2005182091A (en) | Playing signal processor and program | |
KR101321446B1 (en) | Lyrics displaying method using voice recognition | |
JP6196571B2 (en) | Performance device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221213 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20230104 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231211 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7467907 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |