JP2023089387A - Information processing device, electronic instrument, method and program - Google Patents

Information processing device, electronic instrument, method and program Download PDF

Info

Publication number
JP2023089387A
JP2023089387A JP2021203854A JP2021203854A JP2023089387A JP 2023089387 A JP2023089387 A JP 2023089387A JP 2021203854 A JP2021203854 A JP 2021203854A JP 2021203854 A JP2021203854 A JP 2021203854A JP 2023089387 A JP2023089387 A JP 2023089387A
Authority
JP
Japan
Prior art keywords
information
difference value
musical tone
information processing
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021203854A
Other languages
Japanese (ja)
Other versions
JP7377415B2 (en
Inventor
広子 奥田
Hiroko Okuda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2021203854A priority Critical patent/JP7377415B2/en
Publication of JP2023089387A publication Critical patent/JP2023089387A/en
Application granted granted Critical
Publication of JP7377415B2 publication Critical patent/JP7377415B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

To provide an information processing device that makes it easy for a user to grasp whether sound grains are aligned.SOLUTION: An information processing device is equipped with a control unit that executes processing of acquiring a difference value concerning a certain value of two sounds, acquiring information indicating magnitude of the acquired difference value, and outputting the information to a reporting unit based on the acquired information.SELECTED DRAWING: Figure 4

Description

本明細書の開示は、情報処理装置、電子楽器、方法及びプログラムに関する。 The disclosure of the present specification relates to an information processing device, an electronic musical instrument, a method, and a program.

例えば、ピアノの練習において、音の強さをそろえて(いわゆる音の粒を揃えて)練習することが知られている。音の粒が揃っているかどうかは、例えば、演奏者本人や演奏を聴く第三者が判断する。また、ユーザ(演奏者や第三者)が、例えば特許文献1に示されるピアノロール画面に表示される音の強さを示す情報を見て、音の粒が揃っているかどうかを判断する方法もある。ユーザは、例えばシーケンサに演奏情報を入力することにより、ピアノロール画面を視認することができる。 For example, in practicing the piano, it is known to practice by aligning the intensity of sound (so-called aligning the grains of sound). For example, the performer himself or a third person who listens to the performance judges whether or not the grains of sound are aligned. Also, a method in which a user (a performer or a third party) sees information indicating the strength of sound displayed on a piano roll screen shown in Patent Document 1, for example, and determines whether or not the grains of sound are aligned. There is also The user can view the piano roll screen by inputting performance information into the sequencer, for example.

特開2006-259768号公報Japanese Patent Application Laid-Open No. 2006-259768

演奏者が初心者であるほど音の粒が揃っているかを耳で聴いて判断することが難しい。また、演奏を聴いた第三者から演奏者がアドバイスを受けても、音の粒がどの程度揃っているかを感覚的に掴むことは容易ではない。 The more beginner the player is, the more difficult it is to hear and judge whether the grains of sound are aligned. Moreover, even if a performer receives advice from a third party who has listened to the performance, it is not easy for the performer to intuitively grasp how well the grains of sound are aligned.

ピアノロール画面の例では、ユーザは、演奏を行って演奏情報を生成し、生成した演奏情報をシーケンサに入力し、シーケンサにより表示されるピアノロール画面を視認して、音の粒が揃っているかどうかを判断する。すなわち、この例では、音の粒が揃っているかどうかを演奏中に判断できないというデメリットがある。 In the example of the piano roll screen, the user performs a performance to generate performance information, inputs the generated performance information to the sequencer, and visually checks the piano roll screen displayed by the sequencer to see if the grains of sound are aligned. to judge what That is, in this example, there is a demerit that it cannot be determined during the performance whether or not the grains of sound are aligned.

また、何れにしても、上記に挙げた方法では、音楽経験で培った耳や、ピアノロール画面の各ノートの情報に基づいて、音の粒が揃っているかどうかを判断する必要がある。音の粒が揃っているかどうかを判断する作業が必要になるため、音の粒が揃っているかを簡単には把握できなかった。 In any case, in the above-mentioned methods, it is necessary to judge whether the grains of sound are aligned based on the ear cultivated through musical experience and the information of each note on the piano roll screen. Since it was necessary to determine whether the grains of sound were aligned, it was not easy to grasp whether the grains of sound were aligned.

本発明は上記の事情に鑑みてなされたものであり、その目的とするところは、音の粒が揃っているかをユーザに把握させやすい情報処理装置、電子楽器、方法及びプログラムを提供することである。 The present invention has been made in view of the above circumstances, and its object is to provide an information processing device, an electronic musical instrument, a method, and a program that allow a user to easily grasp whether the grains of sound are aligned. be.

本発明の一実施形態に係る情報処理装置は、2つの音のある値に関する差分値を取得し、取得された前記差分値の大きさを示す情報を取得し、取得された前記情報に基づいて報知部に出力する、処理を実行する制御部を備える。 An information processing apparatus according to an embodiment of the present invention acquires a difference value between two sound values, acquires information indicating the magnitude of the acquired difference value, and based on the acquired information, A control unit for executing processing for outputting to the notification unit is provided.

本発明の一実施形態によれば、音の粒が揃っているかをユーザに把握させやすい情報処理装置、電子楽器、方法及びプログラムが提供される。 According to one embodiment of the present invention, there is provided an information processing device, an electronic musical instrument, a method, and a program that make it easy for a user to grasp whether sound grains are aligned.

本発明の一実施形態に係る電子楽器システムの外観を示す図である。1 is a diagram showing the appearance of an electronic musical instrument system according to an embodiment of the present invention; FIG. 本発明の一実施形態に係る電子楽器の構成を示すブロック図である。1 is a block diagram showing the configuration of an electronic musical instrument according to an embodiment of the invention; FIG. 本発明の一実施形態に係る情報処理装置の構成を示すブロック図である。1 is a block diagram showing the configuration of an information processing device according to one embodiment of the present invention; FIG. 本発明の一実施形態において情報処理装置のプロセッサにより実行されるレッスンプログラムの処理を示すフローチャートである。4 is a flow chart showing processing of a lesson program executed by a processor of an information processing device in one embodiment of the present invention; 図4のステップS102の第1のベロシティ値検出処理の詳細を示すサブルーチンである。FIG. 5 is a subroutine showing details of first velocity value detection processing in step S102 of FIG. 4; FIG. 図4のステップS105の第2のベロシティ値検出処理の詳細を示すサブルーチンである。FIG. 5 is a subroutine showing details of second velocity value detection processing in step S105 of FIG. 4; FIG. 図4のステップS106の差分値取得処理の詳細を示すサブルーチンである。FIG. 5 is a subroutine showing details of a difference value acquisition process in step S106 of FIG. 4; FIG. 図7のステップS402において差分値を計算する際に用いられる差分値計算テーブルを示す図である。FIG. 8 is a diagram showing a difference value calculation table used when calculating a difference value in step S402 of FIG. 7; 図4のステップS107のアニメーション動画生成処理の詳細を示すサブルーチンである。FIG. 5 is a subroutine showing details of animation moving image generation processing in step S107 of FIG. 4; FIG. 図9のステップS502においてアニメーション動画を生成するためのパラメータを設定する際に用いられるパラメータテーブルを示す図である。FIG. 10 is a diagram showing a parameter table used when setting parameters for generating an animation moving image in step S502 of FIG. 9; FIG. 図9のステップS503において生成されるアニメーション動画の一例を示す図である。FIG. 10 is a diagram showing an example of an animation video generated in step S503 of FIG. 9; FIG. 図9のステップS503において生成されるアニメーション動画の一例を示す図である。FIG. 10 is a diagram showing an example of an animation video generated in step S503 of FIG. 9; FIG. 図9のステップS503において生成されるアニメーション動画の一例を示す図である。FIG. 10 is a diagram showing an example of an animation video generated in step S503 of FIG. 9; FIG. 図9のステップS503において生成されるアニメーション動画の一例を示す図である。FIG. 10 is a diagram showing an example of an animation video generated in step S503 of FIG. 9; FIG.

図面を参照して、本発明の一実施形態に係る電子楽器システムについて詳細に説明する。 An electronic musical instrument system according to an embodiment of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態に係る電子楽器システム1の外観を示す図である。図1に示されるように、電子楽器システム1は、電子楽器100及び情報処理装置200を備える。電子楽器100と情報処理装置200は、有線回線又は無線回線を介して接続される。 FIG. 1 is a diagram showing the appearance of an electronic musical instrument system 1 according to one embodiment of the present invention. As shown in FIG. 1, an electronic musical instrument system 1 includes an electronic musical instrument 100 and an information processing device 200 . The electronic musical instrument 100 and the information processing device 200 are connected via a wired line or a wireless line.

電子楽器100は、電子鍵盤楽器であり、例えば、電子ピアノ、シンセサイザ、電子オルガンである。図2は、電子楽器100の構成を示すブロック図である。図2に示されるように、電子楽器100は、プロセッサ110、鍵盤120、キースキャナ130、操作部140、スピーカ150及び通信部160を備える。 The electronic musical instrument 100 is an electronic keyboard instrument, such as an electronic piano, synthesizer, or electronic organ. FIG. 2 is a block diagram showing the configuration of the electronic musical instrument 100. As shown in FIG. As shown in FIG. 2, the electronic musical instrument 100 includes a processor 110, a keyboard 120, a key scanner 130, an operation section 140, a speaker 150 and a communication section 160.

プロセッサ110は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を含む素子である。プロセッサ110は、ROMに格納されたプログラム及びデータを読み出し、RAMをワークエリアとして用いることにより、電子楽器100を制御する。 The processor 110 is an element including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The processor 110 controls the electronic musical instrument 100 by reading programs and data stored in the ROM and using the RAM as a work area.

演奏者が押鍵操作を行うと、プロセッサ110は、押鍵操作された鍵に対応付けられた音高の楽音を発生させる発音処理を行い、この楽音をスピーカ150から出力させる。また、演奏者が離鍵操作を行うと、プロセッサ110は、発音中の楽音であって、離鍵操作された鍵に対応付けられた楽音を消す消音処理を行う。 When the performer presses a key, the processor 110 performs sound generation processing to generate a musical tone corresponding to the pressed key, and causes the speaker 150 to output this musical tone. Also, when the player releases the key, the processor 110 performs a mute process for muting the musical tones associated with the key released.

鍵盤120は、複数の演奏操作子として複数の白鍵及び黒鍵を有する。各鍵は、それぞれ異なる音高と対応付けられている。 The keyboard 120 has a plurality of white keys and black keys as a plurality of performance operators. Each key is associated with a different pitch.

キースキャナ130は、鍵盤120の押鍵、離鍵及び押鍵速度(ベロシティ値)を検出し、検出された音高情報及びベロシティ値を含む演奏情報をプロセッサ110に出力する。ベロシティ値は、音の強さを示す値ともいえる。音高情報は、キーナンバや鍵番号、MIDIキー、ノートナンバと呼ばれることもある。 The key scanner 130 detects key depression, key release and key depression speed (velocity value) of the keyboard 120 and outputs performance information including the detected pitch information and velocity value to the processor 110 . The velocity value can also be said to be a value that indicates the intensity of sound. Pitch information is also called key number, key number, MIDI key, or note number.

操作部140は、例えば、メカニカル方式、静電容量無接点方式、メンブレン方式等のキースイッチ、ボタン、タッチパネル等で構成される。演奏者は、操作部140を操作することにより、例えば音色を設定したり音量を調節したりすることができる。 The operation unit 140 includes, for example, key switches, buttons, touch panels, etc. of a mechanical type, a capacitive non-contact type, a membrane type, and the like. By operating the operation unit 140, the performer can set the timbre or adjust the volume, for example.

通信部160は、外部機器と通信を行うための無線及び有線ユニットを備える。本実施形態では、通信部160は、MIDI(Musical Instrument Digital Interface)規格に準拠したインタフェースを含む。通信部160は、プロセッサ110の制御に基づいて、音高情報及びベロシティ値を含む演奏情報を外部機器の一例である情報処理装置200に送信する。演奏情報は、一例として、MIDI規格に準拠したデータ構造を有する。 The communication unit 160 includes wireless and wired units for communicating with external devices. In this embodiment, the communication unit 160 includes an interface conforming to the MIDI (Musical Instrument Digital Interface) standard. Under the control of the processor 110, the communication unit 160 transmits performance information including pitch information and velocity values to the information processing apparatus 200, which is an example of an external device. The performance information has, for example, a data structure conforming to the MIDI standard.

情報処理装置200は、例えば、ノートPC(Personal Computer)、スマートフォンである。情報処理装置200は、タブレット端末、携帯ゲーム機、フィーチャフォン、PDA(Personal Digital Assistant)等の他の形態の装置であってもよい。 The information processing device 200 is, for example, a notebook PC (Personal Computer) or a smart phone. The information processing device 200 may be a tablet terminal, a portable game machine, a feature phone, a PDA (Personal Digital Assistant), or another form of device.

図3は、情報処理装置200の構成を示すブロック図である。図3に示されるように、情報処理装置200は、プロセッサ210、RAM220、ROM230、操作部240、通信部250、表示部260及び音声出力部270を備える。情報処理装置200は、例えば電子楽器100の譜面台170に載置される。 FIG. 3 is a block diagram showing the configuration of the information processing device 200. As shown in FIG. As shown in FIG. 3, the information processing apparatus 200 includes a processor 210, a RAM 220, a ROM 230, an operation section 240, a communication section 250, a display section 260 and an audio output section 270. The information processing device 200 is placed, for example, on the music stand 170 of the electronic musical instrument 100 .

コンピュータの一例であるプロセッサ210は、例えばシングルプロセッサ又はマルチプロセッサであり、少なくとも1つのプロセッサを含む。複数のプロセッサを含む構成とした場合、プロセッサ210は、単一の装置としてパッケージ化されたものであってもよく、情報処理装置200内で物理的に分離した複数の装置で構成されてもよい。プロセッサ210は、「制御部」と呼ばれてもよい。 Processor 210, which is an example of a computer, is, for example, a single processor or multiple processors and includes at least one processor. In the configuration including a plurality of processors, the processor 210 may be packaged as a single device, or may be composed of a plurality of physically separated devices within the information processing device 200. . Processor 210 may also be referred to as a "controller."

プロセッサ210は、機能ブロックとして、差分値取得部210a、情報取得部210b及び出力部210cを備える。詳しくは後述するが、差分値取得部210aは、2つの音のある値に関する差分値(以下「2つの音の差分値」と略記する。)を取得する。情報取得部210bは、取得された差分値の大きさを示す情報を取得する。出力部210cは、取得された情報に基づいて報知部に出力する。これらの機能ブロックの動作により、情報処理装置200は、音の粒が揃っているかをユーザに容易に把握させることができる。本発明の一実施形態に係る方法及びプログラムは、プロセッサ210の機能ブロックに各種処理を実行させることで実現される。 The processor 210 includes, as functional blocks, a difference value acquisition section 210a, an information acquisition section 210b, and an output section 210c. Although the details will be described later, the difference value acquiring unit 210a acquires a difference value (hereinafter abbreviated as “two sounds difference value”) regarding a certain value of two sounds. The information acquisition unit 210b acquires information indicating the size of the acquired difference value. The output unit 210c outputs to the notification unit based on the acquired information. By the operation of these functional blocks, the information processing apparatus 200 can allow the user to easily grasp whether the grains of sound are aligned. A method and a program according to an embodiment of the present invention are implemented by causing the functional blocks of the processor 210 to execute various processes.

RAM220は、データやプログラムを一時的に保持する。RAM220には、ROM230から読み出されたプログラムやデータ、その他、通信に必要なデータが保持される。 The RAM 220 temporarily holds data and programs. The RAM 220 holds programs and data read from the ROM 230 and other data necessary for communication.

ROM230は、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)等の不揮発性の半導体メモリであり、二次記憶装置又は補助記憶装置としての役割を担う。ROM230には、レッスンプログラム232をはじめとする、プロセッサ210が各種処理を行うために使用するプログラム及びデータが格納されている。 The ROM 230 is a non-volatile semiconductor memory such as flash memory, EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), etc., and serves as a secondary storage device or an auxiliary storage device. The ROM 230 stores programs and data used by the processor 210 to perform various processes, including a lesson program 232 .

本実施形態において、プロセッサ210の各機能ブロックは、ソフトウェアであるレッスンプログラム232により実現される。なお、プロセッサ210の各機能ブロックは、一部又は全部が専用の論理回路等のハードウェアにより実現されてもよい。 In this embodiment, each functional block of the processor 210 is realized by a lesson program 232 which is software. Note that each functional block of the processor 210 may be partially or wholly realized by hardware such as a dedicated logic circuit.

操作部240は、例えば、メカニカル方式、静電容量無接点方式、メンブレン方式等のキースイッチ、ボタン、キーボード、マウス、タッチパネル等で構成される。ユーザ(例えば演奏者)が操作部240を操作すると、その操作内容を示す信号がプロセッサ210に出力される。プロセッサ210は、入力された信号に基づいて情報処理装置200を制御する。操作部240がタッチパネルを含む場合、操作部240は、表示部260も兼ねる。 The operation unit 240 includes, for example, mechanical type, capacitive non-contact type, membrane type key switches, buttons, a keyboard, a mouse, a touch panel, and the like. When a user (for example, a performer) operates the operating section 240 , a signal indicating the content of the operation is output to the processor 210 . Processor 210 controls information processing apparatus 200 based on the input signal. When operation unit 240 includes a touch panel, operation unit 240 also serves as display unit 260 .

通信部250は、外部機器と通信を行うための無線及び有線ユニットを備える。本実施形態では、通信部250は、MIDI規格に準拠したインタフェースを含む。通信部250は、外部機器の一例である電子楽器100より受信した演奏情報の入力を受け付けて、RAM220に記憶する。 The communication unit 250 includes wireless and wired units for communicating with external devices. In this embodiment, the communication unit 250 includes an interface conforming to the MIDI standard. The communication unit 250 receives input of performance information received from the electronic musical instrument 100, which is an example of an external device, and stores it in the RAM 220. FIG.

表示部260は、報知部の一例である。表示部260は、LCD(Liquid Crystal Display)パネル、有機EL(Electro Luminescence)パネル、LED(Light Emitting Diode)パネル等の表示パネルと表示コントローラを備える。表示部260は、プロセッサ210からの出力に基づいて画像を表示する。一例として、表示部260は、プロセッサ210からの出力に基づいて、差分値取得部210aにより取得される差分値に応じた内容(後述のアニメーション動画)を表示(出力)する。 Display unit 260 is an example of a notification unit. The display unit 260 includes a display panel such as an LCD (Liquid Crystal Display) panel, an organic EL (Electro Luminescence) panel, an LED (Light Emitting Diode) panel, and a display controller. Display unit 260 displays an image based on the output from processor 210 . As an example, based on the output from the processor 210, the display unit 260 displays (outputs) content (animation moving image to be described later) corresponding to the difference value acquired by the difference value acquisition unit 210a.

音声出力部270は、報知部の一例である。音声出力部270は、スピーカとドライバを備える。音声出力部270は、プロセッサ210からの出力に基づいて音声を出力する。一例として、音声出力部270は、プロセッサ210からの出力に基づいて、差分値取得部210aにより取得される差分値に応じた内容の音声(後述)を出力する。 Audio output unit 270 is an example of a notification unit. The audio output unit 270 has a speaker and a driver. Audio output unit 270 outputs audio based on the output from processor 210 . As an example, based on the output from the processor 210, the audio output unit 270 outputs audio (described later) having content corresponding to the difference value acquired by the difference value acquisition unit 210a.

本実施形態では、後述するように、音の粒の揃い具合を演奏者にアニメーション動画で伝えることにより、演奏中の楽曲における音の粒の揃い具合を演奏者にリアルタイムで簡単に把握させられるようになっているが、本発明の構成はこれに限らない。別の実施形態では、音の粒の揃い具合を、アニメーション動画に加えて又は代えて、音声出力部270から出力される音声で演奏者に伝えてもよい。例示的には、「(今回弾いた音が最初に弾いた音に対して)小さい」、「(今回弾いた音が最初に弾いた音に対して)大きい」、「丁度良い(すなわち、最初に弾いた音に対して今回弾いた音の粒が揃っている)」等の、音の粒の揃い具合を演奏者に伝える音声を音声出力部270から出力させてもよい。この場合も、演奏中の楽曲における音の粒の揃い具合を演奏者に簡単に把握させることができる。 In the present embodiment, as will be described later, by conveying the degree of uniformity of sound grains to the performer with an animation video, the performer can easily grasp the degree of uniformity of sound grains in the song being played in real time. However, the configuration of the present invention is not limited to this. In another embodiment, the degree of uniformity of sound particles may be conveyed to the performer by audio output from the audio output unit 270 in addition to or instead of the animation video. Exemplarily, "the sound played this time is small (relative to the sound played first)", "the sound played this time is large (relative to the sound played first)", "just right (that is, the first The sound output unit 270 may output a sound that conveys the degree of alignment of the sound grains to the performer, such as "the grains of the sound played this time are aligned with respect to the sound that was played earlier." In this case as well, the performer can easily grasp the degree of uniformity of sound grains in the piece of music being played.

本実施形態において、情報処理装置200は表示部260及び音声出力部270を備えるが、本発明の構成はこれに限らない。表示部260と音声出力部270の少なくとも一方は、情報処理装置200に備えられず、情報処理装置200に対する外付けの装置であってもよい。 In this embodiment, the information processing device 200 includes the display unit 260 and the audio output unit 270, but the configuration of the present invention is not limited to this. At least one of the display unit 260 and the audio output unit 270 may not be provided in the information processing device 200 but may be a device externally attached to the information processing device 200 .

図4は、本発明の一実施形態においてプロセッサ210により実行されるレッスンプログラム232の処理を示すフローチャートである。プロセッサ210は、操作部240に対する所定の操作を受け付けると、情報処理装置200の動作モードをレッスンモードに遷移させる。レッスンモードに遷移すると、図4に示されるフローチャートの処理の実行が開始される。 FIG. 4 is a flow diagram illustrating the processing of lesson program 232 executed by processor 210 in one embodiment of the invention. When processor 210 receives a predetermined operation on operation unit 240, processor 210 causes the operation mode of information processing apparatus 200 to transition to the lesson mode. After transitioning to the lesson mode, execution of the processing of the flow chart shown in FIG. 4 is started.

電子楽器100は、鍵盤120に対する押鍵操作が行われる毎に、押鍵操作に応じた演奏情報(例えばMIDIデータ)を情報処理装置200へ出力する。プロセッサ210は、押鍵操作毎に電子楽器100から出力される演奏情報を通信部250を介して受け付ける。 The electronic musical instrument 100 outputs performance information (for example, MIDI data) according to the key depression operation to the information processing device 200 each time a key depression operation is performed on the keyboard 120 . Processor 210 receives performance information output from electronic musical instrument 100 for each key depression via communication section 250 .

押鍵操作に応じた演奏情報を受け付けると(言い換えると、電子楽器100において押鍵操作が行われると)(ステップS101:YES)、プロセッサ210は、第1のベロシティ値検出処理を実行する(ステップS102)。 When performance information corresponding to a key depression operation is received (in other words, when a key depression operation is performed in electronic musical instrument 100) (step S101: YES), processor 210 executes a first velocity value detection process (step S102).

ステップS102の第1のベロシティ値検出処理では、演奏を開始した演奏者による最初の押鍵操作におけるベロシティ値が検出される。第1のベロシティ値検出処理の詳細については後述する。 In the first velocity value detection process of step S102, the velocity value of the first key depression operation by the performer who started playing is detected. Details of the first velocity value detection process will be described later.

押鍵操作に応じた演奏情報を受けないとき(言い換えると、電子楽器100において押鍵操作が行われていないと)(ステップS101:NO)、プロセッサ210は、レッスンモードに対する終了操作が行われたか否かを判定する(ステップS103)。レッスンモードに対する終了操作が行われた場合(ステップS103:YES)、プロセッサ210は、本フローチャートの処理を終了して、情報処理装置200の動作モードを元のモードに復帰させる。レッスンモードに対する終了操作が行われていなければ(ステップS103:NO)、プロセッサ210は、ステップS101の処理に戻る。 When performance information corresponding to the key depression operation is not received (in other words, no key depression operation has been performed in the electronic musical instrument 100) (step S101: NO), the processor 210 determines whether an operation to end the lesson mode has been performed. It is determined whether or not (step S103). If an operation to end the lesson mode has been performed (step S103: YES), the processor 210 ends the processing of this flowchart and restores the operation mode of the information processing apparatus 200 to the original mode. If an operation to end the lesson mode has not been performed (step S103: NO), processor 210 returns to the process of step S101.

第1のベロシティ値検出処理の実行後、押鍵操作に応じた演奏情報を受け付けると(ステップS104:YES)、プロセッサ210は、第2のベロシティ値検出処理を実行する(ステップS105)。 After executing the first velocity value detection process, when performance information corresponding to the key depression operation is received (step S104: YES), the processor 210 executes a second velocity value detection process (step S105).

ステップS105の第2のベロシティ値検出処理では、演奏者による今回(2回目以降)の押鍵操作におけるベロシティ値が検出される。第2のベロシティ値検出処理の詳細については後述する。 In the second velocity value detection process of step S105, the velocity value of the player's current (second and subsequent) key depression operations is detected. Details of the second velocity value detection process will be described later.

プロセッサ210は、差分値取得処理を実行する(ステップS106)。差分値取得処理では、ステップS102の第1のベロシティ値検出処理で検出されたベロシティ値と、ステップS105の第2のベロシティ値検出処理で検出されたベロシティ値との差分値が計算される。すなわち、プロセッサ210は、初回の押鍵操作における音の強さと、今回(2回目以降)の押鍵操作における音の強さとの差分値を取得する。差分値取得処理の詳細については後述する。 The processor 210 executes difference value acquisition processing (step S106). In the difference value acquisition process, the difference value between the velocity value detected by the first velocity value detection process of step S102 and the velocity value detected by the second velocity value detection process of step S105 is calculated. That is, processor 210 acquires a difference value between the sound intensity of the first key depression operation and the sound intensity of the current (second and subsequent) key depression operations. Details of the difference value acquisition process will be described later.

別の言い方をすると、プロセッサ210は、演奏者の第1の操作に応じた第1の楽音と、演奏者の第2の操作に応じた第2の楽音との差分値を取得する。第1の楽音及び第2の楽音は、演奏者による演奏の楽音である。第2の楽音は、時間軸上で第1の楽音よりも後の楽音である。本実施形態では、第1の楽音は、演奏者による演奏の最初の楽音(初回の押鍵操作に応じた楽音)である。 In other words, the processor 210 acquires a difference value between the first musical tone corresponding to the player's first operation and the second musical tone corresponding to the player's second operation. The first musical tone and the second musical tone are musical tones played by the performer. The second musical tone is a musical tone after the first musical tone on the time axis. In this embodiment, the first musical tone is the first musical tone played by the performer (the musical tone corresponding to the first key depression operation).

附言するに、演奏者による演奏の楽音であって、時間軸上で第2の楽音よりも後の楽音を、演奏者の第3の操作に応じた第3の楽音とし、この第3の楽音が発音される場合、プロセッサ210は、第1の楽音と第3の楽音との差分値を取得する。 In addition, the musical tones played by the performer, which are later than the second musical tones on the time axis, are regarded as the third musical tones corresponding to the third operation performed by the performer. If a tone is pronounced, processor 210 obtains a difference value between the first tone and the third tone.

プロセッサ210は、アニメーション動画生成処理を実行する(ステップS107)。アニメーション動画生成処理では、ステップS106にて取得された差分値に応じたアニメーション動画が生成されて、表示部260に出力される。表示部260で再生されるアニメーション動画は、演奏中の演奏で音の粒がどの程度揃っているかを示すものとなっている。演奏者は、アニメーション動画を見るだけで、最初の音に比べて今弾いている音の粒がどの程度揃っているかをリアルタイムで容易に把握することができる。アニメーション動画生成処理の詳細については後述する。 The processor 210 executes animation moving image generation processing (step S107). In the animation moving image generation process, an animation moving image is generated according to the difference value acquired in step S106 and output to the display unit 260 . The animation moving image reproduced on the display unit 260 indicates how well the particles of sound are aligned in the performance during the performance. By simply watching the animation video, the performer can easily grasp in real time how well the grains of the sound being played now are aligned compared to the initial sound. Details of the animation moving image generation processing will be described later.

プロセッサ210は、レッスンモードに対する終了操作が行われたか否かを判定する(ステップS108)。レッスンモードに対する終了操作が行われた場合(ステップS108:YES)、プロセッサ210は、本フローチャートの処理を終了して、情報処理装置200の動作モードを元のモードに復帰させる。 Processor 210 determines whether or not an operation to end the lesson mode has been performed (step S108). If an operation to end the lesson mode has been performed (step S108: YES), the processor 210 ends the processing of this flowchart and restores the operation mode of the information processing apparatus 200 to the original mode.

レッスンモードに対する終了操作が行われていなければ(ステップS108:NO)、プロセッサ210は、ステップS104の処理に戻る。その後、押鍵操作に応じた演奏情報を受け付けると(ステップS104:YES)、プロセッサ210は、第2のベロシティ値検出処理(ステップS105)、差分値取得処理(ステップS106)、アニメーション動画生成処理(ステップS107)を実行する。ステップS104~S108の処理が実行されるたびに、初回の押鍵操作における音の強さと、今回(2回目以降)の押鍵操作における音の強さとの差分値に応じたアニメーション動画が再生される。 If an operation to end the lesson mode has not been performed (step S108: NO), processor 210 returns to the process of step S104. After that, when the performance information corresponding to the key depression operation is received (step S104: YES), the processor 210 performs the second velocity value detection process (step S105), the difference value acquisition process (step S106), and the animation movie generation process ( Step S107) is executed. Each time the processing of steps S104 to S108 is executed, an animation video corresponding to the difference value between the sound intensity of the first key depression operation and the sound intensity of the current (second and subsequent) key depression operations is reproduced. be.

アニメーション動画では、初回の押鍵操作に応じた楽音に対して、今回(2回目以降)の押鍵操作に応じた楽音がどの程度粒が揃ったものであるかを示す内容が再生される。そのため、演奏者は、初回の押鍵操作に応じた楽音の強さに合わせて音の粒を揃える練習を行うことができる。例えば、初回に鍵を弱く押すと、弱い音の粒を揃える練習をすることができる。また、初回に鍵を中程度の力で押すと、中程度の音の粒を揃える練習をすることができる。また、初回に鍵を強く押すと、強い音の粒を揃える練習をすることができる。 In the animation moving image, a content indicating how well the musical tones corresponding to the current (second and subsequent) key-pressing operations are aligned with respect to the musical tones corresponding to the first key-pressing operation is reproduced. Therefore, the performer can practice aligning the sound grains according to the intensity of the musical sound corresponding to the first key depression operation. For example, if you press the key softly the first time, you can practice aligning the grains of weak sounds. Also, if you press the key with a medium force for the first time, you can practice to align the grains of medium sound. Also, if you press the keys strongly the first time, you can practice to align the grains of strong sounds.

図5は、図4のステップS102の第1のベロシティ値検出処理の詳細を示すサブルーチンである。第1のベロシティ値検出処理では、初回の押鍵操作の入力タイプが判定され、判定された入力タイプに応じて初回の押鍵操作における音の強さが取得される。 FIG. 5 is a subroutine showing the details of the first velocity value detection process in step S102 of FIG. In the first velocity value detection process, the input type of the first key depression operation is determined, and the sound strength of the first key depression operation is acquired according to the determined input type.

レッスンモードでは、音の粒を揃える練習を行うため、演奏者がハノン等の指の練習曲を演奏することが想定される。このとき、片手演奏の練習であるか両手演奏の練習であるかは不明である。また、演奏者がハノン等の練習曲以外の楽曲で音の粒を揃える練習を行う可能性もある。そのため、本実施形態では、押鍵操作の入力タイプとして、単音、2音、3音以上の和音、又は伴奏和音(2音以上の和音)とメロディ音との組合せであるかどうかが判定される。 In the lesson mode, it is assumed that the performer will play finger etudes such as Hanon in order to practice aligning the grains of sound. At this time, it is unclear whether the practice is one-handed performance practice or two-handed performance practice. In addition, there is a possibility that the performer will practice aligning the grains of sound with music other than practice music such as Hanon. Therefore, in this embodiment, it is determined whether the input type of the key depression operation is a single note, two notes, a chord of three or more notes, or a combination of an accompaniment chord (a chord of two or more notes) and a melody note. .

所定時間内(例えば20ミリ秒以内)に複数の鍵が押鍵された場合、押鍵操作に応じた楽音が2音又は3音以上の和音、又は伴奏和音とメロディ音との組合せであると判定される。言い換えると、上記の所定時間内に1つの鍵しか押鍵されなかった場合、押鍵操作に応じた楽音が単音であると判定される。 When a plurality of keys are depressed within a predetermined time (for example, within 20 milliseconds), it is assumed that the musical tone corresponding to the key depression operation is a chord of two or more tones, or a combination of an accompaniment chord and a melody tone. be judged. In other words, when only one key is depressed within the predetermined time, it is determined that the musical tone corresponding to the key depression operation is a single tone.

なお、ここで挙げた入力タイプは一例に過ぎない。プロセッサ210は、押鍵操作の入力タイプをより詳細に判定してもよい。 Note that the input types listed here are only examples. Processor 210 may determine the input type of the key press operation in more detail.

図5に示されるように、プロセッサ210は、図4のステップS101にて受け付けた演奏情報に基づいて、押鍵操作に応じた楽音が単音か否かを判定する(ステップS201)。 As shown in FIG. 5, processor 210 determines whether or not the musical tone corresponding to the key depression operation is a single tone based on the performance information received in step S101 of FIG. 4 (step S201).

押鍵操作に応じた楽音が単音の場合(ステップS201:YES)、プロセッサ210は、図4のステップS101にて受け付けた演奏情報に含まれるベロシティ値(言い換えると、初回の押鍵操作における音の強さ)をベロシティ値FVELとして取得する(ステップS202)。 If the musical tone corresponding to the key depression operation is a single tone (step S201: YES), the processor 210 calculates the velocity value included in the performance information received in step S101 of FIG. strength) as the velocity value F VEL (step S202).

押鍵操作に応じた楽音が単音でない場合(ステップS201:NO)、プロセッサ210は、図4のステップS101にて受け付けた演奏情報に基づいて、押鍵操作に応じた楽音が2音か否かを判定する(ステップS203)。 If the musical tone corresponding to the key depression operation is not a single tone (step S201: NO), the processor 210 determines whether two musical tones correspond to the key depression operation based on the performance information received in step S101 of FIG. is determined (step S203).

ハノン等の指の練習曲では、同じ音を異なるオクターブで同時に弾く、すなわち、ユニゾンで弾くことがある。そこで、押鍵操作に応じた楽音が2音の場合(ステップS203:YES)、プロセッサ210は、押鍵された2つの鍵の音高が1オクターブ以上離れているか否かを判定する(ステップS204)。 In finger etudes such as Hanon, the same notes are played in different octaves at the same time, that is, they are played in unison. Therefore, if there are two musical tones corresponding to the key depression operation (step S203: YES), the processor 210 determines whether or not the pitches of the two depressed keys are separated by one octave or more (step S204). ).

押鍵された2つの鍵の音高が1オクターブ以上離れている場合(ステップS204:YES)、2つの鍵が左右それぞれの手の指で押鍵されたものと推定される。この場合、プロセッサ210は、一方の手の演奏での音の粒の揃い具合を検出するとともに他方の手の演奏での音の粒の揃い具合を検出するため、図4のステップS101にて受け付けた演奏情報に含まれる2つのベロシティ値(2音それぞれのベロシティ値)のうち、高い音高のベロシティ値をベロシティ値FRVELとして取得するとともに、低い音高のベロシティ値をベロシティ値FLVELとして取得する(ステップS205)。 If the pitches of the two pressed keys are separated by one octave or more (step S204: YES), it is estimated that the two keys are pressed with fingers of the left and right hands, respectively. In this case, the processor 210 detects the degree of alignment of the sound grains in the performance of one hand and the degree of alignment of the grains of sound in the performance of the other hand. Of the two velocity values (velocity values for each of the two notes) included in the performance information, the velocity value for the higher pitch is acquired as the velocity value FR VEL , and the velocity value for the lower pitch is acquired as the velocity value FL VEL . (step S205).

押鍵された2つの鍵の音高が1オクターブ以上離れていない場合(ステップS204:NO)、2つの鍵が片方の手の指で押鍵されたものと推定される。この場合、単音で弾こうとしたものの、押鍵する指の位置がずれてしまい、隣接する別の鍵も一緒に弾いてしまったケースが想定される。そこで、プロセッサ210は、図4のステップS101にて受け付けた演奏情報に含まれる2つのベロシティ値のうち、高い音高のベロシティ値をベロシティ値FVELとして取得する(ステップS206)。別の実施形態では、ステップS206において、プロセッサ210は、図4のステップS101にて受け付けた演奏情報に含まれる2つのベロシティ値のうち、低い音高のベロシティ値、又は、最初に押鍵された鍵に対応付けられた音高のベロシティ値、若しくは、次に押鍵された鍵に対応付けられた音高のベロシティ値をベロシティ値FVELとして取得してもよい。 If the pitches of the two pressed keys are not separated by one octave or more (step S204: NO), it is presumed that the two keys were pressed with the fingers of one hand. In this case, it is conceivable that, although an attempt was made to play a single note, the position of the finger for pressing the key was shifted, and another adjacent key was also played. Therefore, the processor 210 acquires the velocity value of the higher pitch as the velocity value F VEL of the two velocity values included in the performance information received in step S101 of FIG. 4 (step S206). In another embodiment, in step S206, the processor 210 selects the velocity value of the lower pitch of the two velocity values included in the performance information received in step S101 of FIG. The velocity value of the pitch associated with the key or the velocity value of the pitch associated with the key to be pressed next may be obtained as the velocity value F VEL .

押鍵操作に応じた楽音が2音でない場合(ステップS203:NO)、押鍵操作に応じた楽音は3音以上の楽音を含む。プロセッサ210は、押鍵された3つ以上の鍵の音高のうち、最も高い楽音と次に高い楽音とが1オクターブ以上離れているか否かを判定する(ステップS207)。 If there are not two musical tones corresponding to the key depression operation (step S203: NO), the musical tones corresponding to the key depression operation include three or more musical tones. The processor 210 determines whether or not the highest musical tone and the next highest musical tone among the pitches of the three or more depressed keys are separated by one octave or more (step S207).

押鍵された3つ以上の鍵の音高のうち、最も高い楽音と次に高い楽音とが1オクターブ以上離れている場合(ステップS207:YES)、一方の手でメロディ音が弾かれ、他方の手で伴奏和音が弾かれているものと推定される。この場合、プロセッサ210は、メロディ音の粒の揃い具合を検出するとともに伴奏和音の粒の揃い具合を検出するため、図4のステップS101にて受け付けた演奏情報に含まれる3つ以上のベロシティ値のうち、最も高い音高(言い換えると、一方の手で弾くメロディ音の音高)のベロシティ値をベロシティ値FMVELとして取得するとともに、それ以外の2つ以上の音高(言い換えると、他方の手で弾く伴奏和音の音高)のベロシティ値の平均値をベロシティ値FAVELとして取得する(ステップS208)。 If the pitches of the three or more keys that have been pressed are separated by one octave or more from the highest musical tone to the next highest musical tone (step S207: YES), the melody tone is played with one hand and the other hand. It is presumed that accompaniment chords are being played with the hands of In this case, processor 210 uses three or more velocity values included in the performance information received in step S101 of FIG. Among them, the velocity value of the highest pitch (in other words, the pitch of the melody sound played with one hand) is acquired as the velocity value FM VEL , and the other two or more pitches (in other words, the pitch of the other The average value of the velocity values of the accompaniment chords played by hand) is obtained as the velocity value FA VEL (step S208).

押鍵された3つ以上の鍵の音高のうち、最も高い楽音と次に高い楽音とが1オクターブ以上離れていない場合(ステップS207:NO)、片方の手で伴奏和音が弾かれているものと推定される。この場合、プロセッサ210は、図4のステップS101にて受け付けた演奏情報に含まれる3つ以上のベロシティ値の平均値(言い換えると、伴奏和音の音高のベロシティ値)をベロシティ値FAVELとして取得する(ステップS209)。 If the pitches of the three or more keys that have been pressed are not separated by one octave or more from the highest musical tone to the next highest musical tone (step S207: NO), accompaniment chords are being played with one hand. presumed to be In this case, the processor 210 obtains the average value of the three or more velocity values (in other words, the velocity value of the pitch of the accompaniment chord) included in the performance information received in step S101 of FIG. 4 as the velocity value FA VEL . (step S209).

このように、ステップS204及びS207において、プロセッサ210は、演奏者による演奏が片手演奏か両手演奏かを判定する。ステップS205、S206、S208及びS209において、プロセッサ210は、片手演奏又は両手演奏に応じたベロシティ値を取得する。 Thus, in steps S204 and S207, processor 210 determines whether the performance by the player is one-handed or two-handed. At steps S205, S206, S208 and S209, the processor 210 obtains the velocity value corresponding to the one-handed performance or the two-handed performance.

プロセッサ210は、初回の押鍵操作における音の強さを取得する(ステップS210)。具体的には、ステップS210において、プロセッサ210は、次の(1a)~(5a)の何れかのベロシティ値を初回の押鍵操作における音の強さとして取得する。
(1a)ステップS202にて取得されたベロシティ値FVEL
(2a)ステップS205にて取得されたベロシティ値FRVEL及びFLVEL
(3a)ステップS206にて取得されたベロシティ値FVEL
(4a)ステップS208にて取得されたベロシティ値FMVEL及びFAVEL
(5a)ステップS209にて取得されたベロシティ値FAVEL
The processor 210 acquires the strength of the sound in the first key depression operation (step S210). Specifically, at step S210, processor 210 acquires one of the following velocity values (1a) to (5a) as the sound intensity of the first key depression operation.
(1a) Velocity value F VEL acquired in step S202
(2a) Velocity values FR VEL and FL VEL obtained in step S205
(3a) Velocity value F VEL acquired in step S206
(4a) Velocity values FM VEL and FA VEL obtained in step S208
(5a) Velocity value FA VEL obtained in step S209

図6は、図4のステップS105の第2のベロシティ値検出処理の詳細を示すサブルーチンである。第2のベロシティ値検出処理では、今回(2回目以降)の押鍵操作の入力タイプが判定され、判定された入力タイプに応じて今回(2回目以降)の押鍵操作における音の強さが取得される。 FIG. 6 is a subroutine showing the details of the second velocity value detection process in step S105 of FIG. In the second velocity value detection process, the input type of the current (second or subsequent) key depression operation is determined, and the sound intensity of the current (second or subsequent) key depression operation is determined according to the determined input type. is obtained.

ステップS105の第2のベロシティ値検出処理は、ステップS102の第1のベロシティ値検出処理と同様である。そのため、第2のベロシティ値検出処理の説明の詳細は適宜省略する。 The second velocity value detection process in step S105 is the same as the first velocity value detection process in step S102. Therefore, the detailed description of the second velocity value detection process will be omitted as appropriate.

図6に示されるように、プロセッサ210は、図4のステップS104にて受け付けた演奏情報に基づいて、押鍵操作に応じた楽音が単音か否かを判定する(ステップS301)。 As shown in FIG. 6, processor 210 determines whether or not the musical tone corresponding to the key depression operation is a single tone, based on the performance information received in step S104 of FIG. 4 (step S301).

押鍵操作に応じた楽音が単音の場合(ステップS301:YES)、プロセッサ210は、図4のステップS104にて受け付けた演奏情報に含まれるベロシティ値(言い換えると、今回(2回目以降)の押鍵操作における音の強さ)をベロシティ値CVELとして取得する(ステップS302)。 If the musical tone corresponding to the key depression operation is a single tone (step S301: YES), the processor 210 determines the velocity value included in the performance information received in step S104 of FIG. sound intensity in key operation) is acquired as a velocity value CVEL (step S302).

押鍵操作に応じた楽音が単音でない場合(ステップS301:NO)、プロセッサ210は、図4のステップS104にて受け付けた演奏情報に基づいて、押鍵操作に応じた楽音が2音か否かを判定する(ステップS303)。 If the musical tone corresponding to the key depression operation is not a single tone (step S301: NO), the processor 210 determines whether two musical tones correspond to the key depression operation based on the performance information received in step S104 of FIG. is determined (step S303).

押鍵操作に応じた楽音が2音の場合(ステップS303:YES)、プロセッサ210は、押鍵された2つの鍵の音高が1オクターブ以上離れているか否かを判定する(ステップS304)。 If there are two musical tones corresponding to the key depression operation (step S303: YES), the processor 210 determines whether or not the pitches of the two keys that have been depressed are separated by one octave or more (step S304).

押鍵された2つの鍵の音高が1オクターブ以上離れている場合(ステップS304:YES)、プロセッサ210は、一方の手の演奏での音の粒の揃い具合を検出するとともに他方の手の演奏での音の粒の揃い具合を検出するため、図4のステップS104にて受け付けた演奏情報に含まれる2つのベロシティ値(2音それぞれのベロシティ値)のうち、高い音高のベロシティ値をベロシティ値CRVELとして取得するとともに、低い音高のベロシティ値をベロシティ値CLVELとして取得する(ステップS305)。 If the pitches of the two pressed keys are separated by one octave or more (step S304: YES), the processor 210 detects the alignment of the sound grains in the performance of one hand and the pitch of the other hand. In order to detect the uniformity of sound grains in a performance, the velocity value of the higher pitch is selected from among the two velocity values (the velocity values of each of the two notes) included in the performance information received in step S104 of FIG. A velocity value CR VEL is acquired, and a velocity value of a low pitch is acquired as a velocity value CL VEL (step S305).

押鍵された2つの鍵の音高が1オクターブ以上離れていない場合(ステップS304:NO)、プロセッサ210は、図4のステップS104にて受け付けた演奏情報に含まれる2つのベロシティ値のうち、高い音高のベロシティ値をベロシティ値CVELとして取得する(ステップS306)。別の実施形態では、ステップS306において、プロセッサ210は、図4のステップS104にて受け付けた演奏情報に含まれる2つのベロシティ値のうち、低い音高のベロシティ値、又は、最初に押鍵された鍵に対応付けられた音高のベロシティ値、若しくは、次に押鍵された鍵に対応付けられた音高のベロシティ値をベロシティ値CVELとして取得してもよい。 If the pitches of the two pressed keys are not separated by one octave or more (step S304: NO), the processor 210 selects, of the two velocity values included in the performance information received in step S104 of FIG. The velocity value of the high pitch is obtained as the velocity value CVEL (step S306). In another embodiment, in step S306, the processor 210 selects the velocity value of the lower pitch of the two velocity values included in the performance information received in step S104 of FIG. The velocity value of the tone pitch associated with the key or the velocity value of the tone pitch associated with the key to be pressed next may be obtained as the velocity value CVEL .

押鍵操作に応じた楽音が2音でない場合(ステップS303:NO)、押鍵操作に応じた楽音は3音以上の楽音を含む。プロセッサ210は、押鍵された3つ以上の鍵の音高のうち、最も高い楽音と次に高い楽音とが1オクターブ以上離れているか否かを判定する(ステップS307)。 If there are not two musical tones corresponding to the key depression operation (step S303: NO), the musical tones corresponding to the key depression operation include three or more musical tones. The processor 210 determines whether or not the highest musical tone and the next highest musical tone among the pitches of the three or more depressed keys are separated by one octave or more (step S307).

押鍵された3つ以上の鍵の音高のうち、最も高い楽音と次に高い楽音とが1オクターブ以上離れている場合(ステップS307:YES)、プロセッサ210は、メロディ音の粒の揃い具合を検出するとともに伴奏和音の粒の揃い具合を検出するため、図4のステップS104にて受け付けた演奏情報に含まれる3つ以上のベロシティ値のうち、最も高い音高(言い換えると、一方の手で弾くメロディ音の音高)のベロシティ値をベロシティ値CMVELとして取得するとともに、それ以外の2つ以上の音高(言い換えると、他方の手で弾く伴奏和音の音高)のベロシティ値の平均値をベロシティ値CAVELとして取得する(ステップS308)。 If the pitches of the three or more keys that have been pressed are separated by one octave or more from the highest musical tone to the next highest musical tone (step S307: YES), the processor 210 determines the degree of uniformity of the melody tones. In order to detect the degree of uniformity of accompaniment chord grains, the highest pitch (in other words, one hand Acquire the velocity value of the melody note played with the other hand) as the velocity value CM VEL , and average the velocity values of the other two or more pitches (in other words, the pitches of the accompaniment chords played with the other hand) A value is acquired as a velocity value CA VEL (step S308).

押鍵された3つ以上の鍵の音高のうち、最も高い楽音と次に高い楽音とが1オクターブ以上離れていない場合(ステップS307:NO)、プロセッサ210は、図4のステップS104にて受け付けた演奏情報に含まれる3つ以上のベロシティ値の平均値(言い換えると、伴奏和音の音高のベロシティ値)をベロシティ値CAVELとして取得する(ステップS309)。 If the pitches of the three or more keys that have been pressed are not separated by one octave or more from the highest musical tone to the next highest musical tone (step S307: NO), the processor 210 proceeds to step S104 in FIG. An average value of three or more velocity values (in other words, velocity values of pitches of accompaniment chords) included in the received performance information is obtained as a velocity value CA VEL (step S309).

このように、ステップS304及びS307において、プロセッサ210は、演奏者による演奏が片手演奏か両手演奏かを判定する。ステップS305、S306、S308及びS309において、プロセッサ210は、片手演奏又は両手演奏に応じたベロシティ値を取得する。 Thus, in steps S304 and S307, processor 210 determines whether the performance by the player is one-handed or two-handed. At steps S305, S306, S308 and S309, the processor 210 obtains velocity values corresponding to one-handed or two-handed performance.

プロセッサ210は、今回(2回目以降)の押鍵操作における音の強さを取得する(ステップS310)。具体的には、ステップS310において、プロセッサ210は、次の(1b)~(5b)の何れかのベロシティ値を今回(2回目以降)の押鍵操作における音の強さとして取得する。
(1b)ステップS302にて取得されたベロシティ値CVEL
(2b)ステップS305にて取得されたベロシティ値CRVEL及びCLVEL
(3b)ステップS306にて取得されたベロシティ値CVEL
(4b)ステップS308にて取得されたベロシティ値CMVEL及びCAVEL
(5b)ステップS309にて取得されたベロシティ値CAVEL
The processor 210 acquires the strength of the sound in the current (second or later) key depression operation (step S310). Specifically, in step S310, processor 210 acquires one of the following velocity values (1b) to (5b) as the sound intensity of the current (second and subsequent) key depression operations.
(1b) Velocity value C VEL acquired in step S302
(2b) Velocity values CR VEL and CL VEL acquired in step S305
(3b) Velocity value C VEL obtained in step S306
(4b) Velocity values CM VEL and CA VEL obtained in step S308
(5b) Velocity value CA VEL acquired in step S309

図7は、図4のステップS106の差分値取得処理の詳細を示すサブルーチンである。差分値取得処理では、ステップS102の第1のベロシティ値検出処理で検出されたベロシティ値と、ステップS105の第2のベロシティ値検出処理で検出されたベロシティ値との差分値が取得される。より包括的な表現によれば、差分値取得処理では、2つの音のある値に関する差分値が取得される。すなわち、ステップS106において、プロセッサ210は、2つの音のある値に関する差分値を取得する差分値取得部210aとして動作する。 FIG. 7 is a subroutine showing details of the difference value acquisition process in step S106 of FIG. In the difference value acquisition process, the difference value between the velocity value detected by the first velocity value detection process of step S102 and the velocity value detected by the second velocity value detection process of step S105 is acquired. In more general terms, the difference value obtaining process obtains a difference value for a value of two sounds. That is, in step S106, the processor 210 operates as the difference value acquisition unit 210a that acquires a difference value regarding certain values of two sounds.

図7に示されるように、プロセッサ210は、図5のステップS210にて取得された初回の押鍵操作における音の強さ(すなわち、上記(1a)~(5a)の何れかのベロシティ値)を値FVとして設定するとともに、図6のステップS310にて取得された今回(2回目以降)の押鍵操作における音の強さ(すなわち、上記(1b)~(5b)の何れかのベロシティ値)を値CVとして設定する(ステップS401)。 As shown in FIG. 7, the processor 210 calculates the sound intensity (that is, any velocity value of (1a) to (5a) above) in the initial key depression operation acquired in step S210 of FIG. is set as the value FV, and the strength of the sound in the current (second and subsequent) key depression operations obtained in step S310 of FIG. ) is set as the value CV (step S401).

プロセッサ210は、値FVと値CVとの差分値を計算する(ステップS402)。この差分値は、値FVから値CVを減算したものである。より詳細には、プロセッサ210は、図8に示される差分値計算テーブルを参照して、初回の押鍵操作と今回(2回目以降)の押鍵操作の入力タイプを考慮した差分値の計算を行う。図8に示される差分値計算テーブルでは、縦軸が値FVであり、横軸が値CVである。この差分値計算テーブルは、例えばROM230に保持されている。 Processor 210 calculates the difference between value FV and value CV (step S402). This difference value is the value FV minus the value CV. More specifically, processor 210 refers to the difference value calculation table shown in FIG. 8 to calculate the difference value in consideration of the input types of the first key depression operation and the current (second and subsequent) key depression operations. conduct. In the difference value calculation table shown in FIG. 8, the vertical axis is the value FV and the horizontal axis is the value CV. This difference value calculation table is held in the ROM 230, for example.

図8に示される差分値計算テーブルを用いた差分値の計算方法を数例説明する。 Several examples of the difference value calculation method using the difference value calculation table shown in FIG. 8 will be described.

例えば、初回と今回(2回目以降)の押鍵操作に応じた楽音が何れも単音である場合を考える。この場合、図8に示されるように、次式(1)により差分値が計算される。 For example, let us consider a case where both musical tones corresponding to the first and current (second and subsequent) key depression operations are single tones. In this case, as shown in FIG. 8, the difference value is calculated by the following equation (1).

式(1)
ベロシティ値FVEL-ベロシティ値CVEL
formula (1)
Velocity value F VEL - Velocity value C VEL

例えば、初回の押鍵操作に応じた楽音が1オクターブ以上離れた2音であり、今回(2回目以降)の押鍵操作に応じた楽音が単音である場合を考える。この場合、楽音が2音から単音になることから、ベロシティ値FRVELに対応する楽音とベロシティ値FLVELに対応する楽音のうち、ベロシティ値CVELに対応する楽音と音高(又は音域)が近い方と、ベロシティ値CVELとの差分値が計算される。すなわち、図8に示されるように、次式(2)又は次式(3)により差分値が計算される。 For example, let us consider a case where the musical tones corresponding to the first key depression are two tones separated by one octave or more, and the musical tones corresponding to the current (second and subsequent) key depressions are a single tone. In this case, since two musical tones are replaced by a single tone, the musical tones corresponding to the velocity value FR VEL and the musical tones corresponding to the velocity value FL VEL are different in pitch (or range) from the musical tone corresponding to the velocity value C VEL . A difference value between the closer one and the velocity value CVEL is calculated. That is, as shown in FIG. 8, the difference value is calculated by the following equation (2) or (3).

式(2)
ベロシティ値FRVEL-ベロシティ値CVEL
式(3)
ベロシティ値FLVEL-ベロシティ値CVEL
formula (2)
Velocity value FR VEL - Velocity value C VEL
Formula (3)
Velocity value FL VEL - Velocity value C VEL

例えば、初回と今回(2回目以降)の押鍵操作に応じた楽音が何れも1オクターブ以上離れた2音である場合を考える。この場合、一方の手の演奏での音の粒の揃い具合を検出するとともに他方の手の演奏での音の粒の揃い具合を検出するため、図8に示されるように、一方の手の演奏における2つの音の差分値が次式(4)により計算されるとともに、他方の手の演奏における2つの音の差分値が次式(5)により計算される。 For example, let us consider a case where both musical tones corresponding to the first and current (second and subsequent) key depression operations are two tones separated by one octave or more. In this case, as shown in FIG. The difference value between the two sounds in the performance is calculated by the following equation (4), and the difference value between the two sounds in the performance of the other hand is calculated by the following equation (5).

式(4)
ベロシティ値FRVEL-ベロシティ値CRVEL
式(5)
ベロシティ値FLVEL-ベロシティ値CLVEL
Formula (4)
Velocity value FR VEL - Velocity value CR VEL
Formula (5)
Velocity value FL VEL - Velocity value CL VEL

例えば、初回と今回(2回目以降)の押鍵操作に応じた楽音が何れも伴奏和音(2音以上の和音)とメロディ音とを組み合わせたものである場合を考える。この場合、メロディ音の粒の揃い具合を検出するとともに伴奏和音の粒の揃い具合を検出するため、図8に示されるように、一方の手で弾くメロディ音における差分値が次式(6)により計算されるとともに、他方の手で弾く伴奏和音における差分値が次式(7)により計算される。 For example, consider a case where musical tones corresponding to the first and current (second and subsequent) key depression operations are both combinations of accompaniment chords (two or more chords) and melody tones. In this case, in order to detect the alignment of melody tones and the alignment of accompaniment chords, as shown in FIG. and the difference value in the accompaniment chord played with the other hand is calculated by the following equation (7).

式(6)
ベロシティ値FMVEL-ベロシティ値CMVEL
式(7)
ベロシティ値FAVEL-ベロシティ値CAVEL
Formula (6)
Velocity value FM VEL - Velocity value CM VEL
Formula (7)
Velocity value FA VEL - Velocity value CA VEL

例えば、初回の押鍵操作に応じた楽音が伴奏和音(2音以上の和音)とメロディ音とを組み合わせたものであり、今回(2回目以降)の押鍵操作に応じた楽音が伴奏和音のみの場合を考える。この場合、初回の押鍵操作に応じた楽音(より詳細には、初回の押鍵操作に応じた楽音の中で最も高い音高の楽音(ベロシティ値FMVELの楽音))の発音中は、差分値の計算を停止する。これにより、メロディ音の演奏中は、音の粒がどの程度揃っているかを示すアニメーション動画が表示部260に表示されなくなる。演奏者に対し、メロディ音を演奏することに集中させる趣旨である。この楽音の発音が終わると、図8に示されるように、初回の押鍵操作に応じたメロディ音と今回の押鍵操作に応じた伴奏和音との差分値が次式(8)により計算される。 For example, the musical tone corresponding to the first key depression is a combination of an accompaniment chord (a chord of two or more notes) and a melody tone, and the musical tone corresponding to the current (second and later) key depression is only an accompaniment chord. Consider the case of In this case, while the musical tone corresponding to the first key depression operation (more specifically, the musical tone having the highest pitch among the musical tones corresponding to the first key depression operation (the musical tone having the velocity value FM VEL )) is sounded, Stop calculating the difference value. As a result, during the performance of the melody sound, the display unit 260 does not display the animated moving image indicating how well the grains of the sound are aligned. This is intended to make the player concentrate on playing the melody sound. After the sounding of this tone is completed, the difference value between the melody tone corresponding to the first key depression and the accompaniment chord corresponding to the current key depression is calculated by the following equation (8), as shown in FIG. be.

式(8)
ベロシティ値FMVEL-ベロシティ値CAVEL
Formula (8)
Velocity value FM VEL - Velocity value CA VEL

なお、図8の例では、初回の押鍵操作に応じた楽音が単音又は2音であり、今回(2回目以降)の押鍵操作に応じた楽音が伴奏和音のみの場合も、上記と同様の趣旨により、初回の押鍵操作に応じた楽音の発音中は、差分値の計算が停止される。 In the example of FIG. 8, the same applies when the musical tone corresponding to the first key depression operation is a single tone or two tones, and the musical tone corresponding to the current (second or later) key depression operation is only an accompaniment chord. , the calculation of the difference value is stopped during the sounding of the musical tone corresponding to the first key depression operation.

プロセッサ210は、ステップS402にて計算された差分値を2つの音の強さの差分値として取得する(ステップS403)。片手演奏の場合には、ステップS402にて計算された1つの差分値が取得され、両手演奏の場合には、ステップS402にて計算された2つの差分値が取得される。 The processor 210 acquires the difference value calculated in step S402 as the difference value between the two sound intensities (step S403). In the case of one-handed performance, one difference value calculated in step S402 is obtained, and in the case of two-handed performance, two difference values calculated in step S402 are obtained.

図9は、図4のステップS107のアニメーション動画生成処理の詳細を示すサブルーチンである。本実施形態では、音の粒がどの程度揃っているかに応じて、キャラクタが移動する地面の高さをアニメーション動画内で変化させる。演奏者は、キャラクタが移動する地面の高さを視認することにより、音の粒がどの程度揃っているかをリアルタイムで把握することができる。 FIG. 9 is a subroutine showing details of the animation moving image generation processing in step S107 of FIG. In this embodiment, the height of the ground on which the character moves is changed in the animation moving image according to how well the sound grains are aligned. By visually recognizing the height of the ground where the character moves, the performer can grasp in real time how well the grains of sound are aligned.

図9に示されるように、プロセッサ210は、図8のステップS403にて取得された差分値を差分値VELとして設定する(ステップS501)。両手演奏の場合は、それぞれの手に対応した2つの差分値VELを設定する。 As shown in FIG. 9, the processor 210 sets the difference value acquired in step S403 of FIG. 8 as the difference value VEL (step S501). In the case of a two-handed performance, two difference values VEL corresponding to each hand are set.

ステップS502において、プロセッサ210は、差分値VELに応じた情報(例えば、第1の楽音と第2の楽音との差分値の大きさを示す情報、第1の楽音と第3の楽音との差分値の大きさを示す情報)を取得する情報取得部210bとして動作する。具体的には、ステップS502において、プロセッサ210は、図10に示されるパラメータテーブルを参照して、差分値VELに応じたアニメーション動画を生成するためのパラメータ(差分値VELの大きさを示す情報の一例)を設定する。両手演奏の場合は、それぞれの差分値VELに応じたパラメータが設定される。 In step S502, the processor 210 generates information corresponding to the difference value VEL (for example, information indicating the magnitude of the difference value between the first musical tone and the second musical tone, the difference between the first musical tone and the third musical tone). information indicating the magnitude of the value). Specifically, at step S502, processor 210 refers to the parameter table shown in FIG. example). In the case of two-handed performance, parameters are set according to respective difference values VEL.

図10の例では、パラメータとして、初期キャラクタ、アニメーション情報、勾配がある。初期キャラクタは、画像の一例であり、アニメーション動画の最初のコマで表示するキャラクタを示す。アニメーション情報は、画像を画面上で動かすための情報の一例であり、キャラクタの動きの情報を示す。勾配は、画像に対して差分値に応じた変化を与えるための情報の一例であり、キャラクタが移動する地面の高さを示す。附言するに、勾配は、差分値に応じて、画像を画面内で傾けて表示させるための情報である。 In the example of FIG. 10, the parameters include initial character, animation information, and gradient. The initial character is an example of an image, and indicates a character to be displayed in the first frame of the animation moving image. Animation information is an example of information for moving an image on the screen, and indicates information on character movement. The gradient is an example of information for changing the image according to the difference value, and indicates the height of the ground along which the character moves. In addition, the gradient is information for tilting and displaying the image within the screen according to the difference value.

図10に示されるパラメータテーブルは、例えばROM230に保持されている。すなわち、保持部の一例であるROM230は、情報取得部210bにより取得される情報の一例であるパラメータを差分値VEL毎に対応付けて保持する。ステップS502において情報取得部210bとして動作するプロセッサ210は、保持部であるROM230のなかから、差分値VELに対応付けられた情報(パラメータ)を取得する。 The parameter table shown in FIG. 10 is held in the ROM 230, for example. That is, the ROM 230, which is an example of a holding unit, holds a parameter, which is an example of information acquired by the information acquisition unit 210b, in association with each difference value VEL. In step S502, the processor 210 operating as the information acquisition unit 210b acquires information (parameters) associated with the difference value VEL from the ROM 230, which is a holding unit.

なお、ここに挙げるパラメータ(言い換えると情報)は一例に過ぎない。例えば、画像に対して差分値に応じた変化を与えるための情報として、画像の色や大きさ、数等を変えるための情報が含まれてもよく、また、別の画像に切り替えるための情報が含まれてもよい。プロセッサ210は、アニメーション動画を生成するためのパラメータとして、図10に示すパラメータに加えて又は代えて、上記で例示的に挙げた別のパラメータを設定してもよい。 Note that the parameters (in other words, information) listed here are only examples. For example, the information for changing the image according to the difference value may include information for changing the color, size, number, etc. of the image, or information for switching to another image. may be included. Processor 210 may set other parameters exemplified above in addition to or in place of the parameters shown in FIG. 10 as parameters for generating an animation movie.

プロセッサ210は、ステップS502にて設定されたパラメータを用いてアニメーション動画を生成して表示部260に出力する(ステップS503)。両手演奏の場合は、それぞれの差分値VELに応じて設定されたパラメータを用いて、それぞれの手に対応するアニメーション動画(言い換えると、それぞれの手において音の粒がどの程度揃っているかを示す情報)が生成されて、表示部260に出力される。すなわち、ステップS503において、プロセッサ210は、情報取得部210bにより取得された情報の一例であるパラメータに基づいて、報知部の一例である表示部260に出力する出力部210cとして動作する。 Processor 210 generates an animation video using the parameters set in step S502, and outputs the animation video to display unit 260 (step S503). In the case of a two-handed performance, animation videos corresponding to each hand (in other words, information indicating how well the sound grains are aligned in each hand) are generated using parameters set according to the respective difference values VEL. ) is generated and output to the display unit 260 . That is, in step S503, the processor 210 operates as the output unit 210c that outputs to the display unit 260, which is an example of the notification unit, based on the parameter, which is an example of the information acquired by the information acquisition unit 210b.

より詳細には、情報取得部210b及び出力部210cとして動作するプロセッサ210は、片手演奏と判定される場合には、演奏する1つの手に対応する情報(パラメータ)を取得して報知部(表示部260)への出力を行い、両手演奏と判定される場合には、演奏するそれぞれの手に対応する情報を取得して報知部への出力を行う。 More specifically, the processor 210, which operates as the information acquisition unit 210b and the output unit 210c, acquires information (parameters) corresponding to one hand to be played and outputs the information to the notification unit (display 260), and if it is determined that the performance is performed with both hands, the information corresponding to each hand of the performance is acquired and output to the notification unit.

今回(2回目以降)の押鍵操作に応じた楽音が発音中である間(ステップS504:YES)、プロセッサ210は、引き続き、ステップS503を実行して、アニメーション動画の生成及び出力を行う。これにより、上記の楽音の発音中、表示部260でアニメーション動画が再生される。 While the musical tone corresponding to the current (second or later) key depression operation is being produced (step S504: YES), the processor 210 continues to execute step S503 to generate and output animation moving images. As a result, the animation video is reproduced on the display unit 260 while the musical tones are produced.

例えば、差分値VELがゼロの場合、図10に示されるように、初期キャラクタとしてキャラクタ(1)が設定され、アニメーション情報として情報(1)(A)(B)が設定され、勾配としてゼロ度が設定される。 For example, when the difference value VEL is zero, as shown in FIG. 10, character (1) is set as the initial character, information (1) (A) (B) is set as the animation information, and zero degrees is set as the gradient. is set.

ステップS503において、プロセッサ210は、例えばROM230に記憶された初期キャラクタのなかからキャラクタ(1)を取得する。 In step S503, the processor 210 acquires character (1) from the initial characters stored in the ROM 230, for example.

情報(1)(A)(B)は、キャラクタ(1)を(A)のコマと(B)のコマで交互に繰り返し動かすことを示す。ステップS503において、プロセッサ210は、例えばROM230に記憶されたコマの中から、キャラクタ(1)に対する(A)のコマと(B)のコマを取得する。画面上でキャラクタ(1)を(A)のコマと(B)のコマで交互に繰り返し表示することにより、キャラクタ(1)が走るアニメーション動画が再生される。 Information (1) (A) (B) indicates that the character (1) is alternately and repeatedly moved between (A) and (B) frames. In step S503, the processor 210 acquires (A) and (B) frames for the character (1) from the frames stored in the ROM 230, for example. By alternately and repeatedly displaying the character (1) in frames (A) and (B) on the screen, an animation moving image in which the character (1) runs is reproduced.

ゼロ度の勾配は、キャラクタ(1)が走る地面の高さが基準の高さであることを示す。ステップS503において、プロセッサ210は、アニメーション動画内で基準の高さとなる位置にキャラクタ(1)が走る地面を描画する。 A slope of zero degrees indicates that the ground level on which character (1) runs is the reference level. In step S503, the processor 210 draws the ground on which the character (1) runs at a reference height position in the animation moving image.

このように、ステップS503において、プロセッサ210は、差分値VELがゼロの場合、基準の高さHに位置する地面をキャラクタ(1)が走るアニメーション動画を生成する。このアニメーション動画の一例を図11A及び図11Bに示す。図11Aに示されるコマと図11Bに示されるコマとが交互に繰り返されるアニメーション動画が生成されて表示部260に表示される。 Thus, at step S503, the processor 210 generates an animated animation in which the character (1) runs on the ground located at the reference height H1 when the difference value VEL is zero. An example of this animation movie is shown in FIGS. 11A and 11B. An animation moving image in which the frames shown in FIG. 11A and the frames shown in FIG. 11B are alternately repeated is generated and displayed on the display unit 260 .

なお、図11A及び図11Bの例では、片手演奏時に表示部260に表示されるアニメーション動画を示す。両手演奏時には、それぞれの手に対応するアニメーション動画が表示部260に表示される。 Note that the examples of FIGS. 11A and 11B show animation videos displayed on the display unit 260 during one-handed performance. During a two-handed performance, the display unit 260 displays an animation video corresponding to each hand.

図12A及び図12Bに、両手演奏時に表示部260に表示されるアニメーション動画の一例を示す。なお、本実施形態では、ステップS502にて設定されるキャラクタが差分値VELに応じて変わるが、図12A及び図12Bでは、便宜上、図11A及び図11Bと同じ犬のキャラクタ(1)を図示する。 12A and 12B show an example of an animation video displayed on the display unit 260 when playing with both hands. In this embodiment, the character set in step S502 changes according to the difference value VEL, but for convenience sake, the same dog character (1) as in FIGS. .

補足すると、ステップS502にて設定されるキャラクタは、常に同じキャラクタ(例えば図11A及び図11Bに示される犬のキャラクタ(1))であってもよい。また、ステップS502にて設定されるキャラクタは、演奏者が自由に変更できてもよい。 Supplementally, the character set in step S502 may always be the same character (for example, dog character (1) shown in FIGS. 11A and 11B). Also, the character set in step S502 may be freely changed by the performer.

まずは、一方の手に対応するアニメーション動画について説明する。例えば、一方の手に対応する差分値VELが+101以上である場合、図10に示されるように、初期キャラクタとしてキャラクタ(6)が設定され、アニメーション情報として情報(6)(A)(B)が設定され、勾配として+45度が設定される。一方の手に対応する前回の差分値VELが+100以下である場合、プロセッサ210は、キャラクタ(6)が上り坂を走るアニメーション動画を生成して表示部260に表示させる(図12Aの「一方の手」直下の画像参照)。 First, an animation movie corresponding to one hand will be described. For example, when the difference value VEL corresponding to one hand is +101 or more, character (6) is set as the initial character and information (6) (A) (B) is set as animation information, as shown in FIG. is set and +45 degrees is set as the slope. If the previous difference value VEL corresponding to one hand is less than or equal to +100, the processor 210 generates an animation video in which the character (6) runs uphill and causes the display unit 260 to display it ("One hand" in FIG. 12A). hands” (see image directly below).

この上り坂の勾配は、前回の差分値VELに対応する勾配と今回の差分値VELに対応する勾配との差分の勾配である。この上り坂の頂上は、今回の差分値VELに対応する勾配(すなわち+45度の勾配)に対応付けられた高さHに位置する。 The slope of this upward slope is the slope of the difference between the slope corresponding to the previous difference value VEL and the slope corresponding to the current difference value VEL. The top of this uphill is located at height H2 associated with the slope corresponding to the current difference value VEL (that is, the slope of +45 degrees).

+101以上の差分値VELが続く場合、プロセッサ210は、キャラクタ(6)が+45度の勾配に対応付けられた高さHに位置する平坦な地面を走るアニメーション動画を生成する。これにより、キャラクタ(6)が高さHに位置する平坦な地面を走るアニメーション動画が表示部260に表示される(図12Bの「一方の手」直下の画像参照)。 If the difference value VEL of +101 or more continues, the processor 210 generates an animation animation in which the character (6) runs on flat ground located at a height H2 associated with a gradient of +45 degrees. As a result, an animation moving image in which the character (6) runs on the flat ground positioned at the height H2 is displayed on the display unit 260 (see the image immediately below "one hand" in FIG. 12B).

次に、他方の手に対応するアニメーション動画について説明する。例えば、他方の手に対応する差分値VELが-101以下である場合、図10に示されるように、初期キャラクタとしてキャラクタ(11)が設定され、アニメーション情報として情報(11)(A)(B)が設定され、勾配として-45度が設定される。他方の手に対応する前回の差分値VELが-100以上である場合、プロセッサ210は、キャラクタ(11)が下り坂を走るアニメーション動画を生成して表示部260に表示させる(図12Aの「他方の手」直下の画像参照)。 Next, the animation movie corresponding to the other hand will be described. For example, if the difference value VEL corresponding to the other hand is -101 or less, as shown in FIG. 10, character (11) is set as the initial character, and information (11) (A) (B ) is set, and −45 degrees is set as the slope. If the previous difference value VEL corresponding to the other hand is -100 or more, the processor 210 generates an animation moving image in which the character (11) runs downhill and causes the display unit 260 to display it ("the other hand" in FIG. 12A). hands” (see the image directly below).

この下り坂の勾配も、前回の差分値VELに対応する勾配と今回の差分値VELに対応する勾配との差分の勾配である。この下り坂を下りた先の地面は、今回の差分値VELに対応する勾配(すなわち-45度の勾配)に対応付けられた高さHに位置する。 The gradient of this downward slope is also the gradient of the difference between the gradient corresponding to the previous difference value VEL and the gradient corresponding to the current difference value VEL. The ground after going down this downward slope is located at a height H 3 associated with the gradient corresponding to the current difference value VEL (that is, the gradient of -45 degrees).

-101以上の差分値VELが続く場合、プロセッサ210は、キャラクタ(11)が-45度の勾配に対応付けられた高さHに位置する平坦な地面を走るアニメーション動画を生成する。これにより、キャラクタ(11)が高さHに位置する平坦な地面を走るアニメーション動画が表示部260に表示される(図12Bの「他方の手」直下の画像参照)。 If the difference value VEL of -101 or more continues, the processor 210 generates an animation animation in which the character (11) runs on a flat ground located at a height H3 associated with a gradient of -45 degrees. As a result, an animated animation in which the character (11) runs on a flat ground positioned at a height H3 is displayed on the display unit 260 (see the image immediately below the "other hand" in FIG. 12B).

このように、プロセッサ210は、初回の押鍵操作に応じた楽音と今回(2回目以降)の押鍵操作に応じた楽音との強さの差を示す差分値VELに応じて、キャラクタが平坦な地面や上り坂又は下り坂を走るアニメーション動画を生成する。 In this way, the processor 210 makes the character flat according to the difference value VEL indicating the difference in strength between the tone corresponding to the first key depression operation and the tone corresponding to the current (second and subsequent) key depression operations. Generate animation videos running on smooth ground, uphill or downhill.

演奏者は、アニメーション動画を視認する(例えば、キャラクタが走る地面の高さや坂道の勾配を視認する)ことにより、初回の押鍵操作に応じた楽音に対して今回(2回目以降)の押鍵操作に応じた楽音がどの程度粒が揃ったものであるか、片手演奏時における音の粒の揃い具合、両手演奏時における音の粒の揃い具合等を、リアルタイムで容易に把握することができる。また、演奏者は、例えば、キャラクタが平坦な地面を走ったり坂道を上ったり下りたりするアニメーション動画を視認することにより、音の粒の揃い具合が演奏中にどのように変化しているか等もリアルタイムで容易に把握することができる。 By visually recognizing the animation video (for example, by visually recognizing the height of the ground on which the character is running or the slope of the slope), the player can determine the current (second and subsequent) key depressions for the musical sound corresponding to the first key depression operation. It is possible to easily grasp, in real time, how well the musical tones correspond to the operation, how well the sound grains are aligned when playing with one hand, how the sound grains are aligned when playing with both hands, and the like. . Also, the performer can see how the uniformity of the sound grains changes during the performance, for example, by visually recognizing an animation movie in which the character runs on a flat ground or climbs and descends a slope. can be easily grasped in real time.

なお、アニメーション動画は、本実施形態のものに限られない。例えば、ユーザが弾いた音のベロシティに応じて長さが変化する棒を表示させるものであってもよい。また、左手用、右手用別々の棒を表示し、それぞれの棒が差分値VELに応じて伸びたり縮んだりしてもよい。このようなアニメーション動画によっても、演奏者は、音の粒の揃い具合を視覚を通じて把握することができる。このアニメーション動画の場合、差分値に応じたパラメータとして、例えば、棒(画像の一例)及び棒を伸び縮みさせるための情報(画像に対して差分値に応じた変化を与えるための情報の一例)が設定される。 Note that the animation video is not limited to that of the present embodiment. For example, a stick whose length changes according to the velocity of the note played by the user may be displayed. Alternatively, separate bars for the left hand and right hand may be displayed, and each bar may expand or contract according to the difference value VEL. Even with such an animation video, the performer can visually grasp how the particles of sound are aligned. In the case of this animation video, the parameters according to the difference value include, for example, a bar (an example of an image) and information for expanding and contracting the bar (an example of information for giving a change to the image according to the difference value). is set.

従って、演奏者は、一方の手又は左右の手それぞれにおいて、形の違う5本の指についてどの程度の強さで押鍵すれば音の粒を揃えることができるかを効率的に練習することができる。 Therefore, the performer can efficiently practice how hard it is necessary to press five differently shaped fingers on one hand or on each of the left and right hands to align the grains of sound. can be done.

本実施形態によれば、演奏者による初回の押鍵操作に応じた楽音を基準として音の粒がどの程度揃っているかが判定される。すなわち、お手本の音を基準として音の粒がどの程度揃っているかを判定しない。そのため、お手本の音データが不要である。 According to the present embodiment, it is determined to what extent the grains of sound are aligned with reference to the musical sound corresponding to the first key depression operation by the player. In other words, it is not determined to what extent the sound grains are aligned with reference to the model sound. Therefore, model sound data is unnecessary.

なお、別の実施形態では、初回の押鍵操作に応じた楽音に代えて、お手本の音を基準として音の粒がどの程度揃っているかを判定してもよい。すなわち、ステップS106において、差分値取得部210aとして動作するプロセッサ210は、お手本の音(所定の模範の音)と、演奏者による各押鍵操作に応じた楽音(ユーザの操作に応じた楽音)との差分値を取得してもよい。 It should be noted that in another embodiment, instead of the musical tone corresponding to the first key depression operation, a model tone may be used as a reference to determine how well the tone grains are aligned. That is, in step S106, the processor 210 operating as the difference value acquiring unit 210a generates a model sound (predetermined model sound) and a musical sound corresponding to each key depression operation by the performer (musical sound corresponding to the user's operation). You may acquire the difference value with

また、基準となる音は、演奏者による初回の押鍵操作に応じた楽音に限らない。任意の時点の押鍵操作に応じた楽音や、今回の押鍵操作の1つ前の押鍵操作に応じた楽音等を基準として音の粒がどの程度揃っているかが判定されてもよい。 Also, the reference sound is not limited to the musical sound corresponding to the player's first key depression operation. It may be determined to what degree the grains of sound are uniform based on a musical sound corresponding to a key depression operation at an arbitrary point of time, a musical sound corresponding to a key depression operation immediately before the current key depression operation, or the like.

本実施形態では、初回、今回(2回目以降)の各押鍵操作の入力タイプが判定され、この入力タイプを考慮して2つの音の差分値が取得される。幅広い入力タイプに対応するため、様々な楽曲で音の粒がどの程度揃っているかを演奏者に視覚的に伝えることができる。 In the present embodiment, the input type of each of the first and current (second and subsequent) key depression operations is determined, and the difference value between the two sounds is acquired in consideration of the input type. Since it supports a wide range of input types, it is possible to visually convey to the performer how well the grains of sound are aligned in various songs.

このように、本実施形態によれば、音の粒が揃っているかをユーザに把握させやすい情報処理装置、電子楽器、方法及びプログラムが提供される。 As described above, according to the present embodiment, an information processing device, an electronic musical instrument, a method, and a program are provided that allow a user to easily grasp whether the grains of sound are aligned.

その他、本発明は上述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上述した実施形態で実行される機能は可能な限り適宜組み合わせて実施しても良い。上述した実施形態には種々の段階が含まれており、開示される複数の構成要件による適宜の組み合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。 In addition, the present invention is not limited to the above-described embodiments, and can be modified in various ways without departing from the gist of the present invention. Also, the functions executed in the above-described embodiments may be combined as appropriate as possible. Various steps are included in the above-described embodiments, and various inventions can be extracted by appropriately combining the disclosed multiple constituent elements. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiments, if an effect can be obtained, a configuration in which these constituent elements are deleted can be extracted as an invention.

上記の実施形態では、電子楽器100と情報処理装置200とが別個独立した装置であるが、別の実施形態では、電子楽器100が情報処理装置200を含む構成としてもよい。すなわち、演奏操作子である鍵盤120を含む電子楽器100は、情報処理装置200を備える。この場合、プロセッサ110がレッスンプログラム232を実行することにより、演奏操作子に対する第1の操作に応じた第1の楽音と、演奏操作子に対する第2の操作に応じた第2の楽音との、ある値に関する差分値(例えば差分値VEL)を取得し、取得された差分値の大きさを示す情報を取得し、取得された情報に基づいて報知部(例えば電子楽器100のタッチパネル)に出力する。演奏者は、タッチパネルに表示されるアニメーション動画を視認することにより、演奏中、音の粒がどの程度揃っているかをリアルタイムで把握することができる。 In the above embodiment, the electronic musical instrument 100 and the information processing device 200 are independent devices, but in another embodiment, the electronic musical instrument 100 may include the information processing device 200 . In other words, the electronic musical instrument 100 including the keyboard 120 as performance operators includes an information processing device 200 . In this case, the processor 110 executes the lesson program 232 to produce a first musical tone in response to the first operation on the performance operator and a second musical tone in response to the second operation on the performance operator. Acquire a difference value (for example, difference value VEL) related to a certain value, acquire information indicating the magnitude of the acquired difference value, and output to a notification unit (for example, the touch panel of the electronic musical instrument 100) based on the acquired information. . By visually recognizing the animated moving image displayed on the touch panel, the performer can grasp in real time how well the particles of sound are aligned during the performance.

上記の実施形態では、2つの音の差分値として、2つの音のベロシティの差を例示したが、本発明はこれに限らない。例えば、2つの音の差分値として、ピッチの差、音量の差又は音色フィルタの差を取得し、取得された差分値に応じたアニメーション動画を出力する構成も本発明の範疇である。 In the above embodiment, the difference in velocity between the two sounds was exemplified as the difference value between the two sounds, but the present invention is not limited to this. For example, a configuration that acquires a pitch difference, a volume difference, or a timbre filter difference as a difference value between two sounds and outputs an animation video corresponding to the acquired difference value is also within the scope of the present invention.

例えば、電子弦楽器や電子管楽器では、演奏操作毎にピッチずれや音量ずれが発生する。そこで、プロセッサ210は、例えば、初回の演奏操作に応じた楽音のピッチ(又は音量)と、今回(2回目以降)の演奏操作に応じた楽音のピッチ(又は音量)との差分値を取得し、取得された差分値に応じたアニメーション動画(言い換えると、2つの音でピッチ(又は音量)がどの程度揃っているかを演奏者に伝える情報)を生成して表示部260に出力する。演奏者は、表示部260に表示されるアニメーション動画を視認することにより、例えば、初回の押鍵操作に応じた楽音に対して今回(2回目以降)の押鍵操作に応じた楽音でどの程度ピッチ(又は音量)がずれているかをリアルタイムで把握することができる。 For example, in an electronic stringed instrument or an electronic wind instrument, a pitch deviation or a volume deviation occurs for each playing operation. Therefore, the processor 210 acquires, for example, a difference value between the pitch (or volume) of the musical sound corresponding to the first performance operation and the pitch (or volume) of the musical sound according to the current (second and subsequent) performance operations. , an animation video corresponding to the obtained difference value (in other words, information for telling the performer how well the pitches (or volumes) of the two sounds are aligned) is generated and output to the display unit 260 . By visually recognizing the animation moving image displayed on the display unit 260, the player can, for example, determine how much the musical tone corresponding to the current (second and later) key pressing operation is compared to the musical tone corresponding to the first key pressing operation. Whether the pitch (or volume) is off can be grasped in real time.

例えば、シンセサイザやオルガン等の持続音を発音する電子楽器では、ペダル操作等で音を変えたりビブラートをかけたりするため、発音される音の音色が意図せずに揃わないことがある。そこで、プロセッサ210は、例えば、初回の演奏操作で適用した音色フィルタと、今回(2回目以降)の演奏操作で適用した音色フィルタとの差分値を取得し、取得された差分値に応じたアニメーション動画(言い換えると、2つの音で適用した音色フィルタがどの程度揃っているかを演奏者に伝える情報)を生成して表示部260に出力する。演奏者は、表示部260に表示されるアニメーション動画を視認することにより、例えば、初回の押鍵操作に応じた楽音に対して今回(2回目以降)の押鍵操作に応じた楽音で、適用した音色フィルタがどの程度揃っているか(言い換えると、音色がどの程度揃っているか)をリアルタイムで把握することができる。 For example, in an electronic musical instrument such as a synthesizer or an organ that produces sustained sounds, the sound is changed or vibrato is applied by operating a pedal or the like. Therefore, the processor 210 acquires, for example, a difference value between the tone color filter applied in the first performance operation and the tone color filter applied in the current (second and later) performance operation, and an animation corresponding to the acquired difference value is obtained. A moving image (in other words, information that tells the performer how well the timbre filters applied to the two sounds match) is generated and output to the display unit 260 . By visually recognizing the animation video displayed on the display unit 260, the player can, for example, apply musical tones corresponding to the current (second and subsequent) key depression operations to the musical tones corresponding to the first key depression operation. It is possible to grasp in real time how well the timbre filters obtained are aligned (in other words, how well the timbres are aligned).

プロセッサ210は、図4のステップS107にて生成されるアニメーション動画に対し、差分値VELに応じた演出を付加してもよい。一例として、差分値VELが+101以上又は-101以下である場合、アニメーション動画で表示されるキャラクタを強調する。具体的には、キャラクタを目立つ色(例えば赤)で着色したり点滅表示させたりする。また、差分値VELが一定範囲内(例えば-10~+10)に収まる場合、音の粒が揃っている又はほぼ揃っているため、例えばキャラクタの背景に華やかな演出(例えば花が咲き乱れるような動画)を表示させる。差分値VELがゼロの場合、更なる演出(例えば「GREAT!!」や「ぴったり!!」等のアイコンの表示や音声の再生)を付加してもよい。このような演出を付加することにより、音の粒がどの程度揃っているかを演奏者により分かりやすく伝えることができる。 The processor 210 may add an effect corresponding to the difference value VEL to the animation moving image generated in step S107 of FIG. As an example, when the difference value VEL is +101 or more or -101 or less, the character displayed in the animated moving image is emphasized. Specifically, the character is colored in a conspicuous color (for example, red) or blinks. In addition, when the difference value VEL falls within a certain range (for example, from -10 to +10), the grains of the sound are aligned or nearly aligned, so for example, the background of the character is gorgeously produced (for example, a video in which flowers bloom profusely). ) is displayed. When the difference value VEL is zero, further effects (for example, display of icons such as "GREAT!!" and "perfect!!" and reproduction of sound) may be added. By adding such effects, it is possible to convey to the performer in an easy-to-understand way how well the particles of sound are aligned.

上記の実施形態では、2つの音の差分値の一例として、初回の押鍵操作に応じた楽音と今回(2回目以降)の押鍵操作に応じた楽音との差分値を挙げたが、本発明はこれに限らない。上記の2つの音の差分値は、連続的な1つの音に含まれる、第1時点の音と第2時点の音との差分値であってもよい。 In the above embodiment, as an example of the difference value between two tones, the difference value between the musical tone corresponding to the first key depression operation and the musical tone corresponding to the current (second and subsequent) key depression operations was given. The invention is not limited to this. The difference value between the two sounds may be a difference value between the sound at the first time point and the sound at the second time point included in one continuous sound.

連続的な1つの音の一例として、電子管楽器で練習されるロングトーンの音が挙げられる。ロングトーンでは、同じ音を持続的に鳴らすことが要求される。そこで、プロセッサ210は、ロングトーンの音(すなわち、ユーザの操作に応じた楽音)のうち、前半のある時点の音量と、後半のある時点の音量との差分値を取得し、取得された差分値に応じたアニメーション動画(言い換えると、ロングトーンの前半と後半とで音量がその程度揃っているかを演奏者に伝える情報)を生成して表示部260に出力する。演奏者は、表示部260に表示されるアニメーション動画を視認することにより、例えば、ロングトーンで一定の音を鳴らし続けられているかをリアルタイムで把握することができる。 An example of a single continuous sound is a long tone sound practiced on an electronic wind instrument. Long tones require the same sound to be played continuously. Therefore, the processor 210 obtains a difference value between the volume at a certain point in the first half and the volume at a certain point in the second half of the long tones (that is, the musical tones corresponding to the user's operation), and obtains the obtained difference. An animation moving image corresponding to the value (in other words, information for telling the performer whether or not the first half and the second half of the long tone have the same volume) is generated and output to the display unit 260 . By visually recognizing the animation moving image displayed on the display unit 260, the performer can grasp in real time, for example, whether or not a certain long tone is continuously sounded.

以下、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
2つの音のある値に関する差分値を取得し、
取得された前記差分値の大きさを示す情報を取得し、
取得された前記情報に基づいて報知部に出力する、
処理を実行する制御部を備える、
情報処理装置。
[付記2]
前記2つの音は、ユーザの第1の操作に応じた第1の楽音と、前記ユーザの第2の操作に応じた第2の楽音である、
付記1に記載の情報処理装置。
[付記3]
前記第1の楽音は、前記ユーザによる演奏の楽音であり、
前記第2の楽音は、前記ユーザのよる演奏の楽音であって、時間軸上で前記第1の楽音よりも後の楽音である、
付記2に記載の情報処理装置。
[付記4]
前記2つの音は、前記第1の楽音と、前記ユーザの第3の操作に応じた第3の楽音であり、
前記第3の楽音は、前記ユーザのよる演奏の楽音であって、時間軸上で前記第2の楽音よりも後の楽音であり、
前記第3の楽音が発音される場合、前記制御部は、前記第1の楽音と前記第3の楽音との差分値の大きさを示す情報を取得し、取得された前記情報を前記報知部に出力する、
付記3に記載の情報処理装置。
[付記5]
前記第1の楽音は、前記ユーザによる演奏の最初の楽音である、
付記3又は付記4に記載の情報処理装置。
[付記6]
前記2つの音は、ユーザの操作に応じた楽音のうちの、第1時点の音と第2時点の音である、
付記1に記載の情報処理装置。
[付記7]
前記2つの音は、所定の模範の音と、ユーザの操作に応じた楽音である、
付記1に記載の情報処理装置。
[付記8]
前記制御部は、
ユーザによる演奏が片手演奏か両手演奏かを判定し、
片手演奏と判定される場合には、演奏する1つの手に対応する前記情報を取得して前記報知部への出力を行い、
両手演奏と判定される場合には、演奏するそれぞれの手に対応する前記情報を取得して前記報知部への出力を行う、
付記1から付記7の何れか一項に記載の情報処理装置。
[付記9]
前記2つの音のある値に関する差分値は、前記2つの音のベロシティの差、ピッチの差、音量の差又は音色フィルタの差を示す、
付記1から付記8の何れか一項に記載の情報処理装置。
[付記10]
前記音は、単音、2音、3音以上の和音、又は伴奏和音とメロディ音との組合せである、
付記1から付記9の何れか一項に記載の情報処理装置。
[付記11]
前記情報を前記差分値毎に対応付けて保持する保持部を備え、
前記制御部は、前記保持部のなかから、前記取得された差分値に対応付けられた情報を取得する、
付記1から付記10の何れか一項に記載の情報処理装置。
[付記12]
前記情報は、画像と、前記画像に対して前記差分値に応じた変化を与えるための情報と、を含む、
付記1から付記11の何れか一項に記載の情報処理装置。
[付記13]
前記画像に対して前記差分値に応じた変化を与えるための情報は、前記差分値が大きいほど、前記画像を画面内で傾けて表示させるための情報である、
付記12に記載の情報処理装置。
[付記14]
前記情報は、前記画像を画面上で動かすための情報を更に含む、
付記12又は付記13に記載の情報処理装置。
[付記15]
前記報知部を備え、
前記報知部は、前記少なくとも1つのプロセッサからの出力に基づいて、前記差分値に応じた内容を出力する、
付記1から付記14の何れか一項に記載の情報処理装置。
[付記16]
前記報知部は、音声出力部、表示部の少なくとも一方を含む、
付記1から付記15の何れか一項に記載の情報処理装置。
[付記17]
付記1から付記16の何れか一項に記載の情報処理装置と、
演奏操作子と、を備え、
前記制御部は、
前記演奏操作子に対する第1の操作に応じた第1の楽音と、前記演奏操作子に対する第2の操作に応じた第2の楽音との、ある値に関する差分値を取得し、
取得された前記差分値の大きさを示す情報を取得し、
取得された前記情報に基づいて前記報知部に出力する、
電子楽器。
[付記18]
コンピュータに、
2つの音のある値に関する差分値を取得させ、
取得された前記差分値の大きさを示す情報を取得させ、
取得された前記情報に基づいて報知部に出力させる、
方法。
[付記19]
コンピュータに、
2つの音のある値に関する差分値を取得させ、
取得された前記差分値の大きさを示す情報を取得させ、
取得された前記情報に基づいて報知部に出力させる、
プログラム。
The invention described in the scope of claims at the time of filing of the present application will be additionally described below.
[Appendix 1]
get the difference value for a value of two notes,
Acquiring information indicating the size of the acquired difference value,
outputting to a notification unit based on the acquired information;
comprising a control unit that performs processing;
Information processing equipment.
[Appendix 2]
The two sounds are a first musical tone in response to a first operation by the user and a second musical tone in response to a second operation by the user.
The information processing device according to appendix 1.
[Appendix 3]
the first musical tone is a musical tone played by the user;
The second musical tone is a musical tone played by the user, and is a musical tone after the first musical tone on the time axis.
The information processing device according to appendix 2.
[Appendix 4]
the two sounds are the first musical sound and a third musical sound corresponding to the third operation of the user;
the third musical tone is a musical tone played by the user and is a musical tone after the second musical tone on the time axis;
When the third musical tone is produced, the control section acquires information indicating the magnitude of the difference value between the first musical tone and the third musical tone, and transmits the acquired information to the notification section. output to
The information processing device according to appendix 3.
[Appendix 5]
the first musical tone is the first musical tone played by the user;
The information processing apparatus according to appendix 3 or appendix 4.
[Appendix 6]
The two sounds are the sound at the first time point and the sound at the second time point among the musical tones corresponding to the user's operation,
The information processing device according to appendix 1.
[Appendix 7]
The two sounds are a predetermined model sound and a musical sound according to the user's operation,
The information processing device according to appendix 1.
[Appendix 8]
The control unit
determining whether the performance by the user is one-handed performance or two-handed performance;
when it is determined that the performance is performed with one hand, the information corresponding to one hand to be played is acquired and output to the notification unit;
If it is determined that both hands are played, the information corresponding to each hand to be played is acquired and output to the notification unit.
The information processing apparatus according to any one of appendices 1 to 7.
[Appendix 9]
the difference value for a value of the two notes indicates a difference in velocity, a difference in pitch, a difference in volume or a difference in timbre filters of the two notes;
The information processing apparatus according to any one of appendices 1 to 8.
[Appendix 10]
the sound is a single note, a two note note, a three or more note chord, or a combination of an accompaniment chord and a melody note,
The information processing apparatus according to any one of appendices 1 to 9.
[Appendix 11]
A holding unit that holds the information in association with each difference value,
the control unit acquires information associated with the acquired difference value from the holding unit;
The information processing apparatus according to any one of appendices 1 to 10.
[Appendix 12]
The information includes an image and information for giving a change to the image according to the difference value;
The information processing apparatus according to any one of appendices 1 to 11.
[Appendix 13]
The information for giving a change to the image according to the difference value is information for displaying the image at an angle within the screen as the difference value increases.
13. The information processing device according to appendix 12.
[Appendix 14]
the information further includes information for moving the image on the screen;
The information processing apparatus according to appendix 12 or appendix 13.
[Appendix 15]
The notification unit is provided,
The notification unit outputs content according to the difference value based on the output from the at least one processor.
The information processing apparatus according to any one of appendices 1 to 14.
[Appendix 16]
The notification unit includes at least one of an audio output unit and a display unit,
The information processing apparatus according to any one of appendices 1 to 15.
[Appendix 17]
the information processing device according to any one of appendices 1 to 16;
and a performance operator,
The control unit
obtaining a difference value of a certain value between a first musical tone corresponding to a first operation on the performance operator and a second musical tone corresponding to a second operation on the performance operator;
Acquiring information indicating the size of the acquired difference value,
output to the notification unit based on the acquired information;
electronic musical instrument.
[Appendix 18]
to the computer,
get a difference value for a value of two notes,
acquire information indicating the size of the acquired difference value;
cause the notification unit to output based on the acquired information;
Method.
[Appendix 19]
to the computer,
get a difference value for a value of two notes,
acquire information indicating the size of the acquired difference value;
cause the notification unit to output based on the acquired information;
program.

1 :電子楽器システム
100 :電子楽器
110 :プロセッサ
120 :鍵盤
130 :キースキャナ
140 :操作部
150 :スピーカ
160 :通信部
170 :譜面台
200 :情報処理装置
210 :プロセッサ
210a :差分値取得部
210b :情報取得部
210c :出力部
220 :RAM
230 :ROM
232 :レッスンプログラム
240 :操作部
250 :通信部
260 :表示部
270 :音声再生部
1: Electronic musical instrument system 100: Electronic musical instrument 110: Processor 120: Keyboard 130: Key scanner 140: Operation unit 150: Speaker 160: Communication unit 170: Music stand 200: Information processing device 210: Processor 210a: Difference value acquisition unit 210b: Information Acquisition Unit 210c: Output Unit 220: RAM
230: ROM
232: Lesson program 240: Operation unit 250: Communication unit 260: Display unit 270: Audio reproduction unit

本発明の一実施形態に係る情報処理装置は、2つの音としての、ユーザの演奏操作に応じた第1の楽音と、前記ユーザの演奏操作に応じた楽音であって時間軸上で前記第1の楽音よりも後の楽音である第2の楽音と、ベロシティの差、ピッチの差、音量の差、音色フィルタの差のいずれかを含む差分値を取得し、取得された前記差分値の大きさを示す情報を取得し、取得された前記情報に基づいて報知部に出力する、処理を実行する制御部を備える。 An information processing apparatus according to an embodiment of the present invention includes two sounds, a first musical sound corresponding to a user's musical performance operation and a musical sound corresponding to the user's musical performance operation, which are arranged on the time axis. obtaining a difference value including any one of velocity difference, pitch difference, volume difference, and timbre filter difference between a second musical tone, which is a musical tone after the first musical tone, and the obtained difference value; and outputting information to the notification unit based on the obtained information.

Claims (19)

2つの音のある値に関する差分値を取得し、
取得された前記差分値の大きさを示す情報を取得し、
取得された前記情報に基づいて報知部に出力する、
処理を実行する制御部を備える、
情報処理装置。
get the difference value for a value of two notes,
Acquiring information indicating the size of the acquired difference value,
outputting to a notification unit based on the acquired information;
comprising a control unit that performs processing;
Information processing equipment.
前記2つの音は、ユーザの第1の操作に応じた第1の楽音と、前記ユーザの第2の操作に応じた第2の楽音である、
請求項1に記載の情報処理装置。
The two sounds are a first musical tone in response to a first operation by the user and a second musical tone in response to a second operation by the user.
The information processing device according to claim 1 .
前記第1の楽音は、前記ユーザによる演奏の楽音であり、
前記第2の楽音は、前記ユーザのよる演奏の楽音であって、時間軸上で前記第1の楽音よりも後の楽音である、
請求項2に記載の情報処理装置。
the first musical tone is a musical tone played by the user;
The second musical tone is a musical tone played by the user, and is a musical tone after the first musical tone on the time axis.
The information processing apparatus according to claim 2.
前記2つの音は、前記第1の楽音と、前記ユーザの第3の操作に応じた第3の楽音であり、
前記第3の楽音は、前記ユーザのよる演奏の楽音であって、時間軸上で前記第2の楽音よりも後の楽音であり、
前記第3の楽音が発音される場合、前記制御部は、前記第1の楽音と前記第3の楽音との差分値の大きさを示す情報を取得し、取得された前記情報を前記報知部に出力する、
請求項3に記載の情報処理装置。
the two sounds are the first musical sound and a third musical sound corresponding to the third operation of the user;
the third musical tone is a musical tone played by the user and is a musical tone after the second musical tone on the time axis;
When the third musical tone is produced, the control section acquires information indicating the magnitude of the difference value between the first musical tone and the third musical tone, and transmits the acquired information to the notification section. output to
The information processing apparatus according to claim 3.
前記第1の楽音は、前記ユーザによる演奏の最初の楽音である、
請求項3又は請求項4に記載の情報処理装置。
the first musical tone is the first musical tone played by the user;
The information processing apparatus according to claim 3 or 4.
前記2つの音は、ユーザの操作に応じた楽音のうちの、第1時点の音と第2時点の音である、
請求項1に記載の情報処理装置。
The two sounds are the sound at the first time point and the sound at the second time point among the musical tones corresponding to the user's operation,
The information processing device according to claim 1 .
前記2つの音は、所定の模範の音と、ユーザの操作に応じた楽音である、
請求項1に記載の情報処理装置。
The two sounds are a predetermined model sound and a musical sound according to the user's operation,
The information processing device according to claim 1 .
前記制御部は、
ユーザによる演奏が片手演奏か両手演奏かを判定し、
片手演奏と判定される場合には、演奏する1つの手に対応する前記情報を取得して前記報知部への出力を行い、
両手演奏と判定される場合には、演奏するそれぞれの手に対応する前記情報を取得して前記報知部への出力を行う、
請求項1から請求項7の何れか一項に記載の情報処理装置。
The control unit
determining whether the performance by the user is one-handed performance or two-handed performance;
when it is determined that the performance is performed with one hand, the information corresponding to one hand to be played is acquired and output to the notification unit;
If it is determined that both hands are played, the information corresponding to each hand to be played is acquired and output to the notification unit.
The information processing apparatus according to any one of claims 1 to 7.
前記2つの音のある値に関する差分値は、前記2つの音のベロシティの差、ピッチの差、音量の差又は音色フィルタの差を示す、
請求項1から請求項8の何れか一項に記載の情報処理装置。
the difference value for a value of the two notes indicates a difference in velocity, a difference in pitch, a difference in volume or a difference in timbre filters of the two notes;
The information processing apparatus according to any one of claims 1 to 8.
前記音は、単音、2音、3音以上の和音、又は伴奏和音とメロディ音との組合せである、
請求項1から請求項9の何れか一項に記載の情報処理装置。
the sound is a single note, a two note note, a three or more note chord, or a combination of an accompaniment chord and a melody note,
The information processing apparatus according to any one of claims 1 to 9.
前記情報を前記差分値毎に対応付けて保持する保持部を備え、
前記制御部は、前記保持部のなかから、前記取得された差分値に対応付けられた情報を取得する、
請求項1から請求項10の何れか一項に記載の情報処理装置。
A holding unit that holds the information in association with each difference value,
the control unit acquires information associated with the acquired difference value from the holding unit;
The information processing apparatus according to any one of claims 1 to 10.
前記情報は、画像と、前記画像に対して前記差分値に応じた変化を与えるための情報と、を含む、
請求項1から請求項11の何れか一項に記載の情報処理装置。
The information includes an image and information for giving a change to the image according to the difference value;
The information processing apparatus according to any one of claims 1 to 11.
前記画像に対して前記差分値に応じた変化を与えるための情報は、前記差分値に応じて、前記画像を画面内で傾けて表示させるための情報である、
請求項12に記載の情報処理装置。
The information for giving a change to the image according to the difference value is information for tilting and displaying the image within the screen according to the difference value.
The information processing apparatus according to claim 12.
前記情報は、前記画像を画面上で動かすための情報を更に含む、
請求項12又は請求項13に記載の情報処理装置。
the information further includes information for moving the image on the screen;
The information processing apparatus according to claim 12 or 13.
前記報知部を備え、
前記報知部は、前記少なくとも1つのプロセッサからの出力に基づいて、前記差分値に応じた内容を出力する、
請求項1から請求項14の何れか一項に記載の情報処理装置。
The notification unit is provided,
The notification unit outputs content according to the difference value based on the output from the at least one processor.
The information processing apparatus according to any one of claims 1 to 14.
前記報知部は、音声出力部、表示部の少なくとも一方を含む、
請求項1から請求項15の何れか一項に記載の情報処理装置。
The notification unit includes at least one of an audio output unit and a display unit,
The information processing apparatus according to any one of claims 1 to 15.
請求項1から請求項16の何れか一項に記載の情報処理装置と、
演奏操作子と、を備え、
前記制御部は、
前記演奏操作子に対する第1の操作に応じた第1の楽音と、前記演奏操作子に対する第2の操作に応じた第2の楽音との、ある値に関する差分値を取得し、
取得された前記差分値の大きさを示す情報を取得し、
取得された前記情報に基づいて前記報知部に出力する、
電子楽器。
an information processing apparatus according to any one of claims 1 to 16;
and a performance operator,
The control unit
obtaining a difference value of a certain value between a first musical tone corresponding to a first operation on the performance operator and a second musical tone corresponding to a second operation on the performance operator;
Acquiring information indicating the size of the acquired difference value,
output to the notification unit based on the acquired information;
electronic musical instrument.
コンピュータに、
2つの音のある値に関する差分値を取得させ、
取得された前記差分値の大きさを示す情報を取得させ、
取得された前記情報に基づいて報知部に出力させる、
方法。
to the computer,
get a difference value for a value of two notes,
acquire information indicating the size of the acquired difference value;
cause the notification unit to output based on the acquired information;
Method.
コンピュータに、
2つの音のある値に関する差分値を取得させ、
取得された前記差分値の大きさを示す情報を取得させ、
取得された前記情報に基づいて報知部に出力させる、
プログラム。
to the computer,
get a difference value for a value of two notes,
acquire information indicating the size of the acquired difference value;
cause the notification unit to output based on the acquired information;
program.
JP2021203854A 2021-12-16 2021-12-16 Information processing device, electronic musical instrument, method and program Active JP7377415B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021203854A JP7377415B2 (en) 2021-12-16 2021-12-16 Information processing device, electronic musical instrument, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021203854A JP7377415B2 (en) 2021-12-16 2021-12-16 Information processing device, electronic musical instrument, method and program

Publications (2)

Publication Number Publication Date
JP2023089387A true JP2023089387A (en) 2023-06-28
JP7377415B2 JP7377415B2 (en) 2023-11-10

Family

ID=86936012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021203854A Active JP7377415B2 (en) 2021-12-16 2021-12-16 Information processing device, electronic musical instrument, method and program

Country Status (1)

Country Link
JP (1) JP7377415B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06301333A (en) * 1994-04-11 1994-10-28 Casio Comput Co Ltd Play learning device
JPH09230862A (en) * 1995-12-31 1997-09-05 Lg Semicon Co Ltd Device and method for producing digital sound
JPH10105171A (en) * 1996-09-25 1998-04-24 Kawai Musical Instr Mfg Co Ltd Electronic musical instrument
JP2002189466A (en) * 2000-12-21 2002-07-05 Casio Comput Co Ltd Performance training apparatus and performance training method
JP2004038049A (en) * 2002-07-08 2004-02-05 Yamaha Corp Performance comparison means and performance comparison program
JP2005055635A (en) * 2003-08-04 2005-03-03 Kawai Musical Instr Mfg Co Ltd Performance evaluation system of electronic musical instrument
JP2018049126A (en) * 2016-09-21 2018-03-29 ヤマハ株式会社 Music performance learning device, music performance learning program, and music performance learning method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06301333A (en) * 1994-04-11 1994-10-28 Casio Comput Co Ltd Play learning device
JPH09230862A (en) * 1995-12-31 1997-09-05 Lg Semicon Co Ltd Device and method for producing digital sound
JPH10105171A (en) * 1996-09-25 1998-04-24 Kawai Musical Instr Mfg Co Ltd Electronic musical instrument
JP2002189466A (en) * 2000-12-21 2002-07-05 Casio Comput Co Ltd Performance training apparatus and performance training method
JP2004038049A (en) * 2002-07-08 2004-02-05 Yamaha Corp Performance comparison means and performance comparison program
JP2005055635A (en) * 2003-08-04 2005-03-03 Kawai Musical Instr Mfg Co Ltd Performance evaluation system of electronic musical instrument
JP2018049126A (en) * 2016-09-21 2018-03-29 ヤマハ株式会社 Music performance learning device, music performance learning program, and music performance learning method

Also Published As

Publication number Publication date
JP7377415B2 (en) 2023-11-10

Similar Documents

Publication Publication Date Title
JP7363944B2 (en) Information processing device, information processing method, information processing program, and electronic musical instrument
JP6344578B2 (en) How to play an electronic musical instrument
JP3058051B2 (en) Musical amusement system
US20090217805A1 (en) Music generating device and operating method thereof
JP6690589B2 (en) Electronic musical instrument control terminal, electronic musical instrument control system, electronic musical instrument control program, and electronic musical instrument control method
JP7157377B2 (en) Performance information display device, performance information display method, performance information display program, and electronic musical instrument
JP6977741B2 (en) Information processing equipment, information processing methods, performance data display systems, and programs
JP7377415B2 (en) Information processing device, electronic musical instrument, method and program
JP4131279B2 (en) Ensemble parameter display device
JP5847048B2 (en) Piano roll type score display apparatus, piano roll type score display program, and piano roll type score display method
JP6073618B2 (en) Karaoke equipment
JP7533726B2 (en) Information processing device, method, and program
JP2007248880A (en) Musical performance controller and program
JP6582517B2 (en) Control device and program
JP2015191087A (en) Musical performance device and program
JP7326776B2 (en) Information processing device, information processing method, and program
JP7338669B2 (en) Information processing device, information processing method, performance data display system, and program
JP7467907B2 (en) Program, method, electronic device, and performance data display system
JP3812519B2 (en) Storage medium storing score display data, score display apparatus and program using the score display data
JP3933070B2 (en) Arpeggio generator and program
WO2018198382A1 (en) Apparatus and method for displaying lyrics
JP2024121044A (en) PROGRAM, INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD
TW201543466A (en) Musical composition method, musical composition program product and musical composition system
JP2012220884A (en) Performance evaluation device and performance evaluation program
KR20120135134A (en) Guitar playing system, playing guitar and, method for displaying of guitar playing information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20231005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231009

R150 Certificate of patent or registration of utility model

Ref document number: 7377415

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150