JP2012103575A - Musical tone generating device and musical tone generating program - Google Patents

Musical tone generating device and musical tone generating program Download PDF

Info

Publication number
JP2012103575A
JP2012103575A JP2010253506A JP2010253506A JP2012103575A JP 2012103575 A JP2012103575 A JP 2012103575A JP 2010253506 A JP2010253506 A JP 2010253506A JP 2010253506 A JP2010253506 A JP 2010253506A JP 2012103575 A JP2012103575 A JP 2012103575A
Authority
JP
Japan
Prior art keywords
note
musical
region
pitch
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010253506A
Other languages
Japanese (ja)
Inventor
Shiro Ishiguro
士郎 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010253506A priority Critical patent/JP2012103575A/en
Publication of JP2012103575A publication Critical patent/JP2012103575A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To play a musical piece by generating a desired musical tone, without undergoing a player's interpretation of a musical notation.SOLUTION: By comparing each position of musical notes displayed on a screen of a display section 12 with a player's contact position on a touch panel 13, a CPU 21 determines whether the contact position is within a peripheral region including a position of any note. When the contact position is within the peripheral region, the CPU generates a note-on event based on a pitch (C4) of the musical note and outputs the event to a sound source section 26. Thereby, musical tone data of a predetermined pitch is generated by the sound source section 26, and musical tone is output from speakers 14. Moreover, based on music data corresponding to the musical notes composing a musical piece, the CPU 21 controls the sound source section 26 to sequentially produce the musical tone of the pitch which composes the musical piece.

Description

本発明は、表示装置の画面上に表示された音符に触ることにより楽音を発生することができる楽音生成装置および楽音生成プログラムに関する。   The present invention relates to a musical sound generation apparatus and a musical sound generation program that can generate musical sounds by touching notes displayed on a screen of a display device.

一般のアコースティック楽器を演奏する際には、演奏者は、紙に印刷された楽譜をみて、音符表記(主として、音高および音長)を解釈し、楽器に対する操作に置き換えて、所定の操作により楽音を発生させる。鍵盤楽器であれば、楽譜中の音符の音高が、鍵の位置に置き換えられ、かつ、音符の音長が鍵の押鍵時間に置き換えられる。また、音符の間に休符があれば、その休符の長さは、鍵を押していない時間に置き換えられる。   When playing a general acoustic instrument, the performer looks at the score printed on the paper, interprets the musical notation (mainly pitch and pitch), replaces it with the operation on the instrument, and performs the specified operation. Generate music. In the case of a keyboard instrument, the pitch of the note in the score is replaced with the key position, and the note length is replaced with the key pressing time. If there is a rest between notes, the rest length is replaced with the time when no key is pressed.

ギターなど弦楽器においても、演奏者は、楽譜中の音符の音高に基づいて、押さえるべき弦を選択して、選択された弦のフレット位置を特定する。また、演奏者は、その後、選択された弦を弾くことにより楽音を発生させる。   Even in a stringed instrument such as a guitar, the performer selects a string to be pressed based on the pitch of a note in the score and specifies the fret position of the selected string. The performer then generates a musical sound by playing the selected string.

特開平11−24649号公報Japanese Patent Laid-Open No. 11-24649 特開2003−66958号公報JP 2003-66958 A

近年、電子楽器(鍵盤楽器)において、表示装置が大型化して、表示装置の画面上に楽譜を表示できるものも提案されている。たとえば、特許文献1には、楽曲の進行にともなって、表示される楽譜の頁や段を適切に変更することができる楽譜表示装置が提供されている。また、特許文献2には、表示装置の画面上に楽譜を表示し、かつ、楽曲の進行にともなって、現在、楽曲が楽譜上のどの位置にいるかを示す印(カーソル)を付した電子楽器が提案されている。このような電子楽器においても、演奏者は、表示装置の画面上に表示された楽譜をみて、楽譜を解釈することにより鍵操作を実現しているため、その動作はアコースティック楽器の場合と同様である。   In recent years, electronic musical instruments (keyboard musical instruments) have been proposed in which a display device is enlarged and a score can be displayed on a screen of the display device. For example, Patent Document 1 provides a musical score display device that can appropriately change the page and column of a displayed musical score as the music progresses. Patent Document 2 discloses an electronic musical instrument that displays a musical score on a screen of a display device, and has a mark (cursor) that indicates where the musical piece is currently located on the musical score as the musical piece progresses. Has been proposed. Even in such an electronic musical instrument, the player performs key operations by interpreting the musical score by looking at the musical score displayed on the screen of the display device. Therefore, the operation is the same as in the case of an acoustic musical instrument. is there.

本発明は、演奏者による音符表記の解釈を経ることなく、所望の楽音を発生させることにより楽曲の演奏をすることができる楽音生成装置および楽音生成プログラムを提供することを目的とする。   An object of the present invention is to provide a musical sound generating apparatus and a musical sound generating program capable of playing a musical piece by generating a desired musical sound without undergoing interpretation of musical notation by a player.

本発明の目的は、表示装置と、
当該表示装置に重ねて配置されたタッチパネルと、
楽曲を構成する音符のそれぞれの種別および音長を示す情報を有する楽譜データに基づき、前記表示装置の画面において、五線譜中に当該音符のシンボルを配置したような楽譜を表示する楽譜生成手段と、
前記タッチパネル上での演奏者による接触および接触位置を検出する接触検出手段と、
前記表示装置の画面上に表示された音符のそれぞれの位置と、前記タッチパネル上の接触位置とを比較して、前記接触位置が、前記何れかの音符の位置を含む所定の周辺領域内であるかを判断する領域判定手段と、
前記接触位置が、前記音符の位置を含む前記周辺領域内である場合に、当該音符の音高に基づく楽音を生成する楽音生成手段と、
前記楽曲を構成する音符と対応するように、当該音符の音高情報およびその発音タイミングを示す時間情報を少なくとも含む曲データに基づき、前記楽曲を構成する音高の楽音を順次発音するよう前記楽音生成手段を制御して、前記楽曲を進行させる自動演奏手段と、を備えたことを特徴とする楽音生成装置により達成される。
An object of the present invention is to provide a display device,
A touch panel arranged over the display device;
A score generating means for displaying a score in which a symbol of the note is arranged in a staff notation on the screen of the display device based on score data having information indicating the type and length of each note constituting the music;
Contact detection means for detecting contact and contact position by the player on the touch panel;
The position of each note displayed on the screen of the display device is compared with the contact position on the touch panel, and the contact position is within a predetermined peripheral area including the position of any one of the notes. Area determination means for determining whether or not
A musical sound generating means for generating a musical sound based on the pitch of the note when the contact position is within the peripheral region including the position of the note;
The musical tone so that the musical notes of the pitches constituting the musical piece are sequentially generated based on the musical piece data including at least the pitch information of the musical notes and the time information indicating the sounding timing thereof so as to correspond to the musical notes constituting the musical piece. This is achieved by a musical sound generating apparatus comprising: an automatic performance means for controlling the generating means to advance the music piece.

好ましい実施態様においては、前記自動演奏手段が、前記接触位置が、前記発音すべき楽音に対応する音符の周辺領域である場合に、前記曲データに基づき、前記楽曲を進行させるように構成されている。   In a preferred embodiment, the automatic performance means is configured to advance the music based on the music data when the contact position is a peripheral area of a note corresponding to the musical sound to be generated. Yes.

また、より好ましい実施態様においては、前記曲データに基づき、前記楽曲において現在発音すべき楽音に対応する音符を指し示す音符指示子を、前記楽譜中に表示する音符指示子生成手段を備える。   In a more preferred embodiment, there is provided a note indicator generating means for displaying in the score a note indicator that indicates a note corresponding to a musical tone that should be pronounced currently in the song based on the song data.

さらに好ましい実施態様においては、前記音符指示子生成手段が、前記発音すべき楽音に対応する音符の周辺領域を示す音符指示子を、前記楽譜中に表示する。   In a more preferred embodiment, the note indicator generating means displays a note indicator indicating a peripheral region of a note corresponding to the musical tone to be generated in the score.

別の好ましい実施態様においては、前記周辺領域が、前記音符を含む第1の領域と、第2の領域の周囲に位置する第2の領域と、を有し、
前記領域判定手段が、前記接触位置が、前記音符の位置の第1の領域、或いは、第2の領域内であるかを判断し、
前記楽音生成手段が、前記接触位置が属する領域に基づき楽音の音高を決定する。
In another preferred embodiment, the peripheral area includes a first area including the note, and a second area located around the second area,
The area determination means determines whether the contact position is within a first area or a second area of the note position;
The musical sound generating means determines the pitch of the musical sound based on the region to which the contact position belongs.

より好ましい実施態様においては、前記第2の領域が、さらに、前記音符が配置される五線と垂直方向において前記音符より上側に位置する上側領域と、下側に位置する下側領域とを備え、
前記楽音生成手段が、前記接触位置が、前記第1の領域内である場合には、前記、発音すべき楽音の音高を、前記音符の音高に対応する音高と決定し、前記第2の領域のうち上側領域である場合には、前記音符の音高より所定だけ高い音高と決定し、また、前記第2の領域のうち、下側領域である場合には、前記音符の音高より所定だけ低い音高と決定する。
In a more preferred embodiment, the second region further comprises an upper region located above the notes in a direction perpendicular to the staff on which the notes are arranged, and a lower region located below. ,
If the contact position is within the first region, the tone generation means determines the pitch of the tone to be generated as the pitch corresponding to the pitch of the note; In the case of the upper region of the two regions, the pitch is determined to be higher than the pitch of the note by a predetermined amount, and in the case of the lower region of the second region, the pitch of the note is determined. The pitch is determined to be lower than the pitch by a predetermined amount.

また、本発明の目的は、表示装置と、当該表示装置に重ねて配置されたタッチパネルと、を備えたコンピュータに、
楽曲を構成する音符のそれぞれの種別および音長を示す情報を有する楽譜データに基づき、前記表示装置の画面において、五線譜中に当該音符のシンボルを配置したような楽譜を表示する楽譜生成ステップと、
前記タッチパネル上での演奏者による接触および接触位置を検出する接触検出ステップと、
前記表示装置の画面上に表示された音符のそれぞれの位置と、前記タッチパネル上の接触位置とを比較して、前記接触位置が、前記何れかの音符の位置を含む所定の周辺領域内であるかを判断する領域判定ステップと、
前記接触位置が、前記音符の位置を含む前記周辺領域内である場合に、当該音符の音高に基づく楽音を生成する楽音生成ステップと、
前記楽曲を構成する音符と対応するように、当該音符の音高情報およびその発音タイミングを示す時間情報を少なくとも含む曲データに基づき、前記楽曲を構成する音高の楽音を順次発音させて、前記楽曲を進行させる自動演奏ステップと、を実行させることを特徴とする楽音生成プログラムにより達成される。
Another object of the present invention is to provide a computer including a display device and a touch panel disposed on the display device.
A score generation step of displaying a score in which the symbols of the notes are arranged in the staff notation on the screen of the display device based on the score data having information indicating the type and length of each note constituting the music;
A contact detection step of detecting contact and a contact position by a player on the touch panel;
The position of each note displayed on the screen of the display device is compared with the contact position on the touch panel, and the contact position is within a predetermined peripheral area including the position of any one of the notes. An area determination step for determining whether or not
A musical sound generation step for generating a musical sound based on the pitch of the note when the contact position is within the peripheral region including the position of the note; and
Based on the song data including at least the pitch information of the note and the time information indicating the sounding timing thereof so as to correspond to the notes constituting the song, the musical sounds of the pitches constituting the song are sequentially sounded, This is achieved by a musical sound generating program characterized by executing an automatic performance step for advancing music.

本発明によれば、演奏者による音符表記の解釈を経ることなく、所望の楽音を発生させることにより楽曲の演奏をすることができる楽音生成装置および楽音生成プログラムを提供することが可能となる。   According to the present invention, it is possible to provide a musical sound generating apparatus and a musical sound generating program capable of playing a musical piece by generating a desired musical sound without undergoing interpretation of musical note notation by the performer.

図1は、本発明の第1の実施の形態にかかる楽音発生装置の外観を示す図である。FIG. 1 is a diagram showing an external appearance of a musical sound generating apparatus according to the first embodiment of the present invention. 図2は、本実施の形態に楽音生成装置の構成を示すブロックダイヤグラムである。FIG. 2 is a block diagram showing the configuration of the tone generation apparatus according to the present embodiment. 図3は、本実施の形態にかかる楽音生成装置において実行される処理の概略を例示するフローチャートである。FIG. 3 is a flowchart illustrating an outline of processing executed in the musical sound generation apparatus according to this embodiment. 図4は、本実施の形態にかかるスイッチ処理の例を示すフローチャートである。FIG. 4 is a flowchart illustrating an example of the switch processing according to the present embodiment. 図5は、本実施の形態にかかるソング選択処理の例を示すフローチャートである。FIG. 5 is a flowchart showing an example of song selection processing according to the present embodiment. 図6(a)は、本実施の形態にかかる曲データの構成例を示す図、図6(b)は、このようにして表示部の画面上に表示された楽譜の例を示す図である。FIG. 6A is a diagram showing a configuration example of song data according to the present embodiment, and FIG. 6B is a diagram showing an example of a score displayed on the screen of the display unit in this way. . 図7は、本実施の形態にかかるスタート・ストップスイッチ処理の例を示すフローチャートである。FIG. 7 is a flowchart showing an example of start / stop switch processing according to the present embodiment. 図8は、本実施の形態にかかるパネル操作検出処理の例を示すフローチャートである。FIG. 8 is a flowchart showing an example of panel operation detection processing according to the present exemplary embodiment. 図9は、本実施の形態にかかるパネル操作検出処理の例を示すフローチャートである。FIG. 9 is a flowchart showing an example of panel operation detection processing according to the present exemplary embodiment. 図10は、本実施の形態にかかるパネル操作検出処理の例を示すフローチャートである。FIG. 10 is a flowchart showing an example of panel operation detection processing according to the present exemplary embodiment. 図11は、本実施の形態にかかる周辺領域の例を示す図である。FIG. 11 is a diagram illustrating an example of a peripheral region according to the present embodiment. 図12(a)、(b)は、それぞれ、演奏者が指をタッチパネル上に接触して、その状態で指を移動した後、指をタッチパネルから離間された例を示す図である。FIGS. 12A and 12B are diagrams showing examples in which the performer touches the finger on the touch panel and moves the finger in that state, and then the finger is separated from the touch panel. 図13は、表示部の画面上の画像において、五線上に複数の音符が配置されている例を示す図である。FIG. 13 is a diagram illustrating an example in which a plurality of musical notes are arranged on the staff in the image on the screen of the display unit. 図14は、表示部の画面上の画像において、五線上に複数の音符が配置されている例を示す図である。FIG. 14 is a diagram illustrating an example in which a plurality of musical notes are arranged on the staff in the image on the screen of the display unit. 図15は、表示部の画面上の画像において、五線上に複数の音符が配置されている例を示す図である。FIG. 15 is a diagram illustrating an example in which a plurality of musical notes are arranged on the staff in the image on the screen of the display unit. 図16は、表示部の画面上の画像において、五線上に複数の音符が配置されている例を示す図である。FIG. 16 is a diagram illustrating an example in which a plurality of musical notes are arranged on the staff in the image on the screen of the display unit. 図17は、本実施の形態にかかるガイド判定処理の例を示すフローチャートである。FIG. 17 is a flowchart illustrating an example of the guide determination process according to the present embodiment. 図18は、本実施の形態にかかるガイド処理の例を示すフローチャートである。FIG. 18 is a flowchart illustrating an example of the guide process according to the present embodiment. 図19は、本実施の形態にかかるガイド処理の例を示すフローチャートである。FIG. 19 is a flowchart illustrating an example of the guide processing according to the present embodiment. 図20は、本実施の形態にかかる画像更新処理の例を示すフローチャートである。FIG. 20 is a flowchart illustrating an example of the image update process according to the present embodiment. 図21(a)、(b)は、本実施の形態において表示部の画面上に表示された楽譜の例を示す図である。FIGS. 21A and 21B are diagrams showing examples of a score displayed on the screen of the display unit in the present embodiment. 図22(a)は、第2の実施の形態にかかる周辺領域の例を示す図、図22(b)は、第3の実施の形態にかかる周辺領域の例を示す図である。FIG. 22A is a diagram illustrating an example of a peripheral region according to the second embodiment, and FIG. 22B is a diagram illustrating an example of the peripheral region according to the third embodiment. 図23(a)、(b)は、それぞれ、本発明の他の実施の形態において、表示部の画面上に表示された楽譜の例を示す図である。FIGS. 23A and 23B are diagrams showing examples of a score displayed on the screen of the display unit in another embodiment of the present invention.

以下、添付図面を参照して、本発明の実施の形態について説明する。図1は、本発明の第1の実施の形態にかかる楽音発生装置の外観を示す図である。本実施の形態にかかる楽音生成装置10は、下側に種々のスイッチが配置されたスイッチ部11、大型の液晶表示装置を含む表示部12、表示部12に重ねあわされて配置されたタッチパネル13およびスピーカ14を有している。本実施の形態にかかる楽音発生装置10では、表示部12の画面上に表示された音符を、演奏者が触ると、タッチパネル13およびCPU21により当該接触が検出され、所定の音高の楽音が発生するようになっている。   Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a diagram showing an external appearance of a musical sound generating apparatus according to the first embodiment of the present invention. A musical sound generating apparatus 10 according to the present embodiment includes a switch unit 11 in which various switches are arranged on the lower side, a display unit 12 including a large liquid crystal display device, and a touch panel 13 arranged to overlap the display unit 12. And a speaker 14. In the musical sound generating apparatus 10 according to the present embodiment, when a player touches a note displayed on the screen of the display unit 12, the touch is detected by the touch panel 13 and the CPU 21, and a musical sound with a predetermined pitch is generated. It is supposed to be.

図2は、本実施の形態に楽音生成装置の構成を示すブロックダイヤグラムである。図2に示すように、本実施の形態にかかる楽音生成装置10は、CPU21、ROM22、RAM23、フラッシュメモリ24、サウンドシステム25、外部I/F28、スイッチ部11、表示部12およびタッチパネル13を備える。   FIG. 2 is a block diagram showing the configuration of the tone generation apparatus according to the present embodiment. As shown in FIG. 2, the musical sound generation apparatus 10 according to the present embodiment includes a CPU 21, ROM 22, RAM 23, flash memory 24, sound system 25, external I / F 28, switch unit 11, display unit 12, and touch panel 13. .

CPU21は、楽音生成装置10全体の制御、スイッチ部11を構成するスイッチの操作の検出、タッチパネル13への接触の検出、タッチパネル13への接触にしたがったサウンドシステム14の制御、表示部12の画面上に表示する楽譜データの生成、自動演奏モードにおける演奏者に対するタッチパネルの操作ガイドなど、種々の処理を実行する。   The CPU 21 controls the entire musical sound generating device 10, detects the operation of the switches constituting the switch unit 11, detects the touch on the touch panel 13, controls the sound system 14 according to the touch on the touch panel 13, and the screen of the display unit 12 Various processes such as generation of musical score data to be displayed above and operation guide of the touch panel for the performer in the automatic performance mode are executed.

ROM22は、CPU21に実行させる種々の処理、たとえば、楽音生成装置10全体の制御、スイッチ部11を構成するスイッチの操作の検出、タッチパネル13への接触の検出、タッチパネル13への接触にしたがったサウンドシステム14の制御、表示部12の画面上に表示する楽譜データの生成、自動演奏モードにおける演奏者へのタッチパネルの操作ガイドなどのプログラムを記憶する。また、ROM22は、ピアノ、ギター、バスドラム、スネアドラム、シンバルなどの楽音を生成するための波形データを格納した波形データエリアを有する。RAM23は、ROM22から読み出されたプログラムや、処理の過程で生じたデータを記憶する。また、フラッシュメモリ24には、種々の楽曲の曲データおよび当該楽曲の自動伴奏データが格納される。   The ROM 22 performs various processes to be executed by the CPU 21, for example, control of the entire tone generator 10, detection of operation of the switches constituting the switch unit 11, detection of contact with the touch panel 13, and sound according to contact with the touch panel 13. Programs such as control of the system 14, generation of musical score data to be displayed on the screen of the display unit 12, and a touch panel operation guide for performers in the automatic performance mode are stored. The ROM 22 has a waveform data area that stores waveform data for generating musical sounds such as piano, guitar, bass drum, snare drum, and cymbal. The RAM 23 stores a program read from the ROM 22 and data generated in the course of processing. The flash memory 24 stores music data of various music pieces and automatic accompaniment data of the music pieces.

サウンドシステム25は、音源部26、オーディオ回路27およびスピーカ14を有する。音源部26は、たとえば、タッチパネルの接触に基づくノートオンイベントなどをCPU21から受信すると、ROM22の波形データエリアから所定の波形データを読み出して、所定の音高の楽音データを生成して出力する。また、音源部26は、波形データ、特に、スネアドラム、バスドラム、シンバルなど打楽器の音色の波形データを、そのまま楽音データとして出力することもできる。オーディオ回路27は、楽音データをD/A変換して増幅する。これによりスピーカ14から音響信号が出力される。   The sound system 25 includes a sound source unit 26, an audio circuit 27, and a speaker 14. When the sound source unit 26 receives, for example, a note-on event based on touch on the touch panel from the CPU 21, the sound source unit 26 reads predetermined waveform data from the waveform data area of the ROM 22, generates musical tone data of a predetermined pitch, and outputs it. The sound source unit 26 can also output waveform data, particularly waveform data of percussion instrument sounds such as a snare drum, bass drum, and cymbal, as musical sound data. The audio circuit 27 D / A converts and amplifies the musical sound data. Thereby, an acoustic signal is output from the speaker 14.

外部I/F28は、メモリカードスロットを有し、メモリカード(図示せず)を受け入れて、メモリカード中のデータを読み出し、或いは、メモリカードにデータを書きこむことも可能である。また、外部I/F28は、インターネットなどの外部ネットワークとの接続を実現するための通信手段も備え、外部ネットワークを介した他の機器との間のデータ送受信を実現する。また、本実施の形態にかかる楽音生成装置10は、通常モードおよび自動演奏モードの何れの下においても、タッチパネル13上の接触に基づき、所定の音高の楽音を発生する。   The external I / F 28 has a memory card slot, can accept a memory card (not shown), read data from the memory card, or write data to the memory card. The external I / F 28 also includes a communication means for realizing connection with an external network such as the Internet, and realizes data transmission / reception with other devices via the external network. In addition, the musical tone generation apparatus 10 according to the present embodiment generates a musical tone having a predetermined pitch based on the touch on the touch panel 13 in both the normal mode and the automatic performance mode.

以下、本実施の形態にかかる楽音生成装置10において実行される処理についてより詳細に説明する。図3は、本実施の形態にかかる楽音生成装置において実行される処理の概略を例示するフローチャートである。楽音生成装置10のCPU21は、楽音生成装置10の電源が投入されると、RAM23中のデータや、表示部12の表示画面のクリアを含むイニシャル処理(初期化処理)を実行する(ステップ301)。   Hereinafter, the process performed in the musical sound generating apparatus 10 according to the present embodiment will be described in more detail. FIG. 3 is a flowchart illustrating an outline of processing executed in the musical sound generation apparatus according to this embodiment. When the tone generator 10 is turned on, the CPU 21 of the tone generator 10 executes an initial process (initialization process) including clearing the data in the RAM 23 and the display screen of the display unit 12 (step 301). .

イニシャル処理(ステップ301)が終了すると、CPU21は、入力部11を構成するスイッチのそれぞれの操作を検出し、検出された操作にしたがった処理を実行するスイッチ処理を実行する(ステップ302)。図4は、本実施の形態にかかるスイッチ処理の例を示すフローチャートである。図4に示すように、スイッチ処理には、ソング選択処理(ステップ401)、モード選択処理(ステップ402)、スタート・ストップスイッチ処理(ステップ403)、音色選択処理(ステップ404)および他のスイッチ処理(ステップ405)が含まれる。   When the initial process (step 301) ends, the CPU 21 detects each operation of the switches constituting the input unit 11, and executes a switch process for executing a process according to the detected operation (step 302). FIG. 4 is a flowchart illustrating an example of the switch processing according to the present embodiment. As shown in FIG. 4, the switch processing includes song selection processing (step 401), mode selection processing (step 402), start / stop switch processing (step 403), tone selection processing (step 404), and other switch processing. (Step 405) is included.

図5は、本実施の形態にかかるソング選択処理の例を示すフローチャートである。図5に示すように、CPU21は、入力部11中のソングボタンがオンされたかを判断する(ステップ501)。ステップ501でNoと判断された場合には、ソング選択処理が終了される。ステップ501でYesと判断された場合には、CPU21は、フラッシュメモリ24から、曲データのタイトル(曲名)を取得して、表示部12の画面上に、曲名のリスト(ソングリスト)を表示する。また、CPU21は、演奏者による入力部11中のカーソルボタンの操作にしたがって、カーソル位置に対応する曲名を強調表示する(ステップ502)。   FIG. 5 is a flowchart showing an example of song selection processing according to the present embodiment. As shown in FIG. 5, the CPU 21 determines whether the song button in the input unit 11 is turned on (step 501). If it is determined NO in step 501, the song selection process is terminated. If it is determined Yes in step 501, the CPU 21 acquires the title (song name) of the song data from the flash memory 24 and displays a list of song names (song list) on the screen of the display unit 12. . Further, the CPU 21 highlights the song name corresponding to the cursor position in accordance with the operation of the cursor button in the input unit 11 by the performer (step 502).

CPU21は、入力部11中の決定スイッチがオンされたかを判断する(ステップ503)。ステップ503でNoと判断された場合には、ステップ502に戻る。ステップ503でYesと判断された場合には、CPU21は、カーソル位置にある曲名の曲データのレコードを、当該曲データの先頭アドレスから所定数だけ読み出す(ステップ504)。   The CPU 21 determines whether the determination switch in the input unit 11 is turned on (step 503). If “No” is determined in step 503, the process returns to step 502. If it is determined Yes in step 503, the CPU 21 reads a predetermined number of records of the song data with the song name at the cursor position from the start address of the song data (step 504).

図6(a)は、本実施の形態にかかる曲データの構成例を示す図である。図6(a)に示すように、本実施の形態にかかる曲データ600は、ノートオンイベントのレコード(符号601参照)、タイムのレコード(符号602参照)、ノートオフイベントのレコード(符号603参照)およびタイムのレコード(符号604参照)を有する。   FIG. 6A is a diagram illustrating a configuration example of song data according to the present embodiment. As shown in FIG. 6A, the song data 600 according to this embodiment includes a note-on event record (see reference numeral 601), a time record (see reference numeral 602), and a note-off event record (see reference numeral 603). ) And a time record (see reference numeral 604).

ノートオンイベントのレコードには、発音すべき楽音の音色および音高を示す情報が含まれる。ノートオンイベントのレコードに引き続くタイムのレコードに格納された値は、ノートオンイベントと、当該ノートオンイベントにかかる楽音についてのノートオフイベントとの間の時間間隔、つまり、ノートオンイベントにかかる楽音の音長を示す。したがって、ノートオンイベント中の音高情報および引き続タイムのレコード中の値(音長)とにより、五線譜における音符の位置および音符の種別が特定され得る。   The record of the note-on event includes information indicating the tone color and pitch of the tone to be generated. The value stored in the time record that follows the record of the note-on event is the time interval between the note-on event and the note-off event for the note-on event. Indicates the sound length. Therefore, the note position and note type in the staff can be specified by the pitch information in the note-on event and the value (sound length) in the record of the continuation time.

また、ノートオフイベントのレコードには、消音すべき楽音の音高を示す情報が含まれる。ノートオフイベントのレコードに引き続くタイムのレコードに格納された値は、ノートオフイベントと、次のノートオンイベントとの間の時間間隔を示す。したがって、ノートオフイベントに引き続くタイムのレコード中の値により、五線譜中に配置する、隣接する音符間の休符の種別が特定され得る。   The record of the note-off event includes information indicating the pitch of the musical sound to be muted. The value stored in the time record following the note-off event record indicates the time interval between the note-off event and the next note-on event. Therefore, the value of the time record following the note-off event can specify the type of rest between adjacent notes arranged in the staff.

ステップ504において、CPU21は、表示部12の画面上に初期的に表示すべく、先頭の小節から所定数の小節に相当する曲データのレコードを読み出せば良い。次いで、CPU21は、読み出された曲データのレコード中、ノートオンイベントおよび次のゲートタイムに基づき、音符位置および音符種別を含む音符データを生成する(ステップ505)。また、ゲートタイムおよび次のステップタイムに基づく休符データも、ステップ505において生成される。   In step 504, the CPU 21 may read a record of music data corresponding to a predetermined number of bars from the first bar in order to be initially displayed on the screen of the display unit 12. Next, the CPU 21 generates note data including the note position and note type based on the note-on event and the next gate time in the record of the read music data (step 505). In addition, rest data based on the gate time and the next step time is also generated in step 505.

次いで、CPU21は、ステップ505で生成された音符データおよび休符データにしたがった音符や休符のシンボルを、五線譜中に配置した画像データを生成する(ステップ506)。また、CPU21は、先頭の音符を指し示すカーソルを画像中に生成する(ステップ507)。本実施の形態においては、演奏者が指にて触れるべき音符を指し示す音符指示子として、音符の上部に配置されたカーソルを用いている。CPU21は、上記画像中の音符や休符の各々の位置情報(座標)を、RAM23中に格納する(ステップ508)。また、CPU21は、表示部12の画面上に表示された音符および休符に対応する曲データのレコードのアドレス(たとえば最終アドレス)を、アドレスDADとしてRAM23に格納する(ステップ509)。図6(b)は、このようにして表示部12の画面610上に表示された楽譜の例を示す図である。図6(b)の例においては、カーソル612は、先頭の音符(符号611)を指し示している。   Next, the CPU 21 generates image data in which notes and rest symbols according to the note data and rest data generated in step 505 are arranged in the staff (step 506). Further, the CPU 21 generates a cursor in the image that points to the first note (step 507). In the present embodiment, a cursor placed at the top of a note is used as a note indicator indicating a note to be touched by a performer with a finger. The CPU 21 stores the position information (coordinates) of each note and rest in the image in the RAM 23 (step 508). Further, the CPU 21 stores the address (for example, the final address) of the song data record corresponding to the note and rest displayed on the screen of the display unit 12 in the RAM 23 as the address DAD (step 509). FIG. 6B is a diagram illustrating an example of the score displayed on the screen 610 of the display unit 12 in this way. In the example of FIG. 6B, the cursor 612 points to the first note (symbol 611).

ソング選択処理(ステップ401)に引き続いて実行されるモード選択処理(ステップ402)において、CPU21は、入力部11中のモード選択ボタンにより、演奏モードが選択され、当該演奏モードを示す情報 MODEがRAM23中に格納される。より詳細には、本実施の形態においては、自動演奏を用いたガイドが行なわれない通常モード(MODE=0)、自動演奏を行なうモードのうち、演奏者が、オン状態とすべき音符に触れない限り自動演奏が進行しない第1の自動演奏モード(MODE=1)、および、演奏者の音符へのオンに関わらず自動演奏が進行する第2の自動演奏モード(MODE=2)のうち、何れかの演奏モードを示す情報がRAM23に格納される。   In a mode selection process (step 402) executed subsequent to the song selection process (step 401), the CPU 21 selects a performance mode by a mode selection button in the input unit 11, and information MODE indicating the performance mode is stored in the RAM 23. Stored inside. More specifically, in the present embodiment, the player touches the note to be turned on in the normal mode (MODE = 0) in which guidance using automatic performance is not performed and the mode in which automatic performance is performed. The first automatic performance mode (MODE = 1) in which the automatic performance does not proceed unless there is no, and the second automatic performance mode (MODE = 2) in which the automatic performance proceeds regardless of whether the player's note is on, Information indicating any performance mode is stored in the RAM 23.

モード選択処理(ステップ402)に引き続いて、CPU21は、スタート・ストップスイッチ処理を実行する(ステップ403)。図7は、本実施の形態にかかるスタート・ストップスイッチ処理の例を示すフローチャートである。図7に示すように、CPU21は、モード選択処理により選択された演奏モードが、自動演奏モード(第1の自動演奏モード:MODE=1、或いは、第2の自動演奏モード:MODE=2)であるかを判断する(ステップ701)。ステップ701でNoと判断された場合、すなわち、演奏モードが通常モードである場合(MODE=0)には、スタート・ストップスイッチ処理を終了する。ステップ701でYesと判断された場合には、CPU21は、入力部11中のスタート・ストップスイッチの操作があったかを判断する(ステップ702)。ステップ702でNoと判断された場合には、スタート・ストップスイッチ処理を終了する。   Following the mode selection process (step 402), the CPU 21 executes a start / stop switch process (step 403). FIG. 7 is a flowchart showing an example of start / stop switch processing according to the present embodiment. As shown in FIG. 7, the CPU 21 selects the automatic performance mode (first automatic performance mode: MODE = 1 or second automatic performance mode: MODE = 2) as the performance mode selected by the mode selection process. It is determined whether it exists (step 701). If it is determined No in step 701, that is, if the performance mode is the normal mode (MODE = 0), the start / stop switch process is terminated. If it is determined Yes in step 701, the CPU 21 determines whether or not the start / stop switch in the input unit 11 has been operated (step 702). If it is determined No in step 702, the start / stop switch process is terminated.

ステップ702でYesと判断された場合には、CPU21は、RAM23に格納されたスタートフラグSTFを反転させ(ステップ703)、スタートフラグSTFが「1」であるかを判断する(ステップ704)。ステップ704でYesと判断された場合には、CPU21は、選択されている楽曲の曲データのレコードの先頭アドレスを取得する(ステップ705)。CPU21は、取得した先頭アドレスを、アドレスを示すパラメータADとして、RAM23に格納する(ステップ706)。   If it is determined Yes in step 702, the CPU 21 inverts the start flag STF stored in the RAM 23 (step 703), and determines whether the start flag STF is “1” (step 704). If it is determined Yes in step 704, the CPU 21 obtains the start address of the record of the song data of the selected song (step 705). The CPU 21 stores the acquired head address in the RAM 23 as a parameter AD indicating the address (step 706).

CPU21は、先頭アドレスADの示す曲データG(AD)のレコードを読み出して、レコード値を、タイマのレジスタ値Tとして格納する(ステップ707)。また、CPU21は、アドレスを示すパラメータADを歩進する(ステップ708)。   The CPU 21 reads the record of the music data G (AD) indicated by the head address AD, and stores the record value as the timer register value T (step 707). Further, the CPU 21 advances the parameter AD indicating the address (step 708).

また、CPU21は、タイマインタラプトを解除する(ステップ709)。タイマインタラプトが解除されることにより、所定の時間間隔でタイマインタラプト処理が実行され、CPU21の内部に設けられたタイマがインクリメントされる。なお、ステップ704でNoと判断された場合、つまり、STFが「0」である場合には、CPU21は、タイマインタラプトを停止する(ステップ710)。   Further, the CPU 21 cancels the timer interrupt (step 709). By canceling the timer interrupt, a timer interrupt process is executed at a predetermined time interval, and a timer provided in the CPU 21 is incremented. If NO is determined in step 704, that is, if the STF is “0”, the CPU 21 stops the timer interrupt (step 710).

スタート・ストップスイッチ処理(ステップ403)に引き続いて、CPU21は、音色選択処理を実行する(ステップ404)。音色選択処理では、演奏者による、スイッチ部11の音色選択スイッチ(トーンスイッチ)の操作により、選択された楽音の音色情報が、RAM23に格納される。音色選択処理(ステップ404)の後、CPU21は、他のスイッチ処理を実行する(ステップ405)。他のスイッチ処理には、テンポスイッチの操作によるテンポデータの設定およびテンポデータのRAM23への格納などが含まれる。   Subsequent to the start / stop switch process (step 403), the CPU 21 executes a tone color selection process (step 404). In the timbre selection process, the timbre information of the tone selected by the player's operation of the timbre selection switch (tone switch) of the switch unit 11 is stored in the RAM 23. After the timbre selection process (step 404), the CPU 21 executes another switch process (step 405). Other switch processing includes setting tempo data by operating the tempo switch and storing the tempo data in the RAM 23.

スイッチ処理(ステップ302)が終了すると、CPU21は、パネル操作検出処理を実行する(ステップ303)。図8ないし図10は、本実施の形態にかかるパネル操作検出処理の例を示すフローチャートである。CPU21は、演奏者によるタッチパネルへの操作状態を検出する(ステップ801)。   When the switch process (step 302) ends, the CPU 21 executes a panel operation detection process (step 303). 8 to 10 are flowcharts showing an example of panel operation detection processing according to the present embodiment. CPU21 detects the operation state to the touch panel by a player (step 801).

タッチパネルへの操作状態が「なし」、つまり、演奏者の指がタッチパネルに触れられていない状態が継続されていれば、パネル操作検出処理は終了する。なお、演奏者の指が新たにオフ(新規オフ)となった場合については後述する。演奏者の指がタッチパネルに触れられているとき(オン)には、CPU21は、演奏者の指が新たにタッチパネルに触れられたか(新規オン)を判断する(ステップ802)。   If the operation state on the touch panel is “none”, that is, the state where the performer's finger is not touched on the touch panel is continued, the panel operation detection process ends. The case where the performer's finger is newly turned off (new off) will be described later. When the performer's finger is touched on the touch panel (ON), the CPU 21 determines whether the performer's finger is touched on the touch panel (new ON) (step 802).

ステップ802でYes、つまり、新規オンであった場合には、CPU21は、演奏者が指で触れた位置が、画面上に表示された音符の周辺領域に該当するかを判断する。図11は、本実施の形態にかかる周辺領域の例を示す図である。図11においては、表示部12の画面上に、五線(符号1110)およびC4の音高の四分音符(符号1100)が配置されている。本実施の形態において、音符1100が配置されている位置から、所定の第1の半径の範囲(符号1101参照)内を、第1の領域(a領域)、第2の半径(>第1の半径)の範囲(符号1102参照)内であって第1の領域を除く領域を、第2の領域(b領域)としている。さらに、第2の領域(b領域)において、そのY座標が、音符の位置のY座標より小さいような領域を、b−領域(符号1103参照)、そのY座標が、音符の位置のY座標以上であるような領域をb+領域(符号1104参照)としている。   If Yes in step 802, that is, if it is new on, the CPU 21 determines whether or not the position touched by the performer with the finger corresponds to the peripheral area of the note displayed on the screen. FIG. 11 is a diagram illustrating an example of a peripheral region according to the present embodiment. In FIG. 11, a staff (reference numeral 1110) and a quarter note (reference numeral 1100) having a pitch of C4 are arranged on the screen of the display unit 12. In the present embodiment, the first region (a region) and the second radius (> first region) are within a predetermined first radius range (see reference numeral 1101) from the position where the note 1100 is arranged. The area excluding the first area within the radius range (see reference numeral 1102) is defined as a second area (b area). Furthermore, in the second area (b area), an area whose Y coordinate is smaller than the Y coordinate of the note position is a b-area (see reference numeral 1103), and the Y coordinate is the Y coordinate of the note position. The region as described above is defined as a b + region (see reference numeral 1104).

本実施の形態では、基本的には、演奏者の指が、第1の領域(a領域)にある場合には、音符に対応する音高の楽音が発音される。また、演奏者の指が、b−領域にある場合には、音符に対応する音高より半音下の音高の楽音が発音され、演奏者の指がb+領域にある場合には、音符に対応する音高より半音上の音高の楽音が発音される。これら第1の領域(a領域)および第2の領域(b領域)の総称として、周辺領域と称する。   In the present embodiment, basically, when the performer's finger is in the first region (region a), a musical tone having a pitch corresponding to a note is generated. When the performer's finger is in the b-region, a musical tone having a pitch that is a semitone below the pitch corresponding to the note is generated, and when the performer's finger is in the b + region, A tone that is a semitone above the corresponding pitch is produced. These first region (a region) and second region (b region) are collectively referred to as a peripheral region.

なお、表示部12の画面上に表示される楽譜において、音符の周囲に周辺領域を表示しても良いし、表示しなくても良い。また、周辺領域を表示する場合に、第1の領域および第2の領域をそれぞれ表示しても良いし、周辺領域の外郭を画定する第2の領域のみを表示しても良い。   In the musical score displayed on the screen of the display unit 12, the peripheral area may be displayed around the note or may not be displayed. Further, when the peripheral area is displayed, the first area and the second area may be displayed, respectively, or only the second area that defines the outline of the peripheral area may be displayed.

ステップ803においては、CPU21は、演奏者により新たにオンされた指の位置と、表示部12の画面上に表示された音符の周辺領域とに基づき、指が位置する周辺領域を特定する(ステップ803)。なお、図15などを参照して後述するが、複数の音符の周辺領域が重なっている場合がある。この場合には、CPU21は、楽曲において時間的に先行する音符(つまり、楽譜上で左側に位置する音符)を優先して、周辺領域を特定する。CPU21は、指の位置が、何れかの音符の周辺領域内にあるかを判断する(ステップ804)。ステップ804でNoと判断された場合には、パネル操作検出処理が終了される。その一方、ステップ804でYesと判断された場合には、CPU21は、周辺領域の種別に従った発音処理を実行する(ステップ805)。発音処理では、発音すべき楽音の音高および音色情報を含むノートオンイベントが生成される。   In step 803, the CPU 21 specifies the peripheral area where the finger is located based on the position of the finger newly turned on by the performer and the peripheral area of the note displayed on the screen of the display unit 12 (step 803). 803). As will be described later with reference to FIG. 15 and the like, there are cases in which the peripheral areas of a plurality of notes overlap. In this case, the CPU 21 prioritizes a note that precedes in time in the music (that is, a note located on the left side of the score) and identifies the peripheral area. The CPU 21 determines whether the position of the finger is within the peripheral area of any note (step 804). If it is determined No in step 804, the panel operation detection process is terminated. On the other hand, if it is determined Yes in step 804, the CPU 21 executes a sound generation process according to the type of the peripheral area (step 805). In the sound generation process, a note-on event including the pitch and tone color information of the tone to be generated is generated.

図11に示す例において、演奏者の指が、第1の領域(a領域)1101内で新たにオン状態となった場合には、CPU21は、音符に示す音高(C4)と、予め設定された音色情報とを含むノートオンイベントを生成して、ノートオンイベントを音源部26に出力する。また、演奏者の指が第2の領域(b領域)のうちb+領域1104内で新たにオン状態となった場合、或いは、b−領域1103内で新たにオン状態となった場合には、それぞれ、音符に示す音高より半音上の音高(C#4)と音色情報とを含むノートオンイベント、或いは、音符に示す音高より半音下の音高(B3)と音色情報とを含むノートオンイベントを生成して、音源部26に出力する。   In the example shown in FIG. 11, when the performer's finger is newly turned on in the first area (area a) 1101, the CPU 21 presets the pitch (C4) indicated by the note. The note-on event including the timbre information thus generated is generated, and the note-on event is output to the sound source unit 26. When the player's finger is newly turned on in the b + region 1104 of the second region (b region) or newly turned on in the b− region 1103, Each includes a note-on event including a pitch (C # 4) that is a semitone above the pitch indicated by the note and timbre information, or a pitch (B3) that is a semitone below the pitch indicated by the note and the timbre information. A note-on event is generated and output to the sound source unit 26.

ステップ805の後、CPU21は、RAM23中のノートオンイベントが生成された音高の楽音について、発音ステータスを「発音中」とする(ステップ806)。また、CPU21は、スタートフラグSTFが「1」であるかを判断する(ステップ807)。ステップ807でYesと判断された場合には、CPU21は、ガイド判定処理を実行する(ステップ808)。ガイド判定処理については後述する。   After step 805, the CPU 21 sets the pronunciation status to “sounding” for the musical tone of the pitch for which the note-on event is generated in the RAM 23 (step 806). Further, the CPU 21 determines whether or not the start flag STF is “1” (step 807). If it is determined Yes in step 807, the CPU 21 executes a guide determination process (step 808). The guide determination process will be described later.

その一方、ステップ801で「新規オフ」と判断された場合には、CPU21は、RAM23中の発音ステータスが発音中であるかを判断する(ステップ809)。ステップ809でNoと判断された場合には、パネル操作検出処理を終了する。ステップ809でYesと判断された場合には、CPU21は、発音ステータスが「発音中」となっている楽音について、ノートオフイベントを生成して、音源部26に出力する(ステップ810)。次いで、CPU21は、「発音中」となっていた発音ステータスを「消音」に変更する(ステップ811)。   On the other hand, when it is determined in step 801 that “new off”, the CPU 21 determines whether or not the sound generation status in the RAM 23 is sounding (step 809). If it is determined No in step 809, the panel operation detection process ends. If it is determined as Yes in step 809, the CPU 21 generates a note-off event for the musical sound whose pronunciation status is “sounding” and outputs it to the sound source unit 26 (step 810). Next, the CPU 21 changes the sounding status that was “sounding” to “mute” (step 811).

図12(a)は、演奏者が指をタッチパネル上に接触して、その状態で指を移動した後、指をタッチパネルから離間された例を示す図である。図12(a)において、矢印付きの線の一方端の黒点が、タッチパネル上に新たに接触した位置を示し、矢印の先端が、タッチパネル上で離間した位置を示す。たとえば、線1201の例では、演奏者の指は、第1の領域内で新規オンして、第1の領域内を接触した状態で移動し、同じく第1の領域内で新規オフしている。したがって、新規オンに伴って、音高C4を含むノートオンイベントが生成され、新規オフに伴って音高C4のノートオフイベントが生成される。   FIG. 12A is a diagram illustrating an example in which the performer touches the finger on the touch panel and moves the finger in that state, and then the finger is separated from the touch panel. In FIG. 12A, a black dot at one end of a line with an arrow indicates a position newly touched on the touch panel, and a tip of the arrow indicates a position separated on the touch panel. For example, in the example of the line 1201, the performer's finger is newly turned on in the first area, moved in contact with the first area, and is also newly turned off in the first area. . Therefore, a note-on event including the pitch C4 is generated with the new on, and a note-off event with the pitch C4 is generated with the new off.

また、線1102に示す例では、演奏者の指は、b−領域内で新規オンして、同じくb−領域内で新規オフしている。したがって、新規オンに伴って、音高B3を含むノートオンイベントが生成され、新規オフに伴って音高B3のノートオフイベントが生成される。さらに、線1203に示す例では、音符の周辺領域に演奏者の指が位置していないため、ノートオンイベントが生成されない。   In the example shown by the line 1102, the performer's finger is newly turned on in the b-region and is also newly turned off in the b-region. Accordingly, a note-on event including the pitch B3 is generated with the new on, and a note-off event with the pitch B3 is generated with the new off. Furthermore, in the example shown by the line 1203, the player's finger is not located in the peripheral area of the note, so that a note-on event is not generated.

その一方、図12(b)に示すように、複数の領域にわたって演奏者の指が移動する場合も考えられる。たとえば、以下のような態様を考えることができる。   On the other hand, as shown in FIG. 12B, the player's finger may be moved over a plurality of areas. For example, the following modes can be considered.

b−領域で新規オンして、a領域で移動した後、a領域において新規オフとなる(符号1211)
b+領域で新規オンして、a領域で移動した後、a領域において新規オフとなる(符号1212)
周辺領域外で新規オンして、b−領域に移動した後、b−領域において新規オフとなる(符号1213)
周辺領域外で新規オンして、b−領域に移動した後、さらに、a領域に移動して当該a領域において新規オフとなる(符号1214)。
Newly turned on in the b-region, moved in the a region, and then turned off in the a region (reference numeral 1211).
Newly turned on in the b + region, moved in the region a, and then turned off in the region a (reference numeral 1212).
Newly turned on outside the peripheral region, moved to the b-region, and then turned off in the b-region (reference numeral 1213).
After turning on a new area outside the peripheral area and moving to the b-area, it further moves to the a area and turns off anew in the a area (reference numeral 1214).

上記以外にも、複数の領域にわたる場合が生じ得る。したがって、本実施の形態にかかるパネル操作検出処理では、上述した演奏者の指の移動にも対応できるようになっている。ステップ802でNo、つまり、演奏者がタッチパネル上で指をオン中である場合には、図9に示すように、CPU21は、演奏者の指が触れている位置が、画面上に表示された音符についての周辺領域に該当するかを判断する(ステップ901)。次いで、CPU21は、検出された周辺領域が、前回の処理において検出された周辺領域と異なるか、つまり、周辺領域の種別が変更されたかを判断する(ステップ902)。なお、b−領域からb+領域の移動も、周辺領域の変更と判断される。   In addition to the above, there may be cases where a plurality of areas are covered. Therefore, the panel operation detection process according to the present embodiment can cope with the above-described movement of the player's finger. If NO in step 802, that is, if the performer is turning on his / her finger on the touch panel, the CPU 21 displays the position touched by the performer's finger on the screen as shown in FIG. It is determined whether it corresponds to the peripheral area for the note (step 901). Next, the CPU 21 determines whether the detected peripheral area is different from the peripheral area detected in the previous process, that is, whether the type of the peripheral area has been changed (step 902). Note that movement from the b− region to the b + region is also determined as a change in the peripheral region.

ステップ902でNoと判断された場合には、パネル操作検出処理を終了する。ステップ902でYesと判断された場合には、CPU21は、演奏者の指の位置が、周辺領域内、つまり、第1の領域(a領域)或いは第2の領域(b−領域またはb+領域)の何れかにあるかを判断する(ステップ903)。ステップ903でYesと判断された場合には、CPU21は、RAM23に格納された発音ステータスが「発音中」であるかを判断する(ステップ904)。ステップ904でYesと判断された場合には、CPU21は、指が位置する周辺領域の種別に従った音高変更処理を実行する(ステップ909)。   If it is determined No in step 902, the panel operation detection process is terminated. If it is determined YES in step 902, the CPU 21 determines that the position of the performer's finger is in the peripheral area, that is, the first area (a area) or the second area (b− area or b + area). (Step 903). If it is determined Yes in step 903, the CPU 21 determines whether the sounding status stored in the RAM 23 is “sounding” (step 904). When it is determined Yes in step 904, the CPU 21 executes a pitch change process according to the type of the peripheral area where the finger is located (step 909).

音高変更処理においては、移動前の周辺領域に対応する音高の楽音を消音するノートオフイベントを生成して、音源部26に出力するとともに、移動後の周辺領域に対応する音高および音色情報を含むノートオンイベントを生成して、音源部26に出力する。これにより、移動後の周辺領域に対応する音高の楽音を発生させることができる。   In the pitch change process, a note-off event for muting the musical tone of the pitch corresponding to the peripheral area before movement is generated and output to the sound source unit 26, and the pitch and tone corresponding to the peripheral area after movement are generated. A note-on event including information is generated and output to the sound source unit 26. Thereby, a musical tone having a pitch corresponding to the peripheral area after movement can be generated.

図12(b)において、b−領域で新規オンして、a領域で移動した場合(符号1211)には、b−領域での新規オンにより、C4より半音下のB3の楽音が発生し、b−領域からa領域に移動することにより、楽音の音高がC4に変更される。また、b+領域で新規オンして、a領域で移動した場合(符号1212)には、b+領域での新規オンにより、C4より半音上のC#4の楽音が発生し、b+領域からa領域に移動することにより、楽音の音高がC4に変更される。   In FIG. 12B, when a new on is performed in the b-region and moved in the a-region (reference numeral 1211), a new tone in the b-region generates a musical tone B3 that is a semitone below C4. By moving from the b-region to the a region, the pitch of the musical sound is changed to C4. In addition, when it is newly turned on in the b + region and moved in the region a (reference numeral 1212), a new tone in the b + region generates a C # 4 musical tone that is a semitone above C4, and from the b + region to the a region. By moving to, the pitch of the musical tone is changed to C4.

ステップ904でNoと判断された場合には、CPU21は、周辺領域の種別に従った発音処理を実行する(ステップ905)。ステップ905においては、図8のステップ805と同様に、CPU21は、周辺領域に対応する音高および音色情報を含むノートオンイベントを生成して、音源部26に出力する。また、CPU21は、スタートフラグSTFが「1」であるかを判断する(ステップ906)。ステップ906でYesと判断された場合には、CPU21は、ガイド判定処理を実行する(ステップ907)。その後、CPU21は、RAM23中のノートオンイベントが生成された音高の楽音について、発音ステータスを「発音中」とする(ステップ908)。   If it is determined No in step 904, the CPU 21 executes a sound generation process according to the type of the peripheral area (step 905). In step 905, as in step 805 in FIG. 8, the CPU 21 generates a note-on event including pitch and timbre information corresponding to the surrounding area, and outputs it to the sound source unit 26. Further, the CPU 21 determines whether or not the start flag STF is “1” (step 906). If it is determined Yes in step 906, the CPU 21 executes a guide determination process (step 907). Thereafter, the CPU 21 sets the sound generation status to “sounding” for the musical tone of the pitch for which the note-on event is generated in the RAM 23 (step 908).

図12(b)において、周辺領域外で新規オンして、b−領域に移動した場合(符号1213参照)には、領域b−に移動することにより、音符の音高C4より半音低いB3の楽音が発生する。また、周辺領域外で新規オンして、b−領域に移動した後、さらに、a領域に移動した場合(符号1214参照)には、領域b−に移動することにより、音符の音高C4より半音低いB3の楽音が発生し、さらに、a領域に移動することにより、音高がC4に変更される。   In FIG. 12B, when it is newly turned on outside the peripheral region and moved to the b-region (refer to reference numeral 1213), by moving to the region b-, B3 that is a semitone lower than the pitch C4 of the note. Music is generated. In addition, when the signal is newly turned on outside the peripheral area, moved to the b-area, and further moved to the a-area (see reference numeral 1214), by moving to the area b-, the pitch C4 of the note is changed. A musical tone of B3, which is lower by a semitone, is generated, and the pitch is changed to C4 by moving to the a region.

次に、ステップ903でNoと判断された場合について説明する。この場合に、CPU21は、RAM23に格納された発音ステータスが「発音中」であるかを判断する(ステップ1001)。ステップ1001でYesと判断されるときは、演奏者の指の位置が周辺領域の何れかから周辺領域外に移動したことを意味する。したがって、この場合には、CPU21は、消音処理を実行する(ステップ1002)。消音処理において、CPU21は、発音ステータスが「発音中」である楽音についてのノートオフイベントを生成して、音源部26に出力する。   Next, the case where No is determined in step 903 will be described. In this case, the CPU 21 determines whether the sounding status stored in the RAM 23 is “sounding” (step 1001). If it is determined as Yes in step 1001, it means that the position of the performer's finger has moved from any of the surrounding areas to the outside of the surrounding area. Therefore, in this case, the CPU 21 executes a mute process (step 1002). In the mute process, the CPU 21 generates a note-off event for a musical tone whose sound generation status is “sounding”, and outputs it to the sound source unit 26.

ステップ1001でNoと判断された場合、或いは、ステップ1002が実行された後、CPU21は、演奏者の指の位置が、他の音符についての周辺領域にあるかを判断する(ステップ1003)。図13および図14は、表示部の画面上の画像において、五線上に複数の音符が配置されている例を示す図である。図13に示す例では、2つの音符1300および1310の周辺領域は重なり合っていない。つまり、音符1300の第2の領域(符号1301参照)と、音符1310の第2の領域(符号1311参照)とは離間している。したがって、演奏者の指が、音符1300の第1の領域(a領域)でオン状態となり、第2の領域(この例では、b−領域)を経て、周辺領域外に出たそのときに、他の音符についての周辺領域内に位置することはない(矢印1320参照)。   When it is determined No in step 1001 or after step 1002 is executed, the CPU 21 determines whether or not the position of the performer's finger is in the peripheral area for other notes (step 1003). 13 and 14 are diagrams showing an example in which a plurality of musical notes are arranged on the staff in the image on the screen of the display unit. In the example shown in FIG. 13, the peripheral areas of the two musical notes 1300 and 1310 do not overlap. That is, the second area of the note 1300 (see reference numeral 1301) and the second area of the note 1310 (see reference numeral 1311) are separated from each other. Therefore, when the performer's finger is turned on in the first area (area a) of the note 1300 and goes out of the peripheral area through the second area (b-area in this example), It is not located in the surrounding area for other notes (see arrow 1320).

これに対して、図14に示す例では、2つの音符1400、1410は隣接して配置され、その周辺領域が重なり合っている。この例では、音符1400の第1の領域1402は、部分的に音符1410の第2の領域1411と重なり合い、第2の領域1401は、部分的に音符1410の第1の領域1412、第2の領域1411と重なり合っている。このようなときに、演奏者の指が、線1420に沿って移動した場合には、音符1400を優先と考えると、音符1400の第1の領域1402、音符1400の第2の領域1401(より詳細にはb−領域からb+領域)を経て、音符1410の第1の領域1412に達する)。本実施の形態においては、このように、演奏者の指が、ある音符の周辺領域外に出たその時に、他の音符の周辺領域内に位置する場合を考慮して、以下の処理を実行する。   On the other hand, in the example shown in FIG. 14, the two musical notes 1400 and 1410 are arranged adjacent to each other and their peripheral areas overlap. In this example, the first region 1402 of the note 1400 partially overlaps the second region 1411 of the note 1410, and the second region 1401 partially overlaps the first region 1412 and the second region of the note 1410. It overlaps with the region 1411. In such a case, if the performer's finger moves along the line 1420, the first region 1402 of the note 1400 and the second region 1401 of the note 1400 (from Specifically, the first region 1412 of the note 1410 is reached through the b− region and the b + region). In the present embodiment, the following processing is executed in consideration of the case where the performer's finger is outside the peripheral area of a certain note and positioned within the peripheral area of another note. To do.

ステップ1003でYesと判断された場合には、CPU21は、他の音符についての新たな周辺領域の種別に基づく発音処理を実行する(ステップ1004)。ステップ1004においては、CPU21は、他の音符についての周辺領域に対応する音高および音色情報を含むノートオンイベントを生成して、音源部26に出力する。次いで、CPU21は、スタートフラグSTFが「1」であるかを判断する(ステップ1005)。ステップ1005でYesと判断された場合には、CPU21は、ガイド判定処理を実行する(ステップ1006)。   If it is determined Yes in step 1003, the CPU 21 executes a sound generation process based on the type of the new surrounding area for other notes (step 1004). In step 1004, the CPU 21 generates a note-on event including pitch and timbre information corresponding to the peripheral area for other notes and outputs it to the sound source unit 26. Next, the CPU 21 determines whether or not the start flag STF is “1” (step 1005). When it is determined Yes in step 1005, the CPU 21 executes a guide determination process (step 1006).

ステップ1003でNoと判断された場合には、CPU21は、RAM23中の発音ステータスを「消音」とする(ステップ1007)。   When it is determined No in step 1003, the CPU 21 sets the sound generation status in the RAM 23 to “mute” (step 1007).

図15は、表示部の画面上の画像において、五線上に複数の音符が配置されている例を示す図である。図15における線1420および1510は、演奏者の指の移動の軌跡を示している。図15において、線1420は、音符1400についての第1の領域(a領域)1402で新規オンして、第2の領域1401のb−領域およびb+領域を経て、他の音符1410の第1の領域(a領域)1412に達したことを示している。この場合には、C4(音符1400の第1の領域)、B3(音符1400のb−領域)、C#4(音符1400のb+領域)、E4(音符1410の第1の領域)の順で楽音が発音される。   FIG. 15 is a diagram illustrating an example in which a plurality of musical notes are arranged on the staff in the image on the screen of the display unit. Lines 1420 and 1510 in FIG. 15 indicate the movement trajectory of the performer's finger. In FIG. 15, a line 1420 is newly turned on in the first region (a region) 1402 for the note 1400, passes through the b− region and the b + region of the second region 1401, and the first region of the other note 1410. This indicates that the area (area a) 1412 has been reached. In this case, C4 (first region of the note 1400), B3 (b-region of the note 1400), C # 4 (b + region of the note 1400), E4 (first region of the note 1410) in this order. Music sound is produced.

また、図15において、線1510は、音符1400の第1の領域(a領域)1402で新規オンして、第2の領域1401のb−領域を経た後、さらに、他の音符1410の第2の領域1411のb−領域を経て、他の音符1410の第1の領域1412に達したことを示している。この場合には、C4(音符1400の第1の音域)、B3(音符1400のb−領域)、E♭4(音符1410のb−領域)、E4(音符1410の第1の領域)の順で楽音が発音される。   In FIG. 15, a line 1510 is newly turned on in the first region (a region) 1402 of the note 1400, passes through the b-region of the second region 1401, and then the second 1514 of another note 1410. This indicates that the first region 1412 of another note 1410 has been reached through the b-region of the region 1411. In this case, C4 (first range of note 1400), B3 (b-region of note 1400), E ♭ 4 (b-region of note 1410), E4 (first region of note 1410) in this order. The sound is pronounced.

なお、本実施の形態においては、タッチパネル13への新規オンにおいて、複数の音符の周辺領域が重なっている場合には、楽曲において時間的に先行する音符(つまり、楽譜上で左側に位置する音符)を優先して、周辺領域が特定される。つまり、図15に示すように、新規オンの際には、左側に位置する音符1400の周辺領域(符号1401、1402参照)が、右側に位置する音符1410の周辺領域(符号1411、1412参照)に優先して判断される。しかしながら、いったん、演奏者の指のオン状態が維持された状態で、他の音符の周辺領域内に移動すると、当該他の音符の周辺領域が優先することになる。   In the present embodiment, when the peripheral area of a plurality of notes overlaps when the touch panel 13 is newly turned on, the note that precedes in time in the music (that is, the note located on the left side of the score) ) Is prioritized to identify the surrounding area. That is, as shown in FIG. 15, in the case of new ON, the peripheral area of the note 1400 located on the left side (see reference numerals 1401 and 1402) is changed to the peripheral area of the note 1410 located on the right side (see reference numerals 1411 and 1412). Judged in preference to. However, once the player's finger is kept on and moved into the peripheral area of another note, the peripheral area of the other note has priority.

図16は、演奏者の指の軌跡が、他の音符の周辺領域に移ったときの状態を示す図である。図15の符号1420と同じような動きで、演奏者の指が、音符1400の周辺領域(実際には、第2の領域1401)から、音符1410の周辺領域(実際には、第1の領域1412)に移動すると(符号1601参照)、音符1410の周辺領域が、音符1400の周辺領域に優先する。すなわち、演奏者の指が線1420に沿って動き、位置1601に移動すると、音符1410の周辺領域と、音符1400の周辺領域が重なり合う部分では、音符1410の周辺領域が優先する。したがって、位置1601以降の演奏者の指の移動に伴う発音は、図16に示すように、音符1410の周辺領域に位置する限り、音符1410に関する楽音(E4、半音下のE♭4、或いは、半音上のF4)となる。   FIG. 16 is a diagram showing a state where the trajectory of the performer's finger has moved to the peripheral area of another note. The player's finger moves in the same manner as the reference numeral 1420 in FIG. 15 from the peripheral area of the note 1400 (actually, the second area 1401) to the peripheral area of the note 1410 (actually, the first area). 1412) (see reference numeral 1601), the peripheral area of the note 1410 has priority over the peripheral area of the note 1400. That is, when the performer's finger moves along the line 1420 and moves to the position 1601, the peripheral area of the note 1410 is given priority in a portion where the peripheral area of the note 1410 and the peripheral area of the note 1400 overlap. Therefore, as shown in FIG. 16, the sound generated by the movement of the player's finger after the position 1601 is a musical tone (E4, E ♭ 4 below the semitone, F4) on a semitone.

演奏者の指が線1510に沿って動き、位置1602に達したときにも同様に、音符1410の周辺領域と、音符1400の周辺領域が重なり合う部分では、音符1410の周辺領域が優先する。   Similarly, when the performer's finger moves along the line 1510 and reaches the position 1602, the peripheral region of the note 1410 is given priority in a portion where the peripheral region of the note 1410 and the peripheral region of the note 1400 overlap.

次に、本実施の形態にかかるガイド判定処理について説明する。図17は、本実施の形態にかかるガイド判定処理の例を示すフローチャートである。図17に示すように、CPU21は、発音フラグONFが「1」であるかを判断する(ステップ1701)。なお、発音フラグONFは、後述するガイド処理において、読み出された曲データのレコードが、ノートオンイベントであるかノートオフイベントであるかにしたがってセットされるフラグである(図19のステップ1905〜1909参照)。ステップ1701でNoと判断された場合には、ガイド判定処理は終了する。ステップ1701でYesと判断された場合には、CPU21は、演奏モードが、第1の自動演奏モード(MODE=1)であるかを判断する(ステップ1702)。   Next, the guide determination process according to the present embodiment will be described. FIG. 17 is a flowchart illustrating an example of the guide determination process according to the present embodiment. As shown in FIG. 17, the CPU 21 determines whether the sound generation flag ONF is “1” (step 1701). The sound generation flag ONF is a flag that is set according to whether the record of the read music data is a note-on event or a note-off event in the guide processing described later (steps 1905 to 1905 in FIG. 19). 1909). If it is determined No in step 1701, the guide determination process ends. If it is determined Yes in step 1701, the CPU 21 determines whether the performance mode is the first automatic performance mode (MODE = 1) (step 1702).

ステップ1702でYes、つまり、演奏モードが第1の自動演奏モードである場合には、CPU21は、演奏者がタッチパネル上で触れている音符の音高KEYと、RAM23中に格納された、曲データの音高NOTEとが一致しているかを判断する(ステップ1703)。ステップ1703でNoと判断された場合には、CPU21は、RAM23中の当該音高KEYについてのエラーフラグERRF(KEY)に「1」をセットする(ステップ1709)。   If YES in step 1702, that is, if the performance mode is the first automatic performance mode, the CPU 21 stores the pitch KEY of the note touched on the touch panel by the performer and the song data stored in the RAM 23. It is determined whether or not the pitch NOTE matches (step 1703). If it is determined No in step 1703, the CPU 21 sets “1” to the error flag ERRF (KEY) for the pitch KEY in the RAM 23 (step 1709).

ステップ1703でYesと判断された場合には、CPU21は、RAM23中の音高KEYについてのエラーフラグERRF(KEY)が「1」であるかを判断する(ステップ1704)。ステップ1604でYesと判断された場合には、当該エラーフラグERRF(KEY)を「0」にリセットする(ステップ1705)。   When it is determined Yes in step 1703, the CPU 21 determines whether or not the error flag ERRF (KEY) for the pitch KEY in the RAM 23 is “1” (step 1704). If YES is determined in step 1604, the error flag ERRF (KEY) is reset to “0” (step 1705).

CPU21は、キー操作フラグKEYFを「1」にセットする(ステップ1706)。また、CPU21は、表示部12の画面上に表示された楽譜中、現在演奏中の音符(演奏者が触れるべき音符)を示すカーソルを消去する(ステップ1707)。なお、現在演奏中の音符は、曲データ中のノートオンイベントがDATAとしてRAM23に格納されている。したがって、CPU21は、RAM23中のDATAを参照することで、音符を特定することができる。RAM23中のDATAについては、ガイド処理において説明する。その後、CPU21は、発音フラグONFを「0」にリセットする(ステップ1708)。   The CPU 21 sets the key operation flag KEYF to “1” (step 1706). Further, the CPU 21 deletes the cursor indicating the currently played note (note to be touched by the performer) in the score displayed on the screen of the display unit 12 (step 1707). Note that the note-on event in the song data of the currently playing note is stored in the RAM 23 as DATA. Therefore, the CPU 21 can specify a note by referring to DATA in the RAM 23. The DATA in the RAM 23 will be described in the guide process. Thereafter, the CPU 21 resets the sound generation flag ONF to “0” (step 1708).

次に、ステップ1702でNoと判断された場合について説明する。ステップ1702でNoと判断された場合にも、CPU21は、演奏者がタッチパネル上で触れている音符の音高KEYと、RAM23中に格納された、曲データの音高NOTEとが一致しているかを判断する(ステップ1710)。ステップ1710でNoと判断された場合にはガイド判定処理を終了する。ステップ1710でYesと判断された場合には、ステップ1707に進む。   Next, the case where No is determined in step 1702 will be described. Even if it is determined No in step 1702, the CPU 21 determines whether the pitch KEY of the note touched by the performer on the touch panel matches the pitch NOTE of the song data stored in the RAM 23. Is determined (step 1710). When it is determined No in step 1710, the guide determination process is terminated. If it is determined YES in step 1710, the process proceeds to step 1707.

パネル操作検出処理(ステップ303)が終了すると、CPU21は、ガイド処理を実行する実行する(ステップ304)。図18および図19はは、本実施の形態にかかるガイド処理の例を示すフローチャートである。図18に示すように、CPU21は、RAM23中のスタートフラグSTFが「1」であるかを判断する(ステップ1801)。ステップ1801でNoと判断された場合には、ガイド処理は終了する。ステップ1801でYesと判断された場合には、発音フラグONFが「1」であるかを判断する(ステップ1802)。   When the panel operation detection process (step 303) ends, the CPU 21 executes a guide process (step 304). 18 and 19 are flowcharts illustrating an example of the guide processing according to the present embodiment. As shown in FIG. 18, the CPU 21 determines whether or not the start flag STF in the RAM 23 is “1” (step 1801). If it is determined No in step 1801, the guide process ends. If YES is determined in step 1801, it is determined whether the sound generation flag ONF is “1” (step 1802).

ステップ1802でNoと判断された場合には、CPU21は、タイマインタラプト処理によりカウントされるタイマ値を参照して、所定の最小単位時間が経過しているかを判断する。ステップ1803でNoと判断された場合には、ガイド処理を終了する。   If it is determined No in step 1802, the CPU 21 refers to the timer value counted by the timer interrupt process and determines whether a predetermined minimum unit time has elapsed. If it is determined No in step 1803, the guide process is terminated.

その一方、ステップ1803でYesと判断された場合には、CPU21は、タイマのレジスタ値Tをデクリメントする(ステップ1804)。その後、CPU21は、タイマレジスタ値Tが「0」より大きいかを判断し(ステップ1805)、ステップ1805でYesと判断された場合には、ガイド処理を終了する。ステップ1805でNo、つまり、タイマレジスタ値が「0」以下である場合には、ステップ1809に進む。ステップ1809については、後述する。   On the other hand, if it is determined Yes in step 1803, the CPU 21 decrements the register value T of the timer (step 1804). Thereafter, the CPU 21 determines whether or not the timer register value T is greater than “0” (step 1805), and if it is determined Yes in step 1805, the guide process is terminated. If NO in step 1805, that is, if the timer register value is “0” or less, the process proceeds to step 1809. Step 1809 will be described later.

ステップ1802でYes、つまり、発音フラグONFが「1」であると判断された場合には、CPU21は、演奏モードが第1の自動演奏モード(MODE=1)であるかを判断する(ステップ1806)。ステップ1806でYesと判断された場合には、キー操作フラグKEYFが「1」であるかを判断する(ステップ1807)。ステップ1807でNoと判断された場合には、ガイド処理を終了する。ステップ1807でYesと判断された場合には、CPU21は、キー操作フラグKEYFを「0」にリセットする(ステップ1808)。   If YES in step 1802, that is, if it is determined that the sound generation flag ONF is “1”, the CPU 21 determines whether or not the performance mode is the first automatic performance mode (MODE = 1) (step 1806). ). If YES is determined in step 1806, it is determined whether the key operation flag KEYF is “1” (step 1807). If it is determined No in step 1807, the guide process is terminated. If it is determined Yes in step 1807, the CPU 21 resets the key operation flag KEYF to “0” (step 1808).

ステップ1806でNoと判断された場合、或いは、ステップ1808が実行された後に、CPU21は、エラーフラグERRF( )が「0」であるかを判断する(ステップ1809)。ステップ1809でNoと判断された場合には、ガイド処理が終了する。ステップ1809でYesと判断された場合には、CPU21は、アドレスを示すパラメータADを歩進させて(ステップ1810)、曲データG(AD)が存在するかを判断する(ステップ1811)。ステップ1811でNoと判断された場合には、CPU21は、スタートフラグSTFを「0」にリセットして(ステップ1812)、タイマインタラプトを停止する(ステップ1813)。   When it is determined No in step 1806 or after step 1808 is executed, the CPU 21 determines whether or not the error flag ERRF () is “0” (step 1809). If it is determined No in step 1809, the guide process ends. If it is determined Yes in step 1809, the CPU 21 increments the parameter AD indicating the address (step 1810) and determines whether the music data G (AD) exists (step 1811). If it is determined No in step 1811, the CPU 21 resets the start flag STF to “0” (step 1812) and stops the timer interrupt (step 1813).

ステップ1811でYesと判断された場合には、CPU21は、アドレスADの示す曲データG(AD)を読み出して、RAM23中の値DATAとして格納する(ステップ1901)。次いで、CPU21は、RAM23中のDATAが、イベント(ノートオンイベント或いはノートオフイベント)であるかを判断する(ステップ1902)。ステップ1902でNoと判断された場合、つまり、DATAに格納されているのがタイムである場合には、CPU21は、タイマのレジスタ値Tに、DATAの値を格納する(ステップ1903)。   If it is determined Yes in step 1811, the CPU 21 reads the music data G (AD) indicated by the address AD and stores it as the value DATA in the RAM 23 (step 1901). Next, the CPU 21 determines whether DATA in the RAM 23 is an event (note-on event or note-off event) (step 1902). When it is determined No in step 1902, that is, when the time is stored in DATA, the CPU 21 stores the value of DATA in the register value T of the timer (step 1903).

ステップ1902でYesと判断された場合には、CPU21は、DATA中に含まれる音高を、音高情報NOTEとして、RAM23に格納する(ステップ1904)。次いで、CPU21は、DATAがノートオンイベントであるかを判断する(ステップ1905)。ステップ1905でYesと判断された場合には、CPU21は、DATA(ノートオンイベント)に対応する、表示部12の画面上に表示された楽譜中の音符を特定して、当該音符を指すカーソルを表示する(ステップ1906)。また、CPU21は、発音フラグを「1」にセットする(ステップ1907)。ステップ1907の後、ステップ1806に進む。   If it is determined Yes in step 1902, the CPU 21 stores the pitch included in DATA in the RAM 23 as pitch information NOTE (step 1904). Next, the CPU 21 determines whether DATA is a note-on event (step 1905). When it is determined Yes in step 1905, the CPU 21 specifies a note in the score displayed on the screen of the display unit 12 corresponding to DATA (note on event), and moves the cursor pointing to the note. It is displayed (step 1906). Further, the CPU 21 sets the sound generation flag to “1” (step 1907). After step 1907, the process proceeds to step 1806.

また、ステップ1905でNoと判断された場合、つまり、DATAがノートオフイベントであった場合には、CPU21は、DATA(ノートオフイベント)に対応する、表示部12の画面上に表示された楽譜中の音符を特定して、当該音符を指すカーソルを消去する(ステップ1909)。ステップ1909の後、ステップ1810に進む。   If NO is determined in step 1905, that is, if DATA is a note-off event, the CPU 21 displays the score displayed on the screen of the display unit 12 corresponding to DATA (note-off event). The note inside is specified, and the cursor pointing to the note is deleted (step 1909). After step 1909, the process proceeds to step 1810.

ガイド処理(ステップ304)が終了すると、音源部26において音源発音処理が実行される(ステップ305)。音源発音処理では、音源部26が、CPU21からノートオンイベントを受理すると、ノートオンイベントに含まれる音高および音色情報に基づき、ROM22から所定の音色の波形データを、音高にしたがった速度で読み出して、所定の楽音データを生成する。また、音源部26が、CPU21からノートオフイベントを受理すると、ノートオフイベントに示される音色および音高の楽音を消音する。   When the guide process (step 304) ends, the sound source sound generation process is executed in the sound source unit 26 (step 305). In the sound source sound generation process, when the sound source unit 26 receives a note-on event from the CPU 21, based on the pitch and tone color information included in the note-on event, waveform data of a predetermined tone color from the ROM 22 at a speed according to the tone pitch. Read out and generate predetermined musical tone data. Further, when the sound source unit 26 receives a note-off event from the CPU 21, the tone of tone and pitch indicated by the note-off event are muted.

音源発音処理(ステップ305)が終了すると、CPU21は、画像更新処理を実行する(ステップ306)。図20は、本実施の形態にかかる画像更新処理の例を示すフローチャートである。   When the sound source sound generation process (step 305) ends, the CPU 21 executes an image update process (step 306). FIG. 20 is a flowchart illustrating an example of the image update process according to the present embodiment.

図20に示すように、CPU21は、演奏者によるタッチパネルへの操作状態を検出する(ステップ2001)。タッチパネルに演奏者の指が接触していない状態であれば(ステップ2001で「オフ」)、画像更新処理は終了する。タッチパネルに演奏者の指が接触していれば(ステップ2001で「オン」)、CPU21は、演奏者が指で触れた位置が画面上に表示された音符についての周辺領域に該当するかを判断する(ステップ2002)。ステップ2002でYesと判断された場合には、CPU21は、演奏者の指がその周辺領域に位置する音符の音高が、アドレスを示すパラメータDADにて特定されるレコード中の音高と一致するかを判断する(ステップ2003)。   As shown in FIG. 20, the CPU 21 detects the operation state of the touch panel by the performer (step 2001). If the player's finger is not in contact with the touch panel (“OFF” in step 2001), the image update process ends. If the performer's finger is in contact with the touch panel ("ON" in step 2001), the CPU 21 determines whether the position touched by the performer with the finger corresponds to the peripheral area of the note displayed on the screen. (Step 2002). If it is determined YES in step 2002, the CPU 21 matches the pitch of the note in which the performer's finger is located in the surrounding area with the pitch in the record specified by the parameter DAD indicating the address. Is determined (step 2003).

ステップ2002或いはステップ2003でNoと判断された場合には、楽譜更新処理は終了する。ステップ2003でYesと判断された場合は、表示部の画面上に配置された楽譜において、最後尾の音符(時間的にもっとも新しい音符)の周辺領域に演奏者の指が触れていることを意味する。したがって、ステップ2003でYesと判断された場合には、CPU21は、曲データのレコードを、アドレスDADが示すパラメータの後、所定数だけ読み出す(ステップ2004)。   When it is determined No in step 2002 or step 2003, the score update process ends. If “Yes” is determined in step 2003, it means that the player's finger is touching the peripheral area of the last note (the newest note in time) in the score arranged on the screen of the display unit. To do. Therefore, if it is determined Yes in step 2003, the CPU 21 reads a predetermined number of records of music data after the parameter indicated by the address DAD (step 2004).

CPU21は、読み出された曲データのレコード中、ノートオンイベントおよび次のタイムに基づき、音符位置および音符種別を含む音符データを生成する(ステップ2005)。また、ノートオフイベントおよび次のタイムに基づく休符データも、ステップ2005において生成される。   The CPU 21 generates note data including a note position and a note type based on the note-on event and the next time in the read music data record (step 2005). Also, rest data based on the note-off event and the next time is also generated in step 2005.

次いで、CPU21は、ステップ1605で生成された音符データおよび休符データにしたがった音符や休符を、五線譜中に配置した画像データを生成する(ステップ2006)。また、CPU21は、上記画像中の音符や休符の各々の位置情報(座標)を、RAM23中に格納する(ステップ2007)。また、CPU21は、表示部12の画面上に表示された音符および休符に対応する曲データのレコードのアドレス(たとえば最終アドレス)を、アドレスDADとしてRAM23に格納する(ステップ2008)。   Next, the CPU 21 generates image data in which notes and rests according to the note data and rest data generated in step 1605 are arranged in the staff (step 2006). Further, the CPU 21 stores the position information (coordinates) of each note and rest in the image in the RAM 23 (step 2007). Further, the CPU 21 stores the address (for example, final address) of the record of the music data corresponding to the note and rest displayed on the screen of the display unit 12 in the RAM 23 as the address DAD (step 2008).

楽譜更新処理(ステップ306)が終了すると、CPU21は、その他の処理を実行して(ステップ307)、ステップ302に戻る。その他の処理には、外部I/F28を介したメモリカードからのデータの読み出し、メモリカードへのデータ書き込み、外部ネットワークを介した他の機器とのデータ送受信などが含まれる。   When the score update process (step 306) is completed, the CPU 21 performs other processes (step 307) and returns to step 302. Other processing includes reading data from the memory card via the external I / F 28, writing data to the memory card, and data transmission / reception with other devices via the external network.

本実施の形態において、演奏モードが第1の自動演奏モード(MODE=1)である場合には、表示部12の画面上に表示された画像において、カーソルにて示された音符の周辺領域に演奏者の指が触れない限り、自動演奏が進行しない。すなわち、ガイド判定処理において、エラーフラグERRF(KEY)に「1」がセットされるため(ステップ1709)、ガイド処理において、曲データの次のレコードの読み出しが行なわれない(ステップ1809でNo)。   In the present embodiment, when the performance mode is the first automatic performance mode (MODE = 1), in the image displayed on the screen of the display unit 12, in the peripheral area of the note indicated by the cursor. Automatic performance will not proceed unless the performer's finger touches it. That is, since “1” is set to the error flag ERRF (KEY) in the guide determination process (step 1709), the next record of the song data is not read in the guide process (No in step 1809).

図21(a)、(b)は、それぞれ、表示部の画面上に表示された楽譜の例を示す図である。図21(a)では、画像2100の楽譜において、音符2101の周辺領域(符号2102)を、演奏者が指で触るべきことを示している。なお、本実施の形態において、音符の周辺領域を、画像上に表示しても良いし、表示しなくても良い。周辺領域を表示する場合に、第1の領域および第2の領域をそれぞれ表示しても良いし、周辺領域の外郭を画定する第2の領域のみを表示しても良い。また、画像2100においては、カーソル2103が音符2101を指している。これにより、演奏者に、音符2101(およびその付近)を触れるべきことが示される。   FIGS. 21A and 21B are diagrams showing examples of musical scores displayed on the screen of the display unit. FIG. 21A shows that the player should touch the peripheral area (reference numeral 2102) of the note 2101 with the finger in the score of the image 2100. In the present embodiment, the peripheral area of the note may or may not be displayed on the image. When the peripheral area is displayed, the first area and the second area may be displayed, respectively, or only the second area that defines the outline of the peripheral area may be displayed. In the image 2100, the cursor 2103 points to the musical note 2101. This indicates that the player should touch the note 2101 (and its vicinity).

また、第1の自動演奏モードの下では、演奏者の指が、上記音符2101の周辺領域に触れるまで、カーソルはその位置に留まり、また、自動演奏も進行しない。その一方、第2の自動演奏モードの下では、演奏者の指が、音符2101の周辺領域に触れるか否かにかかわらず、音符2101に規定する時間(4分音符に相当する時間)が経過すると、自動演奏は進行する。   Also, under the first automatic performance mode, the cursor remains in that position until the performer's finger touches the peripheral area of the note 2101, and the automatic performance does not proceed. On the other hand, under the second automatic performance mode, the time specified for the note 2101 (the time corresponding to the quarter note) elapses regardless of whether or not the performer's finger touches the peripheral area of the note 2101. Then, automatic performance proceeds.

図21(b)では、画像2110の楽譜において、音符2104の周辺領域(符号21025)を、演奏者が指で触るべきことを示している。第1の演奏モードの下においては、上述したように、演奏者の指が、上記音符2101の周辺領域に触れることにより、図21(b)に示すような画像に移行する。第2の演奏モードの下においては、音符2101に規定する時間(4分音符に相当する時間)が経過することにより、図21(b)に示すような画像に移行する。   FIG. 21B shows that the player should touch the peripheral area (reference numeral 21025) of the note 2104 with the finger in the score of the image 2110. Under the first performance mode, as described above, when the performer's finger touches the peripheral area of the note 2101, an image as shown in FIG. Under the second performance mode, when the time specified for the note 2101 (time corresponding to a quarter note) elapses, the image shifts to an image as shown in FIG.

本実施の形態によれば、CPU21は、表示部12の画面上に表示された楽譜中の音符のそれぞれの位置と、タッチパネル13上の演奏者による接触位置とを比較して、接触位置が、何れかの音符の位置を含む周辺領域内であるかを判断して、接触位置が、周辺領域内である場合に、当該音符の音高に基づくノートオンイベントを生成して、音源部26に出力する。これにより、音源部26により所定の音高の楽音データが生成される。このように、本実施の形態によれば、演奏者が、表示画面上の音符或いはその周辺領域に触れることにより、楽曲を構成する音符に対応する楽音を発生することができる。したがって、楽譜表示から、その音符表記の解釈を経ることなく、直接的に楽音を発生することが可能となる。   According to the present embodiment, the CPU 21 compares the position of each note in the score displayed on the screen of the display unit 12 with the contact position by the performer on the touch panel 13, and the contact position is It is determined whether it is in the peripheral area including the position of any note. If the contact position is in the peripheral area, a note-on event based on the pitch of the note is generated, and the sound source unit 26 Output. As a result, the tone generator 26 generates musical tone data having a predetermined pitch. As described above, according to the present embodiment, the performer can generate musical sounds corresponding to the musical notes constituting the music piece by touching the musical notes on the display screen or the peripheral area thereof. Therefore, it is possible to generate a musical tone directly from the score display without having to interpret the notation.

また、本実施の形態においては、CPU21は、楽曲を構成する音符と対応するように、当該音符の音高情報およびその発音タイミングを示す時間情報を少なくとも含む曲データに基づき、楽曲を構成する音高の楽音を順次発音するようノートオンイベントを制御することで、楽曲を進行させる。したがって、上述した表示部12の画面上に表示された音符の周辺に触れることで楽音を発音させるような装置で、自動演奏を実現することができる。   Further, in the present embodiment, the CPU 21 is configured so that the sound constituting the musical piece is based on the musical piece data including at least the pitch information of the note and the time information indicating the sounding timing so as to correspond to the musical note constituting the musical piece. The music is advanced by controlling the note-on event so that the high musical tones are sounded sequentially. Therefore, an automatic performance can be realized with an apparatus that generates a musical tone by touching the periphery of a note displayed on the screen of the display unit 12 described above.

本実施の形態において、第1の自動演奏モードの下では、CPU21は、演奏者による接触位置が、発音すべき楽音に対応する音符の周辺領域である場合に、曲データに基づき、楽曲を進行させるように構成されている。したがって、演奏者が、楽曲において発音すべき正しい音符(の周辺)を触れることにより楽曲を進行させることができる。   In the present embodiment, under the first automatic performance mode, the CPU 21 advances the music based on the music data when the contact position by the performer is the peripheral area of the note corresponding to the musical sound to be generated. It is configured to let you. Therefore, the music player can advance the music piece by touching (around) the correct note to be pronounced in the music piece.

また、本実施の形態においては、CPU21は、曲データに基づき、楽曲において現在発音すべき楽音に対応する音符を指し示すカーソルを、楽譜中に表示する。したがって、演奏者は、どの音符(の周辺)に触れるべきかを容易に知ることが可能となる。   In the present embodiment, the CPU 21 displays a cursor in the score indicating the musical note corresponding to the musical tone that should be pronounced in the musical composition based on the musical composition data. Therefore, the performer can easily know which note (around) should be touched.

また、本実施の形態によれば、周辺領域が、音符を含む第1の領域と、第2の領域の周囲に位置する第2の領域と、を有し、CPU21は、演奏者による接触位置が、音符の位置の第1の領域、或いは、第2の領域内であるかを判断し、接触位置が属する領域に基づき楽音の音高を決定する。これにより、演奏者による接触位置と音符との近さに基づいて音高を変化させることが可能となる。   Further, according to the present embodiment, the peripheral area has the first area including the musical notes and the second area located around the second area, and the CPU 21 is the contact position by the player. Is in the first region or the second region of the note position, and the pitch of the musical sound is determined based on the region to which the contact position belongs. This makes it possible to change the pitch based on the proximity between the contact position and the note by the performer.

さらに、第2の領域は、音符が配置される五線と垂直方向において、音符より上側に位置する上側領域(b+領域)と、下側に位置する下側領域(b−領域)とを備える。CPU21は、演奏者による接触位置が、第1の領域内である場合には、発音すべき楽音の音高を、音符の音高に対応する音高と決定し、上側領域である場合には、音符の音高より所定だけ高い音高(たとえば半音高い音高)と決定し、また、下側領域である場合には、前記音符の音高より所定だけ低い音高(たとえば半音低い音高)と決定する。   Furthermore, the second region includes an upper region (b + region) located above the note and a lower region (b− region) located below the note in the direction perpendicular to the staff on which the note is arranged. . When the contact position by the performer is within the first area, the CPU 21 determines the pitch of the musical sound to be generated as the pitch corresponding to the pitch of the note, and when it is in the upper area. , It is determined that the pitch is higher than the pitch of the note by a predetermined amount (for example, a pitch that is higher by a half tone). ).

次に、本発明の第2の実施の形態について説明する。第1の実施の形態においては、図10に示すように、音符1000が配置されている位置から、所定の第1の半径の範囲(符号1001参照)内を第1の領域(a領域)、所定の第2の半径(>第1の半径)の範囲(符号1002参照)内を第2の領域(b領域)としている。さらに、第2の領域(b領域)において、そのY座標が、音符の位置のY座標より小さいような領域を、b−領域(符号1003参照)、そのY座標が、音符の位置のY座標以上であるような領域をb+領域(符号1003参照)としている。   Next, a second embodiment of the present invention will be described. In the first embodiment, as shown in FIG. 10, the first area (a area) within a predetermined first radius range (see reference numeral 1001) from the position where the note 1000 is arranged, A range (see reference numeral 1002) within a predetermined second radius (> first radius) is defined as a second region (b region). Furthermore, in the second area (b area), an area whose Y coordinate is smaller than the Y coordinate of the note position is a b-area (see reference numeral 1003), and the Y coordinate is the Y coordinate of the note position. The region as described above is defined as a b + region (see reference numeral 1003).

第1の実施の形態では、演奏者の指が、第1の領域(a領域)にある場合には、音符に対応する音高の楽音が発音される。また、演奏者の指が、b−領域にある場合には、音符に対応する音高より半音下の音高の楽音が発音され、演奏者の指がb+領域にある場合には、音符に対応する音高より半音上の音高の楽音が発音される。   In the first embodiment, when the performer's finger is in the first area (area a), a musical tone having a pitch corresponding to a note is generated. When the performer's finger is in the b-region, a musical tone having a pitch that is a semitone below the pitch corresponding to the note is generated, and when the performer's finger is in the b + region, A tone that is a semitone above the corresponding pitch is produced.

第2の実施の形態においても、音符2200の周囲に第1の領域および第2の領域(b−領域およびb+領域)が設けられているが、第1の領域の形状が、第1の実施の形態と異なる。図22(a)は、第2の実施の形態にかかる周辺領域の例を示す図である。図22(a)に示すように、この例では、第1の領域2201の長径は、第2の領域2202の直径と等しく、したがって、左右端で第1の領域2201と第2の領域2202とは接触している(符号2205、2206参照)。   Also in the second embodiment, the first region and the second region (b− region and b + region) are provided around the note 2200, but the shape of the first region is the same as in the first embodiment. The form is different. FIG. 22A is a diagram illustrating an example of a peripheral region according to the second embodiment. As shown in FIG. 22A, in this example, the major axis of the first region 2201 is equal to the diameter of the second region 2202, and therefore, the first region 2201 and the second region 2202 at the left and right ends. Are in contact (see reference numerals 2205 and 2206).

また、第1の実施の形態と同様に、第2の領域において、そのY座標が、音符の位置のY座標より小さいような領域を、b−領域(符号2203参照)、そのY座標が、音符の位置のY座標以上であるような領域をb+領域(符号2204参照)としている。   Similarly to the first embodiment, in the second area, an area whose Y coordinate is smaller than the Y coordinate of the note position is a b-area (see reference numeral 2203), and the Y coordinate is A region that is equal to or greater than the Y coordinate of the note position is defined as a b + region (see reference numeral 2204).

第2の実施の形態においても、演奏者の指が、第1の領域(a領域)(符号2201参照)にある場合には、音符に対応する音高の楽音が発音される。また、演奏者の指が、b−領域(符号2203参照)にある場合には、音符に対応する音高より半音下の音高の楽音が発音され、演奏者の指がb+領域(符号2204参照)にある場合には、音符に対応する音高より半音上の音高の楽音が発音される。   Also in the second embodiment, when the performer's finger is in the first area (area a) (see reference numeral 2201), a musical tone having a pitch corresponding to a note is generated. When the performer's finger is in the b-region (see reference numeral 2203), a musical tone having a pitch that is a semitone below the pitch corresponding to the note is generated, and the performer's finger is in the b + region (reference numeral 2204). In the case of (see), a musical tone having a pitch that is a semitone above the pitch corresponding to the note is generated.

また、演奏者の指が、タッチパネル13の画面上に触れた状態で周辺領域などを移動した場合の音高の変化は、第1の実施の形態と同様である(図8ないし図10参照)。   Also, the change in pitch when the performer's finger moves around the surrounding area while touching the screen of the touch panel 13 is the same as in the first embodiment (see FIGS. 8 to 10). .

第2の実施の形態においては、左右端において、第1の領域と第2の領域とが接触している。したがって、演奏者の指が、ある音符のb−領域からb+領域に、或いは、ある音符のb+領域からb−領域に直接移動することがない。したがって、ユーザの指の動きに伴って、発音される音高は、実際の音符の音高の半音上から半音下に直接変化し、或いは、実際の音符の音高の半音下から半音上に直接変化するような、大きな音高変化は生じない。   In the second embodiment, the first region and the second region are in contact at the left and right ends. Therefore, the performer's finger does not move directly from the b− region of a certain note to the b + region or from the b + region of a certain note to the b− region. Therefore, as the user's finger moves, the pitch that is pronounced changes directly from one semitone above the actual note pitch to one semitone below, or from one semitone below the semitone above the actual note pitch. There is no big pitch change that changes directly.

次に、本発明の第3の実施の形態について説明する。図22(b)は、第3の実施の形態にかかる周辺領域の例を示す図である。図22(b)に示すように、第3の実施の形態では、第1の領域(符号2211参照)および第2の領域(符号2212参照)の間に、第3の領域(符号2213参照)が設けられている(第1の領域の半径<第3の領域の半径<第2の領域の半径)。第3の領域も、第2の領域と同様に、Y座標が音符の位置するY座標より小さいこと、或いは、大きいことにしたがって、c−領域(符号2216参照)とc+領域(符号2217参照)とを含んでいる。   Next, a third embodiment of the present invention will be described. FIG. 22B is a diagram illustrating an example of a peripheral region according to the third embodiment. As shown in FIG. 22B, in the third embodiment, a third area (see reference numeral 2213) is provided between the first area (refer to reference numeral 2211) and the second area (refer to reference numeral 2212). (The radius of the first region <the radius of the third region <the radius of the second region). Similarly to the second region, the third region also has a c− region (see reference numeral 2216) and a c + region (see reference numeral 2217) according to whether the Y coordinate is smaller or larger than the Y coordinate where the note is located. Including.

第3の実施の形態においては、領域に対応して以下に示す音高の楽音が発音されるようになっている。   In the third embodiment, musical tones having the following pitches are generated corresponding to the areas.

演奏者の指が、a領域(符号2211参照)にある場合には、音符に対応する音高の楽音が発音される。   When the performer's finger is in the region a (see reference numeral 2211), a musical tone having a pitch corresponding to the note is generated.

演奏者の指が、b−領域(符号2214参照)にある場合には、音符に対応する音高より半音下の音高の楽音が発音され、演奏者の指がb+領域(符号2215参照)にある場合には、音符に対応する音高より半音上の音高の楽音が発音される。   If the performer's finger is in the b-region (see reference numeral 2214), a musical tone having a pitch that is a semitone below the pitch corresponding to the note is generated, and the performer's finger is in the b + region (see reference numeral 2215). In the case of, a musical tone having a pitch that is a semitone above the pitch corresponding to the note is generated.

演奏家の指が、c−領域(符号2216参照)にある場合には、音符に対応する音高より1/4音下の音高の楽音が発音され、演奏者の指がc+領域(符号2217参照)にある場合には、音符に対応する音高より1/4音上の楽音が発音される。   When the performer's finger is in the c-region (see reference numeral 2216), a musical tone having a pitch that is ¼ lower than the pitch corresponding to the note is generated, and the performer's finger is in the c + region (reference sign 2217), a musical tone that is 1/4 sound higher than the pitch corresponding to the note is generated.

なお、第3の実施の形態においても、演奏者の指が、タッチパネル13の画面上に触れた状態で周辺領域などを移動した場合の音高の変化は、第1の実施の形態と同様である(図8ないし図10参照)。   In the third embodiment as well, the change in pitch when the performer's finger moves around the surrounding area while touching the screen of the touch panel 13 is the same as in the first embodiment. Yes (see FIGS. 8 to 10).

第3の実施の形態においては、演奏者の指の動きに基づいて、より細かい音程変化を実現することが可能となる。   In the third embodiment, a finer pitch change can be realized based on the movement of the performer's finger.

本発明は、以上の実施の形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。   The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the claims, and these are also included in the scope of the present invention. Needless to say.

たとえば、第1の実施の形態および第2の実施の形態では、周辺領域として、第1の領域(a領域)と第2の領域(b+領域およびb−領域)を設け、第1の領域(a領域)、b+領域、b−領域のそれぞれにおいて、表示された音符の音高に基づく所定の音高を対応付けている。しかしながら、これに限定されず、周辺領域として、第1の領域(a領域)だけを設け、演奏者の指が第1の領域に接触したときに、音符に対応する音高の楽音を発音するように構成しても良い。   For example, in the first embodiment and the second embodiment, as the peripheral region, a first region (a region) and a second region (b + region and b− region) are provided, and the first region ( A predetermined pitch based on the pitch of the displayed note is associated with each of the a region), b + region, and b− region. However, the present invention is not limited to this, and only the first region (a region) is provided as a peripheral region, and when the performer's finger contacts the first region, a musical tone having a pitch corresponding to the note is generated. You may comprise as follows.

また、本実施の形態においては、ノートオンイベント、タイム、ノートオフイベント、および、タイムのレコードを含む曲データに基づいて、音符の音高および音長や、所定の長さの休符を含む楽譜データを生成し、表示部12の画面上、所定の位置に音符、休符のシンボルを配置したような楽譜を表示している。しかしながら、これに限定されるものではなく、曲データとは別に音符および音長、並びに、休符の種別を示すレコードを含む楽譜データをフラッシュメモリ24に格納し、CPU21が、楽譜データを読み出して、表示部12の画面上、所定の位置に音符や休符のシンボルを配置したような楽譜を表示しても良い。   In the present embodiment, note pitches and pitches, and rests of a predetermined length are included based on song data including note-on events, times, note-off events, and time records. Music score data is generated, and a musical score in which notes and rest symbols are arranged at predetermined positions on the screen of the display unit 12 is displayed. However, the present invention is not limited to this, and musical score data including a record indicating a note, a sound length, and a rest type is stored in the flash memory 24 separately from the music data, and the CPU 21 reads the musical score data. A musical score in which notes and rest symbols are arranged at predetermined positions on the screen of the display unit 12 may be displayed.

さらに、第1の実施の形態において、第1の自動演奏モードの下で、発音すべき音符の周辺領域(第1の周辺領域或いは第2の周辺領域)に、演奏者の指が触れることにより、楽曲が進行するように構成されているが、これに限定されるものではなく、周辺領域のうち、第1の周辺領域に演奏者の指が触れた場合のみ、楽曲が進行するように構成しても良い。   Further, in the first embodiment, the player's finger touches the peripheral area (the first peripheral area or the second peripheral area) of the note to be sounded under the first automatic performance mode. The music is configured to progress, but is not limited to this, and the music is configured to progress only when the player's finger touches the first peripheral area in the peripheral area. You may do it.

また、前記実施の形態においては、自動演奏モードの下では、表示部12の画面上に、演奏者が触れるべき音符を指し示すカーソルが表示されるようになっている。しかしながらこれに限定されるものではなく、他の形態の音符指示子を用いても良い。図23(a)、(b)は、それぞれ、本発明の他の実施の形態において、表示部の画面上に表示された楽譜の例を示す図である。図23(a)は、画像2100の楽譜において、音符2301の周辺領域(符号2302)を、演奏者が指で触るべきことを示している。この例では、CPU21は、音符指示子として、指で触るべき音符2301の周辺領域の外郭を示す印(本例では円形の印)を、楽譜上に表示している。   In the embodiment, under the automatic performance mode, a cursor indicating the note to be touched by the performer is displayed on the screen of the display unit 12. However, the present invention is not limited to this, and other forms of note indicators may be used. FIGS. 23A and 23B are diagrams showing examples of a score displayed on the screen of the display unit in another embodiment of the present invention. FIG. 23A shows that the player should touch the peripheral area (reference numeral 2302) of the note 2301 with the finger in the score of the image 2100. In this example, the CPU 21 displays a mark (circular mark in this example) indicating the outline of the peripheral area of the note 2301 to be touched with a finger on the score as a note indicator.

第1の実施の形態と同様に、第1の自動演奏モードの下では、演奏者の指が、上記音符2301の周辺領域に触れるまで、上記円形の音符指示子はその位置に留まり、また、自動演奏も進行しない。その一方、第2の自動演奏モードの下では、演奏者の指が、音符2301の周辺領域に触れるか否かにかかわらず、音符2301に規定する時間(4分音符に相当する時間)が経過すると、自動演奏は進行する。   As in the first embodiment, under the first automatic performance mode, the circular note indicator remains in that position until the performer's finger touches the peripheral area of the note 2301, and Automatic performance does not progress. On the other hand, under the second automatic performance mode, the time specified for the note 2301 (the time corresponding to the quarter note) elapses regardless of whether the performer's finger touches the peripheral area of the note 2301 or not. Then, automatic performance proceeds.

図23(b)では、画像2310の楽譜において、音符2311の周辺領域(符号2312)を、演奏者が指で触るべきことを示している。CPU21は、音符指示子として、指で触るべき音符2311の周辺領域の外郭を示す印(本例では円形の印)を、楽譜上に表示している。第1の演奏モードの下においては、上述したように、演奏者の指が、上記音符2301の周辺領域に触れることにより、図23(b)に示すような画像に移行する。第2の演奏モードの下においては、音符2301に規定する時間(4分音符に相当する時間)が経過することにより、図23(b)に示すような画像に移行する。   FIG. 23B shows that the player should touch the peripheral area (reference numeral 2312) of the note 2311 with the finger in the score of the image 2310. The CPU 21 displays a mark (circular mark in this example) indicating the outline of the peripheral area of the note 2311 to be touched with a finger on the score as a note indicator. Under the first performance mode, as described above, when the performer's finger touches the peripheral area of the note 2301, an image as shown in FIG. Under the second performance mode, when the time specified for the note 2301 (the time corresponding to a quarter note) elapses, the image shifts to an image as shown in FIG.

このように本発明の他の実施の形態によれば、音符指示子が周辺領域に対応するため、演奏者に、指で触れるべき音符およびその触れるべき領域を知らせることが可能となる。   As described above, according to another embodiment of the present invention, the note indicator corresponds to the peripheral area, so that it is possible to inform the player of the note to be touched by the finger and the area to be touched.

10 楽音生成装置
11 スイッチ部
12 表示部
13 タッチパネル
14 スピーカ
21 CPU
22 ROM
23 RAM
24 フラッシュメモリ
25 サウンドシステム
26 音源部
27 オーディオ回路
DESCRIPTION OF SYMBOLS 10 Tone generator 11 Switch part 12 Display part 13 Touch panel 14 Speaker 21 CPU
22 ROM
23 RAM
24 flash memory 25 sound system 26 tone generator 27 audio circuit

Claims (7)

表示装置と、
当該表示装置に重ねて配置されたタッチパネルと、
楽曲を構成する音符のそれぞれの種別および音長を示す情報を有する楽譜データに基づき、前記表示装置の画面において、五線譜中に当該音符のシンボルを配置したような楽譜を表示する楽譜生成手段と、
前記タッチパネル上での演奏者による接触および接触位置を検出する接触検出手段と、
前記表示装置の画面上に表示された音符のそれぞれの位置と、前記タッチパネル上の接触位置とを比較して、前記接触位置が、前記何れかの音符の位置を含む所定の周辺領域内であるかを判断する領域判定手段と、
前記接触位置が、前記音符の位置を含む前記周辺領域内である場合に、当該音符の音高に基づく楽音を生成する楽音生成手段と、
前記楽曲を構成する音符と対応するように、当該音符の音高情報およびその発音タイミングを示す時間情報を少なくとも含む曲データに基づき、前記楽曲を構成する音高の楽音を順次発音するよう前記楽音生成手段を制御して、前記楽曲を進行させる自動演奏手段と、を備えたことを特徴とする楽音生成装置。
A display device;
A touch panel arranged over the display device;
A score generating means for displaying a score in which a symbol of the note is arranged in a staff notation on the screen of the display device based on score data having information indicating the type and length of each note constituting the music;
Contact detection means for detecting contact and contact position by the player on the touch panel;
The position of each note displayed on the screen of the display device is compared with the contact position on the touch panel, and the contact position is within a predetermined peripheral area including the position of any one of the notes. Area determination means for determining whether or not
A musical sound generating means for generating a musical sound based on the pitch of the note when the contact position is within the peripheral region including the position of the note;
The musical tone so that the musical notes of the pitches constituting the musical piece are sequentially generated based on the musical piece data including at least the pitch information of the musical notes and the time information indicating the sounding timing thereof so as to correspond to the musical notes constituting the musical piece. A musical sound generating apparatus comprising: an automatic performance means for controlling the generating means to advance the music piece.
前記自動演奏手段が、前記接触位置が、前記発音すべき楽音に対応する音符の周辺領域である場合に、前記曲データに基づき、前記楽曲を進行させるように構成されたことを特徴とする請求項1に記載の楽音生成装置。   The automatic performance means is configured to advance the music based on the music data when the contact position is a peripheral area of a note corresponding to the musical sound to be generated. Item 2. A musical sound generating device according to Item 1. 前記曲データに基づき、前記楽曲において現在発音すべき楽音に対応する音符を指し示す音符指示子を、前記楽譜中に表示する音符指示子生成手段を備えたことを特徴とする請求項1または2に記載の楽音生成装置。   3. A note indicator generating means for displaying in the score a note indicator that indicates a note corresponding to a musical tone that should be pronounced in the song based on the song data. The musical tone generator described. 前記音符指示子生成手段が、前記発音すべき楽音に対応する音符の周辺領域を示す音符指示子を、前記楽譜中に表示することを特徴とする請求項3に記載の楽音生成装置。   4. The musical tone generating apparatus according to claim 3, wherein the musical note indicator generating means displays a musical note indicator indicating a peripheral area of a musical note corresponding to the musical tone to be generated in the score. 前記周辺領域が、前記音符を含む第1の領域と、第2の領域の周囲に位置する第2の領域と、を有し、
前記領域判定手段が、前記接触位置が、前記音符の位置の第1の領域、或いは、第2の領域内であるかを判断し、
前記楽音生成手段が、前記接触位置が属する領域に基づき楽音の音高を決定することを特徴とする請求項1ないし4の何れか一項に記載の楽音生成装置。
The peripheral region includes a first region including the notes, and a second region located around the second region;
The area determination means determines whether the contact position is within a first area or a second area of the note position;
5. The musical sound generating apparatus according to claim 1, wherein the musical sound generating means determines a pitch of a musical sound based on a region to which the contact position belongs.
前記第2の領域が、さらに、前記音符が配置される五線と垂直方向において前記音符より上側に位置する上側領域と、下側に位置する下側領域とを備え、
前記楽音生成手段が、前記接触位置が、前記第1の領域内である場合には、前記、発音すべき楽音の音高を、前記音符の音高に対応する音高と決定し、前記第2の領域のうち上側領域である場合には、前記音符の音高より所定だけ高い音高と決定し、また、前記第2の領域のうち、下側領域である場合には、前記音符の音高より所定だけ低い音高と決定することを特徴とする請求項5に記載の楽音生成装置。
The second region further includes an upper region located above the notes in a direction perpendicular to the staff on which the notes are arranged, and a lower region located below.
If the contact position is within the first region, the tone generation means determines the pitch of the tone to be generated as the pitch corresponding to the pitch of the note; In the case of the upper region of the two regions, the pitch is determined to be higher than the pitch of the note by a predetermined amount, and in the case of the lower region of the second region, the pitch of the note is determined. 6. The musical tone generation apparatus according to claim 5, wherein the musical tone generation apparatus determines a pitch lower than the pitch by a predetermined amount.
表示装置と、当該表示装置に重ねて配置されたタッチパネルと、を備えたコンピュータに、
楽曲を構成する音符のそれぞれの種別および音長を示す情報を有する楽譜データに基づき、前記表示装置の画面において、五線譜中に当該音符のシンボルを配置したような楽譜を表示する楽譜生成ステップと、
前記タッチパネル上での演奏者による接触および接触位置を検出する接触検出ステップと、
前記表示装置の画面上に表示された音符のそれぞれの位置と、前記タッチパネル上の接触位置とを比較して、前記接触位置が、前記何れかの音符の位置を含む所定の周辺領域内であるかを判断する領域判定ステップと、
前記接触位置が、前記音符の位置を含む前記周辺領域内である場合に、当該音符の音高に基づく楽音を生成する楽音生成ステップと、
前記楽曲を構成する音符と対応するように、当該音符の音高情報およびその発音タイミングを示す時間情報を少なくとも含む曲データに基づき、前記楽曲を構成する音高の楽音を順次発音させて、前記楽曲を進行させる自動演奏ステップと、を実行させることを特徴とする楽音生成プログラム。
In a computer provided with a display device and a touch panel arranged on the display device,
A score generation step of displaying a score in which the symbols of the notes are arranged in the staff notation on the screen of the display device based on the score data having information indicating the type and length of each note constituting the music;
A contact detection step of detecting contact and a contact position by a player on the touch panel;
The position of each note displayed on the screen of the display device is compared with the contact position on the touch panel, and the contact position is within a predetermined peripheral area including the position of any one of the notes. An area determination step for determining whether or not
A musical sound generation step for generating a musical sound based on the pitch of the note when the contact position is within the peripheral region including the position of the note; and
Based on the song data including at least the pitch information of the note and the time information indicating the sounding timing thereof so as to correspond to the notes constituting the song, the musical sounds of the pitches constituting the song are sequentially sounded, A musical sound generating program characterized by executing an automatic performance step for advancing music.
JP2010253506A 2010-11-12 2010-11-12 Musical tone generating device and musical tone generating program Pending JP2012103575A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010253506A JP2012103575A (en) 2010-11-12 2010-11-12 Musical tone generating device and musical tone generating program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010253506A JP2012103575A (en) 2010-11-12 2010-11-12 Musical tone generating device and musical tone generating program

Publications (1)

Publication Number Publication Date
JP2012103575A true JP2012103575A (en) 2012-05-31

Family

ID=46394008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010253506A Pending JP2012103575A (en) 2010-11-12 2010-11-12 Musical tone generating device and musical tone generating program

Country Status (1)

Country Link
JP (1) JP2012103575A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014056232A (en) * 2012-08-14 2014-03-27 Yamaha Corp Music information display controller
WO2024122278A1 (en) * 2022-12-06 2024-06-13 ヤマハ株式会社 Object placement method, sound reproduction method, object placement device, sound reproduction device, and performance device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014056232A (en) * 2012-08-14 2014-03-27 Yamaha Corp Music information display controller
US9105259B2 (en) 2012-08-14 2015-08-11 Yamaha Corporation Music information display control method and music information display control apparatus
WO2024122278A1 (en) * 2022-12-06 2024-06-13 ヤマハ株式会社 Object placement method, sound reproduction method, object placement device, sound reproduction device, and performance device

Similar Documents

Publication Publication Date Title
US8961309B2 (en) System and method for using a touchscreen as an interface for music-based gameplay
JP5041015B2 (en) Electronic musical instrument and musical sound generation program
JP5247742B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP5549521B2 (en) Speech synthesis apparatus and program
JPH11296168A (en) Performance information evaluating device, its method and recording medium
JP5630218B2 (en) Musical sound generation device and musical sound generation program
JP4874110B2 (en) Functional operation of keyboard instruments
JP2012103575A (en) Musical tone generating device and musical tone generating program
US8878044B2 (en) Processing device and method for displaying a state of tone generation apparatus
JP5803705B2 (en) Electronic musical instruments
JP2018054767A (en) Electronic musical instrument, its sound production control method, and program
JP5821170B2 (en) Electronic music apparatus and program
JP2010117419A (en) Electronic musical instrument
JP7007533B2 (en) Stringed instrument pseudo-sound generator, and stringed instrument pseudo-sound generator
JP4853054B2 (en) Performance data editing apparatus and program
JP7425558B2 (en) Code detection device and code detection program
KR100382079B1 (en) Apparatus and control method for portable information terminal using music
JP2019061085A (en) Scale conversion device, electronic wind instrument, scale conversion method and scale conversion program
JP5692275B2 (en) Electronic musical instruments
JP5564921B2 (en) Electronic musical instruments
JP5195209B2 (en) Performance data editing apparatus and program
JP4880537B2 (en) Music score display device and program for music score display
JP6766397B2 (en) Performance assistance display device and performance assistance display method
JP2023045357A (en) Electronic music instrument, method and program
JP3948246B2 (en) Performance learning apparatus and performance learning processing program