JP2012103575A - Musical tone generating device and musical tone generating program - Google Patents
Musical tone generating device and musical tone generating program Download PDFInfo
- Publication number
- JP2012103575A JP2012103575A JP2010253506A JP2010253506A JP2012103575A JP 2012103575 A JP2012103575 A JP 2012103575A JP 2010253506 A JP2010253506 A JP 2010253506A JP 2010253506 A JP2010253506 A JP 2010253506A JP 2012103575 A JP2012103575 A JP 2012103575A
- Authority
- JP
- Japan
- Prior art keywords
- note
- musical
- region
- pitch
- cpu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Abstract
Description
本発明は、表示装置の画面上に表示された音符に触ることにより楽音を発生することができる楽音生成装置および楽音生成プログラムに関する。 The present invention relates to a musical sound generation apparatus and a musical sound generation program that can generate musical sounds by touching notes displayed on a screen of a display device.
一般のアコースティック楽器を演奏する際には、演奏者は、紙に印刷された楽譜をみて、音符表記(主として、音高および音長)を解釈し、楽器に対する操作に置き換えて、所定の操作により楽音を発生させる。鍵盤楽器であれば、楽譜中の音符の音高が、鍵の位置に置き換えられ、かつ、音符の音長が鍵の押鍵時間に置き換えられる。また、音符の間に休符があれば、その休符の長さは、鍵を押していない時間に置き換えられる。 When playing a general acoustic instrument, the performer looks at the score printed on the paper, interprets the musical notation (mainly pitch and pitch), replaces it with the operation on the instrument, and performs the specified operation. Generate music. In the case of a keyboard instrument, the pitch of the note in the score is replaced with the key position, and the note length is replaced with the key pressing time. If there is a rest between notes, the rest length is replaced with the time when no key is pressed.
ギターなど弦楽器においても、演奏者は、楽譜中の音符の音高に基づいて、押さえるべき弦を選択して、選択された弦のフレット位置を特定する。また、演奏者は、その後、選択された弦を弾くことにより楽音を発生させる。 Even in a stringed instrument such as a guitar, the performer selects a string to be pressed based on the pitch of a note in the score and specifies the fret position of the selected string. The performer then generates a musical sound by playing the selected string.
近年、電子楽器(鍵盤楽器)において、表示装置が大型化して、表示装置の画面上に楽譜を表示できるものも提案されている。たとえば、特許文献1には、楽曲の進行にともなって、表示される楽譜の頁や段を適切に変更することができる楽譜表示装置が提供されている。また、特許文献2には、表示装置の画面上に楽譜を表示し、かつ、楽曲の進行にともなって、現在、楽曲が楽譜上のどの位置にいるかを示す印(カーソル)を付した電子楽器が提案されている。このような電子楽器においても、演奏者は、表示装置の画面上に表示された楽譜をみて、楽譜を解釈することにより鍵操作を実現しているため、その動作はアコースティック楽器の場合と同様である。
In recent years, electronic musical instruments (keyboard musical instruments) have been proposed in which a display device is enlarged and a score can be displayed on a screen of the display device. For example,
本発明は、演奏者による音符表記の解釈を経ることなく、所望の楽音を発生させることにより楽曲の演奏をすることができる楽音生成装置および楽音生成プログラムを提供することを目的とする。 An object of the present invention is to provide a musical sound generating apparatus and a musical sound generating program capable of playing a musical piece by generating a desired musical sound without undergoing interpretation of musical notation by a player.
本発明の目的は、表示装置と、
当該表示装置に重ねて配置されたタッチパネルと、
楽曲を構成する音符のそれぞれの種別および音長を示す情報を有する楽譜データに基づき、前記表示装置の画面において、五線譜中に当該音符のシンボルを配置したような楽譜を表示する楽譜生成手段と、
前記タッチパネル上での演奏者による接触および接触位置を検出する接触検出手段と、
前記表示装置の画面上に表示された音符のそれぞれの位置と、前記タッチパネル上の接触位置とを比較して、前記接触位置が、前記何れかの音符の位置を含む所定の周辺領域内であるかを判断する領域判定手段と、
前記接触位置が、前記音符の位置を含む前記周辺領域内である場合に、当該音符の音高に基づく楽音を生成する楽音生成手段と、
前記楽曲を構成する音符と対応するように、当該音符の音高情報およびその発音タイミングを示す時間情報を少なくとも含む曲データに基づき、前記楽曲を構成する音高の楽音を順次発音するよう前記楽音生成手段を制御して、前記楽曲を進行させる自動演奏手段と、を備えたことを特徴とする楽音生成装置により達成される。
An object of the present invention is to provide a display device,
A touch panel arranged over the display device;
A score generating means for displaying a score in which a symbol of the note is arranged in a staff notation on the screen of the display device based on score data having information indicating the type and length of each note constituting the music;
Contact detection means for detecting contact and contact position by the player on the touch panel;
The position of each note displayed on the screen of the display device is compared with the contact position on the touch panel, and the contact position is within a predetermined peripheral area including the position of any one of the notes. Area determination means for determining whether or not
A musical sound generating means for generating a musical sound based on the pitch of the note when the contact position is within the peripheral region including the position of the note;
The musical tone so that the musical notes of the pitches constituting the musical piece are sequentially generated based on the musical piece data including at least the pitch information of the musical notes and the time information indicating the sounding timing thereof so as to correspond to the musical notes constituting the musical piece. This is achieved by a musical sound generating apparatus comprising: an automatic performance means for controlling the generating means to advance the music piece.
好ましい実施態様においては、前記自動演奏手段が、前記接触位置が、前記発音すべき楽音に対応する音符の周辺領域である場合に、前記曲データに基づき、前記楽曲を進行させるように構成されている。 In a preferred embodiment, the automatic performance means is configured to advance the music based on the music data when the contact position is a peripheral area of a note corresponding to the musical sound to be generated. Yes.
また、より好ましい実施態様においては、前記曲データに基づき、前記楽曲において現在発音すべき楽音に対応する音符を指し示す音符指示子を、前記楽譜中に表示する音符指示子生成手段を備える。 In a more preferred embodiment, there is provided a note indicator generating means for displaying in the score a note indicator that indicates a note corresponding to a musical tone that should be pronounced currently in the song based on the song data.
さらに好ましい実施態様においては、前記音符指示子生成手段が、前記発音すべき楽音に対応する音符の周辺領域を示す音符指示子を、前記楽譜中に表示する。 In a more preferred embodiment, the note indicator generating means displays a note indicator indicating a peripheral region of a note corresponding to the musical tone to be generated in the score.
別の好ましい実施態様においては、前記周辺領域が、前記音符を含む第1の領域と、第2の領域の周囲に位置する第2の領域と、を有し、
前記領域判定手段が、前記接触位置が、前記音符の位置の第1の領域、或いは、第2の領域内であるかを判断し、
前記楽音生成手段が、前記接触位置が属する領域に基づき楽音の音高を決定する。
In another preferred embodiment, the peripheral area includes a first area including the note, and a second area located around the second area,
The area determination means determines whether the contact position is within a first area or a second area of the note position;
The musical sound generating means determines the pitch of the musical sound based on the region to which the contact position belongs.
より好ましい実施態様においては、前記第2の領域が、さらに、前記音符が配置される五線と垂直方向において前記音符より上側に位置する上側領域と、下側に位置する下側領域とを備え、
前記楽音生成手段が、前記接触位置が、前記第1の領域内である場合には、前記、発音すべき楽音の音高を、前記音符の音高に対応する音高と決定し、前記第2の領域のうち上側領域である場合には、前記音符の音高より所定だけ高い音高と決定し、また、前記第2の領域のうち、下側領域である場合には、前記音符の音高より所定だけ低い音高と決定する。
In a more preferred embodiment, the second region further comprises an upper region located above the notes in a direction perpendicular to the staff on which the notes are arranged, and a lower region located below. ,
If the contact position is within the first region, the tone generation means determines the pitch of the tone to be generated as the pitch corresponding to the pitch of the note; In the case of the upper region of the two regions, the pitch is determined to be higher than the pitch of the note by a predetermined amount, and in the case of the lower region of the second region, the pitch of the note is determined. The pitch is determined to be lower than the pitch by a predetermined amount.
また、本発明の目的は、表示装置と、当該表示装置に重ねて配置されたタッチパネルと、を備えたコンピュータに、
楽曲を構成する音符のそれぞれの種別および音長を示す情報を有する楽譜データに基づき、前記表示装置の画面において、五線譜中に当該音符のシンボルを配置したような楽譜を表示する楽譜生成ステップと、
前記タッチパネル上での演奏者による接触および接触位置を検出する接触検出ステップと、
前記表示装置の画面上に表示された音符のそれぞれの位置と、前記タッチパネル上の接触位置とを比較して、前記接触位置が、前記何れかの音符の位置を含む所定の周辺領域内であるかを判断する領域判定ステップと、
前記接触位置が、前記音符の位置を含む前記周辺領域内である場合に、当該音符の音高に基づく楽音を生成する楽音生成ステップと、
前記楽曲を構成する音符と対応するように、当該音符の音高情報およびその発音タイミングを示す時間情報を少なくとも含む曲データに基づき、前記楽曲を構成する音高の楽音を順次発音させて、前記楽曲を進行させる自動演奏ステップと、を実行させることを特徴とする楽音生成プログラムにより達成される。
Another object of the present invention is to provide a computer including a display device and a touch panel disposed on the display device.
A score generation step of displaying a score in which the symbols of the notes are arranged in the staff notation on the screen of the display device based on the score data having information indicating the type and length of each note constituting the music;
A contact detection step of detecting contact and a contact position by a player on the touch panel;
The position of each note displayed on the screen of the display device is compared with the contact position on the touch panel, and the contact position is within a predetermined peripheral area including the position of any one of the notes. An area determination step for determining whether or not
A musical sound generation step for generating a musical sound based on the pitch of the note when the contact position is within the peripheral region including the position of the note; and
Based on the song data including at least the pitch information of the note and the time information indicating the sounding timing thereof so as to correspond to the notes constituting the song, the musical sounds of the pitches constituting the song are sequentially sounded, This is achieved by a musical sound generating program characterized by executing an automatic performance step for advancing music.
本発明によれば、演奏者による音符表記の解釈を経ることなく、所望の楽音を発生させることにより楽曲の演奏をすることができる楽音生成装置および楽音生成プログラムを提供することが可能となる。 According to the present invention, it is possible to provide a musical sound generating apparatus and a musical sound generating program capable of playing a musical piece by generating a desired musical sound without undergoing interpretation of musical note notation by the performer.
以下、添付図面を参照して、本発明の実施の形態について説明する。図1は、本発明の第1の実施の形態にかかる楽音発生装置の外観を示す図である。本実施の形態にかかる楽音生成装置10は、下側に種々のスイッチが配置されたスイッチ部11、大型の液晶表示装置を含む表示部12、表示部12に重ねあわされて配置されたタッチパネル13およびスピーカ14を有している。本実施の形態にかかる楽音発生装置10では、表示部12の画面上に表示された音符を、演奏者が触ると、タッチパネル13およびCPU21により当該接触が検出され、所定の音高の楽音が発生するようになっている。
Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a diagram showing an external appearance of a musical sound generating apparatus according to the first embodiment of the present invention. A musical
図2は、本実施の形態に楽音生成装置の構成を示すブロックダイヤグラムである。図2に示すように、本実施の形態にかかる楽音生成装置10は、CPU21、ROM22、RAM23、フラッシュメモリ24、サウンドシステム25、外部I/F28、スイッチ部11、表示部12およびタッチパネル13を備える。
FIG. 2 is a block diagram showing the configuration of the tone generation apparatus according to the present embodiment. As shown in FIG. 2, the musical
CPU21は、楽音生成装置10全体の制御、スイッチ部11を構成するスイッチの操作の検出、タッチパネル13への接触の検出、タッチパネル13への接触にしたがったサウンドシステム14の制御、表示部12の画面上に表示する楽譜データの生成、自動演奏モードにおける演奏者に対するタッチパネルの操作ガイドなど、種々の処理を実行する。
The
ROM22は、CPU21に実行させる種々の処理、たとえば、楽音生成装置10全体の制御、スイッチ部11を構成するスイッチの操作の検出、タッチパネル13への接触の検出、タッチパネル13への接触にしたがったサウンドシステム14の制御、表示部12の画面上に表示する楽譜データの生成、自動演奏モードにおける演奏者へのタッチパネルの操作ガイドなどのプログラムを記憶する。また、ROM22は、ピアノ、ギター、バスドラム、スネアドラム、シンバルなどの楽音を生成するための波形データを格納した波形データエリアを有する。RAM23は、ROM22から読み出されたプログラムや、処理の過程で生じたデータを記憶する。また、フラッシュメモリ24には、種々の楽曲の曲データおよび当該楽曲の自動伴奏データが格納される。
The
サウンドシステム25は、音源部26、オーディオ回路27およびスピーカ14を有する。音源部26は、たとえば、タッチパネルの接触に基づくノートオンイベントなどをCPU21から受信すると、ROM22の波形データエリアから所定の波形データを読み出して、所定の音高の楽音データを生成して出力する。また、音源部26は、波形データ、特に、スネアドラム、バスドラム、シンバルなど打楽器の音色の波形データを、そのまま楽音データとして出力することもできる。オーディオ回路27は、楽音データをD/A変換して増幅する。これによりスピーカ14から音響信号が出力される。
The
外部I/F28は、メモリカードスロットを有し、メモリカード(図示せず)を受け入れて、メモリカード中のデータを読み出し、或いは、メモリカードにデータを書きこむことも可能である。また、外部I/F28は、インターネットなどの外部ネットワークとの接続を実現するための通信手段も備え、外部ネットワークを介した他の機器との間のデータ送受信を実現する。また、本実施の形態にかかる楽音生成装置10は、通常モードおよび自動演奏モードの何れの下においても、タッチパネル13上の接触に基づき、所定の音高の楽音を発生する。
The external I /
以下、本実施の形態にかかる楽音生成装置10において実行される処理についてより詳細に説明する。図3は、本実施の形態にかかる楽音生成装置において実行される処理の概略を例示するフローチャートである。楽音生成装置10のCPU21は、楽音生成装置10の電源が投入されると、RAM23中のデータや、表示部12の表示画面のクリアを含むイニシャル処理(初期化処理)を実行する(ステップ301)。
Hereinafter, the process performed in the musical
イニシャル処理(ステップ301)が終了すると、CPU21は、入力部11を構成するスイッチのそれぞれの操作を検出し、検出された操作にしたがった処理を実行するスイッチ処理を実行する(ステップ302)。図4は、本実施の形態にかかるスイッチ処理の例を示すフローチャートである。図4に示すように、スイッチ処理には、ソング選択処理(ステップ401)、モード選択処理(ステップ402)、スタート・ストップスイッチ処理(ステップ403)、音色選択処理(ステップ404)および他のスイッチ処理(ステップ405)が含まれる。
When the initial process (step 301) ends, the
図5は、本実施の形態にかかるソング選択処理の例を示すフローチャートである。図5に示すように、CPU21は、入力部11中のソングボタンがオンされたかを判断する(ステップ501)。ステップ501でNoと判断された場合には、ソング選択処理が終了される。ステップ501でYesと判断された場合には、CPU21は、フラッシュメモリ24から、曲データのタイトル(曲名)を取得して、表示部12の画面上に、曲名のリスト(ソングリスト)を表示する。また、CPU21は、演奏者による入力部11中のカーソルボタンの操作にしたがって、カーソル位置に対応する曲名を強調表示する(ステップ502)。
FIG. 5 is a flowchart showing an example of song selection processing according to the present embodiment. As shown in FIG. 5, the
CPU21は、入力部11中の決定スイッチがオンされたかを判断する(ステップ503)。ステップ503でNoと判断された場合には、ステップ502に戻る。ステップ503でYesと判断された場合には、CPU21は、カーソル位置にある曲名の曲データのレコードを、当該曲データの先頭アドレスから所定数だけ読み出す(ステップ504)。
The
図6(a)は、本実施の形態にかかる曲データの構成例を示す図である。図6(a)に示すように、本実施の形態にかかる曲データ600は、ノートオンイベントのレコード(符号601参照)、タイムのレコード(符号602参照)、ノートオフイベントのレコード(符号603参照)およびタイムのレコード(符号604参照)を有する。
FIG. 6A is a diagram illustrating a configuration example of song data according to the present embodiment. As shown in FIG. 6A, the
ノートオンイベントのレコードには、発音すべき楽音の音色および音高を示す情報が含まれる。ノートオンイベントのレコードに引き続くタイムのレコードに格納された値は、ノートオンイベントと、当該ノートオンイベントにかかる楽音についてのノートオフイベントとの間の時間間隔、つまり、ノートオンイベントにかかる楽音の音長を示す。したがって、ノートオンイベント中の音高情報および引き続タイムのレコード中の値(音長)とにより、五線譜における音符の位置および音符の種別が特定され得る。 The record of the note-on event includes information indicating the tone color and pitch of the tone to be generated. The value stored in the time record that follows the record of the note-on event is the time interval between the note-on event and the note-off event for the note-on event. Indicates the sound length. Therefore, the note position and note type in the staff can be specified by the pitch information in the note-on event and the value (sound length) in the record of the continuation time.
また、ノートオフイベントのレコードには、消音すべき楽音の音高を示す情報が含まれる。ノートオフイベントのレコードに引き続くタイムのレコードに格納された値は、ノートオフイベントと、次のノートオンイベントとの間の時間間隔を示す。したがって、ノートオフイベントに引き続くタイムのレコード中の値により、五線譜中に配置する、隣接する音符間の休符の種別が特定され得る。 The record of the note-off event includes information indicating the pitch of the musical sound to be muted. The value stored in the time record following the note-off event record indicates the time interval between the note-off event and the next note-on event. Therefore, the value of the time record following the note-off event can specify the type of rest between adjacent notes arranged in the staff.
ステップ504において、CPU21は、表示部12の画面上に初期的に表示すべく、先頭の小節から所定数の小節に相当する曲データのレコードを読み出せば良い。次いで、CPU21は、読み出された曲データのレコード中、ノートオンイベントおよび次のゲートタイムに基づき、音符位置および音符種別を含む音符データを生成する(ステップ505)。また、ゲートタイムおよび次のステップタイムに基づく休符データも、ステップ505において生成される。
In
次いで、CPU21は、ステップ505で生成された音符データおよび休符データにしたがった音符や休符のシンボルを、五線譜中に配置した画像データを生成する(ステップ506)。また、CPU21は、先頭の音符を指し示すカーソルを画像中に生成する(ステップ507)。本実施の形態においては、演奏者が指にて触れるべき音符を指し示す音符指示子として、音符の上部に配置されたカーソルを用いている。CPU21は、上記画像中の音符や休符の各々の位置情報(座標)を、RAM23中に格納する(ステップ508)。また、CPU21は、表示部12の画面上に表示された音符および休符に対応する曲データのレコードのアドレス(たとえば最終アドレス)を、アドレスDADとしてRAM23に格納する(ステップ509)。図6(b)は、このようにして表示部12の画面610上に表示された楽譜の例を示す図である。図6(b)の例においては、カーソル612は、先頭の音符(符号611)を指し示している。
Next, the
ソング選択処理(ステップ401)に引き続いて実行されるモード選択処理(ステップ402)において、CPU21は、入力部11中のモード選択ボタンにより、演奏モードが選択され、当該演奏モードを示す情報 MODEがRAM23中に格納される。より詳細には、本実施の形態においては、自動演奏を用いたガイドが行なわれない通常モード(MODE=0)、自動演奏を行なうモードのうち、演奏者が、オン状態とすべき音符に触れない限り自動演奏が進行しない第1の自動演奏モード(MODE=1)、および、演奏者の音符へのオンに関わらず自動演奏が進行する第2の自動演奏モード(MODE=2)のうち、何れかの演奏モードを示す情報がRAM23に格納される。
In a mode selection process (step 402) executed subsequent to the song selection process (step 401), the
モード選択処理(ステップ402)に引き続いて、CPU21は、スタート・ストップスイッチ処理を実行する(ステップ403)。図7は、本実施の形態にかかるスタート・ストップスイッチ処理の例を示すフローチャートである。図7に示すように、CPU21は、モード選択処理により選択された演奏モードが、自動演奏モード(第1の自動演奏モード:MODE=1、或いは、第2の自動演奏モード:MODE=2)であるかを判断する(ステップ701)。ステップ701でNoと判断された場合、すなわち、演奏モードが通常モードである場合(MODE=0)には、スタート・ストップスイッチ処理を終了する。ステップ701でYesと判断された場合には、CPU21は、入力部11中のスタート・ストップスイッチの操作があったかを判断する(ステップ702)。ステップ702でNoと判断された場合には、スタート・ストップスイッチ処理を終了する。
Following the mode selection process (step 402), the
ステップ702でYesと判断された場合には、CPU21は、RAM23に格納されたスタートフラグSTFを反転させ(ステップ703)、スタートフラグSTFが「1」であるかを判断する(ステップ704)。ステップ704でYesと判断された場合には、CPU21は、選択されている楽曲の曲データのレコードの先頭アドレスを取得する(ステップ705)。CPU21は、取得した先頭アドレスを、アドレスを示すパラメータADとして、RAM23に格納する(ステップ706)。
If it is determined Yes in
CPU21は、先頭アドレスADの示す曲データG(AD)のレコードを読み出して、レコード値を、タイマのレジスタ値Tとして格納する(ステップ707)。また、CPU21は、アドレスを示すパラメータADを歩進する(ステップ708)。
The
また、CPU21は、タイマインタラプトを解除する(ステップ709)。タイマインタラプトが解除されることにより、所定の時間間隔でタイマインタラプト処理が実行され、CPU21の内部に設けられたタイマがインクリメントされる。なお、ステップ704でNoと判断された場合、つまり、STFが「0」である場合には、CPU21は、タイマインタラプトを停止する(ステップ710)。
Further, the
スタート・ストップスイッチ処理(ステップ403)に引き続いて、CPU21は、音色選択処理を実行する(ステップ404)。音色選択処理では、演奏者による、スイッチ部11の音色選択スイッチ(トーンスイッチ)の操作により、選択された楽音の音色情報が、RAM23に格納される。音色選択処理(ステップ404)の後、CPU21は、他のスイッチ処理を実行する(ステップ405)。他のスイッチ処理には、テンポスイッチの操作によるテンポデータの設定およびテンポデータのRAM23への格納などが含まれる。
Subsequent to the start / stop switch process (step 403), the
スイッチ処理(ステップ302)が終了すると、CPU21は、パネル操作検出処理を実行する(ステップ303)。図8ないし図10は、本実施の形態にかかるパネル操作検出処理の例を示すフローチャートである。CPU21は、演奏者によるタッチパネルへの操作状態を検出する(ステップ801)。
When the switch process (step 302) ends, the
タッチパネルへの操作状態が「なし」、つまり、演奏者の指がタッチパネルに触れられていない状態が継続されていれば、パネル操作検出処理は終了する。なお、演奏者の指が新たにオフ(新規オフ)となった場合については後述する。演奏者の指がタッチパネルに触れられているとき(オン)には、CPU21は、演奏者の指が新たにタッチパネルに触れられたか(新規オン)を判断する(ステップ802)。
If the operation state on the touch panel is “none”, that is, the state where the performer's finger is not touched on the touch panel is continued, the panel operation detection process ends. The case where the performer's finger is newly turned off (new off) will be described later. When the performer's finger is touched on the touch panel (ON), the
ステップ802でYes、つまり、新規オンであった場合には、CPU21は、演奏者が指で触れた位置が、画面上に表示された音符の周辺領域に該当するかを判断する。図11は、本実施の形態にかかる周辺領域の例を示す図である。図11においては、表示部12の画面上に、五線(符号1110)およびC4の音高の四分音符(符号1100)が配置されている。本実施の形態において、音符1100が配置されている位置から、所定の第1の半径の範囲(符号1101参照)内を、第1の領域(a領域)、第2の半径(>第1の半径)の範囲(符号1102参照)内であって第1の領域を除く領域を、第2の領域(b領域)としている。さらに、第2の領域(b領域)において、そのY座標が、音符の位置のY座標より小さいような領域を、b−領域(符号1103参照)、そのY座標が、音符の位置のY座標以上であるような領域をb+領域(符号1104参照)としている。
If Yes in
本実施の形態では、基本的には、演奏者の指が、第1の領域(a領域)にある場合には、音符に対応する音高の楽音が発音される。また、演奏者の指が、b−領域にある場合には、音符に対応する音高より半音下の音高の楽音が発音され、演奏者の指がb+領域にある場合には、音符に対応する音高より半音上の音高の楽音が発音される。これら第1の領域(a領域)および第2の領域(b領域)の総称として、周辺領域と称する。 In the present embodiment, basically, when the performer's finger is in the first region (region a), a musical tone having a pitch corresponding to a note is generated. When the performer's finger is in the b-region, a musical tone having a pitch that is a semitone below the pitch corresponding to the note is generated, and when the performer's finger is in the b + region, A tone that is a semitone above the corresponding pitch is produced. These first region (a region) and second region (b region) are collectively referred to as a peripheral region.
なお、表示部12の画面上に表示される楽譜において、音符の周囲に周辺領域を表示しても良いし、表示しなくても良い。また、周辺領域を表示する場合に、第1の領域および第2の領域をそれぞれ表示しても良いし、周辺領域の外郭を画定する第2の領域のみを表示しても良い。
In the musical score displayed on the screen of the
ステップ803においては、CPU21は、演奏者により新たにオンされた指の位置と、表示部12の画面上に表示された音符の周辺領域とに基づき、指が位置する周辺領域を特定する(ステップ803)。なお、図15などを参照して後述するが、複数の音符の周辺領域が重なっている場合がある。この場合には、CPU21は、楽曲において時間的に先行する音符(つまり、楽譜上で左側に位置する音符)を優先して、周辺領域を特定する。CPU21は、指の位置が、何れかの音符の周辺領域内にあるかを判断する(ステップ804)。ステップ804でNoと判断された場合には、パネル操作検出処理が終了される。その一方、ステップ804でYesと判断された場合には、CPU21は、周辺領域の種別に従った発音処理を実行する(ステップ805)。発音処理では、発音すべき楽音の音高および音色情報を含むノートオンイベントが生成される。
In
図11に示す例において、演奏者の指が、第1の領域(a領域)1101内で新たにオン状態となった場合には、CPU21は、音符に示す音高(C4)と、予め設定された音色情報とを含むノートオンイベントを生成して、ノートオンイベントを音源部26に出力する。また、演奏者の指が第2の領域(b領域)のうちb+領域1104内で新たにオン状態となった場合、或いは、b−領域1103内で新たにオン状態となった場合には、それぞれ、音符に示す音高より半音上の音高(C#4)と音色情報とを含むノートオンイベント、或いは、音符に示す音高より半音下の音高(B3)と音色情報とを含むノートオンイベントを生成して、音源部26に出力する。
In the example shown in FIG. 11, when the performer's finger is newly turned on in the first area (area a) 1101, the
ステップ805の後、CPU21は、RAM23中のノートオンイベントが生成された音高の楽音について、発音ステータスを「発音中」とする(ステップ806)。また、CPU21は、スタートフラグSTFが「1」であるかを判断する(ステップ807)。ステップ807でYesと判断された場合には、CPU21は、ガイド判定処理を実行する(ステップ808)。ガイド判定処理については後述する。
After
その一方、ステップ801で「新規オフ」と判断された場合には、CPU21は、RAM23中の発音ステータスが発音中であるかを判断する(ステップ809)。ステップ809でNoと判断された場合には、パネル操作検出処理を終了する。ステップ809でYesと判断された場合には、CPU21は、発音ステータスが「発音中」となっている楽音について、ノートオフイベントを生成して、音源部26に出力する(ステップ810)。次いで、CPU21は、「発音中」となっていた発音ステータスを「消音」に変更する(ステップ811)。
On the other hand, when it is determined in
図12(a)は、演奏者が指をタッチパネル上に接触して、その状態で指を移動した後、指をタッチパネルから離間された例を示す図である。図12(a)において、矢印付きの線の一方端の黒点が、タッチパネル上に新たに接触した位置を示し、矢印の先端が、タッチパネル上で離間した位置を示す。たとえば、線1201の例では、演奏者の指は、第1の領域内で新規オンして、第1の領域内を接触した状態で移動し、同じく第1の領域内で新規オフしている。したがって、新規オンに伴って、音高C4を含むノートオンイベントが生成され、新規オフに伴って音高C4のノートオフイベントが生成される。
FIG. 12A is a diagram illustrating an example in which the performer touches the finger on the touch panel and moves the finger in that state, and then the finger is separated from the touch panel. In FIG. 12A, a black dot at one end of a line with an arrow indicates a position newly touched on the touch panel, and a tip of the arrow indicates a position separated on the touch panel. For example, in the example of the
また、線1102に示す例では、演奏者の指は、b−領域内で新規オンして、同じくb−領域内で新規オフしている。したがって、新規オンに伴って、音高B3を含むノートオンイベントが生成され、新規オフに伴って音高B3のノートオフイベントが生成される。さらに、線1203に示す例では、音符の周辺領域に演奏者の指が位置していないため、ノートオンイベントが生成されない。
In the example shown by the
その一方、図12(b)に示すように、複数の領域にわたって演奏者の指が移動する場合も考えられる。たとえば、以下のような態様を考えることができる。 On the other hand, as shown in FIG. 12B, the player's finger may be moved over a plurality of areas. For example, the following modes can be considered.
b−領域で新規オンして、a領域で移動した後、a領域において新規オフとなる(符号1211)
b+領域で新規オンして、a領域で移動した後、a領域において新規オフとなる(符号1212)
周辺領域外で新規オンして、b−領域に移動した後、b−領域において新規オフとなる(符号1213)
周辺領域外で新規オンして、b−領域に移動した後、さらに、a領域に移動して当該a領域において新規オフとなる(符号1214)。
Newly turned on in the b-region, moved in the a region, and then turned off in the a region (reference numeral 1211).
Newly turned on in the b + region, moved in the region a, and then turned off in the region a (reference numeral 1212).
Newly turned on outside the peripheral region, moved to the b-region, and then turned off in the b-region (reference numeral 1213).
After turning on a new area outside the peripheral area and moving to the b-area, it further moves to the a area and turns off anew in the a area (reference numeral 1214).
上記以外にも、複数の領域にわたる場合が生じ得る。したがって、本実施の形態にかかるパネル操作検出処理では、上述した演奏者の指の移動にも対応できるようになっている。ステップ802でNo、つまり、演奏者がタッチパネル上で指をオン中である場合には、図9に示すように、CPU21は、演奏者の指が触れている位置が、画面上に表示された音符についての周辺領域に該当するかを判断する(ステップ901)。次いで、CPU21は、検出された周辺領域が、前回の処理において検出された周辺領域と異なるか、つまり、周辺領域の種別が変更されたかを判断する(ステップ902)。なお、b−領域からb+領域の移動も、周辺領域の変更と判断される。
In addition to the above, there may be cases where a plurality of areas are covered. Therefore, the panel operation detection process according to the present embodiment can cope with the above-described movement of the player's finger. If NO in
ステップ902でNoと判断された場合には、パネル操作検出処理を終了する。ステップ902でYesと判断された場合には、CPU21は、演奏者の指の位置が、周辺領域内、つまり、第1の領域(a領域)或いは第2の領域(b−領域またはb+領域)の何れかにあるかを判断する(ステップ903)。ステップ903でYesと判断された場合には、CPU21は、RAM23に格納された発音ステータスが「発音中」であるかを判断する(ステップ904)。ステップ904でYesと判断された場合には、CPU21は、指が位置する周辺領域の種別に従った音高変更処理を実行する(ステップ909)。
If it is determined No in
音高変更処理においては、移動前の周辺領域に対応する音高の楽音を消音するノートオフイベントを生成して、音源部26に出力するとともに、移動後の周辺領域に対応する音高および音色情報を含むノートオンイベントを生成して、音源部26に出力する。これにより、移動後の周辺領域に対応する音高の楽音を発生させることができる。
In the pitch change process, a note-off event for muting the musical tone of the pitch corresponding to the peripheral area before movement is generated and output to the
図12(b)において、b−領域で新規オンして、a領域で移動した場合(符号1211)には、b−領域での新規オンにより、C4より半音下のB3の楽音が発生し、b−領域からa領域に移動することにより、楽音の音高がC4に変更される。また、b+領域で新規オンして、a領域で移動した場合(符号1212)には、b+領域での新規オンにより、C4より半音上のC#4の楽音が発生し、b+領域からa領域に移動することにより、楽音の音高がC4に変更される。 In FIG. 12B, when a new on is performed in the b-region and moved in the a-region (reference numeral 1211), a new tone in the b-region generates a musical tone B3 that is a semitone below C4. By moving from the b-region to the a region, the pitch of the musical sound is changed to C4. In addition, when it is newly turned on in the b + region and moved in the region a (reference numeral 1212), a new tone in the b + region generates a C # 4 musical tone that is a semitone above C4, and from the b + region to the a region. By moving to, the pitch of the musical tone is changed to C4.
ステップ904でNoと判断された場合には、CPU21は、周辺領域の種別に従った発音処理を実行する(ステップ905)。ステップ905においては、図8のステップ805と同様に、CPU21は、周辺領域に対応する音高および音色情報を含むノートオンイベントを生成して、音源部26に出力する。また、CPU21は、スタートフラグSTFが「1」であるかを判断する(ステップ906)。ステップ906でYesと判断された場合には、CPU21は、ガイド判定処理を実行する(ステップ907)。その後、CPU21は、RAM23中のノートオンイベントが生成された音高の楽音について、発音ステータスを「発音中」とする(ステップ908)。
If it is determined No in
図12(b)において、周辺領域外で新規オンして、b−領域に移動した場合(符号1213参照)には、領域b−に移動することにより、音符の音高C4より半音低いB3の楽音が発生する。また、周辺領域外で新規オンして、b−領域に移動した後、さらに、a領域に移動した場合(符号1214参照)には、領域b−に移動することにより、音符の音高C4より半音低いB3の楽音が発生し、さらに、a領域に移動することにより、音高がC4に変更される。 In FIG. 12B, when it is newly turned on outside the peripheral region and moved to the b-region (refer to reference numeral 1213), by moving to the region b-, B3 that is a semitone lower than the pitch C4 of the note. Music is generated. In addition, when the signal is newly turned on outside the peripheral area, moved to the b-area, and further moved to the a-area (see reference numeral 1214), by moving to the area b-, the pitch C4 of the note is changed. A musical tone of B3, which is lower by a semitone, is generated, and the pitch is changed to C4 by moving to the a region.
次に、ステップ903でNoと判断された場合について説明する。この場合に、CPU21は、RAM23に格納された発音ステータスが「発音中」であるかを判断する(ステップ1001)。ステップ1001でYesと判断されるときは、演奏者の指の位置が周辺領域の何れかから周辺領域外に移動したことを意味する。したがって、この場合には、CPU21は、消音処理を実行する(ステップ1002)。消音処理において、CPU21は、発音ステータスが「発音中」である楽音についてのノートオフイベントを生成して、音源部26に出力する。
Next, the case where No is determined in
ステップ1001でNoと判断された場合、或いは、ステップ1002が実行された後、CPU21は、演奏者の指の位置が、他の音符についての周辺領域にあるかを判断する(ステップ1003)。図13および図14は、表示部の画面上の画像において、五線上に複数の音符が配置されている例を示す図である。図13に示す例では、2つの音符1300および1310の周辺領域は重なり合っていない。つまり、音符1300の第2の領域(符号1301参照)と、音符1310の第2の領域(符号1311参照)とは離間している。したがって、演奏者の指が、音符1300の第1の領域(a領域)でオン状態となり、第2の領域(この例では、b−領域)を経て、周辺領域外に出たそのときに、他の音符についての周辺領域内に位置することはない(矢印1320参照)。
When it is determined No in
これに対して、図14に示す例では、2つの音符1400、1410は隣接して配置され、その周辺領域が重なり合っている。この例では、音符1400の第1の領域1402は、部分的に音符1410の第2の領域1411と重なり合い、第2の領域1401は、部分的に音符1410の第1の領域1412、第2の領域1411と重なり合っている。このようなときに、演奏者の指が、線1420に沿って移動した場合には、音符1400を優先と考えると、音符1400の第1の領域1402、音符1400の第2の領域1401(より詳細にはb−領域からb+領域)を経て、音符1410の第1の領域1412に達する)。本実施の形態においては、このように、演奏者の指が、ある音符の周辺領域外に出たその時に、他の音符の周辺領域内に位置する場合を考慮して、以下の処理を実行する。
On the other hand, in the example shown in FIG. 14, the two
ステップ1003でYesと判断された場合には、CPU21は、他の音符についての新たな周辺領域の種別に基づく発音処理を実行する(ステップ1004)。ステップ1004においては、CPU21は、他の音符についての周辺領域に対応する音高および音色情報を含むノートオンイベントを生成して、音源部26に出力する。次いで、CPU21は、スタートフラグSTFが「1」であるかを判断する(ステップ1005)。ステップ1005でYesと判断された場合には、CPU21は、ガイド判定処理を実行する(ステップ1006)。
If it is determined Yes in
ステップ1003でNoと判断された場合には、CPU21は、RAM23中の発音ステータスを「消音」とする(ステップ1007)。
When it is determined No in
図15は、表示部の画面上の画像において、五線上に複数の音符が配置されている例を示す図である。図15における線1420および1510は、演奏者の指の移動の軌跡を示している。図15において、線1420は、音符1400についての第1の領域(a領域)1402で新規オンして、第2の領域1401のb−領域およびb+領域を経て、他の音符1410の第1の領域(a領域)1412に達したことを示している。この場合には、C4(音符1400の第1の領域)、B3(音符1400のb−領域)、C#4(音符1400のb+領域)、E4(音符1410の第1の領域)の順で楽音が発音される。
FIG. 15 is a diagram illustrating an example in which a plurality of musical notes are arranged on the staff in the image on the screen of the display unit.
また、図15において、線1510は、音符1400の第1の領域(a領域)1402で新規オンして、第2の領域1401のb−領域を経た後、さらに、他の音符1410の第2の領域1411のb−領域を経て、他の音符1410の第1の領域1412に達したことを示している。この場合には、C4(音符1400の第1の音域)、B3(音符1400のb−領域)、E♭4(音符1410のb−領域)、E4(音符1410の第1の領域)の順で楽音が発音される。
In FIG. 15, a
なお、本実施の形態においては、タッチパネル13への新規オンにおいて、複数の音符の周辺領域が重なっている場合には、楽曲において時間的に先行する音符(つまり、楽譜上で左側に位置する音符)を優先して、周辺領域が特定される。つまり、図15に示すように、新規オンの際には、左側に位置する音符1400の周辺領域(符号1401、1402参照)が、右側に位置する音符1410の周辺領域(符号1411、1412参照)に優先して判断される。しかしながら、いったん、演奏者の指のオン状態が維持された状態で、他の音符の周辺領域内に移動すると、当該他の音符の周辺領域が優先することになる。
In the present embodiment, when the peripheral area of a plurality of notes overlaps when the
図16は、演奏者の指の軌跡が、他の音符の周辺領域に移ったときの状態を示す図である。図15の符号1420と同じような動きで、演奏者の指が、音符1400の周辺領域(実際には、第2の領域1401)から、音符1410の周辺領域(実際には、第1の領域1412)に移動すると(符号1601参照)、音符1410の周辺領域が、音符1400の周辺領域に優先する。すなわち、演奏者の指が線1420に沿って動き、位置1601に移動すると、音符1410の周辺領域と、音符1400の周辺領域が重なり合う部分では、音符1410の周辺領域が優先する。したがって、位置1601以降の演奏者の指の移動に伴う発音は、図16に示すように、音符1410の周辺領域に位置する限り、音符1410に関する楽音(E4、半音下のE♭4、或いは、半音上のF4)となる。
FIG. 16 is a diagram showing a state where the trajectory of the performer's finger has moved to the peripheral area of another note. The player's finger moves in the same manner as the
演奏者の指が線1510に沿って動き、位置1602に達したときにも同様に、音符1410の周辺領域と、音符1400の周辺領域が重なり合う部分では、音符1410の周辺領域が優先する。
Similarly, when the performer's finger moves along the
次に、本実施の形態にかかるガイド判定処理について説明する。図17は、本実施の形態にかかるガイド判定処理の例を示すフローチャートである。図17に示すように、CPU21は、発音フラグONFが「1」であるかを判断する(ステップ1701)。なお、発音フラグONFは、後述するガイド処理において、読み出された曲データのレコードが、ノートオンイベントであるかノートオフイベントであるかにしたがってセットされるフラグである(図19のステップ1905〜1909参照)。ステップ1701でNoと判断された場合には、ガイド判定処理は終了する。ステップ1701でYesと判断された場合には、CPU21は、演奏モードが、第1の自動演奏モード(MODE=1)であるかを判断する(ステップ1702)。
Next, the guide determination process according to the present embodiment will be described. FIG. 17 is a flowchart illustrating an example of the guide determination process according to the present embodiment. As shown in FIG. 17, the
ステップ1702でYes、つまり、演奏モードが第1の自動演奏モードである場合には、CPU21は、演奏者がタッチパネル上で触れている音符の音高KEYと、RAM23中に格納された、曲データの音高NOTEとが一致しているかを判断する(ステップ1703)。ステップ1703でNoと判断された場合には、CPU21は、RAM23中の当該音高KEYについてのエラーフラグERRF(KEY)に「1」をセットする(ステップ1709)。
If YES in
ステップ1703でYesと判断された場合には、CPU21は、RAM23中の音高KEYについてのエラーフラグERRF(KEY)が「1」であるかを判断する(ステップ1704)。ステップ1604でYesと判断された場合には、当該エラーフラグERRF(KEY)を「0」にリセットする(ステップ1705)。
When it is determined Yes in
CPU21は、キー操作フラグKEYFを「1」にセットする(ステップ1706)。また、CPU21は、表示部12の画面上に表示された楽譜中、現在演奏中の音符(演奏者が触れるべき音符)を示すカーソルを消去する(ステップ1707)。なお、現在演奏中の音符は、曲データ中のノートオンイベントがDATAとしてRAM23に格納されている。したがって、CPU21は、RAM23中のDATAを参照することで、音符を特定することができる。RAM23中のDATAについては、ガイド処理において説明する。その後、CPU21は、発音フラグONFを「0」にリセットする(ステップ1708)。
The
次に、ステップ1702でNoと判断された場合について説明する。ステップ1702でNoと判断された場合にも、CPU21は、演奏者がタッチパネル上で触れている音符の音高KEYと、RAM23中に格納された、曲データの音高NOTEとが一致しているかを判断する(ステップ1710)。ステップ1710でNoと判断された場合にはガイド判定処理を終了する。ステップ1710でYesと判断された場合には、ステップ1707に進む。
Next, the case where No is determined in
パネル操作検出処理(ステップ303)が終了すると、CPU21は、ガイド処理を実行する実行する(ステップ304)。図18および図19はは、本実施の形態にかかるガイド処理の例を示すフローチャートである。図18に示すように、CPU21は、RAM23中のスタートフラグSTFが「1」であるかを判断する(ステップ1801)。ステップ1801でNoと判断された場合には、ガイド処理は終了する。ステップ1801でYesと判断された場合には、発音フラグONFが「1」であるかを判断する(ステップ1802)。
When the panel operation detection process (step 303) ends, the
ステップ1802でNoと判断された場合には、CPU21は、タイマインタラプト処理によりカウントされるタイマ値を参照して、所定の最小単位時間が経過しているかを判断する。ステップ1803でNoと判断された場合には、ガイド処理を終了する。
If it is determined No in
その一方、ステップ1803でYesと判断された場合には、CPU21は、タイマのレジスタ値Tをデクリメントする(ステップ1804)。その後、CPU21は、タイマレジスタ値Tが「0」より大きいかを判断し(ステップ1805)、ステップ1805でYesと判断された場合には、ガイド処理を終了する。ステップ1805でNo、つまり、タイマレジスタ値が「0」以下である場合には、ステップ1809に進む。ステップ1809については、後述する。
On the other hand, if it is determined Yes in
ステップ1802でYes、つまり、発音フラグONFが「1」であると判断された場合には、CPU21は、演奏モードが第1の自動演奏モード(MODE=1)であるかを判断する(ステップ1806)。ステップ1806でYesと判断された場合には、キー操作フラグKEYFが「1」であるかを判断する(ステップ1807)。ステップ1807でNoと判断された場合には、ガイド処理を終了する。ステップ1807でYesと判断された場合には、CPU21は、キー操作フラグKEYFを「0」にリセットする(ステップ1808)。
If YES in
ステップ1806でNoと判断された場合、或いは、ステップ1808が実行された後に、CPU21は、エラーフラグERRF( )が「0」であるかを判断する(ステップ1809)。ステップ1809でNoと判断された場合には、ガイド処理が終了する。ステップ1809でYesと判断された場合には、CPU21は、アドレスを示すパラメータADを歩進させて(ステップ1810)、曲データG(AD)が存在するかを判断する(ステップ1811)。ステップ1811でNoと判断された場合には、CPU21は、スタートフラグSTFを「0」にリセットして(ステップ1812)、タイマインタラプトを停止する(ステップ1813)。
When it is determined No in
ステップ1811でYesと判断された場合には、CPU21は、アドレスADの示す曲データG(AD)を読み出して、RAM23中の値DATAとして格納する(ステップ1901)。次いで、CPU21は、RAM23中のDATAが、イベント(ノートオンイベント或いはノートオフイベント)であるかを判断する(ステップ1902)。ステップ1902でNoと判断された場合、つまり、DATAに格納されているのがタイムである場合には、CPU21は、タイマのレジスタ値Tに、DATAの値を格納する(ステップ1903)。
If it is determined Yes in
ステップ1902でYesと判断された場合には、CPU21は、DATA中に含まれる音高を、音高情報NOTEとして、RAM23に格納する(ステップ1904)。次いで、CPU21は、DATAがノートオンイベントであるかを判断する(ステップ1905)。ステップ1905でYesと判断された場合には、CPU21は、DATA(ノートオンイベント)に対応する、表示部12の画面上に表示された楽譜中の音符を特定して、当該音符を指すカーソルを表示する(ステップ1906)。また、CPU21は、発音フラグを「1」にセットする(ステップ1907)。ステップ1907の後、ステップ1806に進む。
If it is determined Yes in
また、ステップ1905でNoと判断された場合、つまり、DATAがノートオフイベントであった場合には、CPU21は、DATA(ノートオフイベント)に対応する、表示部12の画面上に表示された楽譜中の音符を特定して、当該音符を指すカーソルを消去する(ステップ1909)。ステップ1909の後、ステップ1810に進む。
If NO is determined in
ガイド処理(ステップ304)が終了すると、音源部26において音源発音処理が実行される(ステップ305)。音源発音処理では、音源部26が、CPU21からノートオンイベントを受理すると、ノートオンイベントに含まれる音高および音色情報に基づき、ROM22から所定の音色の波形データを、音高にしたがった速度で読み出して、所定の楽音データを生成する。また、音源部26が、CPU21からノートオフイベントを受理すると、ノートオフイベントに示される音色および音高の楽音を消音する。
When the guide process (step 304) ends, the sound source sound generation process is executed in the sound source unit 26 (step 305). In the sound source sound generation process, when the
音源発音処理(ステップ305)が終了すると、CPU21は、画像更新処理を実行する(ステップ306)。図20は、本実施の形態にかかる画像更新処理の例を示すフローチャートである。
When the sound source sound generation process (step 305) ends, the
図20に示すように、CPU21は、演奏者によるタッチパネルへの操作状態を検出する(ステップ2001)。タッチパネルに演奏者の指が接触していない状態であれば(ステップ2001で「オフ」)、画像更新処理は終了する。タッチパネルに演奏者の指が接触していれば(ステップ2001で「オン」)、CPU21は、演奏者が指で触れた位置が画面上に表示された音符についての周辺領域に該当するかを判断する(ステップ2002)。ステップ2002でYesと判断された場合には、CPU21は、演奏者の指がその周辺領域に位置する音符の音高が、アドレスを示すパラメータDADにて特定されるレコード中の音高と一致するかを判断する(ステップ2003)。
As shown in FIG. 20, the
ステップ2002或いはステップ2003でNoと判断された場合には、楽譜更新処理は終了する。ステップ2003でYesと判断された場合は、表示部の画面上に配置された楽譜において、最後尾の音符(時間的にもっとも新しい音符)の周辺領域に演奏者の指が触れていることを意味する。したがって、ステップ2003でYesと判断された場合には、CPU21は、曲データのレコードを、アドレスDADが示すパラメータの後、所定数だけ読み出す(ステップ2004)。
When it is determined No in
CPU21は、読み出された曲データのレコード中、ノートオンイベントおよび次のタイムに基づき、音符位置および音符種別を含む音符データを生成する(ステップ2005)。また、ノートオフイベントおよび次のタイムに基づく休符データも、ステップ2005において生成される。
The
次いで、CPU21は、ステップ1605で生成された音符データおよび休符データにしたがった音符や休符を、五線譜中に配置した画像データを生成する(ステップ2006)。また、CPU21は、上記画像中の音符や休符の各々の位置情報(座標)を、RAM23中に格納する(ステップ2007)。また、CPU21は、表示部12の画面上に表示された音符および休符に対応する曲データのレコードのアドレス(たとえば最終アドレス)を、アドレスDADとしてRAM23に格納する(ステップ2008)。
Next, the
楽譜更新処理(ステップ306)が終了すると、CPU21は、その他の処理を実行して(ステップ307)、ステップ302に戻る。その他の処理には、外部I/F28を介したメモリカードからのデータの読み出し、メモリカードへのデータ書き込み、外部ネットワークを介した他の機器とのデータ送受信などが含まれる。
When the score update process (step 306) is completed, the
本実施の形態において、演奏モードが第1の自動演奏モード(MODE=1)である場合には、表示部12の画面上に表示された画像において、カーソルにて示された音符の周辺領域に演奏者の指が触れない限り、自動演奏が進行しない。すなわち、ガイド判定処理において、エラーフラグERRF(KEY)に「1」がセットされるため(ステップ1709)、ガイド処理において、曲データの次のレコードの読み出しが行なわれない(ステップ1809でNo)。
In the present embodiment, when the performance mode is the first automatic performance mode (MODE = 1), in the image displayed on the screen of the
図21(a)、(b)は、それぞれ、表示部の画面上に表示された楽譜の例を示す図である。図21(a)では、画像2100の楽譜において、音符2101の周辺領域(符号2102)を、演奏者が指で触るべきことを示している。なお、本実施の形態において、音符の周辺領域を、画像上に表示しても良いし、表示しなくても良い。周辺領域を表示する場合に、第1の領域および第2の領域をそれぞれ表示しても良いし、周辺領域の外郭を画定する第2の領域のみを表示しても良い。また、画像2100においては、カーソル2103が音符2101を指している。これにより、演奏者に、音符2101(およびその付近)を触れるべきことが示される。
FIGS. 21A and 21B are diagrams showing examples of musical scores displayed on the screen of the display unit. FIG. 21A shows that the player should touch the peripheral area (reference numeral 2102) of the
また、第1の自動演奏モードの下では、演奏者の指が、上記音符2101の周辺領域に触れるまで、カーソルはその位置に留まり、また、自動演奏も進行しない。その一方、第2の自動演奏モードの下では、演奏者の指が、音符2101の周辺領域に触れるか否かにかかわらず、音符2101に規定する時間(4分音符に相当する時間)が経過すると、自動演奏は進行する。
Also, under the first automatic performance mode, the cursor remains in that position until the performer's finger touches the peripheral area of the
図21(b)では、画像2110の楽譜において、音符2104の周辺領域(符号21025)を、演奏者が指で触るべきことを示している。第1の演奏モードの下においては、上述したように、演奏者の指が、上記音符2101の周辺領域に触れることにより、図21(b)に示すような画像に移行する。第2の演奏モードの下においては、音符2101に規定する時間(4分音符に相当する時間)が経過することにより、図21(b)に示すような画像に移行する。
FIG. 21B shows that the player should touch the peripheral area (reference numeral 21025) of the
本実施の形態によれば、CPU21は、表示部12の画面上に表示された楽譜中の音符のそれぞれの位置と、タッチパネル13上の演奏者による接触位置とを比較して、接触位置が、何れかの音符の位置を含む周辺領域内であるかを判断して、接触位置が、周辺領域内である場合に、当該音符の音高に基づくノートオンイベントを生成して、音源部26に出力する。これにより、音源部26により所定の音高の楽音データが生成される。このように、本実施の形態によれば、演奏者が、表示画面上の音符或いはその周辺領域に触れることにより、楽曲を構成する音符に対応する楽音を発生することができる。したがって、楽譜表示から、その音符表記の解釈を経ることなく、直接的に楽音を発生することが可能となる。
According to the present embodiment, the
また、本実施の形態においては、CPU21は、楽曲を構成する音符と対応するように、当該音符の音高情報およびその発音タイミングを示す時間情報を少なくとも含む曲データに基づき、楽曲を構成する音高の楽音を順次発音するようノートオンイベントを制御することで、楽曲を進行させる。したがって、上述した表示部12の画面上に表示された音符の周辺に触れることで楽音を発音させるような装置で、自動演奏を実現することができる。
Further, in the present embodiment, the
本実施の形態において、第1の自動演奏モードの下では、CPU21は、演奏者による接触位置が、発音すべき楽音に対応する音符の周辺領域である場合に、曲データに基づき、楽曲を進行させるように構成されている。したがって、演奏者が、楽曲において発音すべき正しい音符(の周辺)を触れることにより楽曲を進行させることができる。
In the present embodiment, under the first automatic performance mode, the
また、本実施の形態においては、CPU21は、曲データに基づき、楽曲において現在発音すべき楽音に対応する音符を指し示すカーソルを、楽譜中に表示する。したがって、演奏者は、どの音符(の周辺)に触れるべきかを容易に知ることが可能となる。
In the present embodiment, the
また、本実施の形態によれば、周辺領域が、音符を含む第1の領域と、第2の領域の周囲に位置する第2の領域と、を有し、CPU21は、演奏者による接触位置が、音符の位置の第1の領域、或いは、第2の領域内であるかを判断し、接触位置が属する領域に基づき楽音の音高を決定する。これにより、演奏者による接触位置と音符との近さに基づいて音高を変化させることが可能となる。
Further, according to the present embodiment, the peripheral area has the first area including the musical notes and the second area located around the second area, and the
さらに、第2の領域は、音符が配置される五線と垂直方向において、音符より上側に位置する上側領域(b+領域)と、下側に位置する下側領域(b−領域)とを備える。CPU21は、演奏者による接触位置が、第1の領域内である場合には、発音すべき楽音の音高を、音符の音高に対応する音高と決定し、上側領域である場合には、音符の音高より所定だけ高い音高(たとえば半音高い音高)と決定し、また、下側領域である場合には、前記音符の音高より所定だけ低い音高(たとえば半音低い音高)と決定する。
Furthermore, the second region includes an upper region (b + region) located above the note and a lower region (b− region) located below the note in the direction perpendicular to the staff on which the note is arranged. . When the contact position by the performer is within the first area, the
次に、本発明の第2の実施の形態について説明する。第1の実施の形態においては、図10に示すように、音符1000が配置されている位置から、所定の第1の半径の範囲(符号1001参照)内を第1の領域(a領域)、所定の第2の半径(>第1の半径)の範囲(符号1002参照)内を第2の領域(b領域)としている。さらに、第2の領域(b領域)において、そのY座標が、音符の位置のY座標より小さいような領域を、b−領域(符号1003参照)、そのY座標が、音符の位置のY座標以上であるような領域をb+領域(符号1003参照)としている。 Next, a second embodiment of the present invention will be described. In the first embodiment, as shown in FIG. 10, the first area (a area) within a predetermined first radius range (see reference numeral 1001) from the position where the note 1000 is arranged, A range (see reference numeral 1002) within a predetermined second radius (> first radius) is defined as a second region (b region). Furthermore, in the second area (b area), an area whose Y coordinate is smaller than the Y coordinate of the note position is a b-area (see reference numeral 1003), and the Y coordinate is the Y coordinate of the note position. The region as described above is defined as a b + region (see reference numeral 1003).
第1の実施の形態では、演奏者の指が、第1の領域(a領域)にある場合には、音符に対応する音高の楽音が発音される。また、演奏者の指が、b−領域にある場合には、音符に対応する音高より半音下の音高の楽音が発音され、演奏者の指がb+領域にある場合には、音符に対応する音高より半音上の音高の楽音が発音される。 In the first embodiment, when the performer's finger is in the first area (area a), a musical tone having a pitch corresponding to a note is generated. When the performer's finger is in the b-region, a musical tone having a pitch that is a semitone below the pitch corresponding to the note is generated, and when the performer's finger is in the b + region, A tone that is a semitone above the corresponding pitch is produced.
第2の実施の形態においても、音符2200の周囲に第1の領域および第2の領域(b−領域およびb+領域)が設けられているが、第1の領域の形状が、第1の実施の形態と異なる。図22(a)は、第2の実施の形態にかかる周辺領域の例を示す図である。図22(a)に示すように、この例では、第1の領域2201の長径は、第2の領域2202の直径と等しく、したがって、左右端で第1の領域2201と第2の領域2202とは接触している(符号2205、2206参照)。
Also in the second embodiment, the first region and the second region (b− region and b + region) are provided around the
また、第1の実施の形態と同様に、第2の領域において、そのY座標が、音符の位置のY座標より小さいような領域を、b−領域(符号2203参照)、そのY座標が、音符の位置のY座標以上であるような領域をb+領域(符号2204参照)としている。 Similarly to the first embodiment, in the second area, an area whose Y coordinate is smaller than the Y coordinate of the note position is a b-area (see reference numeral 2203), and the Y coordinate is A region that is equal to or greater than the Y coordinate of the note position is defined as a b + region (see reference numeral 2204).
第2の実施の形態においても、演奏者の指が、第1の領域(a領域)(符号2201参照)にある場合には、音符に対応する音高の楽音が発音される。また、演奏者の指が、b−領域(符号2203参照)にある場合には、音符に対応する音高より半音下の音高の楽音が発音され、演奏者の指がb+領域(符号2204参照)にある場合には、音符に対応する音高より半音上の音高の楽音が発音される。 Also in the second embodiment, when the performer's finger is in the first area (area a) (see reference numeral 2201), a musical tone having a pitch corresponding to a note is generated. When the performer's finger is in the b-region (see reference numeral 2203), a musical tone having a pitch that is a semitone below the pitch corresponding to the note is generated, and the performer's finger is in the b + region (reference numeral 2204). In the case of (see), a musical tone having a pitch that is a semitone above the pitch corresponding to the note is generated.
また、演奏者の指が、タッチパネル13の画面上に触れた状態で周辺領域などを移動した場合の音高の変化は、第1の実施の形態と同様である(図8ないし図10参照)。
Also, the change in pitch when the performer's finger moves around the surrounding area while touching the screen of the
第2の実施の形態においては、左右端において、第1の領域と第2の領域とが接触している。したがって、演奏者の指が、ある音符のb−領域からb+領域に、或いは、ある音符のb+領域からb−領域に直接移動することがない。したがって、ユーザの指の動きに伴って、発音される音高は、実際の音符の音高の半音上から半音下に直接変化し、或いは、実際の音符の音高の半音下から半音上に直接変化するような、大きな音高変化は生じない。 In the second embodiment, the first region and the second region are in contact at the left and right ends. Therefore, the performer's finger does not move directly from the b− region of a certain note to the b + region or from the b + region of a certain note to the b− region. Therefore, as the user's finger moves, the pitch that is pronounced changes directly from one semitone above the actual note pitch to one semitone below, or from one semitone below the semitone above the actual note pitch. There is no big pitch change that changes directly.
次に、本発明の第3の実施の形態について説明する。図22(b)は、第3の実施の形態にかかる周辺領域の例を示す図である。図22(b)に示すように、第3の実施の形態では、第1の領域(符号2211参照)および第2の領域(符号2212参照)の間に、第3の領域(符号2213参照)が設けられている(第1の領域の半径<第3の領域の半径<第2の領域の半径)。第3の領域も、第2の領域と同様に、Y座標が音符の位置するY座標より小さいこと、或いは、大きいことにしたがって、c−領域(符号2216参照)とc+領域(符号2217参照)とを含んでいる。 Next, a third embodiment of the present invention will be described. FIG. 22B is a diagram illustrating an example of a peripheral region according to the third embodiment. As shown in FIG. 22B, in the third embodiment, a third area (see reference numeral 2213) is provided between the first area (refer to reference numeral 2211) and the second area (refer to reference numeral 2212). (The radius of the first region <the radius of the third region <the radius of the second region). Similarly to the second region, the third region also has a c− region (see reference numeral 2216) and a c + region (see reference numeral 2217) according to whether the Y coordinate is smaller or larger than the Y coordinate where the note is located. Including.
第3の実施の形態においては、領域に対応して以下に示す音高の楽音が発音されるようになっている。 In the third embodiment, musical tones having the following pitches are generated corresponding to the areas.
演奏者の指が、a領域(符号2211参照)にある場合には、音符に対応する音高の楽音が発音される。 When the performer's finger is in the region a (see reference numeral 2211), a musical tone having a pitch corresponding to the note is generated.
演奏者の指が、b−領域(符号2214参照)にある場合には、音符に対応する音高より半音下の音高の楽音が発音され、演奏者の指がb+領域(符号2215参照)にある場合には、音符に対応する音高より半音上の音高の楽音が発音される。 If the performer's finger is in the b-region (see reference numeral 2214), a musical tone having a pitch that is a semitone below the pitch corresponding to the note is generated, and the performer's finger is in the b + region (see reference numeral 2215). In the case of, a musical tone having a pitch that is a semitone above the pitch corresponding to the note is generated.
演奏家の指が、c−領域(符号2216参照)にある場合には、音符に対応する音高より1/4音下の音高の楽音が発音され、演奏者の指がc+領域(符号2217参照)にある場合には、音符に対応する音高より1/4音上の楽音が発音される。 When the performer's finger is in the c-region (see reference numeral 2216), a musical tone having a pitch that is ¼ lower than the pitch corresponding to the note is generated, and the performer's finger is in the c + region (reference sign 2217), a musical tone that is 1/4 sound higher than the pitch corresponding to the note is generated.
なお、第3の実施の形態においても、演奏者の指が、タッチパネル13の画面上に触れた状態で周辺領域などを移動した場合の音高の変化は、第1の実施の形態と同様である(図8ないし図10参照)。
In the third embodiment as well, the change in pitch when the performer's finger moves around the surrounding area while touching the screen of the
第3の実施の形態においては、演奏者の指の動きに基づいて、より細かい音程変化を実現することが可能となる。 In the third embodiment, a finer pitch change can be realized based on the movement of the performer's finger.
本発明は、以上の実施の形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。 The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the claims, and these are also included in the scope of the present invention. Needless to say.
たとえば、第1の実施の形態および第2の実施の形態では、周辺領域として、第1の領域(a領域)と第2の領域(b+領域およびb−領域)を設け、第1の領域(a領域)、b+領域、b−領域のそれぞれにおいて、表示された音符の音高に基づく所定の音高を対応付けている。しかしながら、これに限定されず、周辺領域として、第1の領域(a領域)だけを設け、演奏者の指が第1の領域に接触したときに、音符に対応する音高の楽音を発音するように構成しても良い。 For example, in the first embodiment and the second embodiment, as the peripheral region, a first region (a region) and a second region (b + region and b− region) are provided, and the first region ( A predetermined pitch based on the pitch of the displayed note is associated with each of the a region), b + region, and b− region. However, the present invention is not limited to this, and only the first region (a region) is provided as a peripheral region, and when the performer's finger contacts the first region, a musical tone having a pitch corresponding to the note is generated. You may comprise as follows.
また、本実施の形態においては、ノートオンイベント、タイム、ノートオフイベント、および、タイムのレコードを含む曲データに基づいて、音符の音高および音長や、所定の長さの休符を含む楽譜データを生成し、表示部12の画面上、所定の位置に音符、休符のシンボルを配置したような楽譜を表示している。しかしながら、これに限定されるものではなく、曲データとは別に音符および音長、並びに、休符の種別を示すレコードを含む楽譜データをフラッシュメモリ24に格納し、CPU21が、楽譜データを読み出して、表示部12の画面上、所定の位置に音符や休符のシンボルを配置したような楽譜を表示しても良い。
In the present embodiment, note pitches and pitches, and rests of a predetermined length are included based on song data including note-on events, times, note-off events, and time records. Music score data is generated, and a musical score in which notes and rest symbols are arranged at predetermined positions on the screen of the
さらに、第1の実施の形態において、第1の自動演奏モードの下で、発音すべき音符の周辺領域(第1の周辺領域或いは第2の周辺領域)に、演奏者の指が触れることにより、楽曲が進行するように構成されているが、これに限定されるものではなく、周辺領域のうち、第1の周辺領域に演奏者の指が触れた場合のみ、楽曲が進行するように構成しても良い。 Further, in the first embodiment, the player's finger touches the peripheral area (the first peripheral area or the second peripheral area) of the note to be sounded under the first automatic performance mode. The music is configured to progress, but is not limited to this, and the music is configured to progress only when the player's finger touches the first peripheral area in the peripheral area. You may do it.
また、前記実施の形態においては、自動演奏モードの下では、表示部12の画面上に、演奏者が触れるべき音符を指し示すカーソルが表示されるようになっている。しかしながらこれに限定されるものではなく、他の形態の音符指示子を用いても良い。図23(a)、(b)は、それぞれ、本発明の他の実施の形態において、表示部の画面上に表示された楽譜の例を示す図である。図23(a)は、画像2100の楽譜において、音符2301の周辺領域(符号2302)を、演奏者が指で触るべきことを示している。この例では、CPU21は、音符指示子として、指で触るべき音符2301の周辺領域の外郭を示す印(本例では円形の印)を、楽譜上に表示している。
In the embodiment, under the automatic performance mode, a cursor indicating the note to be touched by the performer is displayed on the screen of the
第1の実施の形態と同様に、第1の自動演奏モードの下では、演奏者の指が、上記音符2301の周辺領域に触れるまで、上記円形の音符指示子はその位置に留まり、また、自動演奏も進行しない。その一方、第2の自動演奏モードの下では、演奏者の指が、音符2301の周辺領域に触れるか否かにかかわらず、音符2301に規定する時間(4分音符に相当する時間)が経過すると、自動演奏は進行する。
As in the first embodiment, under the first automatic performance mode, the circular note indicator remains in that position until the performer's finger touches the peripheral area of the
図23(b)では、画像2310の楽譜において、音符2311の周辺領域(符号2312)を、演奏者が指で触るべきことを示している。CPU21は、音符指示子として、指で触るべき音符2311の周辺領域の外郭を示す印(本例では円形の印)を、楽譜上に表示している。第1の演奏モードの下においては、上述したように、演奏者の指が、上記音符2301の周辺領域に触れることにより、図23(b)に示すような画像に移行する。第2の演奏モードの下においては、音符2301に規定する時間(4分音符に相当する時間)が経過することにより、図23(b)に示すような画像に移行する。
FIG. 23B shows that the player should touch the peripheral area (reference numeral 2312) of the
このように本発明の他の実施の形態によれば、音符指示子が周辺領域に対応するため、演奏者に、指で触れるべき音符およびその触れるべき領域を知らせることが可能となる。 As described above, according to another embodiment of the present invention, the note indicator corresponds to the peripheral area, so that it is possible to inform the player of the note to be touched by the finger and the area to be touched.
10 楽音生成装置
11 スイッチ部
12 表示部
13 タッチパネル
14 スピーカ
21 CPU
22 ROM
23 RAM
24 フラッシュメモリ
25 サウンドシステム
26 音源部
27 オーディオ回路
DESCRIPTION OF
22 ROM
23 RAM
24
Claims (7)
当該表示装置に重ねて配置されたタッチパネルと、
楽曲を構成する音符のそれぞれの種別および音長を示す情報を有する楽譜データに基づき、前記表示装置の画面において、五線譜中に当該音符のシンボルを配置したような楽譜を表示する楽譜生成手段と、
前記タッチパネル上での演奏者による接触および接触位置を検出する接触検出手段と、
前記表示装置の画面上に表示された音符のそれぞれの位置と、前記タッチパネル上の接触位置とを比較して、前記接触位置が、前記何れかの音符の位置を含む所定の周辺領域内であるかを判断する領域判定手段と、
前記接触位置が、前記音符の位置を含む前記周辺領域内である場合に、当該音符の音高に基づく楽音を生成する楽音生成手段と、
前記楽曲を構成する音符と対応するように、当該音符の音高情報およびその発音タイミングを示す時間情報を少なくとも含む曲データに基づき、前記楽曲を構成する音高の楽音を順次発音するよう前記楽音生成手段を制御して、前記楽曲を進行させる自動演奏手段と、を備えたことを特徴とする楽音生成装置。 A display device;
A touch panel arranged over the display device;
A score generating means for displaying a score in which a symbol of the note is arranged in a staff notation on the screen of the display device based on score data having information indicating the type and length of each note constituting the music;
Contact detection means for detecting contact and contact position by the player on the touch panel;
The position of each note displayed on the screen of the display device is compared with the contact position on the touch panel, and the contact position is within a predetermined peripheral area including the position of any one of the notes. Area determination means for determining whether or not
A musical sound generating means for generating a musical sound based on the pitch of the note when the contact position is within the peripheral region including the position of the note;
The musical tone so that the musical notes of the pitches constituting the musical piece are sequentially generated based on the musical piece data including at least the pitch information of the musical notes and the time information indicating the sounding timing thereof so as to correspond to the musical notes constituting the musical piece. A musical sound generating apparatus comprising: an automatic performance means for controlling the generating means to advance the music piece.
前記領域判定手段が、前記接触位置が、前記音符の位置の第1の領域、或いは、第2の領域内であるかを判断し、
前記楽音生成手段が、前記接触位置が属する領域に基づき楽音の音高を決定することを特徴とする請求項1ないし4の何れか一項に記載の楽音生成装置。 The peripheral region includes a first region including the notes, and a second region located around the second region;
The area determination means determines whether the contact position is within a first area or a second area of the note position;
5. The musical sound generating apparatus according to claim 1, wherein the musical sound generating means determines a pitch of a musical sound based on a region to which the contact position belongs.
前記楽音生成手段が、前記接触位置が、前記第1の領域内である場合には、前記、発音すべき楽音の音高を、前記音符の音高に対応する音高と決定し、前記第2の領域のうち上側領域である場合には、前記音符の音高より所定だけ高い音高と決定し、また、前記第2の領域のうち、下側領域である場合には、前記音符の音高より所定だけ低い音高と決定することを特徴とする請求項5に記載の楽音生成装置。 The second region further includes an upper region located above the notes in a direction perpendicular to the staff on which the notes are arranged, and a lower region located below.
If the contact position is within the first region, the tone generation means determines the pitch of the tone to be generated as the pitch corresponding to the pitch of the note; In the case of the upper region of the two regions, the pitch is determined to be higher than the pitch of the note by a predetermined amount, and in the case of the lower region of the second region, the pitch of the note is determined. 6. The musical tone generation apparatus according to claim 5, wherein the musical tone generation apparatus determines a pitch lower than the pitch by a predetermined amount.
楽曲を構成する音符のそれぞれの種別および音長を示す情報を有する楽譜データに基づき、前記表示装置の画面において、五線譜中に当該音符のシンボルを配置したような楽譜を表示する楽譜生成ステップと、
前記タッチパネル上での演奏者による接触および接触位置を検出する接触検出ステップと、
前記表示装置の画面上に表示された音符のそれぞれの位置と、前記タッチパネル上の接触位置とを比較して、前記接触位置が、前記何れかの音符の位置を含む所定の周辺領域内であるかを判断する領域判定ステップと、
前記接触位置が、前記音符の位置を含む前記周辺領域内である場合に、当該音符の音高に基づく楽音を生成する楽音生成ステップと、
前記楽曲を構成する音符と対応するように、当該音符の音高情報およびその発音タイミングを示す時間情報を少なくとも含む曲データに基づき、前記楽曲を構成する音高の楽音を順次発音させて、前記楽曲を進行させる自動演奏ステップと、を実行させることを特徴とする楽音生成プログラム。 In a computer provided with a display device and a touch panel arranged on the display device,
A score generation step of displaying a score in which the symbols of the notes are arranged in the staff notation on the screen of the display device based on the score data having information indicating the type and length of each note constituting the music;
A contact detection step of detecting contact and a contact position by a player on the touch panel;
The position of each note displayed on the screen of the display device is compared with the contact position on the touch panel, and the contact position is within a predetermined peripheral area including the position of any one of the notes. An area determination step for determining whether or not
A musical sound generation step for generating a musical sound based on the pitch of the note when the contact position is within the peripheral region including the position of the note; and
Based on the song data including at least the pitch information of the note and the time information indicating the sounding timing thereof so as to correspond to the notes constituting the song, the musical sounds of the pitches constituting the song are sequentially sounded, A musical sound generating program characterized by executing an automatic performance step for advancing music.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010253506A JP2012103575A (en) | 2010-11-12 | 2010-11-12 | Musical tone generating device and musical tone generating program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010253506A JP2012103575A (en) | 2010-11-12 | 2010-11-12 | Musical tone generating device and musical tone generating program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012103575A true JP2012103575A (en) | 2012-05-31 |
Family
ID=46394008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010253506A Pending JP2012103575A (en) | 2010-11-12 | 2010-11-12 | Musical tone generating device and musical tone generating program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012103575A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014056232A (en) * | 2012-08-14 | 2014-03-27 | Yamaha Corp | Music information display controller |
WO2024122278A1 (en) * | 2022-12-06 | 2024-06-13 | ヤマハ株式会社 | Object placement method, sound reproduction method, object placement device, sound reproduction device, and performance device |
-
2010
- 2010-11-12 JP JP2010253506A patent/JP2012103575A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014056232A (en) * | 2012-08-14 | 2014-03-27 | Yamaha Corp | Music information display controller |
US9105259B2 (en) | 2012-08-14 | 2015-08-11 | Yamaha Corporation | Music information display control method and music information display control apparatus |
WO2024122278A1 (en) * | 2022-12-06 | 2024-06-13 | ヤマハ株式会社 | Object placement method, sound reproduction method, object placement device, sound reproduction device, and performance device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8961309B2 (en) | System and method for using a touchscreen as an interface for music-based gameplay | |
JP5041015B2 (en) | Electronic musical instrument and musical sound generation program | |
JP5247742B2 (en) | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM | |
JP5549521B2 (en) | Speech synthesis apparatus and program | |
JPH11296168A (en) | Performance information evaluating device, its method and recording medium | |
JP5630218B2 (en) | Musical sound generation device and musical sound generation program | |
JP4874110B2 (en) | Functional operation of keyboard instruments | |
JP2012103575A (en) | Musical tone generating device and musical tone generating program | |
US8878044B2 (en) | Processing device and method for displaying a state of tone generation apparatus | |
JP5803705B2 (en) | Electronic musical instruments | |
JP2018054767A (en) | Electronic musical instrument, its sound production control method, and program | |
JP5821170B2 (en) | Electronic music apparatus and program | |
JP2010117419A (en) | Electronic musical instrument | |
JP7007533B2 (en) | Stringed instrument pseudo-sound generator, and stringed instrument pseudo-sound generator | |
JP4853054B2 (en) | Performance data editing apparatus and program | |
JP7425558B2 (en) | Code detection device and code detection program | |
KR100382079B1 (en) | Apparatus and control method for portable information terminal using music | |
JP2019061085A (en) | Scale conversion device, electronic wind instrument, scale conversion method and scale conversion program | |
JP5692275B2 (en) | Electronic musical instruments | |
JP5564921B2 (en) | Electronic musical instruments | |
JP5195209B2 (en) | Performance data editing apparatus and program | |
JP4880537B2 (en) | Music score display device and program for music score display | |
JP6766397B2 (en) | Performance assistance display device and performance assistance display method | |
JP2023045357A (en) | Electronic music instrument, method and program | |
JP3948246B2 (en) | Performance learning apparatus and performance learning processing program |