JP5346844B2 - GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM - Google Patents

GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM Download PDF

Info

Publication number
JP5346844B2
JP5346844B2 JP2010038799A JP2010038799A JP5346844B2 JP 5346844 B2 JP5346844 B2 JP 5346844B2 JP 2010038799 A JP2010038799 A JP 2010038799A JP 2010038799 A JP2010038799 A JP 2010038799A JP 5346844 B2 JP5346844 B2 JP 5346844B2
Authority
JP
Japan
Prior art keywords
state
guide image
user
moves
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010038799A
Other languages
Japanese (ja)
Other versions
JP2011172729A (en
Inventor
将史 竹廣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2010038799A priority Critical patent/JP5346844B2/en
Publication of JP2011172729A publication Critical patent/JP2011172729A/en
Application granted granted Critical
Publication of JP5346844B2 publication Critical patent/JP5346844B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a game device or the like suitable for presenting timing at which a user performs operation. <P>SOLUTION: The game device 300 includes: a display part 301 for displaying on a screen a moving image in which a guide image moves from a first position to a second position at prescribed speed and then the guide image moves from the second position to the first position at the prescribed speed; a detection part 302 for detecting a state of an operation body being in either a first state or a second state by a user's operation; and a determination part 303 for determining that the user's operation is successful when a state of the detected operation body: (a) is in the first state during the period of time when the guide image moves from the first position to the second position; (b) is in the second state during the period of time when the guide image moves from the second position to the first position; and (c) moves from the second state to the first state when the guide image reaches the first position. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、ユーザが操作を行うべきタイミングを提示するのに好適なゲーム装置、ゲーム制御方法、及び、これらをコンピュータにて実現するためのプログラムに関する。   The present invention relates to a game apparatus, a game control method, and a program for realizing these on a computer, which are suitable for presenting a timing at which a user should perform an operation.

音楽のリズムに合わせてユーザが操作する、いわゆる音楽ゲーム(リズムゲーム)が知られている。音楽ゲームは、例えば、画面上に順次表示される案内画像が、基準画像に到達したときに、ユーザがタイミングよく操作をすることにより進行するゲームである(例えば、特許文献1参照)。案内画像が基準画像付近に到達した際に、ユーザが当該案内画像に対応する操作をすることにより、当該案内画像は画面上から消滅する(例えば、特許文献1段落0053乃至0059、図3参照)。特許文献1では、ユーザの入力タイミングに対応付けられたメッセージ(例えば、「GREAT」、「GOOD」等)が画面上に表示される。   A so-called music game (rhythm game) operated by a user in accordance with a music rhythm is known. A music game is, for example, a game that progresses when a user operates with good timing when guide images sequentially displayed on a screen reach a reference image (see, for example, Patent Document 1). When the guide image reaches the vicinity of the reference image, when the user performs an operation corresponding to the guide image, the guide image disappears from the screen (see, for example, Patent Document 1, paragraphs 0053 to 0059 and FIG. 3). . In Patent Document 1, a message (for example, “GREAT”, “GOOD”, etc.) associated with the input timing of the user is displayed on the screen.

特開2001−222280号公報JP 2001-222280 A

しかしながら、案内画像等を表示する表示範囲が、携帯電話や携帯型のゲーム装置のように限られている場合、複数の案内画像が画面上に表示されると、それぞれの案内画像の表示が小さくなってしまうことがあり、当該案内画像を見づらいと感じるユーザが存在した。一方、通常のリズムゲームでは、操作すべきタイミングをユーザが知る際に画面内の見る位置が大きく移動すると、見づらいことがある。従って、操作すべきタイミングをユーザにわかりやすく提示する技術が求められている。   However, when the display range for displaying a guide image or the like is limited as in a mobile phone or a portable game device, when a plurality of guide images are displayed on the screen, the display of each guide image is small. In some cases, there are users who find it difficult to view the guidance image. On the other hand, in a normal rhythm game, it may be difficult to see if the viewing position in the screen moves greatly when the user knows the timing to operate. Therefore, there is a demand for a technique for presenting the timing to be operated to the user in an easy-to-understand manner.

本発明は、上記問題に鑑みてなされたものであり、ユーザが操作を行うべきタイミングを提示するのに好適なゲーム装置、ゲーム制御方法、及び、これらをコンピュータにて実現するためのプログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and provides a game device, a game control method, and a program for realizing these on a computer, which are suitable for presenting a timing at which a user should perform an operation. The purpose is to do.

上記の目的を達成するため、本発明の第1の観点に係るゲーム装置は、表示部と、検知部と、判定部と、を含んで構成される。   In order to achieve the above object, a game device according to a first aspect of the present invention includes a display unit, a detection unit, and a determination unit.

まず、表示部は、第1の位置から第2の位置へ所定の速度で案内画像が移動し、その後、当該第2の位置から当該第1の位置へ当該所定の速度で当該案内画像が移動する動画像を画面に表示する。   First, the display unit moves the guide image from the first position to the second position at a predetermined speed, and then moves the guide image from the second position to the first position at the predetermined speed. The moving image to be displayed is displayed on the screen.

ここで、第1の位置及び第2の位置は、画面上の任意の位置である。案内画像が、第1の位置と第2の位置との間を移動するため、両位置が一定距離以上離れているのが典型的である。
また、案内画像とは、ユーザに対して操作を促すための任意の画像をいう。
また、所定の速度とは、好ましくは等速度であるが、速度が可変してもよい。また、案内画像が、第1の位置から第2の位置へ移動する速度と、第2の位置から第1の位置へ移動する速度と、が異なってもよい。
Here, the first position and the second position are arbitrary positions on the screen. Since the guide image moves between the first position and the second position, both positions are typically separated by a certain distance or more.
A guidance image is an arbitrary image for prompting the user to perform an operation.
The predetermined speed is preferably equal speed, but the speed may be variable. The speed at which the guide image moves from the first position to the second position may be different from the speed at which the guide image moves from the second position to the first position.

案内画像は、第1の位置から現れて、所定の経路をたどって、第2の位置まで移動する。案内画像が第2の位置に到達すると、当該案内画像は、所定時間の間、第2の位置に留まり、所定の経路をたどって、第1の位置へ移動する。そして、案内画像が、第1の位置に到達すると、画面上から消える。   The guide image appears from the first position, follows a predetermined route, and moves to the second position. When the guide image reaches the second position, the guide image stays at the second position for a predetermined time, and moves to the first position along a predetermined route. Then, when the guide image reaches the first position, it disappears from the screen.

なお、案内画像が、第1の位置から第2の位置まで移動する経路と、第2の位置から第1の位置まで移動する経路と、は、典型的には同一であるが、異なってもよい。   Note that the route through which the guide image moves from the first position to the second position and the route through which the guide image moves from the second position to the first position are typically the same, but may be different. Good.

次に、検知部は、ユーザの操作により第1の状態と第2の状態とのいずれかの状態となる操作体の状態を検知する。   Next, a detection part detects the state of the operation body which will be in any one of a 1st state and a 2nd state by a user's operation.

ここで、操作体とは、ユーザからの入力操作を受け付けるための装置をいい、例えば、タッチパネル、コントローラ、キーボード、マウス等に相当する。
また、第1の状態とは、ユーザからの入力操作がない状態、または、ユーザが指定される入力操作を行っていない状態をいう。また、第2の状態とは、ユーザが指定される入力操作を行っている状態をいう。
Here, the operating body refers to a device for accepting an input operation from the user, and corresponds to, for example, a touch panel, a controller, a keyboard, a mouse, and the like.
The first state refers to a state where there is no input operation from the user, or a state where the input operation specified by the user is not performed. The second state refers to a state in which an input operation designated by the user is being performed.

次に、判定部は、検知された操作体の状態が、
(a)案内画像が第1の位置から第2の位置へ移動する間、第1の状態であり、
(b)案内画像が第2の位置から第1の位置へ移動する間、第2の状態であり、
(c)案内画像が第1の位置に到達したときに、第2の状態から第1の状態に移行する、
場合、当該ユーザの操作が成功したと判定する。
Next, the determination unit determines that the detected state of the operating body is
(A) While the guide image moves from the first position to the second position, the first state is maintained;
(B) While the guide image moves from the second position to the first position, the second state is maintained.
(C) when the guide image reaches the first position, the second state is shifted to the first state;
In this case, it is determined that the user's operation is successful.

画面上には、所定の距離だけ離れた第1の位置と第2の位置とがあり、両位置の間を移動する案内画像が表示される。ユーザは、第1の位置から第2の位置へ移動する案内画像の位置を視認しながら、入力操作を行うタイミングを確認する。そして、当該案内画像が第2の位置に到達した時点において、入力操作が要求される。入力操作の具体例としては、操作体がタッチスクリーンであれば、タッチすること、操作体がボタンであれば、ボタンを押下すること、である。当該時点においてタッチ等が行われると、ユーザの操作が成功したと判定される。   On the screen, there are a first position and a second position that are separated by a predetermined distance, and a guide image that moves between the two positions is displayed. The user confirms the timing of performing the input operation while visually recognizing the position of the guide image moving from the first position to the second position. Then, when the guide image reaches the second position, an input operation is requested. Specific examples of the input operation include touching if the operating body is a touch screen, and pressing the button if the operating body is a button. When a touch or the like is performed at the time, it is determined that the user's operation is successful.

次に、案内画像が第2の位置に到達してから第1の位置に到達するまでの間、入力操作の継続が要求される。入力操作の継続の具体例としては、操作体がタッチスクリーンであれば、タッチし続けること、操作体がボタンであれば、ボタンを押下し続けること、である。そして、案内画像が第1の位置に到達した時点において、入力操作の解除、すなわち、タッチの解除やボタン押下の解除、が要求される。当該時点においてタッチの解除等が行われると、ユーザの操作が成功したと判定される。   Next, the continuation of the input operation is requested until the guide image reaches the first position after reaching the second position. As a specific example of the continuation of the input operation, if the operating body is a touch screen, the user continues to touch, and if the operating body is a button, the button is continuously pressed. When the guide image reaches the first position, the input operation is requested to be released, that is, the touch release or the button press release is requested. When the touch is released at the time, it is determined that the user operation is successful.

携帯電話や携帯型のゲーム装置のように画面サイズが小さく、表示範囲が制限されるおそれがある場合であっても、ユーザは、タッチ等の操作を行うべき第2の位置と、タッチの解除等の操作を行うべき第1の位置と、の2つの位置に到達する案内画像を視認するだけで、操作を行うべきタイミングを確認することができる。また、案内画像が表示される範囲は、第1の位置と第2の位置との間に限られているため、ユーザの視線の移動を少なくすることができる。   Even when the screen size is small and there is a possibility that the display range may be limited, such as a mobile phone or a portable game device, the user can cancel the touch of the second position where an operation such as a touch should be performed. The timing at which the operation should be performed can be confirmed simply by visually recognizing the guide image that reaches the two positions, i.e., the first position where the operation should be performed. Moreover, since the range in which the guidance image is displayed is limited between the first position and the second position, the movement of the user's line of sight can be reduced.

このため、本発明によれば、操作すべきタイミングをユーザにわかりやすく提示することができる。また、ユーザの視線の移動を少なくすることにより、操作すべきタイミングをユーザにわかりやすく提示することができる。   For this reason, according to this invention, the timing which should be operated can be shown to a user in an easy-to-understand manner. In addition, by reducing the movement of the user's line of sight, the timing to be operated can be presented to the user in an easy-to-understand manner.

また、本発明に係るゲーム装置は、出力部を含んで構成することもできる。   The game device according to the present invention can also be configured to include an output unit.

出力部は、検知された操作体の状態が、第2の状態である間、所定の音声を出力する。   The output unit outputs a predetermined sound while the detected state of the operating body is in the second state.

ここで、所定の音声は、任意の音量、音程、及び、音色等から構成される音声である。ユーザが、タッチスクリーンをタッチすると音声が出力され、タッチされている間、音声が出力され続ける。そして、タッチが解除されると、音声の出力が停止される。このため、ユーザの操作が成功したと判定される場合、すなわち、案内画像が、第2の位置に到達した時点から当該第2の位置を離れて第1の位置に到達するまでの間、タッチスクリーンをタッチする操作が継続されると、音声が出力される。   Here, the predetermined sound is sound composed of an arbitrary volume, pitch, tone color, and the like. When the user touches the touch screen, sound is output, and sound is continuously output while the user is touched. When the touch is released, the audio output is stopped. For this reason, when it is determined that the user's operation is successful, that is, until the guide image leaves the second position and reaches the first position after reaching the second position. When the operation of touching the screen is continued, sound is output.

これにより、ユーザに対して音声を出力させる操作を促すことができる。   Thereby, it is possible to prompt the user to perform an operation of outputting sound.

また、画面並びに操作体は、タッチスクリーンである、ことも可能である。
タッチスクリーンにおいて、
(a)案内画像が移動する範囲をユーザがタッチしている状態は、第2の状態であり、
(b)案内画像が移動する範囲以外をユーザがタッチしている状態、及び、タッチスクリーンをユーザがタッチしていない状態は、第1の状態である。
Further, the screen and the operating body can be a touch screen.
On the touch screen,
(A) The state where the user is touching the range in which the guide image moves is the second state,
(B) The state where the user is touching outside the range where the guide image moves and the state where the user is not touching the touch screen are the first state.

ここで、案内画像が移動する範囲とは、典型的には、第1の位置と第2の位置とで挟まれる領域をいう。画面上において、案内画像が移動する範囲をユーザがタッチすると、当該タッチは、指定される操作として判定される。一方、案内画像が移動する範囲以外、例えば、第1の位置と第2の位置との外周の領域をユーザがタッチしている状態、及び、ユーザがタッチスクリーンをタッチしていない状態は、指定される操作ではないと判定される。   Here, the range in which the guide image moves typically refers to a region sandwiched between the first position and the second position. When the user touches the range in which the guidance image moves on the screen, the touch is determined as the designated operation. On the other hand, other than the range in which the guide image moves, for example, the state where the user is touching the outer peripheral area between the first position and the second position and the state where the user is not touching the touch screen are specified. It is determined that the operation is not performed.

これにより、画面上の所定の位置をタッチするようユーザに促すことができる。   Thereby, it is possible to prompt the user to touch a predetermined position on the screen.

また、動画像において、第1の位置と案内画像とに挟まれる領域の色彩と、第2の位置と案内画像とに挟まれる領域の色彩と、は異なる、ことも可能である。   Further, in the moving image, the color of the region sandwiched between the first position and the guide image may be different from the color of the region sandwiched between the second position and the guide image.

例えば、第1の位置と案内画像とに挟まれる領域が、第1の色彩で表示され、第2の位置と案内画像とに挟まれる領域が、第2の色彩で表示されるとする。この場合、案内画像が第1の位置から第2の位置へ移動していくと、第1の色彩で表示される領域が増大し、第2の色彩で表示される領域が減少していく。そして、案内画像が第2の位置に到達すると、第1の位置と第2の位置とに挟まれる領域すべてが、第1の色彩で表示される。このため、第1の位置と第2の位置とに挟まれる領域すべてが第1の色彩で表示されるタイミングが、ユーザがタッチを行うべきタイミングとなる。   For example, it is assumed that the area sandwiched between the first position and the guide image is displayed in the first color, and the area sandwiched between the second position and the guide image is displayed in the second color. In this case, as the guide image moves from the first position to the second position, the area displayed in the first color increases and the area displayed in the second color decreases. When the guide image reaches the second position, the entire area sandwiched between the first position and the second position is displayed in the first color. For this reason, the timing at which the entire region sandwiched between the first position and the second position is displayed in the first color is the timing at which the user should touch.

また、案内画像が第2の位置に到達後、当該第2の位置を離れて第1の位置へ移動していくと、第1の色彩で表示される領域が減少し、第2の色彩で表示される領域が増大していく。そして、案内画像が第1の位置に到達すると、第1の位置と第2の位置とに挟まれる領域すべてが、第2の色彩で表示される。このため、第1の位置と第2の位置とに挟まれる領域すべてが第2の色彩で表示されるタイミングが、ユーザがタッチの解除を行うべきタイミングとなる。   When the guide image reaches the second position and then moves away from the second position to the first position, the area displayed in the first color decreases, and the second color is displayed. The displayed area increases. When the guide image reaches the first position, the entire region sandwiched between the first position and the second position is displayed in the second color. For this reason, the timing at which the entire region sandwiched between the first position and the second position is displayed in the second color is the timing at which the user should release the touch.

これにより、色彩の変化により2つの領域が区別され、案内画像の位置が画面上に明確に表示されるため、操作を行うべきタイミングをユーザにわかりやすく提示することができる。   Thus, the two regions are distinguished by the color change and the position of the guide image is clearly displayed on the screen, so that the timing for performing the operation can be presented to the user in an easy-to-understand manner.

また、表示部は、複数の案内画像が移動する動画像を画面に表示する、ことも可能である。   The display unit can also display on the screen a moving image in which a plurality of guide images move.

例えば、第1の案内画像は、第1の位置と第2の位置との間を移動し、第2の案内画像は、第3の位置と第4の位置との間を移動する。各案内画像は、画面上の任意の2つの位置の間を移動する。画面上には、所定の距離だけ離れた2つの位置の間を移動する案内画像が表示され、当該案内画像の位置により、タッチ等の操作を行うべきタイミングと、タッチ等の解除の操作を行うべきタイミングと、をユーザは認識することができる。   For example, the first guide image moves between a first position and a second position, and the second guide image moves between a third position and a fourth position. Each guide image moves between any two positions on the screen. A guide image that moves between two positions that are separated by a predetermined distance is displayed on the screen, and a timing at which an operation such as a touch should be performed and a release operation such as a touch are performed according to the position of the guide image. The user can recognize the timing to be changed.

これにより、限られた表示範囲においても、操作すべきタイミングをユーザにわかりやすく提示することができる。   Thereby, even in a limited display range, the timing to be operated can be presented to the user in an easily understandable manner.

上記の目的を達成するため、本発明の他の観点に係るゲーム制御方法は、表示部と、検知部と、判定部と、を有するゲーム装置にて実行されるゲーム制御方法であって、表示工程と、検知工程と、判定工程と、を備える。   In order to achieve the above object, a game control method according to another aspect of the present invention is a game control method that is executed by a game device having a display unit, a detection unit, and a determination unit. A process, a detection process, and a determination process are provided.

表示工程では、表示部が、第1の位置から第2の位置へ所定の速度で案内画像が移動し、その後、当該第2の位置から当該第1の位置へ当該所定の速度で当該案内画像が移動する動画像を画面に表示する。   In the display step, the guide image moves from the first position to the second position at a predetermined speed, and then the guide image from the second position to the first position at the predetermined speed. The moving image is displayed on the screen.

検知工程では、検知部が、ユーザの操作により第1の状態と第2の状態とのいずれかの状態となる操作体の状態を検知する。   In the detection step, the detection unit detects the state of the operating body that is in one of the first state and the second state by a user operation.

判定工程では、検知された操作体の状態が、(a)案内画像が第1の位置から第2の位置へ移動する間、第1の状態であり、(b)案内画像が第2の位置から第1の位置へ移動する間、第2の状態であり、(c)案内画像が第1の位置に到達したときに、第2の状態から第1の状態に移行する、場合、判定部が、当該ユーザの操作が成功したと判定する。   In the determination step, the detected state of the operating body is in the first state while (a) the guide image moves from the first position to the second position, and (b) the guide image is in the second position. In the case of the second state during the movement from the first position to the first position, and (c) when the guide image reaches the first position, the second state is shifted to the first state. However, it is determined that the operation of the user is successful.

これにより、ユーザが操作を行うべきタイミングを提示することができる。   Thereby, the timing which a user should operate can be shown.

本発明のその他の観点に係るプログラムは、コンピュータを上記のゲーム装置として機能させ、コンピュータに上記のゲーム制御方法を実行させるように構成する。   A program according to another aspect of the present invention is configured to cause a computer to function as the game device described above and to cause the computer to execute the game control method described above.

また、本発明のプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読取可能な情報記録媒体に記録することができる。上記プログラムは、当該プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配布・販売することができる。また、上記情報記録媒体は、当該コンピュータとは独立して配布・販売することができる。   The program of the present invention can be recorded on a computer-readable information recording medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory. The above program can be distributed and sold via a computer communication network independently of the computer on which the program is executed. The information recording medium can be distributed and sold independently of the computer.

本発明によれば、ユーザが操作を行うべきタイミングを提示することができる。   ADVANTAGE OF THE INVENTION According to this invention, the timing which a user should operate can be shown.

本発明の実施形態に係るゲーム装置が実現される典型的な携帯型情報処理装置の概要構成を示す図である。It is a figure which shows schematic structure of the typical portable information processing apparatus with which the game device which concerns on embodiment of this invention is implement | achieved. 携帯型情報処理装置の外観及び入力操作の一例を示す図である。It is a figure which shows an example of the external appearance and input operation of a portable information processing apparatus. 第2の表示部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a 2nd display part. 第2の表示部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a 2nd display part. 案内画像の移動を説明するための図である。It is a figure for demonstrating the movement of a guidance image. 案内画像の移動を説明するための図である。It is a figure for demonstrating the movement of a guidance image. 案内画像の移動を説明するための図である。It is a figure for demonstrating the movement of a guidance image. 案内画像の移動を説明するための図である。It is a figure for demonstrating the movement of a guidance image. 案内画像の移動を説明するための図である。It is a figure for demonstrating the movement of a guidance image. ゲーム装置の概要構成を示す図である。It is a figure which shows schematic structure of a game device. ゲーム処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a game process. 案内画像の速度変化と鍵盤の表示との関係を示す図である。It is a figure which shows the relationship between the speed change of a guidance image, and the display of a keyboard. 案内画像の停止時間と音符の種類との関係を示す図である。It is a figure which shows the relationship between the stop time of a guidance image, and the kind of musical note. 案内画像の停止時間と音符の種類との関係を示す図である。It is a figure which shows the relationship between the stop time of a guidance image, and the kind of musical note. 実施形態2に係る案内画像の移動を説明するための図である。It is a figure for demonstrating the movement of the guidance image which concerns on Embodiment 2. FIG. 実施形態2に係る案内画像の移動を説明するための図である。It is a figure for demonstrating the movement of the guidance image which concerns on Embodiment 2. FIG. 実施形態2に係る案内画像の移動を説明するための図である。It is a figure for demonstrating the movement of the guidance image which concerns on Embodiment 2. FIG. 実施形態2に係る案内画像の移動を説明するための図である。It is a figure for demonstrating the movement of the guidance image which concerns on Embodiment 2. FIG. 案内画像の移動速度が途中で変化した例を示す図である。It is a figure which shows the example which the moving speed of the guidance image changed on the way.

(実施形態1)
以下に、本発明の実施形態に係るゲーム装置について説明する。以下では、理解を容易にするため、携帯型情報処理装置に本発明が適用される実施形態を説明するが、各種のコンピュータ、PDA、携帯電話、音楽プレイヤなどにおいても同様に本発明を適用することができる。すなわち、以下に記載する実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。従って、当業者であればこれらの各要素または全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。
(Embodiment 1)
The game device according to the embodiment of the present invention will be described below. In the following, for ease of understanding, an embodiment in which the present invention is applied to a portable information processing apparatus will be described. However, the present invention is similarly applied to various computers, PDAs, mobile phones, music players, and the like. be able to. In other words, the embodiments described below are for illustrative purposes and do not limit the scope of the present invention. Therefore, those skilled in the art can employ embodiments in which each or all of these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.

図1は、本発明の実施形態に係るゲーム装置が実現される典型的な携帯型情報処理装置の概要構成を示す図である。また、図2に携帯型情報処理装置の外観図を示す。以下、これらの図を参照して説明する。   FIG. 1 is a diagram showing a schematic configuration of a typical portable information processing device in which a game device according to an embodiment of the present invention is realized. FIG. 2 shows an external view of the portable information processing apparatus. Hereinafter, description will be given with reference to these drawings.

携帯型情報処理装置1は、処理制御部10、コネクタ11、カートリッジ12、無線通信部13、通信コントローラ14、サウンドアンプ15、スピーカ16、マイク17、操作キー18、第1の表示部19、第2の表示部20、タッチパネル21、を備える。   The portable information processing apparatus 1 includes a processing control unit 10, a connector 11, a cartridge 12, a wireless communication unit 13, a communication controller 14, a sound amplifier 15, a speaker 16, a microphone 17, an operation key 18, a first display unit 19, and a first display unit 19. 2 display units 20 and a touch panel 21.

処理制御部10は、CPU(Central Processing Unit)コア10a、画像処理部10b、VRAM(Video Random Access Memory)10c、WRAM(Work RAM)10d、LCD(Liquid Crystal Display)コントローラ10e、タッチパネルコントローラ10f、を備える。   The processing control unit 10 includes a CPU (Central Processing Unit) core 10a, an image processing unit 10b, a VRAM (Video Random Access Memory) 10c, a WRAM (Work RAM) 10d, an LCD (Liquid Crystal Display) controller 10e, and a touch panel controller 10f. Prepare.

CPUコア10aは、携帯型情報処理装置1全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。具体的には、カートリッジ12がコネクタ11に装着された状態で、カートリッジ12内のROM(Read Only Memory)12aに記憶されたプログラムやデータを読み出して、所定の処理を実行する。   The CPU core 10a controls the operation of the entire portable information processing apparatus 1 and is connected to each component to exchange control signals and data. Specifically, a program and data stored in a ROM (Read Only Memory) 12a in the cartridge 12 are read out with the cartridge 12 mounted in the connector 11, and predetermined processing is executed.

画像処理部10bは、カートリッジ12内のROM 12aから読み出されたデータや、CPUコア10aにて処理されたデータを加工処理した後、これをVRAM 10cに格納する。   The image processing unit 10b processes the data read from the ROM 12a in the cartridge 12 and the data processed by the CPU core 10a, and stores the processed data in the VRAM 10c.

VRAM 10cは、表示用の情報を記憶するフレームメモリであり、画像処理部10b等により加工された画像情報を記憶する。   The VRAM 10c is a frame memory that stores information for display, and stores image information processed by the image processing unit 10b and the like.

WRAM 10dは、CPUコア10aがプログラムに従った各種処理を実行する際に必要となるワークデータ等を記憶する。   The WRAM 10d stores work data and the like necessary for the CPU core 10a to execute various processes according to the program.

LCDコントローラ10eは、第1の表示部19および、第2の表示部20を制御し、所定の表示用画像を表示させる。例えば、LCDコントローラ10eは、VRAM 10cに記憶された画像情報を、所定の同期タイミングで表示信号に変換し、第1の表示部19に出力する。また、LCDコントローラ10eは、第2の表示部20に所定の指示アイコン等を表示する。   The LCD controller 10e controls the first display unit 19 and the second display unit 20 to display a predetermined display image. For example, the LCD controller 10 e converts the image information stored in the VRAM 10 c into a display signal at a predetermined synchronization timing and outputs the display signal to the first display unit 19. The LCD controller 10e displays a predetermined instruction icon or the like on the second display unit 20.

タッチパネルコントローラ10fは、タッチペンやユーザの指によるタッチパネル21への接触(タッチ)を検出する。例えば、第2の表示部20に所定の指示アイコン等が表示されている状態で、タッチパネル21上の接触およびその位置等を検出する。   The touch panel controller 10f detects a touch (touch) on the touch panel 21 with a touch pen or a user's finger. For example, in the state where a predetermined instruction icon or the like is displayed on the second display unit 20, a contact on the touch panel 21 and its position are detected.

コネクタ11は、カートリッジ12と脱着自在に接続可能な端子であり、カートリッジ12が接続された際に、カートリッジ12との間で所定のデータを送受信する。   The connector 11 is a terminal that can be detachably connected to the cartridge 12, and transmits / receives predetermined data to / from the cartridge 12 when the cartridge 12 is connected.

カートリッジ12は、ROM 12aと、RAM(Random Access Memory)12bと、を備える。
ROM 12aには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データ等が記録される。
RAM 12bには、ゲームの進行状況等を示す種々のデータが記憶される。
The cartridge 12 includes a ROM 12a and a RAM (Random Access Memory) 12b.
The ROM 12a stores a program for realizing the game and image data, sound data, and the like accompanying the game.
The RAM 12b stores various data indicating the progress of the game.

無線通信部13は、他の携帯型情報処理装置1の無線通信部13との間で、無線通信を行うユニットであり、図示せぬアンテナ(内蔵アンテナ等)を介して所定のデータを送受信する。
なお、無線通信部13は、所定のアクセスポイントとの間で、無線LAN通信を行うこともできる。また、無線通信部13には、固有のMAC(Media Access Control)アドレスが採番されている。
The wireless communication unit 13 is a unit that performs wireless communication with the wireless communication unit 13 of another portable information processing apparatus 1 and transmits / receives predetermined data via an antenna (not shown) (not shown). .
The wireless communication unit 13 can also perform wireless LAN communication with a predetermined access point. The wireless communication unit 13 is assigned a unique MAC (Media Access Control) address.

通信コントローラ14は、無線通信部13を制御し、所定のプロトコルに沿って、処理制御部10と他の携帯型情報処理装置1の処理制御部10との間で行われる通信の仲立ちをする。   The communication controller 14 controls the wireless communication unit 13 and mediates communication performed between the processing control unit 10 and the processing control unit 10 of another portable information processing device 1 according to a predetermined protocol.

サウンドアンプ15は、処理制御部10にて生成された音声信号を増幅し、スピーカ16に供給する。   The sound amplifier 15 amplifies the audio signal generated by the processing control unit 10 and supplies it to the speaker 16.

スピーカ16は、例えば、ステレオスピーカ等からなり、サウンドアンプ15にて増幅された音声信号に従って、所定の楽曲音や効果音等を出力する。   The speaker 16 is composed of, for example, a stereo speaker, and outputs predetermined music sound, sound effect, and the like according to the audio signal amplified by the sound amplifier 15.

マイク17は、ユーザの声等のアナログ信号を受け付け、受け付けた信号は処理制御部10でミキシング等の処理がされる。   The microphone 17 receives an analog signal such as a user's voice, and the received signal is processed by the processing control unit 10 such as mixing.

操作キー18は、携帯型情報処理装置1に適宜配置された方向キー18aやボタン18b等から構成され、ユーザの操作に従って、所定の指示入力を受け付ける。操作キー18には、音量を調節するためのボタンや、つまみ等も含まれる。   The operation key 18 includes a direction key 18a, a button 18b, and the like that are appropriately arranged in the portable information processing apparatus 1, and receives a predetermined instruction input according to a user operation. The operation key 18 includes a button for adjusting the volume, a knob, and the like.

第1の表示部19および、第2の表示部20は、LCD等からなり、LCDコントローラ10eに制御され、ゲーム画像等を適宜表示する。   The 1st display part 19 and the 2nd display part 20 consist of LCD etc., are controlled by the LCD controller 10e, and display a game image etc. suitably.

タッチパネル21は、第2の表示部20の前面に重畳して配置され、タッチペン22やユーザの指の接触による入力を受け付ける。
タッチパネル21は、例えば、感圧式のタッチセンサパネル等からなり、ユーザの指等の圧力を検出し、接触状態および、接触状態から非接触状態への移行等を検出する。なお、タッチパネル21は、他に静電容量の変化等から、ユーザの指等の接触を検出してもよい。
The touch panel 21 is arranged so as to be superimposed on the front surface of the second display unit 20 and accepts input by touching the touch pen 22 or the user's finger.
The touch panel 21 includes, for example, a pressure-sensitive touch sensor panel and the like, detects the pressure of the user's finger and the like, and detects the contact state and the transition from the contact state to the non-contact state. In addition, the touch panel 21 may detect contact with a user's finger or the like from a change in capacitance or the like.

なお、本実施の形態に係るゲーム装置は、上述した典型的な携帯型情報処理装置1上に実現されるが、一般的なコンピュータや情報処理装置上に実現することもでき、これらの実施形態も本発明の範囲に含まれる。一般的なコンピュータや情報処理装置は、上記携帯型情報処理装置1と同様に、CPUコアや、VRAM、WRAM、を備える。また、通信部として、例えば、LAN(Local Area Network)を構成する際に用いられる10BASE−T/100BASE−Tなどの規格に準拠するNIC(Network Interface Controller)、記憶装置としてハードディスクを有する他、DVD−ROMや、光磁気ディスク等が利用できるようになっている。また、入力装置として、タッチパネルの代わりに、キーボードやマウスなどを利用する。そして、プログラムをインストールした後に、そのプログラムを実行させると、ゲーム装置として機能させることができる。   The game device according to the present embodiment is realized on the typical portable information processing device 1 described above, but can also be realized on a general computer or information processing device. Are also included within the scope of the present invention. A general computer or information processing apparatus includes a CPU core, a VRAM, and a WRAM similarly to the portable information processing apparatus 1. In addition, as a communication unit, for example, a NIC (Network Interface Controller) conforming to a standard such as 10BASE-T / 100BASE-T used when configuring a LAN (Local Area Network), a hard disk as a storage device, a DVD -ROM, magneto-optical disk, etc. can be used. In addition, a keyboard or a mouse is used as an input device instead of a touch panel. Then, after the program is installed, when the program is executed, it can function as a game device.

本実施形態では、オルガンやエレクトーン(登録商標)のような鍵盤楽器において、鍵(キー)を押している間、音声が出力される鍵盤楽器を弾くゲームを例に取り説明する。本実施形態の鍵盤楽器を弾くゲームでは、図2に示すように、第2の表示部20に鍵盤の画像(以下、鍵盤23)が表示される。ユーザが、タッチペン22や指等で、鍵盤23が表示されたタッチパネル21をタッチすると、当該タッチに基づいた処理が行われる。例えば、ユーザが、タッチペン22で、鍵盤23の鍵をタッチすると、タッチされている間、タッチされた鍵に対応した音が出力される。   In the present embodiment, a keyboard instrument such as an organ or Electone (registered trademark) will be described by taking as an example a game of playing a keyboard instrument in which sound is output while the key is being pressed. In the game of playing the keyboard instrument of the present embodiment, as shown in FIG. 2, a keyboard image (hereinafter, keyboard 23) is displayed on the second display unit 20. When the user touches the touch panel 21 on which the keyboard 23 is displayed with the touch pen 22 or a finger, a process based on the touch is performed. For example, when the user touches a key on the keyboard 23 with the touch pen 22, a sound corresponding to the touched key is output while being touched.

図3A及び図3Bは、第2の表示部20に表示される画面の一例を示す図である。同図に示すように、第2の表示部20には、鍵盤23が表示される。鍵盤23は、典型的には、複数の白鍵の画像(以下、白鍵23a)と複数の黒鍵の画像(以下、黒鍵23b)とから構成される。白鍵23a及び黒鍵23bにおける第1の位置31は、白鍵23a及び黒鍵23b(鍵盤23)の上辺に相当する。また、白鍵23aにおける第2の位置32aは、白鍵の下辺に相当し、黒鍵23bにおける第2の位置32bは、黒鍵の下辺に相当する。鍵の形状が異なるため、白鍵23aと黒鍵23bとでは、第2の位置32a、32bが異なっている。   3A and 3B are diagrams illustrating an example of a screen displayed on the second display unit 20. As shown in the figure, a keyboard 23 is displayed on the second display unit 20. The keyboard 23 typically includes a plurality of white key images (hereinafter, white keys 23a) and a plurality of black key images (hereinafter, black keys 23b). The first position 31 in the white key 23a and the black key 23b corresponds to the upper side of the white key 23a and the black key 23b (keyboard 23). Further, the second position 32a in the white key 23a corresponds to the lower side of the white key, and the second position 32b in the black key 23b corresponds to the lower side of the black key. Since the key shapes are different, the second positions 32a and 32b are different between the white key 23a and the black key 23b.

案内画像30は、例えば図3Aに示すように、白鍵23aや黒鍵23b上に表示される線状に形成された画像である。また、案内画像30は、図3Bに示すように、白鍵23aや黒鍵23b上に表示される帯状に形成された帯状画像30a、もしくは、点線内部に示される帯状画像30aの下辺部に相当する線状に形成された画像である。案内画像30は、白鍵23aや黒鍵23b上に表示できる任意の形状及びサイズから形成される画像である。
以下では、案内画像30を、図3Bに示すように、帯状画像30aの下辺部に相当する線状に形成された画像として説明する。
For example, as shown in FIG. 3A, the guide image 30 is an image formed in a line shape displayed on the white key 23a or the black key 23b. Further, as shown in FIG. 3B, the guide image 30 corresponds to a band-shaped image 30a formed in a band shape displayed on the white key 23a or the black key 23b, or a lower side portion of the band-shaped image 30a shown inside the dotted line. It is an image formed in a linear shape. The guide image 30 is an image formed from any shape and size that can be displayed on the white key 23a or the black key 23b.
Below, the guide image 30 is demonstrated as an image formed in the shape of a line corresponding to the lower side of the strip-shaped image 30a as shown in FIG. 3B.

ユーザは、操作を促すための案内画像30の位置を確認しながら、適切なタイミングにおいて、タッチ操作、及び、当該タッチ操作の解除を行うことにより、ゲームを進める。図4A〜4Eは、案内画像30の移動を説明するための図である。以下、案内画像30が白鍵23a内を移動する場合について、同図を用いて説明する。
なお、案内画像30が、黒鍵23b内を移動する場合については、白鍵23a内を移動する場合と同様であるため、ここでは省略する。
The user advances the game by performing a touch operation and releasing the touch operation at an appropriate timing while checking the position of the guide image 30 for prompting the operation. 4A to 4E are diagrams for explaining the movement of the guide image 30. FIG. Hereinafter, the case where the guide image 30 moves in the white key 23a will be described with reference to FIG.
Note that the case where the guide image 30 moves in the black key 23b is the same as the case in which the guide image 30 moves in the white key 23a, and is omitted here.

まず、図4Aに示すように、第2の表示部20に鍵盤23が表示される。鍵盤23は、複数の白鍵23aと複数の黒鍵23bとから構成される。ユーザが白鍵23aや黒鍵23bを指等によりタッチすることにより、タッチされた鍵に対応する音が出力される。案内画像30は、第1の位置31から現れて、白鍵23a内を沿って移動する。ここで、移動とは、典型的には、異なる位置の間を直線的に進むことをいう。同図の場合、白鍵23a上に示される第1の位置31と第2の位置32aとの間を、案内画像30が直線的に進んでいく。なお、移動経路は、直線に限られず、波線、ジグザグ線等、任意である。   First, as shown in FIG. 4A, the keyboard 23 is displayed on the second display unit 20. The keyboard 23 includes a plurality of white keys 23a and a plurality of black keys 23b. When the user touches the white key 23a or the black key 23b with a finger or the like, a sound corresponding to the touched key is output. The guide image 30 appears from the first position 31 and moves along the white key 23a. Here, the movement typically refers to linearly moving between different positions. In the case of the figure, the guide image 30 advances linearly between the first position 31 and the second position 32a shown on the white key 23a. Note that the movement path is not limited to a straight line, and is arbitrary such as a wavy line or a zigzag line.

次に、図4Bに示すように、案内画像30は、演奏される楽曲のリズム等に同調して、白鍵23a内を沿って、第1の位置31から第2の位置32aまで移動して行く。案内画像30が第1の位置31から第2の位置32aへと移動することにより、第1の位置31と案内画像30とに挟まれる領域33が増大していき、第2の位置32aと案内画像30とに挟まれる領域34が減少していく。案内画像30が表示される白鍵23aにおいて、第1の位置31と案内画像30とに挟まれる領域33は、典型的には白以外の色彩が付される。これにより、第1の位置31と案内画像30とに挟まれる領域33の色彩と、第2の位置32aと案内画像30とに挟まれる領域34の色彩と、が異なるため、ユーザは案内画像30の位置を明確に把握することができる。   Next, as shown in FIG. 4B, the guide image 30 moves from the first position 31 to the second position 32a along the white key 23a in synchronization with the rhythm of the music to be played. go. As the guide image 30 moves from the first position 31 to the second position 32a, an area 33 sandwiched between the first position 31 and the guide image 30 increases, and the second position 32a and the guide are guided. The area 34 sandwiched between the images 30 decreases. In the white key 23a on which the guide image 30 is displayed, a region 33 sandwiched between the first position 31 and the guide image 30 is typically given a color other than white. As a result, the color of the region 33 sandwiched between the first position 31 and the guide image 30 and the color of the region 34 sandwiched between the second position 32a and the guide image 30 are different. The position of can be clearly grasped.

案内画像30が移動して、図4Cに示すように、案内画像30が第2の位置32aに到達した時点、すなわち、第1の位置31と案内画像30とに挟まれるすべての領域33の色彩が変化した時点が、ユーザがタッチ操作を行うタイミングである。ユーザは、鍵盤23の色彩の変化を視認することにより、タッチすべき鍵とタッチすべきタイミングとを把握することができる。タッチペン22等により、色彩が変化した白鍵23aをユーザがタッチすることにより、当該白鍵23aに対応する音声が出力される。例えば、同図に示すように、「ファ」に対応する鍵をタッチすることにより、「ファ」の音が出力される。ユーザがタッチを継続している間、音声が出力される。案内画像30は、所定の時間、第2の位置32aに留まった後、再び移動を開始する。当該所定の時間は、案内画像30の移動速度と音を出力すべき時間の長さとに基づいて決定される。   When the guide image 30 moves and the guide image 30 reaches the second position 32a, as shown in FIG. 4C, that is, the colors of all the areas 33 sandwiched between the first position 31 and the guide image 30. The time when changes occur is the timing when the user performs a touch operation. The user can grasp the key to be touched and the timing to touch by visually recognizing the color change of the keyboard 23. When the user touches the white key 23a whose color has changed with the touch pen 22 or the like, a sound corresponding to the white key 23a is output. For example, as shown in the figure, by touching the key corresponding to “Fa”, the sound of “Fa” is output. Voice is output while the user continues to touch. The guide image 30 starts moving again after staying at the second position 32a for a predetermined time. The predetermined time is determined based on the moving speed of the guide image 30 and the length of time during which the sound should be output.

次に、案内画像30が第2の位置32aに到達した後、図4Dに示すように、案内画像30は、第2の位置32aから第1の位置31へ向けて移動を開始する。案内画像30が第2の位置32aから第1の位置31に向けて移動することにより、第1の位置31と案内画像30とに挟まれる領域33が減少していき、第2の位置32aと案内画像30とに挟まれる領域34が増大していく。案内画像30が、第2の位置32aから離れて、第1の位置31へ移動している間も、タッチペン22等によるタッチの継続が促される。当該タッチが継続されている間、タッチが行われている白鍵23aに対応する音声が出力される。   Next, after the guide image 30 reaches the second position 32a, the guide image 30 starts moving from the second position 32a toward the first position 31, as shown in FIG. 4D. As the guide image 30 moves from the second position 32a toward the first position 31, the area 33 sandwiched between the first position 31 and the guide image 30 decreases, and the second position 32a The area 34 sandwiched between the guide images 30 increases. While the guide image 30 moves away from the second position 32a and moves to the first position 31, continuation of the touch with the touch pen 22 or the like is prompted. While the touch is continued, a sound corresponding to the white key 23a being touched is output.

そして、図4Eに示すように、案内画像30が第1の位置31に到達した時点、すなわち、第1の位置31と案内画像30とに挟まれる領域33の色彩がもとの状態となった時点が、ユーザがタッチ操作を解除すべきタイミングである。ユーザがタッチ操作の解除を行うと、音の出力が停止される。   Then, as shown in FIG. 4E, when the guide image 30 reaches the first position 31, that is, the color of the region 33 sandwiched between the first position 31 and the guide image 30 becomes the original state. The time point is the timing at which the user should cancel the touch operation. When the user cancels the touch operation, the sound output is stopped.

ユーザがタッチを行うべき時間は、案内画像30が第2の位置32aに到達した時点から、案内画像30が第2の位置32aを離れて第1の位置31の到達した時点までとなる。ユーザがタッチを行うべき時間は、すなわち、音声を出力すべき時間は、音符の種類(例えば、4分音符、全音符)によって異なる。案内画像30は典型的には等速度で移動するため、案内画像30が第2の位置32aに留まる時間を調整することにより、音声を出力すべき時間を変化させることができる。これにより、複数の音符を表現することができる。   The time for the user to perform the touch is from the time when the guide image 30 reaches the second position 32a to the time when the guide image 30 leaves the second position 32a and reaches the first position 31. The time for the user to perform touching, that is, the time for outputting the sound differs depending on the type of note (for example, quarter note, whole note). Since the guide image 30 typically moves at a constant speed, the time during which the voice is to be output can be changed by adjusting the time during which the guide image 30 stays at the second position 32a. Thereby, a plurality of musical notes can be expressed.

例えば、全音符を表現する場合には、案内画像30が第2の位置32aに4秒間留まり、また、4分音符を表現する場合には、案内画像30が第2の位置32aに0秒間留まる、というように、音符の種類(すなわち、音を出力すべき時間の長さ)に基づいて、案内画像30が第2の位置32aに留まる時間が決定される。   For example, when expressing a whole note, the guide image 30 stays at the second position 32a for 4 seconds, and when expressing a quarter note, the guide image 30 stays at the second position 32a for 0 second. As described above, the time during which the guide image 30 remains at the second position 32a is determined based on the type of note (that is, the length of time during which the sound is to be output).

上述する案内画像30の移動処理が繰り返されることにより、ゲームが進行していく。   A game progresses by repeating the movement process of the guidance image 30 mentioned above.

図5は、本実施形態に係るゲーム装置の構成を示す図である。以下、本図を参照して説明する。ゲーム装置300は、同図にしめすように、表示部301、検知部302、判定部303、出力部304、記憶部305等を備える。   FIG. 5 is a diagram illustrating a configuration of the game device according to the present embodiment. Hereinafter, a description will be given with reference to FIG. The game apparatus 300 includes a display unit 301, a detection unit 302, a determination unit 303, an output unit 304, a storage unit 305, and the like, as shown in FIG.

表示部301は、図3A、図3B、及び、図4A〜4Eに示すように、鍵盤23を表示し、当該鍵盤23上に案内画像30を表示して、当該案内画像30が移動する動画像を表示する。表示部301は、第1の位置31から第2の位置32a、32bへ所定の速度で案内画像30が移動し、その後、当該第2の位置32a、32bから当該第1の位置31へ当該所定の速度で当該案内画像30が移動する動画像を画面に表示する。   As shown in FIGS. 3A, 3B, and 4A to 4E, the display unit 301 displays a keyboard 23, displays a guide image 30 on the keyboard 23, and a moving image in which the guide image 30 moves. Is displayed. The display unit 301 moves the guide image 30 from the first position 31 to the second positions 32a and 32b at a predetermined speed, and then moves from the second position 32a and 32b to the first position 31. A moving image in which the guide image 30 moves at a speed of is displayed on the screen.

案内画像30が移動する速度は、典型的には等速度であり、案内画像30が、第1の位置31から第2の位置32a、32bへ移動する速度と、第2の位置32a、32bから第1の位置31へ移動する速度と、は等しい。
なお、第1の位置31から第2の位置32a、32bへ移動する速度と、第2の位置32a、32bから第1の位置31へ移動する速度と、が異なってもよい。また、第1の位置31から第2の位置32a、32bへ、また、第2の位置32a、32bから第1の位置31へ、移動している途中において、速度を可変してもよい。
The speed at which the guide image 30 moves is typically equal, and the speed at which the guide image 30 moves from the first position 31 to the second positions 32a and 32b and from the second positions 32a and 32b. The speed of moving to the first position 31 is equal.
Note that the speed at which the first position 31 moves to the second position 32a, 32b and the speed at which the second position 32a, 32b moves to the first position 31 may be different. Further, the speed may be varied during the movement from the first position 31 to the second positions 32a and 32b and from the second position 32a and 32b to the first position 31.

また、表示部301は、第1の位置31と案内画像30とに挟まれる領域33の色彩と、第2の位置32a、32bと案内画像30とに挟まれる領域34の色彩と、が異なるように表示する。当該領域33、34は、任意の色彩で表示される。   In addition, the display unit 301 is configured such that the color of the region 33 sandwiched between the first position 31 and the guide image 30 is different from the color of the region 34 sandwiched between the second positions 32a and 32b and the guide image 30. To display. The areas 33 and 34 are displayed in an arbitrary color.

CPUコア10a、画像処理部10b、VRAM 10c、LDCコントローラ10e、及び、第1/第2の表示部19、20等が協働して動作することにより、表示部301として機能する。   The CPU core 10a, the image processing unit 10b, the VRAM 10c, the LDC controller 10e, the first / second display units 19 and 20 and the like operate in cooperation to function as the display unit 301.

検知部302は、ユーザの操作により第1の状態と第2の状態とのいずれかの状態となる操作体の状態を検知する。   The detection unit 302 detects the state of the operating body that is in one of the first state and the second state by a user operation.

ここで、操作体は、ユーザからの入力操作を受け付けるための装置をいい、例えば、タッチパネル、コントローラ、キーボード、マウス等に相当する。
また、第1の状態とは、ユーザからの入力操作がない状態、または、ユーザが指定の入力操作を行っていない状態をいう。また、第2の状態とは、ユーザが指定される入力操作を行っている状態をいう。
Here, the operation body refers to a device for accepting an input operation from a user, and corresponds to, for example, a touch panel, a controller, a keyboard, a mouse, and the like.
The first state refers to a state where no input operation is performed by the user or a state where the user is not performing a specified input operation. The second state refers to a state in which an input operation designated by the user is being performed.

例えば、図2等に示すように、操作体がタッチパネル21であるときは、ユーザがタッチペン22等によりタッチパネル21をタッチしていない状態、または、タッチパネル21上に表示される鍵盤23の所定の鍵をタッチしていない状態が、第1の状態である。また、ユーザがタッチペン22等により鍵盤23の所定の鍵(具体的には、案内画像30が表示された鍵)をタッチしている状態が、第2の状態である。   For example, as shown in FIG. 2 and the like, when the operating body is the touch panel 21, a state in which the user does not touch the touch panel 21 with the touch pen 22 or the like, or a predetermined key on the keyboard 23 displayed on the touch panel 21 The state in which is not touched is the first state. The state in which the user is touching a predetermined key (specifically, the key on which the guide image 30 is displayed) of the keyboard 23 with the touch pen 22 or the like is the second state.

CPUコア10a、タッチパネル21、タッチパネルコントローラ10f、及び、操作キー18等が協働して動作することにより、検知部302として機能する。   The CPU core 10a, the touch panel 21, the touch panel controller 10f, the operation keys 18 and the like operate in cooperation to function as the detection unit 302.

判定部303は、検知された操作体の状態が、
(a)案内画像30が第1の位置31から第2の位置32a、32bへ移動する間、第1の状態であり、
(b)案内画像30が第2の位置32a、32bから第1の位置31へ移動する間、第2の状態であり、
(c)案内画像30が第1の位置31に到達したときに、第2の状態から第1の状態に移行する、場合、当該ユーザの操作が成功したと判定する。
The determination unit 303 indicates that the detected state of the operating tool is
(A) While the guide image 30 moves from the first position 31 to the second position 32a, 32b, it is in the first state,
(B) While the guide image 30 moves from the second position 32a, 32b to the first position 31, it is in the second state,
(C) When the guidance image 30 reaches the first position 31 and shifts from the second state to the first state, it is determined that the user's operation is successful.

判定部303は、案内画像30の位置、及び、操作体の状態に基づいて、ユーザの操作が成功したか否かを判定する。例えば、図4Cに示すように、案内画像30が第2の位置32aに到達した時点、すなわち、第1の位置31と案内画像30とに挟まれるすべての領域33の色彩が変化した時点が、ユーザがタッチ操作を行うべきタイミングである。当該タイミングにおいて、色彩が変化した案内画像30が表示される鍵、具体的には、同図では「ファ」に対応する白鍵23aを、ユーザがタッチすると、ユーザの操作が成功したと判定される。   The determination unit 303 determines whether the user's operation is successful based on the position of the guide image 30 and the state of the operation tool. For example, as shown in FIG. 4C, when the guide image 30 reaches the second position 32a, that is, when the colors of all the regions 33 sandwiched between the first position 31 and the guide image 30 change, This is the timing at which the user should perform a touch operation. At this timing, when the user touches the key on which the guide image 30 whose color has changed, specifically, the white key 23a corresponding to “F” in the figure, the user's operation is determined to be successful. The

また、図4Eに示すように、案内画像30が第1の位置31に到達した時点、すなわち、第1の位置31と案内画像30とに挟まれる領域33の色彩がもとの状態となった時点が、ユーザがタッチ操作の解除を行うべきタイミングである。当該タイミングにおいて、色彩がもとの状態で表示される鍵、具体的には、同図では「ファ」に対応する白鍵23aを、ユーザがタッチしている操作を止めると、ユーザの操作が成功したと判定される。   Further, as shown in FIG. 4E, when the guide image 30 reaches the first position 31, that is, the color of the region 33 sandwiched between the first position 31 and the guide image 30 becomes the original state. The time point is the timing when the user should cancel the touch operation. At this timing, when the user stops touching the key whose color is displayed in the original state, specifically, the white key 23a corresponding to “F” in FIG. Judged as successful.

CPUコア10a、第2の表示部20、タッチパネル21、及び、タッチパネルコントローラ10f等が協働して動作することにより、判定部303として機能する。   The CPU core 10a, the second display unit 20, the touch panel 21, the touch panel controller 10f, and the like operate in cooperation to function as the determination unit 303.

出力部304は、検知された操作体の状態が、第2の状態である間、所定の音声を出力する。出力部304は、ユーザがタッチペン22等を用いてタッチパネル21がタッチされると、当該タッチされた鍵に対応する音声を出力し、当該タッチが解除されると、音声の出力を停止する。   The output unit 304 outputs a predetermined sound while the detected state of the operating tool is in the second state. The output unit 304 outputs sound corresponding to the touched key when the user touches the touch panel 21 using the touch pen 22 or the like, and stops outputting sound when the touch is released.

CPUコア10a、サウンドアンプ15、及び、スピーカ16等が協働して動作することにより、出力部304として機能する。   The CPU core 10a, the sound amplifier 15, the speaker 16, and the like operate in cooperation to function as the output unit 304.

記憶部305は、例えば、ユーザがタッチした鍵、ユーザ操作の成否、操作が行われた時点と操作が行われるべき時点とのずれ等のゲームの進行状態を記憶する。   The storage unit 305 stores, for example, a game progress state such as a key touched by a user, success or failure of a user operation, and a difference between a time point when the operation is performed and a time point when the operation is to be performed.

CPUコア10a、及び、RAM 12b等が協働して動作することにより、記憶部305として機能する。   The CPU core 10a, the RAM 12b, and the like operate in cooperation to function as the storage unit 305.

次に、本実施形態のゲーム装置300にて実行される処理について説明する。図6は、ゲーム処理の流れを示すフローチャートである。以下、本図を参照して説明する。   Next, processing executed in the game device 300 of the present embodiment will be described. FIG. 6 is a flowchart showing the flow of the game process. Hereinafter, a description will be given with reference to FIG.

鍵盤23のどの白鍵23aもしくは黒鍵23bに案内画像30が表示されるかは、楽曲や楽曲のパートによってあらかじめ定められているのが典型的である。ここでは、説明を容易にするために、鍵盤23の「ファ」の音域に相当する白鍵23aに案内画像30が表示される場合について説明する。   Typically, the white key 23a or the black key 23b on the keyboard 23 on which the guide image 30 is displayed is determined in advance by the music or the music part. Here, for ease of explanation, a case where the guide image 30 is displayed on the white key 23 a corresponding to the “F” range of the keyboard 23 will be described.

まず、ゲーム装置300に電源が投入され、ユーザによってゲームが開始されると、図4Aに示すように、CPUコア10aは、第2の表示部20に、当該ゲームで使用される鍵盤23を表示する(ステップS101)。また、CPUコア10aは、所定の楽曲を再生して、当該楽曲をスピーカ16から出力する。   First, when the game apparatus 300 is turned on and the game is started by the user, the CPU core 10a displays the keyboard 23 used in the game on the second display unit 20, as shown in FIG. 4A. (Step S101). In addition, the CPU core 10a reproduces a predetermined music and outputs the music from the speaker 16.

なお、表示される鍵盤23の範囲(音域)は任意であり、例えば、1オクターブや3オクターブ等の音域が出力される鍵盤が表示される。   Note that the range (sound range) of the keyboard 23 to be displayed is arbitrary. For example, a keyboard to which a sound range such as 1 octave or 3 octaves is output is displayed.

次に、CPUコア10aは、再生される楽曲のリズム等に同調するように、第1の位置31に案内画像30を表示し、図4Bに示すように、当該案内画像30が白鍵23a内を沿って、第1の位置31から第2の位置32aへ移動するように表示する(ステップS102)。   Next, the CPU core 10a displays the guide image 30 at the first position 31 so as to synchronize with the rhythm or the like of the music to be played back. As shown in FIG. 4B, the guide image 30 is within the white key 23a. Are displayed so as to move from the first position 31 to the second position 32a (step S102).

図7は、案内画像30の速度変化と鍵盤の表示との関係を示す図である。CPUコア10aは、同図に示すように、案内画像30を所定の速度(ここでは、+V)で移動させ、当該案内画像30を移動させることに伴って、第1の位置31と案内画像30とで挟まれる領域33を、所定の色彩を付して表示する。   FIG. 7 is a diagram showing the relationship between the speed change of the guide image 30 and the keyboard display. As shown in the figure, the CPU core 10a moves the guide image 30 at a predetermined speed (in this case, + V), and moves the guide image 30 to move the first position 31 and the guide image 30. A region 33 sandwiched between and is displayed with a predetermined color.

第1の位置31と案内画像30とで挟まれる領域33が、所定の色彩を付して表示されると、第1の位置31と案内画像30とで挟まれる領域33と、案内画像30と第2の位置32aとで挟まれる領域34と、が、明確に区別される。これにより、案内画像30の位置が容易に視認されるため、操作を行うべきタイミングをユーザに対してわかりやすく提示することができる。   When the region 33 sandwiched between the first position 31 and the guide image 30 is displayed with a predetermined color, the region 33 sandwiched between the first position 31 and the guide image 30, A region 34 sandwiched between the second positions 32a is clearly distinguished. Thereby, since the position of the guidance image 30 is easily visually recognized, the timing for performing the operation can be easily presented to the user.

次に、CPUコア10aは、タッチ操作を検出する(ステップS103)。そして、CPUコア10aは、タッチ操作が検出されている間、当該タッチ操作に対応する音声を出力する。例えば、図4Cに示すように、「ファ」に相当する白鍵23aへのタッチが検出されると、「ファ」の音が出力される。タッチ操作が継続されている間、タッチが行われている鍵に対応する音声が出力され、タッチ操作が解除されると、音声の出力が停止される。   Next, the CPU core 10a detects a touch operation (step S103). Then, the CPU core 10a outputs a sound corresponding to the touch operation while the touch operation is detected. For example, as shown in FIG. 4C, when a touch on the white key 23a corresponding to “Fa” is detected, a “Fa” sound is output. While the touch operation is continued, the sound corresponding to the key that is being touched is output, and when the touch operation is released, the output of the sound is stopped.

次に、CPUコア10aは、移動表示している案内画像30が、第2の位置32aに到達したか否かを判定する(ステップS104)。案内画像30が第2の位置32aに到達したタイミング、すなわち、白鍵23aの全体の色彩が変化したタイミングが、ユーザが操作を行うべきタイミングである。図4Cに示すように、ユーザは、色彩が変化した白鍵23aをタッチ開始することが要求される。   Next, the CPU core 10a determines whether or not the guide image 30 being moved and displayed has reached the second position 32a (step S104). The timing at which the guide image 30 reaches the second position 32a, that is, the timing at which the entire color of the white key 23a changes is the timing at which the user should perform the operation. As shown in FIG. 4C, the user is required to start touching the white key 23a whose color has changed.

案内画像30が第2の位置32aに到達していない場合(ステップS104;No)、CPUコア10aは、案内画像30を移動させる表示を継続する(ステップS102)。   When the guide image 30 has not reached the second position 32a (step S104; No), the CPU core 10a continues the display for moving the guide image 30 (step S102).

一方、案内画像30が第2の位置32aに到達した場合(ステップS104;Yes)、CPUコア10aは、所定の時間、案内画像30を第2の位置32aに留めて表示する(ステップS105)。CPUコア10aは、図7に示すように、案内画像30の移動速度Vを、V=0として案内画像30の移動を停止させて、当該案内画像30を第2の位置32aに留めて表示する。   On the other hand, when the guide image 30 has reached the second position 32a (step S104; Yes), the CPU core 10a displays the guide image 30 at the second position 32a for a predetermined time (step S105). As shown in FIG. 7, the CPU core 10a sets the moving speed V of the guide image 30 to V = 0, stops the movement of the guide image 30, and keeps the guide image 30 at the second position 32a for display. .

次に、CPUコア10aは、案内画像30が第2の位置32aに到達したタイミングにおいて、タッチ操作が行われたか否かを判定する(ステップS106)。CPUコア10aは、案内画像30を伴う白鍵23aが表示されるタッチスクリーン上の領域が、タッチされている状態であるか否かを検知することにより、判定を行う。   Next, the CPU core 10a determines whether or not a touch operation has been performed at the timing when the guide image 30 reaches the second position 32a (step S106). The CPU core 10a makes a determination by detecting whether or not the area on the touch screen where the white key 23a with the guide image 30 is displayed is touched.

案内画像30が第2の位置32aに到達したタイミングに、タッチ操作が行われた場合(ステップS106;Yes)、CPUコア10aは、ユーザによるタッチ操作が成功したと判定し、成功を示す旨の表示(例えば、「Good」、「OK」、「○(まる)」等)を出力する(ステップS107)。タッチ操作が行われると、タッチされた鍵に対応する音声が、スピーカ16から出力される。   When the touch operation is performed at the timing when the guide image 30 reaches the second position 32a (step S106; Yes), the CPU core 10a determines that the touch operation by the user is successful and indicates success. Display (for example, “Good”, “OK”, “◯ (maru)”) is output (step S107). When a touch operation is performed, sound corresponding to the touched key is output from the speaker 16.

なお、案内画像30が第2の位置32aに到達したタイミングに、タッチ操作が行われた場合であっても、当該案内画像30が表示されていない鍵盤23がタッチされた場合、CPUコア10aは、ユーザによるタッチ操作は失敗したと判定する。例えば、図4Cに示すように、鍵盤23の「ファ」の音域に相当する白鍵23a以外の鍵盤23(例えば、「ミ」や「ソ」の音域に相当する白鍵23a)がタッチされている場合、CPUコア10aは、ユーザによるタッチ操作が失敗したと判定する。   Even when the touch operation is performed at the timing when the guide image 30 reaches the second position 32a, when the keyboard 23 on which the guide image 30 is not displayed is touched, the CPU core 10a It is determined that the touch operation by the user has failed. For example, as shown in FIG. 4C, a keyboard 23 other than the white key 23a corresponding to the “F” range of the keyboard 23 (for example, the white key 23a corresponding to the “M” or “SO” range) is touched. If there is, the CPU core 10a determines that the touch operation by the user has failed.

一方、案内画像30が第2の位置32aに到達したタイミングに、タッチ操作が行われていない場合(ステップS106;No)、CPUコア10aは、ユーザによるタッチ操作が失敗したと判定し、失敗を示す旨の表示(例えば、「Bad」、「NG」、「×(ばつ)」等)を出力する(ステップS108)。   On the other hand, when the touch operation is not performed at the timing when the guide image 30 reaches the second position 32a (step S106; No), the CPU core 10a determines that the touch operation by the user has failed, and the failure is determined. A display to the effect of the display (for example, “Bad”, “NG”, “× (bad)”, etc.) is output (step S108).

なお、成功及び失敗を示す旨の表示内容は任意であり、出力される表示の位置及びサイズ等も任意である。また、音声や振動によって、成功及び失敗を示す旨を出力することもできる。   The display contents indicating success and failure are arbitrary, and the position and size of the output display are also arbitrary. In addition, a message indicating success or failure can be output by voice or vibration.

次に、CPUコア10aは、案内画像30を第2の位置32aから第1の位置31へ移動させるか否かを判定する(ステップS109)。例えば、CPUコア10aは、案内画像30が第2の位置32aに到達してから、所定の時間が経過したか否かに基づいて、判定を行う。   Next, the CPU core 10a determines whether or not to move the guide image 30 from the second position 32a to the first position 31 (step S109). For example, the CPU core 10a performs the determination based on whether or not a predetermined time has elapsed after the guide image 30 reaches the second position 32a.

案内画像30が第2の位置32aに停止する停止時間T1(s)、音声を出力すべき時間T2(s)、白鍵23aの長さL(cm)、案内画像30の移動速度V(cm/s)、とすると、時間T1は、以下の式(1)から求められる。
T1=T2−(L/V) (1)
The stop time T1 (s) when the guide image 30 stops at the second position 32a, the time T2 (s) when the voice should be output, the length L (cm) of the white key 23a, and the moving speed V (cm of the guide image 30) / S), the time T1 is obtained from the following equation (1).
T1 = T2- (L / V) (1)

CPUコア10aは、楽曲の速度、及び、音符の種類等から時間T2を求め、さらに、式(1)に基づいて、時間T1を算出する。そして、CPUコア10aは、案内画像30が第2の位置32aに到達した後、時間T1が経過するまで、案内画像30が第2の位置32aに留まるように表示する。   The CPU core 10a calculates the time T2 from the speed of the music, the type of note, and the like, and further calculates the time T1 based on the equation (1). Then, after the guide image 30 reaches the second position 32a, the CPU core 10a displays the guide image 30 so as to remain at the second position 32a until the time T1 elapses.

図8A及び8Bは、案内画像30の停止時間と音符の種類との関係を示す図である。例えば、音符の種類が全音符の場合、全音符の長さの音が出力される時間T2が定められている。図8Aに示すように、時間T2は、タッチ開始からタッチ解除までの時間である。時間T2が全音符の長さの音となるように、式(1)に基づいて、時間T1が算出される。そして、案内画像30が第2の位置32aに到達した時点、すわなち、V=0となった時点から時間T1が経過するまで、案内画像30は、第2の位置32aに留まる。これにより、案内画像30が第2の位置32aに到達した時点、すなわち、タッチ開始の時点から、当該案内画像30が第1の位置31に到達した時点、すなわち、タッチ解除の時点までの時間が決定されて、全音符の長さの音が出力されるようになる。   8A and 8B are diagrams illustrating the relationship between the stop time of the guide image 30 and the type of note. For example, when the note type is a whole note, a time T2 for outputting a sound having the length of the whole note is determined. As shown in FIG. 8A, time T2 is the time from the start of touch to the release of touch. The time T1 is calculated based on the equation (1) so that the time T2 is a sound having the length of all notes. When the guide image 30 reaches the second position 32a, that is, until the time T1 elapses from the time when V = 0, the guide image 30 remains at the second position 32a. Thereby, the time from the time when the guide image 30 reaches the second position 32a, that is, the time when the touch starts, to the time when the guide image 30 reaches the first position 31, that is, the time when the touch is released. As a result, a note having the length of a full note is output.

また、例えば、音符の種類が8分音符の場合、8分音符の長さの音が出力される時間T2が定められている。図8Bに示すように、時間T2は、タッチ開始からタッチ解除までの時間であり、当該時間T2が8分音符の長さの音となるように、式(1)に基づいて、時間T1が算出される。本図の場合では、T1=0であり、案内画像30が第2の位置32aに到達すると、当該第2の位置32aに留まることなく、第1の位置31へ向けて移動する。   Further, for example, when the note type is an eighth note, a time T2 in which a sound having an eighth note length is output is determined. As shown in FIG. 8B, the time T2 is the time from the start of touch until the touch is released, and the time T1 is calculated based on the equation (1) so that the time T2 is a sound of an eighth note length. Calculated. In the case of this figure, T1 = 0, and when the guide image 30 reaches the second position 32a, it moves toward the first position 31 without staying at the second position 32a.

なお、時間T2は、楽曲の速度に基づいて変化するため、音符の種類が8分音符の場合に、T1=0となるわけではない。時間T1は、楽曲の速度、案内画像30の移動速度、音符の種類等に基づいて、任意に変化し得る。   Since the time T2 changes based on the speed of music, T1 = 0 does not necessarily occur when the note type is an eighth note. The time T1 can be arbitrarily changed based on the speed of the music, the moving speed of the guide image 30, the type of the note, and the like.

案内画像30を第1の位置31へ移動させない場合、すなわち、案内画像30を第2の位置32aに留める場合(ステップS109;No)、CPUコア10aは、図4Cに示すように、案内画像30を第2の位置32aに表示し続けて(ステップS105)、その後、案内画像30を移動させるか否かを再び判定する(ステップS109)。   When the guide image 30 is not moved to the first position 31, that is, when the guide image 30 is kept at the second position 32a (step S109; No), the CPU core 10a, as shown in FIG. Is continuously displayed at the second position 32a (step S105), and then it is determined again whether or not the guide image 30 is to be moved (step S109).

なお、ステップ109においてNoと判定され、ステップS105〜S108が繰り返される場合、CPUコア10aは、ステップS107、S108の処理を省略することもできる。   When it is determined No in Step 109 and Steps S105 to S108 are repeated, the CPU core 10a can omit the processes of Steps S107 and S108.

一方、案内画像30を第1の位置31へ移動させる場合(ステップS109;Yes)、CPUコア10aは、図4Dに示すように、案内画像30が白鍵23a内を沿って、第2の位置32aから第1の位置31へ移動するように表示する(ステップS110)。CPUコア10aは、図7に示すように、案内画像30を−Vの移動速度で移動させる。当該案内画像30の移動に伴い、第1の位置31と案内画像30とで挟まれる領域33を減少する。   On the other hand, when the guide image 30 is moved to the first position 31 (step S109; Yes), the CPU core 10a causes the guide image 30 to move to the second position along the white key 23a as shown in FIG. 4D. The display is performed so as to move from 32a to the first position 31 (step S110). As shown in FIG. 7, the CPU core 10 a moves the guide image 30 at a moving speed of −V. As the guide image 30 moves, the area 33 sandwiched between the first position 31 and the guide image 30 is reduced.

次に、CPUコア10aは、移動表示している案内画像30が、第1の位置31に到達したか否かを判定する(ステップS111)。案内画像30が第1の位置31に到達したタイミング、すなわち、白鍵23aの全体の色彩が当初の色彩に戻ったタイミングが、タッチを解除すべきタイミングである。   Next, the CPU core 10a determines whether or not the guide image 30 that is being moved and reached has reached the first position 31 (step S111). The timing at which the guide image 30 reaches the first position 31, that is, the timing at which the entire color of the white key 23a returns to the original color is the timing at which the touch should be released.

タッチ開始のタイミングでは、案内画像30は第2の位置32aに表示される。一方、タッチ解除のタイミングでは、案内画像30は、第2の位置32aから所定の距離だけ離れた第1の位置31に表示される。これは、タッチ開始のタイミングにおいては、まだタッチがなされていないため、第2の表示部20に表示される案内画像30が、タッチペン22やユーザの指によって遮られることはない。しかし、タッチがなされて、タッチが継続されている間は、タッチペン22等により、案内画像30の表示が遮られることが考えられる。そこで、タッチ開始のタイミングを示す第2の位置32aから、所定の距離だけ離れた第1の位置31を、タッチ解除のタイミングとして用いることにより、タッチペン22等により、案内画像30の表示が遮られることなく、ユーザに対して操作を行うべきタイミングを提示することができる。   At the touch start timing, the guide image 30 is displayed at the second position 32a. On the other hand, at the touch release timing, the guide image 30 is displayed at the first position 31 that is a predetermined distance away from the second position 32a. This is because the touch image is not blocked by the touch pen 22 or the user's finger because the touch has not yet been made at the touch start timing. However, while the touch is made and the touch is continued, the display of the guide image 30 may be blocked by the touch pen 22 or the like. Therefore, the display of the guide image 30 is blocked by the touch pen 22 or the like by using the first position 31 that is a predetermined distance away from the second position 32a indicating the touch start timing as the touch release timing. The timing for performing the operation can be presented to the user.

また、所定の距離だけ離れた2つの位置の間を移動させる案内画像30の動画像を画面上に表示するだけで、タッチ開始とタッチ解除との2つのタイミングをユーザに提示することができる。このため、表示範囲が限られた画面であっても、ユーザに対して操作を行うべきタイミングを提示することができる。   Also, the user can be presented with two timings of touch start and touch release simply by displaying on the screen a moving image of the guide image 30 that moves between two positions separated by a predetermined distance. For this reason, even if it is a screen with a limited display range, it is possible to present a timing for performing an operation to the user.

案内画像30が第1の位置31に到達していない場合(ステップS111;No)、CPUコア10aは、案内画像30を移動させる表示を継続する(ステップS110)。   When the guide image 30 has not reached the first position 31 (step S111; No), the CPU core 10a continues the display for moving the guide image 30 (step S110).

一方、案内画像30が第1の位置31に到達した場合(ステップS111;Yes)、CPUコア10aは、案内画像30が第1の位置31に到達したタイミングにおいて、タッチの解除が行われたか否かを判定する(ステップS112)。CPUコア10aは、案内画像30を伴う白鍵23aが表示されるタッチスクリーン上の領域が、タッチされていない状態であるか否かを検知することにより、判定を行う。   On the other hand, when the guide image 30 reaches the first position 31 (step S111; Yes), the CPU core 10a determines whether or not the touch is released at the timing when the guide image 30 reaches the first position 31. Is determined (step S112). The CPU core 10a makes a determination by detecting whether or not the area on the touch screen where the white key 23a with the guide image 30 is displayed is not touched.

案内画像30が第1の位置31に到達したタイミングにおいて、タッチ操作の解除が行われた場合(ステップS112;Yes)、CPUコア10aは、ユーザによるタッチ操作の解除が成功したと判定し、成功を示す旨の表示を出力する(ステップS113)。タッチ操作の解除が行われると、タッチされた鍵に対応する音声の出力が停止される。   When the touch operation is released at the timing when the guide image 30 reaches the first position 31 (step S112; Yes), the CPU core 10a determines that the release of the touch operation by the user is successful and succeeds. Is displayed (step S113). When the touch operation is released, the output of the sound corresponding to the touched key is stopped.

一方、案内画像30が第1の位置31に到達したタイミングにおいて、タッチ操作の解除が行われていない場合(ステップS112;No)、CPUコア10aは、ユーザによるタッチ操作の解除が失敗したと判定し、失敗を示す旨の表示を出力する(ステップS114)。タッチ操作が継続されている間、タッチが行われている鍵に対応する音声が出力される。   On the other hand, when the touch operation is not released at the timing when the guide image 30 reaches the first position 31 (step S112; No), the CPU core 10a determines that the release of the touch operation by the user has failed. Then, a display indicating failure is output (step S114). While the touch operation is continued, a sound corresponding to the key being touched is output.

そして、CPUコア10aは、ステップS101の処理に戻り、ステップS101〜S114の処理を繰り返す。   Then, the CPU core 10a returns to the process of step S101 and repeats the processes of steps S101 to S114.

以上の処理により、ユーザが操作を行うべきタイミングを提示することができる。   Through the above processing, the timing at which the user should perform the operation can be presented.

(実施形態2)
実施形態1では、案内画像30を、図3Bに示すように、帯状画像30aの下辺部に相当する線状に形成された画像として説明した。本実施形態では、案内画像30を、第1の位置31から第2の位置32aまでの長さを有する帯状画像として説明する。なお、上述の実施形態と共通する構成については同じ参照番号を用い説明を省略する。
(Embodiment 2)
In the first embodiment, the guide image 30 is described as an image formed in a linear shape corresponding to the lower side of the belt-like image 30a as shown in FIG. 3B. In the present embodiment, the guide image 30 is described as a belt-like image having a length from the first position 31 to the second position 32a. In addition, about the structure which is common in the above-mentioned embodiment, description is abbreviate | omitted using the same reference number.

図9A〜9Dは、実施形態2に係る案内画像30の移動を説明するための図である。図9Aに示すように、案内画像30は、第1の位置31から現れて、時間の経過とともに、位置を徐々に変化させながら第2の位置32aに向けて移動する。案内画像30と白鍵23aとが重なり合っている領域35では、案内画像30は、白鍵23aより前面側となるように画面上に表示される。一方、案内画像30と白鍵23aとが重なり合ってない領域36では、案内画像30は画面上に表示されない。案内画像30が第1の位置31から第2の位置32aへと移動していくと、領域35は徐々に増大し、領域36は徐々に減少していく。   9A to 9D are diagrams for explaining the movement of the guide image 30 according to the second embodiment. As shown in FIG. 9A, the guide image 30 appears from the first position 31 and moves toward the second position 32a while gradually changing the position as time elapses. In the area 35 where the guide image 30 and the white key 23a overlap, the guide image 30 is displayed on the screen so as to be in front of the white key 23a. On the other hand, in the area 36 where the guide image 30 and the white key 23a do not overlap, the guide image 30 is not displayed on the screen. As the guide image 30 moves from the first position 31 to the second position 32a, the area 35 gradually increases and the area 36 gradually decreases.

次に、図9Bに示すように、案内画像30が第2の位置32aに到達した時点、すなわち、案内画像30と白鍵23aとが完全に重なり合って表示される時点が、ユーザがタッチ操作を行うべきタイミングである。   Next, as shown in FIG. 9B, when the guide image 30 reaches the second position 32a, that is, when the guide image 30 and the white key 23a are displayed so as to be completely overlapped, the user performs a touch operation. It is time to do it.

次に、案内画像30が第2の位置32aに到達した後、図9Cに示すように、案内画像30は、位置を徐々に変化させながら移動する。案内画像30が第2の位置32aから第1の位置31へと移動していくと、領域35は徐々に減少し、領域36は徐々に増加していく。   Next, after the guide image 30 reaches the second position 32a, as shown in FIG. 9C, the guide image 30 moves while gradually changing the position. As the guide image 30 moves from the second position 32a to the first position 31, the area 35 gradually decreases and the area 36 gradually increases.

そして、図9Dに示すように、案内画像30と白鍵23aとが重なり合っている領域35が消滅する時点が、ユーザがタッチ操作の解除を行うべきタイミングである。ユーザは、案内画像30と白鍵23aとが完全に重なり合って表示される時点からタッチを開始し、案内画像30と白鍵23aとが重なり合っている領域35が表示されている間、タッチ操作を継続し、その後、当該領域35が消滅した時点にタッチ操作の解除を行うことにより、当該ユーザの操作が成功したと判定される。   Then, as shown in FIG. 9D, the time when the area 35 where the guide image 30 and the white key 23a overlap disappears is the timing at which the user should release the touch operation. The user starts touching when the guide image 30 and the white key 23a are displayed so as to be completely overlapped, and performs the touch operation while the area 35 where the guide image 30 and the white key 23a overlap is displayed. By continuing and then releasing the touch operation when the area 35 disappears, it is determined that the user's operation is successful.

上述する案内画像30の移動処理が繰り返されることにより、ゲームが進行していく。   A game progresses by repeating the movement process of the guidance image 30 mentioned above.

案内画像30は、典型的には、白鍵23aの色彩と異なる色彩が付されて表示される。このため、案内画像30と白鍵23aとが重なり合っている領域35を示す画像の色彩と、白鍵23aの色彩とは、異なる色彩で表示されるため、ユーザは、案内画像30の位置を明確に把握することができる。また、案内画像30が移動した位置に応じて、タッチ操作をすべきタイミング、及び、タッチ操作を解除すべきタイミングが、ユーザに対して提示される。このため、ユーザは、案内画像30の位置を視認することにより、操作すべきタイミングを容易に把握することができる。   The guide image 30 is typically displayed with a color different from the color of the white key 23a. For this reason, since the color of the image showing the region 35 where the guide image 30 and the white key 23a overlap each other and the color of the white key 23a are displayed in different colors, the user clearly defines the position of the guide image 30. Can grasp. Further, the timing for performing the touch operation and the timing for releasing the touch operation are presented to the user according to the position where the guide image 30 has moved. For this reason, the user can grasp | ascertain the timing which should be operated easily by visually recognizing the position of the guidance image 30. FIG.

また、第1の位置31と第2の位置32aとの間で表示される案内画像30は、時間の経過とともに、位置が徐々に変化するように表示される。案内画像30が表示される範囲は、第1の位置31と第2の位置32aとの間に限られているため、ユーザの視線の移動を少なくすることができる。   Further, the guide image 30 displayed between the first position 31 and the second position 32a is displayed so that the position gradually changes as time passes. Since the range in which the guide image 30 is displayed is limited between the first position 31 and the second position 32a, the movement of the user's line of sight can be reduced.

以上説明したように、本実施形態によれば、ユーザが操作を行うべきタイミングを提示することができる。また、ユーザの視線の移動を少なくすることができる。   As described above, according to the present embodiment, it is possible to present the timing at which the user should perform an operation. Further, the movement of the user's line of sight can be reduced.

なお、本発明は上記の実施形態に限定されず、種々の変形及び応用が可能である。   In addition, this invention is not limited to said embodiment, A various deformation | transformation and application are possible.

案内画像30が、第1の位置31から第2の位置32aへ移動し、その後、第2の位置32aから第1の位置31へ移動する過程において、当該案内画像30の移動速度を途中で変化させることもできる。図10は、案内画像30の移動速度が途中で変化した例を示す図である。本図では、第1の位置31から第2の位置32aへ移動する場合、案内画像30は、+V1の移動速度で移動し、第2の位置32aから第1の位置31へ移動する場合、−V2の移動速度で移動している。同図に示される面積S1と面積S2とが等しければ、案内画像30が移動した距離は等しくなる。案内画像30が移動した距離が鍵盤の長さLと一致する場合、案内画像30は、第1の位置31と第2の位置32aとの間を移動したこととなる。すなわち、S1=S2=L、が満たされれば、任意の移動速度で案内画像30を移動させることもできる。   In the process in which the guide image 30 moves from the first position 31 to the second position 32a and then moves from the second position 32a to the first position 31, the moving speed of the guide image 30 changes midway. It can also be made. FIG. 10 is a diagram illustrating an example in which the moving speed of the guide image 30 changes in the middle. In this figure, when moving from the first position 31 to the second position 32a, the guide image 30 moves at a moving speed of + V1, and when moving from the second position 32a to the first position 31, It is moving at the moving speed of V2. If the area S1 and the area S2 shown in the figure are equal, the distance the guide image 30 has moved becomes equal. When the distance traveled by the guide image 30 matches the length L of the keyboard, the guide image 30 has moved between the first position 31 and the second position 32a. That is, as long as S1 = S2 = L is satisfied, the guide image 30 can be moved at an arbitrary moving speed.

本発明は、キーが押下され続けている間、音声が減衰することなく出力される楽器に適応されるのが典型的であるが、弦楽器(例えば、ギター、バイオリン)、金管楽器(例えば、トランペット、サキソフォン)、打楽器(例えば、太鼓、タンバリン)等、任意の楽器に適応され得る。   While the present invention is typically applied to instruments that output sound without attenuation while the key is held down, string instruments (eg, guitars, violins), brass instruments (eg, trumpet) , Saxophone), percussion instruments (eg, drums, tambourine), etc.

本発明は、タッチを開始するタイミング、及び、タッチを解除するタイミングの2つのタイミングをユーザに提示する任意の手法に適応され得る。例えば、台の上に登ったり、台の上から降りたりするいわゆる踏み台昇降においては、台の上に足を乗せるタイミングをタッチ開始のタイミングに、台の上から足を下ろすタイミングをタッチ解除のタイミングに、それぞれ対応させることもできる。この場合、台の上に足を乗せ続ける間が、タッチを継続する間に相当する。
また、旗を上げる又は下げる指示に基づいて、旗の上げ下げを行ういわゆる旗あげゲームにおいては、旗を上げるタイミングをタッチ開始のタイミングに、旗を下げるタイミングをタッチ解除のタイミングに、それぞれ相当させることもできる。この場合、旗を上げ続ける間が、タッチを継続する間に相当する。
The present invention can be applied to any method that presents a user with two timings: a timing to start a touch and a timing to release the touch. For example, in the so-called step up / down of the platform that climbs on or off the platform, the timing for placing the foot on the platform is the timing for starting the touch, and the timing for lowering the foot from the platform is the timing for releasing the touch. It is also possible to correspond to each. In this case, the time during which the foot is kept on the stand corresponds to the time during which the touch is continued.
Also, in a so-called flag raising game in which a flag is raised or lowered based on an instruction to raise or lower the flag, the timing for raising the flag is equivalent to the timing for starting the touch, and the timing for raising the flag is equivalent to the timing for releasing the touch. You can also. In this case, the period during which the flag is raised corresponds to the period during which the touch is continued.

以上説明したように、本発明によれば、ユーザが操作を行うべきタイミングを提示するのに好適なゲーム装置、ゲーム制御方法、及び、これらをコンピュータにて実現するプログラムを提供することができる。   As described above, according to the present invention, it is possible to provide a game device, a game control method, and a program that realizes these on a computer that are suitable for presenting the timing at which the user should perform an operation.

1 携帯型情報処理装置
10 処理制御部
10a CPUコア
10b 画像処理部
10c VRAM
10d WRAM
10e LCDコントローラ
10f タッチパネルコントローラ
11 コネクタ
12 カートリッジ
12a ROM
12b RAM
13 無線通信部
14 通信コントローラ
15 サウンドアンプ
16 スピーカ
17 マイク
18 操作キー
18a 方向キー
18b ボタン
19 第1の表示部
20 第2の表示部
21 タッチパネル
22 タッチペン
23 鍵盤
23a 白鍵
23b 黒鍵
30 案内画像
30a 帯状画像
31 第1の位置
32a、32b 第2の位置
33 第1の位置と案内画像とに挟まれる領域
34 第2の位置と案内画像とに挟まれる領域
35 案内画像と白鍵とが重なり合っている領域
36 案内画像と白鍵とが重なり合っていない領域
300 ゲーム装置
301 表示部
302 検知部
303 判定部
304 出力部
305 記憶部
DESCRIPTION OF SYMBOLS 1 Portable information processing apparatus 10 Processing control part 10a CPU core 10b Image processing part 10c VRAM
10d WRAM
10e LCD controller 10f Touch panel controller 11 Connector 12 Cartridge 12a ROM
12b RAM
DESCRIPTION OF SYMBOLS 13 Wireless communication part 14 Communication controller 15 Sound amplifier 16 Speaker 17 Microphone 18 Operation key 18a Direction key 18b Button 19 1st display part 20 2nd display part 21 Touch panel 22 Touch pen 23 Keyboard 23a White key 23b Black key 30 Guide image 30a Band-shaped image 31 First position 32a, 32b Second position 33 Area sandwiched between first position and guide image 34 Area sandwiched between second position and guide image 35 Guide image and white key overlap each other Area 36 The area where the guide image and the white key do not overlap 300 Game device 301 Display unit 302 Detection unit 303 Determination unit 304 Output unit 305 Storage unit

Claims (9)

第1の位置から第2の位置へ第1の速度で案内画像が移動し、その後、当該第2の位置から当該第1の位置へ第2の速度で当該案内画像が移動する動画像を画面に表示する表示部と、
ユーザの操作により第1の状態と第2の状態とのいずれかの状態となる操作体の状態を検知する検知部と、
前記検知された操作体の状態が、
(a)前記案内画像が前記第1の位置から前記第2の位置へ移動する間、前記第1の状態であり、
(b)前記案内画像が前記第2の位置から前記第1の位置へ移動する間、前記第2の状態であり、
(c)前記案内画像が前記第1の位置に到達したときに、前記第2の状態から前記第1の状態に移行する、
場合、当該ユーザの操作が成功したと判定する判定部と、を備える、
ことを特徴とするゲーム装置。
A moving image in which the guide image moves from the first position to the second position at the first speed and then moves from the second position to the first position at the second speed is displayed on the screen. A display section to be displayed on
A detection unit that detects a state of the operating body that is in either the first state or the second state by a user operation;
The state of the detected operating body is
(A) While the guide image is moved from the first position to the second position, the first state is maintained.
(B) While the guide image moves from the second position to the first position, the second state is maintained.
(C) When the guide image reaches the first position, the second state is shifted to the first state.
A determination unit that determines that the operation of the user is successful,
A game device characterized by that.
請求項1に記載のゲーム装置であって、
前記検知された操作体の状態が、前記第2の状態である間、所定の音声を出力する出力部と、をさらに備える、
ことを特徴とするゲーム装置。
The game device according to claim 1,
An output unit that outputs a predetermined sound while the detected state of the operating body is the second state;
A game device characterized by that.
請求項1又は2に記載のゲーム装置であって、
前記画面並びに前記操作体は、タッチスクリーンであり、
前記タッチスクリーンにおいて、
(a)前記案内画像が移動する範囲を前記ユーザがタッチしている状態は、前記第2の状態であり、
(b)前記案内画像が移動する範囲以外を前記ユーザがタッチしている状態、及び、前記タッチスクリーンを前記ユーザがタッチしていない状態は、前記第1の状態である、
ことを特徴とするゲーム装置。
The game device according to claim 1 or 2,
The screen and the operation body are touch screens,
In the touch screen,
(A) The state in which the user is touching the range in which the guide image moves is the second state,
(B) The state where the user is touching outside the range in which the guide image moves, and the state where the user is not touching the touch screen are the first state.
A game device characterized by that.
請求項1乃至3のいずれか1項に記載のゲーム装置であって、
前記動画像において、前記第1の位置と前記案内画像とに挟まれる領域の色彩と、前記第2の位置と前記案内画像とに挟まれる領域の色彩と、は異なる、
ことを特徴とするゲーム装置。
The game device according to any one of claims 1 to 3,
In the moving image, the color of the region sandwiched between the first position and the guide image is different from the color of the region sandwiched between the second position and the guide image.
A game device characterized by that.
請求項1乃至4のいずれか1項に記載のゲーム装置であって、
前記表示部は、複数の前記案内画像が移動する動画像を画面に表示する、
ことを特徴とするゲーム装置。
The game device according to any one of claims 1 to 4,
The display unit displays a moving image in which a plurality of the guide images move on a screen.
A game device characterized by that.
請求項1乃至5のいずれか1項に記載のゲーム装置であって、  A game device according to any one of claims 1 to 5,
前記第1の状態は、前記操作体への操作を行っていない状態であり、前記第2の状態は、前記操作体への操作を行っている状態である  The first state is a state where an operation is not performed on the operating body, and the second state is a state where an operation is performed on the operating body.
ことを特徴とするゲーム装置。  A game device characterized by that.
請求項1乃至6のいずれか1項に記載のゲーム装置であって、  A game device according to any one of claims 1 to 6,
前記案内画像は、前記ユーザの操作を受け付ける画像上を移動する  The guidance image moves on an image that receives the user's operation.
ことを特徴とするゲーム装置。  A game device characterized by that.
表示部と、検知部と、判定部と、を有するゲーム装置にて実行されるゲーム制御方法であって、
前記表示部が、第1の位置から第2の位置へ第1の速度で案内画像が移動し、その後、当該第2の位置から当該第1の位置へ第2の速度で当該案内画像が移動する動画像を画面に表示する表示工程と、
前記検知部が、ユーザの操作により第1の状態と第2の状態とのいずれかの状態となる操作体の状態を検知する検知工程と、
前記検知された操作体の状態が、
(a)前記案内画像が前記第1の位置から前記第2の位置へ移動する間、前記第1の状態であり、
(b)前記案内画像が前記第2の位置から前記第1の位置へ移動する間、前記第2の状態であり、
(c)前記案内画像が前記第1の位置に到達したときに、前記第2の状態から前記第1の状態に移行する、
場合、前記判定部が、当該ユーザの操作が成功したと判定する判定工程と、を備える、
ことを特徴とするゲーム制御方法。
A game control method executed by a game device having a display unit, a detection unit, and a determination unit,
The display unit moves the guide image from the first position to the second position at the first speed, and then moves the guide image from the second position to the first position at the second speed. A display process for displaying a moving image to be displayed on the screen;
A detection step in which the detection unit detects the state of the operating body that is in either the first state or the second state by a user operation;
The state of the detected operating body is
(A) While the guide image is moved from the first position to the second position, the first state is maintained.
(B) While the guide image moves from the second position to the first position, the second state is maintained.
(C) When the guide image reaches the first position, the second state is shifted to the first state.
A determination step for determining that the user's operation has been successful,
A game control method characterized by the above.
コンピュータを、
第1の位置から第2の位置へ第1の速度で案内画像が移動し、その後、当該第2の位置から当該第1の位置へ第2の速度で当該案内画像が移動する動画像を画面に表示する表示部と、
ユーザの操作により第1の状態と第2の状態とのいずれかの状態となる操作体の状態を検知する検知部と、
前記検知された操作体の状態が、
(a)前記案内画像が前記第1の位置から前記第2の位置へ移動する間、前記第1の状態であり、
(b)前記案内画像が前記第2の位置から前記第1の位置へ移動する間、前記第2の状態であり、
(c)前記案内画像が前記第1の位置に到達したときに、前記第2の状態から前記第1の状態に移行する、
場合、当該ユーザの操作が成功したと判定する判定部と、して機能させる、
ことを特徴とするプログラム。
Computer
A moving image in which the guide image moves from the first position to the second position at the first speed and then moves from the second position to the first position at the second speed is displayed on the screen. A display section to be displayed on
A detection unit that detects a state of the operating body that is in either the first state or the second state by a user operation;
The state of the detected operating body is
(A) While the guide image is moved from the first position to the second position, the first state is maintained.
(B) While the guide image moves from the second position to the first position, the second state is maintained.
(C) When the guide image reaches the first position, the second state is shifted to the first state.
In this case, the determination unit determines that the user's operation is successful, and functions as a determination unit.
A program characterized by that.
JP2010038799A 2010-02-24 2010-02-24 GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM Active JP5346844B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010038799A JP5346844B2 (en) 2010-02-24 2010-02-24 GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010038799A JP5346844B2 (en) 2010-02-24 2010-02-24 GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2011172729A JP2011172729A (en) 2011-09-08
JP5346844B2 true JP5346844B2 (en) 2013-11-20

Family

ID=44686182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010038799A Active JP5346844B2 (en) 2010-02-24 2010-02-24 GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP5346844B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5937792B2 (en) * 2011-06-03 2016-06-22 任天堂株式会社 GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JPWO2013111557A1 (en) * 2012-01-24 2015-05-11 パナソニックIpマネジメント株式会社 Electronics
JP5746648B2 (en) * 2012-02-16 2015-07-08 株式会社コナミデジタルエンタテインメント Computer apparatus and computer program used therefor
JP6167408B2 (en) * 2015-07-30 2017-07-26 株式会社コナミデジタルエンタテインメント GAME DEVICE AND PROGRAM

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3120732B2 (en) * 1996-05-17 2000-12-25 ヤマハ株式会社 Performance instruction device
JP4003342B2 (en) * 1999-04-05 2007-11-07 株式会社バンダイナムコゲームス GAME DEVICE AND COMPUTER-READABLE RECORDING MEDIUM
JP3780739B2 (en) * 1999-04-15 2006-05-31 カシオ計算機株式会社 Performance guidance device and performance guidance method
JP2001198351A (en) * 2000-01-19 2001-07-24 Konami Co Ltd Arcade game equipment, methofd for displaying throwing guide in arcade game and readable recording mediium recording throwing guide display program
JP2001246153A (en) * 2000-03-06 2001-09-11 Namco Ltd Game device and computer readable recording medium storing game program
JP2002041206A (en) * 2000-07-25 2002-02-08 Sega Corp Image display method
JP4740608B2 (en) * 2005-02-08 2011-08-03 任天堂株式会社 Program and information processing apparatus for controlling guide display
JP2008017934A (en) * 2006-07-11 2008-01-31 Aruze Corp Game apparatus and its image change control method

Also Published As

Publication number Publication date
JP2011172729A (en) 2011-09-08

Similar Documents

Publication Publication Date Title
KR101554221B1 (en) Method for playing a musical instrument using potable terminal and apparatus thereof
KR101657963B1 (en) Operation Method of Device based on a alteration ratio of touch area And Apparatus using the same
JP5267229B2 (en) Information processing apparatus, information processing method, and information processing program
JP4328828B2 (en) Portable chord output device, computer program, and recording medium
US20080189613A1 (en) User interface method for a multimedia playing device having a touch screen
CN103002139B (en) Unlocking method of touch screen terminal
TW201443696A (en) Pedal controller and method of controlling electronic device using the same
JP5346844B2 (en) GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM
WO2009147901A1 (en) Input device, input method, program, and recording medium
JP2013073479A (en) Item selection device, item selection method, and program
JP2010279520A (en) Game device, game control method, and program
US9861892B2 (en) Music game which changes sound based on the quality of players input
JP2011183025A (en) Input device, input method, and program
JP4746686B2 (en) Information processing apparatus, processing method, and program
JP2011197719A (en) Touch panel input device, control method for the same, and program
JP5177765B2 (en) Input device, input method, and program
JP2008181367A (en) Music player
JP2013195965A (en) Mobile information device and program
JP5912940B2 (en) Evaluation apparatus, evaluation method, program, and system
KR101850875B1 (en) Digital musical instruments with various performance modes
JP4972111B2 (en) Audio playback device, playback method, and program
JP7430166B2 (en) Information processing program, information processing device, and information processing method
JP5291741B2 (en) GAME DEVICE, GAME RESUME METHOD, AND PROGRAM
KR101415333B1 (en) Guitar using smart phone and method for play of the same guitar
JP2020171733A (en) Program, game device, and game progress method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130819

R150 Certificate of patent or registration of utility model

Ref document number: 5346844

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250