JP2009301092A - Item-selecting device, item selection method, and program - Google Patents

Item-selecting device, item selection method, and program Download PDF

Info

Publication number
JP2009301092A
JP2009301092A JP2008151567A JP2008151567A JP2009301092A JP 2009301092 A JP2009301092 A JP 2009301092A JP 2008151567 A JP2008151567 A JP 2008151567A JP 2008151567 A JP2008151567 A JP 2008151567A JP 2009301092 A JP2009301092 A JP 2009301092A
Authority
JP
Japan
Prior art keywords
item
detected
user
contact
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008151567A
Other languages
Japanese (ja)
Other versions
JP4797045B2 (en
Inventor
Masafumi Takehiro
将史 竹廣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2008151567A priority Critical patent/JP4797045B2/en
Publication of JP2009301092A publication Critical patent/JP2009301092A/en
Application granted granted Critical
Publication of JP4797045B2 publication Critical patent/JP4797045B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an item-selecting device which is suitable in rapidly selecting an item from an item list by operating a touch screen, and to provide an item-selecting method, and a program. <P>SOLUTION: A storage part 201 stores the list with the items to be selected as elements, and the position of a window for covering a part of the list. A display part 202 displays the elements of the list existing in an window area. hen a user contacts the display part 202 and performs a shake-off operation, a movement part 205 updates the storage part 201, to move the position of the window, based on the change of a contact position immediately before the user releases the contact among the changes of the contact position detected by a detecting part 203. Thus, the element of the list to be displayed by the display parts 202 is changed. When the user starts contact and substantially does not move the contact position, until the release of the contact, an item output part 204 outputs the item of the element displayed in coordinate value as a selection result. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

タッチスクリーンを操作して項目リストから素早く項目を選択するのに好適な項目選択装置、項目選択方法、ならびにプログラムに関する。 The present invention relates to an item selection device, an item selection method, and a program suitable for quickly selecting an item from an item list by operating a touch screen.

従来から、タッチスクリーン(またはタッチパネル)に接触して入力操作を行なうゲーム等において、ゲームキャラクタの操作性を向上させる技術が提案されている。このような技術は、例えば、以下の文献に開示されている。
特許第3924579号公報
2. Description of the Related Art Conventionally, techniques for improving the operability of game characters have been proposed in games and the like in which an input operation is performed by touching a touch screen (or touch panel). Such a technique is disclosed in the following documents, for example.
Japanese Patent No. 3924579

特許文献1に開示の技術では、タッチペンなどの接触部材をタッチスクリーンに接触させると、最初に接触した位置と、タッチペンを接触移動(即ち、接触させたまま移動)させた位置とに基づいて、タッチペンの移動方向及び移動距離が計算処理される。タッチペンの移動方向及び移動距離に応じてキャラクタが所定の一方向に向くようにキャラクタを回転させるキャラクタ回転処理が行われ、キャラクタ70を所定の一方向に推進させるキャラクタ推進処理が行われる。   In the technique disclosed in Patent Document 1, when a contact member such as a touch pen is brought into contact with the touch screen, based on a position where the touch pen is first contacted and a position where the touch pen is moved in contact (that is, moved while being in contact), The moving direction and moving distance of the touch pen are calculated. Character rotation processing is performed to rotate the character so that the character is directed in a predetermined direction according to the moving direction and moving distance of the touch pen, and character propulsion processing is performed to propel the character 70 in the predetermined direction.

一方、項目リストから項目を選択する場合についても、タッチスクリーンを用いてより簡便に行なう方法が強く求められている。   On the other hand, when selecting an item from an item list, there is a strong demand for a simpler method using a touch screen.

本発明は以上のような課題を解決するためのものであり、タッチスクリーンを操作して項目リストから素早く項目を選択するのに好適な項目選択装置、項目選択方法、ならびにプログラムを提供することを目的とする。   The present invention is intended to solve the above problems, and provides an item selection device, an item selection method, and a program suitable for quickly selecting an item from an item list by operating a touch screen. Objective.

上記目的を達成するため、本発明の第1の観点に係る項目選択装置は、記憶部と、表示部と、検知部と、項目出力部と、移動部と、を備える。   In order to achieve the above object, an item selection device according to a first aspect of the present invention includes a storage unit, a display unit, a detection unit, an item output unit, and a moving unit.

記憶部は、選択対象となる項目を要素とする表と、当該表の一部を覆う領域の位置と、を記憶する。表の要素のそれぞれは、少なくとも1つ以上の行、および、列に配置される。また、表の一部を覆う領域は、後述の表示部によって表示される当該表の領域を指定するものである。即ち、当該領域の配置される位置に応じて、表示される表の項目が決定される。   The storage unit stores a table whose elements are items to be selected and a position of an area covering a part of the table. Each element of the table is arranged in at least one or more rows and columns. The area covering a part of the table designates the area of the table displayed by the display unit described later. That is, the displayed table item is determined according to the position where the area is arranged.

表示部は、当該表のうち、記憶部に位置が記憶される領域に含まれる要素を表示する。ここで、表示部は、タッチセンサを重畳した所謂タッチスクリーンである。なお、表の一部を覆う領域の位置は、ユーザがタッチスクリーンを接触することによって行なう指示に応じて変化し、当該位置の変化に応じて表示部に表示される項目も変化する。   A display part displays the element contained in the area | region where a position is memorize | stored in a memory | storage part among the said tables. Here, the display unit is a so-called touch screen on which a touch sensor is superimposed. Note that the position of the area covering a part of the table changes according to an instruction given by the user touching the touch screen, and the item displayed on the display unit also changes according to the change in the position.

検知部は、ユーザが表示部の表面に接触していればその位置を、当該表面を解放していれば、その旨を検知する。即ち、検知部は、ユーザがタッチスクリーンに接触すると、その位置を示す座標値を検出する。また、検知部は、タッチスクリーンへの接触がないと、接触がない旨を検出する。なお、検知部は例えば所定の時間間隔で検知状態の検出を行なう。   The detection unit detects the position when the user is in contact with the surface of the display unit, and detects the position when the user releases the surface. That is, when the user touches the touch screen, the detection unit detects a coordinate value indicating the position. The detection unit detects that there is no contact when there is no contact with the touch screen. The detection unit detects the detection state at predetermined time intervals, for example.

項目出力部は、当該ユーザが当該表面に接触して以降、当該表面を解放するまでに検知された位置が所定の範囲内にある場合、当該検知された位置に表示されている要素の項目を選択結果として出力する。即ち、ユーザがタッチスクリーンに接触したまま、その接触位置をほぼ移動せずにタッチスクリーンを放した場合、項目出力部は、当該接触している位置に表示されている項目が選択されたものとして出力する。   The item output unit displays the item of the element displayed at the detected position when the position detected until the user releases the surface after the user touches the surface is within a predetermined range. Output as selection result. That is, when the user releases the touch screen without moving the touch position while touching the touch screen, the item output unit assumes that the item displayed at the touched position is selected. Output.

移動部は、当該ユーザが当該表面に接触して以降、当該表面を解放するまでに検知された位置が所定の範囲内でない場合、当該表面に接触する位置の変化を表す速度のうち、当該表面を解放する直前の速度を取得し、当該速度に基づいて、記憶部に記憶される領域の位置を移動する。   When the position detected until the user releases the surface after the user touches the surface is not within a predetermined range, the moving unit detects the surface of the speed representing the change in the position that contacts the surface. The speed immediately before releasing is acquired, and the position of the area stored in the storage unit is moved based on the speed.

即ち、移動部は、ユーザがタッチスクリーンを放す直前の接触移動の速度に応じて当該領域の移動速度と移動方向を算出して、表の一部を覆う領域の位置を移動する。よって、所望の項目を選択するために、表示されている表の項目をスクロールして表示させる場合、ユーザは、タッチスクリーンを掃う操作(即ち、タッチスクリーンに接触し、当該接触する位置を変化させ、接触する位置の変化を0以上に保ちながら、タッチスクリーンを放す操作)を行なえばよい。一方、タッチスクリーンを放す直前、接触位置を移動させなければ、表はスクロールして表示されない。   That is, the moving unit calculates the moving speed and moving direction of the area according to the contact moving speed immediately before the user releases the touch screen, and moves the position of the area covering a part of the table. Therefore, when scrolling and displaying a displayed table item in order to select a desired item, the user performs an operation of sweeping the touch screen (that is, touching the touch screen and changing the contact position). The operation of releasing the touch screen may be performed while keeping the change in the contact position at 0 or more. On the other hand, if the touch position is not moved immediately before releasing the touch screen, the table is not scrolled and displayed.

このような項目選択装置によれば、表示される項目は、ユーザがタッチスクリーンを接触する位置の変化の速度に基づいて決定される。したがって、表の項目が表示される際のスクロール速度を上げたい場合には、早い速度でタッチスクリーンを掃う操作を行なえばよい。スクロール速度を上げるために、スクロールさせたい方向を示すキーを一定時間以上押し続ける典型的な方法と比較して、待ち時間を排除することができ、操作性が向上される。また、移動部は、掃う操作が行なわれた方向に基づいて、当該表の一部を覆う領域の位置を移動するため、2次元に配置される当該表の要素の中から、素早く目的の項目を見つけ出すことが可能となる。   According to such an item selection device, an item to be displayed is determined based on a change speed of a position where the user touches the touch screen. Therefore, in order to increase the scroll speed when the items in the table are displayed, the touch screen may be swept at a high speed. Compared with a typical method in which a key indicating a direction to be scrolled is pressed for a predetermined time or more in order to increase the scroll speed, the waiting time can be eliminated, and the operability is improved. Further, the moving unit moves the position of the region covering a part of the table based on the direction in which the sweep operation is performed, so that the target can be quickly selected from the elements of the table arranged two-dimensionally. The item can be found out.

また、当該ユーザがつまんで当該表面に接触するための接触部材をさらに備えるようにしてもよい。このとき、当該接触部材は、ピック形状、もしくは、ピック形状の先端に突起を配置した形状としてもよい。即ち、接触部材は、所謂タッチペンであり、ユーザが掃う動作を行い易いようにその持ち手の部分はギターピックの形状を有しており、先端には接触位置が検出され易いように突起を備えるようにしてもよい。   Moreover, you may make it further provide the contact member for the said user to pinch and contact the said surface. At this time, the contact member may have a pick shape or a shape in which a protrusion is arranged at the tip of the pick shape. That is, the contact member is a so-called touch pen, and the handle portion has a guitar pick shape so that the user can easily perform the sweeping operation, and the tip has a protrusion so that the contact position can be easily detected. You may make it prepare.

このような接触部材を用いることにより、タッチスクリーンを掃う操作をより簡単に行なうことが可能となり、タッチスクリーンの操作性をより向上させることができる。   By using such a contact member, it is possible to perform an operation of sweeping the touch screen more easily, and the operability of the touch screen can be further improved.

また、移動部は、当該領域の位置を、当該表の行もしくは列のいずれか一方に沿って移動させてもよい。このとき、当該領域の位置を移動させる向きは、取得された速度の向きに最も近い向きであり、当該領域の位置を移動させる速さは、取得された速度が大きくなるにつれて増加するように移動させてもよい。   Further, the moving unit may move the position of the region along either one of the row or the column of the table. At this time, the direction in which the position of the area is moved is the direction closest to the direction of the acquired speed, and the speed of moving the position of the area moves so as to increase as the acquired speed increases. You may let them.

即ち、移動部は、縦方向または横方向に表の一部を覆う領域の位置を移動する。このとき、移動部は、ユーザがタッチスクリーンを解放する直前の接触移動の速度方向について、縦方向成分、および横方向成分を算出し、より大きい成分を有する方向に当該領域を移動する。一方、当該領域の移動速度は、ユーザがタッチスクリーンを解放する直前の速度に基づいて決定し、解放直前の接触移動の速度が遅ければ、当該領域の位置の移動速度も遅くなり、接触移動の速度が速ければ、当該領域の位置の移動速度も速くなる。   That is, the moving unit moves the position of the region covering a part of the table in the vertical direction or the horizontal direction. At this time, the moving unit calculates the vertical direction component and the horizontal direction component for the speed direction of the contact movement immediately before the user releases the touch screen, and moves the region in the direction having the larger component. On the other hand, the movement speed of the area is determined based on the speed immediately before the user releases the touch screen. If the speed of the contact movement immediately before the release is slow, the movement speed of the position of the area is also slowed down. If the speed is high, the moving speed of the position of the area is also high.

このように縦方向、または横方向に、表の一部を覆う領域の移動する方向を決めることで、ユーザは、現在表示されている項目が表のどの部分に位置するかを容易に把握でき、選択したい項目を素早く見つけ出すことができる。   By determining the moving direction of the area covering a part of the table in the vertical direction or the horizontal direction in this way, the user can easily grasp the part of the table where the currently displayed item is located. , You can quickly find the item you want to select.

また、移動部は、当該領域の位置が当該表の端に達すると、当該領域の位置を巡回的に移動させるようにしてもよい。例えば、当該表の要素のそれぞれが、M行、N列(M、N:任意の正の整数)に配置される場合について説明する。このとき、移動部は、M行目に続いて、1行目、2行目、3行目…が配置され、N列目に続いて、1列目、2列目、3列目…が配置されるように当該領域の位置を移動させてもよい。あるいは、1行目の前には、M行目、M−1行目、M−2行目…が配置され、1列目の前にはN列目、N−1列目、N−2列目…が配置されるように当該領域の位置を移動させてもよい。これにより、巡回的に表の項目が表示される。   Further, the moving unit may cyclically move the position of the area when the position of the area reaches the end of the table. For example, a case will be described in which each element of the table is arranged in M rows and N columns (M, N: any positive integer). At this time, the moving unit is arranged with the first row, the second row, the third row,... Following the Mth row, and the first column, the second column, the third column,. You may move the position of the said area so that it may be arranged. Or, before the first row, the Mth row, the M−1th row, the M-2th row,... Are arranged, and before the first row, the Nth column, the N−1th column, and the N−2 The position of the area may be moved so that the columns are arranged. Thereby, the items in the table are displayed cyclically.

また、移動部は、当該領域の位置が当該表の端に達すると、当該領域の位置を移動させる向きを逆にするようにしてもよい。即ち、上述のように巡回的に項目を表示するのではなく、当該表の端に達すると、当該領域の位置が跳ね返って逆向きに移動したかのように、当該表の要素を表示する。   In addition, when the position of the area reaches the end of the table, the moving unit may reverse the direction in which the position of the area is moved. That is, instead of displaying the items cyclically as described above, when the end of the table is reached, the elements of the table are displayed as if the position of the region bounced back and moved in the opposite direction.

このように、表の一部を覆う領域が表の端に達しても、スクロールを停止させないことで、ユーザは再度タッチスクリーンを操作することなく、選択項目を探すことができる。   Thus, even if the area covering a part of the table reaches the end of the table, the user can search for the selection item without operating the touch screen again by not stopping the scrolling.

また、移動部は、当該ユーザが当該表面に接触を開始した位置に表示されていた要素が、当該ユーザが当該表面に接触している間、当該接触している位置に表示されるように、当該領域の位置を移動するようにしてもよい。   In addition, the moving unit is configured so that the element displayed at the position where the user starts contact with the surface is displayed at the contact position while the user is in contact with the surface. You may make it move the position of the said area | region.

即ち、ユーザがタッチスクリーンに接触している間は、接触位置に表示されている項目が接触位置とともに移動するように、表示部に表示されている領域(即ち、表の一部を覆う領域)の位置を移動する。これにより、ユーザは、少しずつ表示されている表の項目を移動することができる。また、例えば、ユーザがタッチスクリーンの表面を掃って当該領域の位置の移動を開始させた場合(即ち、表のスクロール表示を開始させた場合)、タッチスクリーンを再度接触して、接触位置を移動しなければ、上述したように当該領域の位置が接触位置に連動するため、スクロール表示を停止することができる。   In other words, while the user is in contact with the touch screen, the area displayed on the display unit (that is, the area covering a part of the table) so that the item displayed at the contact position moves together with the contact position. Move the position. Thereby, the user can move the item of the table | surface currently displayed little by little. Also, for example, when the user sweeps the surface of the touch screen and starts to move the position of the area (that is, when the scroll display of the table is started), the user touches the touch screen again to change the touch position. If it does not move, since the position of the area is linked to the contact position as described above, the scroll display can be stopped.

また、項目出力部は、当該ユーザが当該表面に接触して以降、当該表面を解放するまでに検知された位置が所定の範囲内にあり、さらに、当該接触から当該解放までの時間が所定の閾時間以下である場合、当該検知された位置に表示されている要素の項目を選択結果として出力するようにしてもよい。   In addition, the item output unit has a predetermined position within a predetermined range after the user touches the surface and releases the surface, and further, a time from the contact to the release is predetermined. When the time is equal to or shorter than the threshold time, the item of the element displayed at the detected position may be output as the selection result.

ここで、上述したように、ユーザは、タッチスクリーンの表面を掃ってスクロール表示を開始させた場合、タッチスクリーンを再度接触することにより、スクロール表示を停止することができる。このとき、再度接触した際の位置にほぼ変化がない場合、閾時間という条件を加えることで、その接触が単に移動を停止するためのものなのか、あるいは、接触した位置に表示される項目を選択するものなのかを判別することが可能となる。即ち、接触した項目を選択する場合は、当該項目が表示されるタッチスクリーンの位置を素早く(閾時間以下)接触する。一方、スクロール表示を単に止めたいときは、ユーザはタッチスクリーンの同じ位置を所定の閾時間以上接触すればよい。   Here, as described above, when the user sweeps the surface of the touch screen and starts scroll display, the user can stop the scroll display by touching the touch screen again. At this time, if there is almost no change in the position at the time of contact again, by adding a condition of a threshold time, whether the contact is simply for stopping movement, or an item displayed at the contact position It is possible to determine whether the selection is made. That is, when selecting the touched item, the position of the touch screen on which the item is displayed is quickly touched (below the threshold time). On the other hand, when the user simply wants to stop the scroll display, the user may touch the same position on the touch screen for a predetermined threshold time or longer.

また、本発明の他の観点に係る項目選択方法は、記憶部、表示部、検知部、項目出力部、移動部、を備える項目選択装置による項目選択方法であり、表示工程、検知工程、出力工程、移動工程、を備える。   An item selection method according to another aspect of the present invention is an item selection method by an item selection device including a storage unit, a display unit, a detection unit, an item output unit, and a moving unit, and includes a display step, a detection step, and an output A process and a moving process.

ここで、記憶部は、選択対象となる項目を要素とする表と、当該表の一部を覆う領域の位置と、を記憶する。   Here, the storage unit stores a table whose elements are items to be selected and a position of an area covering a part of the table.

表示工程では、表示部が、当該表のうち、記憶部に位置が記憶される領域に含まれる要素を表示する。
検知工程では、検知部が、ユーザが表示部の表面に接触していればその位置を、当該表面を解放していれば、その旨を検知する。
出力工程では、項目出力部が、当該ユーザが当該表面に接触して以降、当該表面を解放するまでに検知された位置が所定の範囲内にある場合、当該検知された位置に表示されている要素の項目を選択結果として出力する。
In the display step, the display unit displays elements included in the area of the table where the position is stored in the storage unit.
In the detection step, the detection unit detects the position if the user is in contact with the surface of the display unit, and detects that if the surface is released.
In the output step, the item output unit is displayed at the detected position when the position detected until the user releases the surface after the user touches the surface is within a predetermined range. The element item is output as the selection result.

そして、移動工程では、移動部が、当該ユーザが当該表面に接触して以降、当該表面を解放するまでに検知された位置が所定の範囲内でない場合、当該表面に接触する位置の変化を表す速度のうち、当該表面を解放する直前の速度を取得し、当該速度に基づいて、記憶部に記憶される領域の位置を移動する、ことを特徴とする。   In the moving step, the moving unit represents a change in the position in contact with the surface when the position detected until the user releases the surface after the user contacts the surface is not within a predetermined range. Among the speeds, the speed immediately before releasing the surface is acquired, and the position of the area stored in the storage unit is moved based on the speed.

また、本発明の他の観点に係るプログラムは、コンピュータを、上記の項目選択装置として機能させるように構成する。本発明の他の観点に係るプログラムは、コンピュータに上記の項目選択方法を実行させるように構成する。   A program according to another aspect of the present invention is configured to cause a computer to function as the item selection device. A program according to another aspect of the present invention is configured to cause a computer to execute the item selection method.

また、本発明のプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読取可能な情報記録媒体に記録することができる。上記プログラムは、当該プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配布・販売することができる。また、上記情報記録媒体は、当該コンピュータとは独立して配布・販売することができる。   The program of the present invention can be recorded on a computer-readable information recording medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory. The above program can be distributed and sold via a computer communication network independently of the computer on which the program is executed. The information recording medium can be distributed and sold independently of the computer.

本発明によれば、タッチスクリーンを操作して項目リストから素早く項目を選択するのに好適な項目選択装置、項目選択方法、ならびにプログラムを提供することができる。   According to the present invention, it is possible to provide an item selection device, an item selection method, and a program suitable for quickly selecting an item from an item list by operating a touch screen.

本実施の形態に係るゲーム装置は、後述するように、大きく分けて、項目選択装置、および、音声処理装置として機能する。即ち、まず、ユーザは、項目選択装置としてのゲーム装置で、ギター演奏のシミュレーションを行いたい楽曲を、曲目リストから選択する。そして、次に、音声処理装置としてのゲーム装置で、選択された楽曲を用いて、ギター演奏のシミュレーションを行なう。   As will be described later, the game device according to the present embodiment broadly functions as an item selection device and a sound processing device. That is, first, the user selects a music piece for which a guitar performance simulation is to be performed from a music list by using a game device as an item selection device. Next, a guitar performance simulation is performed using the selected music piece in the game device as the sound processing device.

図1は、本発明の実施の形態に係る項目選択装置、および、音声処理装置が実現される典型的な携帯型のゲーム装置の概要構成を示す模式図である。また、図2には、当該携帯型のゲーム装置の外観図を示す。以下、本図を参照して説明する。   FIG. 1 is a schematic diagram showing a schematic configuration of a typical portable game device in which an item selection device and a sound processing device according to an embodiment of the present invention are realized. FIG. 2 is an external view of the portable game device. Hereinafter, a description will be given with reference to FIG.

ゲーム装置100は、CPU(Central Processing Unit)101と、ROM(Read Only Memory) 102と、RAM(Random Access Memory)103と、インターフェイス104 と、入力部105と、メモリカセット106と、画像処理部107 と、タッチスクリーン108と、NIC(Network Interface Card)109と、音声処理部110と、マイク111と、スピーカ112と、を備える。   The game apparatus 100 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, an interface 104, an input unit 105, a memory cassette 106, and an image processing unit 107. A touch screen 108, a NIC (Network Interface Card) 109, an audio processing unit 110, a microphone 111, and a speaker 112.

ゲーム用のプログラムおよびデータを記憶したメモリカセット106(詳細は後述)をインターフェイス104に接続されたスロット(図示せず)に装着して、ゲーム装置100の電源を投入することにより、当該プログラムが実行され、本実施形態の項目選択装置、および、音声処理装置が実現される。   A memory cassette 106 (details will be described later) storing a game program and data is loaded into a slot (not shown) connected to the interface 104, and the game apparatus 100 is turned on to execute the program. Thus, the item selection device and the sound processing device of the present embodiment are realized.

CPU 101は、ゲーム装置100全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。 CPU 101は、クロック(図示せず)を備えており、クロックの生成する信号に同期して、周辺機器が動作する。   The CPU 101 controls the overall operation of the game apparatus 100 and is connected to each component to exchange control signals and data. The CPU 101 includes a clock (not shown), and peripheral devices operate in synchronization with a signal generated by the clock.

ROM 102は、電源投入直後に実行されるIPL(Initial Program Loader)を記憶する。このIPLをCPU 101が実行することにより、メモリカセット106等に記録されたプログラムがRAM 103に読み出され、CPU 101による実行が開始される。
また、ROM 102にはゲーム装置100全体の動作制御に必要なオペレーティングシステムのプログラムや各種のデータが記録される。
The ROM 102 stores an IPL (Initial Program Loader) that is executed immediately after the power is turned on. When the CPU 101 executes this IPL, the program recorded in the memory cassette 106 or the like is read out to the RAM 103, and execution by the CPU 101 is started.
The ROM 102 stores an operating system program and various data necessary for operation control of the entire game apparatus 100.

RAM 103は、データやプログラムを一時的に記憶するためのもので、メモリカセット106等から読み出したプログラムやデータ、その他ゲームの進行に必要なデータ等が保持される。   The RAM 103 is for temporarily storing data and programs, and holds programs and data read from the memory cassette 106 and other data necessary for the progress of the game.

インターフェイス104を介して着脱自在に接続されたメモリカセット106は、前述のようにゲームを実現するためのプログラムとゲームに付随する画像データや音声データとを記憶する、読出し専用のROM領域と、プレー結果などのデータをセーブするSRAM領域とを有する。CPU 101はメモリカセット106に対する読み出し処理を行って、必要なプログラムやデータを読み出し、読み出したデータをRAM 103等に一時的に記憶する。   The memory cassette 106 detachably connected via the interface 104 has a read-only ROM area for storing a program for realizing the game and image data and sound data accompanying the game, as described above, and a play area. And an SRAM area for saving data such as results. The CPU 101 performs a reading process on the memory cassette 106, reads a necessary program and data, and temporarily stores the read data in the RAM 103 or the like.

入力部105は、図2に示すコントロールボタンなどであり、ユーザによる指示入力を受け付ける。   The input unit 105 is a control button or the like shown in FIG. 2, and receives an instruction input from the user.

画像処理部107は、メモリカセット106から読み出されたデータをCPU 101や画像処理部107が備える画像演算プロセッサ(図示せず)によって加工処理した後、これを画像処理部107が備えるフレームメモリ(図示せず)に記録する。フレームメモリに記録された画像情報は、所定の同期タイミングでビデオ信号に変換されタッチセンサ式のディスプレイ(タッチスクリーン108)へ出力される。これにより、各種の画像表示が可能となる。   The image processing unit 107 processes the data read from the memory cassette 106 by the CPU 101 or an image arithmetic processor (not shown) included in the image processing unit 107, and then processes the processed data in a frame memory ( (Not shown). The image information recorded in the frame memory is converted into a video signal at a predetermined synchronization timing and output to a touch sensor type display (touch screen 108). Thereby, various image displays are possible.

画像演算プロセッサは、2次元の画像の重ね合わせ演算やαブレンディング等の透過演算、各種の飽和演算を高速に実行できる。   The image calculation processor can execute a two-dimensional image overlay calculation, a transmission calculation such as α blending, and various saturation calculations at high speed.

また、3次元仮想空間に配置され、各種のテクスチャ情報が付加されたポリゴン情報を、Zバッファ法によりレンダリングして、所定の視点位置から3次元仮想空間に配置されたポリゴンを俯瞰したレンダリング画像を得る演算の高速実行も可能である。   In addition, the polygon information arranged in the three-dimensional virtual space and added with various kinds of texture information is rendered by the Z buffer method, and a rendering image obtained by overlooking the polygon arranged in the three-dimensional virtual space from a predetermined viewpoint position is obtained. High speed execution of the obtained operation is also possible.

さらに、CPU 101と画像演算プロセッサが協調動作することにより、文字の形状を定義するフォント情報にしたがって、文字列を2次元画像としてフレームメモリへ描画したり、各ポリゴン表面へ描画することが可能である。フォント情報は、ROM 102に記録されているが、メモリカセット106に記録された専用のフォント情報を利用することも可能である。   Further, the CPU 101 and the image arithmetic processor operate in a coordinated manner, so that a character string can be drawn as a two-dimensional image in a frame memory or drawn on the surface of each polygon according to font information that defines the character shape. is there. The font information is recorded in the ROM 102, but it is also possible to use dedicated font information recorded in the memory cassette 106.

なお、上記タッチスクリーン108は、タッチセンサを重畳して構成される液晶パネルである。タッチスクリーン108はユーザが指もしくは入力ペンなどによって押圧した位置に応じた位置情報を検知し、CPU 101へ入力する。   The touch screen 108 is a liquid crystal panel configured by overlapping touch sensors. The touch screen 108 detects position information corresponding to the position pressed by the user with a finger or an input pen, and inputs the detected position information to the CPU 101.

なお、入力部105やタッチスクリーン108を介してユーザにより入力された指示に応じて、RAMに一時的に記憶されたデータを適宜メモリカセット106に記憶することができる。   Note that data temporarily stored in the RAM can be appropriately stored in the memory cassette 106 in accordance with an instruction input by the user via the input unit 105 or the touch screen 108.

NIC 109は、ゲーム装置100をインターネット等のコンピュータ通信網(図示せず)に接続するためのものである。NIC 109は、例えば、ゲーム装置を無線でLAN(Local Area Network)に接続する場合、IEEE 802.11などの規格に準拠するインターフェイス(図示せず)により構成される。また、有線でLANに接続する場合は、10BASE−T/100BASE−T規格に準拠するものや、電話回線を用いてインターネットに接続するためのアナログモデム、ISDN(Integrated Services Digital Network)モデム、ADSL(Asymmetric Digital Subscriber Line)モデム、ケーブルテレビジョン回線を用いてインターネットに接続するためのケーブルモデム等と、これらとCPU 101との仲立ちを行うインターフェイス(図示せず)により構成される。   The NIC 109 is for connecting the game apparatus 100 to a computer communication network (not shown) such as the Internet. For example, when the game device is wirelessly connected to a LAN (Local Area Network), the NIC 109 is configured by an interface (not shown) compliant with a standard such as IEEE 802.11. In addition, when connecting to a LAN by wire, one that conforms to the 10BASE-T / 100BASE-T standard, an analog modem for connecting to the Internet using a telephone line, an ISDN (Integrated Services Digital Network) modem, an ADSL ( Asymmetric Digital Subscriber Line) modem, a cable modem for connecting to the Internet using a cable television line, etc., and an interface (not shown) that mediates between these and the CPU 101.

NIC 109を介してインターネット内のSNTPサーバに接続し、ここから情報を取得することによって現在の日時情報を得ることもできる。また、各種のネットワークゲームのサーバ装置が、SNTPサーバと同様の機能を果たすように構成設定してもよい。   It is also possible to obtain current date and time information by connecting to an SNTP server in the Internet via the NIC 109 and acquiring information therefrom. In addition, various network game server devices may be configured and configured to perform the same functions as the SNTP server.

音声処理部110は、メモリカセット106から読み出した音声データをアナログ音声信号に変換し、音声処理部110に接続されたスピーカ112から出力させる。また、CPU 101の制御の下、ゲームの進行の中で発生させるべき効果音や音声データを生成し、これに対応した音声をスピーカ112から出力させる。   The sound processing unit 110 converts the sound data read from the memory cassette 106 into an analog sound signal, and outputs the analog sound signal from the speaker 112 connected to the sound processing unit 110. Further, under the control of the CPU 101, sound effects and sound data to be generated during the progress of the game are generated, and sound corresponding to the sound effects and sound data are output from the speaker 112.

音声処理部110は、メモリカセット106に記録された音声データがMIDIデータである場合には、これが有する音源データを参照して、MIDIデータをPCMデータに変換する。また、ADPCM形式やOgg Vorbis形式等の圧縮済音声データである場合には、これを展開してPCMデータに変換する。PCMデータは、そのサンプリング周波数に応じたタイミングでD/A(Digital/Analog) 変換を行って、スピーカ112などに出力することにより、音声出力が可能となる。   When the audio data recorded in the memory cassette 106 is MIDI data, the audio processing unit 110 refers to the sound source data included in the audio data and converts the MIDI data into PCM data. If the compressed audio data is in ADPCM format or Ogg Vorbis format, it is expanded and converted to PCM data. The PCM data is subjected to D / A (Digital / Analog) conversion at a timing corresponding to the sampling frequency, and output to the speaker 112 or the like, thereby enabling voice output.

また、音声処理部110は、マイク111から入力されたアナログ信号を適当なサンプリング周波数でA/D 変換を行い、PCM形式のディジタル信号を生成する。   The audio processing unit 110 performs A / D conversion on the analog signal input from the microphone 111 at an appropriate sampling frequency, and generates a PCM format digital signal.

このほか、ゲーム装置100はメモリカセット106に替えて、DVD−ROMからプログラムやデータを読み出す、DVD−ROMドライブを備えるように構成して、DVD−ROMにメモリカセット106と同様の機能を持たせるようにしてもよい。また、インターフェイス104は、メモリカセット106以外の外部メモリ媒体からデータを読み出すように構成してもよい。   In addition, the game apparatus 100 is configured to include a DVD-ROM drive that reads programs and data from the DVD-ROM instead of the memory cassette 106, and the DVD-ROM has the same function as the memory cassette 106. You may do it. The interface 104 may be configured to read data from an external memory medium other than the memory cassette 106.

あるいは、ゲーム装置100は、ハードディスク等の大容量外部記憶装置を用いて、ROM 102、RAM 103、メモリカセット106等と同じ機能を果たすように構成してもよい。   Alternatively, the game apparatus 100 may be configured to perform the same function as the ROM 102, the RAM 103, the memory cassette 106, and the like using a large-capacity external storage device such as a hard disk.

なお、本実施の形態に係る項目選択装置、および、音声処理装置は、携帯型のゲーム装置上に実現されるが、一般的なコンピュータ上に実現することもできる。一般的なコンピュータは、上記ゲーム装置100と同様に、CPU、RAM、ROM、NIC、等を備え、ゲーム装置100よりも簡易な機能を備えた画像処理部を備え、外部記憶装置としてハードディスクを有する他、フレキシブルディスク、光磁気ディスク、磁気テープ等が利用できるようになっている。また、入力部ではなく、キーボードやマウスなどを入力装置として利用する。そして、プログラムをインストールした後に、そのプログラムを実行させると、項目選択装置、および音声処理装置として機能させることができる。   The item selection device and the sound processing device according to the present embodiment are realized on a portable game device, but may be realized on a general computer. Similar to the game apparatus 100, a general computer includes a CPU, RAM, ROM, NIC, and the like, an image processing unit having a simpler function than the game apparatus 100, and a hard disk as an external storage device. In addition, flexible disks, magneto-optical disks, magnetic tapes, etc. can be used. In addition, a keyboard and a mouse are used as an input device instead of the input unit. Then, after the program is installed, when the program is executed, it can function as an item selection device and a voice processing device.

以下では、項目選択装置について説明し、その後音声処理装置について説明する。なお、注記しない限り、項目選択装置、および、音声処理装置について、図1に示したゲーム装置100により説明を加える。項目選択装置、および、音声処理装置は、必要に応じて適宜一般的なコンピュータの要素に置換することができ、これらの実施の形態も本発明の範囲に含まれる。   Hereinafter, the item selection device will be described, and then the voice processing device will be described. Unless otherwise noted, the item selection device and the sound processing device will be described using the game device 100 shown in FIG. The item selection device and the sound processing device can be appropriately replaced with general computer elements as necessary, and these embodiments are also included in the scope of the present invention.

(項目選択装置)
図3は、本実施の形態に係る項目選択装置200の概要構成を示すブロック図である。項目選択装置200は、図3に示すように、記憶部201、表示部202、検知部203、項目出力部204、移動部205、等を備える。なお、後述するように、項目選択装置200は、図8に示すように接触部材206を備えてもよい。以下に項目選択装置200の各構成要素について本図を参照して説明する。
(Item selection device)
FIG. 3 is a block diagram showing a schematic configuration of the item selection device 200 according to the present embodiment. As shown in FIG. 3, the item selection device 200 includes a storage unit 201, a display unit 202, a detection unit 203, an item output unit 204, a moving unit 205, and the like. As will be described later, the item selection device 200 may include a contact member 206 as shown in FIG. Below, each component of the item selection apparatus 200 is demonstrated with reference to this figure.

記憶部201は、選択対象となる項目を要素とする表を記憶する。当該表は、少なくとも1つの行、および列を備える、2次元配列の構成をしている。例えば、ゲーム装置100を利用して複数の曲目を選択して再生するような場合、当該表は当該曲目のそれぞれを要素として構成されるようにしてもよい。なお、N個の要素を備える1次元の表の場合、当該表をA個ごとにグループに分けて、A行、N/A列(または、N/A行、A列)の2次元の表を構成するようにしてもよい。メモリカセット106や、RAM 103等が、協働して記憶部201として機能する。   The storage unit 201 stores a table whose elements are items to be selected. The table is in a two-dimensional array with at least one row and column. For example, when a plurality of songs are selected and reproduced using the game apparatus 100, the table may be configured with each of the songs as an element. In the case of a one-dimensional table having N elements, the table is divided into groups of A, and a two-dimensional table with A rows and N / A columns (or N / A rows and A columns). You may make it comprise. The memory cassette 106, the RAM 103, and the like function as the storage unit 201 in cooperation.

表示部202は、記憶部201から表の構成情報を取得し、図4(A)に示すように、表の画像データ(300を参照)を生成する。なお、図において、表は、5行4列の要素を備えるが、表の大きさはこれに限らない。本実施の形態では、表の大きさが、タッチスクリーン平面の大きさよりも大きい場合を考慮して、表の画像データの一部を覆う、所定の大きさの領域を備える窓(310を参照)を用意する。この窓の大きさや位置は、記憶部201に記憶される。窓の位置は、ユーザの操作指示に基づいて移動するように更新される。表示部202は、記憶部201に記憶される窓の位置を取得し、当該窓によって覆われた領域に含まれる当該表の要素を、例えば、図4(B)に示すように表示する。   The display unit 202 acquires table configuration information from the storage unit 201, and generates table image data (see 300) as illustrated in FIG. In the figure, the table includes elements of 5 rows and 4 columns, but the size of the table is not limited to this. In the present embodiment, in consideration of the case where the size of the table is larger than the size of the touch screen plane, a window (see 310) having an area of a predetermined size that covers a part of the image data of the table. Prepare. The size and position of the window are stored in the storage unit 201. The position of the window is updated to move based on a user operation instruction. The display unit 202 acquires the position of the window stored in the storage unit 201, and displays the elements of the table included in the area covered by the window as shown in FIG. 4B, for example.

なお、図4(B)で表示される項目の一覧は、要素の境界と、表示領域の境界が一致していないが、必ず一致するように調整するようにしてもよい。   Note that the list of items displayed in FIG. 4B does not match the boundary of the element and the boundary of the display area, but may be adjusted so that they always match.

このように、窓によって覆われる領域が表示部202によって表示される領域であるため、以降、窓および領域は、注記しない限り同じ意味として用いる。CPU 101、RAM 103、画像処理部107、タッチスクリーン108などが協働して、表示部202として機能する。   Thus, since the area covered by the window is the area displayed by the display unit 202, hereinafter, the window and the area are used as the same meaning unless otherwise noted. The CPU 101, the RAM 103, the image processing unit 107, the touch screen 108, and the like work together to function as the display unit 202.

窓の位置は、例えば、表の原点O(例えば表の左上)からの、当該窓の原点O’の座標値(例えば、OからのO’までのX方向、およびY方向のピクセル数)で表す。また、表示される表のX方向の大きさがWだとすると、各要素が表示されるセル(図4(A)の301を参照)のX方向の大きさwは、W/N(N:列数)であり、表のY方向の大きさがLだとすると、セルのY方向の大きさlはL/M(M:行数)である。   The position of the window is, for example, the coordinate value (for example, the number of pixels in the X direction and the Y direction from O to O ′) of the origin O ′ of the window from the origin O of the table (for example, upper left of the table). To express. If the size of the displayed table in the X direction is W, the size w of the cell in which each element is displayed (see 301 in FIG. 4A) is W / N (N: column). If the size in the Y direction of the table is L, the size l of the cell in the Y direction is L / M (M: the number of rows).

検知部203は、タッチスクリーンに接触があるかないかを所定の時間間隔で検知する。ユーザがタッチしたタッチスクリーン平面の位置は、例えば、タッチスクリーンの左上の隅を原点としたときの座標値として表される。また、検知部203は、タッチスクリーンがタッチされていない場合、タッチされていない旨を検知する。タッチスクリーン108、CPU 101などが協働して検知部203として機能する。   The detection unit 203 detects whether there is a touch on the touch screen at a predetermined time interval. The position of the touch screen plane touched by the user is represented, for example, as a coordinate value with the upper left corner of the touch screen as the origin. In addition, when the touch screen is not touched, the detection unit 203 detects that the touch screen is not touched. The touch screen 108, the CPU 101, and the like cooperate to function as the detection unit 203.

項目出力部204は、検知部203の検知結果により、ユーザがタッチスクリーンへの接触を開始し、その接触位置をほぼ移動せずにタッチスクリーンを放したと判断した場合、当該接触している位置に表示されている項目を選択結果として出力する。ここで、「ほぼ移動せずに」とは、接触が開始されてから、解放されるまでの間に検知された位置が、全て所定の範囲内であればよい。CPU 101等が項目出力部204として機能する。   When the item output unit 204 determines that the user starts touching the touch screen and releases the touch screen without moving the contact position based on the detection result of the detection unit 203, the item output unit 204 is in contact with the touch screen. The items displayed in are output as selection results. Here, “without moving substantially” means that all the positions detected after the contact is started and released are within a predetermined range. The CPU 101 or the like functions as the item output unit 204.

移動部205は、検知部203の検知結果により、ユーザがタッチスクリーンを掃うように接触移動したと判断した場合、タッチスクリーンを解放する直前の接触移動の速度を取得する。そして、当該速度に基づいて、記憶部201に記憶される窓の位置が移動されるように更新する。表示部202が、移動する窓に覆われている表の領域を表示すると、表がスクロールして表示される。   The moving unit 205 acquires the speed of the contact movement immediately before releasing the touch screen when it is determined from the detection result of the detection unit 203 that the user has moved in contact with the touch screen. And based on the said speed, it updates so that the position of the window memorize | stored in the memory | storage part 201 may be moved. When the display unit 202 displays the area of the table covered by the moving window, the table is scrolled and displayed.

また、移動部205は、ユーザによってタッチスクリーンが接触されている間は、タッチスクリーンへの接触を開始したときに接触位置に表示されている項目と同じものが接触位置に表示されるように、窓の位置を移動する。即ち、接触を開始したときに接触している項目が、接触位置に固定される。したがって、表がスクロールしている場合、再度タッチスクリーンを接触すれば、当該接触位置に表示されている内容が接触位置に固定され、スクロールを止めることもできる。移動部205は、CPU 101、RAM 103、メモリカセット106などが協働して、移動部205として機能する。   Further, while the touch screen is being touched by the user, the moving unit 205 is configured such that the same items displayed at the touch position when the touch screen is started are displayed at the touch position. Move the window position. That is, the item that is in contact when the contact is started is fixed at the contact position. Therefore, when the table is scrolling, if the touch screen is touched again, the content displayed at the contact position is fixed at the contact position, and the scroll can be stopped. The moving unit 205 functions as the moving unit 205 in cooperation with the CPU 101, the RAM 103, the memory cassette 106, and the like.

(動作処理)
上記構成を備える項目選択装置200の処理動作を図5を参照して説明する。
(Operation processing)
The processing operation of the item selection device 200 having the above configuration will be described with reference to FIG.

項目選択装置200の電源が入れられると、IPLをCPU 101が実行することにより、メモリカセット106に記録されたプログラムがRAM 103に読み込まれるなどの、初期化処理が行われる。プログラムの進行に伴い、項目選択処理が開始されると、まず、表示部202が、選択対象となる項目の一部を一覧として示す選択画面を表示する(ステップS400)。本実施の形態においては、選択対象の項目はギターシミュレーションを行なう楽曲を特定するための情報(曲目等)である。   When the item selection device 200 is turned on, the CPU 101 executes an IPL, whereby an initialization process such as reading a program recorded in the memory cassette 106 into the RAM 103 is performed. When the item selection process is started as the program progresses, first, the display unit 202 displays a selection screen showing a part of the items to be selected as a list (step S400). In the present embodiment, the item to be selected is information (song number, etc.) for specifying the music for which the guitar simulation is performed.

このとき、表示部202は、上述したように、記憶部201から表の構成情報を取得し、表の画像データを生成する。窓の位置は、初期状態においては、表の原点に配置されるため、表示部202は、表の原点から、X方向に窓の幅W、および、Y方向に窓の長さLに覆われる領域を表示する。   At this time, as described above, the display unit 202 acquires table configuration information from the storage unit 201 and generates table image data. Since the position of the window is arranged at the origin of the table in the initial state, the display unit 202 is covered with the window width W in the X direction and the window length L in the Y direction from the origin of the table. Display area.

次いで、CPU 101は、検知部203が座標値を検知すると、記憶部201に蓄積する(ステップS401)。蓄積された座標値は、後に、接触位置の変化の速度を算出するために利用する。   Next, when the detection unit 203 detects the coordinate value, the CPU 101 accumulates it in the storage unit 201 (step S401). The accumulated coordinate values are used later to calculate the speed of change of the contact position.

続いて、CPU 101は、検知部203が検知した状態が変化したか否かを判定する(ステップS402)。 即ち、前回検知されたのが座標値のときに、今回解放状態(即ち、タッチスクリーンが接触されていない状態)が検知されるか、前回と異なる座標値が検知されると、状態が変化したと判定される。あるいは、前回検知されたのが解放状態のときに、今回いずれかの座標値が検知されれば、状態が変化したと判定される。CPU 101は状態が変化しない間は(ステップS402;N)再度ステップS402に戻って、状態が変化するのを待つ。   Subsequently, the CPU 101 determines whether or not the state detected by the detection unit 203 has changed (step S402). That is, when the coordinate value is detected last time, the state is changed when the current release state (that is, the state where the touch screen is not touched) is detected or when a coordinate value different from the previous value is detected. It is determined. Alternatively, if any coordinate value is detected this time when the previous detection is in the released state, it is determined that the state has changed. While the state does not change (step S402; N), the CPU 101 returns to step S402 again and waits for the state to change.

CPU 101は、検知状態が変化したと判定すると(ステップS402;Y)、次いで、今回検知されたのが解放状態なのか、あるいは、座標値なのかを判定する(ステップS403)。   If the CPU 101 determines that the detection state has changed (step S402; Y), it then determines whether the current detection is in the released state or a coordinate value (step S403).

今回検知されたのが座標値の場合(ステップS403;N)、次に、CPU 101は、前回検知された状態が解放状態なのか、あるいは異なる座標値なのかを判定する(ステップS410)。前回検知された状態が解放状態であれば、ユーザにより接触が開始されたと判定し(ステップS410;Y)、CPU 101は、接触が開始された際のタッチスクリーン上の座標値と、窓の位置とをRAM 103に一時的に記憶する(ステップS411)。そして、処理はステップS400に戻る。   If it is the coordinate value detected this time (step S403; N), the CPU 101 then determines whether the previously detected state is a released state or a different coordinate value (step S410). If the last detected state is the released state, it is determined that the contact has been started by the user (step S410; Y), and the CPU 101 determines the coordinate value on the touch screen and the position of the window when the contact is started. Are temporarily stored in the RAM 103 (step S411). Then, the process returns to step S400.

一方、今回検知されたのが座標値であって(ステップS403;N)、且つ、前回検知された状態が解放状態でない場合(ステップS410;N)、前回検知された座標値とは異なる座標値が、今回検知されていることを意味する。即ち、接触された状態で、接触位置が移動している。このとき、移動部205は、前回接触した位置に表示される要素が今回接触している位置にドラッグ表示されるように窓を移動する(ステップS412)。   On the other hand, if the coordinate value detected this time is the coordinate value (step S403; N) and the previously detected state is not the released state (step S410; N), the coordinate value is different from the previously detected coordinate value. Means that it has been detected this time. That is, the contact position is moved in the contacted state. At this time, the moving unit 205 moves the window so that the element displayed at the previously touched position is dragged to the currently touched position (step S412).

即ち、図6(A)に示すように、前回検知された状態が座標値(p1, q1)、今回検知された状態が座標値 (p, q)であった場合、接触位置は、p-p1だけX方向に、そしてq-q1だけY方向に移動している。したがって、図6(B)に示すように、移動部205は、窓310の位置(x1, y1)を接触位置の移動した分だけ逆方向(即ち、(x1-(p-p1), y1-(q-q1))に移動する。図6(B)では、移動した窓を310’として表し、当該窓310’の位置を(x, y)=(x1-(p-p1), y1-(q-q1))で示している。   That is, as shown in FIG. 6A, when the previously detected state is the coordinate value (p1, q1) and the current detected state is the coordinate value (p, q), the contact position is p- It moves in the X direction by p1 and in the Y direction by q-q1. Therefore, as shown in FIG. 6B, the moving unit 205 moves the position (x1, y1) of the window 310 in the reverse direction (ie, (x1- (p-p1), y1-). 6B, the moved window is represented as 310 ′, and the position of the window 310 ′ is represented by (x, y) = (x1− (p−p1), y1−. (q-q1)).

例えば、図6(C)では、要素GGの左上部が接触された状態にある。この接触された状態で、図6(C)に示す矢印の方向に接触位置を移動した場合、接触位置の変化の方向と逆向きに同じ変化量だけ窓の位置を移動する。これにより、図6(D)に示すように、接触位置には、図6(C)と同様に要素GGの左上部が示される。   For example, in FIG. 6C, the upper left part of the element GG is in contact. When the contact position is moved in the direction of the arrow shown in FIG. 6C in the contacted state, the window position is moved by the same amount of change in the opposite direction to the direction of change of the contact position. As a result, as shown in FIG. 6D, the upper left portion of the element GG is shown at the contact position as in FIG. 6C.

なお、ドラッグ操作によって、窓の位置が変化して、窓の領域が、表の領域からはみ出した場合、窓の位置(x, y)は常に表の領域内の座標を示すように再配置する。例えば、窓の位置が表の端に到達した場合は、表の対極する位置に窓の位置を移動するようにする。即ち、表が、原点(0, 0)、(W, 0)、(0, L)、(W, L)に囲まれる領域に表されるとき、X=Wによって示される表300の境界線はX=0の境界線となるように扱い、Y=Lによって示される境界線はY=0の境界線となるように扱う。   If the window position changes due to the drag operation and the window area extends beyond the table area, the window position (x, y) is always rearranged to indicate the coordinates in the table area. . For example, when the position of the window reaches the end of the table, the position of the window is moved to a position opposite to the table. That is, when the table is represented in the area surrounded by the origin (0, 0), (W, 0), (0, L), (W, L), the boundary line of the table 300 indicated by X = W Is treated as a boundary line with X = 0, and a boundary line indicated by Y = L is treated as a boundary line with Y = 0.

よって、窓の位置を示す座標値が、X方向にWより大きい分については、0に加算する。また、X方向に0より小さい分については、Wから減算する。一方、Y方向にLより大きい分については、0に加算する。また、Y方向に0より小さい分については、Lから減算する。このようにして窓の位置は巡回して移動される。   Therefore, if the coordinate value indicating the window position is larger than W in the X direction, it is added to 0. Further, the portion smaller than 0 in the X direction is subtracted from W. On the other hand, the portion larger than L in the Y direction is added to 0. Also, the portion smaller than 0 in the Y direction is subtracted from L. In this way, the position of the window is moved around.

例えば、図7(A)では、窓310の位置が表300の原点から(-cx, -dy)の位置にあり(c、dは任意の定数)、(-cx, -dy)が表300の領域外にある場合、窓の位置が、表の領域内の(W-cx,L-dy)に再配置される様子を示す。再配置された窓を310’で表す。   For example, in FIG. 7A, the position of the window 310 is at a position (-cx, -dy) from the origin of the table 300 (c and d are arbitrary constants), and (-cx, -dy) is a table 300. In the case of being outside the area, the window position is rearranged to (W-cx, L-dy) within the table area. The rearranged window is denoted by 310 '.

これにより、処理がステップS400に戻り、表示部202は、現在窓に覆われている表の領域を表示すると、ユーザが接触したタッチスクリーンの位置に表示されていた要素は、ユーザが接触を移動した移動先の位置にドラッグ移動されているように表示される。なお、窓の大きさは、記憶部201に予め記憶される。   Thereby, the process returns to step S400, and when the display unit 202 displays the area of the table currently covered by the window, the element displayed at the position of the touch screen touched by the user is moved by the user. It is displayed as if it was dragged to the destination position. Note that the size of the window is stored in the storage unit 201 in advance.

ただし、ステップS412における窓の位置の移動にともない、窓の領域の一部が表からはみ出して配置されるような場合、表示部202は、表からはみ出した窓の領域については、表の行、および列のそれぞれの先頭と最後尾の要素が隣接するように巡回的に表示する。   However, in the case where a part of the window area is arranged so as to protrude from the table in accordance with the movement of the window position in step S412, the display unit 202 displays the table row for the window area protruding from the table, And it displays cyclically so that the first and last elements of each column are adjacent.

これは、例えば、次のように算出する。例えば、WおよびLをそれぞれ、表300のX方向およびY方向の大きさとし、W’およびL’をそれぞれ、窓310のX方向およびY方向の大きさとする。窓310の原点O’の座標値が(x, y)であれば、表示すべき表の領域は、表300の原点Oから、(x,y)、(x+W',y)、(x,y+L')、(x+W',y+L')に囲まれる領域となる。この表示すべき表の領域内の任意の点の座標値を(s, t)とすると、(s', t') = (s mod W, t mod L)を算出することで、座標値(s' ,t')は、窓の領域が表の領域を超えて配置された場合でも、巡回して、表の領域内の座標値を与える。   This is calculated as follows, for example. For example, let W and L be the sizes in the X direction and Y direction of the table 300, respectively, and let W ′ and L ′ be the sizes in the X direction and Y direction of the window 310, respectively. If the coordinate value of the origin O ′ of the window 310 is (x, y), the area of the table to be displayed is (x, y), (x + W ′, y), ( x, y + L ′) and (x + W ′, y + L ′). If the coordinate value of an arbitrary point in the area of the table to be displayed is (s, t), the coordinate value ((s ', t') = (s mod W, t mod L) is calculated. s ′, t ′) circulates and gives the coordinate value in the table area even when the window area is arranged beyond the table area.

これにより、例えば、図7(B)に示すように、表300において、窓310が位置していた場合、表示される表の要素は、図7(C)に示す通りとなる。   Thus, for example, as shown in FIG. 7B, when the window 310 is located in the table 300, the displayed table elements are as shown in FIG. 7C.

一方、今回検知されたのが解放状態であれば(ステップS403;Y)、項目出力部204は、ステップS400で記憶部201に蓄積された座標値が、所定の範囲内にあるか否かを判定する(ステップS404)。   On the other hand, if the detected state is the released state (step S403; Y), the item output unit 204 determines whether or not the coordinate values accumulated in the storage unit 201 in step S400 are within a predetermined range. Determination is made (step S404).

例えば、蓄積された検知位置が、すべて所定の半径を有する領域内に含まれる場合、接触位置が移動していないと判定し(ステップS404;Y)、項目出力部204は、例えば、蓄積された検知位置の平均座標値に現在表示されている表の項目を選択結果として出力する(ステップS405)。   For example, when all the accumulated detection positions are included in an area having a predetermined radius, it is determined that the contact position has not moved (step S404; Y), and the item output unit 204, for example, The table item currently displayed in the average coordinate value of the detection position is output as a selection result (step S405).

選択結果が得られると、項目選択処理は終了し、CPU 101は得られた選択結果に基づいて所定の処理を行う。   When the selection result is obtained, the item selection process ends, and the CPU 101 performs a predetermined process based on the obtained selection result.

なお、蓄積された座標値は、ステップS405の後、破棄されるようにすればよい(ステップS420)。   The accumulated coordinate values may be discarded after step S405 (step S420).

一方、蓄積された検知位置が、全て所定の範囲内でない場合(ステップS404;N)、接触位置が移動していると判断され、CPU 101は、接触が解放される直前の接触位置の移動速度を算出し、算出した移動速度が所定の閾速度以上か否かを判定する(ステップS406)。   On the other hand, when all the accumulated detection positions are not within the predetermined range (step S404; N), it is determined that the contact position is moving, and the CPU 101 moves the contact position immediately before the contact is released. Is calculated, and it is determined whether or not the calculated moving speed is equal to or higher than a predetermined threshold speed (step S406).

例えば、接触が解放される直前の検知座標を(p1, q1)、さらにその直前の検知座標を(p2, q2)とし(これらは、記憶部201に蓄積された、最新の座標値と、その前の座標値を参照することで得られる)、検知部203が検知する時間間隔をT1秒とした場合、接触が解放される直前の接触位置の変化を示す速度ベクトルは、次式によって求められる:
((p1-p2)/T1, (q1-q2)/T1)
For example, the detected coordinates immediately before the contact is released are (p1, q1), and the immediately preceding detected coordinates are (p2, q2) (these are the latest coordinate values accumulated in the storage unit 201, When the time interval detected by the detection unit 203 is T1 seconds, the velocity vector indicating the change in the contact position immediately before the contact is released is obtained by the following equation. :
((P1-p2) / T1, (q1-q2) / T1)

上記x成分およびy成分のうち、大きい方の成分が所定の閾速度以上であれば(ステップS406;Y)、ユーザがタッチスクリーンに対して掃う操作を行なったものとして判定し、移動部205は、窓の位置を、ユーザの掃う速度に応じた速度で、大きいほうの成分の方向に移動させる(ステップS407)。   If the larger component of the x component and the y component is equal to or higher than the predetermined threshold speed (step S406; Y), it is determined that the user has performed a sweeping operation on the touch screen, and the moving unit 205 Moves the window position in the direction of the larger component at a speed corresponding to the user's sweeping speed (step S407).

即ち、x成分がy成分よりも大きい場合、接触が解放される直前の接触位置の移動速度の方向は、x方向に近いことを意味する。よって、窓の位置を行方向(左右方向)に(p1-p2)/T1の速度で移動させる。一方、y成分がx成分よりも大きい場合、当該移動速度の方向が、y方向に近いことを意味する。よって、窓の位置を列方向(上下方向)に(q1-q2)/T1の速度で移動させる。当該算出された接触位置のx方向、およびy方向の移動速度に、所定の係数を乗じたものを窓の移動速度としてもよい。なお、x成分及びy成分の大きさが同じであれば、行または列のいずれか所定の方向に、その方向の成分の速度で移動させる。   That is, when the x component is larger than the y component, it means that the direction of the moving speed of the contact position immediately before the contact is released is close to the x direction. Therefore, the position of the window is moved in the row direction (left-right direction) at a speed of (p1-p2) / T1. On the other hand, when the y component is larger than the x component, it means that the direction of the moving speed is close to the y direction. Therefore, the position of the window is moved in the row direction (vertical direction) at a speed of (q1-q2) / T1. The calculated moving speed of the contact position in the x direction and y direction may be multiplied by a predetermined coefficient as the moving speed of the window. If the magnitudes of the x component and the y component are the same, the component is moved in the predetermined direction of either the row or the column at the speed of the component in that direction.

次いで、表示部202は、ステップS400と同様の処理を行い、選択項目を要素として備える表のうち、窓に覆われている領域を表示する(ステップS408)。そして、CPU 101は接触が検知されたか判定し(ステップS409)、接触が検知されたと判定すると(ステップS409;Y)、接触が開始されたものとして、ステップS411に処理を進める。一方、接触が検知されない間は(S409;N)ステップS407に処理を戻す。この結果、表は次に接触が検知されるまで、表示部202によって行方向、または列方向に、掃う直前の接触移動の速度に基づいてスクロール表示される。   Next, the display unit 202 performs the same processing as step S400, and displays the area covered by the window in the table including the selection items as elements (step S408). Then, the CPU 101 determines whether contact has been detected (step S409). If it is determined that contact has been detected (step S409; Y), the CPU 101 proceeds to step S411 assuming that contact has started. On the other hand, while no contact is detected (S409; N), the process returns to step S407. As a result, until the next contact is detected, the table is scroll-displayed by the display unit 202 in the row direction or the column direction based on the speed of the contact movement immediately before sweeping.

また、ドラッグ操作について上述したように、窓が表の画像の境界に達した場合、移動部は、巡回的に窓の位置を移動させるようにする。   Further, as described above with respect to the drag operation, when the window reaches the boundary of the front image, the moving unit cyclically moves the position of the window.

一方、CPU 101は、接触位置の移動速度が所定の速度より遅いと判断すると(ステップS406;N)、処理をステップS400へと戻す。以上により、項目選択処理は終了する。   On the other hand, when the CPU 101 determines that the moving speed of the contact position is slower than the predetermined speed (step S406; N), the process returns to step S400. Thus, the item selection process ends.

(音声処理装置)
次に、上述のようにして選択された曲目によって特定される楽曲で、ギター演奏のシミュレーションを実現する音声処理装置1000について説明する。
(Speech processor)
Next, a description will be given of the audio processing apparatus 1000 that realizes a guitar performance simulation with the music specified by the music selected as described above.

図9は、本実施の形態に係る音声処理装置1000の概要構成を示す模式図である。音声処理装置1000は、図9に示すように、検知部1001、音声出力部1002、などを備える。なお、音声処理装置1000は、後述するように、接触部材206(図8を参照)を備えてもよい。以下に本実施の形態に係る音声処理装置1000の各構成要素について本図を参照して説明する。   FIG. 9 is a schematic diagram showing a schematic configuration of the speech processing apparatus 1000 according to the present embodiment. As shown in FIG. 9, the audio processing apparatus 1000 includes a detection unit 1001, an audio output unit 1002, and the like. Note that the voice processing apparatus 1000 may include a contact member 206 (see FIG. 8), as will be described later. Hereinafter, each component of the speech processing apparatus 1000 according to the present embodiment will be described with reference to this drawing.

検知部1001は、項目選択装置の検知部203と同様のものであり、タッチスクリーンに接触があるかないかを所定の時間間隔で検知する。ユーザがタッチしたタッチスクリーン平面の位置は、例えば、タッチスクリーンの左上の隅を原点としたときの座標値として表される。また、タッチスクリーンがタッチされていない場合は、タッチされていない旨を検知する。タッチスクリーン108、およびCPU 101などが協働して検知部1001として機能する。   The detection unit 1001 is the same as the detection unit 203 of the item selection device, and detects whether there is a touch on the touch screen at a predetermined time interval. The position of the touch screen plane touched by the user is represented, for example, as a coordinate value with the upper left corner of the touch screen as the origin. When the touch screen is not touched, it is detected that the touch screen is not touched. The touch screen 108, the CPU 101, and the like cooperate to function as the detection unit 1001.

音声出力部1002は、検知された結果に基づいて、ユーザがタッチスクリーンに対して行なった操作が所定の操作条件を満たしているかを判断し、満たしている場合は、出力音声の出力を開始したり、停止したりする制御を行なう。音声処理部110などが、音声出力部1002として機能する。   The audio output unit 1002 determines whether an operation performed on the touch screen by the user satisfies a predetermined operation condition based on the detected result, and starts output of the output audio if the operation is satisfied. Control to stop or stop. The audio processing unit 110 or the like functions as the audio output unit 1002.

(動作処理)
以下に、上記構成を備える本実施の形態に係る音声処理装置の動作処理について説明する。
(Operation processing)
The operation processing of the speech processing apparatus according to the present embodiment having the above configuration will be described below.

メモリカセット106には、曲目など、楽曲の属性情報に対応して、当該楽曲の伴奏音声、演奏音声、当該演奏音声が出力されるべきタイミング等が記憶される。   The memory cassette 106 stores accompaniment sound, performance sound, timing at which the performance sound should be output, and the like corresponding to the attribute information of the music, such as the music title.

ユーザの指示により曲目が選択され、所定の制御ボタンが押下されるなどして、ゲーム開始の指示がなされると、CPU 101は、当該曲目に対応する伴奏音声をメモリカセット106からRAM 103に展開し、音声処理部110を介して、スピーカ112などに出力する。伴奏音声は、例えば、カラオケのガイドメロディーのようにガイド演奏音声を含んでおり、演奏音声を出力すべきタイミングをユーザに示す。ユーザはガイド演奏音声に合わせて、所定の操作条件が満たされるように(即ち、音声処理装置1000によって、有効なストローク操作であると判定されるように)、タッチスクリーンに対して操作を行なう。   When a song is selected by a user's instruction and a predetermined control button is pressed to give an instruction to start a game, the CPU 101 expands accompaniment sound corresponding to the song from the memory cassette 106 to the RAM 103. Then, the data is output to the speaker 112 or the like via the audio processing unit 110. The accompaniment sound includes a guide performance sound like a karaoke guide melody, for example, and indicates to the user the timing at which the performance sound should be output. The user operates the touch screen in accordance with the guide performance voice so that a predetermined operation condition is satisfied (that is, the voice processing device 1000 determines that the stroke operation is effective).

あるいは、現在の演奏音声を出力するタイミングは、視覚的にユーザに知らせるようにしてもよい。例えば、時間とともに所定の間隔で所定の方向に進むマーカーを表示し、当該マーカーの進む方向に演奏音声を出力するタイミングを示すタイミング用マーカーを表示する。ユーザは、当該移動するマーカーが、当該タイミング用マーカーに到達した時点で、所定の操作条件が満たされるように、タッチスクリーンに対して操作を行なうようにしてもよい。なお、演奏音声のそれぞれを出力するタイミングは、例えば、伴奏音声の開始される時刻を0とした場合の、当該開始時刻からの相対的な時間として表され、当該各演奏音声に対応して記憶される。   Or you may make it notify a user visually the timing which outputs the present performance sound. For example, a marker that advances in a predetermined direction at a predetermined interval with time is displayed, and a timing marker that indicates the timing at which the performance sound is output is displayed in the direction in which the marker advances. The user may perform an operation on the touch screen so that a predetermined operation condition is satisfied when the moving marker reaches the timing marker. The timing for outputting each performance sound is expressed as a relative time from the start time when the start time of the accompaniment sound is set to 0, for example, and stored in correspondence with each performance sound. Is done.

以下に、図10を参照して、本実施の形態に係る音声処理装置1000が、ユーザによるタッチスクリーンの操作に応じて、音声を出力、あるいは停止する処理の流れについて説明する。   Hereinafter, with reference to FIG. 10, a flow of processing in which the voice processing apparatus 1000 according to the present embodiment outputs or stops voice according to the operation of the touch screen by the user will be described.

検知部1001は、まず、ステップS500で、タッチスクリーンの状態を検知する。即ち、接触があれば接触があった位置を示す座標値を、そして、接触がなければ、接触がない旨を検知する。そして、CPU 101は、前回検知部1001によって検知されたのが、座標値の場合、RAM 103などに用意した当該座標値を蓄積する領域に記憶する。初期状態ではそれ以前に検知された状態は存在しないため、座標値は蓄積されずに、ステップS501に進む。   First, in step S500, the detection unit 1001 detects the state of the touch screen. That is, if there is a contact, a coordinate value indicating the position where the contact has occurred, and if there is no contact, it is detected that there is no contact. If the previous detection by the detection unit 1001 is a coordinate value, the CPU 101 stores the coordinate value prepared in the RAM 103 or the like in an accumulation area. Since there is no state detected before in the initial state, the coordinate value is not accumulated and the process proceeds to step S501.

なお、後続の処理から明らかなように、蓄積される座標値は継続して検知されたすべての座標値の軌跡、またはその一部となる。解放状態が検知されたり、あるいは、有効なストローク操作が特定された後に、蓄積された座標値は破棄され、その時点から検知座標の蓄積が再度開始される。このように蓄積された座標値は、後に出力音量などを決定する際に用いられる。   As is clear from the subsequent processing, the accumulated coordinate values are the trajectories of all the coordinate values detected continuously or a part thereof. After the release state is detected or an effective stroke operation is specified, the accumulated coordinate value is discarded, and accumulation of the detected coordinate is started again from that point. The coordinate values stored in this way are used later when determining the output volume and the like.

次いで、CPU 101は、所定の件数分の蓄積された検知座標の全てが、所定の範囲内にある(例えば、所定の件数分の蓄積された検知座標の中点、または平均値から、所定の範囲内に全ての検知座標が含まれている)か否かを特定する(ステップS501)。全ての検知座標が所定の範囲内であれば(ステップS501;Y)、所定の時間、接触位置の変化が停止していることを意味する。範囲外のものがあれば(ステップS501;N)、所定の件数分の蓄積された検知座標は変化していることを意味する。ステップS501;Nの場合、処理は、続いてステップS502へ進む。   Next, the CPU 101 determines that all of the detection coordinates accumulated for a predetermined number of cases are within a predetermined range (for example, from the midpoint of the detection coordinates accumulated for the predetermined number of cases or an average value, Whether or not all detection coordinates are included in the range is specified (step S501). If all the detected coordinates are within a predetermined range (step S501; Y), it means that the change of the contact position is stopped for a predetermined time. If there is an object outside the range (step S501; N), it means that a predetermined number of detected coordinates have been changed. In the case of Step S501; N, the processing continues to Step S502.

CPU 101は、検知部1001が検知した状態が前回検知した状態から変化したか否かを判定する(ステップS502)。 即ち、前回座標値が検知された場合、今回解放状態(即ち、タッチスクリーンが接触されていない状態)が検知されるか、あるいは、前回と異なる座標値が検知されるかのいずれかの条件が満たされると、状態が変化したと判定される。また、前回、解放状態が検知された場合、今回いずれかの座標値が検知されれば、状態が変化したと判定される。CPU 101は状態が変化しない間は(ステップS502;N)再度ステップS500に戻って、状態が変化するのを待つ。なお、前回検知された状態は例えばRAM 103などに一時記憶する。   The CPU 101 determines whether or not the state detected by the detection unit 1001 has changed from the state detected last time (step S502). That is, when the previous coordinate value is detected, either the current release state (that is, the state in which the touch screen is not touched) is detected, or the coordinate value different from the previous one is detected. When satisfied, it is determined that the state has changed. If the release state is detected last time, if any coordinate value is detected this time, it is determined that the state has changed. While the state does not change (step S502; N), the CPU 101 returns to step S500 again and waits for the state to change. The state detected last time is temporarily stored in the RAM 103, for example.

CPU 101は、検知状態が変化したと判定すると(ステップS502;Y)、次に、今回検知されたのが解放状態なのか、座標値なのかを判定する(ステップS503)。   If the CPU 101 determines that the detection state has changed (step S502; Y), the CPU 101 next determines whether the current detection is a release state or a coordinate value (step S503).

今回検知されたのが解放状態ではなく、座標値の場合(ステップS503;N)、前回検知された状態は、解放状態か、あるいは別の座標値である。まず、前回検知されたのが解放状態であれば(ステップS521;Y)、CPU 101は処理をステップS500に戻す。なお、ステップS500では、前回検知された状態が座標値の場合に、当該前回検知された座標値が蓄積されるので、ステップS521において接触が開始された位置として特定された座標値は、次にステップS500を実行したときに、記憶される。   If the detected value is not the released state but the coordinate value (step S503; N), the previously detected state is the released state or another coordinate value. First, if the previous detection is in the released state (step S521; Y), the CPU 101 returns the process to step S500. In step S500, when the previously detected state is a coordinate value, the previously detected coordinate value is accumulated. Therefore, the coordinate value specified as the position where the contact was started in step S521 is Stored when step S500 is executed.

一方、今回検知された座標値が前回検知された座標値とは異なる座標値である場合(ステップS521;N)、継続して検知された接触の位置が変化したことを意味する。このとき、CPU 101は、当該接触位置の移動ベクトル(移動方向)を算出する(ステップS531)。移動ベクトルは、ステップS501で蓄積される座標値のうち、今回検知された座標値とその1つ前の座標値(即ち、蓄積されている最新の座標値)を減算して求める。そして当該移動ベクトルと、前回ステップS531を実行して求められた接触位置の移動ベクトル(ステップS531を実行した結果は、RAM 103に一時記憶しておく)とを比較して、ほぼ逆向きであるか否かを判定する(ステップS532)。   On the other hand, when the coordinate value detected this time is a different coordinate value from the previously detected coordinate value (step S521; N), it means that the position of the contact detected continuously has changed. At this time, the CPU 101 calculates a movement vector (movement direction) of the contact position (step S531). The movement vector is obtained by subtracting the coordinate value detected this time from the coordinate value accumulated in step S501 and the previous coordinate value (that is, the latest accumulated coordinate value). Then, the movement vector is compared with the movement vector of the contact position obtained by executing the previous step S531 (the result of executing the step S531 is temporarily stored in the RAM 103), and is almost opposite. It is determined whether or not (step S532).

即ち、CPU 101は今回求めた移動ベクトルと、前回ステップS531を実行して求められた接触位置の移動ベクトルとの内積を求める。内積が負の所定値より小さければ、当該2つのベクトルがほぼ逆向きであると判定する(ステップS532;Y)。一方、当該内積が上述の所定値より大きければ、当該2つのベクトルは逆向きでないと判定する(ステップS532;N)。   That is, the CPU 101 obtains the inner product of the movement vector obtained this time and the movement vector of the contact position obtained by executing step S531 last time. If the inner product is smaller than the negative predetermined value, it is determined that the two vectors are substantially opposite (step S532; Y). On the other hand, if the inner product is larger than the predetermined value, it is determined that the two vectors are not in opposite directions (step S532; N).

なお、接触が開始されてから、継続して検知された接触位置に初めて変化があった場合、「前回の移動方向」は存在しない。よってこの場合、移動方向は逆向きに変化していないものとして扱う(即ち、ステップS532;Nとして処理を進める)。   Note that when the contact position detected continuously after the start of contact has changed for the first time, there is no “previous movement direction”. Therefore, in this case, the moving direction is treated as not changing in the reverse direction (ie, the process proceeds as step S532; N).

上述のように、ストロークの方向が逆向きに変化したと判定された場合(即ち、S532;Yと判断された場合)、本実施の形態においては、有効な往復ストロークが行なわれたものと判定する。有効な往復ストロークが行なわれたとの判定が、演奏音声が出力されるべきタイミングの前後所定の範囲内の時刻で得られれば、音声出力部1002は、当該タイミングに対応づけて記憶される演奏音声をRAM 103から取得して、所定の方法で音量を特定し(ステップS533)、出力を開始する(ステップS534)。一方、有効な往復ストロークが行なわれたとしても、それが、演奏音声が出力されるべきタイミングから前後所定の範囲内の時刻で行なわれなかった場合、音声出力部1002は、ステップS534において、失敗を示す音声を出力する。なお、演奏音声の出力が開始されてから継続して出力され続ける時間は予め定めておく。   As described above, when it is determined that the direction of the stroke has changed in the opposite direction (that is, when it is determined as S532; Y), in this embodiment, it is determined that an effective reciprocating stroke has been performed. To do. If it is determined that a valid reciprocating stroke has been made at a time within a predetermined range before and after the timing at which the performance sound is to be output, the sound output unit 1002 stores the performance sound stored in association with the timing. Is obtained from the RAM 103, the volume is specified by a predetermined method (step S533), and output is started (step S534). On the other hand, even if an effective reciprocating stroke is performed, if it is not performed at a time within a predetermined range before and after the performance sound is to be output, the sound output unit 1002 fails in step S534. Outputs a voice indicating. Note that the time during which the performance sound is continuously output after the output of the performance sound is started is determined in advance.

有効な往復ストローク操作が行なわれたときに、音声出力部1002が出力する演奏音声の音量を決定する方法について、図11を参照して説明する。図11は、点Aから接触を開始して、点Bで折り返して逆向きのストロークを行ない、さらに点Cで折り返してストロークを行なった場合を示す。   A method of determining the volume of the performance sound output by the sound output unit 1002 when an effective reciprocating stroke operation is performed will be described with reference to FIG. FIG. 11 shows a case where contact is started from point A, folded back at point B to perform a reverse stroke, and then folded back at point C to perform a stroke.

図11の例では、ストロークが逆向きに変わったと初めて特定されるのは、点Bの直後の接触位置(即ち点B’)が検知された時点である。したがって、点B’が検知された時点で初めて有効な往復ストローク操作が行なわれたと判定される。この場合、接触が開始された点Aから移動方向が変化する直前の点Bまでの距離に応じて音量が決定され演奏音声が出力される。同様に、点C’が検知された時点で、再度有効な往復ストローク操作が行なわれたと判定され、点B’から点Cまでの距離に応じて音量が決定され、演奏音声が出力される。   In the example of FIG. 11, the first time that the stroke has changed in the reverse direction is identified when the contact position immediately after point B (ie, point B ′) is detected. Therefore, it is determined that the effective reciprocating stroke operation is performed only when the point B ′ is detected. In this case, the volume is determined according to the distance from the point A where the contact is started to the point B just before the movement direction changes, and a performance sound is output. Similarly, when a point C 'is detected, it is determined that an effective reciprocating stroke operation has been performed again, the volume is determined according to the distance from the point B' to the point C, and a performance sound is output.

点Aから点B、または点B’から点Cまでの距離は、直線距離であってもよいし、あるいは、軌跡の長さであってもよい。ここで、軌跡の長さとは、例えば、点Aから点B、または点B’から点Cに到達するまでに継続して検知された接触座標間の直線距離の総和である。本実施の形態では、いずれの距離を利用した場合においても、得られた距離が長いほど、大きな音量を出力する。例えば、得られた距離に所定の定数を乗じて音量を求めても、あるいは距離に応じた音量を示すテーブルを準備しておき、当該テーブルを参照して、算出された音量から、対応する音量を取得してもよい。   The distance from the point A to the point B or the point B ′ to the point C may be a linear distance or the length of the locus. Here, the length of the trajectory is, for example, the sum of the linear distances between the contact coordinates detected continuously from the point A to the point B or from the point B ′ to the point C. In the present embodiment, regardless of which distance is used, the larger the obtained distance, the larger the sound volume that is output. For example, even if a volume is obtained by multiplying the obtained distance by a predetermined constant, or a table showing the volume according to the distance is prepared, the corresponding volume is calculated from the calculated volume by referring to the table. May be obtained.

なお、蓄積された検知座標がステップS535にて廃棄された後に、今回検知された接触位置が、処理がステップS500に戻った時点で、RAM 103に蓄積される。よって有効なストローク操作が行なわれた直後に接触が開始された位置は、必ず蓄積された検知座標の最も古い座標値として記憶される。そして、以降、継続して検知された座標値が続いて蓄積される。これにより、有効なストローク操作が行なわれたと判定された直前の値が、蓄積されている検知座標値のうち、最も新しい座標値として記憶される。よって、音声出力部1002は、当該蓄積されている検知座標値を参照することで、距離の算出に必要な座標値を得ることが可能となる。   Note that after the accumulated detection coordinates are discarded in step S535, the contact position detected this time is accumulated in the RAM 103 when the processing returns to step S500. Therefore, the position where the contact is started immediately after the effective stroke operation is performed is always stored as the oldest coordinate value of the accumulated detected coordinates. Thereafter, the coordinate values detected continuously are continuously accumulated. Thus, the value immediately before it is determined that an effective stroke operation has been performed is stored as the newest coordinate value among the accumulated detected coordinate values. Therefore, the audio output unit 1002 can obtain a coordinate value necessary for calculating the distance by referring to the accumulated detected coordinate value.

最後に、後述の処理で利用するため、往復ストローク操作が行なわれたことをRAM 103などに記憶する(例えば、RAM 103に、往復ストローク操作を行なったか否かを示す往復フラグを用意すればよい)(ステップS536)。   Finally, for use in later-described processing, the fact that the reciprocating stroke operation has been performed is stored in the RAM 103 or the like (for example, a reciprocating flag indicating whether or not the reciprocating stroke operation has been performed may be prepared in the RAM 103). (Step S536).

本実施の形態では、後述するように、ユーザがタッチスクリーンに対して、一方向に振り掃った場合についても有効なストローク操作が行なわれたものと判定する。しかしながら、ユーザが往復ストローク操作を行い、逆向きのストロークを開始した時点でも演奏音声が出力される。したがって、往復ストローク操作後に、ユーザが振り掃う操作を行なって、再度演奏音声が出力されるのは不自然である。   In this embodiment, as will be described later, it is determined that an effective stroke operation has been performed even when the user has swung the touch screen in one direction. However, the performance sound is output even when the user performs a reciprocating stroke operation and starts a reverse stroke. Therefore, after the reciprocating stroke operation, it is unnatural that the user performs a swinging operation and the performance sound is output again.

よって、本実施の形態においては、解放状態が検知された場合、その直前に往復ストローク操作が行なわれていたか否かを、往復フラグを参照して特定する(ステップS504)。そして、往復ストローク操作が行なわれたことが往復フラグに記憶されている場合(ステップS504;Y)は、往復フラグの情報を破棄(ステップS505)する。さらに、蓄積された検知座標を破棄し(ステップS506)、処理をステップS500に戻す。即ち、解放状態が検知された直前に往復ストローク操作が行なわれている場合は、演奏音声の出力は行なわずに処理はステップS500に戻る。   Therefore, in the present embodiment, when the release state is detected, it is specified with reference to the reciprocating flag whether or not the reciprocating stroke operation has been performed immediately before (step S504). If the reciprocating stroke operation is stored in the reciprocating flag (step S504; Y), the information on the reciprocating flag is discarded (step S505). Further, the accumulated detected coordinates are discarded (step S506), and the process returns to step S500. That is, when the reciprocating stroke operation is performed immediately before the release state is detected, the performance returns to step S500 without outputting the performance sound.

一方、解放状態が検知された直前に往復ストローク操作が行なわれていなかった場合(ステップS504;N)、CPU 101は、解放状態が検知される直前の接触位置の変化の速度を算出する(ステップS507)。CPU 101は、当該変化の速度が、閾速度以上であれば(ステップS507;Y)、一方向に振り払う操作が有効に行なわれた(即ち、有効な一方向ストローク操作が行なわれた)と判定する。   On the other hand, when the reciprocating stroke operation has not been performed immediately before the release state is detected (step S504; N), the CPU 101 calculates the change speed of the contact position immediately before the release state is detected (step S504). S507). If the speed of the change is equal to or higher than the threshold speed (step S507; Y), the CPU 101 determines that the operation of shaking in one direction has been performed effectively (that is, an effective one-way stroke operation has been performed). To do.

演奏音声が出力されるべきタイミングの前後所定の範囲内の時間において、ステップS507で有効な一方向ストローク操作が行なわれたと判定された場合、音声出力部1002は、当該タイミングに対応づけて記憶される演奏音声をメモリカセット106から取得する。そして、当該演奏音声の音量を所定の方法で特定し(ステップS508)、当該演奏音声を当該音量で出力する(ステップS509)。ただし、当該ストローク操作が有効であると判定された時刻が、演奏音声が出力されるべきタイミングの前後所定の範囲に含まれない場合、音声出力部1002は失敗を示す音声を出力する。   If it is determined in step S507 that an effective one-way stroke operation has been performed within a predetermined range before and after the timing at which the performance sound is to be output, the sound output unit 1002 is stored in association with the timing. The performance sound is acquired from the memory cassette 106. Then, the volume of the performance sound is specified by a predetermined method (step S508), and the performance sound is output at the volume (step S509). However, when the time at which the stroke operation is determined to be valid is not included in a predetermined range before and after the timing at which the performance sound is to be output, the sound output unit 1002 outputs a sound indicating failure.

なお、音量は、接触の検知が開始された位置から、解放状態が検知される直前の接触位置までの距離に基づいて特定される。ステップS533と同様に、当該2点間の距離は、直線距離であってもよいし、あるいは、軌跡の長さであってもよく、当該距離は、蓄積された検知座標値を取得して求められる。   The sound volume is specified based on the distance from the position where the contact detection is started to the contact position immediately before the released state is detected. Similar to step S533, the distance between the two points may be a linear distance or the length of a trajectory, and the distance is obtained by acquiring accumulated detection coordinate values. It is done.

なお、ステップS501で、所定の件数分の検知位置が蓄積され、それらの検知位置が全て所定の範囲内であれば(ステップS501;Y)、CPU 101は、接触位置の変化が所定の時間停止していると判定する。接触位置の変化が所定の時間停止していると判定されたときに出力されている音声があれば、音声出力部1002は、当該出力を停止する(ステップS541)。なお、このとき、特殊なミュート音を出力するようにしてもよい。一方、接触位置の変化が所定の時間停止したときに、音声が出力されていない場合、音声出力部1002は何もせずに処理をステップS542に進める。ステップS542では、CPU 101が蓄積された検知座標をすべて破棄し、ステップS500へと処理を戻す。   In step S501, detection positions for a predetermined number of cases are accumulated, and if all the detection positions are within a predetermined range (step S501; Y), the CPU 101 stops changing the contact position for a predetermined time. It is determined that If there is a sound output when it is determined that the change in the contact position is stopped for a predetermined time, the sound output unit 1002 stops the output (step S541). At this time, a special mute sound may be output. On the other hand, when the change of the contact position stops for a predetermined time and no sound is output, the sound output unit 1002 advances the process to step S542 without doing anything. In step S542, the CPU 101 discards all the accumulated detection coordinates and returns to step S500.

以上のようにして、音声処理装置は音声の出力、および停止を行なう。   As described above, the voice processing device outputs and stops the voice.

(他の実施の形態)
第1の実施の形態では、音声処理装置は、振り掃ったことが特定されたとき、または、タッチスクリーンに対するストロークの方向が逆向きに変化したとき、有効なストローク操作が行なわれたものとした。これにより、ユーザがゲーム装置を把持する方向や、ユーザのストロークを行なう方向などに関わらず、有効なストローク操作の判定が可能となる。
(Other embodiments)
In the first embodiment, it is assumed that the voice processing device has performed an effective stroke operation when it is determined that it has been swept away or when the direction of the stroke with respect to the touch screen changes in the reverse direction. did. This makes it possible to determine an effective stroke operation regardless of the direction in which the user holds the game device, the direction in which the user performs a stroke, or the like.

本実施の形態では、ギターの弦に相当する判定線を導入し、ギターの音を出す仕組みをより忠実に再現する。その上で、上記実施形態と同様に、ユーザのゲーム装置を把持する方向や、ストロークを行なう方向などを吸収して、ギター演奏のシミュレーションを可能にする音声処理装置について説明する。なお、この判定線は、タッチスクリーンに表示されても、されなくともよい。   In the present embodiment, a determination line corresponding to a guitar string is introduced to more faithfully reproduce a mechanism for producing a guitar sound. Then, similarly to the above-described embodiment, a voice processing device that absorbs the direction in which the user holds the game device, the direction in which the stroke is performed, and the like and enables simulation of guitar performance will be described. This determination line may or may not be displayed on the touch screen.

図12に、本実施の形態に係る音声処理装置1000の機能ブロック図を示す。本実施の形態においては、上記実施の形態が備える、検知部1001、音声出力部1002に加え、さらに、調整部1003を備える。   FIG. 12 shows a functional block diagram of the speech processing apparatus 1000 according to the present embodiment. In this embodiment, in addition to the detection unit 1001 and the audio output unit 1002 provided in the above embodiment, an adjustment unit 1003 is further provided.

ただし、音声出力部1002は、上記実施の形態で説明した判定条件に代えて、継続して検知された接触位置の軌跡が所定の判定線を跨いだ場合に、有効なストローク操作が行なわれた(即ち所定の操作条件が満たされた)と判定する。   However, instead of the determination condition described in the above embodiment, the voice output unit 1002 performs an effective stroke operation when the locus of the contact position continuously detected crosses a predetermined determination line. (That is, a predetermined operation condition is satisfied).

また、調整部1003は、判定線の向きと、継続して検知された接触位置の軌跡との交差する角度が直角に近づくように判定線の向きや位置を調整する。ここで、判定線は、タッチスクリーン平面に配置されるギターの弦を模擬するためのものである。即ち、本実施の形態において、音声処理装置1000は、ユーザがタッチスクリーンに接触しながら、判定線を跨いだ場合に、有効なストローク操作が行なわれたとみなす。   Further, the adjustment unit 1003 adjusts the direction and position of the determination line so that the angle at which the direction of the determination line intersects the trajectory of the contact position that is continuously detected approaches a right angle. Here, the determination line is for simulating a guitar string arranged on the touch screen plane. That is, in the present embodiment, the speech processing apparatus 1000 considers that an effective stroke operation has been performed when the user straddles the determination line while touching the touch screen.

判定線の向きや位置は、例えば、グローバル座標系に基づいて、メモリカセット106に記憶され、ユーザによってゲーム開始が指示されると、RAM 103に読み込まれる。このように、メモリカセット106、RAM 103、およびCPU 101などが協働して、調整部1003として機能する。   The direction and position of the determination line are stored in the memory cassette 106 based on, for example, the global coordinate system, and are read into the RAM 103 when a game start is instructed by the user. As described above, the memory cassette 106, the RAM 103, the CPU 101, and the like cooperate to function as the adjustment unit 1003.

以下、上記のような構成を有する図12に示す音声処理装置の動作処理を、図13を参照して説明する。   Hereinafter, the operation processing of the sound processing apparatus shown in FIG. 12 having the above-described configuration will be described with reference to FIG.

まず、ステップS601は、図10に示すステップS500と同様であり、音声処理装置1000は、座標値が検知された場合、当該座標値を蓄積する。本実施の形態においても、後続の処理から明らかなように、ステップS601で蓄積される座標値は継続して検知された座標値の軌跡、またはその一部となる。解放状態が検知されたり、あるいは、有効なストローク操作が特定された後に、蓄積された座標値は破棄され、その時点から検知座標の蓄積が再度開始される。   First, step S601 is the same as step S500 shown in FIG. 10, and the speech processing apparatus 1000 accumulates the coordinate value when the coordinate value is detected. Also in the present embodiment, as is clear from the subsequent processing, the coordinate values accumulated in step S601 are the locus of coordinate values detected continuously or a part thereof. After the release state is detected or an effective stroke operation is specified, the accumulated coordinate value is discarded, and accumulation of the detected coordinate is started again from that point.

次いで、蓄積された所定の件数分の検知位置が全て所定の範囲内であれば(ステップS602;Y)、接触位置の変化が所定の時間停止したことを意味する。よって、ステップS541、およびS542と同様の処理を行い、音声出力部1002は、その時点で出力されている音声があれば、当該出力を停止する(ステップS610、611)。   Next, if all of the accumulated detection positions for the predetermined number are within the predetermined range (step S602; Y), it means that the change of the contact position has stopped for a predetermined time. Accordingly, the same processing as in steps S541 and S542 is performed, and the audio output unit 1002 stops the output if there is an audio output at that time (steps S610 and 611).

ステップS602で所定の件数分の検知位置が全て所定の範囲内でなければ(ステップS602;N)CPU 101は、次いで、解放状態が検知されたか否かを判定する(ステップS603)。解放状態が検知された場合は(ステップS603;Y)、CPU 101は蓄積された検知位置を全て破棄し(ステップS604)、処理をステップS601に戻す。   If all the detection positions corresponding to the predetermined number in step S602 are not within the predetermined range (step S602; N), the CPU 101 next determines whether or not the release state is detected (step S603). When the release state is detected (step S603; Y), the CPU 101 discards all the accumulated detection positions (step S604), and returns the process to step S601.

一方、今回検知されたのが、解放状態ではなく座標値であった場合(ステップS603;N)、CPU 101は、続いて、接触位置の軌跡が、判定線を跨いだか否かを判定する(ステップS620)。即ち、今回検知された座標値と、前回蓄積された座標値とを結ぶ線分と、判定線とが交差しているか否かを判定する。   On the other hand, when the detected value is not a released state but a coordinate value (step S603; N), the CPU 101 subsequently determines whether or not the locus of the contact position straddles the determination line ( Step S620). That is, it is determined whether or not the line segment connecting the coordinate value detected this time and the previously accumulated coordinate value intersects the determination line.

本実施の形態では、接触位置の軌跡が判定線を跨いだ場合(ステップS620;Y)、有効なストローク操作が行なわれたものと判定する。よって第1の実施の形態と同様に、演奏音声が出力されるべきタイミングの前後所定の範囲内の時間において、有効なストローク操作が行なわれたと判定された場合、音声出力部1002は、当該タイミングに対応づけて記憶される演奏音声をメモリカセット106から取得する。そして、当該取得した演奏音声の音量を所定の方法で特定し(ステップS621)、当該演奏音声の出力を開始する(ステップS622)。ただし、演奏音声が出力されるべきタイミングの前後所定の範囲に含まれない時刻において、接触位置の軌跡が判定線を跨いだと判定された場合、音声出力部1002は失敗を示す音声を出力する。なお、上記第1の実施の形態と同様に、演奏音声は所定の長さで出力される。   In the present embodiment, when the locus of the contact position crosses the determination line (step S620; Y), it is determined that an effective stroke operation has been performed. Therefore, as in the first embodiment, when it is determined that an effective stroke operation has been performed within a predetermined range before and after the timing at which the performance sound is to be output, the sound output unit 1002 performs the timing. The performance sound stored in association with is acquired from the memory cassette 106. Then, the volume of the acquired performance sound is specified by a predetermined method (step S621), and output of the performance sound is started (step S622). However, if it is determined that the locus of the contact position has crossed the determination line at a time that is not included in the predetermined range before and after the timing at which the performance sound is to be output, the sound output unit 1002 outputs a sound indicating failure. . As in the first embodiment, the performance sound is output with a predetermined length.

なお、本実施の形態において、演奏音声の音量は、継続して検知された接触位置の軌跡のうち、前回判定線を跨いだと判定された時点の直後に検出された座標値から、今回判定線を跨いだと判定された時点の直前に検出された座標値までの距離に基づいて特定する。ここで、第1の実施の形態と同様に、当該2点間の距離は、直線距離であってもよいし、あるいは、軌跡の長さであってもよい。また、当該得られた距離の長さが大きいほど、音量が大きくなるようにすればよい。   In the present embodiment, the volume of the performance sound is determined from the coordinate value detected immediately after the time point when it was determined that the previous determination line was straddled among the locus of the contact position continuously detected. It specifies based on the distance to the coordinate value detected immediately before it was determined that the line was crossed. Here, as in the first embodiment, the distance between the two points may be a linear distance or the length of a trajectory. Moreover, what is necessary is just to make it sound volume increase, so that the length of the obtained distance is large.

図14(A)を参照して、音量を算出するために特定される距離について説明する。図14(A)は、タッチスクリーン平面1081における、継続して検知された座標値の軌跡の例を示す。まず点Pでストローク操作が開始され、点Q−1から点Qが検知される間に判定線Lを跨ぐ。さらにストローク操作は継続され、点Rで折り返して、再度点S−1から点Sが検知される間に判定線を跨ぐ。   With reference to FIG. 14 (A), the distance specified in order to calculate a sound volume is demonstrated. FIG. 14A shows an example of a locus of coordinate values continuously detected on the touch screen plane 1081. First, the stroke operation is started at the point P, and the determination line L is straddled while the point Q-1 is detected from the point Q-1. Further, the stroke operation is continued, it is turned back at the point R, and the determination line is straddled while the point S-1 to the point S are detected again.

図14(A)の例では、点PからRに向かってストロークが行なわれたとき、点Qが検知されて、はじめて判定線Lが跨がれたことが判定される。ただし、それ以前に検知座標の軌跡は判定線Lを跨いでいないので、接触開始位置である点Pを、「前回判定線を跨いだと判定された直後に検出された座標値」とし、点Pから、今回判定線を跨いだ直前に検出された座標値Q−1までの距離に基づいて音量を特定する。なお、距離は、直線距離であっても、移動距離(みちのり)であってもよい。   In the example of FIG. 14A, when a stroke is made from point P to R, it is determined that point Q has been detected and determination line L has been straddled for the first time. However, since the locus of the detected coordinates has not crossed the determination line L before that, the point P that is the contact start position is defined as “the coordinate value detected immediately after it is determined that the previous determination line has been crossed” The sound volume is specified based on the distance from P to the coordinate value Q-1 detected immediately before crossing the determination line. The distance may be a linear distance or a moving distance (Michinori).

続いて、点Rで折り返してストロークが行なわれたとき、点Sが検知されると、再度判定線Lが跨がれたことが特定される。この場合、「前回判定線を跨いだと判定された直後に検出された座標値」は点Qであるため、点Qから、今回判定線を跨いだ直前に検出された座標値S−1までの距離に基づいて音量を特定する。   Subsequently, when a stroke is performed by turning back at point R, when point S is detected, it is specified that determination line L has been straddled again. In this case, since “the coordinate value detected immediately after it was determined that the determination line was crossed last time” is the point Q, from the point Q to the coordinate value S-1 detected immediately before the determination line was crossed this time. The volume is specified based on the distance.

なお、図13に示すフロー図から明確なように、本実施の形態では、ストロークが開始された時点の座標値から蓄積される。接触位置の軌跡が判定線を跨いで、有効なストローク操作が行なわれたと判定されると、それまで蓄積された検知座標が後述のステップS624で破棄され、判定線が跨がれたあとに最初に検知された座標値から継続して検知された座標値が蓄積される。即ち、例えば、図14(A)の例のように、点Qからさらにストローク操作が続けられた場合、点Qから再度検知座標が蓄積される。   As is clear from the flowchart shown in FIG. 13, in the present embodiment, accumulation is performed from the coordinate values at the time when the stroke is started. If it is determined that the stroke of the contact position has crossed the determination line and an effective stroke operation has been performed, the detected coordinates accumulated so far are discarded in step S624, which will be described later, and first after the determination line has been straddled. The coordinate values detected continuously from the detected coordinate values are accumulated. That is, for example, when the stroke operation is further continued from the point Q as in the example of FIG. 14A, the detected coordinates are accumulated again from the point Q.

したがって、接触が開始されて初めて判定線を跨いだ場合についても、また、判定線を跨いだ後に、接触を継続し、再度判定線を跨いだ場合についても、蓄積された座標値を参照することで、上述した距離の算出に必要な情報を取得することができる。   Therefore, refer to the stored coordinate values even when the determination line is straddled for the first time after the contact is started, or when the contact is continued after straddling the determination line and the determination line is straddled again. Thus, information necessary for the above-described distance calculation can be acquired.

なお、今回検知された接触位置と前回検知された接触位置とを結ぶ線分が判定線を跨いでいない場合(ステップS620;N)今回検知された座標値は、続いて処理がステップS601を実行したときに、継続して検知された接触位置の軌跡として蓄積される。   If the line segment connecting the contact position detected this time and the contact position detected last time does not straddle the determination line (step S620; N), the coordinate value detected this time is processed, and the process subsequently executes step S601. When this is done, it is accumulated as a locus of the contact position detected continuously.

次いで、調整部1003は、判定線の位置を調整する(ステップS623)。例えば、図14(A)で、ユーザが点Pから点Rに向かってストローク操作を行なった場合を例に説明する。上述したように、点Qが検知された時点で、判定線が跨がれたことが判定される。よって、調整部1003は、判定線が跨がれたと判定された時点に検知された点Qと、その直前に検知された点Q−1とを結ぶ線分と、判定線Lとが垂直に交わるように、判定線Lを図14(B)に示すように角度θだけ回転させるように、判定線の位置および方向を更新する。なお、判定線Lを回転させる中心は、判定線と検知座標の軌跡が交差する点でもよいし、所定の位置(例えばタッチスクリーンの中心)でもよい。   Next, the adjustment unit 1003 adjusts the position of the determination line (step S623). For example, a case where the user performs a stroke operation from point P to point R in FIG. 14A will be described as an example. As described above, when the point Q is detected, it is determined that the determination line has been straddled. Therefore, the adjustment unit 1003 makes the determination line L perpendicular to the line segment connecting the point Q detected at the time when it is determined that the determination line has been straddled, and the point Q-1 detected immediately before that. The positions and directions of the determination lines are updated so that the determination lines L are rotated by an angle θ as shown in FIG. The center for rotating the determination line L may be a point where the determination line and the locus of the detection coordinates intersect, or a predetermined position (for example, the center of the touch screen).

なお、ゲーム装置の電源を落としたときには、電源を落とした時点での判定線の位置や方向をメモリカセット106に書き戻す。そして、次回は当該書き戻された値を、判定線の位置や方向として利用する。あるいは、判定線の位置は、電源を入れる度に、初期状態から更新されるようにしてもよい。   When the power of the game apparatus is turned off, the position and direction of the determination line at the time when the power is turned off are written back to the memory cassette 106. Next time, the rewritten value is used as the position and direction of the determination line. Alternatively, the position of the determination line may be updated from the initial state every time the power is turned on.

このように、当該ストロークの方向と判定線とが垂直に交わるように判定線を調整することで、ユーザのゲーム装置を把持する方向やストロークを行なう方向などを吸収して、ユーザが操作しやすいように音声処理装置をカスタマイズすることが可能となる。   In this way, by adjusting the determination line so that the direction of the stroke and the determination line intersect perpendicularly, the direction in which the user holds the game device, the direction in which the stroke is performed, and the like are absorbed, and the user can easily operate. Thus, it becomes possible to customize the voice processing apparatus.

以上、本発明の実施の形態について説明したが、本発明は、上述した実施の形態に限定されず、種々の変形および応用が可能である。また、上述した実施形態の各構成要素を自由に組み合わせることも可能である。   As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, A various deformation | transformation and application are possible. Moreover, it is also possible to freely combine the constituent elements of the above-described embodiments.

例えば、項目選択装置、および、音声処理装置は、接触部材をさらに備えるようにし、ユーザは、タッチスクリーンに接触する際に接触部材を利用してもよい。図8(A)に示すように、接触部材206は、所謂タッチペンの変形であり、タッチスクリーンを掃う操作が容易に可能なように、ギターピックの形状をしていてもよい。また、先端には接触が検知部203や、検知部1003に検知され易いように、突起を備えていてもよい。ユーザは、接触部材206のギターピック状の部分を図8(B)に示すようにをつまんで、突起部分をタッチスクリーンに接触させる。   For example, the item selection device and the sound processing device may further include a contact member, and the user may use the contact member when contacting the touch screen. As shown in FIG. 8A, the contact member 206 is a so-called touch pen deformation, and may have a guitar pick shape so that an operation of sweeping the touch screen can be easily performed. In addition, a protrusion may be provided at the tip so that contact can be easily detected by the detection unit 203 or the detection unit 1003. The user pinches the guitar pick-shaped portion of the contact member 206 as shown in FIG. 8B and brings the protruding portion into contact with the touch screen.

図8(C)は、このような接触部材206を用いて、ユーザがタッチスクリーン平面1081に接触部材206を接触させてギター演奏のシミュレーションを行なった場合の様子を示す。点線は接触位置の変化(即ちストローク)の軌跡を示す。このとき、判定線Lは、当該ストロークの方向とほぼ垂直に交わるように調整部によって調整される。   FIG. 8C shows a state in which the user performs a simulation of playing the guitar by using the contact member 206 to bring the contact member 206 into contact with the touch screen plane 1081. The dotted line indicates the locus of the change in contact position (ie, stroke). At this time, the determination line L is adjusted by the adjustment unit so as to intersect the direction of the stroke substantially perpendicularly.

また、上記実施の形態に係る項目選択装置では、表がスクロールしているときに、タッチスクリーンにタッチすれば、当該接触位置に表示されている内容が接触位置に固定され、スクロールを止めることができる。しかし、接触が開始されてから、解放されるまでの間、検知された座標が全て所定の範囲内であれば、項目出力部はその座標に表示される項目を選択結果として出力するため、接触を解放した時点で、スクロールを止めるばかりでなく、接触した座標値に表示される項目が選択されてしまう。   In addition, in the item selection device according to the above embodiment, if the touch screen is touched while the table is scrolling, the content displayed at the contact position is fixed at the contact position, and the scrolling is stopped. it can. However, if the detected coordinates are all within a predetermined range from the start of contact until it is released, the item output unit outputs the item displayed at that coordinate as the selection result. When the button is released, not only the scrolling is stopped, but also the item displayed at the coordinate value touched is selected.

したがって、例えば、接触が開始されてから、解放されるまでの間、検知された座標が全て所定の範囲内であり、且つ、接触が開始されてから、解放されるまでの時間が所定の閾時間以内の場合についてのみ、項目出力部がその座標に表示される項目を選択結果として出力するようにしてもよい。これにより、解放されるまで所定の閾時間以上、同じ位置に接触された場合については、選択はされず、ユーザが接触した際の窓の位置が表示され続ける。   Thus, for example, all the detected coordinates are within a predetermined range from when contact is started until it is released, and the time from when contact is started until it is released is a predetermined threshold value. Only when it is within the time, the item output unit may output an item displayed at the coordinates as a selection result. As a result, when the same position is touched for a predetermined threshold time or longer until it is released, no selection is made and the position of the window when the user touches continues to be displayed.

また、上記実施の形態において、項目選択装置の移動部は、ユーザがタッチスクリーンに対して行なった掃う操作の方向に応じて、上下方向、または左右方向に制限して、窓の位置を移動した。そうではなく、接触を解放する直前の接触位置の変化の速度と逆の方向に窓を移動させるようにしてもよい。これにより、上下方向、左右方向以外の方向にも表がスクロールして表示される。   Further, in the above embodiment, the moving unit of the item selection device moves the window position by limiting the vertical or horizontal direction according to the direction of the sweeping operation performed by the user on the touch screen. did. Instead, the window may be moved in the direction opposite to the speed of change of the contact position immediately before releasing the contact. Thereby, the table is scrolled and displayed in directions other than the vertical direction and the horizontal direction.

また、上記実施の形態において、項目選択装置の移動部は、窓の位置が表の端に達すると、当該領域の位置を巡回的に移動させるようにした。そうではなく、逆の向きに移動させるようにしてもよい。   Moreover, in the said embodiment, the moving part of the item selection apparatus cyclically moved the position of the said area | region, when the position of a window reaches the edge of a table | surface. Instead, it may be moved in the opposite direction.

例えば、表が、原点(0,0)、(W,0)、(0,L)、(W,L)に囲まれる領域に表されるときに、窓の位置(x,y)が当該領域内に含まれない場合、X方向にWより大きい分については、Wから減算した値をX方向の座標値とすればよい。あるいは、X方向に0より小さい分については、0に加算した値をX方向の座標値とすればよい。一方、Y方向にLより大きい分については、Lから減算し、また、Y方向に0より小さい分については、0に加算した値をY方向の座標値とすればよい。   For example, when the table is represented in the area surrounded by the origin (0,0), (W, 0), (0, L), (W, L), the window position (x, y) If it is not included in the region, the value subtracted from W for the portion larger than W in the X direction may be used as the coordinate value in the X direction. Alternatively, for the portion smaller than 0 in the X direction, the value added to 0 may be used as the coordinate value in the X direction. On the other hand, a value larger than L in the Y direction is subtracted from L, and a value smaller than 0 in the Y direction may be set to a coordinate value in the Y direction.

また、上記実施の形態において、項目選択装置の移動部は、解放状態が検出される直前の接触位置の変化の速度を用いて、ステップS407で窓の位置を移動した。そうではなく、ステップS407では、算出した解放直前の接触位置の速度に所定の係数を乗じて、序々に窓の位置の移動速度を減速させてもよい。   In the above embodiment, the moving unit of the item selection device moves the window position in step S407 using the speed of change of the contact position immediately before the released state is detected. Instead, in step S407, the moving speed of the window position may be gradually reduced by multiplying the calculated speed of the contact position immediately before release by a predetermined coefficient.

また、他の実施の形態において、音声処理装置の調整部は、過去のストローク操作に基づいて、判定線を調整するようにしてもよい。例えば、ストローク操作時に、判定線と交差したと特定された時点の接触位置から、その直前に検知された接触位置を減算して正規化した方向ベクトル(以降、交差ベクトルと呼ぶ)を求める。そして当該交差ベクトルを加算ベクトルに加算して正規化することで新たに得られた加算ベクトルを一時記憶する。なお、初期状態では、加算ベクトルは値を持たないため、算出した交差ベクトルが加算ベクトルとなる。そして、当該加算ベクトルと垂直に交わるように、記憶される判定線の位置および向きを更新する。   In another embodiment, the adjustment unit of the voice processing device may adjust the determination line based on past stroke operations. For example, a direction vector (hereinafter referred to as an intersection vector) obtained by subtracting the contact position detected immediately before it from the contact position at the time point when it is specified that the determination line intersects at the time of stroke operation is obtained. Then, the addition vector newly obtained by normalizing the intersection vector by adding it to the addition vector is temporarily stored. In the initial state, since the addition vector has no value, the calculated intersection vector becomes the addition vector. Then, the position and orientation of the stored determination line are updated so as to intersect perpendicularly with the addition vector.

例えば、図14(A)に示すストロークが行なわれたとき、図14(C)に示すように、交差ベクトルは、点Q−1からQへ伸びるベクトルと、点S−1から点Sへと伸びるベクトルとなり、加算ベクトルはベクトルAとなる。   For example, when the stroke shown in FIG. 14 (A) is performed, as shown in FIG. 14 (C), the crossing vector is a vector extending from point Q-1 to Q, and from point S-1 to point S. The vector is extended, and the addition vector is vector A.

以降、同様に、判定線と交差した時点で、交差ベクトルを求め、加算ベクトルに加算して正規化する。ただし、加算する際に、交差ベクトルと、加算ベクトルの方向を揃える必要があるため、当該2つのベクトルの内積を求める。内積した結果、負の所定値より小さい値が得られた場合は、当該2つの方向ベクトルがほぼ逆向きであるとみなす。よって、今回求められた交差ベクトルにマイナスを乗じて、方向を揃えてから加算ベクトルに加算する。一方、内積が当該所定値よりも大きい場合は、そのまま、交差ベクトルを加算ベクトルに加算すればよい。そして、当該加算ベクトルと垂直に交わるように、判定線の位置および向きを更新する。   Thereafter, similarly, when intersecting with the determination line, an intersection vector is obtained and added to the addition vector to normalize. However, since it is necessary to align the direction of the intersection vector and the addition vector when adding, the inner product of the two vectors is obtained. As a result of the inner product, when a value smaller than the negative predetermined value is obtained, it is considered that the two direction vectors are substantially opposite to each other. Therefore, the intersection vector obtained this time is multiplied by minus to align the directions and added to the addition vector. On the other hand, when the inner product is larger than the predetermined value, the intersection vector may be added to the addition vector as it is. Then, the position and orientation of the determination line are updated so as to intersect perpendicularly with the addition vector.

このように、ストローク操作における交差ベクトルを、過去の交差ベクトルの和である加算ベクトルに加えていくことで、より正確に、ユーザのストロークの「癖」を抽出することが可能となる。   In this way, by adding the intersection vector in the stroke operation to the addition vector that is the sum of the past intersection vectors, it becomes possible to extract the “癖” of the user's stroke more accurately.

あるいは、上記交差ベクトルに代えて、判定線と交差するストロークの開始位置から終点までの方向ベクトルを用いてもよい。ここで、ストロークの終点とは、振り掃った場合は、接触を解放する直前の位置である。一方、往復ストローク操作を行なった場合は、ストロークの方向が逆向きになる直前の位置である。   Alternatively, a direction vector from the start position to the end point of the stroke that intersects the determination line may be used instead of the intersection vector. Here, the end point of the stroke is the position immediately before releasing the contact when swung. On the other hand, when a reciprocating stroke operation is performed, it is the position immediately before the direction of the stroke is reversed.

また、上記実施の形態に係る音声処理装置において、音声出力部は、接触が開始された時点から、所定の操作条件が満たされるまでの距離などに基づいて音量を決定した。そうではなく、継続して検知された接触位置の軌跡のうち、任意の継続して検知された2点の接触位置の変化の速度の代表値(例えば平均速度)に基づいて音量を決定してもよい。即ち、速度が速いほど、音量を大きくしてもよい。   Further, in the audio processing device according to the above embodiment, the audio output unit determines the volume based on the distance from when contact is started until a predetermined operation condition is satisfied. Instead, the volume is determined based on a representative value (for example, average speed) of the change speeds of any two continuously detected contact positions out of the locus of contact positions detected continuously. Also good. That is, the higher the speed, the larger the volume.

また、上記実施の形態に係る音声処理装置において、音声出力部が演奏音声を出力し続ける時間は予め定められるものとした。そうではなく、継続して検知された接触位置の軌跡のうち、任意の継続して検知された2点の接触位置の変化の速度の代表値(例えば平均速度)に基づいて継続して出力される演奏音声の長さを決定してもよい。即ち、速度が速いほど、演奏音声が長い時間出力されるようにしてもよい。   In the sound processing apparatus according to the above embodiment, the time for which the sound output unit continues to output the performance sound is determined in advance. Instead, it is continuously output based on a representative value (for example, average speed) of the change speeds of any two continuously detected contact positions among the locus of the contact positions continuously detected. The length of the performance sound to be played may be determined. That is, the performance sound may be output for a longer time as the speed is higher.

また、音声出力部は、操作条件が満たされてから、所定の時間が経過した後に音声の出力を開始するようにしてもよい。例えば、広い場所で演奏を行なった場合、演奏者から遠くにいる人には、操作が行なわれてからいくらかの遅延時間が経過した後に音声が届く。よって、このように遅延時間を挿入することで、携帯式のゲーム機においても、広い場所で演奏しているかの効果を提供することが可能となる。   Further, the audio output unit may start outputting audio after a predetermined time has elapsed after the operation condition is satisfied. For example, when a performance is performed in a wide place, a person who is far from the performer receives a sound after some delay time has elapsed since the operation was performed. Therefore, by inserting the delay time in this way, it is possible to provide the effect of playing in a wide place even in a portable game machine.

また、この場合、音声出力部は、解放が検知されると当該遅延時間をデフォルト値に戻し、操作条件が続けて満たされる毎に短くしてもよい。通常、一度のみストロークを行なった場合に比べ、継続してストロークを行なった場合の方が、遅延が感じ難くなるものと考えられる。したがって、初回の遅延を強調するために、継続して操作条件が満たされると、遅延時間を前回に操作条件が満たされた場合と比較して短くすることで、序々に短くするようにしてもよい。   In this case, the sound output unit may return the delay time to the default value when release is detected, and shorten the delay time every time the operation condition is satisfied. Usually, it is considered that the delay is less likely to be felt when the stroke is continuously performed than when the stroke is performed only once. Therefore, in order to emphasize the initial delay, if the operation condition is continuously satisfied, the delay time may be shortened gradually by reducing the delay time compared to the case where the operation condition was previously satisfied. Good.

また、上記実施の形態に係る項目選択装置、および音声処理装置において、検知部は、タッチスクリーンのほか、トラックパッドや、タブレットなどの、接触の有無、および、接触位置を検知するハードウェアであってもよい。   In addition, in the item selection device and the sound processing device according to the above-described embodiment, the detection unit is hardware that detects the presence / absence of contact and the contact position, such as a touchpad, a trackpad, and a tablet. May be.

また、上記実施の形態に係る項目選択装置や音声処理装置は、ゲーム装置の他にも、タッチスクリーンを備えるその他端末装置に実現してもよい。   In addition to the game device, the item selection device and the sound processing device according to the above embodiments may be realized in other terminal devices including a touch screen.

一実施形態に係る項目選択装置が実現される典型的なゲーム装置の概要構成を示す模式図である。It is a mimetic diagram showing an outline composition of a typical game device by which an item selection device concerning one embodiment is realized. 一実施形態に係る項目選択装置が実現される典型的なゲーム装置の外観を示す図である。It is a figure which shows the external appearance of the typical game device with which the item selection apparatus which concerns on one Embodiment is implement | achieved. 一実施形態に係る項目選択装置の機能ブロック図である。It is a functional block diagram of the item selection device concerning one embodiment. (A)は、一実施形態に係る項目選択装置における表と窓、およびそれらの関係を示す図であり、(B)は、窓に覆われた表の要素がタッチスクリーンに表示される様子を示した図である。(A) is a figure which shows the table | surface and window in the item selection apparatus which concern on one Embodiment, and those relationship, (B) is a mode that the element of the table | surface covered with the window is displayed on a touch screen. FIG. 一実施形態に係る項目選択装置の処理動作を説明するフロー図である。It is a flowchart explaining the processing operation of the item selection apparatus which concerns on one Embodiment. (A)および(B)は、タッチスクリーンの接触位置の移動に対する窓の移動方向を説明する図であり、(C)および(D)は、接触位置の移動に対して、表示される表の領域の変化の様子を示す図である。(A) And (B) is a figure explaining the moving direction of the window with respect to the movement of the touch position of a touch screen, (C) and (D) are the table | surfaces displayed with respect to the movement of a touch position. It is a figure which shows the mode of a change of an area | region. (A)は、窓の位置が、表の領域をはみ出したときに、窓を再配置する様子を示し、(B)および(C)は、窓が表の端に達したときに、表の要素が巡回して表示される様子を示す図である。(A) shows how the windows are rearranged when the position of the window extends beyond the area of the table, and (B) and (C) show the table when the window reaches the edge of the table. It is a figure which shows a mode that an element circulates and is displayed. (A)は、ピック形状のタッチペンの例を示す図であり、(B)はユーザがピック形状のタッチペンを持った様子を示す図であり、(C)は、このようなタッチペンを用いて、ユーザがタッチスクリーンでギター演奏のシミュレーションを行なっている様子を示す図である。(A) is a figure which shows the example of a pick-shaped touch pen, (B) is a figure which shows a mode that the user has the pick-shaped touch pen, (C) uses such a touch pen, It is a figure which shows a mode that the user is simulating a guitar performance on a touch screen. 一実施形態に係る音声処理装置の機能ブロック図である。It is a functional block diagram of the speech processing unit concerning one embodiment. 一実施形態に係る音声処理装置の処理動作を説明するフロー図である。It is a flowchart explaining the processing operation of the audio | voice processing apparatus which concerns on one Embodiment. 接触の位置の軌跡の例を示す図である。It is a figure which shows the example of the locus | trajectory of a contact position. 他の実施の形態に係る音声処理装置の機能ブロック図である。It is a functional block diagram of the audio processing apparatus which concerns on other embodiment. 他の実施の形態に係る音声処理装置の処理動作を説明するフロー図である。It is a flowchart explaining the processing operation of the audio processing apparatus which concerns on other embodiment. (A)は接触の位置の軌跡の例を示し、(B)は判定線の位置および向きを調整する様子を示し、(C)は、判定線を調整する際に、ストロークの方向を求める方法を示す図である。(A) shows an example of the locus of the contact position, (B) shows how the position and orientation of the judgment line are adjusted, and (C) shows a method for obtaining the stroke direction when adjusting the judgment line. FIG.

符号の説明Explanation of symbols

100 ゲーム装置
101 CPU
102 ROM
103 RAM
104 インターフェイス
105 入力部
106 メモリカセット
107 画像処理部
108 タッチスクリーン
109 NIC
110 音声処理部
111 マイク
112 スピーカ
200 項目選択装置
201 記憶部
202 表示部
203 検知部
204 項目出力部
205 移動部
206 接触部材
1000 音声処理装置
1001 検知部
1002 音声出力部
1003 調整部
100 game machine 101 CPU
102 ROM
103 RAM
104 Interface 105 Input Unit 106 Memory Cassette 107 Image Processing Unit 108 Touch Screen 109 NIC
DESCRIPTION OF SYMBOLS 110 Audio | voice processing part 111 Microphone 112 Speaker 200 Item selection apparatus 201 Storage part 202 Display part 203 Detection part 204 Item output part 205 Moving part 206 Contact member 1000 Audio | voice processing apparatus 1001 Detection part 1002 Audio | voice output part 1003 Adjustment part

Claims (9)

選択対象となる項目を要素とする表と、当該表の一部を覆う領域の位置と、を記憶する記憶部、
当該表のうち、前記記憶部に位置が記憶される領域に含まれる要素を表示する表示部、
ユーザが前記表示部の表面に接触していればその位置を、当該表面を解放していれば、その旨を検知する検知部、
当該ユーザが当該表面に接触して以降、当該表面を解放するまでに検知された位置が所定の範囲内にある場合、当該検知された位置に表示されている要素の項目を選択結果として出力する項目出力部、
当該ユーザが当該表面に接触して以降、当該表面を解放するまでに検知された位置が所定の範囲内でない場合、当該表面に接触する位置の変化を表す速度のうち、当該表面を解放する直前の速度を取得し、当該速度に基づいて、前記記憶部に記憶される領域の位置を移動する移動部、
を備えることを特徴とする項目選択装置。
A storage unit for storing a table including the item to be selected as an element and a position of an area covering a part of the table;
Of the table, a display unit that displays elements included in an area whose position is stored in the storage unit,
If the user is in contact with the surface of the display unit, the position is detected; if the user is releasing the surface, a detection unit that detects the fact;
When the position detected by the user touching the surface and releasing the surface is within a predetermined range, the item of the element displayed at the detected position is output as a selection result. Item output section,
If the position detected by the user touching the surface until the surface is released is not within a predetermined range, immediately before releasing the surface among the speeds indicating the change in the position of contacting the surface. And a moving unit that moves the position of the area stored in the storage unit based on the speed,
An item selection device comprising:
請求項1に記載の項目選択装置であって、
当該ユーザがつまんで当該表面に接触するための接触部材をさらに備え、
当該接触部材は、ピック形状、もしくは、ピック形状の先端に突起を配置した形状である
ことを特徴とする項目選択装置。
The item selection device according to claim 1,
A contact member for the user to pinch and contact the surface;
The contact member has a pick shape or a shape in which a protrusion is arranged at a tip of the pick shape.
請求項1または2に記載の項目選択装置であって、
前記移動部は、当該領域の位置を、当該表の行もしくは列のいずれか一方に沿って移動させ、当該領域の位置を移動させる向きは、前記取得された速度の向きに最も近い向きであり、当該領域の位置を移動させる速さは、前記取得された速度が大きくなるにつれて増加するように移動させる、
ことを特徴とする項目選択装置。
The item selection device according to claim 1 or 2,
The moving unit moves the position of the area along one of the row or column of the table, and the direction in which the position of the area is moved is the direction closest to the direction of the acquired speed. , The speed of moving the position of the region is moved to increase as the acquired speed increases,
An item selection device.
請求項3に記載の項目選択装置であって、
前記移動部は、当該領域の位置が当該表の端に達すると、当該領域の位置を巡回的に移動させる、
ことを特徴とする項目選択装置。
The item selection device according to claim 3,
When the position of the area reaches the end of the table, the moving unit cyclically moves the position of the area.
An item selection device.
請求項3に記載の項目選択装置であって、
前記移動部は、当該領域の位置が当該表の端に達すると、当該領域の位置を移動させる向きを逆にする、
ことを特徴とする項目選択装置。
The item selection device according to claim 3,
When the position of the area reaches the end of the table, the moving unit reverses the direction of moving the position of the area.
An item selection device.
請求項1から5のいずれか1項に記載の項目選択装置であって、
前記移動部は、当該ユーザが当該表面に接触を開始した位置に表示されていた要素が、当該ユーザが当該表面に接触している間、当該接触している位置に表示されるように、当該領域の位置を移動する
ことを特徴とする項目選択装置。
The item selection device according to any one of claims 1 to 5,
The moving unit is configured so that an element displayed at a position where the user starts contact with the surface is displayed at a position where the user is in contact with the surface while the user is in contact with the surface. An item selection device characterized by moving the position of an area.
請求項6に記載の項目選択装置であって、
前記項目出力部は、当該ユーザが当該表面に接触して以降、当該表面を解放するまでに検知された位置が所定の範囲内にあり、さらに、当該接触から当該解放までの時間が所定の閾時間以下である場合、当該検知された位置に表示されている要素の項目を選択結果として出力する
ことを特徴とする項目選択装置。
The item selection device according to claim 6,
In the item output unit, the position detected from when the user touches the surface until the user releases the surface is within a predetermined range, and the time from the contact to the release is a predetermined threshold. An item selection device that outputs an item of an element displayed at the detected position as a selection result when the time is less than or equal to the time.
記憶部、表示部、検知部、項目出力部、移動部、を備える項目選択装置による項目を選択する項目選択方法であって、
前記記憶部は、選択対象となる項目を要素とする表と、当該表の一部を覆う領域の位置と、を記憶し、
前記表示部が、当該表のうち、前記記憶部に位置が記憶される領域に含まれる要素を表示する表示工程、
前記検知部が、ユーザが前記表示部の表面に接触していればその位置を、当該表面を解放していれば、その旨を検知する検知工程、
前記項目出力部が、当該ユーザが当該表面に接触して以降、当該表面を解放するまでに検知された位置が所定の範囲内にある場合、当該検知された位置に表示されている要素の項目を選択結果として出力する出力工程、
前記移動部が、当該ユーザが当該表面に接触して以降、当該表面を解放するまでに検知された位置が所定の範囲内でない場合、当該表面に接触する位置の変化を表す速度のうち、当該表面を解放する直前の速度を取得し、当該速度に基づいて、前記記憶部に記憶される領域の位置を移動する移動工程、
を備えることを特徴とする項目選択方法。
An item selection method for selecting an item by an item selection device including a storage unit, a display unit, a detection unit, an item output unit, and a moving unit,
The storage unit stores a table whose elements are items to be selected, and a position of an area covering a part of the table,
A display step in which the display unit displays elements included in an area of the table in which the position is stored in the storage unit;
If the detection unit is in contact with the surface of the display unit, the position of the detection unit, if the user has released the surface, a detection step of detecting that,
When the position detected by the item output unit after the user touches the surface until the user releases the surface is within a predetermined range, the item of the element displayed at the detected position Output process to output as a selection result,
If the position detected until the moving unit releases the surface after the user touches the surface is not within a predetermined range, the speed representing the change in the position contacting the surface A moving step of acquiring a speed immediately before releasing the surface and moving a position of an area stored in the storage unit based on the speed;
An item selection method comprising:
コンピュータを、
選択対象となる項目を要素とする表と、当該表の一部を覆う領域の位置と、を記憶する記憶部、
当該表のうち、前記記憶部に位置が記憶される領域に含まれる要素を表示する表示部、
ユーザが前記表示部の表面に接触していればその位置を、当該表面を解放していれば、その旨を検知する検知部、
当該ユーザが当該表面に接触して以降、当該表面を解放するまでに検知された位置が所定の範囲内にある場合、当該検知された位置に表示されている要素の項目を選択結果として出力する項目出力部、
当該ユーザが当該表面に接触して以降、当該表面を解放するまでに検知された位置が所定の範囲内でない場合、当該表面に接触する位置の変化を表す速度のうち、当該表面を解放する直前の速度を取得し、当該速度に基づいて、前記記憶部に記憶される領域の位置を移動する移動部、
として機能させることを特徴とするプログラム。
Computer
A storage unit for storing a table including the item to be selected as an element and a position of an area covering a part of the table;
Of the table, a display unit that displays elements included in an area whose position is stored in the storage unit,
If the user is in contact with the surface of the display unit, the position is detected; if the user is releasing the surface, a detection unit that detects the fact;
When the position detected by the user touching the surface and releasing the surface is within a predetermined range, the item of the element displayed at the detected position is output as a selection result. Item output section,
If the position detected by the user touching the surface until the surface is released is not within a predetermined range, immediately before releasing the surface among the speeds indicating the change in the position of contacting the surface. And a moving unit that moves the position of the area stored in the storage unit based on the speed,
A program characterized by functioning as
JP2008151567A 2008-06-10 2008-06-10 Item selection device, item selection method, and program Active JP4797045B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008151567A JP4797045B2 (en) 2008-06-10 2008-06-10 Item selection device, item selection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008151567A JP4797045B2 (en) 2008-06-10 2008-06-10 Item selection device, item selection method, and program

Publications (2)

Publication Number Publication Date
JP2009301092A true JP2009301092A (en) 2009-12-24
JP4797045B2 JP4797045B2 (en) 2011-10-19

Family

ID=41547962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008151567A Active JP4797045B2 (en) 2008-06-10 2008-06-10 Item selection device, item selection method, and program

Country Status (1)

Country Link
JP (1) JP4797045B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011203816A (en) * 2010-03-24 2011-10-13 Hitachi Solutions Ltd Coordinate input device and program
JP2012093860A (en) * 2010-10-25 2012-05-17 Aisin Aw Co Ltd Display device, display method and display program
JP2013015918A (en) * 2011-06-30 2013-01-24 Zenrin Datacom Co Ltd Portable terminal and computer program
WO2013122230A1 (en) 2012-02-16 2013-08-22 シャープ株式会社 Input control device, electronic instrument, input control method, program, and recording medium
JP2014059622A (en) * 2012-09-14 2014-04-03 Canon Inc Display control device and control method thereof
JP2015148903A (en) * 2014-02-05 2015-08-20 コニカミノルタ株式会社 Display device, control program, scroll display method and recording medium
JP2017027609A (en) * 2016-09-07 2017-02-02 キヤノン株式会社 Display control device and method for controlling the same
JP2018055418A (en) * 2016-09-29 2018-04-05 株式会社コナミデジタルエンタテインメント Terminal device and device

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63174125A (en) * 1987-01-14 1988-07-18 Fujitsu Ltd File retrieving device
JPH06236233A (en) * 1993-02-09 1994-08-23 Hitachi Ltd Pen input information processor
JPH09128179A (en) * 1995-10-27 1997-05-16 Kobe Nihondenki Software Kk Method for controlling display of table format data
JPH11288353A (en) * 1998-04-01 1999-10-19 Canon Inc Device and method for controlling output signal, coordinate input device and storage medium
JP2002300319A (en) * 2001-03-29 2002-10-11 Hitachi Ltd Information collection/edit/distribution system, and pointing device
JP2003108279A (en) * 2001-09-27 2003-04-11 Clarion Co Ltd Information selection apparatus
JP2007004762A (en) * 2005-06-23 2007-01-11 Elan Microelectronics Corp Scroll control method for touch panel
JP2007018040A (en) * 2005-07-05 2007-01-25 Matsushita Electric Ind Co Ltd Data processor
WO2007067858A2 (en) * 2005-12-08 2007-06-14 Apple Inc. List scrolling in response to moving contact over list of index symbols

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63174125A (en) * 1987-01-14 1988-07-18 Fujitsu Ltd File retrieving device
JPH06236233A (en) * 1993-02-09 1994-08-23 Hitachi Ltd Pen input information processor
JPH09128179A (en) * 1995-10-27 1997-05-16 Kobe Nihondenki Software Kk Method for controlling display of table format data
JPH11288353A (en) * 1998-04-01 1999-10-19 Canon Inc Device and method for controlling output signal, coordinate input device and storage medium
JP2002300319A (en) * 2001-03-29 2002-10-11 Hitachi Ltd Information collection/edit/distribution system, and pointing device
JP2003108279A (en) * 2001-09-27 2003-04-11 Clarion Co Ltd Information selection apparatus
JP2007004762A (en) * 2005-06-23 2007-01-11 Elan Microelectronics Corp Scroll control method for touch panel
JP2007018040A (en) * 2005-07-05 2007-01-25 Matsushita Electric Ind Co Ltd Data processor
WO2007067858A2 (en) * 2005-12-08 2007-06-14 Apple Inc. List scrolling in response to moving contact over list of index symbols
JP2009518758A (en) * 2005-12-08 2009-05-07 アップル インコーポレイテッド List scroll in response to moving touch on index symbol list

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011203816A (en) * 2010-03-24 2011-10-13 Hitachi Solutions Ltd Coordinate input device and program
JP2012093860A (en) * 2010-10-25 2012-05-17 Aisin Aw Co Ltd Display device, display method and display program
JP2013015918A (en) * 2011-06-30 2013-01-24 Zenrin Datacom Co Ltd Portable terminal and computer program
WO2013122230A1 (en) 2012-02-16 2013-08-22 シャープ株式会社 Input control device, electronic instrument, input control method, program, and recording medium
US9495090B2 (en) 2012-02-16 2016-11-15 Sharp Kabushiki Kaisha Input control device, electronic instrument, input control method, program, and recording medium
JP2014059622A (en) * 2012-09-14 2014-04-03 Canon Inc Display control device and control method thereof
JP2015148903A (en) * 2014-02-05 2015-08-20 コニカミノルタ株式会社 Display device, control program, scroll display method and recording medium
JP2017027609A (en) * 2016-09-07 2017-02-02 キヤノン株式会社 Display control device and method for controlling the same
JP2018055418A (en) * 2016-09-29 2018-04-05 株式会社コナミデジタルエンタテインメント Terminal device and device

Also Published As

Publication number Publication date
JP4797045B2 (en) 2011-10-19

Similar Documents

Publication Publication Date Title
JP4797045B2 (en) Item selection device, item selection method, and program
JP5462828B2 (en) Selection device, selection method, and program
US8360836B2 (en) Gaming device, game processing method and information memory medium
Essl et al. Interactivity for mobile music-making
US8319777B2 (en) Character display, character displaying method, information recording medium, and program
JP4848000B2 (en) GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM
JP2008200295A (en) Game device, program and information storage medium
JP2011065578A (en) Image generating device, image generating method and program
JP4815471B2 (en) Audio processing apparatus, audio processing method, and program
JP5480183B2 (en) GAME DEVICE, IMAGE GENERATION METHOD, AND PROGRAM
JP5023131B2 (en) Input receiving device, input receiving method, and program
JP5431412B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP5199292B2 (en) Selection device, selection control method, and program
JP5406604B2 (en) GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM
JP5155427B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP4956600B2 (en) GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM
JP5222978B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP4825273B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP5133380B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP5143805B2 (en) Image processing apparatus, processing method, and program
JP5133314B2 (en) CONTENT REPRODUCTION DEVICE, CONTENT REPRODUCTION METHOD, AND PROGRAM
JP2012024437A (en) Image generating device, image generating method and program
JP2002162959A (en) Display method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110719

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110801

R150 Certificate of patent or registration of utility model

Ref document number: 4797045

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250