JP2019066958A - Program, processing method, and information terminal device - Google Patents

Program, processing method, and information terminal device Download PDF

Info

Publication number
JP2019066958A
JP2019066958A JP2017189005A JP2017189005A JP2019066958A JP 2019066958 A JP2019066958 A JP 2019066958A JP 2017189005 A JP2017189005 A JP 2017189005A JP 2017189005 A JP2017189005 A JP 2017189005A JP 2019066958 A JP2019066958 A JP 2019066958A
Authority
JP
Japan
Prior art keywords
swipe operation
stored
shape
game
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017189005A
Other languages
Japanese (ja)
Other versions
JP6535376B2 (en
Inventor
真一 上山
Shinichi Kamiyama
真一 上山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2017189005A priority Critical patent/JP6535376B2/en
Publication of JP2019066958A publication Critical patent/JP2019066958A/en
Application granted granted Critical
Publication of JP6535376B2 publication Critical patent/JP6535376B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a technology to prevent increase in storage capacity and control load.SOLUTION: A touch coordinate of a swipe operation is stored in a frame region at every 1/30 second. When a linear distance from the first touch coordinate to each touch coordinate exceeded a threshold, the touch coordinate exceeding the threshold is stored as a check point coordinate, and the frame region is initialized. A direction vector determined by the stored check point coordinate and a check point coordinate stored thereafter is specified. A direction region is partitioned into a plurality of direction regions, a direction section to which the direction vector belongs is determined, a belonging direction section is stored, and a difference of the direction regions is calculated and stored. It is determined whether a prescribed shape condition associated with the prescribed shape previously determined based on the stored check point coordinate and direction difference is satisfied, on the basis of the determination, it is determined whether the swipe operation belongs to the prescribed shape, and a game process according to the determined shape is performed.SELECTED DRAWING: Figure 7

Description

本開示は、プログラム、処理方法、および情報端末装置に関する。   The present disclosure relates to a program, a processing method, and an information terminal device.

従来、入力装置としてタッチパネルを用いた情報処理装置の一例として、タッチパネル等へのタッチ操作により描かれた軌跡をゲーム操作として用いるゲーム装置があった。より具体的には、ゲーム操作に用いる図形を特定するためのデータを予め記憶しておき、当該データとタッチ操作により描かれた軌跡とのパターンマッチングを行って類似度を算出し、描かれた軌跡に最も近い図形を特定し、当該図形に対応したゲーム処理を行うものがあった(特許文献1)。   BACKGROUND Conventionally, as an example of an information processing apparatus using a touch panel as an input device, there has been a game apparatus using a locus drawn by a touch operation on a touch panel or the like as a game operation. More specifically, data for specifying a figure used for game operation is stored in advance, and pattern matching is performed between the data and a trace drawn by the touch operation to calculate the degree of similarity and drawn. There has been a method of specifying a figure closest to the locus and performing game processing corresponding to the figure (Japanese Patent Application Laid-Open No. 2008-112118).

特開2006−288532号公報Unexamined-Japanese-Patent No. 2006-288532

しかしながら、従来の情報処理装置においてパターンマッチングに用いるデータ量は、図形の数が多くなることや複雑な図形になる程、膨大になる虞があった。また、パターンマッチングは、類似度により図形を特定するため、用意されているすべての図形に対して行う必要がある。このため、処理負担が増大してしまう虞があった。   However, the amount of data used for pattern matching in the conventional information processing apparatus may become enormous as the number of figures increases and the figure becomes more complex. In addition, pattern matching needs to be performed on all prepared figures in order to specify figures by the degree of similarity. For this reason, there is a possibility that processing load may increase.

本開示は、記憶容量および制御負担が増大してしまうことを防止できる技術を提供することを目的とする。   The present disclosure aims to provide a technology that can prevent an increase in storage capacity and control load.

本開示に示す一実施形態のある局面によれば、プロセッサ、メモリ、タッチ操作を受け付ける入力部、および表示部を備えるコンピュータにおいて実行されるプログラムであって、前記プログラムは、前記プロセッサに、前記入力部に対するスワイプ操作を受け付けている場合に、予め定められた記憶条件が成立する毎に当該スワイプ操作におけるタッチ操作の位置を前記メモリに記憶する第1の記憶ステップと、前記第1の記憶ステップにより記憶された位置と前回記憶された位置とにより定まる方向を特定する特定ステップと、予め複数に区分された方向区分のうち、前記特定ステップにより特定された方向が属する方向区分を前記メモリに記憶する第2の記憶ステップと、前記スワイプ操作を受け付けることにより前記メモリに記憶された位置と方向区分とに基づいて予め定められた形状に対応付けられた形状条件を満たすか否かを判定することにより、前記スワイプ操作が当該予め定められた形状に属するかの判別を行う判別ステップと、前記判別ステップの判別結果に応じた処理を実行する実行ステップとを実行させる。   According to an aspect of an embodiment disclosed in the present disclosure, there is provided a program executed by a computer including a processor, a memory, an input unit for receiving a touch operation, and a display unit, wherein the program is input to the processor. A first storage step of storing the position of a touch operation in the swipe operation in the memory whenever a predetermined storage condition is satisfied when a swipe operation on a part is received, and the first storage step Storing, in the memory, a direction division to which the direction specified in the specifying step belongs, among the direction divisions specified in the identification step which specifies the direction determined by the stored position and the position stored last time, and a plurality of direction divisions divided in advance. Stored in the memory by accepting a second storing step and the swipe operation; It is determined whether the swipe operation belongs to the predetermined shape by determining whether the shape condition associated with the predetermined shape is satisfied based on the selected position and direction classification. A step and an execution step of executing a process according to the determination result of the determination step are executed.

一実施形態のある局面によれば、プロセッサ、メモリ、タッチ操作を受け付ける入力部、および表示部を備えるコンピュータにより実行される処理方法であって、前記入力部に対するスワイプ操作を受け付けている場合に、予め定められた記憶条件が成立する毎に当該スワイプ操作におけるタッチ操作の位置を前記メモリに記憶する第1の記憶ステップと、前記第1の記憶ステップにより記憶された位置と前回記憶された位置とにより定まる方向を特定する特定ステップと、予め複数に区分された方向区分のうち、前記特定ステップにより特定された方向が属する方向区分を前記メモリに記憶する第2の記憶ステップと、前記スワイプ操作を受け付けることにより前記メモリに記憶された位置と方向区分とに基づいて予め定められた形状に対応付けられた形状条件を満たすか否かを判定することにより、前記スワイプ操作が当該予め定められた形状に属するかの判別を行う判別ステップと、前記判別ステップの判別結果に応じた処理を実行する実行ステップとを備える。   According to an aspect of one embodiment, a processing method performed by a computer comprising a processor, a memory, an input unit for receiving a touch operation, and a display unit, wherein a swipe operation on the input unit is received, A first storing step of storing the position of the touch operation in the swipe operation in the memory each time a predetermined storing condition is satisfied, a position stored by the first storing step, and a position stored last time; A second storing step of storing in the memory a direction segment to which the direction identified by the identifying step belongs among a plurality of divided direction segments, and a swipe operation; By accepting, it is paired with a predetermined shape based on the position and direction division stored in the memory. A determination step of determining whether the swipe operation belongs to the predetermined shape and a process according to the determination result of the determination step are executed by determining whether the attached shape condition is satisfied or not. And an execution step.

一実施形態のある局面によれば、プロセッサ、メモリ、タッチ操作を受け付ける入力部、および表示部を備える情報処理装置であって、前記入力部に対するスワイプ操作を受け付けている場合に、予め定められた記憶条件が成立する毎に当該スワイプ操作におけるタッチ操作の位置を前記メモリに記憶する第1の記憶手段と、前記第1の記憶手段により記憶された位置と前回記憶された位置とにより定まる方向を特定する特定手段と、予め複数に区分された方向区分のうち、前記特定手段により特定された方向が属する方向区分を前記メモリに記憶する第2の記憶手段と、前記スワイプ操作を受け付けることにより前記メモリに記憶された位置と方向区分とに基づいて予め定められた形状に対応付けられた形状条件を満たすか否かを判定することにより、前記スワイプ操作が当該予め定められた形状に属するかの判別を行う判別手段と、前記判別手段の判別結果に応じた処理を実行する実行手段とを備える。   According to an aspect of an embodiment, the information processing apparatus includes a processor, a memory, an input unit that receives a touch operation, and a display unit, and is determined in advance when a swipe operation on the input unit is received. The direction determined by the first storage unit storing the position of the touch operation in the swipe operation in the memory each time a storage condition is satisfied, the position stored by the first storage unit, and the position stored last time The second memory means for storing in the memory the direction section to which the direction specified by the specifying means belongs among the direction specifying means specified and the direction section specified beforehand by the specifying means, and the swipe operation is accepted. It is determined whether or not the shape condition associated with the predetermined shape is satisfied based on the position and direction division stored in the memory Includes a result, a discriminating means for discriminating the swipe operation is belongs to the predetermined shape, and execution means for executing a process corresponding to the judgment result of said discriminating means.

一実施形態によると、スワイプ操作により描かれた形状を特定可能にしつつ、記憶容量および制御負担が増大してしまうことを防止できる。   According to one embodiment, it is possible to prevent an increase in storage capacity and control burden while making it possible to specify the shape drawn by the swipe operation.

実施の形態のゲーム配信システム1の構成を示す図である。It is a figure showing composition of game distribution system 1 of an embodiment. 携帯端末10の構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of a mobile terminal 10; (A)はサーバ20の機能的な構成を示すブロック図であり、(B)はマッチング部の機能的な構成を示すブロック図である。(A) is a block diagram which shows a functional structure of the server 20, (B) is a block diagram which shows the functional structure of a matching part. ユーザがゲームをプレイする進行状況を管理するためのテーブルのデータ構造を示す図である。It is a figure which shows the data structure of the table for managing the progress in which a user plays a game. 図形入力操作時処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process at the time of figure input operation. チェックポイント格納処理を説明するためのフローチャートである。It is a flow chart for explaining check point storage processing. 図形入力操作により描かれた軌跡Tを解析する場合の動作説明図であり、(A)はスワイプ操作により描いた軌跡を示す図であり、(B)は軌跡に対応するチェックポイントの座標を示す図であり、(C)はチェックポイント間の方向ベクトルを示す図であり、(D)は方向領域毎に予め定められた方向値を示す図である。It is operation | movement explanatory drawing in the case of analyzing the locus | trajectory T drawn by figure input operation, (A) is a figure which shows the locus | trajectory drawn by swipe operation, (B) shows the coordinate of the checkpoint corresponding to a locus | trajectory It is a figure, (C) is a figure showing the direction vector between check points, and (D) is a figure showing the direction value beforehand defined for every direction field. 軌跡Tの解析結果に基づきフレーム領域およびチェックポイント領域各々に格納されるデータを説明するための図である。It is a figure for demonstrating the data stored in a frame area | region and each check point area | region based on the analysis result of the locus | trajectory T. FIG. 図形判定処理を説明するためのフローチャートである。It is a flowchart for demonstrating a figure determination process.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same components are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description about them will not be repeated.

本実施形態において、ユーザは、例えばスマートフォンなどの、タッチスクリーンを搭載した情報処理装置を操作して、ゲームサーバと、スマートフォンとの間でゲームに関するデータを送受信しながらゲームを進行させる。ゲームは、ユーザが一人でプレイするシングルプレイと、ユーザが他のユーザとともにプレイするマルチプレイとに対応する。   In the present embodiment, the user operates an information processing apparatus equipped with a touch screen, such as a smartphone, and advances the game while transmitting and receiving data related to the game between the game server and the smartphone. The game corresponds to single play where the user plays alone and multiplay where the user plays with other users.

図1は、本実施の形態のゲーム配信システム1の構成を示す図である。図1に示すように、ゲーム配信システム1は、ユーザが使用する情報処理装置と、サーバ20とを含み、これらの装置がネットワーク80によって互いに通信可能に接続されている。   FIG. 1 is a diagram showing the configuration of a game distribution system 1 according to the present embodiment. As shown in FIG. 1, the game distribution system 1 includes an information processing device used by a user and a server 20, and these devices are communicably connected to each other by a network 80.

図1の例では、ユーザが使用する情報処理装置として、携帯端末10A、携帯端末10Bおよび携帯端末10C(以下、携帯端末10A、10B、10Cなどの携帯端末を総称して「携帯端末10」と記載することもある)など複数の携帯端末を示している。携帯端末10Aと携帯端末10Bとは、無線基地局81と通信することにより、ネットワーク80と接続する。携帯端末10Cは、家屋などの施設に設置される無線ルータ82と通信することにより、ネットワーク80と接続する。携帯端末10は、タッチスクリーンを備える端末であり、例えば、スマートフォン、ファブレット、タブレットなどである。   In the example of FIG. 1, as an information processing apparatus used by the user, portable terminals 10A, 10B and 10C (hereinafter, portable terminals such as portable terminals 10A, 10B and 10C are collectively referred to as "portable terminal 10". It shows a plurality of portable terminals such as may be described). The mobile terminal 10A and the mobile terminal 10B communicate with the radio base station 81 to connect with the network 80. The mobile terminal 10C is connected to the network 80 by communicating with the wireless router 82 installed in a facility such as a house. The mobile terminal 10 is a terminal provided with a touch screen, and is, for example, a smartphone, a fablet, a tablet or the like.

携帯端末10は、ゲームプログラムを実行することにより、ゲームプログラムに応じたゲームをプレイする環境をユーザに対して提供する。携帯端末10は、例えば、アプリ等を配信するプラットフォームを介してゲームプログラムをインストールする。携帯端末10は、携帯端末10にインストールされたゲームプログラム、または、予めプリインストールされているゲームプログラムを実行することで、ユーザによるゲームのプレイを可能とする。携帯端末10は、ゲームプログラムを読み込んで実行することにより、携帯端末10と、サーバ20とを通信接続して、ゲームの進行に応じてゲームに関連するデータを携帯端末10とサーバ20との間で送受信する。   The mobile terminal 10 provides the user with an environment for playing a game according to the game program by executing the game program. The mobile terminal 10 installs a game program via, for example, a platform for distributing an application or the like. The mobile terminal 10 enables the user to play a game by executing a game program installed in the mobile terminal 10 or a game program pre-installed in advance. The portable terminal 10 communicates and connects the portable terminal 10 and the server 20 by reading and executing the game program, and data relating to the game is transmitted between the portable terminal 10 and the server 20 according to the progress of the game. Send and receive.

サーバ20は、ゲームのプレイに必要なデータを、適宜、携帯端末10へ送信することで、携帯端末10でのゲームのプレイを進行させる。サーバ20は、ゲームをプレイする各ユーザの、ゲームに関連する各種データを管理する。サーバ20は、携帯端末10と通信し、各ユーザのゲームの進行に応じて、画像、音声、テキストデータその他のデータを携帯端末10へ送信する。   The server 20 advances game play on the mobile terminal 10 by transmitting data necessary for game play to the mobile terminal 10 as appropriate. The server 20 manages various data related to the game of each user who plays the game. The server 20 communicates with the portable terminal 10 and transmits image, voice, text data and other data to the portable terminal 10 as the game progresses for each user.

例えば、サーバ20は、各ユーザがゲームのストーリーを進行させた進行状況、ゲーム内に登場するゲームキャラクタのうち各ユーザが使用可能なゲームキャラクタの情報、ゲームキャラクタの能力を示すパラメータ、ゲームキャラクタが使用する道具の性能を示すパラメータその他の各種データを管理する。また、サーバ20は、ゲームの運営者がユーザに対してキャンペーン、ゲームの進行における不具合の発生、不具合の解消その他のゲームの運営に関連する情報等をユーザに通知する処理を行う。   For example, in the server 20, the progress status in which each user advances the game story, information of the game characters available to each user among the game characters appearing in the game, the parameter indicating the ability of the game character, and the game character Manage parameters and various other data that indicate the performance of the tool used. In addition, the server 20 performs processing in which the game administrator notifies the user of a campaign, occurrence of a failure in the progress of the game, elimination of the failure, and other information related to the operation of the game.

ゲームプログラムは、ユーザがゲームをプレイするモードとして、一人のユーザがプレイする場合(シングルプレイ)と、複数人のユーザが協同してプレイする場合(マルチプレイ)とに対応している。例えば、ゲーム配信システム1において、サーバ20が、マルチプレイに参加するユーザを特定して各ユーザの各携帯端末10と通信すること等により、マルチプレイでゲームをプレイする環境を各ユーザに提供する。   The game program corresponds to a case where one user plays (single play) and a case where a plurality of users play cooperatively (multi play) as a mode in which the user plays the game. For example, in the game distribution system 1, the server 20 specifies each user participating in multiplay and communicates with each mobile terminal 10 of each user, etc. to provide each user with an environment for playing a game in multiplay.

ゲーム配信システム1は、マルチプレイに対応することにより、例えば、テニスゲームであれば、各ユーザでチームを結成してダブルスの試合を行うことを可能とする。また、ゲーム配信システム1は、サッカーゲームであれば、各ユーザが同一のサッカーチームのメンバーとなって試合を行うことを可能とする。また、ゲーム配信システム1は、アクションゲームであれば、各ユーザでチームを結成して、クエストモードなど比較的強力なキャラクタと対戦するゲームモードを複数のユーザがプレイすることを可能とする。また、ゲーム配信システム1は、マルチプレイに対応することにより、ユーザ同士が対戦することを可能とする。   The game distribution system 1 supports multiplayer, and for example, in the case of a tennis game, it is possible to form a team by each user and play a doubles game. Further, in the case of a soccer game, the game distribution system 1 enables each user to play a game as a member of the same soccer team. In addition, in the case of an action game, the game distribution system 1 enables a plurality of users to play a game mode in which a team is formed by each user and a player competes with a relatively powerful character such as a quest mode. In addition, the game distribution system 1 enables users to play a match by supporting multiplay.

<構成>
サーバ20のハードウェアの構成を説明する。サーバ20は、通信IF(Interface)22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備え、これらが通信バスを介して互いに接続する。
<Configuration>
The hardware configuration of the server 20 will be described. The server 20 includes a communication IF (Interface) 22, an input / output IF 23, a memory 25, a storage 26, and a processor 29, which are mutually connected via a communication bus.

通信IF22は、例えばLAN(Local Area Network)規格など各種の通信規格に対応しており、携帯端末10など外部の通信機器との間でデータを送受信するためのインタフェースとして機能する。   The communication IF 22 corresponds to various communication standards such as LAN (Local Area Network) standard, for example, and functions as an interface for transmitting and receiving data to and from an external communication device such as the portable terminal 10.

入出力IF23は、サーバ20への情報の入力を受け付けるとともに、サーバ20の外部へ情報を出力するためのインタフェースとして機能する。入出力IF23は、マウス、キーボード等の情報入力機器の接続を受け付ける入力受付部と、画像等を表示するためのディスプレイ等の情報出力機器の接続を受け付ける出力部とを含む。   The input / output IF 23 functions as an interface for outputting information to the outside of the server 20 as well as receiving input of information to the server 20. The input / output IF 23 includes an input receiving unit that receives a connection of an information input device such as a mouse and a keyboard, and an output unit that receives a connection of an information output device such as a display for displaying an image or the like.

メモリ25は、処理に使用されるデータ等を記憶するための記憶装置である。メモリ25は、例えば、プロセッサ29が処理を行う際に一時的に使用するための作業領域をプロセッサ29に提供する。メモリ25は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置を含んで構成されている。   The memory 25 is a storage device for storing data and the like used for processing. The memory 25 provides the processor 29 with a work area for temporary use when the processor 29 performs processing, for example. The memory 25 is configured to include storage devices such as a ROM (Read Only Memory) and a RAM (Random Access Memory).

ストレージ26は、プロセッサ29が読み込んで実行するための各種プログラムおよびデータを記憶するための記憶装置である。ストレージ26が記憶する情報は、ゲームプログラム、ゲームプログラムに関連する情報、ゲームプログラムをプレイするユーザの情報その他の情報を含む。ストレージ26は、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置を含んで構成されている。   The storage 26 is a storage device for storing various programs and data to be read and executed by the processor 29. The information stored in the storage 26 includes a game program, information related to the game program, information on a user who plays the game program, and other information. The storage 26 is configured to include storage devices such as a hard disk drive (HDD) and a flash memory.

プロセッサ29は、ストレージ26に記憶されるプログラム等を読み込んで実行することにより、サーバ20の動作を制御する。プロセッサ29は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等を含んで構成される。   The processor 29 controls the operation of the server 20 by reading and executing programs and the like stored in the storage 26. The processor 29 is configured to include, for example, a central processing unit (CPU), a micro processing unit (MPU), a graphics processing unit (GPU), and the like.

図2は、携帯端末10の構成を示すブロック図である。図2を参照して、携帯端末10は、アンテナ110と、無線通信IF120と、タッチスクリーン130と、入出力IF140と、記憶部150と、音声処理部160と、マイク170と、スピーカ180と、制御部190とを含む。   FIG. 2 is a block diagram showing the configuration of the mobile terminal 10. Referring to FIG. 2, the portable terminal 10 includes an antenna 110, a wireless communication IF 120, a touch screen 130, an input / output IF 140, a storage unit 150, an audio processing unit 160, a microphone 170, and a speaker 180. And a control unit 190.

アンテナ110は、携帯端末10が発する信号を電波として空間へ放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信IF120へ与える。   The antenna 110 radiates a signal emitted by the portable terminal 10 into space as a radio wave. Also, the antenna 110 receives radio waves from space and provides a received signal to the wireless communication IF 120.

無線通信IF120は、携帯端末10が他の通信機器と通信するため、アンテナ110等を介して信号を送受信するための変復調処理などを行う。無線通信IF120は、チューナー、高周波回路などを含む無線通信用の通信モジュールであり、携帯端末10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。   The wireless communication IF 120 performs modulation / demodulation processing and the like for transmitting and receiving signals via the antenna 110 and the like in order for the mobile terminal 10 to communicate with another communication device. The wireless communication IF 120 is a communication module for wireless communication including a tuner, a high frequency circuit, and the like, performs modulation / demodulation and frequency conversion of a wireless signal transmitted / received by the portable terminal 10, and supplies a received signal to the control unit 190.

タッチスクリーン130は、ユーザからの入力を受け付けて、ユーザに対し情報をディスプレイ132に出力する。タッチスクリーン130は、ユーザの入力操作を受け付けるための部材(タッチパネル131)を含む。また、タッチスクリーン130は、メニュー画面や、ゲームの進行を画面に表示するための部材(ディスプレイ132)を含む。タッチパネル131は、例えば静電容量方式のものを用いることによって、ユーザの指などが接近したことを検出する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)、有機EL(electroluminescence)その他の表示装置によって実現される。   The touch screen 130 receives an input from the user and outputs information to the display 132 for the user. The touch screen 130 includes a member (touch panel 131) for receiving an input operation of the user. In addition, the touch screen 130 includes a menu screen and a member (display 132) for displaying the progress of the game on the screen. The touch panel 131 detects that the user's finger or the like has approached, for example, by using a capacitive type. The display 132 is realized by, for example, a liquid crystal display (LCD), an organic electroluminescence (EL), or another display device.

入出力IF140は、携帯端末10への情報の入力を受け付けるとともに、携帯端末10の外部へ情報を出力するためのインタフェースとして機能する。   The input / output IF 140 functions as an interface for receiving information input to the mobile terminal 10 and outputting information to the outside of the mobile terminal 10.

記憶部150は、フラッシュメモリ、RAM(Random Access Memory)等により構成され、携帯端末10が使用するプログラム、および、携帯端末10がサーバ20から受信する各種データ等を記憶する。   The storage unit 150 is configured by a flash memory, a random access memory (RAM), and the like, and stores programs used by the mobile terminal 10 and various data received by the mobile terminal 10 from the server 20.

音声処理部160は、音声信号の変復調を行う。音声処理部160は、マイク170から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部160は、音声信号をスピーカ180へ与える。音声処理部160は、例えば、音声処理用のプロセッサによって実現される。マイク170は、音声信号の入力を受け付けて制御部190へ出力するための音声入力部として機能する。スピーカ180は、音声信号を、携帯端末10の外部へ出力するための音声出力部として機能する。   The audio processing unit 160 modulates and demodulates an audio signal. The audio processing unit 160 modulates the signal supplied from the microphone 170 and supplies the modulated signal to the control unit 190. Further, the audio processing unit 160 provides an audio signal to the speaker 180. The voice processing unit 160 is realized by, for example, a processor for voice processing. The microphone 170 functions as an audio input unit for receiving an input of an audio signal and outputting the input to the control unit 190. The speaker 180 functions as an audio output unit for outputting an audio signal to the outside of the mobile terminal 10.

制御部190は、記憶部150に記憶されるプログラムを読み込んで実行することにより、携帯端末10の動作を制御する。制御部190は、例えば、アプリケーションプロセッサによって実現される。   The control unit 190 controls the operation of the mobile terminal 10 by reading and executing the program stored in the storage unit 150. The control unit 190 is realized by, for example, an application processor.

携帯端末10がゲームプログラム151を実行する処理について、より詳細に説明する。ある局面において、記憶部150は、ゲームプログラム151と、ゲーム情報152と、ユーザ情報153とを記憶する。携帯端末10は、例えば、サーバ20からゲームプログラムをダウンロードして記憶部150に記憶させる。また、携帯端末10は、ゲームの進行に伴いサーバ20と通信することで、ゲーム情報152およびユーザ情報153等の各種のデータをサーバ20と送受信する。   The process in which the mobile terminal 10 executes the game program 151 will be described in more detail. In one aspect, the storage unit 150 stores the game program 151, the game information 152, and the user information 153. For example, the mobile terminal 10 downloads a game program from the server 20 and causes the storage unit 150 to store the game program. The portable terminal 10 communicates with the server 20 as the game progresses, thereby transmitting and receiving various data such as the game information 152 and the user information 153 to and from the server 20.

ゲームプログラム151は、携帯端末10においてゲームを進行させるためのプログラムである。ゲーム情報152は、ゲームプログラム151が参照する各種のデータを含む。ゲーム情報152は、例えば、ゲームにおいて仮想空間に配置するオブジェクトの情報、オブジェクトに対応付けられた効果の情報(ゲームキャラクタに設定されるスキルの情報などを含む)などを含む。ユーザ情報153は、ゲームをプレイするユーザについての情報を含む。ユーザ情報153は、例えば、ゲームをプレイする携帯端末10のユーザを識別する情報、マルチプレイ時に協同してゲームをプレイする他のユーザを識別する情報その他の情報を含む。   The game program 151 is a program for advancing the game on the mobile terminal 10. The game information 152 includes various data to which the game program 151 refers. The game information 152 includes, for example, information of an object to be arranged in a virtual space in the game, information of an effect associated with the object (including information of a skill set for the game character, and the like). The user information 153 includes information about the user who plays the game. The user information 153 includes, for example, information identifying the user of the mobile terminal 10 playing the game, information identifying other users playing the game in cooperation at the time of multiplay, and other information.

制御部190は、ゲームプログラム151を読み込んで実行することにより、入力操作受付部191と、ゲーム進行処理部192と、移動操作検出部193と、カメラ配置制御部194と、オブジェクト制御部195と、表示制御部196と、の各機能を発揮する。   The control unit 190 reads and executes the game program 151, whereby the input operation reception unit 191, the game progress processing unit 192, the movement operation detection unit 193, the camera arrangement control unit 194, and the object control unit 195, The respective functions of the display control unit 196 are exhibited.

入力操作受付部191は、タッチスクリーン130の出力に基づいて、ユーザの入力操作を受け付ける。具体的には、入力操作受付部191は、ユーザの指などがタッチパネル131に接近したことを、タッチスクリーン130を構成する面の横軸および縦軸からなる座標系の座標として検出する。   The input operation reception unit 191 receives an input operation of the user based on the output of the touch screen 130. Specifically, the input operation reception unit 191 detects that the user's finger or the like approaches the touch panel 131 as coordinates of a coordinate system including the horizontal axis and the vertical axis of the surface constituting the touch screen 130.

入力操作受付部191は、タッチスクリーン130に対するユーザの操作を判別する。入力操作受付部191は、例えば、(1)「接近操作」、(2)「リリース操作」、(3)「タップ操作」、(4)「ダブルタップ操作」、(5)「長押し操作(ロングタッチ操作)」、(6)「スワイプ操作(ドラッグ操作)」、(7)「ムーブ操作」、(8)「フリック操作」、その他のユーザの操作を判別する。入力操作受付部191が判別するユーザの操作は、上記に限られない。例えば、タッチパネル131が、ユーザがタッチパネル131に対して押下する圧力の大きさを検出可能な機構を有する場合、入力操作受付部191は、ユーザが押下した圧力の大きさを判別する。また、制御部190は、タッチスクリーン130へのユーザの指などの接近を検出している状態を、「タッチオン状態」と判別する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出しない状態を、「タッチオフ状態」と判別する。制御部190は、タッチスクリーン130が逐次出力するユーザの指などの接近位置を示す座標を、「タッチナウ」の座標として受け付ける。   The input operation reception unit 191 determines the user's operation on the touch screen 130. The input operation reception unit 191, for example, (1) "approach operation", (2) "release operation", (3) "tap operation", (4) "double tap operation", (5) "long press operation ( "Long touch operation)", (6) "swipe operation (drag operation)", (7) "move operation", (8) "flick operation", and other user operations are determined. The operation of the user determined by the input operation reception unit 191 is not limited to the above. For example, when the touch panel 131 has a mechanism capable of detecting the magnitude of the pressure that the user presses on the touch panel 131, the input operation reception unit 191 determines the magnitude of the pressure pressed by the user. Further, the control unit 190 determines that the state in which the approach of the user's finger or the like to the touch screen 130 is detected as the “touch on state”. The control unit 190 determines that the state in which the approach of the user's finger or the like to the touch screen 130 is not detected is the “touch off state”. The control unit 190 receives, as coordinates of “touch now”, the coordinates indicating the approach position of the user's finger or the like sequentially output by the touch screen 130.

ここで、(1)「接近操作」とは、ユーザが指などをタッチスクリーン130に接近させる操作である。タッチスクリーン130は、ユーザの指などが接近したこと(ユーザの指などがタッチスクリーン130に接触したことを含む)をタッチパネル131により検出し、検出したタッチスクリーン130の座標に応じた信号を制御部190へ出力する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出しない状態から、接近を検出したときに、状態が「タッチオン状態」になったと判別する。   Here, (1) “approaching operation” is an operation for causing the user to approach the touch screen 130 with a finger or the like. The touch screen 130 detects that the user's finger or the like has approached (including the touch of the user's finger or the like on the touch screen 130) with the touch panel 131, and controls the signal corresponding to the detected coordinates of the touch screen 130 Output to 190. The control unit 190 determines that the state has become the “touch on state” when the approach is detected from the state in which the approach of the user's finger or the like to the touch screen 130 is not detected.

(2)「リリース操作」とは、ユーザがタッチスクリーン130に指などを接近させることで操作する状態を止める操作である。入力操作受付部191は、例えば、ユーザが指などをタッチスクリーン130に接触させている状態から、指を離す操作をしたときに、ユーザの操作を「リリース操作」と判別する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出している状態から、接近を検出しない状態になったときに、状態が「タッチオン状態」から「タッチオフ状態」になったと判別する。   (2) The “release operation” is an operation for stopping the operation state by causing the finger or the like to approach the touch screen 130 by the user. The input operation reception unit 191 determines that the user's operation is a "release operation", for example, when the user releases the finger in a state where the finger or the like is in contact with the touch screen 130. The control unit 190 determines that the state is changed from the “touch on state” to the “touch off state” when the approach to the touch screen 130 is not detected from the state in which the approach of the user's finger or the like to the touch screen 130 is detected. Do.

(3)「タップ操作」とは、ユーザがタッチスクリーン130に対して指などを接近させる接近操作をした後に、接近操作をした位置でリリース操作を行うことである。入力操作受付部191は、接近操作が検出されない状態(ユーザの指などがタッチパネル131から離れており、タッチパネル131がユーザの指などの接近を検出していない状態)から、タッチスクリーン130の出力に基づいて、ユーザの指などが接近したことを検出した場合に、その検出した座標を「初期タッチ位置」として保持する。入力操作受付部191は、初期タッチ位置の座標と、リリース操作をする直前に(タッチオフ状態が検出される直前に)タッチスクリーン130により検出されている座標とがほぼ同一である場合(接近操作が検出された座標から一定範囲内の座標においてリリース操作にかかる座標が検出された場合)に、ユーザの操作を「タップ操作」と判別する。   (3) The “tap operation” is to perform a release operation at a position where the user performs an approaching operation after the user performs an approaching operation for causing a finger or the like to approach the touch screen 130. The input operation reception unit 191 outputs an output from the touch screen 130 from a state in which an approaching operation is not detected (a state in which the user's finger or the like is separated from the touch panel 131 and the touch panel 131 does not detect an approach of the user's finger or the like). If it is detected based on the approach of the user's finger or the like, the detected coordinates are held as the "initial touch position". If the coordinates of the initial touch position are almost the same as the coordinates detected by the touch screen 130 immediately before performing the release operation (immediately before the touch-off state is detected) (the approaching operation is an approach operation The user's operation is determined to be "tap operation" when the coordinates related to the release operation are detected at coordinates within a certain range from the detected coordinates.

(4)「ダブルタップ操作」とは、ユーザがタップ操作を一定時間内に2回行う操作である。入力操作受付部191は、例えば、ユーザの操作をタップ操作と判別してから一定時間内に、タップ操作にかかる座標で再びタップ操作を判別した場合に、ユーザの操作を「ダブルタップ操作」と判別する。   (4) The “double tap operation” is an operation in which the user performs the tap operation twice within a predetermined time. For example, when the input operation reception unit 191 determines that the user's operation is a tap operation and then determines that the tap operation is performed again at coordinates related to the tap operation within a predetermined time, the user operation is “double tap operation”. Determine.

(5)「長押し操作」とは、ユーザがタッチスクリーン130を押し続ける操作である。タッチスクリーン130は、ユーザの操作を検出して接近操作を判別してから、接近操作が検出された座標において接近操作が継続している時間が一定時間を超えた場合に、ユーザの操作を「長押し操作」(「長押し操作」を、「ロングタッチ操作」と称することもある)と判別する。   (5) The “long press operation” is an operation in which the user keeps pressing the touch screen 130. After the touch screen 130 detects the user's operation and determines the approaching operation, if the time during which the approaching operation continues at the coordinates at which the approaching operation is detected exceeds a predetermined time, the user's operation is It is determined that "long press operation" ("long press operation" may be referred to as "long touch operation").

(6)「スワイプ操作」とは、ユーザがタッチスクリーン130に指などを接近させた接近状態を維持したまま、指をスライドさせる操作である。入力操作受付部191は、タッチスクリーン130の出力に基づいて、ユーザの指などが接近したことを検出した後、検出が維持されたまま、検出位置(タッチ位置)が移動している場合に、ユーザの操作を「スワイプ操作」であると判別する。また、入力操作受付部191は、ゲームの進行に応じて制御される図形入力モードにおいて、ユーザがスワイプ操作により図形入力操作を行った場合に、タッチスクリーン130の検出結果に基づいて当該図形入力操作により描かれた図形(形状)を判定する。   (6) The “swipe operation” is an operation of sliding a finger while maintaining the approach state in which the user has approached the touch screen 130 with a finger or the like. After detecting that the user's finger or the like has approached based on the output of the touch screen 130, the input operation reception unit 191 moves the detection position (touch position) while the detection is maintained. It determines that the user's operation is a "swipe operation". In addition, in the figure input mode controlled according to the progress of the game, when the user performs a figure input operation by a swipe operation, the input operation reception unit 191 performs the figure input operation based on the detection result of the touch screen 130. Determine the figure (shape) drawn by.

(7)「ムーブ操作」とは、ユーザがタッチスクリーン130において、接近操作を維持しつつ、タッチスクリーン130に指などを接近させている位置を移動させてリリース操作を行う一連の操作をいう。   (7) The “move operation” refers to a series of operations in which the user moves the position where a finger or the like approaches the touch screen 130 while maintaining the approach operation on the touch screen 130 to perform a release operation.

(8)「フリック操作」は、ユーザがムーブ操作を予め定められた時間よりも短い時間で行う操作をいう。フリック操作は、ユーザがタッチスクリーン130で指を弾くような操作である。制御部190は、例えば、ユーザがムーブ操作を行う時間と比較するための複数の閾値を保持し、ユーザがタッチスクリーン130において指などを接近させている位置を一定距離移動させるまでの時間が第1の閾値よりも短い場合(比較的素早く指を弾く場合)は、フリック操作が「強フリック」であると判定し、第1の閾値よりも大きく第2の閾値(第2の閾値を、第1の閾値よりも大きく設定する)よりも小さい場合に、フリック操作が「弱フリック」であると判定することとしてもよい。   (8) The “flick operation” refers to an operation in which the user performs the move operation in a time shorter than a predetermined time. The flick operation is an operation in which the user flips a finger on the touch screen 130. The control unit 190 holds, for example, a plurality of threshold values for comparison with the time when the user performs a move operation, and the time until the user moves a position where a finger or the like is approaching on the touch screen 130 is moved a fixed distance If it is shorter than the 1 threshold (if the finger is flipped relatively quickly), it is determined that the flick operation is "strong flick", and the second threshold (the second threshold is greater than the first threshold) It is also possible to determine that the flick operation is “weak flick” when it is smaller than a threshold value of 1).

ゲーム進行処理部192は、ユーザの操作に応じて、各種のプログラムを呼び出す等によりゲームを進行させる処理を行う。例えば、ゲーム進行処理部192は、サーバ20と通信し、ゲームの進行に応じてサーバ20へデータを送信する処理、サーバ20からゲームに関連するデータを受信する処理、ゲームの進行に応じてユーザに報酬を付与する処理、時間の経過を計測する処理その他の処理を行う。   The game progress processing unit 192 performs a process of advancing the game by calling various programs in accordance with the user's operation. For example, the game progress processing unit 192 communicates with the server 20 and transmits data to the server 20 according to the progress of the game, receives data related to the game from the server 20, and the user according to the progress of the game Processing to give rewards, processing to measure elapsed time, and other processing.

移動操作検出部193は、タッチスクリーン130に対するユーザの入力操作に基づいて、ゲームに登場するキャラクタ(以下、「ゲームキャラクタ」と称することもある)を移動させる入力操作の操作内容を検出する。例えば、ゲームプログラム151がスポーツゲームである場合、移動操作検出部193は、ユーザの入力操作に基づいて、ゲームキャラクタを移動させる方向を検出する。このように、移動操作検出部193は、ユーザがゲームキャラクタの移動方向を指定する入力操作を受け付ける。   The movement operation detection unit 193 detects, based on the user's input operation on the touch screen 130, the operation content of the input operation for moving a character appearing in the game (hereinafter, may be referred to as a "game character"). For example, when the game program 151 is a sports game, the movement operation detection unit 193 detects the direction in which the game character is moved based on the user's input operation. As described above, the movement operation detection unit 193 receives an input operation in which the user specifies the movement direction of the game character.

具体的には、移動操作検出部193は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させて、入力操作受付部191がタッチパネル131にユーザの指が接近したことを検出した座標を初期タッチ位置として、ユーザがスワイプ操作を行った場合に、初期タッチ位置の座標とタッチスクリーン130の検出結果とに基づいて、ゲームキャラクタの移動方向を検出する。   Specifically, in the state where the user's finger is separated from the touch screen 130, the user moves the finger closer to the touch screen 130, and the input operation reception unit 191 receives the user's finger on the touch panel 131. When the user performs a swipe operation with coordinates at which an approach is detected as an initial touch position, the moving direction of the game character is detected based on the coordinates of the initial touch position and the detection result of the touch screen 130.

カメラ配置制御部194は、仮想空間に配置される各オブジェクトを、どのようにユーザに見せるかを決定する。具体的には、カメラ配置制御部194は、制御部190がゲームプログラム151を読み込んで実行することで生成される仮想空間において、仮想カメラの配置(カメラワーク)を制御する。制御部190は、仮想空間における仮想カメラの撮影画像をディスプレイ132に表示することで、ユーザに対しゲームのプレイ環境を提供する。   The camera placement control unit 194 determines how to present each object placed in the virtual space to the user. Specifically, the camera placement control unit 194 controls the placement (camera work) of virtual cameras in a virtual space generated by the control unit 190 reading and executing the game program 151. The control unit 190 provides the user with a game play environment by displaying the captured image of the virtual camera in the virtual space on the display 132.

オブジェクト制御部195は、携帯端末10がゲームプログラム151を実行することにより進行されるゲームに登場する各種オブジェクト、および、入力操作受付部191が受け付けたユーザの操作内容に基づいて生成される各種オブジェクト(例えば、GUI(Graphical User Interface)画面など)の生成、変形、移動などの処理を制御する。オブジェクト制御部195は、例えば、ユーザがゲームキャラクタを移動させるためのタッチスクリーン130に対する入力操作に基づいて、ゲームキャラクタの移動方向を示すオブジェクトを生成し、生成したオブジェクトを変形する。   The object control unit 195 generates various objects that appear in the game progressed by execution of the game program 151 by the mobile terminal 10, and various objects generated based on the operation content of the user accepted by the input operation accepting unit 191. It controls processing such as generation, deformation, and movement of a GUI (Graphical User Interface (GUI) screen, etc.). The object control unit 195 generates an object indicating the moving direction of the game character based on, for example, an input operation on the touch screen 130 for moving the game character by the user, and deforms the generated object.

表示制御部196は、仮想カメラのカメラワークに従った画像をディスプレイ132に出力する。表示制御部196は、仮想空間内における仮想カメラの配置に応じて、ディスプレイ132の表示内容を決定し、決定した表示内容に従う画像、テキスト等の各種の情報をディスプレイ132に出力する。   The display control unit 196 outputs an image according to the camera work of the virtual camera to the display 132. The display control unit 196 determines the display content of the display 132 according to the arrangement of the virtual camera in the virtual space, and outputs various information such as an image, text and the like according to the determined display content to the display 132.

図3は、サーバ20の機能的な構成を示すブロック図である。図3を参照して、サーバ20の詳細な構成を説明する。サーバ20は、プログラムに従って動作することにより、通信部220と、記憶部250と、制御部290としての機能を発揮する。   FIG. 3 is a block diagram showing a functional configuration of the server 20. As shown in FIG. The detailed configuration of the server 20 will be described with reference to FIG. The server 20 operates in accordance with a program to exhibit the functions as the communication unit 220, the storage unit 250, and the control unit 290.

通信部220は、サーバ20が携帯端末10などの外部の通信機器と通信するためのインタフェースとして機能する。   The communication unit 220 functions as an interface for the server 20 to communicate with an external communication device such as the portable terminal 10.

記憶部250は、携帯端末10においてユーザがゲームを進行させるための各種プログラムおよびデータを記憶する。ある局面において、記憶部250は、ゲームプログラム251と、ゲーム情報252と、ユーザ情報253とを記憶する。   The storage unit 250 stores various programs and data for the user to advance the game in the mobile terminal 10. In one aspect, the storage unit 250 stores a game program 251, game information 252, and user information 253.

ゲームプログラム251は、サーバ20が携帯端末10と通信して、携帯端末10においてゲームを進行させるためのプログラムである。ゲームプログラム251は、ゲームを進行させるための各種データであるゲーム情報252およびユーザ情報253等を参照して、ユーザの入力操作に応じてゲームを進行させる。ゲームプログラム251は、制御部290に実行されることにより、携帯端末10とデータを送受信する処理、携帯端末10のユーザが行った操作内容に応じてゲームを進行させる処理、ゲームをプレイするユーザの情報を更新する処理その他の処理をサーバ20に行わせる。   The game program 251 is a program for causing the server 20 to communicate with the portable terminal 10 and causing the portable terminal 10 to progress a game. The game program 251 advances the game according to the user's input operation with reference to the game information 252 and the user information 253 which are various data for advancing the game. The game program 251 is executed by the control unit 290 to perform processing of transmitting and receiving data with the portable terminal 10, processing of advancing a game according to the content of an operation performed by the user of the portable terminal 10, and The server 20 is made to perform processing of updating information and other processing.

ゲーム情報252は、ゲームプログラム251が参照する各種のデータを含む。ゲーム情報252は、オブジェクト管理テーブル252Aと、パッシブスキル管理テーブル252Bと、アクティブスキル管理テーブル252Cとを含む。   The game information 252 includes various data to which the game program 251 refers. The game information 252 includes an object management table 252A, a passive skill management table 252B, and an active skill management table 252C.

オブジェクト管理テーブル252Aは、ゲームの仮想空間内に配置されるオブジェクトの設定を示す。携帯端末10は、ゲームプログラム151を実行することにより、仮想空間内に配置されるオブジェクトを、仮想空間内に配置される仮想カメラによって撮影した画像をディスプレイ132に表示することでゲームを進行させる。   The object management table 252A shows the settings of objects arranged in the virtual space of the game. The mobile terminal 10 executes the game program 151 to advance the game by displaying on the display 132 an image obtained by capturing an object placed in the virtual space with the virtual camera placed in the virtual space.

ここで、オブジェクトとしては、例えば、ユーザが操作するゲームキャラクタを示すオブジェクト、ゲームキャラクタが装着する装着対象物を示すオブジェクトなど様々なものがある。制御部190は、ユーザがタッチスクリーン130に対して予め定められた入力操作を行うこと、ゲームの進行に伴い一定の条件を満たすこと、その他の様々な事象の発生を契機として、オブジェクトに対応付けられた処理を行う。   Here, as the objects, there are various objects such as, for example, an object indicating a game character operated by the user, and an object indicating a mounting target to be attached by the game character. The control unit 190 causes the user to perform a predetermined input operation on the touch screen 130, satisfy certain conditions as the game progresses, and associate the object with the occurrence of various other events. Perform the process.

例えば、あるオブジェクトに対してユーザがタッチスクリーン130に対して接近操作を行うことで、制御部190は、オブジェクトを、ユーザによって選択された状態とする。また、例えば、制御部190は、ユーザによるスワイプ操作を受け付けることで、ユーザが移動対象とするオブジェクトを、ユーザの入力操作に応じて移動させる等の処理を行う。また、例えば、制御部190は、ユーザがオブジェクトに対して行うタッチ操作を受け付けることで、ユーザに対し、ゲームを有利に進めるための報酬を付与する等の処理を行う。   For example, when the user performs an approaching operation on the touch screen 130 with respect to an object, the control unit 190 causes the object to be in a state of being selected by the user. Also, for example, by receiving a swipe operation by the user, the control unit 190 performs processing such as moving an object to be moved by the user according to the input operation of the user. Further, for example, the control unit 190 performs processing such as giving a reward for advancing the game to the user by accepting a touch operation performed by the user on the object.

パッシブスキル管理テーブル252Bは、オブジェクトを識別する情報と、オブジェクトに対応付けられたパッシブスキルの情報とが対応付けられている。ここで、パッシブスキルとは、例えば、ゲームにおいて予め定められた条件が満たされたときに発動され、ユーザがゲームを有利に進行させることができるものである。例えば、パッシブスキルが発動した場合に、ゲームキャラクタの移動速度が向上する等の、ゲームを有利に進行させられる効果を発揮させる。   The passive skill management table 252B associates information for identifying an object with information on passive skills associated with the object. Here, the passive skill is activated, for example, when a predetermined condition in the game is satisfied, and the user can advantageously progress the game. For example, when the passive skill is activated, the game can be advanced advantageously, such as the moving speed of the game character is improved.

アクティブスキル管理テーブル252Cは、オブジェクトを識別する情報と、オブジェクトに対応付けられたアクティブスキルの情報とが対応付けられている。ここで、アクティブスキルとは、例えば、ゲームにおいて予め定められた条件が満たされたときに発動可能な状態となり、ユーザから、スキルを発動させるための入力操作を受け付けることにより、ユーザがゲームを有利に進行させることができるものである。   The active skill management table 252C associates information for identifying an object with information on active skills associated with the object. Here, the active skill is, for example, a state where it can be activated when a predetermined condition in the game is satisfied, and the user has an advantage in the game by receiving an input operation for activating the skill from the user. Can be advanced to

ユーザ情報253は、ゲームをプレイするユーザについての情報である。ユーザ情報253は、ユーザ管理テーブル253Aを含む。ユーザ管理テーブル253Aは、各ユーザを識別する情報と、ユーザがゲームを進行させた度合いを示す情報と、ユーザがゲーム内で保有するアイテム、ゲームキャラクタ、ゲームキャラクタが使用する装着物等の情報その他の情報を含む。   The user information 253 is information about the user who plays the game. The user information 253 includes a user management table 253A. The user management table 253A includes information identifying each user, information indicating the degree to which the user has advanced the game, and information such as items owned by the user in the game, game characters, and wearables used by the game characters, etc. Contains information on

制御部290は、記憶部250に記憶されるゲームプログラム251を実行することにより、送受信部291、サーバ処理部292、データ管理部293、マッチング部294、計測部295としての機能を発揮する。   The control unit 290 executes the game program 251 stored in the storage unit 250 to exert functions as the transmission / reception unit 291, the server processing unit 292, the data management unit 293, the matching unit 294, and the measurement unit 295.

送受信部291は、ゲームプログラム151を実行する携帯端末10から、各種情報を受信し、携帯端末10に対し、各種情報を送信する。携帯端末10とサーバ20とは、ユーザに関連付けられるオブジェクトを仮想空間に配置する要求、オブジェクトを削除する要求、オブジェクトを移動させる要求、ユーザが獲得する報酬に応じて各種パラメータを更新する要求、ゲームを進行させるための画像、音声その他のデータ、サーバ20から携帯端末10へ送信される通知などの情報を送受信する。   The transmission / reception unit 291 receives various types of information from the portable terminal 10 that executes the game program 151, and transmits various types of information to the portable terminal 10. The mobile terminal 10 and the server 20 request to arrange an object associated with the user in the virtual space, to delete the object, to move the object, to update various parameters in accordance with the reward obtained by the user, to play the game Information such as images, sounds, and other data for the progress of the event, notifications transmitted from the server 20 to the portable terminal 10, and the like.

サーバ処理部292は、サーバ20全体の動作を制御し、各種のプログラムを呼び出す等によりゲームの進行に必要な処理を行う。サーバ処理部292は、例えば、携帯端末10から受信した情報に基づいて、ゲーム情報252、ユーザ情報253などのデータを更新し、携帯端末10に各種データを送信することでゲームを進行させる。   The server processing unit 292 controls the entire operation of the server 20 and performs various processes necessary for the progress of the game by calling various programs. The server processing unit 292 updates data such as the game information 252 and the user information 253 based on the information received from the mobile terminal 10, for example, and transmits various data to the mobile terminal 10 to advance the game.

データ管理部293は、サーバ処理部292の処理結果に従って、記憶部250に記憶される各種データを更新する処理、データベースにレコードを追加/更新/削除する処理などを行う。   The data management unit 293 performs processing of updating various data stored in the storage unit 250, processing of adding / updating / deleting records in the database, and the like according to the processing result of the server processing unit 292.

マッチング部294は、複数のユーザを関連付けるための一連の処理を行う。マッチング部294は、例えば、ユーザがマルチプレイを行うための入力操作を行った場合に、ゲームを協同してプレイさせるユーザ同士を関連付ける処理などを行う。   The matching unit 294 performs a series of processes for associating a plurality of users. The matching unit 294 performs, for example, a process of associating the users who play the game cooperatively with each other when the user performs an input operation for performing multiplay.

計測部295は、時間を計測する処理を行う。計測部295は、例えば、仮想空間に配置される各オブジェクトについて時間の経過を計測する。また、計測部295は、ゲームが進行している時間を計測する。サーバ20は、携帯端末10から、携帯端末10においてゲームプログラム151を実行して計測される各種の計測結果の情報を受信し、受信した情報と、計測部295の計測結果とを照合することで、携帯端末10とサーバ20とで、各種の時間に関する情報を同期させる。   The measuring unit 295 performs a process of measuring time. The measuring unit 295 measures, for example, the passage of time for each object arranged in the virtual space. In addition, the measuring unit 295 measures the time during which the game is progressing. The server 20 receives information of various measurement results measured by executing the game program 151 in the mobile terminal 10 from the mobile terminal 10, and collates the received information with the measurement result of the measurement unit 295. The information related to various times is synchronized between the mobile terminal 10 and the server 20.

<構成のまとめ>
以上のように、実施の形態のゲーム配信システム1の構成を説明してきた。本実施形態において、ゲームプログラム151は、例えば、スポーツゲームその他のゲームであり、仮想空間内の仮想カメラの配置に応じた画面をタッチスクリーン130に表示させることでゲームを進行させる。
<Summary of configuration>
As described above, the configuration of the game distribution system 1 according to the embodiment has been described. In the present embodiment, the game program 151 is, for example, a sports game or other game, and causes the touch screen 130 to display a screen according to the arrangement of virtual cameras in the virtual space, thereby advancing the game.

例えば、ゲームプログラム151がスポーツゲーム(テニスゲーム、サッカーゲーム、野球ゲームその他のスポーツを題材としたゲーム)である場合、ゲーム進行処理部192は、ユーザの操作に応じて、例えば試合を進めるなどのストーリーを進行させる。ゲーム進行処理部192は、画像、テキストなどディスプレイ132に表示するデータを決定する処理、スポーツの対戦相手の選択をユーザから受け付ける処理、ユーザの操作に応じてスポーツの試合を進める処理などの基本的な処理を行う。   For example, when the game program 151 is a sports game (tennis game, soccer game, baseball game or other sports-based game), the game progress processing unit 192 performs, for example, a game according to the user's operation. Advance the story. The game progress processing unit 192 basically performs processing such as processing of determining data to be displayed on the display 132 such as an image and text, processing of accepting selection of a sport opponent from the user, processing of advancing a sport game according to user operation Process.

<データ構造>
図4は、ユーザがゲームをプレイする進行状況を管理するためのテーブルのデータ構造を示す図である。図4に示すように、ユーザ管理テーブル253Aは、各ユーザのゲームプレイの進行状況を管理するためのプレイ進行状況256を含む。ゲームプレイの進行状況とは、例えば、各ユーザがゲームプレイにより蓄積した経験値、ユーザが使用可能なゲームキャラクタなどを含む。
<Data structure>
FIG. 4 is a diagram showing a data structure of a table for managing the progress of the user playing the game. As shown in FIG. 4, the user management table 253A includes a play progress situation 256 for managing the progress of the game play of each user. The progress of the game play includes, for example, experience values accumulated by each user through game play, game characters usable by the user, and the like.

図4に示すように、プレイ進行状況256の各レコードは、獲得経験値/レベル256Aと、使用可能キャラクタ256Bと、仮想通貨保有量256Cと、保有装備アイテム256Dと、保有消費アイテム256Eと、対戦プレイランク/レーティング256Fと、トーナメント履歴256Gとを含む。   As shown in FIG. 4, each record of the play progress status 256 is played against acquired experience value / level 256A, usable character 256B, virtual currency possession amount 256C, possessed equipment item 256D, possessed consumption item 256E, and the like. It includes a play rank / rating 256F and a tournament history 256G.

獲得経験値/レベル256Aは、各ユーザがクエストをクリアする等により獲得した経験値の累計値、および、当該経験値の累計値により定まるレベル値を含む。ゲームプログラム251は、例えば、ユーザが一定のレベルに達する都度、ユーザがプレイ可能な項目(例えば、一定レベル以上であればプレイ可能なクエスト、一定レベル以上であれば使用可能なシステム、アイテムなど)を含む。例えば、経験値の累計が一定の閾値を超える都度、ユーザのレベルが上昇する。   The acquired experience value / level 256A includes the accumulated value of the experience value acquired by each user clearing the quest and the like, and the level value determined by the accumulated value of the experience value. The game program 251 is, for example, an item that can be played by the user each time the user reaches a certain level (for example, a quest that can be played if the level is higher than a certain level, an available system, an item, etc including. For example, every time the accumulated experience value exceeds a certain threshold, the level of the user rises.

使用可能キャラクタ256Bは、ユーザが使用可能なキャラクタを示す。ゲームプログラム251は、ユーザに対し、複数のゲームキャラクタを提供しており、ユーザがクエストを進行させる、ユーザが抽選をするための入力操作をすることで抽選の結果としてゲームキャラクタを獲得する、その他の処理により、ユーザが使用可能なキャラクタのリストを更新する。なお、図4の例では図示していないが、ユーザが使用可能なキャラクタのうち、任意のゲームキャラクタを特定したパーティ編成を保持することとしてもよい。   The usable character 256B indicates a character usable by the user. The game program 251 provides the user with a plurality of game characters, and the user advances the quest, and the user performs an input operation for drawing lots, thereby acquiring the game characters as a result of the drawing, and others. By the process of, the list of characters available to the user is updated. Although not illustrated in the example of FIG. 4, a party organization in which an arbitrary game character is specified among characters usable by the user may be held.

仮想通貨保有量256Cは、ユーザが保有している仮想通貨の保有量を示す。仮想通貨は、例えば、ゲーム内で消費されるアイテムを入手するため、抽選を行うためその他の操作を行うために使用することができる。ゲーム進行処理部192は、仮想通貨を使用してアイテムを購入する、抽選を行う等の入力操作を受け付けて、仮想通貨の保有量を変動させる。ここで、ゲームプログラム251は、仮想通貨を有償でユーザに提供した量と、無償でユーザに提供した量とをそれぞれ管理することとしてもよい。これら仮想通貨には、使用可能な有効期限(例えば、有償の仮想通貨について、仮想通貨の購入時点から6か月以内など)を設定することとしてもよい。   The virtual currency holding amount 256C indicates the holding amount of the virtual currency held by the user. The virtual currency can be used to perform other operations to draw lots, for example, to obtain items consumed in the game. The game progress processing unit 192 receives an input operation such as purchasing an item using a virtual currency, performing a lottery, or the like, and changes the possession amount of the virtual currency. Here, the game program 251 may manage an amount provided to the user for a fee for the virtual currency and an amount provided for the user free of charge. These virtual currencies may have available expiration dates (e.g., for paid virtual currency, within six months after the purchase of the virtual currency, etc.).

保有装備アイテム256Dは、キャラクタと関連づけられるアイテムとして、キャラクタに装備させることが可能なアイテムを示す。キャラクタに装備させることが可能なアイテムとは、例えば、アクションゲームであれば、キャラクタに装備させることが可能な武器、防具、アクセサリその他のアイテムである。また、キャラクタに装備させることが可能なアイテムとは、スポーツゲームであれば、キャラクタに関連付けることが可能なラケット、バット、シューズ、ウェアその他のアイテムである。これらキャラクタが装備可能なアイテムは、クエストの進行、抽選、その他の処理によって、ユーザに付与される。   The possession equipment item 256D indicates an item that can be equipped by the character as an item associated with the character. For example, in the case of an action game, items that can be equipped by a character are weapons, armor, accessories, and other items that can be equipped by a character. Further, in the case of a sports game, items that can be equipped by a character are rackets, bats, shoes, wear and other items that can be associated with the character. Items that can be equipped by these characters are given to the user by the progress of the quest, lottery, and other processing.

保有消費アイテム256Eは、ユーザがゲームプレイ時に使用することで、ゲームプレイ時に一定の効果を発揮させるアイテムを示す。これらアイテムは、ユーザが使用するための入力操作をすることで消費される。ゲームプレイ時に一定の効果を発揮させるアイテムとは、例えば、アイテムの使用開始から一定時間(例えば30分間)、クエストのクリア時等に獲得される経験値、キャラクタを成長させるために消費されるアイテム等の獲得量が一定以上増加するもの(例えば、獲得量が2倍以上となる)などがある。   The owned and consumed item 256E indicates an item that exerts a certain effect at the time of game play by being used by the user at the time of game play. These items are consumed by the user performing an input operation for use. The item that exerts a certain effect at the time of game play is, for example, an experience value acquired when the quest is cleared for a certain time (for example, 30 minutes) from the start of use of the item, an item consumed for growing the character There is a case where the amount of acquisition such as increases by a certain amount or more (for example, the amount of acquisition becomes twice or more).

対戦プレイランク/レーティング256Fは、ゲームプログラム251が提供するユーザ間の対戦プレイの、各ユーザの習熟度を示す。図示するように、対戦プレイランク/レーティング256Fは、対戦プレイにおけるユーザの習熟度として、レーティングシステムにおけるレーティング値、ランキングを含む。   The match play rank / rating 256F indicates the proficiency level of each user in the match play between the users provided by the game program 251. As illustrated, the match play rank / rating 256F includes a rating value in the rating system and a ranking as the user's proficiency level in the match play.

トーナメント履歴256Gは、ゲームプログラム251が提供するトーナメントによる対戦プレイの結果に応じて更新される各ユーザのトーナメント履歴を示す。トーナメント履歴256Gは、ユーザが参加中のトーナメントにおける勝利数、および当該トーナメントにおいて対戦したユーザ・参加したユーザ等を特定可能なトーナメント履歴を記憶する。   The tournament history 256G indicates the tournament history of each user updated according to the result of the battle play by the tournament provided by the game program 251. The tournament history 256G stores a tournament history that can specify the number of wins in the tournament in which the user is participating, and the user who has played in the tournament, the user who has participated, and the like.

<動作>
携帯端末10の制御部190は、記憶部150に格納されているゲームプログラム151を実行することにより、サーバ20と通信しつつユーザにゲームのプレイ環境を提供する処理を行う。ゲームプログラム151は、図形入力操作時処理のプログラムモジュールを含む。携帯端末10の入力操作受付部191は、ゲームの進行に応じて制御される図形入力モードにおいて図形入力操作時処理を実行する。これにより、ユーザからのスワイプ操作による図形入力操作を受け付けて、描かれた図形を読み取り当該図形に応じた処理が行われる。
<Operation>
The control unit 190 of the mobile terminal 10 executes the game program 151 stored in the storage unit 150 to communicate with the server 20 and provide the user with a game play environment. The game program 151 includes a program module for graphic input operation processing. The input operation reception unit 191 of the portable terminal 10 executes the graphic input operation process in the graphic input mode controlled according to the progress of the game. Thereby, upon receiving a figure input operation by a swipe operation from the user, the drawn figure is read, and a process according to the figure is performed.

図形入力操作時処理では、判定対象となる図形を複雑な図形ではなく簡単な図形(例えば、〇、△、□、×など)に絞るとともに、図形に応じて定められて形状条件を満たすか否かをプログラムで判定して図形を特定する。これにより、パターンマッチングに用いる膨大なデータを記憶させる必要がないため記憶容量を低減できる。また、判定対象となるすべての図形との類似度を算出する必要がないため処理負担が増大してしまうことを防止できる。さらに、判定対象を簡単な図形に絞ることによって、より一層シンプルなプログラムにより図形判定を行うことができるため、コストを抑えつつ改修や応用を容易に行うことができる。また、簡単な図形を描くスワイプ操作は、何らかの図形を描く点において単なる「スワイプ操作」よりも難易度が高く、ユーザの熟練度や癖などに大きく左右される「フリック操作」よりも難易度が低いといえる。これにより、難易度の面において新たな位置付けとなる図形入力操作をゲーム操作に採用することができるため、ゲーム操作に対する興趣を向上させることができる。以下に、図形入力操作時処理の一例について具体的に説明する。   In the figure input operation process, the figure to be determined is not a complex figure but a simple figure (for example, 、, □, □, ×, etc.) and whether it is determined according to the figure and satisfies the shape condition Determine the figure by the program and specify the figure. Thus, the storage capacity can be reduced because it is not necessary to store a large amount of data used for pattern matching. In addition, since it is not necessary to calculate the degree of similarity with all the figures to be determined, it is possible to prevent the processing load from increasing. Furthermore, by narrowing down the determination target to a simple figure, it is possible to perform figure determination with a still simpler program, and thus it is possible to easily carry out repair and application while suppressing the cost. In addition, swipe operation that draws simple figures is more difficult than simple swipe operation in that it draws some figures, and it is more difficult than flick operation, which largely depends on the user's skill level and habits. It can be said that it is low. As a result, it is possible to adopt a graphic input operation that is newly positioned in terms of the degree of difficulty as the game operation, so it is possible to improve the interest in the game operation. Below, an example of processing at the time of figure input operation is explained concretely.

図5は、図形入力操作時処理を説明するためのフローチャートである。図形入力操作時処理では、まず、ステップS1においてチェックポイント格納処理を実行する。図6は、チェックポイント格納処理を説明するためのフローチャートである。図6を参照して、ステップS8においては、ユーザがタッチスクリーン130に対してタッチ操作しているか否かを判定する。ステップS8においてタッチ操作していると判定されたときには、ステップS9においてユーザの指などがタッチスクリーン130に接触していないタッチオフ状態から接触したタッチオン状態となった初期タッチ操作(スワイプ操作の開始)であるか否かを判定する。   FIG. 5 is a flowchart for explaining the figure input operation process. In the figure input operation time process, first, a check point storage process is executed in step S1. FIG. 6 is a flowchart for explaining the checkpoint storage process. Referring to FIG. 6, in step S <b> 8, it is determined whether the user performs a touch operation on touch screen 130. When it is determined in step S8 that a touch operation is performed, an initial touch operation (start of a swipe operation) in a touch-on state in which a user's finger or the like has not touched the touch screen 130 in step S9 Determine if there is.

初期タッチ操作であると判定したときには、スワイプ操作の開始時であるため、ステップS10においてタッチ操作されている座標位置であるタッチ座標をフレーム領域およびチェックポイント領域に格納して、ステップS11へ移行する。フレーム領域およびチェックポイント領域は、各々、記憶部150のユーザ情報153に設けられている。フレーム領域は、1/30秒毎のタッチ座標などを格納するための領域である。チェックポイント領域は、図形判定に用いるチェックポイント座標などを格納する領域である。   When it is determined that the touch operation is the initial touch operation, since it is the start time of the swipe operation, touch coordinates which are coordinate positions touched in the touch operation are stored in the frame area and the check point area in step S10, and the process proceeds to step S11. . The frame area and the check point area are respectively provided in the user information 153 of the storage unit 150. The frame area is an area for storing touch coordinates every 1/30 seconds and the like. The check point area is an area for storing check point coordinates and the like used for graphic determination.

ここで、図7および図8を参照しつつ処理内容を具体的に説明する。図7は、図形入力操作により描かれた軌跡Tを解析する場合の動作説明図である。図8は、軌跡Tの解析結果に基づきフレーム領域およびチェックポイント領域各々に格納されるデータを説明するための図である。図7(A)に示す軌跡Tが描かれた場合(破線矢印に示すように時計回り方向に描かれた円)、ステップS10においては、初期タッチ位置となるタッチ座標(x0,y0)(図7(B)参照)を、チェックポイント領域のNo.1に格納する(図8(A)参照)。   Here, the processing content will be specifically described with reference to FIGS. 7 and 8. FIG. 7 is an operation explanatory view in the case of analyzing the locus T drawn by the graphic input operation. FIG. 8 is a diagram for explaining data stored in each of the frame area and the check point area based on the analysis result of the trajectory T. As shown in FIG. When the locus T shown in FIG. 7A is drawn (a circle drawn clockwise as indicated by a broken line arrow), in step S10, touch coordinates (x0, y0) as an initial touch position (figure No. 7 (B)), No. of the checkpoint area. 1 (see FIG. 8A).

一方、ステップS9において初期タッチ操作であると判定されなかったときには、ステップS11に移行する。ステップS11においては、タッチ座標が前回格納されてから1/30秒経過したか否かを判定する。ステップS11において1/30秒経過していると判定されなかったときには、ステップS8に移行する。ステップS8→S11→S8のループの巡回途中で1/30秒経過していると判定されたときには、ステップS12へ移行する。   On the other hand, when it is not determined in step S9 that the touch operation is an initial touch operation, the process proceeds to step S11. In step S11, it is determined whether 1/30 seconds have elapsed since the touch coordinates were stored last time. When it is not determined in step S11 that 1/30 second has elapsed, the process proceeds to step S8. If it is determined that 1/30 second has elapsed while traveling through the loop of steps S8 → S11 → S8, the process proceeds to step S12.

ステップS12おいては、現在のタッチ座標をフレーム領域に格納する。また、ステップS12においては、前回のチェックポイントから現在のタッチ座標までの距離を算出してフレーム領域に格納する。ステップS13においては、前回のチェックポイントからの距離が予め定められた閾値以上となっているか否か判定する。閾値以上となっていると判定されなかったときには、ステップS14において前回のチェックポイント格納から所定時間(例えば1/5秒)経過したか否か判定する。ユーザが普通にスワイプ操作を行っている場合には、ステップS14において所定時間が経過したと判定されることはない。この点に着目し、ステップS14を行うことにより、所定時間経過しているか否かに応じてスワイプ操作を途中で止めているか否かを判定することができる。   In step S12, the current touch coordinates are stored in the frame area. In step S12, the distance from the previous check point to the current touch coordinates is calculated and stored in the frame area. In step S13, it is determined whether the distance from the previous check point is equal to or greater than a predetermined threshold. If it is not determined that the threshold value is exceeded, it is determined in step S14 whether or not a predetermined time (for example, 1⁄5 second) has elapsed since the last checkpoint storage. When the user normally performs the swipe operation, it is not determined in step S14 that the predetermined time has elapsed. By focusing on this point and performing step S14, it can be determined whether the swipe operation has been stopped halfway according to whether or not a predetermined time has elapsed.

ステップS14において所定時間が経過したと判定されたときには、ステップS19において停止フラグをセットし、チェックポイント格納処理を終了する。これにより、ステップS14で説明したように、スワイプ操作を途中で止めているような場合には、その時点で処理を終了させるため、処理負担を軽減できる。一方、ステップS14において所定時間経過していると判定されなかったときには、ステップS8へ移行する。このため、入力操作受付部191は、ステップS8→S11→S8のループを巡回し、1/30秒経過する毎にS11でYESと判定してステップS12においてタッチ座標・距離をフレーム領域に格納する。図8(B)は、fp[0]〜fp[3]各々に対応して、タッチ座標として(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)が格納され、前回のチェックポイント座標(x0,y0)からfp[3]のタッチ座標(x4,y4)までの距離dが閾値以上となった場合を示している。   If it is determined in step S14 that the predetermined time has elapsed, the stop flag is set in step S19, and the check point storage process is ended. As a result, as described in step S14, when the swipe operation is stopped halfway, the processing is ended at that point, so that the processing load can be reduced. On the other hand, when it is not determined in step S14 that the predetermined time has elapsed, the process proceeds to step S8. Therefore, the input operation reception unit 191 circulates the loop from step S8 to S11 to S8, and every time 1/30 seconds elapses, the determination in S11 is YES, and the touch coordinates and distance are stored in the frame area in step S12. . FIG. 8B stores touch coordinates (x1, y1), (x2, y2), (x3, y3), (x4, y4) corresponding to fp [0] to fp [3], respectively. , And the case where the distance d from the previous check point coordinates (x0, y0) to the touch coordinates (x4, y4) of fp [3] becomes equal to or larger than the threshold value.

ステップS13において閾値以上となっていると判定されたときには、ステップS15において、格納されているチェックポイント数が所定数(例えば5秒間に亘りスワイプ操作をし続けると記憶されるチェックポイント数(150個))に到達したか否かを判定する。ユーザによるスワイプ操作の軌跡があまりにも長い場合にはチェックポイント数が所定数に到達したと判定され(ステップS15においてYES)、ステップS19において停止フラグをセットする。これにより、スワイプ操作を延々と続けているような場合にもその時点で処理を終了させるため、処理負担を軽減できる。   When it is determined in step S13 that the threshold value is equal to or greater than the threshold value, the number of check points stored in step S15 is a predetermined number (for example, the number of checkpoints stored when the swipe operation is continued for 5 seconds (150 It is determined whether it has reached)). If the trajectory of the swipe operation by the user is too long, it is determined that the number of check points has reached a predetermined number (YES in step S15), and a stop flag is set in step S19. As a result, even when the swipe operation is being continued endlessly, the processing is ended at that point, so that the processing load can be reduced.

一方、ステップS15においてチェックポイント数が所定数に到達していると判定されなかったときには、ステップS16において、今回のタッチ座標をチェックポイント領域に格納する。例えば、タッチ座標が図7(A)に示す軌跡Tのうちのタッチ座標(x4,y4)に到達し、前回のチェックポイント座標(x0,y0)からの距離が閾値以上となった場合、ステップS16においては、図8(B)に示すようにタッチ座標(x4,y4)をチェックポイント領域のNo.2に格納する。また、ステップS17においては、フレーム領域のデータを初期化する。これにより、タッチ座標(x4,y4)に到達するまでの間においてフレーム領域に記憶されるタッチ座標(例えば、(x1,y1)〜(x3,y3)は、図形判定に用いないため、記憶容量および制御負担を軽減できる。   On the other hand, when it is not determined in step S15 that the number of check points has reached the predetermined number, the current touch coordinates are stored in the check point area in step S16. For example, when the touch coordinates reach touch coordinates (x4, y4) in the locus T shown in FIG. 7A and the distance from the previous check point coordinates (x0, y0) becomes equal to or greater than the threshold, the step In S16, as shown in FIG. 8B, the touch coordinates (x4, y4) are assigned to the No. 1 of the check point area. Store in 2. In step S17, data in the frame area is initialized. As a result, the touch coordinates (for example, (x1, y1) to (x3, y3) stored in the frame area until reaching the touch coordinates (x4, y4) are not used for graphic determination, and thus the storage capacity And the control burden can be reduced.

次に、ステップS18においては、前回のチェックポイント座標と今回のチェックポイント座標とを結ぶ方向ベクトルを特定して、当該方向ベクトルが属する方向領域の方向値および方向値の差分である方向差分をチェックポイント領域に格納する。図8(B)の例では、今回のチェックポイント座標(x4,y4)と前回のチェックポイント座標(x0,y0)とから方向ベクトル((y4−y0)/(x4−x0))を特定する(図7(C)の方向ベクトルV1)。また、特定した方向ベクトルから、予め8つに分けられた方向領域に対応する方向値を算出して格納し、ステップS8へ移行する。方向領域としては、図7(D)に示すように、Y軸の正方向(図7において垂直上向き)を包含する方向領域0、X軸の正方向(図7において水平右向き)を包含する方向領域2、Y軸の負方向(図7において垂直下向き)を包含する方向領域4、X軸の負方向(図7において水平左向き)を包含する方向領域6、これら各々の方向領域の間の方向(図7において斜め向き)を包含する方向領域1、3、5、7が定められている。方向領域0〜7は、各々、45度ずつに均等に分割された領域である。これにより、ステップS18において特定される方向ベクトルが垂直方向に近いのか、水平方向に近いのか、斜め方向に近いのかといったように、方向ベクトルを大まかな方向領域のいずれかに振り分けることができる。   Next, in step S18, the direction vector connecting the previous check point coordinates and the current check point coordinates is specified, and the direction difference which is the difference between the direction value and the direction value of the direction area to which the direction vector belongs is checked. Store in the point area. In the example of FIG. 8B, the direction vector ((y4-y0) / (x4-x0)) is specified from the current checkpoint coordinates (x4, y4) and the previous checkpoint coordinates (x0, y0). (Direction vector V1 in FIG. 7C). Further, from the identified direction vector, a direction value corresponding to a direction area divided into eight in advance is calculated and stored, and the process proceeds to step S8. As the direction area, as shown in FIG. 7D, a direction area 0 including the positive direction of the Y axis (vertically upward in FIG. 7) and a direction including the positive direction of the X axis (horizontally right in FIG. 7) Region 2, a direction region 4 including the negative direction of the Y axis (vertically downward in FIG. 7), a direction region 6 including the negative direction of the X axis (horizontal leftward in FIG. 7), a direction between the respective direction regions Direction regions 1, 3, 5, 7 including (obliquely oriented in FIG. 7) are defined. Direction regions 0 to 7 are regions divided equally by 45 degrees each. Thus, the direction vector can be distributed to any of the rough direction regions, such as whether the direction vector identified in step S18 is close to the vertical direction, close to the horizontal direction, or close to the oblique direction.

方向値の具体的な算出方法については、例えば、特定した方向ベクトルにarctanを用いて角度を算出し、整数除算を考慮して当該角度に22.5度を加算し、その値を45で整数除算し、さらに8で割った余り(剰余)で求めるようにしてもよい。このようにして算出される結果は、例えば方向領域0に属する方向ベクトルから方向値として「0」が算出され、方向領域1に属する方向ベクトルから方向値として「1」が算出される。その他の方向領域2〜7に属する場合においても同様に、方向値として「2」〜「7」のいずれかが算出される。図7(C)の方向ベクトルV1から方向値として方向領域6に対応する「6」が算出された場合、図8(B)に示すように、方向値として「6」が格納される。   For a specific calculation method of the direction value, for example, an angle is calculated using arctan for the specified direction vector, 22.5 degrees is added to the angle taking into account integer division, and the value is an integer of 45 It is also possible to divide and calculate the remainder by remainder. As a result calculated in this manner, for example, “0” is calculated as the direction value from the direction vector belonging to the direction region 0, and “1” is calculated as the direction value from the direction vector belonging to the direction region 1. Similarly, in the case of belonging to the other direction regions 2 to 7, any one of "2" to "7" is calculated as the direction value. When “6” corresponding to the direction region 6 is calculated as the direction value from the direction vector V1 in FIG. 7C, “6” is stored as the direction value as shown in FIG. 8B.

また、タッチ座標が図7(A)に示す軌跡Tのうちのタッチ座標(x8,y8)に到達し、前回のチェックポイント座標(x4,y4)からの距離hが閾値以上となった場合、ステップS16において、図8(C)に示すようにタッチ座標(x8,y8)をチェックポイント領域のNo.3に格納する。また、ステップS18においては、今回のチェックポイント座標(x8,y8)と前回のチェックポイント座標(x4,y4)とから方向ベクトル((y8−y4)/(x8−x4))を特定し(図7(C)の方向ベクトルV2)、方向ベクトルV2から方向値として方向領域0に対応する「0」を算出して格納する。   Further, when the touch coordinates reach touch coordinates (x8, y8) in the trajectory T shown in FIG. 7A and the distance h from the previous check point coordinates (x4, y4) becomes equal to or greater than the threshold value, At step S16, as shown in FIG. Store in 3. In step S18, the direction vector ((y8-y4) / (x8-x4)) is specified from the current check point coordinates (x8, y8) and the previous check point coordinates (x4, y4) (see FIG. From the direction vector V2 of 7 (C) and the direction vector V2, “0” corresponding to the direction area 0 is calculated and stored as a direction value.

さらに、前回のチェックポイントの方向値が格納されているときに、ステップS18においては、今回のチェックポイントの方向値から前回のチェックポイントの方向値を減算することにより方向差分を算出して格納する。図8(C)に示すように、チェックポイントNo.3に方向値として0が格納されるとともに、方向差分として−6(=0−6)が格納される。   Furthermore, when the direction value of the previous check point is stored, in step S18, the direction difference is calculated by subtracting the direction value of the previous check point from the direction value of the current check point, and stored. . As shown in FIG. 0 is stored as the direction value in 3 and -6 (= 0-6) is stored as the direction difference.

このようにステップS8〜S18の処理を繰り返し実行することにより、1/30秒毎にタッチ座標および前回のチェックポイント座標からの距離をフレーム領域に格納するとともに、前回のチェックポイント座標からの距離が閾値以上となったタッチ座標を今回のチェックポイント座標とし、当該チェックポイント座標の方向値および方向差分とともにチェックポイント領域に格納する。その結果、図7(A)に示す軌跡Tとなる図形入力操作を受け付けた場合には、図7(B)に示すタッチ座標がチェックポイント座標として格納されるとともに、図7(C)に示す方向ベクトルV1〜V7各々から方向値と方向差分が算出されて格納される(例えば図8(D)および(E)参照)。   By repeatedly executing the processing of steps S8 to S18 in this manner, the touch coordinates and the distance from the previous check point coordinates are stored in the frame area every 1/30 seconds, and the distance from the previous check point coordinates is The touch coordinates that are equal to or greater than the threshold value are set as the current check point coordinates, and are stored in the check point area together with the direction value and the direction difference of the check point coordinates. As a result, when a figure input operation to become locus T shown in FIG. 7 (A) is received, the touch coordinates shown in FIG. 7 (B) are stored as check point coordinates and shown in FIG. 7 (C). The direction value and the direction difference are calculated and stored from each of the direction vectors V1 to V7 (see, for example, FIGS. 8D and 8E).

ステップS8においてタッチ操作されていると判定されなかったときには、ステップS20において、スワイプ操作を終了させた場合であって、当該終了したスワイプ操作の最終タッチ位置の座標がチェックポイント領域に格納済みであるか否かを判定する。ステップS20において格納済みであると判定された場合、ステップS24に移行する。一方、ステップS20において格納済みであると判定されなかった場合、ステップS21において、フレーム領域に格納されているスワイプ操作の最終タッチ座標(最後に格納されたタッチ座標)をチェックポイント領域に格納する。この処理は、前述のステップS16により最後に格納されたチェックポイントを少し通り過ぎて(閾値には到達していない位置で)ユーザがスワイプ操作を終了した場合に、その通り過ぎた後のスワイプ操作の最終タッチ座標をチェックポイントとして格納するための処理である。例えば、図7(B)におけるタッチ座標(x28,y28)が、前回のチェックポイント座標(x24,y24)からの距離が閾値を超えていない位置であっても、ステップS21において、タッチ座標(x28,y28)がチェックポイント座標として格納される。これにより、スワイプ操作による最終のタッチ座標を図形判定に用いることができるため、精度を向上させることができる。   When it is not determined that the touch operation is performed in step S8, the swipe operation is ended in step S20, and the coordinates of the final touch position of the ended swipe operation are stored in the check point area. It is determined whether or not. If it is determined in step S20 that the data has been stored, the process proceeds to step S24. On the other hand, if it is not determined in step S20 that it has been stored, then in step S21, the final touch coordinates (touch coordinates stored last) of the swipe operation stored in the frame area are stored in the check point area. This process is the final step of the swipe operation after the user passes the swipe operation slightly past the checkpoint stored last in the above-mentioned step S16 (at a position where the threshold is not reached). It is a process for storing touch coordinates as a check point. For example, even if the touch coordinates (x28, y28) in FIG. 7B are positions where the distance from the previous check point coordinates (x24, y24) does not exceed the threshold value, in step S21, the touch coordinates (x28 , Y 28) are stored as check point coordinates. As a result, since the final touch coordinates by the swipe operation can be used for graphic determination, the accuracy can be improved.

ステップS22においては、フレーム領域を初期化する。続いて、ステップS23においては、ステップS18と同様に、前回のチェックポイント座標と今回のチェックポイント座標とを結ぶ方向ベクトルを特定して方向値および方向差分をチェックポイント領域に格納してステップS24へ移行する。これにより、図7(B)におけるチェックポイント座標(x28,y28)が仮にチェックポイント座標として格納されていない場合であっても、当該チェックポイント座標(x28,y28)とともに方向値および方向差分を格納することができる。   In step S22, the frame area is initialized. Subsequently, in step S23, as in step S18, the direction vector connecting the previous check point coordinates and the current check point coordinates is specified, the direction value and the direction difference are stored in the check point area, and the process proceeds to step S24. Transition. Thus, even if the check point coordinates (x28, y28) in FIG. 7B are not stored as check point coordinates, the direction value and the direction difference are stored together with the check point coordinates (x28, y28). can do.

ステップS24においては、スワイプ操作の終了から所定時間が経過したか否かを判定する。所定時間とは、例えば1秒程度の時間であり、ユーザがスワイプ操作による入力を完了したか否かを判定するための時間である。ステップS24において所定時間が経過していると判定されなかった場合、ステップS8に移行する。これにより、所定時間が経過するまでにスワイプ操作が再開されると、それまでになされていたスワイプ操作に続くスワイプ操作であるとみなし、ステップS8においてYESと判定されてステップS9において当該スワイプ操作開始時のタッチ座標をチェックポイント領域に格納され、ステップS11以降の処理が再開される。これにより、×形状など一筆で描けない図形ついても特定可能となる。一方、ステップS24においてスワイプ操作の終了から所定時間が経過したと判定された場合、チェックポイント格納処理を終了する。   In step S24, it is determined whether a predetermined time has elapsed since the end of the swipe operation. The predetermined time is, for example, about one second, and is a time for determining whether the user has completed the input by the swipe operation. If it is not determined in step S24 that the predetermined time has elapsed, the process proceeds to step S8. Thus, if the swipe operation is resumed before the predetermined time elapses, it is considered to be a swipe operation subsequent to the swipe operation performed so far, YES is determined in step S8, and the swipe operation starts in step S9. The touch coordinates at the time are stored in the check point area, and the processing after step S11 is resumed. This makes it possible to identify figures that can not be drawn with a single stroke, such as x shapes. On the other hand, when it is determined in step S24 that the predetermined time has elapsed from the end of the swipe operation, the check point storage process is ended.

図5に戻り、ステップS2において停止フラグがセットされているか否かを判定する。停止フラグがセットされていると判定されたときには、ステップS6において、スワイプ操作により描かれた図形を判別不能である旨を報知する。このように停止フラグがセットされているときには、図柄判定などを行うことなく図形入力操作時処理を終了できるため、処理負担を軽減できる。ステップS6における報知は、携帯端末10におけるディスプレイ132またはスピーカ182により行うものであってもよく、またディスプレイ132とスピーカ180との両方により行うものであってもよい。   Referring back to FIG. 5, it is determined in step S2 whether the stop flag is set. When it is determined that the stop flag is set, in step S6, it is informed that the figure drawn by the swipe operation can not be determined. As described above, when the stop flag is set, the processing at the time of figure input operation can be ended without performing symbol determination and the like, so that the processing load can be reduced. The notification in step S6 may be performed by the display 132 or the speaker 182 in the portable terminal 10, or may be performed by both the display 132 and the speaker 180.

ステップS2において停止フラグがセットされていると判定されなかったときには、ステップS3において図形判定処理を実行する。図形判定処理では、ユーザがスワイプ操作により描いた軌跡からチェックポイント領域に格納したデータに基づいて、当該軌跡が円形か、四角形か、三角形か、×形状かの四種類の図形のいずれかに該当するかを判定する。   If it is not determined in step S2 that the stop flag is set, figure determination processing is executed in step S3. In the figure determination process, based on the data stored in the check point area from the locus drawn by the user by the swipe operation, the locus corresponds to any of four types of figures: circular, square, triangle or x shape. Determine if you want to

図9は、図形判定処理を説明するためのフローチャートである。まず、ステップS25においては、スワイプ操作の始点と終点との距離が所定範囲内であるか否か判定する。具体的には、チェックポイント領域に最初に格納されたチェックポイント座標と、最後に格納されたチェックポイント座標との距離が所定範囲内であるか否かを判定する。ステップS25により、描かれた図形が閉じた図形である可能性が高いか否かを判別できる。所定範囲は、大まかに円や四角形などの閉じた形状を大まかに描いたとしても、そのときの始点と終点とが収まる範囲であればよく、たとえば、タッチスクリーン130上において1cmに相当する範囲以内などに定められているものであってもよい。   FIG. 9 is a flowchart for explaining the figure determination process. First, in step S25, it is determined whether the distance between the start point and the end point of the swipe operation is within a predetermined range. Specifically, it is determined whether the distance between the check point coordinates stored first in the check point area and the check point coordinates stored last is within a predetermined range. In step S25, it can be determined whether the drawn figure is highly likely to be a closed figure. Even if the predetermined range roughly draws a closed shape such as a circle or a square roughly, it may be a range in which the start point and the end point at that time can be accommodated, for example, within a range corresponding to 1 cm on the touch screen 130 Etc. may be defined.

ステップS25において所定範囲内であると判定されたときには、ステップS26において同一方向の連続頻度が第1頻度(例えば、10%)未満であるか否かを判定する。同一方向の判定は、図8の「方向差分」のエリアに記憶されている値が0であるか否かで判定する。0の場合には前回の方向値と同じであるため前回の方向ベクトルと同一の方向領域に属する方向ベクトルであることを特定でき、0以外の場合には前回の方向ベクトルとは異なる方向領域に属する方向ベクトルであることを特定できる。同一方向の連続頻度は、例えば、(方向差分が0である個数)/(方向差分の全個数)により算出される。ステップS26により、描かれた図形が直線部分の少ない図形である可能性が高いか否かを判別できる。図7(A)の円形の軌跡Tの場合には、大部分が曲線であるため、図8に示すように方向差分が0となる箇所が存在せず同一方向の連続頻度がゼロ%となっている。   If it is determined in step S25 that the frequency is within the predetermined range, it is determined in step S26 whether the continuous frequency in the same direction is less than the first frequency (for example, 10%). The determination of the same direction is made based on whether the value stored in the “direction difference” area in FIG. 8 is zero. In the case of 0, it is the same as the previous direction value, so that it is possible to specify that it is a direction vector belonging to the same direction area as the previous direction vector. It can be identified that it is the direction vector to which it belongs. The continuous frequency in the same direction is calculated, for example, by (the number of direction differences being 0) / (the total number of direction differences). By step S26, it can be determined whether or not the drawn figure is highly likely to be a figure with few straight portions. In the case of the circular locus T in FIG. 7A, since the majority is a curve, there is no place where the direction difference is 0 as shown in FIG. 8 and the continuous frequency in the same direction is 0% ing.

ステップS26において同一方向の連続頻度が第1頻度未満であると判定されたときには、ステップS27において、X座標およびY座標各々の「最大値−最小値」が所定値(例えば、タッチスクリーン130上において2cmに相当する値)以上であるか否かを判定する。ステップS27により、描かれた図形が上下左右方向においてある程度の大きさ(広さ)を有している図形であるか否かを判別できる。ステップS27において所定値以上であると判定されたときには、ステップS28において円形フラグをセットし、図形判定処理を終了する。このように、図形判定処理では、図7および図8に示されるように、スワイプ操作の始点と終点とが近接しており(S25でYES)、かつ、同一方向の連続頻度が少なく(S26でYES)、さらに、ある程度の大きさを有していることなどの円形の形状条件を満たすことにより、スワイプ操作により描かれた図形が円形であると判断する。なお、ステップS27において所定値以上であると判定されなかったときには、ステップS34へ移行する。   When it is determined in step S26 that the continuous frequency in the same direction is less than the first frequency, "maximum value-minimum value" of each of the X coordinate and the Y coordinate in step S27 has a predetermined value (for example, on the touch screen 130) It is determined whether or not it is a value corresponding to 2 cm or more. At step S27, it can be determined whether or not the drawn figure has a certain size (a size) in the vertical and horizontal directions. If it is determined in step S27 that the value is equal to or greater than the predetermined value, a circular flag is set in step S28, and the figure determination process is ended. As described above, in the figure determination process, as shown in FIGS. 7 and 8, the start point and the end point of the swipe operation are close (YES in S25), and the continuous frequency in the same direction is small (S26). YES) Further, by satisfying a circular shape condition such as having a certain size, it is determined that the figure drawn by the swipe operation is circular. When it is not determined in step S27 that the value is equal to or more than the predetermined value, the process proceeds to step S34.

一方、ステップS26において同一方向の連続頻度が第1頻度未満であると判定されなかったときには、ステップS29において、同一方向の連続頻度が第2頻度(例えば、70%)以上であるか否かを判定する。例えば、三角形や四角形などの軌跡の場合には、大部分が直線であるため、方向差分が0となる箇所が多くなる。なお、第2頻度は、第1頻度よりも高い頻度であれば、第1頻度および第2頻度は例示する値に限るものではない。   On the other hand, when it is not determined in step S26 that the continuous frequency in the same direction is less than the first frequency, whether or not the continuous frequency in the same direction is the second frequency (for example, 70%) or more in step S29. judge. For example, in the case of trajectories such as triangles and quadrilaterals, most of the trajectories are straight lines, so there are many places where the direction difference is zero. The second frequency is not limited to the exemplified values, as long as the second frequency is a frequency higher than the first frequency.

ステップS29において同一方向の連続頻度が第2頻度以上であると判定されなかったときには、ステップS34へ移行する。一方、ステップS29において同一方向の連続頻度が第2頻度以上であると判定されたときには、ステップS30において、方向が異なる箇所が3箇所であるか否かを判定する。方向が異なる箇所の判定は、図8に示した「方向差分」の値で判定する。「1」以上の値の方向差分が3つ格納されている場合には、ステップS30によりYESと判定し、ステップS31において四角形フラグをセットして図形判定処理を終了する。このように、図形判定処理では、スワイプ操作の始点と終点とが近接しており(S25でYES)、かつ、同一方向の連続頻度が多く(S29でYES)、さらに、方向差分が3箇所において異なることなどの四角形の形状条件を満たすことにより、スワイプ操作により描かれた図形が四角形であると判断する。   When it is not determined in step S29 that the continuous frequency in the same direction is equal to or higher than the second frequency, the process proceeds to step S34. On the other hand, when it is determined in step S29 that the continuous frequency in the same direction is equal to or higher than the second frequency, it is determined in step S30 whether or not there are three locations with different directions. Judgment of the part from which direction differs is judged by the value of "direction difference" shown in FIG. If three direction differences of values of “1” or more are stored, YES is determined in step S30, and a square flag is set in step S31, and the figure determination process is ended. As described above, in the figure determination process, the start point and the end point of the swipe operation are close to each other (YES in S25), and the continuous frequency in the same direction is high (YES in S29). By satisfying square shape conditions such as different ones, it is determined that the figure drawn by the swipe operation is a square.

一方、ステップS30において方向が異なる箇所が3箇所であると判定されなかったときには、ステップS32において、方向が異なる個所が2箇所であるか否か判定する。「1」以上の値の方向差分が2つ格納されている場合には、ステップS32によりYESと判定し、ステップS33において、三角形フラグをセットして図形判定処理を終了する。このように、図形判定処理では、スワイプ操作の始点と終点とが近接しており(S25でYES)、かつ、同一方向の連続頻度が多く(S29でYES)、さらに、方向差分が2箇所において異なることなどの三角形の形状条件を満たすことにより、スワイプ操作により描かれた図形が三角形であると判断する。   On the other hand, when it is not determined in step S30 that there are three places having different directions, it is determined in step S32 whether there are two places having different directions. If two direction differences of values of “1” or more are stored, YES is determined in step S32, and in step S33, a triangle flag is set, and the figure determination process is ended. As described above, in the figure determination process, the start point and the end point of the swipe operation are close to each other (YES in S25), and the continuous frequency in the same direction is high (YES in S29). By satisfying triangle shape conditions such as different ones, it is determined that the figure drawn by the swipe operation is a triangle.

また、図形判定処理では、ステップS25を行うことにより、円形、三角形、および四角形各々に共通する形状条件を満たしているか否かを一度に判定することができる。同様に、ステップS26およびステップS29を行うことにより、三角形、および四角形各々に共通する形状条件を満たしているか否かを一度に判定することができる。これにより、複数種類の図形判別を可能としつつ、図形判定処理のプログラムをよりシンプルにすることができる。   Further, in the figure determination process, it is possible to determine at one time whether or not the shape condition common to each of the circle, the triangle, and the quadrangle is satisfied by performing the step S25. Similarly, by performing step S26 and step S29, it is possible to determine at one time whether or not the shape condition common to each of the triangle and the quadrilateral is satisfied. This makes it possible to simplify the program of the figure determination process while making it possible to distinguish a plurality of types of figures.

ステップS32において方向が異なる個所が2箇所であると判定されなかったときには、NO)、5つ以上の角を有するような複雑な図形である可能性が高いため、ステップS34において対応図形なしフラグをセットして図形判定処理を終了する。   If it is not determined in step S32 that there are two places having different directions, NO), there is a high possibility that the figure is a complicated figure having five or more corners, so the corresponding figure no flag is selected in step S34. Set and complete the figure determination process.

一方、ステップS25においてスワイプ操作の始点と終点が所定範囲内であると判定されなかったときには、ステップS35において同一方向の連続頻度が第3頻度(例えば、90%)以上であるか否かを判定する。第3頻度は、第1頻度および第2頻度よりも高い頻度であれば、例示した値に限るものではない。ステップS35において同一方向の連続頻度が第3頻度以上であると判定されたときには、ステップS36において、方向が異なる個所が1箇所であるか否かを判定する。「1」以上の値の方向差分が1つ格納されている場合には、2本の直線である可能性が高い。この場合には、ステップS36によりYESと判定し、ステップS37においてチェックポイント座標から特定される2本の直線がその途中で交差しているか否かを判定する。ステップS37において直線が途中で交差していると判定されたときには、×形状フラグをセットして図形判定処理を終了する。このように、図形判定処理では、スワイプ操作の始点と終点とが近接しておらず(S25でNO)、かつ、同一方向の連続頻度が非常に多く(S35でYES)、さらに、方向差分が1箇所において異なり(S36でYES)、直線が途中で交差している(S37でYES)ことなどの×形状の形状条件を満たすことにより、スワイプ操作により描かれた図形が×形状であると判断する。一方、ステップS35〜ステップS37のいずれかにおいてNOと判定されたときには、判定対象としてない複雑な図形である可能性が高いため、ステップS34において対応図形なしフラグをセットして図形判定処理を終了する。   On the other hand, when it is not determined in step S25 that the start point and the end point of the swipe operation are within the predetermined range, it is determined in step S35 whether the continuous frequency in the same direction is the third frequency (for example, 90%) or more. Do. The third frequency is not limited to the exemplified value as long as the frequency is higher than the first frequency and the second frequency. If it is determined in step S35 that the continuous frequency in the same direction is equal to or higher than the third frequency, it is determined in step S36 whether or not there is one place with a different direction. If one direction difference of “1” or more is stored, there is a high possibility of being two straight lines. In this case, YES is determined in step S36, and it is determined in step S37 whether two straight lines specified from the check point coordinates intersect in the middle. If it is determined in step S37 that the straight line intersects in the middle, the x shape flag is set and the figure determination process is ended. As described above, in the figure determination process, the start point and the end point of the swipe operation are not close to each other (NO in S25), and the continuous frequency in the same direction is very high (YES in S35). It is determined that the figure drawn by the swipe operation is x-shape by satisfying x-shape shape conditions such as being different at one location (YES in S36) and straight lines crossing halfway (YES in S37) Do. On the other hand, when NO is determined in any of steps S35 to S37, the possibility of being a complicated figure not to be determined is high, so the corresponding figure no flag is set in step S34 and the figure determination process is ended. .

図5に戻り、ステップS4においては、対応図形なしフラグがセットされているか否かを判定する。セットされていると判定されたときには、ステップS6において、判別不能である旨を報知する。ステップS4において対応図形なしフラグがセットされていると判定されなかったときには、ステップS5において、図形対応処理を行う。   Referring back to FIG. 5, in step S4, it is determined whether the corresponding figure no flag is set. If it is determined that it is set, in step S6, it is informed that the determination is impossible. When it is not determined in step S4 that the corresponding figure no flag is set, in step S5, a figure corresponding process is performed.

ステップS5における図形対応処理は、前述したステップS28、ステップS31、ステップS33、あるいはステップS38によりセットされた図形フラグに対応する処理である。図形フラグに対応する処理としては、例えば、図形フラグに応じて異なる態様でキャラクタを動作させる処理、図形フラグに応じて異なる技(魔法などを含む)を発生させる処理、図形フラグに応じて異なるアイテムを獲得させる処理など、図形フラグに応じて異なる処理を実行するものであればどのようなものであってもよい。これにより、図形入力モードにおいてどのような図形を入力するかといった面白さをユーザに提供することができる。なお、ステップS5またはステップS6の処理の後においては、今回のスワイプ操作に対応する処理が終了しているため、セットされているフラグがクリアされるとともに図8において示すデータもクリアされる。   The graphic correspondence process in step S5 is a process corresponding to the graphic flag set in step S28, step S31, step S33, or step S38 described above. The processing corresponding to the graphic flag includes, for example, a process of operating the character in a different mode according to the graphic flag, a process of generating a different trick (including magic) according to the graphic flag, and an item different according to the graphic flag May be anything as long as it executes different processing according to the graphic flag, such as processing for acquiring. In this way, it is possible to provide the user with interest such as what figure is to be input in the figure input mode. Note that after the processing of step S5 or step S6, since the processing corresponding to the current swipe operation is completed, the set flag is cleared and the data shown in FIG. 8 is also cleared.

<変形例>
以上説明した実施形態の変形例を以下に列挙する。
<Modification>
Modifications of the embodiment described above will be listed below.

(1) 上記実施形態では、スワイプ操作による操作方向を特定し、図5のステップS5においては、形状のみならず操作方向に応じて異なる処理を実行するようにしてもよい。例えば、円形状を、時計回りで描いたときと、反時計回りで描いたときとで異なる処理を実行するようにしてもよい。操作方向は、例えば、格納されている方向差分のうち正数の方向差分が多い場合に時計回り方向であることを特定でき、負数の方向差分が多い場合に反時計回り方向であることを特定できる。これにより、ゲーム操作のバリエーションを豊富にすることができ興趣を向上させることができる。例えば、次のような構成を備えるものであってもよい。方向領域0〜7各々に対して、当該方向領域を特定するための数値が方向領域0から予め定められた回転方向(時計回り)に向かうにしたがって大きくなるように割り振られており、チェックポイント座標に対応して記憶する方向差分の値に応じてスワイプ操作の態様(操作方向)を判定するものであってもよい。   (1) In the above embodiment, the operation direction by the swipe operation may be specified, and in step S5 of FIG. 5, different processing may be executed according to the operation direction as well as the shape. For example, different processes may be performed when the circular shape is drawn clockwise and when drawn counterclockwise. For example, the operation direction can be specified as clockwise if there is a positive number of direction differences among the stored direction differences, and it is specified as counterclockwise if there are many negative direction differences. it can. As a result, variations in game operation can be enriched, and the interest can be improved. For example, the following configuration may be provided. For each of the direction areas 0 to 7, a numerical value for specifying the direction area is allocated so as to increase from the direction area 0 toward a predetermined rotation direction (clockwise), and the check point coordinates The mode (operation direction) of the swipe operation may be determined according to the value of the direction difference stored corresponding to.

(2) 上記実施形態では、図6のステップS18、S23において方向ベクトルから方向値を算出する例について説明したが、これに限らず、例えば、方向領域0〜7各々に対応する方向値を特定するためのテーブルを予め記憶し、方向ベクトルから求められる角度から図7(D)のいずれの方向領域に属するかを特定することにより、当該方向領域に対応する方向値を特定するものであってもよい。   (2) In the above embodiment, an example in which the direction value is calculated from the direction vector in steps S18 and S23 of FIG. 6 has been described, but not limited thereto. For example, direction values corresponding to each of the direction regions 0 to 7 The direction value corresponding to the direction area is specified by pre-storing a table to be stored and specifying which direction area in FIG. 7 (D) belongs from the angle obtained from the direction vector. It is also good.

(3) 上記実施形態では、図9のステップS27の判定条件を円形状の形状条件のみに適用している例について説明したが、これに限らず、四角形状、三角形状、および×形状すべてに共通する形状条件としてもよい。ステップS27の判定条件をすべての形状条件に適用することにより、大きく図形が描かれることが条件となる。その結果、図形判定に用いるチェックポイント座標などのデータが多くなり、図形判定の精度を向上させることができる。   (3) In the above embodiment, an example in which the determination condition of step S27 in FIG. 9 is applied only to the circular shape condition is described, but the present invention is not limited to this. It may be a common shape condition. By applying the determination condition of step S27 to all the shape conditions, it is a condition that a figure is drawn largely. As a result, data such as check point coordinates used for figure determination increases, and the accuracy of figure determination can be improved.

(4) 上記実施形態では、円形状の形状条件として図9のステップS25、S26、S27を例示したが、これに替えてあるいは加えて、方向差分の値が「1」以外の値である頻度が所定頻度未満であることを円形状の形状条件としてもよい。円形状の場合には、緩やか曲線が描かれるはずであり、そのため方向差分の値が大きくなる箇所が少ない。この点に着目して、方向差分の値が「1」以外の値である頻度が所定頻度未満であることを円形状の形状条件として、図形判定の精度を向上させるようにしてもよい。なお、形状条件の一例については、図9を用いて説明したが、図9に例示したものに替えてあるいは加えて適宜他の条件を採用してもよい。   (4) In the above embodiment, steps S25, S26, and S27 of FIG. 9 are illustrated as circular shape conditions, but instead of or in addition to this, the frequency of the direction difference value is a value other than "1". May be less than the predetermined frequency as the circular shape condition. In the case of a circular shape, a gentle curve should be drawn, so there are few places where the value of the direction difference increases. Focusing on this point, the accuracy of the figure determination may be improved by setting that the frequency whose direction difference value is a value other than “1” is less than the predetermined frequency as the circular shape condition. Although an example of the shape condition has been described with reference to FIG. 9, other conditions may be appropriately adopted instead of or in addition to those exemplified in FIG.

(5) 上記実施形態では、図6などで示したように、チェックポイント座標が格納されるときに、方向値と方向差分とを算出して格納する例について説明したが、これに限らず、図9における図形判定処理を実行するときにまとめて方向値および方向差分とを算出して格納するものであってもよい。これにより、処理負担をタイミング的に分散させることができる。   (5) In the above embodiment, as shown in FIG. 6 and the like, an example in which the direction value and the direction difference are calculated and stored when check point coordinates are stored has been described, but the present invention is not limited thereto. When the figure determination process in FIG. 9 is executed, the direction value and the direction difference may be calculated and stored collectively. This enables the processing load to be distributed in timing.

(6) 図7(D)に示した方向領域の数0〜7、ステップS11で計時する時間、ステップS13で判定する距離の閾値、ステップS14で判定する所定時間の長さ、ステップS15で判定する所定数の数、ステップS25で判定する所定範囲の距離、ステップS26で判定する第1頻度の値、ステップS27で判定する所定値の値、およびステップS35で判定する第2頻度の値のうちの何れか1つまたは2つ以上について、変更調整できるように制御してもよい。その変更調整は、ユーザの操作で行なってもよく、あるいは人工知能等を利用してユーザ毎に最適となるように機械学習して自動調整してもよい。   (6) Number of Direction Areas 0 to 7 Shown in FIG. 7D, Time Counting at Step S11, Threshold Value of Distance Determined at Step S13, Length of Predetermined Time Determined at Step S14, Determination at Step S15 Of the predetermined number, the distance of the predetermined range determined in step S25, the value of the first frequency determined in step S26, the value of the predetermined value determined in step S27, and the value of the second frequency determined in step S35 It may be controlled to be able to change and adjust any one or two or more of them. The change adjustment may be performed by the operation of the user, or machine learning may be performed so as to be optimal for each user using artificial intelligence or the like.

(7) 判定可能な図形を一筆書きの図形に限定してもよい。その場合には、前述のステップS24、S35〜S38などの処理を省くことができ、記憶容量および制御負担をより一層減少させることができる。   (7) The figure which can be determined may be limited to the one-stroke figure. In that case, the processing of the aforementioned steps S24 and S35 to S38 can be omitted, and the storage capacity and control burden can be further reduced.

(8) 上記実施形態では、入力操作受付部191は、タッチスクリーン130の出力に基づいて、ユーザが行う入力操作を受け付けるものとして説明したが、タッチスクリーンに限らず、タッチパッドその他のポインティングデバイスによりユーザの入力操作を受け付けることとしてもよい。   (8) In the above embodiment, the input operation receiving unit 191 is described as receiving an input operation performed by the user based on the output of the touch screen 130. However, the input operation receiving unit 191 is not limited to the touch screen. The input operation of the user may be accepted.

(9) 上記実施形態では、ゲームプログラムの例において、ユーザの入力操作に応じて図形を特定し、特定した図形に応じてゲーム制御を行う例を主に説明したが、その他のプログラムにおいても上記の図形判定処理を行い、判別された図形に応じた処理を行うこととしてもよい。例えば、プログラムが、タップ操作、フリック操作に応じて、オブジェクトに対する処理等を行うとともに、図形判定処理で判別された図形の形状を入力手段として、ユーザが円形状の図形(図形「○」)を入力した場合と、矩形上の図形(図形「□」)を入力した場合とで異なる処理を行うようにすることもできる。   (9) In the above embodiment, in the example of the game program, the figure is mainly identified according to the user's input operation and the game control is performed according to the identified figure. The figure determination process may be performed, and the process according to the determined figure may be performed. For example, the program performs processing on an object according to a tap operation or a flick operation, and the user uses a circular figure (figure “○”) as an input unit while the figure shape determined in the figure determination process is input means. It is possible to perform different processing depending on the case of inputting and the case of inputting a figure on a rectangle (figure “□”).

今回開示された実施の形態はすべての点で例示であって制限的なものでないと考えられるべきである。この発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   It should be understood that the embodiment disclosed herein is illustrative and non-restrictive in every respect. The scope of the present invention is indicated not by the above description but by the claims, and is intended to include all modifications within the meaning and scope equivalent to the claims.

10 携帯端末、20 サーバ、22 通信IF、23 入出力IF、25 メモリ、26 ストレージ、29 プロセッサ、80 ネットワーク、81 無線基地局、82 無線ルータ、110 アンテナ、120 無線通信IF、130 タッチスクリーン、131 タッチパネル、132 ディスプレイ、150 記憶部、151 ゲームプログラム、160 音声処理部、170 マイク、180 スピーカ、190 制御部、191 入力操作受付部、192 ゲーム進行処理部、193 移動操作検出部、194 カメラ配置制御部、195 オブジェクト制御部、196 表示制御部、220 通信部、250 記憶部、251 ゲームプログラム、252 ゲーム情報、253 ユーザ情報、290 制御部、291 送受信部、292 サーバ処理部、293 データ管理部、294 マッチング部、295 計測部。   DESCRIPTION OF REFERENCE NUMERALS 10 mobile terminal 20 server 22 communication IF 23 input / output IF 25 memory 26 storage 29 processor 80 network 81 wireless base station 82 wireless router 110 antenna 120 wireless communication IF 130 touch screen 131 Touch panel, 132 display, 150 storage unit, 151 game program, 160 audio processing unit, 170 microphone, 180 speaker, 190 control unit, 191 input operation acceptance unit, 192 game progress processing unit, 193 movement operation detection unit, 194 camera arrangement control Unit, 195 object control unit, 196 display control unit, 220 communication unit, 250 storage unit, 251 game program, 252 game information, 253 user information, 290 control unit, 291 transmission / reception unit, 292 server processing Department, 293 Data Management Department, 294 Matching Department, 295 Measurement Department.

Claims (13)

プロセッサ、メモリ、タッチ操作を受け付ける入力部、および表示部を備えるコンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
前記入力部に対するスワイプ操作を受け付けている場合に、予め定められた記憶条件が成立する毎に当該スワイプ操作におけるタッチ操作の位置を前記メモリに記憶する第1の記憶ステップと、
前記第1の記憶ステップにより記憶された位置と前回記憶された位置とにより定まる方向を特定する特定ステップと、
予め複数に区分された方向区分のうち、前記特定ステップにより特定された方向が属する方向区分を前記メモリに記憶する第2の記憶ステップと、
前記スワイプ操作を受け付けることにより前記メモリに記憶された位置と方向区分とに基づいて予め定められた形状に対応付けられた形状条件を満たすか否かを判定することにより、前記スワイプ操作が当該予め定められた形状に属するかの判別を行う判別ステップと、
前記判別ステップの判別結果に応じた処理を実行する実行ステップとを実行させる、プログラム。
A program executed by a computer comprising a processor, a memory, an input unit for receiving a touch operation, and a display unit,
The program is executed by the processor
A first storage step of storing a position of a touch operation in the swipe operation in the memory each time a predetermined storage condition is satisfied, when a swipe operation on the input unit is received;
An identification step of identifying a direction determined by the position stored by the first storage step and the position stored last time;
A second storing step of storing, in the memory, a direction segment to which the direction specified in the specifying step belongs among a plurality of direction segments divided in advance;
The swipe operation is performed in advance by determining whether or not a shape condition associated with a predetermined shape is determined based on the position and direction division stored in the memory by receiving the swipe operation. A determination step of determining whether the shape belongs to a predetermined shape;
A program for executing a process according to the determination result of the determination step.
前記形状条件は、前記スワイプ操作の終了位置が当該スワイプ操作の開始位置から予め定められた範囲内の位置であることにより成立する条件を含む、請求項1に記載のプログラム。   The program according to claim 1, wherein the shape condition includes a condition that is satisfied when the end position of the swipe operation is a position within a predetermined range from the start position of the swipe operation. 前記形状条件は、前記第2の記憶ステップにより記憶された方向区分が前回記憶された方向区分と同じである割合が予め定められた割合未満であることにより成立する条件を含む、請求項1または請求項2に記載のプログラム。   The shape condition includes a condition that is satisfied when the ratio in which the direction segment stored by the second storing step is the same as the previously stored direction segment is less than a predetermined ratio. The program according to claim 2. 前記メモリに記憶する位置は、前記入力部の入力面におけるX軸方向の座標位置とY軸方向の座標位置とを含み、
前記形状条件は、前記スワイプ操作の前記X軸方向における最小値から最大値までの距離および前記Y軸方向における最小値から最大値までの距離各々が予め定められた距離以上であることにより成立する条件を含む、請求項1〜請求項3に記載のプログラム。
The position stored in the memory includes the coordinate position in the X axis direction and the coordinate position in the Y axis direction on the input surface of the input unit,
The shape condition is satisfied when the distance from the minimum value to the maximum value in the X axis direction of the swipe operation and the distance from the minimum value to the maximum value in the Y axis direction are each equal to or greater than a predetermined distance. The program according to claim 1, comprising a condition.
前記メモリに記憶する位置は、前記入力部の入力面におけるX軸方向の座標位置とY軸方向の座標位置とを含み、
前記予め定められた形状は、円形状を含み、
前記円形状に対応付けられた形状条件は、前記スワイプ操作の終了位置が当該スワイプ操作の開始位置から予め定められた範囲内の位置であり、前記第2の記憶ステップにより記憶された方向区分が前回記憶された方向区分と同じである割合が予め定められた割合未満であり、前記スワイプ操作の前記X軸方向における最小値から最大値までの距離および前記Y軸方向における最小値から最大値までの距離各々が予め定められた距離以上であることにより成立する条件を含み、
前記判別ステップは、前記スワイプ操作を受け付けることにより前記メモリに記憶された位置と方向区分とに基づいて前記円形状に対応付けられた形状条件を満たすと判定することにより、前記スワイプ操作が前記円形状に属する旨の判別を行う、請求項1に記載のプログラム。
The position stored in the memory includes the coordinate position in the X axis direction and the coordinate position in the Y axis direction on the input surface of the input unit,
The predetermined shape includes a circular shape,
In the shape condition associated with the circular shape, the end position of the swipe operation is a position within a predetermined range from the start position of the swipe operation, and the direction segment stored by the second storage step is The same proportion as the previously stored direction division is less than a predetermined proportion, and the distance from the minimum value to the maximum value in the X axis direction of the swipe operation and the minimum value to the maximum value in the Y axis direction Including the condition established by each of the distances being greater than or equal to a predetermined distance,
The determining step determines that the swipe operation corresponds to the circle by determining that the shape condition associated with the circle is satisfied based on the position and the direction division stored in the memory by receiving the swipe operation. The program according to claim 1, wherein it is determined that it belongs to the shape.
前記形状条件は、複数種類の形状各々に対応付けられた条件であり、
前記実行ステップは、前記複数種類の形状のうち前記判別ステップにより判別された形状に応じて異なる処理を実行する、請求項1〜請求項5のいずれかに記載のプログラム。
The shape condition is a condition associated with each of a plurality of types of shapes,
The program according to any one of claims 1 to 5, wherein the execution step performs different processing according to the shape determined by the determination step among the plurality of types of shapes.
前記複数種類の形状のうちの第1の形状および第2の形状各々に対応付けられた形状条件は、ともに、前記スワイプ操作の終了位置が当該スワイプ操作の開始位置から予め定められた範囲内の位置であることにより成立する条件を含む、請求項6に記載のプログラム。   The shape condition associated with each of the first shape and the second shape of the plurality of types of shapes is such that the end position of the swipe operation is within a predetermined range from the start position of the swipe operation. The program according to claim 6, including a condition established by being a position. 前記判別ステップは、前記スワイプ操作を受け付けている場合であっても当該スワイプ操作におけるタッチ操作の位置が予め定められた時間に亘り変化していないときには前記判別を行わない、請求項1〜請求項7のいずれかに記載のプログラム。   The determination step does not perform the determination when the position of the touch operation in the swipe operation has not changed over a predetermined time, even when the swipe operation is received. The program described in any of 7. 前記判別ステップは、前記スワイプ操作を受け付けている場合であっても当該スワイプ操作を受け付けることにより記憶された位置の個数が閾値を超えたときには前記判別を行わない、請求項1〜請求項8のいずれかに記載のプログラム。   The determination step is not performed even when the swipe operation is received, when the number of positions stored by receiving the swipe operation exceeds a threshold. The program described in any one. 前記記憶条件は、前記スワイプ操作におけるタッチ操作の移動距離が閾値を超える毎に成立する条件を含む、請求項1〜請求項9のいずれかに記載のプログラム。   The program according to any one of claims 1 to 9, wherein the storage condition includes a condition that is satisfied each time a moving distance of a touch operation in the swipe operation exceeds a threshold. 前記予め複数に区分された方向区分は、前記入力部の入力面におけるX軸の正方向を包含する第1の方向区分と、前記X軸の負方向を包含する第2の方向区分と、Y軸の正方向を包含する第3の方向区分と、前記Y軸の負方向を包含する第4の方向区分と、前記第1の方向区分と前記第3の方向区分との間の方向を包含する第5の方向区分と、前記第3の方向区分と前記第2の方向区分との間の方向を包含する第6の方向区分と、前記第3の方向区分と前記第4の方向区分との間の方向を包含する第7の方向区分と、前記第4の方向区分と前記第1の方向区分との間の方向を包含する第8の方向区分とを含む、請求項1〜請求項10のいずれかに記載のプログラム。   The direction divisions divided into a plurality of parts are a first direction division including the positive direction of the X axis in the input surface of the input unit, a second direction division including the negative direction of the X axis, and Y A third direction segment including the positive direction of the axis, a fourth direction segment including the negative direction of the Y axis, and a direction between the first direction segment and the third direction segment A sixth direction segment including directions between the third direction segment and the second direction segment, the third direction segment, and the fourth direction segment; A seventh direction section that includes the direction between the second direction section and an eighth direction section that includes the direction between the fourth direction section and the first direction section; The program described in any one of 10. プロセッサ、メモリ、タッチ操作を受け付ける入力部、および表示部を備えるコンピュータにより実行される処理方法であって、
前記入力部に対するスワイプ操作を受け付けている場合に、予め定められた記憶条件が成立する毎に当該スワイプ操作におけるタッチ操作の位置を前記メモリに記憶する第1の記憶ステップと、
前記第1の記憶ステップにより記憶された位置と前回記憶された位置とにより定まる方向を特定する特定ステップと、
予め複数に区分された方向区分のうち、前記特定ステップにより特定された方向が属する方向区分を前記メモリに記憶する第2の記憶ステップと、
前記スワイプ操作を受け付けることにより前記メモリに記憶された位置と方向区分とに基づいて予め定められた形状に対応付けられた形状条件を満たすか否かを判定することにより、前記スワイプ操作が当該予め定められた形状に属するかの判別を行う判別ステップと、
前記判別ステップの判別結果に応じた処理を実行する実行ステップとを備える、処理方法。
A processing method executed by a computer comprising a processor, a memory, an input unit for receiving a touch operation, and a display unit,
A first storage step of storing a position of a touch operation in the swipe operation in the memory each time a predetermined storage condition is satisfied, when a swipe operation on the input unit is received;
An identification step of identifying a direction determined by the position stored by the first storage step and the position stored last time;
A second storing step of storing, in the memory, a direction segment to which the direction specified in the specifying step belongs among a plurality of direction segments divided in advance;
The swipe operation is performed in advance by determining whether or not a shape condition associated with a predetermined shape is determined based on the position and direction division stored in the memory by receiving the swipe operation. A determination step of determining whether the shape belongs to a predetermined shape;
And an execution step of executing a process according to the determination result of the determination step.
プロセッサ、メモリ、タッチ操作を受け付ける入力部、および表示部を備える情報端末装置であって、
前記入力部に対するスワイプ操作を受け付けている場合に、予め定められた記憶条件が成立する毎に当該スワイプ操作におけるタッチ操作の位置を前記メモリに記憶する第1の記憶手段と、
前記第1の記憶手段により記憶された位置と前回記憶された位置とにより定まる方向を特定する特定手段と、
予め複数に区分された方向区分のうち、前記特定手段により特定された方向が属する方向区分を前記メモリに記憶する第2の記憶手段と、
前記スワイプ操作を受け付けることにより前記メモリに記憶された位置と方向区分とに基づいて予め定められた形状に対応付けられた形状条件を満たすか否かを判定することにより、前記スワイプ操作が当該予め定められた形状に属するかの判別を行う判別手段と、
前記判別手段の判別結果に応じた処理を実行する実行手段とを備える、情報端末装置。

An information terminal device comprising a processor, a memory, an input unit for receiving a touch operation, and a display unit,
A first storage unit configured to store, in the memory, a position of a touch operation in the swipe operation each time a predetermined storage condition is satisfied, when a swipe operation on the input unit is received;
Specifying means for specifying a direction determined by the position stored by the first storage means and the position stored last time;
Second storage means for storing, in the memory, the direction segment to which the direction specified by the specifying device belongs among the direction segments divided into a plurality of pieces in advance;
The swipe operation is performed in advance by determining whether or not a shape condition associated with a predetermined shape is determined based on the position and direction division stored in the memory by receiving the swipe operation. A determination unit configured to determine whether the shape belongs to a predetermined shape;
And an execution unit configured to execute a process according to the determination result of the determination unit.

JP2017189005A 2017-09-28 2017-09-28 Program, processing method, and information terminal device Active JP6535376B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017189005A JP6535376B2 (en) 2017-09-28 2017-09-28 Program, processing method, and information terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017189005A JP6535376B2 (en) 2017-09-28 2017-09-28 Program, processing method, and information terminal device

Publications (2)

Publication Number Publication Date
JP2019066958A true JP2019066958A (en) 2019-04-25
JP6535376B2 JP6535376B2 (en) 2019-06-26

Family

ID=66339566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017189005A Active JP6535376B2 (en) 2017-09-28 2017-09-28 Program, processing method, and information terminal device

Country Status (1)

Country Link
JP (1) JP6535376B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020202710A1 (en) 2019-03-29 2020-10-08 カシオ計算機株式会社 Illumination device and imaging device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185398A (en) * 1997-09-11 1999-03-30 Kenwood Corp Command input device for touch panel display
JP2001005599A (en) * 1999-06-22 2001-01-12 Sharp Corp Information processor and information processing method an d recording medium recording information processing program
JP2005056209A (en) * 2003-08-06 2005-03-03 Nippon Telegr & Teleph Corp <Ntt> Method, instrument and program for measuring handwritten graphic
JP2006122164A (en) * 2004-10-27 2006-05-18 Nintendo Co Ltd Game device and game program
JP2014130545A (en) * 2012-12-28 2014-07-10 Panasonic Corp Display device, display method and display program
JP2015146090A (en) * 2014-02-03 2015-08-13 コニカミノルタ株式会社 Handwritten input device and input control program
WO2015141260A1 (en) * 2014-03-17 2015-09-24 株式会社河合楽器製作所 Handwritten music notation recognition device and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185398A (en) * 1997-09-11 1999-03-30 Kenwood Corp Command input device for touch panel display
JP2001005599A (en) * 1999-06-22 2001-01-12 Sharp Corp Information processor and information processing method an d recording medium recording information processing program
JP2005056209A (en) * 2003-08-06 2005-03-03 Nippon Telegr & Teleph Corp <Ntt> Method, instrument and program for measuring handwritten graphic
JP2006122164A (en) * 2004-10-27 2006-05-18 Nintendo Co Ltd Game device and game program
JP2014130545A (en) * 2012-12-28 2014-07-10 Panasonic Corp Display device, display method and display program
JP2015146090A (en) * 2014-02-03 2015-08-13 コニカミノルタ株式会社 Handwritten input device and input control program
WO2015141260A1 (en) * 2014-03-17 2015-09-24 株式会社河合楽器製作所 Handwritten music notation recognition device and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020202710A1 (en) 2019-03-29 2020-10-08 カシオ計算機株式会社 Illumination device and imaging device

Also Published As

Publication number Publication date
JP6535376B2 (en) 2019-06-26

Similar Documents

Publication Publication Date Title
JP6188886B1 (en) GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE
US20170144064A1 (en) Companion Gaming Experience Supporting Near-Real-Time Gameplay Data
JP6058101B1 (en) GAME DEVICE AND PROGRAM
CN112044068A (en) Man-machine interaction method and device, storage medium and computer equipment
JP6220428B1 (en) Matching method, server device, terminal, and game program
JP2019150333A (en) Game program, method and information processor
JP6532110B2 (en) Game program, method, and information processing apparatus
JP2017209574A (en) Game program, method, and information processor
JP2024023652A (en) program
JP6535376B2 (en) Program, processing method, and information terminal device
JP6002345B1 (en) Information processing apparatus including game program, method, and touch screen
JP2018011961A (en) Game program, method, and information processor
JP7346055B2 (en) game program
JP6924564B2 (en) Game program
JP6209245B1 (en) GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE
JP2020000390A (en) Game program, method, and information processor
JP2017064445A (en) Game device and program
JP6174202B1 (en) Information processing apparatus provided with game program, method, and touch screen
JP2019130416A (en) Game program, method and information processor
JP2020000848A (en) Game program, method, and information processing device
JP6002344B1 (en) Information processing apparatus including game program, method, and touch screen
JP2019217212A (en) Game program, method, and information processing device
JP2017221676A (en) Game program, method, and information processor with touch screen
JP2018033972A (en) Game program, method and information processing device including touch screen
JP2018020150A (en) Game program, method, and information processor with touch screen

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190531

R150 Certificate of patent or registration of utility model

Ref document number: 6535376

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250