JP2010104676A - Measuring method and apparatus - Google Patents

Measuring method and apparatus Download PDF

Info

Publication number
JP2010104676A
JP2010104676A JP2008281630A JP2008281630A JP2010104676A JP 2010104676 A JP2010104676 A JP 2010104676A JP 2008281630 A JP2008281630 A JP 2008281630A JP 2008281630 A JP2008281630 A JP 2008281630A JP 2010104676 A JP2010104676 A JP 2010104676A
Authority
JP
Japan
Prior art keywords
time
mobile phone
correct answer
input device
variable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008281630A
Other languages
Japanese (ja)
Inventor
Fumihiko Takagi
文彦 高木
Tatsuya Sakai
達也 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2008281630A priority Critical patent/JP2010104676A/en
Publication of JP2010104676A publication Critical patent/JP2010104676A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To measure a time required for thinking a problem by taking account of a type of an input device when inputting a true answer to a submitted problem by operating the input device. <P>SOLUTION: When a stroke analysis section 232 detects the completion of a stroke operation of ○, a true/false answer determination section 233 determines whether or not the ○ by the stroke operation indicates a position and dimension of the true answer to the problem. A timer processing section 270 measures a time required from when the problem is submitted till being determined that the ○ indicates the true answer. The thinking time is calculated based on the measured time required and a criterion time for every type of input devices required for completing the input of the ○ using the input device. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は計測方法および装置に関し、特に、提示された問題に対して入力デバイスを操作して正答を入力する場合において思考に要した時間を計測する方法および装置に関する。   The present invention relates to a measurement method and apparatus, and more particularly, to a method and apparatus for measuring a time required for thinking when a correct answer is input by operating an input device for a presented problem.

早押しゲームなどの正答までの速度を複数人で競う対戦型マルチプレイヤゲームが従来から提供されている。たとえば、対戦型マルチプレイヤゲームとして間違い探しゲームのシステムが、特許文献1(特開2004−89601号)に開示される。このようなゲームでは、一般的に、正答操作したその瞬間の時刻情報により勝敗を決めている。この時刻情報は、ゲーム端末内のクロック(計時部)をベースに求めるが、各端末に内蔵されているクロックには個体差がある。このことによって、各端末で計時された時刻情報にはズレが生じる。この問題を解消するために、特許文献2(特開2002-233667号公報)は、受信した標準電波に基づき同期基準時刻を把握し、そして、ゲーム装置内の基準時計の示す時刻と同期基準時刻とに基づき同期が取れていないと判定した場合には、基準時計を校正する。
特開2004-89601号公報 特開2002-233667号公報
Conventionally, a battle type multiplayer game in which a plurality of people compete for speeds up to a correct answer such as a fast-press game has been provided. For example, Patent Document 1 (Japanese Patent Application Laid-Open No. 2004-89601) discloses a system for searching for mistakes as a competitive multiplayer game. In such a game, generally, winning or losing is determined based on time information at the moment when the correct answer operation is performed. This time information is obtained based on a clock (timer) in the game terminal, but there is an individual difference in the clock built in each terminal. As a result, the time information measured at each terminal is shifted. In order to solve this problem, Patent Document 2 (Japanese Patent Laid-Open No. 2002-233667) grasps the synchronization reference time based on the received standard radio wave, and then shows the time indicated by the reference clock in the game device and the synchronization reference time. If it is determined that synchronization is not achieved based on the above, the reference clock is calibrated.
JP 2004-89601 A JP 2002-233667 A

対戦型マルチプレイヤゲームでは、プレイヤがする特定操作の速さを競うケースが想定される。その場合には、入力デバイスの種類の違いが要因となって、プレイヤ間で解答操作にかかる時間に差が生じる。この点について詳述する。   In a competitive multiplayer game, a case where the players compete for the speed of a specific operation performed by the player is assumed. In that case, the difference in the type of input device causes a difference in the time required for the answer operation among the players. This point will be described in detail.

たとえば、間違い探しゲームでは、一般的に、表示された絵において間違い箇所を入力デバイスを操作して指示することにより解答し、いち早く正答したプレイヤが勝つことになる。つまり、問題提示から解答完了までに要する時間が一番短いプレイヤが勝つことになるので、勝敗を正確に判定しゲーム性を高めるには、プレイヤが操作する入力デバイスの種類毎に、解答に係る一連操作が完了するまでの平均的な所要時間を考慮することが必要となる。   For example, in a mistake search game, generally, a player who answers correctly by operating an input device to indicate an error location in a displayed picture wins. In other words, the player with the shortest time required from the question presentation to the completion of the answer wins. Therefore, in order to accurately determine the win and loss and improve the game performance, the player needs to know the answer for each type of input device operated by the player. It is necessary to consider the average time required to complete a series of operations.

たとえば、表示された絵において誤り箇所を○で囲むという解答のための操作は、一般的には、入力デバイスとしてタブレットとペンを用いて操作する方が、トラックボールやマウス等の入力デバイスを用いて操作するよりも、スムーズに操作できるので、入力デバイスとしてトラックボールを有する端末のプレイヤの方が、勝敗に関してハンディキャップを受けることになるであろう。   For example, an operation for answering a circle with an error in a displayed picture is generally performed by using an input device such as a trackball or a mouse when operating with a tablet and a pen as input devices. Therefore, a player who has a trackball as an input device will receive a handicap regarding winning or losing.

以上のように、「間違い探しゲーム」など入力デバイスを用いた特定操作の速さを競うゲームでは、勝敗判定にプレイヤが利用している入力デバイスの種類を考慮しない場合には、ゲーム性は喪失する。   As described above, in games that compete for the speed of a specific operation using an input device such as “Finding a mistake”, the game performance is lost if the type of input device used by the player is not considered in the win / loss determination. To do.

しかしながら、特許文献1および2のいずれにおいても、このような入力デバイスの種類の違いに起因した操作に要する時間差を補償する提案は何らされていない。   However, neither of Patent Documents 1 and 2 makes any proposal to compensate for the time difference required for the operation due to such a difference in the type of input device.

それゆえに、この発明の目的は、提示された問題に対して入力デバイスを操作して正答を入力する場合において、問題の思考に要した時間を入力デバイスの種類を考慮して計測する方法および装置を提供することである。   Therefore, an object of the present invention is to provide a method and an apparatus for measuring the time required for thinking of a problem in consideration of the type of the input device when the input device is operated to input a correct answer to the presented problem. Is to provide.

この発明のある局面に従うと、問題が提示されてから、入力デバイスを用いて為された一連操作に基づき、操作者の前記問題が提示されてから前記正答を導出するのに要した思考時間を計測する計測方法は、一連操作が完了したことを検出する操作検出ステップと、操作検出ステップが検出した一連操作が、提示された問題に対する正答を指示するかを判定する判定ステップと、問題が提示されてから、判定ステップにより正答を指示すると判定されるまでの所要時間を計測する正答時間計測ステップと、正答時間計測ステップにより計測された所要時間と、入力デバイスを用いて一連操作を完了するために必要とされる入力デバイスの種別毎の基準時間とに基づき、思考時間を算出する算出ステップと、を備える。   According to one aspect of the present invention, based on a series of operations performed using an input device after a problem is presented, the thinking time required for deriving the correct answer after the problem is presented by the operator is calculated. The measurement method to be measured includes an operation detection step for detecting completion of a series of operations, a determination step for determining whether the series of operations detected by the operation detection step indicates a correct answer to the presented problem, and a problem is presented To complete a series of operations using a correct answer time measuring step for measuring a required time until it is determined that a correct answer is instructed by the determining step, a required time measured by the correct answer time measuring step, and an input device And a calculation step for calculating a thinking time based on a reference time for each type of input device required for.

好ましくは、算出ステップでは、所要時間から、基準時間を減算することにより、前記思考時間を算出する。   Preferably, in the calculation step, the thinking time is calculated by subtracting a reference time from the required time.

好ましくは、算出した思考時間を出力し、または、記憶する。
好ましくは、外部端末から、当該外部端末において算出された、同一問題に対する思考時間のデータを受信する受信ステップと、受信したデータが指す思考時間と、算出ステップにより算出した思考時間とを比較する時間比較ステップと、時間比較ステップの比較結果に基づき、問題に対する思考時間の速さを競った場合の勝敗判定結果を出力する勝敗出力ステップと、をさらに備える。
Preferably, the calculated thinking time is output or stored.
Preferably, from the external terminal, the reception step for receiving the thinking time data for the same problem calculated in the external terminal, the thinking time indicated by the received data, and the time for comparing the thinking time calculated by the calculating step A comparison step and a win / loss output step of outputting a win / loss determination result when competing for the speed of thinking time for the problem based on the comparison result of the time comparison step are further provided.

この発明の他の局面に従うと、問題が提示されてから、入力デバイスを用いて為された一連操作に基づき、操作者の問題が提示されてから正答を導出するのに要した思考時間を計測する計測装置は、一連操作が完了したことを検出する操作検出手段と、操作検出手段が検出した一連操作が、提示された問題に対する正答を指示するかを判定する判定手段と、問題が提示されてから、判定手段により正答を指示すると判定されるまでの所要時間を計測する正答時間計測手段と、正答時間計測手段により計測された所要時間と、入力デバイスを用いて一連操作を完了するために必要とされる入力デバイスの種別毎の基準時間とに基づき、思考時間を算出する算出手段と、を備える。   According to another aspect of the present invention, based on a series of operations performed using an input device after a problem is presented, the thinking time required to derive a correct answer after the operator's problem is presented is measured. The measuring device that performs the operation detection unit that detects completion of the series of operations, the determination unit that determines whether the series of operations detected by the operation detection unit indicates the correct answer to the presented problem, and the problem is presented. In order to complete a series of operations using a correct answer time measuring means for measuring a required time until it is determined that the correct answer is instructed by the judging means, a required time measured by the correct answer time measuring means, and an input device. Calculation means for calculating a thinking time based on a required reference time for each type of input device.

この発明のさらに他の局面に従うと、上述の計測方法をコンピュータに実行させるためのプログラムが提供される。   According to still another aspect of the present invention, a program for causing a computer to execute the above-described measurement method is provided.

本発明によれば、提示された問題に対して入力デバイスを操作して正答を入力する場合において、操作者の問題の思考に要した時間を入力デバイスの種類を考慮して計測することができる。   According to the present invention, when the correct answer is input by operating the input device for the presented problem, the time required for the operator to think about the problem can be measured in consideration of the type of the input device. .

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部分には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

また、以下では、他の端末と通信をしながら対戦型マルチプレイヤゲームのソフトウェアを実行可能な「通信端末」の代表例として携帯電話100を挙げて説明を行う。ただし、このような機能を有する通信端末であれば、パーソナルコンピュータや、カーナビゲーション装置(Satellite navigation system)や、PND(Personal Navigation Device)や、PDA(Personal Data Assistant)などのような、移動体端末を含む他の情報通信機器であってもよい。   In the following description, the mobile phone 100 will be described as a representative example of a “communication terminal” capable of executing the multiplayer game software while communicating with other terminals. However, a mobile terminal such as a personal computer, a car navigation device (Satellite navigation system), a PND (Personal Navigation Device), or a PDA (Personal Data Assistant) is a communication terminal having such a function. Other information communication equipment including

また、本実施の形態では、ゲームソフトウェアとして「間違い探し」のゲームプログラムを実行する場合を想定し、プレイヤは、表示された問題の絵柄をみて間違い箇所を、入力デバイスを操作して○で囲むことで解答を入力すると想定する。   In the present embodiment, it is assumed that a game program of “find mistakes” is executed as game software, and the player observes the displayed pattern of the problem and surrounds the wrong part with a circle by operating the input device. It is assumed that the answer is input.

また、本実施の形態では、後述のインターネット500またはキャリア網700を介したオンラインサービスによるチャットにより、リアルタイムに通信端末同士がメッセージをやり取りしながら、ゲームをプレイする。通信は、メールサーバは介さないIP(Internet Protocol)アドレスを用いた後述のP2P型のデータ通信、またはメールサーバ経由の電子メール交換であってもよい。   In the present embodiment, the communication terminal plays a game while exchanging messages in real time by chat using an online service via the Internet 500 or the carrier network 700 described later. The communication may be a P2P type data communication described later using an IP (Internet Protocol) address not via a mail server, or an electronic mail exchange via a mail server.

また、チャットするプレイヤ同士を関係付けるためにチャットルームが用いられる。チャットルームは、チャットのためのデータ通信(データ交換)を要求するユーザ(プレイヤ)の識別情報を相互に関係付けるための情報を指す。この識別情報は、本実施の形態では各通信端末に割り当されたIPアドレスとしている。   In addition, a chat room is used to relate players who chat with each other. A chat room refers to information for correlating identification information of users (players) requesting data communication (data exchange) for chatting. In this embodiment, this identification information is an IP address assigned to each communication terminal.

また、本実施の形態では、‘ルームの開設’とは、ルームの生成に相当する。具体的には、所定記憶領域に新規にルームID(Identifier)を格納するとともに、このルームIDに対応してルームの生成を要求したプレイヤの通信端末の識別情報を格納する動作に相当する。   In the present embodiment, “opening a room” corresponds to generating a room. Specifically, this corresponds to an operation of newly storing a room ID (Identifier) in the predetermined storage area and storing the identification information of the communication terminal of the player who has requested the room generation in response to the room ID.

また、‘ルームへの参加’とは、所定記憶領域に既に格納されたルームIDに対応してチャットを要求するプレイヤの識別情報を格納するともに、当該プレイヤに対して他のプレイヤの識別情報を配信する動作に相当する。   In addition, “participation in a room” means that identification information of a player who requests a chat is stored corresponding to a room ID already stored in a predetermined storage area, and identification information of another player is given to the player. It corresponds to the operation to deliver.

また、‘ルームの削除’とは、削除するべきルームのルームIDを、所定記憶領域から削除するための動作を指す。   'Room deletion' refers to an operation for deleting a room ID of a room to be deleted from a predetermined storage area.

(ネットワークシステムの全体構成)
図1に示すように、ネットワークシステム1は、携帯電話100A,100B,100Cと、マッチングサーバ400と、インターネット500と、メールサーバ600と、パーソナルコンピュータ(PC:Personal Computer)300と、キャリア網700とを含む。また、本実施の形態に係るネットワークシステム1は、車両250に搭載されるカーナビゲーション装置200を含む。
(Overall configuration of network system)
As shown in FIG. 1, a network system 1 includes mobile phones 100A, 100B, and 100C, a matching server 400, an Internet 500, a mail server 600, a personal computer (PC) 300, a carrier network 700, including. Network system 1 according to the present embodiment includes car navigation device 200 mounted on vehicle 250.

説明の簡単化のために、以下では、本実施の形態に係るネットワークシステム1が、第1の携帯電話100Aと、第2の携帯電話100Bと、第3の携帯電話100Cとを含む場合について説明する。また、携帯電話100A,100B,100Cの各々に共通の構成や機能を説明する際には、それらを携帯電話100とも総称する。そして、携帯電話100A,100B,100C、カーナビゲーション装置200およびPC300の各々に共通の構成や機能を説明する際には、それらを通信端末とも総称する。   For simplification of description, a case will be described below where network system 1 according to the present embodiment includes first mobile phone 100A, second mobile phone 100B, and third mobile phone 100C. To do. Further, when the common configurations and functions of the mobile phones 100A, 100B, and 100C are described, they are also collectively referred to as the mobile phone 100. And when explaining a structure and function common to each of mobile phone 100A, 100B, 100C, the car navigation apparatus 200, and PC300, they are also named a communication terminal generically.

携帯電話100は、キャリア網700に接続可能に構成されている。カーナビゲーション装置200は、インターネット500に接続可能に構成されている。マッチングサーバ400は、インターネット500に接続可能に構成されている。   The mobile phone 100 is configured to be connectable to the carrier network 700. The car navigation device 200 is configured to be connectable to the Internet 500. The matching server 400 is configured to be connectable to the Internet 500.

より詳細には、第1の携帯電話100Aと、第2の携帯電話100Bと、第3の携帯電話100Cと、カーナビゲーション装置200とは、キャリア網700やメールサーバ600やインターネット500を介して互いに接続可能であって、互いにデータの送受信が可能である。また、携帯電話100とカーナビゲーション装置200には、自端末を特定するための識別情報(たとえば、メールアドレスやIPアドレスなど)が割り当てられる。すなわち、携帯電話100とカーナビゲーション装置200とPC300は、内部の記録媒体に他の通信端末の識別情報を記憶することができ、当該識別情報に基づいてキャリア網700やインターネット500などを介して当該他の通信端末とデータ送受信を行うことができる。   More specifically, the first mobile phone 100A, the second mobile phone 100B, the third mobile phone 100C, and the car navigation device 200 are connected to each other via the carrier network 700, the mail server 600, and the Internet 500. They can be connected and can send and receive data to each other. Further, identification information (for example, an e-mail address, an IP address, etc.) for specifying the own terminal is assigned to the mobile phone 100 and the car navigation device 200. That is, the mobile phone 100, the car navigation device 200, and the PC 300 can store the identification information of other communication terminals in an internal recording medium, and based on the identification information, the mobile phone 100, the car navigation device 200, and the PC 300 Data can be transmitted and received with other communication terminals.

なお、本実施の形態に係る携帯電話100とカーナビゲーション装置200とPC300は、割り当てられるIPアドレスを利用して、メールサーバ600を介さずに他の通信端末とデータ送受信を行うものである。ここでは、各通信端末がマッチングサーバ400にアクセスする際には、すなわち各通信端末がインターネット700にアクセスした際に、マッチングサーバ400あるいは他の図示しないサーバ装置などによってIPアドレスが割り当てられるものとする。IPアドレスの割り当て処理の詳細は公知であるので、ここでは説明を繰り返さない。   Note that the mobile phone 100, the car navigation device 200, and the PC 300 according to the present embodiment perform data transmission / reception with other communication terminals without using the mail server 600 using the assigned IP address. Here, when each communication terminal accesses the matching server 400, that is, when each communication terminal accesses the Internet 700, an IP address is assigned by the matching server 400 or another server device (not shown). . Details of the IP address assignment process are well known, and therefore the description will not be repeated here.

また、本実施の形態に係る携帯電話100、カーナビゲーション装置200は、自身に割り当てられたIPアドレスを利用することにより、直接的に相互にネットワークを介してデータ送受信を行うことが可能である。すなわち、本実施の形態に係るネットワークシステム1に含まれる携帯電話100、カーナビゲーション装置200およびPC300は、いわゆるP2P(Pear to Pear)型のネットワークを構成することが可能である。   In addition, the mobile phone 100 and the car navigation device 200 according to the present embodiment can directly transmit and receive data via a network by using an IP address assigned to the mobile phone 100 and the car navigation device 200. That is, the mobile phone 100, the car navigation apparatus 200, and the PC 300 included in the network system 1 according to the present embodiment can constitute a so-called P2P (Pear to Pear) type network.

(P2Pの動作概要)
本実施の形態に係る各通信端末は、P2P型のデータ通信を行うために、予め互いのIPアドレスを交換(取得)する必要がある。そして、各通信端末は、IPアドレスを取得したのちに、P2P型のデータ通信によってメッセージや添付ファイルなどを他の通信端末に送信する。対戦型マルチプレイヤゲームでプレイヤの通信端末間で行なわれるチャットは、このP2P型のデータ通信によって実現される。
(Overview of P2P operation)
Each communication terminal according to the present embodiment needs to exchange (acquire) each other's IP address in advance in order to perform P2P type data communication. Then, after acquiring the IP address, each communication terminal transmits a message, an attached file, or the like to the other communication terminal by P2P type data communication. Chat performed between communication terminals of players in a battle-type multiplayer game is realized by this P2P type data communication.

次に、本実施の形態に係るネットワークシステム1の動作概要について説明する。図2は、ネットワークシステム1における動作概要を示すシーケンス図である。図1および図2に示すように、本実施の形態に係る各通信端末は、P2P型のデータ送受信を行うために、はじめに互いのIPアドレスを交換(取得)する必要がある。そして、各通信端末は、IPアドレスを取得したのちに、P2P型のデータ送受信によってメッセージや添付ファイルなどを他の通信端末に送信する。   Next, an outline of the operation of the network system 1 according to the present embodiment will be described. FIG. 2 is a sequence diagram showing an outline of the operation in the network system 1. As shown in FIGS. 1 and 2, each communication terminal according to the present embodiment needs to exchange (acquire) each other's IP address first in order to perform P2P type data transmission / reception. Then, after acquiring the IP address, each communication terminal transmits a message, an attached file, and the like to other communication terminals by P2P type data transmission / reception.

ただし、以下では、通信端末のそれぞれが、マッチングサーバ400に生成されたチャットルームを介してメッセージを送受信し、その後互いのIPアドレスに基づいてP2P通信を行う場合について説明する。   However, hereinafter, a case will be described in which each of the communication terminals transmits and receives a message via the chat room generated in the matching server 400 and then performs P2P communication based on the mutual IP address.

まず、第1の携帯電話100A(図2において端末A)が、マッチングサーバ400にIP登録(ログイン)を要求する(ステップS002)。第1の携帯電話100Aは、同時にIPアドレスを取得してもよいし、予め他のサーバ装置などからIPアドレスを取得してもよい。より詳細には、第1の携帯電話100Aは、キャリア網700、メールサーバ600、インターネット網500を介して、マッチングサーバ400に第1の携帯電話100AのメールアドレスとIPアドレスと第2の携帯電話100C(図2では端末C)のメールアドレスと新たなチャットルームの開設を要求するメッセージとを送信する。   First, first mobile phone 100A (terminal A in FIG. 2) requests IP registration (login) from matching server 400 (step S002). First mobile phone 100A may obtain an IP address at the same time, or may obtain an IP address from another server device in advance. More specifically, the first mobile phone 100A sends the mail address, IP address, and second mobile phone of the first mobile phone 100A to the matching server 400 via the carrier network 700, the mail server 600, and the Internet network 500. A mail address of 100C (terminal C in FIG. 2) and a message requesting establishment of a new chat room are transmitted.

マッチングサーバ400は、その要求に応じて、第1の携帯電話100AのメールアドレスをそのIPアドレスに対応付けて格納する。そして、マッチングサーバ400は、第1の携帯電話100Aのメールアドレスと第2の携帯電話100Cのメールアドレスとに基づいてルーム名を生成し、あるいは、メッセージに含まれるルーム名を抽出して、当該ルーム名のチャットルームを開設する。このとき、マッチングサーバ400は、チャットルーム開設が完了した旨を第1の携帯電話100Aに通知してもよい。マッチングサーバ400は、ルーム名と参加中の通信端末のIPアドレスとを対応付けて格納する。   Matching server 400 stores the mail address of first mobile phone 100A in association with the IP address in response to the request. Then, the matching server 400 generates a room name based on the mail address of the first mobile phone 100A and the mail address of the second mobile phone 100C, or extracts the room name included in the message, and Open a chat room with the room name. At this time, the matching server 400 may notify the first mobile phone 100A that the establishment of the chat room has been completed. Matching server 400 stores room names and IP addresses of participating communication terminals in association with each other.

第1の携帯電話100Aのプレイヤは、第2の携帯電話100Cのプレイヤに、新たなチャットルームを開設したことを知らせる、すなわち第2の携帯電話100Cのプレイヤにチャットルームへの参加要請をする。たとえば、第1の携帯電話100Aは、キャリア網700、メールサーバ600、インターネット網500を介して、P2P参加要請メールを第2の携帯電話100Cに送信する。   The player of the first mobile phone 100A informs the player of the second mobile phone 100C that a new chat room has been established, that is, requests the player of the second mobile phone 100C to participate in the chat room. For example, the first mobile phone 100A transmits a P2P participation request mail to the second mobile phone 100C via the carrier network 700, the mail server 600, and the Internet network 500.

第2の携帯電話100Cは、P2P参加要請メールを受信すると、第1の携帯電話100Aのメールアドレスと第2の携帯電話100Cのメールアドレスとに基づいてルーム名を生成し、あるいは参加要請メールからルーム名を取得し、マッチングサーバ400に第2の携帯電話100CのメールアドレスとIPアドレスとそのルーム名を有するチャットルームへ参加する旨のメッセージとを送信する(ステップS008)。第2の携帯電話100Cは、同時にIPアドレスを取得してもよいし、先にIPアドレスを取得してからマッチングサーバ400にアクセスしてもよい。   Upon receiving the P2P participation request email, second mobile phone 100C generates a room name based on the email address of first mobile phone 100A and the email address of second mobile phone 100C, or from the participation request email. The room name is acquired, and a message to join the chat room having the room name is transmitted to the matching server 400 (step S008). Second mobile phone 100C may acquire the IP address at the same time, or may access matching server 400 after acquiring the IP address first.

マッチングサーバ400は、そのメッセージを受け付けて、第2の携帯電話100CのメールアドレスをIPアドレスに対応付けて格納する。そして、マッチングサーバ400は、第1の携帯電話100Aに、第2の携帯電話100Cがチャットルームに参加した旨と第2の携帯電話100BのIPアドレスとを送信する(ステップS010)。同時に、マッチングサーバ400は、第2の携帯電話100Cに、チャットルームへの参加を受け付けた旨と第1の携帯電話100AのIPアドレスとを送信する。このとき、マッチングサーバ400はチャットルームを削除してもよい。   Matching server 400 receives the message and stores the mail address of second mobile phone 100C in association with the IP address. Then, matching server 400 transmits to first mobile phone 100A the fact that second mobile phone 100C has joined the chat room and the IP address of second mobile phone 100B (step S010). At the same time, matching server 400 transmits to second mobile phone 100C that it has accepted participation in the chat room and the IP address of first mobile phone 100A. At this time, the matching server 400 may delete the chat room.

第1の携帯電話100Aは、第2の携帯電話100CのIPアドレスに基づいて第2の携帯電話100CにP2P接続要求メッセージ(開始メッセージ)を送信する(ステップS012)。第2の携帯電話100Cは、接続要求メッセージを受信して、第1の携帯電話100AのIPアドレスに基づいて第1の携帯電話100Aに第1の接続承諾メッセージ(返答メッセージ)を送信する(ステップS014)。第1の携帯電話100Aは、第2の携帯電話100Cから第2の接続承諾メッセージを受信して、第2の携帯電話100Cに接続承諾メッセージを送信する(ステップS016)。   First mobile phone 100A transmits a P2P connection request message (start message) to second mobile phone 100C based on the IP address of second mobile phone 100C (step S012). Second mobile phone 100C receives the connection request message, and transmits a first connection acceptance message (response message) to first mobile phone 100A based on the IP address of first mobile phone 100A (step) S014). First mobile phone 100A receives the second connection acceptance message from second mobile phone 100C and transmits the connection acceptance message to second mobile phone 100C (step S016).

このようにして、第1の携帯電話100Aと第2の携帯電話100Cとは、互いに相手を認証する。認証が完了すると、第1の携帯電話100Aと第2の携帯電話100Cとは、P2P通信を開始する(ステップS018)。そしてP2P通信をしながら両者の携帯電話においては対戦型マルチプレイヤゲームが実行される。   Thus, first mobile phone 100A and second mobile phone 100C authenticate each other. When the authentication is completed, the first mobile phone 100A and the second mobile phone 100C start P2P communication (step S018). Then, a battle type multiplayer game is executed on both mobile phones while performing P2P communication.

その後、第1の携帯電話100Aが、第2の携帯電話100CにP2P通信を切断する旨のメッセージを送信すると(ステップS030)、第2の携帯電話100Cは、第1の携帯電話100Aに切断する要求を受け付けた旨のメッセージを送信する(ステップS032)。   Thereafter, when first mobile phone 100A transmits a message to disconnect P2P communication to second mobile phone 100C (step S030), second mobile phone 100C disconnects to first mobile phone 100A. A message indicating that the request has been accepted is transmitted (step S032).

以下、このようなP2P通信を伴う対戦型マルチプレイヤゲームを実現するための構成について詳述する。   Hereinafter, a configuration for realizing such a competitive multiplayer game with P2P communication will be described in detail.

(携帯電話のハードウェア構成)
本実施の形態に係る携帯電話100のハードウェア構成について説明する。図3には携帯電話100の概観が示されて、図4には携帯電話100のハードウェア構成が示される。
(Mobile phone hardware configuration)
A hardware configuration of mobile phone 100 according to the present embodiment will be described. FIG. 3 shows an overview of the mobile phone 100, and FIG. 4 shows a hardware configuration of the mobile phone 100.

図3および図4を参照して、携帯電話100は、アンテナ102を接続し外部のネットワークとの間でデータを送受信する通信デバイス101と、ROM(Read Only Memory)1031およびRAM(Random Access Memory)1032を含みプログラムや各種データを記憶する記憶部103と、CPU(Central Processing Unit)106Aを含むマイクロコンピュータに相当する制御部106と、ディスプレイ107と、音声を出力するスピーカ109と、音声を入力するためのマイク104と、時間を計る計時部105と、タブレット119と、各種情報の入力を受け付ける操作部110とを含む。   Referring to FIGS. 3 and 4, mobile phone 100 includes communication device 101 that connects antenna 102 and transmits / receives data to / from an external network, ROM (Read Only Memory) 1031, and RAM (Random Access Memory). 1032 includes a storage unit 103 that stores programs and various data, a control unit 106 that corresponds to a microcomputer that includes a CPU (Central Processing Unit) 106A, a display 107, a speaker 109 that outputs audio, and inputs audio. A microphone 104 for measuring time, a time measuring unit 105 for measuring time, a tablet 119, and an operation unit 110 for receiving input of various types of information.

本実施の形態に係るディスプレイ107は、液晶パネルから構成されるタッチパネルである。すなわち、本実施の形態に係る携帯電話100は、メインディスプレイ107の下側(裏側)にタブレット119が敷設されている。これによって、表示一体型入力装置108が構成される。プレイヤはスタイラスペン120などを操作することによって、タブレット119を介して、ゲームの正答を示す情報(たとえば、図形・記号など)を制御部106に手書きにより入力することができる。   Display 107 according to the present embodiment is a touch panel configured from a liquid crystal panel. That is, in the mobile phone 100 according to the present embodiment, the tablet 119 is laid on the lower side (back side) of the main display 107. Thus, the display-integrated input device 108 is configured. By operating the stylus pen 120 or the like, the player can input information (for example, figures / symbols, etc.) indicating the correct answer of the game to the control unit 106 by handwriting via the tablet 119.

操作部110は、キー入力操作などによってユーザから情報を受け付ける。たとえば、操作部110は、テンキーや決定キーなどを含み、相手先アドレスの選択命令やメール本文の入力などを受け付ける。   The operation unit 110 receives information from the user by a key input operation or the like. For example, the operation unit 110 includes a numeric keypad, a determination key, and the like, and accepts a destination address selection command, an email text input, and the like.

制御部106は、携帯電話100の各部を制御する。たとえば、操作部110を介してユーザから各種の命令を受け付けて、通信デバイス101やネットワークを介して外部の通信端末とデータの送受信を行う。   The control unit 106 controls each unit of the mobile phone 100. For example, various commands are received from the user via the operation unit 110, and data is transmitted / received to / from an external communication terminal via the communication device 101 or the network.

通信デバイス101は、制御部106からの通信データを通信信号に変換し、その通信信号をアンテナ102を介して発信する。通信デバイス101は、アンテナ102を介して受信した通信信号を通信データに変換し、その通信データを制御部106に出力する。   The communication device 101 converts communication data from the control unit 106 into a communication signal and transmits the communication signal via the antenna 102. Communication device 101 converts a communication signal received via antenna 102 into communication data, and outputs the communication data to control unit 106.

記憶部103は、作業用メモリとして機能するRAM1032や、制御プログラムなどを格納するROM1031や、ハードディスクなどによって実現される。   The storage unit 103 is realized by a RAM 1032 that functions as a working memory, a ROM 1031 that stores a control program, a hard disk, and the like.

(表示一体型入力装置の構成)
本実施の形態に係る表示一体型入力装置108の詳細構成の1例が図5に示される。
(Configuration of display integrated input device)
An example of the detailed configuration of the display-integrated input device 108 according to the present embodiment is shown in FIG.

図5を参照して、表示一体型入力装置108は、液晶パネル320および液晶パネル320の背面側に設けられ該液晶パネル320に光を照射するバックライト310を備える。   Referring to FIG. 5, display-integrated input device 108 includes a liquid crystal panel 320 and a backlight 310 that is provided on the back side of liquid crystal panel 320 and emits light to liquid crystal panel 320.

液晶パネル320は、多数の画素がマトリクス状に配列されたアクティブマトリクス基板321を有する。アクティブマトリクス基板321には、各画素を駆動するためのスイッチング素子であるTFT(Thin Film Transistor)、配向膜(図示せず)、光センサ素子330などが設けられている。   The liquid crystal panel 320 includes an active matrix substrate 321 in which a large number of pixels are arranged in a matrix. The active matrix substrate 321 is provided with a TFT (Thin Film Transistor) which is a switching element for driving each pixel, an alignment film (not shown), an optical sensor element 330, and the like.

表示一体型入力装置108では、バックライト310からの光を光源として利用して、検出対象面300a上に置かれた物体の画像情報(形状・色彩など)を取得する。つまり、バックライト310から照射され液晶パネル320を透過した光は、検出対象面300a上の物体において反射される。各画素のR(赤)・G(緑)・B(青)ごとに設けられた光センサ素子330は、反射光を検知し、各素子で検出された波長成分に基づき検出対象面300a上に置かれた物体の形状および色彩を認識することができる。検出対象面300aに置かれた指やペン120が描画する軌跡のデータは座標データとして読取る場合には、陰影情報のみを検知すればよいので、光センサ素子330は各画素に一個設けられる。このように、検出対象面300a上における指またはペン120の描画データは、時系列の座標データとして入力される。   The display-integrated input device 108 uses the light from the backlight 310 as a light source, and acquires image information (shape, color, etc.) of an object placed on the detection target surface 300a. That is, the light emitted from the backlight 310 and transmitted through the liquid crystal panel 320 is reflected by the object on the detection target surface 300a. An optical sensor element 330 provided for each R (red), G (green), and B (blue) of each pixel detects reflected light and is detected on the detection target surface 300a based on the wavelength component detected by each element. The shape and color of the placed object can be recognized. When the data of the locus drawn by the finger or the pen 120 placed on the detection target surface 300a is read as coordinate data, only the shadow information needs to be detected, so that one optical sensor element 330 is provided for each pixel. Thus, the drawing data of the finger or pen 120 on the detection target surface 300a is input as time-series coordinate data.

表示一体型入力装置108は図5の構成に限定されず、図6の抵抗膜式アナログタッチパネルの構成であってもよい。図6の構成の詳細は、特開2004−213312号公報に開示がされる。   The display-integrated input device 108 is not limited to the configuration of FIG. 5, and may be the configuration of the resistive analog touch panel of FIG. 6. Details of the configuration of FIG. 6 are disclosed in Japanese Patent Application Laid-Open No. 2004-213312.

簡単に説明すると、図6の表示一体型入力装置108は、タブレット119に相当のタッチパネル10、下シート11、上シート12、X座標検知回路13、Y座標検知回路14、および制御部15を備える。   In brief, the display-integrated input device 108 in FIG. 6 includes a touch panel 10 equivalent to the tablet 119, a lower sheet 11, an upper sheet 12, an X coordinate detection circuit 13, a Y coordinate detection circuit 14, and a control unit 15. .

タッチパネル10は、図6に示すように、下シート11と上シート12との2枚の透明な抵抗膜を離間して備え、上シート12を形成する抵抗膜の任意の位置をペン120や指などで押下したときに、その押下された位置で2枚の抵抗膜が接触するように構成されている。2枚の抵抗膜であるシート11と12には、それぞれ、Y座標検知回路14とX座標検知回路13とが接続されている。   As shown in FIG. 6, the touch panel 10 includes two transparent resistive films, a lower sheet 11 and an upper sheet 12, which are separated from each other, and an arbitrary position of the resistive film forming the upper sheet 12 is placed with a pen 120 or a finger. When pressed by, for example, two resistive films are in contact with each other at the pressed position. A Y-coordinate detection circuit 14 and an X-coordinate detection circuit 13 are connected to the sheets 11 and 12, which are two resistive films, respectively.

このように構成されるタッチパネル10は、2枚のシートが接触すると、一方の抵抗膜に印可された基準電圧が他方の抵抗膜で分圧され、その分圧された電圧を検出することによりXY座標の算出を行うように構成されている。したがって、タブレット109上における指またはペン120の描画データは、X座標検知回路13、Y座標検知回路14および制御部15を介して時系列の座標データとして導出される。   In the touch panel 10 configured in this manner, when two sheets come into contact with each other, the reference voltage applied to one resistance film is divided by the other resistance film, and XY is detected by detecting the divided voltage. Coordinates are calculated. Accordingly, the drawing data of the finger or pen 120 on the tablet 109 is derived as time-series coordinate data via the X coordinate detection circuit 13, the Y coordinate detection circuit 14, and the control unit 15.

タッチパネルへの接触がない場合、2枚のシートが接触しないので座標検出の電圧は検出されず、その結果、電圧の有無を検出すればタッチパネル10への接触の有無(後述のペンダウン/アップ)を検出することができる。X座標検知回路13、Y座標検知回路14および制御部15を介して導出される時系列の座標データは、後述の入力処理部280に与えられる。   When there is no contact with the touch panel, the two sheets do not come into contact, so the voltage for coordinate detection is not detected. As a result, if the presence or absence of voltage is detected, the presence or absence of contact with the touch panel 10 (pen down / up described later) is detected. Can be detected. Time-series coordinate data derived through the X coordinate detection circuit 13, the Y coordinate detection circuit 14, and the control unit 15 is provided to an input processing unit 280 described later.

(携帯電話100の機能構成)
図7を参照して携帯電話100の機能構成を説明する。
(Functional configuration of mobile phone 100)
A functional configuration of the mobile phone 100 will be described with reference to FIG.

携帯電話100は、勝敗判定部211を含むアプリケーション部210、送信処理部221および受信処理部222を含む通信部220、UI(User Interfaceの略)処理部230、表示処理部240、表示処理部240に関連して設けられる表示用メモリ250、描画消去部260、タイマ処理部270および入力処理部280を備える。これらの各部の機能は予めプログラム・データとして記憶部103の所定記憶領域に格納されており、CPU106Aがこれらプログラム・データを記憶部103から読出し、実行することにより、各部の機能が実現される。なお、図7においては、CPU106Aが有する各部とデータ・情報を入出力する周辺回路部のみが示される。   The mobile phone 100 includes an application unit 210 including a win / loss determination unit 211, a communication unit 220 including a transmission processing unit 221 and a reception processing unit 222, a UI (abbreviation of user interface) processing unit 230, a display processing unit 240, and a display processing unit 240. A display memory 250, a drawing erasing unit 260, a timer processing unit 270, and an input processing unit 280. The functions of these units are stored in advance in a predetermined storage area of the storage unit 103 as program data, and the functions of the respective units are realized by the CPU 106A reading these program data from the storage unit 103 and executing them. In FIG. 7, only the peripheral circuit unit for inputting / outputting data / information to / from each unit of the CPU 106A is shown.

記憶部103には、入力デバイス情報103A、変数情報103Bおよび問題情報103Cが格納される。アプリケーション部210は、記憶部103に格納された入力デバイス情報103A、変数情報103Bおよび問題情報103Cに従い、所定のアプリケーションプログラムを実行する。本実施の形態では、このアプリケーションプログラムは、間違い探しのゲームプログラムである。問題情報103Cは、間違い探しの絵柄を示す画像情報104A、画像情報104Aにより表示される画像における間違い箇所の座標位置のデータANSx,ANSy、および間違い箇所の大きさ(サイズ)のデータANSzを含む。   The storage unit 103 stores input device information 103A, variable information 103B, and problem information 103C. The application unit 210 executes a predetermined application program in accordance with the input device information 103A, variable information 103B, and problem information 103C stored in the storage unit 103. In the present embodiment, this application program is a game program for searching for mistakes. The problem information 103C includes image information 104A indicating a pattern for finding an error, data ANSx and ANSy of the coordinate position of the error location in the image displayed by the image information 104A, and data ANSz of the size (size) of the error location.

通信部220は、通信デバイス101を介して、外部の携帯電話100と通信する。
UI処理部230は、表示一体型入力装置108のタブレット119上におけるプレイヤのペン120などの操作に応じた描画のデータを入力処理部280を介して入力する。また、表示処理部240を表示用メモリ250に格納された表示用データをディスプレイ107に表示するよう制御する。
The communication unit 220 communicates with the external mobile phone 100 via the communication device 101.
The UI processing unit 230 inputs drawing data according to the operation of the player's pen 120 or the like on the tablet 119 of the display-integrated input device 108 via the input processing unit 280. Further, the display processing unit 240 is controlled to display the display data stored in the display memory 250 on the display 107.

UI処理部230は、タブレット119上におけるペン120の操作によるストロークの情報を、すなわち時系列の座標データを入力処理部280を介して入力し記憶部103の所定記憶領域に格納するためのストローク記憶処理部231、記憶部103に格納されたストロークの情報を解析し、解析結果を出力するストローク解析部232、ストローク解析部232の解析結果に基づき、間違い探しの問題に対して正答したか誤答したかを判定するための正誤答判定部233を含む。   The UI processing unit 230 inputs stroke information by operating the pen 120 on the tablet 119, that is, stroke data for inputting time-series coordinate data via the input processing unit 280 and storing it in a predetermined storage area of the storage unit 103. Based on the analysis result of the stroke analysis unit 232 and the stroke analysis unit 232 that analyzes the stroke information stored in the processing unit 231 and the storage unit 103 and outputs the analysis result, whether or not the answer is correct A correct / incorrect answer determination unit 233 for determining whether or not the answer has been made is included.

描画消去部260は、表示処理部240を介してディスプレイ107に描画されたストロークの軌跡を消去するよう動作する。   The drawing erasing unit 260 operates to erase the stroke locus drawn on the display 107 via the display processing unit 240.

タイマ処理部270は、計時部105から与えられる計時データに基づき所定時間を計時する。   The timer processing unit 270 measures a predetermined time based on the timing data given from the timing unit 105.

(記憶部の内容)
図8と図9には、記憶部103に格納される情報の一例が示される。ここでは入力デバイス情報103Aと変数情報103Bについて説明する。
(Contents of storage unit)
8 and 9 show an example of information stored in the storage unit 103. FIG. Here, the input device information 103A and the variable information 103B will be described.

図8を参照して入力デバイス情報103Aは、携帯電話100が備える入力デバイスの種類(タイプ)を示すために予め値が設定される変数DEVTP、ペン120がタブレット109上で移動していないと判定するための基準となる距離値を指す変数SAMEPOS、備える入力デバイスで所定大きさの○を描画する操作をする場合の所要時間の基準値を指す変数OPTM、○が描画されたと判定するための描画開始点と終了点の間の距離値を指す変数CIRCLOSE、変数OKPOSおよび変数OKSZを含む。入力デバイス情報103Aに関して、変数DEVTPの値に応じた他の変数の値、すなわち入力デバイスに固有である他の変数の値が設定される。他の変数の値は、実験などにより予め検出されて、記憶部103に格納される。   Referring to FIG. 8, input device information 103 </ b> A determines that variable DEVTP and pen 120 whose values are set in advance to indicate the type (type) of the input device included in mobile phone 100 has not moved on tablet 109. A variable SAMEPOS that points to a reference distance value, a variable OPTM that points to a reference value for the required time when an operation is performed to draw a circle of a predetermined size with an input device, and a drawing to determine that the circle is drawn Includes variable CIRCLOSE, variable OKPOS, and variable OKSZ that point to the distance between the start and end points. Regarding the input device information 103A, the value of another variable corresponding to the value of the variable DEVTP, that is, the value of another variable unique to the input device is set. The values of other variables are detected in advance by experiments or the like and stored in the storage unit 103.

変数DEVTPは、入力デバイスのタイプとして、マウスの場合は値:01、図6の抵抗膜の装置の場合は値:20、図5の光センサとペン120の組合せの場合は値:30、および図5の光センサと指の組合せの場合には値:31を取る。   The variable DEVTP has a value of 01 for the mouse, a value of 20 for the resistive film device of FIG. 6, a value of 30 for the combination of the optical sensor and the pen 120 of FIG. In the case of the combination of the optical sensor and the finger in FIG.

変数OKPOSは、間違い箇所が指定されたと判定するための、正解の間違い箇所とプレイヤの指定箇所との基準距離のデータを指す。変数OKSZは、間違い箇所が指定されたと判定するための、正解の間違い箇所のサイズとプレイヤの指定箇所である○のサイズとの許容距離を示す。   The variable OKPOS indicates data of a reference distance between a correct wrong place and a player's designated place for determining that the wrong place has been designated. The variable OKSZ indicates an allowable distance between the size of the correct wrong place and the size of the circle designated by the player for determining that the wrong place has been designated.

上述したように、入力デバイスに固有である他の変数の値が入力デバイス情報103Aとして設定されることにより、同種デバイスでも、そのデバイスの実現の仕方(方式)が異なると各変数の値に生じる差、さらには、同じ方式でのデバイスでも、入力感度等に係るパラメータの設定状況によっても生じる差を、吸収することができる。   As described above, the values of other variables unique to the input device are set as the input device information 103A, so that even if the same type of device is used, if the method (method) of realizing the device is different, the value of each variable is generated. Differences, and even differences caused by the setting status of parameters relating to input sensitivity, etc. can be absorbed by devices of the same method.

たとえば、図5の光センサ液晶方式のタッチパネルの場合、たとえば、操作物体として、「ペン」か「指」か等(入力操作の物体かどうかの判定するため)の入力感度等に係るパラメータ設定(デバイス調整)が可能となっているのが一般的で、その設定状況により、一連操作を完了するまでに平均的にかかる時間は異なる。この相違を相殺するために、上述した他の変数に、入力感度等に係るパラメータ設定状況に応じた値が予め設定される。一方、図6の抵抗膜方式のタッチパネルでは、一般的には、出荷時に工場などで調整された後は、入力感度等に係るパラメータがユーザによって設定されることはない。すなわち、一連操作を完了するまでに平均的にかかる時間は、出荷後、ほぼ同じとなるであろう。したがって、上述した他の変数には、変数DEVTPに応じた値が一旦設定がされると、その後は変更されることはないであろう。   For example, in the case of the optical sensor liquid crystal type touch panel in FIG. 5, for example, parameter setting related to input sensitivity such as “pen” or “finger” as an operation object (to determine whether the object is an input operation) ( Device adjustment) is generally possible, and the average time required to complete a series of operations varies depending on the setting status. In order to offset this difference, a value corresponding to the parameter setting status related to input sensitivity or the like is set in advance in the other variables described above. On the other hand, in the resistive film type touch panel of FIG. 6, generally, after adjustment at the factory or the like at the time of shipment, parameters relating to input sensitivity and the like are not set by the user. That is, the average time taken to complete a series of operations will be approximately the same after shipment. Therefore, once the value according to the variable DEVTP is set for the other variables described above, it will not be changed thereafter.

図9には、変数情報103Bの一例が示される。変数情報103Bは、データ群E1、E2およびE3を含む。データ群E1は、当該携帯電話100の入力デバイスの情報およびプレイヤの操作に関する情報の変数を含む。   FIG. 9 shows an example of the variable information 103B. The variable information 103B includes data groups E1, E2, and E3. The data group E1 includes information on input devices of the mobile phone 100 and information variables related to player operations.

データ群E2は、当該携帯電話100と対戦する相手プレイヤの携帯電話100の入力デバイスの情報および相手プレイヤの操作に関する情報の変数を含む。データ群E2のデータ群E1の変数と同一名の変数は、データ群E1において説明したのと同様のデータを指示する。   The data group E2 includes variables of information on the input device of the mobile phone 100 of the opponent player who competes with the mobile phone 100 and information on the operation of the opponent player. The variable having the same name as the variable of the data group E1 of the data group E2 indicates the same data as described in the data group E1.

データ群E3は、プレイヤの入力デバイス操作を検出するための変数を含む。具体的には、タイマ処理部270の稼働を指示するフラグの変数TimerF、タブレット119上のペン120などの描画の軌跡を指す座標データの記憶個数を指示する変数cnt、当該座標データの記憶用バッファである配列型の変数I_BFx[],I_BFy[]、プレイヤが○で囲んだ箇所が間違い箇所(正答箇所)かどうかを判定する際に利用される変数Xl,Yl,Xh,Yh、POINTsz、POINTx,POINTy、相手プレイヤの携帯電話100から受信した座標データが最初の入力イベントであるか、すなわちペン120のタブレット119上へのダウン操作であるかどうかを判定する際に参照される変数IFlag、相手プレイヤの携帯電話100において直前に入力された座標データを記憶するための変数OS_x,OS_y、相手プレイヤの携帯電話100において今回入力された座標データを記憶するための変数NS_x,NS_yを含む。   The data group E3 includes variables for detecting an input device operation by the player. Specifically, a variable TimerF of a flag for instructing the operation of the timer processing unit 270, a variable cnt for indicating the number of coordinate data stored indicating a drawing locus such as the pen 120 on the tablet 119, and a buffer for storing the coordinate data Array type variables I_BFx [], I_BFy [], and variables Xl, Yl, Xh, Yh, POINTsz, POINTx used when the player circles the circled part to determine whether it is an incorrect part (correct answer part) , POINTy, a variable IFlag that is referred to when determining whether the coordinate data received from the mobile phone 100 of the opponent player is the first input event, that is, a down operation of the pen 120 on the tablet 119, The variables OS_x and OS_y for storing the coordinate data input immediately before on the player's mobile phone 100 and the coordinate data input this time on the mobile phone 100 of the opponent player are stored. Of variable NS_x, including NS_y.

(表示画面の例示)
図10には、アプリケーション部210による間違い探しゲームのプログラム実行時のディスプレイ107の表示画面の一例が示される。図10のディスプレイ107の表示領域は、上下2つに分割されて、分割された各領域に画像が表示される。
(Example of display screen)
FIG. 10 shows an example of a display screen on the display 107 when the application unit 210 executes the mistake search game program. The display area of the display 107 in FIG. 10 is divided into upper and lower parts, and an image is displayed in each of the divided areas.

ディスプレイ107の上半分には、基準の絵柄を指す基準画像が表示され、下半分には間違い箇所を探索して指定するための対象画像が表示される。対象画像は、基準画像の絵柄とは異なる箇所(間違い箇所)を含んでおり、プレイヤは、対象画像において間違い箇所を探索して、その箇所をペン120または指を操作して○で囲んで指定することにより、解答を入力することができる。   A reference image indicating a reference pattern is displayed on the upper half of the display 107, and a target image for searching for and specifying an error location is displayed on the lower half. The target image includes a portion (wrong portion) different from the pattern of the reference image, and the player searches for the wrong portion in the target image and designates the portion by enclosing it with a circle by operating the pen 120 or the finger. By doing so, the answer can be input.

図11および図12には、間違い探しゲームにおける本実施の形態に係る正答・誤答判定の一例が示される。ディスプレイ107の上段に図11(A)の基準画像が表示されて、その下段には図11(B)または(C)の対象画像が表示されたと想定する。   FIG. 11 and FIG. 12 show an example of correct / incorrect answer determination according to the present embodiment in an error search game. It is assumed that the reference image of FIG. 11A is displayed on the upper stage of the display 107 and the target image of FIG. 11B or 11C is displayed on the lower stage thereof.

図11(B)の対象画像が表示された場合、図11(A)と(B)の両画像を照合すると、対象画像における間違いは“家のドア”の箇所であることがわかる。プレイヤは図12(A)に示されるように、“家のドア”の箇所を○で囲んで指示することにより、解答(正答)を入力することができる。このとき、図12(B)に示すように“家”全体を○で囲んでしまった場合には、本実施の形態においては誤答であると判定される。つまり、正答(“ドア”)の位置およびサイズとは、異なる位置およびサイズを指定したと判定し、誤答であると判定される。   When the target image of FIG. 11B is displayed, comparing both the images of FIGS. 11A and 11B, it can be seen that the error in the target image is the location of the “door of the house”. As shown in FIG. 12A, the player can input an answer (correct answer) by giving an instruction by enclosing the location of the “house door” with a circle. At this time, as shown in FIG. 12B, if the entire “house” is circled, it is determined as an incorrect answer in this embodiment. That is, it is determined that a position and size different from the position and size of the correct answer (“door”) are designated, and it is determined that the answer is incorrect.

一方、下段に図11(C)の対象画像が表示された場合、図11(A)と(C)の両画像を比較すると、図11(C)の対象画像において“家”の大きさが基準画像とは相違し、“家”自体が間違い箇所であることがわかる。したがって、プレイヤが図12(C)に示されるように“家”全体を○で囲むことにより解答を入力した場合には、正答と判定される。一方、図12(D)のように、家の“ドア”だけを○で囲むことにより解答を入力した場合には、本実施の形態においては誤答であると判定される。つまり、正答(“家”)の位置およびサイズとは、異なる位置およびサイズを指定したと判定し、誤答であると判定される。   On the other hand, when the target image of FIG. 11C is displayed in the lower row, when the images of FIGS. 11A and 11C are compared, the size of the “house” in the target image of FIG. Unlike the reference image, it can be seen that the “house” itself is the wrong place. Therefore, when the player inputs an answer by enclosing the entire “house” with a circle as shown in FIG. On the other hand, as shown in FIG. 12D, when an answer is input by surrounding only the “door” of the house with a circle, it is determined as an incorrect answer in this embodiment. That is, it is determined that a position and size different from the position and size of the correct answer (“house”) are designated, and it is determined that the answer is an incorrect answer.

図10〜図12では、画面は上下に分割されるとしているが、左右に2分割されてもよい。   10 to 12, the screen is divided into upper and lower parts, but may be divided into two parts on the left and right.

上述したように、本実施の形態では、「間違い箇所」と「間違いの大きさ」を意味するプレイヤの入力デバイス操作に基づき、正答・誤答を判定する。   As described above, in the present embodiment, the correct / incorrect answer is determined based on the input device operation of the player, which means “error location” and “magnitude of error”.

(処理フローチャート)
次に、図13〜図20のフローチャートに従い、図2のステップS018において本実施の形態に係る携帯電話100Aと相手プレイヤの携帯電話100Cとにおいて間違い探しのゲームプログラムが実行される場合の動作について説明する。図21には、このフローチャートに従うプログラムが実行される場合において、携帯電話100A(端末A)と100C(端末C)との間における通信手順の概略シーケンスを示す。
(Processing flowchart)
Next, according to the flowcharts of FIGS. 13 to 20, the operation when the game program for searching for an error is executed in the mobile phone 100A according to the present embodiment and the mobile phone 100C of the opponent player in step S018 of FIG. To do. FIG. 21 shows a schematic sequence of communication procedures between the mobile phones 100A (terminal A) and 100C (terminal C) when the program according to this flowchart is executed.

なお、区別のために、データ群E1の各変数については、その名称の頭に‘My.’を付与し、データ群E2の各変数については、その名称の頭に‘His.’を付与する。また、図13〜図20に示すフローチャートに従うプログラムは、予め記憶部103の所定記憶領域に格納されており、CPU106Aがこれらプログラムを記憶部103から読出し、実行することにより、各部の処理が実現される。   For distinction, each variable of the data group E1 is given “My.” At the beginning of its name, and each variable of the data group E2 is given “His.” At the beginning of its name. . The programs according to the flowcharts shown in FIGS. 13 to 20 are stored in advance in a predetermined storage area of the storage unit 103, and the CPU 106A reads these programs from the storage unit 103 and executes them, thereby realizing the processing of each unit. The

ここでは、記憶部103の間違い探しゲームのための問題情報103Cは、ディスプレイ107に表示されるべき基準画像と対象画像の情報104A、および当該画像情報104Aに対応して、当該画像情報における間違い箇所の位置を指すデータ104B、および間違い箇所である絵柄の大きさ(サイズ)を指すデータ104Cを含む。   Here, the problem information 103C for the error finding game in the storage unit 103 corresponds to the reference image to be displayed on the display 107, the target image information 104A, and the error information in the image information corresponding to the image information 104A. Data 104B indicating the position of the image, and data 104C indicating the size (size) of the pattern that is the error location.

より具体的には、データ104Bは、正答と判定するべき○の座標を指示する変数ANSx,ANSyを含む。データ104Cは、対象画像における正答と判定するべき○のサイズ(面積)を指す変数ANSzを含む。   More specifically, the data 104B includes variables ANSx and ANSy that indicate the coordinates of ◯ to be determined as the correct answer. The data 104C includes a variable ANSz indicating the size (area) of ◯ to be determined as a correct answer in the target image.

ここでは、携帯電話100Aのプレイヤが自己が有する間違い探しの問題情報103Cについて携帯電話100Cのプレイヤに対戦を申し込み、携帯電話100Cのプレイヤは申し込みを受けたと想定する。   Here, it is assumed that the player of the mobile phone 100A applies for a match with the player of the mobile phone 100C regarding the problem-finding problem information 103C that the mobile phone 100A has, and the player of the mobile phone 100C has received the application.

(全体処理)
まず、携帯電話100AのCPU106Aは、操作部110のプレイヤ操作により、間違い探しのゲームプログラムが起動されたことを検知すると、アプリケーション部210を起動する。
(Overall processing)
First, the CPU 106A of the mobile phone 100A activates the application unit 210 when detecting that a game program for finding a mistake is activated by a player operation of the operation unit 110.

起動されたアプリケーション部210は、記憶部103から問題情報103Cを読出し、読出した問題情報103Cを通信部220に出力する。   The activated application unit 210 reads the problem information 103C from the storage unit 103, and outputs the read problem information 103C to the communication unit 220.

通信部220の送信処理部221は、与えられる問題情報103Cを、通信デバイス101を介して、相手プレイヤの携帯電話100Cに送信する。携帯電話100Cでは、携帯電話100Aから受信した問題情報103Cを記憶部103に格納する(図13と図21のステップS1参照)。   The transmission processing unit 221 of the communication unit 220 transmits the given problem information 103C to the mobile phone 100C of the opponent player via the communication device 101. In the mobile phone 100C, the problem information 103C received from the mobile phone 100A is stored in the storage unit 103 (see step S1 in FIGS. 13 and 21).

次に、アプリケーション部210は、記憶部103から入力デバイス情報103Aを読出し、通信部220に与える。通信部220の送信処理部221は、与えられた入力デバイス情報103Aを入力し、通信デバイス101を介し携帯電話100Cに送信する(ステップS3)。このとき、携帯電話100Cにおいても、図21に示されるように、同様に、入力デバイス情報103Aの読出と、相手プレイヤの携帯電話100Aへの送信とが行なわれる(ステップS3)。したがって、図21のステップS3のシーケンスで示されるように、携帯電話100Aと100Cは、それぞれ相手から入力デバイス情報103Aを受信し、受信した相手側の入力デバイス情報を、変数情報103Bのデータ群E2として、記憶部103に格納する。これにより、携帯電話100Aと100Cにおいて相互の入力デバイス情報103Aが交換される。   Next, the application unit 210 reads the input device information 103 </ b> A from the storage unit 103 and gives it to the communication unit 220. The transmission processing unit 221 of the communication unit 220 inputs the given input device information 103A and transmits it to the mobile phone 100C via the communication device 101 (step S3). At this time, as shown in FIG. 21, the mobile phone 100C similarly reads out the input device information 103A and transmits it to the mobile phone 100A of the opponent player (step S3). Accordingly, as shown in the sequence of step S3 in FIG. 21, the mobile phones 100A and 100C each receive the input device information 103A from the other party, and the received input device information on the other party side is used as the data group E2 of the variable information 103B. Is stored in the storage unit 103. Thereby, the mutual input device information 103A is exchanged between the mobile phones 100A and 100C.

続いて携帯電話100Aのアプリケーション部210は、ゲームの開始操作がされたか否かを、入力処理部280を介して与えられる指示信号に基づき判定する(ステップS5)。または、通信デバイス101を介して、相手プレイヤの携帯電話100Cからゲームの開始操作の指示信号を受信したか否かを判定する(ステップS5)。判定の結果、ゲーム開始操作がされない、または携帯電話100Cから開始操作の信号が受信がされない間は、ステップS5の処理が繰返されるが、ゲーム開始操作がされた、または開始操作信号を受信したと判定されると(ステップS5でYES)、ゲームが開始される。ステップS5の処理は、相手プレイヤの携帯電話100Cにおいても同様に行なわれる。   Subsequently, the application unit 210 of the mobile phone 100A determines whether or not a game start operation has been performed based on an instruction signal given via the input processing unit 280 (step S5). Alternatively, it is determined whether or not an instruction signal for starting the game is received from the mobile phone 100C of the opponent player via the communication device 101 (step S5). As a result of the determination, while the game start operation is not performed or the start operation signal is not received from the mobile phone 100C, the process of step S5 is repeated, but the game start operation is performed or the start operation signal is received. If determined (YES in step S5), the game is started. The process of step S5 is performed in the same manner on the mobile phone 100C of the opponent player.

ゲームが開始されると、携帯電話100Aおよび100Cのそれぞれにおいては、アプリケーション部220は、表示処理部240に画像データに基づく画像を表示させる。具体的には、表示処理部240に、表示用メモリ250において、記憶部103の問題情報103Cが示す画像情報104Aに基づく画像データを展開させて、展開させた表示用データを表示用メモリ250から読出させて、ディスプレイ107に表示させるよう制御する(ステップS7)。これにより、携帯電話100Aおよび100Cのディスプレイ107において、たとえば図10に示すような基準画像と対象画像が表示される。   When the game is started, in each of mobile phones 100A and 100C, application unit 220 causes display processing unit 240 to display an image based on the image data. Specifically, the display processing unit 240 expands the image data based on the image information 104A indicated by the problem information 103C in the storage unit 103 in the display memory 250, and the expanded display data is transferred from the display memory 250. It controls to read and display on the display 107 (step S7). Thereby, for example, the reference image and the target image as shown in FIG. 10 are displayed on the display 107 of the cellular phones 100A and 100C.

続いて、アプリケーション部210は、UI処理部230と受信処理部222を稼働する(ステップS9)。   Subsequently, the application unit 210 operates the UI processing unit 230 and the reception processing unit 222 (step S9).

続いてアプリケーション部210は、UI処理部230および通信部220の両処理部から、処理終了信号を受信するまで待機する(ステップS11でNO)。終了信号を受信したと判定すると(ステップS11でYES)、アプリケーション部210は勝敗判定部211を稼働する(ステップS13)。勝敗判定部211の処理終了後は、一連の間違い探しゲームのプログラムに関する処理は終了する。   Subsequently, the application unit 210 stands by until a processing end signal is received from both the UI processing unit 230 and the communication unit 220 (NO in step S11). If it is determined that the end signal has been received (YES in step S11), the application unit 210 operates the win / loss determination unit 211 (step S13). After the process of the win / loss determination unit 211 is completed, the process related to the series of mistake search game programs ends.

図21に示すように、ステップS1〜ステップS13の処理は、P2P通信を行なう携帯電話100Aと100Cのそれぞれにおいて、並行して、同時に行なわれる。   As shown in FIG. 21, the processes in steps S1 to S13 are performed simultaneously in parallel in mobile phones 100A and 100C that perform P2P communication.

以下においては、説明を簡単にするために、携帯電話100Aにおける処理のみについて説明するが、実際には、並行して、携帯電話100Cにおいても、携帯電話100Aと同様の処理が実行されている。   In the following, in order to simplify the explanation, only the processing in the mobile phone 100A will be described, but actually, the same processing as that in the mobile phone 100A is also executed in parallel with the mobile phone 100C.

(勝敗判定処理)
図14には、勝敗判定部211による処理フローチャートが示される。
(Win / Loss Judgment Processing)
FIG. 14 shows a processing flowchart by the win / loss determination unit 211.

勝敗判定部211は、ディスプレイ107に画像情報104Aの問題を提示してから解答の入力操作を完了し正答と判定されるまでの所要時間(以下、正答操作時間という)を示す変数My.ANSTMの値と、タブレット19上でペン120を操作して○で囲む操作に対する基準時間の変数My.OPTMの値との差分と、相手プレイヤの携帯電話100Cから受信した正答操作時間を示す変数His.ANSTMの値と携帯電話100Cにおける入力デバイスを操作して○で囲む操作に対する基準時間を示す変数His.OPTMの値との差分とを比較する。そして比較結果に基づき、両差分が等しいか否かを判定する(ステップS131)。両差分が等しいと判定すると(ステップS131でYES)、すなわち問題情報103Cのゲームの対戦結果はドロー(引き分け)であると判定すると、勝敗判定部211は、表示処理部240を介してディスプレイ107に‘ドロー’のデータ表示を行なう(ステップS132)。   The win / loss determination unit 211 presents a variable My.ANSTM indicating a required time (hereinafter referred to as a correct answer operation time) from when the question of the image information 104A is presented on the display 107 until the answer input operation is completed and determined as a correct answer. The variable His.ANSTM indicating the difference between the value and the value of the variable My.OPTM of the reference time for the operation surrounded by a circle by operating the pen 120 on the tablet 19 and the correct answer operation time received from the mobile phone 100C of the opponent player And the difference between the value of the variable His.OPTM indicating the reference time for the operation surrounded by the circle by operating the input device in the mobile phone 100C. Based on the comparison result, it is determined whether or not the two differences are equal (step S131). If it is determined that the two differences are equal (YES in step S131), that is, if it is determined that the game result of the problem information 103C is a draw (draw), the win / loss determination unit 211 is displayed on the display 107 via the display processing unit 240. “Draw” data is displayed (step S132).

一方、両差分は等しくないと判定すると(ステップS131でNO)、比較結果に基づき、「変数My.ANSTMの値と変数My.OPTMの値との差分<変数His.ANSTMの値と変数His.OPTMの値との差分」の条件が成立するか否かを判定する(ステップS133)。この条件が成立すると判定すると(ステップS133でYES)、すなわち勝ちと判定すると、勝敗判定部211は、表示処理部240を介して、ディスプレイ107にWIN(勝ち)の表示を行なう。一方、当該条件が成立しないと判定すると(ステップS133でNO)、ディスプレイ107にLOST(負け)の表示を行なう(ステップS135)。ステップS132、S134およびS136の処理を終了後は、図13の処理に戻る。   On the other hand, if it is determined that the two differences are not equal (NO in step S131), based on the comparison result, “the difference between the value of the variable My.ANSTM and the value of the variable My.OPTM <the value of the variable His.ANSTM and the variable His. It is determined whether or not the condition “difference from OPTM value” is satisfied (step S133). If it is determined that this condition is satisfied (YES in step S133), that is, if it is determined that the game is won, the win / loss determination unit 211 displays WIN (win) on the display 107 via the display processing unit 240. On the other hand, if it is determined that the condition is not satisfied (NO in step S133), LOST is displayed on the display 107 (step S135). After the processes of steps S132, S134, and S136 are completed, the process returns to the process of FIG.

このように、正答操作時間を競う場合に、各プレイヤが操作する入力デバイスの種類の相違から生じる、正答操作時間の差分の補正が行なわれた結果に基づいて、提示された問題に対する思考時間に従う勝敗判定ができる。   In this way, when competing for the correct answer operation time, the thinking time for the presented problem is obeyed based on the result of correcting the difference in correct answer operation time resulting from the difference in the type of input device operated by each player. Victory or defeat can be judged.

以下、実質的な正答操作時間を測定するための手順について説明する。
(UI処理)
UI処理部230の処理について図15のフローチャートに従い説明する。アプリケーション部210によってUI処理部230が稼働されると(ステップS9)、UI処理部230は、タイマ処理部270に指示して、計時部105の計時データに基づきゲームに対する正答を得るまでの時間をカウント開始させる(ステップS91、S92)。つまり、タイマカウントのために変数My.ANSTMの値を0に初期化し(ステップS91)、変数TimerFに値1を初期設定する(ステップS92)。
Hereinafter, a procedure for measuring a substantial correct answer operation time will be described.
(UI processing)
The processing of the UI processing unit 230 will be described with reference to the flowchart of FIG. When the UI processing unit 230 is activated by the application unit 210 (step S9), the UI processing unit 230 instructs the timer processing unit 270 to determine the time until a correct answer to the game is obtained based on the time measurement data of the time measuring unit 105. Counting is started (steps S91 and S92). That is, for the timer count, the value of the variable My.ANSTM is initialized to 0 (step S91), and the value 1 is initialized to the variable TimerF (step S92).

変数TimerFが値1を指示している期間は、後述の図20に示すように、タイマ処理部270によって、変数My.ANSTMの値が計時部105が出力する計時データに基づき1クロック単位でカウントアップされる。変数TimerFは正答の判定がされると値が0に設定されるので、変数My.ANSTMの最終値は、正答操作時間を示す。   As shown in FIG. 20 to be described later, the timer processing unit 270 counts the value of the variable My.ANSTM in units of one clock based on the time data output from the time measuring unit 105 as shown in FIG. Will be up. Since the value of the variable TimerF is set to 0 when the correct answer is determined, the final value of the variable My.ANSTM indicates the correct answer operation time.

続いて、UI処理部230は、ストローク記憶処理部231を稼働させる(ステップS93)。これにより、ストローク記憶処理部231は後述する図16に従う動作を開始する。   Subsequently, the UI processing unit 230 activates the stroke storage processing unit 231 (step S93). Thereby, the stroke storage processing unit 231 starts an operation according to FIG.

ストローク記憶処理部231の処理終了後に、UI処理部230は、ストローク解析部232を稼働させる(ステップS94)。これにより、ストローク解析部232は、後述の図17のフローチャートに従い動作する。   After the processing of the stroke storage processing unit 231 ends, the UI processing unit 230 activates the stroke analysis unit 232 (step S94). Thereby, the stroke analysis unit 232 operates according to a flowchart of FIG. 17 described later.

ストローク解析部232による処理の終了後、UI処理部230は、ストローク解析部232による解析結果を示すリターン値が解析が正常に終えたことを指す“OK”を示すか否かを判定する(ステップS95)。   After the processing by the stroke analysis unit 232 is completed, the UI processing unit 230 determines whether or not the return value indicating the analysis result by the stroke analysis unit 232 indicates “OK” indicating that the analysis is normally completed (step). S95).

“OK”を示すと判定すると(ステップS95でYES)、UI処理部230は、正誤答判定部233を稼働させる(ステップS96)。これにより、正誤答判定部233は、後述の図18のフローチャートに従う処理を行なう。この処理終了後、UI処理部230は、正誤答判定部233の判定結果を示すリターン値が、解答が正答であると判定したことを指す“OK”を指示するか否かを判定する(ステップS97)。   If it is determined that “OK” is indicated (YES in step S95), the UI processing unit 230 operates the correct / incorrect answer determination unit 233 (step S96). Thereby, the correct / incorrect answer determination unit 233 performs processing according to a flowchart of FIG. After this processing is completed, the UI processing unit 230 determines whether or not the return value indicating the determination result of the correct / incorrect answer determination unit 233 indicates “OK” indicating that the answer is determined to be a correct answer (Step S <b> 1). S97).

“OK”を指示すると判定すると(ステップS97でYES)、処理終了の信号をアプリケーション部210に出力する(ステップS98)。   If it is determined that “OK” is instructed (YES in step S97), a process end signal is output to the application unit 210 (step S98).

一方、ステップS95またはステップS97において、ストローク解析部232の解析結果を示すリターン値が解析が正常に終了しないことを示す“ERROR”を指すと判定すると(ステップS95でNO)、または正誤答判定部233の判定結果を示すリターン値が解答が誤答であると判定したことを示す“ERROR”を指すと判定すると(ステップS97でNO)、UI処理部230は描画消去部260を稼働する(ステップS99)。   On the other hand, if it is determined in step S95 or step S97 that the return value indicating the analysis result of the stroke analysis unit 232 indicates “ERROR” indicating that the analysis does not end normally (NO in step S95), or a correct / incorrect answer determination unit If it is determined that the return value indicating the determination result of 233 indicates “ERROR” indicating that the answer is determined to be an incorrect answer (NO in step S97), the UI processing unit 230 operates the drawing erasing unit 260 (step S97). S99).

描画消去部260は、稼動後、表示処理部240を介して、ディスプレイ107に表示されている描画(ペン120の軌跡)を消去する(ステップS99)。   After the operation, the drawing erasing unit 260 erases the drawing (the trajectory of the pen 120) displayed on the display 107 via the display processing unit 240 (step S99).

次に、UI処理部230は、描画消去の指示信号を通信部220の送信処理部221を介して相手プレイヤの携帯電話100Cに送信する(ステップS100)。その後、処理はステップS93に戻り、以降の処理が同様に行なわれる。   Next, the UI processing unit 230 transmits a drawing deletion instruction signal to the mobile phone 100C of the opponent player via the transmission processing unit 221 of the communication unit 220 (step S100). Thereafter, the process returns to step S93, and the subsequent processes are similarly performed.

これにより、ストローク解析部232により、タブレット119上のペン120の操作によるストロークは○を指していると判定できなかった場合(ステップS95でNO)、または正誤答判定部233により、○で示す解答について正誤の判定ができなかった場合(ステップS97)においては、ペン120の描画の表示がディスプレイ107から消去されて、解答のための処理が繰返されることになる。プレイヤはペン120の軌跡がディスプレイ107から消去されると、再度、解答のための入力デバイスの操作を行なう。   Accordingly, when the stroke analysis unit 232 cannot determine that the stroke by the operation of the pen 120 on the tablet 119 indicates “good” (NO in step S95), or the correct / incorrect answer determination unit 233 indicates the answer indicated by “good”. When the correct / incorrect determination cannot be made for (step S97), the display of the drawing of the pen 120 is erased from the display 107, and the process for answering is repeated. When the trajectory of the pen 120 is deleted from the display 107, the player again operates the input device for answering.

(ストローク記憶処理)
図16を参照して、ストローク記憶処理部231の処理について説明する。
(Stroke memory processing)
With reference to FIG. 16, the process of the stroke memory | storage process part 231 is demonstrated.

ストローク記憶処理部231は、タブレット119におけるペン120のストローク(ペン120のダウン〜アップまでをストロークという)によるペン120の軌跡を示す時系列の座標入力データを記憶する処理である。   The stroke storage processing unit 231 is a process of storing time-series coordinate input data indicating the trajectory of the pen 120 due to the stroke of the pen 120 in the tablet 119 (from down to up of the pen 120 is referred to as a stroke).

まず、ストローク記憶処理部231が稼働されると、変数cntに値0が初期設定される(ステップS931)。変数cntは、ペン120の軌跡を示す座標データの記憶個数をカウントするための変数であり、配列型変数I_BFx[],I_BFy[]の添え字(インデックス)として充てられる。   First, when the stroke storage processing unit 231 is activated, a value 0 is initially set to the variable cnt (step S931). The variable cnt is a variable for counting the number of stored coordinate data indicating the locus of the pen 120, and is used as a subscript (index) of the array type variables I_BFx [] and I_BFy [].

続いて、ペン120が、タブレット109上にダウンされたか否かを入力処理部280からの信号に基づき判定する(ステップS932)。これにより、監視後、初めて入力デバイスから座標データが出力されたか否かが判定される。ペン120のダウンが検出されると(ステップS932でYES)、ストローク記憶処理部231は、タブレット119上におけるペンダウンの座標位置を、入力処理部280からの入力信号に基づき検出し、検出したx座標およびy座標のデータを、それぞれ変数I_BFx[cnt],I_BFy[cnt]に代入する。そして、変数cntの値を+1更新する(ステップS933)。   Subsequently, it is determined based on a signal from the input processing unit 280 whether or not the pen 120 has been lowered onto the tablet 109 (step S932). Thus, it is determined whether or not coordinate data is output from the input device for the first time after monitoring. When the down of the pen 120 is detected (YES in step S932), the stroke storage processing unit 231 detects the coordinate position of the pen down on the tablet 119 based on the input signal from the input processing unit 280, and detects the detected x coordinate. And y-coordinate data are assigned to variables I_BFx [cnt] and I_BFy [cnt], respectively. Then, the value of the variable cnt is updated by +1 (step S933).

続いて、ストローク記憶処理部231は、入力した座標値(変数I_BFx[cnt],I_BFy[cnt])を通信部220の送信処理部221を介して相手プレイヤの携帯電話100Cに送信する(ステップS934)。   Subsequently, the stroke storage processing unit 231 transmits the input coordinate values (variables I_BFx [cnt], I_BFy [cnt]) to the mobile phone 100C of the opponent player via the transmission processing unit 221 of the communication unit 220 (step S934). ).

その後、ストローク記憶処理部231は、入力処理部280からの入力信号に基づきタブレット119上においてペン120がアップされたか否かを判定する(ステップS935)。この判定は、入力処理部280から直前に座標データが出力されてから、一定時間出力がないか否かに基づき判定される。一定時間出力がない、すなわちペンアップされたことが検出されると(ステップS935でYES)、ペンアップのイベント信号を相手プレイヤの携帯電話100Cに、送信処理部221を介して送信する(ステップS936)。その後、図15の処理に戻る。   Thereafter, the stroke storage processing unit 231 determines whether the pen 120 has been raised on the tablet 119 based on the input signal from the input processing unit 280 (step S935). This determination is made based on whether or not there is no output for a certain period after the coordinate data is output from the input processing unit 280 immediately before. If it is detected that there is no output for a certain period of time, that is, pen-up is performed (YES in step S935), a pen-up event signal is transmitted to the mobile phone 100C of the opponent player via the transmission processing unit 221 (step S936). ). Thereafter, the processing returns to FIG.

一方、タブレット119におけるペン120のアップが検出されないと(ステップS935でNO)、ストローク記憶処理部231は、現在、入力処理部280から入力している座標データの値と、直前に入力した座標データの値とが近似するか否かを判定する(ステップS937)。具体的には、現在の入力座標値と直前の入力座標値との差分と変数SAMEPOSで指示する値を比較し、比較結果に基づき、当該差分が変数SAMEPOSの値の範囲に収まるか否かに基づき、現在の入力座標と直前の入力座標とが近似する位置を指示しているか否かを判定する。   On the other hand, if the up of the pen 120 in the tablet 119 is not detected (NO in step S935), the stroke storage processing unit 231 presents the value of the coordinate data currently input from the input processing unit 280 and the coordinate data input immediately before. It is determined whether or not the value is approximate (step S937). Specifically, the difference between the current input coordinate value and the previous input coordinate value is compared with the value indicated by the variable SAMEPOS. Based on the comparison result, whether or not the difference falls within the range of the value of the variable SAMEPOS. Based on this, it is determined whether or not the current input coordinate and the previous input coordinate indicate an approximate position.

当該差分が変数SAMEPOSの値の範囲に収まる、すなわち両方の入力座標は近似位置を指示すると判定されると(ステップS937でYES)、すなわちペン120はペンダウンしているが動いていないと判定されると、処理はステップS935に戻り、以降の処理が同様に行なわれる。   If it is determined that the difference falls within the range of the value of the variable SAMEPOS, that is, both input coordinates indicate an approximate position (YES in step S937), that is, it is determined that the pen 120 is pen-down but not moving. Then, the process returns to step S935, and the subsequent processes are similarly performed.

一方、当該差分が変数SAMEPOSの値の範囲から外れる、すなわち両方の入力座標位置を示していないと判定がされると(ステップS937でNO)、すなわちプレイヤはペン120は軌跡を描いていると判定されると、ストローク記憶処理部231は、今回の入力座標値を、変数I_BFx[cnt],I_BFy[cnt]のそれぞれに代入し、その後、変数cntの値を+1更新する(ステップS938)。続いて、表示処理部240を介し、ディスプレイ107において、変数I_BFx[cnt],I_BFy[cnt]が示す今回入力した座標位置から、変数I_BFx[cnt-1],I_BFy[cnt-1]の値が示す直前に入力した座標位置の間にラインを描画する(ステップS939)。その後、処理はステップS934に移る。   On the other hand, if it is determined that the difference is out of the range of the value of the variable SAMEPOS, that is, does not indicate both input coordinate positions (NO in step S937), that is, the player determines that the pen 120 is drawing a trajectory. Then, the stroke storage processing unit 231 assigns the current input coordinate value to each of the variables I_BFx [cnt] and I_BFy [cnt], and then updates the value of the variable cnt by +1 (step S938). Subsequently, the values of the variables I_BFx [cnt-1] and I_BFy [cnt-1] are obtained from the currently input coordinate position indicated by the variables I_BFx [cnt] and I_BFy [cnt] on the display 107 via the display processing unit 240. A line is drawn between the coordinate positions input immediately before the display (step S939). Thereafter, the process proceeds to step S934.

このように、タブレット119上においてペン120のダウンが検出されてから、ペン120のアップが検出されないストローク入力期間は、ペン120によるタブレット119上の描画軌跡の座標データが記憶される。これにより、ペン120がダウンしてから、直後にアップが検出されるまでを1ストロークと見なし、1ストローク期間のペン軌跡を示す座標データが配列型変数I_BFx[cnt],I_BFy[cnt]に時系列に順次格納される。   As described above, the coordinate data of the drawing trajectory on the tablet 119 by the pen 120 is stored during the stroke input period in which the pen 120 is not detected after the pen 120 is detected to be down on the tablet 119. As a result, the period from when the pen 120 is down to when the up is detected immediately after is regarded as one stroke, and the coordinate data indicating the pen trajectory during the one-stroke period is stored in the array type variables I_BFx [cnt] and I_BFy [cnt]. Stored sequentially in series.

(ストローク解析処理)
ストローク解析部232の動作を、図17のフローチャートに従い説明する。
(Stroke analysis processing)
The operation of the stroke analysis unit 232 will be described with reference to the flowchart of FIG.

ストローク解析部232は、変数I_BFx[cnt],I_BFy[cnt]に格納されたペン軌跡のデータが、「○」の軌跡データであるか否かを検出する。   The stroke analysis unit 232 detects whether or not the pen locus data stored in the variables I_BFx [cnt] and I_BFy [cnt] is the locus data of “◯”.

具体的には、まず変数cntの値が4未満を指す否かが判定される(ステップS941)。4未満であると判定がされると(ステップS941でYES)、リターン値を“ERROR”として、処理は図15のステップS95に移る(ステップS947)。ここでは、ストローク解析のための必要な座標データ個数は4個以上であるとしているが、これは1例であり、5個以上としてもよい。   Specifically, it is first determined whether or not the value of the variable cnt indicates less than 4 (step S941). If it is determined that it is less than 4 (YES in step S941), the return value is set to “ERROR”, and the process proceeds to step S95 in FIG. 15 (step S947). Here, the number of coordinate data necessary for stroke analysis is four or more, but this is an example, and five or more may be used.

一方、変数cntの値が4以上であると判定されると(ステップ941でNO)、すなわち、ストロークを解析するのに十分にデータがサンプリングされたと判定されると、ペン軌跡の始点と終点の座標位置に基づき、変数CIRCLOSEの値の範囲で近似するか否かを判定する(ステップS942)。すなわち、変数I_BFx[0],I_BFy[0]が指す始点位置と、変数I_BFx[cnt],I_BFy[cnt]が指す終点位置との距離を求めて、その距離が変数CIRCLOSEの値の範囲内に該当するか否かを判定する。   On the other hand, if it is determined that the value of the variable cnt is 4 or more (NO in step 941), that is, if it is determined that the data is sufficiently sampled to analyze the stroke, the start point and end point of the pen locus are determined. Based on the coordinate position, it is determined whether to approximate within the range of the value of the variable CIRCLOSE (step S942). That is, the distance between the start point point indicated by the variables I_BFx [0] and I_BFy [0] and the end point point indicated by the variables I_BFx [cnt] and I_BFy [cnt] is obtained, and the distance is within the range of the value of the variable CIRCLOSE. It is determined whether it is applicable.

求めた距離が変数CIRCLOSEの値の範囲内にあり、始点位置と終点位置は近似すると判定されると(ステップS942でYES)、処理は後述のステップS943に移る。   If it is determined that the obtained distance is within the range of the value of the variable CIRCLOSE and the start point position and the end point position are approximate (YES in step S942), the process proceeds to step S943 described later.

距離が変数CIRCLOSEの値の範囲を超えており、始点位置と終点位置は近似しないと判定されると(ステップS942でNO)、ペン120の軌跡(ストローク)は○を示していないと判定されて、リターン値を“ERROR”として、処理は図15のステップS95に移る(ステップS947)。   If the distance exceeds the value range of the variable CIRCLOSE and it is determined that the start point position and the end point position are not approximated (NO in step S942), it is determined that the trajectory (stroke) of the pen 120 does not indicate a circle. Then, the return value is set to “ERROR”, and the process proceeds to step S95 in FIG. 15 (step S947).

ステップS943においては、配列型変数I_BFx[],I_BFy[]に格納された時系列の座標データから、ペン120で描かれた○の最右上端および最左下端のxy座標値を検索し、それぞれを変数Xl,Yl,Xh,Yhに代入する。これにより、ペン120で描かれた○に対応した4角形の対角の座標点のデータが変数Xl,Yl,Xh,Yhに格納される。   In step S943, the xy coordinate values of the upper right end and the lower left end of ○ drawn with the pen 120 are searched from the time-series coordinate data stored in the array type variables I_BFx [], I_BFy [], respectively. Is substituted into variables Xl, Yl, Xh, Yh. As a result, the data of the rectangular diagonal coordinate points corresponding to the circles drawn with the pen 120 are stored in the variables Xl, Yl, Xh, and Yh.

続いて、ストローク解析部232は、変数Xl,Yl,Xh,Yhの座標値で示される矩形の面積と重心座標とを算出し、算出した値のそれぞれを変数POINTszおよび変数POINTx,POINTyに代入する(ステップS944)。   Subsequently, the stroke analysis unit 232 calculates the rectangular area and the barycentric coordinates indicated by the coordinate values of the variables Xl, Yl, Xh, and Yh, and assigns the calculated values to the variable POINTsz and the variables POINTx and POINTy, respectively. (Step S944).

続いて、ストローク解析部232は、○で囲むイベント信号を、相手プレイヤの携帯電話100Cに送信する(ステップS945)。このとき、変数POINTsz、変数POINTxおよびPOINTyの値が代入されたパラメータper1、per2およびper3が当該イベント信号に付与されて、相手プレイヤの携帯電話100Cに送信される。その後、リターン値を“OK”として、図15のステップS95に移る(ステップS946)。   Subsequently, the stroke analysis unit 232 transmits an event signal surrounded by a circle to the mobile phone 100C of the opponent player (step S945). At this time, the parameters per1, per2, and per3 into which the values of the variables POINTsz and variables POINTx and POINTy are assigned are added to the event signal and transmitted to the mobile phone 100C of the opponent player. Thereafter, the return value is set to “OK”, and the process proceeds to step S95 in FIG. 15 (step S946).

このように、ペン120のストロークが○を描いていた場合には、その○の位置として重心座標値が算出され、○のサイズとして、その面積が算出される。   In this way, when the stroke of the pen 120 draws a circle, the barycentric coordinate value is calculated as the position of the circle, and the area is calculated as the size of the circle.

(正誤答判定処理)
次に、正誤答判定部233の処理について図18のフローチャートに従い説明する。
(Correct answer determination process)
Next, the processing of the correct / incorrect answer determination unit 233 will be described with reference to the flowchart of FIG.

正誤答判定部233は、対象画面上で解答としてペン120によって○で指定した箇所が、間違い箇所(正答)に一致するかをチェックし、チェック結果に基づき正答・誤答の出力をする。   The correct / incorrect answer determination unit 233 checks whether or not the location designated by the circle with the pen 120 as an answer on the target screen matches the incorrect location (correct answer), and outputs the correct / incorrect answer based on the check result.

具体的には、まず、変数POINTx,POINTyが指示する○の座標位置と、問題情報103Cから読出した変数ANSx,ANSyが指す座標位置との距離を算出し、その距離の値が変数My.OKPOSで示す値の範囲であるか否かが判定される(ステップS961)。変数My.OKPOSで指示する値の範囲内であると判定されると(ステップS961でYES)、変数POINTszが指示する○のサイズ値と、間違い箇所のエリアのサイズを指す変数ANSzの値とを比較して、比較結果に基づき、○のサイズ値が変数My.OKSZが指示する値の範囲内であるかが判定される(ステップS962)。変数My.OKSZの値の範囲であることが判定されると(ステップS962でYES)、正誤答判定部233は、表示処理部240を介して、ディスプレイ107に‘正答’の表示を行なう(ステップS963)。この表示後、変数TimerFの値に0が設定されて、タイマ処理部270によるタイマ計時が停止させられる(ステップS964)。   Specifically, first, the distance between the coordinate position indicated by ○ indicated by the variables POINTx and POINTy and the coordinate position indicated by the variables ANSx and ANSy read from the problem information 103C is calculated, and the value of the distance is the variable My.OKPOS. It is determined whether or not the value is in the range indicated by (step S961). If it is determined that it is within the range of the value indicated by the variable My.OKPOS (YES in step S961), the size value of ○ indicated by the variable POINTsz and the value of the variable ANSz indicating the size of the area of the error location are obtained. In comparison, based on the comparison result, it is determined whether the size value of ◯ is within the range of the value indicated by the variable My.OKSZ (step S962). If it is determined that the value is within the range of the variable My.OKSZ (YES in step S962), the correct / incorrect answer determination unit 233 displays “correct answer” on the display 107 via the display processing unit 240 (step S962). S963). After this display, 0 is set to the value of the variable TimerF, and the timer timing by the timer processing unit 270 is stopped (step S964).

続いて、正誤答判定部233は、正答イベント信号を、送信処理部221を介して携帯電話100Cに送信する(ステップS965)。この正答イベント信号には、変数My.ANSTMの値と、変数My.OPTMの値とを指すパラメータper1とper2とが付与されている。その後、リターン値として“OK”が設定されて、処理は図15のステップS97に移る(ステップS966)。   Subsequently, the correct / incorrect answer determination unit 233 transmits a correct answer event signal to the mobile phone 100C via the transmission processing unit 221 (step S965). This correct answer event signal is given parameters per1 and per2 indicating the value of the variable My.ANSTM and the value of the variable My.OPTM. Thereafter, “OK” is set as the return value, and the process proceeds to step S97 in FIG. 15 (step S966).

一方、ステップS961またはステップS962において、○の位置が間違い箇所の位置に該当しないと判定された場合(ステップS961でNO)、または指示した○のサイズが、間違い箇所として指定すべきエリアのサイズよりも大き過ぎる/小さい過ぎると判定された場合には(ステップS962でNO)、リターン値に“ERROR”が設定されて(ステップS967)処理は図15のステップS97に戻る。   On the other hand, if it is determined in step S961 or step S962 that the position of ○ does not correspond to the position of the wrong place (NO in step S961), or the indicated size of ○ is larger than the size of the area to be designated as the wrong place. Is too large / too small (NO in step S962), “ERROR” is set as the return value (step S967), and the process returns to step S97 in FIG.

なお、ステップS963で表示がされるとき、変数My.ANSTMと変数My.OPTMの差分を算出して、実質的な思考に要した実思考時間を求めて、これを表示し、また記憶してもよい。記憶した場合には、同一問題に対する記憶しておいた過去の実思考時間を読出し、現在の思考時間と比較することができる。   When displayed in step S963, the difference between the variable My.ANSTM and the variable My.OPTM is calculated, the actual thinking time required for substantial thinking is obtained, and this is displayed and stored. Also good. If stored, the past actual thinking time stored for the same problem can be read and compared with the current thinking time.

そして、図14の勝敗判定処理では、携帯電話100Cは自己が算出した実思考時間を携帯電話100Aに送信して、携帯電話100Aでは、自己の算出して実思考時間と、受信した相手の実思考時間との差分に基づき、勝敗を判定してもよい。   Then, in the win / loss determination process of FIG. 14, the mobile phone 100C transmits the actual thinking time calculated by itself to the mobile phone 100A, and the mobile phone 100A calculates the actual thinking time calculated by itself and the received opponent's actual time. You may determine victory or defeat based on the difference with the thinking time.

このように、本実施の形態では、プレイヤがペン120を操作して解答として入力した○の位置およびサイズが、正解(間違い箇所として指定すべき)エリアの位置およびサイズに、完全に一致しなくとも、両者の差分が、変数DEVTPが指す入力デバイスのタイプに応じたデバイス固有のストロークデータ検出に係る誤差に基づく変数My.OKPOSおよび変数My.OKSZが指す許容範囲内に収まれば、正答と判定される。   Thus, in the present embodiment, the position and size of ○ that the player inputs as an answer by operating the pen 120 do not completely match the position and size of the correct answer (which should be designated as an incorrect part) area. In both cases, if the difference between the two is within the allowable range indicated by the variable My.OKPOS and the variable My.OKSZ based on the error related to device-specific stroke data detection according to the type of input device indicated by the variable DEVTP, the result is determined to be correct. Is done.

(受信処理)
受信処理部222の処理について、図19のフローチャートに従い説明する。
(Reception processing)
The processing of the reception processing unit 222 will be described with reference to the flowchart of FIG.

まず、受信処理部222は、相手プレイヤの携帯電話から送信がされる入力座標データが最初の入力イベント(ペンダウン)か否かを判定するために、変数IFlagの値を0に初期設定する(ステップS101)。続いて、相手側の携帯電話から何らかのイベント信号を受信するのを待機する(ステップS102)。   First, the reception processing unit 222 initializes the value of the variable IFlag to 0 in order to determine whether or not the input coordinate data transmitted from the mobile phone of the opponent player is the first input event (pen down) (step S1). S101). Then, it waits to receive some event signal from the other party's mobile phone (step S102).

イベント信号を受信すると、当該イベント信号は、正誤答判定処理部233からの正答イベントであるかを判定する(ステップS103)。正答イベントを受信しないと判定すると(ステップS103でNO)、ステップS104において、相手プレイヤの携帯電話におけるペン120による軌跡を自己の携帯電話のディスプレイ107に表示するために、相手プレイヤの携帯電話と同種の入力デバイスを備えるか否かを、記憶部103の変数My.DEVTPの値と、変数HIis.DEVTPの値とを比較し、判別する(ステップS104)。両方の値は等しくないと判定されると相手側のペン120の軌跡の表示はせずに、処理はステップS102に戻る。   When the event signal is received, it is determined whether the event signal is a correct answer event from the correct / incorrect answer determination processing unit 233 (step S103). If it is determined that the correct answer event is not received (NO in step S103), in step S104, in order to display the trajectory by the pen 120 on the mobile phone of the opponent player on the display 107 of the own mobile phone, Is determined by comparing the value of the variable My.DEVTP in the storage unit 103 with the value of the variable HIis.DEVTP (step S104). If it is determined that the two values are not equal, the trajectory of the partner pen 120 is not displayed, and the process returns to step S102.

一方、同種の入力デバイスであることを判定すると(ステップS104でYES)、受信したイベントがペン軌跡(ペン座標)のイベントであるか否かを判定する(ステップS105)。ペン軌跡のイベントでないと判定されると(ステップS105でNO)、相手プレイヤの携帯電話のステップS100の処理において送信された描画消去の指示であるか否かを判定する(ステップS106)。描画消去指示の信号を受信したことを判定すると(ステップS106でYES)、処理はステップS108に移り、描画消去部260により、ディスプレイ107上の相手プレイヤの描画が消去される。その後、処理はステップS101に戻る。   On the other hand, if it is determined that the input devices are of the same type (YES in step S104), it is determined whether or not the received event is a pen locus (pen coordinate) event (step S105). If it is determined that the event is not a pen locus event (NO in step S105), it is determined whether or not the drawing erase instruction is transmitted in the process of step S100 of the opponent player's mobile phone (step S106). If it is determined that a drawing erase instruction signal has been received (YES in step S106), the process moves to step S108, and the drawing eraser 260 erases the drawing of the opponent player on the display 107. Thereafter, the process returns to step S101.

一方、描画消去の指示信号を受信したのではないと判定されると(ステップS106でNO)、受信した信号がその他のイベントを指示するか否かが判定される(ステップS107)。本実施の形態に係るアプリケーション部210は上述以外のイベントは必要がないので、ここでは何の制御もされない。したがって、処理はステップS102に戻る。   On the other hand, if it is determined that the drawing / erasing instruction signal has not been received (NO in step S106), it is determined whether or not the received signal indicates another event (step S107). Since the application unit 210 according to the present embodiment does not require any event other than the above, no control is performed here. Therefore, the process returns to step S102.

ステップS103の処理に戻り、受信した信号が正答イベントを指示していると判定されると(ステップS103でYES)、当該信号とともに受信をしたパラメータper1とper2の値を変数His.ANSTMと変数His.OPTMに格納する(ステップS110)。その後、処理終了をアプリケーション部210に出力する(ステップS111)。   Returning to the process of step S103, if it is determined that the received signal indicates a correct answer event (YES in step S103), the values of the parameters per1 and per2 received together with the signal are set to the variable His.ANSTM and the variable His. Store in .OPTM (step S110). Thereafter, the processing end is output to the application unit 210 (step S111).

なお、変数per2が指す変数His.OPTMの値を事前に取得している場合、または初期化する場合には、変数per2の値は必須ではない。   Note that the value of the variable per2 is not essential when the value of the variable His.OPTM pointed to by the variable per2 is acquired in advance or when the value is initialized.

ステップS105の処理に戻り、受信した信号がペン軌跡(ペン座標)のイベントを指示していると判定されると(ステップS105でYES)、当該イベントとともに受信した入力座標の値を変数NS_x,NS_yのそれぞれに代入する(ステップS113)。その後、受信したイベント信号がペンダウンを指示するか否かが判定される(ステップS115)。すなわち、変数IFlagの値が0を指示するか否かが判定される。この判定により、監視(消去)を開始した後、初めての相手プレイヤの携帯電話からのペン操作のイベント受信であるか否かが判定される。   Returning to the process of step S105, if it is determined that the received signal indicates an event of a pen locus (pen coordinate) (YES in step S105), the value of the input coordinate received together with the event is changed to the variables NS_x, NS_y. (Step S113). Thereafter, it is determined whether or not the received event signal indicates pen-down (step S115). That is, it is determined whether or not the value of the variable IFlag indicates 0. Based on this determination, it is determined whether or not it is the first pen operation event reception from the mobile phone of the opponent player after monitoring (erasing) is started.

ペンダウンのイベント信号を指示していると判定されると(ステップS115でYES)、ステップS117の処理に移行する。ペンダウンのイベントを指示する信号であると判定されなければ(ステップS115でNO)、変数OS_x,OS_yの座標位置から、変数NS_x,NS_yの座標位置の間にラインを描画するように、表示処理部240に指示がなされる。これにより、ディスプレイ107に、相手プレイヤの携帯電話に表示されるのと同じ位置に相手プレイヤのペン操作によるラインが描画される(ステップS116)。その後、ステップS117の処理に移行する。   If it is determined that the pen down event signal is instructed (YES in step S115), the process proceeds to step S117. If it is not determined that the signal indicates a pen-down event (NO in step S115), the display processing unit is configured to draw a line between the coordinate positions of the variables OS_x and OS_y and the coordinate positions of the variables NS_x and NS_y. An instruction is given at 240. As a result, a line generated by the pen operation of the opponent player is drawn on the display 107 at the same position displayed on the mobile phone of the opponent player (step S116). Thereafter, the process proceeds to step S117.

ステップS117においては、変数IFlagの値が1に設定されるとともに、変数OS_x,OS_yに、変数NS_x,NS_yのxおよびy座標の値がそれぞれが代入される。その後、処理はステップS102に移る。   In step S117, the value of the variable IFlag is set to 1, and the values of the x and y coordinates of the variables NS_x and NS_y are assigned to the variables OS_x and OS_y, respectively. Thereafter, the process proceeds to step S102.

(タイマ処理)
タイマ処理部270の処理について、図20のフローチャートを参照し説明する。
(Timer processing)
The processing of the timer processing unit 270 will be described with reference to the flowchart of FIG.

タイマ処理部270は稼働されると、まず、変数TimerFの値が0を指示するか否かを判定する(ステップS151)。変数TimerFの値が0を指示すると判定すると、処理は終了するが、指示しないと判定すると(ステップS151でNO)、正答操作時間を計測するために、変数My.ANSTMの値を+1カウントアップする(ステップS152)。その後処理は終了する。   When the timer processing unit 270 is operated, first, it is determined whether or not the value of the variable TimerF indicates 0 (step S151). If it is determined that the value of the variable TimerF indicates 0, the process ends, but if it is determined that it does not indicate (NO in step S151), the value of the variable My.ANSTM is incremented by 1 to measure the correct answer operation time. (Step S152). Thereafter, the process ends.

(プログラムおよび記録媒体)
ここで、本実施の形態における携帯電話100を含む通信端末間の間違い探しゲームプログラム実行時の通信を含む正答操作時間に係る方法は、上述したようなフローチャートに従うプログラムとして提供することができる。このようなプログラムは、携帯電話100のCPU106Aのコンピュータに付属する記録媒体に予め記録させて、プログラム製品として提供することもできる。このような記録媒体としては、FD(Flexible Disc)、CD(Compact Disc)−ROMまたは記憶部103を構成するROM1031およびRAM1032、ならびにメモリカードなどのコンピュータ読取り可能な記録媒体がある。あるいは、コンピュータに内蔵するハードディスクなどの記録媒体にて記録させて、プログラムを提供することもできる。また、インターネット500を含む各種ネットワークを介したダウンロードによって、プログラムを提供することもできる。ここで、プログラム製品は、プログラム自体と、プログラムが記録された記録媒体とを含む。
(Program and recording medium)
Here, the method according to the correct answer operation time including the communication at the time of executing the error search game program between the communication terminals including the mobile phone 100 in the present embodiment can be provided as a program according to the flowchart as described above. Such a program can be recorded in advance on a recording medium attached to the computer of the CPU 106A of the mobile phone 100 and provided as a program product. Examples of such a recording medium include a FD (Flexible Disc), a CD (Compact Disc) -ROM or a ROM 1031 and a RAM 1032 constituting the storage unit 103, and a computer-readable recording medium such as a memory card. Alternatively, the program can be provided by being recorded on a recording medium such as a hard disk built in the computer. The program can also be provided by downloading via various networks including the Internet 500. Here, the program product includes the program itself and a recording medium on which the program is recorded.

なお、一般的傾向として、コンピュータのオペレーティングシステムの一部として様々なプログラムモジュールを用意しておき、アプリケーションプログラムはこれらモジュールを所定の配列で必要なときに呼出して処理を進める方式が一般的である。そうした場合、本実施の形態に係るシステムを実現するためのソフトウェア自体にはそうしたモジュールは含まれず、当該コンピュータでオペレーティングシステムと協働してはじめてシステムが実現することになる。しかし、一般的なプラットホームを使用する限り、そうしたモジュールを含ませたソフトウェアを流通させる必要はなく、それらモジュールを含まないソフトウェア自体およびそれらソフトウェアを記録した記録媒体(およびそれらソフトウェアがネットワーク上を流通する場合のデータ信号)が実施の形態を構成すると考えることができる。   As a general tendency, various program modules are prepared as a part of a computer operating system, and an application program is called to advance the processing by calling these modules in a predetermined arrangement. . In such a case, the software itself for realizing the system according to the present embodiment does not include such a module, and the system is realized only when the computer cooperates with the operating system. However, as long as a general platform is used, it is not necessary to distribute software including such modules, and the software itself not including these modules and the recording medium storing the software (and the software distributes on the network). Data signal) can be considered to constitute the embodiment.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本発明の実施の形態に係る通信ネットワークの構成図である。It is a block diagram of the communication network which concerns on embodiment of this invention. 本実施の形態に係るルーム作成処理の通信シーケンスを示す図である。It is a figure which shows the communication sequence of the room creation process which concerns on this Embodiment. 本実施の形態に係る携帯電話の外観を示す図である。It is a figure which shows the external appearance of the mobile telephone which concerns on this Embodiment. 本実施の形態に係る携帯電話のハードウェア構成図である。It is a hardware block diagram of the mobile telephone which concerns on this Embodiment. 本実施の形態に係る表示一体型入力装置の一例を示すハードウェアブロック図である。It is a hardware block diagram which shows an example of the display integrated input device which concerns on this Embodiment. 本実施の形態に係る表示一体型入力装置の他の例を示すハードウェア構成図である。It is a hardware block diagram which shows the other example of the display integrated input device which concerns on this Embodiment. 本実施の形態に係る携帯電話の機能構成図である。It is a functional block diagram of the mobile telephone which concerns on this Embodiment. 本実施の形態に係る記憶部に格納される入力デバイス情報の一例を示す図である。It is a figure which shows an example of the input device information stored in the memory | storage part which concerns on this Embodiment. 本実施の形態に係る記憶部に格納される変数の一例を示す図である。It is a figure which shows an example of the variable stored in the memory | storage part which concerns on this Embodiment. 本実施の形態に係る間違い探しのゲームプログラム実行時に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed at the time of execution of the game program of a mistake search concerning this Embodiment. (A)〜(C)は、間違い探しの表示画面例を説明する図である。(A)-(C) is a figure explaining the example of a display screen of an error search. (A)〜(D)は、間違い探しのゲームプログラムにおける正答・誤答の例を説明する図である。(A)-(D) are the figures explaining the example of the correct answer in a game program of an error search, and an incorrect answer. 本実施の形態に係るアプリケーション部の処理フローチャートである。It is a process flowchart of the application part which concerns on this Embodiment. 本実施の形態に係る勝敗判定部の処理フローチャートである。It is a process flowchart of the win / loss determination part which concerns on this Embodiment. 本実施の形態に係るUI処理部の処理フローチャートである。It is a process flowchart of the UI process part which concerns on this Embodiment. 本実施の形態に係るストローク記憶処理部の処理フローチャートである。It is a process flowchart of the stroke memory | storage process part which concerns on this Embodiment. 本実施の形態に係るストローク解析部の処理フローチャートである。It is a process flowchart of the stroke analysis part which concerns on this Embodiment. 本実施の形態に係る正誤答判定処理のフローチャートである。It is a flowchart of the right / wrong answer determination process which concerns on this Embodiment. 本実施の形態に係る受信処理のフローチャートである。It is a flowchart of the reception process which concerns on this Embodiment. 本実施の形態に係るタイマ処理部の処理フローチャートである。It is a process flowchart of the timer process part which concerns on this Embodiment. 本実施の形態に係るゲーム実行時の携帯電話間の通信のシーケンスを模式的に示す図である。It is a figure which shows typically the communication sequence between the mobile telephones at the time of the game execution which concerns on this Embodiment.

符号の説明Explanation of symbols

100 通信端末、100A、100B、100C 携帯電話、210 アプリケーション部、211 勝敗判定部、220 通信部、221 送信処理部、222 受信処理部、230 UI処理部、231 ストローク記憶処理部、232 ストローク解析部、233 正誤答判定部、240 表示処理部、250 表示用メモリ、260 描画消去部、270 タイマ処理部、280 入力処理部、103A 入力デバイス情報、103B 変数情報、103C 問題情報。   100 communication terminal, 100A, 100B, 100C mobile phone, 210 application unit, 211 win / loss determination unit, 220 communication unit, 221 transmission processing unit, 222 reception processing unit, 230 UI processing unit, 231 stroke storage processing unit, 232 stroke analysis unit 233 Correct / incorrect answer determination unit, 240 display processing unit, 250 display memory, 260 drawing erase unit, 270 timer processing unit, 280 input processing unit, 103A input device information, 103B variable information, 103C problem information.

Claims (7)

問題が提示されてから、入力デバイスを用いて為された一連操作に基づき、操作者の前記問題が提示されてから前記正答を導出するのに要した思考時間を計測する計測方法であって、
前記一連操作が完了したことを検出する操作検出ステップと、
前記操作検出ステップが検出した前記一連操作が、提示された前記問題に対する正答を指示するかを判定する判定ステップと、
前記問題が提示されてから、前記判定ステップにより正答を指示すると判定されるまでの所要時間を計測する正答時間計測ステップと、
前記正答時間計測ステップにより計測された前記所要時間と、前記入力デバイスを用いて前記一連操作を完了するために必要とされる前記入力デバイスの種別毎の基準時間とに基づき、前記思考時間を算出する算出ステップと、を備える、計測方法。
Based on a series of operations performed using an input device after a problem is presented, a measurement method for measuring a thinking time required to derive the correct answer after the problem is presented by an operator,
An operation detecting step for detecting that the series of operations is completed;
A determination step of determining whether the series of operations detected by the operation detection step indicates a correct answer to the presented question;
A correct answer time measuring step of measuring a required time from when the question is presented until it is determined that the correct answer is instructed by the determining step;
The thinking time is calculated based on the required time measured by the correct answer time measuring step and a reference time for each type of the input device required to complete the series of operations using the input device. And a calculating step.
前記算出ステップでは、
前記所要時間から、前記基準時間を減算することにより、前記思考時間を算出する、請求項1に記載の計測方法。
In the calculating step,
The measurement method according to claim 1, wherein the thinking time is calculated by subtracting the reference time from the required time.
算出した前記思考時間を出力する、請求項1または2に記載の計測方法。   The measurement method according to claim 1, wherein the calculated thinking time is output. 算出した前記思考時間を記憶する、請求項1から3のいずれかに記載の計測方法。   The measurement method according to claim 1, wherein the calculated thinking time is stored. 外部端末から、当該外部端末において算出された、前記同一問題に対する前記思考時間のデータを受信する受信ステップと、
受信した前記データが指す前記思考時間と、前記算出ステップにより算出した前記思考時間とを比較する時間比較ステップと、
前記時間比較ステップの比較結果に基づき、前記問題に対する前記思考時間の速さを競った場合の勝敗判定結果を出力する勝敗出力ステップと、をさらに備える、請求項1から4のいずれかに記載の計測方法。
A receiving step of receiving, from an external terminal, data of the thinking time for the same problem calculated in the external terminal;
A time comparison step for comparing the thought time indicated by the received data with the thought time calculated by the calculation step;
5. The winning / losing output step of outputting a winning / losing determination result when competing for the speed of the thinking time for the problem based on the comparison result of the time comparing step, further comprising: Measurement method.
問題が提示されてから、入力デバイスを用いて為された一連操作に基づき、操作者の前記問題が提示されてから前記正答を導出するのに要した思考時間を計測する計測装置であって、
前記一連操作が完了したことを検出する操作検出手段と、
前記操作検出手段が検出した前記一連操作が、提示された前記問題に対する正答を指示するかを判定する判定手段と、
前記問題が提示されてから、前記判定手段により正答を指示すると判定されるまでの所要時間を計測する正答時間計測手段と、
前記正答時間計測手段により計測された前記所要時間と、前記入力デバイスを用いて前記一連操作を完了するために必要とされる前記入力デバイスの種別毎の基準時間とに基づき、前記思考時間を算出する算出手段と、を備える、計測装置。
Based on a series of operations performed using an input device after a problem is presented, a measuring device that measures a thinking time required to derive the correct answer after the problem is presented by an operator,
Operation detecting means for detecting completion of the series of operations;
Determining means for determining whether the series of operations detected by the operation detecting means indicates a correct answer to the presented question;
Correct answer time measuring means for measuring a required time from when the problem is presented until it is determined that the correct means instructs the correct answer;
The thinking time is calculated based on the required time measured by the correct answer time measuring means and a reference time for each type of the input device required to complete the series of operations using the input device. A measuring device.
請求項1に記載の計測方法をコンピュータに実行させるための、計測プログラム。   A measurement program for causing a computer to execute the measurement method according to claim 1.
JP2008281630A 2008-10-31 2008-10-31 Measuring method and apparatus Withdrawn JP2010104676A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008281630A JP2010104676A (en) 2008-10-31 2008-10-31 Measuring method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008281630A JP2010104676A (en) 2008-10-31 2008-10-31 Measuring method and apparatus

Publications (1)

Publication Number Publication Date
JP2010104676A true JP2010104676A (en) 2010-05-13

Family

ID=42294713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008281630A Withdrawn JP2010104676A (en) 2008-10-31 2008-10-31 Measuring method and apparatus

Country Status (1)

Country Link
JP (1) JP2010104676A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017093481A (en) * 2015-11-18 2017-06-01 株式会社メガチップス Game system, connection device, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017093481A (en) * 2015-11-18 2017-06-01 株式会社メガチップス Game system, connection device, and program

Similar Documents

Publication Publication Date Title
US10248846B2 (en) Information processing device
CN108126339B (en) Intelligent mahjong game device, control method and system
US11364439B2 (en) Game processing system, game processing program, and game processing method
US20110134028A1 (en) Communication terminal device, communication method, and communication program
US20070168860A1 (en) Communication system, storage medium having stored thereon communication program usable for the same, and connection control apparatus
CN106055098A (en) Air gesture operation method and apparatus
JP5702493B1 (en) Control method, control program, and computer
US10564712B2 (en) Information processing device, information processing method, and program
US9621703B2 (en) Motion to connect to kiosk
CN104756124A (en) Information processing device
US20160041747A1 (en) Computer user interface apparatus, and parameter control method and non-transitory storage medium
CN113318438B (en) Virtual prop control method, device, equipment and computer readable storage medium
JP2019126360A (en) Game program, method, and information processor
WO2016056116A1 (en) Display system, input device, display device, and display method
KR100770892B1 (en) Method for transmitting image data in real time
JP2013218468A (en) Information processing system, display terminal device, server, information processing method, and program
JP2010104676A (en) Measuring method and apparatus
US20240001236A1 (en) Method and apparatus for displaying prompt information, storage medium and electronic device
JP5250904B2 (en) Information processing device
KR20220066385A (en) How to display note information, how to send note information, and electronic devices
CN112774185A (en) Virtual card control method, device and equipment in card virtual scene
CN110519517B (en) Copy guiding method, electronic device and computer readable storage medium
JP2010104677A (en) Measuring method and apparatus
CN112306361B (en) Terminal screen projection method, device and system based on gesture pairing
WO2021031748A1 (en) Information processing method and apparatus

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120110